La consommation pour l’entraînement d’un modèle de langage comme GPT-3, le prédécesseur du très célèbre chatGPT, est estimée un peu moins 1 300 MWh d’électricité, soit la consommation annuelle de 584 foyers français. Il reste difficile d’estimer la consommation d’énergie par requête d’un tel modèle en raison du manque d’informations disponibles. Il est néanmoins très probable qu’elle soit encore plus importante au vu des millions instances quotidiennes. Quelles techniques peuvent être mises en œuvre pour réduire cette consommation ? Cette présentation vous propose de le découvrir par le biais des modèles convolutifs pour le traitement d’images.

    Après une prépa TSI à Saint-Brieuc, Cédric Gernigon est actuellement doctorant au centre INRIA de l’Université de Rennes.

    Cette conférence s’est tenue le mardi 11 juin 2024 dans l’amphi 2 du département Science et Génie des matériaux de l’IUT de Saint-Brieuc. Elle a été organisée par les associations Saint-Brieuc Prépas et Le Temps des Sciences, grâce au soutien de Saint-Brieuc Armor Agglomération et de la Région Bretagne.

    Vidéo réalisée par Bonnie&Clark Productions

    www.letempsdessciences.fr

    Leave A Reply