Logo ETI Quitter la lecture facile

En ce moment

En optimisant l’usage de l’IA, les entreprises peuvent limiter leurs émissions de CO2

Posté le par Philippe RICHARD dans Informatique et Numérique

Les modèles d'apprentissage automatique connaissent une croissance exponentielle. Mais pour traiter avec précision des images, des textes ou des vidéos, l’intelligence artificielle nécessite une énergie exponentielle. Un outil permet de calculer précisément leurs émissions de CO2.

Le machine learning (ML) est devenu un outil clé dans diverses applications telles que l’assurance, les banques, la finance, les soins de santé, etc. Résultat, ce marché devrait atteindre les 47,3 milliards de dollars dans 6 ans, contre 2,4 milliards en 2019, selon une étude menée par Verified Market Research.

Revers de la médaille, le ML est énergivore. L’alimentation des processeurs graphiques ou GPU en anglais (Graphics Processing Unit) pour former les plus petits modèles d’apprentissage capables de traiter le langage ou les images émet à peu près autant de carbone que la recharge d’un téléphone.

Le plus grand modèle (six milliards de paramètres) a émis presque autant de carbone que l’alimentation d’un foyer pendant un an aux États-Unis.  Il n’était pourtant entraîné qu’à 13 % de ses capacités…

Des mesures plus précises

Ces résultats impressionnants ont été obtenus par Jesse Dodge, chercheur à l’Allen Institute for AI et auteur principal d’un article présenté en juin dernier à la conférence ACM sur l’équité, la responsabilité et la transparence (FaccT- Fairness, Accountability and Transparency – ACM FAccT).

Cette équipe a développé 11 modèles d’apprentissage automatique de différentes tailles pour traiter le langage ou les images. La formation allait d’une heure sur un GPU à huit jours sur 256 GPU.

Plusieurs logiciels permettent d’estimer les émissions de carbone des charges de travail de l’IA. Mais ils ne sont pas fiables dans tous les contextes et ne sont pas en mesure de saisir toutes les nuances. La nouvelle approche de l’Allen Institute for AI permet de gagner en précision.

Premièrement, elle enregistre l’utilisation de l’énergie des puces des serveurs sous la forme d’une série de mesures, plutôt que d’additionner leur utilisation au cours de la formation. Deuxièmement, elle aligne ces données d’utilisation avec une série de points de données indiquant les émissions locales par kilowattheure (kWh) d’énergie utilisée.

Mais si ce nouvel outil est plus sophistiqué que les anciens, il ne permet de suivre qu’une partie de l’énergie utilisée dans les modèles de formation par les GPU. Il ne mesure pas non plus l’énergie utilisée pour construire l’équipement informatique et pour refroidir le datacenter.

Cette méthode a permis néanmoins de constater que le principal facteur de réduction des émissions était la région géographique. Les grammes de CO2 par kWh variaient de 200 à 755. Outre le changement de lieu, les chercheurs ont testé deux techniques de réduction du CO2 en optimisant les lancements des modèles. Résultat, des réductions pouvant atteindre jusqu’à 80 % d’émission de CO2 pour les petits modèles de ML.

Mais la meilleure piste pour que les entreprises réduisent leurs émissions de CO2 en exploitant l’IA consiste d’abord à se demander si l’on a vraiment besoin d’un modèle de ML pour obtenir un résultat pertinent.

Pour aller plus loin

Posté le par Philippe RICHARD


Réagissez à cet article

Commentaire sans connexion

Pour déposer un commentaire en mode invité (sans créer de compte ou sans vous connecter), c’est ici.

Captcha

Connectez-vous

Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.

INSCRIVEZ-VOUS
AUX NEWSLETTERS GRATUITES !