Connaissez vous le coût environnemental de l’intelligence artificielle?
Automatiser les actions du quotidien, demander à votre enceinte connectée d’appeler un ami, d’allumer ou d’éteindre vos objets connectés, c’est pratique, mais cela a un coût pour l'environnement. Alors que des technologies énergivores comme le minage des cryptomonnaies sont critiquées pour leur empreinte environnementale, l’utilisation de l’intelligence artificielle est moins attaquée, alors qu’elle se base aussi sur des mécanismes gourmands en énergie.
Les recherches Google ont elles aussi une empreinte environnementale
Désormais, il existe un algorithme d'apprentissage automatique pour tout : les applications basées sur ces calculs facilitent la vie quotidienne, les courses, le parking, la recherche d’un travail ou d’une maison, et même les consultations sur les moteurs de recherche… Ces services donnent l’impression d’être immatériels, mais les chercheurs s'inquiètent des dépenses environnementales que tous ces calculs représentent. En juin 2019, une étude de l’Université du Massachusetts, a analysé les coûts de l'IA, y compris le modèle de traitement du langage naturel (BERT) qui permet à Google de gérer les requêtes sur son moteur de recherche. Selon cette étude, pour leur apprentissage, les algorithmes émettent jusqu'à 284 tonnes de CO2, soit l’équivalent de cinq voitures. La même empreinte carbone qu’un passager faisant un aller-retour entre New York et San Francisco en avion. Un cadre de Google, Timnit Gebru, a été licencié fin 2020 pour avoir pointé du doigt les points faibles de cette technologie, et tout particulièrement son côté énergivore.
Les émissions CO2 de l'écriture automatisée sont équivalentes aux émissions d’une voiture sur un trajet de 700 000 km
Autre exemple : les dépenses énergétiques de l’écriture automatisée. Une technologie appelée GPT-3 permet à certains médias de remplacer les journalistes par une intelligence artificielle. Timnit Gebru avertissait que les avancées qui permettent d’entraîner une IA comme GPT-3 à écrire toute seule émettait autant de CO2 qu'une voiture qui effectue un trajet de 700 000 km. Kate Saenko, professeure agrégée d'informatique à l'Université de Boston, craint que nous n'en fassions pas assez pour rendre l'IA plus économe en énergie. "La tendance générale de l'IA va dans la mauvaise direction pour la consommation d'énergie", prévient-elle. "Il devient de plus en plus coûteux en termes de puissance de former les nouveaux modèles."
Des prédictions plus précises nécessitent toujours plus de hardware spécialisé
L’IA n'a pas toujours été si énergivore. Auparavant, les apprentissages pouvaient se faire sur des supports ordinaires (des serveurs classiques), mais aujourd’hui on parle d’une “boulimie de données”, et les modèles demandent plus de puissance pour s'entraîner. Les chercheurs leur envoient plus de données pour produire des résultats plus précis, explique Lukas Biewald, PDG de Weights and Biases, une entreprise qui aide les chercheurs en IA à organiser les données d'entraînement.
Rendre l'entraînement des IA plus efficace et plus écologique est-il possible ?
Les chercheurs imaginent plusieurs manières d'économiser en données et supports de calcul pour rendre l’IA moins polluante, mais cela n’est pas évident. Kate Saenko explique que d'une part, tout le monde attend une informatique plus économe en énergie, mais que d’autre part, les chercheurs exigent constamment plus de précision. Pour Kate Saenko, une manière d’encourager la prise de conscience sur la question serait de demander de publier les données sur la consommation électrique des modèles de calcul des chercheurs. Cela pourrait inspirer la concurrence pour augmenter l'efficacité et réduire les coûts.
- Source : FranceSoir