
Avant que l'intelligence artificielle puisse transformer la société, la technologie devra d'abord apprendre à vivre dans ses limites.
Pour l'instant, l'IA générative a une “demande insatiable” d'électricité pour alimenter les dizaines de kilomètres de clusters informatiques nécessaires au fonctionnement de grands modèles de langage comme le GPT-4 d'OpenAI, a averti la directrice du marketing Ami Badani de la société de conception de puces Arm Holdings.
Si l'IA générative doit pouvoir fonctionner sur chaque appareil mobile, d'un ordinateur portable et d'une tablette à un smartphone, elle devra être capable de s'adapter sans submerger le réseau électrique en même temps.
“Nous ne pourrons pas continuer à faire progresser l'IA sans aborder la question de la consommation d'énergie”, a déclaré Badani lors de la conférence Fortune Brainstorm AI à Londres lundi. “ChatGPT nécessite 15 fois plus d'énergie qu'une recherche web traditionnelle”.
Lisez plus : J'ai vendu une startup de big data de 1,4 milliard de dollars à IBM—ensuite, j'ai fondé un sanctuaire naturel. Voici les dangers de la consommation d'énergie de l'IA.
Non seulement de plus en plus d'entreprises utilisent l'IA générative, mais l'industrie technologique est en pleine course pour développer des outils nouveaux et plus puissants, ce qui signifie que la demande de calcul ne fera qu'augmenter—et la consommation d'énergie avec elle, à moins qu'il ne soit possible d'agir à ce sujet.
La dernière avancée d'OpenAI, la société derrière ChatGPT, est Sora. Elle peut créer des clips vidéo super réalistes ou stylisés d'une durée allant jusqu'à 60 secondes, basés uniquement sur des indications de texte de l'utilisateur.

La merveille de l'IA générative a un coût élevé. “Il faut 100 000 puces d'IA fonctionnant à pleine capacité de calcul et de consommation d'énergie pour entraîner Sora,” a déclaré Badani. “C'est une quantité énorme”.
Les centres de données, où la plupart des modèles d'IA sont entraînés, représentent actuellement 2 % de la consommation mondiale d'électricité, selon Badani. Mais avec l'IA générative qui devrait devenir courante, elle prédit qu'elle pourrait finir par consommer un quart de toute l'énergie aux États-Unis d'ici 2030.
La solution à cette énigme est de développer des puces semi-conductrices optimisées pour fonctionner avec un minimum d'énergie.
C'est là qu'intervient Arm : ses conceptions de processeurs RISC fonctionnent actuellement sur 99 % de tous les smartphones, à la différence de l'architecture x86 concurrente développée par Intel. Cette dernière a été un standard pour les PC de bureau, mais s'est révélée trop inefficace pour faire fonctionner des appareils portables à batterie comme les smartphones et les tablettes.
Arm adopte cette même philosophie de conception pour l'IA.
“Si tu penses à l'IA, cela a un coût”, a déclaré Badani, “et ce coût, malheureusement, est l'énergie”.
(c) 2024, Fortune