IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le nouvel audit environnemental de Mistral montre à quel point l'IA nuit à la planète
Et liste des solutions pour réduire l'impact négatif de l'utilisation de cette technologie

Le , par Patrick Ruiz

41PARTAGES

18  0 
Le nouvel audit environnemental de Mistral montre à quel point l'IA nuit à la planète
Et liste des solutions pour réduire l’impact négatif de l’utilisation de cette technologie

Les grands modèles de langage influencent de plus en plus tous les domaines, du travail aux loisirs, leurs capacités croissantes et suscitent en parallèle sur leur coût pour la planète. Mistral AI vient de publier l'une des évaluations d'impact environnemental les plus détaillées à ce jour sur un modèle d'IA. Dans son analyse du cycle de vie de son modèle de langage dénommé Mistral Large 2, l'entreprise lève le voile sur les émissions, la consommation d'eau et l'épuisement des ressources matérielles, fournissant des chiffres concrets sur l'empreinte environnementale croissante de l'intelligence artificielle générative. Elle propose en sus des solutions pour la réduction de l’impact négatif de l’utilisation de cette technologie.

Le rapport a été élaboré en collaboration avec Carbone 4 et l'ADEME, puis évalué par Resilio et Hubblo. L'étude porte sur les 18 premiers mois d'existence du modèle, qui s'achèvera en janvier 2025. Les conclusions sont alarmantes : la formation du modèle a émis 20 400 tonnes métriques d'équivalent CO₂, consommé 281 000 mètres cubes d'eau et entraîné un appauvrissement des ressources équivalent à 660 kilogrammes d'antimoine. Ces chiffres reflètent le coût de l'alimentation de milliers de GPU 24 heures sur 24 dans d'énormes centres de données, une opération gourmande en énergie et en ressources qui est généralement invisible pour l'utilisateur final.

Le coût de l’inférence

Si l'entraînement des modèles est la phase la plus gourmande en ressources, l'inférence, c'est-à-dire le processus qui consiste à fournir des réponses aux utilisateurs, n'est pas non plus sans conséquence. Mistral rapporte qu'une interaction type d'un utilisateur avec son assistant Le Chat, impliquant environ 400 tokens, émet 1,14 gramme de CO₂, consomme 45 millilitres d'eau et épuise 0,16 milligramme de ressources en terres rares. Ces chiffres peuvent sembler modestes, mais ils augmentent de manière exponentielle. Multipliés par des millions de requêtes quotidiennes, ils indiquent un coût environnemental constant et cumulatif qui se poursuit longtemps après la fin de l'entraînement.

Mistral note que 85,5 % des émissions totales de gaz à effet de serre du modèle et 91 % de sa consommation d'eau proviennent des processus de calcul qui alimentent à la fois l'entraînement et l'inférence. Cette proportion souligne à quel point la charge environnementale est liée au fonctionnement du modèle, et pas seulement à sa construction.



Le rapport de Mistral sert de manifeste pour la responsabilité environnementale dans le domaine de l'IA. Alors que les discussions sur l'éthique de l'IA se concentrent souvent sur des questions telles que les biais, la désinformation et les abus, le coût environnemental des LLM est resté relativement peu étudié. Mistral souhaite changer cela en exhortant le secteur à adopter des normes communes en matière de reporting environnemental et à évoluer vers une plus grande transparence.

L'entreprise établit un parallèle avec d'autres secteurs où les données relatives à l'étiquetage et au cycle de vie, telles que les émissions de carbone, la consommation d'énergie ou l'empreinte hydrique, aident les consommateurs et les régulateurs à faire des choix éclairés. Dans le domaine de l'IA, ces données font cruellement défaut. En rendant ces informations publiques, Mistral crée un précédent qui pourrait encourager d'autres développeurs d'IA à divulguer leur propre impact environnemental et à se faire concurrence non seulement sur les performances, mais aussi sur la durabilité.

On observe en sus un intérêt croissant pour l'influence que ces divulgations pourraient avoir sur les décisions d'achat. Les entreprises et les gouvernements souhaitent de plus en plus s'assurer que les technologies qu'ils adoptent s'alignent sur des objectifs de durabilité plus larges. Avec le rapport de Mistral comme référence, l'empreinte environnementale pourrait bientôt devenir un indicateur de performance clé pour les systèmes d'intelligence artificielle.

Mistral propose donc un jeu de solutions

Il s'agit notamment de sélectionner des modèles plus petits lorsque des performances élevées ne sont pas strictement nécessaires, de regrouper les demandes pour améliorer l'efficacité informatique et de choisir des centres de données alimentés par des énergies renouvelables. Le rapport préconise de plus de prendre en compte les facteurs environnementaux dans le choix des fournisseurs, renforçant ainsi l'idée que l'IA verte ne concerne pas seulement la conception, mais aussi le déploiement.

Cela représente un changement dans la manière dont les performances de l'IA sont mesurées. Plutôt que de se concentrer uniquement sur la vitesse, l'échelle ou l'intelligence, Mistral préconise une définition plus large de l'excellence, qui inclut la responsabilité écologique. À mesure que l'IA continue de se développer, cette perspective pourrait devenir la norme, et non plus l'exception.

L'audit environnemental de Mistral arrive à un moment crucial. Les charges de travail liées à l'IA exercent une pression croissante sur les infrastructures mondiales, alors même que les pays se fixent des objectifs climatiques plus ambitieux. Si rien n'est fait, l'avenir de l'IA générative pourrait discrètement devenir l'un des principaux facteurs d'émissions numériques. Mais cela n'est pas une fatalité.

En chiffrant ce qui était jusqu'à présent un débat abstrait, Mistral redéfinit le débat sur l'avenir de l'IA. L'appel de l'entreprise en faveur de la transparence, des meilleures pratiques et de la responsabilité collective pourrait contribuer à orienter le secteur vers un modèle d'innovation qui soit non seulement puissant et sûr, mais aussi durable.

Dans un secteur qui mesure souvent les progrès en termes de jetons par seconde, l'étude de Mistral rappelle que ce qui importe tout autant, c'est le coût de chacun de ces jetons pour la planète.

Source : Mistral

Et vous ?

Pensez-vous que les avantages de l’IA générative justifient sa consommation énergétique élevée ? Certains soutiennent que les progrès de l’IA générative dans la création artistique, la traduction automatique et d’autres domaines sont inestimables, tandis que d’autres s’inquiètent des conséquences environnementales.
Quelles alternatives pourraient réduire l’empreinte énergétique de l’IA générative ? Des approches telles que l’optimisation des modèles, l’utilisation de processeurs basse consommation et l’exploration de nouvelles sources d’énergie renouvelable pourraient-elles être la solution ?
Comment pouvons-nous équilibrer l’innovation technologique avec la durabilité ? L’IA générative est-elle un exemple de la tension entre progrès et responsabilité environnementale ? Quelles mesures pouvons-nous prendre pour trouver cet équilibre ?

Voir aussi :

Les résumés de recherche fournis par l'IA consomment 10 fois plus d'énergie qu'une recherche normale sur Google, d'après des rapports : sauvons la planète en désactivant l'IA dans Google Search

L'IA pourrait engloutir un quart de l'électricité produite aux États-Unis d'ici 2030 si elle ne se défait pas de sa grande dépendance à l'égard de l'énergie, affirme un cadre d'Arm Holdings

Un groupe de réflexion financé par les Big Tech affirme qu'il n'y a pas lieu de s'inquiéter de l'impact de l'IA sur le climat, soulevant des préoccupations quant à son impartialité dans cette question
Vous avez lu gratuitement 11 897 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 26/08/2025 à 10:52
Citation Envoyé par calvaire Voir le message
je n'en suis pas sur, les llms basiques sont mauvais pour le travail. Pour avoir de la qualité il faut passer par des modèles avec "raisonnement" et agents. Qui consomme beaucoup plus.
Avec du gain software + hardware, ca va généraliser l'utilisation des modèles plus puissant (et plus consommateurs)

comme avec toute innovations qualitative: télé couleur, fhd, 4k, ray tracing,...
Es ce que le fsr/dlss a permis de réduire la conso des gpu ? non les jeux ont profité de ces optimisations pour encore plus chargé les options graphique.

Es ce que les algo de compressions comme hevc a permis de réduire la conso et charge réseau ? non ca a permis de démocratiser la 4k jusque dans le smartphone de 6.8 pouces.

Es ce que le turbo et le downsizing a reduit la consomation des voitures ? non les constructeurs en ont profiter pour ajouter pleins d'option et l'ue a mis pleins de surnomme sur la sécurité et anti pollution, les renforts d'une simple citadine de 2025 pèse limite autant qu'une 2cv.
et globalement on plafonne depuis 20ans à du 5-6l/100 de conso.
un amis a une 306 diesel de 2001, il arrive à du 5.5l sur autoroute.

Donc les améliorations vont surtout généraliser les modèles plus puissants.
Je suis tout a fait d'accord avec ce point de vue, et c'est la même chose dans le domaine de l'informatique. La puissance accrue des CPU et GPU plus performant, est mal utilisée, et on se retrouve avec des software bourré de fonctionnalité inutiles ou même n'ayant pas de rapport avec le but du software. On ajoute ces fonctionnalité parce que l'ont peut, mais pas parce qu'elle est nécessaire.

Et évidemment, cela pousse à la consommation, car il faut "plus de puissance" pour faire fonctionner la nouvelle version d'un software, alors que la version précédente nous convenait parfaitement. Au final, on se retrouve aves des softwares "boursouflés", et ce qui était simple finit par devenir compliqué...

BàV et Peace & Love.
1  0 
Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 25/08/2025 à 16:48
Cela pollue plus qu’une centrale à charbon, ou le recyclage d’une voiture électrique ?
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 25/08/2025 à 19:43
Citation Envoyé par Ryu2000 Voir le message
Il y aura des progrès au niveau du software et du hardware et dans le futur une requête consommera peut-être moins d'énergie.

Quand la quasi intégralité des sociétés du domaine auront fait faillite, que 2 ou 3 services comme Grok auront survécu. Le nombre de requête sera limité.
Si il fallait payer 10 centimes pour chaque requête, le gens feraient moins de requêtes.

En attendant les entreprises qui font de l'IA vont probablement augmenter leur consommation d’électricité pendant les années à venir.
je n'en suis pas sur, les llms basiques sont mauvais pour le travail. Pour avoir de la qualité il faut passer par des modèles avec "raisonnement" et agents. Qui consomme beaucoup plus.
Avec du gain software + hardware, ca va généraliser l'utilisation des modèles plus puissant (et plus consommateurs)

comme avec toute innovations qualitative: télé couleur, fhd, 4k, ray tracing,...
Es ce que le fsr/dlss a permis de réduire la conso des gpu ? non les jeux ont profité de ces optimisations pour encore plus chargé les options graphique.

Es ce que les algo de compressions comme hevc a permis de réduire la conso et charge réseau ? non ca a permis de démocratiser la 4k jusque dans le smartphone de 6.8 pouces.

Es ce que le turbo et le downsizing a reduit la consomation des voitures ? non les constructeurs en ont profiter pour ajouter pleins d'option et l'ue a mis pleins de surnomme sur la sécurité et anti pollution, les renforts d'une simple citadine de 2025 pèse limite autant qu'une 2cv.
et globalement on plafonne depuis 20ans à du 5-6l/100 de conso.
un amis a une 306 diesel de 2001, il arrive à du 5.5l sur autoroute.

Donc les améliorations vont surtout généraliser les modèles plus puissants.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/08/2025 à 7:58
Citation Envoyé par calvaire Voir le message
Donc les améliorations vont surtout généraliser les modèles plus puissants.
Ils peuvent proposer plusieurs niveaux.
Par exemple aujourd'hui avec Grok t'as le choix entre :
- Rapide (Grok 3)
- Expert (Grok 4)

Peut-être que dans le futur il y aura l'équivalent de Grok 3 d'aujourd'hui, mais qui consommera moins.
Il faut que les services comme Grok deviennent rentable, donc il faut économiser de l'énergie et faire payer les utilisateurs (où les forcer à regarder une pub pour faire une requête).

Citation Envoyé par calvaire Voir le message
comme avec toute innovations qualitative: télé couleur, fhd, 4k, ray tracing,...
D'un autre côté aujourd'hui on peut faire tourner sur un Raspberry 5 un programme qui nécessitait une grosse machine en 2000.
On peut émuler Muchi Muchi Pork avec un Raspberry Pi 5

======
IA générative : la consommation énergétique explose
L’Agence internationale de l’énergie estime pour sa part qu’en 2026, la hausse de la consommation électrique des centres de données, des cryptomonnaies et de l’IA pourrait s’élever entre 160 et 590 TWh par rapport à 2022. Soit l’équivalent de la consommation électrique de la Suède (estimation basse) ou de l’Allemagne (estimation haute).

IA et cryptomonnaies : le grand dérapage énergétique des datacenters
Selon un rapport de l'agence internationale de l'énergie, la consommation mondiale d'énergie des datacenters pourrait égaler celle de l'ensemble du Japon dans deux ans. Si l'IA et les monnaies virtuelles sont pointées du doigt dans cette forte demande, l'AIE appelle à la mise en place d'améliorations technologiques et réglementaires pour obtenir une meilleure efficacité.
(...)
Autre élément, Nvidia qui domine le marché des accélérateurs GPU pour les worlkoad IA a « livré 100 000 unités consommant au total 7,3 TWh par an », glisse l’agence. Celle-ci observe qu’ « en 2026, l’industrie de l’IA devrait consommer 10 fois sa demande de 2023 ».
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 26/08/2025 à 11:28
Citation Envoyé par Ryu2000 Voir le message
I
D'un autre côté aujourd'hui on peut faire tourner sur un Raspberry 5 un programme qui nécessitait une grosse machine en 2000.
On peut émuler Muchi Muchi Pork avec un Raspberry Pi 5
Pour moi, c'est prendre la chose a l'envers.
un Raspberry 5 permet de faire une console rétro pas cher donc maintenant tous le monde achète des console rétro alors qu'avant non.

J'ai un serveur à la maison, longtemps j'avais juste un serveur web avec un intel atom bien merdique niveau perf, avec le intel n100, j'ai désormais du proxmox avec des vm et un cluster k8s. J'ai explosé mon besoin car la techno me l'a permis. Mais es ce que je consomme moins ? non je consomme 1-2w de plus.

les os moderne, pour la sécurité exécute de plus en plus de code dans des sandbox/des conteneurs. les lib partagé en mémoire et dans le hdd ça commence a disparaitre. Car désormais on peut acheter un ssd 1to pas cher, un cpu 8-16 cœurs pas cher et 32go de ram ca coute rien. c'est devenue accessible.
alors oui on y gagne toujours quelques part, sur la sécurité, sur le confort, sur la qualité...etc. mais ca augmente la conso.

demain je te fais un gpu à la nvidia 5090 qui coute 100e et consomme 100w, personne n'en voudra et préféra plutôt acheter un monstre de 500w 4 fois plus puissant.
Qui achète encore aujourd’hui des cpu quad core ? plus personne, le "minimum vitale" c'est 8.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/08/2025 à 11:47
Citation Envoyé par calvaire Voir le message
Pour moi, c'est prendre la chose a l'envers.
On ne sait pas, peut-être qu'en 2040 on pourra utiliser l'équivalent de Grok 3 et il consommera moins d'énergie qu'aujourd'hui.

Citation Envoyé par calvaire Voir le message
Qui achète encore aujourd’hui des cpu quad core ? plus personne, le "minimum vitale" c'est 8.
Il y a beaucoup de jeunes qui ne s'intéressent pas aux PC, ils utilisent des smartphones* et des tablettes, c'est très étrange, mais c'est moins puissant.
À une époque il y a eu la mode des netbooks. (ce n'était pas puissant)

Se monter un PC de bureau est moins à la mode qu'avant, quelque part c'est triste.
Parce que les PC de bureau c'est le top

* = les smartphones sont plus puissant que nécessaire, et ils ont une durée de vie limité. Au final est-ce mettre 1000€ dans un smartphone ne serait pas plus grave que mettre 1000€ dans une carte graphique ?
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 26/08/2025 à 11:50
Citation Envoyé par Ryu2000 Voir le message
Se monter un PC de bureau est moins à la mode qu'avant, quelque part c'est triste.
Parce que les PC de bureau c'est le top

* = les smartphones sont plus puissant que nécessaire, et ils ont une durée de vie limité. Au final est-ce mettre 1000€ dans un smartphone ne serait pas plus grave que mettre 1000€ dans une carte graphique ?
c'est la meme chose coté smartphone, les soc consomme de plus en plus, et les batteries sont de plus en plus grosse.
chaque année arm/qualcomm promet +15% de conso en moins, pourtant l'autonomie d'un smartphone n'a pas évolué en 10ans (1 journée), car ce gain et mis dans plus de puissance. ca consomme et chauffe plus, alors maintenant pour refroidir la bete faut des chambres à vapeur....etc.
le Snapdragon 8 Elite monte à +4.3ghz et le prochain d'apres les rumeurs va monter à 5ghz, on est du niveau des cpu desktop. une fréquence élevé c'est de la conso et de la chauffe a dissiper.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 25/08/2025 à 16:15
Citation Envoyé par Anthony Voir le message
Quel est votre avis sur le sujet ?
Il y aura des progrès au niveau du software et du hardware et dans le futur une requête consommera peut-être moins d'énergie.

Quand la quasi intégralité des sociétés du domaine auront fait faillite, que 2 ou 3 services comme Grok auront survécu. Le nombre de requête sera limité.
Si il fallait payer 10 centimes pour chaque requête, le gens feraient moins de requêtes.

En attendant les entreprises qui font de l'IA vont probablement augmenter leur consommation d’électricité pendant les années à venir.
0  1