IA et sobriété numérique : sommes-nous vraiment prêts pour l’explosion énergétique ?
Le rapport intermédiaire du Shift Project met en lumière une consommation énergétique en plein essor et pose une question cruciale : comment concilier développement de l’IA et transition écologique ?
Chers Insiders,
Aujourd’hui, je vous propose en deuxième partie de cette édition un petit résumé de l’actualité ainsi qu’une analyse du dernier rapport intermédiaire du Shift Project sur l’impact environnemental de l’IA pour vous inviter à la réflexion.
La Newsletter est en pleine construction et j’envisage de partager une analyse de ce type toutes les deux semaines, n’hésitez pas à réagir et à me dire si vous avez des envies de contenu spécifique !
Sinon comme convenu, vous trouverez tout d’abord une sélection d’articles à ne pas manquer cette semaine sur l’IA et ses implications éthiques.
Bonne lecture et à la semaine prochaine !
Daphnée
Les News de la semaine en bref
Général
La Chine a-t-elle construit la première IA de niveau humain ? (lecture de 4 minutes)
La Chine a récemment dévoilé Manus, présenté comme le premier agent IA entièrement autonome capable d'accomplir des tâches complexes telles que l'achat de biens immobiliers, la réservation de vacances et la création de jeux vidéo. Cependant, des experts mettent en garde contre les risques potentiels d'une telle technologie, soulignant que sa libération incontrôlée pourrait engendrer des perturbations majeures.
Meta confronté à un procès pour violation de droits d'auteur en France (lecture de 2 minutes)
Meta est accusé d'avoir utilisé illégalement du contenu protégé pour entraîner ses modèles IA en France (quelle surprise…!). Ce procès soulève des questions sur l'utilisation des données protégées dans le développement de l'IA.
La chute du Nasdaq : Facteurs économiques et politiques (lecture de 4 minutes)
Le Nasdaq, principalement porté par les géants de la tech représentatifs de la vague IA, a subi une forte baisse, principalement due à l'incertitude économique et politique aux États-Unis. Les politiques de l'administration Trump, notamment les droits de douane, contribuent à cette instabilité.
Fairness
L'IA prédit les risques de santé mentale chez les adolescents avant l'apparition des symptômes (lecture de 3 minutes)
Une étude récente publiée dans Nature Medicine démontre que l'intelligence artificielle peut identifier les adolescents à haut risque de problèmes de santé mentale graves avant l'apparition des symptômes. Le modèle analyse des facteurs sous-jacents tels que les perturbations du sommeil et les conflits familiaux, permettant une intervention précoce et un meilleur accès au soutien nécessaire.
Gouvernance et éthique de l'IA : leçons tirées de la politique américaine de révocation de visas (lecture de 5 minutes)
La récente utilisation de l'IA par les États-Unis pour identifier et révoquer les visas d'étudiants étrangers soupçonnés de soutenir des organisations terroristes soulève des questions sur la gouvernance et l'éthique de l'IA. Cette politique, basée sur l'analyse automatisée des activités en ligne, met en lumière les préoccupations liées au manque de transparence, aux biais potentiels et surtout aux violations des droits humains, soulignant la nécessité d'un cadre réglementaire pour une utilisation responsable de l'IA.
Une nouvelle étude examine les biais raciaux dans l'IA utilisée pour l'imagerie cardiaque (lecture de 4 minutes)
Des chercheurs du King's College de Londres ont découvert que les algorithmes d'IA utilisés pour interpréter les images cardiaques peuvent présenter des biais raciaux, conduisant à des diagnostics moins précis pour les patients issus de minorités ethniques. Cette étude souligne l'importance de développer des systèmes d'IA équitables et inclusifs pour éviter d'exacerber les disparités en matière de santé.
Sustainability
Vers une IA durable : Consensus sur les mesures d'impact (lecture de 3 minutes)
L'adoption d'une IA durable nécessite un consensus sur les mesures d'impact environnemental. Cela implique de développer des méthodes pour évaluer l'efficacité écologique des systèmes d'IA.
Conférence EmTech Europe 2025 : Opportunités pour l’avenir (lecture de 4 minutes)
La conférence EmTech Europe 2025 met en avant les opportunités offertes par l'IA et les technologies émergentes, notamment sur les technologies de refroidissement des datacenters, pour créer un avenir plus durable et innovant.
Safety
Surveillance scolaire et IA : Enquête sur Gaggle (lecture de 3 minutes)
Une enquête sur l'utilisation de l'IA pour la surveillance scolaire soulève des préoccupations quant à la sécurité et à la vie privée des étudiants, notamment avec des outils comme Gaggle.
La qualité des données n'est pas priorisée dans les projets d'IA, un phénomène que 96 % des professionnels américains des données estiment pouvoir mener à des crises généralisées (lecture de 3 minutes)
Une enquête récente révèle que 81 % des entreprises rencontrent des problèmes de qualité des données dans leurs initiatives d'IA, et 96 % des professionnels des données aux États-Unis estiment que cela pourrait conduire à des crises majeures. Cette situation met en péril le retour sur investissement des projets d'IA et souligne la nécessité d'une attention accrue à la qualité des données pour assurer des résultats fiables et réduire les risques commerciaux.
L'IA et les agents IA : une révolution pour la cybersécurité et la cybercriminalité (lecture de 5 minutes)
L'émergence des agents IA transforme à la fois la cybersécurité et la cybercriminalité. Ces technologies permettent aux professionnels de la sécurité de détecter et de répondre plus rapidement aux menaces, mais elles offrent également aux cybercriminels des outils automatisés pour lancer des attaques sophistiquées. Cette double utilisation souligne la nécessité d'une vigilance accrue et de stratégies robustes pour contrer les menaces potentielles.
P.S : Les résumés sont générés par IA et corrigés par mes soins.
IA et sobriété numérique : sommes-nous vraiment prêts pour l’explosion énergétique ?
Vous n’avez pas le temps de tout lire ? Voici un petit résumé.
IA et sobriété numérique : un défi énergétique majeur
Le Shift Project nous alerte sur l’essor fulgurant de l’IA et ses conséquences sur la consommation énergétique. Les projections de consommation énergétique mondiale pour les centres de données pour 2030 oscillent entre 700 et 2100 TWh, illustrant l’incertitude qui entoure l’impact réel de l’IA sur le climat.
Les enjeux et les zones d’ombre
Projections incertaines : Malgré une hausse évidente des besoins énergétiques, il reste difficile d’anticiper l’ampleur exacte de l’impact de l’IA, notamment en raison de méthodes de calcul basées sur des hypothèses parfois pessimistes.
Diffusion de l’innovation : Comme pour l’adoption des premières machines informatiques, l’IA pourrait aussi suivre une courbe en S avec une phase d’adoption rapide suivie d’un ralentissement, mais le passage à l’échelle pose encore question.
Stratégies agressives : Les géants de l’IA misent sur le blitzscaling pour inonder le marché, ce qui, combiné à des coûts de calcul exorbitants, risque d’accentuer les inégalités et de créer une fracture numérique grandissante.
Un futur à repenser
L’IA : doit-elle être un droit fondamental accessible à tous ou rester le privilège d’une élite ? Face à des technologies qui pourraient bien dépasser nos capacités de contrôle, il est essentiel de repenser l’équilibre entre innovation, durabilité et justice sociale.
En somme, alors que l’IA promet de transformer notre quotidien, le défi reste de concilier son expansion avec la sobriété énergétique et de veiller à ce que ses bénéfices soient partagés de manière équitable.
P.S : Résumé généré par IA et corrigé par mes soins.
IA et sobriété numérique : sommes-nous vraiment prêts pour l’explosion énergétique ? (lecture de 6 min)
Le constat du Shift Project : une IA énergivore en pleine expansion
Vous l’avez peut-être raté mais la semaine dernière, The Shift Project partageait ses premières ébauches concernant son rapport intermédiaire “ Intelligence artificielle, données, calculs : quelles infrastructures dans un monde décarboné ?”
Vous trouverez le Replay complet ici.
Pour celles et ceux qui n’ont pas le temps, voici le résumé dans les grandes lignes généré par IA ChatGPT 4o-mini (largement suffisant pour cette tâche) et relu par mes soins .
Résumé du Rapport Intermédiaire : Quelles Infrastructures Numériques dans un Monde Décarboné ?
Objectifs du Contenu
Ce rapport s'inscrit dans une réflexion sur l'impact environnemental croissant des infrastructures numériques, avec un focus particulier sur l'intelligence artificielle (IA) générative et ses effets sur la consommation énergétique et les émissions de carbone. L'objectif est d'identifier des solutions pour concilier l'expansion des infrastructures numériques avec la nécessaire décarbonation de l'économie.
Approche de l'Étude
L'étude repose sur une approche systémique visant à anticiper les effets des innovations numériques, notamment l'IA générative, sur les infrastructures énergétiques. La méthodologie consiste à analyser les impacts environnementaux des infrastructures numériques en prenant en compte à la fois les données globales et locales, ainsi que l'évolution des usages de l'IA. L'objectif est de guider la transition vers un secteur numérique décarboné en mesurant l'empreinte écologique des infrastructures nécessaires à ces innovations.
Premières Trouvailles
Croissance de l'empreinte énergétique : L'IA générative accélère la consommation énergétique des centres de données. En 2023, la consommation mondiale a été révisée à 460 TWh, avec une projection de 700 TWh à 2100 TWh d'ici 2030 selon différents scénarios.
Disparités géographiques : La consommation énergétique des centres de données est fortement concentrée dans quelques pays, avec 2/3 de la consommation européenne dans seulement quelques pays.
Problématique des énergies fossiles : Aux États-Unis, pour répondre à la demande de puissance des centres de données, des solutions comme les centrales à gaz sont privilégiées, mettant en lumière un manque de planification dans l'approvisionnement en énergies décarbonées.
Méthodes Employées
L’étude repose sur des projections énergétiques détaillées pour évaluer l’impact des infrastructures numériques, en particulier les centres de données. Des scénarios ont été élaborés pour 2030, en prenant en compte l'efficacité énergétique des technologies et l’intensité carbone de l’énergie utilisée. Le rapport examine aussi l'empreinte carbone des équipements nécessaires (serveurs, GPU, etc.) et la construction des centres de données.
Hypothèses Sous-Jacentes
Croissance rapide des besoins en infrastructure : Les projections prennent en compte une croissance exponentielle de la demande pour les services numériques, en particulier ceux liés à l’IA générative.
Transition énergétique lente : L'efficacité énergétique des nouvelles infrastructures, bien qu'en amélioration, reste insuffisante pour compenser l'augmentation rapide des besoins énergétiques.
Limitations Potentielles
Estimations incertaines : Les projections énergétiques pour 2030 varient largement (700 TWh à 2100 TWh), ce qui reflète une grande incertitude sur les futurs développements technologiques et la capacité de décarbonation des infrastructures existantes.
Écart entre la réalité des déploiements et les attentes : La vitesse de déploiement des infrastructures décarbonées pourrait ne pas suivre le rythme de la demande en énergie, provoquant un recours aux énergies fossiles.
Perspectives
L'étude préconise une planification énergétique plus rigoureuse, en identifiant les ressources rares et en optimisant leur affectation pour éviter des conflits d’usage (par exemple, entre l’électrification des transports et les besoins en centres de données). Une plus grande collaboration entre les secteurs public et privé est nécessaire pour assurer une transition énergétique harmonieuse et éviter que l’expansion du secteur numérique ne devienne un obstacle à la décarbonation de l’économie.
Conclusion
L’IA générative, en accélérant la demande en capacités de calcul, pose un défi majeur pour la décarbonation du secteur numérique. Des solutions comme l’optimisation des infrastructures existantes et l'intégration de l'énergie décarbonée sont cruciales pour limiter l'impact environnemental de cette croissance rapide.
L’impact de l’IA sur le climat
Le travail du Shift Project est essentiel pour soulever les bonnes questions. Mais peut-on réellement faire des projections fiables dans un domaine où les évolutions sont aussi imprévisibles ? La fourchette d’incertitude sur la consommation énergétique de l’IA en 2030 (de 700 à 2100 TWh !) illustre bien cette complexité.
C’est indéniable, les besoins en énergie ont considérablement augmenté et l’adoption massive de l’IA Générative change la donne concernant les scenarii qui nous permettraient d’espérer une trajectoire zéro carbone d’ici 2050.
Mais il est particulièrement difficile de prévoir dans quelle mesure la révolution IA va réellement impacter les trajectoires climatiques. Ainsi, l’exercice consistant à prendre des hypothèses conservatrices voire assez pessimistes est vraiment pertinent car il nous permet de mesurer l’ampleur de la catastrophe qui nous pend au nez. En ce sens, le Shift Project fait un travail remarquable. Si vous êtes éco-anxieux ou pratiquez la politique de l’autruche, abstenez-vous de vous pencher sur la question ! Par ailleurs, cette démarche est essentielle pour réfléchir à des propositions de lois pertinentes qui pourront orienter le développement de ces technologies dans une direction plus vertueuse.
Néanmoins je suis un peu sceptique sur la pertinence de l’utilisation des chiffres des deux dernières années pour se projeter sur les années à venir et je ne suis pas certaine que nous puissions simplement tirer un trait sur la base des premiers data points pour projeter une trajectoire sur les dix prochaines années.
Premièrement, nous pourrions prendre en compte certaines théories portant sur la diffusion de l’innovation, affirmant que le développement de nouvelles technologies est caractérisé par une rapide adoption poussée par l’innovation, puis suivie d’un ralentissement dû à un effet de saturation, ce qui nous donne une courbe d’adoption en S. J’ai trouvé une étude intéressante à ce sujet, faisant le parallèle avec l’adoption des ordinateurs par les entreprises dans les années 1950 où les machines étaient tellement chères et compliquées qu’elles sont restées la manne de grandes entreprises jusqu’aux années 1960. En effet, l’usage de ces machines était alors complexe et nécessitait des compétences spécifiques. L’étude menée en 1985 raconte même que près de 3% des entreprises affirmaient avoir acheté des ordinateurs sans avoir d’applications installées, faute de savoir-faire ! (Source : Technology Diffusion and Organizational Learning: The Case of Business Computing P. Attewell 1992).
Ainsi donc, nous pourrions espérer que le soufflet retombe quelques peu, et que cela nous donne le temps de cadrer l’impact de ces technologies. Bien sûr, cela n’écartera pas le sujet de l’impact dévastateur sur l’environnement, mais nous pouvons toujours espérer et surtout travailler à ce que la trajectoire se tasse… Reste à savoir connaître l’horizon de temps dont il est question si la théorie de la courbe en S s’applique !
D’autre part, rappelons que la stratégie des géants de l’IA a été d’inonder le marché pour obtenir des taux d’adoption sans précédent.
C’est assez classique des méthodes dites de Blitzscaling propres à la Silicon Valley, et cela permet notamment de lever des milliards, de se valoriser à des niveaux démentiels sans pour autant réellement savoir si ces business modèles seront viables dans le futur.
Vers une fracture numérique amplifiée par l’IA ?
En réalité, il est évident que les géants de l’IA ne vont pas pouvoir continuer à laisser leurs technologies très coûteuses en matière de ressources en mode “open bar”.
Vous en avez peut-être même déjà fait l’expérience par vous-même : les modèles généralistes publics, face aux contraintes en termes de ressources de calculs, commencent déjà à brider l’accès aux fonctionnalités gratuites, elles le font parfois même pour des utilisateurs payants ! Par exemple, Claude laisse l’accès gratuit pour son mode Normal et 3.7 Sonnet, et réserve ses modèles plus puissants aux utilisateurs payants (normal me direz vous), tout en contrôlant les quotas en fonction de la complexité des tâches pour ces derniers. Et ce sont ces restrictions, pour les utilisateurs même payants, qui posent réellement question.
Quant aux annonces prometteuses d’OpenAI concernant la fonctionnalité Deep search - soit la possibilité d’avoir un agent qui effectuerait des recherches sur le web à votre place - celle-ci coûte tout de même 200$/mois !
Vous avez probablement aussi eu vent des annonces d’OpenAI : ceux-ci se préparent à lancer une suite dédiée aux agents IA spécialisés avec des prix allant jusqu’à 20 000$/mois. Trouveront-ils leur market fit à ce niveau de prix ? C’est une grande question. En tous cas, nous pouvons leur faire confiance sur un point : ils tireront toujours les prix au maximum de leur élasticité.
Je pense que cette tendance va s’accentuer et que de toute façon, la contrainte des coûts de calcul va se répercuter sur les utilisateurs finaux. C’est inévitable si ces entreprises espèrent un jour devenir des business modèles rentables et viables sur la durée. Résultats ? Les modèles les plus gourmands et performants seront réservés à une élite et les miettes aux allures de paillettes seront laissées au petit peuple. Panem et circenses comme disaient les Romains !
Tout ceci pourrait malheureusement creuser davantage les inégalités de richesse et la fracture numérique.
Comment se prémunir contre une fracture numérique d’autant plus clivante ?
Aujourd’hui, deux approches principales se dessinent clairement : d’un côté, ceux qui ont les compétences techniques et exploitent des ressources ouvertes (open source, open data, open weights) pour créer des solutions sur mesure adaptées à leurs besoins.
De l’autre, ceux qui ne disposent pas de ces bases et doivent se tourner vers des solutions SaaS dites “propriétaires” – sans accès au code source ni à leur logique interne – avec à la clé des coûts croissants et une forte dépendance à des produits en perpétuelle évolution, dont la pérennité n’est jamais garantie.
Bien sûr, les modèles ouverts ne sont pas exempts de défis en matière de coûts et de maintenabilité. Mais leur caractère contributif (possibilité d’adapter, modifier et enrichir le code) a le mérite d’atténuer le risque de dépendance et offre davantage de maîtrise sur le long terme.
En somme donc, une entreprise désireuse d’implémenter des solutions basées sur l’IA doit prendre un risque financier et opérationnel important : soit investir du temps et de l’argent dans le développement de solutions customisées et modulaires, soit passer par des produits SaaS sur l’étagère qui s’imbriquent plus ou moins bien entre eux et nécessiteront un certain niveau de maintenance, doublé d’une dépendance technologique forte. N’oublions pas qu’au rythme des avancées actuelles, certains logiciels SaaS deviennent obsolètes pratiquement du jour au lendemain ! Beaucoup de vétérans de la tech s’accordent même à dire que l’IA agentique devrait complètement prendre le pas sur le SaaS. (Je dédierai probablement une édition à ce sujet.)
Besoin d’une perspective optimiste dans tout ça ?
Je crois plutôt à la perspective d’un développement de l’IA avec d’une part le développement de petits modèles légers et spécialisés, d’autre part à l’utilisation par le grand public des solutions avec des capacités limitées et enfin à l’utilisation par les plus aisés de solutions très coûteuses mais performantes (attendez de voir ce qu’il se passera avec le développement de l’IA agentique, ces solutions seront de toutes façons hors de prix !).
Néanmoins, je partage cette vision d’un monde idéal où l’IA serait principalement constituée de petits modèles plus ouverts, spécialisés, frugaux et utilisés suffisamment intelligemment pour faire exactement ce dont nous avons besoin pour vivre un monde meilleur, pas plus, pas moins.
Sinon, l’IA ne sera qu’un outil de plus accélérant les inégalités sociales et creusant les écarts.
C’est d’ailleurs à ce titre que l’idée, bien qu’intéressante, du Shift Project d’empêcher l’utilisation de l’IA pour des applications de “l’économie brune” m’a interpellée. Si en soi cela paraît louable de se dire que des outils d’une telle puissance ne devaient pas être utilisés à des fins destructrices, comment allons-nous juger de qui a droit à l’IA ou non ? En d’autres termes, l’accès à l’IA devrait-il être un droit ou un privilège ?
Quelle IA pour demain : droit fondamental ou ressource à réguler ?
Si l’on commence à arbitrer sur qui a le droit ou non d’utiliser l’IA, afin de s’assurer que l’usage soit à des fins bénéfiques pour la société, ne risque-t-on pas de basculer vers une certaine forme de privation de liberté ? Demain, nous interdirions donc l’usage de l’IA à des personnes dont la finalité n’est pas pour le bien commun, la privant ainsi d’un avantage compétitif majeur pour sa propre prospérité ? Par exemple, un jeune adolescent en Asie du Sud Est qui utiliserait ChatGPT comme tuteur personnel, n’utilise pas l’IA pour le bien commun mais pour son propre développement dans l’espoir d’améliorer sa propre condition sociale. Devrait-on l’en priver ?
Aussi, quelle instance pourrait se targuer du privilège extrême qu’est celui de décider du droit d’utiliser des technologies basées sur l’IA ? Il faut légiférer, mais jusqu’où devrions-nous aller pour garantir le respect, la liberté et l’égalité de tout un chacun dans l’usage de ces outils dont la puissance pourrait finir par nous dépasser rapidement ?
Choisir l’histoire que nous allons écrire
Si ces questions ont un air de “déjà vu”, c’est parce qu’elles font écho aux débats de ces dernières années sur la responsabilité de chaque pays vis-à-vis de ses émissions de gaz à effet de serre : après avoir largement profité des énergies fossiles pour établir une domination commerciale et géopolitique, nous interdisons à des pays qui marchent sur nos traces de s’appuyer sur ces mêmes méthodes, sans réelle alternative ou solution satisfaisante à la fois pour l’environnement et pour ces pays dont il est question. A la différence qu’avec l’IA, j’aime à penser que nous avons encore le pouvoir de choisir l’histoire que nous allons écrire : allons-nous chercher justesse et équité ou allons-nous nous laisser embarquer dans ce schéma répétitif qui mène à creuser les inégalités sous couvert de progrès technologiques ?
Ces débats ne sont pas simples et je ne partage que mon humble réflexion sur ces sujets avec le peu de connaissance auxquelles j’ai eu accès dans ce monde où la désinformation et les bulles d’opinions règnent. Bien qu’il soit de plus en plus difficile de confronter des opinions contradictoires sur internet dans la bienveillance et le respect, je vous lance de défi de partager vos points de vue de façon constructive pour enrichir nos réflexions respectives sur ces sujets dont nous devons absolument nous emparer !
✨ Rejoignez la communauté IA Ethique Insider ! ✨
Merci d’avoir pris le temps de me lire !
Si cette newsletter vous a fait réfléchir, surpris(e) ou inspiré(e), alors partagez-la avec votre réseau ! Plus nous serons nombreux à questionner et façonner une IA responsable, plus nous pourrons avoir des débats riches et constructifs pour façonner un monde plus harmonieux où la technologie serait au service du vivant.
💌 Pas encore abonné(e) ? Inscrivez-vous pour ne rien manquer des prochaines éditions !
Vous pensez que cela pourrait intéresser quelqu’un, partagez sans compter la Newsletter :) !
Sinon, vous pouvez aussi faire entendre votre voix : répondez à ce mail avec vos réactions, vos idées ou les sujets que vous aimeriez voir abordés. Hâte d’échanger ensemble !
Intéressant et très complet