🪢 Le Pape, OpenAI et Instagram redessinent l’éthique de l’IA
Du Vatican aux data centers, cette semaine révèle des fractures profondes – et des espoirs inattendus – pour une IA responsable. Une édition à ne pas manquer.
Chers Insiders,
Voilà donc si vous en doutiez encore, même le nouveau pape considère que les implications éthiques de l’IA sont une priorité absolue pour notre humanité. Ce n’est pas moi qui vais le contredire !
Cette semaine, je vous ai préparé une fiche mémo pour vous éclairer sur l’approche adoptée par la Commission Européenne pour encadrer l’usage des modèles fondamentaux (ChatGPT, Claude…) dans le cadre de l’IA Act.
Bonne lecture et à la semaine prochaine !
🪢 Daphnée d’IA Éthique Insider
Les News de la semaine en bref
🤓 Général
Le Copyright Office américain remet en question l’usage des œuvres protégées par les IA (lecture de 4 minutes)
Le Copyright Office des États-Unis a publié un rapport de 108 pages soulignant que l'utilisation massive d'œuvres protégées pour entraîner des IA génératives ne relève probablement pas du "fair use", surtout lorsque ces contenus sont utilisés à des fins commerciales concurrentes. Mais la posture reste globalement tempérée avec différents degrés d’analyse. Peu après sa publication, la responsable de l'agence, Shira Perlmutter, a été limogée par l'administration Trump, suscitant des accusations d'ingérence politique.
Perplexity, le rival sérieux de Google ? (lecture de 5 minutes)
Avec une levée de fonds de 500M$, Perplexity veut révolutionner la recherche avec une IA plus transparente et plus fiable. À contre-courant de Google, l’entreprise mise sur la citation systématique des sources, une démarche saluée par les experts de l’IA responsable. Mais est-ce suffisant pour changer les usages ?
Le nouveau pape identifie l’IA comme défi majeur pour l’humanité (lecture de 3 minutes)
Dans sa première déclaration officielle, le pape Léo XIV appelle à une mobilisation globale pour encadrer l’intelligence artificielle. Il insiste sur la nécessité d’un dialogue interdisciplinaire et spirituel pour éviter une société déshumanisée. Une prise de position inédite et puissante.
Mistral Medium 3 : performance de pointe à coût réduit (lecture de 3 minutes)
Mistral AI a lancé Medium 3, un modèle de langage offrant des performances équivalentes à celles de modèles plus grands, tout en étant huit fois moins coûteux et plus facile à déployer. Cocorico.
⚖️ Fairness
OpenAI déploie une stratégie d’influence mondiale (lecture de 4 minutes)
OpenAI propose aux gouvernements un accès privilégié à ses modèles, en promettant une collaboration sur-mesure. Cette stratégie soulève des inquiétudes : quelles garanties d’équité pour les pays aux moyens limités ? Une manœuvre diplomatique habile… mais risquée pour la souveraineté technologique.
La CNIL s’attaque aux biais algorithmiques en entreprise (lecture de 5 minutes)
La CNIL lance un module de formation dédié aux enjeux des données personnelles et de l’IA au travail. L’objectif : outiller les professionnels pour repérer et limiter les discriminations algorithmiques. Un pas concret vers plus d’équité dans les pratiques RH numériques.
La police israélienne utilise une clause juridique inexistante générée par IA dans le cadre d’une enquête (lecture de 3 minutes)
Un agent police avait invoqué une clause juridique inexistante, générée par une intelligence artificielle, pour justifier la confiscation d'un téléphone lors d'une enquête. Cet incident met en lumière les risques liés à l'utilisation non encadrée de l'IA dans le système judiciaire.
🌱 Sustainability
Une IA open-source ultra-efficiente grâce à la quantification 1-bit (lecture de 4 minutes)
Des chercheurs ont présenté BitNet b1.58 2B4T, une nouvelle intelligence artificielle capable de comprendre et de générer du texte, comme ChatGPT, mais conçue pour être beaucoup plus légère et économe en énergie. Malgré sa taille réduite, elle offrirait des performances comparables aux modèles classiques, ce qui en fait une avancée importante vers des technologies d’IA plus durables et accessibles à tous.
Instagram : l’IA optimise l’engagement, pas l’utilité (lecture de 4 minutes)
Kevin Systrom, cofondateur d’Instagram, reconnaît que les IA conversationnelles actuelles sont conçues pour maximiser l’engagement, pas la valeur. Assez ironique provenant du cofondateur d’Insta. Un constat dérangeant, révélateur d’un modèle extractif peu compatible avec une IA durable et responsable.
L’IA au service de la construction durable (lecture de 5 minutes)
Un article scientifique explore l’utilisation des jumeaux numériques dopés à l’IA pour rendre les chantiers plus écologiques. Réduction du gaspillage, pilotage énergétique en temps réel… Une piste concrète pour une IA utile à la transition.
Rio, la ville intelligente verte propulsée par l’IA (lecture de 4 minutes)
CleanTheSky présente Rio.AI : un projet pilote de smart city à faible empreinte carbone, optimisée grâce à l’IA. Objectif : fluidifier les mobilités, optimiser l’énergie, réduire les déchets. Une expérimentation d’urbanisme numérique à suivre de près.
🔓 Safety
Andrew Ng appelle à démocratiser le déploiement sécurisé en edge (lecture de 3 minutes)
Andrew Ng milite pour l’apprentissage du déploiement d’IA en périphérie (edge) pour plus de sécurité et de sobriété. Un geste technique, mais aussi politique : limiter la centralisation des modèles et l’impact énergétique des data centers.
SoundCloud change ses conditions d’utilisation pour entraîner de l’IA, sans prévenir ses utilisateurs (lecture de 1 minute)
Un utilisateur de SoundCloud s’inquiète d’un ajout discret dans les conditions d’utilisation de la plateforme, daté du 12 février 2024, qui semble autoriser SoundCloud à utiliser la musique mise en ligne par ses utilisateurs pour entraîner des modèles d’intelligence artificielle. Il affirme ne pas avoir été informé de ce changement et refuse ce type d’usage de sa musique. Il demande des clarifications, notamment si cela concerne des IA génératives, et envisage de retirer ses morceaux si la plateforme ne répond pas rapidement.
Les experts du RSA alertent : les IA malveillantes arrivent avec WormGPT (lecture de 5 minutes)
Lors de la RSA Conference, plusieurs spécialistes ont démontré comment des IA pouvaient automatiser des cyberattaques complexes. On parle plus spécifiquement de WormGPT, une sorte de ChatGPT sans les garde-fou éthiques, capable de confectionner des (cyber)attaques performantes. L’alerte est claire : sans régulation ni supervision, des modèles génératifs pourraient devenir des armes numériques.
Fiche mémo - Le Code de Conduite Européen sur l’IA (GPAI Code of Practice): une répétition générale du futur AI Act
En matière d’IA, l’Europe avance sans précipitation, mais avec méthode.
Pendant que certains misent sur la dérégulation pour favoriser l’innovation à tout prix, l’Union européenne joue une autre partition : celle d’une régulation anticipée, construite avec les acteurs du terrain.
C’est dans cette logique que s’inscrit le Code de conduite sur l’IA à usage général (General-Purpose AI Code of Practice), proposé en 2024, affiné en 2025, et destiné à servir de terrain d’expérimentation éthique avant même l’entrée en vigueur complète du très attendu AI Act.
Je vous propose cette semaine une fiche mémo pour comprendre ce qu’est ce code, pourquoi il compte, et où il nous mène.
Le Code de conduite (Code of Practice) s’adresse principalement aux développeurs de modèles fondamentaux d’IA, les fameux GPAI (General Purpose AI), comme les grands modèles de langage.
Ce document, sans valeur juridique pour l’instant, fixe des bonnes pratiques autour de la gouvernance, de la traçabilité des données, de la cybersécurité, ou encore de la transparence sur les capacités et limites des modèles.
Autrement dit : il préfigure les obligations qui deviendront bientôt contraignantes.
Mais ce code est aussi un outil politique. Il reflète la volonté de l’Europe de co-construire sa régulation avec les industriels, les chercheurs et les développeurs, pour s’assurer que les exigences de l’AI Act soient applicables — et appliquées.
Une timeline à suivre de près
Voici où nous en sommes aujourd’hui, et ce qui nous attend :
2024 : consultation et rédaction du Code en collaboration avec des acteurs comme Mistral, Aleph Alpha, Siemens, SAP ou le CERN.
Mai 2025 : version finale du Code présentée lors d’une session de clôture ; le AI Office et le AI Board évaluent sa conformité.
D’ici août 2025 : la Commission pourra valider officiellement le Code via un acte d’exécution (Implementing Act).
Août 2025 : entrée en vigueur des règles de l’AI Act sur les GPAI. Ce sera le point de bascule : ce qui est aujourd’hui recommandé deviendra, pour beaucoup, une obligation.
Le but est double : permettre aux développeurs de s’aligner progressivement sans freiner l’innovation, et s’assurer que les exigences réglementaires ne soient pas vécues comme une rupture brutale mais comme une montée en maturité collective.
Ce Code est aussi une invitation adressée aux acteurs non européens : vous pouvez jouer avec nous, mais ce sont nos règles. Il s’agit donc d’un premier pas vers une norme internationale pilotée par l’Europe — comme l’a été le RGPD en son temps.
En résumé, le Code de conduite sur l’IA n’est ni anecdotique, ni symbolique.
C’est le cœur battant d’une régulation en mouvement, qui cherche à concilier innovation, souveraineté, responsabilité.
Le raté de l’IA de la semaine
Klarna vire ses agents humains pour les remplacer par une IA... avant de revenir en arrière face à la colère des clients. Encore une preuve que l’automatisation à marche forcée peut se heurter à la réalité du terrain. - 09/05/2025
Coup de coeur de la semaine
Une production réalisée intégralement avec de l’IA par Cloe Saint-Jours, que j’ai découverte via Elodie Hugues qui elle-même l’a découvert via Jean-Baptiste Viet. La boucle est bouclée !
Le sondage de la semaine
Cette semaine, je vous partage une vidéo un peu spéciale dans le cadre d’un procès pour homicide aux USA, où la famille de la victime a créé une vidéo de celle-ci pour s’adresser au juge et à son meurtrier. Je suis curieuse de recueillir vos impressions à ce sujet… Retrouvez la réaction du juge ici.
✨ Rejoignez la communauté IA Ethique Insider ! ✨
Merci d’avoir pris le temps de me lire !
Si cette newsletter vous a fait réfléchir, surpris(e) ou inspiré(e), alors partagez-la avec votre réseau ! Plus nous serons nombreux à questionner et façonner une IA responsable, plus nous pourrons avoir des débats riches et constructifs pour façonner un monde plus harmonieux où la technologie serait au service du vivant.
💌 Pas encore abonné(e) ? Inscrivez-vous pour ne rien manquer des prochaines éditions !
Vous pensez que cela pourrait intéresser quelqu'un ? Partagez sans compter la newsletter !
Sinon, vous pouvez aussi faire entendre votre voix : répondez à ce mail avec vos réactions, vos idées ou les sujets que vous aimeriez voir abordés. Hâte d’échanger ensemble !
P.S. Les résumés sont générés par IA et corrigés par mes soins.