🪢 L'IA entièrement dérégulée pour les 10 prochaines années aux USA ?
Cette semaine, on parle de cette nouvelle particulièrement inquiétante sur la possible dérégulation de l'IA aux USA et du coût d'un usage maladroit de l'IA Générative pour un cabinet d'avocats
Chers Insiders,
Les médias s’emparent de plus en plus du sujet de la souveraineté numérique de l’Europe, et on commence à regarder sous le tapis et à poser les bonnes questions.
Notamment au sujet du financement des startups : oops, on a voulu appliquer les recettes du VC comme les américains sans avoir les caractéristiques du marché américain. Résultat : la création de valeur nous échappe, une fois de plus.
Mais surtout cette semaine, il s’est passé quelque chose de fou aux US dont on a peu parlé dans les médias français.
Un amendement au projet de loi du budget 2025 des USA a été déposé, afin d’empêcher les Etats d’adopter ou d’appliquer des lois ou réglementations sur l’IA (et les systèmes automatisés), interdisant toute surveillance locale de l’IA et ce pendant 10 ans !
“Aucun État ni subdivision politique de celui-ci ne peut faire respecter une loi ou une réglementation régulant les modèles d'intelligence artificielle, les systèmes d'intelligence artificielle ou les systèmes de décision automatisée pendant la période de 10 ans à partir de la date de l'adoption de cette loi.”
Cette technique a été adoptée pour contourner les processus législatifs appropriés, en toute discrétion.
Il serait donc question de jeter à la poubelle des initiatives telles que :
la loi adopté l’an dernier par la Californie, obligeant les prestataires de soins de santé à divulguer lorsqu'ils utilisent l'IA générative pour communiquer des informations cliniques aux patients.
La première loi aux États-Unis adoptée par New York exigeant que les employeurs réalisent des audits de biais des outils d'IA utilisés pour les décisions d'emploi.
La loi qui entrera en vigueur en 2026 en Californie, obligeant les développeurs de modèles d'IA générative à partager une documentation détaillée sur leurs sites web concernant les données utilisées pour développer ces modèles.
Restez alertes car tant que nous entretiendrons notre dépendance numérique, nous resterons concernés par ces décisions !
Et sur une note un peu plus positive, la fiche mémo de la semaine porte sur les recommendations de l’UNESCO pour une utilisation éthique de l’IA.
Bonne lecture et à la semaine prochaine !
🪢 Daphnée d’IA Éthique Insider
Les News de la semaine en bref
🤓 Général
L'adoption de l'IA générative dépasse les prévisions selon l'index AWS (lecture de 5 minutes)
Le rapport d'AWS révèle que 45% des décideurs informatiques priorisent l'IA générative dans leurs budgets 2025, devant même la cybersécurité (30%). L'étude, menée auprès de 3 739 responsables informatiques dans neuf pays, indique que 92% des organisations prévoient de recruter des profils spécialisés en IA, établissant ainsi de nouvelles priorités stratégiques pour l'innovation technologique.
Siemens prévoit de racheter un champion de l’IA américain (lecture de 3 minutes)
Siemens prévoit de racheter l’américain Dotmatics pour 5,1 milliards de dollars afin de renforcer sa division Sciences de la Vie, visant à élargir son marché logiciel industriel de 11 milliards de dollars. L'acquisition s’inscrit dans la stratégie de Siemens d’établir une gamme logicielle IA avancée via Siemens Xcelerator. Dotmatics, basée à Boston, générerait plus de 300 millions de dollars en 2025 avec une marge EBITA de plus de 40 %. La transaction suit une autre acquisition majeure de Siemens, celle d’Altair pour 10,6 milliards de dollars, renforçant sa position dans le secteur des logiciels d’ingénierie.
⚖️ Fairness
OpenAI lance HealthBench pour évaluer la sécurité des modèles d'IA en santé (lecture de 4 minutes) OpenAI a dévoilé HealthBench, un ensemble de données ouvert pour évaluer les performances et la sécurité des grands modèles de langage dans le domaine de la santé. Développé en collaboration avec 262 médecins de 60 pays, ce benchmark comprend 5 000 conversations réalistes sur la santé, chacune dotée d'une grille d'évaluation créée par des médecins pour mesurer la sécurité, la pertinence et l'exactitude des réponses d'IA.
Daron Acemoglu tempère l'optimisme sur l'impact macroéconomique de l'IA (lecture de 5 minutes)
L'économiste du MIT et lauréat du prix Nobel Daron Acemoglu estime que l'IA n'augmentera le PIB que de 1,1% à 1,6% au cours de la prochaine décennie, avec un gain annuel de productivité d'environ 0,05%. Ces projections contrastent fortement avec celles de Goldman Sachs qui prévoit une croissance mondiale de 7% sur dix ans, soulignant ainsi les divergences d'opinion sur l'impact réel de l'IA sur l'économie.
L'éducation à l'IA doit évoluer selon Marcel Salathé (lecture de 4 minutes)
Dans un post LinkedIn, le professeur Marcel Salathé de l'EPFL souligne l'importance de repenser fondamentalement notre approche éducative face à l'IA et s’appuie sur une étude sur les impacts de ChatGPT dans l’éducation. Il plaide pour une intégration plus profonde des concepts d'IA dans les cursus afin de préparer adéquatement la société aux transformations rapides induites par ces technologies.
L’IA pour lutter contre la dépression post-partum (lecture de 6 minutes)
La prestigieuse revue Nature rapporte qu’un nouvel outil basé sur l’IA à destination des professionnels de santé permettrait de mieux détecter les personnes à risque de dépression post-partum, lesquelles représentent 17% de la population.
🌱 Sustainability / environnement
AlphaEvolve : l'agent de codage propulsé par Gemini qui conçoit des algorithmes avancés (lecture de 6 minutes)
Google DeepMind présente AlphaEvolve, un agent d'IA qui associe le modèle Gemini à un cadre évolutif pour découvrir et optimiser des algorithmes. Cette innovation a déjà amélioré l'efficacité des centres de données de Google et accéléré les processus d'entraînement de l'IA, notamment en accélérant les multiplications matricielles de 23%, réduisant ainsi le temps d'entraînement de Gemini de 1%.
Bienvenue dans l'ère de "l'usine IA", une révolution industrielle en marche (lecture de 5 minutes)
Dell Technologies World 2025 dévoile sa vision de "l'usine IA", un nouveau paradigme industriel combinant infrastructure matérielle avancée et solutions logicielles optimisées pour déployer l'IA à grande échelle. Cette approche promet de démocratiser l'accès aux technologies d'IA tout en relevant les défis de durabilité énergétique liés à l'explosion des besoins en calcul.
🔓 Safety
Les sanctions de Trump contre le procureur de la CPI paralysent le travail du tribunal (lecture de 4 minutes)
Les sanctions imposées par l'administration Trump contre Karim Khan, procureur en chef de la Cour pénale internationale, ont gravement perturbé le fonctionnement du tribunal. Les conséquences sont sévères : comptes bancaires gelés, accès aux emails bloqués, et personnel américain menacé d'arrestation s'ils retournent aux États-Unis, entravant ainsi les enquêtes sur les crimes de guerre dans plusieurs pays. Cet exemple illustre parfaitement la nécessité de développer notre souveraineté digitale en Europe.
Une étude révèle que les modèles d'IA sont plus persuasifs que les humains (lecture de 5 minutes)
Une recherche publiée sur arXiv démontre que les grands modèles de langage comme Claude Sonnet 3.5 surpassent significativement les humains en capacité de persuasion, tant pour orienter vers des réponses correctes qu'incorrectes. Cette étude préenregistrée à grande échelle met en lumière des préoccupations importantes concernant la sécurité et l'éthique de ces systèmes dans leur influence sur la prise de décision humaine.
Fiche Mémo : Recommandations de l’UNESCO sur l’éthique de l’IA
Who (Qui) : L'UNESCO, l'Organisation des Nations Unies pour l'éducation, la science et la culture, représentant 194 États membres, a adopté la "Recommandation sur l'éthique de l'intelligence artificielle" en novembre 2021, créant ainsi le premier cadre normatif mondial sur l'éthique de l'IA.
What (Quoi) : La recommandation établit un ensemble de principes fondamentaux pour guider le développement et l'utilisation éthique de l'IA, les valeurs fondamentales sont les suivantes :
Respect de la dignité humaine : L'IA doit être conçue et utilisée de manière à respecter la dignité inhérente à chaque individu.
Respect, protection et promotion des droits de l'homme et des libertés fondamentales : Les systèmes d'IA doivent respecter les droits de l'homme et les libertés fondamentales.
Respect de la diversité, de l'inclusivité et de la justice : L'IA doit promouvoir la diversité culturelle, linguistique et de genre, et éviter les biais discriminatoires.
Promotion de la paix et de la justice : L'IA doit contribuer à la paix, à la justice et à la cohésion sociale.
Respect de l'environnement et des écosystèmes : L'IA doit être développée et utilisée de manière à minimiser son impact environnemental.
Les principes éthiques directeurs des recommendations sont les suivants :
Proportionnalité et absence de préjudice : Les applications de l'IA doivent être proportionnées à l'objectif poursuivi et ne pas causer de préjudice.
Sécurité et sûreté : Les systèmes d'IA doivent être sécurisés et sûrs tout au long de leur cycle de vie.
Équité et non-discrimination : L'IA doit être conçue pour éviter les biais et garantir l'équité.
Durabilité : L'IA doit être développée de manière durable, en tenant compte de son impact environnemental.
Droit à la vie privée et à la protection des données personnelles : Les systèmes d'IA doivent respecter la vie privée et protéger les données personnelles.
Transparence et explicabilité : Les décisions prises par l'IA doivent être transparentes et explicables.
Responsabilité et redevabilité : Les acteurs impliqués dans le développement et l'utilisation de l'IA doivent être responsables et redevables de leurs actions.
Gouvernance et supervision humaine : L'IA doit être supervisée par des humains pour garantir son alignement avec les valeurs humaines.
When (Quand) : Adoptée en 2021, la recommandation est aujourd'hui en phase active de mise en œuvre. En 2025, l'UNESCO organise son 3ème Forum mondial sur l'éthique de l'IA à Bangkok (24-27 juin) et procède à sa première consultation formelle, dont les résultats seront présentés lors de la 43ème session de la Conférence générale à l'automne 2025.
Where (Où) : Cette recommandation s'applique mondialement aux 194 États membres de l'UNESCO. Son implémentation varie selon les régions, avec des initiatives notables comme l'Observatoire mondial sur l'éthique et la gouvernance de l'IA, le réseau "Experts sans frontières en éthique de l'IA", et des méthodologies d'évaluation concrètes pour les gouvernements et organisations.
Why (Pourquoi) : Face aux avancées rapides de l'IA et à ses impacts potentiels considérables, l'UNESCO a reconnu l'urgence de créer un cadre éthique pour éviter les discriminations, protéger les droits humains, et garantir que le développement de l'IA profite à tous. La recommandation vise à transformer des principes éthiques abstraits en actions concrètes dans des domaines clés comme la gouvernance des données, l'égalité des genres, l'éducation, et la santé.
Source :
https://www.unesco.org/
Le raté de l’IA de la semaine
Sanction de 31 000 $ infligée à des avocats pour utilisation non divulguée de LLMs et citations erronées
Deux cabinets d'avocats ont été sanctionnés de 31 000 $ après avoir soumis un mémoire juridique contenant apparemment des citations erronées générées par des outils d'IA. Le tribunal a constaté que les avocats n'avaient pas révélé l'utilisation de l'IA, n'avaient pas vérifié ses résultats, puis avaient déposé une version révisée avec d'autres inexactitudes. Le juge Michael Wilner a considéré ce comportement comme imprudent et a imposé ces sanctions pour ce qu'il a qualifié de "dépôts juridiques incorrects" et "trompeurs". 2025-04-15
Coup de coeur de la semaine
Si vous ne l’avez pas encore vu, je vous invite à prendre le temps de regarder ce documentaire de France Télévisions “Les sacrifiés de l’IA”.
Il est important de comprendre ce qu’il se cache derrière votre usage de l’IA Générative.
Le sondage de la semaine
✨ Rejoignez la communauté IA Ethique Insider ! ✨
Merci d’avoir pris le temps de me lire !
Si cette newsletter vous a fait réfléchir, surpris(e) ou inspiré(e), alors partagez-la avec votre réseau ! Plus nous serons nombreux à questionner et façonner une IA responsable, plus nous pourrons avoir des débats riches et constructifs pour façonner un monde plus harmonieux où la technologie serait au service du vivant.
💌 Pas encore abonné(e) ? Inscrivez-vous pour ne rien manquer des prochaines éditions !
Vous pensez que cela pourrait intéresser quelqu'un ? Partagez sans compter la newsletter !
Sinon, vous pouvez aussi faire entendre votre voix : répondez à ce mail avec vos réactions, vos idées ou les sujets que vous aimeriez voir abordés. Hâte d’échanger ensemble !
P.S. Les résumés sont générés par IA et corrigés par mes soins.
Claire et enrichissante cette édition, je n'avais pas entendu parler de cet amendement américain mais il en sort tellement ... Je préfère lire les préconisations de l'Unesco !
Oui je me sens concerné par la souveraineté Européenne même si ce n'est pas gagné 🤔
et plein de choses également le droits des personnes, l'écologie, ...
incroyable merci pour cet éclairage !