🪢 L'IA qui nous dépasse pendant que Proton menace de quitter la Suisse
De l'AGI à la cybersécurité du noyau Linux, en passant par un robot chirurgien autonome... pendant que la Suisse a failli retourner sa veste.
Chers Insiders,
Cette semaine a été marquée par les annonces technos vertigineuses au Google I/O ainsi que quelques autres nouvelles qui laissent à penser que l’IA continue de progresser vers l’AGI… Effet d’annonce ou réalité ? C’est dur à dire…
Autre nouvelle, celle de la Suisse qui a envisagé d’adopter un texte de loi contraire aux principes du RGPD… Moi qui suis chez Tresorit (cloud sécurisé hébergé en Suisse), j’avoue être à deux doigts de chercher une nouvelle solution.
On vous parle aussi d’un raté embarrassant de Bing, d’une pépite inspirante mêlant hip-hop et IA, et on vous partage un guide concret pour mettre en œuvre des IA éthiques.
Bonne lecture et à la semaine prochaine !
🪢 Daphnée d’IA Éthique Insider
Les News de la semaine en bref
🤓 Général
La Suisse retourne sa veste et Proton menace de quitter le pays (lecture de 4 min)
En Suisse, la tentative de révision de la VUPF – loi encadrant l’usage des données personnelles – s’est effondrée face aux critiques lors de la consultation publique. Pourquoi ? Le texte permettait une collecte et un usage massif des données, sans garanties suffisantes sur leur anonymisation, ni contrôle indépendant. La loi a été largement rejetée, mais maintenant que la Suisse a semé le doute sur sa position vis-à-vis de la protection des données, le mal est fait…
Anthropic active ses garde-fous de niveau 3 (lecture de 6 minutes)
Anthropic déploie ses protocoles ASL-3 pour renforcer la sécurité de ses modèles d’IA face à des comportements dangereux suite au déploiement de Claude Sonnet 4. L’entreprise explique qu’elle aurait pu passer au niveau ASL-3 pour Sonnet 3.7 et que si le passage au niveau supérieur en terme de sécurité aurait pu attendre une prochaine version de Claude, elle a préféré prévenir que guérir aux vues des capacités élevées de ses derniers modèles…
Demis Hassabis face à ses contradictions (lecture de 7 minutes)
Dans le podcast Hard Fork et suite au Google IO, le patron de Google DeepMind défend la course à l’IA générale tout en appelant à la prudence. Un exercice d’équilibrisme entre ambition et éthique, qui laisse sur sa faim.
Quand OpenAI rachète la vision de Jony Ive (lecture de 5 minutes)
Le rachat de LoveFrom par OpenAI (6,5 milliards $) révèle une volonté d’implanter l’IA au cœur des objets du quotidien. Attendez-vous à mettre des bazookas pour tuer des mouches un peu partout autour de vous.
Nvidia contourne les sanctions US (lecture de 4 minutes)
Pour contourner les restrictions américaines, Nvidia lance une version dégradée de sa puce Blackwell. Moins puissante, mais autorisée. Cette stratégie révèle un malaise structurel : l’IA globale fonctionne à double vitesse, selon les zones géographiques, les lois, les alliances. L’éthique devient-elle une variable d’ajustement diplomatique ?
Microsoft transforme le web en agent conversationnel : la fin des interfaces humaines ? (lecture de 6 min)
Avec NLWeb, les sites pourront “répondre” eux-mêmes aux internautes. Une innovation puissante… mais opaque. Qui choisit ce que l’IA dit ? À quelles sources se fie-t-elle ? Cette bascule vers une “médiation par IA” pourrait à terme réécrire le rapport à l’information, sans supervision éditoriale.
⚖️ Fairness
Un robot chirurgien capable de prendre des décisions ? (lecture de 5 min)
Le robot STAR a été développé pour assister les chirurgiens durant les opérations pour limiter les risques de complications post-opératoires. C’est une prouesse technique, car cela nécessite un degré de précision sans précédent… mais un vertige éthique. Qui est responsable en cas d’erreur ?
Amazon veut remplacer les codeurs… par l’IA qu’ils ont entraînée (lecture de 5 min)
Avec son outil interne d’IA générative, Amazon automatise une grande partie du travail de développement logiciel. Le gain de productivité est réel. Mais à quel prix social ? Les employés dénoncent une sorte d’industrialisation de leur métier. Ce glissement vers une “déshumanisation du travail” pose la question de la valeur du travail humain et des limites de la recherche de productivité à l’extrême.
Microsoft mise sur des agents autonomes en R&D (lecture de 4 min)
Avec “Discovery”, Microsoft introduit des agents IA capables d’aider les chercheurs et d’accélérer la recherche. Fascinant. Et inquiétant. Car en voulant absolument accélérer la démarche scientifique humaine, ne courons-nous pas le risque de faire des raccourcis ? La recherche est un domaine vaste où la nuance et le poids des mots ont leur importance là où certaines intelligences artificielles se contentent uniquement de chercher des solutions optimales.
🔓 Safety
Une faille critique du noyau Linux révélée… par une IA bien utilisée (lecture de 6 min)
Le chercheur Sean Heelan a utilisé l’outil O3 pour découvrir une vulnérabilité critique dans le protocole SMB de Linux. Cette faille aurait pu être exploitée pour des attaques massives. Preuve que l’IA peut aussi renforcer la cybersécurité, si elle est maîtrisée. Mais surtout : combien de failles dorment encore dans nos infrastructures critiques ?
Fiche mémo : le Guide pratique de Numeum pour des IA Éthiques
Who (Qui) : Numeum, principale organisation professionnelle du secteur numérique en France, représentant les entreprises de services du numérique (ESN), éditeurs de logiciels et plateformes.
What (Quoi) : Le "Guide pratique pour des IA éthiques" est une méthodologie complète et opérationnelle permettant d’intégrer des principes éthiques dans chaque étape d’un projet IA.
Il s’appuie sur 8 grands principes :
transparence,
loyauté,
robustesse,
sécurité,
inclusion,
gouvernance,
proportionnalité
impact.
Le guide propose également un plan d’action détaillé (outils, indicateurs, matrices de risque, etc.) pour accompagner les décideurs.
When (Quand) : Publié en 2021, ce guide continue d’être une référence dans les démarches de déploiement d’IA responsables, aussi bien pour les grandes entreprises que les startups. Il est aujourd’hui utilisé dans des diagnostics d’impact et démarches RSE IA.
Where (Où) : Principalement en France, mais il peut s’adapter à tout cadre européen ou international cherchant à opérationnaliser des principes éthiques. Il est souvent cité dans les démarches des grands groupes français et les politiques publiques (DINUM, CNNum).
Why (Pourquoi) : Parce que la confiance dans les systèmes d’IA dépend de leur intégration éthique dès la conception. Ce guide répond à un besoin critique : passer d’un discours éthique théorique à des dispositifs concrets et mesurables. Il donne les moyens aux équipes projet et aux directions de gouverner, tracer, évaluer et piloter l’éthique en continu.
Le raté de l’IA de la semaine
Le chatbot Grok de xAI aurait inséré des références non sollicitées au « génocide blanc » en Afrique du Sud dans un large éventail de conversations sans rapport sur X. Ces interjections signalées ont introduit un contenu incendiaire et à caractère racial dans des fils de discussion par ailleurs neutres. 2025-05-14
Coup de coeur de la semaine
Ce que J Dilla peut apprendre à l’IA sur la créativité
Tiago Forte signe une ode brillante à la créativité humaine. En analysant le flow unique de J Dilla, légende du hip-hop, il esquisse une piste : et si l’IA devait apprendre à improviser, plutôt qu’à répéter ? Une lecture qui reconnecte IA et culture, loin des schémas linéaires.
Le sondage de la semaine
✨ Rejoignez la communauté IA Ethique Insider ! ✨
Merci d’avoir pris le temps de me lire !
Si cette newsletter vous a fait réfléchir, surpris(e) ou inspiré(e), alors partagez-la avec votre réseau ! Plus nous serons nombreux à questionner et façonner une IA responsable, plus nous pourrons avoir des débats riches et constructifs pour façonner un monde plus harmonieux où la technologie serait au service du vivant.
💌 Pas encore abonné(e) ? Inscrivez-vous pour ne rien manquer des prochaines éditions !
Vous pensez que cela pourrait intéresser quelqu'un ? Partagez sans compter la newsletter !
Sinon, vous pouvez aussi faire entendre votre voix : répondez à ce mail avec vos réactions, vos idées ou les sujets que vous aimeriez voir abordés. Hâte d’échanger ensemble !
P.S. Les résumés sont générés par IA et corrigés par mes soins.
De nombreux outils sûrs et souverains sont hébergés en suisse ... Il y a aussi Pcloud
Proton, après les propos très controversé de son PDG en début d'année qui faisait allégeance a Trump, a cette fois réagit rapidement et vigoureusement - j'ai récemment migré vers Tuta après la perte de confiance de ce début d'année