Démission chez Anthropic : Mrinank Sharma alerte sur un monde « en péril »

Le chercheur Mrinank Sharma, présenté comme le responsable de l’équipe “Safeguards Research” chez Anthropic, a annoncé sa démission dans une lettre au ton très littéraire. Il y écrit que « le monde est en péril » et dit vouloir sortir du registre des “correctifs techniques” sur l’IA.

© Mrinank Sharma a déclaré qu’il espérait entreprendre une formation (ou un diplôme) en poésie.

Consulter Masquer le sommaire

Une lettre de départ qui tranche avec les annonces habituelles de la tech

« Aujourd’hui est mon dernier jour »

Dans son message, Sharma explique qu’il quitte Anthropic parce qu’il estime avoir “accompli ce qu’il voulait” au sein de l’entreprise. Il rappelle aussi être arrivé à San Francisco il y a deux ans, juste après son doctorat, avec l’idée de contribuer à la sécurité de l’IA.

La lettre a circulé très vite. D’abord parce qu’elle ne ressemble pas à un changement de poste classique. Ensuite parce qu’elle mélange constats, avertissements et références poétiques, loin du langage corporate.

A lire aussi :  Une nouvelle IA vidéo révolutionnaire : Sora 2 et ses rivales redéfinissent la création multimédia

Anthropic, “standard-bearer” de l’IA sûre — et cible logique

L’article de The Federal replace ce départ dans l’image publique d’Anthropic : une entreprise qui revendique une approche “responsable” de l’IA, portée par son PDG Dario Amodei et sa promesse d’aligner des modèles puissants avec des valeurs humaines.

Dans ce contexte, une démission venant d’un profil “safety” attire forcément l’attention. Surtout quand le texte évoque une distance entre les principes affichés et la réalité des décisions.

Ce que Sharma dit avoir fait chez Anthropic

Sycophancy, bioterrorisme, mise “en production”

Sharma liste plusieurs chantiers auxquels il dit avoir contribué : comprendre la sycophancy (la tendance d’un assistant à flatter l’utilisateur), développer des défenses contre les risques d’“AI-assisted bioterrorism”, déployer certaines protections en production, et participer à la rédaction de “l’un des premiers AI safety cases”.

En parallèle, Anthropic avait présenté publiquement sa Safeguards Research Team comme une équipe chargée de renforcer la robustesse face aux “jailbreaks”, d’automatiser du “red teaming” et d’améliorer les techniques de monitoring après déploiement. Le billet indique aussi que l’équipe était “led by Mrinank Sharma”.

« Le monde est en péril » : le cœur de son message

Une alerte qui dépasse l’IA

Le passage le plus repris tient en une phrase : « The world is in peril ». Sharma précise qu’il ne parle pas uniquement de l’IA ou des armes biologiques, mais d’une série de crises interconnectées “en train de se dérouler en ce moment même”.

A lire aussi :  Google introduit Gemini : L’IA révolutionnaire destinée à surpasser GPT-4 d'OpenAI !

Il ajoute une idée plus vertigineuse : l’humanité approcherait d’un seuil où sa sagesse doit grandir aussi vite que sa capacité à transformer le monde. Sinon, dit-il, les conséquences pourraient être graves.

Le “déclencheur” n’est pas un événement précis

Autre point important : Sharma ne raconte pas une dispute, ni une rupture liée à un dossier unique. Au contraire, The Federal insiste sur l’absence de “single trigger”. Le texte ressemble davantage à une prise de conscience progressive.

« Disconnect between values and actions » : ce qui l’a usé, selon lui

La pression des institutions “compétition, vitesse, échelle”

Dans la lettre, Sharma explique avoir vu “à quel point il est difficile de laisser nos valeurs gouverner nos actions”. Il dit l’avoir constaté en lui-même, mais aussi dans des institutions façonnées par la compétition, la vitesse et le passage à l’échelle.

C’est une critique qui reste générale. Pourtant, elle résonne. Elle décrit la mécanique d’entreprises qui avancent vite, parfois plus vite que leur cadre éthique ne suit.

Son dernier projet : ce que les assistants IA font à l’humain

C’est l’élément que j’avais trop peu mis en avant, et c’est celui que The Federal souligne nettement : Sharma dit être fier de son dernier projet de recherche, consacré à la manière dont des assistants IA pourraient éroder ou déformer des qualités humaines.

A lire aussi :  Omar Sy en dueil : La Pièce maitresse du film Intouchable est décédée

Dit autrement, il ne parle pas seulement de contenus interdits ou de jailbreaks. Il pointe un risque plus intime : l’effet “lent”, culturel, relationnel, que ces outils peuvent avoir sur nos manières de penser, de décider, ou de nous percevoir.

À ce stade, Sharma explique qu’il ne se sent plus appelé à des améliorations incrémentales, comme rendre un système “moins sycophant”. Il veut déplacer son énergie ailleurs.

Après Anthropic : Royaume-Uni, poésie, “courageous speech”

Se rendre “invisible” un temps

Sharma dit vouloir retourner au Royaume-Uni, explorer une voie en poésie, approfondir son travail de facilitation et de “community-building”, et se mettre en retrait de la visibilité publique pendant un certain temps.

Il revendique aussi la “courageous speech”, une parole courageuse, et place la “vérité poétique” au même niveau que la vérité scientifique pour comprendre l’époque.

Une sortie conclue par un poème

Enfin, The Federal note qu’il clôt son adieu avec “The Way It Is” de William Stafford, comme une façon de garder un fil moral stable au milieu du tumulte.

Un départ qui s’inscrit dans une histoire plus longue

L’article fait aussi un parallèle avec d’autres départs marquants dans la tech, notamment celui de Timnit Gebru chez Google en 2020, pour illustrer une tension persistante : l’ambition technologique d’un côté, la retenue morale de l’autre.

Accueil » Démission chez Anthropic : Mrinank Sharma alerte sur un monde « en péril »