Consulter Masquer le sommaire
- Une lettre de départ qui tranche avec les annonces habituelles de la tech
- « Aujourd’hui est mon dernier jour »
- Anthropic, “standard-bearer” de l’IA sûre — et cible logique
- Ce que Sharma dit avoir fait chez Anthropic
- Sycophancy, bioterrorisme, mise “en production”
- « Le monde est en péril » : le cœur de son message
- Une alerte qui dépasse l’IA
- Le “déclencheur” n’est pas un événement précis
- « Disconnect between values and actions » : ce qui l’a usé, selon lui
- La pression des institutions “compétition, vitesse, échelle”
- Son dernier projet : ce que les assistants IA font à l’humain
- Après Anthropic : Royaume-Uni, poésie, “courageous speech”
- Se rendre “invisible” un temps
- Une sortie conclue par un poème
- Un départ qui s’inscrit dans une histoire plus longue
Une lettre de départ qui tranche avec les annonces habituelles de la tech
« Aujourd’hui est mon dernier jour »
Dans son message, Sharma explique qu’il quitte Anthropic parce qu’il estime avoir “accompli ce qu’il voulait” au sein de l’entreprise. Il rappelle aussi être arrivé à San Francisco il y a deux ans, juste après son doctorat, avec l’idée de contribuer à la sécurité de l’IA.
La lettre a circulé très vite. D’abord parce qu’elle ne ressemble pas à un changement de poste classique. Ensuite parce qu’elle mélange constats, avertissements et références poétiques, loin du langage corporate.
Anthropic, “standard-bearer” de l’IA sûre — et cible logique
L’article de The Federal replace ce départ dans l’image publique d’Anthropic : une entreprise qui revendique une approche “responsable” de l’IA, portée par son PDG Dario Amodei et sa promesse d’aligner des modèles puissants avec des valeurs humaines.
Dans ce contexte, une démission venant d’un profil “safety” attire forcément l’attention. Surtout quand le texte évoque une distance entre les principes affichés et la réalité des décisions.
Ce que Sharma dit avoir fait chez Anthropic
Sycophancy, bioterrorisme, mise “en production”
Sharma liste plusieurs chantiers auxquels il dit avoir contribué : comprendre la sycophancy (la tendance d’un assistant à flatter l’utilisateur), développer des défenses contre les risques d’“AI-assisted bioterrorism”, déployer certaines protections en production, et participer à la rédaction de “l’un des premiers AI safety cases”.
En parallèle, Anthropic avait présenté publiquement sa Safeguards Research Team comme une équipe chargée de renforcer la robustesse face aux “jailbreaks”, d’automatiser du “red teaming” et d’améliorer les techniques de monitoring après déploiement. Le billet indique aussi que l’équipe était “led by Mrinank Sharma”.
« Le monde est en péril » : le cœur de son message
Une alerte qui dépasse l’IA
Le passage le plus repris tient en une phrase : « The world is in peril ». Sharma précise qu’il ne parle pas uniquement de l’IA ou des armes biologiques, mais d’une série de crises interconnectées “en train de se dérouler en ce moment même”.
Il ajoute une idée plus vertigineuse : l’humanité approcherait d’un seuil où sa sagesse doit grandir aussi vite que sa capacité à transformer le monde. Sinon, dit-il, les conséquences pourraient être graves.
Le “déclencheur” n’est pas un événement précis
Autre point important : Sharma ne raconte pas une dispute, ni une rupture liée à un dossier unique. Au contraire, The Federal insiste sur l’absence de “single trigger”. Le texte ressemble davantage à une prise de conscience progressive.
« Disconnect between values and actions » : ce qui l’a usé, selon lui
La pression des institutions “compétition, vitesse, échelle”
Dans la lettre, Sharma explique avoir vu “à quel point il est difficile de laisser nos valeurs gouverner nos actions”. Il dit l’avoir constaté en lui-même, mais aussi dans des institutions façonnées par la compétition, la vitesse et le passage à l’échelle.
C’est une critique qui reste générale. Pourtant, elle résonne. Elle décrit la mécanique d’entreprises qui avancent vite, parfois plus vite que leur cadre éthique ne suit.
Son dernier projet : ce que les assistants IA font à l’humain
C’est l’élément que j’avais trop peu mis en avant, et c’est celui que The Federal souligne nettement : Sharma dit être fier de son dernier projet de recherche, consacré à la manière dont des assistants IA pourraient éroder ou déformer des qualités humaines.
Dit autrement, il ne parle pas seulement de contenus interdits ou de jailbreaks. Il pointe un risque plus intime : l’effet “lent”, culturel, relationnel, que ces outils peuvent avoir sur nos manières de penser, de décider, ou de nous percevoir.
À ce stade, Sharma explique qu’il ne se sent plus appelé à des améliorations incrémentales, comme rendre un système “moins sycophant”. Il veut déplacer son énergie ailleurs.
Après Anthropic : Royaume-Uni, poésie, “courageous speech”
Se rendre “invisible” un temps
Sharma dit vouloir retourner au Royaume-Uni, explorer une voie en poésie, approfondir son travail de facilitation et de “community-building”, et se mettre en retrait de la visibilité publique pendant un certain temps.
Il revendique aussi la “courageous speech”, une parole courageuse, et place la “vérité poétique” au même niveau que la vérité scientifique pour comprendre l’époque.
Une sortie conclue par un poème
Enfin, The Federal note qu’il clôt son adieu avec “The Way It Is” de William Stafford, comme une façon de garder un fil moral stable au milieu du tumulte.
Un départ qui s’inscrit dans une histoire plus longue
L’article fait aussi un parallèle avec d’autres départs marquants dans la tech, notamment celui de Timnit Gebru chez Google en 2020, pour illustrer une tension persistante : l’ambition technologique d’un côté, la retenue morale de l’autre.