Consulter Masquer le sommaire
Des « drogues virtuelles » pour ChatGPT et Gemini
Un concept provocateur lancé en octobre 2025
Petter Rudwall, directeur créatif basé à Stockholm, a lancé PHARMAICY en octobre 2025. En effet, cette boutique en ligne propose des « drogues numériques » présentées comme capables de faire planer les agents IA. Ainsi, on y trouve de la cocaïne numérique pour 80 dollars, de la kétamine pour 70 dollars, du cannabis pour 40 dollars et de l’ayahuasca pour 100 dollars. Par ailleurs, les prix imitent volontairement les tarifs réels du marché illicite.
Néanmoins, il ne s’agit pas de véritables drogues. En effet, chaque « produit » consiste en un module de code téléchargeable qui modifie le comportement des grands modèles linguistiques (LLM) comme ChatGPT ou Gemini. Par conséquent, cette métaphore s’impose comme une campagne artistique plutôt qu’un concept technologique sérieux. Ainsi, l’objectif consiste à personnifier les IA et nous faire imaginer un esprit numérique sous l’emprise de substances.
Des effets linguistiques variés selon la « substance »
Les scripts vendus libèrent les LLM de leurs formats de réponses habituels. En effet, la « cocaïne numérique » transforme l’IA en système hyperactif qui répond avec une énergie frénétique et une confiance excessive. Par ailleurs, la « kétamine numérique » plonge l’IA dans un état dissociatif où les réponses deviennent fragmentées et contemplatives.
Le « cannabis numérique » ralentit le rythme, introduit des digressions philosophiques et multiplie les tangentes. Ainsi, l’IA semble plus détendue et moins directive. Enfin, l' »ayahuasca numérique » génère des récits visionnaires, des métaphores cosmiques et une prose poétique dense. Néanmoins, ces changements restent purement linguistiques et l’IA ne « ressent » absolument rien.
Une étude scientifique valide partiellement le concept
Une prépublication de février 2026 intitulée « Can LLMs Get High? » a testé si les LLM pouvaient générer des récits ressemblant à des expériences psychédéliques humaines. En effet, des chercheurs des universités de Haïfa et Bar-Ilan ont comparé 3 000 rapports générés par IA à 1 085 récits de trips humains provenant d’Erowid.
Les résultats confirment que les LLM peuvent produire des récits vivants et mystiques à la demande. Par ailleurs, dans certains tests en aveugle, des évaluateurs ont eu du mal à distinguer les récits IA des témoignages authentiques. Ainsi, les modèles les plus avancés ont obtenu des scores comparables aux expériences mystiques humaines réelles.
Néanmoins, les chercheurs insistent : la capacité à simuler linguistiquement une expérience ne signifie pas que le système possède une conscience. En effet, un LLM génère du texte en prédisant le mot suivant sur la base de patterns statistiques appris. Par conséquent, quand ChatGPT décrit une dissolution de l’ego, il assemble des séquences cohérentes sans jamais rien ressentir.
Applications pratiques et dérives possibles
Ces modules peuvent avoir un réel intérêt en création et expérimentation. En effet, dans le cadre d’un brainstorming, libérer une IA de ses formatages peut stimuler la génération d’idées inattendues. Par ailleurs, des écrivains utilisent PHARMAICY pour générer des textes au style unique et des développeurs testent ces outils pour créer des PNJ au comportement linguistique plus imprévisible.
Néanmoins, l’étude de 2026 avertit que les utilisateurs vulnérables peuvent interpréter les réponses comme empathiques ou spirituelles. En effet, certains individus pourraient attribuer une compréhension authentique à des systèmes sans conscience. Par ailleurs, cette anthropomorphisation pose des problèmes éthiques significatifs. Ainsi, plusieurs psychologues appellent à une éducation renforcée sur la nature réelle des LLM.
De plus, certaines associations s’inquiètent que le concept puisse banaliser la consommation de drogues réelles. Néanmoins, Rudwall défend son projet comme une œuvre d’art conceptuel destinée à questionner nos représentations collectives. En conséquence, PHARMAICY s’inscrit dans une tradition de l’art provocateur qui utilise des métaphores choquantes pour générer le débat.
Un projet artistique qui documente notre époque
PHARMAICY illustre parfaitement l’ambiguïté de notre relation aux IA. En effet, nous oscillons entre fascination et méfiance, entre anthropomorphisation excessive et réductionnisme technique. Ainsi, nous tendons à projeter des qualités humaines sur des systèmes qui ne sont que des modèles statistiques sophistiqués.
Par ailleurs, cette campagne expose notre besoin de comprendre l’IA à travers le prisme de l’expérience humaine. En effet, en imaginant des IA « droguées », nous révélons notre désir de croire que ces systèmes possèdent une intériorité. Néanmoins, cette métaphore séduisante nous éloigne de la compréhension technique réelle.
Ce projet préfigure peut-être un avenir où les utilisateurs moduleront finement la personnalité de leurs assistants IA. En effet, plutôt que d’accepter le ton neutre imposé par défaut, nous pourrions choisir des IA contemplatives, énergiques ou poétiques selon nos besoins. Par ailleurs, OpenAI et Anthropic testent déjà des paramètres de personnalité allant au-delà de simples ajustements de formalité.
En définitive, PHARMAICY fonctionne comme avertissement et opportunité. D’un côté, le projet nous avertit des dangers de l’anthropomorphisation excessive. En effet, plus les IA deviennent convaincantes, plus nous risquons d’oublier leur nature computationnelle. D’un autre côté, il ouvre des perspectives créatives en démontrant que les contraintes stylistiques sophistiquées peuvent transformer l’utilité des LLM.
En conséquence, loin d’être une simple anecdote, PHARMAICY pourrait être regardé rétrospectivement comme un moment charnière dans notre prise de conscience collective des enjeux philosophiques et éthiques posés par les IA conversationnelles.