Consulter Masquer le sommaire
Après le projet d’attentat visant le Louvre et une synagogue à Paris, dans lequel le suspect aurait utilisé ChatGPT dans le cadre de ses recherches, les enquêteurs s’interrogent désormais sur les usages détournés de l’intelligence artificielle.
Une technologie accessible à tous
L’une des grandes forces de l’IA générative est aussi devenue l’une des principales préoccupations des autorités : son accessibilité.
Aujourd’hui, quelques secondes suffisent pour accéder à des outils capables d’expliquer des concepts complexes, d’écrire du code ou encore de produire des textes extrêmement détaillés. Cette démocratisation massive transforme profondément internet et les usages numériques.
Mais les services spécialisés craignent désormais que certains individus utilisent ces outils pour organiser leurs recherches, produire de faux contenus ou automatiser certaines actions criminelles.
Les enquêteurs observent notamment une multiplication des usages liés aux cyberattaques, aux escroqueries et à certaines formes de radicalisation en ligne.
Le projet d’attentat du Louvre relance les inquiétudes
Le sujet a pris une nouvelle dimension après l’affaire du projet d’attentat visant le Louvre et une synagogue à Paris.
Selon plusieurs éléments de l’enquête, le suspect aurait utilisé ChatGPT dans le cadre de certaines recherches liées à son projet d’attaque. Les enquêteurs cherchent désormais à comprendre quelles requêtes ont été effectuées, quelles réponses ont été obtenues et si des tentatives de contournement des protections de l’IA ont été utilisées.
Cette affaire a immédiatement relancé le débat autour des limites de sécurité des intelligences artificielles conversationnelles.
Les cybercriminels utilisent déjà l’IA
Dans l’univers de la cybersécurité, l’utilisation de l’intelligence artificielle par des groupes criminels est déjà une réalité.
Les spécialistes observent depuis plusieurs mois une forte hausse des faux mails ultra crédibles, des arnaques automatisées et des campagnes de phishing beaucoup plus sophistiquées.
Grâce à l’IA, certains hackers peuvent désormais produire des contenus quasiment impossibles à distinguer d’un message humain classique. Cette évolution complique fortement le travail des entreprises et des enquêteurs spécialisés.
Les protections de ChatGPT ont-elles des limites ?
Les plateformes d’IA comme ChatGPT disposent normalement de filtres destinés à bloquer les contenus liés aux armes, aux explosifs ou aux demandes dangereuses.
Mais plusieurs chercheurs expliquent que certains utilisateurs cherchent régulièrement à contourner ces protections grâce à des formulations détournées ou des requêtes fragmentées.
Les grandes entreprises technologiques travaillent désormais en permanence sur les systèmes de modération et les mécanismes de sécurité intégrés aux modèles d’IA. Le sujet est devenu central dans toute l’industrie de l’intelligence artificielle.
Les autorités renforcent leur surveillance
La France n’est pas le seul pays concerné.
Aux États-Unis, au Royaume-Uni ou encore en Allemagne, plusieurs agences surveillent déjà les usages criminels de l’intelligence artificielle générative.
Les enquêteurs redoutent notamment l’utilisation de l’IA pour créer de faux profils, automatiser des campagnes de désinformation ou produire des contenus de radicalisation.
Face à cette évolution, les services spécialisés français adaptent progressivement leurs méthodes d’enquête afin de mieux détecter les usages suspects liés à l’intelligence artificielle.
Une nouvelle étape dans l’évolution du crime numérique
L’affaire du Louvre montre surtout que l’intelligence artificielle entre désormais dans une nouvelle phase.
Comme internet ou les réseaux sociaux avant elle, cette technologie devient progressivement un outil utilisé aussi bien par le grand public que par certains groupes criminels.
Pour les autorités, le défi sera désormais de réussir à encadrer ces nouveaux usages sans freiner totalement le développement d’une technologie devenue stratégique à l’échelle mondiale.
Et avec la démocratisation toujours plus rapide des outils d’IA générative, les enquêteurs s’attendent déjà à voir apparaître de nouveaux dossiers mêlant intelligence artificielle et criminalité dans les prochains mois.