Consulter Masquer le sommaire
Des consignes attribuées à ChatGPT laissées visibles
Une nouvelle polémique liée à l’intelligence artificielle secoue le paysage médiatique français. Depuis plusieurs heures, plusieurs captures d’écran circulent massivement sur les réseaux sociaux après la publication d’articles attribués à BFM TV contenant ce qui ressemble à des instructions générées par ChatGPT.
Les internautes ont notamment remarqué la présence de formulations inhabituelles laissées visibles à la fin de certains paragraphes, donnant l’impression que des consignes internes de rédaction ou des échanges avec une IA n’avaient pas été supprimés avant publication.
L’affaire a rapidement déclenché de nombreuses réactions sur X et Instagram, où plusieurs utilisateurs accusent la chaîne d’information d’avoir utilisé l’intelligence artificielle pour produire certains contenus publiés sur son site.
Des captures d’écran devenues virales
La polémique a commencé après la diffusion de captures d’écran relayées massivement sur les réseaux sociaux. On y aperçoit des passages ressemblant à des instructions adressées à ChatGPT, restées visibles directement dans l’article publié.
Certaines publications évoquent notamment des formulations typiques des échanges avec une intelligence artificielle, ce qui a immédiatement alimenté les critiques contre le média.
Plusieurs comptes spécialisés dans l’actualité numérique et les médias ont ensuite relayé l’affaire, contribuant à rendre le sujet viral en quelques heures.
Une polémique qui relance le débat sur l’IA dans les médias
Cette séquence remet en lumière les questions autour de l’utilisation de l’intelligence artificielle dans les rédactions françaises. Depuis l’arrivée massive d’outils comme ChatGPT, de nombreux médias expérimentent des solutions d’assistance à la rédaction pour produire plus rapidement certains contenus.
Le problème ne vient pas nécessairement de l’usage de l’IA lui-même, mais davantage du manque de transparence ou des erreurs de publication qui peuvent en découler.
Dans le cas de BFM TV, les internautes reprochent surtout au média d’avoir laissé apparaître des éléments censés rester invisibles pour les lecteurs, donnant l’impression d’un contenu publié sans relecture suffisante.
Une image sensible pour un grand média d’information
Pour une chaîne d’information en continu comme BFM TV, ce type d’erreur peut rapidement devenir un sujet sensible. Les médias traditionnels sont régulièrement critiqués sur les réseaux sociaux concernant :
- la rapidité de publication ;
- la vérification des informations ;
- ou encore l’automatisation croissante des contenus.
La polémique intervient également dans un contexte où l’utilisation de l’intelligence artificielle dans le journalisme suscite de nombreuses interrogations sur la crédibilité des articles publiés en ligne.
À ce stade, BFM TV n’a pas officiellement communiqué sur les captures d’écran relayées massivement sur les réseaux sociaux.
L’intelligence artificielle de plus en plus présente dans les rédactions
L’utilisation d’outils comme ChatGPT progresse rapidement dans les médias internationaux, notamment pour :
- reformuler des dépêches ;
- résumer des documents ;
- générer des structures d’articles ;
- ou accélérer certaines tâches éditoriales.
Mais plusieurs spécialistes alertent aussi sur les risques liés à ces outils, notamment concernant les erreurs, les biais ou les problèmes de contrôle éditorial.
La polémique autour de BFM TV pourrait désormais alimenter encore davantage le débat sur la place réelle de l’intelligence artificielle dans les rédactions françaises.