L’agent conversationnel ChatGPT n’en finit plus de faire parler. Par exemple, une étude pilotée par deux prestigieuses universités américaines estimait dernièrement que l’IA pourrait devenir une « arme de désinformation massive ». Elle pourrait en effet faciliter la tâche des malfaiteurs en cas d’encadrement trop laxiste.
Pourquoi ces systèmes peuvent-ils représenter un danger ?
L’agent conversationnel ChatGPT a récemment fait sensation dans le monde de l’intelligence artificielle. Tout d’abord louée pour ses compétences, l’IA a très vite suscité diverses interrogations. Par exemple, certains observateurs se sont demandé si ChatGPT pouvait devenir le prochain cauchemar des professeurs. En réalité, l’agent devrait finalement apporter une aide très utile, en faisant notamment économiser un temps précieux aux professionnels de l’éducation.
Mais qu’en est-il de la désinformation sur la toile ? Une équipe de chercheurs des universités de Stanford et Georgetown (États-Unis) et de la désormais célèbre société OpenAI a prépublié une étude sur la plateforme arXiv le 10 janvier 2023. Pour les auteurs de ces travaux, les technologies de langage comme ChatGPT pourraient constituer un danger en cas de manque d’encadrement.
Il pourrait en effet y avoir d’éventuelles opérations de propagande numérique à très grande échelle dans le but d’influencer l’opinion publique. L’utilisation des IA pourrait en outre permettre d’automatiser des publications douteuses sur les réseaux sociaux. Toutefois, le danger concerne aussi une rédaction d’articles par les IA elles-mêmes afin d’alimenter des plateformes publiant des fake news.

Plusieurs mesures doivent être prises
Josh A. Goldstein, le coauteur de l’étude interrogé par VentureBeat dans un article du 13 janvier 2023, évoque une autre possibilité. Des IA telles que ChatGPT pourraient aussi servir à créer du contenu personnalisé pouvant s’adapter à chaque internaute. L’objectif serait alors de maximiser l’effet des fake news en captivant davantage de personnes et de manière plus durable. Le chercheur souligne également la possibilité que ces outils de génération de langage contribuent à faire baisser les coûts de la génération de contenu, en réduisant tout simplement le nombre d’humains derrière les fake news.
Dans leurs conclusions, les auteurs appellent à la prise de mesures afin de contrer les dangers que peuvent générer ces IA. En pratique, ils préconisent de restreindre l’accès à ces systèmes afin d’empêcher les diffuseurs de fake news de profiter d’un moyen d’optimiser facilement leurs contenus. De plus, ils insistent sur la nécessité d’adopter de nouvelles normes pour rendre ces contenus plus facilement détectables.
Ces éventuelles mesures devront absolument passer par une implication des géants de la technologie, mais également des gouvernements ainsi que de la société civile. Malheureusement, le passé a déjà montré que des efforts coordonnés ne rencontrent pas souvent de succès face à la déformation de masse. De plus, les potentielles dérives de systèmes tels que ChatGPT sont aujourd’hui encore difficilement mesurables. Du temps, des recherches, des analyses et des tests devront donc apporter davantage de réponses sur les actions à mener.