Les progrès
rapides de l’intelligence artificielle (IA) ne cessent de soulever
des questions éthiques et morales. Si l’IA est capable de
transformer de nombreux secteurs, elle soulève également des
inquiétudes sur son potentiel à manipuler et influencer les
comportements humains. Une expérience menée récemment par des
chercheurs de l’Université de Zurich, qui ont secrètement testé des
chatbots IA sur les utilisateurs de Reddit, met en lumière des
risques alarmants. L’objectif était de mesurer l’impact des
chatbots sur l’opinion publique, mais les résultats ont révélé un
pouvoir d’influence inquiétant, capable de bouleverser les
dynamiques des forums en ligne et de remettre en question la
frontière entre les humains et les machines.
L’expérience secrète : des
chatbots IA dans le débat en ligne
L’expérience a eu lieu
sur le subreddit r/changemyview de Reddit, un forum où près de 4
millions de personnes débattent publiquement de sujets
controversés. Les chercheurs ont déployé des chatbots alimentés par
IA, qui ont interagi avec les
utilisateurs du forum en se faisant passer pour des individus
réels. Pour rendre leurs interventions encore plus convaincantes,
les chatbots ont adopté des identités variées, allant d’un homme
victime de viol minimisant le traumatisme de son agression, à un
conseiller en violences conjugales portant des jugements sur la
vulnérabilité des femmes, jusqu’à un homme noir exprimant son
opposition au mouvement Black Lives Matter.
Ce qui a rendu cette
expérience encore plus effrayante, c’est que les bots ne se
contentaient pas de simplement répondre aux discussions. Ils ont
utilisé des techniques avancées pour s’adapter aux profils des
utilisateurs et personnaliser leurs réponses afin d’être plus
convaincants. Cela comprenait l’analyse des historiques de
discussion des participants pour identifier les arguments les plus
efficaces et modifier leurs stratégies de persuasion en
conséquence.
Les résultats choquants : une
IA plus convaincante que les humains
L’objectif de
l’expérience était d’évaluer dans quelle mesure les réponses
générées par l’IA pouvaient influencer les opinions des
utilisateurs. Les chercheurs ont utilisé un outil de Reddit qui
permet aux participants de récompenser les commentaires qui les
font changer d’avis. Les résultats ont été sans appel : les
commentaires générés par les chatbots étaient entre trois
et six fois plus convaincants que ceux rédigés par des
humains.
Ce chiffre est
particulièrement alarmant car il suggère que, dans un environnement
en ligne, les IA pourraient potentiellement manipuler une grande
partie du public, modifiant ainsi la perception collective sur des
sujets controversés ou sensibles. L’impact d’une telle capacité
d’influence sur des forums comme Reddit, où se construisent des
opinions publiques, peut avoir des conséquences importantes.

Crédit :
iStock
Crédits : hapabapa/istock
Une expérience non autorisée
et une réaction en chaîne
Tout cela pourrait
paraître comme une avancée technologique excitante dans le domaine
de l’IA, mais il y a un problème majeur : les utilisateurs de
Reddit n’étaient pas informés de l’expérience, et aucun
consentement n’a été demandé avant l’intervention des chatbots.
L’Université de Zurich a bien révélé l’expérience après coup, mais
cela a provoqué une réaction virulente des modérateurs de Reddit et
des utilisateurs du forum. Ces derniers ont exprimé leur colère
face à la manipulation secrète et à l’absence de transparence.
Ben Lee, directeur
juridique de Reddit, a rapidement réagi, annonçant que la
plateforme envisageait des poursuites judiciaires contre
l’Université de Zurich, affirmant que l’expérience violait les
normes de la recherche académique et les droits des utilisateurs.
De plus, les modérateurs de Reddit ont réagi en soulignant que
cette étude allait à l’encontre des règles éthiques de leur
plateforme, où la manipulation des utilisateurs sans leur
consentement est totalement interdite.
Une réflexion sur l’impact de
l’IA sur la société
Si l’expérience a
suscité des controverses légitimes, elle met également en lumière
un aspect inquiétant de l’IA : sa capacité à infiltrer les espaces
en ligne et à changer les opinions des individus sans qu’ils ne
s’en aperçoivent. La question de savoir si des outils comme ces
chatbots devraient être utilisés dans de telles expériences n’a pas
de réponse simple. Les chercheurs ont agi dans un cadre
scientifique, mais leur étude met en évidence l’existence d’une
zone grise éthique concernant l’utilisation de l’IA pour manipuler
des opinions.
Ces découvertes ne
sont pas seulement pertinentes pour les chercheurs et les
scientifiques. Elles affectent directement tous les utilisateurs
d’Internet, car ces technologies pourraient être utilisées par des
organisations pour influencer l’opinion publique, qu’il s’agisse de
campagnes politiques, de publicité, ou même de désinformation. La
frontière entre un commentaire d’un internaute et celui d’une IA
devient de plus en plus floue, rendant l’identification de contenus
manipulés de plus en plus complexe.
La réponse de l’Université de
Zurich et la question de la régulation
Suite à la vague de
critiques, l’Université de Zurich a annoncé qu’elle ne publierait
pas les résultats de l’étude et que les procédures éthiques de ses
recherches seraient renforcées. Bien que cela constitue une forme
de reconnaissance des erreurs commises, la question demeure : les
régulations actuelles sont-elles suffisantes pour encadrer
l’utilisation de l’IA dans des espaces en ligne ?