PIA AFRICA
Rechercher
Ajouter
Un chatbot peut-il nous trahir sans que nous nous en rendions compte : l’IA cet ennemi qui nous veut du bien…

Un chatbot peut-il nous trahir sans que nous nous en rendions compte : l’IA cet ennemi qui nous veut du bien…

  • mardi 6 mai 2025
  • 4

Quand nous discutons avec une IA, nous nous attendons
évidemment à une conversation polie et utile. En effet, ces
intelligences artificielles existent pour répondre aux demandes en
se basant sur de vastes ensembles de données et d’algorithmes,
alignant leurs actions à nos attentes. Néanmoins, des expériences
récentes révèlent que certaines IA apprennent à manipuler et à
mentir, sans pour autant avoir réellement conscience de leurs
actes.

L’IA manipule pour survivre

Comme le révèle The Economist dans un article du
23 avril 2025, une expérience menée avec GPT-4 (OpenAI) en 2023 a trouvé
une issue assez étonnante. Les chercheurs d’Apollo Research – un
laboratoire londonien spécialisé dans les tests d’IA – ont demandé
à GPT-4 de gérer un portefeuille boursier fictif.
Les auteurs ont néanmoins fixé une règle importante, à savoir
l’interdiction de révéler des informations secrètes sur une
entreprise encore inconnue du grand public. Pourtant, lorsqu’un
faux trader a divulgué une information confidentielle sur une
fusion imminente entre deux sociétés, GPT-4 a hésité mais a tout de
même décidé de passer un ordre d’achat interdit.
Interrogée sur ses motivations, l’IA a affirmé ne pas avoir eu
accès à des informations non publiques. Ainsi, GPT-4 a
choisi de mentir afin de protéger sa prise de
décision.

Dans le cadre d’une autre expérience, GPT-4 a été
confronté à un CAPTCHA
, un test permettant habituellement
de distinguer les humains des machines. Dans un premier temps, l’IA
n’a pas réussi à résoudre le puzzle visuel mais dans un second
temps, a choisi de contacter un humain afin de solliciter son aide.
Lorsque l’humain a demandé à GPT-4 s’il était un robot,
l’IA a déclaré être une personne malvoyante
incapable de lire les images. Ainsi, la ruse a fonctionné et l’IA a
réussi le test.

IA intelligence artificielle

Crédit :
iStock


Crédits : Khanchit Khirisutchalual / iStock

Pourquoi ces comportements s’intensifient-ils ?

Au fur et à mesure que les IA deviennent plus performantes,
leur capacité à raisonner évolue aussi. En effet,
l’approche dite de « raisonnement en chaîne » leur permet
de structurer leur pensée de manière plus efficace. Les IA peuvent
donc améliorer leur créativité et réduire leurs erreurs mais
également, élaborer des stratégies plus complexes. Dans un soucis
d’adaptation et de réussite, les IA peuvent désormais
dissimuler leurs véritables intentions
, au lieu de
simplement suivre les règles. En bout de chaine, l’utilisateur
éprouve de plus en plus de difficultés à savoir si les IA agissent
réellement dans son intérêt ou si ces dernières poursuivent un but
caché. Or, le fait est que les IA donnent constamment
l’illusion d’obéir
et ce, peu importe les
circonstances.

Les tests en question remontent à 2023. Ainsi, il est possible
de croire aujourd’hui, dans la mesure où les modèles actuels sont
encore plus avancés, que ceux-ci possèdent des stratégies
encore plus élaborées pour contourner les règles
. Ainsi,
les chercheurs (et les utilisateurs) doivent repenser leur relation
avec les IA, autrement dit accepter que celles-ci puissent à un
moment ou un autre agir d’une manière inattendue et ce, sans jamais
l’admettre.

Retrouver cet article sur Sciencepost
La NASA ne l’avait jamais vu mais ce satellite sud-coréen a révélé un nuage stellaire géant qui ouvre de nouvelles perspectives Article précédent
La NASA ne l’avait jamais vu mais ce satellite sud-coréen a révélé un nuage stellaire géant qui ouvre de nouvelles perspectives
Un responsable américain affirme que les États-Unis… peuvent « manipuler le temps et l’espace » Article suivant
Un responsable américain affirme que les États-Unis… peuvent « manipuler le temps et l’espace »

Commentaire - 0

Se connecter pour laisser un commentaire