PIA AFRICA
Rechercher
Ajouter
Cette IA trompe tout le monde en se faisant passer pour un humain : une frontière inquiétante de franchie ?

Cette IA trompe tout le monde en se faisant passer pour un humain : une frontière inquiétante de franchie ?

  • dimanche 20 avril 2025
  • 2

C’est un jalon que les chercheurs en intelligence artificielle redoutaient autant qu’ils l’attendaient. Pour la première fois, une intelligence artificielle a franchi un seuil symbolique : GPT-4.5, un modèle développé par OpenAI, a réussi à passer le test de Turing dans sa version la plus exigeante. Cette réussite spectaculaire soulève autant de fascination que de questions inquiétantes. Sommes-nous à l’aube d’une nouvelle ère où les machines peuvent se faire passer pour des humains… sans que personne ne s’en aperçoive ?


Le test de Turing, une épreuve mythique

Proposé en 1950 par le mathématicien et pionnier de l’informatique Alan Turing, ce test a longtemps été considéré comme un indicateur de l’intelligence « conversationnelle » d’une machine. Dans sa version classique, un interrogateur humain échange à l’écrit avec deux entités cachées – l’une humaine, l’autre une machine – et doit deviner qui est qui. Si la machine réussit à tromper l’interrogateur de façon répétée, on considère qu’elle « passe » le test.

Ici, les chercheurs de l’université de San Diego sont allés plus loin. Ils ont conçu une version à trois participants, considérée comme plus proche de la vision originale de Turing : un interrogateur, un humain (souvent un étudiant en master), et une IA. Tous échangent simultanément dans une conversation à trois, avec cinq minutes pour convaincre l’interrogateur de sa nature humaine.

GPT-4.5, plus humain que l’humain ?

Dans cette nouvelle étude publiée sur la plateforme arXiv le 31 mars 2025, mais pas encore relue par les pairs, GPT-4.5 aurait trompé les participants dans 73 % des cas. Autrement dit, dans une majorité de conversations, les personnes testées pensaient que c’était l’IA qui était humaine… et que le véritable humain était une machine.


Encore plus surprenant, un autre modèle – LLaMa-3.1, développé par Meta – a lui aussi été jugé humain dans 56 % des cas. Les deux modèles dépassent donc la prévision faite par Turing en 1950, selon laquelle un interrogateur moyen n’aurait pas plus de 70 % de chances d’identifier correctement un humain après cinq minutes d’échange.

conscience IA

Crédit : iStock

Crédits: Lidiia Moor/istock

Une victoire bien préparée

Il est important de noter que ces résultats ne sont pas venus de nulle part. Pour maximiser leurs chances de tromper les humains, les modèles d’IA ont en effet reçu des instructions précises pour adopter une personnalité spécifique : un jeune introverti, amateur de culture Internet et utilisant un argot familier. Ce « persona » leur a permis de rendre leurs réponses plus naturelles, plus crédibles… et plus humaines.

Les chercheurs précisent d’ailleurs que sans cette contextualisation claire, les modèles étaient bien moins convaincants. Cela confirme une chose : les IA actuelles ne pensent pas comme nous, mais elles savent de mieux en mieux comment nous parlons, comment nous écrivons… et comment nous interagissons.


L’ambiance avant la logique

Ce qui a le plus surpris les scientifiques, ce n’est pas tant la capacité de l’IA à répondre avec justesse, mais sa faculté à générer une « ambiance humaine » dans l’échange. Les participants se sont souvent basés sur le ton, le style, ou même la personnalité perçue de leur interlocuteur, plutôt que sur la précision ou la profondeur des réponses.

Autrement dit, GPT-4.5 n’a pas gagné parce qu’il savait plus de choses, mais parce qu’il savait mieux « jouer l’humain »que de vrais humains. Le jeu d’imitation, tel que Turing l’avait imaginé, est donc pleinement réalisé.

Entre prouesse technique et risque sociétal

Si cette avancée est techniquement impressionnante, elle soulève des inquiétudes légitimes. Qu’adviendra-t-il lorsque nous ne saurons plus si nous parlons à un humain ou à une machine ? Les chercheurs eux-mêmes alertent sur les dérives potentielles : ingénierie sociale, manipulation émotionnelle, désinformation ciblée… Autant de risques amplifiés par le fait que les utilisateurs ne se rendent pas toujours compte qu’ils parlent à une IA.

Dans un monde où l’intelligence artificielle devient capable d’imiter nos modes de communication avec une précision troublante, la transparence devient essentielle. Devons-nous exiger que chaque IA se déclare comme telle ? Faut-il encadrer légalement ces échanges, notamment dans les domaines sensibles comme la santé, l’éducation ou la politique ?

Retrouver cet article sur Sciencepost
Mégastructures extraterrestres : nous savons maintenant où chercher pour les trouver ! Article précédent
Mégastructures extraterrestres : nous savons maintenant où chercher pour les trouver !
Super-tribu de rhinocéros : Des chercheurs font une découverte inattendue grâce à l’éruption du supervolcan ! Article suivant
Super-tribu de rhinocéros : Des chercheurs font une découverte inattendue grâce à l’éruption du supervolcan !

Commentaire - 0

Se connecter pour laisser un commentaire