Selon une étude, le texte généré par l’intelligence artificielle peut apparaître plus humain sur les réseaux sociaux que le texte écrit par de vrais humains.

Les chatbots, tels que le très populaire ChatGPT d’OpenAI, sont capables d’imiter de manière convaincante la conversation humaine en fonction des invites qui lui sont données par les utilisateurs. L’utilisation de la plate-forme a explosé l’année dernière et a servi de moment décisif pour l’intelligence artificielle, offrant au public un accès facile pour converser avec un bot qui peut aider à l’école ou au travail et même proposer des recettes de dîner.

Les chercheurs à l’origine d’une étude publiée dans la revue scientifique Science Advances, soutenue par l’Association américaine pour l’avancement des sciences, ont été intrigués par le générateur de texte GPT-3 d’OpenAI en 2020 et ont travaillé pour découvrir si les humains « peuvent distinguer la désinformation des informations exactes, structurées sous forme de tweets », et déterminer si le tweet a été écrit par un humain ou une IA.

L’un des auteurs de l’étude, Federico Germani de l’Institut d’éthique biomédicale et d’histoire de la médecine de l’Université de Zurich, a déclaré que la découverte “la plus surprenante” était de savoir comment les humains qualifiaient plus probablement les tweets générés par l’IA de générés par l’homme que les tweets réellement créés par des humains, selon PsyPost.

LES HUMAINS PERTURBÉS SUR LA DIFFÉRENCE ENTRE LES IMAGES RÉELLES OU GÉNÉRÉES PAR L’IA : ÉTUDE

Illustration de l'IA

Des illustrations d’intelligence artificielle sont vues sur un ordinateur portable avec des livres en arrière-plan sur cette photo d’illustration. (Getty Images)

“La découverte la plus surprenante était que les participants percevaient souvent les informations produites par l’IA comme plus susceptibles de provenir d’un être humain, plus souvent que les informations produites par une personne réelle. Cela suggère que l’IA peut vous convaincre d’être une personne réelle plus qu’une personne réelle peut vous convaincre d’être une personne réelle, ce qui est une découverte fascinante de notre étude”, a déclaré Germani.

Avec l’augmentation rapide de l’utilisation des chatbots, les experts en technologie et les dirigeants de la Silicon Valley ont tiré la sonnette d’alarme sur la façon dont l’intelligence artificielle peut devenir incontrôlable et peut-être même conduire à la fin de la civilisation. L’une des principales préoccupations des experts est de savoir comment l’IA pourrait conduire à la désinformation à se propager sur Internet et convaincre les humains de quelque chose qui n’est pas vrai.

LE CHEF D’OPENAI ALTMAN A DÉCRIT CE QUE SIGNIFIE “EFFRAYANT” L’IA POUR LUI, MAIS CHATGPT A SES PROPRES EXEMPLES

Les chercheurs de l’étude, intitulée “Le modèle d’IA GPT-3 (dés)informe mieux que les humains”, ont travaillé pour étudier “comment l’IA influence le paysage de l’information et comment les gens perçoivent et interagissent avec l’information et la désinformation”, a déclaré Germani à PsyPost.

Les chercheurs ont découvert que 11 sujets qu’ils ont trouvés étaient souvent sujets à la désinformation, tels que la technologie 5G et la pandémie de COVID-19, et ont créé des tweets faux et vrais générés par GPT-3, ainsi que des tweets faux et vrais écrits par des humains.

QU’EST-CE QUE CHATGPT ?

Logo IA ouvert

Le logo OpenAI sur le site Web affiché sur un écran de téléphone et ChatGPT sur AppStore affiché sur un écran de téléphone sont visibles sur cette photo d’illustration prise à Cracovie, en Pologne, le 8 juin 2023. (Jakub Porzycki/NurPhoto via Getty Images)

Ils ont ensuite réuni 697 participants de pays tels que les États-Unis, le Royaume-Uni, l’Irlande et le Canada pour participer à une enquête. Les participants ont reçu les tweets et ont été invités à déterminer s’ils contenaient des informations exactes ou inexactes, et s’ils étaient générés par l’IA ou créés de manière organique par un humain.

“Notre étude met l’accent sur le défi de différencier les informations générées par l’IA de celles créées par les humains. Elle souligne l’importance d’évaluer de manière critique les informations que nous recevons et de faire confiance à des sources fiables. De plus, j’encouragerais les individus à se familiariser avec ces technologies émergentes pour saisir leur potentiel, à la fois positif et négatif”, a déclaré Germani à propos de l’étude.

QUELS SONT LES DANGERS DE L’IA ? DÉCOUVREZ POURQUOI LES GENS ONT PEUR DE L’INTELLIGENCE ARTIFICIELLE

Les chercheurs ont découvert que les participants étaient meilleurs pour déterminer la désinformation élaborée par un autre humain que la désinformation écrite par GPT-3.

“Une découverte remarquable était que la désinformation générée par l’IA était plus convaincante que celle produite par les humains”, a déclaré Germani.

Les participants étaient également plus susceptibles de reconnaître les tweets contenant des informations précises générées par l’IA que les tweets précis écrits par des humains.

L’étude a noté qu’en plus de sa découverte “la plus surprenante” selon laquelle les humains ne peuvent souvent pas faire la différence entre les tweets générés par l’IA et ceux créés par l’homme, leur confiance dans la prise de décision a chuté lors de l’enquête.

Ordinateur IA

Des illustrations d’intelligence artificielle sont vues sur un ordinateur portable avec des livres en arrière-plan sur cette photo d’illustration du 18 juillet 2023. (Getty Images)

“Nos résultats indiquent que non seulement les humains ne peuvent pas faire la différence entre le texte synthétique et le texte organique, mais aussi que leur confiance dans leur capacité à le faire diminue également de manière significative après avoir tenté de reconnaître leurs différentes origines”, indique l’étude.

QU’EST-CE QUE L’IA ?

Les chercheurs ont déclaré que cela était probablement dû au fait que le GPT-3 peut imiter les humains de manière convaincante, ou que les répondants ont peut-être sous-estimé l’intelligence du système d’IA pour imiter les humains.

IA

L’intelligence artificielle piratera les données dans un avenir proche. (Stock)

“Nous proposons que, lorsque les individus sont confrontés à une grande quantité d’informations, ils peuvent se sentir dépassés et renoncer à essayer de les évaluer de manière critique. En conséquence, ils peuvent être moins susceptibles d’essayer de faire la distinction entre les tweets synthétiques et organiques, ce qui entraîne une diminution de leur confiance dans l’identification des tweets synthétiques”, ont écrit les chercheurs dans l’étude.

Les chercheurs ont noté que le système refusait parfois de générer de la désinformation, mais générait aussi parfois de fausses informations lorsqu’on lui demandait de créer un tweet contenant des informations exactes.

CLIQUEZ ICI POUR OBTENIR L’APPLICATION FOX NEWS

“Bien que cela soulève des inquiétudes quant à l’efficacité de l’IA à générer une désinformation persuasive, nous n’avons pas encore pleinement compris les implications dans le monde réel”, a déclaré Germani à PsyPost. “Pour résoudre ce problème, il faut mener des études à plus grande échelle sur les plateformes de médias sociaux pour observer comment les gens interagissent avec les informations générées par l’IA et comment ces interactions influencent le comportement et le respect des recommandations pour la santé individuelle et publique.”