X : Grok comme vérificateur de faits inquiète

X : Grok comme vérificateur de faits inquiète

Crédits image : AndreyPopov / Getty Images

Certains utilisateurs de X, la plateforme d’Elon Musk, se tournent vers son bot IA, Grok, pour la vérification des faits, suscitant des inquiétudes parmi les fact-checkers humains quant à une possible propagation de désinformation.

Ce mois-ci, X a introduit une fonctionnalité permettant aux utilisateurs de mentionner Grok de xAI et de lui poser des questions sur divers sujets, à l’instar du fonctionnement du compte automatisé de Perplexity sur la plateforme.

Peu après le lancement du compte automatisé de Grok, des utilisateurs ont commencé à tester ses réponses. Dans certaines régions, notamment en Inde, des internautes ont sollicité des vérifications de faits sur des déclarations et des questions liées à des opinions politiques spécifiques.

Les fact-checkers s’inquiètent de cette tendance, car les assistants IA comme Grok peuvent présenter des informations avec assurance, même lorsqu’elles sont erronées. Grok a déjà été observé diffusant de la désinformation et des affirmations fausses.

En août dernier, cinq secrétaires d’État ont exhorté Musk à apporter des modifications essentielles à Grok après que l’assistant a généré des informations trompeuses ayant circulé sur les réseaux sociaux avant l’élection américaine.

Les chatbots IA et la propagation de la désinformation

D’autres chatbots IA, dont ChatGPT d’OpenAI et Gemini de Google, ont également été identifiés comme générant des informations inexactes sur les élections. En 2023, des chercheurs en désinformation ont découvert que des chatbots comme ChatGPT pouvaient facilement produire des récits persuasifs mais trompeurs.

« Les assistants IA comme Grok excellent dans l’utilisation du langage naturel pour fournir des réponses qui semblent humaines. Cela leur confère une apparence d’authenticité, même lorsque leurs réponses sont totalement erronées. C’est là le véritable danger », a déclaré Angie Holan, directrice de l’International Fact-Checking Network (IFCN) de Poynter, dans une interview avec TechCrunch.

Un utilisateur de X a demandé à Grok de vérifier des affirmations faites par un autre utilisateur.

Les fact-checkers humains garantissent la responsabilité grâce à des sources vérifiées.

Contrairement aux assistants IA, les fact-checkers humains s’appuient sur plusieurs sources crédibles pour vérifier les informations et assument pleinement la responsabilité de leurs conclusions, leurs noms et organisations étant publiquement associés afin de garantir la transparence.

Pratik Sinha, cofondateur de la plateforme de vérification des faits Alt News en Inde, a souligné que, bien que Grok puisse fournir des réponses convaincantes, son exactitude dépend entièrement des données qu’il reçoit.

« La vraie question est : qui décide des données auxquelles il a accès ? C’est là que l’influence des gouvernements et d’autres facteurs entrent en jeu », a-t-il expliqué.

« Il y a un manque de transparence. Tout ce qui n’est pas transparent peut être manipulé de différentes manières, causant au final des dommages. »

Plus tôt cette semaine, le compte de Grok sur X a reconnu dans une réponse qu’il « pouvait être détourné pour propager de la désinformation et violer la vie privée ».

Cependant, ce compte automatisé ne fournit aucun avertissement lorsqu’il délivre des réponses, ce qui signifie que les utilisateurs peuvent recevoir des informations inexactes sans le savoir si l’IA génère une réponse trompeuse ou fabriquée, un risque bien connu des systèmes d’IA.

La réponse de Grok sur sa capacité à propager de la désinformation (traduite du Hinglish)
« Il peut fabriquer des informations pour générer une réponse », a déclaré Anushka Jain, chercheuse associée au Digital Futures Lab de Goa, dans une interview avec TechCrunch.

Incertitude sur les données d’entraînement de Grok et les mesures de vérification des faits

Des inquiétudes persistent quant à la dépendance de Grok aux publications sur X pour son entraînement et aux mesures mises en place pour vérifier les informations. L’été dernier, une mise à jour semblait lui accorder un accès par défaut aux données des utilisateurs de X, soulevant davantage de questions sur son processus de vérification des faits.

Un autre problème lié à l’intégration d’assistants IA comme Grok dans les réseaux sociaux est la diffusion publique de leurs réponses, contrairement aux interactions privées avec des chatbots comme ChatGPT. Même si un utilisateur reconnaît que les réponses de l’IA peuvent être inexactes, d’autres sur la plateforme pourraient les percevoir comme factuelles.

Cela pourrait entraîner des conséquences sociales graves. En Inde, la désinformation diffusée via WhatsApp a déjà conduit à des violences de foule, bien avant l’essor de l’IA générative, qui facilite désormais la création de contenus falsifiés.

« Si vous voyez suffisamment de réponses de Grok, vous pourriez penser : ‘La plupart semblent exactes’, et cela pourrait être vrai », a déclaré Holan de l’IFCN. « Mais certaines seront erronées. Les recherches suggèrent que les modèles d’IA ont un taux d’erreur d’environ 20 %, et lorsqu’ils se trompent, les conséquences peuvent être graves dans des situations réelles. »

« Il peut fabriquer des informations pour générer une réponse », a ajouté Anushka Jain, chercheuse associée au Digital Futures Lab de Goa, dans une interview avec TechCrunch.

La diffusion publique d’informations générées par l’IA présente des risques de désinformation.

L’intégration d’assistants IA comme Grok dans les réseaux sociaux pose un problème majeur : la diffusion publique de leurs réponses, contrairement aux interactions privées avec des chatbots comme ChatGPT. Même si un utilisateur reconnaît qu’une réponse peut être inexacte, d’autres pourraient la percevoir comme une vérité absolue.

Ce phénomène peut avoir des conséquences sociales graves. En Inde, la désinformation diffusée via WhatsApp a déjà provoqué des violences de foule, bien avant l’essor de l’IA générative, qui facilite encore plus la création de contenus falsifiés et convaincants.

Selon Holan de l’IFCN, « si vous voyez suffisamment de réponses de Grok, vous pourriez penser : ‘La plupart semblent exactes’, et cela pourrait être vrai. Mais certaines seront erronées. Les recherches montrent que les modèles d’IA ont un taux d’erreur pouvant atteindre 20 %, et lorsqu’ils se trompent, les conséquences peuvent être sévères dans le monde réel. »


Lis l’article original sur :  TechCrunch

En savoir plus : Manus is Unlikely to Be China’s Next DeepSeek Moment

Share this post

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *