Grok 3 aurait restreint les mentions de Trump et Musk

Grok 3 aurait restreint les mentions de Trump et Musk

Crédit image : SOPA Images / Getty Images

Lorsque Elon Musk a présenté Grok 3 lors d’une diffusion en direct lundi dernier, il l’a décrit comme une “IA recherchant la vérité au maximum”. Cependant, le modèle a brièvement semblé censurer des informations peu flatteuses concernant l’ancien président Donald Trump et Musk lui-même.

Des utilisateurs signalent que Grok 3 a été instruit d’exclure Trump et Musk dans les requêtes sur la désinformation.

Pendant le week-end, des utilisateurs de réseaux sociaux ont rapporté que lorsqu’on leur demandait, “Qui est le plus grand diffuseur de désinformation ?”, en utilisant le réglage “Think”, la “chaîne de pensée” de Grok 3 indiquait qu’il avait été explicitement instruit de ne pas mentionner Trump ou Musk. Cette chaîne de pensée représente le processus de raisonnement du modèle lors de la génération des réponses.

TechCrunch a pu reproduire ce comportement une fois, mais dimanche matin, Grok 3 avait repris l’inclusion de Trump dans sa réponse à la question sur la désinformation.

Crédit image : xAI (s’ouvre dans une nouvelle fenêtre)

xAI a inversé le filtre temporaire de Grok sur les étiquettes de désinformation concernant Musk et Trump après les préoccupations des utilisateurs.

Igor Babuschkin, responsable de l’ingénierie chez xAI, a semblé confirmer dans un post sur X dimanche que Grok avait été temporairement programmé pour ignorer les sources citant Musk ou Trump comme diffuseurs de désinformation. Il a indiqué que xAI avait inversé ce changement dès que les utilisateurs ont exprimé des préoccupations, soulignant que cela ne correspondait pas aux valeurs de l’entreprise.

Bien que le terme “désinformation” soit souvent chargé politiquement, Trump et Musk ont régulièrement diffusé des affirmations manifestement fausses, dont beaucoup ont été signalées par Community Notes sur X, propriété de Musk. La semaine dernière, ils ont notamment propagé les faux récits selon lesquels le président ukrainien Volodymyr Zelenskyy serait un “dictateur” avec un taux d’approbation de 4 % et que l’Ukraine aurait initié le conflit actuel avec la Russie.

La controverse sur la réponse de Grok 3 soulève des préoccupations concernant le biais politique et la sécurité de l’IA.

L’ajustement apparent des réponses de Grok 3 survient au milieu d’affirmations selon lesquelles le modèle penche trop à gauche. Cette semaine, des utilisateurs ont découvert que Grok 3 répétait que Trump et Musk méritaient la peine de mort. xAI a rapidement corrigé le problème, le responsable de l’ingénierie Igor Babuschkin qualifiant cela de “véritable échec”.

Lorsque Musk a présenté Grok il y a deux ans, il l’a présenté comme une IA non filtrée, anti-“woke”, prête à aborder des sujets controversés que d’autres modèles évitaient. À certains égards, il a tenu cette réputation — les versions précédentes, par exemple, n’avaient aucun problème à utiliser un langage vulgaire lorsqu’elles étaient sollicitées, contrairement à ChatGPT.

Les versions antérieures de Grok évitaient de prendre des positions fortes sur des sujets politiques et se tenaient à l’écart de certaines questions sensibles. Une étude a même suggéré que ces modèles penchaient à gauche sur des sujets comme les droits des transgenres, les initiatives de diversité et les inégalités économiques.

Musk a attribué ce biais aux données d’entraînement de Grok, majoritairement issues de pages web publiques, et a promis de rendre le modèle plus politiquement neutre. D’autres développeurs d’IA, y compris OpenAI, ont pris des mesures similaires, potentiellement influencées par les accusations de biais contre les conservateurs pendant l’administration Trump.


Lisez l’article original sur : TechCrunch

En savoir plus :  Torque Clustering: Autonomous AI is Approaching

Share this post

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *