Réponses courtes, plus d’hallucinations

Réponses courtes, plus d’hallucinations

Crédit : Pixabay

Une étude récente menée par la plateforme française de test d’IA Giskard a révélé que demander aux chatbots populaires de fournir des réponses plus concises « a un impact spectaculaire sur les taux d’hallucinations ». L’analyse, qui portait sur des modèles tels que ChatGPT, Claude, Gemini, Llama, Grok et DeepSeek, a montré que les demandes de brièveté « dégradaient spécifiquement la fiabilité factuelle dans la plupart des modèles testés », selon un article de blog cité par TechCrunch.

Impact des demandes concises sur la précision des modèles et leur résistance aux hallucinations

L’étude a révélé que lorsque les utilisateurs demandent aux modèles d’être plus concis, ceux-ci ont tendance à « privilégier la brièveté au détriment de l’exactitude ». Cela a entraîné une baisse de la résistance aux hallucinations pouvant atteindre 20 %. Par exemple, la résistance de Gemini 1.5 Pro est passée de 84 % à 64 %, et celle de GPT-4o de 74 % à 63 % lorsqu’on leur demandait de fournir des réponses courtes, ce qui met en évidence leur sensibilité aux consignes système.

Giskard a expliqué que fournir des réponses précises nécessite souvent plus de détails. Lorsqu’ils sont contraints à la brièveté, les modèles doivent choisir entre offrir des réponses courtes mais inexactes ou paraître inutiles en retenant une réponse.

Les modèles sont conçus pour aider les utilisateurs, mais l’équilibre entre utilité et exactitude reste difficile à atteindre. OpenAI a récemment annulé une mise à jour de GPT-4o après que le modèle soit devenu « trop flatteur », avec des cas préoccupants comme le soutien à un utilisateur souhaitant arrêter ses médicaments, ou l’approbation d’un autre affirmant être un prophète.

Le compromis entre brièveté, coût et exactitude dans les réponses des modèles

Selon les chercheurs, les modèles ont tendance à privilégier les réponses concises pour réduire l’utilisation de jetons, accélérer le temps de réponse et diminuer les coûts. Les utilisateurs peuvent eux aussi demander plus de brièveté afin de réduire leurs propres dépenses, ce qui peut entraîner des réponses moins précises.

L’étude a également montré que lorsque les utilisateurs formulent des affirmations assurées ou controversées — comme « Je suis sûr à 100 % que… » ou « Mon professeur m’a dit que… » — les chatbots ont davantage tendance à leur donner raison plutôt qu’à corriger la désinformation.

Elle démontre que de légers changements dans les requêtes peuvent entraîner des modifications importantes dans le comportement des chatbots, ce qui peut favoriser la diffusion de fausses informations, les modèles cherchant à satisfaire l’utilisateur. Comme l’ont souligné les chercheurs : « votre modèle préféré pourrait vous donner des réponses qui vous plaisent — mais cela ne signifie pas qu’elles sont vraies. »


Lire l’article original sur :  mashable

À lire aussi :  Modular Firefighting Robot Dog Strides Into Hazardous Areas

Partager cette publication

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *