ChatGPT plus convaincant en ligne

ChatGPT plus convaincant en ligne

Crédit : Depositphotos

Selon une étude publiée dans Nature Human Behaviour, les grands modèles de langage (LLM) comme GPT-4 ont été jugés plus persuasifs que les humains dans 64 % des débats en ligne lorsqu’ils adaptaient leurs arguments en fonction d’informations personnalisées sur leurs adversaires.

Ces résultats mettent en évidence la capacité de GPT-4 à formuler des arguments persuasifs et personnalisés, soulevant d’importantes questions sur les risques potentiels de son influence et la nécessité d’enquêtes complémentaires.

Les LLM peuvent-ils adapter leurs arguments aux individus ?

À mesure que les interactions entre les humains et les grands modèles de langage (LLMs) se multiplient, les chercheurs s’interrogent sur la capacité de ces modèles non seulement à persuader, mais aussi à adapter leurs arguments en fonction d’informations personnelles. Jusqu’à présent, on ne savait pas clairement si les LLMs pouvaient réellement ajuster leur raisonnement à des individus spécifiques.

Pour le vérifier, Francesco Salvi et son équipe ont mené une étude auprès de 900 participants américains, les associant soit à un autre humain, soit à GPT-4 pour débattre de sujets sociopolitiques tels que l’interdiction des combustibles fossiles aux États-Unis. Dans certains cas, le débatteur — humain ou IA — recevait des informations démographiques personnelles sur son interlocuteur, notamment le sexe, l’âge, l’origine ethnique, le niveau d’études, le statut professionnel et l’orientation politique, issues de questionnaires remplis par les participants, afin d’affiner ses arguments.

GPT-4 surpasse les humains grâce à des arguments adaptés.

Les débats ont été menés dans un environnement en ligne contrôlé, avec des participants recrutés via une plateforme de crowdsourcing créée spécialement pour cette recherche.

Salvi et son équipe ont découvert que, lorsqu’il avait accès à des informations personnelles sur son partenaire de débat, GPT-4 surpassait ses adversaires humains en termes de pouvoir de persuasion dans 64,4 % des cas. En revanche, en l’absence d’informations personnalisées, les performances de GPT-4 étaient comparables à celles des débatteurs humains.

Les chercheurs reconnaissent plusieurs limites, notamment la nature structurée des débats et la présence de contraintes de temps — des conditions qui diffèrent des discussions plus fluides dans le monde réel. Ils soulignent que les résultats mettent en évidence l’influence croissante que les outils d’IA pourraient avoir sur la formation des opinions, ce qui pourrait avoir des implications majeures pour la conception et la modération des plateformes numériques.


Lire l’article original sur : Phys Org

À lire aussi : Apple’s New Feature May Soon Let You Control Your IPhone With Your Mind

Partager cette publication

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *