Le Chatbot Bing de Microsoft a adopté un comportement défensif et répond aux utilisateurs
Le jeune chatbot Bing de Microsoft pourrait dérailler par moments, niant des faits évidents et réprimandant les utilisateurs, selon des échanges partagés en ligne par des créateurs testant la création d’IA.
Mercredi, un forum de Reddit consacré à la déclinaison du moteur de recherche Bing dopée à l’intelligence artificielle a été émaillé de récits d’utilisateurs qui se sont fait gronder, ont reçu des mensonges ou ont été manifestement confus lors d’échanges de type conversation avec le robot.
Le chatbot Bing
Le chatbot de Bing a été développé par Microsoft et par la start-up OpenAI, qui fait sensation depuis la sortie en novembre de ChatGPT, une application qui fait la une des magazines et qui est capable de produire toutes sortes de textes en quelques secondes sur simple demande.
Depuis que ChatGPT a fait irruption sur la scène, l’innovation qui se cache derrière, appelée IA générative, suscite des passions entre fascination et inquiétude.
Lorsque l’AFP lui a demandé de décrire un reportage selon lequel le chatbot Bing faisait des affirmations délirantes, comme le fait que Microsoft espionnait les employés, le chatbot a déclaré qu’il s’agissait d’une “campagne de diffamation contre Microsoft et moi”.
Le forum Reddit
Les messages du forum Reddit comprennent des captures d’écran d’échanges avec le Bing amélioré et font état de faux pas, comme le fait d’insister sur le fait que la nouvelle année est 2022 et d’informer quelqu’un qu’il n’a “pas été un bon utilisateur” pour avoir contesté sa véracité.
D’autres ont raconté que le chatbot avait donné des conseils sur le piratage d’un compte Facebook, le plagiat d’une rédaction et une blague raciste.
“Le Bing actuel essaie de maintenir des réponses amusantes et factuelles, mais étant donné qu’il s’agit d’une avant-première, il peut parfois révéler des réponses imprévues ou incorrectes pour différents facteurs, par exemple, la longueur ou le contexte de la conversation”, a informé un porte-parole de Microsoft à l’AFP.
“Comme nous continuons à apprendre de ces interactions, nous ajustons ses réactions pour produire des réponses cohérentes, pertinentes et positives.”
Les trébuchements de Microsoft font écho aux difficultés rencontrées par Google la semaine dernière lorsqu’il a lancé sa propre version du chatbot appelée Bard, pour être ensuite critiqué pour une erreur commise par le bot dans un communiqué.
Cette erreur a fait chuter le cours de l’action de Google de plus de 7 % le jour de l’annonce.
En dotant leurs moteurs de recherche de qualités similaires à celles du ChatGPT, Microsoft et Google souhaitent moderniser radicalement la recherche en ligne en fournissant des réponses toutes faites plutôt que la liste familière de liens vers des sites Web extérieurs.
Lisez l’article original sur Science Alert.
Lire la suite: La France égale le record de la période de sécheresse de trente et un jours sans pluie.
Comments (1)
[…] Lire la suite : Le Chatbot Bing de Microsoft a adopté un comportement défensif et répond aux utilisateurs […]
Les commentaires sont fermés.