L’intelligence artificielle pourrait-elle entraîner la fin de la civilisation ?
Des chercheurs réalisent actuellement une enquête publique pour évaluer les opinions du grand public concernant l’intelligence artificielle (IA) et les logiciels en général. L’objectif principal est de mieux comprendre comment le public perçoit, craint et espère l’impact de l’IA sur la société.
Cependant, des chercheurs de Lero, le centre de recherche pour les logiciels de Science Foundation Ireland, et de l’University College Cork étudient l’impact potentiel de l’intelligence artificielle (IA) sur la civilisation. Ils s’intéressent à la perception et aux connaissances du public concernant l’IA et les logiciels en général.
Le Dr Sarah Robinson dirige une enquête anonyme en ligne sur l’impact de l’IA et des logiciels
Le Dr Sarah Robinson, psychologue et chercheuse postdoctorale principale chez Lero, dirige cette initiative et invite le public à participer à une courte enquête en ligne anonyme. L’enquête vise à découvrir les espoirs et les craintes que les gens ont concernant les implications plus larges de l’IA et des logiciels.
Les scientifiques soulignent l’importance de prendre en compte la perspective du public, car les débats entre experts négligent souvent les opinions du grand public. Alors que certains experts en IA se concentrent sur des scénarios apocalyptiques potentiels, d’autres s’inquiètent de problèmes immédiats tels que la programmation biaisée des machines, entraînant des résultats racistes et sexistes. Étant donné l’impact significatif des logiciels sur la vie de chacun, la contribution du public est cruciale pour déterminer la responsabilité associée au développement des logiciels.
Urgence dans l’examen des perceptions publiques des implications éthiques
Le Dr Robinson souligne que l’IA et les logiciels de reconnaissance faciale ont déjà été impliqués dans des violations des droits de l’homme, soulignant l’urgence de comprendre les attitudes du public à l’égard des implications éthiques de l’IA et des logiciels.
Selon les recherches menées par le Dr Abeba Birhane et d’autres chez Lero, les données utilisées pour former certains systèmes d’IA contiennent des langages racistes et misogynes. Cela pose un problème important car l’IA devient de plus en plus présente et des données biaisées peuvent perpétuer des préjudices et marginaliser davantage des groupes déjà vulnérables.
L’équipe du Dr Robinson cherche à obtenir des informations sur les pratiques éthiques des logiciels et les priorités du public
Bien que l’IA, en particulier ChatGPT, et son impact sur la société fassent l’objet d’une couverture médiatique considérable, il existe peu d’informations sur la perception du grand public des logiciels qui nous entourent, tels que les médias sociaux et les services de streaming.
Le Dr Robinson et son équipe souhaitent comprendre le point de vue du public, y compris leurs préoccupations, leurs priorités pour promouvoir des pratiques logicielles responsables et éthiques, ainsi que leurs idées pour concrétiser ces objectifs.
L’enquête posera aux participants des questions sur leurs opinions et leurs éventuelles préoccupations concernant différents problèmes et sujets, dans le but de clarifier des questions essentielles. Lero demande au public de consacrer seulement 10 minutes de leur temps pour participer à cette brève enquête.
Lire l’article original sur ScietechDaily.
En savoir plus :L’IA révèle les gènes qui déterminent le squelette humain