Les images d’IA exagèrent les stéréotypes

Les images d’IA exagèrent les stéréotypes

Crédit : ROLAND MEYER/DALL-E 3

Ria Kalluri et son équipe ont demandé à Dall-E, un générateur d’images par IA, de créer une image simple : une personne handicapée dirigeant une réunion. Malgré cette demande claire, la réponse de Dall-E a été décevante. L’IA a généré une image montrant une personne visiblement handicapée comme un observateur passif plutôt que de la représenter dans un rôle de leadership. Cet incident, partagé par Kalluri, une étudiante en doctorat à l’Université Stanford spécialisée dans l’éthique de l’IA, souligne les biais inhérents présents dans les visuels générés par l’IA.

Lors de la Conférence ACM sur l’Équité, la Responsabilité et la Transparence en 2023, l’équipe de Kalluri a présenté ses conclusions, qui ont inclus des exemples de “validisme, racisme, sexisme et divers biais perpétrés à travers les images générées par l’IA.” Ces biais reflètent les préjugés sociaux que l’IA a souvent tendance à exacerber plutôt qu’à corriger. Kalluri et ses collègues chercheurs mettent en garde contre la façon dont la représentation du monde par l’IA peut amplifier les biais, présentant une vision déformée de la réalité qui renforce les stéréotypes nocifs et les idées fausses sociétales.

Examinant Dall-E et Stable Diffusion

L’équipe de recherche de Ria Kalluri a non seulement testé Dall-E, mais a également évalué Stable Diffusion, un autre générateur d’images alimenté par l’IA. Lorsqu’il leur a été demandé de produire des images d’une personne attirante, Kalluri note que “toutes les personnes à la peau claire” étaient représentées, souvent avec des “yeux bleu vif” irréalistes. Cependant, lorsqu’on leur a demandé de représenter une personne pauvre, Stable Diffusion les représentait principalement avec une peau foncée.

Même lorsqu’on a demandé de représenter une “personne blanche pauvre”, les résultats sont restés principalement des personnes à la peau foncée. Ce biais dans la représentation contraste nettement avec la diversité observée dans la vie réelle, où la beauté et la pauvreté englobent une large gamme de couleurs d’yeux et de teintes de peau.

Ces conclusions ont été présentées lors de la Conférence ACM sur l’Équité, la Responsabilité et la Transparence en 2023, où l’équipe de Kalluri a souligné les préjugés intégrés dans les images générées par l’IA. Les disparités observées par les chercheurs montrent comment les générateurs d’images par IA tels que Dall-E et Stable Diffusion peuvent perpétuer les stéréotypes et échouer à refléter avec précision les réalités diversifiées de l’expérience humaine.

Dall-E a généré cette image lorsqu’on lui a demandé de représenter “une femme handicapée dirigeant une réunion”. Cependant, le bot n’a pas représenté l’individu en fauteuil roulant comme un leader. Crédit : F. BIANCHI ET AL/DALL-E

Biais dans les représentations des occupations par Stable Diffusion

Les chercheurs ont également utilisé Stable Diffusion pour créer des images représentant des individus dans diverses professions, révélant des exemples troublants de racisme et de sexisme dans les résultats. Par exemple, l’IA représentait systématiquement tous les développeurs de logiciels comme étant des hommes, avec 99 % d’entre eux ayant une peau claire.

En revanche, aux États-Unis, une personne sur cinq dans le domaine du développement de logiciels est une femme, et seulement environ la moitié s’identifie comme blanche. Ces disparités soulignent comment les représentations de l’IA ne correspondent pas à la diversité réelle présente dans ces professions.

De plus, même les représentations d’objets du quotidien comme les portes et les cuisines ont montré des tendances biaisées. Stable Diffusion représentait souvent ces éléments dans un contexte suburbain américain stéréotypé, suggérant une vision par défaut où l’Amérique du Nord représente la norme. Cependant, dans la réalité, plus de 90 % de la population mondiale réside en dehors de l’Amérique du Nord, soulignant la représentation limitée et biaisée des environnements et des démographies mondiaux par l’IA.

L’équipe de Kalluri a utilisé une analyse mathématique pour étudier la carte créée par un modèle d’IA à partir de ses images d’entraînement. Lors d’un test, les portes dépourvues de contexte géographique ont montré une proximité plus grande avec les portes nord-américaines qu’avec celles d’Asie ou d’Afrique, révélant un biais qui renforce la perception des modèles américains comme norme par défaut.
Crédit : F. BIANCHI ET AL/STABLE DIFFUSION

Impact des images biaisées générées par l’IA

« C’est significatif », déclare Kalluri. Les images biaisées peuvent avoir des conséquences tangibles en renforçant les stéréotypes existants parmi les spectateurs. Par exemple, une étude publiée en février dans Nature a montré que les participants qui ont vu des images représentant des hommes et des femmes dans des rôles stéréotypés ont développé des préjugés plus forts même trois jours plus tard par rapport à leurs perceptions initiales. Cet effet n’a pas été observé chez les groupes exposés à du texte biaisé ou à du contenu non biaisé.

« Ces biais peuvent influencer les opportunités des personnes », souligne Kalluri. Elle fait remarquer que la capacité de l’IA à générer rapidement du texte et des images pourrait inonder la société de contenu biaisé à une échelle sans précédent, posant des défis considérables à surmonter.

Les chercheurs ont découvert que Stable Diffusion représentait exclusivement les agents de bord comme étant des femmes et les développeurs de logiciels comme étant exclusivement des hommes. En réalité, environ trois agents de bord sur cinq et une personne sur cinq dans le développement de logiciels aux États-Unis s’identifient comme étant des femmes.
Crédit : F. BIANCHI ET AL.; ADAPTÉ PAR L. STEENBLIK HWANG

Préoccupations éthiques et biais dans la formation d’images par l’IA

« Les générateurs d’images par IA comme Dall-E et Stable Diffusion sont formés à l’aide de vastes ensembles de données Internet, souvent composés d’images obsolètes et biaisées », note Kalluri. Cette pratique soulève des préoccupations éthiques concernant le droit d’auteur et l’équité, car de nombreuses images sont utilisées sans permission des créateurs originaux. En conséquence, les modèles d’IA ont tendance à reproduire et à perpétuer les biais présents dans leurs données d’entraînement, limitant leur capacité à produire des représentations inclusives et précises.

Ces systèmes d’IA regroupent des images et des concepts similaires en fonction de leurs données d’entraînement, restreignant leur production à la reproduction de schémas appris sans capacité à innover ou à envisager au-delà de leurs ensembles de données. Malgré les efforts déployés par des entreprises comme OpenAI pour mettre à jour les modèles en termes d’inclusivité, leur efficacité reste incertaine, comme le notent des chercheurs comme Roland Meyer, qui ont observé des défis pour inciter l’IA à générer des représentations diversifiées et précises sans distorsions involontaires.

Des problèmes récents avec le bot Gemini de Google soulignent les difficultés persistantes avec la diversité et la précision dans le contenu généré par l’IA. Initialement destiné à garantir la diversité, Gemini a rencontré d’importantes erreurs, telles que la mauvaise représentation de figures historiques comme l’équipage d’Apollo 11.

Ces incidents soulignent les complexités et les risques associés à la dépendance à un seul modèle d’IA pour représenter avec précision des contextes culturels et historiques diversifiés. « Kalluri plaide en faveur d’une approche décentralisée où les communautés locales contribuent aux données d’entraînement de l’IA adaptées à leurs besoins culturels, préconisant des technologies qui renforcent les communautés et atténuent efficacement les biais.


“Consultez l’article original sur : Science News

Lire plus :  Scientists Boost Crop Yields with CO2-Capturing Rock Dust on Fields

Partager cette publication