Startups d’IA et évaluation biaisée

Startups d’IA et évaluation biaisée

Crédits image : Zastrozhnov / Getty Images

Une controverse a éclaté concernant des études « générées par IA » soumises à l’ICLR, une conférence de recherche en IA bien établie.

Trois laboratoires d’IA — Sakana, Intology et Autoscience — affirment que leurs études générées par IA ont été acceptées dans des ateliers de l’ICLR, où les soumissions sont généralement examinées par les organisateurs avant publication.

Sakana a informé la direction de l’ICLR avant de soumettre ses articles et a obtenu le consentement des évaluateurs. En revanche, Intology et Autoscience ne l’ont pas fait, selon un porte-parole de l’ICLR cité par TechCrunch.

Plusieurs chercheurs en IA ont critiqué Intology et Autoscience sur les réseaux sociaux, dénonçant une exploitation du système d’évaluation par les pairs.

« Ces articles générés par IA utilisent les conférences à comité de lecture comme outils d’évaluation humaine, sans consentement pour ce travail non rémunéré », a écrit Prithviraj Ammanabrolu, professeur assistant en informatique à l’UC San Diego, sur X. « Cela diminue mon respect pour tous les acteurs impliqués, peu importe la qualité du système. Merci d’en informer les éditeurs. »

Le fardeau croissant de l’évaluation par les pairs

Les critiques soulignent que l’évaluation par les pairs est un processus exigeant et chronophage, majoritairement assuré par des bénévoles. Une enquête récente de Nature révèle que 40 % des chercheurs consacrent entre deux et quatre heures à l’examen d’une seule étude. La charge de travail ne cesse d’augmenter : les soumissions à NeurIPS, la plus grande conférence sur l’IA, ont atteint 17 491 l’an dernier, soit une hausse de 41 % par rapport aux 12 345 soumissions de 2023.

Le monde académique faisait déjà face à la prolifération de contenus générés par IA. Une analyse estime que 6,5 % à 16,9 % des articles soumis aux conférences d’IA en 2023 contenaient probablement du texte synthétique. Mais l’utilisation de l’évaluation par les pairs par des entreprises d’IA pour valider et promouvoir leur technologie est un phénomène plus récent.

Intology s’est vantée de ses résultats à l’ICLR dans un post sur X, affirmant que ses articles avaient reçu des « avis unanimement positifs » et que les examinateurs d’un atelier avaient salué les « idées ingénieuses » d’une étude générée par IA.

Cependant, de nombreux chercheurs restent sceptiques.

Inquiétudes sur le respect des évaluateurs

Ashwinee Panda, postdoctorant à l’Université du Maryland, a critiqué la soumission d’articles générés par IA sans laisser aux organisateurs d’ateliers la possibilité de les refuser, y voyant un « manque de respect pour le temps des évaluateurs humains ». Il a précisé que Sakana avait demandé l’autorisation pour son expérience dans un atelier qu’il organisait à l’ICLR, mais que son équipe avait refusé. « Soumettre des articles d’IA sans contacter les évaluateurs est une mauvaise pratique », a-t-il ajouté.

De nombreux chercheurs se demandent aussi si ces articles justifient l’effort de l’évaluation par les pairs. Même Sakana a reconnu que son IA avait introduit des erreurs de citation « embarrassantes » et qu’un seul de ses trois articles générés par IA atteignait le niveau requis pour une conférence. Par souci de transparence et de respect des normes de l’ICLR, Sakana a retiré son article avant publication.

Alexander Doria, cofondateur de la startup IA Pleias, estime que la multiplication des soumissions générées par IA souligne la nécessité d’un organisme régulateur pour effectuer des évaluations rigoureuses — et payantes.

« Les évaluations doivent être réalisées par des chercheurs correctement rémunérés », a écrit Doria sur X. « Le monde académique n’a pas vocation à fournir des évaluations gratuites aux entreprises d’IA. »


Lu l’article original sur : TechCrunch

À lire aussi : OpenAI Introduces New Tools for Businesses to Develop AI Agents

Share this post

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *