Nouveaux modèles OpenAI : trop d’hallucinations

Les nouveaux modèles d’IA o3 et o4-mini d’OpenAI repoussent les limites de la technologie actuelle à bien des égards. Cependant, malgré leurs avancées, ces modèles présentent une augmentation des hallucinations — ils inventent des informations incorrectes ou fictives — plus fréquemment que certains des anciens modèles de l’entreprise.
Les hallucinations restent un défi persistant
Les hallucinations demeurent l’un des défis les plus persistants de l’intelligence artificielle, même pour les systèmes les plus avancés. Historiquement, chaque nouvelle génération de modèles montrait une légère amélioration dans ce domaine, avec moins d’hallucinations que les précédentes. Mais cette tendance semble s’être inversée avec les modèles o3 et o4-mini.
Selon les évaluations internes d’OpenAI, ces modèles dits « de raisonnement » hallucinent plus souvent que les modèles de raisonnement précédents comme o1, o1-mini et o3-mini, ainsi que les modèles non spécialisés dans le raisonnement comme GPT-4o.
Plus préoccupant encore, OpenAI reconnaît ne pas comprendre entièrement pourquoi cela se produit.
Dans la documentation technique des modèles o3 et o4-mini, l’entreprise admet que « des recherches supplémentaires sont nécessaires » pour comprendre pourquoi le taux d’hallucinations augmente avec la montée en puissance des capacités de raisonnement. Bien que ces modèles soient plus performants sur certaines tâches — comme la programmation ou les mathématiques —, ils produisent également davantage d’affirmations, ce qui se traduit par plus d’informations correctes… et plus d’erreurs.
Les tests de référence révèlent des taux d’hallucinations significatifs.
Sur le benchmark interne d’OpenAI, PersonQA, qui évalue les connaissances du modèle sur des personnalités, o3 a produit des hallucinations dans 33 % de ses réponses — plus du double du taux de o1 (16 %) et de o3-mini (14,8 %). O4-mini a fait encore pire, avec 48 % de réponses erronées.
Des tests indépendants du laboratoire de recherche à but non lucratif Transluce ont aussi relevé des problèmes. Dans un exemple, le modèle o3 a affirmé avoir exécuté du code sur un MacBook Pro 2021 « en dehors de ChatGPT » et utilisé les résultats dans sa réponse — ce que le modèle ne peut en réalité pas faire.
Neil Chowdhury, chercheur chez Transluce et ancien d’OpenAI, a suggéré que l’approche d’apprentissage par renforcement utilisée pour la série o pourrait amplifier certains problèmes habituellement atténués lors des phases finales d’entraînement. Sarah Schwettmann, cofondatrice de Transluce, a également souligné que ce taux élevé d’hallucinations pourrait limiter l’utilité du modèle.
Kian Katanforoosh, professeur adjoint à Stanford et PDG de la plateforme Workera, a indiqué à TechCrunch que son équipe testait déjà o3 dans leurs flux de travail en programmation. Bien que le modèle fonctionne globalement bien, ils ont remarqué qu’il génère souvent des liens brisés — fournissant des URL qui n’existent pas.
Les hallucinations nuisent à la confiance dans les domaines où la précision est cruciale.
Bien que les hallucinations puissent parfois inspirer des idées créatives, elles représentent un réel danger dans les domaines où la précision est impérative. Par exemple, un cabinet juridique n’adopterait probablement pas un modèle risquant d’introduire des erreurs factuelles dans des contrats.
Une piste prometteuse pour améliorer la précision consiste à intégrer des capacités de recherche web. Le GPT-4o d’OpenAI, doté de l’accès à la recherche, atteint par exemple 90 % de précision sur SimpleQA, l’un de ses benchmarks internes. En théorie, permettre aux modèles de raisonnement d’accéder à des recherches en temps réel pourrait réduire les hallucinations — à condition que les utilisateurs acceptent un accès tiers à leurs requêtes.
Si le développement de modèles de raisonnement aggrave les hallucinations, la pression pour trouver une solution s’intensifiera.
« Réduire les hallucinations dans tous nos modèles est une priorité de recherche constante, et nous travaillons en permanence à améliorer leur précision et leur fiabilité », a déclaré Niko Felix, porte-parole d’OpenAI, dans un e-mail adressé à TechCrunch.
Depuis un an, l’industrie de l’IA a réorienté ses efforts vers les modèles de raisonnement, les progrès des modèles classiques montrant des rendements décroissants. Le raisonnement offre des gains de performance sur de nombreuses tâches sans nécessiter d’énormes volumes de données ou de puissance de calcul. Mais cette voie semble aussi apporter un nouveau défi : une propension accrue à halluciner.
Lire l’article original sur : Techcrunch
À lire aussi : OpenAI’s latest AI Models Have a New Safeguard To Prevent Biorisks
Laisser un commentaire