La recherche avancée de ChatGPT : peut-il remplacer un expert humain ?

La “recherche approfondie” d’OpenAI est le dernier outil d’IA qui fait sensation, affirmant accomplir en quelques minutes ce qui prendrait des heures à un expert humain.
Intégrée à ChatGPT Pro et présentée comme un assistant de recherche comparable à un analyste qualifié, elle navigue de manière autonome sur le web, rassemble des sources et génère des rapports structurés. De manière impressionnante, elle a obtenu un score de 26,6 % au Humanity’s Last Exam (HLE), un benchmark d’IA difficile, dépassant de nombreux autres modèles.
Limites de la recherche approfondie
Cependant, la recherche approfondie ne tient pas ses promesses. Bien qu’elle génère des rapports bien structurés, elle présente des lacunes importantes. Les journalistes qui l’ont testée notent qu’elle peut négliger des détails cruciaux, avoir des difficultés avec les informations récentes et, à l’occasion, inventer des faits.

L’assistant de recherche approfondie d’OpenAI peut traiter des données, mais ne connaît pas les choses de la même manière qu’un cerveau humain. (Iñaki del Olmo/Unsplash)
OpenAI reconnaît ces problèmes dans sa liste des limitations de l’outil, déclarant qu’il “peut parfois halluciner des faits ou tirer des conclusions incorrectes, bien qu’à un taux significativement inférieur à celui des modèles ChatGPT existants, selon les évaluations internes”.
Ce n’est pas inattendu, car les modèles d’IA ne possèdent pas de connaissances de la même manière que les humains, ce qui rend les inexactitudes occasionnelles inévitables.
Questions entourant l’IA en tant qu’analyste de recherche
Le concept d’un “analyste de recherche” IA soulève de nombreuses questions. Une machine, même la plus avancée, peut-elle réellement remplacer un expert qualifié ? Quel impact cela aurait-il sur les professions basées sur la connaissance ? Et l’IA améliore-t-elle notre capacité à penser de manière critique, ou nous encourage-t-elle simplement à moins réfléchir ?
Le concept d’un “analyste de recherche” IA soulève de nombreuses questions. Une machine, même la plus avancée, peut-elle réellement remplacer un expert qualifié ? Quel impact cela aurait-il sur les professions basées sur la connaissance ? Et l’IA améliore-t-elle notre capacité à penser de manière critique, ou nous encourage-t-elle simplement à moins réfléchir ?
Conçue pour les professionnels dans des domaines tels que la finance, la science, la politique, le droit et l’ingénierie, ainsi que pour les universitaires, les journalistes et les stratèges commerciaux, la recherche approfondie d’OpenAI est la dernière “expérience agentique” introduite dans ChatGPT. Elle vise à gérer des tâches de recherche complexes en quelques minutes seulement.
Actuellement, la recherche approfondie est disponible exclusivement pour les utilisateurs de ChatGPT Pro aux États-Unis pour 200 $ par mois. OpenAI prévoit d’étendre l’accès aux utilisateurs Plus, Team et Enterprise dans les prochains mois, avec une version plus abordable en développement.
Contrairement aux chatbots standard qui génèrent des réponses rapides, la recherche approfondie suit un processus en plusieurs étapes pour créer un rapport structuré :
- L’utilisateur soumet une demande, telle qu’une analyse de marché ou un résumé de cas juridique.
- L’IA affine la tâche, posant des questions de clarification si nécessaire.
- Elle effectue des recherches sur le web, examinant des sources telles que des articles de presse, des documents de recherche et des bases de données.
- L’IA synthétise les résultats, les structurant dans un rapport détaillé avec des citations.
En cinq à 30 minutes, l’utilisateur reçoit un document de plusieurs pages, potentiellement aussi approfondi qu’une thèse de doctorat.
Bien que cela puisse sembler un outil idéal pour les travailleurs du savoir, un examen plus attentif révèle des limitations notables.
Les premiers tests ont mis en évidence plusieurs faiblesses clés :
- Compréhension contextuelle limitée : Bien que l’IA puisse résumer des informations, elle ne parvient souvent pas à saisir ce qui est vraiment significatif.
- Informations obsolètes : Elle a négligé des décisions juridiques majeures et des percées scientifiques.
- Fabrication de faits : Comme d’autres modèles d’IA, elle peut produire avec assurance des informations inexactes.
- Incapacité à évaluer la crédibilité : Elle a du mal à faire la distinction entre les sources faisant autorité et celles qui ne sont pas fiables.
Malgré les affirmations d’OpenAI selon lesquelles la recherche approfondie peut égaler les analystes humains, l’IA manque en fin de compte de la pensée critique, de l’examen et de l’expertise qui définissent une recherche de haute qualité.
ChatGPT n’est pas la seule IA capable de rechercher sur le web et de générer des rapports à partir de quelques invites. Seulement 24 heures après le lancement d’OpenAI, Hugging Face a introduit une alternative gratuite et open source qui offre des performances presque comparables.
Le plus grand risque avec la recherche approfondie et les outils d’IA similaires affirmant des capacités de “niveau humain” est la fausse perception que l’IA peut remplacer la pensée humaine. Bien que l’IA puisse résumer des données, elle ne peut pas remettre en question ses propres hypothèses, identifier les lacunes dans les connaissances, penser de manière créative ou interpréter diverses perspectives.

Les résumés générés par l’IA manquent de profondeur et de perspicacité par rapport à un chercheur humain qualifié.
Quelle que soit la rapidité d’un agent d’IA, il reste un outil, et non un substitut à l’intelligence humaine. Pour les travailleurs du savoir, la clé est de développer des compétences que l’IA ne peut pas reproduire, telles que la pensée critique, la vérification des faits, l’expertise approfondie et la créativité.
Lors de l’utilisation d’outils de recherche d’IA, des pratiques responsables sont essentielles. L’IA peut améliorer l’efficacité, comme laSummarization de documents, mais le jugement humain doit guider la prise de décision. Vérifiez toujours les sources, car les citations générées par l’IA peuvent être trompeuses, et n’acceptez pas les conclusions sans les vérifier auprès de sources réputées. Pour les sujets à enjeux élevés, tels que la santé, la justice et la démocratie, l’apport d’experts est crucial.
Malgré un marketing agressif, l’IA générative a encore des limites importantes. Ceux qui peuvent synthétiser l’information de manière créative, remettre en question les hypothèses et penser de manière critique resteront inestimables – l’IA n’est pas prête à les remplacer pour l’instant.
Lire l’article original sur : Science Alert
Lire la suite : Elon Musk lance Grok 3, l’IA la plus avancée
Laisser un commentaire