Conflit sur l’IA surhumaine

Conflit sur l’IA surhumaine

Crédit : Pixabay.

Les dirigeants des grandes entreprises d’IA alimentent l’engouement selon lequel l’IA avancée surpassera bientôt l’intelligence humaine, mais de nombreux chercheurs considèrent ces affirmations comme de simples tactiques marketing.

L’idée qu’une intelligence de niveau humain ou supérieure — souvent appelée intelligence artificielle générale (IAG) — pourrait émerger des méthodes actuelles d’apprentissage automatique alimente les spéculations sur un avenir allant de la prospérité illimitée à l’extinction humaine.

L’IAG à l’horizon ?

« Les systèmes approchant l’IAG sont en vue », a écrit le PDG d’OpenAI, Sam Altman, dans un billet de blog le mois dernier. De même, Dario Amodei d’Anthropic a suggéré que l’IAG « pourrait arriver dès 2026 ». Ces prévisions justifient les investissements massifs — totalisant des centaines de milliards de dollars — injectés dans l’infrastructure informatique et les ressources énergétiques.

Cependant, tout le monde n’est pas convaincu.

Le scientifique en chef de l’IA de Meta, Yann LeCun, a déclaré à l’AFP le mois dernier que simplement augmenter la taille des modèles de langage comme ceux qui alimentent ChatGPT et Claude ne conduira pas à une IA de niveau humain.

Les experts remettent en question la voie vers l’IAG.

Son scepticisme s’inscrit dans l’opinion académique générale. Une enquête récente de l’Association pour l’avancement de l’intelligence artificielle (AAAI) basée aux États-Unis a révélé que plus des trois quarts des répondants estiment que l’IAG ne résultera pas simplement de l’expansion des approches actuelles.

Certains universitaires affirment que les déclarations des entreprises — souvent accompagnées d’avertissements sur les risques de l’IAG pour l’humanité — sont une tactique destinée à attirer l’attention.

« Les entreprises ont réalisé ces investissements massifs, et elles doivent porter leurs fruits », a déclaré Kristian Kersting, chercheur en IA à l’Université technique de Darmstadt et membre de l’AAAI.

« Elles affirment : ‘C’est tellement dangereux que seul moi je peux le contrôler. En fait, même moi, j’ai peur, mais le génie est déjà hors de la bouteille — donc je vais assumer cette responsabilité pour vous.’ Finalement, cela rend les gens dépendants d’elles. »

Malgré le scepticisme général parmi les chercheurs, certaines personnalités influentes, dont le physicien prix Nobel Geoffrey Hinton et le lauréat du prix Turing 2018 Yoshua Bengio, ont averti des dangers de l’IA avancée.

Les périls de l’IA incontrôlée

« C’est comme dans le poème de Goethe, L’Apprenti sorcier : vous libérez quelque chose que vous ne pouvez plus contrôler », a déclaré Kersting, faisant référence à un poème où un apprenti perd le contrôle d’un balai enchanté. Un équivalent moderne est l’expérience de pensée du maximiseur de trombones : une IA programmée pour produire des trombones pourrait poursuivre son objectif de manière si implacable qu’elle convertirait toute la matière de l’univers en trombones ou en machines pour les fabriquer, éliminant ainsi les humains qui tenteraient de l’arrêter.

Bien que non intrinsèquement « malveillante », une telle IA manquerait d’alignement avec les valeurs et objectifs humains.

Kersting reconnaît ces préoccupations mais estime que l’intelligence humaine est si diverse et sophistiquée qu’il faudra longtemps — voire jamais — avant que l’IA puisse l’égaler. Il se soucie davantage des risques actuels, tels que la discrimination alimentée par l’IA dans les interactions humaines.

Le fossé apparent entre les universitaires et les dirigeants de l’industrie de l’IA pourrait simplement résulter de différences dans les perspectives de carrière, a suggéré Sean O hEigeartaigh, directeur du programme AI: Futures and Responsibility à l’Université de Cambridge.

« Si vous croyez fermement au pouvoir des techniques actuelles de l’IA, vous êtes plus susceptible de rejoindre une entreprise qui investit massivement pour les rendre réelles », a-t-il expliqué.

Même si des figures comme Altman et Amodei sont trop optimistes quant au développement rapide de l’IAG et que cela prend beaucoup plus de temps, O hEigeartaigh soutient que la question mérite toujours une attention sérieuse. « Si l’IAG arrive, ce serait l’événement le plus significatif de l’histoire », a-t-il dit.

« Si cela concernait autre chose, comme la possibilité d’un contact extraterrestre d’ici 2030 ou une autre pandémie majeure, nous consacrerions du temps à nous y préparer. »

Un défi majeur, cependant, est de communiquer efficacement ces préoccupations aux décideurs et au public.

Les discussions sur l’IA super-intelligente suscitent souvent du scepticisme. « Cela crée une réaction presque immunitaire — cela ressemble juste à de la science-fiction », a noté O hEigeartaigh.


Lisez l’article original sur :  TechXplore

En savoir plus :  People in Japan Respect Robots and AI More Than Those in the West Societies

Share this post

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *