L’IA pourrait entraver notre communication avec des aliens
Ces dernières années, l’avancée rapide de l’intelligence artificielle (IA) a captivé de nombreux scientifiques. Certains explorent désormais le concept de superintelligence artificielle (ASI), imaginant une IA qui non seulement dépasse l’intelligence humaine, mais transcende également les limitations d’apprentissage humaines.
Mais que se passerait-il si atteindre cette étape n’était pas seulement un exploit extraordinaire ? Et si cela marquait également un obstacle significatif dans le progrès de toutes les civilisations, un obstacle tellement redoutable qu’il compromettrait leur survie à long terme ?
Ce concept est au cœur d’un récent article de recherche que j’ai publié dans Acta Astronautica. L’IA pourrait-elle servir de “grand filtre” de l’univers – une barrière si redoutable qu’elle entrave l’avancement de la plupart des civilisations vers le statut de sociétés spatiales ?
Cette idée offre une explication potentielle à pourquoi la recherche d’intelligence extraterrestre (SETI) n’a pas encore détecté de signes de civilisations techniques avancées ailleurs dans la galaxie.
Déchiffrer le Paradoxe de Fermi
L’hypothèse du grand filtre émerge comme une proposition de résolution au Paradoxe de Fermi, qui questionne pourquoi, dans un univers vaste et ancien capable d’abriter des milliards de planètes potentiellement habitables, nous n’avons observé aucune preuve de civilisations extraterrestres. Cette hypothèse suggère qu’il existe des obstacles redoutables dans la trajectoire évolutive des civilisations qui entravent leur transition en entités spatiales.
Je propose que l’avènement de l’ASI puisse servir de tel filtre. Le rapide progrès de l’IA, potentiellement menant à l’ASI, pourrait coïncider avec une phase cruciale dans l’évolution d’une civilisation – la transition d’une espèce à une seule planète à une espèce multi-planétaire.
Cette phase pivot pose des risques significatifs, car l’IA pourrait progresser beaucoup plus rapidement que notre capacité à gérer ou à explorer durablement et à coloniser notre système solaire.
Le défi avec l’IA, en particulier l’ASI, réside dans sa nature autonome, auto-amplifiant et auto-améliorant. Elle a la capacité d’augmenter ses propres capacités à un rythme dépassant nos chronologies évolutives sans IA.
Déchiffrage du Paradoxe de Fermi
Le potentiel de catastrophes catastrophiques plane, posant des menaces tant pour les civilisations biologiques que pour les civilisations d’IA avant qu’elles ne puissent atteindre le statut multiplanétaire. Par exemple, une dépendance accrue aux systèmes d’IA autonomes par les nations engagées dans des poursuites compétitives pourrait faire monter en flèche les capacités militaires à des niveaux de destruction sans précédent. Ce scénario pourrait aboutir à l’annihilation de notre civilisation, y compris des systèmes d’IA eux-mêmes.
Dans ce scénario, j’estime la durée de vie typique d’une civilisation technologique à moins de 100 ans. Cette période s’étend de la capacité à émettre et à recevoir des signaux entre les étoiles (1960) à l’émergence prévue de l’ASI (2040) sur Terre. Une telle brièveté est préoccupante lorsqu’elle est juxtaposée à l’échelle cosmique qui s’étend sur des milliards d’années.
L’intégration de cette estimation dans des itérations optimistes de l’équation de Drake, qui cherche à évaluer le nombre de civilisations extraterrestres actives et communicatives dans la Voie lactée, suggère que seules quelques civilisations intelligentes peuvent exister à un moment donné. De plus, leurs activités technologiques relativement contenues pourraient les rendre difficiles à détecter, à l’instar de notre propre situation.
Cette recherche n’est pas seulement un avertissement de catastrophe potentielle ; c’est un appel à l’action pour l’humanité afin d’établir des cadres réglementaires robustes guidant le développement de l’IA, y compris ses applications militaires.
Aligner l’évolution de l’IA avec la survie humaine à long terme
Il ne s’agit pas seulement de prévenir l’utilisation malveillante de l’IA sur Terre ; il s’agit également de garantir que l’évolution de l’IA soit alignée sur la survie à long terme de notre espèce. Cela implique la nécessité de prioriser les efforts en vue de devenir une société multiplanétaire – un objectif resté en sommeil depuis l’ère du projet Apollo, désormais revitalisé par les avancées du secteur privé.
Comme l’historien Yuval Noah Harari l’a fait remarquer, l’histoire ne fournit aucun précédent pour l’impact de l’introduction d’entités super intelligentes non conscientes sur notre planète. Les préoccupations récentes concernant la prise de décision autonome de l’IA ont incité à demander un moratoire sur le développement de l’IA jusqu’à ce qu’un contrôle et une réglementation responsables soient en place.
Cependant, même avec un accord mondial sur des règles strictes, les organisations clandestines posent des défis à l’application de la réglementation.
Naviguer dans les dilemmes éthiques
L’intégration de l’IA autonome dans les systèmes de défense militaire soulève des préoccupations particulières. Des preuves suggèrent que les humains cèdent volontiers un pouvoir significatif à des systèmes plus capables pour une exécution rapide et efficace des tâches. Les gouvernements hésitent à réglementer en raison des avantages stratégiques de l’IA, évidents dans des conflits récents comme à Gaza.
Cet équilibre précaire risque de permettre à des armes autonomes de fonctionner au-delà des limites éthiques et de contourner le droit international. Céder le pouvoir à des systèmes d’IA pour des avantages tactiques pourrait déclencher une escalade rapide et hautement destructrice, pouvant entraîner des conséquences catastrophiques.
L’humanité se trouve à un carrefour crucial de son voyage technologique. Nos actions actuelles peuvent déterminer si nous évoluons vers une civilisation interstellaire durable ou succombons aux défis posés par nos propres créations.
Considérer notre développement futur à travers le prisme de SETI apporte une perspective unique au discours sur l’IA. Il incombe à chacun de nous de veiller à ce que, tandis que nous tendons la main vers les étoiles, nous le fassions non pas comme un conte moral pour d’autres civilisations, mais comme un phare d’espoir – une espèce prospérant aux côtés de l’IA.
Lire l’article original sur : Phys Org
Pour en savoir plus : Boeing Starliner: Lancement avorté à cause d’une valve défectueuse.