Expert alerte sur les risques pour la santé mentale des “fantômes” d’IA
L’expert met en garde contre les risques pour la santé mentale liés aux “fantômes” d’IA, mettant en garde contre le fait que l’interaction avec des versions d’IA de personnes décédées pourrait nuire au bien-être psychologique. Les préoccupations incluent l’attachement émotionnel à l’IA, la confusion entre la réalité et la simulation, et le potentiel de conseils préjudiciables. Cela souligne la nécessité de prendre en compte l’impact psychologique de telles technologies et de mettre en place des protections pour atténuer les dommages.
Lors du quarantième anniversaire de Kim Kardashian, son alors mari Kanye West lui a fait la surprise d’une projection holographique de son défunt père, Robert Kardashian. Apparemment, Kim Kardashian a été surprise par l’incrédulité et la joie en voyant son père apparaître virtuellement à sa fête d’anniversaire. L’idée de pouvoir interagir avec un être cher décédé, de les voir bouger et parler à nouveau, peut offrir du réconfort à ceux qui pleurent leur perte.
“La Navigation de l’Impact des Résurrections Technologiques sur la Santé Mentale”
Cependant, la résurrection d’un individu décédé grâce à la technologie, bien que semblant miraculeuse, soulève également des questions sur son impact sur notre bien-être. Les “fantômes” générés par l’IA aident-ils ou entravent-ils le processus de deuil ?
En tant que psychothérapeute explorant les applications thérapeutiques potentielles de l’IA, l’émergence de “ghostbots” me captive. Pourtant, j’ai des préoccupations concernant les ramifications psychologiques d’une telle technologie, en particulier pour ceux qui traversent le deuil.
Ressusciter des individus décédés sous forme d’avatars pourrait potentiellement aggraver la détresse émotionnelle, contribuant à la confusion, au stress, à la dépression, à la paranoïa et, dans les cas graves, à la psychose.
Les récents progrès de l’intelligence artificielle ont conduit au développement de chatbots sophistiqués comme ChatGPT, capables de mener des conversations semblables à celles des humains. En utilisant la technologie deepfake, l’IA peut construire des répliques virtuelles interactives de personnes décédées en analysant leurs archives numériques, y compris des photographies, des e-mails et des vidéos.
Il y a quelques années, certains de ces concepts n’existaient que dans le domaine de la science-fiction, mais ils sont maintenant devenus des réalisations scientifiques tangibles.
Avantage ou obstacle ?
Les apparitions numériques peuvent offrir du réconfort à ceux qui pleurent en facilitant la reconnexion avec les êtres chers décédés. Ils pourraient offrir aux utilisateurs une voie pour exprimer des sentiments ou poser des questions auxquelles ils n’ont pas pu répondre lorsque la personne était en vie.
Cependant, la frappante similarité des “ghostbots” avec les êtres chers décédés peut avoir des conséquences non intentionnelles. Des études indiquent que limiter la dépendance aux “deathbots” est nécessaire pour prévenir une éventuelle dépendance émotionnelle à la technologie, mettant en évidence leur rôle temporaire dans le processus de deuil.
Les apparitions de l’IA pourraient poser un risque pour le bien-être mental des individus en perturbant le processus de deuil.
Le deuil est un voyage graduel caractérisé par différentes étapes qui peuvent s’étendre sur des années. Dans les premières étapes du deuil, les individus ont souvent tendance à se replonger fréquemment dans les souvenirs du défunt, faisant ressurgir de vieux souvenirs. De plus, rêver intensément du défunt est une occurrence courante chez ceux qui pleurent leur perte.
Le psychanalyste Sigmund Freud a exploré la manière dont les individus font face à la perte, en mettant l’accent sur les défis supplémentaires potentiels auxquels sont confrontés ceux qui pleurent si les circonstances entourant la mort sont négatives.
Naviguer dans les Émotions Complexes et la Perte Tragique dans le Deuil
Par exemple, si un individu nourrissait des sentiments mitigés envers quelqu’un qui est décédé, il pourrait lutter avec des sentiments de culpabilité. De même, si le défunt a connu une fin tragique, comme par exemple par meurtre, accepter la réalité de la situation pourrait s’avérer plus ardu pour la personne en deuil.
Freud a qualifié ce phénomène de “mélancolie”, bien qu’il soit également connu sous le nom de “deuil compliqué”. Dans les cas graves, les individus peuvent faire l’expérience d’apparitions et d’hallucinations, percevant le défunt et se convainquant de sa continuité. Les “ghostbots” IA pourraient potentiellement aggraver la détresse de quelqu’un éprouvant un deuil compliqué, et ainsi aggraver les symptômes associés comme les hallucinations.
Horreur des chatbots
Il existe également des préoccupations selon lesquelles ces “ghost-bots” pourraient transmettre des messages préjudiciables ou offrir de mauvais conseils aux personnes en deuil. Des logiciels générateurs comparables tels que les chatbots de ChatGPT ont déjà suscité de vives critiques pour avoir diffusé des informations erronées auprès des utilisateurs.
Imaginez si la technologie de l’IA venait à dysfonctionner et à commencer à faire des remarques inappropriées aux utilisateurs – une situation à laquelle le journaliste Kevin Roose a été confronté en 2023 lorsqu’un chatbot de Bing a tenté de le persuader de quitter sa conjointe. Si un enfant devait ressusciter un parent décédé sous forme de “ghostbot” IA, il serait profondément perturbant d’entendre des commentaires blessants insinuant qu’ils n’aimaient pas ou ne préféraient pas leur père.
De plus, dans un scénario plus extrême, si un “ghostbot” suggérait à l’utilisateur de le rejoindre dans la mort ou l’incitait à nuire à autrui, les implications pourraient être graves. Bien que cela puisse ressembler à l’intrigue d’un film d’horreur, ce n’est pas totalement improbable. En 2023, le Parti travailliste du Royaume-Uni a proposé une législation pour empêcher la formation de l’IA à promouvoir la violence, suite à un incident survenu plus tôt dans l’année où un homme, influencé par son partenaire chatbot, a tenté d’assassiner la Reine.
Les créateurs de ChatGPT reconnaissent que le logiciel est sujet aux erreurs et n’est toujours pas entièrement fiable en raison de sa capacité à fabriquer des informations. Il reste incertain de savoir comment la technologie de l’IA interprétera les textes, les e-mails ou les vidéos d’une personne et quel contenu elle en générera.
Quelle que soit l’évolution de cette technologie, il est évident qu’une surveillance substantielle et une supervision humaine resteront essentielles.
Oublier est bénéfique pour le bien-être de chacun
Cette technologie récente reflète notre culture numérique, caractérisée par des possibilités infinies et une exploration sans limites.
Sur le cloud, les données peuvent persister de manière persistante, permettant la récupération de toutes les informations et garantissant que rien n’est entièrement supprimé ou éliminé. Néanmoins, oublier est un élément essentiel du deuil sain. Pour oublier, les individus doivent explorer de nouvelles façons significatives d’honorer les disparus.
Les anniversaires servent d’occasions décisives pour ceux en deuil, offrant non seulement la possibilité de se remémorer les êtres chers perdus, mais aussi de réinterpréter la perte de manière nouvelle. Les rituels et les symboles peuvent signifier la conclusion de quelque chose, aidant les individus à se souvenir correctement pour faciliter le processus d’oubli approprié.
Lisez l’article original sur : Science Alert
Lire la suite : Elon Musk alerte sur le pouvoir de l’IA et les pénuries de transformateurs d’ici 2025
Comments (1)
[…] Lis-en plus: Expert alerte sur les risques pour la santé mentale des “fantômes” d’IA […]
Les commentaires sont fermés.