De nombreux médecins intègrent l’IA en médecine
Un récent sondage auprès d’environ 1 000 médecins généralistes au Royaume-Uni a révélé qu’un médecin sur cinq utilise des outils d’IA générative, tels que ChatGPT d’OpenAI ou Gemini de Google, pour soutenir leur pratique clinique.
Les médecins ont signalé utiliser l’IA générative pour des tâches telles que la création de documents après les rendez-vous, l’assistance à la prise de décision clinique et la transmission d’informations aux patients, comme des résumés de sortie et des plans de traitement faciles à comprendre.
Le rôle de l’IA dans la transformation des soins de santé
Étant donné l’enthousiasme entourant l’IA et les pressions actuelles sur les systèmes de santé, il n’est pas surprenant que les médecins et les décideurs politiques considèrent l’IA comme essentielle à la modernisation et à la transformation des soins de santé.
Cependant, l’IA générative est un développement récent qui remet en question notre approche de la sécurité des patients, et il reste encore beaucoup à comprendre avant qu’elle puisse être intégrée en toute sécurité dans la pratique clinique quotidienne.
Les applications d’IA ont traditionnellement été conçues pour des tâches spécifiques. Par exemple, les réseaux de neurones profonds sont efficaces dans les tâches de classification, comme l’analyse des mammographies pour soutenir le dépistage du cancer du sein.
La polyvalence de l’IA générative
Cependant, l’IA générative n’est pas limitée à une seule tâche définie. Basés sur des modèles fondamentaux, ces systèmes ont des capacités larges, leur permettant de générer du texte, des images, de l’audio ou un mélange de ceux-ci. Ces capacités peuvent ensuite être adaptées à divers usages, tels que répondre à des questions, coder ou créer des images, avec des applications potentielles limitées uniquement par la créativité de l’utilisateur.
Un défi majeur est que l’IA générative n’a pas été conçue avec un objectif spécifique en tête, ce qui rend incertaines les applications sûres en santé, la rendant inadaptée à un usage clinique généralisé pour le moment.
Un autre problème avec l’IA générative dans le domaine de la santé est la bien connue occurrence des « hallucinations » — des résultats qui sont absurdes ou inexactes en réponse à l’entrée fournie.
Les hallucinations dans l’IA générative ont été étudiées lorsqu’elle est utilisée pour résumer des textes. Une étude a révélé que divers outils d’IA générative établissaient parfois des connexions incorrectes basées sur le texte ou incluaient des informations qui n’étaient pas réellement présentes dans le contenu original.
Ces hallucinations se produisent parce que l’IA générative repose sur la probabilité — prédisant le mot suivant le plus probable dans un contexte donné — plutôt que de vraiment « comprendre » comme le fait un humain. En conséquence, les résultats de l’IA générative sont souvent plausibles mais pas nécessairement précis.
Cette dépendance à la plausibilité plutôt qu’à la précision rend l’IA générative non sécurisée pour un usage régulier dans la pratique médicale actuellement.
Par exemple, un outil d’IA générative qui écoute les consultations des patients et génère des notes de synthèse pourrait permettre aux médecins et aux infirmières de se concentrer davantage sur le patient. Cependant, l’outil pourrait également créer des notes basées sur ce qu’il « pense » pourrait être vrai.
Les risques des résumés inexactes d’IA générative dans le domaine de la santé
Le résumé généré par l’IA générative pourrait faussement modifier la fréquence ou la gravité des symptômes, ajouter des symptômes que le patient n’a jamais mentionnés ou inclure des détails qui n’ont pas réellement été discutés. Les professionnels de la santé devraient alors examiner ces notes avec soin et s’appuyer sur leur mémoire pour repérer toute information plausible mais inexacte.
Dans un cadre traditionnel de médecin de famille, où le médecin généraliste connaît bien le patient, l’identification des inexactitudes peut ne pas poser de problème majeur. Cependant, dans un système de santé fragmenté où les patients sont souvent vus par différents prestataires, les inexactitudes dans les dossiers des patients pourraient entraîner des risques sérieux pour la santé, y compris des retards, des traitements incorrects et des erreurs de diagnostic.
Les risques liés aux hallucinations sont considérables. Cependant, il est important de noter que les chercheurs et les développeurs travaillent activement à minimiser ces occurrences.
Une autre raison pour laquelle l’IA générative n’est pas prête pour le secteur de la santé est que la sécurité des patients repose sur l’évaluation de ses interactions dans des contextes spécifiques—évaluant comment la technologie fonctionne avec les personnes, s’aligne avec les réglementations et les pressions, et s’intègre à la culture et aux priorités d’un système de santé plus large. Cette perspective systémique serait essentielle pour déterminer si l’IA générative peut être utilisée en toute sécurité.
La nature adaptative de l’IA générative
Cependant, le design ouvert de l’IA générative la rend adaptable à des usages qui peuvent être difficiles à anticiper. De plus, les développeurs mettent continuellement à jour l’IA générative avec de nouvelles capacités générales, ce qui peut modifier le comportement de l’outil.
De plus, des dommages pourraient encore survenir même si l’IA générative fonctionne comme prévu, en fonction du contexte d’utilisation.
Par exemple, l’utilisation de chatbots d’IA générative pour le triage pourrait affecter la volonté des patients à s’engager avec le système de santé. Ceux ayant une faible maîtrise numérique, les locuteurs non natifs de l’anglais ou les patients non verbaux pourraient avoir des difficultés avec l’IA générative, ce qui pourrait entraîner des résultats inégaux. Ainsi, bien que la technologie puisse « fonctionner », elle pourrait désavantager involontairement certains utilisateurs.
Ces risques sont difficiles à anticiper par le biais d’analyses de sécurité conventionnelles, qui examinent généralement comment les échecs peuvent causer des dommages dans des situations spécifiques. Bien que l’IA générative et d’autres outils d’IA offrent des perspectives pour la santé, l’adoption généralisée nécessitera des normes de sécurité plus adaptables et un contrôle réglementaire au fur et à mesure que ces technologies évoluent.
Les développeurs et les régulateurs doivent également collaborer avec les communautés utilisant ces outils pour garantir qu’ils peuvent être intégrés en toute sécurité dans la pratique clinique quotidienne.
Lisez l’article original sur : Science Alert
Lisez aussi : Five Distinct Patterns of Brain Aging Uncovered by 50,000 Scans
Laisser un commentaire