Application d’IA évalue la dépression par l’analyse faciale
Mesurer la gravité de la dépression majeure peut être difficile pour les personnes qui en souffrent. Cependant, dans un avenir proche, une application pour smartphone utilisant l’intelligence artificielle pour analyser les expressions faciales pourrait fournir des informations sur l’état de santé mental.
Développée par des scientifiques du Dartmouth College, dans le New Hampshire, l’application prototype, appelée MoodCapture, vise à remplir cette fonction.
Le concept derrière l’application implique l’utilisation du système de reconnaissance faciale chaque fois que l’utilisateur déverrouille son téléphone. Lors de l’activation, la caméra frontale capture plusieurs images du visage de l’utilisateur et de son environnement. Un algorithme d’intelligence artificielle analyse ensuite ces images, se concentrant sur l’expression faciale de l’utilisateur et les détails de l’arrière-plan.
Recommandations et Approche de l’Application
Si l’application détecte une détérioration de la dépression de l’utilisateur, elle recommandera des actions telles que l’exercice en plein air ou le contact avec des proches. Dans un premier temps, elle vise à ne pas émettre un avertissement strict pour une attention psychiatrique, car cela pourrait potentiellement aggraver les sentiments de l’individu et renforcer sa dépression.
L’IA a été formée à l’aide d’un groupe de 177 personnes, toutes diagnostiquées avec un trouble dépressif majeur, réparties en cinq sous-ensembles.
Pendant une période de 90 jours, les participants ont évalué leur accord avec l’affirmation “Je me suis senti(e) abattu(e), déprimé(e) ou sans espoir” pendant que leurs téléphones prenaient des photos d’eux. Cette affirmation fait partie du questionnaire de santé du patient en huit points, largement utilisé pour évaluer la dépression.
Il est important de noter que les participants ne savaient pas que leurs téléphones prenaient des photos pendant qu’ils répondaient à la question, garantissant ainsi que leurs émotions n’étaient pas dissimulées de manière subconsciente pendant le processus de capture photo.
Analyse des expressions faciales
Après avoir analysé un total de 125 000 photos, l’IA a détecté des expressions faciales (dans certains sous-ensembles) corrélées à une forte adhésion à la question posée. Ces expressions comprenaient des variations de direction du regard, de mouvement des yeux, de position de la tête et de tension musculaire. De plus, des facteurs environnementaux récurrents tels que les conditions d’éclairage et la présence d’autres personnes ont été identifiés.
À l’aide du modèle d’IA développé à partir de cette analyse, l’application a ensuite évalué les images de smartphone des sous-ensembles restants. Elle a atteint un taux de précision de 75 % pour identifier les personnes souffrant d’une dépression en aggravation. Les chercheurs estiment qu’avec des progrès technologiques supplémentaires dans environ cinq ans, ce taux de précision augmentera à au moins 90 %.
Contrairement aux évaluations psychiatriques cliniques périodiques, MoodCapture offre l’avantage de permettre aux patients d’évaluer leur état plus fréquemment, permettant une intervention rapide lors de périodes de dépression avant qu’elles ne s’aggravent.
Le co-auteur de l’étude, le professeur Nicholas Jacobson, a souligné la nature dynamique et individualisée du trouble dépressif majeur (TDM). En surveillant étroitement les changements de symptômes chez les personnes diagnostiquées avec le TDM, l’étude visait à identifier des motifs spécifiques et des caractéristiques associées aux fluctuations de la dépression au fil du temps.
Lisez l’article sur : New Atlas
En savoir plus :Le football féminin est classé aussi haut que le football masculin