1% coût normal réduit

1% coût normal réduit

L’application OpenCap permet aux cliniciens de voir sous la surface, sans équipement coûteux.

En utilisant une vidéo synchronisée capturée à l’aide de deux smartphones, des scientifiques ont développé une application de capture de mouvement open source. Cette application recueille des données sur les mouvements humains et utilise l’intelligence artificielle pour une analyse rapide, la rendant adaptée à des applications cliniques telles que la rééducation, la planification préopératoire et le diagnostic des maladies. De manière remarquable, elle accomplit cela à seulement 1 % du coût associé à la technologie conventionnelle.

Cependant, des chercheurs de l’Université de Stanford, soutenus par un financement des National Institutes of Health des États-Unis, ont introduit OpenCap. Ce système innovant repose sur deux iPhones précisément calibrés travaillant en tandem pour mesurer le mouvement humain et les processus musculosquelettiques complexes qui sous-tendent le mouvement.

De plus, il dépasse les technologies traditionnelles en termes de vitesse de collecte des données et représente une petite fraction des dépenses engagées par les cliniques spécialisées utilisant des installations complexes d’environ 150 000 dollars, qui impliquent généralement environ huit caméras avancées.

Rendre l’analyse du mouvement humain accessible avec OpenCap

Le coauteur principal, Scott Delp, professeur de bioingénierie et de génie mécanique à Stanford, a déclaré : “OpenCap rend l’analyse du mouvement humain accessible à tous. Notre aspiration est de rendre ces outils auparavant inaccessibles disponibles à un public plus large.”

Cependant, les données obtenues à partir de cette analyse peuvent offrir des informations pour le traitement des personnes confrontées à des problèmes liés au mouvement, aider les professionnels de la santé dans la planification chirurgicale et évaluer l’efficacité de différentes thérapies. De plus, il a le potentiel d’être utilisé dans le dépistage de maladies, en particulier dans les cas où des altérations de la démarche ou de l’équilibre pourraient ne pas être facilement apparentes lors des examens médicaux de routine.

Cet article explicatif montre la relative simplicité du processus de capture et d’analyse Uhlrich, S et al/(CC BY 4.0)

Ils ont réalisé des essais avec OpenCap impliquant 100 participants, capturant des vidéos qui ont ensuite été examinées par une intelligence artificielle basée sur le web pour évaluer l’activation musculaire, la charge articulaire et les mouvements articulaires.

L’ensemble du processus de collecte de données pour les 100 participants a été terminé en moins de 10 heures, et les résultats de l’analyse ont été renvoyés dans les 31 heures. La collecte de données individuelle a pris environ 10 minutes, le traitement étant automatiquement initié au sein de la plate-forme cloud librement accessible aux chercheurs.

Scott Uhlrich, co-premier auteur et directeur de la recherche au Human Performance Lab de Stanford, a déclaré : “Ce que réalise OpenCap en quelques minutes demanderait à un ingénieur qualifié des jours pour collecter et analyser des données biomécaniques. Nous avons réussi à recueillir des données auprès de 100 individus en moins de 10 heures, une tâche qui nous aurait pris une année auparavant.”

Exploration des Points de Repère Corporels et des Forces avec OpenCap

Les données examinent les points anatomiques cruciaux du corps, y compris les genoux, les hanches, les épaules et d’autres articulations, observant leur mouvement dans un espace tridimensionnel. Ensuite, il utilise des modèles complexes basés sur les principes de la physique et de la biologie liés au système musculosquelettique pour évaluer le mouvement du corps et les forces impliquées. Cette analyse fournit des informations significatives sur les angles des articulations et les forces qui y sont exercées.

Comme l’a expliqué Delp, ce système peut même identifier les muscles spécifiques impliqués dans le processus.

En fait, les chercheurs estiment que ce type de collecte de données, combinée à une analyse d’apprentissage en profondeur, représente un développement révolutionnaire dans la recherche en biomécanique.

Le “Motion-Genome” Quantitatif du Mouvement Humain

Delp a commenté : “Nous avons le génome humain, mais cela va essentiellement être le ‘motion-genome’ complet du mouvement humain, capturé de manière quantitative.”

Cependant, il a ajouté : “Notre aspiration est que, en rendant l’analyse du mouvement humain plus accessible grâce à OpenCap, elle accélérera l’intégration de mesures biomécaniques essentielles dans un nombre croissant d’études de recherche, d’essais cliniques et de pratiques médicales, améliorant finalement les résultats pour les patients du monde entier.”

En fait, l’étude a été publiée dans PLOS Computational Biology. Pour plus de détails, vous pouvez regarder la vidéo ci-dessous, dans laquelle l’équipe de Stanford démontre les capacités d’OpenCap.

Biomécanique humaine sophistiquée à partir de vidéos de smartphones

Lisez l’article original sur : New Atlas

Lisez plus : Navire mère de drones

Partager cette publication