Des robots sociaux apprennent seuls ?

Des robots sociaux apprennent seuls ?

Crédit : Pixabay

Une nouvelle étude des universités de Surrey et de Hambourg montre que les humains ne sont plus les seuls à entraîner les robots sociaux pour une interaction efficace.

Présentée à la conférence internationale IEEE sur la robotique et l’automatisation (ICRA), l’étude dévoile une nouvelle approche de simulation permettant de tester les robots sociaux sans participants humains, ce qui rend la recherche plus rapide et plus facilement évolutive.

L’équipe a utilisé un robot humanoïde pour développer un modèle de prédiction de trajectoire visuelle capable d’anticiper où une personne pourrait regarder dans des situations sociales. Testé sur deux ensembles de données publics, le modèle a montré que les robots humanoïdes pouvaient reproduire des mouvements oculaires similaires à ceux des humains.

Un nouveau modèle offre une concentration semblable à celle des humains sans supervision en temps réel.

Selon la Dre Di Fu, co-auteure de l’étude et maître de conférences en neurosciences cognitives à l’Université de Surrey, leur méthode permet aux chercheurs d’évaluer si un robot se concentre sur les bons éléments, comme le ferait un humain, sans supervision humaine en direct.

Elle souligne par ailleurs que le modèle conserve sa précision même dans des environnements bruyants et imprévisibles, ce qui en fait un outil précieux pour des applications pratiques dans des domaines comme l’éducation, la santé ou le service client.

Les robots sociaux sont conçus pour interagir avec les humains par la parole, les gestes et les expressions faciales, ce qui les rend utiles dans des domaines tels que l’enseignement, les soins de santé et l’assistance à la clientèle. Parmi les exemples notables figurent Pepper, un robot assistant dans le commerce de détail, et Paro, un robot thérapeutique utilisé auprès de patients atteints de démence.

Les chercheurs ont aligné les performances réelles de leur modèle avec un environnement simulé en projetant des cartes de priorité du regard humain sur un écran, comparant ainsi l’attention prédite par le robot avec les données humaines réelles.

Cette approche leur a permis d’évaluer les modèles d’attention sociale dans des conditions réalistes, réduisant le besoin d’études longues d’interaction humain-robot dès les premières phases.

La Dre Fu a déclaré : « Remplacer les premiers essais humains par des simulations robotiques constitue une avancée majeure en robotique sociale. Cela nous permet de tester et d’améliorer les modèles d’interaction sociale, afin d’accroître la capacité des robots à comprendre et répondre aux humains. La prochaine étape consistera à appliquer cette méthode à l’incarnation robotique et à évaluer ses performances dans des contextes sociaux complexes avec différents types de robots. »


Lire l’article original sur :  Tech Xplore

À lire aussi :  Tiny self-Powered Robot Breaks Speed, Agility Record with Simple Design

Partager cette publication

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *