Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

Ressources

Technologies - information - communication

Article

Université de Lyon

UUn jour, des robots capables d’émotions ?

Pop'Sciences Mag intelligence artificielle icub robot @ViséeA @ViséeA

Créer des robots ou des avatars qui expriment des émotions est le Graal que poursuivent de nombreux scientifiques. Pour quels résultats ?

Cet article est extrait du Pop’Sciences Mag hors-série : Sous l’emprise des émotions

Par Benoît de la Fonchais   |   10 mars 2020

Ils ont fait le buzz au dernier CES, le salon de l’électronique et des nouvelles technologies qui se tient chaque année à Las Vegas. Présentés par Samsung, les « Neons » sont des avatars humains qui ont « la capacité de montrer des émotions et de l’intelligence ». Star Labs, la filiale californienne du géant sud-coréen à l’origine du projet, assure que les Neons « font la conversation et sympathisent comme de vrais humains ». Derrière cette promesse, un programme dénommé Core R3, censé assimiler l’apparence humaine, nos façons de nous comporter et d’interagir, en vue de générer des avatars hyperréalistes. Coup de bluff ou réelle avancée ? Les avis sont partagés. Une chose est sûre, de nombreuses équipes de recherche à travers le monde, se penchent sur le sujet.

C’est le cas de Behavior.ai, laboratoire lyonnais regroupant des chercheurs en intelligence artificielle de l’équipe SMA (Systèmes multi-agents) du laboratoire Liris1 et d’Hoomano, société développant des logiciels pour les robots sociaux. Leur objectif est de rendre les interactions homme-machine plus « empathiques, intuitives et naturelles ». On avance, mais il y a encore du chemin à parcourir, comme l’a prouvé l’expérience mise en place l’an dernier à la gare de la Part-Dieu à Lyon. Un robot de type Pepper a été mis en place pour renseigner les voyageurs pendant la durée des travaux. Las, au bout de quelques semaines, les responsables du projet se sont rendu compte que, si le robot suscitait bien la curiosité, il était rapidement abandonné par les utilisateurs. Comment éviter cette réaction de désengagement ? C’est à quoi s’emploie l’équipe de Behavior.ai.

Une interaction homme-machine empathique et intuitive ? ©Visée.A

Premier axe de travail : permettre au robot de détecter l’ennui chez son interlocuteur. « On utilise à la fois des algorithmes d’apprentissage par essai-erreur et des logiciels de reconnaissance des expressions faciales« , explique Laurianne Charrier, ingénieure d’études. Et cela marche plutôt bien. Mais cela se complexifie lorsqu’il s’agit de faire interagir le robot de manière appropriée à l’expression et aux gestes de son interlocuteur. Pour cela, les chercheurs utilisent la voie de l’apprentissage comportemental. « L’idée, c’est de permettre au robot d’apprendre uniquement à partir de son expérience d’interaction avec les humains, sans recourir à des scénarios préétablis« , indique Salima Hassas, chercheure au Liris.

Encore faut-il lui en laisser le temps ! S’il détecte un désengagement de l’attention de son interlocuteur, le robot doit être capable de rétablir le contact avec lui par un comportement qui suscite l’empathie. Ayant le sentiment que le robot le comprend (on parle d’empathie « perçue »), l’utilisateur revient alors dans l’interaction. C’est la force des émotions, qui mobilisent notre attention, notre mémoire et nous poussent à l’action. L’équipe de Behavior.ai cherche ainsi à divertir l’utilisateur le plus longtemps possible. Amélie Cordier, responsable scientifique d’Hoomano, précise :

Amélie Cordier

« Pour cela, on implémente des algorithmes qui permettent au robot de proposer des interactions à partir des réactions qu’il perçoit chez son interlocuteur »

 

Alors, les robots seront-ils un jour capables d’émotions ? Rien n’est moins sûr. On sait depuis longtemps créer des personnages qui expriment des émotions : c’est le talent des artistes. On est capable, comme on vient de le voir, d’apprendre à un robot à décrypter les émotions d’un être humain. Mais il paraît fortement improbable qu’un robot puisse un jour ressentir une émotion, cette expérience subjective impliquant une conscience de soi, corps et esprit.


1 > Laboratoire d’Informatique en Image et Systèmes d’Information (Université Claude Bernard Lyon 1 – CNRS – INSA de Lyon – Université Lumière Lyon 2 – École Centrale de Lyon)


Cet article est extrait de l’enquête « Ce que nos décisions doivent à nos émotions« , issue du Pop’Sciences Mag hors-série « Sous l’emprise des émotions ».