Ici, on programme des robots humanoïdes appelés iCub, Pepper ou Reeti. Là on détermine des diagnostics précis de mélanomes à l’aide de complexes algorithmes. L’IA promet une médecine plus personnalisée et intégrée.
Détour par le laboratoire de Peter Dominey, directeur de recherche au CNRS, spécialiste des systèmes cognitifs humains et robotiques. Ici, on programme des robots humanoïdes appelés iCub, Pepper ou Reeti. Leur mission : interagir avec des patients atteints de la maladie d’Alzheimer pour les aider à consolider leurs souvenirs, ou avec des enfants présentant des troubles autistiques afin de susciter des émotions.
Au détour d’un des couloirs étriqués du bâtiment de l’Inserm de Bron, entre les effluves de café, les paillasses en enfilade et les chariots de matériel biologique mal garés, une dizaine de chercheurs s’affairent au codage et à la programmation d’agents très spéciaux. La bande d’experts navigue à l’interface de l’intelligence artificielle et de la psychologie cognitive, poursuit des objectifs innovants en santé et développe des assistants pour accompagner et être utile à l’humain.
Des robots assistants mnésiques et autobiographiques pour préserver la qualité des rapports sociaux des malades d’Alzheimer
La lente tragédie de la mémoire perdue, celle qui effrite nos souvenirs à petit feu, est au cœur d’un des projets saillants de l’équipe de recherche. Le partage de nos expériences personnelles avec nos proches sont au fondement de la qualité du lien social que nous entretenons avec eux. Pour ces malades d’Alzheimer qui sont moins ou ne sont plus en mesure de piocher dans leurs souvenirs, Peter Ford Dominey et Guillaume Berthelon (stagiaire rattaché au laboratoire, élève de CPE Lyon) travaillent depuis quelque temps à la mise en œuvre d’un dispositif qui agit comme un véritable collaborateur psychologique et social, et offre de nouveaux moyens de faire appel à leur mémoire.
Au cœur du noyau dur technologique déjà très impressionnant du robot Pepper, nos érudits intègrent des quantités de consignes pour « améliorer les capacités mnésiques du robot ». À sa première rencontre avec un patient, Pepper devra avant tout faire valoir ses capacités d’écoute et de mémorisation : c’est la phase « d’apprentissage », où le robot écoute une série d’événements, de noms, d’actes sociaux, de lieux, et de repères spatio-temporels, patiemment racontés par le patient. Du fait des algorithmes d’intelligence artificielle dont il est doté, l’agent capte les mots-clés, enregistre, mais surtout ordonne et hiérarchise toutes ces données qui, dans un second temps, seront utiles à la phase plus mémorielle du « dialogue ».
Un véritable « calepin numérique » augmenté de nos expériences personnelles
Ainsi le soir venu, le patient pourra raconter et faire se souvenir au robot (et à lui-même) ce qu’il a mangé (quoi), à midi (quand) avec sa meilleure amie Jeanne (avec qui). Ils ont évoqué leurs souvenirs d’université (objet de la discussion) au restaurant japonais de la rue de Marseille à Lyon (où).
La complémentarité entre l’Homme et la machine est donc placée au centre du projet de recherche. Si les facultés de perceptions du patient ne sont pas altérées dans le cas de cette maladie, sa mémoire en revanche tend à s’éclipser et la faculté quasi-infinie du robot à enregistrer, vient compenser cette carence autobiographique. La portée d’un tel projet de recherche est très enthousiasmante pour les patients et les « aidants ». Nous pouvons envisager que les liens entre familles, professionnels de santé et malades tendent à ne plus s’effondrer, au rythme des crises de démence ou de leurs épisodes amnésiques.
➠ Sur le portail Pop’Sciences : Maladie d’Alzheimer : les émotions ont-elles encore un effet sur la mémoire ?
Autisme : l’IA et la robotique pour améliorer l’accompagnement clinique des troubles du développement
Les chercheurs de l’institut Cellule souche et cerveau développent également des programmes d’intelligence artificielle au service de la prise en charge d’enfants autistes. Dans ce cas précis, le robot (Reeti) a la capacité de produire aléatoirement des émotions faciales (joie/surprise/tristesse/neutre) et d’interpréter les réponses que l’enfant produira en conséquence.
- Reeti : « Quelle émotion je fais ? »
- L’enfant répond oralement et/ou sélectionne une image correspondante sur une tablette tactile
- Reeti : « Peux-tu faire comme moi ? »
- L’enfant mime l’expression et sa réaction est filmée
Le thérapeute pourra se servir des images de cette interaction afin d’évaluer les performances de l’enfant dans un cadre alternatif au dialogue entre humains, et adapter les soins et l’accompagnement en conséquence. L’autisme est une des formes de trouble envahissant du développement (TED) qui pourrait bénéficier de l’apport de l’IA et de la robotique. Tant dans ses formes sévères que pour le syndrome d’Asperger ou pour les retards mentaux plus ou moins importants, l’objectif est une meilleure compréhension des perturbations dans l’acquisition ou l’expression d’habiletés développementales.
Les chercheurs développent un robot permettant de s’incarner dans un autre corps…
Des programmes de recherche en télé-présence permettent déjà à des étudiants hospitalisés de s’immiscer en classe grâce à un robot qu’ils peuvent manier à distance. C’est à partir de ces innovations que l’équipe de l’Inserm a développé des nouvelles applications « d’incarnation dans un robot ». Ils rendent possible le manœuvrent du robot I-Cub grâce à des capteurs de mouvements sur un sujet, à tel point que l’expérience crée le sentiment d’être incarné dans la machine.
Un casque de réalité virtuelle vissé sur la tête, le « pilote » voit à travers les yeux d’I-Cub et constate que ses propres mouvements corporels sont réalisés à l’identique par les prothèses mécaniques de l’androïde. Les finalités de cette expériences pourraient définir de nouveaux compléments aux thérapies des troubles psychiques et de rapport au corps (obésité, anorexie…).
« En positionnant un miroir devant le robot et en ouvrant mes yeux, je suis incarné dans une autre peau qui effectue les mêmes mouvements que moi. Cela facilite la prise de recul dont je peux avoir besoin par rapport à mon corps »
P.F. Dominey
- Direction de la Publication : Khaled Bouabdallah, Président de l'Université de Lyon
- Rédaction en chef : Florence Belaën, Directrice culture, sciences et société - Université de Lyon
- Auteurs : Samuel Belaud (Université de Lyon ) ; Benoît de La Fonchais (Oxymore Conseil)
- Direction artistique : Antoine Ligier (Visée.A)
- Comité de rédaction : Patricia Lamy, Samuel Belaud, Marine Bourdry (Université de Lyon ) ; Antoine Ligier (Visée.A) ; Benoît de La Fonchais (Oxymore Conseil)
- Crédits illustrations : Julien Richetti ; Solène Rebière
- Crédits photographiques et vidéos : Visée.A
- Partenaires scientifiques et universitaires : Hoomano ; Institut Cellule souche et cerveau (Inserm, Université Claude Bernard Lyon1, Inra) ; Groupe d'Épistémologie et d’éthique des sciences et des technologies du laboratoire de Biologie générale de l’Institut catholique de Lyon (UCLy) ; Centre régional de lutte contre le cancer Léon Bérard ; Institut français des sciences et technologies des transports, de l’aménagement et des réseaux (IFSTTAR) ; Laboratoire Ergonomie et sciences cognitives pour les transports (LESCOT) ; Transpolis ; Chaire de recherche « Talents de la transformation digitale » à Grenoble École de Management ; Lyon-IsAI ; CPE Lyon - École supérieure de chimie, physique, électronique de Lyon.
- Partenaires institutionnels : Région Auvergne-Rhône-Alpes ; Métropole de Lyon ; Ville de Villeurbanne.