Pop'sciences Mag

Top

Intelligence artificielle | Santé

Ici, on programme des robots humanoïdes appelés iCub, Pepper ou Reeti. Là on détermine des diagnostics précis de mélanomes à l’aide de complexes algorithmes. L’IA promet une médecine plus personnalisée et intégrée.

Autisme, Alzheimer... Robots et IA aux petits soins

Détour par le laboratoire de Peter Dominey, directeur de recherche au CNRS, spécialiste des systèmes cognitifs humains et robotiques. Ici, on programme des robots humanoïdes appelés iCub, Pepper ou Reeti. Leur mission : interagir avec des patients atteints de la maladie d’Alzheimer pour les aider à consolider leurs souvenirs, ou avec des enfants présentant des troubles autistiques afin de susciter des émotions.

Au détour d’un des couloirs étriqués du bâtiment de l’Inserm de Bron, entre les effluves de café, les paillasses en enfilade et les chariots de matériel biologique mal garés, une dizaine de chercheurs s’affairent au codage et à la programmation d’agents très spéciaux. La bande d’experts navigue à l’interface de l’intelligence artificielle et de la psychologie cognitive, poursuit des objectifs innovants en santé et développe des assistants pour accompagner et être utile à l’humain.

Construire des agents doués d’intelligence artificielle dont l’interaction avec les patients atteints de la maladie d’Alzheimer ou avec des enfants pris de troubles autistiques aurait pour conséquence de consolider des souvenirs, de susciter des émotions et d’améliorer par là leur quotidien.
Peter F. Dominey | Institut Cellule souche et cerveau Inserm, UCBL, Inra

Des robots assistants mnésiques et autobiographiques pour préserver la qualité des rapports sociaux des malades d’Alzheimer

La lente tragédie de la mémoire perdue, celle qui effrite nos souvenirs à petit feu, est au cœur d’un des projets saillants de l’équipe de recherche. Le partage de nos expériences personnelles avec nos proches sont au fondement de la qualité du lien social que nous entretenons avec eux. Pour ces malades d’Alzheimer qui sont moins ou ne sont plus en mesure de piocher dans leurs souvenirs, Peter Ford Dominey et Guillaume Berthelon (stagiaire rattaché au laboratoire, élève de CPE Lyon) travaillent depuis quelque temps à la mise en œuvre d’un dispositif qui agit comme un véritable collaborateur psychologique et social, et offre de nouveaux moyens de faire appel à leur mémoire.

Au cœur du noyau dur technologique déjà très impressionnant du robot Pepper, nos érudits intègrent des quantités de consignes pour « améliorer les capacités mnésiques du robot ». À sa première rencontre avec un patient, Pepper devra avant tout faire valoir ses capacités d’écoute et de mémorisation : c’est la phase « d’apprentissage », où le robot écoute une série d’événements, de noms, d’actes sociaux, de lieux, et de repères spatio-temporels, patiemment racontés par le patient. Du fait des algorithmes d’intelligence artificielle dont il est doté, l’agent capte les mots-clés, enregistre, mais surtout ordonne et hiérarchise toutes ces données qui, dans un second temps, seront utiles à la phase plus mémorielle du « dialogue ».

Un véritable « calepin numérique » augmenté de nos expériences personnelles

Ainsi le soir venu, le patient pourra raconter et faire se souvenir au robot (et à lui-même) ce qu’il a mangé (quoi), à midi (quand) avec sa meilleure amie Jeanne (avec qui). Ils ont évoqué leurs souvenirs d’université (objet de la discussion) au restaurant japonais de la rue de Marseille à Lyon (où).

La complémentarité entre l’Homme et la machine est donc placée au centre du projet de recherche. Si les facultés de perceptions du patient ne sont pas altérées dans le cas de cette maladie, sa mémoire en revanche tend à s’éclipser et la faculté quasi-infinie du robot à enregistrer, vient compenser cette carence autobiographique. La portée d’un tel projet de recherche est très enthousiasmante pour les patients et les « aidants ». Nous pouvons envisager que les liens entre familles, professionnels de santé et malades tendent à ne plus s’effondrer, au rythme des crises de démence ou de leurs épisodes amnésiques.

➠ Sur le portail Pop’Sciences : Maladie d’Alzheimer : les émotions ont-elles encore un effet sur la mémoire ?


Autisme : l’IA et la robotique pour améliorer l’accompagnement clinique des troubles du développement

Les chercheurs de l’institut Cellule souche et cerveau développent également des programmes d’intelligence artificielle au service de la prise en charge d’enfants autistes. Dans ce cas précis, le robot (Reeti) a la capacité de produire aléatoirement des émotions faciales (joie/surprise/tristesse/neutre) et d’interpréter les réponses que l’enfant produira en conséquence.

  • Reeti : « Quelle émotion je fais ? »
  • L’enfant répond oralement et/ou sélectionne une image correspondante sur une tablette tactile
  • Reeti : « Peux-tu faire comme moi ? »
  • L’enfant mime l’expression et sa réaction est filmée

Le thérapeute pourra se servir des images de cette interaction afin d’évaluer les performances de l’enfant dans un cadre alternatif au dialogue entre humains, et adapter les soins et l’accompagnement en conséquence. L’autisme est une des formes de trouble envahissant du développement (TED) qui pourrait bénéficier de l’apport de l’IA et de la robotique. Tant dans ses formes sévères que pour le syndrome d’Asperger ou pour les retards mentaux plus ou moins importants, l’objectif est une meilleure compréhension des perturbations dans l’acquisition ou l’expression d’habiletés développementales.


Les chercheurs développent un robot permettant de s’incarner dans un autre corps…

Des programmes de recherche en télé-présence permettent déjà à des étudiants hospitalisés de s’immiscer en classe grâce à un robot qu’ils peuvent manier à distance. C’est à partir de ces innovations que l’équipe de l’Inserm a développé des nouvelles applications « d’incarnation dans un robot ». Ils rendent possible le manœuvrent du robot I-Cub grâce à des capteurs de mouvements sur un sujet, à tel point que l’expérience crée le sentiment d’être incarné dans la machine.

Un casque de réalité virtuelle vissé sur la tête, le « pilote » voit à travers les yeux d’I-Cub et constate que ses propres mouvements corporels sont réalisés à l’identique par les prothèses mécaniques de l’androïde. Les finalités de cette expériences pourraient définir de nouveaux compléments aux thérapies des troubles psychiques et de rapport au corps (obésité, anorexie…).

« En positionnant un miroir devant le robot et en ouvrant mes yeux, je suis incarné dans une autre peau qui effectue les mêmes mouvements que moi. Cela facilite la prise de recul dont je peux avoir besoin par rapport à mon corps »

P.F. Dominey

Hôpital et diagnostic 3.0. Enjeux et promesses

Qualité du diagnostic, suggestion de traitement, suivi personnalisé des patients, prévention : l’IA va modifier en profondeur le parcours de soin des patients. Médecin oncologue au Centre Léon Bérard à Lyon, engagé dans plusieurs programmes de recherche sur les applications de l’IA dans le domaine de la santé, Pierre-Étienne Heudel dessine les contours de l’hôpital public de demain.

Demain, avec l'intelligence artificielle, le dossier médical personnalisé sera partagé, interopérable et croisera tous types de données. D'un « simple » support, il deviendra un véritable acteur de la prise en charge du patient.
Pierre-Étienne Heudel | Oncologue médical, vice-président de la Commission médicale d’établissement du Centre régional de lutte contre le cancer Léon Bérard et médecin hébergeur de données de santé pour les Hospices civils de Lyon.

L’analyse automatique des images révolutionne déjà le parcours de soin et les métiers

Le 28 mai 2018, une équipe internationale de chercheurs a dévoilé, dans la revue Annals of Oncology, la conception d’un algorithme de détection de mélanomes par apprentissage profond. Sur une série de 100 photographies, le taux de réussite du programme dans le diagnostic de ce type de cancer de la peau surclasse celui d’un groupe de 58 dermatologues spécialistes (95% contre 87%).

Pierre-Étienne Heudel observe que l’analyse automatique d’images (scanners, IRM, mammographies, échographies…) est aujourd’hui « poussée à son paroxysme par le deep learning*.» Nous assistons à une très impressionnante course à l’innovation dans ce domaine et les applications sont extrêmement prometteuses, insiste-t-il « tant au niveau du diagnostic, que dans l’appréhension des risques évolutifs d’une maladie. »

Le deep learning, ou apprentissage profond, désigne un des paradigmes de l’intelligence artificielle qui génère automatiquement des connaissances et des modèles intelligents à partir de couches successives de grandes quantités d’information. Cette technologie n’est pas « consciente » des images qu’elle analyse. Dans ce cas précis, l’algorithme interprète en réalité un amas de pixels qu’il reconnaît comme étant agencés de telle manière qu’ils correspondent à un certain diagnostic.

L’oncologue appuie ses propos sur les avancées d’un programme de recherche pluridisciplinaire auquel il est associé. Depuis une année à Lyon, avec le professeure Françoise Galateau-Sallé de l’Unité d’Anatomie et cytologie pathologique du Centre Léon Bérard et la start-up française OWKIN, toute une équipe développe une IA qui facilite l’étude morphologique d’anomalies microscopiques sur des cellules de surfaces. Basé sur de complexes algorithmes d’apprentissage (machine learning), ce projet lancé il y a moins d’un an permet d’analyser des correspondances entre certaines morphologies cellulaires précises et des diagnostics d’une rare et virulente forme de cancer : le mésothéliome. Les résultats et la vitesse à laquelle l’intelligence artificielle apprend et améliore ses performances, impressionnent Pierre-Étienne Heudel. Le médecin observe que le modèle, bien qu’encore balbutiant, est aujourd’hui « aussi performant dans l’analyse que l’expert mondial de la maladie ». Il présage ainsi que « l’analyse automatique de l’image et l’IA de manière générale, vont profondément modifier la prise en charge de nos patients dans les 5 à 10 ans ».

Il s’attend à ce que l’impact de l’intelligence artificielle atteigne des sommets lorsque nous réussirons à opérer des corrélations entre différents types de données de santé et environnementales (textes, images, informations génomiques, cartographies, statistiques…).

Détail, d'une image analysée grâce au deep-learning (ici, l'épithélium).

Détail, d’une image analysée grâce au deep learning (ici, l’épithélium). Source : Journal of Pathology Informatics (A Janowczyk, A Madabhushi)

Croiser les bases de données biologiques, génétiques, environnementales et médicales

Les programmes d’intelligence artificielle en santé sont et seront structurés à partir d’immenses quantités de données qu’il faut normaliser et rendre intelligibles, comme des compte-rendus de consultations, des résultats de prise de sang, des diagnostics, ou encore le suivi des vaccinations. Pierre-Étienne Heudel précise que cet exercice délicat et filandreux d’informatisation et d’ordonnancement des données de santé est déjà bien avancé, en particulier en région Auvergne-Rhône-Alpes (où près de quatre millions de profils ont été enregistrés au DPPR (Dossier patient partagé et réparti). Cette masse d’information est une aubaine pour les professionnels qui peuvent aisément exploiter et croiser des informations, grâce notamment à l’outil ConSoRe (outil de recherche d’informations disséminées dans le texte de centaines de milliers de dossiers des patients des centres de lutte contre le cancer).

➠ Sur le portail Pop’Sciences : Lutte contre le cancer : le Centre Léon Bérard à la pointe

Demain, l’IA permettra de croiser des informations sur les antécédents héréditaires de millions de personnes atteintes d’un certain type de cancer, avec les réponses que ceux-ci ont développées face à différents types de traitements, mais également avec leurs habitudes nutritives, leur activité physique ou encore leurs résultats de diagnostics biologiques établis au fur et à mesure de l’évolution de leur maladie. En faisant corroborer des bases de données cliniques ou génomiques (sur l’hérédité par exemple), avec des informations liées à l’environnement ou les habitudes sociales de très nombreux patients, nous allons bénéficier de systèmes capables de catégoriser, et comparer des quantités infinies d’informations pour en déduire une réponse la plus juste possible.

Pierre-Étienne Heudel prend pour exemple un projet, auquel il est associé aux côtés de l’unité Cancer et environnement du centre Léon Bérard, sur les « seconds cancers ». 18% de la population française est touchée par le phénomène de déclaration d’un deuxième type de cancer, après avoir déjà été touché par la maladie. À ce titre, le médecin s’est demandé si les pollutions environnementales (de l’air, de l’alimentation et de l’eau) ne pouvaient pas expliquer un peu cette tendance. « L’objectif est ici de croiser les données cliniques issues de ConSoRe, avec des bases de données environnementales » issues, notamment, du travail de géomaticiens qui modélisent des environnements et des expositions au polluants sur des cartes complexes et dynamiques.

« La complexité et la quantité des informations qu’un algorithme sera capable de digérer et d’analyser est bien supérieure à ce que des experts, même réunis collégialement autour d’un cas particulier, ont comme capacité d’intelligences collectives. »

Pop-Sciences_Mag_intelligence-artificielle_santé@ViséeA

@Visée.A

Vers une réussite de la médecine personnalisée et intégrée

Demain les patients arriveront en cabinet avec des pré-résultats issus d’une application mobile. « Évidemment, précise Pierre-Étienne Heudel, l’histologie et des prélèvements viendront corroborer ou infirmer ces présomptions de maladies ». Pour autant, la grande famille des praticiens de santé (infirmiers, médecins généralistes, spécialistes, pharmaciens, auxiliaires, etc.) ne pourra pas éviter le virage technologique de l’IA, tant celle-ci va révolutionner leur métiers et les parcours de soin.

« L’intelligence artificielle offrira une aide précieuse et sans précédent dans le processus de décision, mais pour autant, les métiers ne seront pas voués à disparaître » insiste-t-il. Rien ne pourra remplacer une relation de confiance entre un patient et un professionnel de santé et il sera toujours nécessaire de valider des pré-diagnostics, ainsi que les suggestions de traitements qui leurs sont associés.

Des parcours personnalisés et plus participatifs

Les hôpitaux publics pourraient voir leur fonctionnement rapidement bouleversé par l’irruption de l’IA dans le parcours de soin, en passant de modèles généralistes à des centres très spécialisés. L’expert fait une analogie avec le cas des « plans cancers » qui ont permis la création en 2010 de la fédération UNICancer et ont radicalement transformé le parcours de soin dans le cas de la la lutte contre cette maladie : « nous avons aujourd’hui trois fois moins d’établissements qui traitent le cancer qu’il y a 15 ans, et pourtant la qualité des diagnostics et des soins n’a jamais été aussi performante ». L’intelligence artificielle va ainsi, selon lui, accélérer ce mouvement et faire que les centres spécialisés deviennent les centres de décision.

Quant à la prise en charge du patient, « nous avons l’opportunité de la relocaliser au plus près de son domicile » augure-t-il. L’IA permettra un meilleur partage de l’information et des compétences entre les spécialistes et les pharmaciens en officine, les infirmiers à domicile ou le médecin généraliste des patients. Pierre-Étienne Heudel insiste : « il est fondamental, au regard de ce que le rapport de Cédric Villani préconise, de bien former tous les praticiens de santé (tant en formation initiale que continue), afin d’assurer la sécurisation du parcours de soin et d’améliorer l’interaction avec des patients de plus en plus experts ».


Notes
  • Direction de la Publication : Khaled Bouabdallah, Président de l'Université de Lyon
  • Rédaction en chef : Florence Belaën, Directrice culture, sciences et société - Université de Lyon
  • Auteurs : Samuel Belaud (Université de Lyon ) ; Benoît de La Fonchais (Oxymore Conseil)
  • Direction artistique : Antoine Ligier (Visée.A)
  • Comité de rédaction : Patricia Lamy, Samuel Belaud, Marine Bourdry (Université de Lyon ) ; Antoine Ligier (Visée.A) ; Benoît de La Fonchais (Oxymore Conseil)
  • Crédits illustrations : Julien Richetti ; Solène Rebière
  • Crédits photographiques et vidéos : Visée.A
  • Partenaires scientifiques et universitaires : Hoomano ; Institut Cellule souche et cerveau (Inserm, Université Claude Bernard Lyon1, Inra) ; Groupe d'Épistémologie et d’éthique des sciences et des technologies du laboratoire de Biologie générale de l’Institut catholique de Lyon (UCLy) ; Centre régional de lutte contre le cancer Léon Bérard ; Institut français des sciences et technologies des transports, de l’aménagement et des réseaux (IFSTTAR) ; Laboratoire Ergonomie et sciences cognitives pour les transports (LESCOT) ; Transpolis ; Chaire de recherche « Talents de la transformation digitale » à Grenoble École de Management ; Lyon-IsAI ; CPE Lyon - École supérieure de chimie, physique, électronique de Lyon.
  • Partenaires institutionnels : Région Auvergne-Rhône-Alpes ; Métropole de Lyon ; Ville de Villeurbanne.
14'
Chapitres