Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

Bertin Nahum : quand l’ingénierie sauve des vies | Visages de la science

BBertin Nahum : quand l’ingénierie sauve des vies | Visages de la science

Bertin Nahum fait partie des innovateurs les plus brillants de sa génération. Père des robots chirurgicaux made in France, ce visionnaire imagine la médecine de demain. Après avoir conçu un robot destiné à la chirurgie du genou, puis un deuxième pour la chirurgie du cerveau, cet ingénieur s’attaque aujourd’hui, avec un nouveau prototype, à la lutte contre le cancer du foie. Animé par la volonté de se sentir utile et de rendre l’acte chirurgical plus sûr, il s’efforce aussi de faire connaître au monde entier, l’excellence des technologies médicales françaises.

  • Réduire les aléas

« Quand j’ai commencé à travailler dans ce secteur-là, j’ai été très étonné de voir que la chirurgie était une discipline très artisanale. La robotique est en mesure de faire ce qu’elle a fait dans plein de secteurs de la vie quotidienne : réduire les aléas. Il ne s’agit pas de remplacer le praticien mais d’optimiser l’acte chirurgical en le rendant plus précis et plus fiable. »

  • Des robots révolutionnaires

Après avoir occupé des postes de terrain, Bertin Nahum a été confronté à la réalité et à la pratique sur la façon dont la technologie pouvait répondre aux besoins des chirurgiens. Visionnaire, il s’est fait père de robots chirurgicaux révolutionnaires. « Nos robots sont des outils intelligents. Ils utilisent des images pour planifier un acte chirurgical ; aident à la décision du praticien ; puis assistent la réalisation dans le geste à proprement dit. Ils utilisent de l’imagerie, de l’intelligence artificielle et de la robotique. »

  • De l’importance du made-in-France

« La prochaine révolution numérique se fera dans le secteur de la santé. Les robots et l’intelligence artificielle pénétreront dans ce secteur. Cependant, quand on touche à la santé de gens, il faut s’assurer que cette activité ne reproduise pas ce qu’il s’est passé jusque-là avec les GAFA. Il est important que l’Europe se saisisse du sujet. »

 

Portrait de Bertin Nahum

Diplômé de l’INSA Lyon, Bertin Nahum a été sacré quatrième entrepreneur high-tech le plus révolutionnaire du monde par la revue canadienne Discovery en 2012, juste derrière Steve Jobs, Mark Zuckerberg et James Cameron. Il était l’invité du podcast « Les cœurs audacieux », un contenu audio proposé par l’INSA Lyon (Saison 2 – Épisode 1).

 

ÉCOUTER L’ÉPISODE

 

 

Les enjeux des modèles de langage – Vivre avec ChatGPT – Alexandre Gefen

LLes enjeux des modèles de langage – Vivre avec ChatGPT – Alexandre Gefen

Conférencier : Alexandre Gefen – auteur « Vivre avec ChatGPT »

Lors de cette conférence, il s’agira d’expliquer ce qu’est un modèle fondationnel, de donner des rudiments permettant de comprendre le fonctionnement d’un large modèle de langage en général et de ChatGPT en particulier, en insistant sur sa dimension générative et la question de son alignement, avant d’aborder les différents enjeux éthiques, politiques, scientifiques, sociaux et économiques et cognitifs qu’il pose.

 

L’IA-rtistique | Expo Arts-Plastiques & créations sonores

LL’IA-rtistique | Expo Arts-Plastiques & créations sonores

« Découvrez comment la créativité humaine s’entrelace avec l’intelligence artificielle dans une exposition qui brouille les frontières entre l’artiste et la machine pour ouvrir de nouveaux horizons artistiques. » Signé L’IA.

>> Au programme :

  • Du 7 décembre au 3 janvier | Salle d’exposition (sous-sol de la BU)
  • Vernissage le 13 décembre à 18h
  • Du 8 au 31 janvier | Bistrot U de la Manu – CROU

>> Pour plus d’information rendez-vous sur la page/ plan d’accès :

L’Art au Moulin

Plan d’accès

Nouvel humanisme au temps des neurosciences et de l’intelligence artificielle – Projet NHNAI

NNouvel humanisme au temps des neurosciences et de l’intelligence artificielle – Projet NHNAI

Que signifie être humain au temps des neurosciences et de l’intelligence artificielle ? C’est la principale question que tente d’élucider le projet NHNAI ! Pourquoi ? Pour apporter une boussole éthique afin d’encadrer les actions humaines. Comment ? En provoquant une prise de conscience éthique au moyen du débat sociétal. Qui ? Grâce à un réseau international de chercheurs issus d’établissements supérieurs d’enseignement et de recherche Avec qui ? Des acteurs pertinents dans différents pays du monde entier.

Le projet NHNAI en quelques mots

Le projet NHNAI – Nouvel Humanisme au temps des Neurosciences et de l’Intelligence Artificielle – a officiellement débuté en Janvier 2022 sous l’égide de la Fédération Internationale des Universités Catholiques (IFCU). Le projet est coordonné par l’Unité de Recherche Confluence : Sciences et Humanités de l’Institut Catholique de Lyon, sous la responsabilité de Mathieu Guillermin et rassemble de multiples partenaires à travers le monde issus d’horizons divers (philosophes, éthiciens, sociologues, théologiens, experts en étude des religions, historiens, scientifiques en biomédecine, anthropologues, etc.). Plus particulièrement, le projet se concentre sur trois domaines essentiels que les récentes avancées scientifiques et technologiques ont bouleversé : SANTÉ – ÉDUCATION – DÉMOCRATIE

Principales hypothèses et objectifs

©NHNAI

Le projet NHNAI a pour objectif de soutenir la société dans ses efforts pour faire face aux défis éthiques soulevés par les neurosciences (NS) et l’intelligence artificielle (IA) en organisant des débats sociétaux avec l’aide des acteurs académiques. Ces défis et enjeux sociétaux sont nombreux, à l’image de l’automatisation du travail, de la prise de décision basée sur les données, des diagnostics médicaux, des voitures autonomes, des technologies de persuasion, de la neuromodulation au moyen d’implants neuronaux ou l’augmentation des capacités humaines, du renforcement des compétences, par exemple, dans le champ de l’éducation. Ces implications soulignent le besoin pressant pour tous les acteurs concernés de dépasser les simples aspects pratiques de ces domaines de recherche et d’applications, pour considérer leurs dimensions éthiques, morales et spirituelles. Ces acteurs ont besoin d’une boussole éthique collective pour naviguer parmi les multiples possibilités ouvertes par ces nouveaux champs d’action relatifs à l’intelligence artificielle et aux neurosciences.
Ainsi, NHNAI entend mettre les ressources académiques de son réseau au service d’un effort sociétal pour élaborer une boussole éthique collective, en particulier en encourageant l’exploration de la question centrale de l’humain (que signifie être humain au temps des neurosciences et de l’intelligence artificielle ? Qui sommes-nous en tant qu’être humain ? Qui devrions-nous être en tant qu’être humain…), et des tensions et les complexités que révèle cette question.
En effet, dans les réflexions éthiques et les efforts de régulation, on trouve très souvent des références à la notion d’ « humain » (par exemple, l’épanouissement humain, la technologie centrée sur l’humain, la nature humaine) ou à de concepts clés qui lui sont fermement attachés (telle que la dignité ou l’autonomie). Pourtant, cette notion d’humain en tant que telle reste ambigüe et problématique. Ce que signifie être humain est loin de faire l’objet d’une compréhension clarifiée et partagée. Il est bien sûr possible de s’appuyer sur l’humanisme du XVIIIème siècle (i.e., celui du siècle des Lumières, des révolutions politiques et des droits de l’homme). Bien que cette approche soit très influente et répandue (au moins dans la tradition et la culture occidentale), elle ne va pas néanmoins sans son lot de tensions, de difficultés et de controverses (multiples courants, rapport individu-groupe, rapport au non-humain …). Au-delà, ou en plus, des limites de cette approche répandue de la question de l’humain, force est de constater que les nouvelles connaissances et les technologies issues des NS et de l’IA entraînent aussi de profonds questionnements, notamment à propos de caractéristiques centrales pour l’humain qui se voient mises en tension (comme l’intelligence, le libre-arbitre, ou l’autonomie). L’absence d’une compréhension clarifiée et partagée au sujet de ce que signifie “être humain” (surtout par rapport aux tensions et complexités que la notion implique) risque donc de constituer une entrave à l’appréhension par tous les acteurs concernés des principales implications, notamment du point de vue éthique, moral et spirituel, de ces avancées en NS et dans le développement technologique de l’IA. Explorer collectivement la question de l’humain semble ainsi indispensable pour favoriser l’élaboration d’une boussole éthique à même de nous aider à nous orienter au temps de l’IA et des NS.
Ainsi posée, cette question de l’humain devient éminemment politique. Bien que leurs apports soient indispensables, universitaires et experts ne peuvent y répondre seuls. Réfléchir sur les différentes conceptions de l’humain aujourd’hui, ou sur ce que devrait être l’humain au temps de l’IA et des neurosciences est avant tout une question politique et existentielle, essentielle pour la réflexion éthique et qui, par conséquent, doit faire l’objet d’une large discussion sociétale. C’est à cette exigence que le projet NHNAI entend satisfaire en mettant les ressources de ses réseaux universitaires au service de cette réflexion collective et sociétale.

Lancement des débats sociétaux : 2 étapes

>> Ateliers de cadrage des problèmes

©NHNAI

Après avoir collecté des données pertinentes pour le débat sociétal sur le thème de l’humanisme lors du premier atelier académique en Mars 2022 (voir première newsletter), les équipes du projet NHNAI étaient prêtes à rencontrer et discuter avec plusieurs acteurs extra-académiques sur les enjeux éthiques des NS et de l’IA et réfléchir avec eux à la question centrale de ce que cela signifie d’être humain au temps des NS et de l’IA. Dans différents pays, les équipes de NHNAI ont rencontré et interrogé différentes personnes pour chaque thème de débat, dans le but de construire avec eux les questions qui doivent être débattues sur la scène publique. Parmi eux, on peut notamment compter des professeurs, des psychologues, des éducateurs spécialisés, des étudiants, des citoyens, des médecins, des neuroscientifiques, des avocats, des décideurs politiques et des ONG (organisation non gouvernementale).
Sur cette base, les experts du réseau académique NHNAI ont été sollicités pour enrichir et compléter le matériel initial afin de maximiser sa pertinence et son utilité en tant qu’outil au service du débat sociétal. Parmi les nombreuses questions qui ont été co-construites par les experts et les acteurs extra-académiques, on peut retrouver des questions exprimant des inquiétudes mais également des réflexions sur les opportunités et les bienfaits de ces technologies :

  •  Quelles sont les principales caractéristiques de ce que signifie être humain qui devraient être préservées/renforcées avec les NS et l’IA ?
  • Comment l’IA et les NS peuvent-elles nous aider à approfondir notre compréhension de nous-même et de notre humanité ?
  • Quelle est la responsabilité du scientifique dans l’usage de la technologie qu’il produit ?
  • Le développement de l’IA et des NS ne risque-t-il pas de conduire à une déshumanisation de l’enseignement ainsi qu’à la réduction de la diversité des sources ?
  • Qu’est-ce qui dans le soin, est authentiquement humain et ne devrait pas être délégué à un robot ou à une IA ?
  • Le développement de l’IA et des NS ne risque-t-il pas de priver l’humanité de son autonomie et de sa liberté, de sa capacité à ralentir ou même arrêter de ce que nous avons initié ?
  • Comment les neurosciences et l’IA peuvent-elles améliorer la paix entre les êtres humains ?
  • L’IA peut-elle favoriser l’avènement d’une société plus inclusive, prenant en compte les plus vulnérables ?

>> Ateliers de débats éthiques

Après la phase des ateliers de cadrage des problèmes et dans 9 pays, les équipes de NHNAI ont organisé des ateliers de débats éthiques avec leurs communautés locales de Février à Mars 2023. Des personnes de différents domaines et statuts ont été invités à participer à ces ateliers sur les thèmes de l’éducation, la santé et la démocratie et réfléchir collectivement aux enjeux éthiques des NS et de l’IA à partir de la question centrale de ce que cela signifie d’être humain au temps des NS et de l’IA dans ces domaines. On peut notamment retrouver des thèmes communs entre les pays, comme en éducation, où les participants se sont interrogés sur le rôle de l’éducateur et de l’IA, sur la nature et l’objectif de l’éducation, et sur l’impact de l’IA sur le processus d’apprentissage. Dans la santé, les participants se sont interrogés sur l’autonomie des patients et la relation entre le patient et le médecin avec les développements technologiques des NS et de l’IA, mais également sur le rôle de l’humain dans le système de soin. Enfin, dans la démocratie, les participants ont évoqué les impacts de l’IA sur l’autonomie du citoyen et sur la participation citoyenne. Néanmoins, on peut également noter des particularités selon les pays. Par exemple, au Kenya, les participants se sont concentrés sur les opportunités de l’IA dans l’éducation, et au Québec, les participants se sont concentrés sur les risques de surveillance auxquels l’IA peut conduire dans le thème de la démocratie.

>> Poursuivre les débats en ligne avec Cartodébat

Ces discussions initiées en face à face durant les ateliers se sont poursuivies en ligne avec la plateforme CartoDÉBAT, permettant de créer des débats publics numériques. N’importe qui peut participer aux discussions dans son pays. Il suffit de se rendre sur le site CartoDÉBAT, choisir son pays et créer un compte avec une adresse e-mail valide. Ensuite, vous pouvez sélectionner le débat sur lequel vous souhaitez participer sur la carte. Une fois que vous êtes sur la page du débat, vous devez surligner ce sur quoi vous souhaitez réagir (cela peut être sur la page de gauche dans le texte ou sur la page de droite dans les contributions des utilisateurs), spécifier avec un code couleur la nature de votre contribution (vert signifie « oui et », rouge signifie « oui mais » et bleu signifie « pas compris ») et d’ajouter votre argument. Tout est expliqué dans les vidéos sur la chaine YouTube.

Analyser les débats : la réunion entre les acteurs académiques de NHNAI

©NHNAI

Les acteurs académiques de NHNAI se sont réunis le 27 et 28 avril 2023 à l’Université Catholique de Lyon pour un travail interdisciplinaire sur la méthode d’analyse des contributions des débats. Ceux-ci ont discuté et réfléchi ensemble sur la procédure permettant de créer une librairie de mots-clés qui les aideront à analyser les corpus des contributions de la plateforme cartoDÉBAT. Cette méthode d’annotation des corpus et la librairie de mots-clés permettront aux équipes de NHNAI de faire une analyse globale (entre tous les pays) ainsi qu’une analyse locale, propre à chaque pays.
La librairie de mots-clés contribuera à avoir une meilleure compréhension de ce que cela signifie d’être humain à l’heure des neurosciences et de l’intelligence artificielle et donc également de ce qui est souhaitable ou non avec ces nouvelles technologies. Cela participera à la construction d’une boussole éthique permettant de mieux faire face aux nombreux défis que ces technologies posent à la société.
Ces analyses conduiront à l’élaboration d’un livre blanc sur la base de recommandations pour des lignes de conduite éthiques et politiques publiques (qui seront disséminées en 2025). De telles recommandations provenant de la société à un niveau global est d’une importance capitale de nos jours afin de nous orienter le mieux possible à travers les enjeux éthiques des neurosciences et de l’IA.

Découvrez les premiers résultats de la synthèse des débats sur l’éducation

Après les ateliers en présentiel sur les enjeux éthiques de l’intelligence artificielle et des neurosciences dans le domaine de l’éducation (à l’Université Catholique de Lyon, le 21 février 2023) et les discussions en ligne qui ont suivies sur la plateforme CartoDEBAT, nous avons le plaisir de vous partager les premiers éléments de synthèse et de restitution de ces discussions. Ces derniers constituent le début d’une analyse locale complète qui sera diffusée prochainement et préfigurent de futurs résultats attendus de la synthèse globale de tous les corpus de discussions dans les 9 pays participants.
Voici ci-dessous une représentation visuelle des idées les plus saillantes concernant ce que cela signifie d’être humain au temps de l’intelligence artificielle et des neurosciences, qui ont émergé des discussions centrées sur les enjeux éthiques de l’IA et des NS dans le domaine de l’éducation. Voici des éléments de lecture :

  • Le nombre à droite de chaque idée saillante indique le nombre de contributions qui expriment cette idée
  • Les connexions entre les idées saillantes :
    o Les flèches vertes connectent les idées en concordance
    o Les flèches rouges manifestent les complexités et les tensions entre les idées saillantes

©NHNAI

Pour en savoir plus :

Projet NHNAI

Présenter l’IA comme une évidence, c’est empêcher de réfléchir le numérique

PPrésenter l’IA comme une évidence, c’est empêcher de réfléchir le numérique

Au printemps dernier, des personnalités aussi diverses que Elon Musk, Yuval Noah Harari ou Steve Wozniak s’associaient à plus de 1 000 « experts » pour mettre en garde face aux « risques majeurs pour la société et l’humanité » que représente l’intelligence artificielle et demander une pause de six mois dans d’entraînement des modèles plus puissants que GPT-4. Du Monde au Figaro, en passant par FranceInfo ou Libération, les médias ont volontiers relayé les termes de ce courrier qui appelle à une pause pour mieux affirmer le caractère inéluctable et la toute-puissance des systèmes d’IA à venir.

Ce qui frappe dans la réception médiatique immédiate de ce courrier, c’est la myopie face à un processus théorisé depuis maintenant bientôt 30 ans : « l’impensé numérique » (ou informatique, avant lui). Ce concept d’« impensé » désigne les stratégies discursives par lesquelles la technologie est présentée comme une évidence, souvent sous l’influence des acteurs dont elle sert les intérêts économiques ou politiques.

La lettre ouverte de l’institut Future of Life en est un cas d’école : selon elle, l’intelligence artificielle est un outil puissant, il est déjà là, et il est appelé à être encore plus présent et plus puissant à l’avenir pour le plus grand bien de l’humanité.

Comment repérer l’impensé numérique ?

Sept marqueurs discursifs devraient vous mettre la puce à l’oreille. Pour illustrer cette « boîte à outils », la lettre ouverte d’Elon Musk et consorts, qui prétend pourtant appeler à faire une pause, présente avantageusement tous les marqueurs discursifs de l’impensé, quoique l’on puisse également l’appliquer au très sérieux rapport Villani qui plaidait en 2018 pour une stratégie nationale et européenne en matière d’IA :

©Freepik

Dans ce type de discours, l’objet technique se présente comme neutre : il revient à l’humanité de s’en servir à bon escient, sa seule existence lui sert de justification.

Pourtant, si l’on nous dit que l’IA représente des « risques majeurs pour l’humanité », n’est-ce pas la preuve que nous sommes devant une technique qui n’est pas neutre justement ?

Voilà sans doute le mécanisme le plus retors de l’impensé : diaboliser l’objet technique contribue à la fois à affirmer sa puissance et son potentiel lorsqu’il est utilisé à bon escient, et à alimenter le pseudodébat sans lequel l’intérêt médiatique retomberait. L’informatique, le numérique, l’IA sont déjà là, nul besoin de produire un travail historique sérieux à leur sujet, le storytelling des réussites entrepreneuriales suffit.

L’impensé forme un cercle vicieux avec le glissement de la prérogative politique…

L’impensé est indissociable de deux autres processus avec lesquels il forme un véritable cercle vicieux : le glissement de la prérogative politique et la gestionnarisation.

À la faveur de l’impensé numérique, des outils détenus par des acteurs privés sans légitimité électorale ou régalienne déterminent jusqu’à l’accès du public à l’information. Un exemple en est la plate-forme X (anciennement Twitter), qui est scrutée par les journalistes parce qu’elle est alimentée par les personnalités publiques et politiques, ainsi que par les institutions publiques. Lorsqu’une plate-forme privée porte une parole politique, nous sommes dans ce que l’on appelle le « glissement de la prérogative politique ».

En effet, lorsque des acteurs privés déploient des technologies de manière systématique, depuis les infrastructures (câbles, fermes de serveurs, etc.) jusqu’aux logiciels et applications, cela revient à leur déléguer des prises de décisions de nature politique. Ainsi, face à un moteur de recherche qui domine notre accès à l’information et occupe une place qui relèverait d’un véritable service public, nous sommes en plein dans un glissement de la prérogative politique.

On observe le même phénomène lorsque le gouvernement français préfère recourir aux cabinets de conseil plutôt qu’à l’expertise universitaire. Des cabinets, dont les recommandations privilégient volontiers le recours systématique aux technologies numériques et font le lit de la gestionnarisation.

… et avec la gestionnarisation

Aujourd’hui, les outils numériques ne nous permettent pas seulement de gérer diverses activités (banque, rendez-vous médicaux…), ils sont aussi et surtout devenus incontournables pour effectuer ces tâches. Nous n’avons pas d’autre choix que de nous fondre dans les catégories que ces outils nous imposent. Il n’est pas toujours facile de prendre rendez-vous avec un ou une secrétaire médical, par exemple, ou de faire sa déclaration d’impôts sur papier. C’est ce que l’on appelle la « gestionnarisation ».

Cette gestionnarisation témoigne aussi d’un glissement. Par exemple, l’outil d’accès à l’enseignement supérieur Parcoursup s’impose désormais aux lycéens et à leurs familles. Or cet outil porte une dimension politique aux conséquences critiquables, telles que l’exclusion de certaines catégories de bacheliers ou l’accentuation de la mise en concurrence des formations. Dans la gestion, l’outil est second par rapport à l’activité ; avec la gestionnarisation, l’outil devient premier : Parcoursup a pris le pas sur le besoin auquel il est censé répondre.

Dans notre quotidien, pour visiter une nouvelle région, choisir le menu de son dîner comme pour rencontrer l’âme sœur, chacun saisit docilement les informations attendues par les plates-formes de consommation numérique. Lorsque l’on mène une activité sportive en s’équipant d’un bracelet qui traite, mémorise et fait circuler un ensemble de données biométriques, celles-ci deviennent le modèle que l’on suit, plutôt que le ressenti de son corps, dans une sorte d’« auto-gestionnarisation ».

Dûment identifiés et profilés par nos outils, nous contribuons sans réserve aux profits économiques de firmes dont l’essentiel des revenus échappe à l’impôt… Et donc au pouvoir démocratique déjà ébranlé par le glissement de la prérogative politique.

Productivité du numérique et management numérique (Enjeux sociopolitiques du numérique, Dominique Boullier).

Critiquer… et agir

Le numérique n’est pas cet avenir tantôt infernal et tantôt radieux que nous promettent ses impenseurs : ce n’est qu’une catégorie pour désigner un ensemble d’objets techniques et de dispositifs sociotechniques qui doivent être interrogés et débattus au regard de leur action politique et sociétale.

Alors que l’impensé focalise notre attention sur l’IA, peut-être avons-nous davantage besoin outils nouveaux (dans lesquels il peut y avoir de l’IA) afin de mieux organiser l’expression (numérique) de notre intelligence face aux enjeux qui exigent des décisions collectives inédites. Climat, démocratie, environnement, santé, éducation, vivre-ensemble : les défis ne manquent pas.

Dans cette perspective, nous vous invitons à découvrir la nouvelle version du service de navigation web contributive Needle. Nourrie par le concept d’impensé, cette proposition radicalement différente d’accès et de partage de contenus numériques mise sur l’intelligence collective. Needle est une plate-forme de mise en relation qui matérialise l’espérance d’un environnement numérique riche du maillage et de l’exploration curieuse de toutes et tous, en lieu et place du réseau de lignes droites par l’entremise desquelles des intelligences artificielles devraient nous désigner quels documents consulter.

Cette technologie est désormais portée par une start-up, preuve qu’il est possible de concevoir des propositions concrètes qui tiennent compte de la nécessaire critique de la place accordée à la technique dans nos sociétés.The Conversation

Auteur : Julien Falgas, Maître de conférences au Centre de recherche sur les médiations, Université de Lorraine et Pascal Robert, Professeur des universités, École nationale supérieure des sciences de l’information et des bibliothèques ; laboratoire elico, MSH Lyon Saint-Étienne, Université de Lyon

Cet article est republié à partir de The Conversation sous licence Creative Commons.

>>> Lire l’article original

Des constructions éco-touristiques en sac de terre

DDes constructions éco-touristiques en sac de terre

Maxime Feugier, Bastien Delaye et Lucas Gehin sont trois jeunes ingénieurs diplômés de l’INSA Lyon à l’origine du projet « Rewall ». Avec leur idée, lancée au sein de la filière d’entrepreneuriat étudiant de leur école, les trois jeunes ingénieurs souhaitent prouver que la construction peut allier esthétique, résistance et impact écologique positif à partir d’une idée née dans les années quatre-vingt : l’écodôme en Super Adobe. Ce type de construction bioclimatique sur mesure, couplée à un outil d’Intelligence Artificielle développé par leurs soins, pourrait déployer tout son potentiel.

©Rewall « Rewall One » : une habitation écologique et hors du commun, offre la possibilité d’accueillir deux personnes en autonomie totale sur le plan thermique et électrique. Avec ses 16m2, cet habitat dispose d’une kitchenette et d’une salle de bain.

De la terre et des déchets plastiques

C’est de l’esprit de Nader Khalili, architecte irano-américain, que la technique du Super Adobe est née : une construction en forme de calotte qui semble être tout droit sortie de la planète Tatooine dans Star Wars. Pourtant, sous ses allures de maison de hobbit, l’écodôme offre des possibilités architecturales infinies et une efficacité énergétique très performante. « Le Super Adobe consiste à empiler des sacs en polypropylène tissés remplis de terre et de déchets plastiques, en remplacement des parpaings. Empilés très rapidement et une fois enduits de chaux et de chanvre, ce type de construction présente des propriétés isolantes et mécaniques très intéressantes, avec une empreinte carbone très réduite », introduit Lucas Gehin. La forme conique assure à la construction une stabilité et une résistance capable de résister aux séismes et aux vents violents. Originellement développé pour les activités de la NASA, le Super Adobe pourrait même résister aux tempêtes de poussière lunaire. Quant à son efficacité énergétique, elle est sans appel. « Pour une surface de 20m2 construite en Super Adobe, on trouve une moyenne de 22 degrés de température en été, pour 35 fois moins de Co2 émis par rapport à une construction en béton », ajoute l’ingénieur. Face à ce constat, le groupe engagé dans le projet « Rewall » a vu une occasion concrète de faire rimer « génie civil » et « environnement ». Mais comment tirer parti de l’impact positif de cette technique capable d’allier esthétique, résistance et réutilisation des déchets ?

(…)

>> Lire la suite de l’article sur le site :

Insa Lyon

Diagnostic 2.0 : quand l’Intelligence Artificielle intervient | Un dossier Pop’Sciences

DDiagnostic 2.0 : quand l’Intelligence Artificielle intervient | Un dossier Pop’Sciences

Pour son dossier consacré aux nouvelles applications de l’Intelligence Artificielle (IA) à la santé, Pop’Sciences est allé à la rencontre des scientifiques et professionnels de la santé de la région Lyon Saint-Étienne pour mieux comprendre ce que ces nouvelles technologies peuvent apporter (ou pas) à la médecine, notamment en termes de diagnostic…

L’IA tend à se démocratiser dans de multiples domaines professionnels, dont ceux de la santé. Entre espoirs, fantasmes, peurs et applications réelles, cette nouvelle assistance nécessite aujourd’hui d’être mieux décryptée tant auprès des médecins que de leurs patients. Pop’Sciences vous propose de revenir sur quelques applications concrètes pour comprendre ce que l’IA, et ses capacités de calcul, peut faire pour aider les professionnels de la santé dans le diagnostic de la santé mentale, pour fluidifier la prise en charge des patients ou pour apporter toujours plus de précisions en imagerie médicale… mais aussi d’en percevoir les limites, car elle est encore loin de remplacer votre médecin.

 Les articles du dossier

©Freepik

Dans un monde en constante évolution, les chercheurs et médecins se tournent vers l’intelligence artificielle (IA) pour les aider dans la pratique médicale. Pop’Sciences vous dévoile les coulisses du processus de création d’une IA prête au diagnostic, une innovation qui repose sur la précision de la consultation médicale, la richesse des bases de données, et l’entraînement minutieux de modèles IA. En somme, quelle est la recette pour une bonne IA appliquée au diagnostic médical ?

 

Image générée par IA (Dall-E) ©Pop’Sciences

Se classant au deuxième rang des causes de mortalité en France après les accidents cardiovasculaires, les troubles liés à la santé mentale sont aujourd’hui une préoccupation majeure en termes de santé publique. Dans cette quête du « mieux prévenir pour mieux guérir », l’intelligence artificielle (IA) pourrait s’imposer comme un précieux allié dans le diagnostic des troubles mentaux.

 

 

Imagé générée par IA (Dall-E) ©Pop’Sciences

Alors que les avancées technologiques continuent de redéfinir la manière dont les professionnels de la santé prennent en charge les patients, l’IA s’insère de plus en plus dans la relation entre le patient et son médecin. Au cœur de cette transformation, Loïc Verlingue, médecin et chercheur au Centre Léon Bérard partage son expertise de l’IA dans le domaine des essais cliniques en cancérologie.

 

 

©Pexel

Améliorer l’interprétation de l’imagerie médicale (IM) pour en optimiser l’exploitation est au cœur des enjeux de l’intelligence artificielle (IA) au service de l’IM. L’IA n’est plus “seulement” un domaine de recherche en plein essor… mais ses utilisations en sont multiples.  Objectifs affichés : augmenter la précision du diagnostic afin d’améliorer la prise en charge thérapeutique, en évitant les erreurs potentiellement lourdes de conséquences. La guerre des algorithmes est ouverte pour aller toujours plus loin !

 

©Freepik

Entre confiance aveugle et méfiance absolue, comment l’IA doit-elle être éthiquement acceptée et utilisée ? Comment s’affranchir de potentiels biais humains dans les systèmes d’IA utilisés à des fins de diagnostic, ou même thérapeutiques ? Autant de questions qui ne sont plus l’apanage de débats scientifiques, mais doivent être au cœur de débats politiques et sociétaux.

 

 

©Freepik

Dans cette série de questions et réponses, les étudiants de première année du cycle d’ingénieur de l’EPITA, école d’ingénierie informatique, répondent à nos questions concernant l’IA. A-t-elle toujours raison ? Peut-elle développer des sentiments ? Ou, est-elle capable de réelles créations ? Les étudiants nous éclairent.

 

 

 

—————————————————————

MMerci !

Ce dossier a été réalisé grâce à la collaboration de chercheurs et médecins du bassin de recherche Lyon Saint-Étienne :

Ainsi qu’avec la participation de :

  • Maëlle Moranges, docteure en neuroinformatique, apportant son expertise de l’IA en tant que référente sur ce dossier
  • Pascal Roy, chercheur en biostatistique au Laboratoire de Biométrie et Biologie Évolutive – LBBE (Université Claude Bernard Lyon 1) et praticien hospitalier aux Hospices Civils de Lyon. Intervenu lors des rendez-vous professionnels LYSiERES² : « L’intelligence artificielle peut-elle remplacer le médecin ? »
  • Antoine Coutrot, chercheur en neurosciences computationnelles, cognitives et comportementales au Laboratoire d’Informatique en Image et Systèmes d’information – LIRIS (CNRS, INSA Lyon, Université Claude Bernard Lyon 1, Université Lumière Lyon 2, École centrale Lyon). Intervenu lors des rendez-vous professionnels LYSiERES² : « L’intelligence artificielle peut-elle remplacer le médecin ? »
  • Les étudiants de première année du cycle d’ingénieur de l’École pour l’Informatique et les Techniques Avancées (EPITA) : Léo Arpin, Adrien Guinard, Arthur De Sousa, Raphaël Hatte, Pierre Raimondi, Maui Tadeja, Mehdi Ismaili, Gregoire Vest, Emil Toulouse, Todd Tavernier, Remi Decourcelle, Paul Gravejal, Aymen Gassem, Sandro Ferroni, Nathan Goetschy, Rémi Jeulin, Clovis Lechien, Garice Morin, Alice Cariou et Eliana Junker

Nous les remercions pour le temps qu’ils nous ont accordé.

Un dossier rédigé par :

  • Léo Raimbault, étudiant en Master 2 Information et Médiation Scientifique et Technique (IMST) à l’Université Claude Bernard Lyon 1, en contrat d’apprentissage à Pop’Sciences – (Introduction, articles #1, #2, #3 et co-écriture des articles #5 et #6)
  • Nathaly Mermet, journaliste scientifique – (Articles #4 et #5)

L’Intelligence Artificielle en santé : du médecin à l’algorithme | #1 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

LL’Intelligence Artificielle en santé : du médecin à l’algorithme | #1 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

Article #1 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervient

Dans un monde en constante évolution, les chercheurs et médecins se tournent vers l’intelligence artificielle (IA) pour les aider dans la pratique médicale. Pop’Sciences vous dévoile les coulisses du processus de création d’une IA prête au diagnostic, une innovation qui repose sur la précision de la consultation médicale, la richesse des bases de données, et l’entraînement minutieux de modèles IA. En somme, quelle est la recette pour une bonne IA appliquée au diagnostic médical ?

  Quel est le rôle du médecin ? Qu’est-ce que l’IA ?

Extrait de la table ronde « IA et santé » organisée par Pop’Sciences le 26 juin 2023. Un rendez-vous professionnel chercheur / journaliste, développé en collaboration avec le Club de la presse de Lyon (Projet LYSiERES²).

L’Intelligence Artificielle, notre futur psychiatre ? | #2 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

LL’Intelligence Artificielle, notre futur psychiatre ? | #2 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

Article #2 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervient

Se classant au deuxième rang des causes de mortalité en France après les accidents cardiovasculaires, les troubles liés à la santé mentale sont aujourd’hui une préoccupation majeure en termes de santé publique. Dans cette quête du « mieux prévenir pour mieux guérir », l’intelligence artificielle (IA) pourrait s’imposer comme un précieux allié dans le diagnostic des troubles mentaux.

En analysant de vastes quantités de données, collectées auprès des patients et issues de la recherche médicale, l’IA serait capable d’identifier des modèles, des tendances et des corrélations qui soutiennent les médecins dans leurs efforts pour diagnostiquer et traiter ces troubles. Elle suscite pourtant de vifs fantasmes vis-à-vis de ses capacités en psychiatrie, qu’en est-il vraiment ?

Un article de Léo Raimbault, rédigé
pour Pop’Sciences – 5 septembre 2023

 

LLa complexité du diagnostic en psychiatrie

Image générée par IA (Dall-E) ©Pop’Sciences

Le diagnostic en santé mentale repose sur des symptômes exprimés par les patients lors d’entretiens avec leur psychiatre. La psychiatrie étant une discipline clinique, elle s’appuie sur des signes objectifs (comportementaux et verbaux) perçus chez le patient, mais également sur les ressentis subjectifs du psychiatre dans son interaction avec le patient. Au cours de discussions avec son patient, le psychiatre identifie la nature des symptômes qu’il rapporte au « pattern » (ensembles de symptômes signatures) d’un trouble.

Or, un diagnostic en psychiatrie ne s’établit pas uniquement par la discussion. Le psychiatre peut repérer des indices du trouble psychique qu’exprime son patient par des signaux paraverbaux, des signaux qui excluent l’expression orale ou verbale. Ce sont, par exemple, la gestuelle, les expressions du visage ou le ton de la voix. Grâce à ces données, il synthétise et relie les informations, des connexions s’établissent et le diagnostic s’affine.

 

LLes apports de l’IA en psychométrie

Mais que peut apporter l’IA, reine des mathématiques appliquées, au diagnostic en psychiatrie clinique ? Alors que les professionnels de la santé disposent de leur raisonnement subjectif pour démêler la complexité de la psyché humaine, les modèles d’IA, notamment les réseaux de neurones, peinent encore à déduire des liens statistiques plausibles entre des symptômes donnés et un trouble psychique précis.

Malgré ces limites, les modèles d’IA représentent des outils précieux pour le diagnostic en santé mentale à plusieurs niveaux. Les questionnaires de psychométrie, par exemple, permettent de mesurer et d’évaluer différents aspects de l’état mental d’un patient. Il s’agit d’un ensemble de questions standardisées auxquelles répondent les patients, portant sur leurs émotions, leurs relations sociales, leurs comportements, leurs pensées… Les réponses à ces questionnaires fournissent aux psychiatres des informations essentielles. D’une part, elles permettent d’éclairer sur l’état du patient, et, d’autre part, elles aident à une meilleure compréhension des troubles mentaux en identifiant des schémas généraux. Or, l’analyse de ces documents requiert un investissement de temps considérable de la part des professionnels de la santé mentale.

De plus, la complexité du comportement humain rend difficile l’utilisation d’une approche catégorielle (oui/non) pour évaluer les symptômes, surtout chez les enfants dont la psyché, en pleine évolution, n’est pas aussi stabilisée que celle des adultes. Pourtant, la précision de ces questionnaires est cruciale pour fournir des éléments complémentaires aux diagnostics et favoriser des accompagnements efficaces. En générant des descriptions de plus en plus précises des symptômes, on peut diagnostiquer plus vite et améliorer la qualité de l’accompagnement des familles et limiter l’impact des troubles sur le développement et la construction de la personnalité chez les enfants. Une intervention précoce et précise est donc essentielle pour offrir de meilleures trajectoires évolutives aux enfants présentant ce type de troubles.

Et c’est bien là sa qualité première : l’IA peut brasser des quantités phénoménales de données en un temps réduit. Les modèles peuvent désormais analyser en masse des questionnaires de psychométrie à une vitesse fulgurante, permettant de déterminer avec précision des patterns associés à différents troubles psychologiques. En identifiant des patterns comportementaux récurrents pour un trouble, les algorithmes d’IA offrent une quantification et une modélisation précieuses, apportant une objectivité nouvelle à leur compréhension.

 

Image générée par IA ©Pop’Sciences

LL’IA, une révolution en psychiatrie ?

Pierre Fourneret, pédopsychiatre et chef du service Psychopathologie du développement de l’enfant et de l’adolescent à l’Hôpital Femme Mère Enfant (Hospices Civils de Lyon), nous rappelle que si l’IA sort son épingle du jeu pour définir des patterns à grande échelle, s’appuyant sur la logique des grands nombres [1], il en va tout autrement à l’échelle individuelle. Quand une population entière est aisément prédictible, l’individu est bien plus aléatoire et incertain. De fait, si en psychiatrie les outils d’IA peuvent prédire des comportements, voir des diagnostics à grande échelle, ils ne donnent qu’un pourcentage de risque et peinent encore à prédire au-delà de 50 à 60% le comportement individuel et les risques qu’un patient pourrait prendre pour sa sécurité et celle d’autrui.

Bien loin de remplacer les psychiatres en raison de sa nature artificielle, l’IA se présente néanmoins comme un atout précieux : en identifiant des modèles comportementaux et en offrant des outils d’analyse avancés, elle vient compléter l’intelligence naturelle des cliniciens. Cependant, nous devons rester vigilants quant à son utilisation éthique et responsable. L’IA ne remplace pas l’empathie et la chaleur humaine dans la relation thérapeutique… quoique les “chatbots” fassent des pas de géants dans ce domaine. Certains pays, notamment en Asie, utilisent déjà des agents conversationnels « intelligents » qui offrent un support émotionnel et empathique. Cette approche soulève des questions quant à l’authenticité du soutien reçu, car il est facile de prêter à ces rois de l’imitation du langage humain, une âme, une humanité, voire de réelles compétences psychiatriques. Bien que cela puisse avoir ses avantages, il s’agit davantage d’un soutien conversationnel, d’un beau miroir confortant son interlocuteur que d’une réelle thérapie. Comme souvent, l’IA ne peut être l’unique solution, mais un outil.

Une relation thérapeutique ne se résume pas simplement à des compliments et à l’approbation de notre interlocuteur. Le thérapeute a aussi la capacité d’injecter des éléments qui peuvent déstabiliser et pousser son patient à évoluer, tout en ayant l’assurance de pouvoir le soutenir en cas de besoin. Cette dimension de la thérapie ne peut pas être reproduite par une IA. C’est ici qu’émerge la question de la responsabilité, car les erreurs potentielles de l’IA dans les conseils thérapeutiques pourraient bien sûr avoir de graves conséquences.

 

QQuel avenir pour l’IA en psychiatrie ?

Dans le domaine de la santé mentale, l’impact de l’IA suscite à la fois espoirs et interrogations. Selon Pierre Fourneret, si l’on surestime et fantasme largement l’impact actuel de l’IA, il est possible que l’on sous-estime son influence à long terme sur les pratiques en santé mentale. Alors que certaines applications existent déjà, les avancées technologiques exponentielles pourraient bientôt permettre des développements bien plus conséquents.

Quoi qu’il en soit, l’IA ouvre de nouvelles perspectives pour une meilleure compréhension des troubles mentaux et un soutien plus ciblé aux patients en souffrance psychique. Cette approche éclaire notre compréhension de l’esprit humain et inspire de nouvelles stratégies thérapeutiques. Pour Pierre Fourneret “l’intelligence artificielle peut aider à comprendre l’intelligence naturelle et, en retour, l’intelligence naturelle peut aider à améliorer la complexité et les algorithmes de traitement utilisés par les logiciels ou les robots.”

 

—————————————————————

Notes :

[1] L’IA s’appuie sur la logique des grands nombres et la notion de régression à la moyenne. Plus l’échantillon évalué est grand, plus la moyenne des réponses globales va se rapprocher de « la vérité », ou en tout cas du chiffre exact. C’est à partir de ces matrices que l’IA va inférer un pourcentage de risque ou une tendance diagnostique assortie d’un pourcentage de plausibilité.

PPour aller plus loin :

 

Transformer la prise en charge médicale grâce à l’Intelligence Artificielle : entretien avec Loïc Verlingue | #3 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

TTransformer la prise en charge médicale grâce à l’Intelligence Artificielle : entretien avec Loïc Verlingue | #3 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

Article #3 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervient

Alors que les avancées technologiques continuent de redéfinir la manière dont les professionnels de la santé prennent en charge les patients, l’IA s’insère de plus en plus dans la relation entre le patient et son médecin. Au cœur de cette transformation, Loïc Verlingue, médecin et chercheur au Centre Léon Bérard partage son expertise de l’IA dans le domaine des essais cliniques en cancérologie.

Un article de Léo Raimbault, rédigé
pour Pop’Sciences – 5 septembre 2023

 

Loïc Verlingue, en tant que médecin au Centre Léon Bérard, vous vous impliquez dans des projets liés à l’intelligence artificielle. Pouvez-vous nous en dire plus sur votre travail dans ce domaine et sur l’impact de l’IA dans la prise en charge médicale ?

Je suis médecin en recherche clinique et travaille en particulier sur les essais cliniques de phase précoce, c’est à dire des nouveaux médicaments qui sont proposés et évalués chez les patients. Généralement, en santé, les essais cliniques sont présentés à des personnes saines, volontaires, voire rémunérées, mais en cancérologie, ces essais sont directement proposés aux patients, c’est notre spécificité.

En plus de mes activités cliniques, je fais de la recherche en intelligence artificielle. Ici, nos données de travail sont les comptes rendus de consultation et médicaux engendrés au cours du suivi. En tant que médecin, je suis « générateur de données » puisque je génère ces comptes rendus à chaque consultation. Je suis également « utilisateur de ces données », car avec celles-ci, j’essaye de développer des outils d’IA pour m’aider dans mes tâches et celles de mes collègues.

Cela fait environ 4 ans que nous travaillons sur le dernier outil, que l’on nomme en anglais « Eligibility Prediction » pour prédiction d’éligibilité au essais cliniques en cancérologie. Pour l’instant, nous en sommes au stade de recherche et de développement, il n’y a pas encore d’outil commercialisé. Si on estime que les performances sont bonnes, nous pourrons commencer à l’utiliser pour sélectionner les patients qui sont le plus en adéquation avec tel ou tel essai clinique.

Un dossier médical (1) peut se composer de diverses sortes de données telles que de l’imagerie médicale (2), des variables clinique (constantes, données biologiques…) (3), de consultations (4), ou d’autres documents textuels (5). ©Centre Léon Bérard

Vous travaillez sur le Traitement Automatique du Langage (TAL), c’est-à-dire des outils d’interprétation et de synthèse automatique de textes reposant sur de l’intelligence artificielle. Quelle est concrètement l’application du TAL dans ces comptes rendus médicaux ?

Il y en a beaucoup, et de plus en plus. Aujourd’hui les outils de Traitement Automatique du Langage évoluent à grande vitesse. Nous avons désormais des modèles qui comprennent parfaitement le langage humain. Sur certaines tâches d’ailleurs, ils sont équivalents à l’humain, voire parfois un peu supérieurs. Concrètement, les outils de TAL sont capables de nous aider à trouver des réponses à des questions, à rechercher des informations dans des textes, à comprendre les émotions exprimées et même à anticiper des résultats en se basant sur des textes.

Par exemple, l’outil que nous développons relie les comptes rendus médicaux aux historiques des patients pour prédire s’ils peuvent être de potentiels candidats pour des essais cliniques. Sans IA, le choix d’éligibilité des patients à ces essais est bien plus long et fastidieux pour les médecins. Cela se décide lors de réunions hebdomadaires dans lesquelles nous consultons un nombre limité de dossiers de patients. Mais nous n’évaluons pas tous les patients d’un hôpital, ou d’hôpitaux environnants, car nous manquons de temps… Ainsi, avec des outils automatiques, nous pourrions lire beaucoup plus d’informations sur les patients, et ce, en seulement quelques secondes !

Toutefois, remplacer les médecins par de l’IA est hors de propos. Il y aura toujours une étape « humaine », ne serait-ce que pour s’assurer que les patients sont intéressés pour participer aux essais cliniques et que les critères de sélection sont respectés. C’est trop subtil pour laisser l’IA seule dans cette tâche, c’est pourquoi il faut tout valider manuellement, humainement.

« Le traitement automatique du langage naturel est un domaine multidisciplinaire impliquant la linguistique, l’informatique et l’intelligence artificielle. Il vise à créer des outils de capable d’interpréter et de synthétiser du texte pour diverses applications » – CNIL. ©Pexel

Vous travaillez avec les dossiers des patients, des informations très sensibles. L’IA pose-t-elle de nouvelles problématiques au niveau de la sécurité des données hospitalières ?

Nous travaillons à l’hôpital, donc avec des données très sensibles et sécurisées, stockées dans des bases de données internes aux hôpitaux. Évidemment, il y a de nombreuses contraintes réglementaires et sécuritaires pour accéder et installer des outils dans ces bases de données. Mais c’est faisable aujourd’hui.

Bien sûr, cela pose beaucoup de questions sur la sécurité des données… et heureusement ! De nouveaux outils appellent de nouvelles questions. Pendant une décennie, les dossiers patients sont passés à l’informatique sans vraiment être exploités. Cependant, ces deux dernières années, nous avons compris leur potentiel pour utiliser des outils automatiques. De fait, beaucoup de médecins et chercheurs se sont penchés sur le sujet pour accéder à ces données. Cela pose nécessairement la question de qui a le droit d’y accéder ? Sachant que le secret médical est un principe fondamental et que nous, médecins, n’avons pas le droit de divulguer les informations d’un patient.

Aujourd’hui, tout est fait pour que ce principe ne soit pas violé. Ce qui est donc compliqué, c’est de faire accéder un tiers à ces données. Peut-on laisser ce droit à une start-up ? Si oui, sous quelles conditions ? Le cas échéant, comment doivent être transformées les données pour qu’elles soient anonymisées ou non reconnaissables, etc. Et puis il y a encore d’autres défis à relever lorsqu’un outil de langage a lu des données… Je ne sais pas si on peut dire qu’il a accumulé des connaissances, mais dans tous les cas, il a eu connaissance d’informations sur la santé des patients…

Cela reste encore un peu flou, les règles de partage de ces outils sont en train d’être mises au point. Quoi qu’il en soit, il faut respecter un certain nombre de règles pour entraîner des modèles d’IA sans extraction d’informations non-contrôlée. Nous ne pouvons certainement pas demander à un outil d’IA le niveau de responsabilité d’un humain. En fin de compte, c’est dans les utilisateurs de cet outil que nous plaçons notre confiance.

 

Rencontrez-vous une certaine réticence de la part des patients vis-à-vis de l’IA ? Ces nouveaux outils sont encore relativement mal compris et peuvent représenter une menace dans l’inconscient collectif.

Tout dépend de comment on les utilise. Quand on explique à un patient que nous utilisons des outils un peu plus automatisés pour leur permettre un accès plus facile à l’innovation thérapeutique, c’est possible que certains y soient réfractaires. Mais la finalité reste positive pour le patient, et c’est généralement bien reçu. Après, nous prenons des mesures pour les informer sur l’utilisation de leurs données.

Par exemple, depuis environ sept ans dans mon hôpital, une information automatique circule auprès des patients concernant l’utilisation de leurs données, et ils ont tout à fait le droit de refuser que celles-ci soient utilisées. C’est un peu comme la stratégie des cookies sur Internet. Si le médecin n’obtient pas le consentement de son patient, il n’a tout simplement pas le droit d’utiliser ses données.

©Pexel

Et de la part des médecins, comment les nouveaux outils d’IA sont-ils perçus ?

Chez les médecins, ce n’est pas homogène évidemment. Oui, les choses ont beaucoup changé avec la médiatisation de l’IA. ChatGPT, qui fait beaucoup de bruit, a mis en lumière des domaines mal connus du Traitement Automatique du Langage. En fait, les gens, et principalement les médecins, ne connaissaient pas forcément ce domaine et avaient du mal à se projeter dans l’outil et en identifier l’utilité. Il y avait un gros travail d’explication et de vulgarisation à amorcer avant que les personnes de la profession puissent en capter l’intérêt appliqué à la santé. Aujourd’hui, beaucoup ont utilisé ChatGPT et en cernent mieux les intérêts et les limites.

Naturellement, comme dans tout métier dans lequel est appliquée l’IA, le premier réflexe est de se dire « un outil qui arrive à comprendre le langage ne va-t-il pas me remplacer à terme ? »… sachant que le métier de médecin est principalement basé sur la communication. On communique avec le patient, on acquiert de l’information, on fait des liens et on rend un diagnostic, puis une proposition de traitement… Mais il existe de nombreuses applications qui peuvent aider les praticiens dans l’exercice de la médecine.

Prenons un exemple caricatural : l’arrivée du thermomètre. Avant, les médecins étaient très forts pour estimer la température du patient rien qu’au toucher. Une fois le thermomètre apparu, ils ont perdu cette compétence, mais ils ont augmenté en précision pour cette application. Finalement, on augmente en niveau de connaissance avec ces nouveaux outils, donc on améliore nos compétences et notre pratique de la médecine, j’espère.

 

L’IA peut avoir de profondes implications dans la relation patient/médecin. L’IA se prêterait-elle à renouer du lien dans les déserts médicaux par exemple ?

La question des déserts médicaux est intéressante pour les applications numériques. Celles-ci ne sont pas la seule solution, évidemment, il y a besoin d’humains. D’ailleurs, je pense qu’il faut d’abord faire des efforts pour ramener des humains dans ces lieux et répondre aux besoins. Mais s’il existe des déserts médicaux, c’est qu’il y a des limites…

Une deuxième solution pourrait en effet reposer sur des outils numériques, comme les chatbots par exemple, qui permettent d’échanger de l’information avec les patients. Finalement, cela pose une autre question : est-ce que le patient peut se retrouver seul face à une machine dans un cadre médical ? Je pense que s’il n’y a pas de lien humain derrière pour personnaliser le diagnostic face à une liste de maladies potentielles, ce peut être extrêmement anxiogène pour un patient… En cela, il existe peut-être un danger à appliquer ces seules solutions numériques dans les déserts médicaux.

 

PPour aller plus loin