Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

Ressources

Biologie - santé / Lettres - langues - philosophie / Technologies - information - communication

Dossier

Pop'Sciences - Université de Lyon

UUne médecine revisitée à l’aune des algorithmes : Quelles questions éthiques soulève l’IA ? | #5 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

©Freepik

Article #5 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervient

Entre confiance aveugle et méfiance absolue, comment l’IA doit-elle être éthiquement acceptée et utilisée ? Comment s’affranchir de potentiels biais humains dans les systèmes d’IA utilisés à des fins de diagnostic, ou même thérapeutiques ? Autant de questions qui ne sont plus l’apanage de débats scientifiques, mais doivent être au cœur de débats politiques et sociétaux. Éclairage avec Mathieu Guillermin, physicien et philosophe, chercheur en éthique au sein de l’Unité de Recherche CONFLUENCE Sciences et Humanités (EA1598) de l’Institut Catholique de Lyon (UCLy) et coordinateur du projet international de recherche-action NHNAI qui vise à mettre les ressources des universités participantes au service de la réflexion éthique sociétale.

À l’heure où la médecine 4.0 1 est en marche, le dialogue avec la société s’impose afin de définir les limites dans l’adoption des technologies d’IA et le développement des interactions humains-machines. Les chercheurs, qui sont partie prenante, doivent jouer leur rôle de garde-fou, l’enjeu premier étant de démystifier l’IA, d’en faire comprendre les mécanismes et de la présenter comme une palette d’outils. “Aujourd’hui, la majorité des technologies d’IA s’appuie sur un apprentissage machine (ou machine learning)” rappelle Mathieu Guillermin, soulignant que l’on peut considérer celui-ci comme un apprentissage automatique pour la réalisation d’une tâche précise à partir de données fournies à l’IA.

 

Un article de Nathaly Mermet, journaliste scientifique, et Léo Raimbault, rédigé
pour Pop’Sciences – 5 septembre 2023

<Quelles promesses de l’IA ? … et quels réels enjeux éthiques ?

Les technologies d’IA sont susceptibles d’améliorer la qualité et l’efficacité aussi bien de la prise en charge des patients (diagnostics, pronostics, choix des stratégies thérapeutiques) que la recherche biomédicale. On parle alors de « precision medicine« , médecine de précision ou encore de médecine personnalisée.

Pour autant, “les techniques d’IA ne sont pas infaillibles et soulèvent de nombreux enjeux éthiques, dans le domaine de la santé certes, mais aussi plus largement” alerte Mathieu Guillermin. Par exemple, les logiciels produits par apprentissage automatique sont rarement « meilleurs » que ceux produits par un programmeur, même débutant. Ainsi, on ne peut encore se soustraire aux qualités de travail humaines, notamment en programmation. “Si l’IA est présentée comme quelque chose d’autonome et indépendant de l’intelligence humaine, on égare beaucoup de monde” prévient Mathieu Guillermin.

<Les enjeux éthiques sont donc de natures variées !

Au-delà de la programmation, l’IA répète les schémas présents dans les bases de données d’apprentissages. Par conséquent, si les bases de données servant à guider l’apprentissage sont biaisées, incomplètes ou non représentatives, les prédictions de l’IA seront… d’aussi mauvaise qualité. Or, en médecine, une base de données ne peut être exhaustive et représenter fidèlement la réalité. Par exemple, si une certaine catégorie de personnes est sous-représentée dans les bases de données d’apprentissages, alors l’IA aura bien plus de mal à faire des prédictions correctes pour cette population et génère, de fait, « des biais discriminant injustement ce type de personnes » selon Mathieu Guillermin.

Enfin, “même quand il n’y a pas de discrimination ou de biais, que le niveau de performance est bon, tout n’est pas encore résolu au niveau éthique” examine Mathieu Guillermin. Dans le contexte de l’automatisation des tâches, la substitution d’un être humain, doté d’émotions, de réflexion, de jugement et parfois sujet à l’erreur, par un logiciel qui opère de manière mécanique, ne peut être considérée comme une démarche anodine. La capacité de ces technologies à égaler, voire à surpasser les compétences humaines dans certaines missions soulève des interrogations essentielles en matière d’éthique.

<Comment définir les limites éthiques ?

Promettant de compléter la précision des professionnels de la santé, l’utilisation de l’IA nécessite donc de définir le niveau d’acceptabilité de l’erreur et la responsabilité morale. L’exploration d’un “Nouvel Humanisme à l’Heure des Neurosciences et de l’Intelligence Artificielle” (NHNAI), telle est l’ambition d’un vaste projet international réunissant les universités catholiques de 9 pays 2, dont celle de Lyon : l’UCLy. “À l’origine, la volonté est d’amener la société dans une réflexion éthique autour des neurosciences et de l’intelligence artificielle, et le projet s’inspire de ce que nous faisions déjà en éthique embarquée 3, c’est-à-dire d’amener et animer la réflexion éthique au sein des projets de recherche” explique Mathieu Guillermin.

Le projet du NHNAI cherche ainsi à définir un nouvel humanisme qui embrasserait les avancées technologiques, dont l’IA, tout en préservant les valeurs essentielles de dignité, de liberté et de responsabilité humaine. Il aspire à guider la société vers un avenir où la symbiose entre la technologie et l’humanité s’inscrit dans une perspective éthique et sociale claire.

Alors que l’IA progresse rapidement, il est essentiel de ne pas perdre de vue les valeurs et les préoccupations humaines. À ce titre, le projet remet l’humain au centre des problématiques liées aux nouvelles technologies. Il invite donc non seulement les chercheurs de toutes disciplines, mais également les citoyens à se joindre à la discussion et au débat. Tout un chacun ayant désormais accès à des outils IA à porter de clic (citons ChatGPT), les décisions concernant l’IA ne peuvent se réfléchir uniquement entre experts, mais doivent également refléter les valeurs, les préoccupations et les opinions de la société dans son ensemble.

<Une intelligence artificielle peut-elle être vraiment… intelligente ?

Objet d’un réel engouement médiatique, fascination pour les uns et inquiétude pour d’autres, l’IA est un terme de plus en plus galvaudé, or tout n’est pas Intelligence Artificielle. Alors que le terme “intelligence” désigne initialement une faculté cognitive humaine (ou du moins animale), l’apposition au qualificatif “artificiel” semble antinomique, voire un non-sens. Mais comment apprécier objectivement l’intelligence ? C’est une réflexion qui nous renvoie à un questionnement métaphysique concernant notre existence humaine. “La sémantique obscurcit le débat, mais reste qu’avec les technologies d’IA, le traitement d’information conscient, humain, est remplacé par le traitement d’information automatique” résume Mathieu Guillermin, ce qui en matière de santé mérite toute notre attention.

Considérée comme un algorithme apprenant, conçu par un humain, l’IA reste un outil dont la performance est liée à celle de son concepteur. En revanche, le questionnement est plus ardu dès lors que la performance de l’IA dépasse la performance humaine. In fine, une machine peut-elle avoir un pouvoir de décision ?

En santé, “La réelle question est de savoir comment la modélisation mathématique peut accompagner chacune des trois dimensions du rôle du médecin que sont le diagnostic, le suivi de l’efficacité thérapeutique et le pronostic, en particulier dans le cas de pathologies graves” pointe Pascal Roy, médecin et chercheur en biostatistiques au sein du Laboratoire Biologie Biométrie Evolutive (LBBE) à Villeurbanne (CNRS, Université Claude Bernard Lyon 1, VetAgro Sup). L’IA ne peut donc rester qu’un outil aidant à préciser ou accélérer l’expertise des médecins.

<L’IA est un outil, mais pas une finalité

Mathieu Guillermin nous rappelle l’importance de prendre en compte les questions éthiques dès le début du processus de création d’une IA par les développeurs. En effet, si le code de programmation est mal conçu ou si les exemples utilisés pour entraîner l’IA ne sont pas représentatifs, biaisant l’outil, les résultats de celle-ci seront peu fiables.

« Avoir un esprit ne semble entretenir que peut de liens avec le fait d’exécuter un programme » explique-t-il, faisant référence au philosophe américain John Searle et à sa célèbre expérience de pensée dite « de la chambre chinoise ». L’expérience de Searle vise à démontrer que l’intelligence artificielle est limitée à être une forme d’intelligence artificielle faible et qu’elle est uniquement capable de simuler la conscience, sans être capable de véritables états mentaux, de conscience et d’intentionnalité. En d’autres termes : pour obtenir des résultats fiables et éthiques avec l’IA, c’est à l’Humain de s’assurer que le processus de conception et de formation de l’IA est bien pensé dès le départ pour éviter les biais et les problèmes éthiques ultérieurs. Il faut mettre du sens derrière l’outil.

LLes biais de l’IA : quand l’esprit humain plane sur les données

Extrait de la table ronde « IA et santé » organisée par Pop’Sciences le 26 juin 2023. Un rendez-vous professionnel chercheur / journaliste, développé en collaboration avec le Club de la presse de Lyon (Projet LYSiERES²).

—————————————————————

Notes :

[1] La « Médecine 4.0 » combine l’électronique, les technologies de l’information et de la communication et les microsystèmes dans une médecine moderne. Les progrès électroniques des cent dernières années ont apporté d’énormes contributions à la recherche médicale et au développement de nouveaux procédés thérapeutiques. Ainsi, les capteurs intelligents dotés d’interfaces radio appropriées permettront de relier entre eux les processus diagnostiques et thérapeutiques en médecine, rendant possible le développement de toutes nouvelles formes de traitements. Cette nouvelle « médecine 4.0 » intègre les progrès acquis grâce à la fusion de la technologie des micro-capteurs, de la microélectronique et des technologies de l’information et de la communication, au service d’applications pratiques dans de multiples aires thérapeutiques (chimiothérapie personnalisée, entre autres). La moyenne d’âge des médecins étant actuellement supérieure à 50 ans, le renouvellement par une génération « Digital Native » interviendra d’ici 15 ans, ce qui permettra certainement de transformer l’essai de la médecine 4.0.

[2] Belgique, Chili, États-Unis, France, Italie, Kenya, Portugal, Québec, Taïwan

[3] L’éthique embarquée désigne l’intégration de principes éthiques et de considérations morales directement dans le développement et le fonctionnement de technologies, notamment des systèmes d’intelligence artificielle et des dispositifs autonomes. Cela vise à garantir que ces technologies agissent de manière conforme à des normes éthiques prédéfinies, comme la sécurité, la transparence, la responsabilité, et le respect des droits de l’homme, tout en minimisant les risques liés à des comportements non éthiques.

PPour aller plus loin