Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences. Le site est en cours de maintenance : il peut apparaître des défauts d'affichage pendant quelques jours. Nous vous remercions pour votre patience et compréhension.

EN SAVOIR PLUS

Diagnostic 2.0 : quand l’Intelligence Artificielle intervient | Un dossier Pop’Sciences

DDiagnostic 2.0 : quand l’Intelligence Artificielle intervient | Un dossier Pop’Sciences

Pour son dossier consacré aux nouvelles applications de l’Intelligence Artificielle (IA) à la santé, Pop’Sciences est allé à la rencontre des scientifiques et professionnels de la santé de la région Lyon Saint-Étienne pour mieux comprendre ce que ces nouvelles technologies peuvent apporter (ou pas) à la médecine, notamment en termes de diagnostic…

L’IA tend à se démocratiser dans de multiples domaines professionnels, dont ceux de la santé. Entre espoirs, fantasmes, peurs et applications réelles, cette nouvelle assistance nécessite aujourd’hui d’être mieux décryptée tant auprès des médecins que de leurs patients. Pop’Sciences vous propose de revenir sur quelques applications concrètes pour comprendre ce que l’IA, et ses capacités de calcul, peut faire pour aider les professionnels de la santé dans le diagnostic de la santé mentale, pour fluidifier la prise en charge des patients ou pour apporter toujours plus de précisions en imagerie médicale… mais aussi d’en percevoir les limites, car elle est encore loin de remplacer votre médecin.

 Les articles du dossier

©Freepik

Dans un monde en constante évolution, les chercheurs et médecins se tournent vers l’intelligence artificielle (IA) pour les aider dans la pratique médicale. Pop’Sciences vous dévoile les coulisses du processus de création d’une IA prête au diagnostic, une innovation qui repose sur la précision de la consultation médicale, la richesse des bases de données, et l’entraînement minutieux de modèles IA. En somme, quelle est la recette pour une bonne IA appliquée au diagnostic médical ?

 

Image générée par IA (Dall-E) ©Pop’Sciences

Se classant au deuxième rang des causes de mortalité en France après les accidents cardiovasculaires, les troubles liés à la santé mentale sont aujourd’hui une préoccupation majeure en termes de santé publique. Dans cette quête du « mieux prévenir pour mieux guérir », l’intelligence artificielle (IA) pourrait s’imposer comme un précieux allié dans le diagnostic des troubles mentaux.

 

 

Imagé générée par IA (Dall-E) ©Pop’Sciences

Alors que les avancées technologiques continuent de redéfinir la manière dont les professionnels de la santé prennent en charge les patients, l’IA s’insère de plus en plus dans la relation entre le patient et son médecin. Au cœur de cette transformation, Loïc Verlingue, médecin et chercheur au Centre Léon Bérard partage son expertise de l’IA dans le domaine des essais cliniques en cancérologie.

 

 

©Pexel

Améliorer l’interprétation de l’imagerie médicale (IM) pour en optimiser l’exploitation est au cœur des enjeux de l’intelligence artificielle (IA) au service de l’IM. L’IA n’est plus “seulement” un domaine de recherche en plein essor… mais ses utilisations en sont multiples.  Objectifs affichés : augmenter la précision du diagnostic afin d’améliorer la prise en charge thérapeutique, en évitant les erreurs potentiellement lourdes de conséquences. La guerre des algorithmes est ouverte pour aller toujours plus loin !

 

©Freepik

Entre confiance aveugle et méfiance absolue, comment l’IA doit-elle être éthiquement acceptée et utilisée ? Comment s’affranchir de potentiels biais humains dans les systèmes d’IA utilisés à des fins de diagnostic, ou même thérapeutiques ? Autant de questions qui ne sont plus l’apanage de débats scientifiques, mais doivent être au cœur de débats politiques et sociétaux.

 

 

©Freepik

Dans cette série de questions et réponses, les étudiants de première année du cycle d’ingénieur de l’EPITA, école d’ingénierie informatique, répondent à nos questions concernant l’IA. A-t-elle toujours raison ? Peut-elle développer des sentiments ? Ou, est-elle capable de réelles créations ? Les étudiants nous éclairent.

 

 

 

—————————————————————

MMerci !

Ce dossier a été réalisé grâce à la collaboration de chercheurs et médecins du bassin de recherche Lyon Saint-Étienne :

Ainsi qu’avec la participation de :

  • Maëlle Moranges, docteure en neuroinformatique, apportant son expertise de l’IA en tant que référente sur ce dossier
  • Pascal Roy, chercheur en biostatistique au Laboratoire de Biométrie et Biologie Évolutive – LBBE (Université Claude Bernard Lyon 1) et praticien hospitalier aux Hospices Civils de Lyon. Intervenu lors des rendez-vous professionnels LYSiERES² : « L’intelligence artificielle peut-elle remplacer le médecin ? »
  • Antoine Coutrot, chercheur en neurosciences computationnelles, cognitives et comportementales au Laboratoire d’Informatique en Image et Systèmes d’information – LIRIS (CNRS, INSA Lyon, Université Claude Bernard Lyon 1, Université Lumière Lyon 2, École centrale Lyon). Intervenu lors des rendez-vous professionnels LYSiERES² : « L’intelligence artificielle peut-elle remplacer le médecin ? »
  • Les étudiants de première année du cycle d’ingénieur de l’École pour l’Informatique et les Techniques Avancées (EPITA) : Léo Arpin, Adrien Guinard, Arthur De Sousa, Raphaël Hatte, Pierre Raimondi, Maui Tadeja, Mehdi Ismaili, Gregoire Vest, Emil Toulouse, Todd Tavernier, Remi Decourcelle, Paul Gravejal, Aymen Gassem, Sandro Ferroni, Nathan Goetschy, Rémi Jeulin, Clovis Lechien, Garice Morin, Alice Cariou et Eliana Junker

Nous les remercions pour le temps qu’ils nous ont accordé.

Un dossier rédigé par :

  • Léo Raimbault, étudiant en Master 2 Information et Médiation Scientifique et Technique (IMST) à l’Université Claude Bernard Lyon 1, en contrat d’apprentissage à Pop’Sciences – (Introduction, articles #1, #2, #3 et co-écriture des articles #5 et #6)
  • Nathaly Mermet, journaliste scientifique – (Articles #4 et #5)

L’Intelligence Artificielle en santé : du médecin à l’algorithme | #1 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

LL’Intelligence Artificielle en santé : du médecin à l’algorithme | #1 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

Article #1 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervient

Dans un monde en constante évolution, les chercheurs et médecins se tournent vers l’intelligence artificielle (IA) pour les aider dans la pratique médicale. Pop’Sciences vous dévoile les coulisses du processus de création d’une IA prête au diagnostic, une innovation qui repose sur la précision de la consultation médicale, la richesse des bases de données, et l’entraînement minutieux de modèles IA. En somme, quelle est la recette pour une bonne IA appliquée au diagnostic médical ?

  Quel est le rôle du médecin ? Qu’est-ce que l’IA ?

Extrait de la table ronde « IA et santé » organisée par Pop’Sciences le 26 juin 2023. Un rendez-vous professionnel chercheur / journaliste, développé en collaboration avec le Club de la presse de Lyon (Projet LYSiERES²).

L’Intelligence Artificielle, notre futur psychiatre ? | #2 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

LL’Intelligence Artificielle, notre futur psychiatre ? | #2 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

Article #2 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervient

Se classant au deuxième rang des causes de mortalité en France après les accidents cardiovasculaires, les troubles liés à la santé mentale sont aujourd’hui une préoccupation majeure en termes de santé publique. Dans cette quête du « mieux prévenir pour mieux guérir », l’intelligence artificielle (IA) pourrait s’imposer comme un précieux allié dans le diagnostic des troubles mentaux.

En analysant de vastes quantités de données, collectées auprès des patients et issues de la recherche médicale, l’IA serait capable d’identifier des modèles, des tendances et des corrélations qui soutiennent les médecins dans leurs efforts pour diagnostiquer et traiter ces troubles. Elle suscite pourtant de vifs fantasmes vis-à-vis de ses capacités en psychiatrie, qu’en est-il vraiment ?

Un article de Léo Raimbault, rédigé
pour Pop’Sciences – 5 septembre 2023

 

LLa complexité du diagnostic en psychiatrie

Image générée par IA (Dall-E) ©Pop’Sciences

Le diagnostic en santé mentale repose sur des symptômes exprimés par les patients lors d’entretiens avec leur psychiatre. La psychiatrie étant une discipline clinique, elle s’appuie sur des signes objectifs (comportementaux et verbaux) perçus chez le patient, mais également sur les ressentis subjectifs du psychiatre dans son interaction avec le patient. Au cours de discussions avec son patient, le psychiatre identifie la nature des symptômes qu’il rapporte au « pattern » (ensembles de symptômes signatures) d’un trouble.

Or, un diagnostic en psychiatrie ne s’établit pas uniquement par la discussion. Le psychiatre peut repérer des indices du trouble psychique qu’exprime son patient par des signaux paraverbaux, des signaux qui excluent l’expression orale ou verbale. Ce sont, par exemple, la gestuelle, les expressions du visage ou le ton de la voix. Grâce à ces données, il synthétise et relie les informations, des connexions s’établissent et le diagnostic s’affine.

 

LLes apports de l’IA en psychométrie

Mais que peut apporter l’IA, reine des mathématiques appliquées, au diagnostic en psychiatrie clinique ? Alors que les professionnels de la santé disposent de leur raisonnement subjectif pour démêler la complexité de la psyché humaine, les modèles d’IA, notamment les réseaux de neurones, peinent encore à déduire des liens statistiques plausibles entre des symptômes donnés et un trouble psychique précis.

Malgré ces limites, les modèles d’IA représentent des outils précieux pour le diagnostic en santé mentale à plusieurs niveaux. Les questionnaires de psychométrie, par exemple, permettent de mesurer et d’évaluer différents aspects de l’état mental d’un patient. Il s’agit d’un ensemble de questions standardisées auxquelles répondent les patients, portant sur leurs émotions, leurs relations sociales, leurs comportements, leurs pensées… Les réponses à ces questionnaires fournissent aux psychiatres des informations essentielles. D’une part, elles permettent d’éclairer sur l’état du patient, et, d’autre part, elles aident à une meilleure compréhension des troubles mentaux en identifiant des schémas généraux. Or, l’analyse de ces documents requiert un investissement de temps considérable de la part des professionnels de la santé mentale.

De plus, la complexité du comportement humain rend difficile l’utilisation d’une approche catégorielle (oui/non) pour évaluer les symptômes, surtout chez les enfants dont la psyché, en pleine évolution, n’est pas aussi stabilisée que celle des adultes. Pourtant, la précision de ces questionnaires est cruciale pour fournir des éléments complémentaires aux diagnostics et favoriser des accompagnements efficaces. En générant des descriptions de plus en plus précises des symptômes, on peut diagnostiquer plus vite et améliorer la qualité de l’accompagnement des familles et limiter l’impact des troubles sur le développement et la construction de la personnalité chez les enfants. Une intervention précoce et précise est donc essentielle pour offrir de meilleures trajectoires évolutives aux enfants présentant ce type de troubles.

Et c’est bien là sa qualité première : l’IA peut brasser des quantités phénoménales de données en un temps réduit. Les modèles peuvent désormais analyser en masse des questionnaires de psychométrie à une vitesse fulgurante, permettant de déterminer avec précision des patterns associés à différents troubles psychologiques. En identifiant des patterns comportementaux récurrents pour un trouble, les algorithmes d’IA offrent une quantification et une modélisation précieuses, apportant une objectivité nouvelle à leur compréhension.

 

Image générée par IA ©Pop’Sciences

LL’IA, une révolution en psychiatrie ?

Pierre Fourneret, pédopsychiatre et chef du service Psychopathologie du développement de l’enfant et de l’adolescent à l’Hôpital Femme Mère Enfant (Hospices Civils de Lyon), nous rappelle que si l’IA sort son épingle du jeu pour définir des patterns à grande échelle, s’appuyant sur la logique des grands nombres [1], il en va tout autrement à l’échelle individuelle. Quand une population entière est aisément prédictible, l’individu est bien plus aléatoire et incertain. De fait, si en psychiatrie les outils d’IA peuvent prédire des comportements, voir des diagnostics à grande échelle, ils ne donnent qu’un pourcentage de risque et peinent encore à prédire au-delà de 50 à 60% le comportement individuel et les risques qu’un patient pourrait prendre pour sa sécurité et celle d’autrui.

Bien loin de remplacer les psychiatres en raison de sa nature artificielle, l’IA se présente néanmoins comme un atout précieux : en identifiant des modèles comportementaux et en offrant des outils d’analyse avancés, elle vient compléter l’intelligence naturelle des cliniciens. Cependant, nous devons rester vigilants quant à son utilisation éthique et responsable. L’IA ne remplace pas l’empathie et la chaleur humaine dans la relation thérapeutique… quoique les “chatbots” fassent des pas de géants dans ce domaine. Certains pays, notamment en Asie, utilisent déjà des agents conversationnels « intelligents » qui offrent un support émotionnel et empathique. Cette approche soulève des questions quant à l’authenticité du soutien reçu, car il est facile de prêter à ces rois de l’imitation du langage humain, une âme, une humanité, voire de réelles compétences psychiatriques. Bien que cela puisse avoir ses avantages, il s’agit davantage d’un soutien conversationnel, d’un beau miroir confortant son interlocuteur que d’une réelle thérapie. Comme souvent, l’IA ne peut être l’unique solution, mais un outil.

Une relation thérapeutique ne se résume pas simplement à des compliments et à l’approbation de notre interlocuteur. Le thérapeute a aussi la capacité d’injecter des éléments qui peuvent déstabiliser et pousser son patient à évoluer, tout en ayant l’assurance de pouvoir le soutenir en cas de besoin. Cette dimension de la thérapie ne peut pas être reproduite par une IA. C’est ici qu’émerge la question de la responsabilité, car les erreurs potentielles de l’IA dans les conseils thérapeutiques pourraient bien sûr avoir de graves conséquences.

 

QQuel avenir pour l’IA en psychiatrie ?

Dans le domaine de la santé mentale, l’impact de l’IA suscite à la fois espoirs et interrogations. Selon Pierre Fourneret, si l’on surestime et fantasme largement l’impact actuel de l’IA, il est possible que l’on sous-estime son influence à long terme sur les pratiques en santé mentale. Alors que certaines applications existent déjà, les avancées technologiques exponentielles pourraient bientôt permettre des développements bien plus conséquents.

Quoi qu’il en soit, l’IA ouvre de nouvelles perspectives pour une meilleure compréhension des troubles mentaux et un soutien plus ciblé aux patients en souffrance psychique. Cette approche éclaire notre compréhension de l’esprit humain et inspire de nouvelles stratégies thérapeutiques. Pour Pierre Fourneret “l’intelligence artificielle peut aider à comprendre l’intelligence naturelle et, en retour, l’intelligence naturelle peut aider à améliorer la complexité et les algorithmes de traitement utilisés par les logiciels ou les robots.”

 

—————————————————————

Notes :

[1] L’IA s’appuie sur la logique des grands nombres et la notion de régression à la moyenne. Plus l’échantillon évalué est grand, plus la moyenne des réponses globales va se rapprocher de « la vérité », ou en tout cas du chiffre exact. C’est à partir de ces matrices que l’IA va inférer un pourcentage de risque ou une tendance diagnostique assortie d’un pourcentage de plausibilité.

PPour aller plus loin :

 

Transformer la prise en charge médicale grâce à l’Intelligence Artificielle : entretien avec Loïc Verlingue | #3 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

TTransformer la prise en charge médicale grâce à l’Intelligence Artificielle : entretien avec Loïc Verlingue | #3 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

Article #3 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervient

Alors que les avancées technologiques continuent de redéfinir la manière dont les professionnels de la santé prennent en charge les patients, l’IA s’insère de plus en plus dans la relation entre le patient et son médecin. Au cœur de cette transformation, Loïc Verlingue, médecin et chercheur au Centre Léon Bérard partage son expertise de l’IA dans le domaine des essais cliniques en cancérologie.

Un article de Léo Raimbault, rédigé
pour Pop’Sciences – 5 septembre 2023

 

Loïc Verlingue, en tant que médecin au Centre Léon Bérard, vous vous impliquez dans des projets liés à l’intelligence artificielle. Pouvez-vous nous en dire plus sur votre travail dans ce domaine et sur l’impact de l’IA dans la prise en charge médicale ?

Je suis médecin en recherche clinique et travaille en particulier sur les essais cliniques de phase précoce, c’est à dire des nouveaux médicaments qui sont proposés et évalués chez les patients. Généralement, en santé, les essais cliniques sont présentés à des personnes saines, volontaires, voire rémunérées, mais en cancérologie, ces essais sont directement proposés aux patients, c’est notre spécificité.

En plus de mes activités cliniques, je fais de la recherche en intelligence artificielle. Ici, nos données de travail sont les comptes rendus de consultation et médicaux engendrés au cours du suivi. En tant que médecin, je suis « générateur de données » puisque je génère ces comptes rendus à chaque consultation. Je suis également « utilisateur de ces données », car avec celles-ci, j’essaye de développer des outils d’IA pour m’aider dans mes tâches et celles de mes collègues.

Cela fait environ 4 ans que nous travaillons sur le dernier outil, que l’on nomme en anglais « Eligibility Prediction » pour prédiction d’éligibilité au essais cliniques en cancérologie. Pour l’instant, nous en sommes au stade de recherche et de développement, il n’y a pas encore d’outil commercialisé. Si on estime que les performances sont bonnes, nous pourrons commencer à l’utiliser pour sélectionner les patients qui sont le plus en adéquation avec tel ou tel essai clinique.

Un dossier médical (1) peut se composer de diverses sortes de données telles que de l’imagerie médicale (2), des variables clinique (constantes, données biologiques…) (3), de consultations (4), ou d’autres documents textuels (5). ©Centre Léon Bérard

Vous travaillez sur le Traitement Automatique du Langage (TAL), c’est-à-dire des outils d’interprétation et de synthèse automatique de textes reposant sur de l’intelligence artificielle. Quelle est concrètement l’application du TAL dans ces comptes rendus médicaux ?

Il y en a beaucoup, et de plus en plus. Aujourd’hui les outils de Traitement Automatique du Langage évoluent à grande vitesse. Nous avons désormais des modèles qui comprennent parfaitement le langage humain. Sur certaines tâches d’ailleurs, ils sont équivalents à l’humain, voire parfois un peu supérieurs. Concrètement, les outils de TAL sont capables de nous aider à trouver des réponses à des questions, à rechercher des informations dans des textes, à comprendre les émotions exprimées et même à anticiper des résultats en se basant sur des textes.

Par exemple, l’outil que nous développons relie les comptes rendus médicaux aux historiques des patients pour prédire s’ils peuvent être de potentiels candidats pour des essais cliniques. Sans IA, le choix d’éligibilité des patients à ces essais est bien plus long et fastidieux pour les médecins. Cela se décide lors de réunions hebdomadaires dans lesquelles nous consultons un nombre limité de dossiers de patients. Mais nous n’évaluons pas tous les patients d’un hôpital, ou d’hôpitaux environnants, car nous manquons de temps… Ainsi, avec des outils automatiques, nous pourrions lire beaucoup plus d’informations sur les patients, et ce, en seulement quelques secondes !

Toutefois, remplacer les médecins par de l’IA est hors de propos. Il y aura toujours une étape « humaine », ne serait-ce que pour s’assurer que les patients sont intéressés pour participer aux essais cliniques et que les critères de sélection sont respectés. C’est trop subtil pour laisser l’IA seule dans cette tâche, c’est pourquoi il faut tout valider manuellement, humainement.

« Le traitement automatique du langage naturel est un domaine multidisciplinaire impliquant la linguistique, l’informatique et l’intelligence artificielle. Il vise à créer des outils de capable d’interpréter et de synthétiser du texte pour diverses applications » – CNIL. ©Pexel

Vous travaillez avec les dossiers des patients, des informations très sensibles. L’IA pose-t-elle de nouvelles problématiques au niveau de la sécurité des données hospitalières ?

Nous travaillons à l’hôpital, donc avec des données très sensibles et sécurisées, stockées dans des bases de données internes aux hôpitaux. Évidemment, il y a de nombreuses contraintes réglementaires et sécuritaires pour accéder et installer des outils dans ces bases de données. Mais c’est faisable aujourd’hui.

Bien sûr, cela pose beaucoup de questions sur la sécurité des données… et heureusement ! De nouveaux outils appellent de nouvelles questions. Pendant une décennie, les dossiers patients sont passés à l’informatique sans vraiment être exploités. Cependant, ces deux dernières années, nous avons compris leur potentiel pour utiliser des outils automatiques. De fait, beaucoup de médecins et chercheurs se sont penchés sur le sujet pour accéder à ces données. Cela pose nécessairement la question de qui a le droit d’y accéder ? Sachant que le secret médical est un principe fondamental et que nous, médecins, n’avons pas le droit de divulguer les informations d’un patient.

Aujourd’hui, tout est fait pour que ce principe ne soit pas violé. Ce qui est donc compliqué, c’est de faire accéder un tiers à ces données. Peut-on laisser ce droit à une start-up ? Si oui, sous quelles conditions ? Le cas échéant, comment doivent être transformées les données pour qu’elles soient anonymisées ou non reconnaissables, etc. Et puis il y a encore d’autres défis à relever lorsqu’un outil de langage a lu des données… Je ne sais pas si on peut dire qu’il a accumulé des connaissances, mais dans tous les cas, il a eu connaissance d’informations sur la santé des patients…

Cela reste encore un peu flou, les règles de partage de ces outils sont en train d’être mises au point. Quoi qu’il en soit, il faut respecter un certain nombre de règles pour entraîner des modèles d’IA sans extraction d’informations non-contrôlée. Nous ne pouvons certainement pas demander à un outil d’IA le niveau de responsabilité d’un humain. En fin de compte, c’est dans les utilisateurs de cet outil que nous plaçons notre confiance.

 

Rencontrez-vous une certaine réticence de la part des patients vis-à-vis de l’IA ? Ces nouveaux outils sont encore relativement mal compris et peuvent représenter une menace dans l’inconscient collectif.

Tout dépend de comment on les utilise. Quand on explique à un patient que nous utilisons des outils un peu plus automatisés pour leur permettre un accès plus facile à l’innovation thérapeutique, c’est possible que certains y soient réfractaires. Mais la finalité reste positive pour le patient, et c’est généralement bien reçu. Après, nous prenons des mesures pour les informer sur l’utilisation de leurs données.

Par exemple, depuis environ sept ans dans mon hôpital, une information automatique circule auprès des patients concernant l’utilisation de leurs données, et ils ont tout à fait le droit de refuser que celles-ci soient utilisées. C’est un peu comme la stratégie des cookies sur Internet. Si le médecin n’obtient pas le consentement de son patient, il n’a tout simplement pas le droit d’utiliser ses données.

©Pexel

Et de la part des médecins, comment les nouveaux outils d’IA sont-ils perçus ?

Chez les médecins, ce n’est pas homogène évidemment. Oui, les choses ont beaucoup changé avec la médiatisation de l’IA. ChatGPT, qui fait beaucoup de bruit, a mis en lumière des domaines mal connus du Traitement Automatique du Langage. En fait, les gens, et principalement les médecins, ne connaissaient pas forcément ce domaine et avaient du mal à se projeter dans l’outil et en identifier l’utilité. Il y avait un gros travail d’explication et de vulgarisation à amorcer avant que les personnes de la profession puissent en capter l’intérêt appliqué à la santé. Aujourd’hui, beaucoup ont utilisé ChatGPT et en cernent mieux les intérêts et les limites.

Naturellement, comme dans tout métier dans lequel est appliquée l’IA, le premier réflexe est de se dire « un outil qui arrive à comprendre le langage ne va-t-il pas me remplacer à terme ? »… sachant que le métier de médecin est principalement basé sur la communication. On communique avec le patient, on acquiert de l’information, on fait des liens et on rend un diagnostic, puis une proposition de traitement… Mais il existe de nombreuses applications qui peuvent aider les praticiens dans l’exercice de la médecine.

Prenons un exemple caricatural : l’arrivée du thermomètre. Avant, les médecins étaient très forts pour estimer la température du patient rien qu’au toucher. Une fois le thermomètre apparu, ils ont perdu cette compétence, mais ils ont augmenté en précision pour cette application. Finalement, on augmente en niveau de connaissance avec ces nouveaux outils, donc on améliore nos compétences et notre pratique de la médecine, j’espère.

 

L’IA peut avoir de profondes implications dans la relation patient/médecin. L’IA se prêterait-elle à renouer du lien dans les déserts médicaux par exemple ?

La question des déserts médicaux est intéressante pour les applications numériques. Celles-ci ne sont pas la seule solution, évidemment, il y a besoin d’humains. D’ailleurs, je pense qu’il faut d’abord faire des efforts pour ramener des humains dans ces lieux et répondre aux besoins. Mais s’il existe des déserts médicaux, c’est qu’il y a des limites…

Une deuxième solution pourrait en effet reposer sur des outils numériques, comme les chatbots par exemple, qui permettent d’échanger de l’information avec les patients. Finalement, cela pose une autre question : est-ce que le patient peut se retrouver seul face à une machine dans un cadre médical ? Je pense que s’il n’y a pas de lien humain derrière pour personnaliser le diagnostic face à une liste de maladies potentielles, ce peut être extrêmement anxiogène pour un patient… En cela, il existe peut-être un danger à appliquer ces seules solutions numériques dans les déserts médicaux.

 

PPour aller plus loin

 

L’Intelligence artificielle au service de l’imagerie médicale : Des apports majeurs | #4 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

LL’Intelligence artificielle au service de l’imagerie médicale : Des apports majeurs | #4 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

Article #4 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervient

Améliorer l’interprétation de l’imagerie médicale (IM) pour en optimiser l’exploitation est au cœur des enjeux de l’intelligence artificielle (IA). L’IA n’est plus “seulement” un domaine de recherche en plein essor et ses applications en sont, aujourd’hui, multiples.  Objectifs affichés : augmenter la précision du diagnostic afin d’améliorer la prise en charge thérapeutique, en évitant les erreurs potentiellement lourdes de conséquences. La guerre des algorithmes est ouverte pour aller toujours plus loin !

Un article de Nathaly Mermet, journaliste scientifique, rédigé
pour Pop’Sciences – 5 septembre 2023

 

Améliorer l’interprétation de l’imagerie médicale pour en optimiser l’exploitation est au cœur des enjeux de l’intelligence artificielle ©Unsplash

 

Initialement réservée au diagnostic des fractures des os, l’imagerie médicale a bénéficié d’avancées majeures dans l’ensemble des domaines thérapeutiques. Aujourd’hui, cette spécialité comprend la radiologie diagnostique (radiographies, scanners, IRM, échographie) et la radiologie interventionnelle, à savoir une forme de chirurgie mini-invasive qui utilise l’imagerie pour se repérer, comme pour déboucher une artère en cas d’AVC (accident vasculaire cérébral).

L’imagerie fonctionnelle en est le dernier exemple. Encore émergente et faisant l’objet de projets de recherche, elle vise à révéler les propriétés d’une zone étudiée, notamment sa fonctionnalité (par IRM, Rayons X…) ou à restituer des informations fonctionnelles (par TEP, IRM Fonctionnelle…).

“ L’IA d’aujourd’hui n’est pas la même que celle d’il y a 10 ans, et également différente de celle dont on disposera dans 10 ans” souligne le Dr Alexandre Nérot, médecin radiologue issu de l’Université de Lyon, spécialiste de radiologie interventionnelle et auteur d’une thèse d’exercice sur l’IA (développement d’intelligences artificielles par réseau de neurones). Actuellement en activité au Centre Hospitalier d’Annecy, il nous indique qu’en radiologie, l’usage de l’IA pour l’analyse d’image est attendu et à la fois craint depuis la révolution technologique qu’elle a généré en 2012. “L’évolution se fait par marche, déclenchant à chaque fois des développements de manière exponentielle, mais l’IA actuelle reste un outil et est encore loin de remplacer le radiologue” déclare-t-il, indiquant que si un jour la radiologie venait à être renversée par l’IA alors le problème sera sociétal et pas uniquement cantonné à la radiologie.

En pratique, “l’intérêt, déjà énorme, de l’IA en imagerie médicale est double : elle permet à la fois l’analyse des images, mais peut aussi améliorer de la qualité d’image, grâce à ses « connaissances » acquises en anatomie. Cela nous permet un gain de temps considérable dans la réalisation des images, jusqu’à 14 fois plus rapide ” reconnaît-il, indiquant que pour une fracture, par exemple, le radiologue n’interprète que rarement la radio, mais analyse davantage l’échographie, l’IRM et le scanner. Autre exemple, une mammographie bénéficiera quant à elle d’une double lecture : par le radiologue et par une IA. “L’intérêt n’est pas de remplacer le radiologue, mais d’apporter une nouvelle lecture” insiste Alexandre.

Parmi les perspectives d’applications séduisantes de l’IA pour l’IM : la surveillance de l’activité cérébrale et notamment ses réactions aux stimuli moteurs, émotionnels et mentaux. L’extension de l’IA au service de l’IM dans tous les champs médicaux est donc vertigineuse !

<Les biais à l’épreuve des algorithmes

Les algorithmes ont pour “mission” d’apprendre à repérer des anomalies sur les images, et à détecter de manière fiable et rapide certaines structures subtiles. ©Pexel

Les algorithmes de machine learning, ou apprentissage automatique, ont pour “mission” d’apprendre à repérer des anomalies sur les images, et à détecter de manière fiable et rapide certaines structures subtiles. Grâce aux applications de l’IA à la médecine, il est désormais possible d’analyser massivement toutes sortes d’images dans le but de dépister les tumeurs et autres anomalies. Mais paradoxalement, les algorithmes ne sont pas toujours cliniquement pertinents. C’est ce qu’explique l’étude « Machine learning for medical imaging: methodological failures and recommendations for the future » (en français : Apprentissage automatique pour l’imagerie médicale : échecs méthodologiques et recommandations pour l’avenir), qui décortique les mécanismes à l’œuvre derrière ce paradoxe [1]. Selon les auteurs, face aux biais qui faussent les modèles, en particulier l‘insuffisance des données (quantitative et/ou qualitative) pour entraîner l’algorithme, l’informaticien doit sortir de sa zone de confort et communiquer avec le médecin qui est l’utilisateur de ces algorithmes. “Le manque de données est plutôt de l’imprécision, mais peut créer des biais si les données ne sont pas représentatives du cas réel” précise Alexandre Nérot.

Par ailleurs, dès lors qu’interviennent le Deep Learning et les réseaux de neurones artificiels*, on est en « zone d’opacité », dans laquelle l’explicabilité des résultats n’est pas évidente et où le médecin n’est pas toujours en mesure de comprendre comment l’outil a transformé les données en résultat. Il est donc nécessaire que développeurs et professionnels de santé utilisateurs parviennent à adopter un langage commun pour marier performance et sens. “De plus en plus, il y aura besoin de profils hybrides à l’interface des deux mondes” analyse le Dr Nérot, lui-même développeur, en capacité d’échanger avec les sociétés de développement, indiquant que, grâce à la mise en place d’un diplôme d’IA pour les radiologues, il y aura chaque année une promotion dotée de la double compétence. “Sans devenir un spécialiste, mais avec la volonté de s’y intéresser, chaque médecin devra à l’avenir avoir une petite culture d’IA” affirme-t-il.

ÀÀ l’aube de l’IA 4 IM : déjà des apports majeurs, mais tellement plus à attendre encore !

Si en une décennie, la reconnaissance automatique d’images a bénéficié de progrès fulgurants, la puissance des algorithmes reste le nerf de la guerre pour “aller plus loin”. La compétition fait rage pour quantifier l’erreur et réduire l’incertitude en imagerie médicale afin de garantir la fiabilité et la précision des résultats obtenus.

Outre la quantité, il convient de disposer de données de haute qualité, contrôlées, afin d’entraîner des algorithmes d’IA à délivrer des résultats justes et précis… et leur validation reposera nécessairement sur la comparaison avec ceux obtenus par des experts humains, qui doivent rester les référents. CQFD :  l’IA reste tributaire à la fois des données et de la puissance des algorithmes.  La “data” est donc au cœur des enjeux, et c’est de fait là où le bât blesse si elle s’avère insuffisante, incomplète ou manquante. Composante faisant partie intégrante de l’IA, le machine learning va consister à alimenter le logiciel de milliers de cas cliniques grâce à la contribution des professionnels de santé afin qu’il soit en mesure d’effectuer des tâches de classement, permettant, par exemple, d’identifier des grains de beauté ou des mélanomes malins.

Si on estime que le médecin “réussit à 80%” une identification de cellules, la valeur ajoutée de l’IA n’existe que si elle dépasse largement cette probabilité, pour idéalement s’approcher d’une fiabilité à 100% et apporter une véritable sécurité. Précieux outil pour aider les médecins à diagnostiquer avec plus de précision et de rapidité, l’IA garde pour l’heure le statut… d’outil !

LL’IA appliquée à un monde de variables : l’imagerie médicale

Extrait de la table ronde « IA et santé » organisée par Pop’Sciences le 26 juin 2023. Un rendez-vous professionnel chercheur / journaliste, développé en collaboration avec le Club de la presse de Lyon (Projet LYSiERES²).


—————————————————————

Notes :

[1] Le “machine learning” consiste à apporter une solution à un problème donné en s’appuyant sur un réseau de neurones organisés selon une architecture particulière. Le deep learning est une façon de faire du machine learning en intégrant une quantité importante de données (Big Data)

 

PPour aller plus loin :

[1] https://www.inria.fr/fr/imagerie-medicale-intelligence-artificielle-apprentissage-automatique

Une médecine revisitée à l’aune des algorithmes : Quelles questions éthiques soulève l’IA ? | #5 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

UUne médecine revisitée à l’aune des algorithmes : Quelles questions éthiques soulève l’IA ? | #5 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

Article #5 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervient

Entre confiance aveugle et méfiance absolue, comment l’IA doit-elle être éthiquement acceptée et utilisée ? Comment s’affranchir de potentiels biais humains dans les systèmes d’IA utilisés à des fins de diagnostic, ou même thérapeutiques ? Autant de questions qui ne sont plus l’apanage de débats scientifiques, mais doivent être au cœur de débats politiques et sociétaux. Éclairage avec Mathieu Guillermin, physicien et philosophe, chercheur en éthique au sein de l’Unité de Recherche CONFLUENCE Sciences et Humanités (EA1598) de l’Institut Catholique de Lyon (UCLy) et coordinateur du projet international de recherche-action NHNAI qui vise à mettre les ressources des universités participantes au service de la réflexion éthique sociétale.

À l’heure où la médecine 4.0 1 est en marche, le dialogue avec la société s’impose afin de définir les limites dans l’adoption des technologies d’IA et le développement des interactions humains-machines. Les chercheurs, qui sont partie prenante, doivent jouer leur rôle de garde-fou, l’enjeu premier étant de démystifier l’IA, d’en faire comprendre les mécanismes et de la présenter comme une palette d’outils. “Aujourd’hui, la majorité des technologies d’IA s’appuie sur un apprentissage machine (ou machine learning)” rappelle Mathieu Guillermin, soulignant que l’on peut considérer celui-ci comme un apprentissage automatique pour la réalisation d’une tâche précise à partir de données fournies à l’IA.

 

Un article de Nathaly Mermet, journaliste scientifique, et Léo Raimbault, rédigé
pour Pop’Sciences – 5 septembre 2023

<Quelles promesses de l’IA ? … et quels réels enjeux éthiques ?

Les technologies d’IA sont susceptibles d’améliorer la qualité et l’efficacité aussi bien de la prise en charge des patients (diagnostics, pronostics, choix des stratégies thérapeutiques) que la recherche biomédicale. On parle alors de « precision medicine« , médecine de précision ou encore de médecine personnalisée.

Pour autant, “les techniques d’IA ne sont pas infaillibles et soulèvent de nombreux enjeux éthiques, dans le domaine de la santé certes, mais aussi plus largement” alerte Mathieu Guillermin. Par exemple, les logiciels produits par apprentissage automatique sont rarement « meilleurs » que ceux produits par un programmeur, même débutant. Ainsi, on ne peut encore se soustraire aux qualités de travail humaines, notamment en programmation. “Si l’IA est présentée comme quelque chose d’autonome et indépendant de l’intelligence humaine, on égare beaucoup de monde” prévient Mathieu Guillermin.

<Les enjeux éthiques sont donc de natures variées !

Au-delà de la programmation, l’IA répète les schémas présents dans les bases de données d’apprentissages. Par conséquent, si les bases de données servant à guider l’apprentissage sont biaisées, incomplètes ou non représentatives, les prédictions de l’IA seront… d’aussi mauvaise qualité. Or, en médecine, une base de données ne peut être exhaustive et représenter fidèlement la réalité. Par exemple, si une certaine catégorie de personnes est sous-représentée dans les bases de données d’apprentissages, alors l’IA aura bien plus de mal à faire des prédictions correctes pour cette population et génère, de fait, « des biais discriminant injustement ce type de personnes » selon Mathieu Guillermin.

Enfin, “même quand il n’y a pas de discrimination ou de biais, que le niveau de performance est bon, tout n’est pas encore résolu au niveau éthique” examine Mathieu Guillermin. Dans le contexte de l’automatisation des tâches, la substitution d’un être humain, doté d’émotions, de réflexion, de jugement et parfois sujet à l’erreur, par un logiciel qui opère de manière mécanique, ne peut être considérée comme une démarche anodine. La capacité de ces technologies à égaler, voire à surpasser les compétences humaines dans certaines missions soulève des interrogations essentielles en matière d’éthique.

<Comment définir les limites éthiques ?

Promettant de compléter la précision des professionnels de la santé, l’utilisation de l’IA nécessite donc de définir le niveau d’acceptabilité de l’erreur et la responsabilité morale. L’exploration d’un “Nouvel Humanisme à l’Heure des Neurosciences et de l’Intelligence Artificielle” (NHNAI), telle est l’ambition d’un vaste projet international réunissant les universités catholiques de 9 pays 2, dont celle de Lyon : l’UCLy. “À l’origine, la volonté est d’amener la société dans une réflexion éthique autour des neurosciences et de l’intelligence artificielle, et le projet s’inspire de ce que nous faisions déjà en éthique embarquée 3, c’est-à-dire d’amener et animer la réflexion éthique au sein des projets de recherche” explique Mathieu Guillermin.

Le projet du NHNAI cherche ainsi à définir un nouvel humanisme qui embrasserait les avancées technologiques, dont l’IA, tout en préservant les valeurs essentielles de dignité, de liberté et de responsabilité humaine. Il aspire à guider la société vers un avenir où la symbiose entre la technologie et l’humanité s’inscrit dans une perspective éthique et sociale claire.

Alors que l’IA progresse rapidement, il est essentiel de ne pas perdre de vue les valeurs et les préoccupations humaines. À ce titre, le projet remet l’humain au centre des problématiques liées aux nouvelles technologies. Il invite donc non seulement les chercheurs de toutes disciplines, mais également les citoyens à se joindre à la discussion et au débat. Tout un chacun ayant désormais accès à des outils IA à porter de clic (citons ChatGPT), les décisions concernant l’IA ne peuvent se réfléchir uniquement entre experts, mais doivent également refléter les valeurs, les préoccupations et les opinions de la société dans son ensemble.

<Une intelligence artificielle peut-elle être vraiment… intelligente ?

Objet d’un réel engouement médiatique, fascination pour les uns et inquiétude pour d’autres, l’IA est un terme de plus en plus galvaudé, or tout n’est pas Intelligence Artificielle. Alors que le terme “intelligence” désigne initialement une faculté cognitive humaine (ou du moins animale), l’apposition au qualificatif “artificiel” semble antinomique, voire un non-sens. Mais comment apprécier objectivement l’intelligence ? C’est une réflexion qui nous renvoie à un questionnement métaphysique concernant notre existence humaine. “La sémantique obscurcit le débat, mais reste qu’avec les technologies d’IA, le traitement d’information conscient, humain, est remplacé par le traitement d’information automatique” résume Mathieu Guillermin, ce qui en matière de santé mérite toute notre attention.

Considérée comme un algorithme apprenant, conçu par un humain, l’IA reste un outil dont la performance est liée à celle de son concepteur. En revanche, le questionnement est plus ardu dès lors que la performance de l’IA dépasse la performance humaine. In fine, une machine peut-elle avoir un pouvoir de décision ?

En santé, “La réelle question est de savoir comment la modélisation mathématique peut accompagner chacune des trois dimensions du rôle du médecin que sont le diagnostic, le suivi de l’efficacité thérapeutique et le pronostic, en particulier dans le cas de pathologies graves” pointe Pascal Roy, médecin et chercheur en biostatistiques au sein du Laboratoire Biologie Biométrie Evolutive (LBBE) à Villeurbanne (CNRS, Université Claude Bernard Lyon 1, VetAgro Sup). L’IA ne peut donc rester qu’un outil aidant à préciser ou accélérer l’expertise des médecins.

<L’IA est un outil, mais pas une finalité

Mathieu Guillermin nous rappelle l’importance de prendre en compte les questions éthiques dès le début du processus de création d’une IA par les développeurs. En effet, si le code de programmation est mal conçu ou si les exemples utilisés pour entraîner l’IA ne sont pas représentatifs, biaisant l’outil, les résultats de celle-ci seront peu fiables.

« Avoir un esprit ne semble entretenir que peut de liens avec le fait d’exécuter un programme » explique-t-il, faisant référence au philosophe américain John Searle et à sa célèbre expérience de pensée dite « de la chambre chinoise ». L’expérience de Searle vise à démontrer que l’intelligence artificielle est limitée à être une forme d’intelligence artificielle faible et qu’elle est uniquement capable de simuler la conscience, sans être capable de véritables états mentaux, de conscience et d’intentionnalité. En d’autres termes : pour obtenir des résultats fiables et éthiques avec l’IA, c’est à l’Humain de s’assurer que le processus de conception et de formation de l’IA est bien pensé dès le départ pour éviter les biais et les problèmes éthiques ultérieurs. Il faut mettre du sens derrière l’outil.

LLes biais de l’IA : quand l’esprit humain plane sur les données

Extrait de la table ronde « IA et santé » organisée par Pop’Sciences le 26 juin 2023. Un rendez-vous professionnel chercheur / journaliste, développé en collaboration avec le Club de la presse de Lyon (Projet LYSiERES²).

—————————————————————

Notes :

[1] La « Médecine 4.0 » combine l’électronique, les technologies de l’information et de la communication et les microsystèmes dans une médecine moderne. Les progrès électroniques des cent dernières années ont apporté d’énormes contributions à la recherche médicale et au développement de nouveaux procédés thérapeutiques. Ainsi, les capteurs intelligents dotés d’interfaces radio appropriées permettront de relier entre eux les processus diagnostiques et thérapeutiques en médecine, rendant possible le développement de toutes nouvelles formes de traitements. Cette nouvelle « médecine 4.0 » intègre les progrès acquis grâce à la fusion de la technologie des micro-capteurs, de la microélectronique et des technologies de l’information et de la communication, au service d’applications pratiques dans de multiples aires thérapeutiques (chimiothérapie personnalisée, entre autres). La moyenne d’âge des médecins étant actuellement supérieure à 50 ans, le renouvellement par une génération « Digital Native » interviendra d’ici 15 ans, ce qui permettra certainement de transformer l’essai de la médecine 4.0.

[2] Belgique, Chili, États-Unis, France, Italie, Kenya, Portugal, Québec, Taïwan

[3] L’éthique embarquée désigne l’intégration de principes éthiques et de considérations morales directement dans le développement et le fonctionnement de technologies, notamment des systèmes d’intelligence artificielle et des dispositifs autonomes. Cela vise à garantir que ces technologies agissent de manière conforme à des normes éthiques prédéfinies, comme la sécurité, la transparence, la responsabilité, et le respect des droits de l’homme, tout en minimisant les risques liés à des comportements non éthiques.

PPour aller plus loin

L’IA en FAQ, les étudiants nous répondent | #6 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

LL’IA en FAQ, les étudiants nous répondent | #6 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

Article #6 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervient

Dans cette série de questions et réponses, les étudiants de première année du cycle d’ingénieur de l’EPITA, école d’ingénierie informatique, répondent à nos questions concernant l’IA. A-t-elle toujours raison ? Peut-elle développer des sentiments ? Ou, est-elle capable de réelles créations ? Les étudiants nous éclairent.

SSommaire :

  1. L’IA peut-elle éprouver des sentiments ?
  2. L’IA est-elle toujours infaillible ?
  3. L’IA est-elle écologique ?
  4. L’IA favorise-t-elle la désinformation ?
  5. L’IA peut-elle être créative ?
  6. Peut-on reconnaitre une image générée par IA ?
  7. L’IA va-t-elle abolir le travail ?

11. l’IA peut-elle éprouver des sentiments ?

Les chercheurs s’accordent sur le fait que l’IA ne possède ni conscience de soi, ni expérience personnelle, remettant ainsi en question sa capacité à ressentir des sentiments. Cynthia Breazeal, professeure au MIT et experte en robotique sociale, souligne que l’IA est une simulation programmée de comportements émotionnels, dépourvue de l’expérience intérieure propre aux humains. Si elle peut détecter et répondre aux émotions humaines, cela reste une imitation basée sur des règles préétablies.

Par exemple, Sophia, un robot développé par Hanson Robotics, peut donner l’impression de ressentir des émotions grâce à des expressions faciales et des réponses préprogrammées. Elle crée une apparence d’émotion basée sur des règles préétablies, sans réelle expérience émotionnelle.

En outre, les sentiments humains sont influencés par des facteurs biologiques, sociaux et culturels, des capacités qui font défaut à l’IA statique qui ne peut évoluer avec le temps. En somme, les recherches soulignent que l’IA ne peut ressentir d’émotions véritables, ne pouvant que les feindre, tout au plus.

Léo Arpin & Adrien Guinard

22. L’IA est-elle toujours infaillible ?

Exemple d’une image capturée sous une lumière idéale (en haut) et d’image prise d’une image prise dans des conditions de faible éclairage (en bas). ©Lars Karlsson

Les capacités de l’IA dépendent avant tout des données avec lesquelles elle a été entraînée. De fait, elle est susceptible d’être influencée par les biais présents dans ces mêmes données. Donc, si les données sont biaisées ou reflètent des préjugés humains, l’IA risque de reproduire ces même biais dans ses prédictions. Par exemple, si un système de recrutement automatisé est entraîné sur des données historiques qui favorisent certains groupes au détriment d’autres, il peut perpétuer ces inégalités lors de l’évaluation des candidatures.

De même, l’IA est limitée par les situations étrangères à celles sur lesquelles elle a été formée. Si un modèle d’IA est entraîné pour reconnaître des objets sur une image prise dans des conditions de lumière optimales, celui-ci peut peiner les reconnaître sur des images prises dans un contexte différent.

 

Non seulement les conditions de l’environnement d’entraînement influent sur les résultats, mais il faut aussi tenir compte du fait qu’une IA n’est jamais précise à 100%. En effet, au cours de son entraînement, lorsque l’on teste l’algorithme avec une base de données complète (dont on connaît le résultat), celui-ci montre déjà des incohérences. On s’approche toujours, mais on n’atteint jamais la perfection, il est donc impossible d’avoir une IA totalement fiable.

Pour pallier ces limites, la supervision humaine est cruciale. Les experts doivent continuer à surveiller et à évaluer les performances de l’IA, en s’assurant qu’elle prend des décisions justes, transparentes et éthiques. Il est nécessaire de mettre en place des mécanismes de contrôle et de réglementation pour garantir une juste utilisation de l’IA. Des techniques telles que l’apprentissage par renforcement et l’apprentissage fédéré sont justement développées pour réduire les biais et améliorer la capacité de l’IA à généraliser dans de nouvelles situations.

Arthur De Sousa, Raphaël Hatte, Pierre Raimondi & Maui Tadeje

 

33. L’IA est-elle écologique ?

©Freepik

Aux vues de la crise climatique que nous traversons, la croissance de l’Intelligence Artificielle pose question. Les modèles d’apprentissage automatique, et notamment les Large Language Models (LLM) sont très gourmands en énergie. L’entraînement de ces mastodontes, la fabrication du matériel, la maintenance de l’infrastructure, son déploiement ou encore le type d’énergie utilisé sont autant de facteurs pesant dans la balance de leur empreinte carbone. Et cela représente un coût non-négligeable en termes d’émissions de dioxyde de carbone.

Par exemple, l’entreprise Hugging Face a estimé l’empreinte carbone l’entraînement de sa propre LLM (dénommé BLOOM), à environ 25 tonnes de dioxyde de carbone, soit autant qu’une voiture ayant parcourue 130 000km. En comparaison à BLOOM, l’empreinte carbone liée à l’entraînement de ChatGPT-3 et d’OPT de META sont respectivement estimés à 500 et 70 tonnes de dioxyde de carbone. Ce bilan colossal attribué à GPT-3 est entre autres dû à l’ancienneté de l’équipement utilisé. L’optimisation des LLM est un autre paramètre jouant largement sur l’empreinte carbone. Par exemple, LLaMA est un LLM qui peut compter tout au plus 65 milliards de paramètres et ayant tout de même les capacités de rivaliser contre GPT-3 d’Open-AI malgré ses 162 milliards de paramètres. Or, le nombre de paramètres d’une LLM impacte grandement sa consommation en énergie.

Pour autant, l’IA peut être mise au service de pratiques plus écologiques. Elle est notamment capable d’optimiser l’utilisation des ressources dans divers secteurs, comme l’énergie, la logistique ou l’agriculture. Cette aide à la gestion des ressources agricoles par IA en fonction des besoins réels, tels que l’eau ou les pesticides, permet de réduire les gaspillages et de minimiser l’impact environnemental.

En investissant dans des solutions énergétiques durables, en favorisant la recherche sur des modèles plus efficaces et en réglementant judicieusement l’utilisation de l’IA, nous pourrons peut-être exploiter son potentiel tout en agissant de manière responsable vis-à-vis de notre planète et des générations futures.

Mehdi Ismaili & Gregoire Vest

44. L’IA favorise-t-elle la désinformation

L’IA possède la capacité de générer du contenu de manière automatisée, y compris des textes, des images et des vidéos. Cette fonctionnalité, bien qu’offrant des possibilités intéressantes, peut également être détournée pour créer et diffuser de fausses informations. Des algorithmes d’apprentissage automatique peuvent être entraînés pour produire des articles, des tweets ou des vidéos qui semblent authentiques, mais qui sont en réalité des faux. Cette situation ouvre la porte à une propagation rapide de désinformation à grande échelle, comme les célèbres « photos » du pape en doudoune ou de Donald Trump se faisant arrêter.

Outre la production de contenus, l’IA peut être utilisée pour manipuler l’opinion publique. Les algorithmes peuvent analyser les comportements en ligne des utilisateurs et cibler des publicités ou des contenus spécifiques afin d’influencer leurs opinions. En comprenant les préférences d’un individu, l’IA peut personnaliser les messages pour maximiser leur impact. Cela peut entraîner la création d’une bulle informationnelle dans laquelle les individus sont exposés à des idées similaires, renforçant leurs croyances et limitant la diversité des opinions.

Heureusement, l’IA peut également être utilisée pour détecter la désinformation. Des algorithmes peuvent analyser les caractéristiques des contenus suspects pour les identifier. Le traitement du langage naturel et l’apprentissage automatique permettent de repérer les incohérences, les biais et manipulations dans les articles, les images ou les vidéos. Toutefois, ces outils doivent être constamment améliorés pour rester efficaces face au progrès technique de la désinformation.

Emil Toulouse, Todd Tavernier & Remi Decourcelle

 

55. L’IA peut-elle être créative ?

Tableau généré via Dall-E ©Léo Raimbault

La créativité, généralement définie comme la capacité à produire quelque chose de nouveau et de valeur, concerne des domaines tels que les arts, la musique ou la littérature. L’IA est désormais souvent utilisée pour susciter, inspirer ou créer des œuvres dans ces sphères. Elle peut même être entraînée à reconnaître divers styles artistiques afin de générer des peintures fidèles à un courant ou à un artiste précis. À titre d’exemple, des réalisations comme “The next Rembrandt” ou “Le portrait d’Edmond de Belamy” se sont vendues aux enchères en 2018 pour 432 500$. La sphère musicale est également concernée, notamment avec la chanteuse “IA” qui, comme son nom l’indique est une IA, dont le premier album ‘00’ s’est vendu à plus de 2 millions d’exemplaires en l’espace d’un mois.

Cependant, il est important de comprendre que l’IA ne crée pas intrinsèquement quelque chose de nouveau. En effet, elle utilise des algorithmes pour générer des créations « mélangeant » des parties d’œuvres préexistantes sur lesquels elle a fait son apprentissage. On peut donc toujours considérée la créativité comme une caractéristique propre à l’humain. Cependant, cela ne signifie pas que l’IA n’a pas de valeur dans la création artistique. Ces programmes peuvent grandement soutenir les artistes en favorisant la génération d’idées novatrices et l’expérimenter de nouvelles approches.

Il est également difficilement envisageable que l’IA puisse remplacer la créativité humaine. Les êtres humains ont la capacité d’effectuer des associations inattendues, de casser les codes, et de concevoir des concepts jusqu’alors inexistants. L’IA, quant à elle, est limitée par les algorithmes et les données qu’elle utilise pour générer ses créations.

En somme, l’IA peut être utilisée pour générer des créations qui ressemblent à celles qui ont été produites par des êtres humains, mais elle ne peut pas supplanter la créativité humaine. Les programmes d’IA restent néanmoins de précieux outils pour nourrir la créativité et la technique des artistes.

Paul Gravejal, Aymen Gassem & Sandro Ferroni

 

66. Peut-on reconnaitre une image générée par IA ?

L’intelligence artificielle (IA) a récemment connu des avancées spectaculaires dans la génération d’images de plus en plus réalistes. Il est aujourd’hui courant de voir des images de célébrités créées de toutes pièces ; le meilleur exemple étant celles du pape habillé d’une grande doudoune blanche. Cependant, le degré de réalisme atteint un tel niveau qu’il peut être difficile de reconnaître une image générée par une IA.

Saurez-vous repérer l’anomalie sur cette image générée par IA ? ©Pop’Sciences

Cette difficulté dans la distinction d’une image générée par IA réside dans le fait qu’elle travaille avec un volume colossal de données. Les modèles IA analysent et apprennent les caractéristiques communes d’images existantes, puis les reproduisent dans leurs créations. Par exemple, l’IA Stable Diffusion a été entrainée à partir d’une base de données de 2,3 milliards d’images.

Néanmoins, lorsqu’il s’agit de créer l’image d’une personne, l’IA a encore beaucoup de difficultés pour certaines zones spécifiques comme les mains. Même pour un dessinateur humain, les mains demeurent la partie du corps la plus complexe et difficile à représenter. Les défis sont nombreux, que ce soit en termes de forme, de nombre de doigts visibles, de perspectives variées ou de proportions.

Étant donné que les IA sont entrainées sur de gigantesques bases de données, elles font face à des millions de combinaisons différentes de mains et n’arrivent donc pas à modéliser correctement cette partie du corps humain. Ainsi, dans les images générées incluant des mains, il est très courant d’observer des moignons, des articulations improbables, ainsi que des doigts déformés ou en quantité inexacte.

Une autre manière de déceler une image générée est d’étudier les pixels de cette dernière. En effet, l’IA ne va pas créer, comme un humain le ferait, en dessinant des zones de couleurs unies.  Elle commence par une « bouillie » de pixels, puis en cherche à lier ces derniers pour obtenir l’image voulue : on appelle cela la réduction du bruit de l’image. Ainsi, par une simple sélection de couleur sur un logiciel d’édition d’image, on peut parfois permettre de retrouver cette « bouillie » de pixels.

Or, s’il existe également des logiciels permettant de détecter ces artefacts automatiquement comme « AI or Not », la frontière entre la réalité et ce qui est généré par l’IA continue de se réduire, risquant de créer de plus en plus de confusions concernant la véracité des contenus que nous ingérons au quotidien.

Nathan Goetschy, Rémi Jeulin & Clovis Lechien

77. L’IA va-t-elle abolir le travail ?

Dans l’ombre de l’IA grandit une certaine inquiétude : l’IA ne va-t-elle pas finir par nous remplacer ? Mais l’intelligence artificielle qui représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité » est-elle réellement capable de rendre le travail des humains obsolètes ?

Mouvement de boycott des technologies IA par des illustrateurs. source: “Is AI Art Here to Steal Your Career Away?” by Polydin Studio

L’IA est de plus en plus présente au niveau des travaux répétitifs ou dangereux puisqu’elle se montre parfois plus efficace ou rencontrant moins de risques qu’un humain. Elle fait également son entrée dans les domaines artistiques et informatiques. Citons Midjourney ou ChatGpt, par exemple, à l’origine de plusieurs scandales qui ont levé le voile sur cette problématique émergente.

Nous sommes pour autant bien loin d’une abolition du travail « humain ». De nouveaux emplois voient le jour pour créer ou gérer ces nouvelles technologies liées à l’IA (ingénieurs, gestionnaires de bases de données d’apprentissage, etc.). Et, bien que plus efficaces que nous pour certaines tâches, l’IA a encore du chemin à faire avant de nous remplacer, notamment dans les métiers nécessitant de l’empathie ou ceux demandant beaucoup de capacités d’adaptation. À l’heure actuelle, elle demande une immense puissance de calcul, ce qui en fait rarement la meilleure solution, quand elle n’est pas simplement hors de propos. La méfiance envers l’IA freine également l’intégration de cette technologie dans le monde du travail.

L’abolition du travail par l’IA ne risque donc pas d’arriver de sitôt. De plus, avec un bon équilibre, l’IA peut au contraire devenir un outil et une aide extrêmement efficace plutôt qu’une menace.

Garice Morin, Alice Cariou, Eliana Junker

 

 

 

ChatGPT, modèles de langage et données personnelles : quels risques pour nos vies privées ? | The Conversation

CChatGPT, modèles de langage et données personnelles : quels risques pour nos vies privées ? | The Conversation

Les immenses bases de données qui servent à l’apprentissage de grands modèles de langage ne sont pas toutes anonymisées.
Dmitry Ratushny, Unsplash, CC BY

 

Les grands modèles de langage ont récemment attiré beaucoup d’attention, notamment grâce à l’agent conversationnel ChatGPT. Cette plate-forme est devenue virale en seulement quelques mois et a déclenché une course effrénée pour développer de nouveaux modèles de langage toujours plus efficaces et puissants, rivalisant avec l’humain pour certaines tâches.

Cette croissance phénoménale est d’ailleurs jugée dangereuse par de nombreux acteurs du domaine, qui plaident pour une pause afin d’avoir le temps de débattre sur l’éthique en IA et de mettre à jour les réglementations.

Une des grandes questions qui se pose est l’articulation entre intelligence artificielle et vie privée des utilisateurs. En particulier, les prouesses des grands modèles de langage sont dues à un entraînement intensif sur d’énormes ensembles de données, qui contiennent potentiellement des informations à caractère personnel, car il n’y a pas d’obligation d’anonymiser les données d’entraînement.

Il est alors difficile de garantir en pratique que le modèle ne compromet pas la confidentialité des données lors de son utilisation. Par exemple, un modèle pourrait générer des phrases contenant des informations personnelles qu’il a vues pendant sa phase d’entraînement.

AApprendre à imiter le langage humain

Les modèles de traitement du langage sont une famille de modèles basés sur l’apprentissage automatique (machine learning en anglais), entraînés pour des tâches telles que la classification de texte, le résumé de texte et même des chatbots.

Ces modèles apprennent d’une part à encoder les mots d’une phrase sous la forme de vecteurs, en tenant compte de l’ensemble du contexte. Dans les phrases « J’ai mangé une orange » et « Son manteau orange est beau », le mot « orange » se verra attribuer deux encodages différents, puisque la position et le sens ne sont pas les mêmes.

orange bleue a l’extérieur
La Terre est bleue comme une orange. Les modèles de langage apprenne à générer des phrases en faisant suivre les mots les plus probable. Auraient-ils proposé cette ligne de Paul Éluard ?
pixabay, CC BY

Ces modèles apprennent également à décoder ces ensembles de vecteurs contextualisés et leurs relations, pour générer de nouveaux mots. Une phrase est générée séquentiellement, en prédisant le prochain mot en fonction de la phrase d’entrée et des mots prédits précédemment.

L’architecture de ces modèles peut être spécialisée pour certaines tâches. Par exemple, les modèles de type BERT sont souvent « affinés » en apprenant sur des données spécialisées, par exemple sur des dossiers de patients pour développer un outil de diagnostic médical, et sont plus performants sur des tâches de classification de texte tandis que les modèles GPT sont utilisés pour générer de nouvelles phrases. Avec l’essor des applications exploitant les modèles de langage de langage, les architectures et les algorithmes d’entraînement évoluent rapidement. Par exemple, ChatGPT est un descendant du modèle GPT-4, son processus d’apprentissage ayant été étendu pour se spécialiser dans la réponse aux questions.

CConfidentialité des informations utilisées pendant la phase d’entraînement du modèle

Les modèles de traitement du langage naturel ont besoin d’une quantité énorme de données pour leur entraînement. Pour ChatGPT par exemple, les données textuelles du web tout entier ont été récoltées pendant plusieurs années.

Dans ce contexte, la principale préoccupation en matière de confidentialité est de savoir si l’exploitation de ces modèles ou les informations qu’ils produisent peuvent dévoiler des données personnelles ou sensibles utilisées pendant la phase d’apprentissage et « recrachées » ou inférées pendant la phase d’utilisation.

ombre humaine devant lignes de codes
Quelle est la probabilité qu’un grand modèle de langage donne une information personnelle acquise lors de son apprentissage ?
Chris Yang/Unsplash, CC BY

Considérons d’abord les chatbots (exploitant les modèles de type GPT) qui ont appris à générer des phrases à partir d’un texte d’entrée. D’un point de vue mathématique, chaque mot est prédit séquentiellement, sur la base de probabilités qui auront été apprises durant la phase d’entraînement.

Le problème principal est que des données potentiellement personnelles peuvent parfois constituer la réponse la plus probable. Par exemple, si le modèle a vu la phrase « Monsieur Dupont habite 10 rue de la République » et qu’on lui demande « Où habite Monsieur Dupont ? », le modèle sera naturellement enclin à répondre l’adresse de celui-ci. Dans la pratique, le modèle aura aussi vu de nombreuses phrases de la forme « X habite à Y » et on s’attend plutôt à ce qu’il réponde des connaissances générales plutôt que des adresses spécifiques. Néanmoins, le risque existe et il est nécessaire de pouvoir le quantifier.

ÉÉvaluer les probabilités de fuites de données

Il existe tout d’abord des techniques pour évaluer en amont de l’entraînement final si des phrases rares ont le potentiel d’être anormalement mémorisées par le modèle. On réalise pour cela des micro-entraînements, avec et sans ces phrases, et l’on se débarrasse de celles qui auraient une influence trop grande.

Mais les gros modèles de traitement du langage naturel sont non déterministes et très complexes de nature. Ils sont composés de milliards de paramètres et l’ensemble des résultats possibles étant infini, il est en pratique impossible de vérifier manuellement le caractère privé de toutes les réponses. Néanmoins, il existe des métriques qui permettent d’approximer ou de donner une borne maximale sur les fuites de données potentielles.

Une première métrique est l’« extractibilité ». Nous disons qu’un texte est « k-extractible » s’il est possible de le générer à partir d’une entrée de longueur k (en nombre de mots). Par exemple, si le modèle renvoie « 10 rue république » lorsqu’on lui demande « Monsieur Dupont habite à », cette adresse est 3-extractible.

Pour les données personnelles ou sensibles, l’objectif est d’avoir un k le plus élevé possible, car un k faible implique une extraction facile. Une étude de ce type a été réalisée sur GPT-2 : elle a permis d’extraire facilement des informations personnelles sur des individus.

Un autre risque qu’on peut évaluer est l’« inférence d’appartenance ». L’objectif ici est d’identifier si une donnée a été utilisée lors de l’apprentissage du modèle. Supposons par exemple qu’un hôpital entraîne un modèle pour détecter la présence de cancer à partir d’extraits médicaux de patients. Si vous parvenez à découvrir que le modèle a été entraîné sur les données de Monsieur Dupont, vous apprendrez indirectement qu’il est probablement atteint de cancer.

Pour éviter cela, nous devons nous assurer que le modèle ne donne aucun indice quant aux données sur lesquelles il a été entraîné, ce qu’il fait par exemple lorsqu’il se montre trop confiant vis-à-vis de certaines réponses (le modèle va mieux se comporter sur des données qu’il a déjà vu pendant la phase d’entraînement).

TTrouver le bon compromis

Faire comprendre au modèle quelles données sont à caractère personnel n’est pas évident, puisque la frontière entre ces deux types de données dépend bien souvent du contexte (l’adresse d’Harry Potter est connue de tous, contrairement à celle de Monsieur Dupont).

L’entraînement d’un modèle qui respecte la confidentialité passe alors souvent par l’ajout de bruit à un moment ou un autre. L’ajout de bruit consiste à altérer l’information apprise ou bien les réponses du modèle, ce qui permet de réduire les risques d’extraction ou d’inférence. Mais cela implique aussi une légère baisse d’utilité. Il faut donc faire un compromis entre performance et respect des données personnelles.

Les applications potentielles des modèles de langage sont incroyablement vastes, mais il est nécessaire d’encadrer leur pratique en prenant compte les risques de fuites avant leur déploiement. De nouvelles méthodes d’entraînement, ainsi que l’anonymisation des données, voire l’utilisation de données synthétiques, sont toutes des solutions prometteuses et en cours d’étude, mais il faudra de toute manière les accompagner de métriques et de méthodologies pour valider non seulement les performances mais aussi la confidentialité des informations personnelles utilisées lors de l’entraînement des modèles.

 

 

Article publié sur The Conversation le 23 juin 2023

Cet article a été co-écrit par Gaspard Berthelier, en stage au centre Inria de l’Université Grenoble Alpes dans l’équipe Privactics, sur le natural language processing (NLP) et le respect des données personnelles.The Conversation

Antoine Boutet, Maitre de conférence, Privacy, IA, au laboratoire CITI, Inria, INSA Lyon – Université de Lyon

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Génial !

GGénial !

Existe-t-il une seule forme d’intelligence ?

Les Anciens pensaient que l’intelligence était le propre de l’être humain. Les animaux et les plantes n’avaient pas droit à ce privilège. Cette conception s’adossait à une définition « fermée » de l’intelligence : la capacité réflexive, le raisonnement logique, le langage, la société… Aujourd’hui, notamment sous l’effet des recherches scientifiques, la notion d’intelligence est beaucoup plus large : la capacité à apprendre, à mémoriser, à communiquer, à comprendre son environnement et à prendre des décisions pertinentes, à innover, à prendre en compte des situations inconnues.

Dans une telle perspective, les porteurs d’intelligence sont beaucoup plus nombreux ! Les bactéries, les cellules, les végétaux, les animaux, et même les intelligences artificielles sont éligibles ! Et les formes d’intelligence sont désormais plurielles et incomparables.

Accompagné durant toute la visite par des médiateurs et médiatrices de La Rotonde, parcourez l’arborescence de ces multiples intelligences : intelligences cellulaires et végétales, intelligences animales, intelligences humaines, intelligences artificielles.

Pour en savoir plus :

La Rotonde

Neuromythe #4 : l’effet Mozart

NNeuromythe #4 : l’effet Mozart

Écouter de la musique classique rendrait les enfants plus intelligents. Cette idée très répandue ne repose pourtant que sur une fragile expérience conduite dans les années 1990. Certes, la musique procure de nombreux bienfaits, mais pas celui-là !

Découvrez les dessous de ce neuromythe sur CORTEX Mag