UUnivers Programmés Le musée d’art contemporain de Lyon – MAC – vous invite à vous interroger sur l’évolution des pratiques artistiques à l’aune du développement de l’informatique, des réseaux et de l’intelligence artificielle.En 1995, cent ans après l’invention du cinéma à Lyon par les frères Lumière, la 3e Biennale d’art contemporain de Lyon, intitulée installation, cinéma, vidéo, informatique, explorait l’impact des « nouvelles technologies » dans l’art contemporain.Trente ans plus tard, les questionnements mis en exergue lors de cette manifestation historique restent toujours d’actualité qu’ils soient d’ordre technique ou éthique – la place des techniques traditionnelles dans la création contemporaine, le réel versus le virtuel, la co-création avec les publics, l’interactivité et l’immersion, etc.L’exposition Univers Programmés interroge l’évolution des pratiques artistiques à l’aune du développement de l’informatique, des réseaux internet, de l’intelligence artificielle, etc.À travers une sélection d’œuvres entrées dans la collection du macLYON à l’issue de la 3e biennale, puis acquises au fil des ans, complétée par des prêts de plusieurs musées internationaux et de nouvelles créations, l’exposition s’ouvre à une grande diversité de pratiques et de médiums tels que des installations, films, jeux vidéo, photographies, œuvres conceptuelles ou encore des tapisseries.> Le teaser : >> Pour plus d’information, rendez-vous sur le site : MAC
PPodcast « Qu’est-ce que tu cherches ? » Les algorithmes : mathématiques ou informatiques ? Qu’est-ce que tu cherches ? C’est le nom de la série de podcasts lancée par le CNRS. Au micro : des scientifiques racontent leurs quotidiens, expliquent leurs avancées, et vous font pénétrer dans les coulisses de la recherche. Prêts pour une immersion sonore inédite aux côtés de ces experts ?Les algorithmes : mathématiques ou informatiques ? | Avec Nicolas Bousquet (CNRS)© Xavier Pierre, CNRSQuel est le point commun entre le rubik’s cube, le jeu du taquin ou encore le GPS ? Figurez-vous que tous peuvent être représentés par des réseaux. En effet chaque configuration ou situation possible du problème s’apparente à un nœud du réseau. Résoudre ces problèmes revient à trouver le chemin le plus simple ou le plus court pour aller d’un nœud à l’autre ou d’une solution à l’autre. Nicolas Bousquet, informaticien CNRS au Laboratoire d’informatique en image et systèmes d’information – LIRIS (CNRS, Université Claude Bernard Lyon 1, INSA de Lyon, Centrale Lyon) montre comment les algorithmes sont présents dans notre quotidien et permettent de résoudre de nombreux problèmes.>> Écoutez cet épisode sur la plateforme : Qu’est-ce que tu cherches ?
«« Le mystère des codes secrets » – Stage réservé aux filles… La Maison des Mathématiques et de l’Informatique propose un stage de deux jours, réservé aux filles, pour s’initier au chiffrement, déchiffrement, décryptage, à la stéganographie et aux subtiles différences entre ces activités.Le stage de printemps a exactement le même contenu scientifique mais est réservé aux filles. Pourquoi ? Nous avons constaté, lors de nos stages, à la fois une faible présence de filles et une difficulté à être écoutées et prendre la parole pour elles. Nous avons donc décidé de leur consacrer un stage animé par une médiatrice. Lors de celui-ci, des chercheuses interviendront pour parler de leur métier, de leur parcours. Elles pourront répondre à toutes les questions sur les études et sur une carrière en science. Également, des temps de discussion autour de leur perception des sciences, leur rapport aux sciences en classe seront proposés.Les participantes apprendront à chiffrer des messages, à les déchiffrer mais aussi à jouer aux espionnes pour décrypter les messages secrets envoyés par les autres. Un stage entre théorie et pratique, mêlant histoire, techniques de chiffrement et de décryptage et mise en pratique à travers des défis collectifs.Public concerné : Jeunes filles – 12 à 15 ansDurée : 2 jours / Tarif : 50 euros12 participantes maximumPériode du stage : 25 au 26 avril 2024>> En savoir plus :sur les stages proposés Maison des Mathématiques et de l’Informatique – MMI
LLa cryptographie face à la menace quantique Faut-il s’inquiéter pour la sécurité de nos communications ? Comment renforcer les méthodes cryptographiques afin de les rendre résistantes face à l’avènement éventuel de l’ordinateur quantique ?Benjamin Wesolowski, mathématicien et cryptologue à l’Unité de mathématiques pures et appliquées, évoque les nouveaux défis de sa discipline pour CNRS le Journal.>> Lire l’article complet sur le site :Cnrs le journal
DDe l’informatique sans ordinateur, c’est possible ? Le 14 décembre prochain, pour la deuxième soirée scientifique de la saison 2023-2024 de l’Université Ouverte, Aline Parreau et Éric Duchêne vous feront jouer avec les concepts de l’informatique, mais sans ordinateur. En 1997, une intelligence artificielle battait le champion du monde d’échecs. Vingt ans plus tard, c’était au tour du champion du monde de go de s’incliner face à l’IA AlphaGo. Mais comment entrainer une machine à devenir imbattable ? Aline Parreau et Éric Duchêne, tous deux membres du Laboratoire d’InfoRmatique en Image et Systèmes d’information, illustreront les concepts ayant permis de bâtir ces super-calculateurs. Et pour ça, pas besoin d’ordinateur !Difficile aujourd’hui d’imaginer faire tourner des machines, des logiciels et des algorithmes sans ordinateur (ou smartphone). Dès le plus jeune âge, on les associe à l’informatique. Pourtant, l’informatique comme science existait bien avant la mise au point de ces premières machines dans les années 50. Ainsi, comprendre ce qu’est un algorithme, apprendre à programmer ne nécessite pas forcément d’ordinateur. C’est ce que prône « l’informatique débranchée ».Née en Nouvelle-Zélande à la fin des années 90, cette approche ludique permet d’expliquer ou d’enseigner la science informatique en s’appuyant sur des objets concrets et tangibles (des allumettes, des cartes, des jetons…), ou une mise en jeu corporelle. Elle permet au public de s’abstraire de l’ordinateur pour mieux comprendre l’essence et les concepts de l’informatique et constitue ainsi un terrain d’apprentissage présent à la fois dans les contextes scolaires et extra-scolaires.Au programme de cette soirée scientifique, un tour de mentalisme, une machine en bois qui deviendra imbattable à des jeux, des mécanismes d’intelligences artificielles illustrés, ou encore un comptage humain pour montrer comment les ordinateurs font pour accélérer l’exécution de certains algorithmes.Tout au long de cette conférence en duo, le public sera mis à contribution pour rendre l’informatique accessible à toutes et tous en s’amusant ! Les intervenantsAline Parreau est chargée de recherche au CNRS.Éric Duchêne est Professeur en informatique à l’Université Lyon 1.Tous deux membres du laboratoire LIRIS, leurs recherches portent principalement sur le domaine des jeux combinatoires et de la théorie des graphes.Très sensibles à la médiation scientifique, ils font également partie du comité de pilotage de la Maison des Mathématiques et de l’Informatique (MMI). Ils sont responsables du projet de recherche ASMODEE, qui vise à présenter les grands concepts de la science informatique aux plus jeunes et au grand public, en faisant appel à des objets physiques ou des mises en scènes corporelles, sans outil numérique. Les Soirées Scientifiques de l’Université OuverteOrganisées avec le soutien de la ville de Villeurbanne, les Soirées Scientifiques de l’Université Ouverte ont pour objectif de rendre les sciences accessible au plus large public, à travers des conférences sur des sujets en lien avec les recherches menées notamment à l’Université Claude Bernard Lyon 1 et à Lyon.Ces conférences ont lieu au Centre Culturel de la Vie Associative (CCVA) de Villeurbanne, de 19h00 à 21h00. Voir la programmation
LLe hacker éthique au secours des petites entreprises | Visages de la science Devenue une priorité nationale en France, la cyberdéfense est le quotidien de Xavier Paquin, ingénieur informatique diplômé de l’INSA Lyon. Il donne aux petites entreprises les moyens de survivre dans une cyberguerre dont elles sont souvent les premières victimes. En 2020, ce passionné du Japon a créé le premier “dojo de cybersécurité”, pour leur donner les moyens de survivre dans cette cyberguerre. En pensant la lutte contre les cyberattaques comme un art martial, il forme les collaborateurs en leur apprenant les gestes qui sauvent.La cybersécurité, le défi du 21e siècleLe numérique est en train de devenir un nouveau terrain d’affrontement. Les états et les entreprises prennent conscience de la dimension stratégique de cet espace. De l’ordinateur à l’assistant vocal domestique en passant par le réfrigérateur, tous les objets connectés représentent une cible supplémentaire pour les hackers. « Le cyber far west, on y est déjà. Et dans cette bataille, chaque citoyen connecté est une victime potentielle ».Faire de l’humain, le maillon fort de la cyberdéfense« On dit tout le temps que le maillon faible de la cybersécurité se situe entre clavier et le fauteuil. Je n’aime pas cette expression car le collaborateur, humain, est la première ligne de défense. S’il est bien formé et a les bons réflexes, il sera le maillon fort. Son rôle est primordial lors d’une cyberattaque. »Préparer demain face aux cyber-risquesNotre société, de plus en plus numérique, qui présente déjà une dépendance accrue aux services numériques : est-ce que l’insécurité numérique va progresser et s’accroître ? « Aujourd’hui, on peut attaquer tout ce qui est connecté. Et puisque tout se connecte, tout se met à risque. Il est urgent d’anticiper les concepts de cybersécurité. » L’ingénieur diplômé de l’INSA Lyon et cofondateur de Kamae, était l’invité du podcast « Les cœurs audacieux », un contenu audio proposé par l’INSA Lyon (Saison 1 – Épisode 1). >>Plus information sur le site :AUSHA
DDiagnostic 2.0 : quand l’Intelligence Artificielle intervient | Un dossier Pop’Sciences Pour son dossier consacré aux nouvelles applications de l’Intelligence Artificielle (IA) à la santé, Pop’Sciences est allé à la rencontre des scientifiques et professionnels de la santé de la région Lyon Saint-Étienne pour mieux comprendre ce que ces nouvelles technologies peuvent apporter (ou pas) à la médecine, notamment en termes de diagnostic…L’IA tend à se démocratiser dans de multiples domaines professionnels, dont ceux de la santé. Entre espoirs, fantasmes, peurs et applications réelles, cette nouvelle assistance nécessite aujourd’hui d’être mieux décryptée tant auprès des médecins que de leurs patients. Pop’Sciences vous propose de revenir sur quelques applications concrètes pour comprendre ce que l’IA, et ses capacités de calcul, peut faire pour aider les professionnels de la santé dans le diagnostic de la santé mentale, pour fluidifier la prise en charge des patients ou pour apporter toujours plus de précisions en imagerie médicale… mais aussi d’en percevoir les limites, car elle est encore loin de remplacer votre médecin. Les articles du dossier#1 L’Intelligence Artificielle en santé : du médecin à l’algorithme©FreepikDans un monde en constante évolution, les chercheurs et médecins se tournent vers l’intelligence artificielle (IA) pour les aider dans la pratique médicale. Pop’Sciences vous dévoile les coulisses du processus de création d’une IA prête au diagnostic, une innovation qui repose sur la précision de la consultation médicale, la richesse des bases de données, et l’entraînement minutieux de modèles IA. En somme, quelle est la recette pour une bonne IA appliquée au diagnostic médical ? #2 L’Intelligence Artificielle, notre futur psychiatre ?Image générée par IA (Dall-E) ©Pop’SciencesSe classant au deuxième rang des causes de mortalité en France après les accidents cardiovasculaires, les troubles liés à la santé mentale sont aujourd’hui une préoccupation majeure en termes de santé publique. Dans cette quête du « mieux prévenir pour mieux guérir », l’intelligence artificielle (IA) pourrait s’imposer comme un précieux allié dans le diagnostic des troubles mentaux. #3 Transformer la prise en charge médicale grâce à l’Intelligence Artificielle : entretien avec Loïc VerlingueImagé générée par IA (Dall-E) ©Pop’SciencesAlors que les avancées technologiques continuent de redéfinir la manière dont les professionnels de la santé prennent en charge les patients, l’IA s’insère de plus en plus dans la relation entre le patient et son médecin. Au cœur de cette transformation, Loïc Verlingue, médecin et chercheur au Centre Léon Bérard partage son expertise de l’IA dans le domaine des essais cliniques en cancérologie. #4 L’Intelligence artificielle au service de l’imagerie médicale : Des apports majeurs©PexelAméliorer l’interprétation de l’imagerie médicale (IM) pour en optimiser l’exploitation est au cœur des enjeux de l’intelligence artificielle (IA) au service de l’IM. L’IA n’est plus “seulement” un domaine de recherche en plein essor… mais ses utilisations en sont multiples. Objectifs affichés : augmenter la précision du diagnostic afin d’améliorer la prise en charge thérapeutique, en évitant les erreurs potentiellement lourdes de conséquences. La guerre des algorithmes est ouverte pour aller toujours plus loin ! #5 Une médecine revisitée à l’aune des algorithmes : Quelles questions éthiques soulève l’IA ?©FreepikEntre confiance aveugle et méfiance absolue, comment l’IA doit-elle être éthiquement acceptée et utilisée ? Comment s’affranchir de potentiels biais humains dans les systèmes d’IA utilisés à des fins de diagnostic, ou même thérapeutiques ? Autant de questions qui ne sont plus l’apanage de débats scientifiques, mais doivent être au cœur de débats politiques et sociétaux. #6 L’IA en FAQ, les étudiants nous répondent©FreepikDans cette série de questions et réponses, les étudiants de première année du cycle d’ingénieur de l’EPITA, école d’ingénierie informatique, répondent à nos questions concernant l’IA. A-t-elle toujours raison ? Peut-elle développer des sentiments ? Ou, est-elle capable de réelles créations ? Les étudiants nous éclairent. —————————————————————MMerci !Ce dossier a été réalisé grâce à la collaboration de chercheurs et médecins du bassin de recherche Lyon Saint-Étienne :Christophe Gauld, pédopsychiatre aux Hospices Civils de Lyon (HCL)Pierre Fourneret, professeur de pédopsychiatrie à l’Université Claude Bernard de Lyon et chef du service de psychopathologie du développement à l’Hôpital Femme Mère Enfant – Hospices Civils de LyonLoïc Verlingue, médecin en recherche clinique et chercheur en intelligence artificielle au Centre de lutte contre le cancer Léon BérardAlexandre Nérot, assistant en radiologie au Centre Hospitalier Annecy GenevoisMathieu Guillermin, enseignant-chercheur et maître de conférences au sein de l’unité de recherche “Confluence”, Centre de Recherche en Sciences & Humanités (EA1598) à l’Institut Catholique de Lyon (UCLy)Ainsi qu’avec la participation de :Maëlle Moranges, docteure en neuroinformatique, apportant son expertise de l’IA en tant que référente sur ce dossierPascal Roy, chercheur en biostatistique au Laboratoire de Biométrie et Biologie Évolutive – LBBE (Université Claude Bernard Lyon 1) et praticien hospitalier aux Hospices Civils de Lyon. Intervenu lors des rendez-vous professionnels LYSiERES² : « L’intelligence artificielle peut-elle remplacer le médecin ? »Antoine Coutrot, chercheur en neurosciences computationnelles, cognitives et comportementales au Laboratoire d’Informatique en Image et Systèmes d’information – LIRIS (CNRS, INSA Lyon, Université Claude Bernard Lyon 1, Université Lumière Lyon 2, École centrale Lyon). Intervenu lors des rendez-vous professionnels LYSiERES² : « L’intelligence artificielle peut-elle remplacer le médecin ? »Les étudiants de première année du cycle d’ingénieur de l’École pour l’Informatique et les Techniques Avancées (EPITA) : Léo Arpin, Adrien Guinard, Arthur De Sousa, Raphaël Hatte, Pierre Raimondi, Maui Tadeja, Mehdi Ismaili, Gregoire Vest, Emil Toulouse, Todd Tavernier, Remi Decourcelle, Paul Gravejal, Aymen Gassem, Sandro Ferroni, Nathan Goetschy, Rémi Jeulin, Clovis Lechien, Garice Morin, Alice Cariou et Eliana JunkerNous les remercions pour le temps qu’ils nous ont accordé.Un dossier rédigé par : Léo Raimbault, étudiant en Master 2 Information et Médiation Scientifique et Technique (IMST) à l’Université Claude Bernard Lyon 1, en contrat d’apprentissage à Pop’Sciences – (Introduction, articles #1, #2, #3 et co-écriture des articles #5 et #6)Nathaly Mermet, journaliste scientifique – (Articles #4 et #5)
LL’Intelligence Artificielle en santé : du médecin à l’algorithme | #1 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient » Article #1 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervientDans un monde en constante évolution, les chercheurs et médecins se tournent vers l’intelligence artificielle (IA) pour les aider dans la pratique médicale. Pop’Sciences vous dévoile les coulisses du processus de création d’une IA prête au diagnostic, une innovation qui repose sur la précision de la consultation médicale, la richesse des bases de données, et l’entraînement minutieux de modèles IA. En somme, quelle est la recette pour une bonne IA appliquée au diagnostic médical ? Quel est le rôle du médecin ? Qu’est-ce que l’IA ?Extrait de la table ronde « IA et santé » organisée par Pop’Sciences le 26 juin 2023. Un rendez-vous professionnel chercheur / journaliste, développé en collaboration avec le Club de la presse de Lyon (Projet LYSiERES²).
LL’Intelligence artificielle au service de l’imagerie médicale : Des apports majeurs | #4 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient » Article #4 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervientAméliorer l’interprétation de l’imagerie médicale (IM) pour en optimiser l’exploitation est au cœur des enjeux de l’intelligence artificielle (IA). L’IA n’est plus “seulement” un domaine de recherche en plein essor et ses applications en sont, aujourd’hui, multiples. Objectifs affichés : augmenter la précision du diagnostic afin d’améliorer la prise en charge thérapeutique, en évitant les erreurs potentiellement lourdes de conséquences. La guerre des algorithmes est ouverte pour aller toujours plus loin !Un article de Nathaly Mermet, journaliste scientifique, rédigépour Pop’Sciences – 5 septembre 2023 Améliorer l’interprétation de l’imagerie médicale pour en optimiser l’exploitation est au cœur des enjeux de l’intelligence artificielle ©Unsplash Initialement réservée au diagnostic des fractures des os, l’imagerie médicale a bénéficié d’avancées majeures dans l’ensemble des domaines thérapeutiques. Aujourd’hui, cette spécialité comprend la radiologie diagnostique (radiographies, scanners, IRM, échographie) et la radiologie interventionnelle, à savoir une forme de chirurgie mini-invasive qui utilise l’imagerie pour se repérer, comme pour déboucher une artère en cas d’AVC (accident vasculaire cérébral).L’imagerie fonctionnelle en est le dernier exemple. Encore émergente et faisant l’objet de projets de recherche, elle vise à révéler les propriétés d’une zone étudiée, notamment sa fonctionnalité (par IRM, Rayons X…) ou à restituer des informations fonctionnelles (par TEP, IRM Fonctionnelle…).“ L’IA d’aujourd’hui n’est pas la même que celle d’il y a 10 ans, et également différente de celle dont on disposera dans 10 ans” souligne le Dr Alexandre Nérot, médecin radiologue issu de l’Université de Lyon, spécialiste de radiologie interventionnelle et auteur d’une thèse d’exercice sur l’IA (développement d’intelligences artificielles par réseau de neurones). Actuellement en activité au Centre Hospitalier d’Annecy, il nous indique qu’en radiologie, l’usage de l’IA pour l’analyse d’image est attendu et à la fois craint depuis la révolution technologique qu’elle a généré en 2012. “L’évolution se fait par marche, déclenchant à chaque fois des développements de manière exponentielle, mais l’IA actuelle reste un outil et est encore loin de remplacer le radiologue” déclare-t-il, indiquant que si un jour la radiologie venait à être renversée par l’IA alors le problème sera sociétal et pas uniquement cantonné à la radiologie.En pratique, “l’intérêt, déjà énorme, de l’IA en imagerie médicale est double : elle permet à la fois l’analyse des images, mais peut aussi améliorer de la qualité d’image, grâce à ses « connaissances » acquises en anatomie. Cela nous permet un gain de temps considérable dans la réalisation des images, jusqu’à 14 fois plus rapide ” reconnaît-il, indiquant que pour une fracture, par exemple, le radiologue n’interprète que rarement la radio, mais analyse davantage l’échographie, l’IRM et le scanner. Autre exemple, une mammographie bénéficiera quant à elle d’une double lecture : par le radiologue et par une IA. “L’intérêt n’est pas de remplacer le radiologue, mais d’apporter une nouvelle lecture” insiste Alexandre.Parmi les perspectives d’applications séduisantes de l’IA pour l’IM : la surveillance de l’activité cérébrale et notamment ses réactions aux stimuli moteurs, émotionnels et mentaux. L’extension de l’IA au service de l’IM dans tous les champs médicaux est donc vertigineuse !<Les biais à l’épreuve des algorithmesLes algorithmes ont pour “mission” d’apprendre à repérer des anomalies sur les images, et à détecter de manière fiable et rapide certaines structures subtiles. ©PexelLes algorithmes de machine learning, ou apprentissage automatique, ont pour “mission” d’apprendre à repérer des anomalies sur les images, et à détecter de manière fiable et rapide certaines structures subtiles. Grâce aux applications de l’IA à la médecine, il est désormais possible d’analyser massivement toutes sortes d’images dans le but de dépister les tumeurs et autres anomalies. Mais paradoxalement, les algorithmes ne sont pas toujours cliniquement pertinents. C’est ce qu’explique l’étude « Machine learning for medical imaging: methodological failures and recommendations for the future » (en français : Apprentissage automatique pour l’imagerie médicale : échecs méthodologiques et recommandations pour l’avenir), qui décortique les mécanismes à l’œuvre derrière ce paradoxe [1]. Selon les auteurs, face aux biais qui faussent les modèles, en particulier l‘insuffisance des données (quantitative et/ou qualitative) pour entraîner l’algorithme, l’informaticien doit sortir de sa zone de confort et communiquer avec le médecin qui est l’utilisateur de ces algorithmes. “Le manque de données est plutôt de l’imprécision, mais peut créer des biais si les données ne sont pas représentatives du cas réel” précise Alexandre Nérot.Par ailleurs, dès lors qu’interviennent le Deep Learning et les réseaux de neurones artificiels*, on est en « zone d’opacité », dans laquelle l’explicabilité des résultats n’est pas évidente et où le médecin n’est pas toujours en mesure de comprendre comment l’outil a transformé les données en résultat. Il est donc nécessaire que développeurs et professionnels de santé utilisateurs parviennent à adopter un langage commun pour marier performance et sens. “De plus en plus, il y aura besoin de profils hybrides à l’interface des deux mondes” analyse le Dr Nérot, lui-même développeur, en capacité d’échanger avec les sociétés de développement, indiquant que, grâce à la mise en place d’un diplôme d’IA pour les radiologues, il y aura chaque année une promotion dotée de la double compétence. “Sans devenir un spécialiste, mais avec la volonté de s’y intéresser, chaque médecin devra à l’avenir avoir une petite culture d’IA” affirme-t-il.ÀÀ l’aube de l’IA 4 IM : déjà des apports majeurs, mais tellement plus à attendre encore !Si en une décennie, la reconnaissance automatique d’images a bénéficié de progrès fulgurants, la puissance des algorithmes reste le nerf de la guerre pour “aller plus loin”. La compétition fait rage pour quantifier l’erreur et réduire l’incertitude en imagerie médicale afin de garantir la fiabilité et la précision des résultats obtenus.Outre la quantité, il convient de disposer de données de haute qualité, contrôlées, afin d’entraîner des algorithmes d’IA à délivrer des résultats justes et précis… et leur validation reposera nécessairement sur la comparaison avec ceux obtenus par des experts humains, qui doivent rester les référents. CQFD : l’IA reste tributaire à la fois des données et de la puissance des algorithmes. La “data” est donc au cœur des enjeux, et c’est de fait là où le bât blesse si elle s’avère insuffisante, incomplète ou manquante. Composante faisant partie intégrante de l’IA, le machine learning va consister à alimenter le logiciel de milliers de cas cliniques grâce à la contribution des professionnels de santé afin qu’il soit en mesure d’effectuer des tâches de classement, permettant, par exemple, d’identifier des grains de beauté ou des mélanomes malins.Si on estime que le médecin “réussit à 80%” une identification de cellules, la valeur ajoutée de l’IA n’existe que si elle dépasse largement cette probabilité, pour idéalement s’approcher d’une fiabilité à 100% et apporter une véritable sécurité. Précieux outil pour aider les médecins à diagnostiquer avec plus de précision et de rapidité, l’IA garde pour l’heure le statut… d’outil !LL’IA appliquée à un monde de variables : l’imagerie médicaleExtrait de la table ronde « IA et santé » organisée par Pop’Sciences le 26 juin 2023. Un rendez-vous professionnel chercheur / journaliste, développé en collaboration avec le Club de la presse de Lyon (Projet LYSiERES²).—————————————————————Notes :[1] Le “machine learning” consiste à apporter une solution à un problème donné en s’appuyant sur un réseau de neurones organisés selon une architecture particulière. Le deep learning est une façon de faire du machine learning en intégrant une quantité importante de données (Big Data) PPour aller plus loin :[1] https://www.inria.fr/fr/imagerie-medicale-intelligence-artificielle-apprentissage-automatiqueL’intelligence artificielle bouleverse le diagnostic en oncologie12 LabEx impliquésRouzeau S. (2019). Artificial intelligence: which prescription for the health sector? Les EchosLes start-ups françaises de la santé s’emparent de l’intelligence artificielleDemain : intelligence artificielle et santé, les données au service du patienthttps://idexlyon.universite-lyon.fr/idexlyon/version-francaise/navigation/les-actualites/journee-scientifique-inter-labex-intelligence-artificielle-transformations-et-defis-143684.kjsp
UUne médecine revisitée à l’aune des algorithmes : Quelles questions éthiques soulève l’IA ? | #5 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient » Article #5 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervientEntre confiance aveugle et méfiance absolue, comment l’IA doit-elle être éthiquement acceptée et utilisée ? Comment s’affranchir de potentiels biais humains dans les systèmes d’IA utilisés à des fins de diagnostic, ou même thérapeutiques ? Autant de questions qui ne sont plus l’apanage de débats scientifiques, mais doivent être au cœur de débats politiques et sociétaux. Éclairage avec Mathieu Guillermin, physicien et philosophe, chercheur en éthique au sein de l’Unité de Recherche CONFLUENCE Sciences et Humanités (EA1598) de l’Institut Catholique de Lyon (UCLy) et coordinateur du projet international de recherche-action NHNAI qui vise à mettre les ressources des universités participantes au service de la réflexion éthique sociétale.À l’heure où la médecine 4.0 1 est en marche, le dialogue avec la société s’impose afin de définir les limites dans l’adoption des technologies d’IA et le développement des interactions humains-machines. Les chercheurs, qui sont partie prenante, doivent jouer leur rôle de garde-fou, l’enjeu premier étant de démystifier l’IA, d’en faire comprendre les mécanismes et de la présenter comme une palette d’outils. “Aujourd’hui, la majorité des technologies d’IA s’appuie sur un apprentissage machine (ou machine learning)” rappelle Mathieu Guillermin, soulignant que l’on peut considérer celui-ci comme un apprentissage automatique pour la réalisation d’une tâche précise à partir de données fournies à l’IA. Un article de Nathaly Mermet, journaliste scientifique, et Léo Raimbault, rédigépour Pop’Sciences – 5 septembre 2023<Quelles promesses de l’IA ? … et quels réels enjeux éthiques ?Les technologies d’IA sont susceptibles d’améliorer la qualité et l’efficacité aussi bien de la prise en charge des patients (diagnostics, pronostics, choix des stratégies thérapeutiques) que la recherche biomédicale. On parle alors de « precision medicine« , médecine de précision ou encore de médecine personnalisée.Pour autant, “les techniques d’IA ne sont pas infaillibles et soulèvent de nombreux enjeux éthiques, dans le domaine de la santé certes, mais aussi plus largement” alerte Mathieu Guillermin. Par exemple, les logiciels produits par apprentissage automatique sont rarement « meilleurs » que ceux produits par un programmeur, même débutant. Ainsi, on ne peut encore se soustraire aux qualités de travail humaines, notamment en programmation. “Si l’IA est présentée comme quelque chose d’autonome et indépendant de l’intelligence humaine, on égare beaucoup de monde” prévient Mathieu Guillermin.<Les enjeux éthiques sont donc de natures variées !Au-delà de la programmation, l’IA répète les schémas présents dans les bases de données d’apprentissages. Par conséquent, si les bases de données servant à guider l’apprentissage sont biaisées, incomplètes ou non représentatives, les prédictions de l’IA seront… d’aussi mauvaise qualité. Or, en médecine, une base de données ne peut être exhaustive et représenter fidèlement la réalité. Par exemple, si une certaine catégorie de personnes est sous-représentée dans les bases de données d’apprentissages, alors l’IA aura bien plus de mal à faire des prédictions correctes pour cette population et génère, de fait, « des biais discriminant injustement ce type de personnes » selon Mathieu Guillermin.Enfin, “même quand il n’y a pas de discrimination ou de biais, que le niveau de performance est bon, tout n’est pas encore résolu au niveau éthique” examine Mathieu Guillermin. Dans le contexte de l’automatisation des tâches, la substitution d’un être humain, doté d’émotions, de réflexion, de jugement et parfois sujet à l’erreur, par un logiciel qui opère de manière mécanique, ne peut être considérée comme une démarche anodine. La capacité de ces technologies à égaler, voire à surpasser les compétences humaines dans certaines missions soulève des interrogations essentielles en matière d’éthique.<Comment définir les limites éthiques ?Promettant de compléter la précision des professionnels de la santé, l’utilisation de l’IA nécessite donc de définir le niveau d’acceptabilité de l’erreur et la responsabilité morale. L’exploration d’un “Nouvel Humanisme à l’Heure des Neurosciences et de l’Intelligence Artificielle” (NHNAI), telle est l’ambition d’un vaste projet international réunissant les universités catholiques de 9 pays 2, dont celle de Lyon : l’UCLy. “À l’origine, la volonté est d’amener la société dans une réflexion éthique autour des neurosciences et de l’intelligence artificielle, et le projet s’inspire de ce que nous faisions déjà en éthique embarquée 3, c’est-à-dire d’amener et animer la réflexion éthique au sein des projets de recherche” explique Mathieu Guillermin.Le projet du NHNAI cherche ainsi à définir un nouvel humanisme qui embrasserait les avancées technologiques, dont l’IA, tout en préservant les valeurs essentielles de dignité, de liberté et de responsabilité humaine. Il aspire à guider la société vers un avenir où la symbiose entre la technologie et l’humanité s’inscrit dans une perspective éthique et sociale claire.Alors que l’IA progresse rapidement, il est essentiel de ne pas perdre de vue les valeurs et les préoccupations humaines. À ce titre, le projet remet l’humain au centre des problématiques liées aux nouvelles technologies. Il invite donc non seulement les chercheurs de toutes disciplines, mais également les citoyens à se joindre à la discussion et au débat. Tout un chacun ayant désormais accès à des outils IA à porter de clic (citons ChatGPT), les décisions concernant l’IA ne peuvent se réfléchir uniquement entre experts, mais doivent également refléter les valeurs, les préoccupations et les opinions de la société dans son ensemble.<Une intelligence artificielle peut-elle être vraiment… intelligente ?Objet d’un réel engouement médiatique, fascination pour les uns et inquiétude pour d’autres, l’IA est un terme de plus en plus galvaudé, or tout n’est pas Intelligence Artificielle. Alors que le terme “intelligence” désigne initialement une faculté cognitive humaine (ou du moins animale), l’apposition au qualificatif “artificiel” semble antinomique, voire un non-sens. Mais comment apprécier objectivement l’intelligence ? C’est une réflexion qui nous renvoie à un questionnement métaphysique concernant notre existence humaine. “La sémantique obscurcit le débat, mais reste qu’avec les technologies d’IA, le traitement d’information conscient, humain, est remplacé par le traitement d’information automatique” résume Mathieu Guillermin, ce qui en matière de santé mérite toute notre attention.Considérée comme un algorithme apprenant, conçu par un humain, l’IA reste un outil dont la performance est liée à celle de son concepteur. En revanche, le questionnement est plus ardu dès lors que la performance de l’IA dépasse la performance humaine. In fine, une machine peut-elle avoir un pouvoir de décision ?En santé, “La réelle question est de savoir comment la modélisation mathématique peut accompagner chacune des trois dimensions du rôle du médecin que sont le diagnostic, le suivi de l’efficacité thérapeutique et le pronostic, en particulier dans le cas de pathologies graves” pointe Pascal Roy, médecin et chercheur en biostatistiques au sein du Laboratoire Biologie Biométrie Evolutive (LBBE) à Villeurbanne (CNRS, Université Claude Bernard Lyon 1, VetAgro Sup). L’IA ne peut donc rester qu’un outil aidant à préciser ou accélérer l’expertise des médecins.<L’IA est un outil, mais pas une finalité Mathieu Guillermin nous rappelle l’importance de prendre en compte les questions éthiques dès le début du processus de création d’une IA par les développeurs. En effet, si le code de programmation est mal conçu ou si les exemples utilisés pour entraîner l’IA ne sont pas représentatifs, biaisant l’outil, les résultats de celle-ci seront peu fiables.« Avoir un esprit ne semble entretenir que peut de liens avec le fait d’exécuter un programme » explique-t-il, faisant référence au philosophe américain John Searle et à sa célèbre expérience de pensée dite « de la chambre chinoise ». L’expérience de Searle vise à démontrer que l’intelligence artificielle est limitée à être une forme d’intelligence artificielle faible et qu’elle est uniquement capable de simuler la conscience, sans être capable de véritables états mentaux, de conscience et d’intentionnalité. En d’autres termes : pour obtenir des résultats fiables et éthiques avec l’IA, c’est à l’Humain de s’assurer que le processus de conception et de formation de l’IA est bien pensé dès le départ pour éviter les biais et les problèmes éthiques ultérieurs. Il faut mettre du sens derrière l’outil.LLes biais de l’IA : quand l’esprit humain plane sur les donnéesExtrait de la table ronde « IA et santé » organisée par Pop’Sciences le 26 juin 2023. Un rendez-vous professionnel chercheur / journaliste, développé en collaboration avec le Club de la presse de Lyon (Projet LYSiERES²).—————————————————————Notes :[1] La « Médecine 4.0 » combine l’électronique, les technologies de l’information et de la communication et les microsystèmes dans une médecine moderne. Les progrès électroniques des cent dernières années ont apporté d’énormes contributions à la recherche médicale et au développement de nouveaux procédés thérapeutiques. Ainsi, les capteurs intelligents dotés d’interfaces radio appropriées permettront de relier entre eux les processus diagnostiques et thérapeutiques en médecine, rendant possible le développement de toutes nouvelles formes de traitements. Cette nouvelle « médecine 4.0 » intègre les progrès acquis grâce à la fusion de la technologie des micro-capteurs, de la microélectronique et des technologies de l’information et de la communication, au service d’applications pratiques dans de multiples aires thérapeutiques (chimiothérapie personnalisée, entre autres). La moyenne d’âge des médecins étant actuellement supérieure à 50 ans, le renouvellement par une génération « Digital Native » interviendra d’ici 15 ans, ce qui permettra certainement de transformer l’essai de la médecine 4.0.[2] Belgique, Chili, États-Unis, France, Italie, Kenya, Portugal, Québec, Taïwan[3] L’éthique embarquée désigne l’intégration de principes éthiques et de considérations morales directement dans le développement et le fonctionnement de technologies, notamment des systèmes d’intelligence artificielle et des dispositifs autonomes. Cela vise à garantir que ces technologies agissent de manière conforme à des normes éthiques prédéfinies, comme la sécurité, la transparence, la responsabilité, et le respect des droits de l’homme, tout en minimisant les risques liés à des comportements non éthiques.PPour aller plus loinL’intelligence artificielle bouleverse le diagnostic en oncologie12 LabEx impliquésRouzeau S. (2019). Artificial intelligence: which prescription for the health sector? Les EchosLes start-ups françaises de la santé s’emparent de l’intelligence artificielleDemain : intelligence artificielle et santé, les données au service du patient