Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

Numérique, intelligence artificielle et médecine : regards croisés entre médecin, sociologue et artiste

NNumérique, intelligence artificielle et médecine : regards croisés entre médecin, sociologue et artiste

À l’heure où l’intelligence artificielle (IA) s’impose progressivement dans de nombreux domaines, la médecine figure parmi les secteurs les plus profondément transformés. Des outils d’aide au diagnostic aux algorithmes de prédiction, l’IA redéfinit les pratiques cliniques, les relations de soin et les processus décisionnels.

Le développement du numérique et de l’IA en santé soulève plusieurs défis majeurs concernant la confidentialité et sécurité des données, la qualité et la compréhension des algorithmes, le cadre réglementaire et l’impact sur les métiers, les compétences et la relation de soin. La conférence abordera la question de façon interdisciplinaire à l’interface médecine/sociologie/art pour mieux en appréhender les enjeux vis-à-vis des patients et de la règlementation.

Intervenants :

  • Loïc Boussel, médecin Hospices Civils de Lyon, professeur de radiologie à Lyon 1 Université, Responsable du service de radiologie de l’hôpital de la Croix-Rousse à Lyon et membre du laboratoire de recherche CREATIS.
  • Marie Ghis Malfilatre, sociologue, chargée de recherche au CNRS, rattachée au laboratoire PACTE.
  • Judith Deschamps, artiste-chercheuse et docteure en art et technologie.

Organisée par : Confluence des savoirs avec l’ENS de Lyon, en partenariat avec les Hospices civils de Lyon – HCL – et le CNRS.

Pour en savoir plus :

Confluence de savoirs

La Gazette de la Fête de la science 2025 : des reporters en herbe racontent !

LLa Gazette de la Fête de la science 2025 : des reporters en herbe racontent !

Dans le cadre d’un partenariat avec l’équipe Pop’Sciences, les étudiants du Master Information et Médiation scientifique de l’Université Claude Bernard Lyon 1 ont joué les reporters et herbe et parcouru divers ateliers de la Fête de la science autour de la thématique des Intelligences, mise à l’honneur pour l’édition 2025. Cette démarche a donné lieu à la production d’articles publiés en ligne sur notre site. 

Scientifiques, médiateurs professionnels, étudiants, bénévoles : chaque année, ces acteurs essentiels font vivre la Fête de la science au sein des campus, laboratoires, bibliothèques et dans divers lieux de la cité… Afin de mettre en lumière la richesse de leurs actions, nous avons initié, en 2023, une démarche commune : proposer à de futurs professionnels de la médiation scientifique de retranscrire cette aventure au sein d’une gazette.

Accompagnés par l’équipe Pop’Sciences, les étudiants du Master 1 IMST de l’Université Claude Bernard Lyon 1 ont pu, cette année encore, s’initier à l’investigation et à l’écriture journalistique. Ce partenariat fécond, entre Pop’Sciences et le Master IMST, permet de faire revivre cette 35e édition de la Fête de la science, rendez-vous incontournable avec les sciences chaque automne, et d’offrir une expérience professionnelle unique aux étudiants.

À la suite d’enquêtes sur le terrain, d’interviews de professionnels, ils vous proposent cette nouvelle Gazette de la Fête de la science, à travers leurs différents récits accueillis sur le site Pop’Sciences.

Bonne lecture !

SSommaire

Les intelligences animales

Les intelligences humaines

Les intelligences artificielles

Les intelligences végétales

LLe Mot des formatrices

Nous félicitons les étudiants du master IMST pour s’être prêtés au jeu de l’investigation, pour leur travail assidu d’enquête, de rédaction et de réécriture, dans le cadre d’un véritable atelier pédagogique sur l’écriture journalistique.

Léa Bolliet, Samantha Dizier, Anne Guinot – Pop’Sciences

La Gazette de la Fête de la science #16

LLa Gazette de la Fête de la science #16

##16 – Recenser la faune européenne… grâce à une IA ?

Camouflé sur un tronc, le piège photographique attend patiemment la venue d’un animal. ©Pixabay

Lors d’une conférence qui s’est déroulée pendant la Fête de la science 2025, Bastien Boussau, directeur de recherche au laboratoire de biométrie et de biologie évolutive (LBBE), a présenté des projets de développement d’intelligence artificielle (IA) appliqués à la biologie. Parmi eux Deep Faune, un outil de détection et de classification des espèces animales prises en photo.

Les pièges photographiques sont des outils qui ont révolutionné nos observations de la faune sauvage. Ils sont placés dans la nature pour capturer des images d’animaux sans intervention humaine. Les photos permettent, entre autres, de vérifier la présence d’une espèce dans un milieu, de déterminer la taille de sa population, ses interactions avec les autres espèces, etc. Ce sont des données précieuses habituellement traitées par les biologistes. Alors, pourquoi faire appel à une IA ?

Pour y répondre, imaginons-nous partir en vacances et prendre des photos… beaucoup de photos. Certains d’entre nous avoueront qu’ils ne les trient pas au retour car c’est un travail trop fastidieux. Dans le cas des pièges photographiques, l’idée est à peu près similaire. La quantité de données est telle qu’il faut une équipe de plusieurs chercheurs et des centaines, voire des milliers d’heures pour tout annoter. « [Deep Faune] c’est un type de travail utile pour la recherche en biologie […] parce qu’on a aujourd’hui des technologies qui nous permettent de générer une grande quantité de données et qui requièrent ce genre d’approches d’identification automatique des animaux », explique Bastien Boussau.

Les applications de l’IA en biologie sont nombreuses. Bastien Boussau explique comment elle peut aussi aider à étudier la répartition des espèces. © Anaïs Plautard

Une IA pour identifier des espèces

Le projet Deep Faune, à l’origine français, réunit plus d’une cinquantaine d’acteurs de la conservation et de la recherche, notamment le LBBE. En 2023, le logiciel était capable d’identifier « 26 espèces animales ou groupes taxonomiques supérieurs communs en Europe »[1]. Aujourd’hui, il peut en identifier une trentaine. Son fonctionnement repose sur le principe du deep learning, « apprentissage profond » en français, une structure qui s’inspire du cerveau humain avec des « réseaux de neurones ». Ce jargon ne cache en réalité que des fonctions mathématiques associées les unes aux autres. On fournit ensuite à l’IA une grande quantité d’images annotées par des humains avant de la laisser se débrouiller. « Pour chaque pixel, elle analyse la quantité de rouge, de vert et de bleu pour ensuite déterminer le nom de l’espèce », résume le chercheur.

Et les premiers résultats s’avèrent probants ! En septembre 2025, une équipe allemande publie une étude relatant l’efficacité de Deep Faune sur des images prises dans 10 zones protégées en Allemagne[2]. Et là où une centaine de chercheurs s’est relayée pendant 500 jours pour traiter un peu moins d’un million d’images, Deep Faune, lui, a mis 7 jours avec une précision de 90 %. Un résultat plus que satisfaisant qui procure un gain de temps considérable pour les chercheurs. Ces derniers peuvent alors se concentrer sur les tâches plus ardues comme l’interprétation des résultats.

Par Anaïs Plautard, étudiante en Master 1 Information et Médiation Scientifique et Technique, Université Claude Bernard Lyon 1. 

 

Notes : 

[1] Rigoudy, N., et al., The DeepFaune initiative: a collaborative effort towards the automatic identification of European fauna in camera trap images, European Journal of Wildlife Research, Volume 69 (2023).

[2] Henrich, M., et al., Camera traps and deep learning enable efficient large‐scale density estimation of wildlife in temperate forest ecosystems, Remote Sensing in Ecology and Conservation (2025).

La Gazette de la Fête de la science #19

LLa Gazette de la Fête de la science #19

##19 – IA : des conséquences psychologiques préoccupantes chez les scolaires

Plus on utilise l’IA, moins notre cerveau est actif, comme si elle réfléchissait pour nous. © Illustration par Léna Ehrsam.

 

Depuis 2022, la popularisation de l’Intelligence Artificielle (IA) générative, chez les élèves, pose des problèmes de développement de l’esprit critique, parallèlement aux conséquences écologiques de son usage. Durant la Fête de la science 2025, Audric Mazzietti, spécialiste en psychologie cognitive, est revenu sur son fonctionnement et ses enjeux, dans une conférence à l’Institut catholique de Lyon. 

 

 

 

Aujourd’hui, l’IA est utilisée dans le milieu scolaire presque systématiquement. De leur côté, les enseignants n’y sont pas encore formés. Conséquences : les élèves en font un usage non régulé, sans comprendre comment elle fonctionne, ni quels sont ses enjeux pour l’apprentissage.

Fondée sur l’autonomie et l’adaptation, l’IA est un système algorithmique qui apprend, à la différence des autres procédés numériques. Mais cela ne signifie pas qu’il réfléchit : « malgré son nom, l’IA n’est pas intelligente », rappelle Audric Mazzietti. En piochant dans ses bases de données, elle ne peut que reproduire des comportements liés aux humains, sans les saisir ! Par ailleurs, elle n’est pas excellente pour tout. Il existe des « petites » IA effectuant des tâches précises dans lesquelles elles sont plus efficaces que ChatGPT, par exemple.

L’esprit critique menacé ? 

Passée la fascination ressentie face à la nouveauté, les premiers effets négatifs de l’IA se révèlent. L’un des gros problèmes réside dans la dépendance cognitive grandissante chez les jeunes, causée par la délégation du travail intellectuel à l’IA ; l’ère où l’on charge la machine des tâches purement mécaniques touche à sa fin. Une étude montre, d’ailleurs, qu’après avoir utilisé l’IA, le cerveau reste en sous-régime. Dans ce contexte, le déploiement de l’esprit critique et de la capacité à réfléchir par nous-mêmes reste crucial, notamment pour démêler le vrai du faux parmi les contenus générés par l’IA. De surcroît, certains jeunes s’en servent comme soutien émotionnel : « ils croient entretenir une vraie relation avec la machine, alors qu’elle ne leur renvoie que des statistiques », explique Audric Mazzietti.

On observe également une fracture numérique, du fait de l’isolement des personnes en situation d’illectronisme ou qui ne peuvent pas s’offrir des IA puissantes.

Malgré la nécessité d’une adaptation politique à l’arrivée de l’IA, une seule régulation, européenne, existe : l’IA act. Adoptée en 2024, elle a quelques décennies de retard par rapport aux débuts de l’IA dans les années 1970. En outre, l’Éducation Nationale n’a encore pris aucune mesure, alors que l’usage de cet « outil » s’est massifié dans l’enseignement secondaire.

L’enjeu : limiter les dégâts écologiques et psychologiques

Afin d’utiliser l’IA de manière adaptée aux défis psychologiques et écologiques, Audric Mazzietti, recommande, d’abord, de privilégier les bons outils, conformes aux tâches spécifiques. On obtient de meilleurs résultats par rapport à des IA générales, avec une consommation énergétique allégée. Par ailleurs, tout le monde en a déjà fait l’expérience  : à consigne peu claire donnée à l’IA, résultat peu clair obtenu. Un prompt bien formulé est essentiel. Il permet une meilleure production, avec moins de requêtes. Enfin, un usage plus pédagogique serait pertinent pour les scolaires, en demandant, par exemple, à l’IA la création de fiches de révision ou de quizz, plutôt que de lui faire rédiger un devoir de A à Z. De toute évidence, il est clair que le défi est d’essayer d’atténuer une situation déjà (bien) critique.

Par Léna Ehrsam, étudiante en Master 1 Information et Médiation Scientifique et Technique, Université Claude Bernard Lyon . 

 

 

 

 

 

 

 

 

La Gazette de la Fête de la science #21

LLa Gazette de la Fête de la science #21

##21 – Intelligence Artificielle : progrès ou menace ?

L’envers du progrès : l’impact de l’intelligence artificielle.
Illustration générée par IA – création : Mélie Bousson

Omniprésente et fascinante, l’Intelligence Artificielle (IA) transforme déjà notre quotidien. Mais derrière ces avancées, se cachent des enjeux éthiques et environnementaux. Lors de la Fête de la science 2025, des experts en science numérique ont exploré ses promesses ainsi que les défis qu’elle pose aujourd’hui, qu’il s’agisse de la médecine, de l’industrie ou sur le plan législatif. 

Quand nous parlons d’IA, nous pensons à des robots, des assistants vocaux ou encore à des images générées par des machines. Au-delà des clichés, l’IA trouve déjà des applications concrètes, notamment dans le domaine médical où elle est particulièrement prometteuse. L’objectif n’est pas de remplacer le médecin mais de l’assister au mieux. Elle soutient le système de santé et améliore le triage. Elle optimise la prise en charge clinique et peut même créer des jumeaux numériques pour simuler des interventions chirurgicales. En Norvège, par exemple, une IA autonome aide les ophtalmologues à déterminer si la consultation est urgente ou relève d’un simple contrôle de routine.

L’envers du décor, un impact environnemental majeur

Cependant, derrière ces avancées se cachent de nombreux problèmes, notamment d’un point de vue environnemental. Selon un rapport interne, Google s’était fixé pour objectif de réduire de 45 % ses émissions de gaz à effet de serre entre 2020 et 2024. Pourtant, sur cette même période, celles-ci ont augmenté de 45 %. Une contradiction qui pousse à s’interroger sur l’impact écologique d’une utilisation massive. En effet, pour fonctionner, l’IA nécessite des infrastructures ; les data centers, gourmands en énergie et en eau. D’après Éric Tannier, chercheur spécialisé dans les liens entre science et société à l’INRIA : « On peut alors parler de boucle de rétroaction : plus l’IA se développe, plus la demande énergétique augmente ». Cela entraîne la construction de nouveaux data centers, eux-mêmes consommateurs d’énergie. En Irlande, 30 % de la consommation électrique nationale est liée au numérique, ce qui oblige à limiter d’autres usages, voire à abandonner certains projets.

Régulation et inégalité : les nouveaux défis face à l’IA

L’IA évolue à une vitesse qu’il est presque impossible, pour le cadre législatif, de suivre. Alors qu’il faut des années pour élaborer une loi, un algorithme évolue seulement en quelques jours. Malgré la volonté européenne de réguler ses pratiques via l’AI Act, qui encadre les produits commercialisés en Europe, il reste difficile de contenir ce phénomène en constante évolution. Cette rapidité soulève également des questions sur la répartition des bénéfices de l’IA. Les pays les plus développés semblent en profiter le plus, creusant un écart avec les autres pays. L’IA semble alors avoir été créée pour couvrir des manques, comme face à la pénurie de personnel hospitalier, plutôt que répondre à de vrais besoins.

L’IA incarne ainsi un paradoxe : un outil de progrès indéniable, mais dont les conséquences environnementales et sociales nous obligent à repenser notre rapport à cette technologie.

Par Mélie Bousson, étudiante en Master 1 Information et Médiation Scientifique et Technique, Université Claude Bernard Lyon. 

 

 

 

L’IA remonte le temps des Parisiens | Vidéo

LL’IA remonte le temps des Parisiens | Vidéo

La chaine YouTube du CNRS , vous invite à visualiser leur nouveau reportage sur les archives des Parisiens.

L’IA redonne vie aux archives parisiennes de l’entre-deux-guerres. L’exposition « Les Gens de Paris » dresse le portrait de ses habitants à partir de 9 millions de lignes de recensement réunies et décodées par Sandra Brée, historienne au Laboratoire de recherche historique Rhône-Alpes et des informaticiens du Laboratoire d’informatique, du traitement de l’information et des systèmes. À découvrir dans ce reportage, réalisé en partenariat avec Le Monde.

>> Pour plus d’information rendez-vous sur la chaine YouTube :
 CNRS

Les enjeux éthiques liés aux « large language models »

LLes enjeux éthiques liés aux « large language models »

À l’occasion d’un cycle de trois conférences sur l’Intelligence artificielle (IA), l’Enssib – École nationale supérieure des sciences de l’information et des bibliothèques – donne la parole à de jeunes chercheuses. Ces conférences abordent l’IA au prisme des sciences humaines et sociales pour identifier et explorer les enjeux politiques et sociaux.

Cette conférence du 4 novembre 2025 portait sur les enjeux éthiques liés aux LLMs (large language models) en particulier les corpus d’entrainement des modèles. Les LLMs sont des modèles d’apprentissage automatique capables de comprendre et de générer des textes.

Intervenante :

  • Irène Girard, doctorante à l’Université Gustave Eiffel au sein du laboratoire LISIS – Laboratoire Interdisciplinaire Sciences Innovations Sociétés. Elle a précédemment travaillée comme data scientist chez PleIAs, entreprise spécialisée dans le développement de modèles de langage open-source. Son travail de recherche porte sur « L’agent public et les robots conversationnels : les reconfigurations du travail de bureau », une étude sociologique des transformations induites par l’intégration des chatbots dans l’administration française.

>> Regarder la conférence :

 

IA conversationnelle : d’ELIZA à ChatGPT

IIA conversationnelle : d’ELIZA à ChatGPT

Les grands modèles de langue (Large Language Models ou LLMs) ont révolutionné la manière dont on traite l’information à l’aide de nos ordinateurs : recherche d’information, traduction automatique, résolution de problèmes, programmation…

Cet exposé commencera par replacer brièvement ces modèles dans une perspective de développement de l’intelligence artificielle, du machine learning et du traitement automatique des langues. Il lèvera ensuite un peu le voile sur la manière dont ils fonctionnent, avant d’en pointer leurs limites et les solutions développées aujourd’hui.

Intervenant : Julien Velcin, professeur d’informatique à l’École Centrale Lyon, membre de l’équipe Imagine de LIRIS.

Pour en savoir plus, consultez le site :

BU Insa Lyon

 

Conférence IA conversationnelle : d'Eliza à Chatgpt

La fabrique de l’IA juridique | #2 Cycle de conférences sur l’IA

LLa fabrique de l’IA juridique | #2 Cycle de conférences sur l’IA

L’Enssib poursuit son cycle de conférences consacré aux enjeux politiques et sociaux de l’intelligence artificielle, en donnant la parole à de jeunes chercheuses qui explorent la manière dont ces technologies transforment nos institutions et nos pratiques. Cette deuxième conférence propose de plonger dans les coulisses de l’IA juridique. 

Un peu de contexte

Depuis 2016, toutes les décisions de justice sont rendues publiques et librement accessibles en ligne. Cette ouverture a permis l’apparition des premiers algorithmes capables d’analyser ces données. Cela pose plusieurs questions :

  • Que changent ces outils dans la manière dont la justice s’organise et s’exerce ?
  • Quels choix humains, techniques et politiques façonnent les algorithmes que l’on présente souvent comme neutres ou autonomes ?

S’appuyant sur une enquête empirique mêlant ethnographies, entretiens et analyse documentaire, cette conférence mettra en lumière les transformations institutionnelles et professionnelles induites par l’essor de l’IA.

Intervenante :

  • Camille Girard-Chanudet, post-doctorante à l’Institut Santé Numérique en Société (CNE-CNRS). Elle travaille sur les usages algorithmiques des données de santé. Sa thèse, réalisée en partenariat avec le laboratoire d’innovation numérique de la CNIL (LINC), et soutenue en 2023 à l’EHESS, est consacrée à la fabrique d’outils d’intelligence artificielle dans le domaine de la justice. Ses recherches croisent la sociologie des sciences et des techniques et l’étude de la modernisation de l’action publique. Son but est de mieux comprendre les implications sociales et politiques du développement des technologies algorithmiques. Elle est également cofondatrice de l’Observatoire des Algorithmes Publics.

>> Suivez la conférence en direct :

chaîne youtube de l’Enssib.

Les enjeux éthiques liés aux Large Language Models | #1 Cycle de conférences sur l’IA

LLes enjeux éthiques liés aux Large Language Models | #1 Cycle de conférences sur l’IA

L’Enssib organise un cycle de trois conférences pour identifier et explorer les enjeux politiques et sociaux de l’Intelligence artificielle. Pour chaque conférence, la parole sera donnée à de jeunes chercheuses.

Cette première conférence portera sur les enjeux éthiques liés aux LLMs (large language models), en particulier les corpus d’entraînement des modèles.

Nous accueillerons Irène Girard, doctorante à l’Université Gustave Eiffel au sein du laboratoire LISIS. Son travail de thèse porte sur « L’agent public et les robots conversationnels : les reconfigurations du travail de bureau », une étude sociologique des transformations induites par l’intégration des chatbots dans l’administration française.

>> Suivez la conférence en direct :

chaîne youtube de l’Enssib