Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

Drones et robots tueurs dans la guerre : soldat ou algorithme, qui décidera de la vie et de la mort demain ?

DDrones et robots tueurs dans la guerre : soldat ou algorithme, qui décidera de la vie et de la mort demain ?

On ne peut plus ignorer la propagation fulgurante des armes létales autonomes et de l’intelligence artificielle dans les conflits modernes ; toutefois, confier la prise de décision à la technologie seule serait éminemment dangereux. 

La guerre des machines est déjà en cours. Ces dernières années, le recours massif aux drones et à l’intelligence artificielle (IA) a transformé le champ de bataille et la nature des opérations. L’autonomie accélère la détection et la délivrance du feu. La refuser, c’est rendre les armes. L’envisager sans garde-fous, c’est percevoir la guerre dénuée de toute éthique. […]

Un article de Laurent Vilaine, doctorant en sciences de gestion, enseignant en géopolitique à ESDES Business School – Institut catholique de Lyon – UCLy – The Conversation – 1er sept. 2025

>> Lire l’article complet :

THE CONVERSATION

La Gazette de la Fête de la science 2025 : des reporters en herbe racontent !

LLa Gazette de la Fête de la science 2025 : des reporters en herbe racontent !

Dans le cadre d’un partenariat avec l’équipe Pop’Sciences, les étudiants du Master Information et Médiation scientifique de l’Université Claude Bernard Lyon 1 ont joué les reporters et herbe et parcouru divers ateliers de la Fête de la science autour de la thématique des Intelligences, mise à l’honneur pour l’édition 2025. Cette démarche a donné lieu à la production d’articles publiés en ligne sur notre site. 

Scientifiques, médiateurs professionnels, étudiants, bénévoles : chaque année, ces acteurs essentiels font vivre la Fête de la science au sein des campus, laboratoires, bibliothèques et dans divers lieux de la cité… Afin de mettre en lumière la richesse de leurs actions, nous avons initié, en 2023, une démarche commune : proposer à de futurs professionnels de la médiation scientifique de retranscrire cette aventure au sein d’une gazette.

Accompagnés par l’équipe Pop’Sciences, les étudiants du Master 1 IMST de l’Université Claude Bernard Lyon 1 ont pu, cette année encore, s’initier à l’investigation et à l’écriture journalistique. Ce partenariat fécond, entre Pop’Sciences et le Master IMST, permet de faire revivre cette 35e édition de la Fête de la science, rendez-vous incontournable avec les sciences chaque automne, et d’offrir une expérience professionnelle unique aux étudiants.

À la suite d’enquêtes sur le terrain, d’interviews de professionnels, ils vous proposent cette nouvelle Gazette de la Fête de la science, à travers leurs différents récits accueillis sur le site Pop’Sciences.

Bonne lecture !

SSommaire

Les intelligences animales

Les intelligences humaines

Les intelligences artificielles

Les intelligences végétales

LLe Mot des formatrices

Nous félicitons les étudiants du master IMST pour s’être prêtés au jeu de l’investigation, pour leur travail assidu d’enquête, de rédaction et de réécriture, dans le cadre d’un véritable atelier pédagogique sur l’écriture journalistique.

Léa Bolliet, Samantha Dizier, Anne Guinot – Pop’Sciences

La Gazette de la Fête de la science #16

LLa Gazette de la Fête de la science #16

##16 – Recenser la faune européenne… grâce à une IA ?

Camouflé sur un tronc, le piège photographique attend patiemment la venue d’un animal. ©Pixabay

Lors d’une conférence qui s’est déroulée pendant la Fête de la science 2025, Bastien Boussau, directeur de recherche au laboratoire de biométrie et de biologie évolutive (LBBE), a présenté des projets de développement d’intelligence artificielle (IA) appliqués à la biologie. Parmi eux Deep Faune, un outil de détection et de classification des espèces animales prises en photo.

Les pièges photographiques sont des outils qui ont révolutionné nos observations de la faune sauvage. Ils sont placés dans la nature pour capturer des images d’animaux sans intervention humaine. Les photos permettent, entre autres, de vérifier la présence d’une espèce dans un milieu, de déterminer la taille de sa population, ses interactions avec les autres espèces, etc. Ce sont des données précieuses habituellement traitées par les biologistes. Alors, pourquoi faire appel à une IA ?

Pour y répondre, imaginons-nous partir en vacances et prendre des photos… beaucoup de photos. Certains d’entre nous avoueront qu’ils ne les trient pas au retour car c’est un travail trop fastidieux. Dans le cas des pièges photographiques, l’idée est à peu près similaire. La quantité de données est telle qu’il faut une équipe de plusieurs chercheurs et des centaines, voire des milliers d’heures pour tout annoter. « [Deep Faune] c’est un type de travail utile pour la recherche en biologie […] parce qu’on a aujourd’hui des technologies qui nous permettent de générer une grande quantité de données et qui requièrent ce genre d’approches d’identification automatique des animaux », explique Bastien Boussau.

Les applications de l’IA en biologie sont nombreuses. Bastien Boussau explique comment elle peut aussi aider à étudier la répartition des espèces. © Anaïs Plautard

Une IA pour identifier des espèces

Le projet Deep Faune, à l’origine français, réunit plus d’une cinquantaine d’acteurs de la conservation et de la recherche, notamment le LBBE. En 2023, le logiciel était capable d’identifier « 26 espèces animales ou groupes taxonomiques supérieurs communs en Europe »[1]. Aujourd’hui, il peut en identifier une trentaine. Son fonctionnement repose sur le principe du deep learning, « apprentissage profond » en français, une structure qui s’inspire du cerveau humain avec des « réseaux de neurones ». Ce jargon ne cache en réalité que des fonctions mathématiques associées les unes aux autres. On fournit ensuite à l’IA une grande quantité d’images annotées par des humains avant de la laisser se débrouiller. « Pour chaque pixel, elle analyse la quantité de rouge, de vert et de bleu pour ensuite déterminer le nom de l’espèce », résume le chercheur.

Et les premiers résultats s’avèrent probants ! En septembre 2025, une équipe allemande publie une étude relatant l’efficacité de Deep Faune sur des images prises dans 10 zones protégées en Allemagne[2]. Et là où une centaine de chercheurs s’est relayée pendant 500 jours pour traiter un peu moins d’un million d’images, Deep Faune, lui, a mis 7 jours avec une précision de 90 %. Un résultat plus que satisfaisant qui procure un gain de temps considérable pour les chercheurs. Ces derniers peuvent alors se concentrer sur les tâches plus ardues comme l’interprétation des résultats.

Par Anaïs Plautard, étudiante en Master 1 Information et Médiation Scientifique et Technique, Université Claude Bernard Lyon 1. 

 

Notes : 

[1] Rigoudy, N., et al., The DeepFaune initiative: a collaborative effort towards the automatic identification of European fauna in camera trap images, European Journal of Wildlife Research, Volume 69 (2023).

[2] Henrich, M., et al., Camera traps and deep learning enable efficient large‐scale density estimation of wildlife in temperate forest ecosystems, Remote Sensing in Ecology and Conservation (2025).

La Gazette de la Fête de la science #17

LLa Gazette de la Fête de la science #17

##17 – L’IA fabriquéE à notre image ?

Frankenstein à des allures à la fois humaine et artificielle. Image générée avec Canva par Assia Ali Kada.

À l’occasion de la Fête de la science 2025, des chercheurs se sont interrogés sur les biais de l’intelligence artificielle. Quels sont-ils et comment y remédier ?

Lorsqu’il est question d’intelligence artificielle (IA), on s’interroge sur la faculté de l’être humain à reproduire de manière automatique et efficace, les capacités cognitives humaines. Dans le roman Frankenstein ou Le Prométhée moderne de Mary Shelley (1818), le docteur Frankenstein fabrique une créature à partir de morceaux humains et d’intelligence artificielle, mais il finit terrifié par le résultat. L’IA, à l’image du monstre de Frankenstein, n’est pas mauvaise par nature mais reflète les travers et les imperfections de l’humanité qui l’a créé. Et si notre plus grande invention devenait le miroir de nos défauts ?

Puisque les intelligences artificielles apprennent à partir de nos données, elles reproduisent nos biais cognitifs et nos représentations sociales, combinant la rigueur des mathématiques à la subjectivité de la culture humaine. Peut-on imaginer qu’une machine soit sexiste, « classiste » ou raciste ? Oui. Un exemple marquant remonte à 2015 : lorsque l’on cherchait sur Google à quoi ressemblait un chef d’entreprise (CEO), les résultats affichaient principalement des images d’hommes blancs, âgés d’une quarantaine d’années ou plus. Une absence de représentation de la diversité, qui révélait un biais profond : l’idée qu’un CEO est forcément un homme blanc d’âge mûr. Depuis, les équipes de Google ont corrigé partiellement ce problème : en 2025, la même recherche montre désormais quelques femmes. Cet exemple présente bien les conséquences d’un apprentissage réalisé à partir de données biaisées.

Le bug humain …

On distingue plusieurs types de biais. Il y a d’abord les biais de données : les algorithmes apprennent à partir d’énormes ensembles d’informations qu’on leur fournit, mais ces données ne sont pas toujours neutres. Si une IA est entraînée surtout avec des CV d’hommes dans la tech, elle aura tendance à favoriser les profils masculins, car elle reproduit ce qu’elle a appris. Ensuite, des biais algorithmiques apparaissent lors de la conception. En choisissant quels paramètres privilégier ou quelles erreurs tolérer, le programmeur transmet involontairement ses valeurs et limites, un peu comme Victor Frankenstein façonnant sa créature. Enfin, les biais cognitifs viennent de nous. Nos stéréotypes influencent l’interprétation des résultats, même si l’IA est neutre. Ces trois biais s’alimentent mutuellement, créant un cercle vicieux de discrimination automatique. “La société est biaisée, et cela biaise les IA… ”, écrit Sara Bouchenak, professeure d’informatique à l’INSA Lyon. Et comme dans le roman de Mary Shelley, la question demeure : que faisons-nous de nos créations une fois qu’elles nous échappent ?

Apprivoiser le monstre…

Dans Frankenstein, le véritable drame ne réside pas dans la création du monstre, mais dans son abandon par son créateur. Avec l’IA le danger n’est pas la machine en elle-même, mais si on la laisse évoluer sans contrôle éthique ni regard critique. Les grandes entreprises ont compris qu’il est impossible d’ignorer les biais présents dans les intelligences artificielles. Elles tentent donc, à leur manière, d’y remédier en améliorant leurs systèmes. Le défi n’est pas seulement technique, il est éthique et citoyen. Si les machines apprennent de nous, elles peuvent aussi apprendre de nos progrès. Aujourd’hui, nous savons qu’il importe d’être responsable de ce que nous créons et des impacts que cela engendre.

Par Assia Ali Kada, étudiante en Master 1 Information et Médiation Scientifique et Technique, Université Claude Bernard Lyon 1, avec Pop’Sciences

La Gazette de la Fête de la science #18

LLa Gazette de la Fête de la science #18

##18 – l’archéologue augmenté : l’IA à la rescousse du passé

Les premiers curieux se regroupent devant Clothilde Zerbino (ingénieur d’études au CNRS) et Nicolas Herreyre pour discuter avec eux de datation carbone et de l’avancée de la recherche en archéologie grâce à la spectroscopie laser. © Vincent Noclin

Dans le cadre de la Fête de la science 2025, le Lugdunum Musées & Théâtres romains a été le décor d’animations et d’échanges autour de l’utilisation de l’intelligence artificielle (IA) pour explorer la Rome antique. Ici, pas de pinceau ni de pioche, mais des ordinateurs et des graphes pour nous faire découvrir comment les algorithmes aident les archéologues à donner du sens aux vestiges du passé.

D’un côté Nicolas Herreyre, doctorant en archéométrie au Laboratoire ArAr, évoque la spectroscopie laser pour dater les constructions romaines, une technique utilisée pour détecter des éléments présents dans les vestiges à l’aide d’un faisceau laser. De l’autre, Guilhem Turgis, géomaticien pour Archéodunum, une entreprise d’archéologie préventive, et son collègue Abdelhafid Ammari, data scientist nous parlent de cartographie et de statistiques. Ces méthodes servent à repérer des constructions aujourd’hui disparues à partir des traces laissées par leurs poteaux. Dans ces deux cas, l’intervention de l’IA se révèle un outil salutaire pour traiter les millions de données générées par le laser et pour tirer des informations à partir des points modélisant les traces de poteaux. Des actions qui, sans IA, nécessitent plusieurs mois de travail pour les chercheurs.

L’intelligence artificielle : un outil de choix

« L’objectif est clairement de gagner du temps », s’accordent les trois intervenants. Du côté de la spectroscopie laser, une technique qui implique l’interaction de la lumière laser avec la matière pour obtenir des informations sur la structure et les propriétés de divers matériaux, notamment les solides, les liquides et les gaz, l’intelligence artificielle a été entraînée pour traiter en continu chaque donnée générée par le laser et associer les éléments identifiés aux minéraux correspondants. Cela permet de donner des résultats quasi immédiats au chercheur. Pour la cartographie, l’IA fait plusieurs simulations grâce aux points modélisant les traces de poteaux et propose aux chercheurs différents plans d’architecture possibles avec des scores de fiabilité associés. Dans les deux cas, l’utilisateur garde la main sur les paramètres qu’il définit et peut les faire varier en fonction de ce qu’il ou elle recherche. Ces tâches, répétitives et chronophages deviennent de plus en plus optimisées et automatisées, ce qui permet aux chercheurs de mieux travailler.

Pas de solution miracle

Dans un contexte où l’IA se démocratise, la question devient inévitable : va-t-elle remplacer le chercheur ? L’occasion pour les intervenants de discuter des limites actuelles de l’intelligence artificielle : « [L’IA] apporte des solutions à un problème connu ». Le travail effectué vient surtout libérer du temps aux scientifiques et leur permettre de l’utiliser dans l’interprétation des résultats et leurs conclusions. L’idée est donc d’associer le meilleur des deux mondes : un outil qui traite et exécute au service d’un cerveau qui interprète et questionne.

Par Kevin Lalanne, étudiante en Master 1 Information et Médiation Scientifique et Technique, Université Claude Bernard Lyon 1, avec Pop’Sciences.

La Gazette de la Fête de la science #19

LLa Gazette de la Fête de la science #19

##19 – IA : des conséquences psychologiques préoccupantes chez les scolaires

Plus on utilise l’IA, moins notre cerveau est actif, comme si elle réfléchissait pour nous. © Illustration par Léna Ehrsam.

 

Depuis 2022, la popularisation de l’Intelligence Artificielle (IA) générative, chez les élèves, pose des problèmes de développement de l’esprit critique, parallèlement aux conséquences écologiques de son usage. Durant la Fête de la science 2025, Audric Mazzietti, spécialiste en psychologie cognitive, est revenu sur son fonctionnement et ses enjeux, dans une conférence à l’Institut catholique de Lyon. 

 

 

 

Aujourd’hui, l’IA est utilisée dans le milieu scolaire presque systématiquement. De leur côté, les enseignants n’y sont pas encore formés. Conséquences : les élèves en font un usage non régulé, sans comprendre comment elle fonctionne, ni quels sont ses enjeux pour l’apprentissage.

Fondée sur l’autonomie et l’adaptation, l’IA est un système algorithmique qui apprend, à la différence des autres procédés numériques. Mais cela ne signifie pas qu’il réfléchit : « malgré son nom, l’IA n’est pas intelligente », rappelle Audric Mazzietti. En piochant dans ses bases de données, elle ne peut que reproduire des comportements liés aux humains, sans les saisir ! Par ailleurs, elle n’est pas excellente pour tout. Il existe des « petites » IA effectuant des tâches précises dans lesquelles elles sont plus efficaces que ChatGPT, par exemple.

L’esprit critique menacé ? 

Passée la fascination ressentie face à la nouveauté, les premiers effets négatifs de l’IA se révèlent. L’un des gros problèmes réside dans la dépendance cognitive grandissante chez les jeunes, causée par la délégation du travail intellectuel à l’IA ; l’ère où l’on charge la machine des tâches purement mécaniques touche à sa fin. Une étude montre, d’ailleurs, qu’après avoir utilisé l’IA, le cerveau reste en sous-régime. Dans ce contexte, le déploiement de l’esprit critique et de la capacité à réfléchir par nous-mêmes reste crucial, notamment pour démêler le vrai du faux parmi les contenus générés par l’IA. De surcroît, certains jeunes s’en servent comme soutien émotionnel : « ils croient entretenir une vraie relation avec la machine, alors qu’elle ne leur renvoie que des statistiques », explique Audric Mazzietti.

On observe également une fracture numérique, du fait de l’isolement des personnes en situation d’illectronisme ou qui ne peuvent pas s’offrir des IA puissantes.

Malgré la nécessité d’une adaptation politique à l’arrivée de l’IA, une seule régulation, européenne, existe : l’IA act. Adoptée en 2024, elle a quelques décennies de retard par rapport aux débuts de l’IA dans les années 1970. En outre, l’Éducation Nationale n’a encore pris aucune mesure, alors que l’usage de cet « outil » s’est massifié dans l’enseignement secondaire.

L’enjeu : limiter les dégâts écologiques et psychologiques

Afin d’utiliser l’IA de manière adaptée aux défis psychologiques et écologiques, Audric Mazzietti, recommande, d’abord, de privilégier les bons outils, conformes aux tâches spécifiques. On obtient de meilleurs résultats par rapport à des IA générales, avec une consommation énergétique allégée. Par ailleurs, tout le monde en a déjà fait l’expérience  : à consigne peu claire donnée à l’IA, résultat peu clair obtenu. Un prompt bien formulé est essentiel. Il permet une meilleure production, avec moins de requêtes. Enfin, un usage plus pédagogique serait pertinent pour les scolaires, en demandant, par exemple, à l’IA la création de fiches de révision ou de quizz, plutôt que de lui faire rédiger un devoir de A à Z. De toute évidence, il est clair que le défi est d’essayer d’atténuer une situation déjà (bien) critique.

Par Léna Ehrsam, étudiante en Master 1 Information et Médiation Scientifique et Technique, Université Claude Bernard Lyon . 

 

 

 

 

 

 

 

 

La Gazette de la Fête de la science #21

LLa Gazette de la Fête de la science #21

##21 – Intelligence Artificielle : progrès ou menace ?

L’envers du progrès : l’impact de l’intelligence artificielle.
Illustration générée par IA – création : Mélie Bousson

Omniprésente et fascinante, l’Intelligence Artificielle (IA) transforme déjà notre quotidien. Mais derrière ces avancées, se cachent des enjeux éthiques et environnementaux. Lors de la Fête de la science 2025, des experts en science numérique ont exploré ses promesses ainsi que les défis qu’elle pose aujourd’hui, qu’il s’agisse de la médecine, de l’industrie ou sur le plan législatif. 

Quand nous parlons d’IA, nous pensons à des robots, des assistants vocaux ou encore à des images générées par des machines. Au-delà des clichés, l’IA trouve déjà des applications concrètes, notamment dans le domaine médical où elle est particulièrement prometteuse. L’objectif n’est pas de remplacer le médecin mais de l’assister au mieux. Elle soutient le système de santé et améliore le triage. Elle optimise la prise en charge clinique et peut même créer des jumeaux numériques pour simuler des interventions chirurgicales. En Norvège, par exemple, une IA autonome aide les ophtalmologues à déterminer si la consultation est urgente ou relève d’un simple contrôle de routine.

L’envers du décor, un impact environnemental majeur

Cependant, derrière ces avancées se cachent de nombreux problèmes, notamment d’un point de vue environnemental. Selon un rapport interne, Google s’était fixé pour objectif de réduire de 45 % ses émissions de gaz à effet de serre entre 2020 et 2024. Pourtant, sur cette même période, celles-ci ont augmenté de 45 %. Une contradiction qui pousse à s’interroger sur l’impact écologique d’une utilisation massive. En effet, pour fonctionner, l’IA nécessite des infrastructures ; les data centers, gourmands en énergie et en eau. D’après Éric Tannier, chercheur spécialisé dans les liens entre science et société à l’INRIA : « On peut alors parler de boucle de rétroaction : plus l’IA se développe, plus la demande énergétique augmente ». Cela entraîne la construction de nouveaux data centers, eux-mêmes consommateurs d’énergie. En Irlande, 30 % de la consommation électrique nationale est liée au numérique, ce qui oblige à limiter d’autres usages, voire à abandonner certains projets.

Régulation et inégalité : les nouveaux défis face à l’IA

L’IA évolue à une vitesse qu’il est presque impossible, pour le cadre législatif, de suivre. Alors qu’il faut des années pour élaborer une loi, un algorithme évolue seulement en quelques jours. Malgré la volonté européenne de réguler ses pratiques via l’AI Act, qui encadre les produits commercialisés en Europe, il reste difficile de contenir ce phénomène en constante évolution. Cette rapidité soulève également des questions sur la répartition des bénéfices de l’IA. Les pays les plus développés semblent en profiter le plus, creusant un écart avec les autres pays. L’IA semble alors avoir été créée pour couvrir des manques, comme face à la pénurie de personnel hospitalier, plutôt que répondre à de vrais besoins.

L’IA incarne ainsi un paradoxe : un outil de progrès indéniable, mais dont les conséquences environnementales et sociales nous obligent à repenser notre rapport à cette technologie.

Par Mélie Bousson, étudiante en Master 1 Information et Médiation Scientifique et Technique, Université Claude Bernard Lyon. 

 

 

 

La Gazette de la Fête de la science #22

LLa Gazette de la Fête de la science #22

##22 – « L’intelligence artificielle va toujours dans notre sens » Nicoleta Petroiu

De plus en plus de jeunes utilisent l’IA comme un ou une psychologue. ©Mohamed Hassan, Pixabay

Pour clôturer la Fête de la science au sein de l’Université Lumière Lyon 2, une table ronde sur le thème de l’Intelligence Artificielle (IA) et des émotions a eu lieu. A cette occasion, j’ai pu m’entretenir avec Nicoleta Petroiu, psychologue clinicienne et docteure en psychologie à l’Université Lumière Lyon 2. Revenons avec elle sur l’impact de l’IA sur les émotions chez les publics jeunes, et les enjeux associés dans le domaine de la psychologie.

Qu’est-ce qui vous a amené à travailler sur le sujet de l’IA et des émotions ?

Nicoleta Petroiu : Dans le cadre de ma thèse[1], j’ai travaillé sur des sujets concernant les nouvelles technologies, leurs bienfaits, mais aussi les effets négatifs que cela génère, notamment chez le jeune public. Je m’intéresse à l’utilisation de l’IA en tant qu’outil plébiscité par les jeunes et à ses effets néfastes comme l’addiction.

Pourquoi les jeunes se tournent vers l’intelligence artificielle ?

N.P. : L’intelligence artificielle va toujours dans le sens de son interlocuteur et valide ses propos peu importe leurs natures. Cela permet aux jeunes de palier à un manque de validation et de reconnaissance, que ce soit en raison de problèmes familiaux ou de solitude dû à un manque d’amis. L’avantage de l’intelligence artificielle, c’est qu’elle valide instantanément les propos, alors qu’un psychologue, il faut prendre rendez-vous. Cela peut être problématique puisqu’une personne peut se sentir mal ou avoir un besoin de parler de manière urgente sans pouvoir attendre un rendez-vous. Néanmoins, le contact créé par une IA reste superficiel et ne remplace pas les réflexions d’une personne.

L’IA peut-elle avoir des applications positives, et donc une incidence sur l’état psychologique des personnes ?

N.P. : Bien sûr. Beaucoup de personnes partagent des avis négatifs sur l’intelligence artificielle, mais grâce à elle, il est possible de créer des logiciels permettant d’aider les personnes en situation de handicap. Par exemple pour créer des synthèses vocales pour les personnes malvoyantes ou aveugles. D’autres logiciels permettent une prise d’autonomie grâce à des outils de déplacements précis mis à jour régulièrement qui indiquent la présence d’obstacle ou de travaux. Cela permet aux personnes porteuses de handicap visuel de se sentir mieux mentalement. En effet, ce manque d’autonomie est une charge mentale pour eux et ces outils permettent de les soulager.

Par Gaylord Philippe, étudiant en Master 1 Information et Médiation Scientifique et Technique, Université Claude Bernard Lyon 1, avec Pop’Sciences.

 

Notes :

[1] « Implantation des nouvelles méthodes et techniques dans l’apprentissage des élèves sourds et malentendants », thèse de Nicoleta Petroiu soutenu le 5 juillet 2017.

La Gazette de la Fête de la science #23

LLa Gazette de la Fête de la science #23

##23 – IA : déceler la réalité de l’artificiel

Une de ses photos est vraie, l’autre est générée par IA. Photos libres de droit présentées dans le cadre de l’atelier de Yannick Port, médiateur à à la Maison du Livre, de l’Image et du Son (Villeurbanne).

Depuis maintenant plusieurs années, l’Intelligence Artificielle (IA) se développe à grande vitesse. Celle-ci s’installe dans nos vies et il devient plus difficile de différencier une production de l’IA de celle d’un humain. Pour montrer cela, dans le cadre de la Fête de la science 2025, à la Maison du Livre, de l’Image et du Son à Villeurbanne, Yannick Port, médiateur au pôle numérique, nous a mis à l’épreuve.

Quand nous parlons d’IA, nous parlons d’ordinateurs et de machines qui grâce à un apprentissage, un entraînement, développent la capacité de créer une équivalence technique et technologique à l’intelligence humaine. Nous faisons donc référence au fait d’apprendre, de communiquer mais aussi d’interagir avec l’environnement qui l’entoure. Les formes d’IA les plus répandues aujourd’hui reposent sur le Machine Learning [1] , un apprentissage automatisé, et le Deep Learning [2] , un apprentissage profond. Ces deux méthodes permettent aux machines d’analyser des quantités massives de données pour identifier des modèles dans l’information et ainsi pouvoir proposer des réponses aux demandes qu’on lui soumet. Cela les amènent donc à s’améliorer au fil du temps.

L’IA va-t-elle remplacer les artistes ?

Une des controverses les plus présentes autour de l’IA est celle de la génération de contenus. Que ce soient des musiques, des textes ou encore des images, les créations de l’IA créent des débats autour du plagiat et de l’appropriation de contenus. Tout d’abord, pour les images générées par IA. N’importe qui ayant accès à une connexion à internet peut, à l’aide d’une demande simple, générer un dessin d’une qualité honorable. De plus, ce dessin peut facilement être modifié dans des styles très variés. En comparaison à un dessin fait à l’aide d’un crayon pouvant prendre plusieurs heures, ici, en quelques minutes à peine, plusieurs dessins sont produits. Plusieurs problèmes font donc leur apparition. Le style de ces différentes productions générées est considéré comme de l’inspiration par certains, tandis que pour d’autres, cela correspond à du plagiat. Certains dessinateurs se mettent donc à diaboliser l’IA, se confrontant aux personnes l’utilisant et considérant ses productions comme les leurs.

Comme dit précédemment, l’IA est présente dans beaucoup de domaines artistiques, et depuis quelque temps un nouveau domaine est touché : le doublage. De plus en plus de studios (de cinéma, de publicité et de jeux vidéo), pour faire des économies, se mettent à utiliser l’IA pour faire la traduction des voix des personnages dans d’autres langues, au lieu de faire appel à des doubleurs. Cela met donc cette discipline en péril. Des mouvements de protestations ont même été mis en place par les grands noms de la discipline en France, tel que Brigitte Lecordier, Donald Reignoux, Dorothée Pousséo, ou encore Benoît Allemane, en 2024 pour interdire complètement l’utilisation de l’IA au profit des doubleurs.

Par Théo Fornari, étudiant en Master 1 Information et Médiation Scientifique et Technique, Université Claude Bernard Lyon 1, avec Pop’Sciences.

 

Notes :

[1]  Définition du CNIL : Un champ d’étude de l’intelligence artificielle qui vise à donner aux machines la capacité d’« apprendre » à partir de données, via des modèles mathématiques.

[2] Définition du CNIL : Un procédé d’apprentissage automatique utilisant des réseaux de neurones possédant plusieurs couches de neurones cachées.

L’IA remonte le temps des Parisiens | Vidéo

LL’IA remonte le temps des Parisiens | Vidéo

La chaine YouTube du CNRS , vous invite à visualiser leur nouveau reportage sur les archives des Parisiens.

L’IA redonne vie aux archives parisiennes de l’entre-deux-guerres. L’exposition « Les Gens de Paris » dresse le portrait de ses habitants à partir de 9 millions de lignes de recensement réunies et décodées par Sandra Brée, historienne au Laboratoire de recherche historique Rhône-Alpes et des informaticiens du Laboratoire d’informatique, du traitement de l’information et des systèmes. À découvrir dans ce reportage, réalisé en partenariat avec Le Monde.

>> Pour plus d’information rendez-vous sur la chaine YouTube :
 CNRS