DDiminution des émissions de CO2 : avec des nouveaux modèles de vie, d’habitats, ou encore des progrès technologiques ? ©trianglePeut-on réduire les émissions de CO2 ? Et comment ? Les progrès technologiques, ou encore de nouveaux mode de vie seraient-ils des solutions ?Dans ce troisième et dernier podcast dont le triptyque est consacré à la mobilité, pollution et transition écologique… nous allons tenter d’éclaircir ces questions.Pour cela, nous sommes toujours avec Maxime Hure, Maître de conférences habilité à diriger des recherches en science politique à l’Université de Perpignan (CDED – Centre du droit économique et du développement) et chercheur associé au laboratoire Triangle.> Écoutez le podcast :https://popsciences.universite-lyon.fr/app/uploads/2025/04/tri3-3_maxime-hure.wav> Lire la retranscription des propos de l’interview :Est-ce qu’en envisageant des progrès technologiques, nous pouvons réduire la pollution, et surtout dans quels domaines ?Maxime Huré – Oui, cette question est complexe mais par exemple aujourd’hui il est question de faire circuler des véhicules (automobile, trains) à l’aide de l’énergie issue de l’hydrogène, il est aussi question de développer les voitures autonomes, de transformer le parc automobile thermique en véhicules électriques, en partant du principe que l’électricité n’est pas produite par la combustion du charbon … Le problème est qu’avec ces innovations, nous restons toujours dans l’amélioration de l’existant, et encore cela est vrai lorsqu’il n’y a pas « d’effets rebonds » d’une innovation technologique, comme par exemple des pollutions décuplées par l’extraction de minerais rares pour certaines technologies, on pense aux batteries des véhicules électriques par exemple. De plus, certaines innovations se heurtent à des résistances sociales des populations et aux standards industriels des entreprises.Mon point de vue est qu’il ne faut pas espérer d’une technologie qu’elle résolve tous les problèmes de mobilité. Il est aussi possible de conduire des recherches dans d’autres directions, complémentaires aux innovations technologiques : analyser les politiques publiques et leurs effets, mais aussi les changements de modes de vie, les modes d’habiter ou encore comprendre le rôle de l’organisation de l’espace et de nos consommations sur les pratiques de mobilité. Les recherches en sciences sociales montrent que les changements sociaux et politiques comptent autant parfois davantage que les changements technologiques et que l’innovation passe nécessairement par ces trois leviers.© PixabayAussi, devrions nous envisager un nouveau mode de vie, d’habiter, ou encore nous orienter vers des transformations plus générales ?M.H. – Alors la transformation des modes de vie appartient à chacun d’entre nous, avec ses possibilités, mais il appartient surtout aux décisions des femmes et des hommes politiques. Donc en tant qu’enseignant-chercheur, mon rôle, modeste, est d’analyser les grandes dynamiques passées et en cours et de les partager avec mes collègues, avec des étudiants et avec les acteurs engagés dans l’action publique et privée. Mon point de vue en ce qui concerne la mobilité est qu’il faut à la fois s’intéresser aux grandes transformations qui vont affecter nos vies quotidiennes dans les prochaines années – raréfaction de certains matériaux et des matières premières fossiles, effets du changement climatique, avec des enjeux d’adaptation, vieillissement de la population – et en même temps étudier des politiques innovantes locales ou des alternatives qui pourraient symboliser des évolutions futures, ce qu’on appelle « les signaux faibles ».On peut aussi questionner quelques changements, qu’on observe actuellement. Le développement des véhicules intermédiaires qui consomment moins de matériaux, donc plus légers vont-t-ils s’imposer, y compris au sein de l’industrie automobile ? La gratuité des transports mise en œuvre dans certaines villes françaises comme Dunkerque, Montpellier ou dans des capitales européennes comme Luxembourg, Tallinn, sera-t-elle au cœur d’un nouveau contrat de société ? Le télétravail va-t-il se généraliser, s’amplifier ? Ces questionnements renvoient fondamentalement à des arbitrages politiques, sur la manière dont nos gouvernants vont permettre ou pas à ces évolutions de s’imposer.Cependant, tout cela a un coût ?M.H. – Oui, la question des coûts de ces transformations doit être posée. Mais sur ce point, je ne suis peut-être pas le mieux placé pour vous répondre, d’abord parce que je ne suis pas économiste de formation ; mais aussi parce que le financement des infrastructures de transport relève de décisions politiques. J’aimerais ajouter un point au sujet des changements dans nos modes de vie. Il me semble intéressant de toujours avoir en tête des points d’appui aussi historiques pour penser éventuellement des ruptures et même parfois les continuités dans nos sociétés.C’est-à-dire ?M.H. – Nous avons déjà fait face à des grandes périodes de restriction des mobilités – on pense souvent à la Seconde Guerre mondiale. Et l’histoire nous enseigne qu’il nous faut laisser du temps pour analyser les effets de certaines ruptures. Prenons l’exemple de la pandémie de covid-19. Rappelons quand même, qu’en l’espace de quelques semaines, nous avons tous été confinés, à l’exception de quelques corps de métier, sans même que l’État ait eu recours à l’armée pour faire respecter cette contrainte tout à fait exceptionnelle.Et donc avec des collègues, on a trouvé cela assez incroyable comme point d’appui pour lancer des recherches.. et avec des collègues de la revue Métropolitiques, Jean-Baptiste Frétigny et Thomas Pfirsch, en partenariat avec le Forum Vies Mobiles, nous avons entrepris de rassembler des recherches et des points de vue sur les effets de la pandémie sur les mobilités dans un dossier spécial de la revue Métropolitiques en pensant la question : Comment penser les mobilités dans un monde post-covid ?On s’aperçoit avec un peu de recul que, malgré la rupture des confinements, les contributions mettent plutôt en avant des continuités de dynamiques déjà à l’œuvre avant la pandémie, comme le développement massif du transport aérien, qui se fait d’ailleurs sous forme d’une revanche des consommateurs et des compagnies aériennes ou encore la permanence des déplacements automobiles dans certains contextes territoriaux.Mais ce dossier, ce qui est intéressant, c’est qu’il montre aussi des changements à analyser sur le long terme comme l’accélération de la pratique cyclable dans certains territoires. Et même on a d’autres évolutions qui préfigurent peut-être de changements plus radicaux dans nos modes de vie, comme le développement massif du télétravail depuis la pandémie. Quels pourraient être les effets du télétravail sur les déplacements quotidiens ? Sur l’organisation du travail, sur les activités de loisir ? Mais aussi sur l’économie de l’immobilier de bureau ou sur la redynamisation de certains territoires ruraux ? Il pourrait y avoir une redistribution aussi des habitants sur le territoire.Et vous actuellement, vous travaillez sur quel projet de recherche ?M.H. – Actuellement, plusieurs recherches, sur l’élaboration et la mise en œuvre des politiques de mobilité, en particulier à l’échelle territoriale. Mes travaux s’appuient essentiellement sur des méthodes qualitatives, sources écrites, réalisation d’entretiens, d’observations, sur les dynamiques politiques et institutionnelles dans les politiques de mobilité, mais aussi la circulation d’idées, de pratiques et de politiques à différentes échelles.Pour vous donner deux exemples, je suis impliqué dans une recherche collective visant à comprendre les freins et les leviers à la mise en œuvre d’un rationnement (le mot est un peu fort) ou d’un encadrement carbone des mobilités au sein de diverses organisations publiques et privées. Autre exemple, je travaille aussi sur les politiques en faveur du vélo dans différents contextes territoriaux, à la fois urbains, mais aussi sur les espaces plus périphériques et ruraux.Précédemment : mobilité et écologie : comment concilier les enjeux politiques et sociaux ? > Pour en savoir plus :Triptyque – Laboratoire Triangle
RRisques industriels majeurs et environnements | Livre ©Presses Universitaires du SeptentrionLes systèmes technologiques à risques industriels majeurs constituent une menace pour leur environnement social et naturel via les catastrophes dont ils peuvent être la cause, augmentées à présent par le réchauffement climatique et les événements extrêmes associés.Créateurs de richesse, d’innovation, d’emplois, au cœur d’enjeux de réindustrialisation, économiques voire géopolitiques, les systèmes technologiques à risques industriels majeurs s’inscrivent dans un environnement social et naturel qu’ils modifient et menacent ; un environnement qui les menace désormais en retour.Ainsi, le réchauffement climatique et les événements extrêmes associés sont les faces les plus visibles de ces nouveaux risques, quand l’acceptabilité sociale des implantations industrielles se pose aussi de manière renouvelée. Territoire, crise, travail, lois, normes, organisations, entreprises et État sont aux premiers plans des interrogations abordées de manière plurielle dans cet ouvrage (géographie, histoire, sociologie, ergonomie, droit, science politique).En s’appuyant sur les connaissances acquises, dont il propose un bilan interdisciplinaire, ces analyses ouvrent de nouvelles voies d’investigation et d’action.>> Pour plus d’information rendez-vous sur le site de l’éditeur : Presses Universitaires du Septentrion
HHedy Lamarr, le génie scientifique éclipsé par la beauté L’actrice Hedy Lamarr est décédée il y a 25 ans. Inventrice de génie, elle a conçu un système de codage des transmissions de données, utilisé notamment dans les télécommunications. Mais, durant des décennies, l’histoire n’a retenu que la star hollywoodienne.Interrogées par CNRS Le Journal, Olga Paris-Romaskevich, mathématicienne, chargée de recherche CNRS au sein de l’Institut Camille Jordan, et Isabelle Vauglin, astrophysicienne au Centre de recherche astrophysique de Lyon et présidente de l’association Femmes & Sciences, reviennent sur le parcours scientifique de Hedy Lamarr, et plus généralement sur la place des femmes dans les sciences.>>Lire l’article complet sur le site :CNRS
ÀÀ la recherche de l’Intelligence Artificielle | MOOC tout public Curieux de voir comment l’intelligence artificielle réinvente notre quotidien ? Explorez ses fondements et ses impacts, découvrez comment elle influence nos habitudes tout en apprenant à la maîtriser. L’Université Jean Monnet Saint-Étienne, vous propose ce cours accessible à tout public.Ce parcours vous immerge dans l’univers de l’intelligence artificielle à travers des outils variés tels que la génération de texte, la synthèse vocale ou la création d’images. Conçu pour sensibiliser aux enjeux de l’IA, ce cours, enrichi par des experts universitaires, place l’humain au cœur des réflexions, avec une approche responsable, sous un format ludique.> Ce que vous allez apprendre :Découvrir où se cache l’Intelligence Artificielle (IA) dans notre quotidien. Des assistants vocaux aux recommandations de streaming, l’IA est partout autour de nous, influençant la manière dont nous vivons, travaillons et apprenons.Développer une compréhension des bases fondamentales de l’IA. Vous découvrirez comment fonctionnent les algorithmes d’apprentissage automatique et les réseaux neuronaux.Découvrir les usages de l’IA dans divers domaines professionnels, comment cette technologie transforme chaque secteur.Aborder aussi les points de vigilance liés à l’IA : les risques d’hallucinations des modèles, les biais algorithmiques, les enjeux éthiques, les questions de droits d’auteur, ainsi que l’impact environnemental de cette technologie.Identifier les compétences clés à acquérir pour travailler efficacement avec l’IA : la capacité à résoudre des problèmes complexes, innover avec créativité, et cultiver un sens critique affûté face aux nouvelles technologies.> Le parcours est jalonné de 5 étapes : Le portail : pour démasquer l’IA en « Détective du quotidien »Le mentor : pour s’éclairer en « Sage de l’IA »La forêt des possibles : pour se transformer en « Explorateur des horizons »La traversée du doute : pour devenir un « Gardien éthique de l’IA »Le laboratoire : pour travailler avec l’IA en « Innovateur créatif »Chaque module inclut des vidéos, des quiz interactifs formatifs et des exercices pratiques.> Évaluation et certificationL’évaluation se fait via un quiz proposé à la fin de chaque module ainsi qu’un quiz final. Un Open Badge de suivi sera délivré par FUN à l’issue du cours si toutes les évaluations sont complétées.>> Pour plus d’information, rendez-vous sur le site :France Université Numérique
LLa 3e voie du vivant Face aux constats pessimistes et aux alertes environnementales, Olivier Hamant – directeur de recherche INRAE au laboratoire de Reproduction et Développement des Plantes (RDP) au sein de l’ENS de Lyon et élu membre EMBO en 2024 – propose des pistes d’action pour éviter la catastrophe et esquisse des solutions pour un avenir viable et réconcilié avec la nature.Il questionnera nos habitudes et notre société du contrôle et de l’optimisation, ainsi que nos créations technologiques qui nous poussent à performer toujours plus. Les technologies deviennent autonomes, suivant leur propre logique de performance, nous laissant parfois à la traîne.Mais cette course à la performance n’a-t-elle que des bénéfices ? C’est une question essentielle, car elle soulève des enjeux importants concernant notre efficacité et notre efficience.>> La conférence :
NNumérique responsable : posture, méthode et outils pour faire vos choix dans votre vie professionnelle et personnelle Cycle « Avant d’aller sur Mars ! »Applications, logiciels, intelligence artificielle, objets connectés….. les technologies numériques sont partout dans nos vies quotidiennes et professionnelles. Impossible d’y échapper ! La transition numérique n’épargne aucun secteur.Dans les secteurs de l’agriculture et de la santé animale, le numérique offre de nombreux atouts pour faire face aux enjeux climatiques, environnementaux, de sécurité alimentaire ou encore de santé. Mais le revers de la médaille est parfois sous-estimé : loin d’être immatérielles, les technologies numériques affectent considérablement nos écosystèmes.Un numérique responsable est-il alors vraiment possible? Comment dépasser le débat binaire et stérile « pour ou contre », opposant technophobes et technophiles ?Organisée par : association étudiante Eco Veto, rattachée a l’école VetAgro SupPrésentée par : Roxane Bibard, SoScience.La conférence est suivie d’un buffet traiteur offert par la cellule numérique de l’école.>> Pour suivre la conférence sur YouTube : cliquez ici>> Suivre l’actualité de « Avant d’aller sur Mars ! » sur Instagram : cliquez iciPour en savoir plus, rendez-vous sur le site :Avant d’aller sur MarsEcoVetoJr
BBertin Nahum : quand l’ingénierie sauve des vies | Visages de la science Bertin Nahum fait partie des innovateurs les plus brillants de sa génération. Père des robots chirurgicaux made in France, ce visionnaire imagine la médecine de demain. Après avoir conçu un robot destiné à la chirurgie du genou, puis un deuxième pour la chirurgie du cerveau, cet ingénieur s’attaque aujourd’hui, avec un nouveau prototype, à la lutte contre le cancer du foie. Animé par la volonté de se sentir utile et de rendre l’acte chirurgical plus sûr, il s’efforce aussi de faire connaître au monde entier, l’excellence des technologies médicales françaises.Réduire les aléas« Quand j’ai commencé à travailler dans ce secteur-là, j’ai été très étonné de voir que la chirurgie était une discipline très artisanale. La robotique est en mesure de faire ce qu’elle a fait dans plein de secteurs de la vie quotidienne : réduire les aléas. Il ne s’agit pas de remplacer le praticien mais d’optimiser l’acte chirurgical en le rendant plus précis et plus fiable. » Des robots révolutionnairesAprès avoir occupé des postes de terrain, Bertin Nahum a été confronté à la réalité et à la pratique sur la façon dont la technologie pouvait répondre aux besoins des chirurgiens. Visionnaire, il s’est fait père de robots chirurgicaux révolutionnaires. « Nos robots sont des outils intelligents. Ils utilisent des images pour planifier un acte chirurgical ; aident à la décision du praticien ; puis assistent la réalisation dans le geste à proprement dit. Ils utilisent de l’imagerie, de l’intelligence artificielle et de la robotique. »De l’importance du made-in-France« La prochaine révolution numérique se fera dans le secteur de la santé. Les robots et l’intelligence artificielle pénétreront dans ce secteur. Cependant, quand on touche à la santé de gens, il faut s’assurer que cette activité ne reproduise pas ce qu’il s’est passé jusque-là avec les GAFA. Il est important que l’Europe se saisisse du sujet. » Diplômé de l’INSA Lyon, Bertin Nahum a été sacré quatrième entrepreneur high-tech le plus révolutionnaire du monde par la revue canadienne Discovery en 2012, juste derrière Steve Jobs, Mark Zuckerberg et James Cameron. Il était l’invité du podcast « Les cœurs audacieux », un contenu audio proposé par l’INSA Lyon (Saison 2 – Épisode 1). ÉCOUTER L’ÉPISODE
DDiagnostic 2.0 : quand l’Intelligence Artificielle intervient | Un dossier Pop’Sciences Pour son dossier consacré aux nouvelles applications de l’Intelligence Artificielle (IA) à la santé, Pop’Sciences est allé à la rencontre des scientifiques et professionnels de la santé de la région Lyon Saint-Étienne pour mieux comprendre ce que ces nouvelles technologies peuvent apporter (ou pas) à la médecine, notamment en termes de diagnostic…L’IA tend à se démocratiser dans de multiples domaines professionnels, dont ceux de la santé. Entre espoirs, fantasmes, peurs et applications réelles, cette nouvelle assistance nécessite aujourd’hui d’être mieux décryptée tant auprès des médecins que de leurs patients. Pop’Sciences vous propose de revenir sur quelques applications concrètes pour comprendre ce que l’IA, et ses capacités de calcul, peut faire pour aider les professionnels de la santé dans le diagnostic de la santé mentale, pour fluidifier la prise en charge des patients ou pour apporter toujours plus de précisions en imagerie médicale… mais aussi d’en percevoir les limites, car elle est encore loin de remplacer votre médecin. Les articles du dossier#1 L’Intelligence Artificielle en santé : du médecin à l’algorithme©FreepikDans un monde en constante évolution, les chercheurs et médecins se tournent vers l’intelligence artificielle (IA) pour les aider dans la pratique médicale. Pop’Sciences vous dévoile les coulisses du processus de création d’une IA prête au diagnostic, une innovation qui repose sur la précision de la consultation médicale, la richesse des bases de données, et l’entraînement minutieux de modèles IA. En somme, quelle est la recette pour une bonne IA appliquée au diagnostic médical ? #2 L’Intelligence Artificielle, notre futur psychiatre ?Image générée par IA (Dall-E) ©Pop’SciencesSe classant au deuxième rang des causes de mortalité en France après les accidents cardiovasculaires, les troubles liés à la santé mentale sont aujourd’hui une préoccupation majeure en termes de santé publique. Dans cette quête du « mieux prévenir pour mieux guérir », l’intelligence artificielle (IA) pourrait s’imposer comme un précieux allié dans le diagnostic des troubles mentaux. #3 Transformer la prise en charge médicale grâce à l’Intelligence Artificielle : entretien avec Loïc VerlingueImagé générée par IA (Dall-E) ©Pop’SciencesAlors que les avancées technologiques continuent de redéfinir la manière dont les professionnels de la santé prennent en charge les patients, l’IA s’insère de plus en plus dans la relation entre le patient et son médecin. Au cœur de cette transformation, Loïc Verlingue, médecin et chercheur au Centre Léon Bérard partage son expertise de l’IA dans le domaine des essais cliniques en cancérologie. #4 L’Intelligence artificielle au service de l’imagerie médicale : Des apports majeurs©PexelAméliorer l’interprétation de l’imagerie médicale (IM) pour en optimiser l’exploitation est au cœur des enjeux de l’intelligence artificielle (IA) au service de l’IM. L’IA n’est plus “seulement” un domaine de recherche en plein essor… mais ses utilisations en sont multiples. Objectifs affichés : augmenter la précision du diagnostic afin d’améliorer la prise en charge thérapeutique, en évitant les erreurs potentiellement lourdes de conséquences. La guerre des algorithmes est ouverte pour aller toujours plus loin ! #5 Une médecine revisitée à l’aune des algorithmes : Quelles questions éthiques soulève l’IA ?©FreepikEntre confiance aveugle et méfiance absolue, comment l’IA doit-elle être éthiquement acceptée et utilisée ? Comment s’affranchir de potentiels biais humains dans les systèmes d’IA utilisés à des fins de diagnostic, ou même thérapeutiques ? Autant de questions qui ne sont plus l’apanage de débats scientifiques, mais doivent être au cœur de débats politiques et sociétaux. #6 L’IA en FAQ, les étudiants nous répondent©FreepikDans cette série de questions et réponses, les étudiants de première année du cycle d’ingénieur de l’EPITA, école d’ingénierie informatique, répondent à nos questions concernant l’IA. A-t-elle toujours raison ? Peut-elle développer des sentiments ? Ou, est-elle capable de réelles créations ? Les étudiants nous éclairent. —————————————————————MMerci !Ce dossier a été réalisé grâce à la collaboration de chercheurs et médecins du bassin de recherche Lyon Saint-Étienne :Christophe Gauld, pédopsychiatre aux Hospices Civils de Lyon (HCL)Pierre Fourneret, professeur de pédopsychiatrie à l’Université Claude Bernard de Lyon et chef du service de psychopathologie du développement à l’Hôpital Femme Mère Enfant – Hospices Civils de LyonLoïc Verlingue, médecin en recherche clinique et chercheur en intelligence artificielle au Centre de lutte contre le cancer Léon BérardAlexandre Nérot, assistant en radiologie au Centre Hospitalier Annecy GenevoisMathieu Guillermin, enseignant-chercheur et maître de conférences au sein de l’unité de recherche “Confluence”, Centre de Recherche en Sciences & Humanités (EA1598) à l’Institut Catholique de Lyon (UCLy)Ainsi qu’avec la participation de :Maëlle Moranges, docteure en neuroinformatique, apportant son expertise de l’IA en tant que référente sur ce dossierPascal Roy, chercheur en biostatistique au Laboratoire de Biométrie et Biologie Évolutive – LBBE (Université Claude Bernard Lyon 1) et praticien hospitalier aux Hospices Civils de Lyon. Intervenu lors des rendez-vous professionnels LYSiERES² : « L’intelligence artificielle peut-elle remplacer le médecin ? »Antoine Coutrot, chercheur en neurosciences computationnelles, cognitives et comportementales au Laboratoire d’Informatique en Image et Systèmes d’information – LIRIS (CNRS, INSA Lyon, Université Claude Bernard Lyon 1, Université Lumière Lyon 2, École centrale Lyon). Intervenu lors des rendez-vous professionnels LYSiERES² : « L’intelligence artificielle peut-elle remplacer le médecin ? »Les étudiants de première année du cycle d’ingénieur de l’École pour l’Informatique et les Techniques Avancées (EPITA) : Léo Arpin, Adrien Guinard, Arthur De Sousa, Raphaël Hatte, Pierre Raimondi, Maui Tadeja, Mehdi Ismaili, Gregoire Vest, Emil Toulouse, Todd Tavernier, Remi Decourcelle, Paul Gravejal, Aymen Gassem, Sandro Ferroni, Nathan Goetschy, Rémi Jeulin, Clovis Lechien, Garice Morin, Alice Cariou et Eliana JunkerNous les remercions pour le temps qu’ils nous ont accordé.Un dossier rédigé par : Léo Raimbault, étudiant en Master 2 Information et Médiation Scientifique et Technique (IMST) à l’Université Claude Bernard Lyon 1, en contrat d’apprentissage à Pop’Sciences – (Introduction, articles #1, #2, #3 et co-écriture des articles #5 et #6)Nathaly Mermet, journaliste scientifique – (Articles #4 et #5)
LL’enseignant qui façonne l’ingénieur de demain | Visages de la science L’ingénierie n’est-elle qu’affaire de technique ? Romain Colon de Carvajal, fait partie de ces scientifiques pour qui l’ingénierie est bien sûr une affaire de technique, mais aussi d’éthique et de philosophie. Enseignant en génie mécanique à l’INSA Lyon, il est aussi spécialiste des low-techs. Selon lui, il est temps de préparer demain, et pour cela, il faut que les ingénieurs sortent du rang et partent à la reconquête de leur liberté.Les low-techs comme médium pédagogiqueAu sein de l’école d’ingénieur lyonnaise, Romain Colon de Carvajal met un point d’honneur à initier ses étudiants à la philosophie « low-tech ». « À partir du moment où l’on a bien compris les usages et à qui est destiné un produit technique, je dirais qu’on conçoit low-tech. (…) Le low-tech permet d’explorer une piste concrète et de mettre en lumière la chaîne de responsabilité, plus facile à appréhender lorsqu’un objet technique est plus simple », introduit l’enseignant au micro des « Cœurs audacieux ».Pour une technologie juste, adaptée« Pour moi, concevoir low-tech, c’est déjà concevoir intelligemment. Je montre qu’il est nécessaire d’avoir une bonne adéquation entre la réponse technologique et le besoin. Le point de départ est de questionner le besoin. Et ce questionnement peut aller très loin : on peut vraiment remettre en cause certains besoins, comme caractériser le côté gadget de certains produits par exemple, qui serait un travers du high-tech. »Une question de responsabilité et de liberté« La société actuelle demande à l’ingénieur de travailler sur plusieurs échelles de valeurs : l’utilité sociale, le prix, la valeur environnementale, la performance, le contenu scientifique… On ne le forme pas à jongler entre ces échelles de valeurs. Et souvent, il y a des conflits de valeurs : il existe des produits complètement inutiles socialement, mais très sympas à construire d’un point de vue technique. Et quelle liberté les ingénieurs ont d’aller d’une échelle à l’autre ? » Enseignant au département génie mécanique de l’INSA Lyon, Romain Colon de Carvajal était l’invité du podcast « Les cœurs audacieux », un contenu audio proposé par l’INSA Lyon (Saison 1- Épisode 2)
CChatGPT, modèles de langage et données personnelles : quels risques pour nos vies privées ? | The Conversation Les immenses bases de données qui servent à l’apprentissage de grands modèles de langage ne sont pas toutes anonymisées.Dmitry Ratushny, Unsplash, CC BY Les grands modèles de langage ont récemment attiré beaucoup d’attention, notamment grâce à l’agent conversationnel ChatGPT. Cette plate-forme est devenue virale en seulement quelques mois et a déclenché une course effrénée pour développer de nouveaux modèles de langage toujours plus efficaces et puissants, rivalisant avec l’humain pour certaines tâches.Cette croissance phénoménale est d’ailleurs jugée dangereuse par de nombreux acteurs du domaine, qui plaident pour une pause afin d’avoir le temps de débattre sur l’éthique en IA et de mettre à jour les réglementations.Une des grandes questions qui se pose est l’articulation entre intelligence artificielle et vie privée des utilisateurs. En particulier, les prouesses des grands modèles de langage sont dues à un entraînement intensif sur d’énormes ensembles de données, qui contiennent potentiellement des informations à caractère personnel, car il n’y a pas d’obligation d’anonymiser les données d’entraînement.Il est alors difficile de garantir en pratique que le modèle ne compromet pas la confidentialité des données lors de son utilisation. Par exemple, un modèle pourrait générer des phrases contenant des informations personnelles qu’il a vues pendant sa phase d’entraînement.AApprendre à imiter le langage humainLes modèles de traitement du langage sont une famille de modèles basés sur l’apprentissage automatique (machine learning en anglais), entraînés pour des tâches telles que la classification de texte, le résumé de texte et même des chatbots.Ces modèles apprennent d’une part à encoder les mots d’une phrase sous la forme de vecteurs, en tenant compte de l’ensemble du contexte. Dans les phrases « J’ai mangé une orange » et « Son manteau orange est beau », le mot « orange » se verra attribuer deux encodages différents, puisque la position et le sens ne sont pas les mêmes.La Terre est bleue comme une orange. Les modèles de langage apprenne à générer des phrases en faisant suivre les mots les plus probable. Auraient-ils proposé cette ligne de Paul Éluard ?pixabay, CC BYCes modèles apprennent également à décoder ces ensembles de vecteurs contextualisés et leurs relations, pour générer de nouveaux mots. Une phrase est générée séquentiellement, en prédisant le prochain mot en fonction de la phrase d’entrée et des mots prédits précédemment.L’architecture de ces modèles peut être spécialisée pour certaines tâches. Par exemple, les modèles de type BERT sont souvent « affinés » en apprenant sur des données spécialisées, par exemple sur des dossiers de patients pour développer un outil de diagnostic médical, et sont plus performants sur des tâches de classification de texte tandis que les modèles GPT sont utilisés pour générer de nouvelles phrases. Avec l’essor des applications exploitant les modèles de langage de langage, les architectures et les algorithmes d’entraînement évoluent rapidement. Par exemple, ChatGPT est un descendant du modèle GPT-4, son processus d’apprentissage ayant été étendu pour se spécialiser dans la réponse aux questions.CConfidentialité des informations utilisées pendant la phase d’entraînement du modèleLes modèles de traitement du langage naturel ont besoin d’une quantité énorme de données pour leur entraînement. Pour ChatGPT par exemple, les données textuelles du web tout entier ont été récoltées pendant plusieurs années.Dans ce contexte, la principale préoccupation en matière de confidentialité est de savoir si l’exploitation de ces modèles ou les informations qu’ils produisent peuvent dévoiler des données personnelles ou sensibles utilisées pendant la phase d’apprentissage et « recrachées » ou inférées pendant la phase d’utilisation.Quelle est la probabilité qu’un grand modèle de langage donne une information personnelle acquise lors de son apprentissage ?Chris Yang/Unsplash, CC BYConsidérons d’abord les chatbots (exploitant les modèles de type GPT) qui ont appris à générer des phrases à partir d’un texte d’entrée. D’un point de vue mathématique, chaque mot est prédit séquentiellement, sur la base de probabilités qui auront été apprises durant la phase d’entraînement.Le problème principal est que des données potentiellement personnelles peuvent parfois constituer la réponse la plus probable. Par exemple, si le modèle a vu la phrase « Monsieur Dupont habite 10 rue de la République » et qu’on lui demande « Où habite Monsieur Dupont ? », le modèle sera naturellement enclin à répondre l’adresse de celui-ci. Dans la pratique, le modèle aura aussi vu de nombreuses phrases de la forme « X habite à Y » et on s’attend plutôt à ce qu’il réponde des connaissances générales plutôt que des adresses spécifiques. Néanmoins, le risque existe et il est nécessaire de pouvoir le quantifier.ÉÉvaluer les probabilités de fuites de donnéesIl existe tout d’abord des techniques pour évaluer en amont de l’entraînement final si des phrases rares ont le potentiel d’être anormalement mémorisées par le modèle. On réalise pour cela des micro-entraînements, avec et sans ces phrases, et l’on se débarrasse de celles qui auraient une influence trop grande.Mais les gros modèles de traitement du langage naturel sont non déterministes et très complexes de nature. Ils sont composés de milliards de paramètres et l’ensemble des résultats possibles étant infini, il est en pratique impossible de vérifier manuellement le caractère privé de toutes les réponses. Néanmoins, il existe des métriques qui permettent d’approximer ou de donner une borne maximale sur les fuites de données potentielles.Une première métrique est l’« extractibilité ». Nous disons qu’un texte est « k-extractible » s’il est possible de le générer à partir d’une entrée de longueur k (en nombre de mots). Par exemple, si le modèle renvoie « 10 rue république » lorsqu’on lui demande « Monsieur Dupont habite à », cette adresse est 3-extractible.Pour les données personnelles ou sensibles, l’objectif est d’avoir un k le plus élevé possible, car un k faible implique une extraction facile. Une étude de ce type a été réalisée sur GPT-2 : elle a permis d’extraire facilement des informations personnelles sur des individus.Un autre risque qu’on peut évaluer est l’« inférence d’appartenance ». L’objectif ici est d’identifier si une donnée a été utilisée lors de l’apprentissage du modèle. Supposons par exemple qu’un hôpital entraîne un modèle pour détecter la présence de cancer à partir d’extraits médicaux de patients. Si vous parvenez à découvrir que le modèle a été entraîné sur les données de Monsieur Dupont, vous apprendrez indirectement qu’il est probablement atteint de cancer.Pour éviter cela, nous devons nous assurer que le modèle ne donne aucun indice quant aux données sur lesquelles il a été entraîné, ce qu’il fait par exemple lorsqu’il se montre trop confiant vis-à-vis de certaines réponses (le modèle va mieux se comporter sur des données qu’il a déjà vu pendant la phase d’entraînement).TTrouver le bon compromisFaire comprendre au modèle quelles données sont à caractère personnel n’est pas évident, puisque la frontière entre ces deux types de données dépend bien souvent du contexte (l’adresse d’Harry Potter est connue de tous, contrairement à celle de Monsieur Dupont).L’entraînement d’un modèle qui respecte la confidentialité passe alors souvent par l’ajout de bruit à un moment ou un autre. L’ajout de bruit consiste à altérer l’information apprise ou bien les réponses du modèle, ce qui permet de réduire les risques d’extraction ou d’inférence. Mais cela implique aussi une légère baisse d’utilité. Il faut donc faire un compromis entre performance et respect des données personnelles.Les applications potentielles des modèles de langage sont incroyablement vastes, mais il est nécessaire d’encadrer leur pratique en prenant compte les risques de fuites avant leur déploiement. De nouvelles méthodes d’entraînement, ainsi que l’anonymisation des données, voire l’utilisation de données synthétiques, sont toutes des solutions prometteuses et en cours d’étude, mais il faudra de toute manière les accompagner de métriques et de méthodologies pour valider non seulement les performances mais aussi la confidentialité des informations personnelles utilisées lors de l’entraînement des modèles. Article publié sur The Conversation le 23 juin 2023 Cet article a été co-écrit par Gaspard Berthelier, en stage au centre Inria de l’Université Grenoble Alpes dans l’équipe Privactics, sur le natural language processing (NLP) et le respect des données personnelles.Antoine Boutet, Maitre de conférence, Privacy, IA, au laboratoire CITI, Inria, INSA Lyon – Université de LyonCet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.