Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

Bertin Nahum : quand l’ingénierie sauve des vies | Visages de la science

BBertin Nahum : quand l’ingénierie sauve des vies | Visages de la science

Bertin Nahum fait partie des innovateurs les plus brillants de sa génération. Père des robots chirurgicaux made in France, ce visionnaire imagine la médecine de demain. Après avoir conçu un robot destiné à la chirurgie du genou, puis un deuxième pour la chirurgie du cerveau, cet ingénieur s’attaque aujourd’hui, avec un nouveau prototype, à la lutte contre le cancer du foie. Animé par la volonté de se sentir utile et de rendre l’acte chirurgical plus sûr, il s’efforce aussi de faire connaître au monde entier, l’excellence des technologies médicales françaises.

  • Réduire les aléas

« Quand j’ai commencé à travailler dans ce secteur-là, j’ai été très étonné de voir que la chirurgie était une discipline très artisanale. La robotique est en mesure de faire ce qu’elle a fait dans plein de secteurs de la vie quotidienne : réduire les aléas. Il ne s’agit pas de remplacer le praticien mais d’optimiser l’acte chirurgical en le rendant plus précis et plus fiable. »

  • Des robots révolutionnaires

Après avoir occupé des postes de terrain, Bertin Nahum a été confronté à la réalité et à la pratique sur la façon dont la technologie pouvait répondre aux besoins des chirurgiens. Visionnaire, il s’est fait père de robots chirurgicaux révolutionnaires. « Nos robots sont des outils intelligents. Ils utilisent des images pour planifier un acte chirurgical ; aident à la décision du praticien ; puis assistent la réalisation dans le geste à proprement dit. Ils utilisent de l’imagerie, de l’intelligence artificielle et de la robotique. »

  • De l’importance du made-in-France

« La prochaine révolution numérique se fera dans le secteur de la santé. Les robots et l’intelligence artificielle pénétreront dans ce secteur. Cependant, quand on touche à la santé de gens, il faut s’assurer que cette activité ne reproduise pas ce qu’il s’est passé jusque-là avec les GAFA. Il est important que l’Europe se saisisse du sujet. »

 

Portrait de Bertin Nahum

Diplômé de l’INSA Lyon, Bertin Nahum a été sacré quatrième entrepreneur high-tech le plus révolutionnaire du monde par la revue canadienne Discovery en 2012, juste derrière Steve Jobs, Mark Zuckerberg et James Cameron. Il était l’invité du podcast « Les cœurs audacieux », un contenu audio proposé par l’INSA Lyon (Saison 2 – Épisode 1).

 

ÉCOUTER L’ÉPISODE

 

 

Diagnostic 2.0 : quand l’Intelligence Artificielle intervient | Un dossier Pop’Sciences

DDiagnostic 2.0 : quand l’Intelligence Artificielle intervient | Un dossier Pop’Sciences

Pour son dossier consacré aux nouvelles applications de l’Intelligence Artificielle (IA) à la santé, Pop’Sciences est allé à la rencontre des scientifiques et professionnels de la santé de la région Lyon Saint-Étienne pour mieux comprendre ce que ces nouvelles technologies peuvent apporter (ou pas) à la médecine, notamment en termes de diagnostic…

L’IA tend à se démocratiser dans de multiples domaines professionnels, dont ceux de la santé. Entre espoirs, fantasmes, peurs et applications réelles, cette nouvelle assistance nécessite aujourd’hui d’être mieux décryptée tant auprès des médecins que de leurs patients. Pop’Sciences vous propose de revenir sur quelques applications concrètes pour comprendre ce que l’IA, et ses capacités de calcul, peut faire pour aider les professionnels de la santé dans le diagnostic de la santé mentale, pour fluidifier la prise en charge des patients ou pour apporter toujours plus de précisions en imagerie médicale… mais aussi d’en percevoir les limites, car elle est encore loin de remplacer votre médecin.

 Les articles du dossier

©Freepik

Dans un monde en constante évolution, les chercheurs et médecins se tournent vers l’intelligence artificielle (IA) pour les aider dans la pratique médicale. Pop’Sciences vous dévoile les coulisses du processus de création d’une IA prête au diagnostic, une innovation qui repose sur la précision de la consultation médicale, la richesse des bases de données, et l’entraînement minutieux de modèles IA. En somme, quelle est la recette pour une bonne IA appliquée au diagnostic médical ?

 

Image générée par IA (Dall-E) ©Pop’Sciences

Se classant au deuxième rang des causes de mortalité en France après les accidents cardiovasculaires, les troubles liés à la santé mentale sont aujourd’hui une préoccupation majeure en termes de santé publique. Dans cette quête du « mieux prévenir pour mieux guérir », l’intelligence artificielle (IA) pourrait s’imposer comme un précieux allié dans le diagnostic des troubles mentaux.

 

 

Imagé générée par IA (Dall-E) ©Pop’Sciences

Alors que les avancées technologiques continuent de redéfinir la manière dont les professionnels de la santé prennent en charge les patients, l’IA s’insère de plus en plus dans la relation entre le patient et son médecin. Au cœur de cette transformation, Loïc Verlingue, médecin et chercheur au Centre Léon Bérard partage son expertise de l’IA dans le domaine des essais cliniques en cancérologie.

 

 

©Pexel

Améliorer l’interprétation de l’imagerie médicale (IM) pour en optimiser l’exploitation est au cœur des enjeux de l’intelligence artificielle (IA) au service de l’IM. L’IA n’est plus “seulement” un domaine de recherche en plein essor… mais ses utilisations en sont multiples.  Objectifs affichés : augmenter la précision du diagnostic afin d’améliorer la prise en charge thérapeutique, en évitant les erreurs potentiellement lourdes de conséquences. La guerre des algorithmes est ouverte pour aller toujours plus loin !

 

©Freepik

Entre confiance aveugle et méfiance absolue, comment l’IA doit-elle être éthiquement acceptée et utilisée ? Comment s’affranchir de potentiels biais humains dans les systèmes d’IA utilisés à des fins de diagnostic, ou même thérapeutiques ? Autant de questions qui ne sont plus l’apanage de débats scientifiques, mais doivent être au cœur de débats politiques et sociétaux.

 

 

©Freepik

Dans cette série de questions et réponses, les étudiants de première année du cycle d’ingénieur de l’EPITA, école d’ingénierie informatique, répondent à nos questions concernant l’IA. A-t-elle toujours raison ? Peut-elle développer des sentiments ? Ou, est-elle capable de réelles créations ? Les étudiants nous éclairent.

 

 

 

—————————————————————

MMerci !

Ce dossier a été réalisé grâce à la collaboration de chercheurs et médecins du bassin de recherche Lyon Saint-Étienne :

Ainsi qu’avec la participation de :

  • Maëlle Moranges, docteure en neuroinformatique, apportant son expertise de l’IA en tant que référente sur ce dossier
  • Pascal Roy, chercheur en biostatistique au Laboratoire de Biométrie et Biologie Évolutive – LBBE (Université Claude Bernard Lyon 1) et praticien hospitalier aux Hospices Civils de Lyon. Intervenu lors des rendez-vous professionnels LYSiERES² : « L’intelligence artificielle peut-elle remplacer le médecin ? »
  • Antoine Coutrot, chercheur en neurosciences computationnelles, cognitives et comportementales au Laboratoire d’Informatique en Image et Systèmes d’information – LIRIS (CNRS, INSA Lyon, Université Claude Bernard Lyon 1, Université Lumière Lyon 2, École centrale Lyon). Intervenu lors des rendez-vous professionnels LYSiERES² : « L’intelligence artificielle peut-elle remplacer le médecin ? »
  • Les étudiants de première année du cycle d’ingénieur de l’École pour l’Informatique et les Techniques Avancées (EPITA) : Léo Arpin, Adrien Guinard, Arthur De Sousa, Raphaël Hatte, Pierre Raimondi, Maui Tadeja, Mehdi Ismaili, Gregoire Vest, Emil Toulouse, Todd Tavernier, Remi Decourcelle, Paul Gravejal, Aymen Gassem, Sandro Ferroni, Nathan Goetschy, Rémi Jeulin, Clovis Lechien, Garice Morin, Alice Cariou et Eliana Junker

Nous les remercions pour le temps qu’ils nous ont accordé.

Un dossier rédigé par :

  • Léo Raimbault, étudiant en Master 2 Information et Médiation Scientifique et Technique (IMST) à l’Université Claude Bernard Lyon 1, en contrat d’apprentissage à Pop’Sciences – (Introduction, articles #1, #2, #3 et co-écriture des articles #5 et #6)
  • Nathaly Mermet, journaliste scientifique – (Articles #4 et #5)

L’enseignant qui façonne l’ingénieur de demain | Visages de la science

LL’enseignant qui façonne l’ingénieur de demain | Visages de la science

L’ingénierie n’est-elle qu’affaire de technique ? Romain Colon de Carvajal, fait partie de ces scientifiques pour qui l’ingénierie est bien sûr une affaire de technique, mais aussi d’éthique et de philosophie. Enseignant en génie mécanique à l’INSA Lyon, il est aussi spécialiste des low-techs. Selon lui, il est temps de préparer demain, et pour cela, il faut que les ingénieurs sortent du rang et partent à la reconquête de leur liberté.

  • Les low-techs comme médium pédagogique

Au sein de l’école d’ingénieur lyonnaise, Romain Colon de Carvajal met un point d’honneur à initier ses étudiants à la philosophie « low-tech ». « À partir du moment où l’on a bien compris les usages et à qui est destiné un produit technique, je dirais qu’on conçoit low-tech. (…) Le low-tech permet d’explorer une piste concrète et de mettre en lumière la chaîne de responsabilité, plus facile à appréhender lorsqu’un objet technique est plus simple », introduit l’enseignant au micro des « Cœurs audacieux ».

  • Pour une technologie juste, adaptée

« Pour moi, concevoir low-tech, c’est déjà concevoir intelligemment. Je montre qu’il est nécessaire d’avoir une bonne adéquation entre la réponse technologique et le besoin. Le point de départ est de questionner le besoin. Et ce questionnement peut aller très loin : on peut vraiment remettre en cause certains besoins, comme caractériser le côté gadget de certains produits par exemple, qui serait un travers du high-tech. »

  • Une question de responsabilité et de liberté

« La société actuelle demande à l’ingénieur de travailler sur plusieurs échelles de valeurs : l’utilité sociale, le prix, la valeur environnementale, la performance, le contenu scientifique… On ne le forme pas à jongler entre ces échelles de valeurs. Et souvent, il y a des conflits de valeurs : il existe des produits complètement inutiles socialement, mais très sympas à construire d’un point de vue technique. Et quelle liberté les ingénieurs ont d’aller d’une échelle à l’autre ? »

 

Romain_Colon_Carvajal

 

Enseignant au département génie mécanique de l’INSA Lyon, Romain Colon de Carvajal était l’invité du podcast « Les cœurs audacieux », un contenu audio proposé par l’INSA Lyon (Saison 1- Épisode 2)

 

 

 

Romain Colon de Carvajal Podcast

ChatGPT, modèles de langage et données personnelles : quels risques pour nos vies privées ? | The Conversation

CChatGPT, modèles de langage et données personnelles : quels risques pour nos vies privées ? | The Conversation

Les immenses bases de données qui servent à l’apprentissage de grands modèles de langage ne sont pas toutes anonymisées.
Dmitry Ratushny, Unsplash, CC BY

 

Les grands modèles de langage ont récemment attiré beaucoup d’attention, notamment grâce à l’agent conversationnel ChatGPT. Cette plate-forme est devenue virale en seulement quelques mois et a déclenché une course effrénée pour développer de nouveaux modèles de langage toujours plus efficaces et puissants, rivalisant avec l’humain pour certaines tâches.

Cette croissance phénoménale est d’ailleurs jugée dangereuse par de nombreux acteurs du domaine, qui plaident pour une pause afin d’avoir le temps de débattre sur l’éthique en IA et de mettre à jour les réglementations.

Une des grandes questions qui se pose est l’articulation entre intelligence artificielle et vie privée des utilisateurs. En particulier, les prouesses des grands modèles de langage sont dues à un entraînement intensif sur d’énormes ensembles de données, qui contiennent potentiellement des informations à caractère personnel, car il n’y a pas d’obligation d’anonymiser les données d’entraînement.

Il est alors difficile de garantir en pratique que le modèle ne compromet pas la confidentialité des données lors de son utilisation. Par exemple, un modèle pourrait générer des phrases contenant des informations personnelles qu’il a vues pendant sa phase d’entraînement.

AApprendre à imiter le langage humain

Les modèles de traitement du langage sont une famille de modèles basés sur l’apprentissage automatique (machine learning en anglais), entraînés pour des tâches telles que la classification de texte, le résumé de texte et même des chatbots.

Ces modèles apprennent d’une part à encoder les mots d’une phrase sous la forme de vecteurs, en tenant compte de l’ensemble du contexte. Dans les phrases « J’ai mangé une orange » et « Son manteau orange est beau », le mot « orange » se verra attribuer deux encodages différents, puisque la position et le sens ne sont pas les mêmes.

orange bleue a l’extérieur
La Terre est bleue comme une orange. Les modèles de langage apprenne à générer des phrases en faisant suivre les mots les plus probable. Auraient-ils proposé cette ligne de Paul Éluard ?
pixabay, CC BY

Ces modèles apprennent également à décoder ces ensembles de vecteurs contextualisés et leurs relations, pour générer de nouveaux mots. Une phrase est générée séquentiellement, en prédisant le prochain mot en fonction de la phrase d’entrée et des mots prédits précédemment.

L’architecture de ces modèles peut être spécialisée pour certaines tâches. Par exemple, les modèles de type BERT sont souvent « affinés » en apprenant sur des données spécialisées, par exemple sur des dossiers de patients pour développer un outil de diagnostic médical, et sont plus performants sur des tâches de classification de texte tandis que les modèles GPT sont utilisés pour générer de nouvelles phrases. Avec l’essor des applications exploitant les modèles de langage de langage, les architectures et les algorithmes d’entraînement évoluent rapidement. Par exemple, ChatGPT est un descendant du modèle GPT-4, son processus d’apprentissage ayant été étendu pour se spécialiser dans la réponse aux questions.

CConfidentialité des informations utilisées pendant la phase d’entraînement du modèle

Les modèles de traitement du langage naturel ont besoin d’une quantité énorme de données pour leur entraînement. Pour ChatGPT par exemple, les données textuelles du web tout entier ont été récoltées pendant plusieurs années.

Dans ce contexte, la principale préoccupation en matière de confidentialité est de savoir si l’exploitation de ces modèles ou les informations qu’ils produisent peuvent dévoiler des données personnelles ou sensibles utilisées pendant la phase d’apprentissage et « recrachées » ou inférées pendant la phase d’utilisation.

ombre humaine devant lignes de codes
Quelle est la probabilité qu’un grand modèle de langage donne une information personnelle acquise lors de son apprentissage ?
Chris Yang/Unsplash, CC BY

Considérons d’abord les chatbots (exploitant les modèles de type GPT) qui ont appris à générer des phrases à partir d’un texte d’entrée. D’un point de vue mathématique, chaque mot est prédit séquentiellement, sur la base de probabilités qui auront été apprises durant la phase d’entraînement.

Le problème principal est que des données potentiellement personnelles peuvent parfois constituer la réponse la plus probable. Par exemple, si le modèle a vu la phrase « Monsieur Dupont habite 10 rue de la République » et qu’on lui demande « Où habite Monsieur Dupont ? », le modèle sera naturellement enclin à répondre l’adresse de celui-ci. Dans la pratique, le modèle aura aussi vu de nombreuses phrases de la forme « X habite à Y » et on s’attend plutôt à ce qu’il réponde des connaissances générales plutôt que des adresses spécifiques. Néanmoins, le risque existe et il est nécessaire de pouvoir le quantifier.

ÉÉvaluer les probabilités de fuites de données

Il existe tout d’abord des techniques pour évaluer en amont de l’entraînement final si des phrases rares ont le potentiel d’être anormalement mémorisées par le modèle. On réalise pour cela des micro-entraînements, avec et sans ces phrases, et l’on se débarrasse de celles qui auraient une influence trop grande.

Mais les gros modèles de traitement du langage naturel sont non déterministes et très complexes de nature. Ils sont composés de milliards de paramètres et l’ensemble des résultats possibles étant infini, il est en pratique impossible de vérifier manuellement le caractère privé de toutes les réponses. Néanmoins, il existe des métriques qui permettent d’approximer ou de donner une borne maximale sur les fuites de données potentielles.

Une première métrique est l’« extractibilité ». Nous disons qu’un texte est « k-extractible » s’il est possible de le générer à partir d’une entrée de longueur k (en nombre de mots). Par exemple, si le modèle renvoie « 10 rue république » lorsqu’on lui demande « Monsieur Dupont habite à », cette adresse est 3-extractible.

Pour les données personnelles ou sensibles, l’objectif est d’avoir un k le plus élevé possible, car un k faible implique une extraction facile. Une étude de ce type a été réalisée sur GPT-2 : elle a permis d’extraire facilement des informations personnelles sur des individus.

Un autre risque qu’on peut évaluer est l’« inférence d’appartenance ». L’objectif ici est d’identifier si une donnée a été utilisée lors de l’apprentissage du modèle. Supposons par exemple qu’un hôpital entraîne un modèle pour détecter la présence de cancer à partir d’extraits médicaux de patients. Si vous parvenez à découvrir que le modèle a été entraîné sur les données de Monsieur Dupont, vous apprendrez indirectement qu’il est probablement atteint de cancer.

Pour éviter cela, nous devons nous assurer que le modèle ne donne aucun indice quant aux données sur lesquelles il a été entraîné, ce qu’il fait par exemple lorsqu’il se montre trop confiant vis-à-vis de certaines réponses (le modèle va mieux se comporter sur des données qu’il a déjà vu pendant la phase d’entraînement).

TTrouver le bon compromis

Faire comprendre au modèle quelles données sont à caractère personnel n’est pas évident, puisque la frontière entre ces deux types de données dépend bien souvent du contexte (l’adresse d’Harry Potter est connue de tous, contrairement à celle de Monsieur Dupont).

L’entraînement d’un modèle qui respecte la confidentialité passe alors souvent par l’ajout de bruit à un moment ou un autre. L’ajout de bruit consiste à altérer l’information apprise ou bien les réponses du modèle, ce qui permet de réduire les risques d’extraction ou d’inférence. Mais cela implique aussi une légère baisse d’utilité. Il faut donc faire un compromis entre performance et respect des données personnelles.

Les applications potentielles des modèles de langage sont incroyablement vastes, mais il est nécessaire d’encadrer leur pratique en prenant compte les risques de fuites avant leur déploiement. De nouvelles méthodes d’entraînement, ainsi que l’anonymisation des données, voire l’utilisation de données synthétiques, sont toutes des solutions prometteuses et en cours d’étude, mais il faudra de toute manière les accompagner de métriques et de méthodologies pour valider non seulement les performances mais aussi la confidentialité des informations personnelles utilisées lors de l’entraînement des modèles.

 

 

Article publié sur The Conversation le 23 juin 2023

Cet article a été co-écrit par Gaspard Berthelier, en stage au centre Inria de l’Université Grenoble Alpes dans l’équipe Privactics, sur le natural language processing (NLP) et le respect des données personnelles.The Conversation

Antoine Boutet, Maitre de conférence, Privacy, IA, au laboratoire CITI, Inria, INSA Lyon – Université de Lyon

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Véhicule autonome : l’essayer, ce n’est pas vraiment l’adopter… | The Conversation

VVéhicule autonome : l’essayer, ce n’est pas vraiment l’adopter… | The Conversation

Mercedes EQS, Tesla, Waymo (Google cars), les véhicules autonomes deviennent progressivement une alternative crédible aux véhicules que l’on connaît depuis toujours et augurent une transformation des mobilités. Certes, ils sont encore loin d’être à la portée financière de tout le monde ; certes, la réglementation pose (encore ?) des restrictions à leur usage. Néanmoins, le stade d’avancement des projets et les perspectives d’avenir de ce mode de transport suscitent un intérêt croissant de chercheurs issus de tous horizons : quelques 22 890 publications académiques ont été recensées à ce sujet entre 2011 et juillet 2020.

Outre les travaux de sciences de l’ingénieur, les économistes ont interrogé leur effet sur la valeur que l’on accorde au temps ou la propension à payer pour voyager ainsi. D’autres, encore, ont posé un point de vue éthique à partir du dilemme du tramway qui questionne les comportements à suivre lorsque l’on doit choisir entre un drame ou un autre.

Cependant, peu d’approches expérimentales ont été, à notre connaissance, adoptées. Notre idée a été d’observer comment 30 participants adultes aux profils variés se représentent l’objet avant et après l’avoir essayé. Ils se sont assis sur le siège traditionnellement dévolu au conducteur pour un trajet de 5 kilomètres sur une boucle d’environ un kilomètre sur le campus de l’École Centrale de Nantes, dans une Renault Zoé automatique. Le parcours a été dessiné sur route ouverte, partagée donc avec d’autres utilisateurs, et non sur un circuit test. La vitesse maximale était de 25 km/h. Ils ont pris place à bord avec un pilote de sécurité pouvant reprendre le contrôle à tout moment sur le siège passager (c’est une obligation légale en France) et un membre de l’équipe de recherche à l’arrière.

Que fait-on de son trajet lorsqu’il n’y a plus de volant à tenir ? Quelle est notre attitude vis-à-vis du véhicule ? Les réponses à ces questions, qu’a tenté d’apporter notre étude, sont riches en indications quant à l’acceptation que peut trouver dans la société ce moyen de transport. Beaucoup de participants étaient, avant de monter à bord, plutôt excités, en confiance, peu stressés. Le tableau à la descente n’était plus tout à fait le même…

Pas plus rassuré à l’arrivée qu’au départ, au contraire…

Nous nous sommes tout d’abord intéressés au ressenti général des individus. Avant l’essai, l’attitude des participants pouvait être qualifiée globalement de positive. Sans doute y a-t-il un biais à ce niveau, dans la mesure où celles et ceux qui ont participé à l’expérience, volontaires, en avaient largement envie. Cette envie et cette excitation demeurent à l’arrivée malgré une hausse substantielle du stress et de la peur. En outre, 62 % des individus se disaient confiants au départ contre seulement 13 % après l’expérience. Ils sont également plus de deux fois plus à ressentir un stress en descendant qu’en montant.

Cette baisse de la confiance se traduit par un rapport au véhicule bien plus hésitant. Non seulement il semble que l’on prend moins de plaisir à se laisser conduire par ces véhicules, mais encore on semble moins disposé à y embarquer des proches avec soi. Avant l’expérience, seulement 7 % des participants disaient ne pas être prêts à faire voyager leur famille par ce moyen quand 45 % l’étaient et 48 % hésitaient. Passé le trajet, les rapports s’inversent : moins de 7 % de personnes prêtes, 40 % d’hésitants et 53 % qui s’y refusent.

Si l’expérience permet de convaincre que les véhicules autonomes représentent l’avenir (on passe de 10 % à 90 % de convaincus), elle fait diminuer la croyance en les capacités de ce nouveau moyen de transport : non, on ne pense pas qu’il solutionnera les problèmes de congestion ; non, on ne pense pas qu’il permette d’être plus productif. Du moins, ces résultats s’appliquent-ils au niveau de technologie utilisé dans notre expérience en 2021 dans un contexte qui évolue très vite.

Que fait-on à bord d’un véhicule autonome ?

Beaucoup d’individus ont ainsi revu leurs occupations durant le trajet. Plus stressés, ils ont été bien plus à regarder la route ou par la fenêtre par rapport à ce qu’ils envisageaient de le faire. Nous demandions pourtant aux participants de se comporter comme s’ils étaient sur un trajet quotidien entre domicile et travail.

Nos résultats suggèrent ainsi que les participants voient dans la voiture autonome quelque chose de plus proche d’une voiture standard que d’un train dans lequel on peut se livrer à d’autres activités.

Certes, ces différences entre des attentes idéalisées et la réalité mériteraient d’être documentées par un échantillon plus large. Ces premières tendances soulignent néanmoins qu’une attention mérite d’être accordée au développement d’expériences in situ. Elles seules permettent d’obtenir une véritable connaissance de l’acceptation par la société de ces nouveaux véhicules et, par la même, d’anticiper les effets de l’automatisation sur les comportements de mobilité.

C’est là l’objet du projet Aura AutoBehave dans lequel s’inscrit cette étude. Elle en constitue le volet « économique » en attendant des résultats des méthodes issues d’autres disciplines (sciences cognitives, intelligence artificielle…) qui sont en train d’être analysés et seront publiés bientôt.

Le projet AutoBehave est porté par le laboratoire Liris et vise à étudier ce qui se passe à l’intérieur des véhicules autonomes : que fera le conducteur s’il ne conduit pas ? Comment les nouvelles activités impactent-elles le confort à l’intérieur de la voiture ? Quels seront les impacts économiques de ces nouvelles activités ? Quels aménagements intérieurs seraient alors adaptés à ces activités pour un meilleur confort de vie à bord ? Pour apporter des éléments de réponses, le consortium du projet AutoBehave allie les compétences d’informaticiens (Liris), d’ergonomes physiciens et de biomécaniciens (LBMC), d’économistes (Laet), de psychologues (Lescot) à celles de l’entreprise DEMS, bureau d’étude spécialisé dans le design industriel en particulier celui des véhicules.The Conversation

 

Publié  sur The Conversation le 6 juin 2023

Stéphanie Souche-Le Corvec, Professor in economics, Université Lumière Lyon 2 ; Carlos Crispim Junior, Associate professor in electrical engineering, Université Lumière Lyon 2 et Florent Laroche, Maître de conférence en économie, Université Lumière Lyon 2

Cet article est republié à partir de The Conversation sous licence Creative Commons.

Lire l’article original

Le numérique est-il un progrès durable ?

LLe numérique est-il un progrès durable ?

Le monde évolue à une vitesse vertigineuse, façonné par les avancées technologiques qui définissent notre époque. Mais au-delà des promesses de progrès et de facilité, se cache une question cruciale : le numérique est-il vraiment durable ?

À travers son livret en ligne « Le numérique est-il un progrès durable », l’Inria offre des pistes de réflexion et propose des solutions pour construire un numérique plus responsable et durable. En explorant les différentes dimensions du numérique, il nous encourage à prendre conscience de notre rôle individuel et collectif dans cette transformation.

 

>> Découvrez le livret en ligne :

INRIA

 

>> Pour aller plus loin :

L’impact écologique du numérique | Une bd pop’sciences

Festival Pop’Sciences 2023

FFestival Pop’Sciences 2023

Le Festival Pop’Sciences revient pour une 4e édition à Villeurbanne ! Au programme, près d’une centaine d’animations accessibles, gratuites et ouvertes à tous autour de l’archéologie, l’astronomie, la santé, l’histoire, les neurosciences…

Affiche du festival Pop'Sciences 2023

©Pop’Sciences – Université de Lyon

ATELIERS | SPECTACLES | EXPOSITIONS | JEUX | DÉBATS

La terre tourne, et à grande vitesse ! Notre monde de 2023 ne ressemble pas à celui de 2019 et encore moins à celui qu’on imaginait au début du millénaire, sans parler du monde de demain ! Face à ces bouleversements écologiques, sociaux, politiques, technologiques, que font les scientifiques ? Que font les associations ? Quels sujets abordent-t-ils ?

Découvrez comment les sciences, elles aussi, évoluent pour mieux comprendre et répondre aux enjeux de notre époque : climat, genre, alimentation, numérique, arts, populations, sports… Les transitions sont au cœur de nos existences et quoi de mieux qu’un festival pour les découvrir, les comprendre, en débattre ?

>> Pour plus d’informations et consulter toute la programmation :

FESTIVAL POP’SCIENCES

 

>> Découvrez le teaser du Festival Pop’Sciences 2023 :

>> Revoir l’édition 2021 du festival.

 

À l’Ecole de l’Anthropocène revient au Rize avec sa 5e édition

ÀÀ l’Ecole de l’Anthropocène revient au Rize avec sa 5e édition

Cinq journées pour comprendre, imaginer, construire les possibles autour du changement global.

Du 24 au 28 janvier 2023, l’École urbaine de LyonUniversité de Lyon et ses partenaires proposent la 5e édition de l’événement « À l’École de l’Anthropocène » accueillie, pour la seconde année, au Rize à Villeurbanne. L’exploration de la question anthropocène, pour tous les publics, se poursuit à travers une diversité féconde de formats et d’acteurs. L’anthropologue Tim Ingold sera l’invité d’honneur de cette édition placée sous le signe de la fragilité, du soin et de la relationnalité.

Au programme, soirées débats, conférences, performances – cours publics – ateliers, séminaires – balades et visite de l’exposition « ça se trame à Villeurbanne » – portraits de figures de l’écologie – cartes blanches à des collectifs – rencontres à la médiathèque du Rize avec des auteurs autour de leur parution récente – programmation cinéma adulte et jeunesse au Comoedia – programmation de Radio Anthropocène.

PROGRAMME

>> Pour en savoir plus : ecoleanthropocene.universite-lyon.fr

Un événement produit par : l’École urbaine de Lyon/Université de Lyon,

En partenariat avec : le Rize, le LabEx IMU (Intelligences des Mondes Urbains) et Cité anthropocène.
Une programmation préparée en collaboration avec : October Octopus.

Partenaires : Ville de VilleurbanneMétropole de LyonCentre national d’études spatiales (CNES)Laboratoire Environnement Ville Société (EVS)Comœdia SERLMaison du projet Gratte-Ciel Centre-VilleLyonBD FestivalCentre de Culture Contemporaine de Barcelone (CCCB)Ville de LyonRadio Bellevue WebLyon Music.

 

Les technologies blockchain

LLes technologies blockchain

Engouement, critiques vives, intérêt, incompréhension sont autant de réactions suscitées par les technologies blockchains. Quelle que soit la position que l’on adopte, il est indéniable que l’évolution des technologies et leur utilisation engendrent des nouvelles questions dans le champ de l’informatique, de l’économie et du droit.

Sommes-nous face à une profonde mutation technologique, économique et juridique ? Les entreprises sont-elles prêtes à intégrer cette innovation ? Comment ? Pourquoi ? Les acteurs publics entendent ils soutenir cette technologie et dans quelle mesure ?

L’heure est donc venue de faire le point à travers les interventions de nos experts :

  • Regards croisés de chercheurs
  • L’expérience de l’entreprise
  • Le point de vue des acteurs publics

La CSTI de l’UJM vous convie à une soirée consacrée à la technologie des blockchains !

>> Découvrez le programme de la soirée :

CSTI – Université Jean Monnet

PETIT CAMPUS : une collection de contenus scientifiques vulgarisés pour le jeune public.

PPETIT CAMPUS : une collection de contenus scientifiques vulgarisés pour le jeune public.

À l’occasion de la Fête de la science, l’Université Gustave Eiffel a proposé aux élèves et leurs professeurs des ateliers animés par plusieurs de ses chercheurs, sur le thème de la nature. Trois ressources pédagogiques PETIT CAMPUS inédites, conçues pour l’occasion, ont servi de support aux collégiens pour préparer la rencontre avec le chercheur ou la chercheuse.

Afin de répondre à une véritable attente de la part des jeunes, l’Université Gustave Eiffel a souhaité rendre accessibles ses travaux scientifiques auprès de ce public, en créant la collection PETIT CAMPUS. Ses contenus vulgarisés, à partir des dossiers thématiques de l’Université Gustave Eiffel, s’accompagnent de vidéos, de jeux, et de ressources pour les enseignants. Des sujets technologiques, innovants, sociétaux y sont proposés, répartis en 4 thématiques : mobilités, infrastructures, risques et environnement et territoires. L’occasion de permettre aux jeunes de s’approprier ces sujets et de développer leur esprit critique.

 

Les ressources pédagogiques PETIT CAMPUS conçues à l’occasion de la Fête de la science :

 

©EPICTURA

Ces ateliers ont été proposés dans le cadre de la Fête de la science 2020

Retrouvez toutes les ressources PETIT CAMPUS

Retrouvez les autres activités de la Fête de la science 2020 à revivre depuis chez vous