Pop'sciences Mag

Top

À quoi rêvent les intelligences artificielles ?

Poser cette question, c’est supposer que les machines dites intelligentes sont dotées d’une faculté proprement humaine : celle qui nous permet de nous projeter dans une réalité désirable. D’espérer, en somme.

Nous n’en sommes pas là, loin s’en faut, nous disent les experts lyonnais que nous avons rencontrés. Qu’ils soient philosophes, ingénieurs, médecins ou chercheurs, ils nous mettent en garde contre les fantasmes qui entourent cette nouvelle révolution technologique. Certes, l’intelligence artificielle va nous ouvrir un immense champ de possibilités, mais elle sera surtout ce que nous déciderons d’en faire.

Une chose est sûre, comme le rappelle l’ami Nao dans la vidéo qui suit, cela va nous demander quelques ajustements…

Édito | Éclairer le débat sur l’intelligence artificielle

Pour son premier numéro, Pop’Sciences Mag interroge une révolution technologique fascinante autant que bouleversante. L’effervescence médiatique pour le sujet est un indicateur du degré de questionnement et du besoin d’information sur l’intelligence artificielle (IA). Profitant qu’à Lyon nous disposons d’un riche vivier d’innovation et de recherche scientifique, nous avons pris le sujet à bras le corps et rencontré les meilleurs experts. Ce premier numéro souhaite offrir des clés de compréhension et nous éclairer sur ce qu’est réellement l’IA, sur ceux qui l’imaginent et sur ce à quoi elles sont destinées.

L’intelligence artificielle se définit comme la création de machines capables de résoudre des problèmes et de prendre des décisions qui nécessitent habituellement une intelligence humaine pour être accomplies. Par de complexes algorithmes, il s’agit d’imiter ou de remplacer l’humain dans certaines de ses fonctions cognitives, en assimilant ou en générant des quantités quasi-infinies de données symboliques (lettres, mots, dessins, photographies, raisonnements, etc.) ; et en faisant des choix en fonction de celles-ci.

Les prémices de cette grande discipline scientifique s’opèrent dès les années 50, a posteriori des travaux fondateurs d’Alan Turing. Depuis, les ingénieurs, développeurs et chercheurs n’ont eu de cesse de s’inscrire dans une impressionnante course à l’innovation, aujourd’hui en pleine pointe de vitesse. Les programmes se sont améliorés au point, désormais, de créer des représentations complexes de la connaissance, de démontrer des théorèmes, de générer du langage, de reconnaître des formes subtiles, ou encore de battre les meilleurs joueurs de jeux stratégiques comme le Go.

Nous sommes à un jet de pierre d’achever la conception de la « bibliothèque universelle »

Demain nous aurons créé sur Terre une machine capable de lire, comprendre et catégoriser tout ce qu’Homo Sapiens a écrit depuis qu’il existe. Des premiers glyphes rupestres aux grands classiques de la Renaissance, en passant par nos commentaires sur des forums ou l’intégralité des manuels de montages de meubles. Pour autant, peut-on en conclure que les machines sont à « deux doigts » d’être cognitivement plus puissantes que les humains ? Pas si simple. Il nous faut désormais nous interroger sur ce que promettent les IA et identifier les risques sous-jacents à leurs développements. De cette manière, nous aurons les moyens de déployer des agents technologiques raisonnables et compatibles à l’Homme.

S’informer et réfléchir aux réalités de l’IA dans nos sociétés, aux innovations disponibles et aux choix que nous voulons faire

Qui pour nous rassurer sur le fait que les objectifs induits dans les algorithmes sont en adéquation avec les valeurs de leurs utilisateurs ? Quel degré d’autonomie accorder aux IA sans que celles-ci ne reproduisent des effets discriminatoires ou d’exclusion ? Comment ne pas pousser à l’extrême le profilage des individus, et induire par là une société déconnectée de logiques collectives et démocratiques ? La science-fiction nous alerte depuis déjà longtemps sur les dérives potentielles liées à la « mal-programmation » de nos technologies. Et pourtant, il nous est permis de rêver et de croire en la complémentarité de l’Homme avec l’intelligence artificielle.

Une opportunité pour activer de nouvelles utopies

Les concepts fondateurs mathématiques et informatiques de l’IA sont autant de révolutions intellectuelles que d’opportunités pour l’Homme de réinventer ses modes de vie. Afin de mieux participer à la durabilité de son espèce et de son environnement.

Nos chercheurs, nos experts, ainsi que nous citoyens, avons tous un rôle à jouer dans cette « réinvention » d’une intelligence artificielle compatible à l’Homme, en nous imposant un cadre éthique et juridique efficace. Mais également en agissant pour une meilleure diffusion des savoirs, davantage de débats et une recherche qui questionne sans cesse ses finalités aux regards d’objectifs citoyens et durables.

Pop’Sciences Mag propose un tour d’horizon de programmes scientifiques lyonnais emblématiques en IA. Une plongée au cœur de cette effervescence créatrice, des craintes et des espoirs qu’elle suscite.

PHILOSOPHIE

“Méfions-nous du mythe de Prométhée !”

C’est la mise en garde que lance Mathieu Guillermin, philosophe, spécialiste des enjeux éthiques liés aux nouvelles technologies. Selon lui, le recours aux mythes pour éclairer les enjeux que soulève l’IA nous pousse à surinterpréter ce phénomène. Il alimente les peurs et les fantasmes ; il nous détourne d’une réflexion collective sur sa « souhaitabilité ». Au risque d’entraîner un rejet irrationnel du progrès technologique.

L’espoir de nous approcher des dieux n’est pas un arrière-plan des plus adéquats pour aborder cette révolution technologique et ses enjeux éthiques.
MATHIEU GUILLERMIN | Maître de conférence. Depuis 2016, il a rejoint le groupe d'Épistémologie et d’éthique des sciences et des technologies du laboratoire de Biologie générale de l’Institut catholique de Lyon (UCLy)

La première fois que le philosophe a entendu parler d’intelligence artificielle remonte à ses jeunes années, lorsque abreuvé de science-fiction, il a découvert une forme de nouvelle technologie qui serait douée de subjectivité et de sentiments. Les romans, les films et les BD faisaient intervenir l’IA comme une entité à part entière, douée de conscience, similaire à celle des humains. Le doute était jeté sur l’imminence d’un passage d’une IA faible à une IA forte.

 

IA forte vs IA faible

@Université de Lyon

À ce propos, ce que le test de Turing propose comme principe de distinction entre les deux formes d’IA est intéressant. Dans son ouvrage Computing Machinery and Intelligence‎, Alan Turing pose un jeu (imitation game) : un interrogateur est censé, par un principe de questions/réponses, déterminer si celui qui lui répond (et qu’il ne voit pas) est un humain ou une machine. À des échelles significatives d’expérience, encore aucune machine n’a aujourd’hui réussi à « passer » ce test et à semer le doute sur sa faculté à penser par elle-même.


Mathieu Guillermin juge que nous sommes très loin de l’élaboration d’une machine capable de passer le test de Turing. Néanmoins, si une machine se hissait un jour à ce niveau, « là nous serions face à des questions fondamentales et complexes » telles que : peut-on l’éteindre ? Est-elle une entité morale ? Il apprécie également ce que « l’humble définition » de Marvin Minsky (pionnier de l’IA, spécialiste de psychologie cognitive, réseaux neuronaux et mathématicien) dit de l’intelligence artificielle. Pour ce dernier, « il y a de l’intelligence artificielle lorsqu’on fait faire par une machine des tâches qui auraient nécessité une forme d’intelligence si elles avaient été effectuées par un humain ».

Le chercheur nous a délivré une analyse insoupçonnée et captivante sur les développements en cours de l’IA et leurs probables répercussions sur nos modes de vie et nos rapports aux autres. Selon lui, l’intelligence artificielle surpasse les enjeux éthiques qui ont été soulevés au fur et à mesure des anciennes révolutions technologiques (roue, écriture, imprimerie, chemin de fer, électricité …). Il nous surprend en nous invitant – cette fois-ci – à nous méfier des mythes fondateurs.

Interview

Comment la mythologie peut-elle nous permettre de mieux appréhender cette révolution technologique ?

Parler de révolution technologique, c’est utiliser exactement le bon terme. Les avancées récentes dans le domaine de l’intelligence artificielle reflètent davantage un bouleversement technologique que théorique. Au vu de l’explosion de données en circulation, combinée à l’augmentation de la puissance de calcul de nos machines (les phénomènes de Big Data), nous sommes effectivement face à une révolution sans précédent pour nos modes de vies. En revanche, tous les mythes qui nous expliquent que par la technique l’Homme se dote de la puissance des dieux (lire l’encadré sur le mythe de Prométhée), poussent tout un chacun à surinterpréter les révolutions technologiques et c’est particulièrement vrai pour l’intelligence artificielle.

L'Homme formé par Prométhée et animé par Minerve

Le mythe de Prométhée évoque l’acte indocile du frère d’Épiméthée pour dérober le feu aux dieux de l’Olympe, afin de le donner aux hommes. Cet acte leur permet de s’élever et de se doter de « techniques » permettant leur subsistance. (Jean-Simon BERTHELEMY © Musée du Louvre).

L’espoir de nous approcher des dieux n’est pas un arrière-plan des plus adéquats pour aborder cette révolution technologique et ses enjeux éthiques.

Je préférerais que nous tentions de mieux nous comprendre et nous épanouir à travers cette révolution. Méfions-nous donc de Prométhée et du mythe qui lui est associé, tant il permet trop de jouer sur les peurs et d’alimenter les fantasmes.

La mythologie et les conceptions des premiers philosophes construisent nos arrière-plans de pensée. Ce que Platon nous a délivré en particulier n’est guère plus rassurant que le mythe de Prométhée dans l’interprétation de l’IA. Pour résumer, Platon place la logique, le logos, au fondement du monde ; à partir de ce postulat, nous avons, notamment en France, des représentations collectives très marquées où nous plaçons la mathématique comme « supérieure » à d’autres disciplines. Qu’est-ce qui pourrait alors empêcher qui que ce soit de penser que l’IA est forcément acceptable, objective et non-opposable, sous prétexte qu’elle est composée par du code et donc basée sur des racines mathématiques ?

 

Au cas où ces mythes se prolongent et que nous dotions des machines d’un certain « degré de conscience »… devrons-nous aller jusqu’à infliger une part de responsabilité aux IA pour leurs actes préjudiciables ?

Nous n’y sommes pas encore. Selon moi, la loi de Moore plafonne et il ne paraît vraiment pas évident que la courbe de l’innovation se poursuive au même rythme.

La loi de Moore est ici entendue dans un sens commun. Cette règle est dérivée des deux premières lois de Moore (1965 et 1979) qui stipulent que le nombre de transistors sur un microprocesseur double à peu près tous les deux ans. Plus généralement, elle décrit la courbe exponentielle de la puissance et des capacités de nos systèmes de calculs et illustrent l’explosion technologique des 70 dernières années.

Malgré tout, nous allons rapidement être confrontés à de sérieux dilemmes éthiques. La voiture autonome en est un exemple significatif. On nous promet des véhicules autonomes et intelligents sur nos routes d’ici 20 ans, mais ce type de mobilité génère des dilemmes éthiques dont les alternatives sont toutes « éthiquement inacceptables » ; par exemple, lors d’un accident inévitable, faut-il sacrifier les occupants du véhicule ou les passants ? La majorité de mes étudiants sont très frappés par la véritable difficulté à faire des choix dans ces cas, voire par le simple fait de poser la question et de devoir faire un choix. Leur réaction est très juste à mon sens. Cette répulsion à faire un choix dans ce type d’alternative montre selon moi que nous sommes déjà allés trop loin, et me semble être une raison suffisante de ne pas créer d’autonomie à 100% pour ces véhicules. Demandons-nous d’abord s’il est souhaitable de faire face à de tels choix, avant de nous demander à qui incombera la responsabilité d’un événement préjudiciable.

Mathieu Guillermin - Pop'Sciences Mag - intelligence artificielle - @Visée.A

@Visée.A

D’autant plus que nous n’arrivons pas à résoudre clairement cette question de la responsabilité. Derrière un algorithme d’intelligence artificielle, des milliers de lignes de codes, éditées par des centaines de codeurs depuis plusieurs années, sont présentes. C’est un détail qui a son importance dans la question de la « dilution de la responsabilité ».

➠ Plus loin dans le Mag : Transports : « Œuvrer à une meilleure coopération homme-machine ».

Ce qui va changer avec les agents intelligents et autonomes, c’est que la prise de décision sera tellement distribuée qu’il me paraît trop facile et très illusoire de masquer tout ceci en attribuant une responsabilité à l’IA. Cela risque évidemment d’entraîner des dérives, mais je crois que les grands principes fondamentaux du droit français sont déjà très bons guides pour poser des garde-fous et inventer de nouvelles formes de régulation adéquates.

Les structurations inconscientes de nos sociétés occidentales posent comme principe la propriété d’un véhicule personnel et je pense que le moment est venu de réinterroger nos modes de mobilité. Sommes-nous à ce point utilitaristes que nous en venons à l’idée de trancher ces dilemmes éthiques (« qui tuer entre la vieille femme et le petit chien !? ») avant de réfléchir à nos modes de vie ?

➠ Sur le portail Pop’Sciences : Les robots anthropomorphiques, entre mythes et réalités : Inéluctables, inquiétants, nécessaires ?

 

Dès lors, Rabelais disait-il vrai en considérant que « la science sans conscience n’est que ruine de l’âme » ?

L’analyse de Gilbert Simondon, philosophe du 20e siècle, sur l’inertie des systèmes techniques* est intéressante pour observer que c’est au fur et à mesure que les possibilités techniques apparaissent que nous pensons leur souhaitabilité et leur légitimité. L’évolution des technologies qui transforment nos sociétés est ainsi largement dominée par une sorte de passivité face aux développements techniques. Changer l’ordre des choses serait selon moi fondamental, car nous avons déjà observé qu’à ne pas encourager en amont des réflexions (éthiques) collectives, nous générons ou contribuons à des rejets ultérieurs de certains pans techniques (les OGM, par exemple). Des rejets indiscriminés et massifs qui expriment plus de peur et de colère que de rationalité collective.

En 1958, Gilbert Simondon explique, dans son ouvrage Du mode d’existence des objets techniques, que la technique est essentiellement liée à l’expérience de l’échec de nos agissements.

Un enjeu majeur pour nous chercheurs et développeurs techniques est donc de savoir comment dire nos découvertes, comment être honnête sur leur portée et comment débattre de leur intérêt sociétal. Par exemple, concédons qu’il ne soit pas impossible de créer une IA forte, ayant du nez, de l’instinct, une capacité informelle, s’adaptant au contexte et consciente … Pourrions-nous réellement nous permettre d’en entamer l’élaboration pour autant ? Il faudrait par exemple prendre sérieusement en compte la question environnementale ! L’énergie nécessaire à l’entraînement et au fonctionnement des IA est très importante. L’approvisionnement en métaux (semi-)conducteurs essentiels à leur construction est délicat (gisements avec concentration suffisante peu nombreux et en épuisement rapide), etc. Nous sommes de facto contraints par notre système et cela va dans le même sens que le plafonnement que j’évoquais à propos de la loi de Moore.

PopSciences paradis Intelligence artificielle @ViseeA

@ViseeA

 

Alors allons-nous devoir nous résigner à nous projeter dans des paradis artificiels ?

Pour moi il faut porter une attention particulière au risque de perte de sens et de rapport au réel.

Récemment, Thomas Samuel Kuhn, philosophe et historien des sciences, expliquait que le monde dans lequel nous vivons dépend des concepts à travers lesquels nous le pensons. Il pose en fait la question de savoir si nous sommes bien conscients de la réalité, ou bien si nous n’en percevons que des simulacres. Même si selon moi cette intuition est philosophiquement intéressante, je ne crois pas qu’il faille nous pousser à décrédibiliser le réel et à amoindrir l’expérience que nous nous faisons du monde. De mon point de vue, un entre-deux est à rechercher entre la raison pure d’Emmanuel Kant (notre connaissance ne saurait dépasser les limites de l’expérience) et l’interprétation très ontologique de T.S. Kuhn.

C’est une bonne chose que nous ayons pris de la distance avec l’idée d’un unique réel fondamental (par exemple un logos singulier). Mais le risque est que cela puisse encourager chacun à se croire libre d’interpréter le monde à sa manière, à assumer sa vérité et à se noyer dans un paradis artificiel.

En dépit de ces potentielles dérives, les applications de réalité virtuelle peuvent être source d’optimisme et je tiens à insister là-dessus. Il faut simplement faire attention à ne pas se perdre dans cet artifice, ne pas oublier qu’il s’agit d’illusions ou de rêves… Cette précaution prise, rien ne s’oppose à ce que la réalité virtuelle se révèle extrêmement utile et positive. On peut imaginer son apport dans le cas d’une thérapie post-traumatique, par exemple. Elle pourrait aussi être un formidable moyen de démultiplier les capacités créatives.

SANTÉ

Autisme, Alzheimer... Robots et IA aux petits soins

Détour par le laboratoire de Peter Dominey, directeur de recherche au CNRS, spécialiste des systèmes cognitifs humains et robotiques. Ici, on programme des robots humanoïdes appelés iCub, Pepper ou Reeti. Leur mission : interagir avec des patients atteints de la maladie d’Alzheimer pour les aider à consolider leurs souvenirs, ou avec des enfants présentant des troubles autistiques afin de susciter des émotions.

Au détour d’un des couloirs étriqués du bâtiment de l’Inserm de Bron, entre les effluves de café, les paillasses en enfilade et les chariots de matériel biologique mal garés, une dizaine de chercheurs s’affairent au codage et à la programmation d’agents très spéciaux. La bande d’experts navigue à l’interface de l’intelligence artificielle et de la psychologie cognitive, poursuit des objectifs innovants en santé et développe des assistants pour accompagner et être utile à l’humain.

Construire des agents doués d’intelligence artificielle dont l’interaction avec les patients atteints de la maladie d’Alzheimer ou avec des enfants pris de troubles autistiques aurait pour conséquence de consolider des souvenirs, de susciter des émotions et d’améliorer par là leur quotidien.
Peter F. Dominey | Institut Cellule souche et cerveau Inserm, UCBL, Inra

Des robots assistants mnésiques et autobiographiques pour préserver la qualité des rapports sociaux des malades d’Alzheimer

La lente tragédie de la mémoire perdue, celle qui effrite nos souvenirs à petit feu, est au cœur d’un des projets saillants de l’équipe de recherche. Le partage de nos expériences personnelles avec nos proches sont au fondement de la qualité du lien social que nous entretenons avec eux. Pour ces malades d’Alzheimer qui sont moins ou ne sont plus en mesure de piocher dans leurs souvenirs, Peter Ford Dominey et Guillaume Berthelon (stagiaire rattaché au laboratoire, élève de CPE Lyon) travaillent depuis quelque temps à la mise en œuvre d’un dispositif qui agit comme un véritable collaborateur psychologique et social, et offre de nouveaux moyens de faire appel à leur mémoire.

Au cœur du noyau dur technologique déjà très impressionnant du robot Pepper, nos érudits intègrent des quantités de consignes pour « améliorer les capacités mnésiques du robot ». À sa première rencontre avec un patient, Pepper devra avant tout faire valoir ses capacités d’écoute et de mémorisation : c’est la phase « d’apprentissage », où le robot écoute une série d’événements, de noms, d’actes sociaux, de lieux, et de repères spatio-temporels, patiemment racontés par le patient. Du fait des algorithmes d’intelligence artificielle dont il est doté, l’agent capte les mots-clés, enregistre, mais surtout ordonne et hiérarchise toutes ces données qui, dans un second temps, seront utiles à la phase plus mémorielle du « dialogue ».

Un véritable « calepin numérique » augmenté de nos expériences personnelles

Ainsi le soir venu, le patient pourra raconter et faire se souvenir au robot (et à lui-même) ce qu’il a mangé (quoi), à midi (quand) avec sa meilleure amie Jeanne (avec qui). Ils ont évoqué leurs souvenirs d’université (objet de la discussion) au restaurant japonais de la rue de Marseille à Lyon (où).

La complémentarité entre l’Homme et la machine est donc placée au centre du projet de recherche. Si les facultés de perceptions du patient ne sont pas altérées dans le cas de cette maladie, sa mémoire en revanche tend à s’éclipser et la faculté quasi-infinie du robot à enregistrer, vient compenser cette carence autobiographique. La portée d’un tel projet de recherche est très enthousiasmante pour les patients et les « aidants ». Nous pouvons envisager que les liens entre familles, professionnels de santé et malades tendent à ne plus s’effondrer, au rythme des crises de démence ou de leurs épisodes amnésiques.

➠ Sur le portail Pop’Sciences : Maladie d’Alzheimer : les émotions ont-elles encore un effet sur la mémoire ?


Autisme : l’IA et la robotique pour améliorer l’accompagnement clinique des troubles du développement

 

Les chercheurs de l’institut Cellule souche et cerveau développent également des programmes d’intelligence artificielle au service de la prise en charge d’enfants autistes. Dans ce cas précis, le robot (Reeti) a la capacité de produire aléatoirement des émotions faciales (joie/surprise/tristesse/neutre) et d’interpréter les réponses que l’enfant produira en conséquence.

  • Reeti : « Quelle émotion je fais ? »
  • L’enfant répond oralement et/ou sélectionne une image correspondante sur une tablette tactile
  • Reeti : « Peux-tu faire comme moi ? »
  • L’enfant mime l’expression et sa réaction est filmée

Le thérapeute pourra se servir des images de cette interaction afin d’évaluer les performances de l’enfant dans un cadre alternatif au dialogue entre humains, et adapter les soins et l’accompagnement en conséquence. L’autisme est une des formes de trouble envahissant du développement (TED) qui pourrait bénéficier de l’apport de l’IA et de la robotique. Tant dans ses formes sévères que pour le syndrome d’Asperger ou pour les retards mentaux plus ou moins importants, l’objectif est une meilleure compréhension des perturbations dans l’acquisition ou l’expression d’habiletés développementales.


Les chercheurs développent un robot permettant de s’incarner dans un autre corps…

Des programmes de recherche en télé-présence permettent déjà à des étudiants hospitalisés de s’immiscer en classe grâce à un robot qu’ils peuvent manier à distance. C’est à partir de ces innovations que l’équipe de l’Inserm a développé des nouvelles applications « d’incarnation dans un robot ». Ils rendent possible le manœuvrent du robot I-Cub grâce à des capteurs de mouvements sur un sujet, à tel point que l’expérience crée le sentiment d’être incarné dans la machine.

Un casque de réalité virtuelle vissé sur la tête, le « pilote » voit à travers les yeux d’I-Cub et constate que ses propres mouvements corporels sont réalisés à l’identique par les prothèses mécaniques de l’androïde. Les finalités de cette expériences pourraient définir de nouveaux compléments aux thérapies des troubles psychiques et de rapport au corps (obésité, anorexie…).

Hôpital et diagnostic 3.0. Enjeux et promesses

Qualité du diagnostic, suggestion de traitement, suivi personnalisé des patients, prévention : l’IA va modifier en profondeur le parcours de soin des patients. Médecin oncologue au Centre Léon Bérard à Lyon, engagé dans plusieurs programmes de recherche sur les applications de l’IA dans le domaine de la santé, Pierre-Étienne Heudel dessine les contours de l’hôpital public de demain.

Demain, avec l'intelligence artificielle, le dossier médical personnalisé sera partagé, interopérable et croisera tous types de données. D'un « simple » support, il deviendra un véritable acteur de la prise en charge du patient.
Pierre-Étienne Heudel | Oncologue médical, vice-président de la Commission médicale d’établissement du Centre régional de lutte contre le cancer Léon Bérard et médecin hébergeur de données de santé pour les Hospices civils de Lyon.

L’analyse automatique des images révolutionne déjà le parcours de soin et les métiers

Le 28 mai 2018, une équipe internationale de chercheurs a dévoilé, dans la revue Annals of Oncology, la conception d’un algorithme de détection de mélanomes par apprentissage profond. Sur une série de 100 photographies, le taux de réussite du programme dans le diagnostic de ce type de cancer de la peau surclasse celui d’un groupe de 58 dermatologues spécialistes (95% contre 87%).

Pierre-Étienne Heudel observe que l’analyse automatique d’images (scanners, IRM, mammographies, échographies…) est aujourd’hui « poussée à son paroxysme par le deep learning*.» Nous assistons à une très impressionnante course à l’innovation dans ce domaine et les applications sont extrêmement prometteuses, insiste-t-il « tant au niveau du diagnostic, que dans l’appréhension des risques évolutifs d’une maladie. »

Le deep learning, ou apprentissage profond, désigne un des paradigmes de l’intelligence artificielle qui génère automatiquement des connaissances et des modèles intelligents à partir de couches successives de grandes quantités d’information. Cette technologie n’est pas « consciente » des images qu’elle analyse. Dans ce cas précis, l’algorithme interprète en réalité un amas de pixels qu’il reconnaît comme étant agencés de telle manière qu’ils correspondent à un certain diagnostic.

L’oncologue appuie ses propos sur les avancées d’un programme de recherche pluridisciplinaire auquel il est associé. Depuis une année à Lyon, avec le professeure Françoise Galateau-Sallé de l’Unité d’Anatomie et cytologie pathologique du Centre Léon Bérard et la start-up française OWKIN, toute une équipe développe une IA qui facilite l’étude morphologique d’anomalies microscopiques sur des cellules de surfaces. Basé sur de complexes algorithmes d’apprentissage (machine learning), ce projet lancé il y a moins d’un an permet d’analyser des correspondances entre certaines morphologies cellulaires précises et des diagnostics d’une rare et virulente forme de cancer : le mésothéliome. Les résultats et la vitesse à laquelle l’intelligence artificielle apprend et améliore ses performances, impressionnent Pierre-Étienne Heudel. Le médecin observe que le modèle, bien qu’encore balbutiant, est aujourd’hui « aussi performant dans l’analyse que l’expert mondial de la maladie ». Il présage ainsi que « l’analyse automatique de l’image et l’IA de manière générale, vont profondément modifier la prise en charge de nos patients dans les 5 à 10 ans ».

Il s’attend à ce que l’impact de l’intelligence artificielle atteigne des sommets lorsque nous réussirons à opérer des corrélations entre différents types de données de santé et environnementales (textes, images, informations génomiques, cartographies, statistiques…).

Détail, d'une image analysée grâce au deep-learning (ici, l'épithélium).

Détail, d’une image analysée grâce au deep learning (ici, l’épithélium). Source : Journal of Pathology Informatics (A Janowczyk, A Madabhushi)

Croiser les bases de données biologiques, génétiques, environnementales et médicales

Les programmes d’intelligence artificielle en santé sont et seront structurés à partir d’immenses quantités de données qu’il faut normaliser et rendre intelligibles, comme des compte-rendus de consultations, des résultats de prise de sang, des diagnostics, ou encore le suivi des vaccinations. Pierre-Étienne Heudel précise que cet exercice délicat et filandreux d’informatisation et d’ordonnancement des données de santé est déjà bien avancé, en particulier en région Auvergne-Rhône-Alpes (où près de quatre millions de profils ont été enregistrés au DPPR (Dossier patient partagé et réparti). Cette masse d’information est une aubaine pour les professionnels qui peuvent aisément exploiter et croiser des informations, grâce notamment à l’outil ConSoRe (outil de recherche d’informations disséminées dans le texte de centaines de milliers de dossiers des patients des centres de lutte contre le cancer).

➠ Sur le portail Pop’Sciences : Lutte contre le cancer : le Centre Léon Bérard à la pointe

Demain, l’IA permettra de croiser des informations sur les antécédents héréditaires de millions de personnes atteintes d’un certain type de cancer, avec les réponses que ceux-ci ont développées face à différents types de traitements, mais également avec leurs habitudes nutritives, leur activité physique ou encore leurs résultats de diagnostics biologiques établis au fur et à mesure de l’évolution de leur maladie. En faisant corroborer des bases de données cliniques ou génomiques (sur l’hérédité par exemple), avec des informations liées à l’environnement ou les habitudes sociales de très nombreux patients, nous allons bénéficier de systèmes capables de catégoriser, et comparer des quantités infinies d’informations pour en déduire une réponse la plus juste possible.

Pierre-Étienne Heudel prend pour exemple un projet, auquel il est associé aux côtés de l’unité Cancer et environnement du centre Léon Bérard, sur les « seconds cancers ». 18% de la population française est touchée par le phénomène de déclaration d’un deuxième type de cancer, après avoir déjà été touché par la maladie. À ce titre, le médecin s’est demandé si les pollutions environnementales (de l’air, de l’alimentation et de l’eau) ne pouvaient pas expliquer un peu cette tendance. « L’objectif est ici de croiser les données cliniques issues de ConSoRe, avec des bases de données environnementales » issues, notamment, du travail de géomaticiens qui modélisent des environnements et des expositions au polluants sur des cartes complexes et dynamiques.

« La complexité et la quantité des informations qu’un algorithme sera capable de digérer et d’analyser est bien supérieure à ce que des experts, même réunis collégialement autour d’un cas particulier, ont comme capacité d’intelligences collectives. »

Pop-Sciences_Mag_intelligence-artificielle_santé@ViséeA

@Visée.A

Vers une réussite de la médecine personnalisée et intégrée

Demain les patients arriveront en cabinet avec des pré-résultats issus d’une application mobile. « Évidemment, précise Pierre-Étienne Heudel, l’histologie et des prélèvements viendront corroborer ou infirmer ces présomptions de maladies ». Pour autant, la grande famille des praticiens de santé (infirmiers, médecins généralistes, spécialistes, pharmaciens, auxiliaires, etc.) ne pourra pas éviter le virage technologique de l’IA, tant celle-ci va révolutionner leur métiers et les parcours de soin.

« L’intelligence artificielle offrira une aide précieuse et sans précédent dans le processus de décision, mais pour autant, les métiers ne seront pas voués à disparaître » insiste-t-il. Rien ne pourra remplacer une relation de confiance entre un patient et un professionnel de santé et il sera toujours nécessaire de valider des pré-diagnostics, ainsi que les suggestions de traitements qui leurs sont associés.

Des parcours personnalisés et plus participatifs

Les hôpitaux publics pourraient voir leur fonctionnement rapidement bouleversé par l’irruption de l’IA dans le parcours de soin, en passant de modèles généralistes à des centres très spécialisés. L’expert fait une analogie avec le cas des « plans cancers » qui ont permis la création en 2010 de la fédération UNICancer et ont radicalement transformé le parcours de soin dans le cas de la la lutte contre cette maladie : « nous avons aujourd’hui trois fois moins d’établissements qui traitent le cancer qu’il y a 15 ans, et pourtant la qualité des diagnostics et des soins n’a jamais été aussi performante ». L’intelligence artificielle va ainsi, selon lui, accélérer ce mouvement et faire que les centres spécialisés deviennent les centres de décision.

Quant à la prise en charge du patient, « nous avons l’opportunité de la relocaliser au plus près de son domicile » augure-t-il. L’IA permettra un meilleur partage de l’information et des compétences entre les spécialistes et les pharmaciens en officine, les infirmiers à domicile ou le médecin généraliste des patients. Pierre-Étienne Heudel insiste : « il est fondamental, au regard de ce que le rapport de Cédric Villani préconise, de bien former tous les praticiens de santé (tant en formation initiale que continue), afin d’assurer la sécurisation du parcours de soin et d’améliorer l’interaction avec des patients de plus en plus experts ».

TRANSPORT

Comment l’IA va changer notre façon de nous déplacer

Rapport à la voiture, standards de sécurité, infrastructures… L’avènement du véhicule autonome ne va pas seulement transformer nos modes de transport, il va aussi modifier en profondeur notre société. Pour anticiper cette mutation de la mobilité, des chercheurs et des industriels lyonnais ont créé Transpolis, une ville laboratoire unique en Europe. Un exemple d’une approche pluridisciplinaire réussie.

Le défi de la voiture autonome

Le véhicule autonome est certainement le domaine d’application le plus spectaculaire de l’intelligence artificielle (IA). Il fait l’objet d’investissements colossaux de la part des constructeurs automobiles, des équipementiers, mais aussi des géants du numériques (GAFA) et de nouveaux entrants comme Tesla (véhicules électriques) ou Uber (VTC). L’enjeu est énorme. Sachant que le logiciel représentera bientôt plus de la moitié des coûts de développement d’un véhicule, une nouvelle donne est possible. La compétition internationale fait donc rage entre industriels de l’automobile et start-ups. Dans le livre blanc qu’il vient de publier sur le sujet, l’Institut national de recherche en informatique et en automatique (Inria) souligne pourtant qu’à ce jour aucun acteur ne maîtrise toutes les composantes du dossier, qu’elles soient scientifiques, technologiques, industrielles ou économiques. L’heure est donc aussi aux alliances industrielles et à la coopération.

Cette coopération passe par la création de pôles de recherche et développement rassemblant chercheurs, industriels et territoires. C’est ainsi qu’est né Transpolis, plateforme d’expérimentation de 80ha située aux portes de Lyon (lire l’encadré). Elle va permettre de tester des solutions de mobilité innovantes, dont bien sûr la voiture autonome, dans un environnement urbain à l’échelle réelle.

➠ Plus loin dans le Mag : Transpolis, un laboratoire de la mobilité urbaine

 

En France, une approche progressive basée sur la sécurité

Après avoir manqué plusieurs coches technologiques, la France entend bien être cette fois à la pointe de la révolution introduite par la voiture autonome. Elle vient pour cela de se doter d’une stratégie nationale volontariste, fruit d’une mission d’étude menée par l’ancienne ministre Anne-Marie Idrac. L’enjeu est de définir un « cadre sécurisé » permettant aux différents acteurs de mener plus facilement leurs expérimentations. Cela va se traduire par une évolution du cadre législatif et réglementaire, mais aussi par l’intégration de sujets comme la cybersécurité, le traitement des données, la cartographie ou la connexion avec les infrastructures…

Contrairement à la Chine ou aux États-Unis, la France a fait le choix d’une approche progressive, basée sur la sécurité. Pour Anne-Marie Idrac, l’acceptabilité du véhicule autonome est fondamentale pour que la technologie se développe. Cela suppose de prendre en compte la sécurité, mais aussi l’adéquation aux usages, les impacts sur les mobilités et les conséquences en matière d’emploi et d’environnement.

Le calendrier de développement de la voiture autonome en France

stratégie nationale developpement vehicules autonomes - 2018

Stratégie nationale développement véhicules autonomes – 2018

L’un des objectifs inscrits dans le rapport est de permettre, d’ici à 2020-2022, la circulation de véhicules individuels autonomes de niveau 3 et de niveau 4 (lire l’encadré). Le calendrier est serré, mais il semble en ligne avec celui des constructeurs français (PSA, Renault-Nissan). Dans son livre blanc, l’Inria pointe toutefois les nombreux défis technologiques et scientifiques qui restent à relever : ceux liés à la navigation autonome en elle-même, ceux qui concernent la sûreté de fonctionnement et ceux qui touchent à l’intégration des véhicules autonomes dans leur environnement. Il n’oublie pas de mentionner l’impact sociétal, légal et éthique de la voiture autonome.

Les six niveaux d’autonomie d’un véhicule

@Université de Lyon

Transpolis, un laboratoire de la mobilité urbaine

Dans la plaine de l’Ain, à une quarantaine de kilomètres de Lyon, les engins de chantiers s’affairent : une nouvelle étape commence avec la mise en place des revêtements bitumeux des pistes d’essai.

On a encore du mal à imaginer qu’une ville laboratoire s’élèvera bientôt sur cet ancien terrain militaire de 80 ha.

Transpolis - Intelligence artificielle - transport - smart-city - Pop'Sciences Mag

Vue aérienne du site de Transpolis en travaux – @Transpolis

Tronçon d’autoroute, route de campagne sinueuse raccordée à un mini-périphérique urbain, parkings, ronds-points, carrefours régulés par des feux… Toutes ces infrastructures permettront de tester des véhicules autonomes en conditions réelles. Développée conjointement par l’IFSTTAR et la société Transpolis, cette plateforme d’essai unique en Europe réunit des industriels, des PME et des start-ups. Sa particularité est de ne pas limiter son champ d’action au seul véhicule autonome, mais de s’intéresser à toutes les problématiques de mobilité urbaine. Des études sont d’ores et déjà programmées sur la gestion du trafic, le suivi des marchandises en ville, les stations de recharge multi-énergie, l’Internet des objets ou l’accessibilité.

La mobilité de demain, c’est plus que des voitures autonomes.
Dominique Fernier | Président de Transpolis et directeur de l’innovation à l’Institut français des sciences et technologies des transports, de l’aménagement et des réseaux (IFSTTAR)

Comment s’y prend-on pour rendre un véhicule autonome ?

Il y aura d’abord une phase de simulation. Il s’agit de recréer, de manière virtuelle, un environnement physiquement paramétrable de façon à mettre le système en situation critique. Cela permet de multiplier le nombre de scénarios critiques. Reste ensuite à évaluer le niveau de robustesse de la simulation en la confrontant aux « vérités de terrain ».  C’est ce que permet la ville laboratoire de Transpolis.

 

Pourquoi faut-il un laboratoire de la taille d’une ville pour tester des voitures autonomes ?

Pour une raison évidente : le transport ne se résume pas aux véhicules. Si l’on veut imaginer la mobilité de demain, il faut avoir une approche systémique des déplacements. On doit prendre en compte des usagers, un territoire, des infrastructures et des aménagements, des véhicules, des technologies de communication et d’énergie. C’est pour cela que nous reconstituons un environnement urbain à l’échelle réelle. Pour maîtriser toutes ces dimensions, il est nécessaire de faire collaborer différentes communautés : des chercheurs, qui proposent des solutions et les évaluent ; des industriels, qui vont se saisir des technologies pour répondre aux attentes du marché ; des territoires, enfin, en tant que responsables de la mobilité et de la sécurité de tous les usagers.

➠ Sur le portail Pop’Sciences : Regards croisés sur le véhicule autonome

 

Le développement des véhicules autonomes va-t-il nous obliger à revoir toutes nos infrastructures ?

Les visions divergent à ce sujet. Les constructeurs pensent que oui mais qu’il faudra du temps pour y parvenir. Mon expérience, et en particulier le dialogue que j’entretiens avec les experts des infrastructures, me laissent penser qu’une importante partie de celles-ci sont déployées ou en cours de déploiement. Pour moi, le frein principal vient plutôt de la gestion des données et des enjeux de cybersécurité. Ce n’est le point fort ni des spécialistes de l’automobile ni des spécialistes des infrastructures. Les uns et les autres se demandent s’ils doivent se lancer dans cette bataille au risque de perdre leur valeur ajoutée. Notre rôle est justement de jouer un rôle d’interface pour les aider à faire les bons choix.

Véhicules autonomes. « Il faut œuvrer à une meilleure coopération homme-machine »

À la lumière du premier accident mortel impliquant un véhicule autonome aux États-Unis, Catherine Gabaude, spécialiste en psychologie cognitive et chargée de recherche à l’Institut français des sciences et technologies des transports, de l’aménagement et des réseaux (IFSTTAR), évoque les enjeux liés à la sécurité et à la responsabilité dans le déploiement de cette technologie.

Le déploiement se fera progressivement, au même rythme que l’acceptation et l’appropriation des outils par les usagers.
Catherine gabaude | IFSTTAR, département Transport-santé-sécurité et du Laboratoire Ergonomie et sciences cognitives pour les transports (LESCOT)

Le premier accident mortel impliquant un véhicule autonome est survenu en mars dernier. Est-ce le symptôme d’une mauvaise maîtrise de nos innovations technologiques ?

C’est une question extrêmement délicate. Je dirais qu’il s’agit avant tout du symptôme d’une course trop rapide à l’innovation. Plus précisément, il s’agit de la convergence de deux facteurs prééminents : d’un côté des essais qui ne sont pas toujours assez bien encadrés ; de l’autre, l’avènement d’une technologie qui est encore perfectible. La pression industrielle et technique est forte, pour autant le déploiement de moyens de transports autonomes nécessite de la prudence, en particulier dans les tests sur des routes ouvertes.

Dans le cas précis de cet accident, on jauge le degré démesuré de confiance que l’humain peutaccorder à cette technologie encore naissante. Le conducteur n’était pas à sa tâche de supervision du véhicule, et il aurait fallu concevoir une interface davantage basée sur la complémentarité entre l’humain et la machine et œuvrer à une meilleur coopération.

 


Radar, sonar, autoguidage, guidage GPS… Les algorithmes sur des véhicules autonomes fonctionnent avec des techniques de classification pour essayer d’identifier la nature de l’obstacle et la réaction à adopter face à elle. Dans le cas de l’accident mettant en cause un véhicule déployé par Uber, un des systèmes de réaction (freinage d’urgence) avait été désactivé « afin de réduire de potentiels comportements erratiques du véhicule » (source : Conseil national de la sécurité des transports américain – NTSB).

Schéma de l’accident impliquant un véhicule autonome Uber en Arizona – mars 2018. @New York Times

Si, six secondes avant la collision, le conducteur avait été informé, il aurait été en théorie à même d’intervenir et de reprendre le contrôle mais ici le système ne l’a pas averti du danger.


Qu’en est-il de la responsabilité dans ce type d’accident ?

Cette question est essentielle au vu du nombre important d’acteurs concernés par la conception et la mise en œuvre d’un véhicule autonome. Le partage des responsabilités entre ingénieurs, développeurs, concepteurs, chefs d’entreprises et conducteurs, n’est pour le moment pas résolu.

Au vu de la complexité de la nature et nos environnements, partons du principe que nous n’arriverons pas à faire anticiper à une machine 100% des cas de figure d’accidents. Il y aura à ce titre des événements malheureux qui se produiront. Pour s’y préparer, des juristes envisagent une imputation de la responsabilité « en cascade ». Toutes les données de conduite étant enregistrées (sans pour autant contrevenir aux limites de la protection des informations personnelles), il s’agira en cas de litige de définir un degré de responsabilité pour chaque niveau de la chaîne de déploiement du véhicule : du développeur d’algorithmes jusqu’au conducteur, en passant par le constructeur ou même le loueur.

Pour autant, je pense que la question de la responsabilité n’est pas un frein au développement des véhicules intelligents et autonomes, mais un paramètre à intégrer dans la réflexion.

 

Vous semble-t-il envisageable d’arriver à une complète autonomie des véhicules ?

L’autonomie complète n’est selon moi pas encore imaginable en dehors d’un cadre maîtrisé. Nous avons déjà aujourd’hui des navettes en autonomie (Navya dans le quartier Confluence à Lyon). Elles sont très limitées notamment en termes de vitesse afin de réduire le potentiel de dégâts en cas d’accident. Nous sommes également à même d’ajouter de nouvelles briques technologiques aux véhicules, comme l’assistance à la conduite en embouteillage par exemple. Ensuite à moyen terme, je suppose que nous montrons en puissance dans des milieux maitrisés (ou sites protégés) en créant notamment des « trains de véhicules » sur les autoroutes. C’est à dire qu’une voiture pilote pourra entraîner dans son sillage toute une série d’autres véhicules en autonomie.

Le déploiement se fera progressivement, au même rythme que l’acceptation et l’appropriation des outils par les usagers.

Vue détaillée, véhicule autonome de l'IFSTTAR | @Visée.A

Vue détaillée, véhicule autonome de l’IFSTTAR | @Visée.A

 

À propos d’acception, quels sont les leviers éthiques et sociétaux à activer pour le développement des IA sur nos routes ?

Doter l’Homme de machines pour accroître son potentiel d’intelligence est selon moi important à concevoir là où il y a des défaillances ; et c’est particulièrement le cas pour la mobilité. 90% des accidents sont aujourd’hui imputés à une erreur humaine.Les capteurs technologiques développés ont désormais le potentiel de compenser la « faiblesse » de nos « capteurs humains ». Les gains sont non négligeables en termes de santé publique et de sécurité routière.

 

Décrivez-nous votre ville intelligente idéale ?

Dans ma ville idéale, toute la logistique urbaine sera simplifiée et optimisée pour dépenser moins d’énergie ou pour sécuriser mes déplacements. Le covoiturage intelligent ira jusqu’à « remplir » tous les véhicules non seulement de passagers, mais également d’objets. Les livraisons pourront ainsi être optimisées, le nombre de véhicules réduits et les coûts induits bien moins importants pour toute la société. De cette même manière, la multi-modalité deviendra intelligente avec des systèmes facilitant le cumul des modes de transports pour nos déplacements (marche, vélo, transports en communs, véhicules personnels, fer, etc.). Les bénéfices énergétiques, écologiques et financiers sont trop importants pour ne pas aller dans ce sens.

La qualité de vie des usagers est un préalable nécessaire à tout projet d’innovation à l’échelle urbaine. Imaginons que dans cette ville idéale nous n’ayons plus de parking ou de garages du fait que des flottes de véhicules partagés soient en mouvement permanent et facilement accessibles. La ville idéale, grâce à l’IA, proposera un environnement où les accidents de la circulation auront disparu, où les flux de mobilité seront optimisés (nous faisant gagner du temps utile) et où nos déplacements ne nuiront plus au bien-être des autres usagers (pollution sonore, atmosphérique, etc.).

Soyons capables de savoir à quoi nous aspirons et à quoi nous rêvons pour nos sociétés. Faisons nos choix de mobilité et de vie en fonction de ça et nous réussirons à mieux vivre la ville de demain.

 

TRANSPOLIS | Création : Solène Rebière pour Pop’Sciences Mag

TRANSPOLIS | Création : Solène Rebière pour Pop’Sciences Mag

1 / 3

TRAVAIL

L’IA, une nouvelle révolution industrielle ?

Augmentation de la productivité, disparition de certains métiers, nouveaux modèles économiques, modifications des relations sociales, droit du travail, formation : ce que l’intelligence artificielle va changer dans le monde du travail.

 

Nos experts :

  • Cyril Couffe, docteur en psychologie cognitive, directeur de la chaire de recherche Talents de la transformation digitale à Grenoble École de Management ;
  • Amélie Cordier, directrice scientifique d’Hoomano (IA embarquée en robotique sociale et interactive), co-présidente de Lyon-IsAI ;
  • Fabrice Jumel, enseignant-chercheur à CPE, l’École supérieure de chimie, physique, électronique de Lyon (CPE Lyon) ;
  • Mathieu Guillermin, maître de conférences à l’Institut catholique de Lyon, physicien et philosophe spécialiste de l’éthique des sciences et des technologies.

L’IA, une nouvelle révolution industrielle ?

L’adoption d’agents intelligents par la sphère productive s’inscrit dans un mouvement qui a commencé il y a longtemps : celui de la robotisation. L’IA y ajoute une couche cognitive qui permet de déléguer aux robots des procédures et des tâches jusqu’ici réservées aux humains. On est plutôt dans un processus d’évolution progressive : les technologies d’apprentissage automatique (machine learning, deep learning) sont connues et utilisées dans de nombreux secteurs. Cependant, des changements importants se profilent avec l’arrivée d’agents capables de traiter le langage naturel (chatbots) et de permettre des interactions hommes-machines plus fluides : par exemple, pour répondre automatiquement à des mails. Il reste encore du chemin à faire, mais les progrès sont rapides, comme on vient de le voir avec la présentation par Google de son assistant vocal Duplex.

Avec Cyril Couffe et Mathieu Guillermin :

Une IA pourrait-elle prendre des décisions stratégiques ?

C’est déjà le cas dans le domaine des marchés financiers, avec le trading haute fréquence, phénomène qui a amplifié la crise de 2008. Le cadre éthique posé aujourd’hui dit qu’une IA doit toujours être supervisée par un humain. Un agent intelligent fait des recommandations stratégiques mais c’est l’humain qui décide en dernière instance (outils d’aide à la décision). Encore faut-il avoir confiance dans l’IA… D’où l’importance de comprendre comment elle fonctionne. Il est impératif de rester maître du processus.  Au chapitre des opportunités, on peut espérer que l’IA favorisera le processus de décision, le rendra plus clair et objectif et favorisera ainsi le consensus.

Avec Amélie Cordier et Fabrice Jumel :

 

L’IA va-t-elle changer nos modèles économiques ?

La part du travail dans les coûts de production va considérablement baisser. Certains services mondiaux comme Instagram tournent avec quelques centaines de salariés et réalisent un chiffre d’affaires comparable à celui de grands groupes industriels de plusieurs dizaines de milliers de salariés. Ces services sont gratuits pour l’utilisateur. Ils se financent en collectant et en traitant des données qui servent à mieux connaître les comportements des consommateurs pour leur proposer des publicités finement ciblées.

Avec Cyril Couffe :

 

Avec Fabrice Jumel :

L’État et la loi doivent-ils encadrer le développement de l’IA ?

En Europe, la collecte et l’utilisation des données sont déjà encadrées. Ce cadre vient d’être renforcé avec la mise en place du RGPD (Règlement général sur la protection des données). En France, la Cnil s’appuie sur le principe de loyauté pour réguler l’usage de l’IA. Qu’attendons-nous des IA ? Comment les IA peuvent-elles répondre à ces attentes ? L’État est dans son rôle, car il s’agit de la protection du citoyen, mais il aura du mal à contrôler toutes les initiatives. Il est difficile de stabiliser le cadre juridique dans cette période de transition. Cela n’empêche pas de mettre en place des comités de vigilance pour réfléchir aux conséquences de nos choix, voire à revenir en arrière en cas de nécessité.

Avec Amélie Cordier et Mathieu Guillermin :

 

Comment garder la main ? [Le « bouton rouge » du robot Pepper] @ViseeA

Notes
  • Direction de la Publication : Khaled Bouabdallah, Président de l'Université de Lyon
  • Rédaction en chef : Florence Belaën, Directrice culture, sciences et société - Université de Lyon
  • Auteurs : Samuel Belaud (Université de Lyon ) ; Benoît de La Fonchais (Oxymore Conseil)
  • Direction artistique : Antoine Ligier (Visée.A)
  • Comité de rédaction : Patricia Lamy, Samuel Belaud, Marine Bourdry (Université de Lyon ) ; Antoine Ligier (Visée.A) ; Benoît de La Fonchais (Oxymore Conseil)
  • Crédits illustrations : Julien Richetti ; Solène Rebière
  • Crédits photographiques et vidéos : Visée.A
  • Partenaires scientifiques et universitaires : Hoomano ; Institut Cellule souche et cerveau (Inserm, Université Claude Bernard Lyon1, Inra) ; Groupe d'Épistémologie et d’éthique des sciences et des technologies du laboratoire de Biologie générale de l’Institut catholique de Lyon (UCLy) ; Centre régional de lutte contre le cancer Léon Bérard ; Institut français des sciences et technologies des transports, de l’aménagement et des réseaux (IFSTTAR) ; Laboratoire Ergonomie et sciences cognitives pour les transports (LESCOT) ; Transpolis ; Chaire de recherche « Talents de la transformation digitale » à Grenoble École de Management ; Lyon-IsAI ; CPE Lyon - École supérieure de chimie, physique, électronique de Lyon.
  • Partenaires institutionnels : Région Auvergne-Rhône-Alpes ; Métropole de Lyon ; Ville de Villeurbanne.
49'