Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

Éthique et management de la différence dans nos organisations de santé

ÉÉthique et management de la différence dans nos organisations de santé

Cette conférence propose d’explorer les principes, les courants et les enjeux de la réflexion conduisant à une démarche éthique, afin d’acquérir une solide formation de base pour favoriser la prise de décisions éthiquement éclairées en santé.

Intervenants :

  • Dr Olivier Revol, pédopsychiatre ;
  • Dr Dominique Sappey-Marinier, enseignant-chercheur en neurosciences.

Organisée par : l’espace de réflexion éthique Auvergne Rhône Alpes – EREARA– qui organise le diplôme inter-universitaire (DIU) Ethique en Santé, “Réflexion éthique et philosophique pour le soin, l’enseignement et la recherche en santé”.

>> Pour plus d’information, rendez-vous sur le site : 

EREARA

©EREARA

Quelles questions éthiques soulève l’IA en santé ?

QQuelles questions éthiques soulève l’IA en santé ?

©RCF radio

« Dis Pourquoi ?«  est une chronique de vulgarisation scientifique de 5 minutes diffusée chaque mardi sur RCF Lyon à 11h50. Dis Pourquoi ? questionne et explore notre univers par les sciences. Chaque semaine, une ou un scientifique répond aux questions et dévoile ses travaux de recherche.

> Émission du 7 mai 2024

Mathieu Guillermin, enseignant-chercheur et maître de conférences au sein de l’unité de recherche Confluence à l’Institut Catholique de Lyon – UCLy -, a participé au dossier Pop’Sciences Diagnostic 2.0 : quand l’IA intervient  paru en septembre 2023.

Il soulève une question importante : avec l’intelligence artificielle qui s’est immiscée dans les pratiques de santé et dans le quotidien des praticiens depuis quelques années, quels sont les risques d’un point de vue éthique ?

Écoutez le podcast :

>>  Écoutez les podcasts des autres intervenants Pop’Sciences :

>> Pour plus d’information, rendez-vous sur le site :

RCF Lyon

PPour aller plus loin

Journée thématique : Amour et intelligence artificielle

JJournée thématique : Amour et intelligence artificielle

Après l’avènement des sites de rencontres il y a une vingtaine d’années, c’est au tour de l’intelligence artificielle de venir bouleverser les relations humaines et amoureuses. Nous sommes maintenant des millions à utiliser applications, chatbot ou robots sociaux et pour certains d’entre nous à en tomber amoureux… Aussi foisonnante et attrayante soit-elle, cette offre numérique soulève de nombreuses questions éthiques et comportementales.

Au programme :

  • à 14h, projection de Her de Spike Jonze, 2014, 2h06min (VOSTRFR)
  • à 16h15, table ronde sur le thème « Amour et intelligence artificielle : quelles réalités et quels futurs ? « 

Rendez-vous en écho à l’exposition À nos amours

Plus d’informations sur le site du :

MUSÉE DES CONFLUENCES

Éthique du Numérique pour les Enfants | Capsules vidéos

ÉÉthique du Numérique pour les Enfants | Capsules vidéos

©Fondation Blaise Pascal

Comme dans la vie, il faut une éthique du numérique qui permet de respecter la dignité humaine, la justice et la liberté. Le risque de manipulation est réel, et l’utilisation de l’intelligence artificielle peut encore augmenter ces risques.
­Vous voulez sensibiliser vos élèves aux enjeux du numérique et de l’intelligence artificielle ? 

Cela concerne autant les créateurs de contenu que les utilisateurs de tout âge, dans leur pratique des réseaux sociaux par exemple. La connaissance nourrit l’action : comprendre le positif du numérique comme ses risques de dérive participe à forger des comportements éthiques et responsables, et à déjouer les pièges. Pour cela, la fondation Blaise Pascal et la Chaire IA HUMAAINE du CNRS-LISN, ont décidé de créer une série de capsules vidéos destinée à sensibiliser les élèves du cycle 3 (CM1, CM2 et 6e) au numérique dans leur vie. Sans diabolisation ni angélisme, l’objectif est de les amener à réfléchir. Chaque capsule traite d’une thématique numérique qui est en lien avec les usages des enfants de cet âge, et est accompagnée d’une courte note ‘ressource’ pour les enseignants dans la préparation et l’animation pédagogique de leur classe.

Cet épisode aborde deux sujets : le temps que l’on peut passer sur les écrans et de manière corollaire la tentation de se laisser entrainer à y dépenser de l’argent. Les apprentissages sur l’usage des technologies numériques correspondants sont :

– Maîtriser le temps consacré aux écrans,

– Comprendre les mécanismes de notre cerveau qui peuvent produire un attachement affectif et progressif à l’écran,

– Être lucide sur l’objectif de nombreux développeurs et entreprises du numérique d’encourager la consommation et la dépense monétaire.

Cette capsule est accompagnée d’une courte note ‘ressource‘ pour les enseignants dans la préparation et l’animation pédagogique de leur classe.

Cette capsule aborde le sujet des données personnelles que l’on peut partager volontairement ou de manière moins visible et l’usage qui peut en être fait par les sites en ligne. Les thématiques abordées sont :

– Comprendre les informations que l’on donne en le sachant,

– Savoir qu’il y a des informations qui sont recueillies de manière non visible lorsqu’on utilise les sites et services en ligne,

– Être lucide sur l’objectif de nombreux développeurs et entreprises du numérique quant à l’utilisation qui peut être faite de ces données personnelles.

Cette capsule est accompagnée d’une courte note ‘ressource‘ pour les enseignants dans la préparation et l’animation pédagogique de leur classe.

>> Pour plus d’information rendez-vous sur la play-list :

Capsules

Le hacker éthique au secours des petites entreprises | Visages de la science

LLe hacker éthique au secours des petites entreprises | Visages de la science

Devenue une priorité nationale en France, la cyberdéfense est le quotidien de Xavier Paquin, ingénieur informatique diplômé de l’INSA Lyon. Il donne aux petites entreprises les moyens de survivre dans une cyberguerre dont elles sont souvent les premières victimes. En 2020, ce passionné du Japon a créé le premier “dojo de cybersécurité”, pour leur donner les moyens de survivre dans cette cyberguerre. En pensant la lutte contre les cyberattaques comme un art martial, il forme les collaborateurs en leur apprenant les gestes qui sauvent.

  • La cybersécurité, le défi du 21e siècle

Le numérique est en train de devenir un nouveau terrain d’affrontement. Les états et les entreprises prennent conscience de la dimension stratégique de cet espace. De l’ordinateur à l’assistant vocal domestique en passant par le réfrigérateur, tous les objets connectés représentent une cible supplémentaire pour les hackers. « Le cyber far west, on y est déjà. Et dans cette bataille, chaque citoyen connecté est une victime potentielle ».

  • Faire de l’humain, le maillon fort de la cyberdéfense

« On dit tout le temps que le maillon faible de la cybersécurité se situe entre clavier et le fauteuil. Je n’aime pas cette expression car le collaborateur, humain, est la première ligne de défense. S’il est bien formé et a les bons réflexes, il sera le maillon fort. Son rôle est primordial lors d’une cyberattaque. »

  • Préparer demain face aux cyber-risques

Notre société, de plus en plus numérique, qui présente déjà une dépendance accrue aux services numériques : est-ce que l’insécurité numérique va progresser et s’accroître ? « Aujourd’hui, on peut attaquer tout ce qui est connecté. Et puisque tout se connecte, tout se met à risque. Il est urgent d’anticiper les concepts de cybersécurité. »

 

L’ingénieur diplômé de l’INSA Lyon et cofondateur de Kamae, était l’invité du podcast « Les cœurs audacieux », un contenu audio proposé par l’INSA Lyon (Saison 1 – Épisode 1).

 

>>Plus information sur le site :

AUSHA

Une médecine revisitée à l’aune des algorithmes : Quelles questions éthiques soulève l’IA ? | #5 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

UUne médecine revisitée à l’aune des algorithmes : Quelles questions éthiques soulève l’IA ? | #5 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

Article #5 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervient

Entre confiance aveugle et méfiance absolue, comment l’IA doit-elle être éthiquement acceptée et utilisée ? Comment s’affranchir de potentiels biais humains dans les systèmes d’IA utilisés à des fins de diagnostic, ou même thérapeutiques ? Autant de questions qui ne sont plus l’apanage de débats scientifiques, mais doivent être au cœur de débats politiques et sociétaux. Éclairage avec Mathieu Guillermin, physicien et philosophe, chercheur en éthique au sein de l’Unité de Recherche CONFLUENCE Sciences et Humanités (EA1598) de l’Institut Catholique de Lyon (UCLy) et coordinateur du projet international de recherche-action NHNAI qui vise à mettre les ressources des universités participantes au service de la réflexion éthique sociétale.

À l’heure où la médecine 4.0 1 est en marche, le dialogue avec la société s’impose afin de définir les limites dans l’adoption des technologies d’IA et le développement des interactions humains-machines. Les chercheurs, qui sont partie prenante, doivent jouer leur rôle de garde-fou, l’enjeu premier étant de démystifier l’IA, d’en faire comprendre les mécanismes et de la présenter comme une palette d’outils. “Aujourd’hui, la majorité des technologies d’IA s’appuie sur un apprentissage machine (ou machine learning)” rappelle Mathieu Guillermin, soulignant que l’on peut considérer celui-ci comme un apprentissage automatique pour la réalisation d’une tâche précise à partir de données fournies à l’IA.

 

Un article de Nathaly Mermet, journaliste scientifique, et Léo Raimbault, rédigé
pour Pop’Sciences – 5 septembre 2023

<Quelles promesses de l’IA ? … et quels réels enjeux éthiques ?

Les technologies d’IA sont susceptibles d’améliorer la qualité et l’efficacité aussi bien de la prise en charge des patients (diagnostics, pronostics, choix des stratégies thérapeutiques) que la recherche biomédicale. On parle alors de « precision medicine« , médecine de précision ou encore de médecine personnalisée.

Pour autant, “les techniques d’IA ne sont pas infaillibles et soulèvent de nombreux enjeux éthiques, dans le domaine de la santé certes, mais aussi plus largement” alerte Mathieu Guillermin. Par exemple, les logiciels produits par apprentissage automatique sont rarement « meilleurs » que ceux produits par un programmeur, même débutant. Ainsi, on ne peut encore se soustraire aux qualités de travail humaines, notamment en programmation. “Si l’IA est présentée comme quelque chose d’autonome et indépendant de l’intelligence humaine, on égare beaucoup de monde” prévient Mathieu Guillermin.

<Les enjeux éthiques sont donc de natures variées !

Au-delà de la programmation, l’IA répète les schémas présents dans les bases de données d’apprentissages. Par conséquent, si les bases de données servant à guider l’apprentissage sont biaisées, incomplètes ou non représentatives, les prédictions de l’IA seront… d’aussi mauvaise qualité. Or, en médecine, une base de données ne peut être exhaustive et représenter fidèlement la réalité. Par exemple, si une certaine catégorie de personnes est sous-représentée dans les bases de données d’apprentissages, alors l’IA aura bien plus de mal à faire des prédictions correctes pour cette population et génère, de fait, « des biais discriminant injustement ce type de personnes » selon Mathieu Guillermin.

Enfin, “même quand il n’y a pas de discrimination ou de biais, que le niveau de performance est bon, tout n’est pas encore résolu au niveau éthique” examine Mathieu Guillermin. Dans le contexte de l’automatisation des tâches, la substitution d’un être humain, doté d’émotions, de réflexion, de jugement et parfois sujet à l’erreur, par un logiciel qui opère de manière mécanique, ne peut être considérée comme une démarche anodine. La capacité de ces technologies à égaler, voire à surpasser les compétences humaines dans certaines missions soulève des interrogations essentielles en matière d’éthique.

<Comment définir les limites éthiques ?

Promettant de compléter la précision des professionnels de la santé, l’utilisation de l’IA nécessite donc de définir le niveau d’acceptabilité de l’erreur et la responsabilité morale. L’exploration d’un “Nouvel Humanisme à l’Heure des Neurosciences et de l’Intelligence Artificielle” (NHNAI), telle est l’ambition d’un vaste projet international réunissant les universités catholiques de 9 pays 2, dont celle de Lyon : l’UCLy. “À l’origine, la volonté est d’amener la société dans une réflexion éthique autour des neurosciences et de l’intelligence artificielle, et le projet s’inspire de ce que nous faisions déjà en éthique embarquée 3, c’est-à-dire d’amener et animer la réflexion éthique au sein des projets de recherche” explique Mathieu Guillermin.

Le projet du NHNAI cherche ainsi à définir un nouvel humanisme qui embrasserait les avancées technologiques, dont l’IA, tout en préservant les valeurs essentielles de dignité, de liberté et de responsabilité humaine. Il aspire à guider la société vers un avenir où la symbiose entre la technologie et l’humanité s’inscrit dans une perspective éthique et sociale claire.

Alors que l’IA progresse rapidement, il est essentiel de ne pas perdre de vue les valeurs et les préoccupations humaines. À ce titre, le projet remet l’humain au centre des problématiques liées aux nouvelles technologies. Il invite donc non seulement les chercheurs de toutes disciplines, mais également les citoyens à se joindre à la discussion et au débat. Tout un chacun ayant désormais accès à des outils IA à porter de clic (citons ChatGPT), les décisions concernant l’IA ne peuvent se réfléchir uniquement entre experts, mais doivent également refléter les valeurs, les préoccupations et les opinions de la société dans son ensemble.

<Une intelligence artificielle peut-elle être vraiment… intelligente ?

Objet d’un réel engouement médiatique, fascination pour les uns et inquiétude pour d’autres, l’IA est un terme de plus en plus galvaudé, or tout n’est pas Intelligence Artificielle. Alors que le terme “intelligence” désigne initialement une faculté cognitive humaine (ou du moins animale), l’apposition au qualificatif “artificiel” semble antinomique, voire un non-sens. Mais comment apprécier objectivement l’intelligence ? C’est une réflexion qui nous renvoie à un questionnement métaphysique concernant notre existence humaine. “La sémantique obscurcit le débat, mais reste qu’avec les technologies d’IA, le traitement d’information conscient, humain, est remplacé par le traitement d’information automatique” résume Mathieu Guillermin, ce qui en matière de santé mérite toute notre attention.

Considérée comme un algorithme apprenant, conçu par un humain, l’IA reste un outil dont la performance est liée à celle de son concepteur. En revanche, le questionnement est plus ardu dès lors que la performance de l’IA dépasse la performance humaine. In fine, une machine peut-elle avoir un pouvoir de décision ?

En santé, “La réelle question est de savoir comment la modélisation mathématique peut accompagner chacune des trois dimensions du rôle du médecin que sont le diagnostic, le suivi de l’efficacité thérapeutique et le pronostic, en particulier dans le cas de pathologies graves” pointe Pascal Roy, médecin et chercheur en biostatistiques au sein du Laboratoire Biologie Biométrie Evolutive (LBBE) à Villeurbanne (CNRS, Université Claude Bernard Lyon 1, VetAgro Sup). L’IA ne peut donc rester qu’un outil aidant à préciser ou accélérer l’expertise des médecins.

<L’IA est un outil, mais pas une finalité

Mathieu Guillermin nous rappelle l’importance de prendre en compte les questions éthiques dès le début du processus de création d’une IA par les développeurs. En effet, si le code de programmation est mal conçu ou si les exemples utilisés pour entraîner l’IA ne sont pas représentatifs, biaisant l’outil, les résultats de celle-ci seront peu fiables.

« Avoir un esprit ne semble entretenir que peut de liens avec le fait d’exécuter un programme » explique-t-il, faisant référence au philosophe américain John Searle et à sa célèbre expérience de pensée dite « de la chambre chinoise ». L’expérience de Searle vise à démontrer que l’intelligence artificielle est limitée à être une forme d’intelligence artificielle faible et qu’elle est uniquement capable de simuler la conscience, sans être capable de véritables états mentaux, de conscience et d’intentionnalité. En d’autres termes : pour obtenir des résultats fiables et éthiques avec l’IA, c’est à l’Humain de s’assurer que le processus de conception et de formation de l’IA est bien pensé dès le départ pour éviter les biais et les problèmes éthiques ultérieurs. Il faut mettre du sens derrière l’outil.

LLes biais de l’IA : quand l’esprit humain plane sur les données

Extrait de la table ronde « IA et santé » organisée par Pop’Sciences le 26 juin 2023. Un rendez-vous professionnel chercheur / journaliste, développé en collaboration avec le Club de la presse de Lyon (Projet LYSiERES²).

—————————————————————

Notes :

[1] La « Médecine 4.0 » combine l’électronique, les technologies de l’information et de la communication et les microsystèmes dans une médecine moderne. Les progrès électroniques des cent dernières années ont apporté d’énormes contributions à la recherche médicale et au développement de nouveaux procédés thérapeutiques. Ainsi, les capteurs intelligents dotés d’interfaces radio appropriées permettront de relier entre eux les processus diagnostiques et thérapeutiques en médecine, rendant possible le développement de toutes nouvelles formes de traitements. Cette nouvelle « médecine 4.0 » intègre les progrès acquis grâce à la fusion de la technologie des micro-capteurs, de la microélectronique et des technologies de l’information et de la communication, au service d’applications pratiques dans de multiples aires thérapeutiques (chimiothérapie personnalisée, entre autres). La moyenne d’âge des médecins étant actuellement supérieure à 50 ans, le renouvellement par une génération « Digital Native » interviendra d’ici 15 ans, ce qui permettra certainement de transformer l’essai de la médecine 4.0.

[2] Belgique, Chili, États-Unis, France, Italie, Kenya, Portugal, Québec, Taïwan

[3] L’éthique embarquée désigne l’intégration de principes éthiques et de considérations morales directement dans le développement et le fonctionnement de technologies, notamment des systèmes d’intelligence artificielle et des dispositifs autonomes. Cela vise à garantir que ces technologies agissent de manière conforme à des normes éthiques prédéfinies, comme la sécurité, la transparence, la responsabilité, et le respect des droits de l’homme, tout en minimisant les risques liés à des comportements non éthiques.

PPour aller plus loin

« On devrait moins se méfier de l’intelligence artificielle que de nous-mêmes » | Visages de la science

«« On devrait moins se méfier de l’intelligence artificielle que de nous-mêmes » | Visages de la science

David Wittmann enseigne la philosophie des sciences et des techniques aux futurs ingénieurs de l’INSA Lyon. Passionné par Hegel et sa dialectique du maître et de l’esclave, il pousse régulièrement ses étudiants à s’interroger sur le numérique. Pour lui, nous n’avons rien à craindre de l’intelligence artificielle ni des robots en tant que tels, puisqu’ils ne seraient que le reflet de notre société. Pour un numérique plus vertueux, il ne s’agit pas de s’intéresser au futur mais bien d’interroger le présent.

  • De la théorie la plus célèbre d’Hegel

« Sans numérique, serais-je une conscience ? ». Aujourd’hui, applications et algorithmes font partie intégrante de notre vie quotidienne. Et bien que ces outils numériques nous facilitent la vie et permettent de grandes avancées, ils posent également de nombreuses questions d’éthique et de justice sociale.

  • Pas que des inconvénients

« La technique nous permet de libérer du temps de cerveau disponible mais parfois, les outils transforment de manière immanente, nos intentions et la tâche que l’on est en train de faire (…). Mais attention, le numérique ça n’est pas que des problèmes ! Il est vrai que quand on interroge le sens éthique, on a tendance à voir uniquement les problèmes et à faire comme si les choses n’étaient pas régulées. »

  • Une extension de l’être humain

« Ce qui risque d’être fait à travers l’IA, c’est une automatisation de nos propres âneries. C’est plutôt ça le caractère inquiétant des choses. Si à chaque fois que j’appuyais sur un bouton, je me disais que derrière il y a des atteintes au droit du travail, qu’il y a des petits libraires qui meurent, qu’il y a une société qui s’effondre… Oui, peut-être que je ferais un peu attention, oui. Mais ça, c’est de notre propre réflexion individuelle. Il est grand temps de questionner nos usages, mais aussi les valeurs de notre société », souligne David Wittmann.

 

Portrait de David Wittman

David Wittmann, enseignant en philosophie des sciences, était l’invité du podcast « Les cœurs audacieux », un contenu audio proposé par l’INSA Lyon (Saison 2 – Épisode 6).

 

ÉCOUTER L’ÉPISODE

L’enseignant qui façonne l’ingénieur de demain | Visages de la science

LL’enseignant qui façonne l’ingénieur de demain | Visages de la science

L’ingénierie n’est-elle qu’affaire de technique ? Romain Colon de Carvajal, fait partie de ces scientifiques pour qui l’ingénierie est bien sûr une affaire de technique, mais aussi d’éthique et de philosophie. Enseignant en génie mécanique à l’INSA Lyon, il est aussi spécialiste des low-techs. Selon lui, il est temps de préparer demain, et pour cela, il faut que les ingénieurs sortent du rang et partent à la reconquête de leur liberté.

  • Les low-techs comme médium pédagogique

Au sein de l’école d’ingénieur lyonnaise, Romain Colon de Carvajal met un point d’honneur à initier ses étudiants à la philosophie « low-tech ». « À partir du moment où l’on a bien compris les usages et à qui est destiné un produit technique, je dirais qu’on conçoit low-tech. (…) Le low-tech permet d’explorer une piste concrète et de mettre en lumière la chaîne de responsabilité, plus facile à appréhender lorsqu’un objet technique est plus simple », introduit l’enseignant au micro des « Cœurs audacieux ».

  • Pour une technologie juste, adaptée

« Pour moi, concevoir low-tech, c’est déjà concevoir intelligemment. Je montre qu’il est nécessaire d’avoir une bonne adéquation entre la réponse technologique et le besoin. Le point de départ est de questionner le besoin. Et ce questionnement peut aller très loin : on peut vraiment remettre en cause certains besoins, comme caractériser le côté gadget de certains produits par exemple, qui serait un travers du high-tech. »

  • Une question de responsabilité et de liberté

« La société actuelle demande à l’ingénieur de travailler sur plusieurs échelles de valeurs : l’utilité sociale, le prix, la valeur environnementale, la performance, le contenu scientifique… On ne le forme pas à jongler entre ces échelles de valeurs. Et souvent, il y a des conflits de valeurs : il existe des produits complètement inutiles socialement, mais très sympas à construire d’un point de vue technique. Et quelle liberté les ingénieurs ont d’aller d’une échelle à l’autre ? »

 

Romain_Colon_Carvajal

 

Enseignant au département génie mécanique de l’INSA Lyon, Romain Colon de Carvajal était l’invité du podcast « Les cœurs audacieux », un contenu audio proposé par l’INSA Lyon (Saison 1- Épisode 2)

 

 

 

Romain Colon de Carvajal Podcast

« Esthétiques du Care pour l’Anthropocène »

«« Esthétiques du Care pour l’Anthropocène »

« Cet ouvrage explore les dimensions imaginaires des diverses crises d’habitabilité qui façonnent l’époque désignée comme “Anthropocène”. Il propose une réponse esthétique à une question morale. Penser l’Anthropocène depuis une perspective morale implique de nous demander comment nos décisions sont modelées et prises, selon quelles échelles de valeur nous décidons ce qui compte et ce qui sera interprété comme secondaire, contextuel ou accessoire« .

L’Ecole urbaine de Lyon, les éditions deux-cent-cinq et Cité Anthropocène présentent le deuxième ouvrage issu d’un cours public de l’Ecole urbaine de Lyon, donné par María Grace Salamanca Gonzaléz, actrice de théâtre et docteure en philosophie.

María Grace Salamanca Gonzaléz est actrice de théâtre et docteure en philosophie. Son doctorat s’est réalisé dans le cadre d’une codirection entre l’Université de Lyon et le programme de recherche “Acteurs sociaux de la Flore médicinale au Mexique” de l’Institut national d’anthropologie et d’histoire (INAH). Maîtresse de conférences en éthique, bioéthique et épistémologie, elle est spécialiste en épistémologies du Sud, praticienne des esthétiques décoloniales dans leur forme théâtrale, membre des comités d’éthique clinique et de la recherche (au Mexique).

>> En savoir plus et commander ce livre sur le site des Éditions deux-cent-cinq.

Ce livre résulte d’un cours public de l’École urbaine de Lyon, dispensé par María Grace Salamanca Gonzaléz, en 2022.

>> En savoir plus sur le cours public 2022 et revoir les vidéos des séances sur notre chaîne YouTube. 

 

Collection « À partir de l’Anthropocène »
Les ouvrages de la collection “À partir de l’Anthropocène”, coéditée par les Éditions deux-cent-cinq et l‘École urbaine de Lyon, dirigée par Michel Lussault et Valérie Disdier, revisitent la pensée et les phénomènes sociaux à partir de la reconnaissance de cette crise de l’habitabilité d’une ampleur inédite et proposent des pistes de réflexion et d’action pour que nous inventions collectivement de nouvelles manières de co-habiter.

>> Découvrir les ouvrages de la collection  sur le site :

édition 205

 

Nouvel Humanisme à l’ère des Neurosciences et de l’Intelligence Artificielle

NNouvel Humanisme à l’ère des Neurosciences et de l’Intelligence Artificielle

À mesure que l’intelligence artificielle et les neurosciences se développent et s’étendent au domaine de l’éducation, ces nouvelles technologies présentent aussi des enjeux éthiques pour notre société qu’il convient de débattre collectivement.

Quel est le but de l’éducation ? Quelles fonctions éducatives sont authentiquement et exclusivement humaines, qu’il n’est pas souhaitable d’automatiser ? Quel usage des neurosciences serait souhaitable à l’école ? Quel regard adopter sur les pathologies liées à l’apprentissage ? Et bien d’autres questions actuelles à propos desquelles il est important de débattre, car ce ne sont pas seulement des questions techniques mobilisant des savoirs académiques, mais aussi des questions politiques mobilisant l’ensemble de la société.

>> Les équipes du projet NHNAI – Nouvel Humanisme à l’ère des Neurosciences et de l’Intelligence Artificielle – vous proposent de participer à un premier atelier-débat autour de ces enjeux éthique. Venez participer, seul ou avec des amis.

Pour en savoir plus :

Projet NHNAI