Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

De philosophie en philosophie

DDe philosophie en philosophie

La Société Rhodanienne de Philosophie (SRP) est une association rattachée à la Faculté de philosophie de l’Université Jean Moulin Lyon 3. Elle a pour objectif de diffuser la philosophie à un large public à travers un débat d’idées vivant.

Celle-ci vous propose un cycle de conférences :

  • Les paradoxes de l’imagination | Conférence publique de Jean-Jacques WUNENBURGER, mercredi 15 novembre 2023  (salle Garaud).
  • Politique et paraitre chez Machiavel | Conférence publique de Sébastien ROMAN, mercredi 6 décembre 2023 (amphithéatre Huvelin).
  • Pitié et (im)oralité chez Rousseau | Conférence publique de Johanna Lenne-Cornuez, mercredi 17 janvier 2024 (amphithéatre Huvelin).
  • Husserl ou les ambivalences de la phénoménologie | Conférence publique de Paula Lorelle, mercredi 7 février 2024 (salle Garaud).
  • Ontologie libérale et métaphysique résistante | Conférence publique de Tristan Garcia, mercredi 13 mars 2024 (salle Garaud).

 

Plus d’information sur le site :

La société Rhodanienne de Philosophie

Présentation de son livre « L’accusation » par Aïcha Béchir

PPrésentation de son livre « L’accusation » par Aïcha Béchir

2015. Peu après les attentats terroristes de Charlie Hebdo, la paranoïa enflamme les esprits. Inès, une professeure de philosophie d’origine maghrébine est suspendue par sa hiérarchie à la suite d’accusations d’apologie du terrorisme. Que s’est-il passé ? Inès s’est toujours identifiée aux valeurs de la République, alors qui l’a dénoncé ? Et pourquoi ? Inès va tenter de laver son honneur. Du déracinement à l’assimilation, en passant par le racisme endémique, cette femme en quête de justice et de vérité rencontrera une palette de personnages et redécouvrira sa mémoire enfouie, renouera avec son histoire : l’arrivée de son père en France, l’usine, l’abandon des traditions, le racisme, et ce déracinement qui n’en finit plus de briser les êtres.

La rencontre sera animée par Haoues Seniguer, maître de conférences en science politique à Sciences Po Lyon, membre du laboratoire Triangle. Haoues Seniguer s’intéresse à la question de l’islamisme en contexte majoritairement musulman et aux relations entre islam et politique en France.

Sera également présent Mohamed-Chérif Férjani, professeur émérite de science politique à l’Université Lumière Lyon-2, spécialiste de la politique et du religieux dans le champ islamique.

Pour en savoir plus :

LabEx COMOD – Université de Lyon

Festival Mode d’emploi 2023

FFestival Mode d’emploi 2023

Les débats contemporains vous intéressent ? Vous vous posez des questions, vous voulez vous engager dans la discussion, tenter de formuler des solutions ? Le festival des idées Mode d’emploi, conçu et réalisé par la Villa Gillet est le rendez-vous à ne pas manquer ce mois de novembre !

Des ateliers, des rencontres auront lieu dans toute la Métropole de Lyon avec un trentaine de philosophes, politistes, sociologues, anthropologues, des scientifiques et des journalistes pour explorer les mondes en transition en interrogeant : les cadres politiques et juridiques de nos démocraties, les circonstances dans lesquelles perdurent les inégalités, les possibilités offertes par la réinvention de notre rapport au vivant, les évolutions des modèles de travail, les transformations à l’œuvre dans de nombreux pays du monde de Cuba à l’Allemagne en passant par la Turquie, l’Ukraine ou encore le Mexique.

Tout le programme sur le site de la Villa Gillet :

Festival Mode d’emploi

Festival Mode d’emploi 2023

A la recherche des expériences supérieures

AA la recherche des expériences supérieures

Organisée dans le cadre de la Fête de la Science 2023, cette conférence interroge sur la philosophie des expériences radicales. 

Nous sommes fascinés par les expériences extrêmes. Les sommets des montagnes enflamment plus l’imagination que les mornes plaines, les amours passionnées sont plus souvent célébrées que la vie conjugale, les heures de fêtes excitent plus spontanément l’intérêt que la succession des jours travaillés et des tâches domestiques. Les instants uniques, les moments de vie intense, les expériences rares et exceptionnelles sont bien souvent privilégiés au détriment des routines du quotidien, de la trame de la vie courante, des expériences ordinaires.

Mais faut-il accorder systématiquement plus de valeur et de réalité à ces expériences exceptionnelles ? Faut-il les considérer comme des expériences supérieures, seules capables de nous livrer le sens véritable de nos existences, quand les expériences pratiques ordinaires nous maintiendraient dans un régime d’existence amoindrie ou aliénée ? C’est ce qu’ont défendu un certain nombre de penseurs français renommés comme Bergson, Bataille, Wahl, Blanchot, Deleuze ou encore Foucault.

Nous examinerons cette philosophie des expériences radicales, en montrant l’ascendant qu’elle exerce sur la manière dont nous concevons nos expériences, mais en pointant également ses faiblesses et ses limites, afin d’esquisser une autre philosophie des expériences.

Animée par : Stéphane Madelrieux, professeur de philosophie à l’Université Jean Moulin Lyon 3 et membre honoraire de l’Institut universitaire de France. Il est spécialiste de la philosophie pragmatiste, il interroge les rapports entre philosophie américaine et philosophie française contemporaines.

Pour en savoir plus : https://bu.univ-lyon3.fr/conference-debat-question-de-societe-a-la-recherche-des-experiences-superieures

Une médecine revisitée à l’aune des algorithmes : Quelles questions éthiques soulève l’IA ? | #5 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

UUne médecine revisitée à l’aune des algorithmes : Quelles questions éthiques soulève l’IA ? | #5 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient »

Article #5 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervient

Entre confiance aveugle et méfiance absolue, comment l’IA doit-elle être éthiquement acceptée et utilisée ? Comment s’affranchir de potentiels biais humains dans les systèmes d’IA utilisés à des fins de diagnostic, ou même thérapeutiques ? Autant de questions qui ne sont plus l’apanage de débats scientifiques, mais doivent être au cœur de débats politiques et sociétaux. Éclairage avec Mathieu Guillermin, physicien et philosophe, chercheur en éthique au sein de l’Unité de Recherche CONFLUENCE Sciences et Humanités (EA1598) de l’Institut Catholique de Lyon (UCLy) et coordinateur du projet international de recherche-action NHNAI qui vise à mettre les ressources des universités participantes au service de la réflexion éthique sociétale.

À l’heure où la médecine 4.0 1 est en marche, le dialogue avec la société s’impose afin de définir les limites dans l’adoption des technologies d’IA et le développement des interactions humains-machines. Les chercheurs, qui sont partie prenante, doivent jouer leur rôle de garde-fou, l’enjeu premier étant de démystifier l’IA, d’en faire comprendre les mécanismes et de la présenter comme une palette d’outils. “Aujourd’hui, la majorité des technologies d’IA s’appuie sur un apprentissage machine (ou machine learning)” rappelle Mathieu Guillermin, soulignant que l’on peut considérer celui-ci comme un apprentissage automatique pour la réalisation d’une tâche précise à partir de données fournies à l’IA.

 

Un article de Nathaly Mermet, journaliste scientifique, et Léo Raimbault, rédigé
pour Pop’Sciences – 5 septembre 2023

<Quelles promesses de l’IA ? … et quels réels enjeux éthiques ?

Les technologies d’IA sont susceptibles d’améliorer la qualité et l’efficacité aussi bien de la prise en charge des patients (diagnostics, pronostics, choix des stratégies thérapeutiques) que la recherche biomédicale. On parle alors de « precision medicine« , médecine de précision ou encore de médecine personnalisée.

Pour autant, “les techniques d’IA ne sont pas infaillibles et soulèvent de nombreux enjeux éthiques, dans le domaine de la santé certes, mais aussi plus largement” alerte Mathieu Guillermin. Par exemple, les logiciels produits par apprentissage automatique sont rarement « meilleurs » que ceux produits par un programmeur, même débutant. Ainsi, on ne peut encore se soustraire aux qualités de travail humaines, notamment en programmation. “Si l’IA est présentée comme quelque chose d’autonome et indépendant de l’intelligence humaine, on égare beaucoup de monde” prévient Mathieu Guillermin.

<Les enjeux éthiques sont donc de natures variées !

Au-delà de la programmation, l’IA répète les schémas présents dans les bases de données d’apprentissages. Par conséquent, si les bases de données servant à guider l’apprentissage sont biaisées, incomplètes ou non représentatives, les prédictions de l’IA seront… d’aussi mauvaise qualité. Or, en médecine, une base de données ne peut être exhaustive et représenter fidèlement la réalité. Par exemple, si une certaine catégorie de personnes est sous-représentée dans les bases de données d’apprentissages, alors l’IA aura bien plus de mal à faire des prédictions correctes pour cette population et génère, de fait, « des biais discriminant injustement ce type de personnes » selon Mathieu Guillermin.

Enfin, “même quand il n’y a pas de discrimination ou de biais, que le niveau de performance est bon, tout n’est pas encore résolu au niveau éthique” examine Mathieu Guillermin. Dans le contexte de l’automatisation des tâches, la substitution d’un être humain, doté d’émotions, de réflexion, de jugement et parfois sujet à l’erreur, par un logiciel qui opère de manière mécanique, ne peut être considérée comme une démarche anodine. La capacité de ces technologies à égaler, voire à surpasser les compétences humaines dans certaines missions soulève des interrogations essentielles en matière d’éthique.

<Comment définir les limites éthiques ?

Promettant de compléter la précision des professionnels de la santé, l’utilisation de l’IA nécessite donc de définir le niveau d’acceptabilité de l’erreur et la responsabilité morale. L’exploration d’un “Nouvel Humanisme à l’Heure des Neurosciences et de l’Intelligence Artificielle” (NHNAI), telle est l’ambition d’un vaste projet international réunissant les universités catholiques de 9 pays 2, dont celle de Lyon : l’UCLy. “À l’origine, la volonté est d’amener la société dans une réflexion éthique autour des neurosciences et de l’intelligence artificielle, et le projet s’inspire de ce que nous faisions déjà en éthique embarquée 3, c’est-à-dire d’amener et animer la réflexion éthique au sein des projets de recherche” explique Mathieu Guillermin.

Le projet du NHNAI cherche ainsi à définir un nouvel humanisme qui embrasserait les avancées technologiques, dont l’IA, tout en préservant les valeurs essentielles de dignité, de liberté et de responsabilité humaine. Il aspire à guider la société vers un avenir où la symbiose entre la technologie et l’humanité s’inscrit dans une perspective éthique et sociale claire.

Alors que l’IA progresse rapidement, il est essentiel de ne pas perdre de vue les valeurs et les préoccupations humaines. À ce titre, le projet remet l’humain au centre des problématiques liées aux nouvelles technologies. Il invite donc non seulement les chercheurs de toutes disciplines, mais également les citoyens à se joindre à la discussion et au débat. Tout un chacun ayant désormais accès à des outils IA à porter de clic (citons ChatGPT), les décisions concernant l’IA ne peuvent se réfléchir uniquement entre experts, mais doivent également refléter les valeurs, les préoccupations et les opinions de la société dans son ensemble.

<Une intelligence artificielle peut-elle être vraiment… intelligente ?

Objet d’un réel engouement médiatique, fascination pour les uns et inquiétude pour d’autres, l’IA est un terme de plus en plus galvaudé, or tout n’est pas Intelligence Artificielle. Alors que le terme “intelligence” désigne initialement une faculté cognitive humaine (ou du moins animale), l’apposition au qualificatif “artificiel” semble antinomique, voire un non-sens. Mais comment apprécier objectivement l’intelligence ? C’est une réflexion qui nous renvoie à un questionnement métaphysique concernant notre existence humaine. “La sémantique obscurcit le débat, mais reste qu’avec les technologies d’IA, le traitement d’information conscient, humain, est remplacé par le traitement d’information automatique” résume Mathieu Guillermin, ce qui en matière de santé mérite toute notre attention.

Considérée comme un algorithme apprenant, conçu par un humain, l’IA reste un outil dont la performance est liée à celle de son concepteur. En revanche, le questionnement est plus ardu dès lors que la performance de l’IA dépasse la performance humaine. In fine, une machine peut-elle avoir un pouvoir de décision ?

En santé, “La réelle question est de savoir comment la modélisation mathématique peut accompagner chacune des trois dimensions du rôle du médecin que sont le diagnostic, le suivi de l’efficacité thérapeutique et le pronostic, en particulier dans le cas de pathologies graves” pointe Pascal Roy, médecin et chercheur en biostatistiques au sein du Laboratoire Biologie Biométrie Evolutive (LBBE) à Villeurbanne (CNRS, Université Claude Bernard Lyon 1, VetAgro Sup). L’IA ne peut donc rester qu’un outil aidant à préciser ou accélérer l’expertise des médecins.

<L’IA est un outil, mais pas une finalité

Mathieu Guillermin nous rappelle l’importance de prendre en compte les questions éthiques dès le début du processus de création d’une IA par les développeurs. En effet, si le code de programmation est mal conçu ou si les exemples utilisés pour entraîner l’IA ne sont pas représentatifs, biaisant l’outil, les résultats de celle-ci seront peu fiables.

« Avoir un esprit ne semble entretenir que peut de liens avec le fait d’exécuter un programme » explique-t-il, faisant référence au philosophe américain John Searle et à sa célèbre expérience de pensée dite « de la chambre chinoise ». L’expérience de Searle vise à démontrer que l’intelligence artificielle est limitée à être une forme d’intelligence artificielle faible et qu’elle est uniquement capable de simuler la conscience, sans être capable de véritables états mentaux, de conscience et d’intentionnalité. En d’autres termes : pour obtenir des résultats fiables et éthiques avec l’IA, c’est à l’Humain de s’assurer que le processus de conception et de formation de l’IA est bien pensé dès le départ pour éviter les biais et les problèmes éthiques ultérieurs. Il faut mettre du sens derrière l’outil.

LLes biais de l’IA : quand l’esprit humain plane sur les données

Extrait de la table ronde « IA et santé » organisée par Pop’Sciences le 26 juin 2023. Un rendez-vous professionnel chercheur / journaliste, développé en collaboration avec le Club de la presse de Lyon (Projet LYSiERES²).

—————————————————————

Notes :

[1] La « Médecine 4.0 » combine l’électronique, les technologies de l’information et de la communication et les microsystèmes dans une médecine moderne. Les progrès électroniques des cent dernières années ont apporté d’énormes contributions à la recherche médicale et au développement de nouveaux procédés thérapeutiques. Ainsi, les capteurs intelligents dotés d’interfaces radio appropriées permettront de relier entre eux les processus diagnostiques et thérapeutiques en médecine, rendant possible le développement de toutes nouvelles formes de traitements. Cette nouvelle « médecine 4.0 » intègre les progrès acquis grâce à la fusion de la technologie des micro-capteurs, de la microélectronique et des technologies de l’information et de la communication, au service d’applications pratiques dans de multiples aires thérapeutiques (chimiothérapie personnalisée, entre autres). La moyenne d’âge des médecins étant actuellement supérieure à 50 ans, le renouvellement par une génération « Digital Native » interviendra d’ici 15 ans, ce qui permettra certainement de transformer l’essai de la médecine 4.0.

[2] Belgique, Chili, États-Unis, France, Italie, Kenya, Portugal, Québec, Taïwan

[3] L’éthique embarquée désigne l’intégration de principes éthiques et de considérations morales directement dans le développement et le fonctionnement de technologies, notamment des systèmes d’intelligence artificielle et des dispositifs autonomes. Cela vise à garantir que ces technologies agissent de manière conforme à des normes éthiques prédéfinies, comme la sécurité, la transparence, la responsabilité, et le respect des droits de l’homme, tout en minimisant les risques liés à des comportements non éthiques.

PPour aller plus loin

L’enseignant qui façonne l’ingénieur de demain | Visages de la science

LL’enseignant qui façonne l’ingénieur de demain | Visages de la science

L’ingénierie n’est-elle qu’affaire de technique ? Romain Colon de Carvajal, fait partie de ces scientifiques pour qui l’ingénierie est bien sûr une affaire de technique, mais aussi d’éthique et de philosophie. Enseignant en génie mécanique à l’INSA Lyon, il est aussi spécialiste des low-techs. Selon lui, il est temps de préparer demain, et pour cela, il faut que les ingénieurs sortent du rang et partent à la reconquête de leur liberté.

  • Les low-techs comme médium pédagogique

Au sein de l’école d’ingénieur lyonnaise, Romain Colon de Carvajal met un point d’honneur à initier ses étudiants à la philosophie « low-tech ». « À partir du moment où l’on a bien compris les usages et à qui est destiné un produit technique, je dirais qu’on conçoit low-tech. (…) Le low-tech permet d’explorer une piste concrète et de mettre en lumière la chaîne de responsabilité, plus facile à appréhender lorsqu’un objet technique est plus simple », introduit l’enseignant au micro des « Cœurs audacieux ».

  • Pour une technologie juste, adaptée

« Pour moi, concevoir low-tech, c’est déjà concevoir intelligemment. Je montre qu’il est nécessaire d’avoir une bonne adéquation entre la réponse technologique et le besoin. Le point de départ est de questionner le besoin. Et ce questionnement peut aller très loin : on peut vraiment remettre en cause certains besoins, comme caractériser le côté gadget de certains produits par exemple, qui serait un travers du high-tech. »

  • Une question de responsabilité et de liberté

« La société actuelle demande à l’ingénieur de travailler sur plusieurs échelles de valeurs : l’utilité sociale, le prix, la valeur environnementale, la performance, le contenu scientifique… On ne le forme pas à jongler entre ces échelles de valeurs. Et souvent, il y a des conflits de valeurs : il existe des produits complètement inutiles socialement, mais très sympas à construire d’un point de vue technique. Et quelle liberté les ingénieurs ont d’aller d’une échelle à l’autre ? »

 

Romain_Colon_Carvajal

 

Enseignant au département génie mécanique de l’INSA Lyon, Romain Colon de Carvajal était l’invité du podcast « Les cœurs audacieux », un contenu audio proposé par l’INSA Lyon (Saison 1- Épisode 2)

 

 

 

Romain Colon de Carvajal Podcast

LIVRE – « Esthétiques du Care pour l’Anthropocène »

LLIVRE – « Esthétiques du Care pour l’Anthropocène »

« Cet ouvrage explore les dimensions imaginaires des diverses crises d’habitabilité qui façonnent l’époque désignée comme “Anthropocène”. Il propose une réponse esthétique à une question morale. Penser l’Anthropocène depuis une perspective morale implique de nous demander comment nos décisions sont modelées et prises, selon quelles échelles de valeur nous décidons ce qui compte et ce qui sera interprété comme secondaire, contextuel ou accessoire« .

 

L’Ecole urbaine de Lyon, les éditions deux-cent-cinq et Cité Anthropocène présentent le deuxième ouvrage issu d’un cours public de l’Ecole urbaine de Lyon, donné par María Grace Salamanca Gonzaléz, actrice de théâtre et docteure en philosophie.

María Grace Salamanca Gonzaléz est actrice de théâtre et docteure en philosophie. Son doctorat s’est réalisé dans le cadre d’une codirection entre l’Université de Lyon et le programme de recherche “Acteurs sociaux de la Flore médicinale au Mexique” de l’Institut national d’anthropologie et d’histoire (INAH). Maîtresse de conférences en éthique, bioéthique et épistémologie, elle est spécialiste en épistémologies du Sud, praticienne des esthétiques décoloniales dans leur forme théâtrale, membre des comités d’éthique clinique et de la recherche (au Mexique).

>> En savoir plus et commander ce livre sur le site des Éditions deux-cent-cinq.

Ce livre résulte d’un cours public de l’École urbaine de Lyon, dispensé par María Grace Salamanca Gonzaléz, en 2022.

>> En savoir plus sur le cours public 2022 et revoir les vidéos des séances sur notre chaîne YouTube. 

 

Collection « À partir de l’Anthropocène »
Les ouvrages de la collection “À partir de l’Anthropocène”, coéditée par les Éditions deux-cent-cinq et l‘École urbaine de Lyon, dirigée par Michel Lussault et Valérie Disdier, revisitent la pensée et les phénomènes sociaux à partir de la reconnaissance de cette crise de l’habitabilité d’une ampleur inédite et proposent des pistes de réflexion et d’action pour que nous inventions collectivement de nouvelles manières de co-habiter.
Découvrir les ouvrages de la collection

 

Et maintenant, que faire ? Les possibles anthropocènes.

EEt maintenant, que faire ? Les possibles anthropocènes.

Une soirée de clôture du festival « A l’Ecole de l’Anthropocène » (janvier 2023), préparée par l’Ecole urbaine de Lyon, en partenariat avec le Centre de Culture Contemporaine de Barcelone (CCCB).

 

Avec la participation de :

Michel LUSSAULT, géographe et directeur de l’École Urbaine de Lyon
María MEDEM, artiste
Judit CARRERA, directrice du Centre de Culture Contemporaine de Barcelone
David BRAVO, architecte
Amaena GUÉNIOT, philosophe
Jordi COSTA, responsable des expositions du Centre de Culture Contemporaine de Barcelone

Animé par Valérie DISDIER, directrice adjointe de l’École urbaine de Lyon.

 

Regarder la vidéo de la soirée :

Crédits photo : María MEDEM

Vivre avec le danger : une soirée de littérature, philosophie et musique

VVivre avec le danger : une soirée de littérature, philosophie et musique

Littérature, philosophie, musique et sciences sont conviées au bal de tous les dangers.

Différentes épidémies ponctuent les crises climatiques, économiques et sociales. Dans l’époque anxiogène que nous traversons, le « risque » nous fait face à chaque instant. Mais de quel risque s’agit-il ? Quels sont les dangers omniprésents qui rôdent autour de nos consciences ?
Cette soirée invite plusieurs disciplines à converger autour de nos cohabitations avec le danger. Dans le cadre de « A l’Ecole de l’Anthropocène » organisée par l’Ecole urbaine de Lyon en janvier 2023. 
Avec la participation de :

Laurent DE SUTTER
, philosophe
Brigitte GIRAUD, auteure
Hélène COLLONGUES, auteure et ethnologue
Laurence LOUTRE-BARBIER, éditrice et responsable de pompes funèbres
Géraldine KOSIAK, artiste
Bernard ALLAOUCHICHE, professeur de médecine
Stéphane FRIOUX, historien et adjoint au maire de Villeurbanne
Omaid SHARIFI, conservateur, artiviste, président de ArtLordsAccompagnement musical de François MARDIROSSIAN, pianiste
Animé par Michel LUSSAULT, géographe et directeur de l’École urbaine de Lyon

Regarder la vidéo :

Photo : Mélania Avanzato.

Leçons hérétiques sur l’histoire du temps présent. L’anthropocène à la lumière de l’analyse historique / Cours public 2023

LLeçons hérétiques sur l’histoire du temps présent. L’anthropocène à la lumière de l’analyse historique / Cours public 2023

Nourri de travaux d’histoire environnementale, des sciences et des techniques et d’une approche interdisciplinaire de la crise des temporalités, ce cours, proposé par l’historien Pierre Cornu (Université Lumière Lyon 2), de janvier à avril 2023, a exploré, en 6 séances, les thèmes majeurs de l’anthropocène : rôle des technosciences et de l’innovation, remise en question de l’entreprise et de la rationalisation héritée des Lumières, redistribution des rôles entre « humains » et « non humains »…

Intervenant : Pierre Cornu est Professeur d’histoire contemporaine et d’histoire des sciences à l’Université Lumière Lyon 2, chercheur en délégation à Inrae et historien référent du Comité d’histoire Inrae-Cirad.

Présentation du cours :

Ce cycle de cours publics se veut une exploration critique et méthodique des possibilités d’une ressaisie du devenir historique dans un monde anthropocène qui a tendance à produire soit un effet de sidération impuissante, soit des formes d’activisme désarticulées. Convoquée de toutes parts, l’histoire elle-même ne sait plus si elle doit se transformer en vision politique, en écologie des transitions ou en sagesse désespérée, pour tenter de s’adapter à une époque hantée par la possibilité d’une « fin de partie » pour l’humanité.

Inspiré des « Essais hérétiques sur la philosophie de l’histoire » du philosophe tchèque Jan Patočka, ce programme visera tout d’abord à éclairer les enjeux d’une adaptation de la méthode historique à un temps présent caractérisé par le désajustement des temporalités des sociétés, des systèmes techniques et de la biosphère.

Quelles archives, quels récits, quelles modalités de mise en débat pour une épistémologie historique de l’anthropocène ? Nourri de travaux d’histoire environnementale, des sciences et des techniques, et d’une approche interdisciplinaire de la crise des temporalités, le cours explorera ensuite les thèmes majeurs de l’anthropocène : le rôle ambivalent des technosciences et de l’innovation ; la remise en cause de l’entreprise de rationalisation du monde héritée des Lumières ; la redistribution des rôles entre humains, non-humains et objets hybrides de toutes sortes, en révolte plus ou moins ouverte contre la « civilisation technique » ; les enjeux du réencastrement de l’activité économique touchant aux bio-ressources dans un ordre socioécosystémique habitable et souhaitable.

Mettre en histoire l’anthropocène, ce n’est pas le clore, c’est au contraire s’efforcer de le déverrouiller.

 

Vidéo de la 1ère séance (26 janvier) : Introduction. Un historien in partibus infidelium :

Vidéo de la 2ème séance : Le principe d’évolution ou la fabrique de la flèche du temps.

Vidéo de la 3ème séance : L’innovation, une figure du temps en fuite.

Vidéo de la 4ème séance : La croissance, une figure du temps en crise terminale ?

Vidéo de la 5ème séance : De la rationalisation comme épuisement du monde.

Vidéo de la 6ème séance : Repenser l’histoire, rouvrir le devenir.