LLes Rencontres Montagnes et Sciences 2024 à Lyon Les Rencontres Montagnes et Sciences, c’est le festival de films d’aventures scientifiques en montagne qui vous offre une bouffée d’air frais. Au programme : une sélection de films d’aventures scientifiques, choisis pour leur qualité visuelle, scientifique et récréative.Après Grenoble, Valence ou encore Chambéry, la tournée régionale de Montagnes et Sciences continue, pour proposer au public lyonnais un rendez-vous unique combinant défi scientifique et aventure en montagne. Pour cette 10e édition, l’événement vous propose cinq films, qui vous mèneront des volcans islandais aux grottes de Chartreuse. Les projections seront suivie par des temps d’échanges avec des scientifiques locaux, des réalisateurs ou des spécialistes de certaines thématiques.En savoir plus
CComment enseigner les sciences autrement ? L’année scolaire 2023-2024 sera l’Année de la physique ! La prochaine année scolaire sera dédiée à la physique. À cette occasion différents organismes mettent en place des conférences, le CNRS nous propose de retrouver tous le programme sur le territoire et en ligne.A Lyon et pour célébrer les 20 ans du site CultureSciences Physique et conjointement avec les enseignants du Département de physique de l’ENS de Lyon, sont heureux de recevoir Julien Bobroff, Professeur à l’Université Paris-Saclay, chercheur au Laboratoire de physique des solides et co-fondateur de « La Physique Autrement« , pour une conférence le jeudi 7 décembre 2023 à l’ENS de Lyon.L’intervention sera diffusée en direct et enregistrée pour une rediffusion sur CultureSciences Physique.©logo CNRS année de la physiqueDepuis dix ans, au sein de l’équipe « La Physique Autrement », il collabore avec des designers pour développer de nouvelles façons d’enseigner la physique. Ils ont créé : des TPs frugaux et ouverts, des enseignements 100% smartphone, des fictions immersives, un enseignement en forêt, et même des défis olympiques (mais pas sportifs). Chaque fois, ils cherchent à encourager l’engagement des étudiants, le travail en groupe, la créativité, pour finalement tenter de changer leur vision des sciences. Enfin, il travaille à l’essaimage de ces pratiques, en créant des outils à disposition de tous. Venez découvrir ces nouvelles façons d’enseigner, leurs forces, leurs faiblesses, et, pourquoi pas, les dupliquer vous-mêmes !Pour en savoir plus :ENS ©Cyril Fresillon
TThéâtre de femmes du XVIe au XVIIIe siècle : archive, édition, dramaturgie Il y a trente ans paraissait la première anthologie du théâtre de femmes à l’initiative de Perry Gethner : Femmes dramaturges en France (1650-1750), 1993. Depuis, l’entreprise éditoriale n’a cessé de s’étendre autour de cette anthologie fondatrice et la recherche sur la littérature française d’Ancien Régime s’est orientée, dans une proportion significative, vers la découverte ou la relecture d’œuvres dramatiques écrites et publiées par des femmes.Celles-ci sont également remises à l’honneur sur la scène théâtrale depuis le début des années 2000 avec plusieurs types de performances : lectures, mises en scène, scènes filmées, etc.Le festival international Théâtre de femmes du du XVIe au XVIIIe siècle : archive, édition, dramaturgie s’inscrit dans cette dynamique, et entend mettre en lumière des aspects de ce théâtre qui excèdent, tout en le fondant, son contenu textuel.En cohérence avec cette attention portée aux conditions de vie et de survie des œuvres dramatiques écrites par des femmes du XVIe au XVIIIe siècle, le colloque accueille trois représentations théâtrales > sur inscription :Le Mallade (v. 1535) de Marguerite de NavarrePar la compagnie Oghma sous la direction de Charles di MeglioMercredi 15 novembre 2023 à 19hUniversité Jean Moulin Lyon 3, Amphithéâtre de l’IUTLa Folle Enchère (1691) de Madame UlrichDans la mise en scène d’Aurore Evain avec la compagnie « La Subversive »Jeudi 16 novembre 2023 à 20hENS de Lyon, Théâtre KantorL’Amoureux extravagant (1657) de Françoise PascalMise en scène par le collectif Les Herbes FollesVendredi 17 novembre 2023 à 12hUniversité Lumière Lyon 2, Grand amphithéâtre.Pour en savoir plus et consulter le rogramme :Théâtre de femmes
ÉÉtudiants dyslexiques dans mon amphi : comprendre et aider | MOOC Un MOOC (Massive Open Online Course) est un cours en ligne ouvert a tous. L’ENS et l’Université de Lyon (UdL) vous proposent celui sur la thématique de la dyslexie.La dyslexie affecte des milliers d’étudiants dans les universités françaises. Ce handicap porte sur la facilité et la capacité des individus à lire et écrire, constituant ainsi un obstacle – mais pas du tout une limite – aux apprentissages. L’enseignant de l’enseignement supérieur peut facilement participer à l’accompagnement du dyslexique, à condition de mieux connaître la nature de ce handicap et les différentes aides disponibles.Dans notre cours « Étudiants dyslexiques dans mon amphi : Comprendre et aider », nous souhaitons vous familiariser avec la dyslexie, sa prise en charge médico-sociale et les effets que ce trouble peut avoir sur la vie universitaire.Nous allons regarder les processus cognitifs en jeu dans la dyslexie et son impact sur le travail universitaire et l’apprentissage. Nous décrirons les différents tests du bilan orthophonique et neuro-psychologique qui permettent au clinicien de poser un diagnostic et de caractériser le profil de chaque individu. Nous vous ferons part des études sur l’adulte dyslexique, et plus spécifiquement de l’étudiant dyslexique. Enfin, nous vous proposerons quelques clés pour adapter votre enseignement à ce handicap invisible.Pour plus d’information :France Université Numérique
SSainte-Hélène, la petite Atlantide des oiseaux En août-septembre 2022, un projet de longue date a enfin pu voir le jour : un mois de fouilles paléontologiques sur l’île de Sainte-Hélène, comme une première étape pour mettre au jour l’écosystème disparu de cette île lointaine, où Napoléon finit sa vie, perdue dans l’Atlantique sud à 2000 km de la Namibie en direction du Brésil.Formant une équipe composée de chercheurs et naturalistes Héléniens, notre collègue britannique Julian P. Hume, et nous-mêmes chercheurs établis à Lyon, recherchions principalement les restes subfossiles des oiseaux ayant vécu sur cette petite île volcanique de 10 km sur 12 km, dépourvue d’êtres humains jusqu’à l’arrivée des Européens dès l’an 1502. Les restes subfossiles sont récents (souvent quelques centaines à quelques milliers d’années) et par conséquent quasiment pas reminéralisés, ressemblant à des ossements presque actuels.Crâne fossile ©Anaïs DuhamelD’ailleurs, les seuls vertébrés tétrapodes n’ayant jamais pu atteindre cette île océanique naturellement à partir des continents, sont des oiseaux : exploit qui ne fut égalé par aucun reptile, amphibien, ou mammifère – pas même par des Chiroptères (chauve-souris) – ce qui est une situation rare au niveau global.Ainsi, non seulement toute une faune d’oiseaux marins a évolué sur place, produisant même des espèces endémiques, mais aussi une faune d’oiseaux terrestres, étrange, comprenant une marouette, un râle, une huppe, une tourterelle, ou encore un coucou, devenus endémiques.La plupart de ces oiseaux terrestres sont devenus non-volants, phénomène classique sur les îles sans prédateurs. Hélas, l’arrivée de l’homme a sonné le glas de la plupart de ces espèces. La majorité des espèces endémiques – presque tous les oiseaux terrestres et plusieurs espèces marines – ont disparu de l’île et sont donc aujourd’hui éteintes. Et plusieurs autres espèces, exclusivement des oiseaux marins, ont disparu de l’île, mais vivent encore ailleurs dans le monde : on dit qu’elles ont été extirpées.Un impact anthropique majeur sur l’écosystèmeCertes Sainte-Hélène n’a pas été submergée par les eaux comme la légendaire cité de l’Atlantide, mais métaphoriquement cette île a été submergée par les nombreux impacts anthropiques. Comme tant d’autres îles, les premiers occupants humains ont apporté avec eux des mammifères, volontairement (chèvres et autre bétail pour constituer une ressource en viande ; chiens, chats…) ou moins volontairement (rats, et souris, transportés dans les cales des bateaux…).Les chèvres ont rapidement dévasté la végétation notamment sur tout le pourtour de l’île. Chats et rats se sont attaqués aux oiseaux endémiques non volants ; ainsi qu’aux œufs et poussins de tous les oiseaux, surtout à ceux des nombreuses espèces nichant au sol : les très vulnérables océanites, pétrels et puffins, entre autres.En parallèle, les humains ont déforesté une grande partie de l’île, et planté à la place des espèces introduites, par exemple le Lin de Nouvelle-Zélande, utilisé pour fabriquer des cordages de marine pour les nombreux navires en escale sur l’île, qui se trouvait sur la Route des Indes au plus fort de la navigation, avant le creusement du canal de Suez. Depuis, cette plante s’est avérée extrêmement invasive, et coriace face à plusieurs programmes de restauration de la flore endémique, lors desquels des agents tentent héroïquement de les arracher sur de vastes surfaces, et de replanter à leur place des endémiques survivantes, reproduites auparavant sous serres. Au-delà de ces impacts indirects et généralement inconscients sur la faune locale, les humains ont également exercé une prédation directe sur les oiseaux marins et leurs œufs, pratique courante encore récemment. Enfin, des oiseaux introduits, gibier ou passereaux exotiques notamment, ont concurrencé les derniers endémiques et contribué à leur déclin.Reconstituer un environnement disparuMettre au jour les oiseaux qui vivaient, nichaient et évoluaient à Sainte-Hélène jusqu’à l’arrivée de l’homme en découvrant et en identifiant leurs restes subfossiles apporte de précieuses informations. Notre but est de documenter toutes les espèces ayant vécu sur l’île, ainsi que leur contexte paléoenvironnemental, en analysant les autres éléments de faune et de flore que nous avons trouvés sur les sites : pollen, bois, charbon, gastéropodes et sédiments.De plus, les sites fossiles connus s’étalent de la fin du Pléistocène (-14 000 ans) jusqu’à la fin de l’Holocène (il y a quelques siècles). Ainsi, ils couvrent non seulement l’arrivée et l’occupation humaine depuis 500 ans, mais aussi les changements climatiques antérieurs et naturels : notamment la transition Pléistocène-Holocène lors de laquelle il y a eu de toute évidence d’importants changements dans les populations d’oiseaux.Les fossiles se concentrent en surface sur certains reliefs des sites fossiles, sous l’action des vents et autres intempéries. Tout ce qui n’est pas ramassé rapidement finit par s’éroder et/ou tombe à la mer. ©Anaïs DuhamelÉtudier ces différentes périodes permettra de discerner les effets climatiques naturels des effets dus à l’homme sur l’histoire récente des oiseaux de l’île, ce qui permettrait en outre de mieux anticiper et prévenir les impacts actuels de l’activité humaine : l’action de l’homme et des mammifères introduits dans la continuité des cinq derniers siècles, mais aussi le changement climatique anthropique actuel.Enfin, documenter la présence et la nidification il y a encore quelques siècles, d’oiseaux aujourd’hui non présents sur l’île, tels que les frégates, plusieurs Procellariiformes (pétrels, puffins et océanites), et certains fous, peut guider l’éventuelle réintroduction de certaines de ces espèces dans un futur proche. D’ailleurs, les Fous masqués reviennent nicher d’eux-mêmes sur l’île principale alors qu’ils ne subsistaient que sur des îlots périphériques jusqu’à récemment. On peut imaginer que les frégates suivent, et se réinstallent sur Sainte Hélène après près de deux siècles d’absence totale.Phaeton a bec rouge. ©Anaïs DuhamelUne initiative de science participativeC’est dans cette optique que nous avons repris les recherches paléontologiques en 2022, une quinzaine d’années après le géologue Colin Lewis qui s’est surtout attaché à mieux dater les sites, après Philip et Myrtle Ashmole, et près de 50 ans après le travail majeur de Storrs L. Olson, célèbre paléo-ornithologue états-unien qui avait alors décrit la plupart des espèces éteintes. Olson avait encouragé à poursuivre les recherches, pressentant le potentiel de l’île pour révéler encore davantage d’oiseaux y compris d’autres espèces éteintes à cause de l’homme encore à découvrir. D’autant plus que l’érosion permanente met au jour les fossiles contenus dans des sédiments meubles, mais très vite les lessive et les emporte à la mer : il devient donc urgent de les collecter.Notre première mission a permis de collecter près de 7000 fossiles, faisant plus que doubler tout ce qui avait été collecté auparavant.Œuf fossile. ©Anaïs DuhamelEn cours d’étude, cette moisson révèle déjà de nouvelles occurrences d’espèces à différentes époques, et surtout de nouvelles espèces jamais décrites jusqu’alors. Nous comptons ainsi multiplier les missions dans les années à venir et poursuivre l’étude du matériel collecté, exauçant le souhait de S. Olson et réalisant ses prédictions, pour le plus grand intérêt de l’ornithologie insulaire.Ce travail est suivi de près par les « Saints », les habitants de l’île, que ces découvertes passionnent souvent. D’ailleurs, leur enthousiasme et leur implication personnelle sur le terrain ont inspiré une initiative de science participative par laquelle nous les formons et encourageons à collecter des fossiles de surface en notant rigoureusement le lieu et contexte précis, pour ensuite centraliser le matériel au Musée de Sainte Hélène, où seront à terme conservés tous les fossiles issus de nos missions. Un petit guide d’identification des fossiles à l’usage des habitants sera réalisé dans ce but dans les mois à venir.Nous tenons à remercier les autres participants à cette mission, qui font partie intégrante du projet : Julian P. Hume (NHM Tring, UK), Rebecca Cairns-Wicks (Saint Helena Research Institute et SH Research Council) pour son aide essentielle et son soutien depuis le tout début du lancement du projet, ainsi que, de façon non-exhaustive : Kevin Gepford (écrivain scientifique, USA), Sacha Devaud (Univ. Rennes, Angers et Lyon), les membres du Saint Helena Research Council ; Helena Bennett, Natasha Stevens et Gavin « Eddie Duff » Ellick (Saint Helena National Trust) ; Adam Sizeland (Museum of Saint Helena) ; Annalea Beard (Cardiff University, UK) ; Stedson Stroud (Conservationist, Saint Helena) ; et Charlize Henry et d’autres étudiant·e·s locaux. Enfin, nous remercions le CNRS (programme International Emerging Actions), l’OSU de Lyon, et le Laboratoire de Géologie de Lyon (LGL-TPE) pour leur aide.Science et Société se nourrissent mutuellement et gagnent à converser. La recherche peut s’appuyer sur la participation des citoyens, améliorer leur quotidien ou bien encore éclairer la décision publique. C’est ce que montrent les articles publiés dans notre série « Science et société, un nouveau dialogue », publiée avec le soutien du ministère de l’Enseignement supérieur et de la Recherche.Auteurs :Antoine Louchart, chargé de recherche CNRS en paléornithologie, ENS de Lyon; Anaïs Duhamel, Doctorante en paléo-ornithologie, ENS de Lyon et Julien Joseph, Doctorant en biologie évolutive, ENS de Lyon Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
PPenser les sociétés humaines dans une longue histoire évolutive Où allons-nous? Qu’allons-nous devenir ? Pexels, CC BY-NC-ND « Et si les sociétés humaines étaient structurées par quelques grandes propriétés de l’espèce et gouvernées par des lois générales ? Et si leurs trajectoires historiques pouvaient mieux se comprendre en les réinscrivant dans une longue histoire évolutive ? Dans une somme importante récemment parue aux Éditions de la Découverte, Bernard Lahire propose une réflexion cruciale sur la science sociale du vivant. Extraits choisis de l’introduction. »« D’où venons-nous ? Que sommes-nous ? Où allons-nous ? » [Ces questions] relèvent non de la pure spéculation, mais de travaux scientifiques sur la biologie de l’espèce et l’éthologie comparée, la paléoanthropologie, la préhistoire, l’histoire, l’anthropologie et la sociologie.C’est avec ce genre d’interrogations fondamentales que cet ouvrage cherche à renouer. Si j’emploie le verbe « renouer », c’est parce que les sciences sociales n’ont pas toujours été aussi spécialisées, enfermées dans des aires géographiques, des périodes historiques ou des domaines de spécialité très étroits, et en définitive coupées des grandes questions existentielles sur les origines, les grandes propriétés et le devenir de l’humanité.Les sociologues notamment n’ont pas toujours été les chercheurs hyperspécialisés attachés à l’étude de leurs propres sociétés (industrialisées, étatisées, bureaucratisées, scolarisées, urbanisées, etc.) qu’ils sont très largement devenus et n’hésitaient pas à étudier les premières formes de société, à établir des comparaisons inter-sociétés ou inter-civilisations, ou à esquisser des processus de longue durée.De même, il fut un temps reculé où un anthropologue comme Lewis H. Morgan pouvait publier une étude éthologique sur le mode de vie des castors américains et où deux autres anthropologues étatsuniens, Alfred Kroeber et Leslie White, « ne cessèrent d’utiliser les exemples animaux pour caractériser la question de l’humanité » ; et un temps plus récent, mais qui nous paraît déjà lointain, où un autre anthropologue comme Marshall Sahlins pouvait publier des articles comparant sociétés humaines de chasseurs-cueilleurs et vie sociale des primates non humains.La prise de conscience écologiqueMais ce qui a changé de façon très nette par rapport au passé des grands fondateurs des sciences sociales, c’est le fait que la prise de conscience écologique – récente dans la longue histoire de l’humanité – de la finitude de notre espèce pèse désormais sur le type de réflexion que les sciences sociales peuvent développer. Ce nouvel « air du temps », qui a des fondements dans la réalité objective, a conduit les chercheurs à s’interroger sur la trajectoire spécifique des sociétés humaines, à mesurer ses effets destructeurs sur le vivant, qui font peser en retour des menaces d’autodestruction et de disparition de notre espèce. Ces questions, absentes de la réflexion d’auteurs tels que Durkheim ou Weber, étaient davantage présentes dans la réflexion de Morgan ou de Marx, qui avaient conscience des liens intimes entre les humains et la nature, ainsi que du caractère particulièrement destructeur des sociétés (étatsunienne et européenne) dans lesquelles ils vivaient.Cinéma et littérature ont pris en charge ces interrogations, qui prennent diversement la forme de scénarios dystopiques, apocalyptiques ou survivalistes. Et des essais « grand public » rédigés par des auteurs plus ou moins académiques, de même que des ouvrages plus savants, brossent depuis quelques décennies des fresques historiques sur la trajectoire de l’humanité, s’interrogent sur ses constantes et les grandes logiques qui la traversent depuis le début, formulent des théories effondristes, etc.Comme souvent dans ce genre de cas, la science a été plutôt malmenée, cédant le pas au catastrophisme (collapsologie) ou au prométhéisme (transhumanisme) et à des récits faiblement théorisés, inspirés parfois par une vision angélique ou irénique de l’humanité. Cette littérature se caractérise aussi par une méconnaissance très grande, soit des travaux issus de la biologie évolutive, de l’éthologie, de la paléoanthropologie ou de la préhistoire, soit des travaux de l’anthropologie, de l’histoire et de la sociologie, et parfois même des deux, lorsque des psychologues évolutionnistes prétendent pouvoir expliquer l’histoire des sociétés humaines en faisant fi des comparaisons inter-espèces comme des comparaisons inter-sociétés.Le social ne se confond pas avec la cultureCette situation d’ensemble exigeant une forte conscience de ce que nous sommes, elle me semble favorable à une réflexion scientifique sur les impératifs sociaux transhistoriques et transculturels, et sur les lois de fonctionnement des sociétés humaines, ainsi qu’à une réinscription sociologique de la trajectoire de l’humanité dans une longue histoire évolutive des espèces.Elle implique pour cela de faire une nette distinction entre le social – qui fixe la nature des rapports entre différentes parties composant une société : entre les parents et les enfants, les vieux et les jeunes, les hommes et les femmes, entre les différents groupes constitutifs de la société, entre « nous » et « eux », etc. – et le culturel – qui concerne tout ce qui se transmet et se transforme : savoirs, savoir-faire, artefacts, institutions, etc. –, trop souvent tenus pour synonymes par les chercheurs en sciences sociales, sachant que les espèces animales non humaines ont une vie sociale mais pas ou peu de vie culturelle en comparaison avec l’espèce humaine, qui combine les deux propriétés.Si les éthologues peuvent mettre au jour des structures sociales générales propres aux chimpanzés, aux loups, aux cachalots, aux fourmis ou aux abeilles, c’est-à-dire des structures sociales d’espèces non culturelles, ou infiniment moins culturelles que la nôtre, c’est parce que le social ne se confond pas avec la culture.Œuvrer pour une conversion du regardÀ ne pas distinguer les deux réalités, les chercheurs en sciences sociales ont négligé l’existence d’un social non humain, laissé aux bons soins d’éthologues ou d’écologues biologistes de formation, et ont fait comme si le social humain n’était que de nature culturelle, fait de variations infinies et sans régularités autres que temporaires, dans les limites de types de sociétés donnés, à des époques données. Certains chercheurs pensent même que la nature culturelle des sociétés humaines – qu’ils associent à tort aux idées d’intentionnalité, de choix ou de liberté – est incompatible avec l’idée de régularité, et encore plus avec celle de loi générale.Les structures fondamentales des sociétés humaines. 2023. Éditions la DécouverteC’est cela que je remets profondément en cause dans cet ouvrage, non en traitant de ce problème abstraitement, sur un plan exclusivement épistémologique ou relevant de l’histoire des idées, mais en montrant, par la comparaison interspécifique et inter-sociétés, que des constantes, des invariants, des mécanismes généraux, des impératifs transhistoriques et transculturels existent bel et bien, et qu’il est important de les connaître, même quand on s’intéresse à des spécificités culturelles, géographiques ou historiques.Cette conversion du regard nécessite un double mouvement : d’une part, regarder les humains comme nous avons regardé jusque-là les non-humains (au niveau de leurs constantes comportementales et de leurs structures sociales profondes) et, d’autre part, regarder les non-humains comme nous avons regardé jusque-là les humains (avec leurs variations culturelles d’une société à l’autre, d’un contexte à l’autre, d’un individu à l’autre, etc.).L’auteur vient de publier Les structures fondamentales des sociétés humaines, aux Éditions La Découverte, août 2023.Auteur : Bernard Lahire, Directeur de recherche CNRS, Centre Max Weber/ENS de Lyon, ENS de LyonCet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
MMars : découverte d’un ancien environnement propice à l’émergence de la vie Le Rover Curiosity de la mission Mars Science Laboratory explorant les strates sédimentaires du cratère Gale NASA/JPL-Caltech/MSSS Notre groupe de recherche publie aujourd’hui dans Nature les premières preuves tangibles de l’existence passée et durable d’environnements à la surface de Mars particulièrement favorables à la synthèse spontanée des premières molécules de la biologie nécessaires à l’émergence de la vie.Nous avons découvert des structures fossiles témoins de cycles répétés et durables de séchage-mouillage de sédiments très anciens de la surface de Mars. Ce mode alternatif sec-humide promeut la concentration et polymérisation de molécules organiques simples (sucres ou acides aminés) qui pourraient avoir été contenues dans les sédiments. Ces processus constituent une étape fondamentale vers la synthèse de molécules biologiques tels que les acides nucléiques (ADN ou ARN).La question qui préoccupe les scientifiques n’est pas tant de savoir si la vie a existé sur une autre planète que la Terre, mais bien de connaître où et comment la vie telle que nous la connaissons sur Terre s’est construite.Depuis le milieu des années 1980, les biochimistes ont reconnu que le monde ARN fut une étape préliminaire fondamentale sur la route de la vie. L’ARN aurait constitué la molécule originale autocatalytique et porteuse de l’information génétique, avec des fonctions enzymatiques assurées par les ARNs courts. Les protéines auraient ensuite supplanté les ARNs comme enzymes en raison d’une plus grande diversité, et l’ADN remplacé l’ARN comme molécule porteuse de l’information génétique en raison d’une meilleure stabilité.Pour accéder au monde ARN qui est une molécule complexe il a été nécessaire de construire un enchaînement de type polymère de ribonucléotides, chacun étant composé d’un groupe phosphate, d’un sucre (le ribose) et d’une base azotée (adénine par exemple).Ainsi, l’émergence de formes de vie primitives telle qu’elle est conçue actuellement par les scientifiques, nécessite d’abord des conditions environnementales favorables à l’agencement spontané de molécules organiques simples en molécules organiques plus complexes.Des structures datées de 3,7 milliards d’annéesNous rapportons dans cet article des observations inédites transmises par l’astromobile (ou « rover ») Curiosity qui, équipé d’instruments analytiques des paysages et de la chimie et minéralogie des roches, explore depuis 2012 les pentes du Mont Sharp à l’intérieur du cratère Gale.Lors des « sols » (jours martiens) 3154 à 3156 en juin 2021, nous avons découvert des structures singulières, exhumées au toit d’anciennes couches sédimentaires datées d’environ 3,7 milliards d’années.Ces structures sont des rides rectilignes qui apparaissent en relief de quelques centimètres à la surface supérieure de strates sédimentaires. Ces rides vues par le haut sont jointives et sont organisées selon une géométrie parfaitement polygonale. Elles sont constituées dans le détail par l’alignement de petits nodules plus ou moins attachés les uns aux autres de roches essentiellement sulfatées. Un nodule est une petite bille qui apparaît en relief dans et à la surface des strates.Motif fossile de rides polygonales observées et analysées par Curiosity au 3154ᵉ jour de sa progression dans les strates sédimentaires du cratère de Gale sur Mars. NASA/JPL-Caltech/MSSS/IRAP/LGL-TPECes structures polygonales représentent fondamentalement des « fentes de dessiccation », structures ô combien familières aux géologues, et similaires à celles que chacun a observées sur le fond d’une flaque d’eau boueuse asséchée. L’eau initialement contenue dans les sédiments s’évapore sous l’effet du vent et de la chaleur. Les sédiments se déshydratent et se contractent alors, engendrant ce système de fentes de retrait qui s’organise en polygones jointifs.Des fentes de dessiccation fossiles ont déjà été ponctuellement documentées à la surface de Mars. Mais celles découvertes ici sont clairement différentes du fait de trois « détails » particuliers :Le motif polygonal est un motif en Y, formant des hexagones jointifs de type « tomette », avec des angles avoisinant 120° aux points de jonction des fentes ;Les fentes de retrait sont ici remplies de minéraux sulfatés (sulfate de calcium et magnésium) ;Ces motifs polygonaux s’observent de manière récurrente sur une épaisseur totale de 18 mètres de la colonne sédimentaire.De nombreux cycles de mouillage-séchageSelon divers travaux expérimentaux menés dans les laboratoires terrestres sur des bacs à boue, ce motif en Y des jonctions des fentes est caractéristique de cycles répétés de séchage-mouillage du sédiment. Au premier séchage, les fentes de retrait s’organisent en T, formant un motif de type « carreau » avec des angles d’environ 90° aux points de jonction. Au fur et à mesure des cycles expérimentaux mouillage-séchage, les fentes se « fatiguent », et montrent des angles typiquement en Y à 120° au bout du 10e cycle.Les sulfates sont des roches sédimentaires chimiques dites évaporitiques, c’est-à-dire résultant de la précipitation de saumures associée à l’évaporation d’eau saline. Leur présence au sein des fentes de retrait conforte l’interprétation de celles-ci en termes de fentes de dessiccation. Les nodules qui portent les sulfates sont très irréguliers en morphologie et en composition chimique, ce qui suggère également plusieurs phases de précipitation (séchage) – dissolution (mouillage) partielle des nodules.Le fait que l’on retrouve à plusieurs reprises ces motifs polygonaux sur une épaisseur de 18 mètres d’empilement vertical des strates sédimentaires indique que cet ancien environnement de dépôt, sujet à des cycles climatiques certainement saisonniers de mouillage-séchage, s’est maintenu sur une période de plusieurs centaines de milliers d’années.Le sens ultime de la découverteCes cycles climatiques saisonniers de mouillage-séchage des sédiments ont potentiellement permis aux molécules simples contenues dans ces mêmes sédiments d’interagir à différentes concentrations dans un milieu salin, et ce de manière répétée et durable.Ce potentiel de polymérisation des molécules simples au sein des sédiments montrant les structures polygonales prend un sens particulier sachant que celles-ci contiennent d’une part des minéraux argileux de la famille des smectites et d’autre part une quantité significative de matière organique. Les smectites sont des argiles dites « gonflantes » pour lesquelles il a été montré expérimentalement qu’elles ont la faculté d’adsorber et de concentrer les nucléotides entre leurs feuillets constitutifs. L’instrument SAM (Sample at Mars) a par ailleurs révélé la présence au sein de ces mêmes strates de composés organiques simples tels que des chlorobenzènes, des toluènes ou encore différents alcanes. Ces composés sont probablement d’origine météoritique, et leur quantité résiduelle peut atteindre environ 500 g. par m3 de sédiments. Ces molécules ont pu dès lors servir comme certaines des « briques de base » de molécules plus complexes telles que l’ARN.En résumé, nous déduisons de nos observations, de nos mesures sur Mars, et des différents concepts et expériences terrestres, que le bassin évaporitique de Gale a constitué un environnement très favorable et durable au développement de ce processus de polymérisation des molécules organiques simples en molécules plus complexes nécessaires à l’émergence de la vie.Nous savons enfin que les structures ici étudiées se situent dans une unité géologique de transition verticale depuis une formation plus ancienne riche en argiles vers une formation plus récente riche en sulfates, et que cette même transition a été détectée par voie orbitale en de nombreux cratères et plaines de Mars.En conséquence, il apparaît désormais que la probabilité que des précurseurs moléculaires biotiques aient pu se former et être fossilisés à la surface de Mars il y a environ 3,7 milliards d’années au cours de l’Hespérien n’est plus négligeable.Vers un retour des échantillons martiens ?Le paradigme actuel pour la vie terrestre est celui d’une émergence dans l’Hadéen, période de temps initiale comprise entre la formation de la Terre il y a environ 4,6 milliards d’années (Ga) par l’accrétion des météorites primitives et environ 4,0 – 3,8 Ga. Mais le plus vieux et seul témoin d’un possible processus biologique hadéen est un graphite (carbone) inclus dans un minéral de zircon daté à 4,1 Ga, ou encore un schiste noir métamorphisé, daté à 3,8 – 3,7 Ga. De plus, l’Hadéen ne comporte actuellement qu’une infime proportion de représentants rocheux à la surface de la Terre en raison de la tectonique des plaques, et en tous cas aucune roche sédimentaire intacte, non métamorphisée. Ceci rend cette quête sous nos pieds d’une vie terrestre primitive a priori vaine.Contrairement à la surface de la Terre, celle de la planète Mars n’est pas renouvelée, ni transformée par la tectonique des plaques. La surface de Mars a ainsi préservé quasi intactes des roches très anciennes, incluant celles formées dans un environnement et un climat propices à la construction spontanée de précurseurs moléculaires biotiques. En conséquence, autant il semble très peu probable que la vie ait pu évoluer sur Mars aussi fertilement que sur Terre – à ces environnements favorables à l’émergence de la vie à l’Hespérien ont fait suite des environnements arides et froids de l’Amazonien), autant il apparaît désormais possible et opportun d’y explorer l’origine de la vie, et d’y rechercher des composés biotiques précurseurs par le biais de retours d’échantillons prélevés dans le futur par des robots ou des astronautes sur des sites tels que ceux étudiés ici.Notre découverte ouvre de nouvelles perspectives de recherche sur l’origine de la vie, y compris (surtout) sur d’autres planètes que la nôtre. Elle est à même également de faire reconsidérer les objectifs premiers des missions d’exploration de la planète Mars et celles en particulier du retour d’échantillons.Auteur : Gilles Dromart, Professeur de géologie, École Normale Supérieure de Lyon – 9 août 2023.Cet article est republié à partir de The Conversation sous licence Creative Commons.>> Lire l’article original.
PPourquoi la route de la plage « gondole » Lorsqu’une route de sable, de terre ou de gravier est soumise aux passages répétés de véhicules, un motif régulier de rides peut apparaître – il est connu sous le nom de « route de tôle ondulée » ou « washboard road ». Si la vitesse est suffisante, la moindre irrégularité dans la route dégénère, et l’ensemble de la route ressemble rapidement à un champ de bosses.Ces rides gênent la conduite et usent prématurément les véhicules, mais elles sont surtout dangereuses. En effet, les véhicules circulant à des vitesses de quelques dizaines de kilomètres par heure volent littéralement de ride en ride, ce qui diminue leur adhérence et affecte le contrôle des trajectoires et les longueurs de freinage.Le phénomène de « washboard road » est très répandu dans de nombreux pays en voie de développement, mais également aux États-Unis et en Australie, où des routes non goudronnées (pour des raisons de coût d’installation et de maintenance) traversent les étendues désertiques sur plusieurs milliers de kilomètres.Si l’on peut bétonner ou goudronner les routes, on peut aussi les raboter à l’aide d’un bulldozer, mais ceci s’avère aussi coûteux qu’inefficace, le motif réapparaissant très rapidement après le passage de l’engin. Incorporer à la route des additifs, tels que des résines végétales ou des hydrocarbures lourds, pourrait rendre le matériau plus résistant aux déformations, mais poserait de sérieux problèmes environnementaux et est difficilement envisageable à grande échelle : comment incorporer de tels volumes d’additifs sur des milliers de kilomètres ?Comment se forment ces motifs qui rappellent les dunes ?L’amplitude et la longueur d’onde du motif dépendent des masses et vitesses des véhicules qui y roulent mais aussi de la pression des pneumatiques ou encore des conditions climatiques. Les observations de terrain rapportent que le motif est plus marqué dans les virages, ainsi que sur les fortes pentes et autour des carrefours, car les contraintes mécaniques exercées sur la route par les véhicules sont plus importantes dans ces trois situations.Mais au-delà des implications pratiques, le phénomène constitue un problème fascinant pour les physiciens : la « morphogenèse », l’étude de la formation de motifs répétés, et plus généralement des instabilités.Ici, les similitudes sont grandes avec la formation des dunes (qui sont des motifs d’une hauteur de quelques centaines de mètres) ou des rides sur une surface de sable soumis à un vent constant. Ces phénomènes ont fait l’objet de nombreuses études, par exemple via l’analyse de modèles expérimentaux dans lesquels un lit de sable sec est soumis à un vent constant grâce à une soufflerie.Le dispositif expérimental pour étudier la formation des rides de sable. / Nicolat Taberlet/ENS Lyon – Fourni par l’auteur.Dans nos travaux, nous avons choisi de simplifier au maximum le système et d’étudier une situation contenant les ingrédients physiques fondamentaux nécessaires à l’apparition de l’instabilité « washboard road ».Un phénomène très robusteCertes, sur le terrain, les différents véhicules possèdent des masses et vitesses variables, et soient équipés de plusieurs roues munies d’une suspension et de pneus déformables sur lesquels s’applique parfois un couple moteur. Au contraire, dans nos études en laboratoire, nous avons travaillé avec une roue en gomme rigide, placée à l’extrémité d’un bras articulé, et tirée à vitesse constante sur un lit de sable : notre montage ne comporte ainsi aucune suspension et l’unique roue n’avance pas sous l’effet d’un couple moteur. La roue est contrainte dans son mouvement horizontal le long de la piste circulaire, mais est libre de monter et descendre ainsi que de rouler.Mais malgré ces simplifications à l’extrême, ce système permet de reproduire fidèlement le phénomène de « washboard road » : après plusieurs passages, la route initialement plane se transforme en profil ondulé et régulier. En poussant cette démarche à l’extrême, il est même possible de former une « washboard road » en tirant un simple patin incliné (à l’image d’un chasse-neige) avec le bras articulé.La robustesse du phénomène de formation de rides est un des résultats importants de l’étude : ce phénomène existe sous une large gamme de conditions, et une modification des paramètres des véhicules ne suffirait probablement pas à éradiquer le motif ondulé.Ce résultat est malheureusement fort contrariant pour toute tentative de mitigation des rides : il semble que l’ajout d’une suspension ou d’un pneu déformable pourrait modifier les dimensions du motif de rides, mais ces caractéristiques ne sont pas des ingrédients indispensables à l’apparition du motif de rides.Une vitesse « seuil » au-delà de laquelle les rides se formentPar contre, notre système nous a également permis de mettre en évidence l’existence d’une vitesse « critique » (ou seuil) pour le phénomène : en dessous de cette vitesse, toute perturbation dans la piste comme un creux ou une bosse est lentement érodée et le profil redevient plan après quelques passages. À l’inverse, au-delà de cette vitesse, la moindre irrégularité dans la route dégénère rapidement et provoque l’apparition de rides.Nous avons compris comment cette vitesse critique dépend des paramètres du système (masse du véhicule et masse volumique du sable), ce qui nous a permis d’estimer la vitesse critique d’environ 10 km/h pour des voitures légères et de 20 km/h pour les véhicules les plus lourds. Ainsi, si les véhicules circulaient à faible vitesse, les routes resteraient planes, mais cette valeur est tellement faible qu’elle parait difficilement réaliste comme limitation de vitesse… surtout pour traverser l’Australie !Auteur : Nicolas Taberlet, Maître de conférences en physique, ENS de Lyon – 16 juillet 2023Cet article est republié à partir de The Conversation sous licence Creative Commons. >> Lire l’article original
PPourquoi la science des fluides est au cœur des défis du 21e siècle | The Conversation Le sillage des éoliennes du parc offshore Horns Rev 1, à 14 km de la côte ouest du Danemark, en 2008.Christian Steiness pour Vattenfall Le monde dans lequel nous vivons, à commencer par l’air et l’eau qui nous entourent et le soleil qui nous éclaire et nous réchauffe, ainsi que l’écrasante majorité de la matière de l’univers sont fluides. La science des fluides permet d’y voir plus clair dans la plupart des phénomènes naturels ou vivants à la surface de la Terre, mais aussi dans la quasi-totalité des activités humaines, de la santé à l’industrie en passant par les transports et l’énergie… et de leur impact sur le climat et l’environnement.Ainsi, une étude britannique réalisée en 2021 estime par exemple l’impact des avancées de la recherche sur la science des fluides à 16 milliards d’euros et 45 000 emplois directs et plus de 500 000 emplois indirects, dans plus de 2000 entreprises du Royaume-Uni.Mais, alors que les équations qui gouvernent la dynamique des fluides sont connues depuis 200 ans, cette science achoppe encore sur leur complexité mathématique phénoménale. À ces équations très générales, on ne sait donner de solutions générales et on résout actuellement les problèmes au cas par cas. Mais les avancées en informatique et en imagerie ultra-résolue pourraient changer la donne dans la prochaine décennie.LLa traînée aérodynamique, ou pourquoi rouler moins vite permet de faire des économies d’énergie (même si on roule plus longtemps)Un exemple emblématique et quotidien de l’importance de la science des fluides est la traînée aérodynamique. Cette force qu’exerce un fluide sur tout objet s’y déplaçant, nous la ressentons pleinement lorsque nous sortons la main en roulant sur une route de campagne, ou lorsque nous pédalons face au vent. Elle s’oppose au mouvement : l’air « résiste » à notre passage. Elle représente l’une des principales causes de la consommation énergétique de nos véhicules, qu’ils soient terrestres, aériens ou maritimes.Le sillage aérodynamique est un élément clef pour améliorer le rendement des moyens de transport. Les nouvelles techniques d’imagerie à haute résolution permettent aujourd’hui de visualiser la dynamique des écoulements tridimensionnelles complexes se développant dans les sillages.Constantin Jux, Andrea Sciacchitano, Jan F. G. Schneiders et Fulvio Scarano dans la revue Experiments in Fluids, 2018, CC BYEn effet, un résultat majeur de la science des fluides dicte que la puissance instantanée dissipée par cette résistance aérodynamique (l’énergie que l’on doit dépenser à tout instant pour combattre la résistance de l’air) augmente très fortement avec la vitesse. Techniquement, elle augmente avec le cube de la vitesse. Donc réduire sa vitesse de moitié permet d’abaisser d’un facteur huit la consommation instantanée du véhicule. Ainsi, bien que rouler deux fois moins vite implique de rouler deux fois plus longtemps pour parcourir la même distance, la consommation totale intégrée sur la durée du trajet sera alors réduite d’un facteur quatre. Le simple fait de réduire de 10 % sa vitesse (par exemple en roulant à 117 km/h eu lieu de 130 km/h) permet de diminuer de 30 % les pertes aérodynamiques instantanées et de 20 % les pertes intégrées sur la totalité d’un trajet.Les conséquences énergétiques (et donc écologiques et économiques) de cette simple « loi cubique » de l’aérodynamique sont sans appel : rouler moins vite permet de faire des économies d’énergie même si on roule plus longtemps.La relation cubique entre la vitesse et la puissance est également à la base de l’efficacité de la production d’énergie éolienne et hydrolienne qui croît également comme le cube de la vitesse du vent ou du courant.LLa turbulence des fluides : une mise en abîme tourbillonnaireCette loi cubique n’est qu’une des manifestations des écoulements dits turbulents. Bien qu’elle soit le plus souvent invisible, la turbulence est omniprésente, à cause de la très faible viscosité des fluides qui nous sont les plus familiers : l’eau et l’air.Le mélange de deux fluides implique des tourbillons d’échelles très différentes – comme avec volutes de fumée de tabac par exemple. Ici, grâce à l’imagerie de fluorescence, on ne visualise qu’une tranche laser d’un processus 3D, ce qui permet de mieux appréhender les structures imbriquées de la cascade.Mickael Bourgoin, ENS Lyon, Fourni par l’auteurQui ne s’est jamais émerveillé devant des volutes de fumée, en observant les remous d’une rivière, en mélangeant des colorants en cuisine ou en contemplant les images des tourbillons à la surface de Jupiter ?La prochaine fois que vous observerez l’un de ces phénomènes, soyez attentifs à la façon dont les tourbillons s’imbriquent les uns dans autres : les grands tourbillons transportent les plus petits tourbillons, dans une sorte de mise en abîme que les scientifiques appellent cascade turbulente.Études sur l’eau de Léonard de Vinci au début XVIᵉ siècle. Dessin de la chute d’eau d’une écluse dans un bassin, illustrant la cascade turbulente et l’imbrication des petits tourbillons dans les grands.Royal Collection Trust Copyright Sa Majesté la Reine Elizabeth II 2018Léonard de Vinci avait déjà remarqué l’universalité de cette organisation dans les écoulements turbulents, mais 500 ans plus tard, la compréhension de cette dynamique multiéchelle et aléatoire (mais non complètement désordonnée) de la turbulence reste l’un des plus grands mystères et l’un des principaux défis de la science contemporaine.Malgré la complexité des phénomènes physiques sous-jacents, nous acquérons dès le plus jeune âge un savoir empirique nous incitant à « touiller » pour mélanger. Sans le savoir, nous déclenchons ainsi la turbulence. Nous lui devons aussi la dispersion et la dilution des polluants et des aérosols anthropiques dans l’atmosphère, sans lesquelles nos villes seraient irrespirables.Nous ne sommes en revanche toujours pas capables de prédire comment les mouvements très intermittents de la turbulence (qu’elle soit atmosphérique, océanique, industrielle, etc.) sont capables de déclencher des événements extrêmes et des changements drastiques du comportement à grande échelle des écoulements.Le détournement spontané du Gulf Stream (scénario du film Le Jour d’après), la modification du mouvement du noyau externe de la Terre (scénario du film Fusion), l’apparition soudaine d’une tornade, la perte soudaine de la portance d’une aile trop inclinée sont des exemples de ces transitions brutales et extrêmes, que les scientifiques observent également dans leurs expériences et simulations numériques, mais que nous n’arrivons pas à prédire.Les enjeux liés à la compréhension de la turbulence sont donc de taille et conditionnent notre capacité à espérer un jour être en mesure de prédire l’imprévisible, d’anticiper plus finement le dérèglement climatique et ses conséquences, d’améliorer la sécurité de nos installations industrielles et énergétiques, et plus généralement d’innover dans tous les secteurs d’activités où interviennent les fluides, depuis les biotechnologies jusqu’au développement des industries, des énergies et des transports verts de demain.LLes nanofluides : un immense potentiel aux plus petites échellesExpérience imitant le flux de fluide dans un sol avec des grains de tailles très différentes. Le flux est visualisé grâce à des particules fluorescentes.Dorothee Luise Kurz, ETH Zurich, CC BY-NC-NDLa science des fluides est cruciale aussi pour maîtriser des écoulements confinés à très petite échelle, comme ceux qu’on rencontre dans nos vaisseaux sanguins, dans nos cellules, ou dans le sol.La « microfluidique » a connu un essor fulgurant au tournant du XXIe siècle, révolutionnant la technologie des laboratoires sur puce, et de leurs applications à la chimie analytique, la biologie et la médecine, telle que l’étude de l’ADN et ses mutations par exemple.L’heure est à présent à la « nanofluidique », étudiant les écoulements à l’échelle du millionième de millimètre. La maîtrise de ces écoulements est complexe, car la nanofluidique se trouve à la frontière d’une description continue des fluides et de la nature moléculaire et atomique, voire quantique, de la matière. Elle ouvre pourtant aujourd’hui des perspectives technologiques très prometteuses, par exemple vers des applications à la production d’énergie renouvelable par des flux osmotiques, entre des réservoirs d’eau douce et d’eau salée, à travers des nanopores dans des membranes spécialement conçues.Le fluide rouge est utilisé pour focaliser le flux de fluide vert (qui coule de droite à gauche), jusqu’à une épaisseur d’environ 20 micromètres.Ihor Panas, Wikipedia, CC BYLLe paradoxe de la théorie des fluidesMais malgré ce rôle central des fluides dans notre vie et notre univers, et alors que nous célébrons cette année le bicentenaire de l’établissement des équations maîtresses de la dynamique des fluides (dites « de Navier-Stokes »), leur utilisation reste encore limitée en pratique. Pour certains fluides, comme les nanofluides ou les fluides dits complexes (rhéoépaississants, rhéofluidifiants, etc.), la théorie doit notamment être complétée par une compréhension raffinée de leurs propriétés physiques particulières (souvent passionnantes). Mais les limitations de la théorie des écoulements fluides sont avant tout mathématiques, même pour les fluides simples les plus courants comme l’eau et l’air.En effet, les équations de Navier-Stokes sont réputées exactes pour décrire de manière très générale les écoulements des fluides simples dans presque toutes les situations, mais leur complexité mathématique est telle que leur résolution mathématique n’est possible en pratique que dans un nombre très restreint de situations. À tel point que les scientifiques se posent encore des questions profondes sur l’existence et la nature même de leurs solutions.Simulation numérique à toute petite échelle et dans des conditions idéalisées d’un écoulement turbulent de deux fluides de viscosité différente (bleu et rouge). Cette simulation, avec une précision d’environ 100 milliards de nœuds de maille, a nécessité l’utilisation de 80 millions de cœurs de CPU pendant 7 jours en continu, afin de simuler l’équivalent de quelques secondes d’écoulement.M. GaudingOn pourrait croire que, disposant aujourd’hui d’ordinateurs ultra-puissants, nous sommes capables de résoudre numériquement ces équations à défaut de pouvoir la résoudre analytiquement. Mais on se heurte en fait à deux difficultés quasiment insurmontables, liées à deux propriétés fondamentales des équations de Navier-Stokes : leur nature non locale et non linéaire.La non-localité implique qu’il n’est pas possible de connaître l’état d’un fluide à un endroit donné sans connaître sa dynamique partout ailleurs (du moins sur une étendue suffisamment vaste autour de la zone d’intérêt) : la météo au-dessus de l’hexagone est ainsi affectée par l’anticyclone des Açores. Prédire un écoulement à un endroit donné d’un système requiert donc de résoudre les équations sur l’ensemble du système.La non-linéarité est à l’origine de la turbulence et de la formation de tourbillons erratiques de toute taille, la cascade turbulente. La gamme d’échelles entre les plus petits et les plus grands tourbillons peut s’avérer pharaonique : dans l’atmosphère par exemple, des tourbillons existent depuis les échelles millimétriques, jusqu’à des cyclones et anticyclones pouvant atteindre de milliers de kilomètres.Pour ces raisons, pour simuler de nombreux écoulements (industriels et naturels) de façon réaliste, il faudrait des ordinateurs bien plus gros que ceux disponibles de nos jours. À titre d’exemple, une simulation directe de la basse atmosphère nécessiterait 5 milliards de milliards de milliards de nœuds de maille alors que les plus gros calculateurs au monde, comme le supercalculateur Jean Zay en France, ne sont capables de résoudre raisonnablement les équations de Navier-Stokes « que » sur un maillage comprenant de l’ordre de mille milliards de nœuds de maille).Ainsi, bien qu’elle soit connue depuis deux siècles, la théorie du mouvement des fluides est en pratique difficilement exploitable en l’état.UUne science amenée à se renouveler en permanenceDes approches alternatives sont donc indispensables. Elles sont basées sur l’expérimentation, sur l’observation, et plus récemment sur les méthodes d’intelligence artificielle.Le développement d’outils prédictifs et préventifs, tractables sur nos calculateurs, passe par la mise au point de « modélisations réduites » pour lesquelles le nombre de points de maille nécessaires est considérablement réduit par rapport à ceux requis pour une simulation numérique directe des équations de Navier-Stokes. Ces modèles s’appuient sur ces équations maîtresses, mais ne résolvent explicitement que les plus grandes échelles de la cascade turbulente. La contribution des plus petites échelles est décrite de manière globale par à un nombre restreint de paramètres (par exemple sous la forme d’une viscosité, d’une diffusivité, d’un forçage… effectifs) qu’il s’agit de déterminer au cas par cas par des recherches approfondies sur les phénomènes physiques sous-mailles et de leur impact à grande échelle.Les modélisations du climat doivent inclure des échelles très différentes pour prendre en compte les mécanismes pertinents à la surface de la Terre – ici la température des océans et leur vorticité sont modélisées, mais seules les échelles supérieures à 100 kilomètres sont vraiment résolues et l’ensemble des processus se déroulant à une échelle plus fine sont décrits par des modèles approchés – convection, nuages, vagues, couplage avec le relief, couplage océan/atmosphère, etc.Los Alamos National Lab, CC BY-NC-NDCes modélisations, par essence parcellaires, sont en permanence ajustées et améliorées à mesure que les besoins évoluent et que notre capacité à tester les modèles et décrire les phénomènes des petites échelles à partir de données expérimentales, observationnelles et numériques se perfectionne.La révolution de l’imagerie numérique à haute cadence et à haute résolution de la dernière décennie, des technologies neuromorphiques, l’évolution constante des supercalculateurs (y compris la révolution attendue de l’ordinateur quantique) et les méthodes novatrices basées sur l’apprentissage et l’intelligence artificielle laissent entrevoir des avancées spectaculaires quant à nos capacités à mesurer, modéliser et prédire la dynamique des fluides, indispensables aux ruptures requises pour affronter les grands enjeux sociétaux du moment : la transition écologique et énergétique, le climat et la santé. Article publié sur The Conversation le 19 juin 2023Mickael Bourgoin, Directeur de recherche CNRS en hydrodynamique au Laboratoire de Physique à l’ENS de Lyon, ENS de LyonCet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
PPourra-t-on un jour traiter des cancers avec des sous-produits de l’industrie textile ? | The Conversation Les cancers sont la cause principale de mortalité précoce dans les pays développés, entraînant près de 1,5 million de décès annuels dans l’Union européenne. Ils constituent un enjeu de santé publique majeur. La diversité de leurs formes, localisations et expressions implique que les traitements mettent en œuvre une grande variété de modalités thérapeutiques complémentaires, des rayons X, chimiothérapie, chirurgie, immunothérapie entre autres.Parmi l’arsenal des traitements développés pour cibler des cancers de types très différents, la « photochimiothérapie » (dite aussi photothérapie dynamique ou PDT en anglais) utilise l’interaction entre un colorant et une source lumineuse, qui génère des composés chimiques qui sont toxiques pour les cellules.Ce protocole thérapeutique est utilisé depuis une quarantaine d’années, et de manière croissante depuis le début des années 2000, en milieu clinique principalement pour le traitement de cancers de la peau ou de l’épithélium, mais également dans le traitement de la dégénérescence maculaire liée à l’âge (une maladie caractérisée par le développement anarchique de vaisseaux sanguins au niveau du centre la rétine conduisant à une dégradation puis une perte progressive de la vue).La photochimiothérapie présente des avantages en comparaison aux autres chimiothérapies, notamment parce qu’elle permet de cibler plus finement les cellules cancéreuses (par rapport aux cellules saines de l’organisme) par une irradiation lumineuse sélective.Avec nos collaborateurs, nous avons récemment montré qu’une nouvelle molécule, dérivée d’un colorant abondamment utilisé dans l’industrie, présente des propriétés remarquables pour la photochimiothérapie. Nous espérons qu’elle pourrait être une perspective intéressante dans de futurs protocoles de traitement de cancers par cette méthode.LLa lumière peut transmettre de l’énergie à son environnementLa lumière est porteuse d’énergie. Cette même énergie qui permet la photosynthèse et apporte à la terre les conditions climatiques propices au développement de la vie est absorbée par les molécules et matériaux qui constituent notre environnement, ce qui leur confère leur couleur. Certaines molécules, appelées « colorants » ou « pigments », présentent des teintes particulièrement vives et caractéristiques qui ont été mises à profit depuis l’aube de l’humanité pour la réalisation d’œuvres picturales ou la teinture de vêtements, comme pour le colorant utilisé comme base moléculaire dans notre étude, en particulier.Le composé de la nouvelle étude est dérivé d’un colorant industriel. À la lumière du jour, il est jaune, mais sous ultra-violets, il apparaît vert : c’est la photoluminescence.Clément Cabanetos, Fourni par l’auteurSuite à l’absorption d’un photon, chaque molécule de colorant atteint un état d’énergie élevé, dit « excité », qui est par nature instable : afin de retrouver sa stabilité, la molécule va chercher à se débarrasser de cet excès d’énergie. Généralement, elle vibre fortement et transmet cette chaleur à son environnement.Elle peut aussi se désexciter en émettant un nouveau photon, d’énergie un peu plus basse que celui absorbé – et donc d’une couleur différente. Ce phénomène est appelé « photoluminescence » et explique par exemple la brillance des vêtements blancs sous l’éclairage ultra-violet des boîtes de nuit.Lorsqu’aucun de ces deux mécanismes n’est possible, la molécule utilise son énergie excédentaire pour produire des transformations chimiques. C’est ce qu’on appelle la « photochimie », dont les utilisations pratiques couvrent une très large gamme d’applications, allant du stockage de l’énergie à la production de médicaments ou de matériaux polymères.CComment utiliser la lumière pour attaquer des cellules cancéreuses ?Une application moins connue mettant en jeu ce processus est la photochimiothérapie. Le concept est relativement simple : une molécule, appelée « photo-sensibilisateur », est appliquée localement sur la zone à traiter, ou injectée par voie intraveineuse. Elle s’accumule dans les cellules cancéreuses, idéalement avec une forte sélectivité (c’est-à-dire qu’elle ne s’accumule pas, idéalement, dans les cellules saines).Puis, sous l’effet d’une irradiation lumineuse, dont la longueur d’onde peut s’étendre, suivant le type de tumeur à traiter et la profondeur ciblée, du proche UV au proche infrarouge la molécule excitée va transmettre l’énergie absorbée aux molécules voisines, en premier lieu de dioxygène.Le dioxygène est en effet présent partout dans l’organisme car il est un carburant indispensable à la production d’énergie par la machinerie cellulaire. Mais sa forme excitée, dite « singulet », conduit à un emballement de sa réactivité chimique. Ainsi, produire cette forme excitée « singulet » à proximité de biomolécules aussi importantes que l’ADN ou l’ARN fait l’effet d’une bombe : des cascades de réaction oxydatives conduisent à la dégradation des séquences de bases nucléiques, qui codent l’information génétique. Ceci empêche la production de protéines, enzymes et autres biomolécules indispensables au bon fonctionnement de la cellule.Des cellules cancéreuses avant et après traitement par une nouvelle molécule sensible à la lumière. Le colorant rouge est un indicateur indirect de la dégradation cellulaire. La barre d’échelle représente 20 micromètres.Marco Deiana et Nasim Sabouri, Université de Umea, Suède, Fourni par l’auteurDevenue non viable, la cellule va rapidement déclencher une cascade de mécanismes qui conduit à sa mort par « apoptose » et à son élimination par le système immunitaire.La photochimiothérapie présente de nombreux avantages, notamment par rapport aux autres chimiothérapies classiquement utilisées dans le traitement du cancer : bien que dans toute chimiothérapie, le traitement soit dès l’origine conçu pour s’accumuler préférentiellement dans les tissus cancéreux, une certaine proportion de la molécule va inévitablement s’accumuler dans des cellules saines, notamment si ces dernières ont des phases de multiplication rapide. C’est ainsi que la plupart de ces traitements s’accompagnent, parmi les effets secondaires les plus visibles, d’une perte des cheveux, et sont généralement mal tolérés par l’organisme.Dans le cas de la photochimiothérapie, ces effets secondaires sont minimisés par le fait que l’activation du traitement nécessite, en plus de la molécule, un second levier : l’irradiation lumineuse du tissu à traiter.En revanche, le traitement par photochimiothérapie est limité par la profondeur de pénétration de la lumière, ce qui restreint son utilisation aux cancers superficiels de la peau (carcinomes), ou accessibles par endoscopie (cancers de la vessie, de la prostate, de l’œsophage, des poumons…) ou encore en appui à une intervention chirurgicale d’exérèse (c’est-à-dire retrait) de la tumeur notamment par coelioscopie.Dans ce cadre, les travaux pionniers d’une équipe française Inserm du CHU de Lille ont conduit au développement d’une approche novatrice alliant microchirurgie et photochimiothérapie pour le traitement du glioblastome, l’une des formes de tumeurs cérébrales les plus agressives.UUne nouvelle molécule prometteuse pour la photochimiothérapieAinsi, nous avons développé avec nos collègues du CNRS, de l’université d’Anjou, de l’ENS, de l’université de Yonsei en Corée du Sud et de l’université d’Umea en Suède une nouvelle molécule dont les premières études semblent indiquer une efficacité exceptionnelle en photochimiothérapie.Interaction du colorant (orange) avec des petits fragments d’ADN (bleu) – modélisation moléculaire.Natacha Gillet, Fourni par l’auteurCette molécule a été conçue selon le principe du « surcyclage », c’est-à-dire la valorisation par modification chimique d’une molécule existante afin de lui apporter de nouvelles propriétés.La molécule que nous avons utilisée est un colorant jaune utilisé à la tonne depuis les années 1970 comme colorant pour l’industrie textile et plastique. Nous avons fonctionnalisé ce colorant en lui ajoutant des groupements chimiques, ce qui la rend extrêmement photosensible et capable d’exciter la forme singulet du dioxygène.Au contact des cellules cancéreuses (in vitro, sur cellules cancéreuses ou ex vivo sur des organoïdes tumoraux de pancréas de souris), le colorant s’accumule spécifiquement au sein des « exosomes ». Les exosomes sont des compartiments cellulaires surexprimés dans les cellules cancéreuses, qui sont impliqués dans la communication intercellulaire, et très probablement dans les processus de diffusion des cancers par métastase.Nous avons identifié, à l’intérieur de ces exosomes, que la molécule de colorant modifié interagit avec des fragments spécifiques d’ADN. Sous irradiation par lumière bleue, ces fragments se dégradent fortement, ce qui conduit à une mort cellulaire. De façon cruciale, cette mort cellulaire est atteinte à des concentrations du colorant photosensibilisateur 10 à 100 fois inférieures aux composés utilisés cliniquement, généralement accumulés dans le noyau ou les mitochondries des cellules (des compartiments considérés comme les rouages essentiels de la machinerie cellulaire).En revanche, en l’absence d’irradiation, aucune toxicité n’est observée même à des concentrations élevées de la molécule, ce qui laisse espérer des effets secondaires modérés en comparaison aux traitements PDT existants, par exemple la temoporfin. Bien que le chemin soit encore long avant une utilisation clinique, cette molécule et plus généralement le ciblage des exosomes pour la PDT apparaissent riches en promesses. Article publié sur The Conversation le 14 juin 2023Cyrille Monnereau, Docteur en chimie et science des matériaux, professeur associé, ENS de Lyon et Clément Cabanetos, CNRS researcher, Centre national de la recherche scientifique (CNRS)Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.