L'équipe Pop'Sciences est en pause estivale et sera de retour le 19 août.Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

Grands débats : la pensée contemporaine

GGrands débats : la pensée contemporaine

La collection de Grands débats fondée par Philippe Corcuff et Guy Walter à l’Université Lumière Lyon 2  se propose de publier des entretiens ou des débats programmés lors de différentes manifestations traitant de sciences humaines et sociales, d’art ou de littérature.

Il s’agit de mettre à la disposition d’un public le plus large possible les analyses de figures françaises et internationales de la pensée contemporaine.

>> Pour plus d’information, rendez-vous sur la page :

Presses universitaires de Lyon

Privatisation des transports publics urbains en France : la remunicipalisation, l’autre tendance de fond |The conversation

PPrivatisation des transports publics urbains en France : la remunicipalisation, l’autre tendance de fond |The conversation

Voilà quelque temps maintenant que des craintes s’expriment un peu partout en France quant à la privatisation des transports publics et la mise en concurrence entre opérateurs. Celle planifiée du réseau francilien, géré par la RATP, inquiète ses salariés mais aussi les usagers. Pendant ce temps l’opérateur part à la conquête du marché lyonnais où Keolis exerçait un monopole depuis plus de trente ans.Au-delà néanmoins de ces cas d’ouverture au marché et de monopoles en fin de vie, des communes explorent un autre horizon, celui de la remunicipalisation des transports. Plusieurs métropoles ont franchi le pas : Toulouse en 2006, Nice et Clermont-Ferrand en 2013, Strasbourg en 2020, Grenoble en 2021, Montpellier en 2022… Comme nous l’observons dans nos travaux, la remunicipalisation de la gestion des réseaux de transports urbains en France n’est désormais plus un phénomène anecdotique, mais constitue une véritable tendance de fond que nous avons cherché à expliquer.

Une tendance de plus en plus marquée

Contrairement à ce que l’on peut parfois penser, le droit européen n’impose pas une privatisation des transports publics. Le règlement dit « Obligation de service public » reconnait le principe de libre administration des collectivités territoriales inscrit à l’article 72 de la Constitution française.

Concrètement, deux options sont ouvertes pour les collectivités locales : la gestion externalisée (ou déléguée) et la gestion directe. Dans le premier cas, la gestion du réseau est confiée à un opérateur externe, qui doit être choisi en suivant une procédure qui garantit une mise en concurrence entre candidats. Dans le second cas, c’est la collectivité elle-même qui se place aux manettes.

Lorsqu’elle s’engage dans cette voie, deux modèles lui sont ouverts. Il y a celui de la régie, comme la RATP qui a un budget indépendant, mais pas de personnalité juridique (son conseil d’exploitation est responsable devant le conseil municipal) : on parle de « régie autonome ». Elle peut parfois avoir une personnalité juridique propre et évolue alors sous le statut d’établissement public à caractère industriel et commercial (EPIC) : on parle alors de « régie personnalisée ». L’autre modèle est celui de la société publique locale, instaurée par la loi du 28 mai 2010. Ce sont des sociétés anonymes, à capital 100 % public, détenues par des collectivités territoriales. Bien que fonctionnant sous droit privé, elles ne sont pas soumises à l’obligation de publicité et de mise en concurrence.

Notre base de données enregistre, entre 1995 et 2022, 29 cas de remunicipalisation en France, dont 18 vers le modèle de la société publique locale qui devient la forme quasi exclusive de gestion publique depuis sa création.

Seuls deux communes, Beaune et Saint-Malo, ont fait le chemin inverse quand Thionville a fait l’aller-retour. Le mouvement reste assez marginal au regard du nombre de réseaux (9 % des réseaux). Il ne l’est néanmoins pas en termes de population concernée : presque 20 % des résidents bénéficiant de transports publics urbains. Le mouvement est, par ailleurs, en pleine accélération : si avant 2012 s’opérait moins d’un « basculement » tous les deux ans ; passée cette date, l’on en dénombre plus de deux par an.

En outre, après avoir concerné principalement des villes de taille moyenne, de 100 000 à 250 000 habitants, dernièrement plusieurs métropoles d’importance ont fait ce choix d’internaliser pleinement la gestion de leur réseau de transport public. C’est le cas de Strasbourg en 2020, de Grenoble en 2021 et de Montpellier en 2022. Au final, sur les 22 métropoles, 6 ont remunicipalisé, soit 27 % d’entre elles. Alors qu’en France, la gestion déléguée était de très loin le modèle dominant, le mouvement de remunicipalisation a de fait pris de l’ampleur et a gagné en visibilité. Les collectivités locales sont néanmoins prudentes ; la plupart de celles qui ont remunicipalisé basculent d’un statut semi-public (de société à capitaux à la fois publics et privés) vers un statut intégralement public.

Des motivations composites, mais avant tout d’ordre politique

Comment expliquer ce mouvement ? Deux éléments doivent être dissociés. Il y a d’une part les motivations de fond ; d’autre part un ou des éléments déclencheurs qui conduisent à passer à l’acte.

Pour les identifier, nous avons interrogé des acteurs clefs de 13 villes ayant remunicipalisé leurs transports. Nous avons regroupé les motivations déclarées par les élus locaux en trois types, « politiques », « économiques » et « transactionnelles et organisationnelles ».

Les motivations des élus sont le plus souvent d’ordre politique, qu’il s’agisse de répondre plus efficacement et plus globalement aux enjeux de mobilité du territoire, de raccourcir et fiabiliser la chaîne décisionnelle, ou encore de maîtriser l’ensemble des leviers de leur politique de transport et de mobilité. Ronan Kerdraon, vice-président de Saint-Brieuc Agglomération, explique par exemple :

« Avec ce mode de gestion, la SPL, il est beaucoup plus facile de transmettre un message politique, décider d’une réorganisation de l’offre ou réorienter les investissements, qu’avec un délégataire privé. »

Ces facteurs politiques vont encore probablement gagner en importance auprès des élus locaux, du fait des dispositions législatives prévues par la LOM de 2019, qui fait disparaître la notion d’autorité organisatrice de transport (AOT) au profit de celle d’autorité organisatrice de la mobilité (AOM). Par la même sont élargies les compétences des collectivités territoriales au-delà de la gestion des seuls transports publics : elles sont responsables dorénavant de l’ensemble de la mobilité, tous modes confondus. La gestion directe, et en particulier la société publique locale, leur apparaît alors comme « le plus court chemin » pour atteindre leurs objectifs, en comparaison avec la gestion externalisée.

Des motivations idéologiques s’y ajoutent. Certains élus, comme Jean-Michel Lattès, Vice-Président de Toulouse Métropole, se montrant hostiles à confier au privé la gestion d’un service public local. Le transport public serait pour eux une « responsabilité régalienne », qui ne peut être confiée à un acteur privé, dont la logique s’éloigne de celle d’un service public :

« Le privé maîtrise mieux les coûts, mais oublie parfois que sa mission, c’est aussi de transporter des gens, et non forcément de rechercher systématiquement la rentabilité. »

De même, des motivations d’ordre économique sont très largement exprimées : gain de productivité, volonté d’obtenir davantage de trafic et de recettes et de réduire la subvention d’exploitation. Gérard Besnard est président de la SPL de Chartres :

« Nous sommes entrés dans un cercle vertueux. L’augmentation des recettes commerciales, la maîtrise des coûts et les économies qui en découlent nous permettent d’investir. »

Des motivations d’ordre transactionnel interviennent dans la décision de remunicipalisation. Le niveau effectif de la concurrence dans les transports publics urbains en France est faible, et de fait, le gain net à en attendre aussi, du fait de la lourdeur et des coûts impliqués par les procédures, sans compter les risques de contentieux juridiques. Yannick Jacob, directeur du service des mobilités de Montpellier Méditerranée Métropole, s’interroge :

« Si c’est à chaque fois pour reprendre les mêmes, la mise en concurrence est quand même questionnée… »

Les motivations des élus locaux restent au-delà composites et plurielles. À Montpellier, par exemple, le passage en SPL s’explique tout d’abord par des intentions politiques, mettant la mobilité au sommet de l’agenda politique local de la nouvelle municipalité. Elle avait la volonté d’aller progressivement vers une gratuité totale d’accès au réseau. En outre, des motivations économiques ont joué, telles que la recherche d’une plus grande fréquentation du réseau dans l’espoir d’un report modal des automobilistes. Les motivations d’ordre transactionnel ont aussi interféré, du fait d’un faible niveau de compétition lors des appels d’offres.

Des éléments déclencheurs multiples

Ces motivations ne suffisent néanmoins pas toujours à franchir le pas. Il faut souvent un élément déclencheur pour qu’il y ait concrétisation des intentions. Le cas le plus fréquent est l’opportunité offerte par l’arrivée à échéance du contrat avec l’opérateur en place.

Ces déclencheurs peuvent aussi être liés au calendrier électoral ou bien à de nouvelles opportunités offertes par la loi. La création du modèle de la société publique locale en 2010 a, par exemple, catalysé de nombreux passages à l’acte.

Des changements importants impactant le périmètre géographique du réseau ou son fonctionnement (construction d’un tramway ou passage à la gratuité par exemple) sont parfois aussi l’occasion de changer le mode de gestion. L’absence de concurrence suffisante lors de la procédure d’appel d’offres et des difficultés de relations avec l’opérateur en place sont également une occasion de rompre avec le mode de gestion préexistant. Gérard Besnard se souvient de ce qu’il s’est passé à Chartres en 2014 :

« Seul l’opérateur sortant a répondu à la consultation et son offre était impossible à financer par l’agglomération. »

Si cette étude illustre des faits peu éclairés jusqu’alors, elle appelle divers prolongements, en premier lieu une analyse de davantage de villes, en testant aussi l’hypothèse qu’il existerait des effets de grappe, de contagion de la remunicipalisation entre différents services publics locaux. Une approche comparée, croisant la situation en France avec celle d’autres pays, en particulier européens, serait également bienvenue. Il resterait enfin à établir un bilan ex post de cette remunicipalisation des transports publics urbains. Les promesses dont elle est affublée seront-elles tenues ?The Conversation

>> L’auteur

Christian Desmaris, Maître de Conférences en Économie, Sciences Po Lyon, chercheur au LAET – Laboratoire Amménagement – Economie – Transports, Université Lumière Lyon 2

Cet article est republié sous licence Creative Commons.

>> Lire l’article original :

The Conversation

Législatives : le mode de scrutin actuel est-il juste ? | The Conversation

LLégislatives : le mode de scrutin actuel est-il juste ? | The Conversation

C’est un sujet qui revient avec chaque élection nationale en France, qu’il s’agisse de la présidentielle ou des législatives. Le mode de scrutin actuel, appelé « scrutin majoritaire uninominal à deux tours », est-il juste ? Des deux côtés de l’échiquier, Marine Le Pen (RN) et Jean-Luc Mélenchon (LFI) estiment que ce mode de scrutin n’est plus compatible avec le « pluralisme de notre vie politique ».

En 1947 déjà, Michel Debré déclarait dans son ouvrage La mort de l’état républicain :

« Nous considérons volontiers, en France, le mode de scrutin comme un mécanisme secondaire. C’est une erreur, une erreur grave[…]. Le mode de scrutin fait le pouvoir, c’est-à-dire qu’il fait la démocratie ou la tue. »

Nous ne pouvons qu’être d’accord avec M. Debré, l’un des rédacteurs de notre constitution et chacun pressent qu’effectivement le mode du scrutin est tout sauf neutre dans la détermination de qui est élu.

En tant que chercheurs, nous nous efforçons de comprendre les propriétés, au sens mathématique, des différents modes de scrutins. En tant que citoyens, nous sommes persuadés d’un réel débat autour de cette question pourrait permettre de remobiliser nos concitoyennes et concitoyens autour de la question électorale, fondamentale à notre démocratie.

Le scrutin majoritaire à deux tours : cet outil archaïque

S’il permet de dégager un ou une gagnante à chaque fois, le « scrutin majoritaire uninominal à deux tours », ne présente pas que des propriétés positives.

La grande qualité de ce scrutin est, comme son nom l’indique, de dégager une majorité de votants en faveur du vainqueur. Majorité absolue dans le cas de l’élection présidentielle, éventuellement majorité relative dans le cadre de triangulaire lors des législatives, mais à chaque fois majorité tout de même.

Mais cette majorité ne tient pas compte de la minorité : avec ce système un candidat peut être élu à la majorité absolue même si son programme est jugé très négativement par 49,9 % des électeurs. En ce sens, cette « tyrannie de la majorité », comme le dit Alexis de Tocqueville, peut mener à l’élection de candidats très clivants : convaincre une moitié des électeurs (plus un) suffit, quitte à se faire détester par l’autre moitié.

Cette caractéristique forte se double de plusieurs défauts : le premier d’entre eux est qu’il peut nous pousser à « voter utile » plutôt que de voter pour notre candidat favori : à quoi sert de voter pour un candidat qui ne sera pas au deuxième tour ? A rien ! Donc autant voter dès le premier tour pour son meilleur choix parmi les candidats qui ont des chances de se qualifier.

Souhaite-t-on vraiment un moyen d’expression démocratique qui incite fortement les votants à ne pas être sincères ? Un autre défaut bien connu est que le résultat du scrutin majoritaire à deux tours peut dépendre de la présence ou non de « petits » candidats. Par exemple, lors de l’élection présidentielle de 2002, la présence de plusieurs autres candidats de gauche au premier tour a vraisemblablement fait qu’il a manqué à Lionel Jospin les quelques centaines de milliers de voix qui lui auraient permis d’être qualifié au deuxième tour et, peut-être, de gagner l’élection. Souhaite-t-on vraiment un mode de scrutin qui soit si sensible aux manœuvres politiques ?

Et ce ne sont pas les seuls défauts du scrutin majoritaire à deux tours. D’autres peuvent être trouvés dans notre ouvrage « Comment être élu à tous les coups ? » publié chez EDP Sciences.

Mais c’est une chose de dire que le scrutin majoritaire à deux tours n’est pas un bon mode de scrutin, c’est autre chose de trouver le « meilleur » mode de scrutin. Depuis les travaux de Borda et Condorcet au XVIIIe, de nombreux chercheurs se sont penchés sur ce problème en proposant de non moins nombreux modes de scrutin, tous imparfaits. En 1951, l’économiste américain Kenneth Arrow semble mettre un terme à tout espoir en démontrant un théorème (dit d’impossibilité) indiquant que tout mode de scrutin ne pourra jamais vérifier de manière simultanée un petit ensemble de propriétés pourtant souhaitables. En ce milieu de XXe siècle, il semble que le mode de scrutin parfait n’existe pas et que les mathématiques ont tué la démocratie.

Les modes de scrutin basés sur des évaluations : nouvel eldorado ?

Cependant, Arrow ne parlait que des modes de scrutins utilisant des ordres de préférence, c’est-à-dire les modes de scrutin basés sur les classements des candidats (du plus apprécié au moins apprécié) par chaque électeur. Mais il existe une autre catégorie de modes de scrutin, qui utilise des évaluations : chaque votant peut donner une « note » ou une appréciation à chacun des candidats. L’avantage de ce mode de scrutin ? Disposer d’une information plus complète et souvent plus nuancée des votants sur les candidats.

Deux familles de modes de scrutin basés sur les évaluations se distinguaient jusqu’à présent :

  • les modes de scrutin « à la moyenne » (le « range voting », le vote par approbation) : le candidat élu est celui dont la moyenne des évaluations est la plus élevée.
  • Les modes de scrutin « à la médiane » (le « jugement majoritaire » et autres variantes) : le candidat élu est celui dont la médiane des évaluations est la plus élevée.

Le plus simple d’entre eux est le vote par approbation, chaque votant donne une voix à tous les candidats qu’il juge acceptables (l’échelle des évaluations est alors réduite au minimum : 0 : inacceptable, 1 : acceptable). Le candidat élu est celui qui reçoit au total le plus de voix. C’est exactement ce qui se passe lorsque l’on participe à un « doodle » : parmi des dates proposées, les votants choisissent celles leur convenant et la date la plus choisie l’emporte ! Ça serait très simple à mettre en pratique dans notre vie politique : il suffirait de permettre aux votants de glisser autant de bulletins différents qu’ils le désirent dans leur enveloppe (ou en d’autres termes de prévoir un « doodle » à 40 millions de lignes…).

Notons que ces modes de scrutin utilisant des évaluations ne sont plus sensibles au vote utile et que le vainqueur ne dépend plus de la présence ou de l’absence d’un autre candidat proche de lui dans l’élection. Ils vérifient en outre l’ensemble des propriétés souhaitables défini par Arrow !

Nous avons récemment proposé, avec Irène Gannaz et Samuela Leoni, un formalisme unificateur pour ces modes de scrutin, soit une manière de voir chacune de ces méthodes comme une variante particulière d’une unique méthode de vote.

Dans une configuration où chaque votant donne une note à chaque candidat, chaque votant peut être représenté dans l’espace par un point dont les coordonnées sont ses évaluations données aux candidats. Un exemple pour une élection avec trois candidats est illustré dans la figure suivante : chaque axe représentant un candidat et chaque point un votant, les évaluations entre -2 et 2 ont été générées au hasard pour cette figure :

Représentation graphique d’un système de vote par note pour 3 candidats. | ©Antoine Rolland

L’idée sous-jacente commune à tous ces derniers modes de scrutin est de repérer le point le plus « au centre » du nuage de points des évaluations (en rouge sur la figure), de le considérer comme le votant « type », et de déclarer élu son candidat préféré.

Ce formalisme permet de proposer un modèle général pour les modes de scrutin utilisant les évaluations (range voting, vote par approbation, jugement majoritaire, etc.), mais aussi d’ouvrir la voie à de nombreux autres modes de scrutin, inconnus jusqu’alors. À chaque définition de point le plus « au centre » du nuage (et il y en a beaucoup !) est alors associé un mode de scrutin différent.

Les modes de scrutin par évaluations sont bien meilleurs d’un point de vue logico-mathématique. Sociétalement parlant, ils permettraient de privilégier les candidats plus consensuels.

À nous, société civile et citoyenne, de nous saisir de cette question pour redevenir acteur/actrice de notre destinée démocratique commune. Comme disait G. Bernanos : « On n’attend pas l’avenir comme on attend un train, l’avenir, on le fait. »The Conversation

> Les auteurs : Antoine Rolland, Maitre de conférence en statistique, Université Lumière Lyon 2  

et Jean-Baptiste Aubin, Maître de conférence en statistique, INSA Lyon – Université de Lyon

Cet article est republié sous licence Creative Commons.

>>  Lire l’article original :

The Conversation

Archéologie expérimentale : comprendre l’histoire en la reconstituant | The Conversation

AArchéologie expérimentale : comprendre l’histoire en la reconstituant | The Conversation

Quel rapport entre les mécanismes des théâtres romains, la courbure du pont du Gard et une porte monumentale de fortification gauloise du Ier siècle avant notre ère ? Il s’agit de trois énigmes pour les archéologues depuis des décennies. Pour tenter de résoudre ces problèmes, une collaboration unique s’est formée entre enseignants-chercheurs en mécanique et archéologues. Ces recherches, qualifiées d’archéologie expérimentale, combinent les compétences des ingénieurs (modélisations 3D, simulations informatiques, tests expérimentaux…), des archéologues et parfois aussi d’artisans experts dans leur domaine.

« Rideau ! » Les mécanismes de théâtres antiques

L’une des études pionnières menées entre archéologues et chercheurs en mécanique à Lyon a porté sur les rideaux de théâtre romain, un élément clé dans l’architecture théâtrale antique. Les vestiges archéologiques de différents théâtres (Baelo Claudia au sud de l’Espagne, Orange et Lyon en France), ainsi que certaines descriptions issues des textes antiques, permettent d’imaginer l’apparence et les dimensions de ces immenses rideaux. Mais nous connaissons mal la façon dont ils étaient mis en mouvement durant les représentations.

Comprendre de tels mécanismes pose beaucoup de problèmes d’ordres mécaniques et tribologiques, c’est-à-dire relatifs aux frottements et à l’usure des matériaux. Est-il possible, par exemple, de soulever aisément des poteaux avec des contrepoids malgré tous les frottements des pièces en bois ? Pour y répondre, nous avons eu recours à des modélisations en 3D puis à de l’expérimentation. L’un des mâts du théâtre de Baelo Claudia a été reconstitué avec une maquette à taille réelle comprenant tout le mécanisme de montée de rideau. Ces recherches ont ouvert de nouvelles perspectives sur la façon dont le théâtre était pratiqué et perçu dans l’Antiquité et sur ce qu’il se passait en coulisse, derrière ces rideaux majestueux.

Maquette à taille réelle du sommet d’un des mâts du théâtre de Baelo Claudia, avec son mécanisme de levage.
Fabrice Ville/INSA Lyon, Fourni par l’auteur

Modélisation 3D du système de manœuvre du rideau du théâtre de Baelo Claudia. Fabrice Ville/INSA Lyon, Fourni par l’auteur

Ainsi, le rideau sortant du sol, il ne pouvait guère dépasser 2 à 3 mètres de haut et il ne masquait alors la scène que pour les quinze premiers rangs, où se situaient les meilleures places pour observer les spectacles. Par ailleurs la manœuvre du rideau et du dispositif de levage, pouvant représenter plus de 500 kg au théâtre de Baelo Claudia, nécessitait un savoir-faire particulier pour la manipulation des cordages, semblable à celui des marins de l’époque. Enfin, pour réduire les frottements et les bruits des différentes pièces en mouvement, nous faisons l’hypothèse qu’une matière végétale telle que la saponaire, ancêtre du savon, a dû être employée par les opérateurs de l’époque.

Le génie architectural du pont du Gard

Par la suite, nous avons entrepris une autre étude, cette fois-ci en nous concentrant sur un monument emblématique : le pont du Gard. Nous nous sommes demandé pourquoi il était aujourd’hui incliné. Le fait qu’il ne soit pas rectiligne paraît surprenant au vu du haut degré de maîtrise architecturale atteint par les constructeurs romains sur de tels ouvrages. En simulant les forces et les contraintes qui s’exercent sur une structure antique comme le pont du Gard, nous avons pu analyser son comportement sous différentes conditions, notamment en termes de pression hydraulique et de variations de température.

Photographie présentant la courbure de l’aqueduc, observable au niveau du pont Pitot aménagé à l’époque moderne. Fabrice Ville/INSA Lyon, Fourni par l’auteur

Il ressort qu’une partie de l’inclinaison du pont est liée à un défaut d’alignement des bases des piles du deuxième étage. Ce défaut est sans doute volontaire de la part des constructeurs romains, car il aurait permis de contourner une masse rocheuse importante et ainsi d’éviter une chute du débit d’eau à la sortie de l’aqueduc. Mais cela n’explique pas complètement l’inclinaison du pont du Gard. En effet, désalignement retranché, il reste environ 30 cm d’écart entre le haut de l’édifice et la base des piles.

Il s’avère qu’une partie de cette inclinaison peut s’expliquer par des travaux réalisés sur l’aqueduc, non pas durant l’Antiquité, mais au XVIIIe siècle. À cette époque, pour faciliter la traversée du pont par les attelages notamment, certaines piles ont été creusées. Nous nous sommes aperçus que ces travaux avaient altéré la stabilité de l’ouvrage. Cependant, d’autres facteurs comme des crues ou des séismes ont dû intervenir pour expliquer entièrement une telle inclinaison.

Schéma des piles du pont : vue de côté et vue aérienne

Vue schématique de la silhouette du pont, qui montre le décalage entre les piles et la verticale (pointillé), et de la disposition des piles vue du haut, mettant en évidence leur désalignement. Fabrice Ville/INSA Lyon, Fourni par l’auteur

Enquêter sur l’artisanat gaulois

Notre troisième étude nous conduit sur un plateau rocheux qui domine le cours de l’Ardèche par de hautes falaises. Sur le site archéologique de Jastres-Nord, à Lussas, les Helviens, un peuple gaulois nouvellement conquis par Rome, ont érigé au Ier siècle avant notre ère de vastes systèmes de fortification. Les fouilles menées dans les années 1970-1990 sur l’entrée principale de ces remparts ont conduit à une découverte exceptionnelle : plus de 160 pièces métalliques, provenant pour l’essentiel de la combustion de la porte en bois monumentale donnant accès à l’agglomération.

Alors que les éléments en bois de l’architecture antique disparaissent presque systématiquement, il était ici permis d’espérer pouvoir restituer l’apparence de l’ouvrage, avec de nombreuses implications sur notre compréhension de l’artisanat à cette époque.

Modèle 3D d’un des nombreux clous de Jastres-Nord. Il a été rivé, c’est-à-dire rabattu à l’arrière de l’ouvrage. L’analyse des déformations (pliures) présentes sur tous les clous fournit des indices sur la structure de bois disparue. Maxime Excoffon/INSA Lyon, Fourni par l’auteur

Un des deux vantaux reconstruits expérimentalement à l’École de production de la Giraudière, en cours de finition. Maxime Excoffon et Fabrice Ville/INSA Lyon, Fourni par l’auteur

Grâce à des techniques modernes telles que la modélisation 3D, l’analyse des déformations des pièces métalliques (pliures, courbures, etc.) et l’analyse des charbons, nous avons obtenu de nouvelles données sur cet ouvrage. Produits à l’aide de plusieurs essences de bois et présentant une structure complexe, les deux battants étaient massifs, hauts d’environ 4 m, larges de 3,80 m et épais de 15,5 cm, voire de 22 cm par endroit.

Pour en savoir davantage sur l’apparence de cette porte et sur les techniques employées par les artisans pour la produire, l’ingénierie mécanique et la reconstruction expérimentale à taille réelle ont constitué des approches très complémentaires. C’est ainsi que depuis 2023, en collaboration avec l’École de production de la Giraudière (Brussieu, Rhône), nous reconstituons étape par étape la production des deux vantaux de cette porte, disparue il y a près de 2000 ans.

Au-delà des aspects scientifiques : médiation et valorisation

Il faut souligner qu’au-delà de l’aventure scientifique, de tels projets sont l’occasion de faire travailler ensemble chercheurs, ingénieurs mais aussi élèves artisans. Les reconstructions expérimentales ont aussi un intérêt en termes de médiation culturelle et de valorisation patrimoniale. La porte reconstituée de Jastres devrait être présentée au public dans une exposition temporaire au musée départemental MuséAl et elle sera sans doute présentée de façon définitive au cœur de la commune de Lussas, en connexion avec le site archéologique.

En somme, les études d’archéologie expérimentale constituent une collaboration fructueuse entre l’ingénierie et l’archéologie. Elles offrent de nouvelles perspectives sur le passé et contribuent à enrichir notre compréhension des civilisations anciennes, de leurs technologies et de leurs réalisations architecturales.


Remerciements aux élèves de l’École de production de la Giraudière et à leurs enseignants (Emmanuel, Jason, Pierre et Vincent) ; aux élèves ingénieurs de l’INSA Lyon et à nos collègues (Bérengère, Jérôme, Jean-Michel) ; à Myriam et Jean-Charles de l’Université Lyon 2 ; à Michelle et Clément de l’Université Paris 1 ; à Jean-Pierre et Jacques.The Conversation

 Les auteurs : Fabrice Ville, professeur des Universités, enseignant en Génie Mécanique, chercheur en Tribologie, INSA Lyon – Université de Lyon, et Maxime Excoffon, doctorant en archéologie, ingénieur de recherche, Université Lumière Lyon 2

Cet article est republié sous licence Creative Commons.

>> Lire l’article original :

The Conversation

 

 

 

Comprendre les concentrations de microplastiques dans les eaux de ruissellement

CComprendre les concentrations de microplastiques dans les eaux de ruissellement

©RCF radio

Dis Pourquoi ? est une chronique de vulgarisation scientifique de 5 minutes diffusée chaque mardi sur RCF Lyon à 11h50. Dis Pourquoi ? questionne et explore notre univers par les sciences. Chaque semaine, une ou un scientifique répond aux questions et dévoile ses travaux de recherche.

> Émission du 9 avril 2024

Philippe Polomé est professeur de sciences économiques à l’Université Lumière Lyon 2, le « GATE Lyon-Saint-Étienne » (Groupe d’Analyse et de Théorie Économique). Il a participé au comité scientifique du Pop’Sciences Mag#12 Eau, maintenant ou jamais.

Il dirige actuellement une thèse sur les micro-plastiques avec un éco-toxicologue, un hydrologue et un ingénieur spécialisé déchet. Leur recherche porte sur la présence de microplastiques dans les eaux de ruissellement en ville : les mesurer, les associer avec un micro-bassin versant, déterminer les activités qui les génèrent. Explications…

Écoutez le podcast :

>> Écouter les podcasts des autres intervenants Pop’Sciences :

>> Pour plus d’information, rendez-vous sur le site :

RCF Lyon

PPour aller pus loin

L’engagement des scientifiques dans les luttes sociales et environnementales : quelles questions ?

LL’engagement des scientifiques dans les luttes sociales et environnementales : quelles questions ?

La Boutique des Sciences de l’Université Lumière Lyon 2 a le plaisir de vous inviter à la 2e séance de son séminaire « Faire société, faire sciences ensemble ? » : L’engagement des scientifiques dans les luttes sociales et environnementales : quelles questions ?

Médiatisés à leur insu ou volontairement, les discours scientifiques sont mobilisés dans le débat public, permettant d’apporter des arguments concrets et « objectivés » aux luttes sociales (dans le cas de la réforme des retraites par exemple) ou ajoutant un nouveau type d’activisme à des combats en cours (cas de la désobéissance civile pour la défense du climat). Du point de vue du chercheur : pourquoi engager sa parole dans ce contexte, quelles considérations éthiques amènent à rester en retrait ou au contraire à aller au devant des mobilisations ? Du côté des mouvements sociaux : est-ce que cela est un « plus » d’avoir un chercheur à ses côtés, pourquoi, dans quelles conditions ?

Intervenant.e.s :

  • Mickaël Zemmour, professeur de sciences économiques, chercheur au Laboratoire Triangle – ENS ;
  • Loïc Salmon, chercheur et membre de Scientist Rebellion ;
  • Françoise Lantheaume, référente intégrité scientifique à l’Université Lumière Lyon 2

En collaboration avec : la Fabrique des Questions Simples

Animé par : Cléa Chakraverty de The Conversation

>> Pour en savoir plus, rendez-vous sur le site :

Université Lumière Lyon 2

©Université Lumière Lyon 2

Vulnérabilités, qu’en disent les cartes ?

VVulnérabilités, qu’en disent les cartes ?

Inondations, éboulements, épidémies, mouvements sociaux, guerres, accidents industrielles, incendies… Lyon est vulnérable à des événements variés, soudains ou au cheminement long et indécelable jusqu’au moment où ils s’imposent et menacent. Organisé dans le cadre du Congrès international sur l’histoire de la cartographie aux archives municipale de Lyon.

Mais la plupart des événements passés, au moins jusqu’aux 18-19e siècles, n’ont laissé que des mots, bien insuffisants pour nous permettre de comprendre ce qui s’est passé, ni comment les Hommes composaient avec une nature et des installations humaines risquées.
Quelques images (cartes ou dessins), parfois, nous permettent d’en saisir l’ampleur et les particularités.

L’exposition interroge la ville sous l’angle de ses vulnérabilités, au travers de documents rarement vus, permettant de saisir comment la ville est aujourd’hui un environnement composé de dispositifs variés (quais, hôpitaux, police, aménagements pour le trafic, bétonnage des flancs des collines…) destinés à limiter de nombreux types de risques.

Organisée dans le cadre du Congrès international sur l’histoire de la cartographie aux Archives municipales de Lyon.

>> Pour plus d’information, rendez-vous sur le site :

archives municipales de Lyon

©Archives municipales de Lyon

La recherche avance pour les Dys

LLa recherche avance pour les Dys

AtoutDys et la Fédération Française des DYS (FFDYS) vous invitent à découvrir comment « La recherche avance pour les Dys»,évènement en phase avec l’engagement 1 « Amplifier la dynamique de recherche et accélérer la diffusion des connaissances auprès de tous les acteurs » de la Stratégie Nationale 2023/2027 pour les troubles du neuro-développement (TND).

>> Au programme :

  • Les avancées du projet d’une « Maison des Dys pour Tous » | AtoutDys et la FFDYS.
  • Les progrès scientifiques pour :
    • La dyscalculie | Jérôme PRADO CRNL-CNRS-INSERM & Université Lyon1 et Charlotte CONSTANT doctorante.
    • Les troubles neuro-visuels | Zoï KAPOULA PhD, DR CNRS & Université Paris Cité.
    • La dysphasie | Nathalie BEDOIN CRNL-CNRS-INSERM & Université Lyon 2.
    • L’aide à la lecture grâce à l’IA | Alice GOMEZ Université Lyon1-INSPE-CRNL, Eddy CAVALLI Université Lumière Lyon 2 et Baptiste BREJON pour la plateforme Glaaster.
  • Débat avec la salle

 

>> Des informations régulières sur cette soirée sur la page Facebook :

AtoutDys

©Atoutdys

Comprendre le langage des yeux : les secrets de la perception du regard

CComprendre le langage des yeux : les secrets de la perception du regard

La capacité à comprendre la direction du regard est une compétence sociale fondamentale. Mais comment notre cerveau traite-t-il cette information visuelle ?
Dans une étude récente intitulée « The Time Course of Information Processing During Eye Direction Perception », menée par Marie-Noëlle Babinet, Pr. Caroline Demily, Eloïse Gobin, Clémence Laurent, Thomas Maillet et Pr. George A. Michael, deux expériences ont exploré cette question en manipulant la présentation du visage et des yeux.
Leurs résultats, publiés dans une étude récente, apportent de nouvelles perspectives sur la façon dont nous percevons le langage des yeux et du visage.

Priorité oculaire : le traitement commence par les yeux

Tandis que plusieurs théories s’opposaient; suggérant soit que le traitement du visage précède celui des yeux, soit l’inverse; les résultats de cette étude apportent de nouvelles réponses. Quelle que soit la direction du visage, les participants ont des temps de réaction plus rapides lorsque les yeux sont présentés avant le visage. Cela suggère que notre cerveau accorde une priorité au traitement des yeux, qui agissent comme des aimants pour notre attention visuelle.

Contexte facial : la clé de la perception du regard

Mais la simple présence des yeux ne suffit pas à elle seule pour comprendre la direction du regard. Les résultats montrent que la discrimination de la direction du regard est facilitée par le contexte facial. Lorsque les yeux sont présentés seuls, sans le reste du visage, la perception du regard est moins précise. Cela souligne l’importance du contexte facial dans notre capacité à interpréter les signaux sociaux.

Impact de la direction du visage

De plus, la direction du visage influence également la perception du regard. Les résultats montrent que lorsque le visage est directement orienté vers le spectateur, la perception du regard est plus précise que lorsque le visage est dévié. Cette observation suggère que la disposition spatiale des caractéristiques du visage, comme les yeux et la bouche, joue un rôle dans la facilitation de la perception du regard.

>>  retrouver cet article sur les sites :

Le vinatier

Pub Med

L’eau minérale naturelle en bouteille : traitements, filtration… ce que dit la réglementation | The Conversation

LL’eau minérale naturelle en bouteille : traitements, filtration… ce que dit la réglementation | The Conversation

Fin janvier éclatait l’affaire des eaux minérales naturelles non conformes à la suite d’une enquête menée par Le Monde et Radio France. Celle-ci épinglait plusieurs grandes marques d’eau minérale naturelle en bouteille (dont Vittel, Contrex) et d’eau de source (dont Cristalline). Elles auraient eu recours à des traitements physiques non autorisés (comme une microfiltration inférieure aux seuils autorisés) afin de masquer une pollution anthropique (c’est-à-dire, imputable aux activités humaines). L’occasion de faire le point sur ce que permet ou non la réglementation à la matière.

Eau minérale naturelle, de quoi parle-t-on ?

L’Eau minérale naturelle (EMN) est une appellation juridique spécifique. Elle se définit comme une eau d’origine souterraine, dont les composants physicochimiques (la teneur en minéraux) à l’émergence restent stables dans le temps, avec moins de 10 % de variation.

Les usages économiques liés à l’EMN (usine d’embouteillage, établissement thermal) sont étroitement dépendant du maintien de cette appellation octroyée par le ministère de la Santé sur avis de l’Académie de Médecine).

Contrairement à l’eau du robinet, les traitements chimiques de désinfections sont interdits au regard des exigences réglementaires liées à aux appellations juridiques « Eau minérale naturelle » et « Eau de Source ».

Des traitements qui ne doivent pas modifier la composition de l’eau

Les seuls traitements aujourd’hui autorisés par la réglementation portent sur la séparation d’éléments instables ou indésirables, naturellement présents dans l’eau (fer, soufre, manganèse, arsenic, etc.). Ces traitements physiques (filtration, décantation, oxygénation, utilisation d’air enrichi en ozone) ne doivent pas modifier la composition de l’eau quant aux constituants essentiels qui lui confèrent ses propriétés.

Les traitements de désinfection par ultraviolets ou par filtres au charbon actif d’éléments indésirables liés à une pollution anthropique d’origine agricole, industrielle ou accidentelle ne sont pas autorisés.

Or, ce que l’actualité récente nous montre, c’est que l’enjeu sur le recours à ces traitements, pourtant sans risques pour la consommation humaine, est avant tout un enjeu juridique liée à l’appellation d’eau minérale naturelle.

L’intervention du service de répression des fraudes dans le cadre de l’enquête menée par la Direction générale de la concurrence, de la consommation et de la répression des fraudes est donc au cœur de l’actualité. La perte de l’appellation EMN entraînerait de lourdes conséquences économiques pour les exploitants.

Cet évènement récent rappelle celui sur l’eau de source Capes Dolé en Guadeloupe. Afin d’éliminer les éléments indésirables de pollution anthropique d’origine agricole, identifiés en 1999, l’exploitant avait installé sur les lignes d’embouteillage un filtre à charbon et des membranes de filtration, sous le contrôle de l’ARS.

Le coupable ? Le chlordécone, pesticide utilisé contre le charançon du bananier dans toutes les Antilles françaises de 1972 à 1993.

Ce traitement physique ne modifiait pas les caractéristiques microbiologiques de l’eau. Cependant, après plusieurs attaques en justice d’embouteilleurs concurrents (Fontaine Didier et West Indies Pack), la société a été condamnée en 2013 à supprimer l’appellation « eau de source » sur ses étiquettes pour la remplacer par « eau rendue potable par traitement ».

La réglementation sur la protection des gisements d’eau minérale naturelle s’inscrit donc dans un héritage historique ancien. Et peut-être, déjà obsolète ?

Un héritage réglementaire de la « guerre des sources » à Vichy pour gérer le risque quantitatif

L’appareil réglementaire actuel, de protection des gisements, a été construit de façon empirique et repose notamment sur la perception des risques au XIXe siècle.

À cette période, l’État avait légiféré pour protéger les gisements sur l’aspect quantitatif, à la suite de la « guerre des sources » à Vichy-Saint-Yorre de 1844 à 1930. Devant le succès commercial de l’eau embouteillée sur le bassin de Vichy-Saint-Yorre, les entrepreneurs privés multipliaient les forages. En tant que propriétaire d’un vaste patrimoine thermal, l’État, ainsi que son fermier (la Compagnie de Vichy), avaient alors découvert que l’usage thermal principal était impacté par une baisse de débit des forages.

L’une des sources exploitées à Saint-Yorre, image d’époque.

En 1939, la multiplication anarchique des forages se matérialisait par 230 sources sur le bassin de Vichy-Saint Yorre, 200 sources à Vals et 40 sources à Vittel-Contrex. L’État a donc agi pour sauvegarder les intérêts du secteur thermal, avec une première réglementation en 1848, afin d’imposer un périmètre de protection fixe de 1000 mètres autour de chaque source.

Les obligations actuelles sur les captages

Cet héritage réglementaire comporte aujourd’hui deux outils spécifiques, le premier obligatoire, et le second, facultatif.

De manière obligatoire, chaque émergence doit disposer d’un périmètre sanitaire d’émergence (PSE), et cela depuis 1937. Il est déterminé durant la demande d’autorisation d’exploitation d’un nouveau captage par arrêté ministériel.

La tête de forage doit être protégée par un abri fermé mis sous surveillance, et placé dans un périmètre grillagé d’une centaine de mètres carrés, en fonction du type de captage, sa profondeur, et l’environnement du site.

Ce foncier doit être détenu par le propriétaire du captage ou avoir une servitude d’accès. Au sein de ce PSE, la réglementation interdit toute activité, travaux, dépôt de déchets, épandage d’eaux usées, de produits phytosanitaires ou d’engrais organique.

L’application du PSE peut toutefois être difficile si le captage est localisé en milieu urbain. Certains captages peuvent être situés dans le sous-sol de bâtiments, ou sous la voirie du centre-ville. Le PSE peut donc parfois se limiter à la chambre de captage, ou à un local de tête de captage.

En fonction des sites, les objectifs d’un PSE peuvent donc être différents.

  • Si la ressource en eau est naturellement à l’abri des pollutions de surface, le PSE aura pour vocation d’assurer la sécurité physique du captage seulement.
  • En revanche, si la vulnérabilité sanitaire des abords immédiats de la ressource est plus grande, des compensations réglementaires devront être trouvées.

Dans ce cas de figure, la réglementation peut par exemple, en milieu urbain, interdire le stationnement de véhicules sur la voirie à proximité du captage, de manipuler des substances polluantes ou encore prévoir une surveillance en cas de travaux de voirie.

Lorsque la ressource en eau est naturellement peu protégée, la réglementation peut interdire le stationnement de véhicules sur la voirie à proximité du captage. ©Frédéric Bisson/Flickr

Des aménagements spécifiques peuvent aussi être prévus, comme l’installation d’un système étanche de récupération des eaux pluviales sur la voirie pour se prémunir du risque de pollution aux hydrocarbures, avec un système d’alerte d’étanchéité sur le captage.

La délimitation du PSE est donc toujours un compromis entre ce qui est techniquement souhaitable et ce qui est en réalité possible.

Une déclaration d’intérêt public et un périmètre de protection facultatifs

Le second outil de protection est facultatif. Dès 1861, la réglementation donne la possibilité au propriétaire ou à l’exploitant de la ressource en eau minérale naturelle (EMN) de demander une déclaration d’intérêt public et la création d’un périmètre de protection (PP). Cette démarche est soumise à la validation du Conseil d’État après une enquête publique.

L’intérêt public est prononcé en fonction de la valeur intrinsèque de la ressource : qualité, débit, propriétés favorables à la santé, enjeux d’emploi… Il faut que le niveau de vulnérabilité de l’émergence justifie les contraintes à imposer aux tiers. En fonction des caractéristiques du site (contexte hydrogéologique, vulnérabilité, risques…), un périmètre de protection est défini.

Ce dernier peut varier de un à 15 600 hectares. Il s’agit d’un outil contraignant au plan réglementaire. Les tiers (habitants, entreprises…) sont soumis à une obligation de déclaration pour tous travaux de terrassement de deux à quatre mètres de profondeur, et doivent demander une autorisation préfectorale au-delà de quatre mètres.

Ils sont également soumis à des interdictions d’installation d’activités classées ICPE, de stockage de déchets, et d’épandage de boue de station d’épuration. L’État exige toutefois, en contrepartie, que l’exploitant prenne en charge et indemnise certaines mesures imposées aux tiers.

Un cadre réglementaire vieillissant… et obsolète ?

Ces deux outils réglementaires vieillissants sont cependant peu respectés et mobilisés. L’état des lieux des PSE obligatoires montre que les exploitants et propriétaires de la ressource s’écartent de la réglementation.

La cour des comptes a ainsi relevé, dès 1995, qu’une partie des sources étaient en exploitation sans autorisation ou reposant sur des autorisations fondées sur des paramètres obsolètes. En effet, la grande majorité des autorisations d’exploitation ont été délivrées au XIXe siècle ou au début du XXe siècle.

Des visiteurs à Vichy-Célestins. ©Yusaini Usulludin/Flickr

Or, les captages autorisés mais non renouvelés depuis 1937 n’ont pas de PSE, ce qui signifie que le risque sanitaire immédiat n’est pas pris en compte. En 2016, entre 17 % et 29 % seulement des captages alimentant un établissement thermal ont fait l’objet d’une autorisation conforme.

Pourtant, le fait d’exploiter une eau minérale naturelle sans autorisation est passible de sanctions administratives (fermeture partielle ou complète de l’établissement) ainsi que de sanctions pénales à hauteur d’un an d’emprisonnement et de 15 000 euros d’amende, selon l’article L.1324-3 du code de la santé publique.

La problématique de contrôle réglementaire des PSE se heurte donc à une absence de vision sur l’état actuel consolidé des émergences exploitées à l’échelle nationale.

Comment en est-on arrivé là ?

Cette situation résulte de la décentralisation par l’État des missions du BRGM vers les 18 Agences Régionale de Santé. Ces dernières ne disposant pas d’hydrogéologues, l’inventaire des captages de la banque du sous-sol est donc largement lacunaire. L’Assemblée nationale soulignait encore en 2016 le manquement à cette mission des ARS.

D’autre part, l’état des lieux des périmètres de protection (PP) montre que cet outil est très peu mobilisé. Seulement 99 émergences bénéficient d’un PP, dont 56 sont exploitées par un usage.

La plupart d’entre eux sont de surcroît anciens. Sur tous les PP, 96 % datent du XIXe siècle ou du début du XXe siècle. La mobilisation contemporaine du PP reste très limitée, et surtout autour des sites à fort enjeu économique (Vittel en 1971, Avène en 1992, Évian en 2006, Vals en 2012).

Des risques qualitatifs identifiés en 1971, sans modification réglementaire

Le risque de polluants anthropiques d’origine agricole a été identifié dès 1971 par les minéraliers sur le terrain, et confirmé par le rapport ministériel Hénin de 1979, mais n’a pas été suivi d’évolution réglementaire pour la protection des gisements d’eau minérale naturelle.

On peut s’interroger sur la capacité d’un dispositif réglementaire vieillissant et peu mobilisé à protéger la ressource des risques qualitatifs anthropiques liés à notre société.

C’est en raison de cette carence réglementaire française que des politiques de protection partenariales de l’impluvium ont été créées par les minéraliers sur les sites de Vittel et d’Évian dès la fin dès 1989, afin de faire baisser les taux de nitrate de ces aquifères. D’autres initiatives isolées et limitées émergent également à Saint Yorre, Aix-les-Bains ou Thonon.

À titre de comparaison, le cadre réglementaire historique de la Région wallonne a évolué en 1991 afin d’actualiser le niveau de protection face aux risques qualitatifs, avec quatre zones (prise d’eau, zone de prévention rapprochée/éloignée et zone de surveillance de l’impluvium) et des limitations plus strictes et plus précises notamment sur la limitation des produits phytosanitaires agricoles dans l’impluvium des gisements.

Qu’ils soient chroniques ou accidentels, les risques liés à l’agriculture intensive (épandage de produits phytosanitaires et engrais organique surdosé), l’industrie ou à l’urbanisation (ruissellement d’hydrocarbure sur les voiries, fuite des citernes à fioul et du réseau d’assainissement…) sont un enjeu pour la pérennité des agréments eau minérale naturelle et de leurs usages.The Conversation

Auteur : Guillaume Pfund, Docteur en géographie économique associé au laboratoire de recherche EVS, Université Lumière Lyon 2

Cet article est republié sous licence Creative Commons.

>> Lire l’article original :

The Conversation