PProthèses de membres : quand l’objet technique s’invite dans l’intimité des corps Il existe aujourd’hui une grande diversité de prothèses, qui varient en matière de matériaux, de formes et d’usages. Mais comment ces dispositifs s’intègrent-ils réellement dans le quotidien, la mobilité et l’intimité de ceux et celles qui les portent ? L’appropriation de la prothèse, c’est-à-dire l’intégration aux sensations, aux mouvements et aux habitudes de vie, ne va pas toujours de soi. Lucie Dalibert, chercheuse au laboratoire S2HEP (1), dans le cadre du projet de recherche « Amélioration du parcours d’appropriation des dispositifs prothétiques » (APADiP), explore cette relation complexe entre les corps et les technologies. Dans ce lien, elle appelle à remettre plus « de soin ».Vos travaux de recherche s’intéressent aux prothèses et aux liens entre les corps et la technique. Comment pourriez-vous les résumer ?Mes travaux se positionnent à la croisée de la philosophie des techniques plus spécifiquement dans le champ Science and Technology Studies [STS – études sur les sciences et les technologies], en lien avec les approches féministes. En d’autres termes, je m’intéresse à ce que fait la technique aux corps, aux normes et standards qu’elle véhicule. On peut dire que je suis une philosophe de terrain car je me base sur des enquêtes de type ethnographiques, que je mène la plupart du temps avec d’autres collègues. Je vais interroger ou observer les personnes dans leur environnement et leur intimité. En cela, mon objectif est de questionner le lien, de plus en plus fort, entre les corps et les technologies, en particulier quand ceux-ci sont transformés. À travers mes travaux, j’analyse ce que peut être une prothèse dite « adaptée » ou en adéquation avec les personnes amputées que l’on appareille. Je souhaite interroger un type de soin particulier qu’est le soin technologique (2). Avec le projet APADiP, nous nous sommes concentrés avec Paul-Fabien Groud et Valentine Gourinat, sur ce qui fait qu’une prothèse est « adaptée » ou « inadaptée ». Et la réponse n’est pas si binaire. (…) >> Rendez-vous sur le site point2bascule.fr pour :LIRE LA SUITE DE L’ARTICLE (1) Le laboratoire S2HEP (Sciences, Société, Historicité, Éducation, Pratiques), est une unité de recherche (UR 4148) qui a pour tutelle l’Université Claude Bernard Lyon 1 (UCBL).(2) Cette notion a été développée par la chercheuse Mathilde Lancelot, Maîtresse de conférences en philosophie, épistémologie de la médecine à Nantes.
RRecyclage des silicones : une initiative pour donner une nouvelle vie aux manchons pour prothèses Prisés pour leur stabilité chimique et leur haute résistance, les matériaux silicones sont omniprésents dans notre quotidien. Toutefois, une fois usagés, peu de chance pour que ceux-ci soient recyclés car l’incinération et l’enfouissement sont privilégiés. Pour François Ganachaud, chercheur au laboratoire Ingénierie des Matériaux Polymères (IMP) (2), le véritable enjeu de leur recyclage réside autant dans le procédé que dans la chaîne logistique en amont de celui-ci.Avec une société spécialisée dans les silicones pour manchons orthopédiques, COP Chimie, l’IMP tente de donner une autre vie aux silicones issus des déchets de fabrication, à travers une filière de recyclage des rebuts.Le recyclage du silicone : énergivore ?Polymère connu pour ses propriétés de stabilité et de résistance, le silicone est un matériau très indiqué en intégration dans des orthèses ou des prothèses « En orthopédie, l’intérêt du silicone est multiple, en particulier pour les membres résiduels des personnes amputées : c’est une matière qui adhère bien à la peau, sans la léser, qui est souple et permet donc une transition confortable entre la peau et la partie rigide de la prothèse » explique François Ganachaud. Leur recyclage chimique, tel qu’envisagé aujourd’hui par la plupart des acteurs, est onéreux et énergivore. Il consiste à chauffer la matière réduite en granules, à haute température et en présence de différents acides ou bases, pour casser ainsi les liaisons moléculaires et revenir à la molécule de départ. « Une fois ces cycles reformés et purifiés, il faut à nouveau refaire le polymère puis le matériau. C’est à la fois long et coûteux. « Face à l’enjeu énergétique qu’implique la dépolymérisation des silicones, nous proposons une autre alternative. Et si, au lieu de dégrader la matière pour revenir au monomère, on préférait simplement dissoudre le matériau afin de réutiliser ce nouveau mélange plus rapidement ? » (…) >> Rendez-vous sur le site point2bascule.fr pour :LIRE LA SUITE DE L’ARTICLE
SSatellites de télécommunications et cybersécurité Dans l’espace gravitent une multitude d’objets. Parmi eux, des satellites de télécommunications, placés en orbite autour de la terre, jouent le rôle de messagers, fournissant entre autres, services Internet, téléphonie, télévision et assistance à la sécurité civile et à la Défense. Parmi les menaces de cybersécurité guettant les satcoms, l’interception de données est reine. En 2020, un doctorant d’Oxford démontrait lors de la Black Hat Conf aux États-Unis qu’il était parvenu à intercepter les données de dix-huit satellites à l’aide d’un équipement bon marché. Cette expérience soulignait déjà la nécessité d’un renforcement urgent de mesures de cybersécurité, dans un secteur en pleine expansion.C’est une affaire qui avait finalement causé peu de bruit dans les médias français, mais qui avait suscité autant l’admiration que le trouble chez les spécialistes des satcoms : en août 2020, James Pavur, jeune étudiant américain d’Oxford, avait démontré la vulnérabilité d’une quinzaine de satellites à haute orbite. À l’aide d’une antenne parabolique et d’un tuner satellite DVB-S achetés pour moins de 300 dollars en ligne, le jeune White hat1, montrait comment il était possible d’intercepter du trafic non-chiffré échangé par satellite, en temps réel.« En interceptant certains des flux de ces satellites qui transitaient des informations non-sécurisées vers un fournisseur d’accès à internet, il a réussi à récupérer des données envoyées à des internautes, mais aussi à des avions et des bateaux. Cela a rappelé l’importance de renforcer les mesures de sécurité, et la marge de progression dans le domaine de la sécurité des télécoms par satellite », explique Nicolas Lepotier, élève-ingénieur au département télécommunications de l’INSA Lyon et passionné de cybersécurité.©Nicolas LepotierLes satellites de télécommunications : kesako ?Placé dans l’espace pour répondre à des besoins de communication, un satellite de télécommunications relaie des signaux diffusés par des stations émettrices, vers des stations réceptrices. Apparue dans les années 1960, cette technologie a d’abord été développée pour transporter des communications téléphoniques et télévisuelles sur de grandes distances, pour ensuite être étendue à la télévision et à internet.>> Lire la suite de l’article sur le site :Insa lyon
QQue sont les GPU, cette technologie à laquelle on doit l’essor des jeux vidéo et de l’IA ? Derrière l’explosion de l’intelligence artificielle, il y a un composant informatique : le GPU (graphical processing unit). Né pour faire tourner les jeux vidéo des années 90, ce composant capable de traiter des millions de calculs en parallèle s’est peu à peu imposé comme le moteur discret de l’IA moderne.Nvidia, le géant américain du secteur, s’est hissé au sommet, mais voit aujourd’hui sa suprématie bousculée par la concurrence chinoise.Au départ conçu pour afficher des images à toute vitesse, le GPU s’est vite révélé redoutable pour exécuter les opérations complexes des réseaux de neurones. C’est lui qui a rendu possible l’apprentissage profond et permis aux systèmes d’IA de décoller. Face à cette demande, les GPU se spécialisent, optimisés pour des calculs toujours plus rapides, quitte à sacrifier la précision.Mais cette technologie est aussi au cœur d’une bataille mondiale : Taïwan, où sont fabriqués ces bijoux technologiques, est sous tension, et l’Europe peine à suivre. Une dépendance stratégique qui soulève des questions sur notre souveraineté numérique et le coût énergétique colossal de cette révolution invisible.Une analyse à découvrir dans un article écrit par Jonathan Rouzaud-Cornabas, Maître de conférences au Laboratoire d’informatique en image et systèmes d’information, INSA Lyon – Université de Lyon.>> Lire l’article :THE CONVERSATION
JJournée de l’Ingénierie : ré-utiliser, ré-inventer, ré-générer Le Collège d’ingénierie Lyon-Saint-Étienne, qui regroupe Centrale Lyon, l’ENTPE, l’INSA Lyon et Mines Saint-Étienne, propose, lors d’un rendez-vous annuel, de questionner et qualifier, dans une démarche prospective, le rôle et la responsabilité de l’ingénierie en matière de décarbonation de l’industrie et des usages, d’économie circulaire et de numérique responsable.Pour cette première édition, l’évènement, ouvert aux acteurs de l’ingénierie du site Lyon-Saint-Étienne, aux acteurs socio-économiques, lycéens et étudiants, grand public et médias, propose d’aborder le triptyque suivant, Ré-utiliser, Ré-inventer, Ré-générer, à l’occasion de tables rondes, conférence et ateliers de médiation scientifique.>> Au programme :9h-9h30 : séance d’ouverture9h30-11h : Table ronde « Comment les industries d’un même territoire peuvent-elles travailler ensemble pour être plus vertueuses ? »11h15-12h45 : Table ronde » Comment l’économie de la fonctionnalité et de la circularité viennent-elles bouleverser les cahiers des charges de l’ingénierie ? »12h45-14h30 : Ateliers scientifiques14h30-16h : Table ronde « Innover autrement : du low-tech au right-tech »16h15-17h45 : Table ronde « Comment l’IA s’impose-t-elle comme un outil d’aide à la transformation de l’entreprise ? »18h-18h45 : Conférence « L géo-ingénierie pour freiner le dérèglement climatique : problème ou solution ? »18h45-20h : Débat « Comment l’ingénierie permet-elle de s’adapter au dérèglement climatique ? »>> Pour en savoir plus :Journée de l’ingénierieÀÀ propos du Collège d’IngénierieCréé en novembre 2022, le Collège d’Ingénierie Lyon-Saint-Étienne est une alliance en quatre écoles d’ingénieurs : l’ENTPE, Centrale Lyon, l’INSA Lyon et Mines Saint-Étienne. Plaçant l’ingénierie au service des transitions, le Collège élabore et déploie de nouveaux dispositifs en matière de formation, de recherche, d’innovation, d’entrepreneuriat et de médiation scientifique pour répondre à trois enjeux sociétaux prioritaires : industrie et société décarbonées, économie circulaire et société numérique responsable.
OOrdinateur quantique : comprendre le grand défi des « codes correcteurs d’erreurs » et l’avancée récente de Google La perspective de fabriquer des ordinateurs quantiques suscite des investissements massifs et des politiques publiques destinées à soutenir l’innovation technologique dans de nombreux pays. Si ceux-ci finissent par être opérationnels, ils pourraient avoir de très grandes puissances de calculs et permettre de traiter certains problèmes bien plus rapidement que les meilleurs ordinateurs classiques.Néanmoins, pour faire un ordinateur quantique, il faut maîtriser plusieurs ingrédients extrêmement délicats à préparer et à manipuler, et c’est pour cela qu’un ordinateur quantique à même de faire concurrence aux ordinateurs classiques n’existe pas encore. Ceci n’empêche pas les ordinateurs quantiques de susciter de nombreux fantasmes et parfois, une médiatisation qui n’est pas forcément en phase avec le rythme des développements technologiques.Claire Goursaud travaille à l’INSA Lyon, où elle développe des algorithmes quantiques pour résoudre des problèmes rencontrés dans les grands réseaux, en particulier les réseaux d’objets connectés (IoT). Claire répond à nos questions sur les capacités actuelles des ordinateurs quantiques, et leurs limites, afin d’éclairer les avancées les plus récentes du domaine.Aujourd’hui, qui peut utiliser un ordinateur quantique ?Claire Goursaud : Un ordinateur quantique est construit autour d’un processeur (qui est la partie intelligente de l’ordinateur, c.-à-d., celle qui réalise les calculs), auquel on doit rajouter des périphériques/interfaces, une mémoire, et un circuit de refroidissement. Il existe des processeurs quantiques que les chercheurs et industriels peuvent utiliser à des fins de recherche et développement. Par exemple, IBM dispose dans ses fermes de calcul de systèmes quantiques qui sont mis à disposition des chercheurs. D-Wave proposait aussi un accès à ses processeurs jusqu’à fin 2024, mais l’a restreint à ces clients depuis le début d’année. Pour l’instant, ces processeurs sont assez petits — 133 qubits dans le cas d’IBM — ce qui limite ce que l’on peut en faire.Si le nombre de qubits est affiché en augmentation régulière (avec une multiplication par 2 tous les ans pour les processeurs d’IBM), ce n’est pas le seul critère qui permet d’évaluer l’utilité d’un processeur quantique. En effet, c’est la fiabilité des qubits actuels et des calculs qui pêche aujourd’hui.Les applications promises par les promoteurs des ordinateurs quantiques sont encore lointaines en pratique — simuler des molécules pour développer de nouveaux médicaments par exemple, améliorer la planification des vols commerciaux, ou booster encore davantage l’intelligence artificielle.Ces processeurs quantiques peuvent-ils déjà faire des calculs inaccessibles aux supercalculateurs classiques ?C.G. : Pour le moment, les calculateurs quantiques n’apportent pas encore d’avantage par rapport aux supercalculateurs classiques pour des problèmes qui ont une application concrète tels que ceux cités précédemment.En revanche, si, en théorie, tous les calculs que l’on sait écrire mathématiquement peuvent être programmés dans un ordinateur classique, la pratique est plus compliquée. En effet, certains calculs demanderaient trop de ressources pour un ordinateur classique : il nous faudrait soit des ordinateurs beaucoup plus grands que ceux dont on dispose (dont les capacités de calcul ne sont donc pas assez importantes), soit un temps que nous n’avons pas (pouvant aller jusqu’au millier ou million d’années pour certains calculs !).À cet égard, un exemple connu est celui des « clefs de chiffrement », qui sont notamment nécessaires dans le domaine des télécommunications. Ces communications sont chiffrées avec un code que l’on pourrait cracker en principe (en les testant un par un) ; mais cela prendrait tellement de temps de le faire avec un ordinateur classique que ce n’est pas rentable en pratique pour des attaquants.Comme les processeurs quantiques promettent de paralléliser massivement certains calculs, ils permettraient de résoudre des problèmes qu’on ne sait pas traiter assez rapidement avec un ordinateur classique… Ainsi, les ordinateurs quantiques pourraient permettre de décrypter ces messages actuellement inattaquables.Mais les processeurs quantiques ne seront pas utiles pour toutes les applications. En effet, pour que le calcul quantique ait réellement un intérêt, il faut des problèmes avec une structure particulière. C’est le cas, par exemple, dans l’internet des objets — le domaine de recherche auquel j’applique le calcul quantique. On a des millions d’objets connectés : des montres, des radiateurs, des voitures… Ces millions d’objets transmettent des informations sans aucune coordination préalable. La station de base reçoit un mélange des messages de chacun de ces objets, qui ne sont pas facilement séparables. La difficulté pour la station de base est de savoir qui a transmis quoi à chaque instant.Dans ce cas, l’intérêt du calcul quantique est d’attribuer une unité de calcul (un qubit) à chaque objet connecté ; de calculer tous les messages que l’on aurait pu recevoir en fonction de l’activité potentielle de chaque objet connecté, puis de comparer toutes ces possibilités au signal qu’on a réellement reçu… afin de trouver celle qui est la plus proche du message réel.Pour simuler de cette manière un petit réseau de 20 objets connectés avec un ordinateur classique, il faut faire 220 calculs (soit 1 048 576) ; alors qu’avec un ordinateur quantique, il ne faut faire « que » sqrt(220) de calculs environ (en utilisant alors 20 qubits pour représenter les 20 objets auxquels se rajoutent une ou plusieurs dizaines de qubits pour contenir le résultat des calculs intermédiaires).Ainsi, on peut réduire considérablement le temps de calcul. En pratique, le gain de temps dépendra des processeurs quantiques utilisés. Qu’est-ce qui limite les processeurs quantiques actuels ?C.G. : Ce qui limite l’utilisation de processeurs quantiques aujourd’hui est principalement leur taille et leur fiabilité.Tout d’abord, les processeurs quantiques opérationnels actuellement font entre quelques dizaines et quelques centaines de qubits (par exemple IonQ avec 35 qubits et 1121 qubits pour le processeur Condor de IBM), mais avec des fiabilités variées.Ces nombres ne sont pas suffisants pour qu’il soit réellement intéressant d’utiliser actuellement des processeurs quantiques pour autre chose que de la recherche, ou du développement de meilleurs processeurs. Par exemple, les processeurs quantiques qu’IBM met à disposition des chercheurs possèdent 133 qubits, ce qui me permet d’étudier un réseau de 20 objets connectés seulement.Mais, ce qui limite la taille des ordinateurs quantiques aujourd’hui, c’est ce qu’on appelle le « bruit ». Aujourd’hui — ou du moins jusqu’à très récemment, comme nous allons le voir — plus il y a de qubits, plus il est difficile de contrer ce bruit. Ce « bruit » détruit les propriétés quantiques des qubits, ce qui provoque des erreurs de calcul, et diminue donc l’utilité des processeurs quantiques.D’où vient le bruit dans les processeurs quantiques ?C.G. : Dans les processeurs quantiques, on manipule des qubits, qui sont en fait des particules toutes petites et très sensibles à tout ce qui se passe autour d’elles : du « bruit » qui perturbe, voire détruit, leur état quantique.Il y a plusieurs sources de bruit pour les ordinateurs quantiques aujourd’hui. Tout d’abord, la particule quantique « vieillit » lorsqu’elle interagit avec son environnement. C’est un phénomène que l’on appelle la « décohérence ».Il y a aussi du bruit thermique : quand on n’est pas au zéro absolu, la particule bouge, ce qui peut perturber son état quantique.Il peut aussi y avoir des impuretés dans les matériaux électroniques — c’est également le cas dans les processeurs classiques ; mais c’est particulièrement nuisible dans les ordinateurs quantiques.Enfin, deux autres sources de bruits sont liées au fait qu’on met plusieurs qubits les uns à côté des autres. On est face à une injonction contradictoire : il faut à la fois isoler les particules les unes des autres pour limiter le bruit, mais aussi bien sûr les laisser interagir quand c’est nécessaire pour le calcul. Quand on demande aux qubits d’interagir pour faire le calcul, on le fait avec des impulsions (des « portes ») — si ces impulsions sont mal réglées, ça introduit des perturbations qui modifient l’état quantique du qubit.Ce bruit induit des erreurs de calcul ?C.G. : Oui, et on distingue deux types d’erreurs de calcul quantique.La première s’appelle un « bit flip » : c’est quand l’état quantique de la particule passe de 0 à 1 ou l’inverse. On maîtrise très bien ces erreurs dans le domaine des télécommunications, qui est depuis toujours basé sur des 0 et des 1 (les « bits » des ordinateurs classiques). Pour réparer ces erreurs, on peut utiliser les « codes correcteurs d’erreurs » hérités des télécommunications classiques.En revanche, le second type d’erreur est plus problématique. Il s’agit de ce que l’on appelle une « erreur de signe » : on conserve le 0 (l’erreur n’est pas un bit flip) mais le signe est erroné (un signe « moins » au lieu d’un signe « plus », ou l’inverse). Les erreurs de signe sont très importantes aujourd’hui en calcul quantique, parce que les codes correcteurs historiques ne corrigent pas ces erreurs de signes… qui sont tout à fait spécifiques au monde quantique, parce qu’elles sont liées au fait que l’on décrit les états quantiques avec des nombres complexes.Pour contrer les effets du bruit qui perturbe les qubits et obtenir des processeurs quantiques utiles, les chercheurs développent aujourd’hui de nouveaux codes correcteurs d’erreurs qui prennent aussi en compte les erreurs de signe.Ces « codes correcteurs d’erreur » qui sont au cœur des recherches et des avancées actuelles ?C.G. : Aujourd’hui, une des tendances les plus porteuses pour ces nouveaux codes correcteurs d’erreurs s’appelle les « codes de surface » : le principe est de dupliquer le qubit physique (l’état de la particule), et à l’aide de liens entre tous les qubits dupliqués, de générer un « qubit logique ». Ce qubit logique est donc composé de plusieurs qubits physiques, et il est en principe dépourvu d’erreurs, ce qui permet de l’utiliser dans le calcul.Cette stratégie demande d’avoir de nombreux qubits physiques pour obtenir un seul qubit logique. Or, on a vu que plus il y a de qubits, plus il y a de problèmes de bruit. C’est pourquoi on craignait jusqu’à récemment que les problèmes ajoutés par la démultiplication des qubits physiques n’annulent les gains obtenus avec cette stratégie de code de surface.Or, en décembre 2024, Google a montré que cette stratégie marche en pratique : les chercheurs ont présenté un processeur appelé « Willow », qui contient 105 qubits physiques formant un qubit logique : c’est un code correcteur d’erreur plus grand et plus difficile à manipuler que les codes précédents, mais, au global, il est plus performant.Il faut bien réaliser que Willow ne contient qu’un seul qubit logique. Il faudrait en associer plusieurs pour pouvoir faire des calculs utiles. Dans l’exemple de mon réseau d’objets connectés, il faudrait un Willow pour chacun des objets connectés du réseau puisque les 105 qubits physiques équivalent à un seul qubit logique suffisamment résistant aux perturbations pour faire des calculs. Le nombre de qubits annoncés par les fabricants, qui sont des qubits physiques, ne sont donc pas suffisants pour évaluer les capacités d’un processeur quantique.Néanmoins, cette avancée suggère que l’on va désormais voir se développer des codes encore plus grands, pour une probabilité d’erreur encore plus petite — en d’autres termes, la stratégie des codes correcteurs de surface semble avoir de l’avenir devant elle.Autrice : Claire Goursaud, Maître de conférence sur l’internet des objets et le calcul quantique, Inria, INSA Lyon – Université de LyonCet article est republié sous licence Creative Commons.>> Lire l’article original :THE CONVERSATION
ÊÊtre un ingénieur à l’heure de l’anthropocène Être un ingénieur à l’heure de l’anthropocène, qu’est-ce que cela implique ? Le métier d’ingénieur consiste à étudier, analyser et résoudre des problèmes tout en tenant compte de l’environnement dans lequel son innovation prendra forme. Il est conscient des « préoccupations de protection de l’homme, de la vie et de l’environnement, et plus généralement du bien-être collectif ».Le débat autour de l’anthropocène porte sur le futur qui reste à construire face aux crises écologiques. Doit-on chercher à maîtriser toujours plus notre environnement ou au contraire chercher à limiter nos impacts ? Comment l’ingénieur peut-il répondre à ces problématiques ? Comment penser la technique et les innovations à l’heure actuelle ? Comment l’élève ingénieur s’empare-t-il de ces questions à travers sa formation et la recherche ?La bibliothèque de l’INSA Lyon propose un cycle d’événements permettant d’ouvrir la réflexion : exposition art & science, frise participative, fresque du renoncement, atelier débat, marche autour de la biodiversité, avec Hubert Charles, professeur à l’INSA Lyon au département biosciences, forum autour du rapport Meadows revisité par une équipe de l’Institut national de recherche en sciences et technologies du numérique – Inria Lyon – (Sophie Wahnich, Pierre-Yves Fenet, Emmanuel Prados), conclusion par Pablo Jensen, physicien au laboratoire de physique de l’ENS de Lyon… Le programme s’annonce riche !>> Pour consulter le programme : cliquez ici Du 03 au 28 février, exposition Art In la Doua.12 février – 12h-14h | Atelier Nos futurs ! Créations littéraires, récits d’anticipation18 février – 18h – 20h | Conférence Art in la Doua – Découvrez la beauté de la science et de l’art ! Et Remise du Prix du public avec Vladimir Pimonov et Fabien Vialla19 mars – 12h30-14h | Débat Fin de la viande à la cantine, fin des déplacements en avion à l’INSA : discutons-en !20 mars – 13h0 | Atelier Frise du temps participative : explorons nos passés pour choisir nos futurs, inauguration.25 mars – 18h-20h | Forum débat : Présentation du rapport Meadows : « Les limites de la croissance » qu’en est-il aujourd’hui ? Avec l’équipe STEEP de l’INRIA.31 mars – 18h-20h | Atelier Fresque du renoncement.10 avril – 15h30-18h30 | 4 600 pas vers l’anthropocène.17 avril – 13h-15h |Conclusion de la frise participative avec la participation de Pablo Jensen et le spectacle Empreintes.>> Pour plus d’information rendez-vous sur le site : BIBLIOTHÈQUE INSA DE LYON©Bibliothèque INSA
MMicroplastiques : pourquoi sont-ils partout, même dans les bouches d’égouts ? Les bouches d’égout seraient-elles gardiennes défaillantes d’une pollution purement anthropique, qui a désormais franchi les barrières de nos corps humains ? Invisibles à l’œil nu mais omniprésents, les microplastiques s’infiltrent partout, jusque dans les entrailles de nos villes. Si l’on sait le plastique très présent dans les milieux marins, jusqu’à constituer des continents, on connaît moins son voyage insidieux depuis les bouches d’égout jusqu’aux écosystèmes aquatiques, sous la forme de microparticules. Pourquoi cette pollution est-elle plus présente en milieux urbains ? Quelles en sont les principales sources ? Quels sont les facteurs qui influencent leur transport dans les eaux pluviales ? Comment arrivent-ils jusqu’au milieu naturel ?Zoé Iannuzzi, en thèse au laboratoire DEEP (1) de l’INSA Lyon et au LEHNA (2) à l’ENTPE, s’intéresse de près aux origines de cette pollution en milieu urbain. À différentes échelles du territoire, elle a observé la présence de microplastiques, jusqu’à remonter à leurs portes d’entrées favorites : les avaloirs. Une enquête pluridisciplinaire originale pour les hydrologues urbains dont les recherches se sont souvent concentrées sur l’exutoire des bassins versants et un peu moins sur les points d’entrée des polluants.L’études des microplastiques : une science récenteDans l’histoire du plastique, la prise de conscience d’une pollution systémique aux microparticules est relativement récente. Mesurant entre 5 millimètres et 1 micromètre, la présence de microplastiques est mise en évidence au début des années 1970, dans les milieux marins. Plus récemment, la découverte de gyres de plastiques dans les océans Atlantique et Pacifique confirme l’existence d’une pollution chronique de notre écosystème. Leur origine continentale ne fait plus de doute : selon l’Office Français pour la Biodiversité, 80% des pollutions des océans proviennent du milieu terrestre. Ils sont issus de la fragmentation d’objets plus grands ou produits intentionnellement pour des usages industriels ou domestiques. « Beaucoup d’études ont été réalisées sur la contribution des grands fleuves internationaux à polluer les mers. Puis, les recherches se sont étendues aux villes pour démontrer que l’émission de microplastiques est principalement liée aux activités urbaines » introduit Zoé Iannuzzi. (…) >> Rendez-vous sur le site point2bascule.fr pour :LIRE LA SUITE DE L’ARTICLE
LLe langage des partitions musicales face à l’intelligence artificielle L’Institut National des Sciences Appliquées de Lyon – INSA de Lyon – vous invite à découvrir les enjeux des métiers artistiques avec l’émergence de l’intelligence artificielle.Cet exposé présente une variété de travaux de recherche autour de représentations informatiques et d’algorithmes destinés à enrichir l’analyse et la composition musicale. La notion de langage musical sera approchée à travers des composants essentiels des partitions, incluant la structure, la texture ou encore les annotations relatives à la pratique instrumentale dans le cas spécifique des tablatures de guitare.Nous évoquerons également l’adaptation d’outils d’intelligence artificielle élaborés dans le domaine du Traitement Automatique du Langage Naturel (TALN) pour l’étude des partitions, ainsi que la tendance de ces outils à nous interroger sur l’assimilation de la musique à un type particulier de langage.Intervenant : Louis Bigo, professeur en informatique, Bordeaux INP, LaBRI, SCRIME.>> Pour plus d’information, rendez-vous sur le site : INSA Lyon
FFusée Ariane 6 : comment le comportement des turbopompes a-t-il été testé avant le grand lancement ? Elle a décollé le 9 juillet dernier, depuis le port spatial européen de Kourou, en Guyane Française : Ariane 6, très attendue tant par la communauté scientifique que le grand public, incarne un enjeu stratégique majeur pour l’Europe dans la conquête spatiale. Développé depuis près d’une décennie, le lanceur est le fruit de recherches pointues et de collaborations scientifiques d’envergure, auxquelles des membres du LaMCoS1 ont pris part.Grâce à un logiciel de modélisation de dynamique de machines tournantes embarquées, complété par un excitateur multiaxial – dispositif expérimental unique dans la recherche académique nationale, le comportement dynamique de turbopompes du moteur d’Ariane 6 a été analysé sous excitations similaires aux conditions de lancement de la fusée. Cette collaboration étroite le CNES, ArianeGroup et le LaMCoS contribue à garantir la performance et la robustesse des turbopompes du lanceur. Du travail d’orfèvre, à l’échelle d’un vaisseauAu cœur de la version 62 du lanceur européen se trouve deux éléments cruciaux à la bonne réussite du décollage : les turbopompes. Situées de chaque côté de l’organe central de l’appareil, le moteur Vulcain, les turbopompes sont chargées de pressuriser les ergols, ses carburants et comburants composés d’hydrogène et d’oxygène liquides, avant leur injection dans la chambre de combustion. La turbopompe remplit ainsi deux fonctions : d’une part, elle assure l’alimentation en ergols, en garantissant une combustion optimale dans le réacteur. D’autre part, elle maintient la pression dans les réservoirs pour assurer la continuité du flux, même lors des différentes phases du vol. Une gestion, qui se doit d’être fine, lorsque près de 150 tonnes d’ergols se consument en quelques minutes pour propulser la fusée vers l’espace. Le rôle de la turbopompe est essentiel, car la poussée dépend directement de la pression des ergols injectés : le comportement, notamment dynamique de chaque machine doit être vérifié. (…)>> Rendez-vous sur le site insa-lyon.fr pour :LIRE LA SUITE DE L’ARTICLE