SSatellites de télécommunications et cybersécurité Dans l’espace gravitent une multitude d’objets. Parmi eux, des satellites de télécommunications, placés en orbite autour de la terre, jouent le rôle de messagers, fournissant entre autres, services Internet, téléphonie, télévision et assistance à la sécurité civile et à la Défense. Parmi les menaces de cybersécurité guettant les satcoms, l’interception de données est reine. En 2020, un doctorant d’Oxford démontrait lors de la Black Hat Conf aux États-Unis qu’il était parvenu à intercepter les données de dix-huit satellites à l’aide d’un équipement bon marché. Cette expérience soulignait déjà la nécessité d’un renforcement urgent de mesures de cybersécurité, dans un secteur en pleine expansion.C’est une affaire qui avait finalement causé peu de bruit dans les médias français, mais qui avait suscité autant l’admiration que le trouble chez les spécialistes des satcoms : en août 2020, James Pavur, jeune étudiant américain d’Oxford, avait démontré la vulnérabilité d’une quinzaine de satellites à haute orbite. À l’aide d’une antenne parabolique et d’un tuner satellite DVB-S achetés pour moins de 300 dollars en ligne, le jeune White hat1, montrait comment il était possible d’intercepter du trafic non-chiffré échangé par satellite, en temps réel.« En interceptant certains des flux de ces satellites qui transitaient des informations non-sécurisées vers un fournisseur d’accès à internet, il a réussi à récupérer des données envoyées à des internautes, mais aussi à des avions et des bateaux. Cela a rappelé l’importance de renforcer les mesures de sécurité, et la marge de progression dans le domaine de la sécurité des télécoms par satellite », explique Nicolas Lepotier, élève-ingénieur au département télécommunications de l’INSA Lyon et passionné de cybersécurité.©Nicolas LepotierLes satellites de télécommunications : kesako ?Placé dans l’espace pour répondre à des besoins de communication, un satellite de télécommunications relaie des signaux diffusés par des stations émettrices, vers des stations réceptrices. Apparue dans les années 1960, cette technologie a d’abord été développée pour transporter des communications téléphoniques et télévisuelles sur de grandes distances, pour ensuite être étendue à la télévision et à internet.>> Lire la suite de l’article sur le site :Insa lyon
QQue sont les GPU, cette technologie à laquelle on doit l’essor des jeux vidéo et de l’IA ? Derrière l’explosion de l’intelligence artificielle, il y a un composant informatique : le GPU (graphical processing unit). Né pour faire tourner les jeux vidéo des années 90, ce composant capable de traiter des millions de calculs en parallèle s’est peu à peu imposé comme le moteur discret de l’IA moderne.Nvidia, le géant américain du secteur, s’est hissé au sommet, mais voit aujourd’hui sa suprématie bousculée par la concurrence chinoise.Au départ conçu pour afficher des images à toute vitesse, le GPU s’est vite révélé redoutable pour exécuter les opérations complexes des réseaux de neurones. C’est lui qui a rendu possible l’apprentissage profond et permis aux systèmes d’IA de décoller. Face à cette demande, les GPU se spécialisent, optimisés pour des calculs toujours plus rapides, quitte à sacrifier la précision.Mais cette technologie est aussi au cœur d’une bataille mondiale : Taïwan, où sont fabriqués ces bijoux technologiques, est sous tension, et l’Europe peine à suivre. Une dépendance stratégique qui soulève des questions sur notre souveraineté numérique et le coût énergétique colossal de cette révolution invisible.Une analyse à découvrir dans un article écrit par Jonathan Rouzaud-Cornabas, Maître de conférences au Laboratoire d’informatique en image et systèmes d’information, INSA Lyon – Université de Lyon.>> Lire l’article :THE CONVERSATION
JJournée de l’Ingénierie : ré-utiliser, ré-inventer, ré-générer Le Collège d’ingénierie Lyon-Saint-Étienne, qui regroupe Centrale Lyon, l’ENTPE, l’INSA Lyon et Mines Saint-Étienne, propose, lors d’un rendez-vous annuel, de questionner et qualifier, dans une démarche prospective, le rôle et la responsabilité de l’ingénierie en matière de décarbonation de l’industrie et des usages, d’économie circulaire et de numérique responsable.Pour cette première édition, l’évènement, ouvert aux acteurs de l’ingénierie du site Lyon-Saint-Étienne, aux acteurs socio-économiques, lycéens et étudiants, grand public et médias, propose d’aborder le triptyque suivant, Ré-utiliser, Ré-inventer, Ré-générer, à l’occasion de tables rondes, conférence et ateliers de médiation scientifique.>> Au programme :9h-9h30 : séance d’ouverture9h30-11h : Table ronde « Comment les industries d’un même territoire peuvent-elles travailler ensemble pour être plus vertueuses ? »11h15-12h45 : Table ronde » Comment l’économie de la fonctionnalité et de la circularité viennent-elles bouleverser les cahiers des charges de l’ingénierie ? »12h45-14h30 : Ateliers scientifiques14h30-16h : Table ronde « Innover autrement : du low-tech au right-tech »16h15-17h45 : Table ronde « Comment l’IA s’impose-t-elle comme un outil d’aide à la transformation de l’entreprise ? »18h-18h45 : Conférence « L géo-ingénierie pour freiner le dérèglement climatique : problème ou solution ? »18h45-20h : Débat « Comment l’ingénierie permet-elle de s’adapter au dérèglement climatique ? »>> Pour en savoir plus :Journée de l’ingénierieÀÀ propos du Collège d’IngénierieCréé en novembre 2022, le Collège d’Ingénierie Lyon-Saint-Étienne est une alliance en quatre écoles d’ingénieurs : l’ENTPE, Centrale Lyon, l’INSA Lyon et Mines Saint-Étienne. Plaçant l’ingénierie au service des transitions, le Collège élabore et déploie de nouveaux dispositifs en matière de formation, de recherche, d’innovation, d’entrepreneuriat et de médiation scientifique pour répondre à trois enjeux sociétaux prioritaires : industrie et société décarbonées, économie circulaire et société numérique responsable.
OOrdinateur quantique : comprendre le grand défi des « codes correcteurs d’erreurs » et l’avancée récente de Google La perspective de fabriquer des ordinateurs quantiques suscite des investissements massifs et des politiques publiques destinées à soutenir l’innovation technologique dans de nombreux pays. Si ceux-ci finissent par être opérationnels, ils pourraient avoir de très grandes puissances de calculs et permettre de traiter certains problèmes bien plus rapidement que les meilleurs ordinateurs classiques.Néanmoins, pour faire un ordinateur quantique, il faut maîtriser plusieurs ingrédients extrêmement délicats à préparer et à manipuler, et c’est pour cela qu’un ordinateur quantique à même de faire concurrence aux ordinateurs classiques n’existe pas encore. Ceci n’empêche pas les ordinateurs quantiques de susciter de nombreux fantasmes et parfois, une médiatisation qui n’est pas forcément en phase avec le rythme des développements technologiques.Claire Goursaud travaille à l’INSA Lyon, où elle développe des algorithmes quantiques pour résoudre des problèmes rencontrés dans les grands réseaux, en particulier les réseaux d’objets connectés (IoT). Claire répond à nos questions sur les capacités actuelles des ordinateurs quantiques, et leurs limites, afin d’éclairer les avancées les plus récentes du domaine.Aujourd’hui, qui peut utiliser un ordinateur quantique ?Claire Goursaud : Un ordinateur quantique est construit autour d’un processeur (qui est la partie intelligente de l’ordinateur, c.-à-d., celle qui réalise les calculs), auquel on doit rajouter des périphériques/interfaces, une mémoire, et un circuit de refroidissement. Il existe des processeurs quantiques que les chercheurs et industriels peuvent utiliser à des fins de recherche et développement. Par exemple, IBM dispose dans ses fermes de calcul de systèmes quantiques qui sont mis à disposition des chercheurs. D-Wave proposait aussi un accès à ses processeurs jusqu’à fin 2024, mais l’a restreint à ces clients depuis le début d’année. Pour l’instant, ces processeurs sont assez petits — 133 qubits dans le cas d’IBM — ce qui limite ce que l’on peut en faire.Si le nombre de qubits est affiché en augmentation régulière (avec une multiplication par 2 tous les ans pour les processeurs d’IBM), ce n’est pas le seul critère qui permet d’évaluer l’utilité d’un processeur quantique. En effet, c’est la fiabilité des qubits actuels et des calculs qui pêche aujourd’hui.Les applications promises par les promoteurs des ordinateurs quantiques sont encore lointaines en pratique — simuler des molécules pour développer de nouveaux médicaments par exemple, améliorer la planification des vols commerciaux, ou booster encore davantage l’intelligence artificielle.Ces processeurs quantiques peuvent-ils déjà faire des calculs inaccessibles aux supercalculateurs classiques ?C.G. : Pour le moment, les calculateurs quantiques n’apportent pas encore d’avantage par rapport aux supercalculateurs classiques pour des problèmes qui ont une application concrète tels que ceux cités précédemment.En revanche, si, en théorie, tous les calculs que l’on sait écrire mathématiquement peuvent être programmés dans un ordinateur classique, la pratique est plus compliquée. En effet, certains calculs demanderaient trop de ressources pour un ordinateur classique : il nous faudrait soit des ordinateurs beaucoup plus grands que ceux dont on dispose (dont les capacités de calcul ne sont donc pas assez importantes), soit un temps que nous n’avons pas (pouvant aller jusqu’au millier ou million d’années pour certains calculs !).À cet égard, un exemple connu est celui des « clefs de chiffrement », qui sont notamment nécessaires dans le domaine des télécommunications. Ces communications sont chiffrées avec un code que l’on pourrait cracker en principe (en les testant un par un) ; mais cela prendrait tellement de temps de le faire avec un ordinateur classique que ce n’est pas rentable en pratique pour des attaquants.Comme les processeurs quantiques promettent de paralléliser massivement certains calculs, ils permettraient de résoudre des problèmes qu’on ne sait pas traiter assez rapidement avec un ordinateur classique… Ainsi, les ordinateurs quantiques pourraient permettre de décrypter ces messages actuellement inattaquables.Mais les processeurs quantiques ne seront pas utiles pour toutes les applications. En effet, pour que le calcul quantique ait réellement un intérêt, il faut des problèmes avec une structure particulière. C’est le cas, par exemple, dans l’internet des objets — le domaine de recherche auquel j’applique le calcul quantique. On a des millions d’objets connectés : des montres, des radiateurs, des voitures… Ces millions d’objets transmettent des informations sans aucune coordination préalable. La station de base reçoit un mélange des messages de chacun de ces objets, qui ne sont pas facilement séparables. La difficulté pour la station de base est de savoir qui a transmis quoi à chaque instant.Dans ce cas, l’intérêt du calcul quantique est d’attribuer une unité de calcul (un qubit) à chaque objet connecté ; de calculer tous les messages que l’on aurait pu recevoir en fonction de l’activité potentielle de chaque objet connecté, puis de comparer toutes ces possibilités au signal qu’on a réellement reçu… afin de trouver celle qui est la plus proche du message réel.Pour simuler de cette manière un petit réseau de 20 objets connectés avec un ordinateur classique, il faut faire 220 calculs (soit 1 048 576) ; alors qu’avec un ordinateur quantique, il ne faut faire « que » sqrt(220) de calculs environ (en utilisant alors 20 qubits pour représenter les 20 objets auxquels se rajoutent une ou plusieurs dizaines de qubits pour contenir le résultat des calculs intermédiaires).Ainsi, on peut réduire considérablement le temps de calcul. En pratique, le gain de temps dépendra des processeurs quantiques utilisés. Qu’est-ce qui limite les processeurs quantiques actuels ?C.G. : Ce qui limite l’utilisation de processeurs quantiques aujourd’hui est principalement leur taille et leur fiabilité.Tout d’abord, les processeurs quantiques opérationnels actuellement font entre quelques dizaines et quelques centaines de qubits (par exemple IonQ avec 35 qubits et 1121 qubits pour le processeur Condor de IBM), mais avec des fiabilités variées.Ces nombres ne sont pas suffisants pour qu’il soit réellement intéressant d’utiliser actuellement des processeurs quantiques pour autre chose que de la recherche, ou du développement de meilleurs processeurs. Par exemple, les processeurs quantiques qu’IBM met à disposition des chercheurs possèdent 133 qubits, ce qui me permet d’étudier un réseau de 20 objets connectés seulement.Mais, ce qui limite la taille des ordinateurs quantiques aujourd’hui, c’est ce qu’on appelle le « bruit ». Aujourd’hui — ou du moins jusqu’à très récemment, comme nous allons le voir — plus il y a de qubits, plus il est difficile de contrer ce bruit. Ce « bruit » détruit les propriétés quantiques des qubits, ce qui provoque des erreurs de calcul, et diminue donc l’utilité des processeurs quantiques.D’où vient le bruit dans les processeurs quantiques ?C.G. : Dans les processeurs quantiques, on manipule des qubits, qui sont en fait des particules toutes petites et très sensibles à tout ce qui se passe autour d’elles : du « bruit » qui perturbe, voire détruit, leur état quantique.Il y a plusieurs sources de bruit pour les ordinateurs quantiques aujourd’hui. Tout d’abord, la particule quantique « vieillit » lorsqu’elle interagit avec son environnement. C’est un phénomène que l’on appelle la « décohérence ».Il y a aussi du bruit thermique : quand on n’est pas au zéro absolu, la particule bouge, ce qui peut perturber son état quantique.Il peut aussi y avoir des impuretés dans les matériaux électroniques — c’est également le cas dans les processeurs classiques ; mais c’est particulièrement nuisible dans les ordinateurs quantiques.Enfin, deux autres sources de bruits sont liées au fait qu’on met plusieurs qubits les uns à côté des autres. On est face à une injonction contradictoire : il faut à la fois isoler les particules les unes des autres pour limiter le bruit, mais aussi bien sûr les laisser interagir quand c’est nécessaire pour le calcul. Quand on demande aux qubits d’interagir pour faire le calcul, on le fait avec des impulsions (des « portes ») — si ces impulsions sont mal réglées, ça introduit des perturbations qui modifient l’état quantique du qubit.Ce bruit induit des erreurs de calcul ?C.G. : Oui, et on distingue deux types d’erreurs de calcul quantique.La première s’appelle un « bit flip » : c’est quand l’état quantique de la particule passe de 0 à 1 ou l’inverse. On maîtrise très bien ces erreurs dans le domaine des télécommunications, qui est depuis toujours basé sur des 0 et des 1 (les « bits » des ordinateurs classiques). Pour réparer ces erreurs, on peut utiliser les « codes correcteurs d’erreurs » hérités des télécommunications classiques.En revanche, le second type d’erreur est plus problématique. Il s’agit de ce que l’on appelle une « erreur de signe » : on conserve le 0 (l’erreur n’est pas un bit flip) mais le signe est erroné (un signe « moins » au lieu d’un signe « plus », ou l’inverse). Les erreurs de signe sont très importantes aujourd’hui en calcul quantique, parce que les codes correcteurs historiques ne corrigent pas ces erreurs de signes… qui sont tout à fait spécifiques au monde quantique, parce qu’elles sont liées au fait que l’on décrit les états quantiques avec des nombres complexes.Pour contrer les effets du bruit qui perturbe les qubits et obtenir des processeurs quantiques utiles, les chercheurs développent aujourd’hui de nouveaux codes correcteurs d’erreurs qui prennent aussi en compte les erreurs de signe.Ces « codes correcteurs d’erreur » qui sont au cœur des recherches et des avancées actuelles ?C.G. : Aujourd’hui, une des tendances les plus porteuses pour ces nouveaux codes correcteurs d’erreurs s’appelle les « codes de surface » : le principe est de dupliquer le qubit physique (l’état de la particule), et à l’aide de liens entre tous les qubits dupliqués, de générer un « qubit logique ». Ce qubit logique est donc composé de plusieurs qubits physiques, et il est en principe dépourvu d’erreurs, ce qui permet de l’utiliser dans le calcul.Cette stratégie demande d’avoir de nombreux qubits physiques pour obtenir un seul qubit logique. Or, on a vu que plus il y a de qubits, plus il y a de problèmes de bruit. C’est pourquoi on craignait jusqu’à récemment que les problèmes ajoutés par la démultiplication des qubits physiques n’annulent les gains obtenus avec cette stratégie de code de surface.Or, en décembre 2024, Google a montré que cette stratégie marche en pratique : les chercheurs ont présenté un processeur appelé « Willow », qui contient 105 qubits physiques formant un qubit logique : c’est un code correcteur d’erreur plus grand et plus difficile à manipuler que les codes précédents, mais, au global, il est plus performant.Il faut bien réaliser que Willow ne contient qu’un seul qubit logique. Il faudrait en associer plusieurs pour pouvoir faire des calculs utiles. Dans l’exemple de mon réseau d’objets connectés, il faudrait un Willow pour chacun des objets connectés du réseau puisque les 105 qubits physiques équivalent à un seul qubit logique suffisamment résistant aux perturbations pour faire des calculs. Le nombre de qubits annoncés par les fabricants, qui sont des qubits physiques, ne sont donc pas suffisants pour évaluer les capacités d’un processeur quantique.Néanmoins, cette avancée suggère que l’on va désormais voir se développer des codes encore plus grands, pour une probabilité d’erreur encore plus petite — en d’autres termes, la stratégie des codes correcteurs de surface semble avoir de l’avenir devant elle.Autrice : Claire Goursaud, Maître de conférence sur l’internet des objets et le calcul quantique, Inria, INSA Lyon – Université de LyonCet article est republié sous licence Creative Commons.>> Lire l’article original :THE CONVERSATION
ÊÊtre un ingénieur à l’heure de l’anthropocène Être un ingénieur à l’heure de l’anthropocène, qu’est-ce que cela implique ? Le métier d’ingénieur consiste à étudier, analyser et résoudre des problèmes tout en tenant compte de l’environnement dans lequel son innovation prendra forme. Il est conscient des « préoccupations de protection de l’homme, de la vie et de l’environnement, et plus généralement du bien-être collectif ».Le débat autour de l’anthropocène porte sur le futur qui reste à construire face aux crises écologiques. Doit-on chercher à maîtriser toujours plus notre environnement ou au contraire chercher à limiter nos impacts ? Comment l’ingénieur peut-il répondre à ces problématiques ? Comment penser la technique et les innovations à l’heure actuelle ? Comment l’élève ingénieur s’empare-t-il de ces questions à travers sa formation et la recherche ?La bibliothèque de l’INSA Lyon propose un cycle d’événements permettant d’ouvrir la réflexion : exposition art & science, frise participative, fresque du renoncement, atelier débat, marche autour de la biodiversité, avec Hubert Charles, professeur à l’INSA Lyon au département biosciences, forum autour du rapport Meadows revisité par une équipe de l’Institut national de recherche en sciences et technologies du numérique – Inria Lyon – (Sophie Wahnich, Pierre-Yves Fenet, Emmanuel Prados), conclusion par Pablo Jensen, physicien au laboratoire de physique de l’ENS de Lyon… Le programme s’annonce riche !>> Pour consulter le programme : cliquez ici Du 03 au 28 février, exposition Art In la Doua.12 février – 12h-14h | Atelier Nos futurs ! Créations littéraires, récits d’anticipation18 février – 18h – 20h | Conférence Art in la Doua – Découvrez la beauté de la science et de l’art ! Et Remise du Prix du public avec Vladimir Pimonov et Fabien Vialla19 mars – 12h30-14h | Débat Fin de la viande à la cantine, fin des déplacements en avion à l’INSA : discutons-en !20 mars – 13h0 | Atelier Frise du temps participative : explorons nos passés pour choisir nos futurs, inauguration.25 mars – 18h-20h | Forum débat : Présentation du rapport Meadows : « Les limites de la croissance » qu’en est-il aujourd’hui ? Avec l’équipe STEEP de l’INRIA.31 mars – 18h-20h | Atelier Fresque du renoncement.10 avril – 15h30-18h30 | 4 600 pas vers l’anthropocène.17 avril – 13h-15h |Conclusion de la frise participative avec la participation de Pablo Jensen et le spectacle Empreintes.>> Pour plus d’information rendez-vous sur le site : BIBLIOTHÈQUE INSA DE LYON©Bibliothèque INSA
MMicroplastiques : pourquoi sont-ils partout, même dans les bouches d’égouts ? Les bouches d’égout seraient-elles gardiennes défaillantes d’une pollution purement anthropique, qui a désormais franchi les barrières de nos corps humains ? Invisibles à l’œil nu mais omniprésents, les microplastiques s’infiltrent partout, jusque dans les entrailles de nos villes. Si l’on sait le plastique très présent dans les milieux marins, jusqu’à constituer des continents, on connaît moins son voyage insidieux depuis les bouches d’égout jusqu’aux écosystèmes aquatiques, sous la forme de microparticules. Pourquoi cette pollution est-elle plus présente en milieux urbains ? Quelles en sont les principales sources ? Quels sont les facteurs qui influencent leur transport dans les eaux pluviales ? Comment arrivent-ils jusqu’au milieu naturel ?Zoé Iannuzzi, en thèse au laboratoire DEEP (1) de l’INSA Lyon et au LEHNA (2) à l’ENTPE, s’intéresse de près aux origines de cette pollution en milieu urbain. À différentes échelles du territoire, elle a observé la présence de microplastiques, jusqu’à remonter à leurs portes d’entrées favorites : les avaloirs. Une enquête pluridisciplinaire originale pour les hydrologues urbains dont les recherches se sont souvent concentrées sur l’exutoire des bassins versants et un peu moins sur les points d’entrée des polluants.L’études des microplastiques : une science récenteDans l’histoire du plastique, la prise de conscience d’une pollution systémique aux microparticules est relativement récente. Mesurant entre 5 millimètres et 1 micromètre, la présence de microplastiques est mise en évidence au début des années 1970, dans les milieux marins. Plus récemment, la découverte de gyres de plastiques dans les océans Atlantique et Pacifique confirme l’existence d’une pollution chronique de notre écosystème. Leur origine continentale ne fait plus de doute : selon l’Office Français pour la Biodiversité, 80% des pollutions des océans proviennent du milieu terrestre. Ils sont issus de la fragmentation d’objets plus grands ou produits intentionnellement pour des usages industriels ou domestiques. « Beaucoup d’études ont été réalisées sur la contribution des grands fleuves internationaux à polluer les mers. Puis, les recherches se sont étendues aux villes pour démontrer que l’émission de microplastiques est principalement liée aux activités urbaines » introduit Zoé Iannuzzi. (…) >> Rendez-vous sur le site point2bascule.fr pour :LIRE LA SUITE DE L’ARTICLE
LLe langage des partitions musicales face à l’intelligence artificielle L’Institut National des Sciences Appliquées de Lyon – INSA de Lyon – vous invite à découvrir les enjeux des métiers artistiques avec l’émergence de l’intelligence artificielle.Cet exposé présente une variété de travaux de recherche autour de représentations informatiques et d’algorithmes destinés à enrichir l’analyse et la composition musicale. La notion de langage musical sera approchée à travers des composants essentiels des partitions, incluant la structure, la texture ou encore les annotations relatives à la pratique instrumentale dans le cas spécifique des tablatures de guitare.Nous évoquerons également l’adaptation d’outils d’intelligence artificielle élaborés dans le domaine du Traitement Automatique du Langage Naturel (TALN) pour l’étude des partitions, ainsi que la tendance de ces outils à nous interroger sur l’assimilation de la musique à un type particulier de langage.Intervenant : Louis Bigo, professeur en informatique, Bordeaux INP, LaBRI, SCRIME.>> Pour plus d’information, rendez-vous sur le site : INSA Lyon
FFusée Ariane 6 : comment le comportement des turbopompes a-t-il été testé avant le grand lancement ? Elle a décollé le 9 juillet dernier, depuis le port spatial européen de Kourou, en Guyane Française : Ariane 6, très attendue tant par la communauté scientifique que le grand public, incarne un enjeu stratégique majeur pour l’Europe dans la conquête spatiale. Développé depuis près d’une décennie, le lanceur est le fruit de recherches pointues et de collaborations scientifiques d’envergure, auxquelles des membres du LaMCoS1 ont pris part.Grâce à un logiciel de modélisation de dynamique de machines tournantes embarquées, complété par un excitateur multiaxial – dispositif expérimental unique dans la recherche académique nationale, le comportement dynamique de turbopompes du moteur d’Ariane 6 a été analysé sous excitations similaires aux conditions de lancement de la fusée. Cette collaboration étroite le CNES, ArianeGroup et le LaMCoS contribue à garantir la performance et la robustesse des turbopompes du lanceur. Du travail d’orfèvre, à l’échelle d’un vaisseauAu cœur de la version 62 du lanceur européen se trouve deux éléments cruciaux à la bonne réussite du décollage : les turbopompes. Situées de chaque côté de l’organe central de l’appareil, le moteur Vulcain, les turbopompes sont chargées de pressuriser les ergols, ses carburants et comburants composés d’hydrogène et d’oxygène liquides, avant leur injection dans la chambre de combustion. La turbopompe remplit ainsi deux fonctions : d’une part, elle assure l’alimentation en ergols, en garantissant une combustion optimale dans le réacteur. D’autre part, elle maintient la pression dans les réservoirs pour assurer la continuité du flux, même lors des différentes phases du vol. Une gestion, qui se doit d’être fine, lorsque près de 150 tonnes d’ergols se consument en quelques minutes pour propulser la fusée vers l’espace. Le rôle de la turbopompe est essentiel, car la poussée dépend directement de la pression des ergols injectés : le comportement, notamment dynamique de chaque machine doit être vérifié. (…)>> Rendez-vous sur le site insa-lyon.fr pour :LIRE LA SUITE DE L’ARTICLE
AArt in la Doua L’art de la science : révéler la beauté cachée du savoirRejoignez-nous pour la première édition de Art in la Doua, une exposition scientifique artistique qui se tiendra sur le campus de la Doua !Découvrez 33 œuvres issues de 14 laboratoires différents sélectionnées parmi les contributions de doctorants, postdoctorants, ingénieurs et chercheurs des laboratoires de l’Université Claude Bernard Lyon 1 et de l’INSA Lyon. Ces créations, issues de travaux de recherche, mêlent science et art pour révéler la beauté cachée des phénomènes scientifiques.Venez explorer la fusion unique entre art et science, et laissez-vous inspirer par les liens entre créativité et recherche.©INSA > Vernissage :Date : 3 février 2025Lieu : Bibliothèque Marie Curie, INSA Lyon >> Pour plus d’information, rendez-vous sur le site : Art in la doua
MMétaux critiques : des bactéries pour recycler les batteries usagées ? Pour réussir sa transition vers une mobilité décarbonée, la France dépend encore de l’importation de matériaux critiques, comme le lithium et le cobalt. Face à cette dépendance qui sous-tend de nombreux enjeux socio-économiques et écologiques, la recherche d’alternatives pour sécuriser ces ressources se fait urgente.Parmi l’une des solutions viables : le recyclage des objets riches en métaux grâce à un procédé de biolixiviation. À partir de bactéries, cette technique consiste à faire « digérer » des gisements secondaires, des déchets riches en métaux, par des organismes vivants, pour séparer les composés. Si la création d’une filière dédiée pourrait mettre plusieurs décennies à voir le jour, des initiatives sont en cours de développement dans les laboratoires. C’est le cas au laboratoire DEEP(1) de l’INSA Lyon, où Bruno Sialve, enseignant-chercheur et Gabrielle Deslandes, doctorante, explorent la voie biologique pour récolter les métaux des batteries en fin de vie de véhicules électriques.De la nécessité d’une solution durable pour le recyclage des batteriesL’électrification est l’un des leviers qui participent à la transition d’une mobilité décarbonée. Seulement, pour faire rouler des véhicules à faible émission, il faut produire des batteries. Et pour produire des batteries, il faut des éléments particuliers tels que le lithium, le cobalt ou le nickel. Derrière ces éléments se cachent des impacts environnementaux et des enjeux sociaux très lourds : pollution des sols et des eaux, violations des droits de l’homme dans certains pays contrôlant la majeure partie de ces matières et risques géopolitiques majeurs. Dans ce contexte, recycler ces métaux devient donc une priorité pour limiter cette dépendance, et réduire les coûts écologiques de leur extraction. « Par ailleurs, une directive européenne va inciter d’une part à récupérer le lithium dans les batteries usagées (50 % d’ici à la fin de 2027 et 80 % d’ici à la fin de 2031) et d’autre part à inciter les fabricants à utiliser au moins 6% de lithium recyclé dans les nouvelles batteries. Dès 2031, ce règlement s’appliquera aussi à d’autres métaux stratégiques, avec des taux requis de 16 % pour le cobalt, 85 % pour le plomb et 6 % pour le nickel(2), une raison de plus pour accélérer notre capacité à recycler ces objets », met en contexte Bruno Sialve.Différents processus de recyclage déjà à l’épreuvePlusieurs méthodes de recyclage sont déjà connues et éprouvées. D’abord, la pyrométallurgie qui consiste à fondre les résidus de batteries pour séparer les métaux par fusion. (…)>> Rendez-vous sur le site point2bascule.fr pour :LIRE LA SUITE DE L’ARTICLE