AArkangel : des perceptions sensorielles manipulées pour vivre dans un monde aseptisé | Cortex Mag S’immerger dans un monde où la technologie permet de censurer, chez nos enfants, toute expérience possiblement traumatisante. C’est la proposition faite par Arkangel, l’un des épisodes de la quatrième saison de la série Black Mirror.Des œuvres de science-fiction qui interrogent les neurosciences : épisode #1Parce qu’elle est traumatisée d’avoir perdu de vue sa fille de trois ans brièvement dans un parc, Marie, mère célibataire surprotectrice, décide de recourir à Arkangel, un système révolutionnaire de surveillance pour enfants. Arkangel, qu’on peut traduire en français par « Archange » (qui veille sur) repose sur l’activation d’une puce électronique insérée dans le cerveau de la jeune Sarah et qui permet de suivre, en temps réel, la vie de l’enfant, grâce à l’utilisation d’une tablette numérique. On peut y lire ses constantes vitales, voir ce qu’elle voit et même filtrer les images, les sons et les émotions que la petite fille perçoit comme un stress important. C’est quand son taux de cortisol – une hormone caractéristique du stress qui est renseigné dans le film par la puce – atteint un niveau trop élevé, que la censure audio-visuelle se déclenche automatiquement, avec pour bénéfice supposé la protection de l’enfant.[…]Un article rédigé par et Pierre Bonnet, doctorant dans l’équipe Computation, Cognition et Neurophysiologie – COPHY, avec l’expertise de Mathilde Bonnefond, Chargée de recherche INSERM au sein de l’équipe COPHY. >> Article à lire en intégralité sur :CORTEX MAG
LL’intelligence artificielle : nouvelle alliée pour sauver nos ressources en eau ? | #3 – Dossier Pop’Sciences : Les actualités de l’eau L’intelligence artificielle (IA) est une alliée discrète mais essentielle dans notre quotidien. Bien que son rôle dans la robotique et la santé soit bien établi, son implication dans la gestion de l’eau l’est beaucoup moins. Pourtant, des réseaux de distribution d’eau aux satellites en passant par le suivi des polluants, l’IA révolutionne notre compréhension et notre capacité à préserver cette ressource. Quels progrès permet-elle ? Sommes-nous prêts à l’intégrer pleinement à notre gestion de l’eau ? Jusqu’où devons-nous lui faire confiance ? Plongeons ensemble au cœur du débat.Un article rédigé par Sonagnon Donald Boko, Romain Dopierala et Louis Estienne, étudiants du master 2 IWS de Lyon et la classe de terminale BFI du lycée Jean Perrin (Lyon) de Mr Jonatan Christiansen (la liste des élèves est mentionnée en fin d’article) – Avril 2025.L’eau est une ressource vitale, mais elle fait face à de nombreux défis liés au changement global, notamment l’urbanisation et le changement climatique, qui entraînent des épisodes de pollution, de sécheresse et d’inondation. Pour y répondre, l’intelligence artificielle (IA) propose des solutions innovantes et ouvre de nouvelles perspectives.En analysant des données fournies ou collectées par des capteurs, l’IA traite l’information, résout des problèmes et détermine les actions les plus adaptées. Ses applications sont variées : l’IA prédictive permet d’anticiper des événements météorologiques ; l’IA embarquée, intégrée dans des objets connectés autonomes, facilite la surveillance des milieux aquatiques et de la biodiversité à distance ; enfin, l’IA générative, désormais bien connue avec des outils comme DALL·E ou ChatGPT, créée du contenu textuel ou audiovisuel.L’intelligence artificielle suscite des perceptions diverses, influencées par les expériences personnelles et professionnelles de chacun. Si elle transforme déjà notre quotidien, quel est son impact concret sur la gestion de l’eau et de l’environnement ?Observer et comprendre l’eau depuis le cielGrâce aux satellites comme Landsat ou Sentinel-2, il est désormais possible d’observer l’environnement à grande échelle avec une précision inédite en enregistrant diverses images essentielles, c’est la télédétection. Cependant, le traitement d’une telle quantité de données requiert des ressources considérables. C’est ici que l’IA intervient, par exemple, en filtrant les images dès leur acquisition (elle élimine celles où le couvert nuageux est trop important).Pour le suivi des sédiments fluviaux, l’IA permet de détecter leurs différentes tailles, une tâche laborieuse et ponctuelle sur le terrain. Or, la taille des sédiments est un paramètre clé pour comprendre la dynamique fluviale. Lorsque l’apport naturel en sédiments – qu’il s’agisse de sable, d’argile ou de galets – diminue, le cours d’eau compense en érodant les berges et son lit. Cette érosion fragilise les rives et perturbe l’équilibre entre l’eau de la rivière et la nappe souterraine. Ce phénomène a des répercussions majeures, non seulement sur la préservation des écosystèmes aquatiques, mais aussi sur les usages humains, notamment l’approvisionnement en eau et l’hydro-électricité.Granulométrie réalisée par Galet ©Styx4DIci, l’IA Galet développée par Styx4D permet d’établir la granulométrie d’un banc de galets avec un gradient de couleur (a – sur l’image ci-dessus) : rouge pour les plus grossiers, bleu pour les plus petits. En bas à droite (b – sur l’image ci-dessus), on retrouve un zoom sur le fonctionnement de l’IA, entraînée pour recomposer les galets partiellement visibles, pour avoir une plus juste mesure.Autre exemple, en agriculture, l’IA analyse des cartes d’humidité des sols et de structure des sols – qui reflète la capacité à retenir l’eau – pour recommander aux agriculteurs le meilleur moment pour arroser et la bonne quantité d’eau à utiliser. Cela assure une meilleure croissance des cultures, tout en préservant les ressources en eau.Lutter contre les fuites d’eauEn France, 20 % de l’eau potable transportée dans le réseau de distribution est perdue. Ce qui représente des millions de litres gaspillés chaque année et engendre un coût économique et environnemental considérable. Ce problème, souvent méconnu, nécessite des solutions efficaces pour limiter ces pertes. Grâce à l’IA intégrée aux capteurs connectés des canalisations, les fuites sont désormais détectées en temps réel avec une grande précision. Ces algorithmes permettent d’intervenir rapidement avant qu’elles ne s’aggravent, réduisant ainsi les coûts de maintenance et anticipant même certaines défaillances avant qu’elles ne surviennent.Prédire et prévenir les pollutions aquatiquesL’IA joue également un rôle clé dans la surveillance des réseaux d’eaux usées, en aidant à détecter les fuites qui peuvent être sources de pollution. Par exemple, des caméras connectées à des systèmes d’IA sont capables d’analyser l’état des canalisations et d’identifier d’éventuelles défaillances, permettant ainsi d’intervenir avant qu’une fuite ne se produise. L’entreprise suisse Pallon développe notamment des technologies innovantes dans ce domaine.Évaluation de l’état d’une canalisation d’eau usée ©e.g. Pallon Ltd., Zurich, Switzerland.Plus largement, la qualité de l’eau est un élément fondamental des écosystèmes aquatiques, et sa pollution constitue une menace majeure pour l’environnement et, par extension, pour la santé humaine. L’IA est essentielle dans l’analyse prédictive des événements futurs et la modélisation de scénarios. Grâce à ses capacités de calcul avancées, elle permet d’identifier le scénario le plus pertinent en fonction des critères définis.En croisant les données des capteurs de qualité de l’eau et des images satellites, l’IA identifie l’origine des pollutions (industrielles, agricoles ou accidentelles). Elle permet également de suivre et modéliser la dispersion des polluants, afin d’anticiper leur évolution et d’alerter les autorités avant que la situation ne devienne critique.De même, le réchauffement des cours d’eau met en péril la biodiversité aquatique et exacerbe les effets des pollutions organiques (engrais, rejets des stations d’épuration…). De nombreux organismes, comme les poissons, sont extrêmement sensibles aux variations de température. Là encore, l’IA joue un rôle clé en améliorant la modélisation de la température des cours d’eau selon différents scénarios. Ce qui aide à la mise en place de mesures de protection, telles que la revégétalisation des berges pour limiter le réchauffement de l’eau.Générer pour mieux gérerAprès avoir exploré l’impact de l’IA embarquée et prédictive sur les sciences de l’eau, penchons-nous à présent sur l’IA générative à travers deux exemples concrets. Pour faire évoluer Galet, vu précédemment, l’amélioration des modèles d’IA a nécessité un entraînement supervisé approfondi. Les images réelles et annotées disponibles ne suffisaient pas : elles étaient trop peu nombreuses, manquaient de diversité et ne permettaient pas une bonne compréhension des surfaces partiellement visibles. Cette limitation a conduit à la décision de générer des images encore plus réalistes que celles utilisées initialement. Grâce à l’utilisation de Stable Diffusion, des images photoréalistes ont été créées, avec des dimensions des galets connues, permettant ainsi d’entraîner le nouveau modèle de manière optimale. Les jeux de données générés par Styx4D sont présentés ci-dessous.Données d’entraînement générées (à droite) par Stable Diffusion. Les masques colorés (à gauche) sont les contraintes que l’image générée a dû suivre, permettant ainsi de constituer le jeu d’entrainement ©Styx4D.Un autre domaine où l’IA générative trouve des applications intéressantes est l’aide à la décision. Un exemple concret de cette application est celui des étudiants du Master Integrated Watershed Sciences de H2O’Lyon, qui ont utilisé Fooocus AI pour générer des images à partir d’une image de bonne qualité. L’IA, lorsqu’elle reçoit un « prompt » — instructions données à l’IA pour générer du contenu. — modifie l’image en fonction de ces instructions.L’implémentation des solutions fondées sur la nature nécessite souvent des supports visuels pour faciliter la communication et la projection de ces aménagements entre les différents intervenants — urbanistes, gestionnaires des eaux pluviales ou citoyens. Par exemple, pour la place Bellecour, les suggestions, étaient l’intégration d’arbres en pot ou en pleine terre, de pelouses, mais aussi l’optimisation de la circulation piétonne au sein de structures végétales (jardins à la française) et l’intégration d’espaces polyvalents tels que des aires de loisirs ou des terrains de sport.Images générées de la place Bellecour à Lyon selon différents aménagements. ©H2O’LyonCes visuels jouent également un rôle essentiel dans la sensibilisation des citoyens et des responsables politiques aux effets du changement climatique et à son impact sur des espaces urbains emblématiques. Enfin, deux scénarios de catastrophes naturelles ont été générés : une simulation de sécheresse sur le lac du parc de la Tête d’Or et une autre d’inondation dans le quartier de l’Hôtel-Dieu.Génération d’un scénario de sécheresse sur la lac de la Tête d’Or, Lyon. ©H2O’LyonGénération d’un scénario d’inondation à l’Hôtel-Dieu, Lyon. ©H2O’LyonVers une gestion intelligente et responsable de l’eauL’intelligence artificielle présente un fort potentiel, mais soulève également des défis majeurs, qui ne sont pas uniquement technologiques, mais aussi sociétaux et environnementaux. L’IA, fondée sur des algorithmes, hérite des biais des données utilisées pour son apprentissage. Si ces données sont incomplètes ou biaisées, les résultats peuvent être faussés. Un autre défi majeur est l’effet « boîte noire » : certains modèles d’IA manquent de transparence, rendant leurs décisions difficiles à expliquer, ce qui freine leur adoption en toute confiance. Ces limites alimentent des préoccupations sociétales et éthiques, notamment en matière de transparence et de confiance dans ces technologies.À cela s’ajoute un enjeu environnemental, particulièrement pertinent dans le domaine des sciences de l’eau : par exemple, l’entraînement de ChatGPT-3 a consommé 1 287 MWh d’électricité, générant 552 tonnes de CO₂, soit l’équivalent de plus de 300 allers-retours Paris-New York !Malgré ces défis, l’IA peut être une alliée stratégique, à condition d’être encadrée par des principes solides. Elle ne doit pas remplacer l’intelligence humaine, mais la compléter. Sa gouvernance et son développement nécessitent une supervision rigoureuse et des outils de contrôle adaptés. Pour cela, la communauté scientifique a identifié cinq piliers fondamentaux : la justice, pour garantir une représentation équitable des minorités ; l’explicabilité, afin de rendre ses décisions compréhensibles ; la robustesse, pour éviter erreurs et dérives ; la transparence, afin d’assurer un usage responsable ; et la protection des données, pour préserver leur confidentialité.Quoi qu’il en soit, les sciences de l’eau n’ont pas fini d’évoluer !Pour aller plus loinRegards croisés sur l’IA pour les sciences de l’eau : de la théorie à la pratique, École Universitaire de Recherche H2O’Lyon, rediffusion du webinaire de la Semaine de l’eau de l’École Universitaire de Recherche H2O’Lyon, 21 mars 2025.Regards croisés sur l’IA pour les sciences de l’eau : paroles d’étudiants, École Universitaire de Recherche H2O’Lyon, rediffusion du webinaire de la Semaine de l’eau de l’École Universitaire de Recherche H2O’Lyon, 18 mars 2025.Ont participé au travail d’écriture de cet article, en collaboration avec Sonagnon Donald Boko, Romain Dopierala et Louis Estienne, étudiants du master 2 IWS (par ordre alphabétique) : Al Barazi Omar, Ayadi Aya, Bolitho-Cummins Frédérick, Deglon Thomas, Desire-Piombo Pia, Hainaut Niagara , Mezrar Ilyan, Nedelec-Spencer Gaëlle Anne, Keissy Léna, Petit Melina and Thiery Yaelle.
RRisques industriels majeurs et environnements | Livre ©Presses Universitaires du SeptentrionLes systèmes technologiques à risques industriels majeurs constituent une menace pour leur environnement social et naturel via les catastrophes dont ils peuvent être la cause, augmentées à présent par le réchauffement climatique et les événements extrêmes associés.Créateurs de richesse, d’innovation, d’emplois, au cœur d’enjeux de réindustrialisation, économiques voire géopolitiques, les systèmes technologiques à risques industriels majeurs s’inscrivent dans un environnement social et naturel qu’ils modifient et menacent ; un environnement qui les menace désormais en retour.Ainsi, le réchauffement climatique et les événements extrêmes associés sont les faces les plus visibles de ces nouveaux risques, quand l’acceptabilité sociale des implantations industrielles se pose aussi de manière renouvelée. Territoire, crise, travail, lois, normes, organisations, entreprises et État sont aux premiers plans des interrogations abordées de manière plurielle dans cet ouvrage (géographie, histoire, sociologie, ergonomie, droit, science politique).En s’appuyant sur les connaissances acquises, dont il propose un bilan interdisciplinaire, ces analyses ouvrent de nouvelles voies d’investigation et d’action.>> Pour plus d’information rendez-vous sur le site de l’éditeur : Presses Universitaires du Septentrion
QQue sont les GPU, cette technologie à laquelle on doit l’essor des jeux vidéo et de l’IA ? Derrière l’explosion de l’intelligence artificielle, il y a un composant informatique : le GPU (graphical processing unit). Né pour faire tourner les jeux vidéo des années 90, ce composant capable de traiter des millions de calculs en parallèle s’est peu à peu imposé comme le moteur discret de l’IA moderne.Nvidia, le géant américain du secteur, s’est hissé au sommet, mais voit aujourd’hui sa suprématie bousculée par la concurrence chinoise.Au départ conçu pour afficher des images à toute vitesse, le GPU s’est vite révélé redoutable pour exécuter les opérations complexes des réseaux de neurones. C’est lui qui a rendu possible l’apprentissage profond et permis aux systèmes d’IA de décoller. Face à cette demande, les GPU se spécialisent, optimisés pour des calculs toujours plus rapides, quitte à sacrifier la précision.Mais cette technologie est aussi au cœur d’une bataille mondiale : Taïwan, où sont fabriqués ces bijoux technologiques, est sous tension, et l’Europe peine à suivre. Une dépendance stratégique qui soulève des questions sur notre souveraineté numérique et le coût énergétique colossal de cette révolution invisible.Une analyse à découvrir dans un article écrit par Jonathan Rouzaud-Cornabas, Maître de conférences au Laboratoire d’informatique en image et systèmes d’information, INSA Lyon – Université de Lyon.>> Lire l’article :THE CONVERSATION
CComment déjouer les hackers ? | Micro-Conférence « Les Échappées inattendues » À l’ère des avancées technologiques rapides, les menaces pesant sur la sécurité des systèmes informatiques deviennent un enjeu majeur. Assurer l’intégrité et la confidentialité des données est un défi que nous ne pouvons pas sous-estimer. Découvrez, à travers des exemples concrets, comment les scientifiques réinventent la collecte d’informations personnelles et innovent pour renforcer nos dispositifs de sécurité.Les 15, 16 et 17 novembre 2024, Les Échappées inattendues du CNRS ont investi le Collège Truffaut, lieu de vie créatif dédié à la bande dessinée en plein cœur des Pentes de la Croix-Rousse à Lyon. À ceux qui affirment ne pas raffoler de science, le CNRS a relevé le défi avec ce festival scientifique teinté de BD en proposant l’exploration, la découverte, l’émerveillement, la rencontre et le partage ! Cette micro-conférence a été enregistrée le 17 novembre 2024.Intervenants :00:00 « Données personnelles : tant à perdre » par Antoine Boutet, enseignant-chercheur en informatique à l’INSA de Lyon et rattaché au Centre d’Innovation en Télécommunications et Intégration de services (CITI, INSA Lyon | INRIA) 08:52 « Vos appareils : nouvelle cible des hackers » par Lilian Bossuet, enseignant-chercheur en électronique à l’Université Jean Monnet en sécurité informatique et rattaché au Laboratoire Hubert Curien (LabHC, CNRS CNRS | Université Jean Monnet | Institut d’optique graduate school) 19:00 « Clé de sécurité lumineuse » par Paul Jimenez, doctorant en photonique à l’Institut des nanotechnologies de Lyon (INL, CNRS | CPE Lyon, École Centrale de Lyon | INSA Lyon | Université Claude Bernard Lyon 1) 26:40 « La menace quantique » par Brice Colombier, enseignant-chercheur en électronique à l’Université Jean Monnet et rattaché au Laboratoire Hubert Curien (LabHC, CNRS CNRS | Université Jean Monnet | Institut d’optique graduate school)>> Pour en savoir plus :Les Échappéecnrss inattendues
JJournée de l’Ingénierie : ré-utiliser, ré-inventer, ré-générer Le Collège d’ingénierie Lyon-Saint-Étienne, qui regroupe Centrale Lyon, l’ENTPE, l’INSA Lyon et Mines Saint-Étienne, propose, lors d’un rendez-vous annuel, de questionner et qualifier, dans une démarche prospective, le rôle et la responsabilité de l’ingénierie en matière de décarbonation de l’industrie et des usages, d’économie circulaire et de numérique responsable.Pour cette première édition, l’évènement, ouvert aux acteurs de l’ingénierie du site Lyon-Saint-Étienne, aux acteurs socio-économiques, lycéens et étudiants, grand public et médias, propose d’aborder le triptyque suivant, Ré-utiliser, Ré-inventer, Ré-générer, à l’occasion de tables rondes, conférence et ateliers de médiation scientifique.>> Au programme :9h-9h30 : séance d’ouverture9h30-11h : Table ronde « Comment les industries d’un même territoire peuvent-elles travailler ensemble pour être plus vertueuses ? »11h15-12h45 : Table ronde » Comment l’économie de la fonctionnalité et de la circularité viennent-elles bouleverser les cahiers des charges de l’ingénierie ? »12h45-14h30 : Ateliers scientifiques14h30-16h : Table ronde « Innover autrement : du low-tech au right-tech »16h15-17h45 : Table ronde « Comment l’IA s’impose-t-elle comme un outil d’aide à la transformation de l’entreprise ? »18h-18h45 : Conférence « L géo-ingénierie pour freiner le dérèglement climatique : problème ou solution ? »18h45-20h : Débat « Comment l’ingénierie permet-elle de s’adapter au dérèglement climatique ? »>> Pour en savoir plus :Journée de l’ingénierieÀÀ propos du Collège d’IngénierieCréé en novembre 2022, le Collège d’Ingénierie Lyon-Saint-Étienne est une alliance en quatre écoles d’ingénieurs : l’ENTPE, Centrale Lyon, l’INSA Lyon et Mines Saint-Étienne. Plaçant l’ingénierie au service des transitions, le Collège élabore et déploie de nouveaux dispositifs en matière de formation, de recherche, d’innovation, d’entrepreneuriat et de médiation scientifique pour répondre à trois enjeux sociétaux prioritaires : industrie et société décarbonées, économie circulaire et société numérique responsable.
VVirginie Dumas, médaillée du CNRS : la tribologie au service des biomatériaux | Visages de la Science Virginie Dumas, ingénieure de recherche à l’École Centrale de Lyon et membre du Laboratoire de tribologie et dynamique des systèmes, a reçu en 2024 la médaille de cristal du CNRS. Elle est une spécialiste de la bio-fonctionnalisation des surfaces et de la caractérisation mécanique et biologique de tissus vivants et de biomatériaux. L’enjeu : optimiser les interactions entre les matériaux implantables, comme les implants dentaires, et les tissus biologiques afin de limiter les risques de complication. elle met ainsi au point des méthodologies, des procédés et des méthodes de caractérisation pour développer des connaissances précises sur le lien entre les propriétés biologiques et les topographies de surfaces structurées par laser femtoseconde.À l’occasion de cette distinction, elle revient sur son parcours et ses activités.>> Découvrez les médailles du CNRS 2024 sur le site : CNRS
OOrdinateur quantique : comprendre le grand défi des « codes correcteurs d’erreurs » et l’avancée récente de Google La perspective de fabriquer des ordinateurs quantiques suscite des investissements massifs et des politiques publiques destinées à soutenir l’innovation technologique dans de nombreux pays. Si ceux-ci finissent par être opérationnels, ils pourraient avoir de très grandes puissances de calculs et permettre de traiter certains problèmes bien plus rapidement que les meilleurs ordinateurs classiques.Néanmoins, pour faire un ordinateur quantique, il faut maîtriser plusieurs ingrédients extrêmement délicats à préparer et à manipuler, et c’est pour cela qu’un ordinateur quantique à même de faire concurrence aux ordinateurs classiques n’existe pas encore. Ceci n’empêche pas les ordinateurs quantiques de susciter de nombreux fantasmes et parfois, une médiatisation qui n’est pas forcément en phase avec le rythme des développements technologiques.Claire Goursaud travaille à l’INSA Lyon, où elle développe des algorithmes quantiques pour résoudre des problèmes rencontrés dans les grands réseaux, en particulier les réseaux d’objets connectés (IoT). Claire répond à nos questions sur les capacités actuelles des ordinateurs quantiques, et leurs limites, afin d’éclairer les avancées les plus récentes du domaine.Aujourd’hui, qui peut utiliser un ordinateur quantique ?Claire Goursaud : Un ordinateur quantique est construit autour d’un processeur (qui est la partie intelligente de l’ordinateur, c.-à-d., celle qui réalise les calculs), auquel on doit rajouter des périphériques/interfaces, une mémoire, et un circuit de refroidissement. Il existe des processeurs quantiques que les chercheurs et industriels peuvent utiliser à des fins de recherche et développement. Par exemple, IBM dispose dans ses fermes de calcul de systèmes quantiques qui sont mis à disposition des chercheurs. D-Wave proposait aussi un accès à ses processeurs jusqu’à fin 2024, mais l’a restreint à ces clients depuis le début d’année. Pour l’instant, ces processeurs sont assez petits — 133 qubits dans le cas d’IBM — ce qui limite ce que l’on peut en faire.Si le nombre de qubits est affiché en augmentation régulière (avec une multiplication par 2 tous les ans pour les processeurs d’IBM), ce n’est pas le seul critère qui permet d’évaluer l’utilité d’un processeur quantique. En effet, c’est la fiabilité des qubits actuels et des calculs qui pêche aujourd’hui.Les applications promises par les promoteurs des ordinateurs quantiques sont encore lointaines en pratique — simuler des molécules pour développer de nouveaux médicaments par exemple, améliorer la planification des vols commerciaux, ou booster encore davantage l’intelligence artificielle.Ces processeurs quantiques peuvent-ils déjà faire des calculs inaccessibles aux supercalculateurs classiques ?C.G. : Pour le moment, les calculateurs quantiques n’apportent pas encore d’avantage par rapport aux supercalculateurs classiques pour des problèmes qui ont une application concrète tels que ceux cités précédemment.En revanche, si, en théorie, tous les calculs que l’on sait écrire mathématiquement peuvent être programmés dans un ordinateur classique, la pratique est plus compliquée. En effet, certains calculs demanderaient trop de ressources pour un ordinateur classique : il nous faudrait soit des ordinateurs beaucoup plus grands que ceux dont on dispose (dont les capacités de calcul ne sont donc pas assez importantes), soit un temps que nous n’avons pas (pouvant aller jusqu’au millier ou million d’années pour certains calculs !).À cet égard, un exemple connu est celui des « clefs de chiffrement », qui sont notamment nécessaires dans le domaine des télécommunications. Ces communications sont chiffrées avec un code que l’on pourrait cracker en principe (en les testant un par un) ; mais cela prendrait tellement de temps de le faire avec un ordinateur classique que ce n’est pas rentable en pratique pour des attaquants.Comme les processeurs quantiques promettent de paralléliser massivement certains calculs, ils permettraient de résoudre des problèmes qu’on ne sait pas traiter assez rapidement avec un ordinateur classique… Ainsi, les ordinateurs quantiques pourraient permettre de décrypter ces messages actuellement inattaquables.Mais les processeurs quantiques ne seront pas utiles pour toutes les applications. En effet, pour que le calcul quantique ait réellement un intérêt, il faut des problèmes avec une structure particulière. C’est le cas, par exemple, dans l’internet des objets — le domaine de recherche auquel j’applique le calcul quantique. On a des millions d’objets connectés : des montres, des radiateurs, des voitures… Ces millions d’objets transmettent des informations sans aucune coordination préalable. La station de base reçoit un mélange des messages de chacun de ces objets, qui ne sont pas facilement séparables. La difficulté pour la station de base est de savoir qui a transmis quoi à chaque instant.Dans ce cas, l’intérêt du calcul quantique est d’attribuer une unité de calcul (un qubit) à chaque objet connecté ; de calculer tous les messages que l’on aurait pu recevoir en fonction de l’activité potentielle de chaque objet connecté, puis de comparer toutes ces possibilités au signal qu’on a réellement reçu… afin de trouver celle qui est la plus proche du message réel.Pour simuler de cette manière un petit réseau de 20 objets connectés avec un ordinateur classique, il faut faire 220 calculs (soit 1 048 576) ; alors qu’avec un ordinateur quantique, il ne faut faire « que » sqrt(220) de calculs environ (en utilisant alors 20 qubits pour représenter les 20 objets auxquels se rajoutent une ou plusieurs dizaines de qubits pour contenir le résultat des calculs intermédiaires).Ainsi, on peut réduire considérablement le temps de calcul. En pratique, le gain de temps dépendra des processeurs quantiques utilisés. Qu’est-ce qui limite les processeurs quantiques actuels ?C.G. : Ce qui limite l’utilisation de processeurs quantiques aujourd’hui est principalement leur taille et leur fiabilité.Tout d’abord, les processeurs quantiques opérationnels actuellement font entre quelques dizaines et quelques centaines de qubits (par exemple IonQ avec 35 qubits et 1121 qubits pour le processeur Condor de IBM), mais avec des fiabilités variées.Ces nombres ne sont pas suffisants pour qu’il soit réellement intéressant d’utiliser actuellement des processeurs quantiques pour autre chose que de la recherche, ou du développement de meilleurs processeurs. Par exemple, les processeurs quantiques qu’IBM met à disposition des chercheurs possèdent 133 qubits, ce qui me permet d’étudier un réseau de 20 objets connectés seulement.Mais, ce qui limite la taille des ordinateurs quantiques aujourd’hui, c’est ce qu’on appelle le « bruit ». Aujourd’hui — ou du moins jusqu’à très récemment, comme nous allons le voir — plus il y a de qubits, plus il est difficile de contrer ce bruit. Ce « bruit » détruit les propriétés quantiques des qubits, ce qui provoque des erreurs de calcul, et diminue donc l’utilité des processeurs quantiques.D’où vient le bruit dans les processeurs quantiques ?C.G. : Dans les processeurs quantiques, on manipule des qubits, qui sont en fait des particules toutes petites et très sensibles à tout ce qui se passe autour d’elles : du « bruit » qui perturbe, voire détruit, leur état quantique.Il y a plusieurs sources de bruit pour les ordinateurs quantiques aujourd’hui. Tout d’abord, la particule quantique « vieillit » lorsqu’elle interagit avec son environnement. C’est un phénomène que l’on appelle la « décohérence ».Il y a aussi du bruit thermique : quand on n’est pas au zéro absolu, la particule bouge, ce qui peut perturber son état quantique.Il peut aussi y avoir des impuretés dans les matériaux électroniques — c’est également le cas dans les processeurs classiques ; mais c’est particulièrement nuisible dans les ordinateurs quantiques.Enfin, deux autres sources de bruits sont liées au fait qu’on met plusieurs qubits les uns à côté des autres. On est face à une injonction contradictoire : il faut à la fois isoler les particules les unes des autres pour limiter le bruit, mais aussi bien sûr les laisser interagir quand c’est nécessaire pour le calcul. Quand on demande aux qubits d’interagir pour faire le calcul, on le fait avec des impulsions (des « portes ») — si ces impulsions sont mal réglées, ça introduit des perturbations qui modifient l’état quantique du qubit.Ce bruit induit des erreurs de calcul ?C.G. : Oui, et on distingue deux types d’erreurs de calcul quantique.La première s’appelle un « bit flip » : c’est quand l’état quantique de la particule passe de 0 à 1 ou l’inverse. On maîtrise très bien ces erreurs dans le domaine des télécommunications, qui est depuis toujours basé sur des 0 et des 1 (les « bits » des ordinateurs classiques). Pour réparer ces erreurs, on peut utiliser les « codes correcteurs d’erreurs » hérités des télécommunications classiques.En revanche, le second type d’erreur est plus problématique. Il s’agit de ce que l’on appelle une « erreur de signe » : on conserve le 0 (l’erreur n’est pas un bit flip) mais le signe est erroné (un signe « moins » au lieu d’un signe « plus », ou l’inverse). Les erreurs de signe sont très importantes aujourd’hui en calcul quantique, parce que les codes correcteurs historiques ne corrigent pas ces erreurs de signes… qui sont tout à fait spécifiques au monde quantique, parce qu’elles sont liées au fait que l’on décrit les états quantiques avec des nombres complexes.Pour contrer les effets du bruit qui perturbe les qubits et obtenir des processeurs quantiques utiles, les chercheurs développent aujourd’hui de nouveaux codes correcteurs d’erreurs qui prennent aussi en compte les erreurs de signe.Ces « codes correcteurs d’erreur » qui sont au cœur des recherches et des avancées actuelles ?C.G. : Aujourd’hui, une des tendances les plus porteuses pour ces nouveaux codes correcteurs d’erreurs s’appelle les « codes de surface » : le principe est de dupliquer le qubit physique (l’état de la particule), et à l’aide de liens entre tous les qubits dupliqués, de générer un « qubit logique ». Ce qubit logique est donc composé de plusieurs qubits physiques, et il est en principe dépourvu d’erreurs, ce qui permet de l’utiliser dans le calcul.Cette stratégie demande d’avoir de nombreux qubits physiques pour obtenir un seul qubit logique. Or, on a vu que plus il y a de qubits, plus il y a de problèmes de bruit. C’est pourquoi on craignait jusqu’à récemment que les problèmes ajoutés par la démultiplication des qubits physiques n’annulent les gains obtenus avec cette stratégie de code de surface.Or, en décembre 2024, Google a montré que cette stratégie marche en pratique : les chercheurs ont présenté un processeur appelé « Willow », qui contient 105 qubits physiques formant un qubit logique : c’est un code correcteur d’erreur plus grand et plus difficile à manipuler que les codes précédents, mais, au global, il est plus performant.Il faut bien réaliser que Willow ne contient qu’un seul qubit logique. Il faudrait en associer plusieurs pour pouvoir faire des calculs utiles. Dans l’exemple de mon réseau d’objets connectés, il faudrait un Willow pour chacun des objets connectés du réseau puisque les 105 qubits physiques équivalent à un seul qubit logique suffisamment résistant aux perturbations pour faire des calculs. Le nombre de qubits annoncés par les fabricants, qui sont des qubits physiques, ne sont donc pas suffisants pour évaluer les capacités d’un processeur quantique.Néanmoins, cette avancée suggère que l’on va désormais voir se développer des codes encore plus grands, pour une probabilité d’erreur encore plus petite — en d’autres termes, la stratégie des codes correcteurs de surface semble avoir de l’avenir devant elle.Autrice : Claire Goursaud, Maître de conférence sur l’internet des objets et le calcul quantique, Inria, INSA Lyon – Université de LyonCet article est republié sous licence Creative Commons.>> Lire l’article original :THE CONVERSATION
LL’éthique face à l’IA et aux robots autonomes Quels sont les problèmes éthiques qui surgissent de plus en plus aujourd’hui, dans les domaines de la vie civile, mais aussi dans le contexte de la sécurité et de la défense, du fait de la délégation de pouvoirs spécifiquement humains à des systèmes d’intelligence artificielle ou à des robots doués d’autonomie?Durant cette rencontre, les intervenants cherchent à montrer que notre fascination pour l’efficacité de ces systèmes technologiques peut induire une série de « cécités » relatives à des caractéristiques anthropologiques fondamentales, menant à des problèmes juridiques et éthiques majeurs.Dominique Lambert, professeur émérite de l’Université de Namur, était invité par Cairn.info, à l’occasion de la sortie du n° 6 de la Revue CONFLUENCE : Sciences & Humanités sur « L’humain et la donnée », pour participer à leur format « Rencontre ».Menée avec Jean-Marie Durand, cette rencontre a permis d’étudier la place que l’IA prend dans nos vies, autour de ce qu’est l’éthique de l’IA et la place de l’humain.La vidéo de cette rencontre est réservée aux membres de nos institutions clientes et aux abonné(e)s Cairn Pro.>> Pour plus d’information, rendez-vous sur le site : Cairn.info
RRegards croisés #5 « Au bout de nos rêves » An 2423, l’eau a recouvert la majeure partie de la surface de la Terre. La Fabrique de l’Innovation vous invite à vous poser des questions lors de cette rencontre.Dans un monde marqué par l’instabilité et bouleversé par des changements radicaux, comment pouvons-nous imaginer un futur désirable ? Comment, à travers la prospective, l’utopie ou encore le design fiction, pouvons-nous nourrir des visions audacieuses du futur, à la fois inspirantes et innovantes ? Quelles méthodes, outils, approches permettent de dessiner ces futurs souhaitables ? Pour quels résultats ?Deux intervenants apporteront leurs regards sur ce sujet.Intervenants :Sandrine Castan, Directrice Pôle Conseil (Prospective, Stratégie et Management de l’Innovation) à Spark Lab ;Cyprien Tourte, Designer diplômé de l’École supérieure d’Art et Design de Saint-Étienne.Animé par : Camille Guyon, Fabrique de l’InnovationEn option : visite du FabLab de la Fabrique de l’Innovation.>> Pour plus d’information, rendez-vous sur leur site :Fabrique de l’Innovation