LLe langage des partitions musicales face à l’intelligence artificielle L’Institut National des Sciences Appliquées de Lyon – INSA de Lyon – vous invite à découvrir les enjeux des métiers artistiques avec l’émergence de l’intelligence artificielle.Cet exposé présente une variété de travaux de recherche autour de représentations informatiques et d’algorithmes destinés à enrichir l’analyse et la composition musicale. La notion de langage musical sera approchée à travers des composants essentiels des partitions, incluant la structure, la texture ou encore les annotations relatives à la pratique instrumentale dans le cas spécifique des tablatures de guitare.Nous évoquerons également l’adaptation d’outils d’intelligence artificielle élaborés dans le domaine du Traitement Automatique du Langage Naturel (TALN) pour l’étude des partitions, ainsi que la tendance de ces outils à nous interroger sur l’assimilation de la musique à un type particulier de langage.Intervenant : Louis Bigo, professeur en informatique, Bordeaux INP, LaBRI, SCRIME.>> Pour plus d’information, rendez-vous sur le site : INSA Lyon
FFusée Ariane 6 : comment le comportement des turbopompes a-t-il été testé avant le grand lancement ? Elle a décollé le 9 juillet dernier, depuis le port spatial européen de Kourou, en Guyane Française : Ariane 6, très attendue tant par la communauté scientifique que le grand public, incarne un enjeu stratégique majeur pour l’Europe dans la conquête spatiale. Développé depuis près d’une décennie, le lanceur est le fruit de recherches pointues et de collaborations scientifiques d’envergure, auxquelles des membres du LaMCoS1 ont pris part.Grâce à un logiciel de modélisation de dynamique de machines tournantes embarquées, complété par un excitateur multiaxial – dispositif expérimental unique dans la recherche académique nationale, le comportement dynamique de turbopompes du moteur d’Ariane 6 a été analysé sous excitations similaires aux conditions de lancement de la fusée. Cette collaboration étroite le CNES, ArianeGroup et le LaMCoS contribue à garantir la performance et la robustesse des turbopompes du lanceur. Du travail d’orfèvre, à l’échelle d’un vaisseauAu cœur de la version 62 du lanceur européen se trouve deux éléments cruciaux à la bonne réussite du décollage : les turbopompes. Situées de chaque côté de l’organe central de l’appareil, le moteur Vulcain, les turbopompes sont chargées de pressuriser les ergols, ses carburants et comburants composés d’hydrogène et d’oxygène liquides, avant leur injection dans la chambre de combustion. La turbopompe remplit ainsi deux fonctions : d’une part, elle assure l’alimentation en ergols, en garantissant une combustion optimale dans le réacteur. D’autre part, elle maintient la pression dans les réservoirs pour assurer la continuité du flux, même lors des différentes phases du vol. Une gestion, qui se doit d’être fine, lorsque près de 150 tonnes d’ergols se consument en quelques minutes pour propulser la fusée vers l’espace. Le rôle de la turbopompe est essentiel, car la poussée dépend directement de la pression des ergols injectés : le comportement, notamment dynamique de chaque machine doit être vérifié. (…)>> Rendez-vous sur le site insa-lyon.fr pour :LIRE LA SUITE DE L’ARTICLE
AArt in la Doua L’art de la science : révéler la beauté cachée du savoirRejoignez-nous pour la première édition de Art in la Doua, une exposition scientifique artistique qui se tiendra sur le campus de la Doua !Découvrez 33 œuvres issues de 14 laboratoires différents sélectionnées parmi les contributions de doctorants, postdoctorants, ingénieurs et chercheurs des laboratoires de l’Université Claude Bernard Lyon 1 et de l’INSA Lyon. Ces créations, issues de travaux de recherche, mêlent science et art pour révéler la beauté cachée des phénomènes scientifiques.Venez explorer la fusion unique entre art et science, et laissez-vous inspirer par les liens entre créativité et recherche.©INSA > Vernissage :Date : 3 février 2025Lieu : Bibliothèque Marie Curie, INSA Lyon >> Pour plus d’information, rendez-vous sur le site : Art in la doua
MMétaux critiques : des bactéries pour recycler les batteries usagées ? Pour réussir sa transition vers une mobilité décarbonée, la France dépend encore de l’importation de matériaux critiques, comme le lithium et le cobalt. Face à cette dépendance qui sous-tend de nombreux enjeux socio-économiques et écologiques, la recherche d’alternatives pour sécuriser ces ressources se fait urgente.Parmi l’une des solutions viables : le recyclage des objets riches en métaux grâce à un procédé de biolixiviation. À partir de bactéries, cette technique consiste à faire « digérer » des gisements secondaires, des déchets riches en métaux, par des organismes vivants, pour séparer les composés. Si la création d’une filière dédiée pourrait mettre plusieurs décennies à voir le jour, des initiatives sont en cours de développement dans les laboratoires. C’est le cas au laboratoire DEEP(1) de l’INSA Lyon, où Bruno Sialve, enseignant-chercheur et Gabrielle Deslandes, doctorante, explorent la voie biologique pour récolter les métaux des batteries en fin de vie de véhicules électriques.De la nécessité d’une solution durable pour le recyclage des batteriesL’électrification est l’un des leviers qui participent à la transition d’une mobilité décarbonée. Seulement, pour faire rouler des véhicules à faible émission, il faut produire des batteries. Et pour produire des batteries, il faut des éléments particuliers tels que le lithium, le cobalt ou le nickel. Derrière ces éléments se cachent des impacts environnementaux et des enjeux sociaux très lourds : pollution des sols et des eaux, violations des droits de l’homme dans certains pays contrôlant la majeure partie de ces matières et risques géopolitiques majeurs. Dans ce contexte, recycler ces métaux devient donc une priorité pour limiter cette dépendance, et réduire les coûts écologiques de leur extraction. « Par ailleurs, une directive européenne va inciter d’une part à récupérer le lithium dans les batteries usagées (50 % d’ici à la fin de 2027 et 80 % d’ici à la fin de 2031) et d’autre part à inciter les fabricants à utiliser au moins 6% de lithium recyclé dans les nouvelles batteries. Dès 2031, ce règlement s’appliquera aussi à d’autres métaux stratégiques, avec des taux requis de 16 % pour le cobalt, 85 % pour le plomb et 6 % pour le nickel(2), une raison de plus pour accélérer notre capacité à recycler ces objets », met en contexte Bruno Sialve.Différents processus de recyclage déjà à l’épreuvePlusieurs méthodes de recyclage sont déjà connues et éprouvées. D’abord, la pyrométallurgie qui consiste à fondre les résidus de batteries pour séparer les métaux par fusion. (…)>> Rendez-vous sur le site point2bascule.fr pour :LIRE LA SUITE DE L’ARTICLE
PPollution de l’air : ces freinages qui nous étouffent Ce n’est pas un brouillard comme les autres. Derrière ses apparences de terme original, celui que l’on surnomme « smog » n’a rien de positif, bien au contraire. Inodore, il trotte au-dessus de nos têtes tel un cocktail dangereux, un mélange toxique de gaz et de particules fines en suspension. Un fléau de santé publique qui touche régulièrement les mégalopoles européennes. Dans le collimateur de l’Organisation Mondiale de la Santé (OMS), ces particules qui tuent prématurément plusieurs millions de personnes chaque année dans le monde. À la source de ces polluants : l’industrie, les transports ou encore le chauffage, au bois notamment.Avec la mise en place de nouvelles lois portées sur ces secteurs, la qualité de l’air en Europe s’est progressivement améliorée ces dernières années. Concernant le secteur des transports, un nouveau type de pollution, encore peu étudiée, préoccupe de plus en plus : celle générée par l’abrasion des freins des véhicules. Au sein du Laboratoire de Mécanique des Contacts et des Structures, le LaMCoS (1), la problématique est prise à bras de corps depuis plusieurs années.Selon une étude publiée en 2022 par la revue médicale britannique « The Lancet Planetary Health », la pollution de l’air extérieur entraînerait chaque année dans le monde 4.2 millions de décès prématurés. En cause l’industrie, le chauffage au bois mais également le transport. Dans l’Union européenne, en 2021, on comptait près de 250 millions de véhicules particuliers (+6,5% par rapport à 2017) et près de 30 millions de « véhicules utilitaires » (8.6% par rapport à 2017) en circulation. Un trafic routier qui génère une importante pollution aux particules fines. Paradoxalement, la pollution de l’air générée par les échappements de ces véhicules a globalement baissé ces dernières années, à l’échelle de l’Union européenne, notamment sous la pression réglementaire et grâce à la généralisation des filtres à particules (FAP) devenus obligatoires depuis 2011 sur les moteurs Diesel neufs. Désormais c’est une autre problématique qui préoccupe les autorités sanitaires comme les scientifiques : la pollution hors échappement (PHE).(…)>> Rendez-vous sur le site point2bascule.fr pour :LIRE LA SUITE DE L’ARTICLE
LLa société est biaisée, et cela biaise les IA… voici des pistes de solutions pour une IA vertueuse et une société plus inclusive Les données utilisées pour entraîner les IA reflètent les stéréotypes et les préjugés de la société, par exemple envers des groupes sous-représentés. Pour conserver la confidentialité de données sensibles, comme les données de santé, tout en garantissant qu’elles ne sont pas biaisées, il faut adapter les méthodes d’apprentissage.Plusieurs scandales ont éclaté ces dernières années, mettant en cause des systèmes d’aide à la décision basés sur l’intelligence artificielle (IA) qui produisent des résultats racistes ou sexistes.C’était le cas, par exemple, de l’outil de recrutement d’Amazon qui exhibait des biais à l’encontre des femmes, ou encore du système guidant les soins hospitaliers dans un hôpital américain qui privilégiait systématiquement les patients de couleur blanche par rapport aux patients noirs. En réponse au problème de biais dans l’IA et les algorithmes d’apprentissage automatique, des législations ont été proposées, telles que le AI Act dans l’Union européenne, ou le National AI Initiative Act aux États-Unis.Un argument largement repris concernant la présence de biais dans l’IA et les modèles d’apprentissage automatique est que ces derniers ne font que refléter une vérité de terrain : les biais sont présents dans les données réelles. Par exemple, des données de patients ayant une maladie touchant spécifiquement les hommes résultent en une IA biaisée envers les femmes, sans que cette IA soit pour autant incorrecte.Si cet argument est valide dans certains cas, il existe de nombreux cas où les données ont été collectées de manière incomplète et ne reflètent pas la diversité de la réalité terrain, ou encore des données qui incluent des cas statistiquement rares et qui vont être sous-représentés, voire non représentés dans les modèles d’apprentissage automatique. C’est le cas, par exemple, de l’outil de recrutement d’Amazon qui exhibait un biais envers les femmes : parce que les femmes travaillant dans un secteur sont statistiquement peu nombreuses, l’IA qui en résulte rejette tout simplement les candidatures féminines.Et si plutôt que refléter, voire exacerber une réalité actuelle dysfonctionnelle, l’IA pouvait être vertueuse et servir à corriger les biais dans la société, pour une société plus inclusive ? C’est ce que proposent les chercheurs avec une nouvelle approche : l’« apprentissage fédéré ».Vers une IA décentraliséeLes systèmes d’aide à la décision basés sur l’IA se basent sur des données. En effet, dans les approches classiques d’apprentissage automatique, les données provenant de plusieurs sources doivent tout d’abord être transmises à un dépôt (par exemple, un serveur sur le cloud) qui les centralise, avant d’exécuter un algorithme d’apprentissage automatique sur ces données centralisées.Or ceci soulève des questions de protection des données. En effet, conformément à la législation en vigueur, un hôpital n’a pas le droit d’externaliser les données médicales sensibles de ses patients, une banque n’a pas le droit d’externaliser les informations privées des transactions bancaires de ses clients.Par conséquent, pour mieux préserver la confidentialité des données dans les systèmes d’IA, les chercheurs développent des approches basées sur une IA dite « distribuée », où les données restent sur les sites possesseurs de données, et où les algorithmes d’apprentissage automatique s’exécutent de manière distribuée sur ces différents sites — on parle également d’« apprentissage fédéré ».Concrètement, chaque possesseur de données (participant à l’apprentissage fédéré) entraîne un modèle local sur la base de ses propres données, puis transmet les paramètres de son modèle local à une entité tierce qui effectue l’agrégation des paramètres de l’ensemble des modèles locaux (par exemple, via une moyenne pondérée selon le volume de données de chaque participant). Cette dernière entité produit alors un modèle global qui sera utilisé par les différents participants pour effectuer leurs prédictions.Ainsi, il est possible de construire une connaissance globale à partir des données des uns et des autres, sans pour autant révéler ses propres données et sans accéder aux données des autres. Par exemple, les données médicales des patients restent dans chaque centre hospitalier les possédant, et ce sont les algorithmes d’apprentissage fédéré qui s’exécutent et se coordonnent entre ces différents sites.Avec une telle approche, il sera possible pour un petit centre hospitalier dans une zone géographique moins peuplée que les grandes métropoles — et donc possédant moins de données médicales que dans les grands centres hospitaliers, et par conséquent, possédant a priori une IA moins bien entraînée — de bénéficier d’une IA reflétant une connaissance globale, entraînée de manière décentralisée sur les données des différents centres hospitaliers.D’autres cas d’applications similaires peuvent être mentionnés, impliquant plusieurs banques pour construire une IA globale de détection de fraudes, plusieurs bâtiments intelligents pour déterminer une gestion énergétique appropriée, etc.Les biais dans l’IA décentralisée sont plus complexes à appréhenderComparée à l’approche classique d’apprentissage automatique centralisé, l’IA décentralisée et ses algorithmes d’apprentissage fédéré peuvent, d’une part, exacerber encore plus le biais, et d’autre part, rendre le traitement du biais plus difficile.En effet, les données locales des participants à un système d’apprentissage fédéré peuvent avoir des distributions statistiques très hétérogènes (des volumes de données différents, des représentativités différentes de certains groupes démographiques, etc.). Un participant contribuant à l’apprentissage fédéré avec un grand volume de données aura plus d’influence sur le modèle global qu’un participant avec un faible volume de données. Si ce dernier est dans d’une certaine zone géographique qui représente un groupe social en particulier, celui-ci ne sera malheureusement pas, ou très peu, reflété dans le modèle global.Par ailleurs, la présence de biais dans les données d’un des participants à un système d’apprentissage fédéré peut entraîner la propagation de ce biais vers les autres participants via le modèle global. En effet, même si un participant a veillé à avoir des données locales non biaisées, il héritera du biais présent chez d’autres.Et plus difficiles à corrigerDe plus, les techniques classiquement utilisées pour prévenir et corriger le biais dans le cas centralisé ne peuvent pas s’appliquer directement à l’apprentissage fédéré. En effet, l’approche classique de correction du biais consiste principalement à prétraiter les données avant l’apprentissage automatique pour que les données aient certaines propriétés statistiques et ne soient donc plus biaisées ?Or dans le cas d’une IA décentralisée et d’apprentissage fédéré, il n’est pas possible d’accéder aux données des participants, ni d’avoir une connaissance des statistiques globales des données décentralisées.Dans ce cas, comment traiter le biais dans les systèmes d’IA décentralisée ?Mesurer le biais de l’IA sans avoir accès aux données décentraliséesUne première étape est de pouvoir mesurer les biais des données décentralisées chez les participants à l’apprentissage fédéré, sans avoir directement accès à leurs données.Avec mes collègues, nous avons conçu une nouvelle méthode pour mesurer et quantifier les biais dans les systèmes d’apprentissage fédéré, sur la base de l’analyse des paramètres des modèles locaux des participants à l’apprentissage fédéré. Cette méthode a l’avantage d’être compatible avec la protection des données des participants, tout en permettant la mesure de plusieurs métriques de biais.Capturer l’interdépendance entre plusieurs types de biais, et les corriger dans l’IA décentraliséeMais il peut aussi y avoir plusieurs types de biais démographiques, qui se déclinent selon différents attributs sensibles (le genre, la race, l’âge, etc.), et nous avons démontré qu’atténuer un seul type de biais peut avoir pour effet collatéral l’augmentation d’un autre type de biais. Il serait alors dommage qu’une solution d’atténuation du biais lié à la race, par exemple, provoque une exacerbation du biais lié au genre.Nous avons alors proposé une méthode multi-objectifs pour la mesure complète des biais et le traitement conjoint et cohérent de plusieurs types de biais survenant dans les systèmes d’apprentissage fédéré.Ces travaux sont le fruit d’une collaboration avec des collègues chercheurs, doctorants et stagiaires : Pascal Felber, (Université de Neuchâtel), Valerio Schiavoni (Université de Neuchâtel), Angela Bonifati (Université Lyon 1), Vania Marangozova (Université Grenoble Alpes), Nawel Benarba (INSA Lyon), Yasmine Djebrouni (Université Grenoble Alpes), Ousmane Touat (INSA Lyon).Le projet CITADEL est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.>> L’autrice : Sara Bouchenak, Professeure d’Informatique – INSA Lyon, INSA Lyon – Université de LyonCet article est republié sous licence Creative Commons. >> Lire l’article original :The Conversation
LLes cafés de la statistique : Sagesse ou folie des foules ? « Comment la statistique peut éclairer le débat public »Les foules sont souvent considérées comme dangereuses, impulsives, moutonnières par défaut, et une des critiques récurrentes contre le règne de la majorité est que celui-ci favoriserait la convention, le conservatisme voire la bêtise. Rien n’est plus faux !Le plus grand nombre est bien souvent à l’origine des meilleures décisions. Nous explorerons dans ce café la théorie de la sagesse des foules, qui s’applique dans de nombreux domaines comme la politique, l’économie, le management …> Intervenant : Aurélien Baillon, professeur, emlyon business school & GATE> Restez en contact : cafe.stat.lyon@gmail.com>> Pour en savoir plus :Les cafés de la statistique
DDonnées personnelles : rien à cacher, mais beaucoup à perdre | The Conversation Nos données personnelles circulent sur Internet : nom, adresses, coordonnées bancaires ou de sécurité sociale, localisation en temps réel… et les affaires qui y sont liées se font une place pérenne dans le débat public, du scandale Facebook-Cambridge Analytica au vol de données à la Croix-Rouge, en passant par les récents blocages d’hôpitaux par des rançongiciels (ou ransomware) et l’interdiction de l’application TikTok pour les fonctionnaires de plusieurs pays.Mais si l’on sait de plus en plus que nos données personnelles sont « précieuses » et offrent des possibilités sans précédent en matière de commercialisation et d’innovation, il est parfois difficile de saisir ou d’expliquer pourquoi il faudrait les protéger.QQuels sont les risques liés à la divulgation de mes données personnelles ?Le premier risque concerne la perte du contrôle sur nos propres données. C’est ce qui arrive par exemple quand on autorise le traçage par des sites ou des applications : on autorise l’enregistrement de nos activités sur le Web ou sur notre smartphone (pages visitées, géolocalisation) et l’échange de ces données, et, une fois cet accord donné, nous n’avons plus aucun pouvoir sur la circulation de nos données.Ces informations sont utilisées le plus souvent pour du profilage qui permet d’alimenter l’économie de la publicité personnalisée régie dorénavant par des plates-formes d’enchères valorisant les données relatives aux profils utilisateurs contre des emplacements publicitaires.Mais, ces informations peuvent également être utilisées à mauvais escient. La connaissance de votre localisation peut aider le passage à l’acte d’un cambrioleur par exemple, et la connaissance de vos centres d’intérêts ou opinion politique peut vous exposer à des opérations d’influence.Le scandale Cambridge Analytica en est un exemple, avec l’exploitation de données personnelles de millions d’utilisateurs Facebook pour des campagnes de désinformation ciblées afin d’influencer des intentions de vote. Plus récemment, les révélations du Monde sur les entreprises de désinformation indiquent que cette pratique n’est pas un cas isolé.Un autre risque concerne l’hameçonnage : si des informations personnelles sont présentes dans un courriel ou SMS frauduleux, il vous paraîtra plus réaliste et abaissera vos barrières de vigilance. L’hameçonnage sert souvent à infecter la cible avec un rançongiciel (ransomware en anglais) : les cybercriminels utilisent des informations personnalisées pour gagner la confiance des destinataires et les inciter à ouvrir des pièces jointes, ou à cliquer sur des liens ou documents malveillants, ce qui permet dans un second temps de verrouiller les données de la victime et d’en interdire l’accès. Une rançon est ensuite réclamée pour les déverrouiller.Bien que les attaques par rançongiciel les plus médiatisées concernent des organisations, des hôpitaux par exemple, les particuliers sont également touchés.Dans le cas de l’usurpation d’identité, une personne malveillante utilise des informations personnelles qui permettent de nous identifier (« se logger ») sans notre accord : par exemple, en créant un faux profil sur une plate-forme et en rédigeant des commentaires sous l’identité de la victime afin de nuire à sa réputation.À un autre niveau, la surveillance de masse exercée par certains États capture les informations personnelles de leurs citoyens afin d’entraver la liberté d’expression ou de ficher les individus par exemple. Une surveillance accrue peut tendre vers un sentiment d’absence de sphère privée et ainsi brider le comportement des individus.En Europe, le RGPD (règlement général sur la protection des données) limite la récolte des données personnelles, notamment par les gouvernements, qui doivent justifier d’une raison suffisante pour toute surveillance.CChacun d’entre nous a une empreinte numérique uniqueCes problèmes touchent chacun d’entre nous. En effet, dans un monde de plus en plus numérique où nous générons quotidiennement des données à travers notre navigation sur Internet, nos smartphones, ou nos montres connectées, nous avons tous une « empreinte numérique unique ».En clair, il est généralement possible de ré-identifier quelqu’un juste à partir des « traces » que nous laissons derrière nous sur nos appareils numériques.Nos données personnelles permettent de nous identifier, comme une empreinte digitale numérique. Immo Wegmann/Unsplash, CC BYPar exemple, l’observation aléatoire de quatre lieux visités seulement représente une signature unique pour 98 % des individus. Cette unicité est généralisable dans un grand nombre de comportements humains.Cacher l’identité du propriétaire de données personnelles uniquement derrière un pseudonyme n’est pas une protection suffisante face au risque de réidentification, il est nécessaire d’anonymiser les données.DDonnées synthétiques, apprentissage fédéré : les nouvelles méthodes pour protéger les données personnellesTels les membres d’un « black bloc » essayant d’être indistinguables entre eux en s’habillant de manière identique dans une manifestation houleuse, l’anonymisation de données a pour but d’éviter qu’une personne ne se démarque du reste de la population considérée, afin de limiter l’information qu’un cyberattaquant pourrait extraire.Dans le cas de données de géolocalisation, on pourrait par exemple modifier les données afin que plusieurs utilisateurs partagent les mêmes lieux visités, ou alors introduire du bruit pour ajouter une incertitude sur les lieux réellement visités.Mais cette anonymisation a un coût car elle « déforme » les données et diminue leur valeur : une trop grande modification des données brutes dénature l’information véhiculée dans les données anonymisées. De plus, pour s’assurer de l’absence d’une empreinte réidentifiante, les modifications nécessaires sont très importantes et souvent incompatibles avec nombre d’applications.Trouver le bon compromis entre protection et utilité des informations anonymisées reste un challenge. À l’heure où certains voient les données comme le nouveau pétrole du XXIe siècle, l’enjeu est de taille car une donnée anonyme n’est plus considérée comme une donnée personnelle et échappe au RGPD, ce qui veut dire qu’elle peut être partagée sans consentement du propriétaire.Cette difficulté de trouver un compromis acceptable entre protection et utilité des données au travers de mécanismes d’anonymisation a fait évoluer les pratiques. De nouveaux paradigmes de protection des données personnelles ont vu le jour.Une première tendance consiste à générer des données synthétiques reproduisant les mêmes propriétés statistiques que les vraies données.Ces données générées de manière artificielle ne sont par conséquent pas liées à une personne et ne seraient plus encadrées par le RGPD. Un grand nombre d’entreprises voient en cette solution des promesses de partage d’information moins limitées. En pratique, les risques résiduels des modèles de génération synthétique ne sont pas négligeables et sont encore à l’étude.Une autre solution limitant le risque de partage de données personnelles est l’apprentissage fédéré. Dans l’apprentissage machine conventionnel, les données sont centralisées par une entité pour entraîner un modèle.Dans l’apprentissage fédéré, chaque utilisateur se voit attribuer un modèle qu’il entraîne localement sur ses propres données. Il envoie ensuite le résultat à une entité qui s’occupe d’agréger l’ensemble des modèles locaux. De manière itérative, cet apprentissage décentralisé permet de créer un modèle d’apprentissage sans divulguer de données personnelles.Ce nouveau paradigme de protection des données personnelles suscite beaucoup d’engouement. Cependant, plusieurs limitations subsistent, notamment sur la robustesse face aux acteurs malveillants qui souhaiteraient influencer le processus d’entraînement. Un participant pourrait par exemple modifier ses propres données pour que le modèle se trompe lors d’une tâche de classification particulière. Publié sur The Conversation le 29 mars 2023Auteur : Antoine Boutet, Maitre de conférence, Privacy, IA, au laboratoire CITI, Inria, INSA Lyon – Université de LyonCet article est republié à partir de The Conversation sous licence Creative Commons. >> Lire l’article original :The conversation>> Cet article a été actualisé le 28 octobre 2024 : L’opérateur mobile et fournisseur d’accès internet Free a annoncé avoir été victime d’une cyberattaque. Selon l’entreprise : « cette attaque a entraîné un accès non autorisé à une partie des données personnelles ». Quels sont les risques si vos données ont fuité ?Lire l’article actualisé :The Conversation
CComment sont élaborés les simulateurs d’empreinte carbone ? Alors que Paris accueillait les Jeux Olympiques et Paralympiques 2024, Laetitia Guérout, élève-ingénieure au département biotechnologies et bioinformatique, et stagiaire chez WeCount, a contribué au développement d’un calculateur d’empreinte carbone destiné aux supporters. Cet outil pédagogique permet de mesurer les émissions de CO2 liées aux transports, à l’alimentation et à l’hébergement pour se rendre aux Jeux. L’objectif ? Profiter du tremplin exceptionnel que sont les Jeux Olympiques et Paralympiques de Paris 2024 pour éduquer un maximum de spectateurs au sujet de la lutte contre le changement climatique et déclencher l’envie d’agir. « L’objectif n’étant pas de culpabiliser les spectateurs, mais bel et bien de pouvoir leur apporter des connaissances et des clés d’action », explique l’étudiante.>Simulateur d’empreinte carbone individuelle : comment sont-ils élaborés ?Outil de sensibilisation idéal du grand public, le simulateur d’empreinte carbone permet de prendre conscience des usages individuels qui contribuent le plus au changement climatique, et de découvrir les actions qui auraient le plus d’impact pour réduire son bilan carbone. La prise en main se veut facile, rapide et ludique. « C’est un questionnaire qui permet de calculer en quelques minutes les émissions associées à différents postes comme le transport, l’alimentation, ou encore l’hébergement », introduit Laetitia Guérout. Basé sur des facteurs d’émissions provenant d’une base de données de l’ADEME, le calculateur estime ainsi un équivalent en kg ou tonnes de CO2 émis. « Le CO2 n’est bien sûr pas le seul gaz à effet de serre émis par les activités humaines, cependant, ramener le calcul à un équivalent en tonnes de CO2 pose un chiffre sur le concept parfois flou que sont les émissions de gaz à effet de serre. Cela le rend plus concret dans l’esprit des gens. Grâce à ces facteurs d’émission et aux réponses de l’utilisateur à un panel de questions simples, le simulateur affiche un impact chiffré. Et surtout, à l’issue du questionnaire, l’utilisateur dispose de pistes d’actions lui permettant d’agir sur son empreinte carbone et de la réduire. S’il souhaite aller plus loin, des ressources sont également mises à sa disposition pour en apprendre davantage sur le sujet. C’est un outil de sensibilisation et de mise en action assez puissant», poursuit l’étudiante de l’INSA Lyon en stage chez WeCount.>Le cas des JO 2024 : le poste des transportsÀ l’occasion des Jeux Olympiques et Paralympiques 2024, Laetitia Guérout a participé à l’élaboration de celui-ci d’une plateforme dédiée à l’évènement mondial. « Un calculateur d’empreinte carbone qui cible un évènement particulier ne considère pas exactement les mêmes postes d’émission qu’un calculateur d’empreinte carbone lié aux activités quotidiennes, même si certains postent se retrouvent presque systématiquement comme le transport ou l’alimentation. »En premier lieu, le développement de l’outil a donc nécessité un important travail de définition du périmètre de calcul. « Il faut réussir à ne pas oublier de poste d’émission important, tout en n’alourdissant pas trop le questionnaire pour qu’il reste rapide et simple à remplir. L’idée est donc de cibler (…)>> Lire l’article sur le site :insa
DDepuis Garry Kasparov contre Deep Blue, ce que nous apprend l’histoire des échecs sur les risques de l’IA | The Conversation En 1997, le champion du monde d’échecs Garry Kasparov perd pour la première fois de l’histoire un match face à un ordinateur, Deep Blue. Cet événement historique pour le jeu comme pour l’informatique est aujourd’hui porté à l’écran dans une minisérie d’Arte, Remacth. 27 ans plus tard, qu’est-ce que la défaite de l’humain contre la machine nous a appris, et ces leçons peuvent-elles éclairer l’arrivée massive de l’IA dans nos vies ?Les récents progrès de l’intelligence artificielle (IA), comme le développement des IA génératives avec l’apparition de ChatGPT en novembre 2022, ont soulevé beaucoup d’interrogations, d’espoirs, et de craintes. Courant printemps 2023, le Congrès américain a auditionné OpenAI, la société ayant développé ChatGPT et l’Union européenne vient d’adopter son premier texte législatif au sujet de l’IA.Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.Pourquoi le jeu d’échecs comme indicateur ?Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.Explorons quelles ont été les évolutions dans le monde des échecs depuis que Garry Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie. | ©BY-SA Chris Butner Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.La réception par la communauté de joueurs d’échecsAvec l’arrivée de machines puissantes dans le monde des échecs, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.« Pourquoi les gens continueraient-ils de jouer aux échecs ? » Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de « bonne solution » pour gérer ce problème qui rejoint les interrogations des professeurs qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.Conclusions temporairesCette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.>> L’auteur :Frédéric Prost, Maître de conférences en informatique, INSA Lyon – Université de LyonCet article est republié sous licence Creative Commons.>> Lire l’article original :The Conversation