IIA sans IE n’est que ruine de l’esprit Face à l’essor de l’IA (Intelligence Artificielle) qui bouleverse notre société, de nombreux rapports, dont l’IBM Index ou celui du Forum Économique Mondial, soulignent l’urgence, pour l’être humain, de développer des compétences lui permettant de s’adapter à cette révolution. Parmi elles figure l’IE, comprenez par là « l’intelligence émotionnelle ».Cette forme d’intelligence fut découverte à la fin des années 1980 par deux chercheurs, Peter Salovey (Université de Yale) et Jack Mayer (Université de New Hampshire), devenus depuis de véritables « rocks stars » dans leur discipline. Ces deux amis eurent un Eureka pendant qu’ils repeignaient un mur de maison, une fulgurance intellectuelle de l’envergure de celle qui se produisit dans différents garages californiens ![…]Auteur : Christophe Haag, Professeur et chercheur en psychologie sociale, emlyon business school >> Lire l’article complet sur :knowledge@emlyon
TToujours plus de consommation d’hydrocarbures pour l’IA ? L’intelligence artificielle, et plus généralement le numérique, demandent des capacités énergétiques de plus en plus massives. Comment allier lutte contre le changement climatique, souveraineté et sécurité ?Au moment où le président américain signait l’executive order visant à assurer la domination américaine sur l’intelligence artificielle, l’irruption du chatbot chinois DeepSeek a semé une vague de panique. Les marchés de la tech et de l’énergie ont accusé le coup, propulsant Nvidia, qui produit des composants essentiels pour l’IA, dans une chute de presque 600 milliards de dollars, la plus grande perte de l’histoire en un jour.Il a suffit d’une innovation chinoise se revendiquant d’une plus grande frugalité, tant dans son développement que pour son fonctionnement, pour chahuter la course à l’intelligence artificielle. DeepSeek ouvre la voie pour des développements moins gourmands en calcul.Le développement de l’intelligence artificielle et de manière plus générale de l’industrie numérique est l’une des toutes premières priorités tant pour les États-Unis que pour la Chine.Dans la rivalité qui se joue entre les deux superpuissances, c’est une nécessité à la fois pour assurer leur sécurité intérieure et pour projeter leur puissance hors frontières. La croissance des besoins énergétiques de ces industries est donc une question secondaire, même si elle doit conduire à une augmentation de la production d’hydrocarbures. Aucune politique de réduction des émissions de gaz à effet de serre ne pourra ignorer cet ordre de priorité.Depuis la COP de Paris, une grande publicité a été accordée à l’objectif de transition énergétique et par conséquent de réduction de l’exploitation des hydrocarbures. Pour autant leur consommation n’a cessé d’augmenter. Les États-Unis, premier producteur mondial, ont continuellement augmenté leur production depuis le mandat du président Obama.Cette contradiction entre les politiques et les intentions est problématique. Selon le Global Carbon Project, les émissions mondiales de carbone provenant des combustibles fossiles ont atteint des niveaux record en 2023. Un rapport du Programme des Nations unies pour l’Environnement de novembre 2023 estime que les gouvernements prévoient de produire en 2030 le double des combustibles fossiles par rapport à la quantité permise pour limiter le réchauffement à 1,5 °C. Les émissions annuelles mondiales de dioxyde de carbone dépassent 40 milliards de tonnes, principalement issues des combustibles fossiles. Elles ont augmenté de 1,5 % par rapport aux niveaux prépandémiques.L’élection de Trump marque un tournantCette contradiction pourrait toutefois connaître prochainement une forme de résolution, mais dans une forme qui pourrait surprendre. Elle se fera en faveur de l’alignement des discours sur la réalité de l’augmentation des besoins énergétiques, et non l’inverse. Il ne s’agira donc pas de l’alignement des politiques sur les objectifs du développement durable. Les efforts actuels de réarmement sonnent le glas de bien des contraintes environnementales.L’élection américaine marque un tournant clair dans le discours. Le président nouvellement élu l’a affirmé très clairement dans son adresse inaugurale. « Nous possédons quelque chose qu’aucun autre pays manufacturier n’aura jamais – la plus grande quantité de pétrole et de gaz de tous les pays du monde – et nous allons l’utiliser. »Un certain nombre de banques avaient déjà quitté l’alliance Net Zero Banking (NZBA) avant même l’investiture, abandonnant ainsi les contraintes environnementales pesant sur leurs investissements. On peut alors s’interroger. La baisse de l’exploitation des hydrocarbures est-elle un objectif réalisable ? La rivalité des États-nations ne le favorise pas. De surcroît, il ne présente aucun intérêt propre pour aucun acteur. La bataille n’est pour autant pas perdue, mais elle doit s’adapter au réel et tirer avantage de la géopolitique au lieu de la subir. Les énergies dites vertes sont avant tout produites localement, elles doivent être promues pour leur contribution à la souveraineté.Le débat public sur les politiques énergétiques est focalisé sur la durabilité et le changement climatique, alors que la souveraineté et la sécurité nationale restent les principaux moteurs des décisions nationales. La logique du système énergétique actuel est guidée par les enjeux géopolitiques, structurée autour du contrôle des stocks et des flux d’énergie par des mécanismes, tangibles, comme le raffinage, les oléoducs et les tankers, et intangibles, comme les marchés et les assurances.Les besoins énergétiques du numérique sont en continuelle hausseLe numérique présente une singularité dans l’effort de transition écologique. Ses besoins énergétiques croissent à l’inverse de la plupart des secteurs engagés dans un mouvement de baisse. Ce n’est toutefois pas une anomalie. Les liens entre l’industrie numérique et les questions environnementales sont plus complexes qu’il n’y parait à première vue. La dégradation environnementale a en effet deux conséquences, la nécessaire atténuation et l’inévitable adaptation. Autrement dit, d’une part, la montée des interdépendances entre les activités humaines et l’environnement doit être prise en compte. D’autre part les risques de confrontation croissent avec les difficultés environnementales.Le numérique est au cœur de la réponse à ces deux défis. Il permet de prendre en compte les interactions avec l’environnement, et de distribuer les ressources avec une connaissance très fine des contraintes tant locales que globales. C’est ce que les plates-formes d’intermédiation, qui orchestrent les marchés entre producteurs et consommateurs de biens ou de services, font déjà dans de nombreux domaines, avec Google, Uber, etc. Distribuer l’électricité produite et stockée par d’innombrables acteurs est impossible sans les plates-formes numériques, qui seules savent orchestrer des marchés avec une connaissance fine et continue de la situation des acteurs. Il est remarquable d’ailleurs que les grands acteurs du numérique investissent désormais directement dans le secteur de la production de l’énergie, nucléaire ou renouvelable, d’abord pour alimenter leurs centres de données, mais à terme probablement comme gestionnaire global de l’électricité.Les plates-formes sont donc au cœur des solutions. Mais elles sont aussi des instruments de la confrontation. Si l’interconnexion de tous les acteurs de la société a permis des développements extraordinaires, la difficulté de garantir la sécurité du réseau conduit inexorablement à une militarisation de la société dans son ensemble. Les tentatives de régulation sont de peu d’impact sur cette évolution.Le numérique est devenu après les espaces physiques que sont la terre, la mer ou l’air, l’espace où se déploient les conflits. La guerre en Ukraine en offre la première démonstration avec la généralisation des armes sans pilote, l’utilisation des cryptomonnaies, les nouveaux moyens cartographiques basés sur les smartphones. L’intelligence artificielle connaît, comme de nombreuses technologies par le passé, un développement entraîné par la défense. Il serait illusoire dans cette période de militarisation d’espérer voir la consommation énergétique du numérique baisser.Alors que faire ? La solution pourrait être dans la recherche de souveraineté. Si la sécurité était acceptée comme l’objectif principal pour tous les États, en particulier par les principaux blocs géopolitiques, la question pourrait alors se ramener à celle de la transition vers une sécurité à long terme dans chacun d’eux. La réponse pourrait être double : construire la capacité des nations à dépendre de l’énergie produite localement, et briser les dépendances énergétiques internationales existantes. Les deux peuvent être atteints en substituant les sources d’énergie locales et les réseaux de distribution intelligents aux modèles de commerce de l’énergie à longue distance existants. Une telle transition est déjà à portée de main, le prix de l’énergie renouvelable par watt ayant considérablement diminué par rapport au prix des autres formes de production d’électricité. Il faut faire de la dure réalité de cette boucle infernale un atout et non un écueil. Auteurs :Stéphane Grumbach, Directeur de recherche Inria, ENS de LyonGary Dirks, Senior Director Global Futures Laboratory, Arizona State University Sander van der Leeuw, Emeritus Professor of Anthropology and Sustainability, Arizona State UniversityCet article est republié sous licence Creative Commons.>> Lire l’article original :THE CONVERSATION
LL’éthique face à l’IA et aux robots autonomes Quels sont les problèmes éthiques qui surgissent de plus en plus aujourd’hui, dans les domaines de la vie civile, mais aussi dans le contexte de la sécurité et de la défense, du fait de la délégation de pouvoirs spécifiquement humains à des systèmes d’intelligence artificielle ou à des robots doués d’autonomie?Durant cette rencontre, les intervenants cherchent à montrer que notre fascination pour l’efficacité de ces systèmes technologiques peut induire une série de « cécités » relatives à des caractéristiques anthropologiques fondamentales, menant à des problèmes juridiques et éthiques majeurs.Dominique Lambert, professeur émérite de l’Université de Namur, était invité par Cairn.info, à l’occasion de la sortie du n° 6 de la Revue CONFLUENCE : Sciences & Humanités sur « L’humain et la donnée », pour participer à leur format « Rencontre ».Menée avec Jean-Marie Durand, cette rencontre a permis d’étudier la place que l’IA prend dans nos vies, autour de ce qu’est l’éthique de l’IA et la place de l’humain.La vidéo de cette rencontre est réservée aux membres de nos institutions clientes et aux abonné(e)s Cairn Pro.>> Pour plus d’information, rendez-vous sur le site : Cairn.info
CComment le discours médiatique sur l’IA empêche d’envisager d’autres possibles | The Conversation Une des sept stratégies discursives caractéristiques de l’impensé est le fait de « jouer à se faire peur » (extrait de la bande dessinée de science-fiction MediaEntity, de Simon & Émilie). | ©MediaEntity/Simon & Émilie, CC BY-NC-SALe Sommet pour l’action sur l’intelligence artificielle se tient à Paris du 6 au 11 février 2025. C’est l’occasion de rappeler l’existence d’une boîte à outils pour révéler les angles morts des discours sur le numérique. Autour du concept d’« impensé numérique », ces outils de compréhension sont précieux pour garder la tête froide face à l’irruption de l’IA générative dans notre quotidienAu printemps 2023, des personnalités aussi diverses qu’Elon Musk, Yuval Noah Harari ou Steve Wozniak s’associaient à plus de 1 000 « experts » pour mettre en garde face aux « risques majeurs pour la société et l’humanité » que représente l’intelligence artificielle et demander une pause de six mois dans l’entraînement des modèles plus puissants que GPT-4. Du Monde au Figaro, en passant par France Info ou Libération, les médias ont volontiers relayé les termes de ce courrier qui appelle à une pause pour mieux affirmer le caractère inéluctable et la toute-puissance des systèmes d’IA à venir.Ce qui frappe dans la réception médiatique immédiate de ce courrier, c’est la myopie face à un processus théorisé depuis maintenant bientôt 30 ans : « l’impensé numérique » (ou informatique, avant lui). Ce concept d’« impensé » désigne les stratégies discursives par lesquelles la technologie est présentée comme une évidence, souvent sous l’influence des acteurs dont elle sert les intérêts économiques ou politiques.La lettre ouverte de l’institut Future of Life en est un cas d’école : selon elle, l’intelligence artificielle est un outil puissant, il est déjà là, et il est appelé à être encore plus présent et plus puissant à l’avenir pour le plus grand bien de l’humanité.Comment repérer l’impensé numérique ?Sept marqueurs discursifs devraient vous mettre la puce à l’oreille. Pour illustrer cette « boîte à outils », la lettre ouverte d’Elon Musk et consorts, qui prétend pourtant appeler à faire une pause, présente avantageusement tous les marqueurs discursifs de l’impensé, quoique l’on puisse également l’appliquer au très sérieux rapport Villani qui plaidait en 2018 pour une stratégie nationale et européenne en matière d’IA :Dans ce type de discours, l’objet technique se présente comme neutre : il revient à l’humanité de s’en servir à bon escient, sa seule existence lui sert de justification.Avec le sommet pour l’action sur l’IA, la question consiste à « développer massivement les technologies et les usages de l’IA dans l’ensemble des pays du monde ». Présentée sans surprise comme inéluctable, l’IA reste bien entendu menaçante puisqu’on se demande « comment réussir le virage de l’IA en ne laissant personne de côté et en préservant nos libertés ? » Mais on entrevoit un avenir radieux grâce à la mobilisation de « plus d’un millier d’acteurs […] venus de tous les continents ».Pour « faire en sorte que les usages de l’IA correspondent à nos valeurs humanistes et que cette technologie puisse être mise au service du collectif et de l’intérêt général ».Cette ambivalence entre les plus grandes craintes et les plus grands espoirs envers la technique constitue sans doute le mécanisme le plus retors de l’impensé : cela contribue à affirmer sa puissance (elle est dangereuse) et son potentiel (faites confiance aux experts). Cela alimente également le pseudodébat sans lequel l’intérêt médiatique retomberait. L’informatique, le numérique, l’IA sont déjà là, nul besoin de produire un travail historique sérieux à leur sujet, le storytelling des réussites entrepreneuriales suffit.L’impensé forme un cercle vicieux avec le glissement de la prérogative politique…L’impensé est indissociable de deux autres processus avec lesquels il forme un véritable cercle vicieux : le glissement de la prérogative politique et la gestionnarisation.À la faveur de l’impensé numérique, des outils détenus par des acteurs privés sans légitimité électorale ou régalienne déterminent jusqu’à l’accès du public à l’information. Un exemple en est la plate-forme X (anciennement Twitter), qui est scrutée par les journalistes parce qu’elle est alimentée par les personnalités publiques et politiques, ainsi que par les institutions publiques. Lorsqu’une plate-forme privée porte une parole politique, nous sommes dans ce que l’on appelle le « glissement de la prérogative politique ».En effet, lorsque des acteurs privés déploient des technologies de manière systématique, depuis les infrastructures (câbles, fermes de serveurs, etc.) jusqu’aux logiciels et applications, cela revient à leur déléguer des prises de décisions de nature politique. Ainsi, face à un moteur de recherche qui domine notre accès à l’information et occupe une place qui relèverait d’un véritable service public, nous sommes en plein dans un glissement de la prérogative politique.On observe le même phénomène lorsque le gouvernement français préfère recourir aux cabinets de conseil plutôt qu’à l’expertise universitaire. Des cabinets, dont les recommandations privilégient volontiers le recours systématique aux technologies numériques.… et avec la gestionnarisationAujourd’hui, les outils numériques ne nous permettent pas seulement de gérer diverses activités (banque, rendez-vous médicaux…), ils sont aussi et surtout devenus incontournables pour effectuer ces tâches. Nous n’avons pas d’autre choix que de nous fondre dans les catégories que ces outils nous imposent. Il n’est pas toujours facile de prendre rendez-vous avec un ou une secrétaire médical, par exemple, ou de faire sa déclaration d’impôts sur papier. C’est ce que l’on appelle la « gestionnarisation ».Cette « gestionnarisation » témoigne aussi d’un glissement. Par exemple, l’outil d’accès à l’enseignement supérieur Parcoursup s’impose désormais aux lycéens et à leurs familles. Or cet outil porte une dimension politique aux conséquences critiquables, telles que l’exclusion de certaines catégories de bacheliers ou l’accentuation de la mise en concurrence des formations. Dans la gestion, l’outil est second par rapport à l’activité ; avec la gestionnarisation, l’outil devient premier : Parcoursup a pris le pas sur le besoin auquel il est censé répondre.Dans notre quotidien, pour visiter une nouvelle région, choisir le menu de son dîner comme pour rencontrer l’âme sœur, chacun saisit docilement les informations attendues par les plates-formes de consommation numérique. Lorsque l’on mène une activité sportive en s’équipant d’un bracelet qui traite, mémorise et fait circuler un ensemble de données biométriques, celles-ci deviennent le modèle que l’on suit, plutôt que le ressenti de son corps, dans une sorte d’« auto-gestionnarisation ».Dûment identifiés et profilés par nos outils, nous contribuons sans réserve aux profits économiques de firmes dont l’essentiel des revenus échappe à l’impôt… Et donc au pouvoir démocratique déjà ébranlé par le glissement de la prérogative politique.Le cas d’Elon Musk illustre parfaitement le glissement de la prérogative politique et la « gestionnarisation ». Invité controversé au sommet pour l’action sur l’IA, il a cosigné la lettre ouverte faussement alarmiste de l’institut Future of Life alors qu’il lançait sa propre start-up d’IA générative. Première fortune mondiale, il n’hésite pas à interpeller avec mépris des hommes politiques européens démocratiquement élus, à intervenir dans la guerre en Ukraine ou à instrumentaliser son média social pour promouvoir son idéologie : c’est le glissement de la prérogative politique. Depuis son élection, Donald Trump l’a investi d’une véritable mission de « cost killer » en chef des USA. Pourtant, Musk n’est pas élu et ne fera pas parti en tant que tel du gouvernement américain : il promeut une logique extrême de la « gestionnarisation » contre l’État fédéral.Productivité du numérique et management numérique (Enjeux sociopolitiques du numérique, Dominique Boullier).Critiquer… et agirLe numérique n’est pas cet avenir tantôt infernal tantôt radieux que nous promettent ses « impenseurs » : ce n’est qu’une catégorie pour désigner un ensemble d’objets techniques et de dispositifs sociotechniques qui doivent être interrogés et débattus au regard de leur action politique et sociétale.Alors que l’impensé focalise notre attention sur l’IA, peut-être avons-nous davantage besoin d’outils nouveaux (dans lesquels il peut y avoir de l’IA) afin de mieux organiser l’expression (numérique) de notre intelligence face aux enjeux qui exigent des décisions collectives inédites. Climat, démocratie, environnement, santé, éducation, vivre-ensemble : les défis ne manquent pas.Dans cette perspective, nous vous invitons à découvrir le service de navigation web contributive Needle. Nourrie par le concept d’« impensé », cette proposition radicalement différente d’accès et de partage de contenus numériques mise sur l’intelligence collective. Needle est une plate-forme de mise en relation qui matérialise l’espérance d’un environnement numérique riche du maillage et de l’exploration curieuse de toutes et tous, en lieu et place du réseau de lignes droites par l’entremise desquelles des intelligences artificielles devraient nous désigner quels documents consulter.Après avoir entièrement refondu Needle, aujourd’hui plus robuste et réactive qu’à sa « sortie du labo », son éditeur projette de se transformer en société coopérative d’intérêt collectif. En effet, comme toute innovation sociale, l’émergence d’alternatives face aux plates-formes toxiques devra s’appuyer sur des structures de l’économie sociale et solidaire. Reste à réunir des partenaires attachés à concrétiser des propositions nourries de la nécessaire critique des techniques et de leur place dans nos sociétés.Les auteurs : Julien Falgas, maître de conférences au Centre de recherche sur les médiations, Université de Lorraine, Pascal Robert, professeur des universités, École nationale supérieure des sciences de l’information et des bibliothèques – Enssib ; Laboratoire elico, Université de LyonCet article est republié sous licence Creative Commons.>> Lire l’article original.The Conversation
LLe langage des partitions musicales face à l’intelligence artificielle L’Institut National des Sciences Appliquées de Lyon – INSA de Lyon – vous invite à découvrir les enjeux des métiers artistiques avec l’émergence de l’intelligence artificielle.Cet exposé présente une variété de travaux de recherche autour de représentations informatiques et d’algorithmes destinés à enrichir l’analyse et la composition musicale. La notion de langage musical sera approchée à travers des composants essentiels des partitions, incluant la structure, la texture ou encore les annotations relatives à la pratique instrumentale dans le cas spécifique des tablatures de guitare.Nous évoquerons également l’adaptation d’outils d’intelligence artificielle élaborés dans le domaine du Traitement Automatique du Langage Naturel (TALN) pour l’étude des partitions, ainsi que la tendance de ces outils à nous interroger sur l’assimilation de la musique à un type particulier de langage.Intervenant : Louis Bigo, professeur en informatique, Bordeaux INP, LaBRI, SCRIME.>> Pour plus d’information, rendez-vous sur le site : INSA Lyon
IIA, éthique & numérique responsable Conférence gratuite organisée à l’Enssib et en ligne, dans le cadre de l’initiative Tour de France de la sobriété numérique avec l’ADEME, le CNRS et l’INRIA.Alors que l’IA envahit peu à peu notre quotidien, prenons le temps de parcourir son histoire, de comprendre son fonctionnement et les enjeux qu’elle impose à notre société, afin de lui donner sa juste place et construire, pour demain, un avenir souhaitable.Cette conférence de Laure Alfonsi, ingénieure en informatique et consultante en green IT, abordera le sujet de l’impact environnemental du numérique et de l’IA sous l’angle des responsabilités des professionnels du numérique au prisme notamment de l’éco-conception des services numériques.Ingénieure et issue du monde de la tech, Laure Alfonsi est aujourd’hui spécialisée dans le numérique responsable. Membre de GreenIT, animatrice de la Fresque du Numérique, elle accompagne les organisations dans une transformation numérique durable. >> Suivez la conférence en direct :chaîne youtube de l’Enssib.
NNouvel humanisme au temps des neurosciences et de l’intelligence artificielle – Projet NHNAI : les premiers résultats Que signifie être humain au temps des neurosciences et de l’intelligence artificielle ? C’est la principale question que tente d’élucider le projet NHNAI ! Pourquoi ? Pour apporter une boussole éthique afin d’encadrer les actions humaines. Comment ? En provoquant une prise de conscience éthique au moyen du débat sociétal. Qui ? Grâce à un réseau international de chercheurs issus d’établissements supérieurs d’enseignement et de recherche Avec qui ? Des acteurs pertinents dans différents pays du monde entier.L’équipe du projet NHNAI – New Humanism in the time of Artificial Intelligence and Neurosciences – de l’Institut Catholique de Lyon – UCLy – vient de publier un dossier qui revient sur les objectifs et la démarche du projet, son évolution depuis trois ans, ses activités ainsi que les résultats de la première vague des débats internationaux. Retrouvez également trois fiches thématiques en annexe qui abordent des controverses évoquées par les participants et auxquelles le réseau de chercheurs du projet s’est efforcé d’apporter des éclairages. > Nouvel humanisme au temps des neurosciences et de l’IA :Le projet NHNAIProjet NHNAI : les premiers résultats
LLa société est biaisée, et cela biaise les IA… voici des pistes de solutions pour une IA vertueuse et une société plus inclusive Les données utilisées pour entraîner les IA reflètent les stéréotypes et les préjugés de la société, par exemple envers des groupes sous-représentés. Pour conserver la confidentialité de données sensibles, comme les données de santé, tout en garantissant qu’elles ne sont pas biaisées, il faut adapter les méthodes d’apprentissage.Plusieurs scandales ont éclaté ces dernières années, mettant en cause des systèmes d’aide à la décision basés sur l’intelligence artificielle (IA) qui produisent des résultats racistes ou sexistes.C’était le cas, par exemple, de l’outil de recrutement d’Amazon qui exhibait des biais à l’encontre des femmes, ou encore du système guidant les soins hospitaliers dans un hôpital américain qui privilégiait systématiquement les patients de couleur blanche par rapport aux patients noirs. En réponse au problème de biais dans l’IA et les algorithmes d’apprentissage automatique, des législations ont été proposées, telles que le AI Act dans l’Union européenne, ou le National AI Initiative Act aux États-Unis.Un argument largement repris concernant la présence de biais dans l’IA et les modèles d’apprentissage automatique est que ces derniers ne font que refléter une vérité de terrain : les biais sont présents dans les données réelles. Par exemple, des données de patients ayant une maladie touchant spécifiquement les hommes résultent en une IA biaisée envers les femmes, sans que cette IA soit pour autant incorrecte.Si cet argument est valide dans certains cas, il existe de nombreux cas où les données ont été collectées de manière incomplète et ne reflètent pas la diversité de la réalité terrain, ou encore des données qui incluent des cas statistiquement rares et qui vont être sous-représentés, voire non représentés dans les modèles d’apprentissage automatique. C’est le cas, par exemple, de l’outil de recrutement d’Amazon qui exhibait un biais envers les femmes : parce que les femmes travaillant dans un secteur sont statistiquement peu nombreuses, l’IA qui en résulte rejette tout simplement les candidatures féminines.Et si plutôt que refléter, voire exacerber une réalité actuelle dysfonctionnelle, l’IA pouvait être vertueuse et servir à corriger les biais dans la société, pour une société plus inclusive ? C’est ce que proposent les chercheurs avec une nouvelle approche : l’« apprentissage fédéré ».Vers une IA décentraliséeLes systèmes d’aide à la décision basés sur l’IA se basent sur des données. En effet, dans les approches classiques d’apprentissage automatique, les données provenant de plusieurs sources doivent tout d’abord être transmises à un dépôt (par exemple, un serveur sur le cloud) qui les centralise, avant d’exécuter un algorithme d’apprentissage automatique sur ces données centralisées.Or ceci soulève des questions de protection des données. En effet, conformément à la législation en vigueur, un hôpital n’a pas le droit d’externaliser les données médicales sensibles de ses patients, une banque n’a pas le droit d’externaliser les informations privées des transactions bancaires de ses clients.Par conséquent, pour mieux préserver la confidentialité des données dans les systèmes d’IA, les chercheurs développent des approches basées sur une IA dite « distribuée », où les données restent sur les sites possesseurs de données, et où les algorithmes d’apprentissage automatique s’exécutent de manière distribuée sur ces différents sites — on parle également d’« apprentissage fédéré ».Concrètement, chaque possesseur de données (participant à l’apprentissage fédéré) entraîne un modèle local sur la base de ses propres données, puis transmet les paramètres de son modèle local à une entité tierce qui effectue l’agrégation des paramètres de l’ensemble des modèles locaux (par exemple, via une moyenne pondérée selon le volume de données de chaque participant). Cette dernière entité produit alors un modèle global qui sera utilisé par les différents participants pour effectuer leurs prédictions.Ainsi, il est possible de construire une connaissance globale à partir des données des uns et des autres, sans pour autant révéler ses propres données et sans accéder aux données des autres. Par exemple, les données médicales des patients restent dans chaque centre hospitalier les possédant, et ce sont les algorithmes d’apprentissage fédéré qui s’exécutent et se coordonnent entre ces différents sites.Avec une telle approche, il sera possible pour un petit centre hospitalier dans une zone géographique moins peuplée que les grandes métropoles — et donc possédant moins de données médicales que dans les grands centres hospitaliers, et par conséquent, possédant a priori une IA moins bien entraînée — de bénéficier d’une IA reflétant une connaissance globale, entraînée de manière décentralisée sur les données des différents centres hospitaliers.D’autres cas d’applications similaires peuvent être mentionnés, impliquant plusieurs banques pour construire une IA globale de détection de fraudes, plusieurs bâtiments intelligents pour déterminer une gestion énergétique appropriée, etc.Les biais dans l’IA décentralisée sont plus complexes à appréhenderComparée à l’approche classique d’apprentissage automatique centralisé, l’IA décentralisée et ses algorithmes d’apprentissage fédéré peuvent, d’une part, exacerber encore plus le biais, et d’autre part, rendre le traitement du biais plus difficile.En effet, les données locales des participants à un système d’apprentissage fédéré peuvent avoir des distributions statistiques très hétérogènes (des volumes de données différents, des représentativités différentes de certains groupes démographiques, etc.). Un participant contribuant à l’apprentissage fédéré avec un grand volume de données aura plus d’influence sur le modèle global qu’un participant avec un faible volume de données. Si ce dernier est dans d’une certaine zone géographique qui représente un groupe social en particulier, celui-ci ne sera malheureusement pas, ou très peu, reflété dans le modèle global.Par ailleurs, la présence de biais dans les données d’un des participants à un système d’apprentissage fédéré peut entraîner la propagation de ce biais vers les autres participants via le modèle global. En effet, même si un participant a veillé à avoir des données locales non biaisées, il héritera du biais présent chez d’autres.Et plus difficiles à corrigerDe plus, les techniques classiquement utilisées pour prévenir et corriger le biais dans le cas centralisé ne peuvent pas s’appliquer directement à l’apprentissage fédéré. En effet, l’approche classique de correction du biais consiste principalement à prétraiter les données avant l’apprentissage automatique pour que les données aient certaines propriétés statistiques et ne soient donc plus biaisées ?Or dans le cas d’une IA décentralisée et d’apprentissage fédéré, il n’est pas possible d’accéder aux données des participants, ni d’avoir une connaissance des statistiques globales des données décentralisées.Dans ce cas, comment traiter le biais dans les systèmes d’IA décentralisée ?Mesurer le biais de l’IA sans avoir accès aux données décentraliséesUne première étape est de pouvoir mesurer les biais des données décentralisées chez les participants à l’apprentissage fédéré, sans avoir directement accès à leurs données.Avec mes collègues, nous avons conçu une nouvelle méthode pour mesurer et quantifier les biais dans les systèmes d’apprentissage fédéré, sur la base de l’analyse des paramètres des modèles locaux des participants à l’apprentissage fédéré. Cette méthode a l’avantage d’être compatible avec la protection des données des participants, tout en permettant la mesure de plusieurs métriques de biais.Capturer l’interdépendance entre plusieurs types de biais, et les corriger dans l’IA décentraliséeMais il peut aussi y avoir plusieurs types de biais démographiques, qui se déclinent selon différents attributs sensibles (le genre, la race, l’âge, etc.), et nous avons démontré qu’atténuer un seul type de biais peut avoir pour effet collatéral l’augmentation d’un autre type de biais. Il serait alors dommage qu’une solution d’atténuation du biais lié à la race, par exemple, provoque une exacerbation du biais lié au genre.Nous avons alors proposé une méthode multi-objectifs pour la mesure complète des biais et le traitement conjoint et cohérent de plusieurs types de biais survenant dans les systèmes d’apprentissage fédéré.Ces travaux sont le fruit d’une collaboration avec des collègues chercheurs, doctorants et stagiaires : Pascal Felber, (Université de Neuchâtel), Valerio Schiavoni (Université de Neuchâtel), Angela Bonifati (Université Lyon 1), Vania Marangozova (Université Grenoble Alpes), Nawel Benarba (INSA Lyon), Yasmine Djebrouni (Université Grenoble Alpes), Ousmane Touat (INSA Lyon).Le projet CITADEL est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.>> L’autrice : Sara Bouchenak, Professeure d’Informatique – INSA Lyon, INSA Lyon – Université de LyonCet article est republié sous licence Creative Commons. >> Lire l’article original :The Conversation
ÀÀ la recherche de l’Intelligence Artificielle | MOOC tout public Curieux de voir comment l’intelligence artificielle réinvente notre quotidien ? Explorez ses fondements et ses impacts, découvrez comment elle influence nos habitudes tout en apprenant à la maîtriser. L’Université Jean Monnet Saint-Étienne, vous propose ce cours accessible à tout public.Ce parcours vous immerge dans l’univers de l’intelligence artificielle à travers des outils variés tels que la génération de texte, la synthèse vocale ou la création d’images. Conçu pour sensibiliser aux enjeux de l’IA, ce cours, enrichi par des experts universitaires, place l’humain au cœur des réflexions, avec une approche responsable, sous un format ludique.> Ce que vous allez apprendre :Découvrir où se cache l’Intelligence Artificielle (IA) dans notre quotidien. Des assistants vocaux aux recommandations de streaming, l’IA est partout autour de nous, influençant la manière dont nous vivons, travaillons et apprenons.Développer une compréhension des bases fondamentales de l’IA. Vous découvrirez comment fonctionnent les algorithmes d’apprentissage automatique et les réseaux neuronaux.Découvrir les usages de l’IA dans divers domaines professionnels, comment cette technologie transforme chaque secteur.Aborder aussi les points de vigilance liés à l’IA : les risques d’hallucinations des modèles, les biais algorithmiques, les enjeux éthiques, les questions de droits d’auteur, ainsi que l’impact environnemental de cette technologie.Identifier les compétences clés à acquérir pour travailler efficacement avec l’IA : la capacité à résoudre des problèmes complexes, innover avec créativité, et cultiver un sens critique affûté face aux nouvelles technologies.> Le parcours est jalonné de 5 étapes : Le portail : pour démasquer l’IA en « Détective du quotidien »Le mentor : pour s’éclairer en « Sage de l’IA »La forêt des possibles : pour se transformer en « Explorateur des horizons »La traversée du doute : pour devenir un « Gardien éthique de l’IA »Le laboratoire : pour travailler avec l’IA en « Innovateur créatif »Chaque module inclut des vidéos, des quiz interactifs formatifs et des exercices pratiques.> Évaluation et certificationL’évaluation se fait via un quiz proposé à la fin de chaque module ainsi qu’un quiz final. Un Open Badge de suivi sera délivré par FUN à l’issue du cours si toutes les évaluations sont complétées.>> Pour plus d’information, rendez-vous sur le site :France Université Numérique
SSéminaire IA : de l’intelligence artificielle dans la gestion documentaire L’Enssib a organisé les 2 et 3 octobre dernier un séminaire de rentrée sur l’intelligence artificelle (IA) proposant des conférences retransmises en direct et des ateliers à destination de ses étudiants en master 2 (mentions CEI et SIB). Intitulé « De l’intelligence artificielle dans la gestion documentaire », cet événement avait pour objectif de donner à réfléchir sur les enjeux éthiques et sociétaux de l’IA, d’éclairer les perspectives que l’IA ouvre dans le champ de la gestion documentaire et de discuter des transformations des métiers et pratiques professionnelles, face aux défis actuels et futurs.Comme le souligne dans son introduction Nathalie Marcerou-Ramel, directrice de l’Enssib, l’Enssib poursuit son engagement autour de l’IA et « milite pour lancer des projets de formation, la plus large possible, des professionnels en poste et des futurs professionnels, aux enjeux de l’IA pour se préparer à un avenir où les outils de l’IA seront importants et vont peut-être modifier largement le cœur de nos métiers« .Visionnez LE SEMINAIRE en replay L’Enssib s’engage également à travers ses actions de formation dédiée et à travers une programmation ouverte à tous et toutes depuis la chaîne youtube de l’Enssib.Consultez la chaîne YouTube