Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

Nouvel humanisme au temps des neurosciences et de l’intelligence artificielle – Projet NHNAI

NNouvel humanisme au temps des neurosciences et de l’intelligence artificielle – Projet NHNAI

Que signifie être humain au temps des neurosciences et de l’intelligence artificielle ? C’est la principale question que tente d’élucider le projet NHNAI ! Pourquoi ? Pour apporter une boussole éthique afin d’encadrer les actions humaines. Comment ? En provoquant une prise de conscience éthique au moyen du débat sociétal. Qui ? Grâce à un réseau international de chercheurs issus d’établissements supérieurs d’enseignement et de recherche Avec qui ? Des acteurs pertinents dans différents pays du monde entier.

Le projet NHNAI en quelques mots

Le projet NHNAI – Nouvel Humanisme au temps des Neurosciences et de l’Intelligence Artificielle – a officiellement débuté en Janvier 2022 sous l’égide de la Fédération Internationale des Universités Catholiques (IFCU). Le projet est coordonné par l’Unité de Recherche Confluence : Sciences et Humanités de l’Institut Catholique de Lyon, sous la responsabilité de Mathieu Guillermin et rassemble de multiples partenaires à travers le monde issus d’horizons divers (philosophes, éthiciens, sociologues, théologiens, experts en étude des religions, historiens, scientifiques en biomédecine, anthropologues, etc.). Plus particulièrement, le projet se concentre sur trois domaines essentiels que les récentes avancées scientifiques et technologiques ont bouleversé : SANTÉ – ÉDUCATION – DÉMOCRATIE

Principales hypothèses et objectifs

©NHNAI

Le projet NHNAI a pour objectif de soutenir la société dans ses efforts pour faire face aux défis éthiques soulevés par les neurosciences (NS) et l’intelligence artificielle (IA) en organisant des débats sociétaux avec l’aide des acteurs académiques. Ces défis et enjeux sociétaux sont nombreux, à l’image de l’automatisation du travail, de la prise de décision basée sur les données, des diagnostics médicaux, des voitures autonomes, des technologies de persuasion, de la neuromodulation au moyen d’implants neuronaux ou l’augmentation des capacités humaines, du renforcement des compétences, par exemple, dans le champ de l’éducation. Ces implications soulignent le besoin pressant pour tous les acteurs concernés de dépasser les simples aspects pratiques de ces domaines de recherche et d’applications, pour considérer leurs dimensions éthiques, morales et spirituelles. Ces acteurs ont besoin d’une boussole éthique collective pour naviguer parmi les multiples possibilités ouvertes par ces nouveaux champs d’action relatifs à l’intelligence artificielle et aux neurosciences.
Ainsi, NHNAI entend mettre les ressources académiques de son réseau au service d’un effort sociétal pour élaborer une boussole éthique collective, en particulier en encourageant l’exploration de la question centrale de l’humain (que signifie être humain au temps des neurosciences et de l’intelligence artificielle ? Qui sommes-nous en tant qu’être humain ? Qui devrions-nous être en tant qu’être humain…), et des tensions et les complexités que révèle cette question.
En effet, dans les réflexions éthiques et les efforts de régulation, on trouve très souvent des références à la notion d’ « humain » (par exemple, l’épanouissement humain, la technologie centrée sur l’humain, la nature humaine) ou à de concepts clés qui lui sont fermement attachés (telle que la dignité ou l’autonomie). Pourtant, cette notion d’humain en tant que telle reste ambigüe et problématique. Ce que signifie être humain est loin de faire l’objet d’une compréhension clarifiée et partagée. Il est bien sûr possible de s’appuyer sur l’humanisme du XVIIIème siècle (i.e., celui du siècle des Lumières, des révolutions politiques et des droits de l’homme). Bien que cette approche soit très influente et répandue (au moins dans la tradition et la culture occidentale), elle ne va pas néanmoins sans son lot de tensions, de difficultés et de controverses (multiples courants, rapport individu-groupe, rapport au non-humain …). Au-delà, ou en plus, des limites de cette approche répandue de la question de l’humain, force est de constater que les nouvelles connaissances et les technologies issues des NS et de l’IA entraînent aussi de profonds questionnements, notamment à propos de caractéristiques centrales pour l’humain qui se voient mises en tension (comme l’intelligence, le libre-arbitre, ou l’autonomie). L’absence d’une compréhension clarifiée et partagée au sujet de ce que signifie “être humain” (surtout par rapport aux tensions et complexités que la notion implique) risque donc de constituer une entrave à l’appréhension par tous les acteurs concernés des principales implications, notamment du point de vue éthique, moral et spirituel, de ces avancées en NS et dans le développement technologique de l’IA. Explorer collectivement la question de l’humain semble ainsi indispensable pour favoriser l’élaboration d’une boussole éthique à même de nous aider à nous orienter au temps de l’IA et des NS.
Ainsi posée, cette question de l’humain devient éminemment politique. Bien que leurs apports soient indispensables, universitaires et experts ne peuvent y répondre seuls. Réfléchir sur les différentes conceptions de l’humain aujourd’hui, ou sur ce que devrait être l’humain au temps de l’IA et des neurosciences est avant tout une question politique et existentielle, essentielle pour la réflexion éthique et qui, par conséquent, doit faire l’objet d’une large discussion sociétale. C’est à cette exigence que le projet NHNAI entend satisfaire en mettant les ressources de ses réseaux universitaires au service de cette réflexion collective et sociétale.

Lancement des débats sociétaux : 2 étapes

>> Ateliers de cadrage des problèmes

©NHNAI

Après avoir collecté des données pertinentes pour le débat sociétal sur le thème de l’humanisme lors du premier atelier académique en Mars 2022 (voir première newsletter), les équipes du projet NHNAI étaient prêtes à rencontrer et discuter avec plusieurs acteurs extra-académiques sur les enjeux éthiques des NS et de l’IA et réfléchir avec eux à la question centrale de ce que cela signifie d’être humain au temps des NS et de l’IA. Dans différents pays, les équipes de NHNAI ont rencontré et interrogé différentes personnes pour chaque thème de débat, dans le but de construire avec eux les questions qui doivent être débattues sur la scène publique. Parmi eux, on peut notamment compter des professeurs, des psychologues, des éducateurs spécialisés, des étudiants, des citoyens, des médecins, des neuroscientifiques, des avocats, des décideurs politiques et des ONG (organisation non gouvernementale).
Sur cette base, les experts du réseau académique NHNAI ont été sollicités pour enrichir et compléter le matériel initial afin de maximiser sa pertinence et son utilité en tant qu’outil au service du débat sociétal. Parmi les nombreuses questions qui ont été co-construites par les experts et les acteurs extra-académiques, on peut retrouver des questions exprimant des inquiétudes mais également des réflexions sur les opportunités et les bienfaits de ces technologies :

  •  Quelles sont les principales caractéristiques de ce que signifie être humain qui devraient être préservées/renforcées avec les NS et l’IA ?
  • Comment l’IA et les NS peuvent-elles nous aider à approfondir notre compréhension de nous-même et de notre humanité ?
  • Quelle est la responsabilité du scientifique dans l’usage de la technologie qu’il produit ?
  • Le développement de l’IA et des NS ne risque-t-il pas de conduire à une déshumanisation de l’enseignement ainsi qu’à la réduction de la diversité des sources ?
  • Qu’est-ce qui dans le soin, est authentiquement humain et ne devrait pas être délégué à un robot ou à une IA ?
  • Le développement de l’IA et des NS ne risque-t-il pas de priver l’humanité de son autonomie et de sa liberté, de sa capacité à ralentir ou même arrêter de ce que nous avons initié ?
  • Comment les neurosciences et l’IA peuvent-elles améliorer la paix entre les êtres humains ?
  • L’IA peut-elle favoriser l’avènement d’une société plus inclusive, prenant en compte les plus vulnérables ?

>> Ateliers de débats éthiques

Après la phase des ateliers de cadrage des problèmes et dans 9 pays, les équipes de NHNAI ont organisé des ateliers de débats éthiques avec leurs communautés locales de Février à Mars 2023. Des personnes de différents domaines et statuts ont été invités à participer à ces ateliers sur les thèmes de l’éducation, la santé et la démocratie et réfléchir collectivement aux enjeux éthiques des NS et de l’IA à partir de la question centrale de ce que cela signifie d’être humain au temps des NS et de l’IA dans ces domaines. On peut notamment retrouver des thèmes communs entre les pays, comme en éducation, où les participants se sont interrogés sur le rôle de l’éducateur et de l’IA, sur la nature et l’objectif de l’éducation, et sur l’impact de l’IA sur le processus d’apprentissage. Dans la santé, les participants se sont interrogés sur l’autonomie des patients et la relation entre le patient et le médecin avec les développements technologiques des NS et de l’IA, mais également sur le rôle de l’humain dans le système de soin. Enfin, dans la démocratie, les participants ont évoqué les impacts de l’IA sur l’autonomie du citoyen et sur la participation citoyenne. Néanmoins, on peut également noter des particularités selon les pays. Par exemple, au Kenya, les participants se sont concentrés sur les opportunités de l’IA dans l’éducation, et au Québec, les participants se sont concentrés sur les risques de surveillance auxquels l’IA peut conduire dans le thème de la démocratie.

>> Poursuivre les débats en ligne avec Cartodébat

Ces discussions initiées en face à face durant les ateliers se sont poursuivies en ligne avec la plateforme CartoDÉBAT, permettant de créer des débats publics numériques. N’importe qui peut participer aux discussions dans son pays. Il suffit de se rendre sur le site CartoDÉBAT, choisir son pays et créer un compte avec une adresse e-mail valide. Ensuite, vous pouvez sélectionner le débat sur lequel vous souhaitez participer sur la carte. Une fois que vous êtes sur la page du débat, vous devez surligner ce sur quoi vous souhaitez réagir (cela peut être sur la page de gauche dans le texte ou sur la page de droite dans les contributions des utilisateurs), spécifier avec un code couleur la nature de votre contribution (vert signifie « oui et », rouge signifie « oui mais » et bleu signifie « pas compris ») et d’ajouter votre argument. Tout est expliqué dans les vidéos sur la chaine YouTube.

Analyser les débats : la réunion entre les acteurs académiques de NHNAI

©NHNAI

Les acteurs académiques de NHNAI se sont réunis le 27 et 28 avril 2023 à l’Université Catholique de Lyon pour un travail interdisciplinaire sur la méthode d’analyse des contributions des débats. Ceux-ci ont discuté et réfléchi ensemble sur la procédure permettant de créer une librairie de mots-clés qui les aideront à analyser les corpus des contributions de la plateforme cartoDÉBAT. Cette méthode d’annotation des corpus et la librairie de mots-clés permettront aux équipes de NHNAI de faire une analyse globale (entre tous les pays) ainsi qu’une analyse locale, propre à chaque pays.
La librairie de mots-clés contribuera à avoir une meilleure compréhension de ce que cela signifie d’être humain à l’heure des neurosciences et de l’intelligence artificielle et donc également de ce qui est souhaitable ou non avec ces nouvelles technologies. Cela participera à la construction d’une boussole éthique permettant de mieux faire face aux nombreux défis que ces technologies posent à la société.
Ces analyses conduiront à l’élaboration d’un livre blanc sur la base de recommandations pour des lignes de conduite éthiques et politiques publiques (qui seront disséminées en 2025). De telles recommandations provenant de la société à un niveau global est d’une importance capitale de nos jours afin de nous orienter le mieux possible à travers les enjeux éthiques des neurosciences et de l’IA.

Découvrez les premiers résultats de la synthèse des débats sur l’éducation

Après les ateliers en présentiel sur les enjeux éthiques de l’intelligence artificielle et des neurosciences dans le domaine de l’éducation (à l’Université Catholique de Lyon, le 21 février 2023) et les discussions en ligne qui ont suivies sur la plateforme CartoDEBAT, nous avons le plaisir de vous partager les premiers éléments de synthèse et de restitution de ces discussions. Ces derniers constituent le début d’une analyse locale complète qui sera diffusée prochainement et préfigurent de futurs résultats attendus de la synthèse globale de tous les corpus de discussions dans les 9 pays participants.
Voici ci-dessous une représentation visuelle des idées les plus saillantes concernant ce que cela signifie d’être humain au temps de l’intelligence artificielle et des neurosciences, qui ont émergé des discussions centrées sur les enjeux éthiques de l’IA et des NS dans le domaine de l’éducation. Voici des éléments de lecture :

  • Le nombre à droite de chaque idée saillante indique le nombre de contributions qui expriment cette idée
  • Les connexions entre les idées saillantes :
    o Les flèches vertes connectent les idées en concordance
    o Les flèches rouges manifestent les complexités et les tensions entre les idées saillantes

©NHNAI

Pour en savoir plus :

Projet NHNAI

Présenter l’IA comme une évidence, c’est empêcher de réfléchir le numérique

PPrésenter l’IA comme une évidence, c’est empêcher de réfléchir le numérique

Au printemps dernier, des personnalités aussi diverses que Elon Musk, Yuval Noah Harari ou Steve Wozniak s’associaient à plus de 1 000 « experts » pour mettre en garde face aux « risques majeurs pour la société et l’humanité » que représente l’intelligence artificielle et demander une pause de six mois dans d’entraînement des modèles plus puissants que GPT-4. Du Monde au Figaro, en passant par FranceInfo ou Libération, les médias ont volontiers relayé les termes de ce courrier qui appelle à une pause pour mieux affirmer le caractère inéluctable et la toute-puissance des systèmes d’IA à venir.

Ce qui frappe dans la réception médiatique immédiate de ce courrier, c’est la myopie face à un processus théorisé depuis maintenant bientôt 30 ans : « l’impensé numérique » (ou informatique, avant lui). Ce concept d’« impensé » désigne les stratégies discursives par lesquelles la technologie est présentée comme une évidence, souvent sous l’influence des acteurs dont elle sert les intérêts économiques ou politiques.

La lettre ouverte de l’institut Future of Life en est un cas d’école : selon elle, l’intelligence artificielle est un outil puissant, il est déjà là, et il est appelé à être encore plus présent et plus puissant à l’avenir pour le plus grand bien de l’humanité.

Comment repérer l’impensé numérique ?

Sept marqueurs discursifs devraient vous mettre la puce à l’oreille. Pour illustrer cette « boîte à outils », la lettre ouverte d’Elon Musk et consorts, qui prétend pourtant appeler à faire une pause, présente avantageusement tous les marqueurs discursifs de l’impensé, quoique l’on puisse également l’appliquer au très sérieux rapport Villani qui plaidait en 2018 pour une stratégie nationale et européenne en matière d’IA :

©Freepik

Dans ce type de discours, l’objet technique se présente comme neutre : il revient à l’humanité de s’en servir à bon escient, sa seule existence lui sert de justification.

Pourtant, si l’on nous dit que l’IA représente des « risques majeurs pour l’humanité », n’est-ce pas la preuve que nous sommes devant une technique qui n’est pas neutre justement ?

Voilà sans doute le mécanisme le plus retors de l’impensé : diaboliser l’objet technique contribue à la fois à affirmer sa puissance et son potentiel lorsqu’il est utilisé à bon escient, et à alimenter le pseudodébat sans lequel l’intérêt médiatique retomberait. L’informatique, le numérique, l’IA sont déjà là, nul besoin de produire un travail historique sérieux à leur sujet, le storytelling des réussites entrepreneuriales suffit.

L’impensé forme un cercle vicieux avec le glissement de la prérogative politique…

L’impensé est indissociable de deux autres processus avec lesquels il forme un véritable cercle vicieux : le glissement de la prérogative politique et la gestionnarisation.

À la faveur de l’impensé numérique, des outils détenus par des acteurs privés sans légitimité électorale ou régalienne déterminent jusqu’à l’accès du public à l’information. Un exemple en est la plate-forme X (anciennement Twitter), qui est scrutée par les journalistes parce qu’elle est alimentée par les personnalités publiques et politiques, ainsi que par les institutions publiques. Lorsqu’une plate-forme privée porte une parole politique, nous sommes dans ce que l’on appelle le « glissement de la prérogative politique ».

En effet, lorsque des acteurs privés déploient des technologies de manière systématique, depuis les infrastructures (câbles, fermes de serveurs, etc.) jusqu’aux logiciels et applications, cela revient à leur déléguer des prises de décisions de nature politique. Ainsi, face à un moteur de recherche qui domine notre accès à l’information et occupe une place qui relèverait d’un véritable service public, nous sommes en plein dans un glissement de la prérogative politique.

On observe le même phénomène lorsque le gouvernement français préfère recourir aux cabinets de conseil plutôt qu’à l’expertise universitaire. Des cabinets, dont les recommandations privilégient volontiers le recours systématique aux technologies numériques et font le lit de la gestionnarisation.

… et avec la gestionnarisation

Aujourd’hui, les outils numériques ne nous permettent pas seulement de gérer diverses activités (banque, rendez-vous médicaux…), ils sont aussi et surtout devenus incontournables pour effectuer ces tâches. Nous n’avons pas d’autre choix que de nous fondre dans les catégories que ces outils nous imposent. Il n’est pas toujours facile de prendre rendez-vous avec un ou une secrétaire médical, par exemple, ou de faire sa déclaration d’impôts sur papier. C’est ce que l’on appelle la « gestionnarisation ».

Cette gestionnarisation témoigne aussi d’un glissement. Par exemple, l’outil d’accès à l’enseignement supérieur Parcoursup s’impose désormais aux lycéens et à leurs familles. Or cet outil porte une dimension politique aux conséquences critiquables, telles que l’exclusion de certaines catégories de bacheliers ou l’accentuation de la mise en concurrence des formations. Dans la gestion, l’outil est second par rapport à l’activité ; avec la gestionnarisation, l’outil devient premier : Parcoursup a pris le pas sur le besoin auquel il est censé répondre.

Dans notre quotidien, pour visiter une nouvelle région, choisir le menu de son dîner comme pour rencontrer l’âme sœur, chacun saisit docilement les informations attendues par les plates-formes de consommation numérique. Lorsque l’on mène une activité sportive en s’équipant d’un bracelet qui traite, mémorise et fait circuler un ensemble de données biométriques, celles-ci deviennent le modèle que l’on suit, plutôt que le ressenti de son corps, dans une sorte d’« auto-gestionnarisation ».

Dûment identifiés et profilés par nos outils, nous contribuons sans réserve aux profits économiques de firmes dont l’essentiel des revenus échappe à l’impôt… Et donc au pouvoir démocratique déjà ébranlé par le glissement de la prérogative politique.

Productivité du numérique et management numérique (Enjeux sociopolitiques du numérique, Dominique Boullier).

Critiquer… et agir

Le numérique n’est pas cet avenir tantôt infernal et tantôt radieux que nous promettent ses impenseurs : ce n’est qu’une catégorie pour désigner un ensemble d’objets techniques et de dispositifs sociotechniques qui doivent être interrogés et débattus au regard de leur action politique et sociétale.

Alors que l’impensé focalise notre attention sur l’IA, peut-être avons-nous davantage besoin outils nouveaux (dans lesquels il peut y avoir de l’IA) afin de mieux organiser l’expression (numérique) de notre intelligence face aux enjeux qui exigent des décisions collectives inédites. Climat, démocratie, environnement, santé, éducation, vivre-ensemble : les défis ne manquent pas.

Dans cette perspective, nous vous invitons à découvrir la nouvelle version du service de navigation web contributive Needle. Nourrie par le concept d’impensé, cette proposition radicalement différente d’accès et de partage de contenus numériques mise sur l’intelligence collective. Needle est une plate-forme de mise en relation qui matérialise l’espérance d’un environnement numérique riche du maillage et de l’exploration curieuse de toutes et tous, en lieu et place du réseau de lignes droites par l’entremise desquelles des intelligences artificielles devraient nous désigner quels documents consulter.

Cette technologie est désormais portée par une start-up, preuve qu’il est possible de concevoir des propositions concrètes qui tiennent compte de la nécessaire critique de la place accordée à la technique dans nos sociétés.The Conversation

Auteur : Julien Falgas, Maître de conférences au Centre de recherche sur les médiations, Université de Lorraine et Pascal Robert, Professeur des universités, École nationale supérieure des sciences de l’information et des bibliothèques ; laboratoire elico, MSH Lyon Saint-Étienne, Université de Lyon

Cet article est republié à partir de The Conversation sous licence Creative Commons.

>>> Lire l’article original

Intelligence artificielle : écosystèmes, enjeux, usages. Une approche interprofessionnelle

IIntelligence artificielle : écosystèmes, enjeux, usages. Une approche interprofessionnelle

La Biennale du numérique est une rencontre interprofessionnelle et scientifique qui questionne les problématiques émergentes relatives au développement du numérique pour les professionnels du livre, mais aussi les usages de la lecture, le devenir de l’édition (notamment numérique), les innovations en matière de production et de diffusion de contenus, ou encore les évolutions de l’accès à l’information.

L’édition 2023 de la Biennale du numérique est consacrée à la question des usages de l’Intelligence Artificielle : usages professionnels, usages publics, et comment usages professionnels et usages publics s’influencent mutuellement.

Consultez le programme sur le site de l’Enssib.

La journée du 13 novembre sera dédiée aux des écosystèmes et enjeux de l’intelligence artificielle (histoire, définition, controverses, enjeux), privilégiant une série de conférences données par des chercheurs et des professionnels très en pointe sur la question. Une perspective internationale sera également proposée. Nous reviendrons ensuite sur les questions d’éthique, de droit d’auteur, de valeur des produits de l’IA, de modèle économique, de politiques de l’IA.

La journée du 14 novembre sera consacrée aux usages de l’IA dans le monde des bibliothèques, des archives et de l’édition, entre incertitudes et opportunités.

La biennale sera inaugurée par Nathalie Marcerou-Ramel, directrice de l’Enssib et Malcolm Walsby, directeur de la recherche de l’Enssib.

 

INSCRIPTION

 

 

 

L’humain au temps de l’IA et des neurosciences

LL’humain au temps de l’IA et des neurosciences

Vous êtes interpelés par les enjeux sociétaux et éthiques soulevés avec les avancées et développements majeurs de l’intelligence artificielle et des neurosciences ? Que vous soyez spécialiste ou non, citoyenne ou citoyen, impliqué dans l’innovation technologique ou non…, votre contribution à la réflexion est précieuse !

Le projet NHNAI, New Humanism at the times of Neurosciences and Artificial Intelligence, vous propose de rejoindre un effort collectif (et international) de réflexion sociétale sur la question « que signifie être humain au temps des neurosciences et de l’intelligence artificielle ? ». Une exploration indispensable pour mieux s’orienter parmi les nouvelles possibilités offertes par le développement de l’IA et des neurosciences.

Nous nous intéresserons en particulier aux domaines de l’éducation, de la santé et de la démocratie.

Ces discussions en ligne font suite à un premier atelier débats sur le thème de l’éducation ayant eu lieu le 21 février 2023 à l’Institut Catholique de Lyon – UCLy et ayant rassemblé 50 participants pour échanger, discuter et construire les premières pistes de réflexions sur ces sujets tant importants (lire le résumé de la soirée).

À venir, dès le début du mois d’avril, des échanges sur l’humain au temps de l’IA et des neurosciences dans le domaine de la santé et de la démocratie (animés par l’Université Catholique de Lille et l’Icam – Institut Catholique d’Arts et Métiers).

Les défis éthiques soulevés par l’IA et les neurosciences nous concernent tous et toutes. Ce sont des questions politiques et sociétales. Leur exploration ne peut être de la seule responsabilité d’un nombre restreint de politiciens et d’experts scientifiques et universitaires. La mobilisation de tous les membres de la société est donc cruciale pour pouvoir construire une réflexion commune qui puisse être susceptible d’influencer et d’avoir un poids dans la régulation éthique des neurosciences et de l’IA et dans les décisions politiques.

Ainsi, votre participation est plus que jamais importante !

PARTICIPER AUX DÉBATS EN ligne

ChatGPT : (encore) une « révolution anthropologique » ? | The Conversation

CChatGPT : (encore) une « révolution anthropologique » ? | The Conversation

Depuis la mise en ligne de la version « Chat » de l’intelligence artificielle (IA) GPT, capable d’imiter la production intellectuelle humaine, l’effervescence autour de ces technologies fait ressurgir dans les débats la notion de « révolution anthropologique ».

Or, ce que nous observons, au-delà de ChatGPT, est que chaque nouvelle avancée dans des technologies dites de « rupture » relève en fait de cette ambivalente technophilie, tentée par le technoscepticisme, qui oscille entre émerveillement et frisson face aux rapides et impressionnants progrès de l’informatique et de la cybernétique.

Depuis la victoire de Deep Blue, le super-ordinateur, contre un humain aux échecs, la tonalité est donnée : il se jouerait là un « tournant de l’histoire de l’humanité ».

Une multitude de dispositifs informatiques

Les dernières prouesses mathématiques et technologiques ont donné naissance à une rapide massification de ce que l’on désigne comme « intelligence artificielle », appellation que des spécialistes comme Luc Julia ou Jean-Louis Dessalles contestent car cette « intelligence » se décline en fait sous une multitude de dispositifs informatiques.

On trouve ainsi pêle-mêle des algorithmes d’aide à la décision, notamment juridique (CaseLaw Analytics), reconnaissance faciale comme FaceNet, musique générée par algorithmes avec Jukedeck, images générées par le texte avec Dall·E 2, agents conversationnels portables (Siri), domotique intelligente qui informe sur le contenu du réfrigérateur, robots humanoïdes capables d’engager et tenir une conversation… on pense ainsi à la désormais célèbre Sofia, qui passe de plateau TV en conférence, ou à Ameca, dont la gestuelle et les expressions ne cessent de montrer les limites de l’humain.

Robots « humanoides » Ameca.

Un imaginaire débridé

La massification des technologies et leur injection tous azimuts dans les sociétés contemporaines sont, certes, remarquables, et donnent l’impression d’une vague irrépressible de « technologisation » et de digitalisation des environnements humains.

Cette tendance nourrit un imaginaire débridé qui se pense nécessairement en rupture avec le passé, d’où la mode de la « révolution » aux accents transhumanistes. Nous serions ainsi à « l’aube » d’une « nouvelle » humanité prise dans une nouvelle « ère » technologique. Un récit qui oublie les nombreux ratés des dites technologies, d’ailleurs.

La « révolution de l’IA » ou « digitale » est-elle une révolution anthropologique ? Curieusement, ce sont les entrepreneurs comme Gilles Babinet, les historiens à succès, comme Yuval Noah Harari, les philosophes, comme Frédéric Worms, qui se sont emparés de l’expression (avec des termes plus ou moins exacts).

Le premier pour affirmer avec force que c’est bien le cas.

Le second, avec son livre Homo Deus, pour inscrire cette révolution dans un modèle de longue durée de l’histoire humaine au péril d’une simplification à outrance qui brouille les pistes entre lecture rétrospective de l’histoire et imagination prospective.

Le troisième, enfin, avec un bien plus de mesure, pour au moins souligner la pertinence d’un questionnement sur la profondeur des transformations en cours.

On regrettera que les anthropologues soient malheureusement peu mobilisés sur un débat qui concerne au premier chef la discipline dont le nom est mis à toutes les sauces, à quelques exceptions près. Emmanuel Grimaud a pris à bras le corps la question essentielle de la nature de l’IA par comparaison avec les traits d’une humanité toujours plus questionnée sur ce qui fait sa singularité.

Pascal Picq, s’en est emparé dans un genre très différent, puisque le paléoanthropologue n’hésite pas à sortir du cadre strict de l’anthropogenèse (l’évolution humaine). Il inscrit la révolution digitale dans le temps long de l’évolution humaine et, contre toute réduction intellectuelle, invite à penser la complexité des formes d’intelligences animales et artificielles.

Questionner la notion même de rupture

Les anthropologues, habitués, par spécialisation intellectuelle, au temps long et plus enclins à considérer les continuités que les ruptures (souvent hâtivement annoncées) dans l’ordre des sociétés et les mutations culturelles, ont toutes les raisons d’être circonspects.

D’abord parce que tout changement technologique n’entraîne pas un changement culturel majeur. Suivant Claude Lévi-Strauss notamment dans Race et Histoire (1955), il faut peut-être réserver le terme à un phénomène de nature à transformer en profondeur (structurellement) l’ordre de la pensée et de l’organisation sociale.

Ce fut le cas avec la domestication du feu et des espèces animales, la sédentarisation et l’agriculture au néolithique, qui ne sont pas toutes des inventions (ex-nihilo) mais bien souvent des innovations au sens anthropologique du terme : l’amélioration d’une technique déjà élaborée par les humains. Et c’est en ce sens que l’IA et nombre de technologies digitales méritent proprement le terme d’innovation plus que d’inventions.

Fête autour d’un feu à l’Âge de la pierre. Peinture de Viktor Vasnetsov (détail), 1883.
Viktor Vasnetsov/Wikimedia

En ce sens, le philosophe Michel Serres évoquait une « troisième révolution » pour qualifier l’avènement du monde digital, après l’écriture et l’imprimerie. Il fait ainsi écho à Jack Goody, qui explique que la raison graphique a métamorphosé une raison orale, structurant la pensée et la communication humaine pendant des millénaires. En d’autres termes, ce ne sera pas l’unique fois, bien au contraire, où l’humanité se trouve confrontée à une réadaptation de ses manières de penser après un changement dans ses techniques.

Quelle révolution ?

Révolution, donc que cet Homo numericus comme on l’affirme ici ou là avec la force de la conviction que le présent explique tout ?

Si on suit l’historienne Adrienne Mayor, les civilisations de l’Antiquité ont déjà imaginé et même commencé à mettre en œuvre des technologies qui sont actuellement sur le devant de la scène, de manière embryonnaire pour l’IA ou plus aboutie pour les robots. Son God and Robots tord le cou à des lectures partielles et partiales d’une histoire monolithique et récente.

Peinture de Pygmalion et Galate, au Musée du Louvre. Anne-Louis Girodet
Peinture de Pygmalion et Galate, au Musée du Louvre. Anne-Louis Girodet.
Anne-Louis Girodet, Shonagon, Wikimedia

Elle narre ainsi les récits de Talos, « premier robot », puis le chaudron d’immortalité de Médée, les emprunts des humains aux animaux et aux Dieux pour accroître leurs pouvoirs, les premières statues « vivantes » de Dédale et Pygmalion, la création des humains plus qu’humains par Prométhée, les automates d’Héphaïstos, la première réalité virtuelle qu’incarne Pandore… Pour Mayor, la révolution numérique ne serait qu’une actualisation dans le présent d’anciennes technologies.

Une réinvention plus qu’une révolution, donc, et des impacts moins profonds qu’il n’y parait : les machines étaient là, depuis le début, dans l’imaginaire des humains qui ont tâtonné (dans tous les sens du terme) pour les matérialiser.

Certes, les technologies sont loin d’être identiques – entre les automates grecs et les machines agissantes de Boston Dynamics, l’écart est quand même sensible et toute technologie est d’abord évaluable dans son contexte – mais elles étaient déjà investies des espoirs de l’humanité d’être assistée voire suppléée dans ses tâches physiques (pour les robots) et intellectuelles (pour l’IA).

Les robots de Boston Dynamics.

Comment les humains absorbent-ils les technologies ?

La révolution est-elle d’ailleurs anthropologique ou technologique ? La leçon de l’anthropologie, c’est de considérer comment l’humain élabore des technologies et comment celles-ci sont absorbées par les systèmes sociaux et culturels.

La « révolution numérique » ou « digitale » engendre indubitablement des transformations dans les technologies, sans qu’elles se traduisent mécaniquement par des mutations des modèles de comportements humains. De nouveaux usages apparaissent mais les modèles de comportement peuvent infléchir les techniques, plutôt que d’être infléchis par elles.

Suivant les plus critiques des spécialistes de l’IA, et des technologies digitales, il s’agit de considérer la singularité de chaque technologie et de ses effets : là où la réponse sociale aux agents conversationnels semble plutôt positive et immédiate (les chatbots sont facilement adoptés), les IA de reconnaissance faciale donnent lieu à des contournements au moyen de contre-systèmes informatiques.

Suivant Picq, il faut sans doute réserver aux smartphones un sort à part, dans le sens où ils allient la matérialité d’un ordinateur portable, et la virtuosité technologique des IA. Ce terminal concentré de technologie qui a quand même changé les modes de communication, accompagné ou engendré des changements dans la mobilité humaine, dans le rapport au savoir, etc. que Pascal Picq veut l’objet véritable de la « révolution » actuelle est le détournement dans le sens où il devient ordinateur portable plus que téléphone…

L’humanité s’amuse et se fait peur

Bref, depuis le feu, les armes, la magie – peut-être première technologie de transformation de la réalité humaine – donc première réalité virtuelle de l’histoire ? – jusqu’à l’IA et les robots, l’humanité s’amuse et se fait peur avec ses créations technologiques, utiles ou ludiques.

Elle se plaît parfois à les constituer comme des créatures (sans qu’elles soient nécessairement anthropomorphisées) telles que la pensée mythique les figure. Rien de surprenant dans ce cadre que certains trichent avec ChatGPT par exemple.

En effet, l’humain est un être versé dans le ludisme, c’est-à-dire, qui aime le jeu comme l’affirmait le philosophe Johann Huizinga mais aussi dans le luddisme, une forme de crainte suscitée par les technologies (en référence au conflit social du XIXe siècle qui avait opposé des manufacturiers à des artisans, les luddistes qui dénonçaient l’emploi de machines).

La tentation du fétiche

La tentation reste toutefois grande de céder au fétiche intellectuel du terme « révolution ». Dans la plupart des cas, est qualifiée de révolution un changement culturel ou socio-technique dont sont observées les prémisses et sont conjecturés les impacts qui ne sont pas encore observés.

Or, une révolution (sauf sans doute quand elle se décrète sur le plan politique) se mesure à partir d’éléments rétrospectifs et non pas d’extrapolations, qui sont assez stables dans le domaine des sciences et technologies, mais très peu fiables en sciences humaines.

Si l’on considère toutefois les avancées actuelles de l’Intelligence artificielle, non plus du seul point de vue d’une échelle technologique linéaire, comme la loi de Moore, mais sur le plan des absorptions culturelles et adoptions sociales des technologies, sans doute faudrait-il alors parler (d’une même voix avec les informaticiens) d’évolution plutôt que de révolution anthropologique.

Mais au prix d’un renversement intellectuel majeur : celui de passer d’une pensée technocentrée (qui considère que c’est la technologie qui transforme la société) à une pensée sociocentrée des techniques (la perspective inverse, donc). Une petite « révolution » donc… ?The Conversation

Auteur : Lionel Obadia, professeur en Anthropologie sociale et culturelle, Université Lumière Lyon 2 Membre du LARHRA – Laboratoire de recherches historiques Rhône-Alpes (UMR 5190) et membre associé à l’ISIR – Institut des Systèmes Intelligents et de Robotique (UMR 7222) – 22 février 2023

Cet article est republié à partir de The Conversation sous licence Creative Commons. >>> Lire l’article original.

Au cœur de l’intelligence artificielle | Disrupt’Campus

AAu cœur de l’intelligence artificielle | Disrupt’Campus

Le champ des possibles de l’intelligence artificielle semble sans limite : une justice virtuelle qui rendra de meilleurs verdicts, des villes plus intelligentes, des robots qui nous aideront à exploiter nos talents ou encore à trouver l’âme sœur en deux clics.

Nous donnerons lors de cette conférence les clés de l’information permettant de faire la part des choses entre fantasmes, réalités et futurs souhaitables. Nos intervenants illustreront ces questions avec des exemples concrets d’applications pratiques et contemporaines.

Organisé par : Disrupt’Campus de l’Université de Lyon et Métropole de Lyon, dans le cadre des cycles de conférences du D.U Transformation numérique.

Conférence retransmise en direct sur la chaîne Youtube de Lyon – Disrupt’Campus

En savoir plus :

Disrupt’Campus

À quoi rêvent les intelligences artificielles ? | Pop’Sciences Mag

ÀÀ quoi rêvent les intelligences artificielles ? | Pop’Sciences Mag

Pop’Sciences Mag éclaire le débat concernant l’intelligence artificielle

À quoi rêvent les intelligences artificielles ? Poser cette question, c’est supposer que les machines dites intelligentes sont dotées d’une faculté proprement humaine : celle qui nous permet de nous projeter dans une réalité désirable. D’espérer, en somme.

Nous n’en sommes pas là, loin s’en faut, nous disent les experts lyonnais que nous avons rencontrés. Qu’ils soient philosophes, ingénieurs, médecins ou chercheurs, ils nous mettent en garde contre les fantasmes qui entourent cette nouvelle révolution technologique. Certes, l’intelligence artificielle va nous ouvrir un immense champ de possibilités, mais elle sera surtout ce que nous déciderons d’en faire.

Une chose est sûre, comme le rappelle l’ami Nao dans la vidéo d’introduction, cela va nous demander quelques ajustements…

Lire Pop’Sciences Mag #1 :

A quoi rêvent les intelligences artificielles ?