Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

Séminaire IA : de l’intelligence artificielle dans la gestion documentaire

SSéminaire IA : de l’intelligence artificielle dans la gestion documentaire

L’Enssib a organisé les 2 et 3 octobre dernier un séminaire de rentrée sur l’intelligence artificelle (IA) proposant des conférences retransmises en direct et des ateliers à destination de ses étudiants en master 2 (mentions CEI et SIB). Intitulé « De l’intelligence artificielle dans la gestion documentaire », cet événement avait pour objectif de donner à réfléchir sur les enjeux éthiques et sociétaux de l’IA, d’éclairer les perspectives que l’IA ouvre dans le champ de la gestion documentaire et de discuter des transformations des métiers et pratiques professionnelles, face aux défis actuels et futurs.

Comme le souligne dans son introduction Nathalie Marcerou-Ramel, directrice de l’Enssib, l’Enssib poursuit son engagement autour de l’IA et « milite pour lancer des projets de formation, la plus large possible, des professionnels en poste et des futurs professionnels, aux enjeux de l’IA pour se préparer à un avenir où les outils de l’IA seront importants et vont peut-être modifier largement le cœur de nos métiers« .

Visionnez LE SEMINAIRE en replay 

 

L’Enssib s’engage également à travers ses actions de formation dédiée et à travers une programmation ouverte à tous et toutes depuis la chaîne youtube de l’Enssib.

Consultez la  chaîne YouTube 

Synchronisation et chaos : deux qualités de notre cerveau inégalées par l’IA | Cortex Mag

SSynchronisation et chaos : deux qualités de notre cerveau inégalées par l’IA | Cortex Mag

L’intelligence artificielle (IA) alimente de nombreux mythes. Entre autres, celui d’être à l’avenir douée de capacités cognitives identiques à celles de notre cerveau. L’IA est pourtant loin de pouvoir mimer le fonctionnement cérébral. Explications de Matteo Di Volo, chercheur en neurosciences à l’Institut des cellules souches et du cerveau (SBRI) de Lyon.

Depuis l’irruption brutale de ChatGPT en novembre 2022, l’intelligence artificielle (IA) est sortie des labos. Bouleversant les outils technologiques de notre quotidien, elle est passée sur le devant de la scène publique et médiatique. Il est question de prendre le train en marche sous peine de se faire dépasser. Le public peu averti craint les bouleversements à venir, tandis que les effets d’annonce s’enchaînent, alimentant toutes sortes de mythes. L’un d’entre eux correspond à l’avènement d’une « super intelligence artificielle » dotée de capacités cognitives similaires à celles des êtres humains. Une IA capable entre autres d’analyser par elle-même un problème, de le comprendre et de trouver une solution. […]

Un article rédigé par Caroline Depecker, journaliste scientifique et rédactrice en chef de Cortex Mag, avec l’expertise de Matteo Di Volo, Professeur Junior à l’Université Claude Bernard Lyon 1 et membre de l’équipe Neurobiologie des fonctions exécutives à l’Institut cellule souche et cerveau – SBRI 

>> Article à lire en intégralité sur :

Cortex mag

Soigner les cancers grâce à la médecine prédictive

SSoigner les cancers grâce à la médecine prédictive

Dans le cas de cancers, les prédictions cliniques pourraient être améliorées grâce à des modèles d’intelligence artificielle. Loïc Verlingue, chercheur et médecin au Centre Léon Bérard, ainsi que son équipe nous parlent du projet SMAD-CC (pour SMArt Data for improved machine learning in Cancer Care) : ils travaillent sur les données intelligentes dans le but d’améliorer l’apprentissage automatique en cancérologie.

L’équipe de SMAD-CC est installée dans une petite maison de ville attenante au Centre Léon Bérard à Lyon. Loïc Verlingue, Dounya Bourhani et Paul Minchella se sont prêté.es au jeu du questions/réponses dans une ambiance décontractée.

Est-ce que vous pouvez nous parler du projet en quelques mots ?
Paul Michella : « Notre problématique consiste à intégrer des multi-données dans nos modèles pour aider à améliorer nos objectifs cliniques. Peut-on améliorer la qualité de vie des patients en adaptant les traitements grâce aux outils d’intelligence artificielle ?

Loïc Verlingue : « L’objectif du projet est de montrer qu’en utilisant plus de données de diverses natures, on améliore les prédictions cliniques à partir de modèles d’intelligence artificielle. Les différents types de données sont entre-autres :

  • textuelles (narratives) donc les comptes rendus de consultation que les soignants génèrent.
  • structurées qui peuvent être soit cliniques (des informations cliniques structurées) soit biologiques (des prises de sang, par exemple) ;
  • moléculaires sur des biopsies et sur le plasma issu du séquençage des cancers de nos patients (données spécifiques à l’oncologie) ;
  • d’imageries comme les scanners ou les lames anatomopathologiques, ce qui est abordé par d’autres projets du Centre Léon Bérard.

On a une belle base de données moléculaires, avec à peu près 6000 patients qui ont été séquencés dans l’essai ProfilLER, c’est un essai du Centre Léon Bérard. Mais par rapport aux 140 000 patients dont on a les données textuelles, on se rend compte qu’il y a un différentiel.

Lire l’article complet

En 2022, le projet SHAPE-Med@Lyon (Structuring one Health Approach for Personnalized Medicine in Lyon), a été lauréat du Programme d’Investissement d’Avenir 4 « ExcellencES » de France 2030. 

SHAPE-Med@Lyon est avant tout une belle réussite collective qui fédère 12 partenaires : les universités Claude Bernard Lyon 1 (UCBL) et Lumière Lyon 2, les Hospices Civils de Lyon (HCL), le Centre Léon Bérard, le Centre hospitalier Le Vinatier, VetAgro Sup, CPE Lyon, avec les organismes nationaux de recherche Inserm, CNRS, INRAE, Inria et le Centre International de Recherche sur le Cancer de l’Organisation Mondiale de la Santé (OMS).

SHAPE-Med@Lyon vous propose ses « Inter-Med@Lyon » : des échanges informels avec les chercheurs-euses de ses projets lauréats. Ce mois-ci, l’Inter-Med est consacré au projet SMAD-CC porté par Loïc Verlingue, chercheur au Centre Léon Bérard et Guillaume Metzler du laboratoire ERIC.

 

L’AI Act, ou comment encadrer les systèmes d’IA en Europe | The Conversation

LL’AI Act, ou comment encadrer les systèmes d’IA en Europe | The Conversation

Depuis que les intelligences artificielles (IA) génératives, telles que ChatGPT pour le texte ou Stable Diffusion pour les images, sont entrées dans nos vies, elles ne laissent personne indifférent et suscitent fascination et crainte. Une machine peut en effet accomplir certaines tâches mieux qu’un humain, mais aussi commettre des erreurs. Entre les mains d’acteurs malintentionnés, une IA peut aussi servir à réaliser des deepfakes (contenus trompeurs) ou à influencer un résultat électoral.

Si laisser une machine résumer un texte semble peu risqué, la prise de décision automatisée par IA dans des contextes plus ou moins sensibles nécessite d’évaluer les risques et de les encadrer. Alors que le secteur de l’IA connaît une expansion fulgurante, la question de la réglementation de l’IA devient un sujet de préoccupation majeur pour les États. C’est donc dans ce contexte de course à l’encadrement que l’Union européenne (UE) entend promouvoir sa vision de la réglementation sur l’IA avec l’AI Act.

Pourquoi l’AI Act ?

Si l’UE manque encore de fleurons qui pourraient lui permettre de concurrencer les États-Unis et la Chine, il est un terrain où elle peut véritablement s’affirmer : celui de la régulation. En effet, au travers de l’AI Act, l’UE se met ainsi en capacité d’imposer ses règles aux autres acteurs en conditionnant l’accès au marché européen au respect de ses valeurs. C’est une étape décisive vers son objectif d’incarner un modèle de réglementation.

L’approche européenne s’articule autour du concept d’« IA digne de confiance » (ou trustworthy AI) et vise à faire de l’UE la pionnière des IA « légales », « éthiques » et « robustes ». Selon Carme Artigas, secrétaire d’État espagnole à la numérisation et à l’intelligence artificielle, il s’agit de « stimuler l’innovation et l’adoption de l’intelligence artificielle dans toute l’Europe tout en respectant pleinement les droits fondamentaux de nos citoyens. » Le défi est de taille, tant les enjeux politiques, économiques, et sociaux sont considérables. Le 13 mars dernier, les ambitions de l’UE se sont concrétisées avec l’adoption par le Parlement européen de l’AI Act au terme d’une longue procédure.

L’AI Act dans sa version préfinale prévoit des obligations variables en fonction du système ou du modèle d’IA et de son impact. L’étendue des obligations s’imposant aux fournisseurs et utilisateurs est proportionnelle aux risques d’atteinte aux droits fondamentaux posés par ces derniers. Ce faisant, il distingue entre les dispositifs d’IA posant des risques inacceptables pour les Européens, ceux posant des risques systémiques, ceux à haut risque, et enfin les dispositifs à risques faibles ou limités.

Une réglementation qui distingue différents niveaux de risque

Le règlement interdit d’abord les pratiques posant des risques inacceptables. Il s’agit des systèmes les plus intrusifs dont les usages peuvent avoir des conséquences néfastes démesurées sur les droits des usagers, comme l’utilisation de systèmes d’IA à des fins de manipulation pour influencer le comportement des individus (scandale Cambridge Analytica, analyse des données personnelles d’électeurs afin d’influencer leurs intentions de vote), les systèmes d’IA permettant de mettre en place un crédit social, et, sauf exception, les dispositifs d’identification à distance des personnes sur la base de caractéristiques personnelles comme la reconnaissance faciale algorithmique.

Ajoutés tardivement dans le règlement, les modèles de fondation (ou general-purpose AI models), de grands modèles d’intelligence artificielle exploitant de larges quantités de données et pouvant être adaptés pour effectuer plusieurs types de tâches, font l’objet d’un régime distinct. En fonction de leurs capacités, ils pourront être considérés comme posant un « risque systémique ». Cette catégorie concerne notamment ChatGPT dans sa version actuelle. Les fournisseurs de modèles posant un risque systémique seront soumis à des obligations renforcées par rapport aux autres modèles de fondation (entre autres, obligation de notification d’incidents de cybersécurité auprès de la Commission).

La catégorie des systèmes d’IA à haut risque s’applique aux systèmes susceptibles d’engendrer des conséquences néfastes importantes sur la santé, la sécurité et les droits fondamentaux des individus. L’utilisation de systèmes d’IA dans les procédures de recrutement, la détermination de l’obtention de droits sociaux ou de l’octroi de l’asile… relèvent de cette catégorie. Cette classification se traduit par des obligations variées allant de l’établissement d’un système de gestion des risques robuste, au maintien d’une documentation technique exhaustive, en passant par le respect des exigences en matière de gouvernance des données, de supervision humaine et de cybersécurité.

Les dispositifs à risques faibles ou limités restent quant à eux soumis à l’obligation de transparence commune à tout système destiné à interagir directement avec les personnes. Cette catégorie concerne surtout les systèmes d’IA ayant une influence minime sur la prise de décision et inclut les systèmes cantonnés à des tâches très spécifiques comme la classification de dossier ou la correction orthographique.

Un texte bienvenu mais imparfait

La gouvernance de ce cadre sera assurée par un nombre conséquent d’institutions européennes et nationales, à l’image du Comité européen de l’intelligence artificielle et du Bureau européen de l’IA, questionnant la lisibilité du dispositif. En France, la Commission nationale de l’informatique et des libertés (CNIL) s’est déjà positionnée en renforçant son expertise sur l’IA, laquelle se traduit notamment par la publication de fiches de recommandation pour le développement et le déploiement des systèmes d’IA.

Les différentes fiches de recommandations de la CNIL en fonction de l’étape de développement et de déploiement d’un système d’IA

Cartographie des fiches de recommandations pour le développement et le déploiement des systèmes d’IA de la CNIL | ©CC BY-NC

Le texte était largement attendu, notamment par les acteurs de l’industrie créative, mais aussi par des juristes et organismes indépendants. Pourtant, l’adoption du texte n’a pas été simple, la France, l’Allemagne et l’Italie se montrant particulièrement réticentes à l’égard des dispositions portant sur les modèles de fondation, y voyant un frein potentiel au développement de l’IA en Europe. Dans ce domaine, le règlement ne semble pas satisfaire toutes les parties.

Il est notamment reproché à l’AI Act de proposer une définition inadéquate des modèles de fondation « à risque systémique », une insuffisance à laquelle le Bureau européen de l’IA (chargé entre autres d’éclairer la mise en œuvre de l’AI Act) devra pallier rapidement. Par ailleurs, plusieurs compromis ont été critiqués comme pouvant donner lieu à des abus, comme la possibilité laissée aux États d’utiliser des dispositifs d’identification biométrique en temps réel pour des motifs de sécurité nationale.

Combiner l’AI Act et les textes déjà en vigueur

En outre, la mise en conformité au règlement, en particulier pour les systèmes à haut risque, est subordonnée au respect de standards techniques relatifs à la qualité des systèmes, à leur sécurité ou encore à la gouvernance des données qui reste encore à déterminer. Dans cette perspective, les efforts s’intensifient pour proposer des standards techniques pertinents.

Interaction de l’AI Act avec d’autres réglements européens (RGPD, DMA, RSGP, DSA, commercialisation des produits, normalisation européenne)

L’AI Act fonctionnera en synergie avec d’autres textes européens. Antoine Boutet, Juliette Sénéchal, Margo Bernelin et William Letrone, Fourni par l’auteur

Enfin, l’AI Act n’épuise pas toutes les questions soulevées par l’IA ni les besoins d’encadrement. Il faudra donc combiner sa lecture avec d’autres textes comme le Règlement général sur la protection des données (RGPD) dans le cas d’IA impliquant un traitement de données personnelles, ou le Règlement sur les services numériques (ou Digital Services Act – DSA) et le Règlement sur les marchés numériques (ou Digital Market Act – DMA) dans le cas d’IA intégrées à des plates-formes de services.

Quoiqu’il en soit, en Europe comme ailleurs, il n’est plus question de laisser les grandes sociétés de l’IA s’autoréguler. Reste à espérer que la phase de mise en œuvre parvienne à réduire les zones d’ombres qui subsistent à ce stade.


Le projet IPoP est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.The Conversation

>> Les auteur.e.s

 

>> Cet article est republié sous licence Creative Commons, lire l’article original :

The Conversation

Quelles questions éthiques soulève l’IA en santé ?

QQuelles questions éthiques soulève l’IA en santé ?

©RCF radio

« Dis Pourquoi ?«  est une chronique de vulgarisation scientifique de 5 minutes diffusée chaque mardi sur RCF Lyon à 11h50. Dis Pourquoi ? questionne et explore notre univers par les sciences. Chaque semaine, une ou un scientifique répond aux questions et dévoile ses travaux de recherche.

> Émission du 7 mai 2024

Mathieu Guillermin, enseignant-chercheur et maître de conférences au sein de l’unité de recherche Confluence à l’Institut Catholique de Lyon – UCLy -, a participé au dossier Pop’Sciences Diagnostic 2.0 : quand l’IA intervient  paru en septembre 2023.

Il soulève une question importante : avec l’intelligence artificielle qui s’est immiscée dans les pratiques de santé et dans le quotidien des praticiens depuis quelques années, quels sont les risques d’un point de vue éthique ?

Écoutez le podcast :

>>  Écoutez les podcasts des autres intervenants Pop’Sciences :

>> Pour plus d’information, rendez-vous sur le site :

RCF Lyon

PPour aller plus loin

Ce que l’histoire du jeu d’échecs nous apprend sur les risques de l’IA | The Conversation

CCe que l’histoire du jeu d’échecs nous apprend sur les risques de l’IA | The Conversation

Les récents progrès de l’intelligence artificielle (IA), comme le développement des IA génératives avec l’apparition de ChatGPT en novembre 2022, ont soulevé beaucoup d’interrogations, d’espoirs, et de craintes. Courant printemps 2023, le Congrès américain a auditionné OpenAI, la société ayant développé ChatGPT et l’Union européenne vient d’adopter son premier texte législatif au sujet de l’IA.

Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.

Pourquoi le jeu d’échecs comme indicateur ?

Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :

  1. C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.
  2. Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.
  3. Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.
  4. Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.
  5. Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.

Explorons quelles ont été les évolutions dans le monde des échecs depuis que Gary Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.

Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?

Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.

Un arbre des coups : une situation initiale, 3 positions possibles au coup d’après, puis pour chaque position encore 3 possibilités

À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie. ©Chris Butner | CC BY-SA

Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.

En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.

Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.

Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.

Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.

La réception par la communauté de joueurs d’échecs

Avec l’arrivée de machines puissantes dans le monde des échecs, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.

« Pourquoi les gens continueraient-ils de jouer aux échecs ? » Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.

Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.

Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de « bonne solution » pour gérer ce problème qui rejoint les interrogations des professeurs qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.

Conclusions temporaires

Cette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.The Conversation

>> L’auteur :

Frédéric Prost, Maître de conférences en informatique, INSA Lyon – Université de Lyon

Cet article est republié sous licence Creative Commons.

>> Lire l’article original sur le site :

The Conversation

IA et économie de l’attention

IIA et économie de l’attention

Nous nous inquiétons du potentiel de l’intelligence artificielle, mais s’inquiète-t-on assez du déclin potentiel de l’intelligence humaine et collective ?

Face au modèle économique des plateformes numériques et des réseaux sociaux, façonnés pour générer l’addiction, pour capter le plus de « temps de cerveau disponible » et cela afin de récupérer le plus de données possible sur les utilisateurs, ce sont nos capacités cognitives qui en sont directement impactées, menacées d’appauvrissement, et cela d’autant plus chez les plus jeunes.

Pourtant, il est possible de transformer ces technologies en de véritables espaces démocratiques, servant l’intelligence collective. Alors, comment faire ? Que peut faire le droit pour contrer la mainmise des grands acteurs de la Silicon Valley ?

>> Exprimez-vous sur ce sujet en rejoignant le débat en ligne de la Bibliothèque Municipale de Lyon dans le cadre du projet #NHNAI – Nouvel Humanisme au temps des Neurosciences et de l’Intelligence Artificielle et du Printemps du numérique :

Rejoindre le débat

Bertin Nahum : quand l’ingénierie sauve des vies | Visages de la science

BBertin Nahum : quand l’ingénierie sauve des vies | Visages de la science

Bertin Nahum fait partie des innovateurs les plus brillants de sa génération. Père des robots chirurgicaux made in France, ce visionnaire imagine la médecine de demain. Après avoir conçu un robot destiné à la chirurgie du genou, puis un deuxième pour la chirurgie du cerveau, cet ingénieur s’attaque aujourd’hui, avec un nouveau prototype, à la lutte contre le cancer du foie. Animé par la volonté de se sentir utile et de rendre l’acte chirurgical plus sûr, il s’efforce aussi de faire connaître au monde entier, l’excellence des technologies médicales françaises.

  • Réduire les aléas

« Quand j’ai commencé à travailler dans ce secteur-là, j’ai été très étonné de voir que la chirurgie était une discipline très artisanale. La robotique est en mesure de faire ce qu’elle a fait dans plein de secteurs de la vie quotidienne : réduire les aléas. Il ne s’agit pas de remplacer le praticien mais d’optimiser l’acte chirurgical en le rendant plus précis et plus fiable. »

  • Des robots révolutionnaires

Après avoir occupé des postes de terrain, Bertin Nahum a été confronté à la réalité et à la pratique sur la façon dont la technologie pouvait répondre aux besoins des chirurgiens. Visionnaire, il s’est fait père de robots chirurgicaux révolutionnaires. « Nos robots sont des outils intelligents. Ils utilisent des images pour planifier un acte chirurgical ; aident à la décision du praticien ; puis assistent la réalisation dans le geste à proprement dit. Ils utilisent de l’imagerie, de l’intelligence artificielle et de la robotique. »

  • De l’importance du made-in-France

« La prochaine révolution numérique se fera dans le secteur de la santé. Les robots et l’intelligence artificielle pénétreront dans ce secteur. Cependant, quand on touche à la santé de gens, il faut s’assurer que cette activité ne reproduise pas ce qu’il s’est passé jusque-là avec les GAFA. Il est important que l’Europe se saisisse du sujet. »

 

Portrait de Bertin Nahum

Diplômé de l’INSA Lyon, Bertin Nahum a été sacré quatrième entrepreneur high-tech le plus révolutionnaire du monde par la revue canadienne Discovery en 2012, juste derrière Steve Jobs, Mark Zuckerberg et James Cameron. Il était l’invité du podcast « Les cœurs audacieux », un contenu audio proposé par l’INSA Lyon (Saison 2 – Épisode 1).

 

ÉCOUTER L’ÉPISODE

 

 

Les enjeux des modèles de langage – Vivre avec ChatGPT – Alexandre Gefen

LLes enjeux des modèles de langage – Vivre avec ChatGPT – Alexandre Gefen

Conférencier : Alexandre Gefen – auteur « Vivre avec ChatGPT »

Lors de cette conférence, il s’agira d’expliquer ce qu’est un modèle fondationnel, de donner des rudiments permettant de comprendre le fonctionnement d’un large modèle de langage en général et de ChatGPT en particulier, en insistant sur sa dimension générative et la question de son alignement, avant d’aborder les différents enjeux éthiques, politiques, scientifiques, sociaux et économiques et cognitifs qu’il pose.

 

L’IA-rtistique | Expo Arts-Plastiques & créations sonores

LL’IA-rtistique | Expo Arts-Plastiques & créations sonores

« Découvrez comment la créativité humaine s’entrelace avec l’intelligence artificielle dans une exposition qui brouille les frontières entre l’artiste et la machine pour ouvrir de nouveaux horizons artistiques. » Signé L’IA.

>> Au programme :

  • Du 7 décembre au 3 janvier | Salle d’exposition (sous-sol de la BU)
  • Vernissage le 13 décembre à 18h
  • Du 8 au 31 janvier | Bistrot U de la Manu – CROU

>> Pour plus d’information rendez-vous sur la page/ plan d’accès :

L’Art au Moulin

Plan d’accès