Pop’Sciences répond à tous ceux qui ont soif de savoirs, de rencontres, d’expériences en lien avec les sciences.

EN SAVOIR PLUS

La Gazette de la Fête de la science #17

LLa Gazette de la Fête de la science #17

##17 – L’IA fabriquéE à notre image ?

Frankenstein à des allures à la fois humaine et artificielle. Image générée avec Canva par Assia Ali Kada.

À l’occasion de la Fête de la science 2025, des chercheurs se sont interrogés sur les biais de l’intelligence artificielle. Quels sont-ils et comment y remédier ?

Lorsqu’il est question d’intelligence artificielle (IA), on s’interroge sur la faculté de l’être humain à reproduire de manière automatique et efficace, les capacités cognitives humaines. Dans le roman Frankenstein ou Le Prométhée moderne de Mary Shelley (1818), le docteur Frankenstein fabrique une créature à partir de morceaux humains et d’intelligence artificielle, mais il finit terrifié par le résultat. L’IA, à l’image du monstre de Frankenstein, n’est pas mauvaise par nature mais reflète les travers et les imperfections de l’humanité qui l’a créé. Et si notre plus grande invention devenait le miroir de nos défauts ?

Puisque les intelligences artificielles apprennent à partir de nos données, elles reproduisent nos biais cognitifs et nos représentations sociales, combinant la rigueur des mathématiques à la subjectivité de la culture humaine. Peut-on imaginer qu’une machine soit sexiste, « classiste » ou raciste ? Oui. Un exemple marquant remonte à 2015 : lorsque l’on cherchait sur Google à quoi ressemblait un chef d’entreprise (CEO), les résultats affichaient principalement des images d’hommes blancs, âgés d’une quarantaine d’années ou plus. Une absence de représentation de la diversité, qui révélait un biais profond : l’idée qu’un CEO est forcément un homme blanc d’âge mûr. Depuis, les équipes de Google ont corrigé partiellement ce problème : en 2025, la même recherche montre désormais quelques femmes. Cet exemple présente bien les conséquences d’un apprentissage réalisé à partir de données biaisées.

Le bug humain …

On distingue plusieurs types de biais. Il y a d’abord les biais de données : les algorithmes apprennent à partir d’énormes ensembles d’informations qu’on leur fournit, mais ces données ne sont pas toujours neutres. Si une IA est entraînée surtout avec des CV d’hommes dans la tech, elle aura tendance à favoriser les profils masculins, car elle reproduit ce qu’elle a appris. Ensuite, des biais algorithmiques apparaissent lors de la conception. En choisissant quels paramètres privilégier ou quelles erreurs tolérer, le programmeur transmet involontairement ses valeurs et limites, un peu comme Victor Frankenstein façonnant sa créature. Enfin, les biais cognitifs viennent de nous. Nos stéréotypes influencent l’interprétation des résultats, même si l’IA est neutre. Ces trois biais s’alimentent mutuellement, créant un cercle vicieux de discrimination automatique. “La société est biaisée, et cela biaise les IA… ”, écrit Sara Bouchenak, professeure d’informatique à l’INSA Lyon. Et comme dans le roman de Mary Shelley, la question demeure : que faisons-nous de nos créations une fois qu’elles nous échappent ?

Apprivoiser le monstre…

Dans Frankenstein, le véritable drame ne réside pas dans la création du monstre, mais dans son abandon par son créateur. Avec l’IA le danger n’est pas la machine en elle-même, mais si on la laisse évoluer sans contrôle éthique ni regard critique. Les grandes entreprises ont compris qu’il est impossible d’ignorer les biais présents dans les intelligences artificielles. Elles tentent donc, à leur manière, d’y remédier en améliorant leurs systèmes. Le défi n’est pas seulement technique, il est éthique et citoyen. Si les machines apprennent de nous, elles peuvent aussi apprendre de nos progrès. Aujourd’hui, nous savons qu’il importe d’être responsable de ce que nous créons et des impacts que cela engendre.

Par Assia Ali Kada, étudiante en Master 1 Information et Médiation Scientifique et Technique, Université Claude Bernard Lyon 1, avec Pop’Sciences