Technologies - information - communication Dossier EPITA (École Pour l'Informatique et les Techniques Avancées)|Pop'Sciences - Université de Lyon LL’IA en FAQ, les étudiants nous répondent | #6 Dossier Pop’Sciences « Diagnostic 2.0 : Quand l’IA intervient » ©Freepik Article #6 – Dossier Pop’Sciences Diagnostic 2.0 : Quand l’IA intervientDans cette série de questions et réponses, les étudiants de première année du cycle d’ingénieur de l’EPITA, école d’ingénierie informatique, répondent à nos questions concernant l’IA. A-t-elle toujours raison ? Peut-elle développer des sentiments ? Ou, est-elle capable de réelles créations ? Les étudiants nous éclairent.SSommaire :L’IA peut-elle éprouver des sentiments ?L’IA est-elle toujours infaillible ?L’IA est-elle écologique ?L’IA favorise-t-elle la désinformation ?L’IA peut-elle être créative ?Peut-on reconnaitre une image générée par IA ?L’IA va-t-elle abolir le travail ?11. l’IA peut-elle éprouver des sentiments ?Les chercheurs s’accordent sur le fait que l’IA ne possède ni conscience de soi, ni expérience personnelle, remettant ainsi en question sa capacité à ressentir des sentiments. Cynthia Breazeal, professeure au MIT et experte en robotique sociale, souligne que l’IA est une simulation programmée de comportements émotionnels, dépourvue de l’expérience intérieure propre aux humains. Si elle peut détecter et répondre aux émotions humaines, cela reste une imitation basée sur des règles préétablies.Par exemple, Sophia, un robot développé par Hanson Robotics, peut donner l’impression de ressentir des émotions grâce à des expressions faciales et des réponses préprogrammées. Elle crée une apparence d’émotion basée sur des règles préétablies, sans réelle expérience émotionnelle.En outre, les sentiments humains sont influencés par des facteurs biologiques, sociaux et culturels, des capacités qui font défaut à l’IA statique qui ne peut évoluer avec le temps. En somme, les recherches soulignent que l’IA ne peut ressentir d’émotions véritables, ne pouvant que les feindre, tout au plus.Léo Arpin & Adrien Guinard22. L’IA est-elle toujours infaillible ?Exemple d’une image capturée sous une lumière idéale (en haut) et d’image prise d’une image prise dans des conditions de faible éclairage (en bas). ©Lars KarlssonLes capacités de l’IA dépendent avant tout des données avec lesquelles elle a été entraînée. De fait, elle est susceptible d’être influencée par les biais présents dans ces mêmes données. Donc, si les données sont biaisées ou reflètent des préjugés humains, l’IA risque de reproduire ces même biais dans ses prédictions. Par exemple, si un système de recrutement automatisé est entraîné sur des données historiques qui favorisent certains groupes au détriment d’autres, il peut perpétuer ces inégalités lors de l’évaluation des candidatures.De même, l’IA est limitée par les situations étrangères à celles sur lesquelles elle a été formée. Si un modèle d’IA est entraîné pour reconnaître des objets sur une image prise dans des conditions de lumière optimales, celui-ci peut peiner les reconnaître sur des images prises dans un contexte différent. Non seulement les conditions de l’environnement d’entraînement influent sur les résultats, mais il faut aussi tenir compte du fait qu’une IA n’est jamais précise à 100%. En effet, au cours de son entraînement, lorsque l’on teste l’algorithme avec une base de données complète (dont on connaît le résultat), celui-ci montre déjà des incohérences. On s’approche toujours, mais on n’atteint jamais la perfection, il est donc impossible d’avoir une IA totalement fiable.Pour pallier ces limites, la supervision humaine est cruciale. Les experts doivent continuer à surveiller et à évaluer les performances de l’IA, en s’assurant qu’elle prend des décisions justes, transparentes et éthiques. Il est nécessaire de mettre en place des mécanismes de contrôle et de réglementation pour garantir une juste utilisation de l’IA. Des techniques telles que l’apprentissage par renforcement et l’apprentissage fédéré sont justement développées pour réduire les biais et améliorer la capacité de l’IA à généraliser dans de nouvelles situations.Arthur De Sousa, Raphaël Hatte, Pierre Raimondi & Maui Tadeje 33. L’IA est-elle écologique ?©FreepikAux vues de la crise climatique que nous traversons, la croissance de l’Intelligence Artificielle pose question. Les modèles d’apprentissage automatique, et notamment les Large Language Models (LLM) sont très gourmands en énergie. L’entraînement de ces mastodontes, la fabrication du matériel, la maintenance de l’infrastructure, son déploiement ou encore le type d’énergie utilisé sont autant de facteurs pesant dans la balance de leur empreinte carbone. Et cela représente un coût non-négligeable en termes d’émissions de dioxyde de carbone.Par exemple, l’entreprise Hugging Face a estimé l’empreinte carbone l’entraînement de sa propre LLM (dénommé BLOOM), à environ 25 tonnes de dioxyde de carbone, soit autant qu’une voiture ayant parcourue 130 000km. En comparaison à BLOOM, l’empreinte carbone liée à l’entraînement de ChatGPT-3 et d’OPT de META sont respectivement estimés à 500 et 70 tonnes de dioxyde de carbone. Ce bilan colossal attribué à GPT-3 est entre autres dû à l’ancienneté de l’équipement utilisé. L’optimisation des LLM est un autre paramètre jouant largement sur l’empreinte carbone. Par exemple, LLaMA est un LLM qui peut compter tout au plus 65 milliards de paramètres et ayant tout de même les capacités de rivaliser contre GPT-3 d’Open-AI malgré ses 162 milliards de paramètres. Or, le nombre de paramètres d’une LLM impacte grandement sa consommation en énergie.Pour autant, l’IA peut être mise au service de pratiques plus écologiques. Elle est notamment capable d’optimiser l’utilisation des ressources dans divers secteurs, comme l’énergie, la logistique ou l’agriculture. Cette aide à la gestion des ressources agricoles par IA en fonction des besoins réels, tels que l’eau ou les pesticides, permet de réduire les gaspillages et de minimiser l’impact environnemental.En investissant dans des solutions énergétiques durables, en favorisant la recherche sur des modèles plus efficaces et en réglementant judicieusement l’utilisation de l’IA, nous pourrons peut-être exploiter son potentiel tout en agissant de manière responsable vis-à-vis de notre planète et des générations futures.Mehdi Ismaili & Gregoire Vest44. L’IA favorise-t-elle la désinformationL’IA possède la capacité de générer du contenu de manière automatisée, y compris des textes, des images et des vidéos. Cette fonctionnalité, bien qu’offrant des possibilités intéressantes, peut également être détournée pour créer et diffuser de fausses informations. Des algorithmes d’apprentissage automatique peuvent être entraînés pour produire des articles, des tweets ou des vidéos qui semblent authentiques, mais qui sont en réalité des faux. Cette situation ouvre la porte à une propagation rapide de désinformation à grande échelle, comme les célèbres « photos » du pape en doudoune ou de Donald Trump se faisant arrêter.Outre la production de contenus, l’IA peut être utilisée pour manipuler l’opinion publique. Les algorithmes peuvent analyser les comportements en ligne des utilisateurs et cibler des publicités ou des contenus spécifiques afin d’influencer leurs opinions. En comprenant les préférences d’un individu, l’IA peut personnaliser les messages pour maximiser leur impact. Cela peut entraîner la création d’une bulle informationnelle dans laquelle les individus sont exposés à des idées similaires, renforçant leurs croyances et limitant la diversité des opinions.Heureusement, l’IA peut également être utilisée pour détecter la désinformation. Des algorithmes peuvent analyser les caractéristiques des contenus suspects pour les identifier. Le traitement du langage naturel et l’apprentissage automatique permettent de repérer les incohérences, les biais et manipulations dans les articles, les images ou les vidéos. Toutefois, ces outils doivent être constamment améliorés pour rester efficaces face au progrès technique de la désinformation.Emil Toulouse, Todd Tavernier & Remi Decourcelle 55. L’IA peut-elle être créative ?Tableau généré via Dall-E ©Léo RaimbaultLa créativité, généralement définie comme la capacité à produire quelque chose de nouveau et de valeur, concerne des domaines tels que les arts, la musique ou la littérature. L’IA est désormais souvent utilisée pour susciter, inspirer ou créer des œuvres dans ces sphères. Elle peut même être entraînée à reconnaître divers styles artistiques afin de générer des peintures fidèles à un courant ou à un artiste précis. À titre d’exemple, des réalisations comme “The next Rembrandt” ou “Le portrait d’Edmond de Belamy” se sont vendues aux enchères en 2018 pour 432 500$. La sphère musicale est également concernée, notamment avec la chanteuse “IA” qui, comme son nom l’indique est une IA, dont le premier album ‘00’ s’est vendu à plus de 2 millions d’exemplaires en l’espace d’un mois.Cependant, il est important de comprendre que l’IA ne crée pas intrinsèquement quelque chose de nouveau. En effet, elle utilise des algorithmes pour générer des créations « mélangeant » des parties d’œuvres préexistantes sur lesquels elle a fait son apprentissage. On peut donc toujours considérée la créativité comme une caractéristique propre à l’humain. Cependant, cela ne signifie pas que l’IA n’a pas de valeur dans la création artistique. Ces programmes peuvent grandement soutenir les artistes en favorisant la génération d’idées novatrices et l’expérimenter de nouvelles approches.Il est également difficilement envisageable que l’IA puisse remplacer la créativité humaine. Les êtres humains ont la capacité d’effectuer des associations inattendues, de casser les codes, et de concevoir des concepts jusqu’alors inexistants. L’IA, quant à elle, est limitée par les algorithmes et les données qu’elle utilise pour générer ses créations.En somme, l’IA peut être utilisée pour générer des créations qui ressemblent à celles qui ont été produites par des êtres humains, mais elle ne peut pas supplanter la créativité humaine. Les programmes d’IA restent néanmoins de précieux outils pour nourrir la créativité et la technique des artistes.Paul Gravejal, Aymen Gassem & Sandro Ferroni 66. Peut-on reconnaitre une image générée par IA ?L’intelligence artificielle (IA) a récemment connu des avancées spectaculaires dans la génération d’images de plus en plus réalistes. Il est aujourd’hui courant de voir des images de célébrités créées de toutes pièces ; le meilleur exemple étant celles du pape habillé d’une grande doudoune blanche. Cependant, le degré de réalisme atteint un tel niveau qu’il peut être difficile de reconnaître une image générée par une IA.Saurez-vous repérer l’anomalie sur cette image générée par IA ? ©Pop’SciencesCette difficulté dans la distinction d’une image générée par IA réside dans le fait qu’elle travaille avec un volume colossal de données. Les modèles IA analysent et apprennent les caractéristiques communes d’images existantes, puis les reproduisent dans leurs créations. Par exemple, l’IA Stable Diffusion a été entrainée à partir d’une base de données de 2,3 milliards d’images.Néanmoins, lorsqu’il s’agit de créer l’image d’une personne, l’IA a encore beaucoup de difficultés pour certaines zones spécifiques comme les mains. Même pour un dessinateur humain, les mains demeurent la partie du corps la plus complexe et difficile à représenter. Les défis sont nombreux, que ce soit en termes de forme, de nombre de doigts visibles, de perspectives variées ou de proportions.Étant donné que les IA sont entrainées sur de gigantesques bases de données, elles font face à des millions de combinaisons différentes de mains et n’arrivent donc pas à modéliser correctement cette partie du corps humain. Ainsi, dans les images générées incluant des mains, il est très courant d’observer des moignons, des articulations improbables, ainsi que des doigts déformés ou en quantité inexacte.Une autre manière de déceler une image générée est d’étudier les pixels de cette dernière. En effet, l’IA ne va pas créer, comme un humain le ferait, en dessinant des zones de couleurs unies. Elle commence par une « bouillie » de pixels, puis en cherche à lier ces derniers pour obtenir l’image voulue : on appelle cela la réduction du bruit de l’image. Ainsi, par une simple sélection de couleur sur un logiciel d’édition d’image, on peut parfois permettre de retrouver cette « bouillie » de pixels.Or, s’il existe également des logiciels permettant de détecter ces artefacts automatiquement comme « AI or Not », la frontière entre la réalité et ce qui est généré par l’IA continue de se réduire, risquant de créer de plus en plus de confusions concernant la véracité des contenus que nous ingérons au quotidien.Nathan Goetschy, Rémi Jeulin & Clovis Lechien77. L’IA va-t-elle abolir le travail ?Dans l’ombre de l’IA grandit une certaine inquiétude : l’IA ne va-t-elle pas finir par nous remplacer ? Mais l’intelligence artificielle qui représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité » est-elle réellement capable de rendre le travail des humains obsolètes ?Mouvement de boycott des technologies IA par des illustrateurs. source: “Is AI Art Here to Steal Your Career Away?” by Polydin StudioL’IA est de plus en plus présente au niveau des travaux répétitifs ou dangereux puisqu’elle se montre parfois plus efficace ou rencontrant moins de risques qu’un humain. Elle fait également son entrée dans les domaines artistiques et informatiques. Citons Midjourney ou ChatGpt, par exemple, à l’origine de plusieurs scandales qui ont levé le voile sur cette problématique émergente.Nous sommes pour autant bien loin d’une abolition du travail « humain ». De nouveaux emplois voient le jour pour créer ou gérer ces nouvelles technologies liées à l’IA (ingénieurs, gestionnaires de bases de données d’apprentissage, etc.). Et, bien que plus efficaces que nous pour certaines tâches, l’IA a encore du chemin à faire avant de nous remplacer, notamment dans les métiers nécessitant de l’empathie ou ceux demandant beaucoup de capacités d’adaptation. À l’heure actuelle, elle demande une immense puissance de calcul, ce qui en fait rarement la meilleure solution, quand elle n’est pas simplement hors de propos. La méfiance envers l’IA freine également l’intégration de cette technologie dans le monde du travail.L’abolition du travail par l’IA ne risque donc pas d’arriver de sitôt. De plus, avec un bon équilibre, l’IA peut au contraire devenir un outil et une aide extrêmement efficace plutôt qu’une menace.Garice Morin, Alice Cariou, Eliana Junker