Ces programmes sont amusants mais quelles sont leurs limites d’un point de vue éthique ou moral ?
Si vous utilisez les réseaux sociaux, vous avez probablement vu passer des images qui sont devenues virales. Ces memes ont été générés par des intelligences artificielles (IA) dont la particularité est de pouvoir créer une image à partir d’une simple description. Petit tour d’horizon des services qui existent et des problématiques qu’ils peuvent soulever.
Les dispositifs d’intelligence artificielle modernes sont capables de produire des contenus en totale autonomie. Pour fonctionner, ces technologies, qui s’appuient sur des réseaux de neurones et de l’apprentissage profond, ont besoin de s’entraîner à partir d’exemples. Cette phase d’apprentissage automatique nécessite des volumes de données colossaux. Par exemple pour permettre à une IA de savoir qu’un chat est un chat, il faut lui fournir des dizaines de milliers de photos représentant un chat. Cette étape est nécessaire pour permettre à l’IA de reconnaître un élément (panneau de signalisation pour les voitures autonomes) ou pour pouvoir créer un contenu de façon autonome.
Les progrès dans le domaine des intelligences artificielles ont permis l’émergence de services en ligne qui sont destinés à produire des contenus originaux ou presque. Certains d’entre eux sont accessibles au grand public. C’est le cas notamment de Crayion qui repose sur Dall-E un projet développé par la fondation OpenAI. Dall-E est désormais supplantée par une nouvelle version Dall-E 2 qui est accessible sur invitation. (Il est possible de s’inscrire sur une liste d’attente pour obtenir un accès). Si Dall-E version 1 est moins performante, cette IA est tout de même capable de générer automatiquement des images à partir d’une description textuelle. (Vous pouvez faire le test ici. Il faut écrire le texte en anglais). Une des limites actuelle de cet outil est la qualité des visages. Mais dans une FAQ, le site explique qu’il s’agit d’une limite actuelle du système d’encodage des images. Ils travaillent dessus actuellement pour améliorer les résultats.
OpenAI qui porte le projet Dall-E n’est pas la seule à développer des technologies qui fonctionnent à coups d’intelligence artificielle. Google travaille de son côté sur Imagen. Il s’agit d’un modèle de diffusion texte-image que l’entreprise n’hésite pas à qualifier de « sans précédent ». En s’appuyant sur un niveau profond de compréhension du langage, l’IA de Google est en capacité de produire des photos particulièrement réalistes à partir d’une simple saisie de texte. L’outil n’est pas accessible au grand public mais les résultats de recherche présentés par Google semblent prometteurs.
Les IA ne se limitent pas à la production d’images à partir d’une série de mots. Il existe des projets autour d’autres formes de créations comme Cédille qui repose sur la technologie GPT-J, une alternative open source au modèle GPT-3 développé lui aussi par OpenAI. Cédille se présente comme une IA « pour générer, résumer, réécrire ou classer des textes en français et en allemand ». Dans un autre registre, il existe un site qui crée à la volée des vraies images de faux visages. This person doesn’t exist est particulièrement troublant par le réalisme des visages qui sont créés.
Enfin, les IA conçues pour générer automatiquement du contenu peuvent également transformer en profondeur d’autres secteurs comme celui des jeux vidéo. D’autres IA peuvent être utilisées en complément, comme Copilot développée par la plateforme de dépôts de code Github, pour générer automatiquement des lignes de code pour aider potentiellement les développeurs à réaliser un jeu vidéo.
New hobby: prototyping video games in 60 seconds using a combination of GPT-3 and DALL-E
— Simon Willison (@simonw) 5 août 2022
Here's "Raccoon Heist" pic.twitter.com/xQ3Vm8p2XW
Que ce soit la création d’images, de textes ou de visages, le développement croissant et de plus en plus performants de ces modèles soulèvent plusieurs questions.
Tout d’abord, une des premières questions que le développement de ces IA créatives nous poussent à nous poser concerne la propriété intellectuelle et le droit d’auteur. Les œuvres créées appartiennent-elles aux entreprises qui ont développé ces IA ou bien aux utilisateurs finaux ? La question se pose d’ores et déjà par rapport à l’IA Copilot, citée plus haut, qui peut être amenée à réutiliser du code déjà créé par d’autres développeurs et qui a été publié sous une licence libre autorisant la réutilisation et le partage à condition que ces mêmes critères soient respectés.
« La question de code en Copyleft, soulevée par Numerama l’année dernière, n’a donc toujours pas de réponse. Elle est pourtant fondamentale : le code sous licence Copyleft peut être réutilisable gratuitement, mais seulement à condition que le projet pour lequel il est utilisé soit, à la fin, accessible lui aussi gratuitement. » Source : Numerama
La seconde limite soulevée par ces IA concerne les biais cognitifs qu’elles comportent. Si ces technologies donnent l’impression qu’elles sont autonomes, il ne faut pas oublier qu’elles ont été développées par des humains qui peuvent être enfermés dans leur propre représentation du monde et soumis à des préjugés sexistes, racistes ou sociaux. Tout comme les algorithmes de reconnaissance faciale discriminent les personnes noires parce que les bases de données qui alimentent ces algorithmes manquent d’échantillon de visages noirs, Dall-E n’échappe pas à cette dérive en ne proposant que des personnes blanches si l’utilisateur ne spécifie pas la couleur.
« Car les requêtes entrées par les utilisateurs des outils de ce genre, aussi innocentes soient-elles, génèrent souvent des images à même de « renforcer ou d’exacerber des biais sociaux », comme l’explique la foire aux questions du site officiel de Craiyon. Par exemple, la plupart des requêtes impliquant des êtres humains (qu’il s’agisse de « joueur de basket » comme de « PDG ») donnent presque systématiquement des images représentant des hommes blancs, à moins d’inclure une mention contraire. Un biais directement lié aux jeux de données (ou datasets) publics, comme Conceptual Captions ou YFCC100M, qui permettent d’entraîner Craiyon. « Comme ces modèles sont fondés sur la probabilité et les statistiques, ils vont encoder des biais présents dans ces jeux de données d’entraînement », explique Clément Delangue. » Source : Le Monde
Enfin, la troisième difficulté avec la génération automatisée de contenus est liée à la problématique des fake news. Le recours à l’utilisation de faux profils est utilisé à des fins de propagande pour défendre des personnalités politiques lors d’une campagne électorale. Si de véritables militant-es s’expriment publiquement pour défendre leur candidat, le recours à de vrai-faux profils est avéré et documenté. Ces outils peuvent être instrumentalisés afin de désinformer ou tout simplement mener des campagnes de cyber-harcèlement sur les réseaux sociaux en créant des faux comptes. Des trolls s’organisent pour lancer des raids contre leurs victimes pour tenter de les décrédibiliser ou de leur porter atteinte.
Les progrès technologiques nous invitent à une forme de prudence et à renforcer notre vigilance avant de prendre pour argent comptant ce que les algorithmes des réseaux sociaux nous affichent sur nos timelines intarissables. Nous devons nous éduquer aux nouveaux médias et aux nouvelles façons de produire de l’information. Cela demande d’acquérir bien entendu les compétences assez classiques pour pouvoir débusquer une fake news, identifier les auteurs, croiser l’information avec d’autres sources. Mais désormais il faut aussi apprendre à repérer une fausse image ou même une fausse vidéo. Comment faire ? En effet, les IA sont capables de produire des résultats bluffants mais ne sont pas parfaites. Par exemple, l’arrière-plan est souvent flou. L’asymétrie du visage peut être particulièrement prononcée. S’il y a une partie d’un autre visage sur la photo, ce dernier sera déformé… A travers ce fil Twitter, vous découvrirez quelques techniques pour éviter de vous faire piéger par une fausse photo de profil. Et si vous souhaitez vous entraîner à reconnaître un faux visage créé par une IA, ce site vous propose de vous exercer ! De même les deepfakes, ces vidéos qui consistent à créer des fausses vidéos en utilisant le visage et la voix d’une personne, souffrent d’un défaut majeur. Il suffit de demander à votre interlocuteur de se mettre de profil ou de bouger les mains.
« la plupart des deepfakes créés échouent manifestement lorsque la tête synthétique atteint 90° et révèle des éléments du profil réel de la personne qui l’utilise. Récréer un profil échoue généralement à cause d’un manque de données d’entraînement de bonne qualité sur le profil, ce qui oblige le modèle deepfake à inventer ou à dessiner beaucoup de choses pour pallier le manque.
Le problème vient en partie du fait que les logiciels de deepfake doivent détecter les points de repère sur le visage d’une personne pour recréer un visage. Lorsqu’ils sont tournés vers le côté, les algorithmes ne disposent que de la moitié des points de repère disponibles pour la détection par rapport à la vue de face. » Source : ZDNet
Pour aller plus loin