Des IA à tout prompt
ChatGTP, Bard, Midjourney, Stable Diffusion, l’IA fait la une de l’actualité depuis plusieurs mois. Présentée comme la révolution technologique majeure du 21ème siècle l’intelligence artificielle est-elle sans risque ? Au-delà de la curiosité qu’elle peut suscitée, l’IA dite générative soulève des questions éthiques, politiques et morales. C’est ce que nous essayons d’aborder dans cet article.
Intelligence artificielle partout, humain nulle part ?
La promesse de l’IA repose en partie sur une illusion bien dissimulée. Si vous avez été déjà posé des questions à ChatGPT ou à Bard, vous avez peut-être été impressionné par la réponse que la plateforme vous a apportée. Malgré quelques incohérences ou des redondances, le résultat est souvent impressionnant. Mais derrière la promesse d’une technologie révolutionnaire capable de remplacer l’être humain, pour un ensemble de tâches ou de métiers, se cache une réalité que les leaders du secteur oublient parfois de rappeler.
Pour fonctionner, ces technologies reposent sur du machine learning (apprentissage automatique). Grosso modo, elles ont besoin d’être alimenté par une quantité phénoménale de données pour apprendre. Pour savoir qu’un chat est un chat, il faut fournir aux IA génératives des millions de photographies de chats sous des angles différents. C’est un processus long et fastidieux. Si cette tâche peut être automatisée par les ingénieurs, il y a des activités qui sont réalisées par des humains répartis à travers la surface du globe pour aider à améliorer ces IA. Ce sont ce qu’on appelle les travailleurs du clic ou des micros travailleurs qui sont payés une poignée de dollars pour cliquer sur des images pour entraîner les algorithmes qui alimentent ces technologies. Microsoft, Google ou encore Meta, pour ne citer que ces entreprises, font appel à des personnes en situation de précarité qui vont passer des journées entières à cliquer sur des captures d’écrans de vidéos afin de déterminer si le contenu est acceptable ou choquant. Ainsi, les algorithmes de modération des réseaux sociaux seront plus performants pour bloquer ou autoriser la diffusion des contenus sur les plateformes. Les travailleurs du clic sont aussi sollicités pour retranscrire des sons, se prendre en photos ou leur environnement pour alimenter les IA et ainsi les améliorer. Le recours massif à des travailleurs précarisés est l’occasion de rappeler que l’intelligence supposée attribuée à ces technologies est encore très artificielle.
Impact écologique
Les IA génératives nécessitent de grandes puissances de calcul pour pouvoir produire de nouveaux contenus. Si ces outils semblent virtuels, ils reposent sur une infrastructure lourde et énergivore. Le dernier superordinateur de Microsoft est composé de 10.000 cartes graphiques et plus de 285.000 cœurs. Il faut également des serveurs alimentés en électricité pour les faire fonctionner. Les datas centers qui hébergent les différentes IA génèrent de la chaleur et ont besoin d’être refroidi pour garantir leur fonctionnement. L’eau est une ressource privilégiée pour dissiper la chaleur des fermes de serveurs. D’après le rapport responsabilité environnementale de Microsoft, la consommation d’eau de l’entreprise en 2022 a bondi de 34% pour volume total de 6,4 milliards de litres d’eau. Une conversation avec ChatGPT, soit un nombre de requêtes comprises entre 25 et 50 prompts, consommerait l’équivalent d’un demi-litre d’eau. Avant d’être en capacité d’entraîner les IA avec des jeux de données plus petits et de réduire les dépenses en Gaz à Effet de Serre (GES) de ces technologies, la question de l’impact écologique mérite d’être posée. Dans un contexte de pénurie d’eau et d’augmentation des températures, l’objectif de sobriété de ces machines devient en effet un enjeu écologique vital.
DésIAformation
La facilité d’utilisation et le réalisme des contenus produits par les IA comme Midjourney risquent de contribuer à des campagnes de désinformation et amplifier la circulation de fake news. Pour l’instant, les IA ont encore quelques lacunes pour réaliser certains contenus comme les mains par exemple.
Si cela nous permet de pouvoir identifier facilement une image réalisée par une IA (tout comme le teint cireux des visages), il est fort à parier que d’ici quelques temps ce problème sera corrigé. Dès lors, les méthodes actuelles d’analyse pour identifier des fausses informations deviendront caduques. Lors des événements politiques comme l’élection présidentielle, l’ingérence des pays étrangers pour tenter d’influer sur le sort du scrutin pourraient prendre une ampleur plus importante et porter atteinte aux processus démocratiques. Ces risques sont d’ores et déjà dénoncés par des photojournalistes qui perçoivent la menace que représentent les IA génératives pour influencer l’opinion.
« Parmi les inquiétudes, la crainte que le public confonde ces images inventées avec de vraies photos, avec des conséquences bien réelles. En mai, la circulation d’une image générée par AI prétendant montrer une explosion au Pentagone avait temporairement fait dévisser la Bourse américaine. »
Exploitation des données personnelles
Si les IA fonctionnent avec des milliards de jeux de données pour s’entraîner, elles semblent avoir également un certain appétit pour nos données personnelles. Au printemps 2023, OpenAI – la fondation derrière ChatGPT – a fait l’objet de deux plaintes pour violation du droit des données personnelles. Pour pouvoir utiliser l’agent conversationnel, il faut se créer un compte en fournissant son numéro de téléphone et son mail. Une des plaignantes a constaté «lors de la création de mon compte dédié, que Open AI ne me demandait ni d’accepter les conditions générales d’utilisation ni une quelconque politique de confidentialité. » Cela semble porter atteinte au Règlement Général de Protection des Données personnelles (RGPD). Le second plaignant reproche à ChatGPT d’avoir collecté des informations sur lui sans l’avoir averti.
« Tout d’abord, le manque de transparence est une préoccupation majeure. Les utilisateurs de ChatGPT ne sont pas informés que leur nom peut être enregistré dans le modèle de langage. Cela soulève des questions importantes sur la manière dont les données personnelles sont traitées et stockées. Il est crucial que les utilisateurs soient informés de manière claire et transparente sur la manière dont leurs données personnelles sont collectées et traitées. »