samedi 2 mars 2024

Les images d'IA de Google sont-elles racistes?


Google s'empresse de réparer son nouvel outil de création d'images basé sur l'IA, après avoir affirmé qu'il corrigeait excessivement le risque d'être raciste.


Les utilisateurs ont déclaré que le robot Gemini de l'entreprise fournissait des images représentant une variété de genres et d'origines ethniques, même si cela était historiquement inexact.

Par exemple, une invitation à la recherche d'images des pères fondateurs de l'Amérique a révélé la présence de femmes et de personnes de couleur.

L'entreprise a déclaré que son outil « manquait la cible "La génération d'images IA de Gemini génère un large éventail de personnes. Et c'est généralement une bonne chose parce que des gens du monde entier l'utilisent. Mais ici, on manque le but", a déclaré mercredi Jack Krawczyk, directeur principal de Gemini Experiences.




"Nous travaillons immédiatement à améliorer ce type de représentations", a-t-il ajouté.

Google a annoncé plus tard qu'il suspendrait la capacité de l'outil à générer des images de personnes pendant qu'il travaillait sur le correctif. Ce n’est pas la première fois que l’IA bute sur des questions concrètes liées à la diversité. Par exemple, Google a dû s'excuser il y a près de dix ans après que son application de photos ait qualifié une photo d'un couple noir de « gorilles ».

La société rivale d'IA, OpenAI, a également été accusée de perpétuer des stéréotypes néfastes, après que les utilisateurs ont découvert que son générateur d'images Dall-E répondait aux questions du directeur général, par exemple, avec des résultats dominés par des photos d'hommes blancs.

Google, qui est sous pression pour prouver qu'il n'est pas à la traîne dans le développement de l'IA, a publié la semaine dernière sa dernière version de Gemini. Le bot crée des images en réponse à des requêtes écrites. Cela a rapidement attiré des critiques, qui ont accusé l’entreprise d’avoir entraîné le robot à se montrer de manière ridicule. "Il est embarrassant de faire reconnaître à Google Gemini que les Blancs existent", a écrit l'informaticien Debarghya Das.



"Allez", Frank J Fleming, auteur et humoriste qui écrit pour des médias, notamment le groupe de droite PJ Media, en réponse aux résultats qu'il a reçus en lui demandant une image d'un Viking. Les affirmations se sont accélérées dans les cercles de droite aux États-Unis, où de nombreuses grandes plateformes technologiques sont déjà confrontées à des réactions négatives en raison de leur prétendu parti pris libéral.

M. Krawczyk a déclaré que l'entreprise prenait au sérieux la représentation et les préjugés et souhaitait que ses résultats reflètent sa base d'utilisateurs mondiale.

"Les contextes historiques sont plus nuancés et nous allons les adapter davantage", a-t-il écrit sur X, anciennement Twitter, où les utilisateurs partageaient les résultats douteux qu'ils avaient reçus.

"Cela fait partie du processus d'alignement - itération sur les commentaires. Merci et continuez comme ça !"
 

Maintenant, voici la nuance : les LLM et les générateurs d'images ont un préjugé contre les minorités. Une certaine modération est nécessaire pour ne pas promouvoir davantage cela. Mais il est difficile de trouver un équilibre et la première tentative de Google a été « nulle » (c'est le moins qu'on puisse dire). ChatGPT d'OpenAI a le même problème, mais depuis que le modèle est public depuis un certain temps, ils se sont beaucoup améliorés à cet égard. Google le fera aussi.

Il est beaucoup plus probable qu'il s'agisse d'un bug de modèle LLM/image et moins susceptible d'être un programme malveillant.

Une très bonne réflexion sur les biais dans la génération d'images ici : How to Read an AI Image d'Eryk Salvaggio.

Aucun commentaire:

Enregistrer un commentaire

PROMPTOLOGIE Reviens aux fondamentaux !

Quand on travaille avec ChatGPT, on a vite tendance a essayer des prompts (instructions) très compliqués ou alors trop flous. Je recommande ...