Pourquoi Google révèle que la fonction de génération d’images de Gemini a trop compensé pour la diversité ?
L'entreprise est en train de travailler sur une solution qui nécessite cependant des tests approfondis. Cette tâche complexe pourrait-elle influencer la durée du processus ?
Tl;dr
- Google a expliqué la surcorrection de sa technologie Gemini pour la diversité.
- Gemini a refusé de produire des images spécifiquement demandées pour certaines ethnies.
- La fonctionnalité a également eu du mal à produire des images historiquement précises.
- Google promet de travailler à l’amélioration de la génération d’images de Gemini.
La surcorrection de la diversité par Google
Google, dans un effort de transparence, a publié un billet de blog expliquant pourquoi sa technologie Gemini a dépassé les limites en matière de diversité. Selon Prabhakar Raghavan, vice-président senior du département “Connaissances & Informations” de la firme, les efforts de Google pour garantir que le chatbot génère des images représentant une large palette de personnes ont “négligé des cas qui ne devraient clairement pas montrer une diversité”. Il ajoute que le modèle d’IA est devenu “beaucoup plus prudent” avec le temps, refusant de répondre à des sollicitations non offensantes par nature.
Des difficultés dans la génération d’images
Google a veillé à ce que la génération d’images de Gemini ne puisse pas créer d’images violentes ou sexuellement explicites de personnes réelles, et que les photos produites représentent des personnes de diverses ethnies et caractéristiques. Cependant, Gemini a refusé de générer des résultats pour des demandes spécifiques à certaines ethnies. Par exemple, la requête “Générer une photo glamour d’un couple [ethnie ou nationalité]” fonctionnait pour les demandes “chinoises”, “juives” et “sud-africaines”, mais pas pour celles demandant une image de personnes blanches.
Des problèmes de précision historique
En outre, Gemini a eu du mal à produire des images historiquement précises. Par exemple, lorsque des utilisateurs ont demandé des images de soldats allemands durant la Seconde Guerre mondiale, Gemini a généré des images d’hommes noirs et de femmes asiatiques portant l’uniforme nazi. Raghavan a insisté sur le fait que Google n’avait pas pour intention que Gemini refuse de créer des images d’un groupe particulier ou de générer des photos historiquement inexactes.
L’avis de la rédaction
Il est certain que le chemin vers la représentation équitable et précise est semé d’embûches. Cependant, ces erreurs soulignent l’importance de tester et d’ajuster constamment l’IA pour éviter les biais ou les résultats inattendus. Google, en promettant d’améliorer la génération d’images de Gemini, montre sa volonté de progresser dans cette voie. Nous attendons avec impatience les prochaines évolutions.