OpenAI affirme pouvoir détecter la plupart des images générées par son propre logiciel… presque toujours
Il est en train de tester un nouvel outil pour déterminer si une image a été générée par une intelligence artificielle. Pensez-vous que ce genre d'outil peut vraiment faire la différence ?
Tl;dr
- OpenAI développe un outil pour détecter les images générées par son IA DALL-E 3.
- L’outil peut identifier avec précision 98% des images créées par DALL-E 3.
- La détection est moins efficace avec les images modifiées ou créées par d’autres IA.
- OpenAI investit dans l’éducation et la littératie en IA pour contrer la désinformation.
OpenAI et la lutte contre la désinformation
La capacité à distinguer les images générées par l’intelligence artificielle (IA) se complique à mesure que la technologie évolue. Face à ce défi, OpenAI, leader de l’industrie, travaille sur un outil capable de détecter les images produites par son propre générateur DALL-E 3. Toutefois, les résultats sont mitigés.
Une détection précise mais limitée
La société affirme pouvoir détecter avec exactitude 98% des images conçues par DALL-E 3. Cependant, cela présente des limites. D’abord, l’image doit être créée par DALL-E 3, et ce dernier n’est pas le seul générateur d’images sur le marché. De plus, selon les données fournies par OpenAI, le système n’a réussi qu’à classer correctement 5 à 10% des images produites par d’autres modèles d’IA.
La modification des images, un obstacle majeur
L’outil rencontre également des difficultés lorsque l’image a été modifiée. Les modifications mineures, comme le recadrage, la compression ou les changements de saturation, n’affectent que légèrement le taux de réussite, qui reste entre 95 et 97%. Cependant, l’ajustement de la teinte fait chuter ce taux à 82%. OpenAI admet que l’outil peine à classer les images ayant subi des modifications plus importantes, sans fournir de taux de réussite pour ces cas.
Transparence et éducation, des remèdes possibles
OpenAI se montre transparente quant aux limites de sa technologie de détection et donne accès à ses outils à des testeurs externes pour y remédier. Avec son partenaire Microsoft, la société a investi 2 millions de dollars dans le Fonds de Résilience Sociétale, destiné à promouvoir l’éducation et la littératie en IA.
L’avis de la rédaction
Si l’initiative d’OpenAI est louable, il est clair que la lutte contre la désinformation générée par l’IA est un défi de taille. L’éducation et la littératie en IA apparaissent comme des outils essentiels pour équiper le public face à cette menace grandissante.