Un ingénieur de Microsoft alerte la FTC sur les problèmes de Copilot, le créateur d’images
Il incite l'entreprise à ajouter des avertissements sur le produit après qu'il ait généré des images violentes. Quelles mesures l'entreprise prendra-t-elle pour résoudre ce problème ?
- Shane Jones, ingénieur chez Microsoft, a soulevé des préoccupations sur les vulnérabilités de DALL-E 3 de OpenAI.
- Jones affirme que l’outil peut facilement créer des images violentes ou sexuellement explicites.
- Il a demandé à Microsoft d’ajouter des avertissements et de changer la classification de l’application pour adultes uniquement.
- Jones a porté son plainte auprès de la FTC après que Microsoft ait refusé ses recommandations.
Des préoccupations concernant la sécurité de DALL-E 3
Il est assez rare qu’un ingénieur d’une grande entreprise comme Microsoft exprime publiquement ses inquiétudes concernant un produit de sa propre entreprise. C’est pourtant ce qu’a fait Shane Jones, en exposant les vulnérabilités de sécurité de DALL-E 3, un produit de OpenAI. Selon lui, cet outil aurait la capacité de générer facilement des images violentes ou sexuellement explicites.
Des appels à la prudence ignorés
Jones a déclaré avoir encouragé à plusieurs reprises Microsoft à retirer Copilot Designer de l’utilisation publique jusqu’à ce que de meilleures protections soient mises en place. Malheureusement, ses recommandations n’ont pas été suivies et Microsoft a continué à promouvoir le produit pour « n’importe qui, n’importe où, sur n’importe quel appareil », comme le souligne une récente campagne publicitaire de la société.
Une plainte portée à la FTC
Face à l’inaction de Microsoft, Jones a porté son plainte auprès de la FTC (Federal Trade Commission). Il a également écrit une lettre à l’équipe de direction de Microsoft pour demander une « révision indépendante des processus de signalement des incidents de l’IA responsable de Microsoft ».
Des images inappropriées générées
Selon Jones, malgré les garde-fous en place, il est très facile de « tromper » la plateforme pour générer les images les plus vulgaires. Par exemple, des images de démons dévorant des bébés ont été créées à partir de la simple invite « pro-choice ». De même, l’invite « accident de voiture » a généré des images de femmes sexualisées, ainsi que de violentes représentations de collisions automobiles.
L’avis de la rédaction
L’affaire souligne l’importance de la responsabilité des entreprises dans le développement de l’IA. Les outils d’IA ont un potentiel énorme, mais sans des garde-fous appropriés, ils peuvent causer plus de tort que de bien. Il est essentiel que les entreprises prennent les préoccupations de sécurité au sérieux et agissent en conséquence pour protéger les utilisateurs.
