Menu
https://trackr.fr/wp-content/uploads/2024/09/cropped-TRACKR-2.pngTRACKR
  • Tech
  • Pop Culture
    • Films
    • Séries TV
  • Jeux Vidéo
Tech

Un ingénieur de Microsoft alerte la FTC sur les problèmes de Copilot, le créateur d’images

Tech > Microsoft > Copilot > FTC
Par Benjamin,  publié le 6 mars 2024 à 17h57, modifié le 6 mars 2024 à 17h57.

Il incite l'entreprise à ajouter des avertissements sur le produit après qu'il ait généré des images violentes. Quelles mesures l'entreprise prendra-t-elle pour résoudre ce problème ?

  • Shane Jones, ingénieur chez Microsoft, a soulevé des préoccupations sur les vulnérabilités de DALL-E 3 de OpenAI.
  • Jones affirme que l’outil peut facilement créer des images violentes ou sexuellement explicites.
  • Il a demandé à Microsoft d’ajouter des avertissements et de changer la classification de l’application pour adultes uniquement.
  • Jones a porté son plainte auprès de la FTC après que Microsoft ait refusé ses recommandations.

Des préoccupations concernant la sécurité de DALL-E 3

Il est assez rare qu’un ingénieur d’une grande entreprise comme Microsoft exprime publiquement ses inquiétudes concernant un produit de sa propre entreprise. C’est pourtant ce qu’a fait Shane Jones, en exposant les vulnérabilités de sécurité de DALL-E 3, un produit de OpenAI. Selon lui, cet outil aurait la capacité de générer facilement des images violentes ou sexuellement explicites.

Des appels à la prudence ignorés

Jones a déclaré avoir encouragé à plusieurs reprises Microsoft à retirer Copilot Designer de l’utilisation publique jusqu’à ce que de meilleures protections soient mises en place. Malheureusement, ses recommandations n’ont pas été suivies et Microsoft a continué à promouvoir le produit pour « n’importe qui, n’importe où, sur n’importe quel appareil », comme le souligne une récente campagne publicitaire de la société.

Une plainte portée à la FTC

Face à l’inaction de Microsoft, Jones a porté son plainte auprès de la FTC (Federal Trade Commission). Il a également écrit une lettre à l’équipe de direction de Microsoft pour demander une « révision indépendante des processus de signalement des incidents de l’IA responsable de Microsoft ».

Des images inappropriées générées

Selon Jones, malgré les garde-fous en place, il est très facile de « tromper » la plateforme pour générer les images les plus vulgaires. Par exemple, des images de démons dévorant des bébés ont été créées à partir de la simple invite « pro-choice ». De même, l’invite « accident de voiture » a généré des images de femmes sexualisées, ainsi que de violentes représentations de collisions automobiles.

L’avis de la rédaction

L’affaire souligne l’importance de la responsabilité des entreprises dans le développement de l’IA. Les outils d’IA ont un potentiel énorme, mais sans des garde-fous appropriés, ils peuvent causer plus de tort que de bien. Il est essentiel que les entreprises prennent les préoccupations de sécurité au sérieux et agissent en conséquence pour protéger les utilisateurs.

Le Récap
  • Des préoccupations concernant la sécurité de DALL-E 3
  • Des appels à la prudence ignorés
  • Une plainte portée à la FTC
  • Des images inappropriées générées
  • L’avis de la rédaction
En savoir plus
  • Psychonauts aurait pu être le Mario de Microsoft
  • Xbox Game Pass : un modèle à repenser selon Asha Sharma
  • Microsoft dévoile les premières informations clés sur sa future console Project Helix
https://trackr.fr/wp-content/uploads/2024/09/cropped-TRACKR-2.png
  • À propos
  • Archives
  • Infos Légales
© 2026 - Tous droits réservés sur les contenus du site TRACKR