ChatGPT déclare : demander une répétition infinie de mots viole ses conditions d’utilisation
Des chercheurs ont découvert qu'un chatbot était capable de divulguer des informations personnelles lorsqu'on lui demandait de répéter des mots. Cela soulève-t-il des questions sur la confidentialité de nos informations avec l'usage des chatbots ?
Tl;dr
- Des chercheurs ont réussi à obtenir des informations confidentielles de ChatGPT.
- Cela est maintenant considéré comme une violation des conditions d’utilisation de ChatGPT.
- OpenAI n’interdit pas explicitement aux utilisateurs de demander la répétition de mots à l’infini.
- Les entreprises comme OpenAI sont critiquées pour l’utilisation de données en ligne sans consentement ni compensation.
Des failles dans ChatGPT exposées
La semaine dernière, une équipe de chercheurs a mis en lumière une faille potentielle dans le chatbot d’OpenAI, ChatGPT. Ils ont réussi à faire révéler à ce dernier des informations sensibles telles que des numéros de téléphone, des adresses e-mail et des dates de naissance en lui demandant de répéter des mots “à l’infini”. Cela est désormais considéré comme une violation des conditions d’utilisation de ChatGPT, d’après un rapport de 404 Media et les propres tests d’Engadget.
Violation des conditions d’utilisation ou non ?
Cependant, quand Engadget a demandé à ChatGPT de répéter le mot “bonjour” indéfiniment, il a répondu : “Ce contenu peut violer notre politique de contenu ou nos conditions d’utilisation. Si vous estimez que c’est une erreur, veuillez envoyer vos commentaires, cela aidera notre recherche dans ce domaine”. Or, 404 Media souligne qu’aucune mention dans la politique de contenu d’OpenAI n’interdit aux utilisateurs de demander la répétition de mots à l’infini.
La question de l’utilisation des données
Cet incident met en lumière les données d’entraînement sur lesquelles se basent les services d’IA modernes. Des critiques accusent des entreprises comme OpenAI d’utiliser d’énormes quantités de données disponibles sur internet pour construire des produits propriétaires comme ChatGPT, sans le consentement des propriétaires de ces données et sans compensation.
L’avis de la rédaction
Nous sommes témoins d’un débat grandissant sur l’éthique de l’utilisation des données dans le développement de l’IA. Les entreprises comme OpenAI ont une responsabilité énorme pour garantir la sécurité et la confidentialité des données. Il est essentiel d’établir des normes claires et équitables pour prévenir les abus potentiels et protéger les droits des individus.