OpenAI sanctionne un développeur pour avoir fait passer ChatGPT pour un candidat présidentiel
La start-up spécialisée en IA, Delphi, a conçu un chatbot pour Dean Phillips, candidat démocrate, à la demande d'un groupe soutenant sa campagne. Serait-ce l'avenir de la politique ?
Tl;dr
- OpenAI a suspendu le développeur de Dean.Bot, un chatbot alimenté par ChatGPT.
- Dean.Bot a été conçu pour imiter le candidat présidentiel démocrate Dean Phillips.
- Cette utilisation viole directement les politiques d’OpenAI.
- OpenAI a récemment publié un article de blog sur les mesures prises pour empêcher l’abus de sa technologie.
L’intelligence artificielle en politique : le cas Dean.Bot
L’un des acteurs majeurs de l’intelligence artificielle, OpenAI, a récemment suspendu le développeur à l’origine de Dean.Bot, un chatbot conçu pour imiter Dean Phillips, candidat à la présidence du parti démocrate. Selon The Washington Post, ce chatbot a été créé par la startup Delphi pour le super PAC We Deserve Better, qui soutient Phillips.
Une utilisation controversée de la technologie
Dean.Bot n’a pas été conçu pour se faire passer intégralement pour Phillips. En effet, avant d’interagir avec le chatbot, les visiteurs du site étaient informés de sa véritable nature. Cependant, cette utilisation est en infraction directe avec les politiques d’OpenAI. Un porte-parole de l’entreprise a confirmé la suspension du développeur dans une déclaration à The Post.
OpenAI se dresse contre l’abus de sa technologie
Il y a quelques semaines, OpenAI a publié un long article de blog détaillant les mesures qu’elle prend pour prévenir l’abus de sa technologie à l’approche des élections de 2024. L’article cite spécifiquement les “chatbots se faisant passer pour des candidats” comme un exemple de ce qui est interdit. OpenAI a également précisé qu’elle n’autorise pas les gens à développer des applications pour faire campagne ou faire du lobbying politique.
L’avis de la rédaction
Il est crucial que les acteurs de l’intelligence artificielle comme OpenAI prennent des mesures pour empêcher l’abus de leur technologie, en particulier dans un contexte aussi sensible que celui des élections. Le cas de Dean.Bot met en lumière l’importance de la responsabilité et de la transparence dans le développement et l’utilisation des technologies d’IA.