ElevenLabs a-t-il vraiment fermé le compte ayant imité la voix de Biden grâce à ses outils IA?
Un appel automatisé imitant le président a été envoyé aux électeurs du New Hampshire. Cette pratique controversée soulève des questions sur son éthique. Quels pourraient être les impacts de tels appels sur le processus électoral ?
Tl;dr
- La start-up ElevenLabs a suspendu le compte d’un utilisateur qui a créé un deepfake audio de Joe Biden.
- L’audio a été utilisé pour dissuader les électeurs du New Hampshire de voter aux élections primaires.
- ElevenLabs est déterminée à prévenir les abus de ses outils de clonage vocal.
- La menace potentielle des deepfakes pour les élections futures est soulignée.
ElevenLabs suspend un utilisateur pour abus de ses outils de clonage vocal
La start-up spécialisée en intelligence artificielle, ElevenLabs, a récemment suspendu l’utilisateur qui a créé un deepfake audio de Joe Biden. L’audio en question a été utilisé dans une tentative de perturbation des élections, selon Bloomberg.
Une technologie utilisée à mauvais escient
La voix du président a été imitée dans un appel automatisé adressé à certains électeurs du New Hampshire la semaine dernière, les incitant à ne pas voter lors des élections primaires de leur État. Il n’était pas initialement évident que la technologie d’ElevenLabs avait été utilisée pour copier la voix de Biden. Cependant, une analyse approfondie réalisée par la société de sécurité Pindrop a révélé que les auteurs de cet acte avaient bel et bien utilisé les outils d’ElevenLabs.
ElevenLabs prend des mesures
La société a été informée des résultats de Pindrop et, bien qu’elle soit toujours en train d’enquêter, elle a déjà identifié et suspendu le compte qui a créé l’audio falsifié. ElevenLabs a déclaré à Bloomberg qu’elle ne peut pas commenter directement l’incident, mais qu’elle est “dédiée à prévenir les abus de l’IA audio et prend très au sérieux tout incident de mauvais usage”.
La menace des deepfakes pour les élections
L’incident souligne comment les technologies capables d’imiter l’apparence et la voix d’autrui peuvent être utilisées pour manipuler les votes lors des prochaines élections présidentielles aux États-Unis. Kathleen Carley, professeur à l’Université Carnegie Mellon, a déclaré à The Hill que “c’est juste la pointe de l’iceberg de ce qui pourrait être fait en matière de suppression des électeurs ou d’attaques contre les travailleurs électoraux”.
L’avis de la rédaction
Tout en reconnaissant le potentiel incroyable de l’IA et du clonage vocal, cette affaire souligne l’importance d’une régulation stricte et d’une utilisation éthique de ces technologies. Le défi pour les entreprises comme ElevenLabs est de trouver un équilibre entre l’innovation technologique et la prévention des abus potentiels.