OpenAI révèle avoir mis fin à plusieurs opérations d’influence secrètes abusant de ses modèles IA
Le créateur de ChatGPT rapporte que des réseaux russes, chinois, iraniens et israéliens ont tenté de manipuler l'opinion publique en utilisant du contenu généré par l'IA. Quels pourraient être les enjeux de cette manipulation par l'intelligence artificielle ?
Tl;dr
- OpenAI a stoppé cinq opérations d’influence cachées utilisant ses modèles IA.
- Ces opérations provenaient de Russie, Chine, Iran et Israël.
- Elles visaient à manipuler l’opinion publique et influencer politiquement sans révéler leurs vraies identités.
- Les réseaux d’influence ont utilisé l’IA pour générer du texte et des images en plus grand volume.
OpenAI déjoue des opérations d’influence clandestines
Avec 20 ans d’expérience dans le journalisme d’actualité, je peux vous dire que les nouvelles technologies offrent des opportunités, mais également de nouveaux défis. OpenAI, une des entreprises phares de l’Intelligence Artificielle (IA), en a fait l’expérience en stoppant cinq opérations d’influence dissimulées qui utilisaient ses modèles d’IA pour des activités trompeuses sur Internet.
Des opérations d’origines diverses
Ces opérations, qui ont été stoppées entre 2023 et 2024, étaient originaires de Russie, Chine, Iran et Israël. Elles visaient à manipuler l’opinion publique et influencer les résultats politiques sans révéler leurs véritables identités ou intentions. OpenAI a dévoilé ces informations jeudi dernier, soulignant qu’il travaillait avec des personnes de l’industrie technologique, de la société civile et des gouvernements pour contrer ces acteurs malintentionnés.
Des réseaux d’influence utilisant l’IA
Les réseaux d’influence ont utilisé l’IA générative pour produire du texte et des images à des volumes bien plus élevés qu’auparavant. Ils ont également généré de faux commentaires sur les publications des réseaux sociaux. Ben Nimmo, enquêteur principal de l’équipe Intelligence et Investigations d’OpenAI, a décrit cette situation lors d’un point presse, affirmant que “ces campagnes n’ont pas augmenté de manière significative leur engagement ou leur portée à la suite de nos services”.
Des opérations similaires chez d’autres entreprises technologiques
La révélation d’OpenAI n’est pas un cas isolé. D’autres entreprises technologiques font régulièrement part de problèmes similaires. Mercredi dernier, par exemple, Meta a publié son dernier rapport sur le comportement inauthentique coordonné, détaillant comment une agence de marketing israélienne avait utilisé de faux comptes Facebook pour mener une campagne d’influence sur sa plateforme, ciblant des personnes aux États-Unis et au Canada.
L’avis de la rédaction
Il est crucial de souligner l’importance de la transparence et de la responsabilité dans le domaine de l’IA. Les efforts d’OpenAI pour mettre fin à ces opérations d’influence démontrent la nécessité d’une vigilance constante face à l’usage détourné de ces technologies. Il est impératif de continuer à surveiller et à contrôler l’impact de l’IA sur notre société.