Menu
https://trackr.fr/wp-content/uploads/2024/09/cropped-TRACKR-2.pngTRACKR
  • Tech
  • Pop Culture
    • Films
    • Séries TV
  • Jeux Vidéo
Tech

OpenAI révèle avoir mis fin à plusieurs opérations d’influence secrètes abusant de ses modèles IA

Tech > IA > OpenAI
Par Benjamin,  publié le 31 mai 2024 à 13h20, modifié le 31 mai 2024 à 13h20.

Le créateur de ChatGPT rapporte que des réseaux russes, chinois, iraniens et israéliens ont tenté de manipuler l'opinion publique en utilisant du contenu généré par l'IA. Quels pourraient être les enjeux de cette manipulation par l'intelligence artificielle ?

  • OpenAI a stoppé cinq opérations d’influence cachées utilisant ses modèles IA.
  • Ces opérations provenaient de Russie, Chine, Iran et Israël.
  • Elles visaient à manipuler l’opinion publique et influencer politiquement sans révéler leurs vraies identités.
  • Les réseaux d’influence ont utilisé l’IA pour générer du texte et des images en plus grand volume.

OpenAI déjoue des opérations d’influence clandestines

Avec 20 ans d’expérience dans le journalisme d’actualité, je peux vous dire que les nouvelles technologies offrent des opportunités, mais également de nouveaux défis. OpenAI, une des entreprises phares de l’Intelligence Artificielle (IA), en a fait l’expérience en stoppant cinq opérations d’influence dissimulées qui utilisaient ses modèles d’IA pour des activités trompeuses sur Internet.

Des opérations d’origines diverses

Ces opérations, qui ont été stoppées entre 2023 et 2024, étaient originaires de Russie, Chine, Iran et Israël. Elles visaient à manipuler l’opinion publique et influencer les résultats politiques sans révéler leurs véritables identités ou intentions. OpenAI a dévoilé ces informations jeudi dernier, soulignant qu’il travaillait avec des personnes de l’industrie technologique, de la société civile et des gouvernements pour contrer ces acteurs malintentionnés.

Des réseaux d’influence utilisant l’IA

Les réseaux d’influence ont utilisé l’IA générative pour produire du texte et des images à des volumes bien plus élevés qu’auparavant. Ils ont également généré de faux commentaires sur les publications des réseaux sociaux. Ben Nimmo, enquêteur principal de l’équipe Intelligence et Investigations d’OpenAI, a décrit cette situation lors d’un point presse, affirmant que “ces campagnes n’ont pas augmenté de manière significative leur engagement ou leur portée à la suite de nos services”.

Des opérations similaires chez d’autres entreprises technologiques

La révélation d’OpenAI n’est pas un cas isolé. D’autres entreprises technologiques font régulièrement part de problèmes similaires. Mercredi dernier, par exemple, Meta a publié son dernier rapport sur le comportement inauthentique coordonné, détaillant comment une agence de marketing israélienne avait utilisé de faux comptes Facebook pour mener une campagne d’influence sur sa plateforme, ciblant des personnes aux États-Unis et au Canada.

L’avis de la rédaction

Il est crucial de souligner l’importance de la transparence et de la responsabilité dans le domaine de l’IA. Les efforts d’OpenAI pour mettre fin à ces opérations d’influence démontrent la nécessité d’une vigilance constante face à l’usage détourné de ces technologies. Il est impératif de continuer à surveiller et à contrôler l’impact de l’IA sur notre société.

Le Récap
  • OpenAI déjoue des opérations d’influence clandestines
  • Des opérations d’origines diverses
  • Des réseaux d’influence utilisant l’IA
  • Des opérations similaires chez d’autres entreprises technologiques
  • L’avis de la rédaction
En savoir plus
  • Take-Two Interactive freine sur l’IA
  • Capcom rassure… sans renoncer à l’IA
  • Airbnb expérimente la recherche par intelligence artificielle auprès d’un nombre restreint d’utilisateurs
https://trackr.fr/wp-content/uploads/2024/09/cropped-TRACKR-2.png
  • À propos
  • Archives
  • Infos Légales
© 2026 - Tous droits réservés sur les contenus du site TRACKR