Menu
https://trackr.fr/wp-content/uploads/2024/09/cropped-TRACKR-2.pngTRACKR
  • Tech
  • Pop Culture
    • Films
    • Séries TV
  • Jeux Vidéo
Tech

L’équipe OpenAI chargée de sauvegarder l’humanité n’existe plus : un tournant inattendu

Tech > OpenAI > Sécurité
Par Benjamin,  publié le 18 mai 2024 à 2h12, modifié le 18 mai 2024 à 2h12.

L'ancien directeur a démissionné, alléguant que les préoccupations de sécurité étaient reléguées au second plan au profit de produits attrayants. Quels problèmes de sécurité pensez-vous que cela pourrait causer à l'avenir?

  • En 2023, OpenAI forme une équipe « Superalignment » pour contrôler les futurs systèmes d’IA.
  • Moins d’un an après, l’équipe est dissoute.
  • Jan Leike, l’un des leaders de l’équipe, dénonce un manque de ressources et de priorité donnée à la sécurité.
  • Plusieurs départs marquent OpenAI, y compris celui de son chef scientifique et co-fondateur, Sutskevar.

La fin d’une équipe dédiée à la sécurité de l’IA chez OpenAI

En 2023, OpenAI a mis en place une équipe intitulée « Superalignment », dans l’idée de contrôler les futurs systèmes d’intelligence artificielle (IA) si puissants qu’ils pourraient mener à l’extinction humaine. Moins d’un an plus tard, cette équipe n’existe plus.

Des tensions internes à l’origine de la dissolution ?

Selon Bloomberg, OpenAI aurait déclaré intégrer ce groupe plus profondément à travers ses efforts de recherche afin d’atteindre ses objectifs de sécurité. Cependant, une série de tweets de Jan Leike, l’un des leaders de l’équipe qui a récemment démissionné, révèle des tensions internes entre l’équipe de sécurité et l’entreprise dans son ensemble.

Un combat pour des ressources insuffisantes

Dans une déclaration, Leike affirme que l’équipe « Superalignment » a dû lutter pour obtenir les ressources nécessaires à ses recherches. « Construire des machines plus intelligentes que l’homme est une entreprise intrinsèquement dangereuse », écrit-il. Il déplore que la culture et les processus de sécurité aient été relégués au second plan au profit de produits plus attractifs.

Une vague de départs chez OpenAI

Le départ de Leike intervient après celui du chef scientifique d’OpenAI, Sutskevar, qui était non seulement l’un des leaders de l’équipe « Superalignment », mais aussi co-fondateur de l’entreprise. Ce départ fait suite à une décision prise six mois plus tôt de licencier le PDG Sam Altman, décision qui a été suivie d’un mouvement de révolte interne. Aujourd’hui, OpenAI annonce que ses futurs efforts de sécurité seront dirigés par John Schulman, un autre co-fondateur.

L’avis de la rédaction

Ces événements soulignent l’importance cruciale de la sécurité dans le développement de l’IA. Il est essentiel que les entreprises prennent conscience de l’enjeu majeur que représente la sécurité et qu’elles y consacrent suffisamment de ressources. La dissolution de l’équipe « Superalignment » pourrait bien être un signal d’alarme pour l’industrie de l’IA.

Le Récap
  • La fin d’une équipe dédiée à la sécurité de l’IA chez OpenAI
  • Des tensions internes à l’origine de la dissolution ?
  • Un combat pour des ressources insuffisantes
  • Une vague de départs chez OpenAI
  • L’avis de la rédaction
En savoir plus
  • OpenAI recherche un nouveau responsable pour anticiper et limiter les risques liés à l’IA
  • ChatGPT accueille un écosystème d’applications
  • Gemini 3 Flash de Google surpasse GPT-5.2 d’OpenAI sur tous les fronts
https://trackr.fr/wp-content/uploads/2024/09/cropped-TRACKR-2.png
  • À propos
  • Archives
  • Infos Légales
© 2026 - Tous droits réservés sur les contenus du site TRACKR