OpenAI promet un accès anticipé à son prochain modèle d’IA au gouvernement américain
Sam Altman a révélé que sa société collaborait avec l'Institut américain de sécurité de l'IA. Quels pourraient être les résultats de cette collaboration prometteuse?
Tl;dr
- OpenAI accorde à l’Institut de Sécurité de l’IA américain un accès précoce à son prochain modèle.
- L’Institut a été officiellement créé par le NIST pour développer des directives basées sur la science pour la sécurité de l’IA.
- Des préoccupations sont soulevées sur la sécurité suite à des changements de leadership chez OpenAI.
- OpenAI a récemment créé un nouveau groupe de sécurité, suscitant des inquiétudes sur l’auto-régulation.
OpenAI et l’Institut de Sécurité de l’IA américain unissent leurs forces
Le président d’OpenAI, Sam Altman, a annoncé sur Twitter que l’Institut de Sécurité de l’IA américain bénéficierait d’un accès anticipé à son prochain modèle. Cette initiative s’inscrit dans le cadre des efforts de l’entreprise pour renforcer la sécurité de l’intelligence artificielle.
Une collaboration pour développer des normes de sécurité de l’IA
Le National Institute of Standards and Technology (NIST) a officiellement créé l’Institut de Sécurité de l’IA plus tôt cette année. Le but de cet institut est, selon le NIST, de « développer des directives et des normes pour la mesure de l’IA et la politique, basées sur la science et soutenues empiriquement, jetant ainsi les bases pour la sécurité de l’IA à travers le monde ».
Des remous internes au sein d’OpenAI
TechCrunch a rapporté que des inquiétudes grandissent quant à la diminution de l’importance accordée à la sécurité par OpenAI. Des rumeurs ont circulé sur le possible renvoi de Sam Altman pour des raisons de sécurité, bien que l’entreprise ait démenti ces allégations, évoquant « une rupture de communication ». Par ailleurs, OpenAI a dissous l’équipe de Superalignement qu’elle avait créée pour garantir la sécurité de l’humanité face à l’intelligence artificielle.
Un nouveau groupe de sécurité sous le feu des critiques
OpenAI a constitué un nouveau groupe de sécurité en mai dernier. Cependant, cette initiative a soulevé des préoccupations quant à l’auto-régulation, le groupe étant dirigé par des membres du conseil d’administration, dont Sam Altman.
L’avis de la rédaction
Nous saluons l’effort d’OpenAI d’impliquer l’Institut de Sécurité de l’IA dans le développement de son prochain modèle. Cependant, la transparence et l’indépendance dans la sécurité de l’IA sont fondamentales pour garantir la confiance du public. Les entreprises doivent mettre en place des mécanismes de contrôle rigoureux, indépendants des influences internes.