Découvrez comment Sam Altman, CEO, pilote la nouvelle équipe de sécurité d’OpenAI
Cette décision soulève des interrogations sur l'auto-régulation suite aux démissions notables survenues plus tôt ce mois-ci pour des raisons de sécurité. Quels pourraient être les impacts de ces départs sur la sécurité future ?
Tl;dr
- OpenAI a créé un nouveau comité de sécurité deux semaines après avoir dissous son précédent.
- Le comité comprend deux membres du conseil et le PDG Sam Altman.
- L’ancien membre du comité, Jan Leike, a exprimé des préoccupations quant à la gestion de la sécurité de l’IA par l’entreprise.
- OpenAI a récemment fait face à des controverses concernant l’utilisation non autorisée d’une voix ressemblant à celle de Scarlett Johansson.
OpenAI face à la sécurité de l’IA
L’entreprise OpenAI a annoncé la création d’un nouveau comité de sécurité et de sûreté, moins de deux semaines après la dissolution de l’équipe précédente chargée de la protection de l’humanité contre les menaces existentielles de l’IA. Une décision qui suscite de nombreuses interrogations compte tenu du contexte actuel.
Un nouveau comité à la tête d’une mission délicate
Le nouveau comité de sécurité, formé par le conseil d’administration d’OpenAI, comprend les membres du conseil Bret Taylor et Nicole Seligman, ainsi que le PDG Sam Altman. Cette annonce intervient après les démissions de Ilya Sutskever et Jan Leike, membres influents de l’ancienne équipe de sécurité, baptisée « Superalignment Team », créée seulement en juillet dernier.
Des départs qui suscitent des interrogations
Suite à sa démission, Jan Leike a exprimé ses préoccupations sur Twitter quant à la manière dont OpenAI gère la sécurité de l’IA. Il a évoqué un « point de rupture » atteint entre la production et la sécurité, affirmant que l’entreprise n’était pas sur la bonne voie pour répondre de manière adéquate aux problèmes de sécurité liés à l’IA.
Une gestion de la sécurité contestée
Outre ces départs, OpenAI a récemment essuyé des critiques pour avoir lancé un nouveau modèle vocal ressemblant étonnamment à l’actrice Scarlett Johansson, sans son consentement. La société a dû rapidement retirer ce modèle suite à la polémique.
Dans un communiqué, l’équipe de Johansson a exprimé sa surprise face à cette ressemblance « étrangement similaire », après que l’actrice ait refusé que sa voix soit utilisée pour entraîner un modèle d’IA.
Le futur de la sécurité chez OpenAI
Le nouveau comité de sécurité d’OpenAI prévoit d’évaluer et de développer davantage les processus et les garanties de l’entreprise au cours des 90 prochains jours. Il partagera ensuite ses recommandations avec l’ensemble du conseil d’administration.
L’avis de la rédaction
Il est crucial pour OpenAI de prendre des mesures concrètes pour renforcer son approche de la sécurité. Les récentes controverses soulignent l’importance de la transparence et du respect de l’éthique dans le développement de l’IA. La création de ce nouveau comité pourrait être un pas dans la bonne direction, à condition qu’il prenne en compte les préoccupations exprimées par les anciens membres de l’équipe de sécurité.