OpenAI recherche un nouveau responsable pour anticiper et limiter les risques liés à l’IA

Image d'illustration. OpenAIOpenAI / PR-ADN
Face aux critiques sur la santé mentale et aux incidents récents, OpenAI intensifie ses efforts pour sécuriser ses modèles d’intelligence artificielle.
Tl;dr
- OpenAI renforce la sécurité en recrutant un responsable du pôle « Preparedness » pour anticiper les risques liés à l’IA.
- Le département sécurité a subi de multiples départs, fragilisant l’équipe et la continuité des projets.
- L’objectif est de prévenir les dérives des modèles et de mieux encadrer leur impact sur la santé mentale.
Une quête urgente pour renforcer la sécurité chez OpenAI
Après une année mouvementée marquée par des accusations répétées concernant l’impact de ChatGPT sur la santé mentale, dont plusieurs plaintes pour décès injustifié, OpenAI intensifie ses efforts pour mieux encadrer le développement de ses technologies. La start-up de Sam Altman cherche désormais à nommer un nouveau responsable du pôle « Preparedness », chargé d’anticiper les abus et dangers liés à l’utilisation de ses modèles.
Un poste stratégique à haute responsabilité
La création de ce poste n’est pas anodine. Selon l’annonce publiée récemment, le futur Head of Preparedness se verra confier la direction de la stratégie technique autour du cadre « Preparedness », conçu pour surveiller et prévenir les risques majeurs associés aux avancées en intelligence artificielle. D’ailleurs, le PDG Sam Altman, dans une publication sur le réseau social X, souligne sans détour : « C’est un travail stressant et vous plongerez directement dans le grand bain ». Outre un salaire annuel de 555.000 dollars accompagné d’une part en capital, la mission s’annonce exigeante et immédiate.
L’instabilité d’une équipe clé
Les changements au sein du département sécurité d’OpenAI ont été nombreux ces derniers mois. En juillet 2024, le précédent responsable, Aleksander Madry, avait déjà quitté son poste, remplacé brièvement par les cadres Joaquin Quinonero Candela et Lilian Weng. Pourtant, quelques mois plus tard, cette dernière prenait à son tour la porte. Puis, en juillet 2025, c’est au tour de Quinonero Candela d’annoncer son départ du pôle Preparedness afin de diriger le recrutement interne.
Pour donner une idée des enjeux actuels selon la direction d’OpenAI, voici les principaux défis auxquels ce rôle doit faire face :
- Mise en place d’un cadre pour anticiper les risques émergents ;
- Soutien à la stratégie globale de sûreté des modèles IA ;
- Nécessité d’apporter stabilité et vision claire à une équipe fragilisée.
Derrière le recrutement, une prise de conscience tardive ?
Ce recrutement intervient dans un contexte où la société fait l’objet d’un examen accru quant à sa capacité à gérer les dérives potentielles de ses innovations. Sam Altman reconnaît que l’impact des modèles sur la santé mentale est devenu tangible, un signal d’alerte face aux défis croissants : « Nous avons eu un aperçu du potentiel impact des modèles sur la santé mentale en 2025 ». Signe que pour maintenir sa position de leader sur le secteur tout en rassurant opinion publique et partenaires institutionnels, OpenAI n’a guère droit à l’erreur concernant la sécurité de ses modèles.
