OpenAI renforce la sécurité des adolescents avec ChatGPT

Image d'illustration. ChatGPTOpenAI / PR-ADN
Sam Altman, PDG d’OpenAI, envisage la possibilité que ChatGPT demande une vérification d’identité aux utilisateurs pour continuer à accéder au service, évoquant ainsi de nouvelles mesures de sécurité et de contrôle sur la célèbre intelligence artificielle conversationnelle.
Tl;dr
- Le décès d’Adam Raine relance le débat sur la responsabilité des plateformes d’IA et pousse OpenAI à renforcer la sécurité des mineurs sur ChatGPT.
- De nouvelles fonctionnalités permettront aux parents de surveiller l’usage, de limiter les horaires, désactiver l’historique et recevoir des alertes en cas de comportements inquiétants.
- Un système automatisé détectera l’âge et filtrera les contenus sensibles, tandis que des procédures d’alerte seront mises en place pour protéger les adolescents à risque.
L’impact des interactions IA sur les mineurs
La start-up américaine OpenAI, éditrice du célèbre outil conversationnel ChatGPT, fait l’objet d’une attention accrue à la suite du décès tragique d’Adam Raine, âgé de seize ans. La famille du jeune homme affirme que les interactions avec le chatbot auraient contribué à son suicide, une accusation lourde qui vient intensifier les débats sur la responsabilité des plateformes d’intelligence artificielle. Face à la médiatisation de cette affaire, la direction d’OpenAI a pris la parole pour annoncer des mesures renforcées.
Nouveaux contrôles parentaux en préparation
Dans sa volonté affichée de mieux protéger les mineurs, l’entreprise dévoile des fonctionnalités inédites : bientôt, les parents pourront lier leur propre compte à celui de leur adolescent. Ce dispositif leur donnera accès à plusieurs réglages essentiels : limitation des heures d’accès — ou « blackout hours » —, désactivation de l’historique des conversations et surtout réception d’alertes si un comportement préoccupant est détecté lors des échanges avec le chatbot. Cette évolution vise une surveillance accrue, tout en ménageant la liberté numérique des plus jeunes.
Détection automatisée de l’âge : entre sécurité et vie privée
Sam Altman a détaillé dans une publication intitulée « Teen safety, freedom and privacy » les contours du futur système, à savoir un algorithme sera chargé d’estimer l’âge de chaque utilisateur à partir de ses interactions avec ChatGPT : « Si le doute subsiste, nous privilégierons par défaut l’expérience réservée aux moins de 18 ans. Dans certains pays ou situations, il pourra être demandé une pièce d’identité ; cela implique certes un compromis en matière de confidentialité pour les adultes, mais nous pensons que c’est un juste équilibre ». Les discussions jugées sensibles – comme celles ayant trait à l’automutilation ou au flirt – seront filtrées pour les adolescents.
Soutien renforcé face aux situations à risque
En cas d’expression de pensées suicidaires par un mineur auprès du chatbot, la procédure prévoit que ChatGPT tente en priorité de joindre les parents. Si cela s’avère impossible, une alerte serait adressée aux autorités compétentes. Pour ceux qui souhaitent résumer ces nouveautés :
- Liaison parent-enfant facilitée pour surveiller l’usage.
- Système prédictif et filtrage avancé des contenus sensibles.
- Mécanismes d’alerte rapide face aux comportements inquiétants.
Pour conclure, si ces arbitrages ne font pas consensus — comme le reconnaît lui-même Sam Altman, évoquant « difficiles décisions et principes parfois contradictoires » — ils traduisent une volonté affirmée : placer la sécurité des jeunes au cœur des évolutions technologiques.
