Menu
https://trackr.fr/app/uploads/2024/09/cropped-TRACKR-2.pngTRACKR
  • Tech
  • Pop Culture
    • Films
    • Séries TV
  • Jeux Vidéo
Tech

Les géants mondiaux de l’IA s’engagent à garantir la sécurité des enfants sur internet

Tech
Par Benjamin,  publié le 24 avril 2024 à 0h01, modifié le 24 avril 2024 à 0h01.

OpenAI, Microsoft, Google, Meta, entre autres, se sont engagés à empêcher leurs outils d'IA de créer et de propager du contenu comportant des abus sexuels sur les enfants. Quelles autres mesures ces géants de la technologie pourraient-ils prendre pour protéger les plus vulnérables ?

Tl;dr

  • Des entreprises d’IA, dont OpenAI, Google, ont promis de lutter contre l’exploitation des enfants.
  • L’initiative, dirigée par Thorn et All Tech Is Human, cherche à empêcher la création de contenus sexuellement explicites impliquant des enfants.
  • Un document propose des stratégies pour empêcher l’IA de générer du contenu préjudiciable aux enfants.
  • Des entreprises ont déjà pris des mesures, comme séparer les données impliquant des enfants de celles contenant du contenu pour adultes.

Une alliance pour la protection des enfants

Des géants de l’intelligence artificielle (IA) tels qu’OpenAI, Microsoft, Google, Meta et bien d’autres se sont engagés conjointement à empêcher leurs outils d’IA d’être utilisés pour l’exploitation des enfants et la génération de matériel d’abus sexuels sur les enfants (CSAM). Cette initiative est menée par le groupe de sécurité des enfants Thorn et All Tech Is Human, une organisation à but non lucratif axée sur la technologie responsable.

Un précédent pour l’industrie

Selon Thorn, les engagements de ces entreprises d’IA « établissent un précédent révolutionnaire pour l’industrie et représentent un bond significatif dans les efforts visant à défendre les enfants contre les abus sexuels ». Le but de cette initiative est d’empêcher la création de matériel sexuellement explicite impliquant des enfants et de le supprimer des plateformes de médias sociaux et des moteurs de recherche. Plus de 104 millions de fichiers suspectés d’être du matériel d’abus sexuels sur des enfants ont été signalés aux États-Unis en 2023, selon Thorn.

Des recommandations pour la sécurité

Thorn et All Tech Is Human ont publié un nouveau document intitulé « Safety by Design for Generative AI: Preventing Child Sexual Abuse », qui décrit des stratégies et formule des recommandations pour les entreprises qui développent des outils d’IA. Parmi ces recommandations, on demande aux entreprises de choisir avec soin les ensembles de données utilisés pour entraîner les modèles d’IA et d’éviter ceux contenant du contenu sexuel adulte, en raison de la propension de l’IA générative à combiner ces deux aspects.

Des mesures déjà prises

Certaines entreprises ont déjà pris des mesures, comme la séparation des images, des vidéos et des audios impliquant des enfants des ensembles de données contenant du contenu adulte, afin d’éviter que leurs modèles ne combinent les deux. D’autres ajoutent également des filigranes pour identifier le contenu généré par l’IA, bien que cette méthode ne soit pas infaillible.

L’avis de la rédaction

L’engagement de ces géants de l’IA est une révolution dans l’industrie technologique. C’est un pas en avant pour la protection des enfants dans un monde de plus en plus numérique. Cependant, l’implémentation de ces mesures de protection nécessitera une surveillance constante et une amélioration continue pour garantir leur efficacité à l’avenir.

Le Récap
  • Tl;dr
  • Une alliance pour la protection des enfants
  • Un précédent pour l’industrie
  • Des recommandations pour la sécurité
  • Des mesures déjà prises
  • L’avis de la rédaction
https://trackr.fr/app/uploads/2024/09/cropped-TRACKR-2.png
  • À propos
  • Archives
  • Infos Légales
© 2026 - Tous droits réservés sur les contenus du site TRACKR