Menu
https://trackr.fr/app/uploads/2024/09/cropped-TRACKR-2.pngTRACKR
  • Tech
  • Pop Culture
    • Films
    • Séries TV
  • Jeux Vidéo
Tech

Meta fait des vagues : des contenus sur la guerre Israël-Hamas supprimés injustement par ses outils automatiques

Tech > Meta > Israël > Hamas
Par Benjamin,  publié le 19 décembre 2023 à 12h38, modifié le 19 décembre 2023 à 12h38.

Dans son rapport, le Conseil de surveillance a confirmé que les outils automatisés de Meta sont à l'origine des problèmes. Pourquoi pensez-vous que ces outils ont échoué ?

Tl;dr

  • Le conseil de surveillance de Meta a effectué son premier examen accéléré sur du contenu relatif au conflit Israël-Hamas.
  • Il a critiqué l’utilisation par Meta d’outils automatisés pour modérer le contenu, entravant potentiellement la diffusion d’informations importantes.
  • Le conseil a souligné le manque de critères transparents pour l’inclusion des utilisateurs sur les listes de vérification croisée de Meta.
  • Malgré la réintégration des contenus supprimés, le conseil a déploré leur déclassement par Meta.

Le Conseil de Surveillance de Meta critique la modération automatisée du contenu

Le Conseil de Surveillance de Meta a récemment publié sa décision concernant son tout premier examen accéléré. Ce dernier a porté sur des contenus en rapport avec le conflit Israël-Hamas. Le Conseil a renversé la décision initiale de Meta de supprimer deux contenus relatifs aux deux camps du conflit.

Une modération qui entrave la diffusion d’informations cruciales

Selon le Conseil, l’utilisation par Meta d’outils automatisés de modération pourrait entraver la diffusion d’informations importantes. Dans ce cas précis, le Conseil a souligné que « cela a augmenté la probabilité de supprimer des publications précieuses informant le monde sur les souffrances humaines des deux côtés du conflit au Moyen-Orient ».

Un manque de critères transparents pour la modération

Le Conseil a également critiqué le manque de critères transparents pour l’inclusion des utilisateurs sur les listes de vérification croisée de Meta. Ces listes, généralement constituées d’utilisateurs de haut profil exemptés du système de modération automatisée de l’entreprise, ont été le seul moyen pour certains utilisateurs de publier du contenu sur les prises d’otages lors des attaques du 7 octobre.

Le déclassement des contenus réintégrés

Malgré la réintégration des contenus supprimés, le Conseil a déploré leur déclassement par Meta. Les contenus réintégrés ont été exclus des recommandations faites aux autres utilisateurs de Facebook et Instagram, même après que Meta ait déterminé qu’ils étaient destinés à sensibiliser le public.

L’avis de la rédaction

Il est crucial que les grandes plateformes de médias sociaux comme Meta soient transparentes et équitables dans leur modération du contenu. Le recours excessif à l’automatisation peut entraver la diffusion d’informations essentielles, notamment dans le contexte de conflits internationaux. Il est temps que Meta revoie sa politique de modération pour mieux équilibrer sécurité et liberté d’expression.

Le Récap
  • Tl;dr
  • Le Conseil de Surveillance de Meta critique la modération automatisée du contenu
  • Une modération qui entrave la diffusion d’informations cruciales
  • Un manque de critères transparents pour la modération
  • Le déclassement des contenus réintégrés
  • L’avis de la rédaction
En savoir plus
  • Meta renforce l’attrait de ses lunettes connectées
  • Meta AI fait vibrer le marché de l’intelligence artificielle
  • Vibes, la nouvelle expérience IA de Meta
https://trackr.fr/app/uploads/2024/09/cropped-TRACKR-2.png
  • À propos
  • Archives
  • Infos Légales
© 2026 - Tous droits réservés sur les contenus du site TRACKR