Meta fait des vagues : des contenus sur la guerre Israël-Hamas supprimés injustement par ses outils automatiques
Dans son rapport, le Conseil de surveillance a confirmé que les outils automatisés de Meta sont à l'origine des problèmes. Pourquoi pensez-vous que ces outils ont échoué ?
Tl;dr
- Le conseil de surveillance de Meta a effectué son premier examen accéléré sur du contenu relatif au conflit Israël-Hamas.
- Il a critiqué l’utilisation par Meta d’outils automatisés pour modérer le contenu, entravant potentiellement la diffusion d’informations importantes.
- Le conseil a souligné le manque de critères transparents pour l’inclusion des utilisateurs sur les listes de vérification croisée de Meta.
- Malgré la réintégration des contenus supprimés, le conseil a déploré leur déclassement par Meta.
Le Conseil de Surveillance de Meta critique la modération automatisée du contenu
Le Conseil de Surveillance de Meta a récemment publié sa décision concernant son tout premier examen accéléré. Ce dernier a porté sur des contenus en rapport avec le conflit Israël-Hamas. Le Conseil a renversé la décision initiale de Meta de supprimer deux contenus relatifs aux deux camps du conflit.
Une modération qui entrave la diffusion d’informations cruciales
Selon le Conseil, l’utilisation par Meta d’outils automatisés de modération pourrait entraver la diffusion d’informations importantes. Dans ce cas précis, le Conseil a souligné que “cela a augmenté la probabilité de supprimer des publications précieuses informant le monde sur les souffrances humaines des deux côtés du conflit au Moyen-Orient”.
Un manque de critères transparents pour la modération
Le Conseil a également critiqué le manque de critères transparents pour l’inclusion des utilisateurs sur les listes de vérification croisée de Meta. Ces listes, généralement constituées d’utilisateurs de haut profil exemptés du système de modération automatisée de l’entreprise, ont été le seul moyen pour certains utilisateurs de publier du contenu sur les prises d’otages lors des attaques du 7 octobre.
Le déclassement des contenus réintégrés
Malgré la réintégration des contenus supprimés, le Conseil a déploré leur déclassement par Meta. Les contenus réintégrés ont été exclus des recommandations faites aux autres utilisateurs de Facebook et Instagram, même après que Meta ait déterminé qu’ils étaient destinés à sensibiliser le public.
L’avis de la rédaction
Il est crucial que les grandes plateformes de médias sociaux comme Meta soient transparentes et équitables dans leur modération du contenu. Le recours excessif à l’automatisation peut entraver la diffusion d’informations essentielles, notamment dans le contexte de conflits internationaux. Il est temps que Meta revoie sa politique de modération pour mieux équilibrer sécurité et liberté d’expression.