Les inquiétudes grandissent autour de la modération automatisée des discours haineux par le Comité de Surveillance de Meta
L'entreprise a automatiquement rejeté un appel après avoir omis de supprimer une publication sur Instagram qui niait l'Holocauste. Quels pourraient être les conséquences de cette décision ?
Tl;dr
- Le conseil de surveillance de Meta a critiqué la modération automatisée après avoir renversé une décision de laisser un post de négation de l’Holocauste sur Instagram.
- Le post a été signalé six fois depuis son apparition en septembre 2020, mais dans quatre cas, les systèmes de Meta ont soit jugé que le contenu ne violait pas les règles, soit ont automatiquement fermé l’affaire.
- Le Conseil a constaté que le mème Squidward était utilisé pour propager divers types de récits antisémites.
- Le Conseil recommande à Meta de prendre des mesures techniques pour mesurer avec précision l’application de la politique de rejet de la négation de l’Holocauste.
Le Conseil de surveillance de Meta critique la modération automatisée
Meta, la société mère de Facebook, a été critiquée pour la modération automatisée de ses plateformes par son conseil de surveillance. Cette critique fait suite à une décision prise par la société de laisser un post de négation de l’Holocauste sur Instagram, une décision qui a ensuite été renversée.
Le post controversé et le processus de modération
Le post en question, apparu pour la première fois en septembre 2020, présentait « Squidward de Bob l’éponge » et prétendait donner des faits vrais sur l’Holocauste. Selon le conseil de surveillance, les affirmations contenues dans ce post « étaient soit manifestement fausses, soit déformaient les faits historiques ». Malgré six signalements d’utilisateurs, les systèmes automatisés de Meta ont jugé à quatre reprises que le contenu ne violait pas les règles ou ont automatiquement clôturé le cas.
Une évaluation du contenu de négation de l’Holocauste
Le conseil de surveillance a mené une évaluation du contenu de négation de l’Holocauste sur les plateformes de Meta. Il a constaté que le mème Squidward était utilisé pour propager divers types de récits antisémites. Il a également noté que certains utilisateurs tentaient de contourner la détection en utilisant des orthographes alternatives de mots et en utilisant des dessins animés et des mèmes.
Les recommandations du Conseil
Le conseil a recommandé à Meta de prendre des « mesures techniques » pour s’assurer qu’elle mesure systématiquement et de manière suffisante la précision de son application du contenu de négation de l’Holocauste. Il a également demandé à Meta de confirmer publiquement si elle a mis fin à toutes les politiques d’automatisation liées à la COVID-19 qu’elle a mises en place au début de la pandémie.
L’avis de la rédaction
Il est impératif que les géants des médias sociaux comme Meta prennent au sérieux la modération des contenus haineux et trompeurs. Cela nécessite une approche plus nuancée et précise que celle qu’un algorithme automatisé peut offrir. La technologie a sans aucun doute un rôle à jouer, mais elle doit être adéquatement supervisée et constamment affinée pour garantir un environnement en ligne sûr et respectueux pour tous.