Alors que le terroriste responsable de la tuerie de Christchurch du 15 mars 2019 a filmé et diffusé son attaque en direct sur Facebook, la question de la modération sur les réseaux sociaux est plus que jamais d’actualité.
Comment Facebook a-t-il pu laisser une telle diffusion 17 longues minutes sans recourir au blocage ?
Un algorithme qui ne censure pas mais accroit la visibilité des vidéos de Facebook Live
Supprimer les photos de mamelons féminins : oui. Supprimer la vidéo d’une attaque de mosquées néo-zélandaises : non. Curieux et terrible paradigme que celui défini par Facebook, même involontairement. L’algorithme de modération du réseau social a en effet était incapable de détecter des images d’une indescriptible violence, et doit de surcroit être corrélé avec un autre algorithme : celui qui met en avant le contenu vidéo posté sur Facebook Live.
Il aura fallu le signalement d’un utilisateur
Dans le cas de Christchurch, l’alerte a été donnée via le signalement d’un utilisateur. Un peu tard puisque, comme le rapportait le Washington Post, « le massacre […] a été […] annoncé sur 8chan, retransmis sur YouTube, commenté sur Reddit, et copié dans le monde entier avant même que les sociétés de technologie ne puissent réagir« . Pour Mia Garlick, porte-parole de Facebook en Nouvelle-Zélande, le réseau social travaille pour supprimer « tout éloge ou soutien envers le crime et le tireur ou les tireurs ». Un peu maigre ?
0 commentaire