Après l’attentat de Christchurch, la faillite des algorithmes

Par

Mise en ligne des millions de fois, la vidéo tournée en direct par l’auteur de l’attentat islamophobe a mis en lumière l’incapacité de Facebook et YouTube d’assurer une modération efficace. Et donné de nouveaux arguments aux tenants d’une régulation plus vigoureuse.

La lecture des articles est réservée aux abonnés.

Les chiffres montrent l’ampleur du désastre : dans les 24 heures qui ont suivi l’attentat islamophobe de Christchurch (Nouvelle-Zélande), vendredi 15 mars, Facebook a retiré 1,5 million de fois la vidéo tournée par le terroriste et diffusée en direct pendant 17 minutes. Sur YouTube, la vidéo ou des extraits, montages, etc., ont été mis en ligne au rythme d’un par seconde.