Le réseau social avait été très critiqué pour avoir tardé à interrompre la vidéo, dont des images s’étaient très rapidement répandues sur internet. Le groupe avait alors promis de revoir les conditions d’usage de Live mais sans prévoir de différer les diffusions.
Désormais, les utilisateurs enfreignant les règles d’utilisation du réseau social, notamment celles proscrivant les « organisations et individus dangereux », n’y auront plus accès pendant un certain temps, et ce dès la première infraction.
La Première ministre néo-zélandaise Jacinda Ardern a estimé qu’il s’agissait d’un « bon premier pas ».
« L’attentat terroriste du 15 mars a mis en lumière la façon dont la diffusion en direct d’images en streaming peut être mal utilisée pour propager de la haine. Facebook a fait un premier pas tangible pour arrêter cette tactique répétée sur leur plateforme », a détaillée Mme Ardern.
« Jusqu’à aujourd’hui, si des personnes publiaient du contenu contraire à nos standards –sur Facebook Live ou ailleurs sur notre plateforme-– nous supprimions leur contenu », a écrit Guy Rosen, un haut responsable du groupe sur un blog où il a expliqué la nouvelle politique de tolérance zéro.
« S’ils continuaient de publier du contenu enfreignant nos standards, nous les empêchions d’utiliser Facebook pendant un certain temps, leur retirant ainsi la possibilité d’utiliser Facebook Live », a-t-il ajouté. « Et, dans certains cas, nous les excluions de notre plateforme, en raison de violations mineures répétées ou, dans des cas plus rares, à cause d’une unique violation flagrante (comme par exemple l’utilisation d’une image de propagande terroriste comme photo de profil ou le partage d’images d’exploitation infantile) », a-t-il rappelé.
A partir de mercredi, toute personne ne respectant pas les règles relatives aux contenus extrêmistes se verra interdire dès sa première infraction l’utilisation de Facebook Live pour une période déterminée, par exemple 30 jours.
M. Rosen a en outre cité l’exemple d’une personne partageant un lien vers un communiqué d’un groupe terroriste sans élément de contexte.Dans ce cas, Facebook prévoit dans les semaines à venir d’empêcher ces contrevenants de diffuser des publicités sur le réseau.
De plus, le groupe a répété qu’il avait été confronté, dans le cas de Christchurch, à un défi technique: ses systèmes ont eu du mal à identifier les différentes versions et montages des images issues de la vidéo originale.
Il annonce donc investir 7,5 millions de dollars dans des partenariats avec trois universités pour améliorer l’analyse d’images fixes et de vidéos.
Ces annonces coïncident avec le lancement mercredi à Paris d’un « appel de Christchurch » contre l’extrémisme en ligne, par le président français Emmanuel Macron et Jacinda Ardern, la Première ministre néo-zélandaise, en présence d’autres dirigeants, chefs d’Etat et patrons du numérique.