Facebook veut lutter contre les contenus violents avec une armée de modérateurs

Le fondateur du réseau social a annoncé, mercredi, le recrutement de 3.000 modérateurs – s’ajoutant aux 4.500 personnes supprimant déjà les contenus violents. La modération est un problème épineux pour Facebook, qui hésite à se définir en tant que média.

Après l’épisode des « fake news », Facebook s’attaque à un nouveau dossier ardu avec la modération des contenus violents sur le réseau social. Dernier exemple en date: un jeune Thaïlandais a diffusé en direct, la semaine dernière, l’assassinat de son bébé de onze mois, suivi de son suicide. Visionnée 370.000 fois, la vidéo a été supprimée seulement 24 heures après sa mise en ligne sur la plateforme. Et ce fait divers n’est malheureusement pas un cas isolé sur Facebook.

Pour tenter d’endiguer le phénomène, le PDG Mark Zuckerberg a annoncé mercredi le recrutement de 3.000 modérateurs, au cours de l’année. Cette équipe s’ajoutera aux 4.500 personnes qui scrutent déjà les vidéos, photos et publications des internautes, susceptibles de violer les conditions d’utilisation du réseau comme « les discours haineux et le trafic d’enfants », précise Mark Zuckerberg dans une publication sur son profil Facebook« Nous œuvrons à rendre ces vidéos plus faciles à signaler de sorte à pouvoir prendre la bonne décision plus rapidement – qu’il s’agisse de répondre quand quelqu’un a besoin d’aide ou de supprimer un post », poursuit-il.

Développer de l’intelligence artificielle

La modération de Facebook est régulièrement sous le feux des critiques. Elle est jugée trop lente pour la suppression de contenus violents… Et trop arbitraire pour le retrait de la célèbre photo de la « fillette au Napalm » ou encore des représentations du tableau de « L’Origine du monde », supprimées pour nudité. Avec le lancement de Facebook Live l’an passé, qui permet de diffuser des vidéos en direct, la modération des contenus est devenue encore plus difficile pour le réseau qui frôle les 2 milliards d’utilisateurs.

Mark Zuckerberg a aussi confirmé son intention de développer « de meilleurs outils » pour détecter des contenus violents plus rapidement. Dans une longue lettre aux allures de manifeste publiée mi-février, le PDG de Facebook annonçait déjà que l’intelligence artificielle était vouée à jouer un rôle plus important dans la modération du réseau. « Elle génère déjà environ un tiers de tous les rapports envoyés » aux modérateurs, précisait Mark Zuckerberg. Le problème épineux de la modération renvoie au statut même de Facebook, qui a dépassé la simple définition de réseau social. Fin décembre dernier, le fondateur affirmait : « Facebook est un nouveau genre de plateforme. Ce n’est pas une entreprise technologique traditionnelle. Ce n’est pas un média traditionnel. » Et de conclure : « On a construit une technologie et on se sent responsable de la façon dont elle est utilisée. »

Lz Tribune 05/05/2017