« Facebook ne veut pas être l’arbitre de la vérité »

Sheryl Sandberg, numéro deux du réseau social, refuse que son entreprise soit assimilée à un média.

C’est un début d’année chargé pour Facebook. Le réseau social, au ­centre de débats sur l’information en ligne après l’élection de Donald Trump, a annoncé le lancement prochain d’un filtre contre les articles trompeurs en Allemagne. Cet outil est testé aux États-Unis depuis décembre. Sheryl Sandberg, ­numéro deux de Facebook, était en Allemagne lundi. Le Figaro l’a ­rencontrée à l’occasion de son ­passage en France. Facebook y ­an­nonce deux partenariats inédits : l’ouverture d’un programme pour les start-up à Station F, le projet de Xavier Niel dédié à l’entrepreneuriat, et la création d’un incubateur dédié aux politiques publiques du numérique.

LE FIGARO. – Vous annoncez l’ouverture d’un programme d’accompagnement de start-up. Pourquoi avoir choisi Station F ?

Sheryl SANDBERG. – Nous avons déjà investi pour développer cer­taines technologies en France, comme notre laboratoire d’intelligence artificielle. Station F était une belle opportunité d‘investir à nouveau dans un marché qui nous importe beaucoup. Nous nous intéressons particulièrement aux start-up de l’économie de la donnée. C’est un secteur de la technologie que nous voulons tous voir traiter avec discernement. Mais il s’agit aussi de valoriser l’impact positif de la ­donnée. L’intelligence artificielle est un très bon exemple : grâce au traitement des données, on peut maintenant détecter un cancer de la peau en Inde aussi bien que dans les meilleurs hôpitaux du monde.

Pourquoi avoir choisi Sciences Po pour lancer votre premier laboratoire numérique ?

Cette initiative est inédite. Nous voulons rapprocher des étudiants en sciences politiques et des ­étudiants en informatique, afin de faire évoluer la relation entre politique et numérique. Toute nouvelle technologie amène son lot d’enjeux en termes de politiques publiques. Nous lançons cette initiative à ­Paris car Sciences Po est une excellente université. Si elle fonctionne ici, nous voulons la reproduire ailleurs.

Une entreprise privée doit-elle s’impliquer dans l’éducation ?

Nous ne créons pas une école. Nous lançons, avec des insti­tutions Françaises, un incubateur pour rapprocher deux disciplines, la technologie et la science politique, afin de trouver des approches créatives aux enjeux de politique publique. Nous voulons créer des partenariats avec des entrepreneurs, des experts dans les politiques numériques, d’autres entreprises, afin d’étudier ensemble les enjeux que notre société doit ­relever. Les gens savent que la technologie peut leur apporter beaucoup de choses positives. Ils voient aussi qu’elle est en train d’impacter l’économie et le marché de l’emploi. Nous voulons être sûrs d’utiliser les données de ­manière responsable. Facebook tout seul n’a pas toutes les ré­ponses, et nous pensons qu’en travaillant ensemble nous bâtirons de meilleures solutions, pour que la technologie convienne au plus grand nombre. Nous avons besoin des citoyens, des étudiants, des entrepreneurs, des chercheurs, des gouvernements.

Mark Zuckerberg a dit que Facebook était « un nouveau type d’entreprise de média ». Qu’est-ce que cela implique ?

Nous ne nous définissons pas ­comme un média. Nous ne faisons pas ce que les médias font la plupart du temps : créer des contenus et avoir une ligne éditoriale. Nous nous identifions comme une entreprise de nouvelle technologie, car nous engageons des ingénieurs pour créer des logiciels et des ser­vices en ligne. Mais nous reconnaissons que nous sommes un nouveau type de société et que cela implique une grande responsabilité.

Allez-vous embaucher des journalistes pour combattre les fausses informations ?

Encore une fois, nous ne produisons pas de contenus. C’est le rôle des médias. Notre but est de créer la technologie nécessaire pour faciliter le partage des articles des médias sur Facebook.

Vous sentez-vous responsables de la qualité de ce qui est publié sur Facebook ?

Nous pensons que nos utilisateurs ne veulent pas de fausses informations sur Facebook. Nous avons une responsabilité pour qu’elles disparaissent de notre plateforme. Reste à savoir comment. Nos 1,8 milliard d’utilisateurs postent un volume immense de contenus. Nous ne voulons pas être les arbitres de la vérité en les contrôlant tous. C’est pour cela que nous nous tournons vers la communauté et des entreprises tierces pour définir ce qu’est une fausse information afin de mieux les repérer et les retirer.

Comment les médias peuvent-ils continuer à se développer si les géants du Web prennent toute la place dans la publicité en ligne ?

Le marché de la publicité en ligne grossit au fur et à mesure que les gens consomment des services en ligne. Un article écrit il y a dix ans n’aurait été lu que sur du papier. Aujourd’hui, il faut y ajouter le Web, sur ordinateur ou mobile. Nous voulons faire en sorte que tout le monde profite de cette diversité de formats. Nous proposons toute sorte d’outils aux médias pour que les gens puissent lire leurs articles sur Facebook et ailleurs.

Votre modération fait souvent polémique. N’est-il pas temps d’investir pour que vos règles soient respectées ?

Nous avons déjà augmenté très fortement nos investissements dans la modération. À moins de contrôler les contenus avant même qu’ils ne soient publiés, il y aura toujours des enjeux de réactivité. Ce n’est pas quelque chose que nous voulons.

Vous n’indiquez pas votre nombre de modérateurs. Pourquoi ?

Le nombre de personnes qui travaillent dans nos équipes de modération n’est pas la seule chose importante. Ce qui compte aussi, c’est que nos règles soient claires et que nos équipes soient formées et disponibles en permanence pour traiter les signalements.

La philosophie de Facebook était « Move fast and break things (aller vite et casser des choses) ». Est-ce que vous devriez aller un peu moins vite en 2017 ?

Nous voulons aller aussi vite que possible, mais de manière responsable, et avec les bons partenaires.

Le Figaro 17/01/2017