Intervention de Laurent Solly

Commission d'enquête Concentration dans les médias — Réunion du 10 février 2022 à 14h00
Audition de M. Laurent Solly directeur général de facebook france

Laurent Solly, directeur général de Facebook France :

Sur la modération, les standards de la communauté définissent les contenus qui peuvent ou ne peuvent pas être publiés sur Facebook et sur Instagram. Nous déployons des moyens technologiques et humains considérables pour les faire respecter.

Depuis 2016, nous avons investi 13 milliards de dollars sur cette modération, dont 5 milliards en 2021. Le premier pilier a été le développement d'intelligences artificielles, avec le deep learning et le machine learning, en particulier dans notre laboratoire de Paris, qui est le principal laboratoire privé d'intelligence artificielle en Europe. Ces outils permettent de bloquer a priori certains contenus, alors qu'il y a six ans le contrôle était essentiellement a posteriori, après signalement par les utilisateurs. Les résultats sont probants : les contenus terroristes sont bloqués à 99,6 % par ces outils, et les contenus de haine, pour le dernier trimestre 2021, à 93 %. Nous publions aussi un indicateur de prévalence : il est de 0,03 % pour les contenus de haine. En d'autres termes, sur 10 000 contenus, vous visualiserez 3 contenus de haine. Ces recherches sont d'ailleurs publiques et partagées avec les grands acteurs digitaux du monde.

La modération humaine est le deuxième pilier, avec 40 000 personnes travaillant sur la sécurité des plateformes et 15 000 modérateurs, en 70 langues. Nous ne donnons pas la répartition par langue pour des raisons de confidentialité et d'efficacité. En revanche, tous les trimestres, nous publions un rapport complet sur l'ensemble des actions de modération et de blocage - je le tiens à votre disposition. Peu d'entreprises digitales font autant d'efforts.

L'Union européenne a publié une étude il y a deux ans qui montrait que Facebook était l'entreprise la plus efficace en matière de retraits sous 24 heures.

En matière de transparence, nous ne pouvons pas tout révéler, car certaines structures cherchent à faire un usage malicieux de nos plateformes. Ainsi, nous interrompons régulièrement des tentatives d'interférence sur nos plateformes : 150 depuis 2017.

En revanche, sur chaque contenu visible, nous expliquons comment les algorithmes fonctionnent et mettons les outils de contrôle à la disposition des utilisateurs. Nous les incitons à s'en servir. L'outil de gestion de préférences publicitaires aide à comprendre pourquoi vous avez vu certains contenus et vous permet de masquer ceux que vous souhaitez, y compris en écartant les publicités de certaines marques.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion