Intervention de Frances Haugen

Commission des affaires européennes — Réunion du 10 novembre 2021 à 16h30
Numérique — Audition de Mme Frances Haugen ancienne ingénieure chez facebook lanceuse d'alerte

Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte :

Concernant les mensonges de Facebook sur ses données, je pense qu'il y a deux voies à explorer. En matière d'évaluation des risques, il me paraît plus simple de dire de quelles données on a besoin pour vérifier si des progrès sont accomplis. En tant que spécialiste des données, je puis vous assurer qu'il est plus simple de les obtenir de cette manière.

Je pense qu'il est important, dans le DSA, de préciser que lorsque Facebook fournit des données, il doit également publier la manière dont celles-ci sont produites. En effet, Facebook manipule les données mieux que quiconque. Il a recruté certains des meilleurs scientifiques de ce domaine à travers le monde.

En matière de science des données, chaque calcul a besoin de simplifications et de suppositions. Quand Facebook n'a pas besoin de vous les montrer, il les cache. Un scandale a éclaté aux États-Unis il y a deux mois : pendant des années, des universitaires avaient demandé qu'on leur communique des données simples. Ils ont réussi à démontrer la mauvaise foi de Facebook parce que les données qu'on leur avait communiquées ne s'alignaient pas avec les précédentes.

L'idée qu'on doit sans arrêt vérifier si Facebook ment est totalement inacceptable. S'il doit expliquer comment ces données ont été créées, vous avez plus de chances d'obtenir les bonnes informations, celles-ci pouvant être contrôlées.

Par ailleurs, dans le cas d'un système d'audits, avec un, deux, trois audits, où pour chaque préjudice, on a les données associées, il est plus difficile de créer de fausses données qui se recoupent dans un grand nombre de domaines. Réaliser de très bonnes fausses données est extrêmement compliqué. C'est tout un art. Si on veut obtenir de vrais sets de données qui ne sont pas sensibles du point de vue de la vie privée, mais qui peuvent être des données agrégées, on peut exercer des vérifications croisées, et c'est bien mieux en termes de sécurité.

Vous avez évoqué les moyens humains. Je ne pense pas que la modération des contenus recourant à des humains sera suffisante pour résoudre les problèmes actuels. Le problème sera le même du point de vue de la diversité des langues. Nous aurons besoin d'énormément de personnes, dans beaucoup de langues différentes, et dans certains endroits, il sera difficile d'avoir les personnes qui auront les bonnes compétences ou des responsables qui pourront parler suffisamment de langues pour gérer une équipe multilingue.

Alors comment sécuriser les plateformes ? Facebook sait que plus il montre de contenu de votre famille ou de vos amis gratuitement, moins on a de discours haineux, de nudité, de violence. Ce n'est pas une question de personnes ou de contenu : c'est Facebook qui pousse à rejoindre des groupes de milliers de personnes, où des milliers de contenus sont créés chaque jour, avec des usines destinées à créer du contenu viral. Or le contenu destiné à des milliers de personnes est le pire, parce que l'algorithme choisit toujours le contenu le plus clivant et le plus violent. Donc je pense que faire en sorte de retrouver des plateformes à taille humaine permettrait de contrer l'hyper-amplification : les mauvais contenus seront moins redirigés et auront moins d'impact.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion