Intervention de Frances Haugen

Commission des affaires européennes — Réunion du 10 novembre 2021 à 16h30
Numérique — Audition de Mme Frances Haugen ancienne ingénieure chez facebook lanceuse d'alerte

Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte :

S'agissant des populations vulnérables, Facebook a cherché à savoir qui présentait le risque le plus élevé d'être exposé à la désinformation. Il a découvert que les personnes qui venaient d'être veuves ou divorcées, ou qui venaient de déménager, celles qui étaient plus isolées socialement, pouvaient se connecter et passer beaucoup de temps devant leur écran. Ces personnes sont parfois happées par le système et consomment énormément de contenus parce qu'elles ont perdu leur réseau social réel.

Facebook peut prétendre que tout le monde est exposé à différentes opinions sur les réseaux sociaux, mais il faut vraiment faire la différence entre l'expérience à la marge et les autres. La plupart des utilisateurs peuvent faire face à différentes expositions, mais le préjudice est concentré sur une minorité d'utilisateurs.

Facebook a estimé que 4 % des communautés recevaient 80 % des messages de désinformation sur le covid-19 et le vaccin. Certaines personnes font l'objet d'un déluge d'informations de la part de QAnon ou d'autres, qu'il s'agisse de haine, de désinformation concernant la covid-19. Pour les personnes très exposées, plus une idée est présentée, plus elle semble réelle.

En outre, la nature de ce qui arrive sur les écrans est très dangereuse. Pour la covid-19, un post qui génère énormément de commentaires a plus de chances d'être sélectionné pour être inséré dans votre fil d'actualité. Mettons qu'un groupe sur la covid-19 composé d'un quart de million de personnes produise 100 000 contenus par jour. Si seulement trois de ces publications arrivent dans votre fil d'informations et comportent des informations en faveur du vaccin, mais que beaucoup de personnes parlent de conspiration, ce post sera considéré comme ayant beaucoup d'interactions positives. Il sera promu et arrivera dans votre fil d'information. Qui croira-t-on au final ? Cela m'inquiète vraiment, car 3 % de la population seulement peuvent provoquer une révolution. C'est donc dangereux pour les démocraties.

Pour ce qui est de la richesse des langues, vous êtes sans aucun doute exposés à davantage de toxicité en France que je ne le suis aux États-Unis. Je pense en effet que Facebook passe beaucoup plus de temps à gérer au mieux les classificateurs pour la langue anglaise.

Par exemple, on compte un milliard d'arabophones dans le monde. Facebook affirme aux autorités de contrôle modérer la langue arabe. En décembre 2020, Facebook a réalisé un audit sur l'arabe et on s'est aperçu que cette langue était en fait composée de six dialectes différents, alors que Facebook n'en modérait qu'un. Facebook a cependant continué à affirmer qu'il modérait l'arabe. Un des documents que j'ai publiés en parle : quand il n'existe pas ou très peu de modération, 75 % des discours contre-terroristes sont classés comme discours terroristes, parce que ce sont les mêmes mots-clefs qui apparaissent.

Pour régler ce problème, il faut investir énormément et s'assurer qu'il y a suffisamment de contre-exemples.

Selon les statistiques sur les classements anti-covid - un audit de quinze langues a été réalisé en avril 2020 -, le français était l'une des langues qui se « comportait » le moins bien, avec l'arabe et le hindi. Je ne sais pas pourquoi. L'intelligence artificielle n'a pas pu expliquer pourquoi, mais les performances ont été très mauvaises. C'était peut-être un petit peu mieux deux mois plus tard, mais c'est un exemple.

Je pense que Facebook doit mettre en place des fonctions d'étiquetage. Quelqu'un m'a raconté avoir demandé à Facebook combien d'enfants étaient surexposés aux contenus d'automutilation. Facebook a répondu qu'il ne suivait pas les contenus d'automutilation et ne le savait donc pas.

Je sais que Facebook a une mauvaise représentation dans les langues autres que l'anglais. 80 de ses partenaires vérifient les contenus internationaux. Facebook prétend contrôler les différentes langues et en modérer 50, mais pas toutes.

En mai 2021, il n'y avait pas de classificateur de discours haineux en hindi par exemple, malgré les violences ethniques en Inde. Facebook choisi les langues, les systèmes, et je vous encourage à lui demander des exemples de classement. On s'apercevra que les discours contre-terroristes sont considérés comme des discours terroristes, ou que telle langue n'est pas modérée autant que telle autre.

À l'heure actuelle, personne ne le sait et Facebook ne gère donc pas ces problèmes, prétendant ne pouvoir donner d'informations pour ne pas les divulguer auprès des « méchants ». Or les « méchants » les connaissent déjà et sont ceux qui publient plus de contenus à destination des groupes vulnérables. Les seuls qui ne savent rien, ce sont les « gentils », et c'est inacceptable !

Votre post sera-t-il promu par Facebook ? Comme on l'a dit, Facebook a tant de délai pour intervenir sur les mauvais contenus, quels qu'ils soient que je suis sûre que votre post pourra être publié !

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion