Intervention de Frances Haugen

Commission des affaires européennes — Réunion du 10 novembre 2021 à 16h30
Numérique — Audition de Mme Frances Haugen ancienne ingénieure chez facebook lanceuse d'alerte

Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte :

S'agissant des bénéfices, Facebook, en 2018, a modifié son fonctionnement pour maximiser le temps pendant lequel il pouvait garder les gens sur son site, en essayant de développer le plus possible les « interactions sociales » significatives. Or, six mois après le lancement, il a vu que les fils avaient en fait moins de sens, mais sa volonté était de générer davantage de contenus. Quand les gens génèrent plus de contenus, ils restent plus longtemps sur le site et consomment plus de publicité. C'est un modèle commercial. Facebook a essayé différentes techniques. Celle qui avait le moins d'effets secondaires consistait à distribuer beaucoup plus de petites récompenses en dopamine, grâce aux « likes », re-partages ou commentaires, par exemple.

Facebook n'avait pas l'intention de provoquer un incendie, mais a compris que plus les clics arrivaient vite, plus il y avait de colère. Cela peut-il être réparé ? Oui. Facebook connaît énormément de solutions qui pourraient fonctionner partout dans le monde. Des modifications doivent être apportées à la plateforme. Ce n'est pas une question de personnes ou d'idées : c'est le système qui amplifie les pires contenus de façon démesurée.

En 2008, le fil d'actualités de Facebook portait sur la famille et les amis. On ne parlait pas de destruction de la démocratie à l'époque. Le nouveau système pousse les personnes vers des groupes énormes, qui sont beaucoup plus extrêmes, qui fonctionnent avec un classement reposant sur l'engagement de l'utilisateur. En Allemagne, 65 % des personnes qui ont rejoint des groupes néonazis l'ont fait après que cela leur ait été suggéré par Facebook !

Pourquoi Facebook n'a-t-il pas modifié les choses ? C'est là que le modèle commercial intervient. Sans une force qui l'y oblige, comme le DSA, il s'abstiendra de déployer ces changements, car tout ceci touche aux bénéfices. Il pourrait avoir demain 90 % de désinformation en moins sur la plateforme, mais cela lui coûterait quelques points en termes de bénéfices.

Facebook mérite-t-il d'avoir 35 % ou 40 % de marge, ou « seulement » 25 % ? On ne lui demande pas de ne pas être rentable ; mais on lui demande d'être responsable !

Enfin, il est vital que les universitaires et les chercheurs indépendants aient accès aux données. Je défends cette ouverture ainsi qu'un accès plus facile aux données agrégées.

Sur Twitter, par exemple, 10 000 chercheurs indépendants peuvent étudier les données publiques du réseau. C'est une question de sécurité nationale. Une très grande partie des informations sur Facebook ont été trouvées par des chercheurs indépendants parce qu'ils travaillaient sur Twitter. On doit développer un écosystème basé sur la responsabilité. C'est ainsi qu'on peut contrebalancer le poids de ces plateformes.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion