Commission des affaires européennes

Réunion du 10 novembre 2021 à 16h30

Résumé de la réunion

Les mots clés de cette réunion

  • alerte
  • contenu
  • démocratie
  • facebook
  • plateforme

La réunion

Source

Photo de Jean-Yves Leconte

Je partage tout ce qui a été dit par mes collègues, qui me semble tout autant valable à l'AP-OSCE.

Je suis surpris de constater qu'il existe, in fine, deux types de délégations nationales : celles qui sont supplétives de leur exécutif et celles qui sont de vraies délégations parlementaires, avec un point de vue différent.

Prenons l'exemple de la délégation ukrainienne : ses membres n'hésitent pas à se montrer critiques envers leur propre gouvernement. En réalité, c'est aussi ce genre d'attitudes qui permettent de rendre utiles ces forums. Ils favorisent à la fois la diplomatie parlementaire, la compréhension des politiques portées par les autres délégations mais également la possibilité de faire passer des messages aux délégations qui ne sont pas véritablement parlementaires.

La réunion est close à 14h45.

- Présidence de M. Laurent Lafon, président, et de M. Jean-François Rapin, président de la commission des affaires européennes -

La réunion est ouverte à 16 h 30.

Debut de section - PermalienPhoto de Laurent Lafon

Nous avons le plaisir d'accueillir aujourd'hui Madame Frances Haugen, ancienne ingénieure chez Facebook.

Madame, nous sommes tous très admiratifs de votre engagement en faveur d'une technologie moins menaçante pour nos libertés et nos démocraties.

Nous ne sous-estimons pas le courage qui vous a été nécessaire pour dénoncer au grand jour les actions de votre ancien employeur, qui allaient contre vos convictions les plus profondes.

Il est hélas clair que seules des actions comme la vôtre sont susceptibles de faire bouger les lignes, tant la domination des grandes compagnies de l'Internet repose aujourd'hui sur un enchevêtrement de technologies difficilement compréhensibles par le grand public et de lobbying exercé avec des moyens démesurés.

La commission de la culture s'intéresse de longue date au sujet de la régulation des réseaux sociaux. Je pense en particulier aux travaux de Catherine Morin-Desailly, travaux qui vous ont conduit, chère collègue, à vous rendre à Londres le 27 novembre 2018 pour participer avec des parlementaires d'une dizaine de pays à une séance du Digital, Culture, Media and Sport Committee (DCMS) de la Chambre des Communes britannique.

Je note que Mark Zuckerberg avait fait preuve de moins de courage que vous, Madame Haugen, en ne répondant pas à l'invitation qui lui avait été faite de venir alors s'exprimer sur l'affaire « Cambridge Analytica ».

Je formule donc le souhait que votre audition de ce jour, dans le cadre d'un véritable « tour du monde » des parlements qui vous a déjà conduit devant le Sénat américain, la chambre des communes britanniques et le Parlement européen, soit pour nous l'occasion de prendre encore mieux conscience de la réalité de l'influence et des méthodes du plus grand réseau social du monde.

Je cède à présent la parole à Jean-François Rapin, président de la commission des affaires européennes.

Debut de section - PermalienPhoto de Jean-François Rapin

Le scandale qui éclabousse Facebook depuis quelques semaines n'est que le dernier d'une longue série.

Mais pour la première fois, Madame Haugen, vos révélations s'appuient non pas seulement sur des constats externes ou sur des témoignages individuels, mais sur des documents de travail internes de Facebook, que vous avez patiemment photographiés, puis transmis au Congrès américain et à la Securities and Exchange Commission - le gendarme de la Bourse américaine. Au fil de plusieurs milliers de pages se dévoilent ainsi les effets néfastes des réseaux sociaux sur la santé mentale des adolescents ou sur la polarisation du débat public.

Vous êtes pourtant un « pur produit » de la Silicon Valley : vous y avez effectué toute votre carrière, dans de grands groupes comme Google, Pinterest, et enfin Facebook, où vous étiez en charge de la lutte contre la désinformation. Vous nous expliquerez ce qui vous a poussé à prendre la décision courageuse de devenir lanceuse d'alerte, face à l'une des entreprises les plus puissantes du monde. Vous savez sans doute que notre Parlement s'apprête à examiner une proposition de loi visant à renforcer la protection des lanceurs d'alerte, qui transpose d'ailleurs une directive européenne en ce sens.

Je tiens à vous remercier d'avoir accepté notre invitation à venir témoigner au Sénat : la commission des affaires européennes examinera en effet dans quelques semaines le rapport de nos collègues Catherine Morin8Desailly et Florence Blatrix Contat, sur le projet de Digital Services Act (DSA) européen.

Ce texte pionnier prévoit un régime de responsabilité renforcée à l'égard des plateformes afin d'empêcher la prolifération des contenus illicites. Il propose également des obligations complémentaires pour les très grandes plateformes concernant l'évaluation et la gestion des risques systémiques, notamment la désinformation.

Votre témoignage nous sera donc particulièrement précieux pour affûter et étayer notre position sur ce texte. À cet égard, nous serons particulièrement désireux de vous entendre sur les ressources mises en oeuvre par Facebook pour la modération, y compris dans différentes langues, mais aussi, par exemple, sur sa gestion de la sécurité des produits - un sujet auquel la France est particulièrement attentive.

Au-delà de ces questions particulières, nous souhaiterions recueillir votre sentiment sur le modèle commercial des plateformes de réseaux sociaux : l'échec dont vous faites le constat est-il la conséquence d'un manque de volonté et de moyens de la part de Facebook, ou les causes sont-elles plus profondes ? Pensez-vous, au fond, que ce modèle, basé sur une économie de l'attention et financé par la publicité ciblée, est réformable ?

Debut de section - Permalien
Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte

Messieurs les présidents, mesdames les sénatrices et messieurs les sénateurs, je vous remercie de l'opportunité qui m'est donnée de me présenter devant vous, ainsi que de votre volonté de faire face à certaines des menaces les plus urgentes pour les citoyens français.

J'avais rejoint Facebook parce que je croyais que l'entreprise avait le potentiel de faire ressortir le meilleur de nous, mais je suis ici aujourd'hui parce que je crois que les produits de Facebook nuisent aux enfants, aggravent les clivages, affaiblissent notre démocratie et bien plus encore.

Les dirigeants de l'entreprise savent comment rendre Facebook et Instagram plus sûrs, mais refusent de réaliser les changements nécessaires parce qu'ils font passer leurs immenses bénéfices avant les gens.

Les conséquences sont graves. La plateforme Facebook porte aujourd'hui atteinte à la santé et à la sécurité, menace nos communautés et l'intégrité de nos démocraties.

Il ne sera pas facile de relever ce défi, mais les démocraties doivent faire ce qu'elles ont toujours fait lorsque le commerce entre en conflit avec les intérêts du peuple et de la société dans son ensemble : intervenir et élaborer de nouvelles lois.

Je suis reconnaissante au Gouvernement français et aux dirigeants de l'Union européenne, comme le commissaire Breton, de prendre cette question très au sérieux.

Selon moi, le projet de règlement sur les services numériques (Digital Services Act) actuellement examiné par le Parlement européen peut devenir une référence mondiale qui pourra inspirer d'autres régions du monde, y compris mon pays, et les conduire à adopter de nouvelles règles pour protéger nos démocraties.

La législation doit être forte et son application ferme sans quoi nous perdrons cette occasion unique d'associer technologie et démocratie. Je sais que les dirigeants français ont joué un rôle central dans les progrès que nous avons accomplis, et je vous encourage à maintenir la pression.

Mon analyse des documents contenus dans mes révélations n'est pas uniquement fondée sur mon travail chez Facebook. J'ai travaillé comme chef de produits dans de grandes entreprises technologiques comme Google, Pinterest, Yelp et Facebook.

Mon travail a surtout porté sur des produits algorithmiques, comme les recherches Google Plus, ou les systèmes de recommandation comme celui qui alimente le fil d'actualité de Facebook.

J'ai pu comparer la façon dont chaque entreprise aborde et relève différents défis. Les choix opérés par les dirigeants de Facebook représentent un danger énorme pour les enfants, la sécurité publique, la démocratie. C'est pourquoi j'ai lancé cette alerte. Soyons clairs : les choses n'ont pas à être ainsi. Nous sommes ici aujourd'hui à cause des choix délibérés de Facebook.

J'ai rejoint Facebook en 2019 parce qu'un de mes proches s'est radicalisé. Je me suis sentie obligée de jouer un rôle actif dans la création d'un Facebook moins toxique.

Durant mon passage chez Facebook, d'abord en tant que cheffe de produit pour la désinformation civique, puis pour le contre-espionnage, l'entreprise a fait face à plusieurs reprises à des conflits entre ses propres bénéfices et la sécurité collective. L'entreprise a toujours résolu ces conflits à son profit. Ce système a amplifié la division, l'extrémisme, la polarisation, qui fragilisent les sociétés du monde entier.

Dans certains cas, ces discours en ligne dangereux ont conduit à des violences qui ont fait des victimes, voire des morts. Dans d'autres cas, le mécanisme d'optimisation des profits a généré de l'automutilation, de la haine de soi, notamment dans des groupes vulnérables comme les adolescents.

Ces problèmes ont été confirmés à plusieurs reprises par les recherches internes de Facebook. Il ne s'agit pas seulement de la colère ou de l'instabilité de certains utilisateurs des réseaux sociaux. Facebook est devenu une entreprise pesant mille milliards de dollars en engrangeant des bénéfices aux dépens de notre sécurité, y compris celle de nos enfants. C'est inacceptable !

Je crois que j'ai fait ce qui était juste et nécessaire pour l'intérêt général, mais je sais que Facebook dispose de ressources infinies qu'il pourrait utiliser pour me détruire.

J'ai compris une vérité effrayante : presque personne, en dehors de Facebook, ne sait ce qui se passe à l'intérieur de Facebook. La direction de l'entreprise cache des informations vitales au public, à ses actionnaires, au Gouvernement américain et aux gouvernements du monde entier.

Les documents que j'ai fournis prouvent que Facebook nous a trompés à plusieurs reprises sur ce que ses propres recherches révèlent sur la sécurité des enfants, son rôle dans la diffusion de messages haineux et polarisants, et bien plus encore.

La réponse la plus adaptée pourrait venir de nouvelles règles et de nouvelles normes. La législation de l'Union européenne a un énorme potentiel. Elle n'essaye pas de supprimer le problème avec des réglementations sur le contenu. Elle adopte une approche neutre en termes de contenus pour s'attaquer aux risques systémiques et aux méfaits du modèle commercial global. Je soutiens fermement cette conception et je crois que la force des nouvelles lois dépend de la volonté politique des États membres de s'assurer qu'elles sont appliquées.

Il y aurait beaucoup à dire sur la manière de résorber les menaces que Facebook et d'autres grandes plateformes font peser sur la démocratie.

Je souhaite mettre en lumière deux impératifs qui, d'après mon expérience, sont d'une importance capitale : premièrement, demander des comptes aux entreprises pour les préjudices sociaux qu'elles provoquent et, deuxièmement, établir de nouvelles règles axées spécifiquement sur le modèle commercial lui-même des plateformes.

Personne ne peut comprendre les choix destructeurs de Facebook mieux que Facebook, qui a seul le droit de « regarder sous le capot ». Or Facebook ne peut être à la fois juge et partie.

La transparence sera donc essentielle pour parvenir à une réglementation efficace. Il faudra un accès complet aux données. Nous avons besoin de plus d'experts pour étudier ces systèmes, et ils doivent pouvoir consulter toutes les données dont ils ont besoin. Il est essentiel de bien faire les choses, car le diable est dans les détails.

J'ai préconisé un plan en trois étapes pour le processus d'évaluation des risques.

Tout d'abord, chaque plateforme devrait être tenue pour responsable des risques présentés par ses produits et services. Toutes devraient être obligées de procéder à une analyse de la sécurité de leurs produits et la diffuser au public.

Deuxièmement, un régulateur devrait interroger le public et la société civile pour comprendre les angles morts que la plateforme n'a pas explorés. Facebook est homogène et géographiquement isolé. Nous devons nous assurer d'évaluer le plus complètement possible tous les risques que présente un produit.

Troisièmement, les entreprises devraient être tenues de prévoir un plan pour traiter chaque préjudice. Ce plan devrait être audité et contrôlé pour s'assurer qu'il est vraiment mis en oeuvre. Nous avons besoin des données de l'entreprise pour vérifier leurs progrès.

Facebook a tenté à maintes reprises d'éviter les scandales en déclarant simplement qu'il y travaille. Cette dynamique doit changer, et cela commence par l'accès aux données.

L'une des questions que l'on me pose le plus souvent porte sur le type de données à demander à Facebook. Si un accès total aux données dont dispose Facebook permettrait d'effectuer de larges recherches, l'ouverture d'un tel accès doit être effectuée avec précaution pour protéger la vie privée des utilisateurs.

Cet accès aux données permettra aux chercheurs et aux régulateurs d'évaluer les risques et les préjudices de l'ensemble du système - profilage, ciblage, et engagement-based ranking, ce classement basé sur l'engagement.

Mes révélations montrent clairement que les systèmes de classement basés sur l'engagement sont l'une des causes fondamentales de l'un des plus grands risques systémiques que les réseaux sociaux font courir à nos sociétés. Cela met en cause le système lui-même. En utilisant des outils neutres en termes de contenus, les nouvelles lois devraient obliger les plateformes à assumer leurs responsabilités, non seulement en matière de divulgation de contenus illégaux, mais aussi de manipulation des élections, de diffusion virale de la désinformation ou d'effets néfastes sur la santé mentale des adolescents.

Si la nouvelle législation est bien conçue, elle peut changer la donne à travers le monde. Vous pouvez obliger les plateformes à intégrer le risque sociétal dans leurs activités commerciales, de sorte que les décisions concernant les produits à développer et la manière de les développer ne soient plus fondées que sur l'augmentation des bénéfices. On peut établir des règles, des normes systémiques qui tiennent compte des risques tout en prenant en compte la liberté d'expression, et on peut montrer au monde comment la transparence, la surveillance et l'application des règles doivent fonctionner.

Nous avons déjà connu cela lorsque les fabricants de tabac affirmaient que les cigarettes avec filtre étaient plus sûres pour les consommateurs. Les scientifiques ont pu invalider ce message marketing en confirmant que ces cigarettes continuaient à faire peser une menace sérieuse sur la santé et qu'elles étaient en fait plus toxiques que les autres.

Aujourd'hui, nous ne pouvons réaliser ce type d'évaluation indépendante de Facebook. Nous devons croire ce que dit Facebook. Or ce groupe a prouvé à plusieurs reprises qu'il ne mérite pas que nous lui fassions une confiance aveugle.

Les régulateurs de Facebook peuvent détecter certains problèmes, mais sont dans l'incapacité de déterminer leur cause. Ils ne peuvent donc pas élaborer de solutions spécifiques. Ils ne peuvent pas avoir accès aux données de l'entreprise sur la sécurité des produits, encore moins mener un audit indépendant. Comment le public est-il censé déterminer si Facebook résout les conflits d'intérêts de manière conforme à l'intérêt général s'il n'a aucune visibilité sur le fonctionnement réel de Facebook ? Ceci doit changer !

Mesdames les sénatrices, messieurs les sénateurs, l'enjeu est de taille. Vous avez l'opportunité unique de créer de nouvelles règles pour le monde en ligne. Construire des réseaux sociaux plus sûrs et plus sympathiques est possible.

Deux points sont à retenir. En premier lieu, Facebook choisit chaque jour le profit au détriment de la sécurité, et cela continuera, en l'absence d'action énergique de la part des législateurs. Par ailleurs, Facebook cache son comportement réel, ce qui conduit notre sécurité à se dégrader à un niveau inacceptable.

Si Facebook est autorisé à continuer à fonctionner dans l'obscurité, nous n'assisterons qu'à des tragédies de plus en plus importantes. J'ai lancé l'alerte au risque de ma vie parce que je crois qu'il est encore temps d'agir, mais nous devons le faire maintenant.

Debut de section - PermalienPhoto de Laurent Lafon

Merci pour vos propos très forts, qui vont, j'imagine, soulever un certain nombre de questions.

Vous avez dit que personne ne connaît Facebook si ce n'est Facebook lui-même. Pour aider à notre compréhension, je poserai des questions très précises, tout d'abord sur la modération, à propos de laquelle nous avons questionné les responsables de Facebook sans obtenir aucune explication précise.

Nous nous interrogeons en premier lieu sur le nombre de modérateurs francophones qui suivent les propos en français. Avez-vous un ordre de grandeur, si ce n'est un chiffre précis ?

Par ailleurs, la presse, à plusieurs reprises, a fait état du fait que ces modérateurs étaient des prestataires et qu'il n'y avait pas de personnel interne à Facebook. Est-ce vraiment le cas ?

Debut de section - Permalien
Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte

Une des raisons pour lesquelles Facebook ne divulgue pas ce chiffre, c'est parce qu'il y a trop peu de modérateurs francophones. Je n'en connais pas le nombre exact, mais je sais qu'en septembre 2020, Facebook consacrait 87 % du budget opérationnel à l'anglais. Je ne sais pas exactement comment les choses sont ventilées entre la modération et la vérification des faits, mais je pense que les trois quarts des 30 000 modérateurs se consacrent à l'anglais.

Facebook sait que le plus gros risque pour l'entreprise serait qu'un scandale éclate aux États-Unis. Ils ont donc sous-investi là où ils sont le moins menacés.

Quant aux prestataires, il existe des usines Facebook à travers le monde, principalement aux Philippines. La plupart des modérateurs y sont basés et le plus grand nombre est bien sûr anglophone, mais je n'en suis pas sûre. Facebook emploie ces personnes en tant que prestataires parce que les obligations sont bien moindres.

Debut de section - PermalienPhoto de Laurent Lafon

Quelle est l'autonomie des entités de Facebook dans chaque pays ? Peuvent-elles intervenir sur les algorithmes ? Dans quelle mesure les entités sur place influent-elles sur les modérations pour prendre en compte les différences culturelles et sociales entre les pays et adapter les règles ?

Debut de section - Permalien
Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte

D'après ce que j'ai pu comprendre, les normes sont assez similaires d'un pays à l'autre, avec des exceptions, notamment en matière de nudité, qui sont très spécifiques culturellement.

En général, il n'y a pas de spécificité par pays, sauf s'il existe vraiment une législation différente. La stratégie de Facebook part du principe qu'il faut traiter les choses par langue, plutôt que d'avoir une plateforme sécurisée dans son ensemble. Cela a bien sûr des limites, car les systèmes ne sont pas conçus pour être adaptés pour le français que l'on parle en Algérie, en France ou ailleurs dans le monde. Il n'est en effet pas efficace de réaliser une « customisation » pour les petits marchés.

Quant à l'autonomie, elle existe très peu. Je n'ai jamais vu de rapport sur le classement des fils d'actualité en dehors des États-Unis quand je travaillais à la désinformation civique.

Debut de section - PermalienPhoto de Laurent Lafon

Vous avez dit ce matin que l'on serait surpris d'apprendre ce que Facebook peut faire grâce au wifi. Pourriez-vous préciser ce que vous entendez par là et quel type d'informations une entreprise comme Facebook utilise à partir des données wifi ?

Debut de section - Permalien
Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte

Je sais que des entreprises comme Google contrôlent les noms des réseaux environnants pour savoir exactement où l'on est. C'est pour cela qu'ils peuvent être si précis dans la localisation. Facebook a six systèmes différents pour localiser les personnes à n'importe quel moment grâce à « l'empreinte digitale de localisation ». Je pense qu'ils enregistrent le nom du wifi. Je n'en suis pas totalement sûre, mais je pense qu'il existe suffisamment de systèmes pour affiner les données afin de savoir exactement où l'on est.

Debut de section - PermalienPhoto de Laurent Lafon

La parole est aux Rapporteures de la commission des affaires européennes, Mmes Catherine Morin-Desailly et Florence Blatrix Contat.

Debut de section - PermalienPhoto de Catherine Morin-Desailly

Madame, vous êtes le deuxième lanceur d'alerte, avec votre compatriote Edward Snowden, à avoir informé les opinions mondiales du fait que l'internet n'était pas le monde angélique que l'on pouvait croire. Merci infiniment.

Votre témoignage est extrêmement précieux, à l'heure où, avec ma collègue Florence Blatrix Contat, nous sommes en train de travailler sur le rapport concernant le DSA, pour lequel vous avez été aussi auditionnée à Bruxelles.

Votre constat, qui est accablant, n'est pas franchement une surprise pour les sénatrices et les sénateurs car, depuis l'affaire « Cambridge Analytica », on avait bien identifié les dysfonctionnements, la manipulation des données de plus de 83 millions d'internautes, et constaté que les alertes internes n'avaient pas été prises en compte par Facebook.

Vous avez eu le courage de témoigner devant le Congrès américain et devant le Parlement européen, ce que n'a pas fait Mark Zuckerberg.

L'affaire du Capitole nous a aussi alertés sur les menaces dirigées contre nos démocraties par les réseaux sociaux. Nous avons besoin de plus de transparence, d'« accountability » pour ces plateformes mais, au-delà, il nous faut légiférer dans un cadre européen. Les tentatives de législations nationales ont en effet été des échecs, car elles mettaient en danger la liberté d'expression dans un mauvais équilibre et une mauvaise compréhension de l'écosystème, tel que vous l'avez démontré.

Notre préoccupation est de comprendre le modèle économique que vous avez évoqué, et notamment le fonctionnement de ces algorithmes, dont vous êtes une spécialiste. Ceux-ci ont-ils été conçus avec l'intention originelle de faire exclusivement du profit ? Peuvent-ils être corrigés et, si oui, comment et par qui ?

Est-ce au contraire totalement irréparable ? Dans ce cas, le modèle économique, comme l'a dit Shoshana Zuboff, dans son livre Le capitalisme de surveillance, est toxique et définitivement pervers. C'est une question fondamentale pour que nous comprenions le système.

Vous avez parlé d'évaluation, d'identification des risques systémiques et d'un vaste plan qui serait nécessaire pour mesurer tout cela. L'article 31 du DSA prévoit l'ouverture des données nécessaires à des chercheurs extérieurs pour évaluer ces risques, mais on y opposera peut-être le secret des affaires. Pouvez-vous nous confirmer s'il est absolument indispensable que tout cela soit ouvert à une expertise extérieure pour fonctionner ?

Debut de section - Permalien
Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte

S'agissant des bénéfices, Facebook, en 2018, a modifié son fonctionnement pour maximiser le temps pendant lequel il pouvait garder les gens sur son site, en essayant de développer le plus possible les « interactions sociales » significatives. Or, six mois après le lancement, il a vu que les fils avaient en fait moins de sens, mais sa volonté était de générer davantage de contenus. Quand les gens génèrent plus de contenus, ils restent plus longtemps sur le site et consomment plus de publicité. C'est un modèle commercial. Facebook a essayé différentes techniques. Celle qui avait le moins d'effets secondaires consistait à distribuer beaucoup plus de petites récompenses en dopamine, grâce aux « likes », re-partages ou commentaires, par exemple.

Facebook n'avait pas l'intention de provoquer un incendie, mais a compris que plus les clics arrivaient vite, plus il y avait de colère. Cela peut-il être réparé ? Oui. Facebook connaît énormément de solutions qui pourraient fonctionner partout dans le monde. Des modifications doivent être apportées à la plateforme. Ce n'est pas une question de personnes ou d'idées : c'est le système qui amplifie les pires contenus de façon démesurée.

En 2008, le fil d'actualités de Facebook portait sur la famille et les amis. On ne parlait pas de destruction de la démocratie à l'époque. Le nouveau système pousse les personnes vers des groupes énormes, qui sont beaucoup plus extrêmes, qui fonctionnent avec un classement reposant sur l'engagement de l'utilisateur. En Allemagne, 65 % des personnes qui ont rejoint des groupes néonazis l'ont fait après que cela leur ait été suggéré par Facebook !

Pourquoi Facebook n'a-t-il pas modifié les choses ? C'est là que le modèle commercial intervient. Sans une force qui l'y oblige, comme le DSA, il s'abstiendra de déployer ces changements, car tout ceci touche aux bénéfices. Il pourrait avoir demain 90 % de désinformation en moins sur la plateforme, mais cela lui coûterait quelques points en termes de bénéfices.

Facebook mérite-t-il d'avoir 35 % ou 40 % de marge, ou « seulement » 25 % ? On ne lui demande pas de ne pas être rentable ; mais on lui demande d'être responsable !

Enfin, il est vital que les universitaires et les chercheurs indépendants aient accès aux données. Je défends cette ouverture ainsi qu'un accès plus facile aux données agrégées.

Sur Twitter, par exemple, 10 000 chercheurs indépendants peuvent étudier les données publiques du réseau. C'est une question de sécurité nationale. Une très grande partie des informations sur Facebook ont été trouvées par des chercheurs indépendants parce qu'ils travaillaient sur Twitter. On doit développer un écosystème basé sur la responsabilité. C'est ainsi qu'on peut contrebalancer le poids de ces plateformes.

Debut de section - PermalienPhoto de Florence Blatrix Contat

Merci pour votre courage, Madame.

Dans le prolongement de la question de ma collègue, les algorithmes peuvent-ils être conçus de manière responsable pour fonctionner au bénéfice de tous ? Pour quelles raisons les algorithmes ne fonctionnent-ils pas de manière responsable ? Est-ce un problème de paramétrage ou le fruit de leur utilisation ? Pensez-vous que le fait de mettre en place des obligations de « legacy by design » pour les algorithmes soit utile ?

S'agissant du modèle économique, pensez-vous que des mesures qui visent à l'assèchement des ressources publicitaires des plateformes liées aux contenus illégaux ou de désinformation pourraient avoir un impact ?

Le modèle économique de Facebook pourrait-il selon vous continuer à fonctionner si on interdisait la publicité ciblée ?

Enfin, dans le prolongement de ce qu'a indiqué le président Jean-François Rapin, nous avons en Europe une réglementation stricte en matière de protection des données personnelles, le règlement général sur la protection des données (RGPD), qui est entré en vigueur en 2018. À votre connaissance, ce texte a-t-il réellement un impact sur la manière dont Facebook traite les données personnelles de nos concitoyens ?

Debut de section - Permalien
Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte

Sans aucun doute, les algorithmes peuvent être conçus en appliquant le principe de « safety by design ». Le problème vient du fait que la seule motivation de Facebook réside dans les bénéfices.

La plupart des grosses entreprises de technologie ont une certaine transparence. On peut ainsi télécharger les résultats de recherche via Google et les analyser. C'est ce que font les gens. Google sait qu'il est contrôlé. L'entreprise est donc plus responsable. De vrais ingénieurs travaillent sur le système, écrivent des blogs et expliquent comment fonctionnent leurs recherches. C'était du moins le cas en 2006, lorsque je travaillais chez eux.

Twitter sait également que les gens récupèrent un dixième des tweets et les analysent. Je pense donc qu'ils effectuent des choix plus responsables, parce qu'ils savent qu'ils peuvent être tenus pour responsables. Facebook n'a jamais fourni intentionnellement d'informations sur son système, alors qu'il pourrait faire comme Twitter et partager ses données. Il sait que si on ne voit rien, on ne peut poser de questions ni réclamer de nouvelles règles.

On peut lui demander de réfléchir à la sécurité collective, mais ce n'est pas une question de périmètre. Il s'agit plutôt de savoir si, quand Facebook voit un problème, il essaie de le régler. Il existe deux Facebook. Le premier est celui de la croissance, qui est plutôt optimiste. Les personnes qui traitent de la sécurité en sont séparées. Auparavant, elles travaillaient uniquement sur les risques de panne du site. Aujourd'hui, elles travaillent un peu sur la désinformation, mais à chaque fois qu'une personne qui travaille dans les sections « sécurité et intégrité » trouve une solution qui rend le système plus sûr aux dépens des profits, l'entreprise fait tout pour ne rien mettre en place.

Il existe des solutions qui ne vont pas à l'encontre de la liberté d'expression. Facebook choisit de ne pas les mettre en place parce que cela lui coûte une partie de ses bénéfices.

Beaucoup d'entreprises ont géré leur façon de stocker les données grâce au RGPD, comme Google, par exemple. Je sais qu'il y a aussi des abus dans ce domaine, Facebook refuse de communiquer certaines données à cause du RGPD. Il faut s'assurer qu'on inclut la définition de la vie privée dans le DSA, car cela permettra d'éviter que Facebook considère que les données agrégées violent la vie privée.

Je pense que Facebook pourrait être rentable sans les publicités ciblées. Serait-il aussi rentable qu'aujourd'hui ? Certainement pas ! Encore une fois, c'est une question d'équilibre entre différents besoins. Je ne suis pas économiste. Je ne peux donc vous dire combien ils perdraient, mais j'imagine que les publicités non ciblées sont rentables. Facebook a d'autres manières de faire de l'argent par ailleurs. Je pense qu'il a suffisamment d'options.

Debut de section - PermalienPhoto de Catherine Morin-Desailly

Vous voulez prémunir la jeunesse contre les effets désastreux que vous avez évoqués. Finalement, la jeunesse n'est peut-être plus tant sur Facebook que sur Instagram. On sait qu'Instagram et Facebook font en réalité partie de la même société, avec WhatsApp. Pouvez-vous nous dire si Instagram fonctionne de la même manière et si vous formulez les mêmes remarques à son endroit ?

Enfin, faut-il envisager, comme certains démocrates américains, le démantèlement du trust ?

Debut de section - Permalien
Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte

Une des raisons pour lesquelles je ne soutiens pas le démantèlement du trust vient de ce que les problèmes de plateformes existent dans les deux services, Instagram et Facebook, avec l' « engagement-based ranking » : on constate les mêmes problèmes sur les deux produits. Les documents contenus dans mes révélations montrent que le clone de TikTok dans Instagram, Reels, connaît les mêmes difficultés, avec un algorithme, qui n'était pas programmé pour être raciste mais qui a « appris » que les contenus concernant des personnes de couleur, par exemple, n'entraînaient pas les mêmes réactions que ceux concernant les personnes blanches.

Ce n'est donc pas le problème de l'entreprise en soi, mais de l'intelligence artificielle, qui n'a pas de contrepoids et qui force l'entreprise à gérer les choses de cette manière.

Si Facebook doit faire le choix de mettre 10 000 nouveaux ingénieurs sur des jeux vidéo plutôt que sur la sécurité parce qu'ils ne veulent faire que des bénéfices et avoir une entreprise rentable plutôt que de sécuriser leurs produits, les problèmes continueront, dans les deux sociétés. Ce qui est important, c'est le bon contrôle, et cela changera la relation de l'entreprise avec le public.

Debut de section - PermalienPhoto de Pierre Ouzoulias

Merci, Madame, pour votre travail et la qualité de vos informations. Vous êtes citoyenne des États-Unis d'Amérique, pays d'origine de Facebook, et vous comprenez que nous, Français, avons un problème supplémentaire avec cette entreprise, celui de la défense de notre indépendance nationale.

La question est de savoir si nous allons continuer à être une « colonie numérique » des GAFAM, et si ces entreprises vont accroître leur maîtrise sur nos données personnelles, au risque d'intervenir directement dans le fonctionnement de notre démocratie, alors qu'elles-mêmes échappent à toute forme de régulation et de contrôle des institutions.

Le Gouvernement français a proposé quelques lois qui ont été malheureusement sans effet. Je prends un exemple : le Conseil supérieur de l'audiovisuel (CSA) peut en principe accéder aux algorithmes, mais les GAFAM ne le lui permettent pas, et comme il n'existe pas de dispositif de sanction, il n'y a aucune possibilité de les obtenir.

Vous l'avez dit très justement : la violence de Facebook est consubstantielle à son modèle numérique. Aussi ne peut-on s'intéresser à ce problème sans toucher à ce modèle numérique. Le Sénat français avait travaillé sur un amendement qui prônait l'interopérabilité et permettait aux usagers de garder la maîtrise de leurs données, tout en leur permettant de changer de plateforme. C'était là introduire une forme de concurrence. Pensez-vous qu'il pourrait s'agir d'une mesure utile pour réduire le monopole de Facebook ?

Debut de section - Permalien
Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte

J'adore le terme de « colonie numérique » que vous utilisez. Aux États-Unis, on utilise la formule « pas de taxation sans représentation ». On pourrait compter tous les dollars que représente la publicité générée par l'Europe. J'ai travaillé sur Google Plus, je sais combien cela représente. Il existe des options. Peut-être faut-il parfois regarder le retour sur investissement.

Il existe également des questions de défense nationale. Facebook, parce qu'il se réfugie dans le secret, porte un fardeau bien plus lourd, du fait que personne ne peut intervenir à sa place en matière de sécurité : j'ai travaillé sur le contre-espionnage et j'ai aidé à mettre en place des outils contre le terrorisme, les cartels, les trafics humains, l'exploitation d'enfants et les crimes en ligne. Il est inacceptable de ne pas savoir combien de personnes travaillent dans chacune de ces fonctions. Il est inacceptable d'ignorer combien d'affaires sont prises en charge par pays dans chacun de ces domaines. Je pense que vous seriez choqués d'apprendre le peu qui est fait pour protéger la France.

Le DSA doit exiger ces informations et demander combien de personnes travaillent dans chaque domaine. Lorsque j'étais chez Google, l'entreprise, pour donner l'impression que plus de femmes travaillaient dans les postes techniques, incluait les secrétaires des ingénieurs dans le personnel technique. Si on leur avait demandé leur titre exact, je pense que les choses auraient changé.

Par ailleurs, l'interopérabilité ouvre d'autres difficultés qui pourraient compliquer davantage les choses. Les serveurs de messagerie électronique disposent de cette interopérabilité. On envoie généralement un courriel à un seul serveur. Ensuite, on ne le gère plus, on a une ligne directe et sécurisée. Imaginez que je sois sur Facebook, mais que mes amis soient tous sur des clones. Si je poste une photo de mon bébé, elle va être envoyée à tous les serveurs, individuellement. Il ne faut pas, alors, que l'un de mes amis dépende d'un serveur hébergé par un groupe russe, par exemple. Je dois donc faire confiance à chacun.

Par ailleurs, on doit pouvoir changer les paramètres de sécurité de ce que l'on poste après la publication. Il faut donc que je sois sûre que, lorsque j'enlève des éléments de mon serveur, ceux-ci seront également retirés de tous les autres serveurs. Si l'on avait une parfaite interopérabilité, les gouvernements devraient donc auditer chaque serveur individuellement pour vérifier que ce que j'ai choisi d'enlever a été enlevé partout.

Les effets de réseau sont énormes et on ne peut les empêcher. Il y a trois ans, certains pays disposaient d'alternatives à Facebook. Certains réseaux étaient arrivés suffisamment tôt et avaient réussi à exclure Facebook. Aujourd'hui, aucun pays, mis à part la Chine, n'interdit Facebook.

Un créateur crée une page sur TikTok pour atteindre le plus de personnes possible. Au final, les marchés peuvent être en concurrence, parce que les personnes copient les contenus et les publient sur d'autres sites. On peut regarder du contenu issu de TikTok sur YouTube parce que les créateurs le copient. Les réseaux sociaux personnels, eux, ne cherchent pas à atteindre le plus de gens possible, mais quelques personnes spécifiques. C'est là qu'est la difficulté.

Je vous encourage à réfléchir à Facebook comme à un prestataire public, parce qu'il n'y a pas de choix : soit on l'interdit complètement, soit on l'accepte.

Debut de section - PermalienPhoto de Thomas Dossus

Merci pour votre courage, Madame, et pour l'apport extrêmement utile de votre témoignage pour le débat public. Il met en exergue la fragilité de nos démocraties vis-à-vis des poids lourds du numérique.

Je souhaiterais vous interroger sur la régulation des algorithmes de recommandation, qui sont le coeur du modèle économique de Facebook mais aussi, pour nos démocraties, le moteur d'un certain nombre de menaces que vous avez bien décrites.

Pensez-vous possible que la puissance publique puisse réellement obtenir la transparence de ces algorithmes ? Facebook a déjà menti à de nombreuses reprises, et cela fait partie de son modèle économique. Il va forcément avoir envie de le garder privé.

Vous avez rappelé que l'intelligence artificielle ne peut pas tout et qu'il faut un certain nombre de moyens humains, notamment en matière de modération. À quelle échelle les évaluer pour constituer un vrai service de régulation indépendant à l'échelle européenne, qui est la meilleure pour obtenir ce service ?

Debut de section - Permalien
Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte

Concernant les mensonges de Facebook sur ses données, je pense qu'il y a deux voies à explorer. En matière d'évaluation des risques, il me paraît plus simple de dire de quelles données on a besoin pour vérifier si des progrès sont accomplis. En tant que spécialiste des données, je puis vous assurer qu'il est plus simple de les obtenir de cette manière.

Je pense qu'il est important, dans le DSA, de préciser que lorsque Facebook fournit des données, il doit également publier la manière dont celles-ci sont produites. En effet, Facebook manipule les données mieux que quiconque. Il a recruté certains des meilleurs scientifiques de ce domaine à travers le monde.

En matière de science des données, chaque calcul a besoin de simplifications et de suppositions. Quand Facebook n'a pas besoin de vous les montrer, il les cache. Un scandale a éclaté aux États-Unis il y a deux mois : pendant des années, des universitaires avaient demandé qu'on leur communique des données simples. Ils ont réussi à démontrer la mauvaise foi de Facebook parce que les données qu'on leur avait communiquées ne s'alignaient pas avec les précédentes.

L'idée qu'on doit sans arrêt vérifier si Facebook ment est totalement inacceptable. S'il doit expliquer comment ces données ont été créées, vous avez plus de chances d'obtenir les bonnes informations, celles-ci pouvant être contrôlées.

Par ailleurs, dans le cas d'un système d'audits, avec un, deux, trois audits, où pour chaque préjudice, on a les données associées, il est plus difficile de créer de fausses données qui se recoupent dans un grand nombre de domaines. Réaliser de très bonnes fausses données est extrêmement compliqué. C'est tout un art. Si on veut obtenir de vrais sets de données qui ne sont pas sensibles du point de vue de la vie privée, mais qui peuvent être des données agrégées, on peut exercer des vérifications croisées, et c'est bien mieux en termes de sécurité.

Vous avez évoqué les moyens humains. Je ne pense pas que la modération des contenus recourant à des humains sera suffisante pour résoudre les problèmes actuels. Le problème sera le même du point de vue de la diversité des langues. Nous aurons besoin d'énormément de personnes, dans beaucoup de langues différentes, et dans certains endroits, il sera difficile d'avoir les personnes qui auront les bonnes compétences ou des responsables qui pourront parler suffisamment de langues pour gérer une équipe multilingue.

Alors comment sécuriser les plateformes ? Facebook sait que plus il montre de contenu de votre famille ou de vos amis gratuitement, moins on a de discours haineux, de nudité, de violence. Ce n'est pas une question de personnes ou de contenu : c'est Facebook qui pousse à rejoindre des groupes de milliers de personnes, où des milliers de contenus sont créés chaque jour, avec des usines destinées à créer du contenu viral. Or le contenu destiné à des milliers de personnes est le pire, parce que l'algorithme choisit toujours le contenu le plus clivant et le plus violent. Donc je pense que faire en sorte de retrouver des plateformes à taille humaine permettrait de contrer l'hyper-amplification : les mauvais contenus seront moins redirigés et auront moins d'impact.

Debut de section - PermalienPhoto de Yan Chantrel

Il est essentiel de souligner à nouveau votre courage et votre détermination, madame. Votre présence pointe aussi l'urgence qu'il y a pour nous, en tant que législateurs, à soutenir les lanceuses et les lanceurs d'alerte comme vous et à mieux protéger votre statut afin qu'il y en ait davantage.

Votre intervention a mis en lumière trois enjeux essentiels à propos de la question des médias sociaux, celui de la santé publique, notamment la santé mentale et la protection des mineurs, celui de la sécurité à l'heure où les discours de haine du monde virtuel se transforment en actes de violence dans le monde réel - on l'a vu avec l'attaque du Capitole -, et celui de la démocratie face aux manipulations et à la désinformation, sujet auquel nous sommes particulièrement sensibles en France, à l'heure où l'on va vivre une élection présidentielle.

En réponse, vous mettez le doigt sur deux points éminemment politiques pour notre assemblée. En premier lieu, face à des mastodontes comme Facebook, qui font primer les profits financiers sur toute autre considération, notamment la protection de ses utilisateurs, la puissance publique doit jouer son rôle pour réguler l'activité et imposer des normes.

En deuxième lieu, en démocratie, la transparence et la responsabilité doivent s'imposer aux entreprises privées comme aux instances publiques. Ces entreprises doivent rendre des comptes.

Dans votre intervention, vous avez souligné à quel point les outils de Facebook, les algorithmes, le classement des publications étaient plus particulièrement biaisés à l'endroit des publics vulnérables. C'est une accusation très grave et, à mon sens, qui n'est pas assez soulignée. Elle mérite qu'on s'y attarde. Pourriez-vous nous en dire plus sur ces biais et sur les populations auxquelles vous pensez ?

La commission de la culture, à laquelle j'appartiens, est très attachée à la richesse des langues et des cultures et à la défense de la diversité face à tout hégémonisme culturel, qu'il soit américain, anglophone ou autres. Pourriez-vous expliquer dans quelles proportions les utilisateurs de Facebook en français, tout comme en espagnol, en arabe dialectal ou toute autre langue, sont davantage exposés à la nocivité de certains de ces outils que les utilisateurs anglophones ou occidentaux en général ?

Enfin, après cette audition, la plupart des parlementaires vont eux-mêmes faire un post Facebook pour relater nos échanges. Pensez-vous que l'algorithme le mettra en avant ?

Debut de section - Permalien
Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte

S'agissant des populations vulnérables, Facebook a cherché à savoir qui présentait le risque le plus élevé d'être exposé à la désinformation. Il a découvert que les personnes qui venaient d'être veuves ou divorcées, ou qui venaient de déménager, celles qui étaient plus isolées socialement, pouvaient se connecter et passer beaucoup de temps devant leur écran. Ces personnes sont parfois happées par le système et consomment énormément de contenus parce qu'elles ont perdu leur réseau social réel.

Facebook peut prétendre que tout le monde est exposé à différentes opinions sur les réseaux sociaux, mais il faut vraiment faire la différence entre l'expérience à la marge et les autres. La plupart des utilisateurs peuvent faire face à différentes expositions, mais le préjudice est concentré sur une minorité d'utilisateurs.

Facebook a estimé que 4 % des communautés recevaient 80 % des messages de désinformation sur le covid-19 et le vaccin. Certaines personnes font l'objet d'un déluge d'informations de la part de QAnon ou d'autres, qu'il s'agisse de haine, de désinformation concernant la covid-19. Pour les personnes très exposées, plus une idée est présentée, plus elle semble réelle.

En outre, la nature de ce qui arrive sur les écrans est très dangereuse. Pour la covid-19, un post qui génère énormément de commentaires a plus de chances d'être sélectionné pour être inséré dans votre fil d'actualité. Mettons qu'un groupe sur la covid-19 composé d'un quart de million de personnes produise 100 000 contenus par jour. Si seulement trois de ces publications arrivent dans votre fil d'informations et comportent des informations en faveur du vaccin, mais que beaucoup de personnes parlent de conspiration, ce post sera considéré comme ayant beaucoup d'interactions positives. Il sera promu et arrivera dans votre fil d'information. Qui croira-t-on au final ? Cela m'inquiète vraiment, car 3 % de la population seulement peuvent provoquer une révolution. C'est donc dangereux pour les démocraties.

Pour ce qui est de la richesse des langues, vous êtes sans aucun doute exposés à davantage de toxicité en France que je ne le suis aux États-Unis. Je pense en effet que Facebook passe beaucoup plus de temps à gérer au mieux les classificateurs pour la langue anglaise.

Par exemple, on compte un milliard d'arabophones dans le monde. Facebook affirme aux autorités de contrôle modérer la langue arabe. En décembre 2020, Facebook a réalisé un audit sur l'arabe et on s'est aperçu que cette langue était en fait composée de six dialectes différents, alors que Facebook n'en modérait qu'un. Facebook a cependant continué à affirmer qu'il modérait l'arabe. Un des documents que j'ai publiés en parle : quand il n'existe pas ou très peu de modération, 75 % des discours contre-terroristes sont classés comme discours terroristes, parce que ce sont les mêmes mots-clefs qui apparaissent.

Pour régler ce problème, il faut investir énormément et s'assurer qu'il y a suffisamment de contre-exemples.

Selon les statistiques sur les classements anti-covid - un audit de quinze langues a été réalisé en avril 2020 -, le français était l'une des langues qui se « comportait » le moins bien, avec l'arabe et le hindi. Je ne sais pas pourquoi. L'intelligence artificielle n'a pas pu expliquer pourquoi, mais les performances ont été très mauvaises. C'était peut-être un petit peu mieux deux mois plus tard, mais c'est un exemple.

Je pense que Facebook doit mettre en place des fonctions d'étiquetage. Quelqu'un m'a raconté avoir demandé à Facebook combien d'enfants étaient surexposés aux contenus d'automutilation. Facebook a répondu qu'il ne suivait pas les contenus d'automutilation et ne le savait donc pas.

Je sais que Facebook a une mauvaise représentation dans les langues autres que l'anglais. 80 de ses partenaires vérifient les contenus internationaux. Facebook prétend contrôler les différentes langues et en modérer 50, mais pas toutes.

En mai 2021, il n'y avait pas de classificateur de discours haineux en hindi par exemple, malgré les violences ethniques en Inde. Facebook choisi les langues, les systèmes, et je vous encourage à lui demander des exemples de classement. On s'apercevra que les discours contre-terroristes sont considérés comme des discours terroristes, ou que telle langue n'est pas modérée autant que telle autre.

À l'heure actuelle, personne ne le sait et Facebook ne gère donc pas ces problèmes, prétendant ne pouvoir donner d'informations pour ne pas les divulguer auprès des « méchants ». Or les « méchants » les connaissent déjà et sont ceux qui publient plus de contenus à destination des groupes vulnérables. Les seuls qui ne savent rien, ce sont les « gentils », et c'est inacceptable !

Votre post sera-t-il promu par Facebook ? Comme on l'a dit, Facebook a tant de délai pour intervenir sur les mauvais contenus, quels qu'ils soient que je suis sûre que votre post pourra être publié !

Debut de section - PermalienPhoto de Annick Billon

Merci, Madame, pour vos propos et la force de votre témoignage.

Le risque qu'encourent les lanceurs d'alerte est évident et réel. Que pensez-vous qu'il faille mettre en oeuvre pour réussir à améliorer la dénonciation ? La culture de la dénonciation est quelque chose qu'on a du mal à encadrer et à développer.

Ma deuxième question concerne le droit à l'oubli, et notamment la protection des jeunes et des publics vulnérables. Que pourriez-vous proposer pour les protéger ?

Par ailleurs, dans la foulée des élections aux États-Unis, Donald Trump a été banni des réseaux sociaux. Un cahier des charges est-il mis ou devrait-il être mis en place pour pouvoir encadrer cette suppression ?

Enfin, en quoi le changement de nom de Facebook est-il une manière de changer le regard qu'il faut porter sur les activités de ce réseau social ?

Debut de section - PermalienPhoto de Sabine Drexler

Merci, Madame, pour la qualité de votre intervention, et pour votre action, ô combien utile, de lanceuse d'alerte.

Très récemment, une mission d'information du Sénat a rendu son rapport et a unanimement constaté l'inaction des réseaux sociaux, dont le groupe Facebook, dans la lutte contre le cyber harcèlement scolaire. Nous avons d'ailleurs reçu entre autres les responsables de Facebook et n'avons pas obtenu de réponse précise et encore moins satisfaisante à ce sujet.

Or les réseaux sociaux, par leur puissance, leur anonymat, leur viralité, leur évolution permanente, démultiplient les conséquences du harcèlement chez nos jeunes.

Je souhaite connaître votre vision, votre avis et vos analyses. Confirmez-vous l'inaction - que je qualifierai de volontaire à entendre vos propos - du groupe Facebook dans la lutte contre le cyber harcèlement, en particulier scolaire ?

Debut de section - Permalien
Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte

Je pense qu'il sera de plus en plus important d'avoir des lanceurs d'alerte, parce que la technologie a toujours été plus vite que les démocraties. Les nouvelles technologies sont de plus en plus complexes et s'accélèrent.

Vous ne pouvez avoir de doctorat ou de master dans ce domaine : il faut travailler dans des entreprises pour le comprendre. On doit donc avoir des systèmes de protection pour les entreprises privées et publiques afin de s'assurer que les personnes sont en sécurité.

J'encourage les associations ou les institutions de protection des lanceurs d'alerte. J'ai vécu avec ma mère, qui est pasteur, pendant six mois l'année dernière. Quand vous avez un cas de conscience, c'est très utile. Je la remercie donc pour le soin qu'elle a pris de moi. Quand ils lancent une alerte, la plupart des lanceurs d'alerte ne vont généralement pas très bien. Ils sont confrontés à des vérités très dures, se sentent impuissants au sein de l'entreprise, et cela les anéantit.

Les lanceurs d'alerte n'ont donc pas uniquement besoin de protection juridique, mais doivent également être soutenus par des coachs, par exemple, afin que ceux-ci leur expliquent les manières sûres de lancer une alerte.

Si j'avais été conductrice de bus aux États-Unis, il y aurait eu un numéro d'appel d'urgence dans ma salle de pause. J'ai travaillé sur des sujets touchant la sécurité nationale et l'intégrité de ma société, mais je n'avais pas de numéro d'appel d'urgence. C'est aussi inacceptable.

Je soutiens fermement le droit à l'oubli. Les jeunes doivent pouvoir « remettre leur compte à zéro ». Facebook pourrait utiliser l'intelligence artificielle pour repérer des contenus qui ont été effacés par des adolescents. Cela permettrait d'identifier ceux que les jeunes pourraient ensuite regretter. On pourrait trouver des solutions.

S'agissant de Donald Trump, je soutiens l'établissement de règles internationales, car le danger est grand quand un leader commence à parler de minorités comme d'insectes, ou à utiliser n'importe quelle autre forme de déshumanisation. C'est plus qu'un drapeau rouge en matière de violence ethnique.

Lorsque des individus appellent à des actions contre le résultat des élections ou qu'un leader appelle au meurtre, il faut déterminer les lignes rouges. Je trouve inquiétant qu'un élu puisse se comporter de manière dangereuse, mais ce n'est pas à Facebook de voter les lois et de dire le droit.

Meta est une très belle illustration du « méta-problème » de Facebook. Facebook veut toujours aller plus loin et croître. Si Facebook avait investi autant dans la sécurité que dans les jeux vidéo, je ne serais pas ici. La sécurité connaît un sous-investissement. Ils n'emploient que 1 000 ou 2 000 ingénieurs dans ce domaine, et cela démontre leurs priorités.

Je suis aussi très inquiète que Meta s'intéresse à l'emploi. Le métavers a besoin de beaucoup de capteurs et de données biométriques sur les personnes. Imaginez que votre employeur décide de transformer sa société en entreprise métavers et que vous deviez travailler chez vous. Serez-vous obligés d'avoir des capteurs Facebook chez vous, des micros ou autres, alors que Facebook ment ? Allez-vous faire entrer Facebook dans votre maison ? Il y a là un gros problème d'acceptabilité, et les gouvernements doivent légiférer.

Pour ce qui est du cyber harcèlement et du harcèlement scolaire, auparavant, quand un enfant était harcelé, il pouvait rentrer chez lui et être tranquille. À présent, les enfants sont harcelés tout au long de la journée, jusqu'au soir. Cela ne s'arrête jamais. Ils se couchent harcelés et se réveillent harcelés. Il y a de plus en plus de méchanceté en ligne, alors que les enfants ont de plus en plus une vie sociale en ligne.

Les recherches de Facebook dans ce domaine montrent que les enfants s'attendent à ce que les personnes qui s'occupent d'eux soient méchantes avec eux. Imaginez le type de relations que ces enfants vont avoir dans dix ans, quinze ans ! C'est un vrai problème.

Debut de section - PermalienPhoto de Laurent Lafon

Au nom de Jean-François Rapin et de l'ensemble de mes collègues, je vous remercie du temps que vous nous avez consacré et des réponses que vous nous avez apportées.

Nous continuerons bien sûr à vous suivre et, si nous le pouvons, à vous soutenir dans votre démarche.

Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.

La réunion est close à 17 h 50.