Commission d'enquête Tiktok

Réunion du 16 mars 2023 à 11h00

Résumé de la réunion

Les mots clés de cette réunion

  • RSN
  • arcom
  • chercheurs
  • média
  • oeuvre
  • plateforme
  • régulateur
  • tiktok

La réunion

Source

Debut de section - PermalienPhoto de Mickaël Vallet

Nous avons le plaisir d'auditionner ce matin M. Benoît Loutrel, ancien directeur général de l'Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep), ancien directeur chargé des relations institutionnelles de Google France et aujourd'hui conseiller membre du collège de l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom).

Autorité publique indépendante qui résulte de la fusion, le 1er janvier 2022, du Conseil supérieur audiovisuel (CSA) et de la Haute Autorité pour la diffusion des oeuvres et la protection des droits sur internet (Hadopi), l'Arcom est notamment compétente en matière de régulation des plateformes en ligne et des réseaux sociaux.

Ses compétences ont progressivement été renforcées par les lois récentes relatives à la protection de l'enfance et de l'adolescence, à la manipulation de l'information, à la lutte contre la diffusion de fausses informations et la haine en ligne : autant d'enjeux pour lesquels nous souhaiterions connaître les risques spécifiques pour les utilisateurs de TikTok.

Selon la presse, vous avez même reçu cette semaine le conseiller général de ByteDance à propos des critiques exprimées par l'Arcom sur la faible qualité du rapport sur la lutte contre la désinformation remis par TikTok l'an dernier : vous vous exprimerez sans doute sur ce point également.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat.

Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.

Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure ».

Conformément à la procédure applicable aux commissions d'enquête, M. Benoît Loutrel prête serment.

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

Depuis la loi de 2018 relative à la lutte contre la manipulation de l'information, l'Arcom s'est vu confier, en plus de ses missions de régulateur de l'audiovisuel, la mission de réguler les plateformes numériques de partage de contenus, dont le vif succès s'accompagne de certains débordements, qui suscitent des questions sur le fonctionnement de notre démocratie.

Nous avons dressé en novembre dernier un bilan de l'application de la loi sur la manipulation de l'information, montré les acquis de notre législation et ses limites, et épinglé la société TikTok.

Le législateur, en créant le devoir de coopération des grandes plateformes et en leur imposant de participer à la lutte contre la manipulation de l'information, a suscité une dynamique. Nous sommes mieux armés pour faire face aux risques informationnels ou d'interférences étrangères, notamment dans les processus électoraux. Nous avons ainsi pu préparer la dernière élection présidentielle, avec le Conseil constitutionnel et les plateformes, pour pouvoir répondre en cas de problème, mais la menace ne s'est pas avérée. Est-ce en raison du déclenchement de la guerre en Ukraine ? En tout cas, nous étions prêts. La désignation d'une autorité publique comme point de référence a facilité l'action des plateformes. Nous les avons préparées à la mise en place de la Commission nationale de contrôle de la campagne électorale en vue de l'élection présidentielle (CNCCEP), à travailler et à échanger avec le Conseil constitutionnel.

La loi exige que les plateformes s'engagent dans la lutte contre les manipulations de l'information, prennent des mesures proactives et, point crucial, les rendent transparentes, afin que tout le monde puisse en prendre connaissance et comprendre ce que font les plateformes. Il s'agit de renforcer la confiance. Dans ce cadre, chaque année, l'Arcom adresse un questionnaire aux opérateurs de plateformes en ligne. Pour la première fois, l'obligation s'appliquait à TikTok, parce qu'auparavant l'entreprise n'avait pas franchi les seuils qui la soumettaient à cette obligation. À sa décharge, c'était donc la première fois que la plateforme était soumise à cet exercice.

Nous avons reçu beaucoup de réponses incomplètes à nos questions de la part de l'ensemble des plateformes, mais les manques étaient beaucoup plus nombreux pour TikTok. C'est pour cette raison que nous avons choisi de les épingler publiquement. Notre rapport indique que la « déclaration est particulièrement imprécise avec peu d'informations relatives au service en France et aucun élément tangible permettant une évaluation des moyens mis en place ». Nous déplorons que le dispositif de signalement soit accessible mais peu visible - il est accessible via une icône en forme de flèche symbolisant le repartage du contenu.

L'entreprise a développé une politique de signalement des « médias contrôlés par un État », mais la mise en oeuvre de cette règle est sélective : si les chaînes ukrainiennes contrôlées par l'État ukrainien étaient étiquetées, le compte de China Global Television Network Europe (CGTN Europe), contrôlé par l'État chinois, n'était pas identifié comme tel.

TikTok n'a pas répondu pleinement à notre questionnaire. La société est jeune et semble être encore dans un processus de construction et de mise en oeuvre de sa politique de modération. Toutefois, ses imprécisions nous semblaient poser un problème, et c'est pour cela que nous les avons rendues publiques.

La transparence s'est avérée efficace, car l'entreprise est revenue vers nous très vite pour nous dire qu'elle avait corrigé son erreur, et qu'elle avait désormais étiqueté les chaînes de CGTN.

Les plateformes ont une activité de trust and safety, de confiance et de sécurité : il s'agit pour l'entreprise de veiller à l'intégrité du réseau, à l'absence de troubles sur la plateforme, à ce que les usagers ne soient pas en danger. Historiquement, les plateformes ont développé cette activité de manière volontaire, comme une forme d'engagement au titre de la responsabilité sociale et environnementale (RSE) de l'entreprise. TikTok n'a pas mis autant d'énergie à développer cette activité qu'elle n'en a mis pour assurer sa croissance commerciale.

L'exercice que nous avons mené en novembre a montré tout l'intérêt des lois françaises, comme leurs limites. Parmi ces dernières, on note que nous n'avons pas de capacité à exiger la transparence. Nos lois datent de 2018 en France, de 2019 en Allemagne (loi NetzDG sur la haine en ligne). La France a adopté une loi en 2020 visant à lutter contre les contenus haineux sur internet, qui a été partiellement censurée par le Conseil constitutionnel, mais qui a mis en place un observatoire des plateformes, qui a prouvé son utilité comme lieu de discussion avec toutes les parties prenantes, et un pôle national de lutte contre la haine en ligne.

Ces lois ont permis aux pouvoirs publics d'acquérir un savoir-faire, une capacité d'action institutionnelle, de créer une dynamique, et maintenant nous pouvons être plus ambitieux. Nous sommes maintenant en train de basculer dans une logique de préfiguration de la mise en oeuvre du règlement européen sur les services numériques (RSN) ou Digital Services Act (DSA), qui permettra d'aller beaucoup plus loin dans la responsabilisation des grandes plateformes.

L'activité de confiance et de sécurité va devenir une exigence légale, sous le contrôle des régulateurs et des pouvoirs publics. Le but est en fait de permettre à tout le monde de participer à l'exercice de responsabilisation des plateformes, car les problèmes posés par les réseaux sociaux, qu'il s'agisse de l'incitation à la haine en ligne, de la mise en danger des publics, des mineurs ou encore du développement des addictionsconcernent en fait tout le monde. La régulation telle qu'elle est conçue dans le cadre du RSN vise à permettre à chacun de se saisir de ces sujets. Il s'agit de pouvoir agir collectivement, mais aussi de maintenir la confiance.

Ces plateformes sont au coeur du fonctionnement de nos démocraties. Elles permettent d'étendre notre capacité à exercer notre liberté d'expression, et c'est ce qui fait aussi leur succès populaire ; mais ces nouvelles libertés appellent de nouvelles responsabilités. Le cadre européen renforce sensiblement la responsabilité des grandes plateformes numériques, vise à permettre la mobilisation des usagers et à les responsabiliser, car ces derniers font partie à la fois de la solution et du problème. C'est l'enjeu de la construction d'une citoyenneté numérique.

Debut de section - PermalienPhoto de Claude Malhuret

Nous vous avons envoyé un questionnaire détaillé, et nous poursuivrons nos échanges, le cas échéant, après la réunion pour approfondir la question.

Le rapport de l'Arcom du 18 novembre 2022 est critique à l'égard de toutes les plateformes, mais particulièrement à l'égard de TikTok. Vous avez indiqué que la société était jeune et n'avait pas encore l'expérience des autres plateformes, même si elle existe déjà depuis plusieurs années. Néanmoins, il est rare pour un régulateur de s'adresser à la presse, et les termes étaient assez durs : vous estimez que « le statu quo n'est pas possible » ; vous appelez TikTok à un « rattrapage accéléré pour faire face à ses obligations » actuelles et futures. Vos recommandations ont-elles été suivies d'effets ? Le 13 mars 2023, un entretien a eu lieu entre M. Erich Andersen, conseiller général de ByteDance, et M. Roch-Olivier Maistre, président de l'Arcom. Est-ce que des engagements supplémentaires ont été pris par les représentants de TikTok ? Si oui, lesquels ? Ou bien ont-ils fait part de difficultés à suivre vos recommandations ?

Vous avez évoqué les opérateurs contrôlés par des États étrangers : le problème se pose pour CGTN, mais aussi pour ByteDance, la maison mère de TikTok, car la loi chinoise oblige toutes les sociétés à coopérer avec les services de renseignement chinois. La direction de ByteDance comporte une cellule du parti communiste chinois. Ces éléments semblent caractériser le contrôle d'une société par un État. Est-ce que l'Arcom considère que TikTok est une personne morale contrôlée, au sens de l'article L. 233-3 du code de commerce, par un État étranger ou placée sous l'influence de cet État ?

L'Arcom sera-t-elle le Digital Services Coordinator (DSC), ou coordinateur pour les services numériques (CSN), pour la France dans le cadre du règlement sur les services numériques (RSN) qui prévoit leur mise en place dans chaque pays européen ? La décision est-elle prise ou non ?

L'Arcom est-elle satisfaite des mesures mises en oeuvre par le réseau social TikTok pour vérifier l'âge de ses utilisateurs ? Ce sujet intéresse particulièrement certains de nos sénateurs et sénatrices. Les utilisateurs doivent être âgés d'au moins 13 ans. Or il semble que nombre d'entre eux sont des enfants d'âge bien inférieur à 13 ans. Des moyens de vérifier la politique de TikTok existent-ils ? Et celle-ci vous paraît-elle suffisante en la matière ? Dans le cas contraire, quelles recommandations leur avez-vous adressées ?

De la même façon, l'Arcom est-elle satisfaite des mesures prises par le réseau TikTok pour limiter le temps d'utilisation ? Ce dernier est drastiquement limité en Chine, puisque l'utilisateur y est déconnecté au bout de quarante minutes, ce qui montre sans doute la méfiance de la Chine à l'égard de l'addiction ou d'autres problèmes que l'application peut causer pour ses utilisateurs. Les représentants du réseau ont annoncé qu'ils appuieraient cette politique en Europe, notamment en France, mais de façon bien plus modérée. Ainsi, les utilisateurs ne seront pas directement déconnectés, mais simplement avertis au bout d'une heure d'utilisation. . À votre connaissance, ce système a-t-il été mis en place ? Ou, comme souvent de la part des plateformes, est-ce une annonce qui sera mise en oeuvre le jour où on le voudra ?

Enfin, s'agissant d'un important sujet d'actualité, que pensez-vous des interdictions, émises à destination de leurs fonctionnaires par la Commission européenne et le Parlement européen à l'instar de nombreux gouvernements, d'utiliser l'application TikTok sur leur téléphone professionnel et de fortement déconseiller son usage sur leur téléphone personnel ? La raison exacte de ces interdictions n'a pas été indiquée, seuls des transferts de données ont été vaguement évoqués. J'imagine qu'il s'agissait d'éviter un incident diplomatique avec certains gouvernements extra-européens. Mais il s'agit d'une véritable boite de Pandore : si la Commission européenne se pose la question des transferts de données, celle-ci concerne l'ensemble des gouvernements européens, et notamment le gouvernement et l'État français. Quelles conclusions en tirez-vous ?

Que pensez-vous du projet Clover récemment annoncé par les représentants de TikTok en Europe ? Celui-ci consiste à localiser les centres de données sur le sol de l'Union européenne. Actuellement, si je ne me trompe pas, ce n'est pas le cas. Ceux-ci sont situés à Singapour et aux États-Unis. Cela vous paraît-il suffisant pour assurer la sécurité des données ? Pensez-vous que l'existence de backdoors, à savoir de portes dérobées, est toujours possible - ce qui est allégué par d'assez nombreux chercheurs en informatique - et que cette assurance paraît bien faible ?

La dernière question date de cette nuit et s'inscrit dans la saga du US Government versus TikTok, si je puis dire. En effet, nous avons appris la décision du gouvernement américain de demander à ByteDance de vendre TikTok, étant donné les menaces de chantage évidentes qui pouvaient exister à l'égard des utilisateurs de la part d'un gouvernement non démocratique. J'aimerais que vous nous disiez ce que vous en pensez.

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

Je me permettrai d'écarter les questions ayant trait à la protection des données et de la vie privée, champ sur lequel l'Arcom n'a pas de compétence. Nous n'avons pas ce mandat. Comme tous les services de l'État, nous suivrons les consignes gouvernementales en la matière s'il y en a.

TikTok a quatre ou cinq ans d'expérience. Nous les avons épinglés. Nous nous battons avec toutes les plateformes, et TikTok, la première, pour leur faire comprendre qu'elles doivent répondre publiquement à nos questions et ne pas venir nous voir pour le faire. Il ne s'agit pas de nous rassurer, mais que tout le monde soit convaincu de la réalité de ce qu'elles font.

À l'origine, en application de la loi de 2018, nous demandions aux plateformes de rédiger un rapport destiné à l'Arcom, qui ensuite faisait un rapport de synthèse. Pour la première fois, nous leur avons demandé de rédiger des rapports destinés aux Français. Ceux-ci ont été rendus publics dès leur réception. Ils ont fait l'objet de critiques dans les médias. Facebook, qui avait été critiqué par un média, est revenu vers nous. Nous leur avons expliqué que c'était le but, afin que leurs actions soient jugées collectivement et pas uniquement par le régulateur, car nos moyens sont dérisoires au regard de la puissance de ces plateformes et de la multiplicité des sujets.

Lors de cette réunion de lundi soir, à laquelle assistaient le directeur juridique monde de TikTok et d'autres représentants de la plateforme, Roch-Olivier Maistre et moi-même, les représentants de TikTok nous ont dit qu'ils travaillaient à la résolution des problèmes que nous leur avions signalés. Nous leur avons indiqué que leurs réponses devaient être rendues publiques. Nous veillons soigneusement à ne pas nous enfermer dans un dialogue « portes fermées » avec ces plateformes.

L'enjeu est de rendre la gestion de ces plateformes plus rigoureuse et de préserver la confiance dans nos espaces informationnels. Nous devons réussir collectivement à nous convaincre qu'elles sont plus responsables. Nous repoussons leurs tentatives d'information directe. Nous voulons collectivement en savoir plus et pas juste l'Arcom, afin de pouvoir collectivement évaluer leurs activités et obtenir ensuite des réajustements lorsque ce n'est pas satisfaisant. Ces sujets sont trop importants.

Debut de section - PermalienPhoto de Mickaël Vallet

Un parallèle peut-il être établi avec les recommandations de certains grands acteurs et des services étatiques, en matière de cybersécurité, sur le partage des informations ? Ainsi, en cas d'attaque subie, il n'est pas utile de le cacher, mais au contraire il est nécessaire de partager ce qui s'est passé, afin de résoudre collectivement le problème et ne pas être « en silo ». Est-ce la même logique en matière de contrôle de la qualité de l'information ?

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

La logique est identique, mais elle est poussée encore plus loin. En effet, il existe une vérité scientifique de la sécurité, alors qu'en matière d'information, aucun ministère de la vérité n'existe. Il s'agit de renforcer la confiance de tous, de veiller à ce que chacun puisse se forger son opinion et de rassembler autour de cette démarche collective en décentralisant la régulation. Comme en matière de cybersécurité, il existe une question de mobilisation collective afin de ne pas être seul pour résoudre ces difficultés. Comment répondre à la puissance de la globalité des plateformes ? Cette question taraude tout le monde aussi bien en France, en Europe qu'aux États-Unis. La réponse est : avec la puissance de la démocratie, en mobilisant selon une démarche horizontale et en permettant à tous de participer à cet exercice.

La première audition de cette commission d'enquête avec M. Marc Faddoul était extrêmement importante pour nous. En effet, l'enjeu est de mobiliser le monde académique. Par exemple, comment régule-t-on la presse ? La loi de 1881 est en vigueur et est suivie de très peu d'interventions du juge ensuite. Pourtant, cette loi porte une obligation de transparence : liberté de la presse, mais exigence de procéder à un dépôt légal ; chacun peut lire la presse.

Debut de section - PermalienPhoto de André Gattolin

Le directeur de la publication est responsable.

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

Oui, mais cela n'arrête pas certains médias complotistes. Ainsi M. Prigojine construit de fausses informations en créant un site web et la responsabilité de directeur de la publication ne suffit pas à l'arrêter.

En réalité, une autre forme de régulation est fondée sur la transparence. Ainsi, tous les médias se critiquent et se surveillent entre eux ; toutes les universités françaises ont un département de sciences de l'information, de sciences politiques ou de sciences sociales analysant le fonctionnement de l'écosystème médiatique, ce qui engendre des cordes de rappel. C'est ce que nous devons recréer.

Actuellement, il existe une asymétrie d'information bien trop forte par rapport à ces plateformes sur la réalité de ce qu'elles font. Cette transparence, facile à exiger des « médias éditorialisés », est très dure à construire dans le cas de « médias algorithmiques », car ils traitent l'information à grande échelle et en individualisant le contenu. Ainsi, je peux consulter mon compte TikTok, mais cela ne me dit pas ce qui figure sur le vôtre, car ce que je vois est le résultat d'une série de traitements algorithmiques individualisés à partir des informations qu'ils détiennent sur moi. Si nous voulons comprendre ce que les plateformes font, nous devons comprendre comment leurs algorithmes sculptent l'information. Ainsi, selon une version optimiste de la situation, leurs traitements de l'information pourraient par exemple mettre en avant les contenus renforçant la prise de conscience de la nécessité de gérer la transition écologique. La version négative est qu'ils peuvent faire l'inverse. Nous devons détruire cette asymétrie d'information.

Grâce au règlement européen sur les services numériques (RSN), nous allons pouvoir exiger une « transparence sortante », c'est-à-dire révéler une information en leur possession concernant l'intention mise dans leurs algorithmes, mais aussi une « transparence entrante », où de l'extérieur nous pourrons révéler des informations qu'ils n'ont pas - leurs algorithmes ont-ils des effets non intentionnels ? - ou des éléments qu'ils essaient de nous cacher.

Les travaux de Marc Faddoul ont fourni un exemple formidable. Sans coopération de la plateforme, il a développé des travaux d'observation qui montrent ses comportements. Des biais algorithmiques peuvent être révélés : par exemple, des algorithmes qui poussent des contenus augmentant les problèmes d'obésité en France. Cela fait partie du modèle de régulation. C'est cela qu'il faut arriver à passer également à l'échelle, ce qui signifie que, dans toutes les universités, les départements de sciences politiques, de sciences sociales ou de sciences de l'information, dans le cadre de travaux interdisciplinaires, se saisissent de ces sujets pour révéler où sont les risques et évaluer collectivement la pertinence des réponses de ces plateformes. C'est l'enjeu le plus fort. C'est ce que nous martelons à TikTok. Ses représentants sont venus nous annoncer la mise en place d'un programme d'accès des chercheurs aux données. Nous leur avons demandé où était l'information sur ce sujet, si elle était rendue publique, quels étaient les laboratoires qui pouvaient s'en saisir, s'ils pourront mener des recherches de façon indépendante. En raison de leur importance, nous nous sommes saisis de ces sujets avant même l'adoption du RSN. L'Arcom a lancé une consultation publique sur l'accès des chercheurs aux données des grandes plateformes en juillet dernier, alors que le règlement n'était pas encore adopté, mais nous connaissions le contenu de l'accord politique. Tout un travail de mobilisation est à réaliser. Nous sommes en train d'armer une mécanique très puissante, car elle est décentralisée dans nos démocraties.

Vous me demandez s'il s'agit d'une personne morale contrôlée au sens du code du commerce. Nous n'avons pas répondu à la question en tant que tel, car, selon nous, elle n'a pas de conséquences dans le cadre juridique actuel. Cependant, que ce contrôle soit réel ou fantasmé, il a quasiment le même effet, puisqu'un effort supplémentaire de TikTok par rapport à d'autres plateformes sera nécessaire pour recréer la confiance légitime. Nous avons essayé de leur faire comprendre. Comme nous l'avons déclaré en conférence de presse, le statu quo est impossible. TikTok a un retard de jeunesse, un retard culturel - comme l'indiquait les représentants de l'entreprise lundi soir -, car elle n'est pas encore cotée en bourse et donc elle n'est pas habituée à ces obligations de transparence issues de la réglementation des marchés financiers. Au-delà de ces raisons, cette entreprise n'a pas connu la même naissance que les grandes plateformes américaines, qui ont subi une forte pression de la société civile américaine lors de leur création.

Le RSN, comme la démarche européenne, a été construit sur l'impossibilité de se satisfaire de la démarche américaine constituée d'un socle juridique léger - la section 230, équivalent de la directive européenne sur le e-commerce - et d'une autorégulation exercée sous la pression de la société civile. Celle-ci a permis d'avoir un acquis énorme qui est absent pour TikTok. Ce régime européen qui vient d'être élaboré est encore plus nécessaire s'agissant de TikTok, afin de rattraper l'ensemble de ces retards de jeunesse et culturel. Cette suspicion peut éroder la confiance et justifie que la plateforme en fasse plus pour atteindre le niveau des plateformes comme Facebook, Twitter ou Instagram.

Sur la question portant sur l'identité du futur coordinateur de services numériques (CSN), ce choix sera formalisé au travers d'une loi votée par le Parlement et à l'initiative du Gouvernement. L'Arcom s'y prépare et est candidate. C'est le sens de l'ensemble des lois françaises votées depuis cinq ans. La France a été très engagée dans l'élaboration du RSN et l'Arcom se prépare à être le CSN. Dans le RSN, l'article 40 accorde un droit d'accès aux données des plateformes à des chercheurs qualifiés. Il s'agit d'une mécanique très puissante, qui sera compliquée à mettre en oeuvre, car elle devra être articulée avec le droit à la protection privée et avec le règlement général de la protection des données (RGPD). Depuis un an, nous travaillons avec la Commission nationale de l'informatique et des libertés (Cnil) à la mobilisation des équipes de recherche avec l'espoir que la France soit à l'avant-garde de la mise en oeuvre du RSN. Ce règlement sur les services numériques donnera une puissance bien plus forte et laisse de l'espace à l'engagement de chaque pays.

Toute une série d'inquiétudes, légitimes, apparaîtront au sujet des plateformes, en raison des enquêtes journalistiques ou des travaux de recherche médicale, ou sur la manipulation de l'information. Dans le cadre de la construction du RSN, c'est ce qu'on appelle un risque systémique. Le RSN identifie le risque systémique de manipulation de l'information. Pour les très grandes plateformes, comme TikTok, ce règlement exige qu'elles identifient leurs risques systémiques et qu'elles les rendent publiques, qu'elles élaborent des plans de réduction des risques, les rendent publiques et les soumettent à des audits pour vérifier leur mise en oeuvre. En outre, par le biais de l'accès des chercheurs aux données, elles doivent se soumettre à des évaluations indépendantes. Ce système est itératif. La dynamique du RSN est de construire une capacité d'adaptation aux problèmes du futur, justement pour ne pas courir après les problèmes et disposer de lois pouvant s'adapter. C'est pourquoi un réseau de régulateurs y a été introduit pour activer et utiliser cette boîte à outils.

Des exercices itératifs auront lieu. Les premiers seront décevants. Les risques auront été identifiés, la dynamique se lancera, les régulateurs s'engageront... Le terme de « coordinateur pour les services numériques » a été introduit afin de souligner que le régulateur veillera à la participation de tous à ces exercices et à la critique de ces efforts. Le but n'est pas d'imposer des sanctions, mais de modifier les comportements. La plateforme semble déjà sentir le vent du boulet européen et annonce qu'elle mettra en place des outils de réduction du temps d'écran. Nous avons les mêmes questions que vous : les annonces ne valent rien, il faut des éléments tangibles. Ces dynamiques positives commencent à se mettre en place. L'Arcom se prépare à cela.

Sur les situations américaine et européenne, je ne sais pas si elles sont comparables. Jusqu'à récemment, c'était le cas, au sens où l'Union européenne et les États-Unis avaient mis en place un régime juridique propice au développement des plateformes. Il s'agit de la directive sur le e-commerce, avec son régime de responsabilité limitée à raison des contenus, et de son équivalent américain, la section 230. Cependant, les deux continents divergent s'agissant de la dynamique politique. La dynamique politique aux États-Unis est bloquée sur la section 230 et tous les acteurs interrogés témoignent de l'impossibilité d'adopter une grande loi. En revanche, l'Europe a voté ce règlement sur les services numériques. Des efforts sont engagés depuis les pays d'Amérique du Nord pour nous aider à réussir la mise en oeuvre de ce règlement, car ils sont en train d'en percevoir le potentiel.

Une question n'a pas été posée à Marc Faddoul lundi. Il s'agit de celle portant sur le mode de financement de ses travaux. La réponse est qu'ils sont en partie financés par des fondations américaines. Un enjeu très important a trait aux moyens de réussir la mise en oeuvre du RSN. Une loi est d'abord nécessaire pour régler la partie institutionnelle en France. Il faudra également déterminer comment lancer des programmes de financements de la recherche publique, comment relancer des programmes multidisciplinaires dans toutes les universités françaises afin de se saisir de ces sujets. Beaucoup de sujets sont liés à nos usages du numérique, qu'il est nécessaire de mieux comprendre pour créer un nouveau sentiment de citoyenneté numérique des usagers et pour répondre aux nouvelles demandes issues de la découverte de nouveaux risques systémiques.

Actuellement, la question porte sur les moyens de multiplier les travaux mis par exemple en oeuvre par Marc Faddoul, le Médialab de Sciences Po à Paris, par les équipes de Lille que je rencontrerai dans une semaine, par celles de l'université Aix-Marseille... Ces travaux interdisciplinaires, qui croisent des recherches en santé publique, en sciences de l'information et en sociologie, devront être financés. Il faut stimuler et utiliser le potentiel de nos universités, où résident des jeunes et des cerveaux capables de s'approprier ces technologies numériques et d'intelligence artificielle.

Aujourd'hui, le règlement qui a été voté est très puissant. La question est de savoir à quelle vitesse les institutions seront construites et dotées d'hommes et de femmes pour les mettre en oeuvre. Mobiliser les chercheurs est un enjeu opportuniste, car il permet de mobiliser également leurs étudiants, afin que tous s'engagent dans la mise en oeuvre de ce règlement.

Debut de section - PermalienPhoto de Claude Malhuret

Quelle est votre opinion sur les interdictions émises par la Commission européenne et le Parlement européen portant sur l'utilisation de l'application par les fonctionnaires sur leur téléphone ?

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

Il s'agit d'un problème de sécurisation des données, sur lequel l'Arcom n'a pas de compétence. Nous attendons l'éventuelle décision des autorités publiques françaises que nous suivrons, comme tous les services de l'État.

Debut de section - PermalienPhoto de Mickaël Vallet

En matière de politique publique, on ne réinvente pas l'eau chaude. Des postures et des façons de faire s'agissant du contrôle d'acteurs économiques importants peuvent être un peu les mêmes. Vous avez évoqué au début de votre intervention la citoyenneté numérique, qui irrigue la question du contrôle, la prise de conscience collective, l'impératif démocratique de l'ensemble. On a mis en oeuvre et développé, secteur par secteur, l'écoparticipation à laquelle nous sommes désormais habitués lors de l'achat d'un appareil électroménager. Au regard des milliards investis par les grandes entreprises du numérique ou certaines plateformes comme Amazon dans la recherche et le développement - cela peut dépasser la quinzaine de milliards -, n'est-ce pas un vivier à utiliser ? Comme dans le cas de l'écoparticipation, ces entreprises pourraient participer elles-mêmes au financement de leur propre contrôle. Cela est-il valable pour l'ensemble des plateformes, autant que pour TikTok ?

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

Le règlement sur les services numériques (RSN) prévoit que les plateformes doivent contribuer au financement de la fonction de régulation. La Commission européenne s'est lancée et préfinance son activité, c'est pourquoi son premier acte est de désigner les très grandes plateformes et d'amorcer le mécanisme financier qui les conduira à contribuer au financement de leur propre régulation.

Pour beaucoup, l'enjeu économique est phénoménal. L'autorégulation était insatisfaisante, car au sein même de ces entreprises, l'allocation des moyens entre, d'une part, le financement de la croissance et du développement, et d'autre part, celui de la stabilisation et de la gestion proactive des effets non intentionnels, était inadéquate. Les incitations n'étaient pas les bonnes. Le RSN vise à les forcer, en précisant que c'est une obligation légale. Le régime de sanctions qui peut être activé est très sévère en cas de défaut de moyens. Une lutte existe pour savoir dans quels secteurs les ingénieurs sont affectés au sein de ces sociétés, à savoir au développement du dernier produit ou à la mise à niveau du reporting de mesure des effets pervers. C'est le reproche que nous adressons à TikTok, lorsque nous lui indiquons que le statu quo n'est pas possible. Les moyens consacrés à la croissance de son activité l'ont été au détriment de celle des mécanismes de stabilisation.

Debut de section - PermalienPhoto de Mickaël Vallet

Vous avez déclaré ne pas avoir constaté de problèmes dans le cadre de l'élection présidentielle. Vous avez fait référence à la diversion des événements en Ukraine pour l'expliquer. Des craintes d'ingérence ont été publiquement exprimées au sujet d'un scrutin référendaire en Nouvelle-Calédonie. Avez-vous relevé des incidents particuliers ?

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

En 2021, pour se préparer à l'élection présidentielle avec ces grandes plateformes, nous avons noué des relations de confiance avec les personnes décisionnaires en cas de crise, par exemple avec la Commission électorale ou le Conseil constitutionnel si nécessaire, et nous avions des discussions avec Google, qui a certifié de leur mobilisation à cette occasion. Nous leur avons signalé l'existence du scrutin en Nouvelle-Calédonie qui avait lieu avant l'élection présidentielle. Ils ont été étonnés, car ce territoire compte 200 000 habitants, ce qui est tout petit à leur échelle. Mais ils ont compris qu'ils devaient mobiliser leurs efforts, là où cela était important pour nous et au moment que nous souhaitions. Ce type de relation peut être développé dans le cadre européen. À l'époque, nous avions envoyé des demandes à Facebook et à Google - TikTok n'était pas encore concerné, car l'entreprise était encore en dessous des seuils d'application de la loi. À ma connaissance, rien n'a été constaté.

Debut de section - PermalienPhoto de Mickaël Vallet

Comme M. Faddoul, diriez-vous que cette entreprise est débordée par son propre développement ?

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

Nous avons constaté l'existence d'un décalage entre un succès commercial fulgurant et l'engagement de leur responsabilité, alors que le contenu des lois françaises était connu, puisqu'il s'appliquait à leurs concurrents. Le succès fulgurant de TikTok a des conséquences concurrentielles : Meta a modifié le fonctionnement d'Instagram pour suivre TikTok, la pression de ses usagers l'a arrêté ; sur YouTube, un nouveau format de vidéos très courtes, selon le même modèle que TikTok, est apparu. Il est nécessaire d'avoir un cadre européen pour empêcher que la concurrence commerciale se fasse au prix d'une déresponsabilisation des acteurs.

Debut de section - PermalienPhoto de André Gattolin

S'agissant de la spécificité de TikTok, vous avez uniquement répondu que c'était un média jeune. La jeunesse peut expliquer la croissance, mais j'aurais aimé peut-être une caractérisation plus approfondie de TikTok, compte tenu des compétences de l'Arcom, y compris en termes de nature de contenus. Ainsi, s'agissant des conséquences de l'addiction à cette application, l'usage systématique des défis ou des challenges incite les jeunes à la transgression et à la surtransgression, ce qui n'existe pas ou très peu sur les autres réseaux sociaux.

Un autre aspect est celui de la censure. Je travaille depuis quelques années sur les ingérences étrangères. De nombreuses personnes qui m'ont contacté, notamment des chercheurs, et qui ont eu le malheur de diffuser un court message soutenant les Ouïgours, ont vu leur message supprimé, puis leur compte fermé. Nous avons un réel problème en France : nous disposons de la plateforme Pharos, qui concerne un certain nombre de délits et qui fonctionne bien, mais nous n'avons pas de plateforme un peu neutre et ouverte dans son fonctionnement. Je vous conseille de prendre langue avec la division Strat.2 du service européen pour l'action extérieure de l'Union européenne, (SEAE) qui a eu une rapid alert system (RAS) et qui s'intéresse à la désinformation, avec laquelle j'ai beaucoup échangé. Malheureusement, je vais chercher des signalements sur la France sur leur plateforme. Sans ce retour des logiques éditoriales, qui ne sont pas simplement des logiques d'influence, mais des censures explicites, la question ne se serait pas posée.

Quelles collaborations avez-vous avec les autres régulateurs, membres du Groupe des régulateurs européens des services de médias audiovisuels ou European Regulators' Group for Audiovisual Media Services (Erga), à propos de TikTok ? À ma connaissance, des sollicitations ont été adressées aux autorités de régulation néerlandaises à propos de TikTok. Nous avons un problème en France de parangonnage. Sur ce sujet, il est intéressant de suivre les actions de vos homologues.

J'insistais sur ces thèmes, car l'incitation à la transgression, auprès d'un public dont c'est naturellement la tendance compte tenu de son âge, est extrêmement gênante. En effet, la conservation des données, alors que la transgression est encouragée, est un problème. Il n'existe pas de droit à l'oubli. Dans ses statuts et dans le droit international, TikTok a le droit de transférer à sa maison-mère les données. La question est ensuite celle de l'usage qui en est fait et de l'absence de régulation de type RGPD en la matière.

Ces aspects méritent d'être mis en lumière. Nous aimerions avoir une approche systémique de TikTok, puisque la plateforme a un fonctionnement systémique, comme beaucoup de ces grandes plateformes, et en particulier de toutes les stratégies d'influence émanant de la République populaire de Chine.

Un système d'alerte, à l'instar de Pharos, pourrait-il exister ? Cela aurait un sens, car vous ne pouvez pas consulter les contenus de chaque personne. Les chercheurs ont de grandes qualités, mais nous avons du mal à construire des choses qui aient une validité scientifique sur le plan de l'observation des contenus.

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

Nous sommes intarissables pour documenter les défauts, réels, de Twitter, mais le réseau a ouvert très tôt un accès massif à ses données tant pour les chercheurs que pour les médias, par le biais d'une interface de programmation - en anglais, application programming interface (API). Facebook a fait de même. En revanche, nous savons très peu de choses sur TikTok : c'est pourquoi nous souhaitons là aussi qu'une telle interface soit créée.

Cela dit, les initiatives de Twitter et de Facebook relèvent de la seule volonté de ces deux entreprises : elles peuvent ainsi disparaître à tout moment. C'est pourquoi nous avons mené bataille pour intégrer ces dispositions à l'article 40 du RSN, pour permettre aux chercheurs d'accéder à ces données, tout en respectant le RGPD, afin de ne pas déboucher sur un nouvel Cambridge Analytica. En France, les chercheurs peuvent accéder sous des conditions strictes à certaines données sensibles par l'intermédiaire du centre d'accès sécurisé des données, dont le pilotage a été confié à l'Insee. Cette consultation est conforme au RGPD.

Il incombe aux homologues européens de la Cnil de faire respecter le RGPD. L'Arcom n'est pas directement concernée. En revanche, nous avons noué un partenariat avec la Cnil en vue de généraliser les interfaces de programmation.

Nous sommes convaincus que c'est en travaillant avec nos partenaires européens que nous ferons avancer les choses. Au mois de janvier dernier, nous avons organisé une conférence internationale portant sur l'accès des chercheurs aux données. La gouvernance prévue dans le RSN est plus puissante que celle du RGPD, qui consacrait le principe du pays d'origine. Demain, la Commission européenne et les régulateurs de tous les pays européens agiront de concert. Les chercheurs accédant aux données de TikTok et de Facebook devront être agréés par le régulateur irlandais, qui pourra s'appuyer sur un pré-agrément donné par le régulateur national. Nous fonctionnerons en réseau, à l'image des interactions entre la Banque centrale européenne (BCE) et les banques centrales des États membres. Nous essayons de faire converger les dynamiques nationales et européennes.

Debut de section - PermalienPhoto de André Gattolin

La plateforme Pharos ne règle pas tous les problèmes. Les actions menées par le système d'alerte sur la désinformation, créé par le Service européen pour l'action extérieure (SEAE), m'ont impressionné.

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

Là encore, nous essayons de travailler en réseau : au niveau national, avec Pharos, avec le pôle national de lutte contre la haine en ligne ou encore avec Viginum. Nous commençons à travailler avec la société civile et avec le monde académique, notamment en vue des prochaines échéances électorales. Nos sociétés se numérisent toujours davantage, le débat public a lieu aussi bien sur les médias éditorialisés que sur les médias algorithmiques. Nous devons être capables de réagir rapidement, comme lors de la dernière présidentielle, lorsque Twitter avait fermé plusieurs comptes par erreur : ces péripéties ne doivent pas nuire au bon fonctionnement de notre démocratie. La Commission nationale de contrôle de la campagne électorale en vue de la campagne présidentielle a d'ailleurs souligné la qualité de la coopération avec les plateformes. Je rappelle que toutes les lois, notamment celles relatives aux droits d'auteur et à la propriété intellectuelle, doivent être respectées sur les plateformes : lors de la campagne, certaines chaînes sur les réseaux sociaux étaient menacées de fermeture pour non-respect de ces règles, ce qui aurait constitué une entrave inutile au bon fonctionnement du jeu politique. Il faut constamment s'adapter à un espace sans cesse plus numérisé.

Debut de section - PermalienPhoto de Thomas Dossus

Vous avez évoqué les moyens dérisoires dont dispose l'Arcom pour assurer ses missions, parmi lesquelles l'analyse du mode de fonctionnement des algorithmes des plateformes. Combien de collaborateurs de l'Arcom sont-ils affectés à ce travail ? Cette part progressera-t-elle à l'avenir ?

En outre, l'Arcom lancera-t-elle des appels à projets pour favoriser le travail des chercheurs sur les plateformes ?

Vous opposez médias éditorialisés et médias algorithmiques. Comment les algorithmes ont-ils façonné le débat ? Ont-ils entraîné sa polarisation ? Ce phénomène a-t-il eu des conséquences sur les médias éditorialisés ?

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

Notre direction des plateformes en ligne compte huit personnes. Au sein de la direction des études, une équipe composée de deux personnes facilite le travail des chercheurs. Enfin, plusieurs membres de la direction Europe et international facilitent le travail en réseau. L'ensemble de ces personnes se retrouve au sein d'un groupe de travail consacré à la supervision des plateformes en ligne, que je préside. En 2023, les crédits de l'Arcom augmentent, ce qui nous permettra d'envisager de nouveaux recrutements. Nous devons disposer d'une taille critique pour être crédibles en vue d'animer un réseau ouvert à la recherche extérieure. Mais nous ne devons pas vouloir tout contrôler, car il est impossible de décréter l'innovation : nous devons jouer un rôle d'animateur. Je fais appel à la représentation nationale et au Gouvernement pour que des programmes de recherche interdisciplinaires puissent recevoir les financements nécessaires. Le développement des réseaux numériques est allé plus vite que celui de notre citoyenneté numérique.

Il nous faut également développer un réseau territorial. Chaque région compte une antenne de l'Arcom, qui devra décliner dans nos territoires les règles européennes et nationales. Les antennes pourront par exemple travailler avec les collectivités territoriales et les élus locaux sur le sujet du harcèlement scolaire.

Debut de section - PermalienPhoto de André Gattolin

TikTok ne paye ni la taxe numérique ni la taxe sur les services vidéo, contrairement aux Gafam. Ce problème relève-t-il de l'Arcom ? Quelles sont les sanctions prévues ? Il est possible de résilier un contrat de diffusion d'une chaîne de télévision ou de radio, mais que faire face aux acteurs de l'internet et des réseaux sociaux qui ne respectent pas leurs obligations minimales ?

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

Je ne suis pas en mesure de formuler une réponse précise sur le plan juridique. En tant qu'héritière de la Haute Autorité pour la diffusion des oeuvres et la protection des droits sur internet (Hadopi), l'Arcom favorise la médiation afin de régler les problèmes.

Le pouvoir de sanction des plateformes est réparti entre la Commission européenne et les régulateurs des États membres, selon la gravité et l'étendue des faits. La Commission a ainsi dressé des amendes d'un montant record contre les grandes plateformes américaines. Les régulateurs nationaux pourront exercer leur pouvoir de sanction contre des acteurs installés en France, y compris à la demande de régulateurs d'autres pays européens. Le règlement européen facilite cette mise en réseau. La plateforme française Yubo, peu connue dans notre pays, rencontre un grand succès dans les pays anglo-saxons. Nous nous préparons à recevoir des demandes d'autres régulateurs, dont nous devrons assurer le traitement. Nous avons ainsi tiré les leçons des imperfections du RGPD.

Debut de section - PermalienPhoto de Claude Malhuret

Vous n'avez pas répondu à ma question portant sur la vérification de l'âge des utilisateurs. Cette vaste question ne concerne pas que TikTok. Je pense à un épisode malheureux pour l'Arcom, qui n'a pas obtenu satisfaction après sa plainte contre les sites pornographiques. Où en est la procédure juridique ?

Quelles sont les mesures de contrôle de l'âge ? Selon des associations de parents d'élèves, certains enfants de 8 ans passent leur nuit sur TikTok. Avez-vous évoqué ce sujet lors de la réunion du lundi 13 mars, et obtenu des engagements de la part des représentants de TikTok ?

Les interfaces de programmation d'application (API) sont importantes et nécessaires pour lancer le débat auprès du grand public, au-delà des seuls spécialistes. TikTok s'est-il engagé sur le sujet ? Quel est le calendrier d'application de mise en oeuvre du RSN en France, notamment sur ce sujet ?

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

On voit tout l'intérêt de se saisir de la régulation des médias algorithmiques à l'Arcom, qui traite des médias audiovisuels. Il n'existe qu'un seul espace informationnel dans lequel se forment l'information et l'opinion publique, mais deux moteurs : les médias éditorialisés et les médias algorithmiques.

Je suis le vice-président d'un groupe de travail sur la santé publique présidé par ma collègue Bénédicte Lesage. Nous demandons aux médias audiovisuels d'être plus responsables sur les chartes alimentaires et d'en faire plus ; ils se plaignent que nous demandions beaucoup aux médias traditionnels, et rien aux plateformes numériques. Cela se fera grâce au règlement sur les services numériques. Nous pourrons leur dire que nous avons identifié un risque systémique et qu'ils ont pris des engagements. Nos données montrent à quel point la durée d'écoute individuelle des médias audiovisuels baisse, surtout chez les jeunes. Or ceux-ci passent toujours plus de temps sur les écrans : ils écoutent ou regardent donc autre chose. Nous allons pouvoir avoir une approche globale, intégrée. Les équipes de l'Arcom qui travaillent sur ces sujets transverses de cohésion sociale pourront travailler sur les deux familles de médias pour une meilleure efficacité.

Nous ne sommes pas armés juridiquement pour le contrôle de l'âge. Les limites d'âge ne sont jamais respectées. C'est vieux comme le monde de transgresser ces limites, mais l'objectif reste pertinent.

Debut de section - PermalienPhoto de André Gattolin

Un enfant qui achète du tabac se fait repérer.

Debut de section - Permalien
Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique

On ne vous la demande pas toujours, mais il faut avancer. Il va falloir identifier un risque systémique sur toutes ces plateformes : la mise en danger des mineurs. Nous aurons ainsi le support juridique nécessaire pour leur dire que le statu quo n'est pas possible, et leur demander ce qu'elles proposent. Il n'y a pas de solution miracle. Mieux caractériser l'âge des jeunes, c'est aussi mieux caractériser l'âge des adultes ; la pièce est à deux faces. Nous buterons alors sur d'autres difficultés, mais il faut progresser. On ne peut laisser filer l'usage. Nous sommes convaincus que des solutions peuvent exister.

Il faut réussir la généralisation et la montée en puissance. Nous demandons aux médias audiovisuels de nous aider à mieux faire savoir, de communiquer... Près de 98 % des terminaux utilisent deux systèmes exploitation : iOS d'Apple et Android de Google. Sur ces deux systèmes, il existe des systèmes de contrôle parental extrêmement sophistiqués, avec une ergonomie qui a fait des progrès phénoménaux, mais qui sont peu utilisés. Le premier enjeu, c'est de mobiliser et de susciter l'usage. Nous devons travailler avec des réseaux d'associations de parents d'élèves, de collectivités territoriales, pour provoquer l'adhésion. La culture américaine est très forte pour livrer des résultats, tandis que la culture européenne est excellente pour concevoir des systèmes puissants. Nous devons nous retrousser les manches pour mobiliser ces outils.

Debut de section - PermalienPhoto de Mickaël Vallet

Merci pour cet exposé très intéressant. Je vous félicite d'avoir aussi peu pratiqué d'anglicismes dans un domaine où cela ne doit pas être évident...

La réunion est close à 12 h 25.

Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.