Depuis la loi de 2018 relative à la lutte contre la manipulation de l'information, l'Arcom s'est vu confier, en plus de ses missions de régulateur de l'audiovisuel, la mission de réguler les plateformes numériques de partage de contenus, dont le vif succès s'accompagne de certains débordements, qui suscitent des questions sur le fonctionnement de notre démocratie.
Nous avons dressé en novembre dernier un bilan de l'application de la loi sur la manipulation de l'information, montré les acquis de notre législation et ses limites, et épinglé la société TikTok.
Le législateur, en créant le devoir de coopération des grandes plateformes et en leur imposant de participer à la lutte contre la manipulation de l'information, a suscité une dynamique. Nous sommes mieux armés pour faire face aux risques informationnels ou d'interférences étrangères, notamment dans les processus électoraux. Nous avons ainsi pu préparer la dernière élection présidentielle, avec le Conseil constitutionnel et les plateformes, pour pouvoir répondre en cas de problème, mais la menace ne s'est pas avérée. Est-ce en raison du déclenchement de la guerre en Ukraine ? En tout cas, nous étions prêts. La désignation d'une autorité publique comme point de référence a facilité l'action des plateformes. Nous les avons préparées à la mise en place de la Commission nationale de contrôle de la campagne électorale en vue de l'élection présidentielle (CNCCEP), à travailler et à échanger avec le Conseil constitutionnel.
La loi exige que les plateformes s'engagent dans la lutte contre les manipulations de l'information, prennent des mesures proactives et, point crucial, les rendent transparentes, afin que tout le monde puisse en prendre connaissance et comprendre ce que font les plateformes. Il s'agit de renforcer la confiance. Dans ce cadre, chaque année, l'Arcom adresse un questionnaire aux opérateurs de plateformes en ligne. Pour la première fois, l'obligation s'appliquait à TikTok, parce qu'auparavant l'entreprise n'avait pas franchi les seuils qui la soumettaient à cette obligation. À sa décharge, c'était donc la première fois que la plateforme était soumise à cet exercice.
Nous avons reçu beaucoup de réponses incomplètes à nos questions de la part de l'ensemble des plateformes, mais les manques étaient beaucoup plus nombreux pour TikTok. C'est pour cette raison que nous avons choisi de les épingler publiquement. Notre rapport indique que la « déclaration est particulièrement imprécise avec peu d'informations relatives au service en France et aucun élément tangible permettant une évaluation des moyens mis en place ». Nous déplorons que le dispositif de signalement soit accessible mais peu visible - il est accessible via une icône en forme de flèche symbolisant le repartage du contenu.
L'entreprise a développé une politique de signalement des « médias contrôlés par un État », mais la mise en oeuvre de cette règle est sélective : si les chaînes ukrainiennes contrôlées par l'État ukrainien étaient étiquetées, le compte de China Global Television Network Europe (CGTN Europe), contrôlé par l'État chinois, n'était pas identifié comme tel.
TikTok n'a pas répondu pleinement à notre questionnaire. La société est jeune et semble être encore dans un processus de construction et de mise en oeuvre de sa politique de modération. Toutefois, ses imprécisions nous semblaient poser un problème, et c'est pour cela que nous les avons rendues publiques.
La transparence s'est avérée efficace, car l'entreprise est revenue vers nous très vite pour nous dire qu'elle avait corrigé son erreur, et qu'elle avait désormais étiqueté les chaînes de CGTN.
Les plateformes ont une activité de trust and safety, de confiance et de sécurité : il s'agit pour l'entreprise de veiller à l'intégrité du réseau, à l'absence de troubles sur la plateforme, à ce que les usagers ne soient pas en danger. Historiquement, les plateformes ont développé cette activité de manière volontaire, comme une forme d'engagement au titre de la responsabilité sociale et environnementale (RSE) de l'entreprise. TikTok n'a pas mis autant d'énergie à développer cette activité qu'elle n'en a mis pour assurer sa croissance commerciale.
L'exercice que nous avons mené en novembre a montré tout l'intérêt des lois françaises, comme leurs limites. Parmi ces dernières, on note que nous n'avons pas de capacité à exiger la transparence. Nos lois datent de 2018 en France, de 2019 en Allemagne (loi NetzDG sur la haine en ligne). La France a adopté une loi en 2020 visant à lutter contre les contenus haineux sur internet, qui a été partiellement censurée par le Conseil constitutionnel, mais qui a mis en place un observatoire des plateformes, qui a prouvé son utilité comme lieu de discussion avec toutes les parties prenantes, et un pôle national de lutte contre la haine en ligne.
Ces lois ont permis aux pouvoirs publics d'acquérir un savoir-faire, une capacité d'action institutionnelle, de créer une dynamique, et maintenant nous pouvons être plus ambitieux. Nous sommes maintenant en train de basculer dans une logique de préfiguration de la mise en oeuvre du règlement européen sur les services numériques (RSN) ou Digital Services Act (DSA), qui permettra d'aller beaucoup plus loin dans la responsabilisation des grandes plateformes.
L'activité de confiance et de sécurité va devenir une exigence légale, sous le contrôle des régulateurs et des pouvoirs publics. Le but est en fait de permettre à tout le monde de participer à l'exercice de responsabilisation des plateformes, car les problèmes posés par les réseaux sociaux, qu'il s'agisse de l'incitation à la haine en ligne, de la mise en danger des publics, des mineurs ou encore du développement des addictionsconcernent en fait tout le monde. La régulation telle qu'elle est conçue dans le cadre du RSN vise à permettre à chacun de se saisir de ces sujets. Il s'agit de pouvoir agir collectivement, mais aussi de maintenir la confiance.
Ces plateformes sont au coeur du fonctionnement de nos démocraties. Elles permettent d'étendre notre capacité à exercer notre liberté d'expression, et c'est ce qui fait aussi leur succès populaire ; mais ces nouvelles libertés appellent de nouvelles responsabilités. Le cadre européen renforce sensiblement la responsabilité des grandes plateformes numériques, vise à permettre la mobilisation des usagers et à les responsabiliser, car ces derniers font partie à la fois de la solution et du problème. C'est l'enjeu de la construction d'une citoyenneté numérique.