Intervention de Benoit Loutrel

Commission d'enquête Tiktok — Réunion du 16 mars 2023 à 11h00
Audition de M. Benoît Loutrel membre de l'autorité de régulation de la communication audiovisuelle et numérique arcom

Benoit Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique :

Oui, mais cela n'arrête pas certains médias complotistes. Ainsi M. Prigojine construit de fausses informations en créant un site web et la responsabilité de directeur de la publication ne suffit pas à l'arrêter.

En réalité, une autre forme de régulation est fondée sur la transparence. Ainsi, tous les médias se critiquent et se surveillent entre eux ; toutes les universités françaises ont un département de sciences de l'information, de sciences politiques ou de sciences sociales analysant le fonctionnement de l'écosystème médiatique, ce qui engendre des cordes de rappel. C'est ce que nous devons recréer.

Actuellement, il existe une asymétrie d'information bien trop forte par rapport à ces plateformes sur la réalité de ce qu'elles font. Cette transparence, facile à exiger des « médias éditorialisés », est très dure à construire dans le cas de « médias algorithmiques », car ils traitent l'information à grande échelle et en individualisant le contenu. Ainsi, je peux consulter mon compte TikTok, mais cela ne me dit pas ce qui figure sur le vôtre, car ce que je vois est le résultat d'une série de traitements algorithmiques individualisés à partir des informations qu'ils détiennent sur moi. Si nous voulons comprendre ce que les plateformes font, nous devons comprendre comment leurs algorithmes sculptent l'information. Ainsi, selon une version optimiste de la situation, leurs traitements de l'information pourraient par exemple mettre en avant les contenus renforçant la prise de conscience de la nécessité de gérer la transition écologique. La version négative est qu'ils peuvent faire l'inverse. Nous devons détruire cette asymétrie d'information.

Grâce au règlement européen sur les services numériques (RSN), nous allons pouvoir exiger une « transparence sortante », c'est-à-dire révéler une information en leur possession concernant l'intention mise dans leurs algorithmes, mais aussi une « transparence entrante », où de l'extérieur nous pourrons révéler des informations qu'ils n'ont pas - leurs algorithmes ont-ils des effets non intentionnels ? - ou des éléments qu'ils essaient de nous cacher.

Les travaux de Marc Faddoul ont fourni un exemple formidable. Sans coopération de la plateforme, il a développé des travaux d'observation qui montrent ses comportements. Des biais algorithmiques peuvent être révélés : par exemple, des algorithmes qui poussent des contenus augmentant les problèmes d'obésité en France. Cela fait partie du modèle de régulation. C'est cela qu'il faut arriver à passer également à l'échelle, ce qui signifie que, dans toutes les universités, les départements de sciences politiques, de sciences sociales ou de sciences de l'information, dans le cadre de travaux interdisciplinaires, se saisissent de ces sujets pour révéler où sont les risques et évaluer collectivement la pertinence des réponses de ces plateformes. C'est l'enjeu le plus fort. C'est ce que nous martelons à TikTok. Ses représentants sont venus nous annoncer la mise en place d'un programme d'accès des chercheurs aux données. Nous leur avons demandé où était l'information sur ce sujet, si elle était rendue publique, quels étaient les laboratoires qui pouvaient s'en saisir, s'ils pourront mener des recherches de façon indépendante. En raison de leur importance, nous nous sommes saisis de ces sujets avant même l'adoption du RSN. L'Arcom a lancé une consultation publique sur l'accès des chercheurs aux données des grandes plateformes en juillet dernier, alors que le règlement n'était pas encore adopté, mais nous connaissions le contenu de l'accord politique. Tout un travail de mobilisation est à réaliser. Nous sommes en train d'armer une mécanique très puissante, car elle est décentralisée dans nos démocraties.

Vous me demandez s'il s'agit d'une personne morale contrôlée au sens du code du commerce. Nous n'avons pas répondu à la question en tant que tel, car, selon nous, elle n'a pas de conséquences dans le cadre juridique actuel. Cependant, que ce contrôle soit réel ou fantasmé, il a quasiment le même effet, puisqu'un effort supplémentaire de TikTok par rapport à d'autres plateformes sera nécessaire pour recréer la confiance légitime. Nous avons essayé de leur faire comprendre. Comme nous l'avons déclaré en conférence de presse, le statu quo est impossible. TikTok a un retard de jeunesse, un retard culturel - comme l'indiquait les représentants de l'entreprise lundi soir -, car elle n'est pas encore cotée en bourse et donc elle n'est pas habituée à ces obligations de transparence issues de la réglementation des marchés financiers. Au-delà de ces raisons, cette entreprise n'a pas connu la même naissance que les grandes plateformes américaines, qui ont subi une forte pression de la société civile américaine lors de leur création.

Le RSN, comme la démarche européenne, a été construit sur l'impossibilité de se satisfaire de la démarche américaine constituée d'un socle juridique léger - la section 230, équivalent de la directive européenne sur le e-commerce - et d'une autorégulation exercée sous la pression de la société civile. Celle-ci a permis d'avoir un acquis énorme qui est absent pour TikTok. Ce régime européen qui vient d'être élaboré est encore plus nécessaire s'agissant de TikTok, afin de rattraper l'ensemble de ces retards de jeunesse et culturel. Cette suspicion peut éroder la confiance et justifie que la plateforme en fasse plus pour atteindre le niveau des plateformes comme Facebook, Twitter ou Instagram.

Sur la question portant sur l'identité du futur coordinateur de services numériques (CSN), ce choix sera formalisé au travers d'une loi votée par le Parlement et à l'initiative du Gouvernement. L'Arcom s'y prépare et est candidate. C'est le sens de l'ensemble des lois françaises votées depuis cinq ans. La France a été très engagée dans l'élaboration du RSN et l'Arcom se prépare à être le CSN. Dans le RSN, l'article 40 accorde un droit d'accès aux données des plateformes à des chercheurs qualifiés. Il s'agit d'une mécanique très puissante, qui sera compliquée à mettre en oeuvre, car elle devra être articulée avec le droit à la protection privée et avec le règlement général de la protection des données (RGPD). Depuis un an, nous travaillons avec la Commission nationale de l'informatique et des libertés (Cnil) à la mobilisation des équipes de recherche avec l'espoir que la France soit à l'avant-garde de la mise en oeuvre du RSN. Ce règlement sur les services numériques donnera une puissance bien plus forte et laisse de l'espace à l'engagement de chaque pays.

Toute une série d'inquiétudes, légitimes, apparaîtront au sujet des plateformes, en raison des enquêtes journalistiques ou des travaux de recherche médicale, ou sur la manipulation de l'information. Dans le cadre de la construction du RSN, c'est ce qu'on appelle un risque systémique. Le RSN identifie le risque systémique de manipulation de l'information. Pour les très grandes plateformes, comme TikTok, ce règlement exige qu'elles identifient leurs risques systémiques et qu'elles les rendent publiques, qu'elles élaborent des plans de réduction des risques, les rendent publiques et les soumettent à des audits pour vérifier leur mise en oeuvre. En outre, par le biais de l'accès des chercheurs aux données, elles doivent se soumettre à des évaluations indépendantes. Ce système est itératif. La dynamique du RSN est de construire une capacité d'adaptation aux problèmes du futur, justement pour ne pas courir après les problèmes et disposer de lois pouvant s'adapter. C'est pourquoi un réseau de régulateurs y a été introduit pour activer et utiliser cette boîte à outils.

Des exercices itératifs auront lieu. Les premiers seront décevants. Les risques auront été identifiés, la dynamique se lancera, les régulateurs s'engageront... Le terme de « coordinateur pour les services numériques » a été introduit afin de souligner que le régulateur veillera à la participation de tous à ces exercices et à la critique de ces efforts. Le but n'est pas d'imposer des sanctions, mais de modifier les comportements. La plateforme semble déjà sentir le vent du boulet européen et annonce qu'elle mettra en place des outils de réduction du temps d'écran. Nous avons les mêmes questions que vous : les annonces ne valent rien, il faut des éléments tangibles. Ces dynamiques positives commencent à se mettre en place. L'Arcom se prépare à cela.

Sur les situations américaine et européenne, je ne sais pas si elles sont comparables. Jusqu'à récemment, c'était le cas, au sens où l'Union européenne et les États-Unis avaient mis en place un régime juridique propice au développement des plateformes. Il s'agit de la directive sur le e-commerce, avec son régime de responsabilité limitée à raison des contenus, et de son équivalent américain, la section 230. Cependant, les deux continents divergent s'agissant de la dynamique politique. La dynamique politique aux États-Unis est bloquée sur la section 230 et tous les acteurs interrogés témoignent de l'impossibilité d'adopter une grande loi. En revanche, l'Europe a voté ce règlement sur les services numériques. Des efforts sont engagés depuis les pays d'Amérique du Nord pour nous aider à réussir la mise en oeuvre de ce règlement, car ils sont en train d'en percevoir le potentiel.

Une question n'a pas été posée à Marc Faddoul lundi. Il s'agit de celle portant sur le mode de financement de ses travaux. La réponse est qu'ils sont en partie financés par des fondations américaines. Un enjeu très important a trait aux moyens de réussir la mise en oeuvre du RSN. Une loi est d'abord nécessaire pour régler la partie institutionnelle en France. Il faudra également déterminer comment lancer des programmes de financements de la recherche publique, comment relancer des programmes multidisciplinaires dans toutes les universités françaises afin de se saisir de ces sujets. Beaucoup de sujets sont liés à nos usages du numérique, qu'il est nécessaire de mieux comprendre pour créer un nouveau sentiment de citoyenneté numérique des usagers et pour répondre aux nouvelles demandes issues de la découverte de nouveaux risques systémiques.

Actuellement, la question porte sur les moyens de multiplier les travaux mis par exemple en oeuvre par Marc Faddoul, le Médialab de Sciences Po à Paris, par les équipes de Lille que je rencontrerai dans une semaine, par celles de l'université Aix-Marseille... Ces travaux interdisciplinaires, qui croisent des recherches en santé publique, en sciences de l'information et en sociologie, devront être financés. Il faut stimuler et utiliser le potentiel de nos universités, où résident des jeunes et des cerveaux capables de s'approprier ces technologies numériques et d'intelligence artificielle.

Aujourd'hui, le règlement qui a été voté est très puissant. La question est de savoir à quelle vitesse les institutions seront construites et dotées d'hommes et de femmes pour les mettre en oeuvre. Mobiliser les chercheurs est un enjeu opportuniste, car il permet de mobiliser également leurs étudiants, afin que tous s'engagent dans la mise en oeuvre de ce règlement.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion