Intervention de Marc Faddoul

Commission d'enquête Tiktok — Réunion du 13 mars 2023 à 17h05
Audition de M. Marc Faddoul chercheur en intelligence artificielle et directeur de al forensics

Marc Faddoul, président de Al Forensics :

Le DSA fait référence à la modération de contenus, beaucoup moins aux recommandations algorithmiques, sauf pour demander aux plateformes d'évaluer les risques systémiques pour la société de ces recommandations. Le DSA demande ensuite aux plateformes de mettre en place des interfaces de données, ouvrant un accès aux chercheurs à certaines conditions, mais sans préciser quelles données devront être accessibles, le texte n'est pas clair sur les données qui seront effectivement mises à disposition. Il y a actuellement une discussion au sein de la Commission européenne sur les actes délégués, qui vont préciser l'application de ces articles. Les plateformes ont été invitées à participer à un groupe de travail sur le code de bonnes pratiques contre la désinformation, où seront écrites les règles qui, si elles sont respectées, indiqueront que le DSA est respecté. Ces éléments précis restent à définir et mon association se bat sur plusieurs points, en particulier pour définir ce que nous appelons le reach, c'est-à-dire la quantité et la qualité des utilisateurs qui peuvent être touchés par un certain contenu - il faut pouvoir savoir directement quelles personnes sont touchées par des contenus qui procèdent d'une ingérence politique étrangère ou qui désinforment et quelles sont leurs caractéristiques. Ces éléments sont encore flous, ils ne sont pas fixés par le Règlement, et les plateformes se défendent âprement, pour limiter leurs réponses aux demandes de la société civile.

Ne connaissant pas précisément les relations entre la Commission européenne et la direction de TikTok, je préfère ne pas répondre à votre question sur l'échange qu'elles ont eu récemment.

S'agissant du contenu qui est « poussé » par une intervention humaine sur la plateforme, nous savons que cela existe mais nous n'en connaissons pas l'échelle. Une fuite récente d'un document interne de TikTok évoque une proportion de 1 à 2 % de vues faites sur des vidéos manuellement amplifiées - l'entreprise parle de « hitting » -, pour mettre en avant des contenus jugés valorisants pour la plateforme et influencer « la culture » de l'algorithme, c'est considérable. Nous n'avons pas de preuve que cela concerne du contenu politique, mais la fonctionnalité existe. Ce qui est inquiétant aussi, c'est qu'un grand nombre d'employés pourraient agir sur ce levier, alors qu'ils peuvent être eux-mêmes influencés de l'extérieur.

La censure est difficile à évaluer de l'extérieur, d'autant plus qu'il faut y intégrer l'incidence de l'algorithme de recommandation : la modération écarte du contenu puis l'algorithme de recommandation en tient compte et il écarte à son tour des contenus similaires. Un effet de second ordre de rétrogradation algorithmique, que l'on appelle shadow banning, peut se produire. Cette tendance crée une « zone grise » de contenus qui ne sont pas illégaux mais ont tendance à moins sortir dans les résultats algorithmiques, un phénomène que dénoncent notamment les associations de la communauté LGBT, qui montrent que leurs contenus sont moins recommandés, probablement parce qu'ils emploient des mots similaires à ceux utilisés dans des contenus à caractère sexuel qui sont plus retirés. C'est une forme de censure par similarité.

Enfin, je suis absolument d'accord avec vous sur le fait qu'une plateforme devient un éditeur : l'algorithme de YouTube, par exemple, a plus de pouvoir éditorial sur la circulation d'information que sans doute les grands journaux américains ou français. C'est d'autant plus vrai sur les questions politiques car les plateformes, en réponse au fait qu'elles promouvraient des informations de faible qualité, amplifient les sources dites d'autorité, c'est-à-dire des journaux et médias reconnus comme crédibles, qui ont eux-mêmes une ligne éditoriale. Même le choix des thèmes qui reçoivent ce traitement d'informations présélectionnées ou préfiltrées constitue une édition. Cette distinction est essentielle puisque les plateformes sont protégées aux États-Unis par la section 230 - le Communications Decency Act (CDA) 230 -, qui les exonère de toute responsabilité sur le contenu posté par les utilisateurs sur leur plateforme.

Dans notre étude sur les plateformes pendant l'élection présidentielle française, nous avons comparé les stratégies de TikTok et YouTube. Alors que YouTube mettait en avant beaucoup d'informations dite d'autorité, c'est-à-dire de grands médias reconnus, TikTok promouvait davantage du contenu provenant d'utilisateurs.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion