Intervention de Marc Faddoul

Commission d'enquête Tiktok — Réunion du 13 mars 2023 à 17h05
Audition de M. Marc Faddoul chercheur en intelligence artificielle et directeur de al forensics

Marc Faddoul, président de Al Forensics :

Je salue l'initiative de votre commission, elle arrive à point nommé.

Souvent, le débat sur les réseaux sociaux et l'influence qu'ils exercent sur le débat public se focalise sur la modération de contenu : on se demande quels posts ou vidéos sont retirés ou supprimés, quels utilisateurs sont bloqués ; c'est certes important, et la modération joue un rôle critique dans l'arbitrage des contenus, mais ce rôle est minimal au regard de l'influence des algorithmes de recommandation, qui font que des posts et vidéos vont être, ou non, présentés en priorité à des millions d'utilisateurs. La modération du contenu est donc la partie émergée de l'iceberg, quand la promotion et la rétrogradation algorithmiques - qu'on appelle parfois le shadow banning - ont un impact bien plus important.

Les algorithmes sont vraiment les gardiens de l'information en ligne. C'est le cas, lorsque Google trie nos résultats de recherche, lorsque YouTube et Netflix personnalisent notre page d'accueil, lorsque Instagram ou Twitter font la « curation » de notre fil d'actualité, ou encore lorsque TikTok choisit les vidéos à nous présenter, avec le fameux feed « ForYou » qui est l'interface principale de l'application. Le rôle des algorithmes dans la distribution du contenu en ligne n'est pas nouveau, mais il s'est considérablement accru sur TikTok - ce qui a entrainé une prise de conscience de l'importance de l'algorithme et du fait qu'il est au centre de l'expérience utilisateur, tout en étant malheureusement opaque.

L'association Al Forensics a précisément pour mission de lever cette opacité : nous analysons ces systèmes de recommandation, pour s'assurer que les plateformes soient tenues responsables de leurs actions face à leurs utilisateurs, et devant la loi. Ces efforts de transparence ne sont pas faciles à mettre en place, d'abord parce que les données nécessaires à l'analyse ne sont pas disponibles, ou pas facilement.

La nouvelle législation européenne, le Digital Service Act (DSA) donne de l'espoir, grâce à des mesures qui vont obliger les plateformes à mettre en place des mécanismes de partage de données avec les chercheurs et la société civile. Il sera possible de réaliser des audits en coopération avec les plateformes, notamment via des Digital Service Coordinators (DSC), rôle qui sera sans doute joué par l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Nous mettons beaucoup d'espoir dans ces nouvelles procédures, dont les détails restent à déterminer. Cependant, leur cadre apparait déjà limité et elles ne remplaceront pas le besoin d'auditeurs collectant la donnée de manière indépendante, donc sans attendre l'autorisation des plateformes - ce besoin va rester nécessaire, ne serait-ce que pour garantir l'intégrité des données.

La plupart des critiques et suspicions envers TikTok peuvent concerner toutes les autres plateformes : l'opacité des algorithmes, le design addictif, la collecte intrusive de données personnelles à des fins de publicité ciblée, les biais introduits par les contenus polarisants et sensationnalistes. Les différences entre TikTok et les autres plateformes sont minces en termes de design algorithmique et de collecte de données, hormis la fréquence de collecte des données qui est plus rapide sur TikTok en raison de la courte durée des vidéos, on y reviendra. Toutes ces entreprises ont en commun de placer au premier plan l'objectif de gain financier. On voit parfois de l'intention, là où il n'y a que de la vénalité, qui peut se mêler à de l'incompétence... En réalité, TikTok, comme les autres, cherche à faire de l'argent, et pas de la politique. Les dérives algorithmiques, telles que la promotion disproportionnée de contenu polarisant ou de désinformation, sont avant tout une conséquence du design algorithmique qui cherche à maximiser l'engagement : les contenus les plus provocateurs ayant tendance à générer plus de réactions d'approbation ou de rejet, et donc de commentaires, l'algorithme les met d'autant plus en avant qu'il vise lui-même à maintenir la présence de l'utilisateur sur la plateforme.

TikTok est une entreprise relativement « jeune », et d'après les informations que j'en ai de l'intérieur, elle reste débordée par sa propre croissance et n'investit pas suffisamment dans la modération et la sécurité de ses utilisateurs - son équipe Trust and Safety est particulièrement petite -, ceci pour conserver des marges élevées ; elle n'anticiperait donc pas suffisamment les problèmes, les équipes produits pousseraient les nouvelles fonctionnalités avant qu'elles ne soient bien testées et que leurs conséquences ne soient bien évaluées, tandis que la modération serait toujours insuffisante, et toujours faite sous la contrainte.

De fait, la modération coûte cher et provoque toujours plus de polémiques qu'elle n'apporte de revenus ; la qualité de la modération est presque toujours proportionnelle à la force et à l'influence de la pression régulatrice, d'où son importance. Et si la modération laisse encore à désirer aux États-Unis et en Europe, la situation est bien pire en Afrique ou au Moyen-Orient, où les risques de déstabilisations sont pourtant encore plus élevés.

Pour TikTok, comme pour les autres plateformes, l'appât du gain est la cause de de la plupart des maux. TikTok est donc plutôt un mauvais élève, mais pas fondamentalement différent des plateformes américaines. Les critiques que l'on peut adresser plus spécifiquement à TikTok tiennent surtout à l'origine chinoise de l'entreprise, et aux liens que cela suppose nécessairement avec le parti communiste chinois. Des documents ayant fuité en 2020 montrent qu'à un moment donné, les modérateurs de la plateforme avaient pour instruction de censurer certains thèmes politiques sensibles pour le parti communiste chinois, par exemple toute référence aux manifestations de la place Tian'anmen. Le régime de Xi Jinping a démontré à plusieurs reprises qu'il contrôlait l'écosystème technologique d'une main de fer. On se souvient notamment de la disparition durant plusieurs mois de Jack Ma, le fondateur d'AliBaba, qui sortait un peu trop des rangs sur certaines de ses positions. Le fait que TikTok, parce qu'elle est une entreprise chinoise, doive répondre aux demandes d'un gouvernement autoritaire, constitue une distinction importante ; mais les mécanismes de dépendance à la plateforme sont similaires à ceux des plateformes américaines.

C'est pourquoi, je recommande que les exigences de transparence et les réponses en termes de régulation vaillent pour toutes les plateformes, plutôt que de viser TikTok en particulier. Depuis son rachat par Elon Musk, par exemple, Twitter montre plus de signes de manipulation algorithmique intentionnelle et de risque d'influence et d'ingérence politique que TikTok.

Je félicite votre commission de prendre au sérieux la question de TikTok, et de notre dépendance technologique. Nous devons défendre notre souveraineté digitale de manière systématique, et en continuant à nous appuyer sur les institutions européennes, où la régulation des technologies a été un réel succès ces dernières années, car l'Union Européenne a été en mesure d'imposer ses standards dans l'industrie à l'échelle mondiale.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion