Commission d'enquête Tiktok

Réunion du 13 mars 2023 à 17h05

Résumé de la réunion

Les mots clés de cette réunion

  • algorithme
  • contenu
  • est-ce
  • pensez-vous
  • plateforme
  • réseaux
  • sont-elles
  • tiktok
  • utilisateurs

La réunion

Source

Debut de section - PermalienPhoto de Mickaël Vallet

Nous commençons nos travaux par l'audition de Marc Faddoul, chercheur en intelligence artificielle et directeur de l'association Al Forensics.

Vous avez notamment mené des recherches à l'université de Berkeley et au sein de Facebook AI. Vous êtes aussi directeur de Tracking Exposed, une organisation qui étudie l'influence des algorithmes des réseaux sociaux sur nos vies. Vous avez d'abord créé des algorithmes avant de mettre vos connaissances au service de ceux qui travaillent sur leur impact sur la société, notamment sur les plans politique et géopolitique.

Dans ce cadre, vous avez travaillé sur plusieurs réseaux sociaux dont TikTok, c'est pourquoi nous avons choisi de vous entendre aujourd'hui pour entrer directement dans le vif du sujet. Vous pourrez ainsi évoquer les caractéristiques de cet algorithme de TikTok ainsi que la manière dont, éventuellement, ce réseau social favorise certains types de désinformation. Vous aborderez également sans doute la question de la différenciation des contenus proposés par cette application selon les pays, et notamment se poser la question de la censure.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat. Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête. Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».

M. Marc Faddoul prête serment.

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

Je salue l'initiative de votre commission, elle arrive à point nommé.

Souvent, le débat sur les réseaux sociaux et l'influence qu'ils exercent sur le débat public se focalise sur la modération de contenu : on se demande quels posts ou vidéos sont retirés ou supprimés, quels utilisateurs sont bloqués ; c'est certes important, et la modération joue un rôle critique dans l'arbitrage des contenus, mais ce rôle est minimal au regard de l'influence des algorithmes de recommandation, qui font que des posts et vidéos vont être, ou non, présentés en priorité à des millions d'utilisateurs. La modération du contenu est donc la partie émergée de l'iceberg, quand la promotion et la rétrogradation algorithmiques - qu'on appelle parfois le shadow banning - ont un impact bien plus important.

Les algorithmes sont vraiment les gardiens de l'information en ligne. C'est le cas, lorsque Google trie nos résultats de recherche, lorsque YouTube et Netflix personnalisent notre page d'accueil, lorsque Instagram ou Twitter font la « curation » de notre fil d'actualité, ou encore lorsque TikTok choisit les vidéos à nous présenter, avec le fameux feed « ForYou » qui est l'interface principale de l'application. Le rôle des algorithmes dans la distribution du contenu en ligne n'est pas nouveau, mais il s'est considérablement accru sur TikTok - ce qui a entrainé une prise de conscience de l'importance de l'algorithme et du fait qu'il est au centre de l'expérience utilisateur, tout en étant malheureusement opaque.

L'association Al Forensics a précisément pour mission de lever cette opacité : nous analysons ces systèmes de recommandation, pour s'assurer que les plateformes soient tenues responsables de leurs actions face à leurs utilisateurs, et devant la loi. Ces efforts de transparence ne sont pas faciles à mettre en place, d'abord parce que les données nécessaires à l'analyse ne sont pas disponibles, ou pas facilement.

La nouvelle législation européenne, le Digital Service Act (DSA) donne de l'espoir, grâce à des mesures qui vont obliger les plateformes à mettre en place des mécanismes de partage de données avec les chercheurs et la société civile. Il sera possible de réaliser des audits en coopération avec les plateformes, notamment via des Digital Service Coordinators (DSC), rôle qui sera sans doute joué par l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Nous mettons beaucoup d'espoir dans ces nouvelles procédures, dont les détails restent à déterminer. Cependant, leur cadre apparait déjà limité et elles ne remplaceront pas le besoin d'auditeurs collectant la donnée de manière indépendante, donc sans attendre l'autorisation des plateformes - ce besoin va rester nécessaire, ne serait-ce que pour garantir l'intégrité des données.

La plupart des critiques et suspicions envers TikTok peuvent concerner toutes les autres plateformes : l'opacité des algorithmes, le design addictif, la collecte intrusive de données personnelles à des fins de publicité ciblée, les biais introduits par les contenus polarisants et sensationnalistes. Les différences entre TikTok et les autres plateformes sont minces en termes de design algorithmique et de collecte de données, hormis la fréquence de collecte des données qui est plus rapide sur TikTok en raison de la courte durée des vidéos, on y reviendra. Toutes ces entreprises ont en commun de placer au premier plan l'objectif de gain financier. On voit parfois de l'intention, là où il n'y a que de la vénalité, qui peut se mêler à de l'incompétence... En réalité, TikTok, comme les autres, cherche à faire de l'argent, et pas de la politique. Les dérives algorithmiques, telles que la promotion disproportionnée de contenu polarisant ou de désinformation, sont avant tout une conséquence du design algorithmique qui cherche à maximiser l'engagement : les contenus les plus provocateurs ayant tendance à générer plus de réactions d'approbation ou de rejet, et donc de commentaires, l'algorithme les met d'autant plus en avant qu'il vise lui-même à maintenir la présence de l'utilisateur sur la plateforme.

TikTok est une entreprise relativement « jeune », et d'après les informations que j'en ai de l'intérieur, elle reste débordée par sa propre croissance et n'investit pas suffisamment dans la modération et la sécurité de ses utilisateurs - son équipe Trust and Safety est particulièrement petite -, ceci pour conserver des marges élevées ; elle n'anticiperait donc pas suffisamment les problèmes, les équipes produits pousseraient les nouvelles fonctionnalités avant qu'elles ne soient bien testées et que leurs conséquences ne soient bien évaluées, tandis que la modération serait toujours insuffisante, et toujours faite sous la contrainte.

De fait, la modération coûte cher et provoque toujours plus de polémiques qu'elle n'apporte de revenus ; la qualité de la modération est presque toujours proportionnelle à la force et à l'influence de la pression régulatrice, d'où son importance. Et si la modération laisse encore à désirer aux États-Unis et en Europe, la situation est bien pire en Afrique ou au Moyen-Orient, où les risques de déstabilisations sont pourtant encore plus élevés.

Pour TikTok, comme pour les autres plateformes, l'appât du gain est la cause de de la plupart des maux. TikTok est donc plutôt un mauvais élève, mais pas fondamentalement différent des plateformes américaines. Les critiques que l'on peut adresser plus spécifiquement à TikTok tiennent surtout à l'origine chinoise de l'entreprise, et aux liens que cela suppose nécessairement avec le parti communiste chinois. Des documents ayant fuité en 2020 montrent qu'à un moment donné, les modérateurs de la plateforme avaient pour instruction de censurer certains thèmes politiques sensibles pour le parti communiste chinois, par exemple toute référence aux manifestations de la place Tian'anmen. Le régime de Xi Jinping a démontré à plusieurs reprises qu'il contrôlait l'écosystème technologique d'une main de fer. On se souvient notamment de la disparition durant plusieurs mois de Jack Ma, le fondateur d'AliBaba, qui sortait un peu trop des rangs sur certaines de ses positions. Le fait que TikTok, parce qu'elle est une entreprise chinoise, doive répondre aux demandes d'un gouvernement autoritaire, constitue une distinction importante ; mais les mécanismes de dépendance à la plateforme sont similaires à ceux des plateformes américaines.

C'est pourquoi, je recommande que les exigences de transparence et les réponses en termes de régulation vaillent pour toutes les plateformes, plutôt que de viser TikTok en particulier. Depuis son rachat par Elon Musk, par exemple, Twitter montre plus de signes de manipulation algorithmique intentionnelle et de risque d'influence et d'ingérence politique que TikTok.

Je félicite votre commission de prendre au sérieux la question de TikTok, et de notre dépendance technologique. Nous devons défendre notre souveraineté digitale de manière systématique, et en continuant à nous appuyer sur les institutions européennes, où la régulation des technologies a été un réel succès ces dernières années, car l'Union Européenne a été en mesure d'imposer ses standards dans l'industrie à l'échelle mondiale.

Debut de section - PermalienPhoto de Claude Malhuret

Merci pour votre concision. J'ai beaucoup de questions et je ne vous les poserai pas toutes d'emblée, pour laisser de l'espace à chacun des membres de la commission.

Vous dites que le DSA marque une avancée, c'est vrai en particulier avec l'installation de Digital services Coordinators (DSC), mais qu'il faut aller plus loin : quelles recommandations feriez-vous pour avancer, sur la question qui nous réunit ?

Savez-vous, ensuite, quelle a été la réponse du président de ByteDance Singapour aux remarques assez « cuisantes » des quatre commissaires européens sur les manques de modération et sur l'opacité de l'algorithme utilisé par TikTok ? Des délais lui ont-ils été fixés pour y remédier ?

Connaissez-vous quels sont les contenus amplifiés ou cachés par les « pousseurs », c'est-à-dire par des opérations humaines volontaires, et quelle est leur part par rapport à l'algorithme dans la promotion de contenus ou la censure ?

Enfin, le Sénat avait voté, contre l'avis du Gouvernement, mon amendement à la loi du 24 août 2021 confortant le respect des principes de la République, pour faire de l'hébergeur un éditeur de contenu dès lors qu'il met en place du contenu à partir d'algorithmes et qu'il imprime une ligne éditoriale à sa plateforme : que pensez-vous de cette piste, que l'Assemblée nationale a écartée ?

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

Le DSA fait référence à la modération de contenus, beaucoup moins aux recommandations algorithmiques, sauf pour demander aux plateformes d'évaluer les risques systémiques pour la société de ces recommandations. Le DSA demande ensuite aux plateformes de mettre en place des interfaces de données, ouvrant un accès aux chercheurs à certaines conditions, mais sans préciser quelles données devront être accessibles, le texte n'est pas clair sur les données qui seront effectivement mises à disposition. Il y a actuellement une discussion au sein de la Commission européenne sur les actes délégués, qui vont préciser l'application de ces articles. Les plateformes ont été invitées à participer à un groupe de travail sur le code de bonnes pratiques contre la désinformation, où seront écrites les règles qui, si elles sont respectées, indiqueront que le DSA est respecté. Ces éléments précis restent à définir et mon association se bat sur plusieurs points, en particulier pour définir ce que nous appelons le reach, c'est-à-dire la quantité et la qualité des utilisateurs qui peuvent être touchés par un certain contenu - il faut pouvoir savoir directement quelles personnes sont touchées par des contenus qui procèdent d'une ingérence politique étrangère ou qui désinforment et quelles sont leurs caractéristiques. Ces éléments sont encore flous, ils ne sont pas fixés par le Règlement, et les plateformes se défendent âprement, pour limiter leurs réponses aux demandes de la société civile.

Ne connaissant pas précisément les relations entre la Commission européenne et la direction de TikTok, je préfère ne pas répondre à votre question sur l'échange qu'elles ont eu récemment.

S'agissant du contenu qui est « poussé » par une intervention humaine sur la plateforme, nous savons que cela existe mais nous n'en connaissons pas l'échelle. Une fuite récente d'un document interne de TikTok évoque une proportion de 1 à 2 % de vues faites sur des vidéos manuellement amplifiées - l'entreprise parle de « hitting » -, pour mettre en avant des contenus jugés valorisants pour la plateforme et influencer « la culture » de l'algorithme, c'est considérable. Nous n'avons pas de preuve que cela concerne du contenu politique, mais la fonctionnalité existe. Ce qui est inquiétant aussi, c'est qu'un grand nombre d'employés pourraient agir sur ce levier, alors qu'ils peuvent être eux-mêmes influencés de l'extérieur.

La censure est difficile à évaluer de l'extérieur, d'autant plus qu'il faut y intégrer l'incidence de l'algorithme de recommandation : la modération écarte du contenu puis l'algorithme de recommandation en tient compte et il écarte à son tour des contenus similaires. Un effet de second ordre de rétrogradation algorithmique, que l'on appelle shadow banning, peut se produire. Cette tendance crée une « zone grise » de contenus qui ne sont pas illégaux mais ont tendance à moins sortir dans les résultats algorithmiques, un phénomène que dénoncent notamment les associations de la communauté LGBT, qui montrent que leurs contenus sont moins recommandés, probablement parce qu'ils emploient des mots similaires à ceux utilisés dans des contenus à caractère sexuel qui sont plus retirés. C'est une forme de censure par similarité.

Enfin, je suis absolument d'accord avec vous sur le fait qu'une plateforme devient un éditeur : l'algorithme de YouTube, par exemple, a plus de pouvoir éditorial sur la circulation d'information que sans doute les grands journaux américains ou français. C'est d'autant plus vrai sur les questions politiques car les plateformes, en réponse au fait qu'elles promouvraient des informations de faible qualité, amplifient les sources dites d'autorité, c'est-à-dire des journaux et médias reconnus comme crédibles, qui ont eux-mêmes une ligne éditoriale. Même le choix des thèmes qui reçoivent ce traitement d'informations présélectionnées ou préfiltrées constitue une édition. Cette distinction est essentielle puisque les plateformes sont protégées aux États-Unis par la section 230 - le Communications Decency Act (CDA) 230 -, qui les exonère de toute responsabilité sur le contenu posté par les utilisateurs sur leur plateforme.

Dans notre étude sur les plateformes pendant l'élection présidentielle française, nous avons comparé les stratégies de TikTok et YouTube. Alors que YouTube mettait en avant beaucoup d'informations dite d'autorité, c'est-à-dire de grands médias reconnus, TikTok promouvait davantage du contenu provenant d'utilisateurs.

Debut de section - PermalienPhoto de Mickaël Vallet

Vous dites que d'autres plateformes sont tout aussi intrusives que TikTok, mais qu'on peut lui adresser quand même des reproches spécifiques : lesquels ?

J'ai lu aussi que TikTok était plus addictif parce que les vidéos y défilent plus vite, ce qui multiplie les interactions avec l'utilisateur qui donne plus rapidement des informations sur lui ; qu'est-ce qui fait que cet algorithme est plus puissant et mieux formaté ? Et pourquoi les autres plateformes n'ont-elles pas eu l'idée avant ?

Enfin, pouvez-vous nous en dire plus sur la « cyber-balkanisation » de l'internet : est-ce un fantasme, ou une réalité - et quelles chances a-t-on de mieux connaître, comme vous le proposez, qui subit de fausses informations ?

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

Effectivement, le design de l'expérience utilisateur de TikTok est centré sur un algorithme de recommandation qui travaille sur un fil d'une seule vidéo à la fois. Sur le premier fil de Facebook, l'algorithme de recommandation proposait cinq ou six posts associés à la recherche, ce qui donnait une certaine liberté de choix à l'utilisateur. Le passage de l'écran d'ordinateur au mobile a réduit la quantité de posts proposés. Par ailleurs les plateformes ont augmenté la taille des posts, ce qui en a diminué le nombre : l'algorithme est devenu de plus en plus « paternaliste » en décidant ce que l'utilisateur va regarder. TikTok va encore plus loin, en ne proposant qu'une seule vidéo à la fois. Ce design a deux conséquences : il diminue la charge cognitive pour l'utilisateur, il n'y a plus qu'à suivre ou à rejeter la proposition, et il fournit à l'algorithme des données d'entrainement bien supérieures à la fois en nombre et en qualité. Chaque vidéo est évaluée toutes les cinq ou dix secondes en la regardant en entier ou en passant à la suivante, constituant une donnée d'entrainement pour savoir si la vidéo correspond à son intérêt ou pas ; là où YouTube collectait une dizaine de points d'entraînement par heure, TikTok en collecte plusieurs centaines, voire un millier de points, par heure, la plateforme peut alors bien mieux cibler les intérêts de l'utilisateur. J'aime bien raconter cet exemple : après avoir téléchargé TikTok pour la première fois, l'algorithme a détecté mon intérêt pour l'algorithme de recommandation en environ d'une demi-heure, ceci parce que j'étais allé voir une vidéo où un créateur de contenu se plaignait d'être moins recommandé, puis les commentaires sur cette vidéo, je regarde une deuxième sur le sujet, ainsi que les commentaires .... Tout est allé très vite pour que la plateforme détecte cet intérêt de niche par comparaison entre les vidéos. À l'échelle de plusieurs heures de visionnage, l'algorithme est capable dresser un profil d'intérêts et presque psychologique très précis de l'utilisateur.

Nous avons donc comme différences la prééminence de l'algorithme dans l'expérience utilisateur, la quantité de données fournies à la plateforme et également le modèle de viralité.

Alors qu'Instagram et Facebook ont un modèle porté sur le réseau d'amis et les profils qui ont été suivis intentionnellement par l'utilisateur, TikTok le met en relation avec des créateurs de contenus qu'il ne connait pas et qu'elle lui suggère à partir de ceux qu'elle lui a déjà suggérés et qu'il a suivis, c'est bien plus large et moins intentionnel.

Le dernier élément important est la composante musicale : à la base, TikTok est une plateforme de karaoké et de danse. Beaucoup de vidéos ont une chanson ce qui joue un rôle important dans la viralité, ce qui est lié à l'émotion qui accompagne la musique.

Debut de section - PermalienPhoto de Annick Billon

On sait que TikTok est utilisé comme intermédiaire pour faire « basculer » les utilisateurs, pour les entrainer vers d'autres sites : savez-vous dans quelle proportion ?

On dit aussi que l'algorithme serait différencié selon les pays, c'est donc qu'il viserait d'autres objectifs : quels sont-ils, et quelles sont les différences ?

J'ai lu en début d'année que TikTok pourrait autoriser la diffusion de contenus pour adultes, cela fait écho aux travaux que nous avons conduits, à la Délégation aux droits des femmes, sur l'industrie de la pornographie - et je suis convaincue que si TikTok s'intéresse à ces contenus, c'est parce qu'il y a énormément d'argent à gagner. Pensez-vous que les tentatives de contrôler l'âge des utilisateurs qui accèdent à ces vidéos puissent aboutir ? À quelle échelle le faire, sachant que l'industrie pornographique est, elle, organisée à l'échelle internationale ?

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

Il y a un réel débat sur l'importance des bulles cognitives sur internet, des utilisateurs y entreraient sur des plateformes ouvertes, où ils ne feraient que passer pour s'enfermer ensuite dans des réseaux spécialisés. La littérature académique, qui concerne surtout les États-Unis, est assez nuancée sur le sujet : il semble que la fréquentation des réseaux sociaux donne accès à un environnement informationnel plus varié que le fait de suivre un seul média, par exemple une chaine de télévision elle-même très orientée - et il n'est pas établi que les gens soient plus isolés sur internet que dans la vie réelle. Cependant, les réseaux sociaux ont la capacité d'identifier des utilisateurs vulnérables sur des intérêts particuliers que l'on n'a pas hors ligne. Le phénomène d'enfermement dans des bulles cognitives et la radicalisation se concentrent à la marge de la population, sur certains utilisateurs plus vulnérables. Souvent cette radicalisation se passe en privé : l'utilisateur va être attiré dans la communauté à travers l'algorithme de recommandation, mais ce n'est pas cet algorithme qui va maintenir l'utilisateur dans cette bulle. Ce dernier va faire l'objet de messages directs et ensuite envoyé sur des réseaux cryptés comme Telegram. C'est bien pourquoi l'éducation aux médias est essentielle ; il y a de très bonnes associations qui font ça en France.

S'agissant de la « cyber-balkanisation », en effet l'algorithme est très sensible à la géolocalisation à deux niveaux : au GPS, qui lui fait diffuser du contenu très local, et à la nationalité, une notion qui est en fait difficile à définir sur internet. Nous avons comparé le contenu diffusé aux Russes et aux Ukrainiens depuis un an : suite à la loi russe sur la désinformation qui interdisait notamment l'utilisation du mot « guerre » pour parler de l'Ukraine, TikTok a décidé de modérer de manière grossière et de bannir tout contenu international pour les utilisateurs russes puisque l'essentiel des critiques vient de l'extérieur et qu'il y a plus d'autocensure en Russie. L'entreprise l'a fait de manière complètement opaque, sans même prévenir de cette nouvelle politique de modération. L'algorithme a donc ses spécificités nationales. Au passage, nous avons vérifié que ce tri était fait non pas en fonction de la seule adresse IP, mais aussi du lieu où le compte a été créé la première fois, démontrant que les plateformes choisissent les critères qui leur conviennent pour définir l'identité digitale des utilisateurs - il serait donc peut-être intéressant de préciser ce point dans la loi. Les règles de modération sont elles aussi adaptées selon les pays. En Thaïlande par exemple, où le crime de lèse-majesté existe toujours, la plateforme censure les contenus critiques envers la royauté. La guerre en Ukraine a porté la balkanisation d'internet à un niveau inédit, mais je crois que le mouvement va continuer, d'autant que de plus en plus de pays vont chercher à réguler ces plateformes, ce qui entraîne une fragmentation des contenus disponibles.

Sur les contenus pour adultes, il ne faut pas oublier que le succès de TikTok s'est construit sur un soft porn qui ne s'avoue pas comme tel, en mettant en avant des personnes très jeunes, souvent légèrement vêtues et attractives selon les critères de beauté conventionnels... D'ailleurs, le document interne que je vous ai cité, démontrant la censure de certains contenus politiques, demandait aussi de mettre en avant des gens beaux, et d'écarter ceux qui ne répondaient pas à ces critères ou qui n'avaient pas l'air aisés. Je précise que ce document date de 2019 et que, depuis, TikTok a déclaré que ces règles ne s'appliquaient plus.

Debut de section - PermalienPhoto de Annick Billon

J'ai entendu dire que l'utilisation de l'application Waze faisait qu'on était encore plus géolocalisé par les plateformes : le confirmez-vous ?

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

Je n'ai pas connaissance de ce à quoi vous faites référence. Mais dès lors que vous autorisez Waze à accéder en permanence à votre GPS, vous êtes localisé en permanence...

Debut de section - PermalienPhoto de Thomas Dossus

Comment avez-vous suivi le conflit en Ukraine, à partir de l'invasion russe ? Les équipes de TikTok Russie sont-elles basées en Russie ? Comment les choses se passent concrètement ? Y a-t-il des consignes ? Sont-elles élaborées en coopération avec le parti communiste chinois ? Où les équipes qui « poussent » les tendances sont-elles localisées ? Y-a-t-il là encore des consignes venant de Chine ?

Comment, ensuite, le législateur peut-il légiférer de manière robuste sur les algorithmes ? Il semble que nous soyons toujours à la course derrière certaines dérives : peut-on les prévenir ? Vous appelez à des algorithmes qui seraient au service du bien commun, plutôt qu'au seul service économique des plateformes : pouvez-vous développer cette vision ?

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

La décision de modérer le contenu international en Russie a été une conséquence de la loi russe, soit une influence politique directe. Y a-t-il eu des tractations derrière des portes, entre les autorités politiques russes et TikTok ? Je n'en ai pas connaissance. En tout état de cause, je pense que la plateforme TikTok qui est encore en phase de croissance et a beaucoup de regards tournés vers elle, aurait vraiment beaucoup à perdre en cas d'interférence du parti communiste chinois sur les décisions de modération. Nous avons analysé l'affaire de la joueuse de tennis Peng Shuai, nous avons regardé les vidéos diffusées et il n'y a rien de clair qui établisse une censure. Cela dit, si Taïwan venait à être envahi par la Chine, peut-on espérer un comportement impartial de TikTok ? Je ne le crois pas, son comportement dépend des risques et de ses intérêts, donc aussi de l'importance du sujet pour le pouvoir chinois.

Comment légiférer de manière robuste ? La législation se focalise surtout sur la transparence ; le DSA demande aux plateformes d'évaluer le risque systémique sur la société, en termes d'addiction et de promotion de contenus polarisants : ce n'est pas suffisant pour promouvoir des alternatives. Comment promouvoir une forme de souveraineté algorithmique ? Dans l'idéal, on pourrait obliger une interopérabilité qui permettrait à des tiers de fournir des systèmes de recommandation qui fonctionneraient sur les plateformes, de façon à ce que l'utilisateur puisse choisir un algorithme qui lui convienne, c'est-à-dire un algorithme qui apporte de l'information intéressante sur des sujets choisis et avec la fréquence choisie, et non un algorithme qui cherche uniquement à le maintenir sur telle ou telle plateforme.

Debut de section - PermalienPhoto de Céline Boulay-Espéronnier

Quelles sont les conditions générales d'utilisation (CGU) de TikTok ? Sont-elles aussi peu lisibles et peu accessibles que pour les autres réseaux ?

Comment cette application collecte-t-elle les données ?

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

Je vous avoue que je n'ai pas lu les CGU de TikTok et je ne dois pas être le seul, c'est une dimension du problème. Le DSA prévoit, je crois, d'obliger à les rendre plus lisibles. L'une des conditions qui est souvent repérée comme problématique est la condition d'âge de 13 ans, mais nous savons que cette condition n'est pas vérifiée ; TikTok évoque une reconnaissance faciale, je crois que c'est une très mauvaise idée.

En acceptant les CGU, on accepte que TikTok collecte nos données comportementales, notamment les données qui décrivent notre interaction avec le contenu. On autorise ainsi la plateforme à dresser un profit psychologique et d'intérêts à notre sujet et à l'utiliser à des fins commerciales, pour faire de la publicité ciblée, ce qui est essentiel dans son modèle économique. Cette façon de faire n'est pas différente des autres plateformes.

Au sujet du modèle économique, je souligne que TikTok est la plateforme où les dons directs aux créateurs de contenus sont les plus importants, ils atteindraient 1,5 milliards de dollars l'an passé, soit plus que toutes les autres plateformes réunies. C'est très attractif pour les créateurs de contenu, sachant que les plateformes sont en concurrence pour les attirer. Aujourd'hui les gains essentiels des influenceurs se font désormais moins sur les revenus publicitaires que par le sponsoring, officiel ou non officiel, et les dons des utilisateurs. Le sponsoring non officiel est d'ailleurs difficile à contrôler et présente le plus de risque pour l'ingérence politique : ce n'est peut-être pas à dire, mais dans une campagne politique aujourd'hui, l'un des leviers efficaces consiste à payer des influenceurs sans le dire...

Debut de section - PermalienPhoto de Laurence Rossignol

Vous parlez d'un sponsoring officiel et d'un sponsoring non officiel : quelle est la différence ?

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

Il y a un sponsoring déclaré, affiché comme tel, et un sponsoring qui ne s'affiche pas, dissimulé.

Debut de section - PermalienPhoto de Toine Bourrat

TikTok est, avec Facebook, l'un des seuls réseaux sociaux à avoir dévoilé une part des secrets de son algorithme, qui repose sur les recommandations. Malgré cette « transparence » qui tient lieu d'affichage publicitaire ou de tentative de blanchiment de ses activités, nous savons qu'un algorithme reste opaque. Peut-on néanmoins, lorsqu'on n'en n'est pas le concepteur, en cerner tous les « secrets » ? Sommes-nous capables d'en cerner toutes les conséquences ou tous les effets néfastes ?

La lanceuse d'alerte Frances Haugen, lors de son audition devant le Sénat, avait pris l'exemple de Facebook dont l'algorithme avait permis de suggérer des contenus néonazis à des utilisateurs allemands, du fait de l'absence d'entrave légale à l'intérêt commercial de l'outil. Elle notait que le DSA, qui entend responsabiliser les plateformes, pourrait limiter ces externalités négatives. Si je vous ai bien compris, le DSA ne pourra pas inciter les réseaux sociaux à restreindre cet algorithme. Pensez-vous que les mesures de ce nouveau bouclier européen ne seront pas suffisamment efficaces pour éviter ce type de contenu ?

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

En réalité, même le concepteur de l'algorithme ne peut prédire avec précision le comportement de l'algorithme, ni mesurer l'impact qu'il aura sur la société. La conception de l'algorithme se fait en l'absence de données, c'est une fois mis en place qu'il va évoluer en interaction avec l'utilisateur et la création de données par l'utilisateur, et le résultat ne peut pas être vraiment anticipé. Du reste, pour faire un audit algorithmique, notre objectif n'est pas, par du Reverse Engineering, d'atteindre le code source de l'algorithme, mais plus d'observer son comportement. La plateforme sait dire comment l'algorithme a été conçu, pas comment il se comporte précisément, car cela demande un investissement important pour le savoir - et la plateforme se concentre surtout sur le fait de savoir si l'algorithme crée et maintient de l'engagement.

Les contenus problématiques ou racistes sont déjà interdits par les CGU et généralement par la loi. Face à la loi très restrictive que l'Allemagne a mis en place en 2017, la Netzwerkdurchetzungsgesetz (NetzDG) qui les a obligées à réagir dans un délai très restreint, les plateformes, pour se protéger, ont eu tendance à sur-modérer les contenus, ce qui est problématique. Cela dit, les contenus racistes restent un problème, ils sont la conséquence de communautés présentes sur les réseaux, dont les contenus sont amplifiés parce qu'ils sont polarisants, et parce que ces communautés sont très actives, car elles veulent se faire entendre et postent donc beaucoup de contenus.

Debut de section - PermalienPhoto de Pierre Ouzoulias

Merci pour la qualité de vos réponses. La loi pour une République numérique a tenté, dès 2016, de réguler les algorithmes, avec des outils nouveaux - en particulier l'article L. 111-7 du code de la consommation. Or, ces outils sont très difficiles à utiliser dès lors que le régulateur, l'Arcom, n'accède pas à l'algorithme, elle essaye de déduire de l'utilisation des plateformes le fonctionnement des algorithmes. Quelle est donc la capacité des États à contraindre les plateformes, qui sont partout et nulle part, à respecter certaines règles ? Vous évoquez l'interopérabilité, comment la mettre en place ?

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

Je ne connais pas la législation française sur ce point, mais je sais que le défaut d'application est également l'une des grandes craintes de ceux qui élaborent le DSA, car à quoi bon définir des principes et mettre en place des outils, si l'on ne peut pas les utiliser ?

L'interopérabilité est une possibilité qui semblerait plus facile à imposer, mais ses implications techniques seraient importantes et ouvriraient un très large champ au lobbying pour prétendre qu'elle est impossible. Or, avant son rachat par Elon Musk, Twitter l'avait envisagée et avait entrepris des recherches dans ce sens avec le projet Blue Sky, signe que l'interopérabilité est envisageable - le problème, c'est qu'elle n'est pas du tout dans l'intérêt des plateformes, qui veulent garder un algorithme fermé pour maintenir les utilisateurs chez elles ; on voit d'ailleurs que les navigateurs intégrés vous reconduisent sur la plateforme quand vous en consultez un lien externe...

Debut de section - PermalienPhoto de Laurence Rossignol

Je ne connais pas bien TikTok et suis plus familière de Twitter et de Facebook. Est-ce que l'on repère sur TikTok autant d'usines à trolls et de bots que sur les autres plateformes ?

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

Sans doute. Il y en a sur toutes les plateformes, et il n'y a aucune raison de penser que TikTok soit plus efficace pour lutter contre ce phénomène. Les résultats, en la matière, dépendent directement des investissements dans les équipes de modération et dans les systèmes de détection, il y a toutes les raisons de penser que ces bots soient nombreux sur TikTok. Une nouvelle tendance voit arriver des contenus créés par intelligence artificielle, y compris en vidéo, ce qui va faciliter les campagnes de trolling. C'est un problème supplémentaire pour lutter contre la désinformation.

Debut de section - PermalienPhoto de Thomas Dossus

Les contenus polarisants sont plus visibles, par exemple ceux de l'extrême-droite pendant la campagne présidentielle : est-ce le fait que les milieux d'extrême-droite maitriseraient particulièrement bien les réseaux sociaux ou le fait de la plateforme qui met en avant les contenus polarisants ?

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

Les deux : il y a une bonne maîtrise des codes des réseaux sociaux par certains partis qui ont peut-être moins de scrupules à utiliser de fausses informations ou des informations déformées qui retiennent plus l'attention de l'utilisateur. Notre étude sur l'élection présidentielle française montre qu'Éric Zemmour est représenté de manière disproportionnée dans ls recommandations algorithmiques, mais c'est aussi que ce candidat surfait alors sur une vague de sur-représentation médiatique. On a même vu des utilisateurs utiliser le hashtag Zemmour pour des messages qui portaient sur tout autre chose, juste pour bénéficier de sa notoriété.

Je donne ce chiffre au passage : l'estimation basse est de 1 milliard de vidéos à contenu politique vues pendant la campagne présidentielle sur TikTok, on est donc loin de la simple plateforme de divertissement, telle que se présente TikTok pour justifier qu'elle investit peu dans la modération de contenu... TikTok est bien un vecteur de dialogue politique, même si elle s'en défend.

Debut de section - PermalienPhoto de Claude Malhuret

Vous estimez que l'idéal, ce serait d'obtenir la transparence des algorithmes et l'interopérabilité, au moins pour les DSC, ce qui placerait les plateformes davantage au service des utilisateurs. On dit que Douyin serait différente de TikTok, plus culturelle et éducative, moins addictive, avec une limite d'usage de 40 minutes sur la plateforme, une idée qui pourrait être reprise en Europe : est-ce le cas, Douyin traite-t-elle vraiment ses utilisateurs avec plus de respect, ou bien n'est-ce là que du buzz et qu'une forme de propagande ?

Face aux nombreuses critiques, ensuite, TikTok, qui sent le vent du boulet, a annoncé implanter des serveurs en Europe, où elle a choisi de les concentrer en l'Irlande, et aux États-Unis, par un partenariat avec Oracle, ceci pour montrer que les données ne s'en vont pas en Chine. Pensez-vous que c'est un vrai changement de politique qui apporte une solution, ou bien ce n'est qu'une façon de noyer le poisson, la plateforme ayant toujours la possibilité, depuis la Chine, de faire ce qu'elle veut des données ?

Debut de section - Permalien
Marc Faddoul, président de Al Forensics

Il y a eu ce « narratif » sur le fait que Douyin serait une réplique de TikTok pour le marché chinois mais avec une librairie de contenus différents, alors qu'en réalité, les deux applications sont développées par les mêmes équipes : les mêmes ingénieurs travaillent sur les algorithmes de TikTok et Douyin. Cela dit, la politique de modération et éditoriale est nécessairement différente sur Douyin, puisque son contenu est apolitique et la censure assumée. Je n'utilise pas Douyin, mais je crois que la présentation que vous en dites n'est qu'un « narratif ». De ce que j'en sais, Douyin est une plateforme de distraction où des influenceurs promeuvent une culture capitaliste et beaucoup de produits. En revanche, il y a une réelle volonté du parti communiste chinois de limiter l'influence des plateformes sur les enfants - il y a une politique de limitation du temps d'écran face à l'addiction aux jeux et aux plateformes - et nous pourrions nous en inspirer.

Sur l'accès aux données, je préfère ne pas m'avancer car il est très difficile de savoir ce qui se passe précisément une fois les données stockées. Même si les données des utilisateurs américains sont stockées aux États-Unis, il y a toujours un backup en Chine, notamment à Shanghai, et j'imagine mal une imperméabilité, ne serait-ce que parce que TikTok aura besoin des données d'utilisateurs pour continuer à entraîner son algorithme qui est développé en Chine, elle aura donc besoin de faire des requêtes à ces données ; et même si les données sont anonymisées, elles sont si précises et si spécifiques, qu'il devient possible de retrouver l'identité de l'utilisateur, via son profil d'intérêt, de comportement et son adresse IP. En un mot, je vois mal comment TikTok se passerait complètement d'un accès à ces données.

Debut de section - PermalienPhoto de Mickaël Vallet

Merci pour toutes ces informations et analyses.

La réunion est close à 17 h 30.