La décision de modérer le contenu international en Russie a été une conséquence de la loi russe, soit une influence politique directe. Y a-t-il eu des tractations derrière des portes, entre les autorités politiques russes et TikTok ? Je n'en ai pas connaissance. En tout état de cause, je pense que la plateforme TikTok qui est encore en phase de croissance et a beaucoup de regards tournés vers elle, aurait vraiment beaucoup à perdre en cas d'interférence du parti communiste chinois sur les décisions de modération. Nous avons analysé l'affaire de la joueuse de tennis Peng Shuai, nous avons regardé les vidéos diffusées et il n'y a rien de clair qui établisse une censure. Cela dit, si Taïwan venait à être envahi par la Chine, peut-on espérer un comportement impartial de TikTok ? Je ne le crois pas, son comportement dépend des risques et de ses intérêts, donc aussi de l'importance du sujet pour le pouvoir chinois.
Comment légiférer de manière robuste ? La législation se focalise surtout sur la transparence ; le DSA demande aux plateformes d'évaluer le risque systémique sur la société, en termes d'addiction et de promotion de contenus polarisants : ce n'est pas suffisant pour promouvoir des alternatives. Comment promouvoir une forme de souveraineté algorithmique ? Dans l'idéal, on pourrait obliger une interopérabilité qui permettrait à des tiers de fournir des systèmes de recommandation qui fonctionneraient sur les plateformes, de façon à ce que l'utilisateur puisse choisir un algorithme qui lui convienne, c'est-à-dire un algorithme qui apporte de l'information intéressante sur des sujets choisis et avec la fréquence choisie, et non un algorithme qui cherche uniquement à le maintenir sur telle ou telle plateforme.