Intervention de Marc Faddoul

Commission d'enquête Tiktok — Réunion du 13 mars 2023 à 17h05
Audition de M. Marc Faddoul chercheur en intelligence artificielle et directeur de al forensics

Marc Faddoul, président de Al Forensics :

En réalité, même le concepteur de l'algorithme ne peut prédire avec précision le comportement de l'algorithme, ni mesurer l'impact qu'il aura sur la société. La conception de l'algorithme se fait en l'absence de données, c'est une fois mis en place qu'il va évoluer en interaction avec l'utilisateur et la création de données par l'utilisateur, et le résultat ne peut pas être vraiment anticipé. Du reste, pour faire un audit algorithmique, notre objectif n'est pas, par du Reverse Engineering, d'atteindre le code source de l'algorithme, mais plus d'observer son comportement. La plateforme sait dire comment l'algorithme a été conçu, pas comment il se comporte précisément, car cela demande un investissement important pour le savoir - et la plateforme se concentre surtout sur le fait de savoir si l'algorithme crée et maintient de l'engagement.

Les contenus problématiques ou racistes sont déjà interdits par les CGU et généralement par la loi. Face à la loi très restrictive que l'Allemagne a mis en place en 2017, la Netzwerkdurchetzungsgesetz (NetzDG) qui les a obligées à réagir dans un délai très restreint, les plateformes, pour se protéger, ont eu tendance à sur-modérer les contenus, ce qui est problématique. Cela dit, les contenus racistes restent un problème, ils sont la conséquence de communautés présentes sur les réseaux, dont les contenus sont amplifiés parce qu'ils sont polarisants, et parce que ces communautés sont très actives, car elles veulent se faire entendre et postent donc beaucoup de contenus.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion