Intervention de Jean Gonié

Mission d'information sur le harcèlement scolaire et le cyberharcèlement — Réunion du 23 juin 2021 à 16h35
Audition des responsables des affaires publiques des principaux réseaux sociaux : instagram facebook snapchat et tiktok

Jean Gonié :

Merci pour ces questions. Je pense que la levée de l'anonymat est un débat. À mon avis cela ne va pas assez loin. À Bruxelles, est actuellement discuté le Digital Services Act, dont le but est de permettre plus de transparence, un accès aux algorithmes, etc. Le problème de fond est celui de la massification des contenus qui amène à des contenus d'harcèlement extrêmement dangereux. Nous nous inquiétons d'un phénomène qu'il faut d'abord comprendre. Il est lié à un modèle d'affaire autour de la viralité.

Dans le cas précis de Mila, c'est vraiment ce qui s'est passé. Elle recevait des milliers de messages, souvent envoyés par des robots, selon un modèle qui le permettait. Il faut garder en tête l'idée que les plateformes ne sont pas toutes les mêmes. On parlait tout à l'heure des critères de vanité, c'est une nouvelle couche qui va au-delà du modèle de viralité. Si on va plus loin, l'anonymat n'est selon moi pas vraiment le problème. Donc lequel est-il ? De quoi parle-t-on, que cherche-t-on à limiter ?

Il faut développer l'éthique du numérique, avec un principe similaire au principe pollueur-payeur dans le domaine de l'environnement et qui doit être mis en place dans le domaine du numérique. Je pense fondamentalement, en tant que citoyen et père de famille, qu'un modèle d'affaires doit être vu et compris.

Souvenez-vous quand cela a été créé, il y a peu de temps.

J'étais à la CNIL dans les années 2000, personne ne s'occupait des sujets de l'internet, qui sont très récents. Le printemps arabe a montré l'intérêt et l'importance de cela. On en voit maintenant les dangers et les risques. Nous essayons de résoudre cela partout, dans le monde entier. Il faut avoir une vision mondiale. Les problèmes qu'on se pose là sont aussi posés aux États-Unis, à Londres, partout. Ce sont des problèmes de société très présents.

Je serais heureux d'échanger des notes pour réfléchir sur cette collectivité et la société que l'on veut donner à nos enfants, une sorte de contrat de confiance à réinstaurer, d'où ce modèle d'affaire, ces critères de vanité et également ce qu'on appelle en anglais un « user generated content » : il s'agit de contenus générés par des internautes, qui disent parfois n'importe quoi.

À chaque fois que j'en parle, on a l'impression que ça semble tellement impossible à faire qu'on parle de choses de très court terme. Le problème de fond pour moi est là, au-delà de la levée de l'anonymat.

Vous avez parlé du droit à l'oubli. C'est un vrai sujet. C'est plus aux moteurs de recherche d'exposer leur vision des choses. Ce n'est pas tellement un sujet pour les plateformes.

Pour répondre à votre autre question, lorsqu'un contenu arrive chez nous, qu'on nous demande de le retirer, on le gèle - « freeze » - pour un certain nombre de jours, le temps de vérifier lors d'une enquête. On le retire par précaution : comme on l'a dit, c'est tolérance zéro pour ces contenus et pour tout type de contenus illicites et illégaux. Une fois qu'il est retiré, on le garde pour un certain temps.

Sur Snapchat, nous avons une politique où les données sont éphémères, où elles sont effacées tout de suite, donc c'est encore plus compliqué pour nous. Mais il faut quand même le faire, pour que la police ait les informations. Nous travaillons avec Pharos et autres services de gendarmerie. Ils sont tous les jours débordés et n'ont pas assez de moyens. Il faudrait davantage de moyens pour agir encore plus vite, tout de suite, car le temps est critique. C'est pour cela que chez Snapchat on retire par exemple un contenu terroriste en une heure. Toutes les plateformes devraient le faire.

Quand la France présidait le G7 il y a trois ans, il y avait eu en Nouvelle-Zélande l'incident de Christchurch qui avait été filmé. C'était un vrai débat de société. Nous étions tous réunis à Bercy pour parler du rôle que nous devions incarner. La Première Ministre de Nouvelle-Zélande avait appelé son « call to action » et demandait aux plateformes d'agir pour que cela ne se reproduise jamais.

Malheureusement, six mois après, en Allemagne, à Hamm, pendant Kippour, quelqu'un a filmé un massacre sur la plateforme de vidéos Twitch. Ce comportement risque de se reproduire tant que la question du modèle d'affaires ne sera pas résolue. Pour éviter tout cela, il faut donner plus de moyens à Pharos et autres et avoir une vision de coopération internationale pour tous les services mondiaux.

Sur l'aspect terrorisme, nous retirons en une heure un contenu terroriste. Étant le patron de l'Europe pour Snapchat, je suis tout le temps à Bruxelles, où a été récemment adopté un règlement contre le terrorisme. Il a été initié en septembre 2018. On a mis presque quatre ans avant de voter quelque chose qui doit être indiscutable : le fait de pouvoir retirer en une heure des contenus terroristes. À Bruxelles ça ne s'est pas fait.

Il y a une vraie dimension culturelle en Europe sur la vie privée. Beaucoup de pays du Nord en ont une vision différente de la nôtre. La plupart des pays des États membres ont estimé que demander aux plateformes de retirer un contenu terroriste en une heure n'était pas possible parce que cela porte atteinte aux libertés fondamentales (liberté d'expression, etc). Beaucoup de pays sont dans cet état d'esprit et il faut l'entendre.

Un compromis a été trouvé : retirer en une heure et dans les meilleurs délais. C'est un vrai débat de fond. Je trouve que ce n'est pas tolérable. Il faut retirer en une heure. C'est ce que nous faisons et on est les seuls.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion