Madame la rapporteure, mes chers collègues, Mesdames et Messieurs les représentants des réseaux sociaux, nos auditions nous permettent de « plonger » dans la dimension « cyber » du harcèlement.
Tous nos travaux et déplacements sur le terrain conduits jusqu'à aujourd'hui l'ont bien souligné : si le phénomène du harcèlement en milieu scolaire est depuis une dizaine d'années reconnu et pour partie traité tant au sein de l'établissement scolaire qu'avec les autres acteurs de la politique publique, sa dimension « cyber » en a radicalement changé la nature, la portée et donc les conséquences dramatiques sur les élèves.
Le harcèlement tend alors à se disséminer, à se réfugier derrière un anonymat qui devient le terreau de toutes les lâchetés, ce qui en démultiplie les conséquences dévastatrices.
Il ne s'arrête plus aux portes de l'école, du collège ou du lycée mais crée un continuum qui ignore les lieux, les horaires et l'intime de la vie familiale pour nier le droit à la différence et au contraire la stigmatiser de façon inadmissible et surtout illégale. Il est alors indispensable d'agir immédiatement pour endiguer ces tsunamis de haine et de violence. Ainsi, de façon positive, nous pourrons valoriser notre vouloir vivre ensemble.
Je voulais donc vous remercier pour votre présence à cette table ronde qui réunit tous les « grands réseaux sociaux ». Je regrette très vivement que l'un de vos « partenaires », je veux parler de Twitter, n'ait pas pu ou pas voulu participer à notre table ronde.
Nos travaux au sein de la mission d'information, qui sont d'ailleurs intégralement accessibles sur le site du Sénat, l'ont en effet montré. Si le harcèlement débute toujours dans un établissement scolaire - on parle ainsi plus précisément de harcèlement en milieu scolaire - sa prise en compte et sa résolution ne peuvent se faire dans le seul cadre de l'établissement d'enseignement.
La réussite de la lutte contre ce phénomène, a fortiori quand il prend une dimension cyber, passe par la mobilisation d'un réseau efficace qui vient épauler et soutenir les victimes et leurs parents.
Face à cette « violence en meute », des initiatives ont pu être prises par vous-mêmes ou en partenariat avec des associations engagées dans cette lutte. Il y a 15 jours, la directrice générale de l'association e-Enfance nous en donnait des exemples parlants et éclairants. Elle nous indiquait toutefois que l'apparition de nouveaux réseaux (notamment les messageries dites privées) rendait la tâche plus complexe surtout quand les adultes, les parents montraient le mauvais exemple dans leur propre pratique des réseaux ou refusaient de s'impliquer dans leur rôle d'éducation de leurs propres enfants.
Je vous remercie donc pour votre venue ainsi que pour la contribution que vous allez apporter à nos travaux dont l'objectif est d'aboutir, à la mi-septembre, à des conclusions opérationnelles en s'appuyant sur l'ensemble des parties concernées.
Sans anticiper sur nos conclusions, nous pensons d'ores et déjà indispensable que les outils déjà existant en matière de lutte contre le cyberharcèlement scolaire soient mieux connus. Nous estimons que tous les acteurs, c'est-à-dire vous les réseaux sociaux, mais aussi la communauté éducative, les parents, les témoins du harcèlement - au comportement souvent passif - soient bien conscients du phénomène et des risques légaux encourus à y participer.
Notre mission a donc souhaité, dans un but de pédagogie et de contribution à cette salutaire prise de conscience que notre table ronde soit captée et diffusée.
Je poserai la première question avant de laisser la parole à ma collègue rapporteure, puis à l'ensemble de nos collègues.
En matière de cyberharcèlement, il y a deux axes d'intervention : la prévention pour empêcher qu'une personne soit cyberharcelée et l'intervention a posteriori pour limiter et mettre fin à un cyberharcèlement. À partir de quel moment y a-t-il, pour vous, cyberharcèlement ?
Madame la présidente, Madame la rapporteure, Mesdames et Messieurs, je souhaite d'abord vous remercier de m'avoir conviée à cette audition dans le cadre d'une mission si importante. Le harcèlement constitue, pour Facebook et Instagram, un sujet prioritaire sur lequel nous sommes pleinement mobilisés depuis de nombreuses années.
Lutter contre le cyberharcèlement, mais aussi assurer la protection des utilisateurs et veiller au bien-être des adolescents sur nos plateformes constituent des priorités. J'aimerais commencer par répondre à cette question en rappelant et en revenant sur les politiques, règles et actions déployées par Facebook et Instagram au cours de ces dernières années.
Tout d'abord, nous avons des politiques. Ensuite, nous avons investi dans la technologies et développé des outils qui visent à limiter les interactions indésirables sur nos plateformes. Par ailleurs, nous mettons à disposition de nombreuses ressources, à l'instar de guides de parents et de centres de sécurité, qui sont destinés aux éducateurs, aux parents et aux jeunes. Enfin, nous nouons des partenariats avec des experts et des associations de premier plan pour nous aider à sensibiliser sur ce sujet.
En ce qui concerne les politiques mises en oeuvre par l'entreprise, nous avons des règles, les « standards de la communauté », qui dictent clairement ce que nous autorisons et ce que nous n'autorisons pas sur nos plateformes. Le harcèlement, l'intimidation, l'exploitation des enfants ou la nudité sont contraires à nos standards et y sont donc interdits. Lorsque nous détectons des contenus qui en relèvent, nous menons directement une action dessus.
Nous avons beaucoup investi dans la technologie en matière de détection pro-active pour nous aider à mieux identifier ces contenus et à les supprimer dans un laps de temps plus restreint. Nos efforts en ce sens ont commencé à payer et nos progrès sont notables. Selon notre dernier rapport trimestriel de transparence, sur les contenus de cyberharcèlement, nous avons, au premier trimestre 2021, supprimé sur Facebook 8,8 millions de contenus, et 5,5 millions sur Instagram, au niveau mondial. Les progrès mesurés sur les contenus de haine - on sait que le harcèlement commence ou se termine avec la haine - sont également significatifs. Sur Facebook et Instagram, le niveau de prévalence de ces contenus a drastiquement diminué et se situe entre 0,05 et 0,06 : sur 10 000 vues de contenus, seulement 5 ou 6 portent sur des contenus potentiellement contraires à nos standards.
Enfin, en ce qui concerne les discours de haine, le taux de détection pro-active a considérablement augmenté. Cette année, 97 % des contenus en matière de discours de haine ont été détectés pro-activement, c'est-à-dire avant même le signalement par un utilisateur. Ce chiffre était de 27 % en 2017.
Je reviendrai par la suite sur les parties outils, ressources et partenariats.
Je suis accompagné de Sarah Bouchaoua, qui vient de rejoindre mon équipe.
Je commence par dire quelques mots sur Snapchat. Les plateformes ne se ressemblent pas. On peut le penser, puisque les jeunes les utilisent, et même parfois quatre ou cinq en même temps. Même si nous avons tous la même envie de faire de notre mieux pour tout retirer et que les choses soient très agréables, nous sommes très différents.
Je ne suis pas sûr que vous soyez tous des utilisateurs et utilisatrices de Snapchat. Cette plateforme est très populaire en France : plus de 17 millions de personnes l'utilisent chaque jour - plus de femmes que d'hommes. Elle est également très récente puisqu'elle a été créée il y a dix ans. Quand Evan Spiegel l'a conçue, il l'a voulue comme un antidote aux réseaux sociaux. Si je vous dis que Snapchat n'est pas un réseau social, cela ne voudra rien dire. Mais l'idée de Snapchat était de faire un environnement de confiance. C'est précisément ce dont on parle avec le cyberharcèlement : on cherche à savoir comment un jeune peut s'épanouir sans avoir une tension constante et être attaqué ou en danger sur le réseau. Cet environnement de confiance passe par des messages qui s'effacent dès qu'ils ont été lus - cela a des bons et des mauvais côté - et qui ne sont pas viraux. À mes yeux, la viralité est le maître mot de ces sujets, avec l'absence de bulle de filtre.
Je voulais évoquer cet environnement car tout est lié, selon moi, au modèle d'affaire, le business model.
En ce qui concerne ce que nous mettons en place, le harcèlement est évidemment interdit, sur Snapchat, par l'article 6 de nos conditions générales d'utilisation. Si vous avez connaissance d'un harcèlement, c'est très simple : il suffit d'appuyer sur n'importe quel message que vous voyez, et un petit drapeau permet de notifier le harcèlement aux équipes de modération qui le regardent, agissent et éventuellement le retirent, en très peu de temps - généralement dans l'heure.
Je suis un ancien de la Commission nationale de l'informatique et des libertés (CNIL) où j'étais il y a 20 ans. Quand on a en tête cet environnement de vie privée par défaut, les aspects de protection mais aussi l'absence de viralité sont très importants pour nous. Je reviendrai dessus.
Je rajouterai simplement que nous faisons beaucoup de prévention et que nous sommes en partenariat et contact constant avec e-Enfance.
TikTok est une application mobile de vidéos verticales de courte durée de 15 secondes à 1 minute, récemment étendue à 3 minutes pour les créateurs. Cette entreprise, créée en 2018, dispose de plusieurs bureaux en Europe - Dublin, Londres, Berlin et, depuis 2019, Paris. Nous permettons à tous nos utilisateurs de réaliser des vidéos créatives grâce à des outils de captation d'images, d'édition, grâce à des filtres et des effets, y compris en réalité augmentée. Chacun peut partager des moments du quotidien et ses passions. On encourage les contenus culturels et éducatifs, à travers notamment une « TikTok Academy » qui réalise plus de 7,6 milliards de vues, des événements culturels comme « Culture TikTok » ou des concerts de musique.
Nous allons vous parler des règles de modération en matière de cyberharcèlement puis nous reviendrons ensuite sur le détail des procédures. Sarah Khemis, qui travaille avec moi sur ces questions, complètera.
Nous avons évidemment des règles de modération concernant le harcèlement en ligne. Nos règles de communauté sont publiques et accessibles sur notre site internet ou via l'application. Elles définissent ce qui est interdit sur TikTok. Une partie est dédiée au harcèlement en ligne : nous avons une tolérance zéro vis-à-vis de ce phénomène. Nous concevons le harcèlement comme ce qui s'apparente à un comportement abusif, à du harcèlement sexuel, ou à des menaces de piratage et de chantage. Nous pourrons, si vous le souhaitez, détailler ces règles. Nous reviendrons sur les paramètres de sécurité et de confidentialité que nous mettons à la disposition des utilisateurs pour les protéger des situations les plus à risques, notamment du cyberharcèlement. Nous menons également des campagnes de sensibilisation auprès des utilisateurs et des parents - qui constituent un public fondamental - en coopération avec des experts, des associations et les pouvoirs publics.
En conclusion, nous rappelons que les valeurs que promeut la plateforme, et qui se trouvent dans nos conditions générales d'utilisation, sont la créativité, la spontanéité, la bienveillance et bien sûr la sécurité.
Mesdames et Messieurs les représentants des réseaux sociaux, comme tous mes collègues, j'ai été très intéressée par vos premiers éléments de réponse. Permettez-moi donc de prolonger ce premier échange en vous faisant part de plusieurs de mes préoccupations.
Tout d'abord, le cyberharcèlement est-il explicitement mentionné et interdit par vos conditions générales d'utilisation ? Avez-vous des modérateurs - vous en avez parlé - qui interviennent en matière de cyberharcèlement, comme vous pouvez intervenir dans d'autres domaines (terrorisme par exemple), pour supprimer des contenus ? Si oui, sont-ils situés en France ou centralisés au niveau européen, voire mondial ? J'apporte ce complément car il me semble qu'il y a une part culturelle importante dans la façon de gérer cette problématique.
Oui, le cyberharcèlement est explicitement mentionné dans les standards de la communauté, dont je viens de vous parler, et il est interdit. Nous ne tolérons pas ces comportements car nous pensons que cela ne met pas les utilisateurs en confiance : ils ne se sentent ni respectés, ni en sécurité sur la plateforme.
Sur la question des modérateurs, nous avons beaucoup investi pour améliorer nos techniques de modération. Nous avons des équipes de sécurité qui comptent plus de 35 000 personnes dans le monde. En ce qui concerne les contenus, et pour vérifier s'ils enfreignent ou non les standards de la communauté, nous avons recours à un mix entre une revue humaine et une revue par intelligence artificielle.
En matière de harcèlement, deux cas de figure se présentent : soit il est apparent que le contenu relève du cyberharcèlement, et dans ce cas l'intelligence artificielle l'examinera et le traitera, soit, comme souvent, il s'agit de contenu « gris », où il faut plus de contexte et une sensibilité un peu plus humaine pour saisir s'il en relève : il est alors transféré à des équipes humaines, qui reverront ce contenu et prendront une décision conforme à nos standards de la communauté.
Nous traitons d'autres sujets, comme le terrorisme, de cette façon : par un mélange entre l'intelligence artificielle et la revue humaine.
Nous vous dirons tous qu'il y a une tolérance zéro pour le cyberharcèlement sur nos plateformes. C'est donc aussi le cas pour nous.
On a des choix sur le petit drapeau que j'évoquais, et notamment « harcèlement » ou « cyberharcèlement ». Dès qu'on en a connaissance, on l'examine et on le retire. On fonctionne avec de la modération humaine la plupart du temps, mais des algorithmes peuvent intervenir.
Les modérateurs sont en Europe. On a connaissance de l'aspect culturel. Sur d'autres sujets, comme la haine en ligne, il est très prégnant. Les équipes fonctionnent 24 heures sur 24 et 7 jours sur 7 : il n'y a aucune pause dans la vigilance.
Au-delà, nous avons noté, avec le Covid et l'enfermement des jeunes, une utilisation plus fréquente de nos réseaux de leur part et un mal-être plus prégnant chez eux. Nous avons mis en place de nombreux outils pour les aider et les informer - pas seulement en France mais dans toute l'Europe. Dès qu'ils se sentent mal, voire ont des envies de suicide, on a une sorte de hotline qui leur répond. E-Enfance, avec d'autres entreprises européennes, est un de nos partenaires sur ces aspects-là. Il faut qu'on soit là pour les accompagner.
Nous avons également élaboré un guide pour les parents. Ils ont un rôle clé, mais ils sont souvent perdus. C'est parfois mon cas ! Les choses vont vite, donc il faut que les parents sachent quoi faire. Le Gouvernement nous a invité à participer à cette réflexion. Cela doit être vu dans sa globalité : on ne peut pas se limiter au sujet de ce que l'enfant appuie sur un bouton ou pas, seul dans sa chambre.
J'appuie ces propos, en ajoutant que l'interdiction du cyberharcèlement est explicite, à l'article 6 que j'évoquais. Je rajouterai que la créativité et la gentillesse sont des valeurs de Snapchat : on est donc intraitable avec le cyberharcèlement. De ce fait, nos modérateurs agissent en moins de deux heures sur toutes les questions de cyberharcèlement après signalement.
Nous allons détailler davantage nos règles d'utilisation. Le harcèlement en ligne et l'intimidation sont strictement et explicitement interdits dans nos conditions générales d'utilisation. Ce comportement abusif recouvre à la fois ce qui concerne les menaces et propos désobligeants qui visent à se moquer, à humilier, à embarrasser, à intimider ou à blesser une personne, tout contenu qui insulte ou dénigre autrui sur la base d'attributs tels que l'apparence, tout contenu qui encourage le harcèlement coordonné, qui discrédite les victimes de drames violents, tout propos qui souhaite la mort, la maladie grave ou tout préjudice grave à une personne ou une personnalité publique, tout ce qui concerne le harcèlement sexuel, les menaces de piratage, de chantage, tout contenu qui menace de relever des données et renseignements permettant l'identification d'une personne - y compris l'adresse du domicile, l'adresse électronique, le numéro de téléphone, etc.
Toutes ces règles sont énoncées dans nos conditions, et elles sont ensuite utilisées dans le processus de modération. Il y a d'abord une modération technique par algorithme : nous avons par exemple des listes d'insultes en français et nous bloquons tous les contenus qui s'y réfèrent, et tous les outils qui permettent, avec ces mots-clés, de faire une recherche sur la plateforme. Ensuite, une modération est effectuée par des opérateurs humains, des personnes qui comprennent et parlent le français. On encourage nos utilisateurs à signaler les contenus qu'ils jugent inappropriés : un bouton de signalement est intégré à l'application et permet de détailler la raison qui fonde ce signalement.
Plusieurs types de contenus peuvent être signalés : des vidéos, des hashtags, des commentaires, des messages ou même un profil d'utilisateur. Ces contenus signalés par les utilisateurs sont revus par des modérateurs humains qui, encore une fois, comprennent et parlent le français.
Nous publions tous les six mois un rapport de transparence : le dernier, concernant le second semestre 2020, fait état de 89 millions de vidéos supprimées dans le monde entier parce qu'elles enfreignaient les règles communautaires ou les conditions de service, et parmi cette masse, 6,6 % ont été retirées car elles étaient contraires à nos règles en matière de harcèlement. 89 millions paraît un chiffre important, mais cela représente environ 1 % de toutes les vidéos téléchargées sur TikTok. Donc 99 % des vidéos TikTok respectent nos conditions. Les gens viennent en général sur TikTok pour s'exprimer, se mettre en scène et partager leurs passions, et pas pour critiquer le voisin.
92 % des vidéos ont été supprimées avant de faire l'objet d'un signalement, 83 % l'ont été avant d'être visionnées ne serait-ce qu'une fois, et 93,5 % ont été retirées moins de 24 heures après leur mise en ligne.
Nous avons un centre de sécurité qui a été ouvert à Dublin, avec des équipes dédiées à la sécurité de la plateforme, qui garantit un suivi 24 heures sur 24 tout au long de l'année.
Nous avons aussi des paramètres de sécurité à la disposition des utilisateurs. Je pourrai y revenir.
Pour revenir sur cette question de vigilance, à vous écouter, tout est parfait sur le papier. Mais le problème existe toujours ! Le ministre de l'Éducation nationale indiquait le 18 mai 2021 que le cyberharcèlement ne recule pas. Malgré toutes les précautions que vous prenez, toutes vos décisions, tous vos filtres, le cyberharcèlement existe. Pourquoi ? Comment l'expliquez-vous ?
Les mesures que vous prenez sont-elles suffisantes ? Sont-elles bien connues ? Vous parliez tout à l'heure d'outils : sont-ils bien identifiés ? Les élèves et les parents peuvent-ils y avoir accès facilement ?
J'ai à mon tour une deuxième question. Comment intervenez-vous sur des boucles privées de conversation et des messages privées ? Pouvez-vous supprimer des contenus, voire fermer de telles boucles ?
Je parlerai en tant que représentante des messageries Messenger et Instagram, mais je ne parlerai pas de WhatsApp car je ne suis pas en charge de cette plateforme.
Ces messageries disposent du « privacy by design » : ces conversations sont privées, donc nous n'avons pas accès à leur contenu.
Nous disposons toutefois d'outils de signalement puissants. Aujourd'hui vous pouvez tout signaler sur nos plateformes : un message, une « story », un compte ou un profil. Ce contenu est ensuite examiné par nos équipes de modération et de sécurité. S'il enfreint nos règles, il sera supprimé.
J'aimerais préciser, au sujet du signalement, que nous collaborons beaucoup avec les autorités publiques. Nous avons mis en place un portail, un espace dédié, pour que les autorités comme la plateforme Pharos ou les services de gendarmeries et commissariats de police nous signalent directement les contenus via ce portail. C'est un canal de communication direct. Lorsque ces autorités nous signalent un contenu, elles reçoivent un mail accusant de la bonne réception de leur demande et, dans les heures qui suivent - le processus est très rapide notamment quand cela concerne des mineurs -, elles reçoivent un mail qui explicite la décision prise par rapport à ce contenu. Nous avons beaucoup d'outils de signalement.
Je précise aussi que nous travaillons énormément, notamment avec e-Enfance, qui fait partie d'un de nos programmes ayant vocation à créer un canal direct entre nos équipes de modération et l'association pour qu'elle puisse nous signaler du contenu et être avertie du devenir de ce contenu dans un temps record.
La question des messageries privées est un sujet de fond. Il n'est pas nouveau, car lorsqu'on regarde le code des postes et télécommunications, l'article L. 32-3 dispose que nous n'avons pas le droit d'y intervenir. C'est privé, comme un message par SMS. Mais nous savons aussi que, comme c'est privé, les gens peuvent y faire des choses illicites. C'est un problème qui doit être regardé juridiquement, car le secret des correspondances est fondamental.
Nous disposons également d'un outil de signalement, y compris dans la partie privée : dès que vous voyez quelque chose, vous le faites savoir à Snapchat, on travaille également avec les autorités et tout un processus est mis en place.
J'apprécie beaucoup le fait - et c'est lié à notre modèle d'affaire - que ces groupes privés soient très privés. On interdit des groupes de plus de 30 ou 31 personnes, c'est-à-dire en gros une classe ou un groupe d'élèves. On peut un tout petit peu accroître mais c'est très privé, donc si un message de harcèlement se diffuse dans ce groupe, même si c'est très grave, il sera assez limité. Car le problème, selon moi, est la viralité. On peut le penser comme un gros danger dans le domaine du numérique. 30 personnes représentent un effet de masse contrôlable, et le contenu qui ferait l'objet d'un éventuel harcèlement ne pourra pas être viralisé, c'est-à-dire qu'il ne sortira pas de la plateforme. Il est malheureusement viralisé lorsqu'un utilisateur de Snapchat fait une capture d'écran de ce contenu et le met sur un autre réseau social. On ne peut rien faire dans ce cas.
Snapchat dispose toutefois d'une modalité où, dès que quelqu'un diffuse hors du groupe d'amis du contenu ou une photo prise par ce groupe, le reste du groupe sera au courant par le biais d'une notification nous informant que la personne n'a pas respecté le contrat de confiance. À nous de prendre la décision de le bannir du groupe ou d'en faire autre chose. Il y a une idée de confiance dans le groupe d'amis, donc on ne peut pas viraliser le contenu. Malheureusement, il peut l'être sur d'autres plateformes. C'est d'un autre problème, de fond, dont il faudrait parler : celui de la diffusion massive de contenus en un instant par la viralisation.
TikTok intègre bien une messagerie privée, mais elle est interdite par défaut aux utilisateurs de moins de 16 ans. Chez TikTok, nous développons des paramètres permettant spécifiquement et avant tout de protéger les plus jeunes utilisateurs. Pour pouvoir activer cette messagerie privée, il faut activer ce paramètre, ce qui suppose un acte positif.
Ensuite, pour pouvoir échanger avec un autre utilisateur, il faut être connecté avec lui. Vous ne pouvez pas envoyer de message à un inconnu avec lequel vous n'êtes pas connecté sur l'application.
Enfin, élément très important concernant le harcèlement en ligne - car on sait qu'il a lieu via les commentaires mais aussi la messagerie donc il est impératif de sécuriser cet espace d'échange -, il est impossible, sur TikTok, d'envoyer des pièces jointes (fichiers texte, audio, vidéo) via la messagerie privée. Cela sert à éviter des situations de cyberharcèlement et notamment de revenge porn. Les messages privés sur TikTok constituent une communication privée entre deux individus.
Pour terminer, nous sommes partenaires officiels d'e-Enfance depuis septembre 2020. Nous travaillons régulièrement avec l'association depuis l'ouverture de nos bureaux. Nous avons mis en place un canal de signalement dédié : lorsqu'e-Enfance nous signale des contenus, nous les retirons en priorité, directement, sans regarder l'état du contenu puisque cette association est un partenaire de confiance.
Avant de laisser la parole à mes collègues, je souhaite vous interroger plus en profondeur sur les conditions d'utilisation de vos services. Sont-elles réellement prises en compte par les utilisateurs ? Après avoir rappelé l'âge minimal d'utilisation de chacun de vos services, pouvez-vous nous indiquer si vous avez une politique particulière afin de vous assurer que les personnes qui s'inscrivent sur vos réseaux respectent ces âges minimum ? Procédez-vous à des fermetures de comptes, lorsque l'on vous signale que le compte est détenu par un mineur qui ne respecte pas ces conditions d'âge minimales ?
Je rappelle qu'il faut avoir au moins 13 ans pour avoir un compte sur Facebook ou sur Instagram. D'ailleurs, quand un nouvel utilisateur s'inscrit sur l'une ou l'autre des plateformes, il doit absolument indiquer son âge. Naturellement, la plupart des gens ne mentent pas sur leur âge. Nous sommes toutefois conscients que certaines personnes le font pour avoir accès à nos services. Comment fait-on face à cela ?
Nous menons plusieurs actions. Tout d'abord, nous assurons un signalement pro-actif effectué par nos équipes de sécurité. Si un compte peut s'apparenter comme appartenant à une personne de moins de 13 ans, alors il sera placé dans un point de contrôle. Le propriétaire de ce compte devra alors justifier de son âge en fournissant une preuve d'identité pour récupérer l'accès à son compte.
Le second signalement possible est celui effectué par un utilisateur. Si vous avez un doute et pensez que ce compte peut sembler appartenir à un mineur, vous le signalez et il sera mis dans ce point de contrôle. Il faudra à nouveau fournir une preuve pour que l'utilisateur récupère son compte.
La vérification d'âge est un défi commun à tous les acteurs du secteur. Pour avoir une approche encore plus pro-active sur ce sujet, nous développons des technologies d'intelligence artificielle qui pourraient nous aider à détecter des signaux faibles, comme des messages relatifs à l'anniversaire de la personne sur son fil d'actualité, des interactions avec certaines pages et certains contenus. Ces signaux permettraient de détecter les comptes de personnes de moins de 13 ans et donc de les supprimer.
Notre seuil est également fixé à 13 ans, mais c'est l'âge légal, donc cela me paraît normal d'interdire en-deçà de 13 ans. Il n'existe pas d'harmonisation européenne à ce sujet.
Nous sommes très vigilants, et on retire les comptes qui ne respectent pas ces règles, mais c'est un vrai problème de fond, dont on a commencé à parler. La plupart d'entre nous sont signataires de la « charte Taquet » pour lutter contre les contenus pornographiques pour les mineurs : elle est aussi importante pour nous tous. Dans ces débats, on a commencé à parler de la notion de « chaîne de valeur ». Une plateforme, pour vérifier l'âge de la personne en ligne, s'appuie sur du déclaratif : elle ne peut pas vraiment vérifier l'âge. Elle compte sur la bonne foi, et utilise ensuite des outils de contrôle. Il faut voir cela comme une chaîne de valeur en amont et en aval. Si on veut contrôler l'âge, il faut des outils de vérification, de contrôle de l'âge, des outils de contrôle parentaux.
Pour cela, il faut aller voir au début, à la source. Il est rare qu'un mineur achète de lui-même un téléphone portable dans une boutique : il est généralement accompagné de ses parents. Au moment de l'achat, il faudrait que le vendeur leur explique comment peuvent être mis en place des outils de contrôle parentaux. Ils existent : SFR et les partenaires de la charte les mettent en place. Mais très peu de parents les connaissent et les téléchargent.
Avant d'aller dans la boutique, il y a l'étape de la construction : c'est une chaîne globale. Il faut que les constructeurs mettent en place des garde-fous et des outils de contrôle. Dans la mesure où 95 % du marché est concentré sur Apple et Google, il faut que ces acteurs mettent en place des outils pour empêcher qu'un enfant de moins de 13 ans puisse avoir accès à ces applications.
Le sujet concerne beaucoup d'acteurs, donc c'est compliqué. Nous sommes en bout de course, nous faisons ce que nous pouvons, mais toute une action en amont très importante doit être faite.
Je réagis à ce que vous nous indiquiez sur le fait qu'à nous entendre, tout serait parfait. Nous avons parfaitement conscience que rien n'est jamais parfait, et qu'il y a des astuces, y compris de la part des jeunes utilisateurs, pour contourner les règles. C'est un jeu du chat et de la souris. Nous recherchons une amélioration constante des procédures, des outils techniques et de notre organisation pour être toujours plus efficaces. Cela concerne aussi le fait de ne pouvoir accueillir que les utilisateurs de plus de 13 ans. Des améliorations ont été et continuent d'être apportées, quasiment quotidiennement.
Tous les utilisateurs doivent renseigner leur date de naissance. S'ils ont moins de 13 ans, ils sont bloqués. S'ils ont ensuite rentré un nouvel âge pour pouvoir déjouer l'application, ils seront bloqués aussi. Tout au long du processus de vie du compte, un modérateur peut signaler un profil manifestement trop jeune : dans ce cas, le compte sera supprimé. Un utilisateur peut aussi signaler le compte au motif qu'un autre utilisateur a moins de 13 ans. Nous essayons de trouver le bon équilibre entre la sécurité des utilisateurs - notamment les plus jeunes - et leur autonomie. C'est ce qui explique qu'on ne peut pas trop être intrusifs dans les procédés de vérification de l'âge. En tout cas, nous développons sans cesse des paramètres permettant de dissuader les plus jeunes d'arriver sur l'application et de protéger nos jeunes utilisateurs contre le cyberharcèlement. Nous l'avons expliqué tout à l'heure : les plus de 13 ans et moins de 16 ans ont des fonctionnalités bridées et n'ont, par exemple, pas accès à la messagerie.
S'agissant de la sensibilisation, non seulement des enfants mais aussi des parents, nous vous avons indiqué le travail que l'on mène avec e-Enfance. Nous organisons également des sessions en ligne qui s'adressent à tous les utilisateurs. Nombre d'entre eux, qui peuvent avoir plus de 25 ans, sont aussi sensibles à ces messages. Nous avons, par exemple, accueilli le ministre de l'Éducation nationale, Jean-Michel Blanquer, qui est venu parler pendant plus d'une heure du bon usage d'internet et des réseaux sociaux. Il est venu échanger avec e-Enfance et nos utilisateurs. Nous organisons régulièrement des sessions de pédagogie sur et en dehors de la plateforme.
Nous avons des mesures de modération, nous avons mis des paramètres de sécurité et de confidentialité à la disposition des utilisateurs.
Nous considérons que cela n'est efficace que si ces utilisateurs connaissent l'existence de ces paramètres et comprennent les enjeux qui s'y cachent (vie privée, confidentialité, image). C'est pour cela qu'on mène très régulièrement, en partenariat avec des experts et des associations comme e-Enfance sur la question de la protection de l'enfance, des opérations de sensibilisation. Cela passe souvent par des questionnaires en lignes et par des formats ludiques et participatifs susceptibles d'engager les utilisateurs et qui correspondent aux codes de l'application.
Ces campagnes marchent très bien. Nous en avons fait à l'occasion de la journée de lutte contre le harcèlement à l'école. Nous mobilisons aussi les influenceurs, car la meilleure manière de parler aux jeunes est de s'adresser à eux via les personnes qu'ils suivent. Nous mobilisons aussi les pouvoirs publics : nous l'avons fait avec Jean-Michel Blanquer, et nous espérons le faire avec d'autres acteurs publics.
J'espère que nous pourrons revenir sur la question de la sensibilisation des utilisateurs et des parents.
Loin de moi l'idée de critiquer les réseaux sociaux : nous sommes au 21è siècle, c'est un outil que, nous-mêmes, adultes, utilisons. Mais j'ai quelques problèmes de fond. Vous nous dites que c'est interdit au moins de 13 ans ou de 16 ans. Comment le vérifiez-vous, concrètement ? Rien ne permet de le savoir !
J'entends votre volonté de participer à cette lutte contre le harcèlement. J'ai enseigné dans le lycée où était scolarisée la petite Alisha, retrouvée dans la Seine à Argenteuil. Je sais de quoi je parle : je peux vous assurer que l'équipe éducative ne s'en est toujours pas remise. Ce harcèlement, ces menaces entre les jeunes sont très problématiques car ces enfants ne maîtrisent pas toujours que celui qui est harcelé est victime, peut aller jusqu'à se suicider ou être menacé à mort.
Je connais mieux Facebook. Sur ces réseaux, on ne sait pas à qui on a affaire. À partir du moment où vous avez des pseudos et des faux comptes, le problème du harcèlement est insoluble. Je suis fréquemment menacée par Momo du 9-3. Des comptes sont créés spécialement pour harceler et pour insulter. Quand vous remontez le compte, il n'y a rien. Cela ne m'atteint pas car je suis adulte et je sais le gérer, mais dans le cadre du harcèlement entre adolescents, c'est très dangereux. À partir du moment où on accepte, sur ces réseaux, de laisser un utilisateur faire ce qu'il veut avec des pseudos parce qu'on ne peut pas le retrouver, se pose une difficulté majeure. Vous n'avez aucun critère permettant de vérifier sa réelle identité.
On n'a pas toujours les outils pour dire à ses parents ou à ses copains qu'on est harcelé. Comment peut-on interdire les pseudos, cet anonymat permanent qui donne cette légèreté, que certains jeunes ne maîtrisent pas, d'aller menacer tout le monde sans rien craindre ? Je ne remets pas en cause ce que vous essayez de faire, mais ce sujet est la clé, à mon avis.
C'est en effet un problème majeur. Dans nos règles, il est très clair qu'il faut avoir un profil authentique pour disposer d'un compte sur Facebook et Instagram. Il faut avoir un nom et un prénom. Le contrôle se fait au moment du signalement : si votre compte a été signalé, on vous demandera de justifier votre identité avec des papiers. Il n'y a alors pas d'anonymat.
En effet : s'il y a signalement, et si nos équipes de modération repèrent ce compte.
L'anonymat sur internet est effectivement un autre grand sujet. Tout à l'heure, je vous disais que le modèle d'affaire est fondamental. Si, dès le premier jour, l'application a été créée de façon bienveillante ou vertueuse, cela change tout. C'est pour ça que je suis à l'aise avec Snapchat. Il est très difficile de s'agréger de nouveaux amis sur cette application, car les groupes sont limités. Pour qu'il y ait harcèlement, il suffit qu'une personne sur les 31 agisse mal, je suis d'accord, mais c'est limité.
J'en reviens à cette notion de viralité, qui fait qu'une personne peut ou pas agresser quelqu'un. La notion d'identité réelle est beaucoup plus prégnante dans certaines plateformes que d'autres.
Au-delà de l'anonymat, la première étape est d'éduquer. C'est la tarte à la crème des plateformes mais il faut le mettre en place. Le code de l'éducation a été peu modifié. Il faut mettre, comme au Royaume-Uni, de façon obligatoire dès le collège, des cours d'enseignement aux contenus illicites en ligne, car ces jeunes gens n'ont aucune idée de ce qu'ils font. Je ne parle même pas du procès « Mila ». Ce sont des jeunes gens banals qui n'ont pas conscience de l'impact de leur parole et qui se pensent protégés parce que c'est anonyme. Au Royaume-Uni, cet enseignement est adossé au cours d'éducation sexuelle. Cela pourrait être obligatoire. Je donne régulièrement des interventions dans les collèges et lycées mais c'est sur la base du volontariat et mal organisé. C'est fondamental car, en plus, les parents sont dépassés et ne sont pas là pour aider lorsqu'un problème survient.
Par ailleurs, vous savez peut-être que l'ancien brevet informatique et internet (B2i) a été remplacé par le certificat Pix. Il faudrait également le systématiser et le rendre presque obligatoire.
Le dernier point est de former les formateurs, c'est-à-dire les professeurs, qui n'ont aucune idée de comment gérer cela. Il faut développer une éthique et un code de bonne conduite du numérique. Nous sommes heureux, comme plateformes, d'être associés à vous. On connaît nos jeunes : l'enseignement doit être presque obligatoire. Il faut arrêter de proposer cela de façon facultative. Il faut que les gouvernements s'occupent de réformer cela.
Snapchat a été une des seules plateformes qui a vraiment soutenu la création d'un permis internet au collège. C'était présent dans la loi visant à lutter contre les contenus haineux sur internet et dans le projet de loi confortant les principes de la République.
Autre point, on est tous d'accord pour dire que l'anonymat sur internet n'existe pas. Quand on s'inscrit sur Snapchat, on demande un numéro de téléphone et une adresse mail : on a la traçabilité de l'utilisateur. Lorsqu'on reçoit une réquisition judiciaire, nous transmettons directement ces données. Nous sommes en coopération avec Pharos et les autorités judiciaires en France. Nous vous soutenons également à 200 % sur la pédagogie et la transmission.
TikTok se présente comme une plateforme créative et éducative. Les fonctions de réseau social existent évidemment : nous les avons développées ensemble, mais certaines sont bridées, notamment pour les jeunes utilisateurs. Nous mettons vraiment en avant les contenus créatifs et artistiques, et ceux qui visent à informer, éduquer et sensibiliser. Des utilisateurs sont spécialisés dans le savoir-être. Il est en effet important de donner des codes de comportement satisfaisant sur les réseaux. Nous pourrions citer des personnes qui se spécialisent dans les conseils donnés aux internautes, y compris pour se présenter à un entretien d'embauche, en dehors même des réseaux sociaux.
Des vérifications sont également effectuées : au moment où les gens s'inscrivent, ils donnent leur adresse mail et / ou leur numéro de téléphone. On a donc des données qui permettent de remonter aux utilisateurs en cas de besoin ou de réquisition.
Par ailleurs, ce qui rend la chose difficile est la nécessité de concilier plusieurs principes. Il faut protéger les utilisateurs - lutter contre les discours de haine et d'intimidation - mais d'un autre côté, il y a la liberté d'expression, la protection de la vie privée et des données personnelles. Vous êtes habitués à gérer cet équilibre dans votre travail législatif. On essaie de mettre le curseur au bon endroit et nous utilisons vos recommandations pour continuer à faire évoluer nos mécanismes. Nous sommes d'accord avec le fait que la sensibilisation et l'éducation sont la clé. Nous encourageons toutes les personnes qui peuvent apporter ces messages de bons comportements à être présents sur notre plateforme et à communiquer pro-activement et positivement en direction de nos utilisateurs.
J'ajoute que, pour une personne qui se sentirait harcelée sur TikTok, il est assez facile de supprimer les commentaires et l'accès d'une personne à ce compte. Une fois que c'est fait, c'est définitif.
Nous avons développé en février 2020 un contrôle parental qui permet aux parents d'être associés à l'expérience en ligne de leur enfant. Comme cela a été mentionné, le parent est souvent dépassé par les nouveaux outils. Nous faisons régulièrement la promotion de ce contrôle parental, à la fois auprès de nos utilisateurs, qui sont jeunes et beaucoup moins jeunes - comme les parents - et auprès d'associations comme e-Enfance. Nous avons développé il y a quelques mois un guide à destination des parents, qui leur est distribué par e-Enfance dès qu'ils le peuvent à l'occasion d'une intervention. C'est un élément important en terme d'éducation et de sensibilisation.
Encore une fois, nos règles disent que nous acceptons uniquement les profils authentiques. Par authentique, on entend : un nom et un prénom. Je peux aussi revenir sur la question des pseudonymes.
Ce n'est pas vrai. Ce n'est pas la réalité ! Cela m'est arrivé. Pour moi, c'est égal : je bloque, donc je supprime, mais c'est différent pour les enfants.
Je ne vous vise pas à titre personnel, mais le pseudo sans photo qui passe son temps à vous harceler et à vous menacer, cela signifie qu'il fait ce qu'il veut.
Comme les autres intervenants l'ont déjà mentionné, il faut absolument renseigner une adresse mail et un numéro. J'insiste encore sur la collaboration avec les autorités publiques. Lorsque nous recevons des demandes dans un cadre très précis sur des faits, nous collaborons avec ces institutions et nous partageons des données qu'il est autorisé de fournir dans un cadre légal, comme l'adresse IP, l'adresse mail, le nom et le prénom de la personne qui a causé du tort. Nous fournissons toutes ces données personnelles supplémentaires, dans le cadre très spécifique de requêtes judiciaires.
Je rejoins un peu ma collègue. Pour avoir travaillé dans le monde de l'éducation en qualité de directrice d'école, je peux vous garantir que des enfants de 8 à 9 ans ont des profils Facebook, qui ont été mis en ligne par les parents ! Et les parents ont menti sur la date de naissance des enfants. J'ai régulièrement des élèves qui me demandent en ami, et qui me disent c'est leurs parents qui les ont inscrits.
J'ai été accusée dans la presse car une personne a créé un compte en mon nom pour insulter des élus de Saint-Martin, l'île voisine. Le président de Saint-Martin m'a demandé pourquoi j'avais fait cela : je suis tombée des nues car il m'a fallu prouver que je n'étais pas l'auteur de ces posts. Des gens utilisent votre profil, prennent votre photo et l'utilisent à mauvais escient.
Comme personnage public, j'ai reçu une demande d'amie de la préfète de Saint-Martin, mais c'était un faux profil !
J'ai quatre adresses mail différentes : on pourrait créer trois à quatre profils différents.
Donc je pense qu'il faudrait demander systématiquement et obligatoirement, lorsqu'on crée un compte, de joindre la copie de la pièce d'identité. Cela éviterait des problèmes.
Je sais également qu'avec la pandémie, les réseaux sociaux ont favorisé le lien entre les jeunes. Pourquoi ne pas créer des groupes spécifiques à des classes d'âge pour éviter les dérives ?
En ce qui concerne l'usurpation de votre identité, vous avez raison de dire que ce n'est absolument pas normal. Si vous n'avez pas signalé ce contenu, ou si l'avez fait et que vous n'avez pas eu de retour, je veux bien discuter de ce point avec vous après cette audition.
Sur le deuxième point, il y a un vrai enjeu de sensibilisation. Quand vous dites que les parents créent le compte de leurs enfants, ce n'est pas normal et cela montre qu'ils n'ont pas assez connaissance de nos politiques et de la façon d'utiliser nos outils.
Nous travaillons avec e-Enfance, nous soutenons des campagnes nationales sur le cyberharcèlement, nous soutenons le 30 18 - numéro d'e-Enfance -, nous avons créé des guides destinés aux parents pour les pousser à avoir des discussions avec les enfants sur leur sécurité en ligne, mais aussi des guides pour éduquer les parents eux-mêmes sur le fonctionnement des plateformes, les politiques mises en place, les outils à disposition des parents pour contrôler l'usage et encourager l'enfant à un usage modéré. Ces guides visent à encourager les discussions avec l'enfant pour l'informer. Les parents sont presque moins informés que les enfants.
J'insiste sur un aspect. Le harcèlement a toujours eu lieu : ce phénomène n'est pas un nouveau. Avec la technologie - les appels, les textos, internet en général, les réseaux sociaux aussi - le harcèlement ne s'arrête plus en rentrant de l'école et se prolonge le soir. C'est un phénomène de société, et comment y répondre ? C'est une responsabilité partagée : celle des plateformes, avec des politiques de modération, des outils, des campagnes de sensibilisation, mais c'est aussi le rôle des parents, de l'école et de l'État. Ce n'est que de cette façon que nous pourrons lutter contre ce phénomène.
Quand on parle du contrôle de l'âge, je suis convaincu que la chaîne de valeur que j'ai évoquée doit être mise en place. Je sais que les pouvoirs publics le comprennent. C'est compliqué, mais ce n'est pas pour autant qu'il ne faut pas le faire : c'est très important. Il ne faut pas amalgamer toutes les plateformes. Chacune d'entre elles a un but précis, son propre modèle : il faut les différencier.
L'éducation, j'en suis convaincu, est un aspect clé, mais les parents sont très en retard et sont complètement perdus. C'est un vrai problème. Je parlais tout à l'heure de l'obligation de les former.
Je rebondis sur ce que vous avez dit sur le fait qu'on reste entre gens qu'on connaît : sur Snapchat, on a mis en place la fonction « check your friends », qui permet de contrôler qu'on reste bien entre ses amis, et de faire en sorte que si un nouvel ami arrive, on vérifie qu'on le connaît et qu'il appartient bien à une sphère d'influence et de confiance identifiée.
Je rejoins mes collègues. Sur la question de l'éducation des parents et de la pédagogie, il est vraiment important de créer un permis internet. Quand j'étais plus jeune, on avait un permis piéton à l'école : on nous apprenait comment traverser la rue et comment comprendre les signes. Quand on rentrait à la maison, on réexpliquait cela à nos parents, et ils réapprenaient avec nous le code de la route.
La question de la transmission des pièces d'identité, dont on discute au niveau européen, est assez sensible en raison des enjeux de cybersécurité et d'harmonisation. Va-t-on le faire juste en France ? Pourquoi ne pas le faire en Allemagne ou en Hongrie ?
Encore une fois, chez Snapchat, on crée certaines activités, comme le « check my friend list » où on encourage quotidiennement à nos utilisateurs à revérifier leur liste d'amis, pour contrôler si telle personne en fait encore partie.
Pour le permis informatique, au même titre que le B2i, la charte de l'informatique existe depuis de nombreuses années et est mise en oeuvre dans les établissements scolaires. La brigade de prévention de la délinquance juvénile (BPDJ) venait discuter avec les élèves de CM1-CM2 pour leur expliquer les dangers de l'internet, le harcèlement. Un travail est fait avec les élèves.
Malheureusement, nous faisons face à un phénomène de groupe, où certains sont mis en lumière et en exergue. Si on veut faire partie du groupe, on doit avoir un comportement qui s'aligne sur celui des autres. On arrive alors à des déviances. Des enfants ont toutefois assez de clairvoyance, et discutent avec les parents de telle sorte qu'ils évitent de rentrer dans ces phénomènes de groupe qu'ils peuvent dénoncer. Je connais un petit jeune à Saint-Barthélémy, qui est très mobilisé par le cyberharcèlement, et qui a mis en place un projet dans son collège pour sensibiliser ses camarades. Il faut promouvoir cela, mais il s'agit d'un élève sur combien d'autres ?
Vous avez signalé un point très important : ce que j'appelle les « critères de vanité ». C'est la course à l'échalote en ligne, où des gens qui veulent des « likes », des commentaires, veulent être les plus beaux, avoir leur quart d'heure de gloire à la Andy Warhol. Cela est lié à l'économie de l'attention sur laquelle e-Enfance travaille beaucoup. C'est pour ça que chez Snapchat, il n'y a pas de commentaire.
Au moment où on crée une plateforme, il faut savoir ce qu'on y cherche. Agir après, c'est trop tard : c'est seulement cosmétique. Cette viralité et ces critères de vanité sont une des choses qui font que le harcèlement et le cyberharcèlement peuvent être décuplés et donc très dangereux. Comme vous dites, une superstar, dans son collège, avec plein de « followers », peut faire ce qu'il veut. C'est dangereux. Il faut vraiment les bannir.
Sur la question de la pièce d'identité pour prouver l'âge, j'en reviens à mon débat sur les chaînes de valeur. On a beaucoup suivi ce qui s'est passé au Royaume-Uni où ils ont voulu, avec le British Classification Board, mettre en place une carte bancaire pour contrôler l'âge en ligne. Cela a été un échec total. Ils ont pensé à la carte d'identité : cela pose un problème de vie privée. Les enfants peuvent, en plus, piquer celle de leurs parents.
Il y a plein de solutions. Je suis convaincu que la bonne solution est la chaîne de valeur.
On peut aussi imaginer des « tokens » avec un certificat qu'on peut télécharger pour prouver vraiment son âge, mais c'est très lourdement gérable. Le plus simple, c'est la carte d'identité et la carte bancaire mais les Anglais ont montré que c'était un échec. Le Gouvernement avait lancé une mission sur le sujet et en est arrivé à la même conclusion.
Pour rebondir sur le sujet du brevet informatique, je crois qu'il est organisé en école primaire.
Les derniers chiffres font état de 700 000 élèves victimes de harcèlement chaque année, et la plupart sont au collège. J'estime donc qu'il est important de créer une sorte de sensibilisation.
Cela commence au collège, voire en CM1-CM2 où on observe des prémisses de harcèlement. Les adultes se rendent compte que c'est du harcèlement, mais pour les gamins, c'est un jeu. Ils ne se rendent pas compte de l'impact sur le camarade qui le subit.
Je rappelle que l'on vient sur TikTok pour diffuser les plus belles vidéos, souvent pour les faire ensemble : on trouve une notion de collectif pour faire un travail artistique. Ce sont les valeurs de la plateforme. On y vient de plus en plus pour s'informer, se former, trouver un emploi. On a fait il y a peu une mission emploi qui a très bien marché.
Pour ces raisons, outre tous les outils techniques qu'on a mis en place, nous pensons que le risque de se faire harceler sur notre plateforme, s'il existe, est limité. On peut citer le cas d'une créatrice qui a récemment indiqué que, sur Tiktok, elle avait trouvé un espace sécurisé, qu'elle savait que, si quelqu'un s'amusait à vouloir la harceler, il lui suffisait d'appuyer sur un bouton pour ne plus en entendre parler, et qu'elle aurait aimé qu'il en soit de même dans la vie réelle !
Si on met en avant des opérations culturelles sur notre plateforme, si on a amené nos utilisateurs au château de Versailles, au musée de l'Armée, si on les a accueillis au Grand Palais éphémère, c'est aussi parce que la culture relie les gens, leur permet de vivre ensemble, de partager des valeurs et de relativiser les cultures les unes par rapport aux autres. Nous allons continuer ce travail fondamental, y compris pour inculquer ces valeurs de vouloir vivre ensemble et de savoir-être en société.
Nous allons à continuer à creuser ce sillon, car cela correspond à nos valeurs, à notre ADN créatif et car cela crée de la sociabilité entre les gens. Ce week-end dernier, au Grand Palais éphémère, on a accueilli plus de 10 000 personnes et on a pu leur montrer - notamment aux parents - ce qu'était l'application TikTok et leur dire qu'elle est réservée aux plus de 13 ans. On croit beaucoup à ces actions de terrain, à petite échelle, mais qui permettent d'échanger et de faire progresser cette bonne connaissance de ce qu'on peut faire avec TikTok.
Je rajoute un point sur la notion de cyberharcèlement. Vous avez mentionné que, parfois, les utilisateurs n'avaient pas conscience d'être dans une situation de harcèlement en ligne. Cela est tout à fait vrai. Pour les jeunes et les moins jeunes, la définition n'est pas connue ni comprise. C'est pour cela qu'on met régulièrement en ligne des mises en situation, pour que les utilisateurs se rendent mieux compte de ce qu'est le cyberharcèlement, connaissent sa définition, et savoir comment réagir. Après la réaction à adopter, l'étape suivante consiste à savoir que faire et qui alerter. C'est le point le plus important. On pense aux parents, mais cela ne va pas forcément de soi pour les jeunes. Il faut aussi mettre en avant des partenaires de confiance comme e-Enfance et le numéro national, ou encore l'école, qui peut être un point de contact important.
J'interviendrais sur deux points. Tout d'abord, à propos de ce qui vient d'être évoqué sur l'anonymat et l'utilisation de pseudo, je voulais souligner le phénomène d'essaimage des comptes. Sachant qu'aujourd'hui, la création est sans limite - une seule personne peut générer plusieurs comptes -, cette pratique peut amplifier le phénomène de harcèlement et cyberharcèlement. Nous avons assisté en début de semaine au procès des harceleurs de la jeune Mila. On voit bien la difficulté qu'ont les institutions judiciaire à cerner les profils réels des agresseurs, dissimulés sous un ou plusieurs pseudonymes. J'ai le sentiment que nous sommes tous d'accord sur le fait que la clé du problème serait d'interdire l'anonymat, qu'il suffirait d'exiger une corrélation de compte avec une identité réelle, mais il semble que vous, représentants des réseaux sociaux, n'y soyez pas très favorables : j'aimerais savoir pourquoi.
Ensuite, en 2019, 2 839 plaintes ont été déposées en France pour atteinte à la vie privée par diffusion d'images à caractère sexuel, dont une grande majorité concerne des mineures. Ces publications les poursuivront certainement toute leur vie si elles ne parviennent pas à les faire retirer du net. Nous savons comme il peut être compliqué de retirer des images une fois qu'elles ont été publiées. Les démarches semblent être principalement supportées par les victimes qui s'engagent dans un long chemin de croix avant d'obtenir le retrait des contenus incriminés.
Sauf erreur de ma part, quand un signalement est effectué sur les réseaux sociaux, un message est envoyé au diffuseur - celui qui a publié la photo ou le contenu d'un message - lui indiquant que sa publication a été signalée, et lui demandant de bien vouloir la retirer. Je ne sais pas quelle est la procédure précise mise en place lors du signalement. Vous parliez précédemment de pouvoir donner les coordonnées ou l'identité d'une personne après une réquisition judiciaire. Il me semble néanmoins qu'avant d'arriver à une réquisition judiciaire, il peut se passer plusieurs jours : les dégâts peuvent être massifs avant que le nécessaire ne soit fait.
Pouvez-vous nous préciser quelle est la démarche engagée à partir du moment où un signalement est fait pour une publication de photos ou de messages à caractère violent, afin de mettre en sécurité le harcelé plutôt que le harceleur ? Il me semble que beaucoup de précautions sont prises pour protéger l'identité, mais ce sont souvent les harceleurs que l'on protège en faisant ce choix, plutôt que les harcelés.
Concernant la création de multiples comptes, quand on a détecté qu'une personne en harcèle une autre sur les réseaux, si on supprime son compte parce qu'il a enfreint nos standards, et qu'il venait à recréer un compte, on serait désormais capable, avec la nouvelle technologie, de l'identifier, notamment grâce aux nouvelles adresses IP, et nous bloquerions cette création de compte ainsi que les autres comptes de cette personne.
Concernant l'affaire Mila, dès le premier jour, nous avons entamé une action directe avec e-Enfance. Justine Atlan nous a aidé à identifier les faux comptes qui avaient été créés contre Mila, sur lesquels les gens diffusaient des photos et informations personnelles sur elle. Nous avons aussi immédiatement pris contact avec Richard Malka, l'avocat de Mila. Ce que nous avons fait de plus important reste la protection de son compte. Il y a eu plusieurs étapes : tout d'abord, la suppression de tous les contenus de haine à son égard, ensuite, la suppression des hashtags (ils étaient nombreux, par exemple « #IamnotMila »). Nous avons également détecté les milliers d'images diffusées de Mila ou images divulguant des informations personnelles sur elle. Ces contenus ont été bloqués et supprimés.
J'en reviens à cette collaboration avec les autorités publiques. Évidemment, on a été très mobilisés sur le sujet. Nous avons partagé les informations que nous avons légalement le droit de diffuser, qui ont aidé et contribué à l'enquête et ont permis aux autorités de bien détecter les différents harceleurs de Mila sur nos plateformes.
Concernant le signalement, quand un contenu est signalé, il est examiné par nos équipes de sécurité. S'il enfreint le standard de la communauté - nos règles - ce contenu est supprimé.
Le problème est que la carte d'identité soulève des questions de vie privée. On en revient toujours là mais je pense qu'on ne pourrait pas la demander car cela inclurait beaucoup trop d'informations personnelles.
Néanmoins lorsque des informations personnelles sur une personne harcelée sont diffusées cela vous pose moins de problèmes !
Je viens de vous répondre. Nous supprimons ces contenus. Ils nous dérangent, ils sont contraires à nos standards, et nous supprimons les publications.
Ne pensez-vous pas que, au lieu de traiter le mal après qu'il a été fait, il faudrait plutôt, pour éviter que des personnes se retrouvent dans ces situations, imposer que la vraie identité soit publiée sur un compte, plutôt qu'un pseudo ? Il y aurait certainement moins d'harceleurs.
Je ne vais pas me répéter mais je pense qu'il y a des sujets qui sont liées à la vie privée là-dessus et qu'il est difficile de demander les cartes d'identité pour cette même raison.
Excusez-moi, je ne parle pas de cartes d'identité. J'ai mon compte, j'ai mon nom, mon identité. Je pourrais créer un compte sur Facebook - comme n'importe quel autre réseau social - qui m'imposerait de vérifier mon identité.
J'ai l'impression qu'aujourd'hui il y a une réponse concrète, simple, pour éviter qu'il y ait un acharnement ou du harcèlement sur les réseaux sociaux : de nombreuses personnes se cachent derrière un pseudo. Pourquoi serait-il si compliqué d'imposer, et seriez-vous d'accord, vous, réseaux sociaux, pour imposer qu'il n'y ait pas de pseudo ou de compte anonyme possibles ?
Merci pour ces questions. Je pense que la levée de l'anonymat est un débat. À mon avis cela ne va pas assez loin. À Bruxelles, est actuellement discuté le Digital Services Act, dont le but est de permettre plus de transparence, un accès aux algorithmes, etc. Le problème de fond est celui de la massification des contenus qui amène à des contenus d'harcèlement extrêmement dangereux. Nous nous inquiétons d'un phénomène qu'il faut d'abord comprendre. Il est lié à un modèle d'affaire autour de la viralité.
Dans le cas précis de Mila, c'est vraiment ce qui s'est passé. Elle recevait des milliers de messages, souvent envoyés par des robots, selon un modèle qui le permettait. Il faut garder en tête l'idée que les plateformes ne sont pas toutes les mêmes. On parlait tout à l'heure des critères de vanité, c'est une nouvelle couche qui va au-delà du modèle de viralité. Si on va plus loin, l'anonymat n'est selon moi pas vraiment le problème. Donc lequel est-il ? De quoi parle-t-on, que cherche-t-on à limiter ?
Il faut développer l'éthique du numérique, avec un principe similaire au principe pollueur-payeur dans le domaine de l'environnement et qui doit être mis en place dans le domaine du numérique. Je pense fondamentalement, en tant que citoyen et père de famille, qu'un modèle d'affaires doit être vu et compris.
Souvenez-vous quand cela a été créé, il y a peu de temps.
J'étais à la CNIL dans les années 2000, personne ne s'occupait des sujets de l'internet, qui sont très récents. Le printemps arabe a montré l'intérêt et l'importance de cela. On en voit maintenant les dangers et les risques. Nous essayons de résoudre cela partout, dans le monde entier. Il faut avoir une vision mondiale. Les problèmes qu'on se pose là sont aussi posés aux États-Unis, à Londres, partout. Ce sont des problèmes de société très présents.
Je serais heureux d'échanger des notes pour réfléchir sur cette collectivité et la société que l'on veut donner à nos enfants, une sorte de contrat de confiance à réinstaurer, d'où ce modèle d'affaire, ces critères de vanité et également ce qu'on appelle en anglais un « user generated content » : il s'agit de contenus générés par des internautes, qui disent parfois n'importe quoi.
À chaque fois que j'en parle, on a l'impression que ça semble tellement impossible à faire qu'on parle de choses de très court terme. Le problème de fond pour moi est là, au-delà de la levée de l'anonymat.
Vous avez parlé du droit à l'oubli. C'est un vrai sujet. C'est plus aux moteurs de recherche d'exposer leur vision des choses. Ce n'est pas tellement un sujet pour les plateformes.
Pour répondre à votre autre question, lorsqu'un contenu arrive chez nous, qu'on nous demande de le retirer, on le gèle - « freeze » - pour un certain nombre de jours, le temps de vérifier lors d'une enquête. On le retire par précaution : comme on l'a dit, c'est tolérance zéro pour ces contenus et pour tout type de contenus illicites et illégaux. Une fois qu'il est retiré, on le garde pour un certain temps.
Sur Snapchat, nous avons une politique où les données sont éphémères, où elles sont effacées tout de suite, donc c'est encore plus compliqué pour nous. Mais il faut quand même le faire, pour que la police ait les informations. Nous travaillons avec Pharos et autres services de gendarmerie. Ils sont tous les jours débordés et n'ont pas assez de moyens. Il faudrait davantage de moyens pour agir encore plus vite, tout de suite, car le temps est critique. C'est pour cela que chez Snapchat on retire par exemple un contenu terroriste en une heure. Toutes les plateformes devraient le faire.
Quand la France présidait le G7 il y a trois ans, il y avait eu en Nouvelle-Zélande l'incident de Christchurch qui avait été filmé. C'était un vrai débat de société. Nous étions tous réunis à Bercy pour parler du rôle que nous devions incarner. La Première Ministre de Nouvelle-Zélande avait appelé son « call to action » et demandait aux plateformes d'agir pour que cela ne se reproduise jamais.
Malheureusement, six mois après, en Allemagne, à Hamm, pendant Kippour, quelqu'un a filmé un massacre sur la plateforme de vidéos Twitch. Ce comportement risque de se reproduire tant que la question du modèle d'affaires ne sera pas résolue. Pour éviter tout cela, il faut donner plus de moyens à Pharos et autres et avoir une vision de coopération internationale pour tous les services mondiaux.
Sur l'aspect terrorisme, nous retirons en une heure un contenu terroriste. Étant le patron de l'Europe pour Snapchat, je suis tout le temps à Bruxelles, où a été récemment adopté un règlement contre le terrorisme. Il a été initié en septembre 2018. On a mis presque quatre ans avant de voter quelque chose qui doit être indiscutable : le fait de pouvoir retirer en une heure des contenus terroristes. À Bruxelles ça ne s'est pas fait.
Il y a une vraie dimension culturelle en Europe sur la vie privée. Beaucoup de pays du Nord en ont une vision différente de la nôtre. La plupart des pays des États membres ont estimé que demander aux plateformes de retirer un contenu terroriste en une heure n'était pas possible parce que cela porte atteinte aux libertés fondamentales (liberté d'expression, etc). Beaucoup de pays sont dans cet état d'esprit et il faut l'entendre.
Un compromis a été trouvé : retirer en une heure et dans les meilleurs délais. C'est un vrai débat de fond. Je trouve que ce n'est pas tolérable. Il faut retirer en une heure. C'est ce que nous faisons et on est les seuls.
J'entends les préoccupations sur la levée de l'anonymat. Il y a des questions incidentes : comment lutter contre l'anonymat sur internet ? En fournissant et transmettant une carte d'identité. Quels seraient les autres moyens sinon ?
Je vais vous donner un exemple. Avec la crise du covid, pour aller de Saint-Barthélémy à la France, il faut passer par la partie néerlandaise de Saint-Martin. Compte tenu de la situation sanitaire, ils ont mis en place une autorisation très simple d'accueil sur le territoire : vous entrez votre identité (nom, prénom, date de naissance, adresse) et votre numéro de pièce d'identité. Vous scannez la copie de votre test PCR et vous le joignez afin d'avoir en une demi-heure le retour avec l'autorisation acceptée si vous respectez les conditions. Cela signifie que le contrôle d'identité a été fait auprès d'une plateforme sécurisée, que vous avez tous les éléments, et que tout peut se faire très vite. Pourtant, nous sommes aux Pays-Bas. Il y a les moyens. Des choses peuvent être mises en place au niveau européen : donner le numéro de la pièce d'identité par exemple, qui irait vers une plateforme spécifique, sécurisée, qui assurerait simplement que c'est bien la bonne personne.
Sur l'idée de la carte d'identité, il y a plusieurs problèmes. Il est possible de prendre la carte d'identité de sa mère et de s'inscrire avec. Certaines personnes n'ont pas de carte d'identité. Il y a aussi la question de la cybersécurité avec tout ce qu'on voit actuellement, les ingérences étrangères et les risques de cyberattaque : c'est assez compliqué. Aussi, cela soulève la question de la pollution numérique sur laquelle un texte est actuellement adopté à l'Assemblée nationale afin de chercher à rendre l'économie plus « verte », ainsi que la question du stockage. C'est une grosse question économique, mais je suis complètement d'accord avec vous sur plusieurs points.
Nous appliquons les lois et règlements en vigueur dans chaque pays dans lesquels on opère. Si, un jour, des décisions sont prises, on les appliquera évidemment. Il faut certes lutter contre les contenus qui posent problème - et qui, encore une fois, ne représentent qu'1 % des contenus ; 99 % ne représentent aucune difficulté. On a trouvé les moyens d'y remédier. On en a listé un certain nombre qui permettent d'ores et déjà à toutes les personnes présentes sur Tiktok de se protéger efficacement contre le harcèlement. Mais un équilibre doit être trouvé avec la liberté d'expression et la protection des données personnelles.
On dialogue avec la CNIL, haute autorité qui fait référence en ce domaine, et restons très attentifs aux recommandations qu'elle peut faire, comme nous restons attentifs à ce qui peut sortir des travaux de votre juste assemblée.
Concernant l'adresse IP, vous dites qu'on ne peut recréer un compte car l'adresse IP est repérée. Arrêtez-moi si je me trompe : l'adresse IP correspond à un ordinateur, à une machine. Il suffit d'aller sur la machine du voisin pour recréer un compte. Le contrôle n'est pas possible là-dessus.
Par ailleurs, pourquoi est-ce si difficile de faire disparaître complètement une vidéo ou photo qui pose problème ?
Je vais commencer par des paroles aimables, à l'égard des cinq personnes qui ont répondu à notre invitation, et qui ont eu le courage de venir nous écouter et de nous apporter quelques éléments de réponses.
Toutefois, à ce stade, j'ai entendu des mots valises, des concepts creux, comme « application bienveillante et vertueuse », « application créative et éducative » et « chaîne de valeurs ». Je suis quelqu'un de très concret. Je vais essayer de vous poser des questions concrètes, pour lesquelles j'attends des réponses concrètes.
La première question porte sur la prévention. J'ai entendu quelques exemples d'opérations qui, de mon point de vue, relèvent davantage du marketing. Je ne suis pas persuadé que des centaines de milliers d'utilisateurs des réseaux sociaux soient particulièrement passionnés par ce que Jean-Michel Blanquer a à raconter.
De la même manière, faire des opérations d'événementiel qui peuvent concerner quelques centaines de milliers de personnes est très bien, mais quand on est une application fréquentée par des centaines de milliers, voire des centaines de millions de personnes, ce n'est pas ainsi que je conçois la prévention.
Quelle prévention de masse pouvez-vous mettre en place ? Je vous propose tout de suite une réponse à cette question : pourquoi ne pas faire des bandeaux éducatifs, préventifs comme on en voit pour les bandeaux publicitaires pour tel ou tel annonceur ? C'est-à-dire faire en permanence de la prévention de masse à l'égard de toutes les personnes inscrites sur votre application, sur votre réseau social, et non pas seulement une fois par an à l'occasion de telle ou telle journée.
J'ai aussi beaucoup entendu évoquée aujourd'hui la notion de « responsabilité partagée », des parents, de la gendarmerie, de la police, de l'Éducation nationale. J'ai peu entendu parler de votre propre responsabilité.
J'évoquerai l'Éducation nationale. Aujourd'hui, lorsqu'on regarde toutes les missions qui lui sont confiées - prévention contre les conduites addictives, contre le tabagisme, contre l'alcoolisme, information sur la sexualité, sur les maladies sexuellement transmissibles - je ne voudrais pas qu'à force la société dans son ensemble sous-traite tous ces sujets à l'Éducation nationale dont la vocation première est d'éduquer, d'instruire, et de respecter les programmes d'histoire-géographie, mathématiques, allemand, etc. Je ne voudrais pas que toute la société se défausse sur l'Éducation nationale qui a des missions principales et secondaires, mais qui ne peut pas tout faire à la place de la société et des parents.
Vous avez ensuite évoqué dans vos propos la notion de modération grâce à l'intelligence artificielle. Je vous apporte mon témoignage, celui de quelqu'un inscrit sur certains de vos réseaux, et d'un élu local qui siège au conseil d'administration de huit lycées de la région Occitanie.
Nous avons parfois été confrontés à des convocations de conseils de discipline à cause de mauvaises usages de vos applications et réseaux sociaux. Nous sommes parfois allés à plusieurs afin de faire un signalement. La modération d'un de ces réseaux sociaux nous remerciait pour notre contribution et notre coopération, et nous avertissait qu'après vérification, le signalement effectué n'enfreignait pas les règles de la communauté. Dans ces circonstances très particulières et très précises, je peux vous assurer que les propos à caractère raciste, sexiste, ou homophobe, étaient punis par la loi française et donc enfreignaient les règles de la communauté. À ces occasions, j'ai pu constater que la modération grâce à l'intelligence artificielle était certainement artificielle mais assurément pas intelligente.
Concernant la rupture de l'anonymat, j'ai bien compris, en vous écoutant, que vous y êtes foncièrement hostiles. On vous propose une solution et vous tergiversez pour la refuser. Quand certains parents apprennent que leur enfant a fait une tentative de suicide, ils découvrent qu'il a ouvert une page sur un réseau social sans même qu'ils ne le sachent.
Demain, la meilleure façon de s'assurer que les enfants ont bien eu l'autorisation des parents, c'est de demander à l'adulte une pièce d'identité et à l'enfant le livret de famille. À ce moment-là, les parents pourront peut-être remplir la mission que vous leur assignez : celle d'éduquer, d'informer et de sensibiliser leurs enfants.
Monsieur Garandeau, vous nous avez tendu une perche à la fin de vos propos et je vous en remercie, en disant que vous appliquez naturellement la règlementation en vigueur. Nous sommes plusieurs à avoir entendu que sur ces réseaux sociaux, 99 % des contenus ne posent aucun problème.
Si je participe à cette mission d'information, c'est parce que, depuis que j'exerce des fonctions électives, j'ai été trop souvent confronté à des drames : l'échec scolaire, l'anorexie, la dépression, les tentatives de suicide et suicides. Ces 99 % ne m'intéressent pas. Ce qui m'intéresse c'est le 1 % à l'origine de ces tragédies. C'est la raison pour laquelle je suis dans cette assemblée à laquelle j'essaye d'apporter mon expérience du terrain et de la traduire avec mes collègues qui ont été confrontés à ces réalités humaines dramatiques.
Quand je vais dans un conseil d'administration de lycée aujourd'hui, quand je pénètre dans une salle, quand je vois certains parents, des infirmières scolaires, me revient alors en mémoire la scène de ce qui s'est passé alors qu'on s'est retrouvés au lendemain d'une tragédie ou d'un drame. C'est pourquoi vous excuserez la force ou le caractère un peu politiquement incorrect de mon propos.
Sur le manque de concret et les campagnes un peu marketing, je n'ai pas eu le temps de le mentionner précédemment dans mes propos mais vous avez raison, il n'y a pas que la modération, il n'y a pas que le signalement, il y a aussi ce qu'on peut faire en amont. Sur Instagram, nous nous sommes saisis ce sujet sérieusement puisqu'on a développé très récemment trois outils assez pionniers en matière de lutte contre le cyberharcèlement.
Le premier est l'outil « restreindre ». La manière dont on a conçu ce produit est presque plus intéressante que le produit lui-même. On s'est rendu compte, en consultant des jeunes touchés, des parents, des éducateurs, que bloquer une personne impliquait que l'on n'ait pas accès à son contenu, et que cette personne n'ait pas accès au nôtre. Les gens disaient que cela ne les aidait pas du tout et qu'ils préféraient avoir la possibilité de restreindre cette personne pour avoir accès au contenu du potentiel harceleur, et plutôt limiter les interactions. Quand on active la potentialité « restreindre », le potentiel harceleur ne peut pas contacter la présumée victime, il ne peut pas commenter la publication sans l'accord de la victime, mais la victime peut toutefois avoir accès au contenu du harceleur. C'est important car si elle arrive à l'école et qu'elle n'a pas vu ce qui a été publié sur les réseaux sociaux, cela peut être avoir des conséquences dramatiques. J'insiste sur cet outil « restreindre » assez pionnier qui permet d'offrir une solution alternative aux réseaux sociaux.
Le deuxième outil est « l'avertissement de commentaires ». L'intelligence artificielle, si on s'apprête à écrire quelque chose d'offensant ou d'inapproprié en commentaire ou en légende d'un post, va détecter cela, envoyer un message d'avertissement en demandant si on est bien sûr de vouloir publier ce contenu. Si l'utilisateur décide tout de même de publier le contenu offensant, il recevra un nouvel avertissement lui indiquant les potentielles conséquences qu'emporte cette publication : il pourra être masqué, le compte pourra être désactivé s'il est contraire à nos standards...
J'insiste sur cet outil qui est très important en la matière.
Le troisième outil intéressant est le « filtrage par mots clés ». Sur Instagram, il est possible d'indiquer dans nos paramètres un mot, une expression, ou même un émoji que l'on trouve offensant ou inapproprié. Dès qu'un commentaire ou un message ira dans ce sens-là, il ne sera même pas visible car automatiquement supprimé du flux afin d'empêcher d'être confronté directement à ces potentiels contenus offensants.
Je voulais insister sur ces outils qui constituent une forme de prévention et non pas du marketing car ils sont concrets et à disposition de nos utilisateurs. Je ne reviendrai pas sur nos partenariats et nos campagnes de sensibilisation car ce n'est pas ce que vous voulez entendre.
Le dernier sujet que j'aborderai est difficile et concerne le suicide ou l'anorexie. Lorsque l'on cherche dans la barre de recherche Instagram les termes « suicide » ou « boulimie », aucun contenu n'apparaît. Un avertissement énonce tout de suite : « vous ne voulez pas voir ça. Voici les ressources pour régler ce problème. Voici vers qui vous tourner si vous vous sentez concernés par le sujet ».
Je pense qu'il était très important de mentionner ces outils puisque ce sont, à mon sens, des choses concrètes.
Sur l'aspect « prévention », j'ai beaucoup de concret à vous donner. Dès que vous ouvrez un compte sur Snapchat, des messages vous expliquent comment les choses fonctionnent, surtout en rapport avec la vie privée, comment se respecter, comment agir. On sait en effet que les utilisateurs de l'application sont souvent des jeunes, même si plus de 80 % ont entre 18 et 25 ans. Ce sont des choses mises en place systématiquement et qui sont permanentes.
Je vous parlais précédemment du « mental health ». Il s'agit d'un portail ouvert en permanence, une forme de hotline vers laquelle on s'oriente dès qu'il y a un souci ou une question. On s'oriente vers ces gens, notamment e-Enfance mais aussi plein d'autres. L'idée est d'avoir un outil permanent, de recréer quelque chose qui permette aux gens de se sentir soutenus.
Sur l'aspect « modération », Snapchat peut se permettre de faire une modération humaine très importante. Je vais prendre l'exemple des publicités politiques, sujet essentiel qui touche à la démocratie... Sur Snapchat, chaque publicité politique est modérée humainement par quelqu'un qui la regarde.
Outre le fait que les publicités sont contrôlées en fonction du pays où elles sont émises, qu'on en contrôle le prix, nous sommes les seuls à faire cette modération humaine. Nous sommes très vigilants à cela et c'est un débat qui sera porté à Bruxelles.
Pareillement, nous avons lancé une nouvelle fonctionnalité « spotlight ». Les utilisateurs peuvent ainsi « balancer » des vidéos sur Snapchat. Comme on sait que c'est extrêmement dangereux - on parlait tout à l'heure du « user generated content », chaque vidéo y est modérée de façon humaine, en amont. C'est aussi modéré par tranches d'âge avec une modération différente par exemple pour les 13-18 ans et pour les autres.
Il faut se donner les moyens. Ce qui nous permet de le faire de façon assez simple c'est encore une fois le fameux modèle d'affaire.
Concernant le dernier point, celui de l'anonymat, c'est un vrai débat et les pouvoirs publics se sont prononcés dessus. Le problème, à mes yeux, n'est pourtant pas vraiment l'anonymat mais le modèle d'affaire. C'est ce dont vous parlez lorsque vous nous faites part de « centaines milliers de problèmes » : le problème est la viralité.
Nous pouvons apporter des précisions par rapport à ce qui a été dit, notamment sur la communication autour des actions de sensibilisation. Lorsque nous entreprenons une opération avec e-Enfance, avec le ministre de l'Éducation nationale, ou avec toute autre entité - comme on le fait très régulièrement - il est évident que nous faisons un maximum de promotion de l'événement. Une bannière est placée en page de garde de notre application et des messages sont envoyés à tous les utilisateurs pour qu'ils puissent participer à l'événement.
Nous menons à la fois des actions de terrain qui, par définition, sont physiques et donc en nombre limité, et des actions en ligne avec l'ensemble de nos utilisateurs. Nous l'avons aussi fait en matière de lutte contre la désinformation, de vaccination, de lutte contre la désinformation médicale également - pour laquelle nous avions accueillis M. Alain Fischer. Nous avions mis une bannière en une et fait un live de plus d'une heure, comme nous avions fait avec le ministre de l'Éducation. Tout cela avait été très fortement annoncé auprès de tous nos utilisateurs.
Je parlais aussi de tout ce que nous faisons en matière éducative, de la « TikTok Academy » pour laquelle une bannière est placée en première page de notre application. Tous les contenus éducatifs, y compris les contenus liés à l'éducation, au savoir-être en société, sont des systématiquement poussés, mis en avant. C'est pour cela qu'ils représentent à peu près 7,6 milliards de vues. Ce sont vraiment des chiffres conséquents et des actions de masse.
Pour le reste, en effet, tout ce que vous nous indiquerez pourra être utilisé afin d'améliorer à nouveau nos dispositifs.
Ce n'est pas parce les problèmes ne représentent qu'1 % des contenus qu'il ne faut pas les traiter, sinon nous n'aurions pas mis en place tous ces outils de modération, de suivi de ces contenus, mais aussi de suivi des utilisateurs pour éviter que leurs messages et leurs vidéos ne soient pollués par du cyberharcèlement.
Nous vous invitons à utiliser la plateforme et à nous faire vos retours pour améliorer sans cesse le produit.
Les paramètres de confidentialité et de sécurité mis à disposition des utilisateurs, c'est du concret. Le but est que les utilisateurs connaissent les paramètres et leurs enjeux. C'est là que ces campagnes de sensibilisation sont des éléments clés.
Nous développons régulièrement de nouveaux paramètres et en ajustons certains. Il faut informer les utilisateurs et c'est ce que nous faisons régulièrement via des campagnes de sensibilisation. Les utilisateurs y participent puisque nous faisons en sorte justement qu'elles correspondent aux codes de l'application c'est-à-dire qu'elles soient dynamiques, selon un certain format, un certain ton, pour inciter le plus grand nombre à participer. Les taux de participation à ces questionnaires en ligne ou les nombres de vues des vidéos réalisées par des influenceurs français sur ces questions sont énormes.
Je viens du monde de l'éducation. J'étais enseignante, en réseau d'aide spécialisé aux élèves en difficultés. J'écoutais mes collègues, et j'estime aussi que les réseaux sociaux sont des outils dangereux, voire plus dangereux qu'utiles. Les dégâts que l'on constate vont crescendo. Je suis personnellement très inquiète. Il faudrait pouvoir agir en amont avant la publication de messages toxiques.
Vous disiez qu'il est important, pour un jeune, de savoir ce qui a été publié sur lui avant qu'il n'arrive au lycée. Seulement, même si le message peut être supprimé après, le mal est déjà fait, l'atteinte narcissique est là. Cela peut être un début de phrase mais qui peut, symboliquement, tuer quelqu'un. Je trouve qu'on ne va pas assez loin dans le contrôle.
On parlait tout à l'heure de l'anonymat. J'ai envie de faire un parallèle. On imagine qu'on a une foule sur place avec cinquante personnes qui avancent, masquées et cachant des choses. On ne l'admettrait pas dans le monde réel. On l'admet pourtant sur les réseaux sociaux.
La population n'est pas assez informée sur les risques d'identification des auteurs et sur les risques juridiques de sanction. Il faut rappeler davantage le cadre, faire un rappel à la loi. Il faut aussi davantage de sanctions, notamment pour les parents, responsables de leurs enfants. Il faut que toutes les ouvertures de comptes passent par leurs parents et qu'ils soient au courant de leur responsabilité. Je pense qu'il faudrait passer par la loi.
Je suis complètement d'accord avec ce que vous avez dit. Il y a un vrai enjeu de sensibilisation. Beaucoup de choses sont faites par tous les acteurs autour de la table. Il faut faire plus. On peut le faire de manière collective, nous tous, acteurs présents en ce moment, mais aussi avec l'Éducation nationale. Ce n'est pas la faute d'un acteur plus qu'un autre. Il n'y a pas une responsabilité à porter sur l'Éducation nationale plus que sur les plateformes. Les plateformes ont aussi une responsabilité, nous en sommes tout à fait conscients. Tout n'est pas parfait, mais nous essayons de lutter contre ce phénomène et mettons en oeuvre des politiques, des outils, des partenariats, des ressources. Ce n'est pas assez mais nous continuons à oeuvrer pour lutter contre le cyberharcèlement et restons très ouverts à faire beaucoup plus avec toutes les parties prenantes.
J'ai trouvé assez intéressant votre parallèle sur les gens masqués. Le danger du harcèlement est la massification, le fait que ce soit diffusé. Il faut en effet aller plus loin et peut-être légiférer, mais la vraie question qu'on doit se poser est celle de l'action. On ne peut pas dire qu'on ne savait pas. C'est enregistré, on en parle, et on doit le comprendre, même si cela reste très complexe.
Quand vous dites que c'est plus dangereux qu'utile, je le saisis tout à fait, d'où l'importance de bien différencier les différentes plateformes et de les utiliser convenablement.
Je suis d'accord avec vous, l'ouverture des comptes de jeunes doit être accompagnée des parents. C'est ce que je voulais dire avec la « chaîne de valeurs » - qui semble être une phrase toute faite mais j'y crois sincèrement - du début de la création du compte à la fin.
Les parents doivent être présents dans l'ouverture du compte. Aujourd'hui, tous les jeunes ont un téléphone portable, personne ne se pose la question, c'est normal. Une réflexion de fond doit être menée sur une vision holistique ou globale des choses. Les parents ont un rôle à jouer mais ne le jouent pas.
Cela m'attriste lorsque vous ne trouvez plus d'utilité aux réseaux. Nous l'avons vu par le passé, ils en ont quand même une quand ils sont bien utilisés et bien compris. On vit là un vrai point de rupture, un momentum. Nous nous arrêtons, marquons un temps de pause et nous demandons ce qui est souhaitable pour nos enfants. Tout le monde entretient ce débat. Il ne faut pas se tromper et ne pas prendre la mauvaise route - et je pense que celle qui est prise à cet instant à Bruxelles n'est pas assez ambitieuse, trop cosmétique, et qu'il faut aller beaucoup plus loin. Ce n'est pas parce qu'on demande à des plateformes de mettre en place de l'audit, l'ouverture d'algorithmes, ou d'autres pare-feu, que l'outil va changer profondément.
Rabelais disait que « science sans conscience n'est que ruine de l'âme ». Toute technologie peut être bonne ou mauvaise selon l'usage qu'on en fait.
Nous avons-nous la faiblesse de penser que le numérique, et notamment la plateforme Tiktok, peut être un formidable outil de connaissances, de découverte du monde - comme nous l'avons vu pendant le confinement.
Il faut signifier tout ce côté positif qu'apporte la plateforme, y compris d'auto-apprentissage grâce à la vidéo. C'est aussi un outil qui permet d'essayer de savoir ce qu'on a envie de faire de sa vie : quand on est jeune, il est intéressant de découvrir des métiers, des carrières. C'est tout cela qui justifie notre implication dans cette entreprise. Évidemment, cela signifie aussi qu'il faut éviter que les personnes puissent être harcelées, intimidées, ou menacées.
Nous avons essayé de vous apporter des éléments prouvant que nous prenons ces sujets-là très à coeur, que nous exerçons notre responsabilité de contenu en essayant de bannir les personnes qui se comportent mal. On continuera à le faire, à améliorer nos procédés, à appliquer les lois et règlementations qui sont en train d'arriver. C'est aussi une responsabilité collective : celle de l'Éducation nationale, mais aussi celles des parents - c'est pour cela que nous travaillons avec les deux.
Pour terminer, il n'est pas si simple de trouver des solutions radicales car on est vraiment dans la conciliation de principes qui sont parfois contradictoires et pour lesquels l'un n'est pas moins légitime que l'autre : la liberté d'expression, la liberté de pouvoir protéger sa vie privée et donc de ne pas vouloir mettre sa photo ou son nom, le fait que des jeunes publics, de plus de 13 ans, puissent aussi construire leur autonomie sans être toujours sous la houlette des parents - quelque chose que la CNIL a évoqué dans un rapport très intéressant avec huit recommandations pour concilier les droits de l'enfant mineur avec l'autorité parentale et avec la nécessaire protection de ces mêmes jeunes générations.
Ce sont des propositions. Pour nous, tout cela vise à concilier les objectifs légitimes, les uns comme les autres. C'est ce qu'on essaye de faire dans notre travail quotidien, et nous restons à l'écoute de vos recommandations, commentaires, et critiques afin de nous améliorer dans cette voie.
C'était vraiment un moment très important pour nous de vous recevoir, plateformes des réseaux sociaux. La qualité et la richesse des échanges que nous avons eus démontrent l'importance du problème. Comme vous l'avez dit, les choses sont maintenant posées, et ne peuvent plus être ignorées.
Le travail de notre mission sera vraiment, grâce à vous et à votre contribution, de construire un rapport précis, constructif, qui apporte des solutions concrètes à ce problème. Nous voyons que ce n'est pas facile et sommes bien conscients des efforts que vous faites et des contraintes auxquelles vous êtes soumis. Le but de cette mission est vraiment de travailler ensemble et avec tous les acteurs concernés, à réduire ce problème qui peut être dramatique pour certains enfants.
Je vous remercie tous pour vos contributions qui seront fortes utiles à l'élaboration de notre rapport. Les échanges ont été très denses et chargés d'émotion et d'expérience.
Vous avez tous parlé de responsabilité partagée. Il faut que tous les acteurs travaillent ensemble pour lutter contre ces phénomène que sont le harcèlement et cyberharcèlement scolaire - qui n'a fait qu'amplifier les choses et causer beaucoup de dégâts.
Je terminerai en répétant la citation de Rabelais qui s'applique vraiment à notre sujet : « science sans conscience n'est que ruine de l'âme ».
Nous allons tous travailler pour faire en sorte qu'il n'y ait pas ruine de l'âme pour nos enfants.
Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.
La réunion est close à 18 h 05