Intervention de Christophe-André Frassa

Commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale — Réunion du 11 décembre 2019 à 9h10
Proposition de loi visant à lutter contre les contenus haineux sur internet — Examen du rapport et du texte de la commission

Photo de Christophe-André FrassaChristophe-André Frassa, rapporteur :

Au terme d'une trentaine d'auditions sur cette proposition de loi visant à lutter contre les contenus haineux sur Internet, déposée à l'Assemblée nationale à l'initiative de Mme Laetitia Avia, je me propose, pour ceux qui n'étaient pas encore parlementaires à l'époque de la loi du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN), de faire un résumé des épisodes précédents.

Un point, d'abord, sur la mobilisation des acteurs publics et des intermédiaires techniques contre les discours de haine sur Internet.

Les discours de haine sur Internet sont un phénomène préoccupant, mais dont l'ampleur reste toujours difficile à évaluer.

Comme la Commission nationale consultative des droits de l'homme (CNCDH) en dressait déjà le constat en 2015, « la prolifération des contenus haineux sur la toile, qui se nourrissent régulièrement des tensions sociales et de la crise de la citoyenneté, devient un phénomène très inquiétant. Elle constitue le terreau de conflits croissants entre groupes et communautés remettant en cause le vivre ensemble démocratique ».

L'absence d'outils de mesure officiels et exhaustifs permettant d'apprécier l'ampleur et l'évolution de ce phénomène est donc d'autant plus regrettable.

En France, seuls certains indices de tendance indirects peuvent ainsi être utilisés. En 2018, sur les 163 723 signalements effectués auprès de la plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements (Pharos), 14 000 relevaient de la haine en ligne ou de discriminations. La majorité des signalements concernait des contenus présents sur les grands réseaux sociaux américains.

À l'échelle de l'Europe, la Commission européenne a adopté en 2016 une approche volontariste, mais privilégiant l'autorégulation. Elle a ainsi conclu avec les principales plateformes concernées un « code de conduite » pour inciter celles-ci à prendre des mesures proactives afin d'endiguer la diffusion des contenus de haine sur Internet. Cette approche reposant sur les engagements volontaires des acteurs a produit certains résultats, comme l'atteste le dernier bilan fourni en février dernier par les services de la Commission.

Un exemple dont nous avions déjà abordé l'existence à l'occasion de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information - la loi « anti-fake news » - mérite ici d'être cité. Il s'agit de la loi allemande NetzDG, dont le bilan est pour le moins contrasté à ce jour. Il semble que la principale faiblesse de cette loi soit l'effet de « sur-censure » qu'elle induit. Les observateurs font état d'un niveau élevé de contenus licites supprimés en Allemagne et de nombreux contentieux contestant des retraits injustifiés. Les autorités allemandes semblent même décidées à réviser ce dispositif de façon anticipée.

En France, en l'état du droit, les hébergeurs bénéficient d'un régime de responsabilité protecteur en contrepartie d'obligations de coopération.

Transposant en droit français la directive « e-commerce » du 8 juin 2000, la LCEN prévoit un régime de responsabilité spécifique pour les fournisseurs d'accès à Internet et les hébergeurs à raison des contenus à la diffusion desquels ils contribuent.

Les hébergeurs, en particulier, bénéficient d'une exonération facilitée de leur responsabilité civile ou pénale. Celle-ci ne peut être engagée en l'absence de connaissance de l'illicéité des contenus stockés ou, en cas de connaissance de l'illicéité manifeste des contenus stockés, s'ils ont alors procédé promptement à leur retrait.

Ce régime juridique protecteur est destiné à éviter que l'engagement trop systématique de leur responsabilité pénale ou civile ne soit un frein à la libre expression sur Internet des citoyens, qui dépendent d'eux pour échanger. Il s'applique à un spectre d'acteurs extrêmement large, qui englobe désormais les grandes plateformes bien connues : les moteurs de recherche, les réseaux sociaux, les plateformes de diffusion de vidéos, etc. En outre, les hébergeurs ne peuvent pas être soumis à une obligation générale de surveillance des réseaux.

En échange de ce régime favorable, les intermédiaires techniques sont tenus de coopérer avec la puissance publique pour lutter contre la diffusion desdits contenus illicites. Cela se traduit par une obligation de recueil et de conservation de données sur leurs utilisateurs, de dénonciation des activités illicites, de transparence, voire de blocage des contenus sur demande de l'autorité judiciaire et, dans certains cas, de l'administration.

La proposition de loi présentée par la députée Laetitia Avia s'inscrit dans le plan national triennal 2018-2020 de lutte contre le racisme et l'antisémitisme publié par le Gouvernement en mars 2018, qui prévoyait de modifier la législation nationale en vue de lutter contre la haine en ligne.

Elle tente une difficile synthèse entre deux orientations bien différentes :

- d'un côté, une approche insistant sur les obligations de résultat mises à la charge des plateformes pour l'effacement rapide et exhaustif des propos haineux en ligne, sous peine de sanctions, comme le recommandait le rapport intitulé Renforcer la lutte contre le racisme et l'antisémitisme remis au Premier ministre en septembre 2018 et dont Laetitia Avia était co-auteure avec Karim Amellal et Gil Taïeb ;

- et de l'autre, une approche par la régulation, centrée sur un contrôle plus poussé des moyens mis en oeuvre par les plateformes, afin de s'assurer qu'ils sont suffisants pour lutter efficacement contre la haine en ligne, en cohérence avec les conclusions de la mission « Régulation des réseaux sociaux » publiées en mai 2019 et faisant suite à la rencontre entre le Président de la République et Mark Zuckerberg, président-directeur général de Facebook.

La première innovation du texte est la création d'un nouveau délit sanctionnant l'absence de retrait en 24 heures des contenus odieux sanctionnée par un nouveau délit.

Le coeur de la proposition de loi adoptée par l'Assemblée nationale consiste en effet en la création d'une obligation de suppression de certains contenus haineux manifestement illicites, dans les 24 heures après leur notification aux grandes plateformes - réseaux sociaux ou moteurs de recherche à fort trafic accessibles sur le territoire français. Chaque « non-retrait » dans les temps d'un tel contenu serait pénalement réprimé par un nouveau délit spécifique : un an de prison et 250 000 euros d'amende, portés au quintuple pour les personnes morales.

Les contenus « haineux » concernés sont, par le jeu d'ajouts et de renvois successifs, devenus nombreux et disparates : injures aggravées, apologies de crimes, provocations à la discrimination, à la haine ou à la violence, harcèlement sexuel, exposition de mineurs à des messages violents ou pornographiques, traite des êtres humains, proxénétisme, pédopornographie et provocation au terrorisme.

Les associations de lutte contre les discriminations seraient autorisées à exercer les droits reconnus à la partie civile contre le nouveau délit de refus de retrait d'un contenu manifestement haineux, et il est prévu qu'une association de protection de l'enfance puisse notifier un tel contenu à la place d'un mineur.

Les règles formelles de notification de tous les contenus illicites - haineux ou non - sont drastiquement simplifiées.

Deuxième innovation de la proposition de loi : l'instauration d'une régulation ambitieuse des plateformes, avec de nouvelles obligations de moyens sous la supervision du Conseil supérieur de l'audiovisuel (CSA).

La proposition de loi transmise impose de nouvelles obligations de moyens renforcés aux plateformes en matière de lutte contre les contenus haineux en ligne : mise en place d'un dispositif de notification, information des utilisateurs, possibilité de contester des décisions de retrait ou de maintien de contenus, transparence des activités, protection spécifique des mineurs.

Elle confie au CSA une nouvelle mission de régulation administrative de ces plateformes. Chargé de s'assurer de leur coopération et du respect de ces nouvelles obligations de moyens, il disposerait pour ce faire d'un pouvoir réglementaire lui permettant de formuler des recommandations contraignantes, d'un pouvoir d'investigation, et il pourrait prononcer des sanctions pécuniaires considérables et dissuasives, l'amende administrative pouvant atteindre 4 % du chiffre d'affaires annuel mondial de l'opérateur.

Le texte transfère également au CSA la compétence aujourd'hui confiée à une personnalité qualifiée de la CNIL pour contrôler le blocage et le déréférencement administratifs de sites terroristes ou pédopornographiques.

Enfin, afin de prévenir la haine et de punir les auteurs, le texte prévoit en outre des améliorations marginales de la formation et de l'organisation judiciaire de la répression.

La proposition de loi permet de spécialiser un parquet et une juridiction en matière de lutte contre la haine en ligne et complète les obligations du contrôle judiciaire et du sursis probatoire, réaffirmant la possibilité de prononcer une interdiction d'adresser des messages électroniques à une victime.

Elle prévoit d'inscrire expressément dans le code de l'éducation la sensibilisation des élèves et la formation des enseignants en matière de lutte contre la diffusion des contenus haineux.

J'en viens maintenant à la position que je vous propose d'adopter en commission des lois, qui consiste à rééquilibrer et mieux sécuriser juridiquement cet ensemble de mesures inégalement abouties.

À titre liminaire, je note que si nous partageons les objectifs affichés, la discussion de ce texte pose un problème de méthode.

L'intention première des auteurs de cette proposition de loi est louable, nous la partageons tous, et il existe un large consensus au Sénat pour mieux responsabiliser les grandes plateformes qui jouent un rôle décisif dans la diffusion sur Internet de discours de haine.

Les travaux et propositions de notre assemblée ces dernières années en attestent, incitant régulièrement le Gouvernement à ne pas avoir une position attentiste, mais à agir à l'échelon national dans l'attente d'une hypothétique solution harmonisée au niveau européen souvent annoncée, mais longtemps retardée. Tel est le cas notamment des recommandations de la commission d'enquête du Sénat pour une souveraineté numérique afin d'améliorer la régulation des acteurs « systémiques » du numérique et de mieux responsabiliser les plateformes, ou encore de la résolution européenne du Sénat en faveur d'une révision de la directive e-commerce.

Malheureusement, alors que les mesures proposées s'inscrivent clairement dans le cadre d'un plan gouvernemental global de lutte contre les discriminations, je regrette vivement le choix qui a été fait de recourir à une proposition de loi plutôt qu'à un projet de loi, ce qui prive à nouveau le Parlement d'une étude d'impact.

Nuisant à la clarté de nos débats, l'existence de trois autres textes adoptés ou en voie de l'être - la directive Services de médias audiovisuels (SMA), le règlement européen sur les contenus terroristes, le projet de loi de réforme de l'audiovisuel - risque également d'interférer avec certaines dispositions de la présente proposition de loi, voire d'induire une modification de cette proposition quelques mois après son adoption définitive par le Parlement.

L'article 1er, coeur de cette proposition de loi, prévoit un dispositif pénal inabouti et déséquilibré au détriment de la liberté d'expression.

En exigeant des opérateurs de plateformes qu'ils apprécient le caractère manifestement illicite des messages haineux signalés dans un délai particulièrement bref, alors, d'une part, que cet exercice de qualification juridique est difficile pour certaines infractions contextuelles, et alors, d'autre part, qu'ils sont sous la menace de sanctions pénales explicites et dissuasives en cas d'erreur, ce dispositif encouragera mécaniquement les plateformes à retirer, par excès de prudence, des contenus pourtant licites.

D'autres effets pervers sont également à redouter : la multiplication du recours à des filtres automatisés et l'instrumentalisation des signalements par des groupes organisés de pression ou d'influence - « raids numériques » contre des contenus licites, mais polémiques. À redouter également, l'impossibilité de traiter en priorité, dans un délai couperet uniforme de 24 heures, les contenus les plus nocifs qui ont un caractère d'évidence et doivent être retirés encore plus rapidement - terrorisme, pédopornographie - par rapport à d'autres infractions moins graves ou plus longues à qualifier, car « contextuelles ». Enfin, tout aussi regrettables, le contournement du juge et l'abandon de la police de la liberté d'expression sur Internet aux grandes plateformes étrangères.

Le dispositif pénal prévu semble par ailleurs difficilement applicable - il a même été qualifié de « droit pénal purement expressif » par des représentants du parquet, tant les contraintes procédurales et considérations budgétaires limitent le pouvoir d'action de l'autorité judiciaire en la matière. Il présente tout d'abord un problème d'imputabilité concrète, s'agissant des personnes physiques. Qui du modérateur sous-traitant indien ou du dirigeant américain sera poursuivi ? Et s'agissant des personnes morales, comment qualifier l'intention pénale des organes dirigeants des hébergeurs concernés, domiciliés à l'étranger et dont il faut démontrer la complicité ?

Ce dispositif présente également un problème de caractérisation de l'intentionnalité : le simple non retrait suffira-t-il, ou sera-t-il nécessaire pour l'autorité de poursuite de caractériser une absence de diligences normales de l'opérateur dans sa capacité à qualifier l'illégalité manifeste d'un contenu ?

Nous constatons enfin une contrariété probable au droit européen.

La Commission européenne a transmis au Gouvernement des observations longues, sur douze pages, et très critiques alertant sur la violation probable de la directive « e-commerce » et de la Charte des droits fondamentaux de l'Union européenne.

Selon elle, le texte viole plusieurs principes majeurs du droit européen : principe du « pays d'origine », responsabilité atténuée des hébergeurs, interdiction d'instaurer une surveillance généralisée des réseaux. Rappelant l'existence de plusieurs initiatives législatives européennes en cours, la Commission a invité formellement la France à surseoir à l'adoption de ce texte.

Le Gouvernement n'ayant été capable d'offrir aucune solution alternative pour rendre opérant l'article 1er et écarter le risque de surblocage de propos licites, je vous recommanderai donc à ce stade la suppression de cette nouvelle sanction pénale inapplicable et contraire au droit européen.

Certaines dispositions intéressantes méritent d'être conservées ou améliorées, en les intégrant au régime général prévu par la LCEN : la substitution de messages aux contenus haineux retirés et la possibilité - et non l'obligation - de leur conservation en vue d'enquêtes judiciaires ; l'ajout des injures publiques à caractère discriminatoire et du négationnisme aux contenus devant faire l'objet d'un dispositif technique de notification spécifique mis en place par les hébergeurs ; la simplification des notifications prévues par la LCEN, en la rendant conforme au droit européen ; la reconnaissance de l'action des associations de protection de l'enfance.

L'autre volet du texte, la régulation des plateformes constitue en revanche une solution pertinente que je vous propose d'approuver et de préciser.

J'estime que l'imposition d'obligations de moyens sous la supervision d'un régulateur armé de sanctions dissuasives est la solution la plus adaptée pour contraindre les grandes plateformes à une lutte plus efficace contre les discours de haine véhiculés sur les réseaux.

J'ai souhaité tenir compte des observations de la Commission européenne et rendre ce dispositif plus respectueux du droit européen en proportionnant les obligations mises à la charge des plateformes au risque d'atteinte à la dignité humaine et en écartant tout risque de surveillance généralisée des réseaux.

Pour améliorer la rédaction de certaines des obligations de moyens mises à la charge des plateformes, j'ai prévu également : l'absence d'information systématique des auteurs de contenus au stade de la simple notification par un tiers, pour éviter les spams et « raids numériques » contre les auteurs de contenus licites, mais polémiques ; la possibilité dans certains cas exceptionnels de ne pas informer l'auteur de contenus retirés, notamment pour préserver les enquêtes en cours ; et la suppression de l'obligation générale faite aux plateformes d'empêcher la réapparition de tout contenu illicite - la procédure dite « notice and stay down » - contraire au droit européen.

Si j'approuve plusieurs clarifications procédurales concernant les pouvoirs de régulation et de sanction attribués au CSA, je m'inquiète à cet égard du risque de manque de moyens et de compétences techniques du régulateur pour expertiser efficacement les plateformes.

Pour conclure, je vous proposerai plusieurs amendements visant à compléter le texte concernant la viralité, le financement et l'interopérabilité, pour mieux s'attaquer aux ressorts profonds du problème de la haine sur internet.

Comme une personne entendue lors des auditions en a fait l'observation, en l'état actuel du texte, une plateforme qui retire un contenu haineux vu 8 millions de fois 23 heures et 59 minutes après sa notification respecterait parfaitement l'obligation de résultat instaurée à l'article 1er de la proposition de loi. Dès lors, je vous proposerai de compléter ce texte pour lutter plus efficacement contre la viralité des contenus haineux. À ce titre, il conviendrait, d'une part, d'ajuster le champ des acteurs soumis à la régulation du CSA pour intégrer les plateformes moins grandes, mais très virales, et, d'autre part, d'encourager les plateformes, sous le contrôle du CSA, à prévoir des dispositifs techniques de désactivation rapide de certaines fonctionnalités de rediffusion massive des contenus.

Je vous proposerai également d'approuver un amendement d'appel pour s'attaquer au financement des entrepreneurs de haine par la publicité - c'est ce que l'on désigne par l'expression « follow the money » -, en associant mieux les régies publicitaires à la lutte contre le financement de sites condamnés pour certaines infractions, par un renforcement des obligations de transparence à leur charge.

Enfin, je propose d'intégrer l'obligation d'interopérabilité à la boîte à outils du régulateur. Comme le recommandait la commission d'enquête du Sénat sur la souveraineté numérique, il convient d'approfondir l'obligation de portabilité. La possibilité d'encourager l'interopérabilité permettrait ainsi aux victimes de haine de se « réfugier » sur d'autres plateformes avec des politiques de modération différentes, tout en pouvant continuer à échanger avec les contacts qu'elles avaient noués jusqu'ici.

Je remercie mes collègues Catherine Morin-Desailly et Yves Bouloux d'avoir été des rapporteurs pour avis efficaces sur ce texte, dont nous avons essayé de tirer le meilleur pour vous en soumettre une version amendée qui nous paraît présentable.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion