Intervention de Christophe-André Frassa

Commission mixte paritaire — Réunion du 8 janvier 2020 à 17h00
Commission mixte paritaire sur la proposition de loi visant à lutter contre les contenus haineux sur internet

Photo de Christophe-André FrassaChristophe-André Frassa, sénateur, rapporteur pour le Sénat :

Monsieur le président, madame la vice-présidente, mes chers collègues, est-il besoin de le redire ? Tous, ici, nous partageons l'objectif poursuivi par ce texte : lutter contre la diffusion de contenus haineux et illicites sur internet. C'est sur la manière de répondre au problème, sur les solutions concrètes, que nos approches peuvent parfois diverger.

Le Sénat a donc abordé l'examen de ce texte avec un esprit ouvert et constructif - vous l'avez souligné, madame la rapporteure. En témoignent les nombreuses améliorations proposées en commission et en séance publique, émanant de presque tous les groupes politiques du Sénat. Nous avons tenté de tenir une délicate ligne de crête entre, d'une part, la protection des victimes de haine et, d'autre part, la protection de la liberté d'expression telle qu'elle est pratiquée dans notre pays. Il ne faut affaiblir ou sacrifier ni l'une, ni l'autre.

Nous avons, en premier lieu, approuvé la régulation des grandes plateformes, en précisant et en renforçant leurs obligations.

L'imposition d'obligations de moyens sous la supervision d'un régulateur armé de sanctions dissuasives est la solution la plus pertinente pour contraindre les grandes plateformes à une lutte plus efficace contre les discours de haine véhiculés sur les réseaux.

Certains grands hébergeurs, dont le modèle économique est fondé sur « l'économie de l'attention », tendent en effet à valoriser la diffusion des contenus les plus clivants, et renforcent la diffusion massive, virale, des messages de haine. Trop longtemps repoussée, leur régulation doit enfin devenir réalité.

Le Sénat a ainsi amélioré la rédaction de certaines de ces nouvelles obligations de moyens mis à la charge des plateformes : les mécanismes de notification ont été revus pour éviter les spams et les « raids numériques » contre les auteurs de contenus licites, mais polémiques ; certaines exceptions ont été aménagées pour mieux préserver les enquêtes en cours.

Le Sénat a également tenu compte des observations de la Commission européenne pour sécuriser juridiquement ce dispositif et mieux respecter le droit européen, en proportionnant les obligations à la charge des plateformes au regard du risque d'atteinte à la dignité humaine et en écartant toute obligation générale de surveillance des réseaux - il a notamment supprimé l'obligation générale faite aux plateformes d'empêcher la réapparition d'un contenu illicite, le « notice and stay down ».

Enfin, les moyens d'action du CSA ont été renforcés, afin notamment de lui donner accès aux algorithmes des plateformes en ligne ainsi qu'aux données sur lesquelles ils se fondent.

Le Sénat a également fait des propositions nouvelles pour mieux s'attaquer aux ressorts profonds de la haine en ligne.

Pour lutter plus efficacement contre la viralité des contenus haineux, qui est le véritable coeur du problème à traiter, le Sénat a proposé de permettre au CSA d'attraire les plateformes moins importantes, mais très virales dans le champ de sa régulation.

Il a aussi voulu encourager les plateformes, sous le contrôle du CSA, à prévoir des dispositifs techniques de désactivation rapide de certaines fonctionnalités de rediffusion massive des contenus, à se doter des moyens nécessaires au ciblage et à supprimer les faux comptes, ceux qui sont utilisés pour répandre des contenus haineux, les fameuses « fermes à trolls ».

Le Sénat est allé plus loin que l'Assemblée nationale en prévoyant de mieux associer les régies publicitaires à la lutte contre le financement de sites facilitant la diffusion en ligne des discours de haine, par un renforcement des obligations de transparence à leur charge.

Il a en outre souhaité, comme le recommandait la commission d'enquête du Sénat sur la souveraineté numérique, approfondir l'obligation de portabilité, en complétant la boîte à outils du régulateur des plateformes. La possibilité d'encourager l'interopérabilité permettrait ainsi aux victimes de haine de se « réfugier » sur d'autres plateformes dotées de politiques de modération différentes, tout en pouvant continuer à échanger avec les contacts qu'elles avaient noués jusqu'ici.

Notre principale divergence - vous l'avez souligné, madame la rapporteure - reste la suppression, à l'article 1er, du délit de « non-retrait » en vingt-quatre heures de contenus haineux, dispositif pénal que nous jugeons juridiquement inabouti, contraire au droit européen et déséquilibré au détriment de la conception française de la liberté d'expression.

L'article 1er de la proposition de loi encouragerait mécaniquement les plateformes à retirer, par excès de prudence, des contenus pourtant licites, créant un risque de « surblocage » par précaution.

De très nombreux acteurs de la société civile - je ne citerai que la Commission nationale consultative des droits de l'homme (CNCDH), le Conseil national du numérique, l'ordre des avocats, le rapporteur spécial de l'ONU, et même l'Inter-LGBT - ont demandé sa suppression pure et simple, nous alertant sur les effets pervers à redouter d'une telle mesure : la multiplication du recours à des filtres automatisés ; l'instrumentalisation des signalements par des groupes organisés de pression ou d'influence, ce que l'on nomme « raids numériques » contre des contenus licites mais polémiques ; l'impossibilité de prioriser, dans un délai couperet uniforme de vingt-quatre heures, les contenus les plus nocifs qui ont un caractère d'évidence ; le contournement du juge et l'abandon de la police de la liberté d'expression sur internet aux grandes plateformes étrangères.

Ce dispositif pénal pose par ailleurs des problèmes d'imputabilité et d'intentionnalité inhérents à ce que certains magistrats ont nommé un « droit pénal purement expressif » - c'est-à-dire un droit de pur affichage, inapplicable en pratique. Un problème d'imputabilité concrète d'abord : s'agissant des personnes physiques - qui, du modérateur sous-traitant indien ou du dirigeant américain, sera poursuivi ? - et, surtout, des personnes morales - comment rechercher la responsabilité pénale des organes dirigeants des hébergeurs concernés, domiciliés à l'étranger, et dont il faut démontrer la complicité ? Un second problème de caractérisation de l'intentionnalité ensuite : le simple non-retrait suffira-t-il, ou sera-t-il nécessaire pour l'autorité de poursuite de caractériser une absence de diligences normales de l'opérateur ?

Concernant la contrariété probable entre le texte et le droit européen, selon la Commission européenne, le texte viole plusieurs principes majeurs du droit de l'Union européenne : principe du « pays d'origine » ; responsabilité atténuée des hébergeurs ; interdiction d'instaurer une surveillance généralisée des réseaux. Rappelant l'existence de plusieurs initiatives législatives européennes en cours, la Commission a invité formellement la France à surseoir à l'adoption de ce texte.

Même s'il n'a pas été possible de trouver d'accord sur ce point précis, d'autres améliorations ont été proposées par le Sénat concernant les notifications de contenus haineux.

Nous avons prévu la simplification des notifications de contenus illicites, rendue conforme au droit européen ; la conservation des contenus en vue d'enquêtes judiciaires, assortie d'un contrôle de la Commission nationale de l'informatique et des libertés (CNIL) pour les données très sensibles ; l'ajout des injures publiques à caractère discriminatoire et du négationnisme aux contenus devant faire l'objet d'un dispositif technique de notification spécifique mis en place par les hébergeurs ; la reconnaissance de l'action des associations de protection de l'enfance.

Enfin, tout en refusant d'en faire un délai couperet et un délit pénalement sanctionné, donc une obligation de résultat, le Sénat a réaffirmé en séance que le délai de vingt-quatre heures pour le retrait d'un contenu manifestement haineux devrait être un objectif pour les grandes plateformes, donc une obligation de moyens, le régulateur, en l'occurrence le CSA, devant s'assurer qu'elles mettent en oeuvre les moyens humains et techniques nécessaires pour pouvoir l'atteindre.

Malgré cette précision, je crains néanmoins que nous ne puissions, en ce début de soirée, parvenir à rapprocher suffisamment nos positions sur l'article 1er...

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion