Nous écoutons le rapport pour avis d'Yves Bouloux sur la proposition de loi visant à lutter contre les contenus haineux sur internet.
Cette proposition de loi pose une question légitime. Si le phénomène est encore peu documenté, chaque utilisateur des réseaux sociaux peut constater que des propos haineux, répréhensibles par la loi, s'y répandent quotidiennement.
Néanmoins, la réponse apportée à cette question apparaît inaboutie, même s'il faut avoir l'humilité de reconnaître qu'aucune solution simple n'existe. La commission des lois devrait aller plus loin que nous dans la mesure où le texte pose surtout problème au regard de la protection des libertés publiques. D'un point de vue économique, le texte s'appliquera en priorité aux plateformes les plus structurantes et les obligations qui y figureront seront proportionnées, de sorte qu'elles seront soutenables par les acteurs économiques concernés. Notre commission s'est saisie de cette proposition de loi car elle modifie la loi pour la confiance dans l'économie numérique de 2004 (LCEN) dont nous avions été saisis au fond. De plus, si son objectif relève de la protection des libertés fondamentales, elle affecte l'économie numérique, qui est aujourd'hui au coeur de la compétence de notre commission.
Tout d'abord, je souhaite revenir sur le cadre juridique applicable et issu de la LCEN, qui transposait la directive européenne dite « e-commerce ». Elle pose un principe de responsabilité - mais de responsabilité limitée - des hébergeurs de contenus, c'est-à-dire de la plupart des sociétés chargées d'héberger des sites internet, mais qui ne choisissent pas les contenus concernés. Ce principe se traduit concrètement par une obligation de prompt retrait de tout contenu manifestement illicite qui leur aurait été notifié par les utilisateurs, sous peine d'engager leur responsabilité civile ou pénale. Cela recouvre à la fois les contenus haineux illicites, mais aussi les contenus frauduleux, les atteintes au droit d'auteur, etc. L'objectif poursuivi à l'époque - nous étions au début des années 2000 - était à la fois de préserver la liberté d'expression en ligne, mais aussi de favoriser le développement des services sur internet. Ce régime est de plus en plus remis en cause compte tenu du poids et du rôle acquis par certaines plateformes en ligne. Par exemple, au regard de la protection des consommateurs, la persistance de produits frauduleux sur les places de marché en ligne pourrait plaider en faveur du renforcement de leur responsabilité. La question de la remise en cause de cette responsabilité limitée se pose actuellement au niveau européen. La nouvelle commission s'empare du sujet dans le cadre du Digital Services Act qu'elle entend mener à bien dans les années à venir.
S'agissant des contenus haineux illicites, le législateur français est déjà intervenu pour obliger les plateformes à mettre en place un dispositif de signalement facilement accessible et visible, à informer promptement les autorités publiques lorsqu'elles ont connaissance de tels contenus, et à rendre publics les moyens qu'elles y consacrent. Par ailleurs, la Commission européenne a déjà obtenu des progrès de la part des plateformes dans le cadre d'un code de conduite, attestés par des rapports d'évaluation périodiques. Selon ces rapports, les plateformes analyseraient dans les 24 heures 89 % des contenus signalés et 72 % des contenus considérés comme des discours de haine illégaux seraient supprimés. Facebook mobiliserait 15 000 personnes réparties sur une vingtaine de sites dans le monde pour modérer les contenus.
Ensuite, la proposition de loi qui nous intéresse entend aller plus loin. Elle prévoit deux mesures. La première consiste à renforcer la législation en créant un nouveau délit de non-retrait sous 24 heures des contenus haineux manifestement illicites. Cette disposition n'appelle que peu de remarques de la part d'un rapporteur de la commission des affaires économiques dans la mesure où elle pose essentiellement des questions quant au risque de sur-censure, quasi unanimement soulevé lors de nos auditions. Tout au plus peut-on se limiter à souligner que, face au risque d'une sanction pénale en cas de non-retrait, les acteurs économiques seront incités à retirer massivement les contenus, de sorte que le risque de sur-censure est bien caractérisé. Par ailleurs, le fait de fixer un seuil de 24 heures ne semble pas efficace : d'une part, il serait choquant qu'un contenu manifestement illicite et massivement diffusé mais retiré à 23h59 n'entraîne aucune mise en cause de la responsabilité de la plateforme, et d'autre part, le fait de devoir traiter tous les contenus indistinctement en 24 heures empêcherait d'effectuer une priorisation, de sorte que les contenus vraiment problématiques pourraient, in fine, ne pas être retirés. Enfin, faire peser sur des entreprises, fussent-elles très puissantes, une responsabilité qui appartient à l'État, à savoir juger des contenus haineux manifestement illégaux, apparaît exorbitant. C'est pourquoi je soutiens le parti pris par notre collègue de la commission des lois de faire évoluer de manière significative ce dispositif.
Je souhaite surtout m'arrêter sur le second point essentiel de cette proposition de loi, à savoir la régulation dite ex ante. Elle confie à un régulateur - en l'espèce, le Conseil supérieur de l'audiovisuel (CSA) - la mission de réguler les plateformes quant aux moyens qu'elles mettent en oeuvre pour lutter contre la haine en ligne, selon deux axes : l'efficacité et le respect des utilisateurs. Selon l'avis de la très grande majorité des personnes auditionnées, ce dispositif est bienvenu, car il permettra d'établir un dialogue entre les autorités publiques et les plateformes afin d'améliorer la lutte contre la haine en ligne. Ce volet du texte rejoint à la fois les orientations de la commission d'enquête sur la souveraineté numérique et celles de la proposition de loi de notre commission visant à garantir le libre choix du consommateur dans le cyberespace. Il s'agit de mettre un régulateur là où il n'y en a pas pour construire, de façon agile et évolutive, les bonnes pratiques à mettre en place destinées à lutter contre la haine en ligne. En cas d'insuffisance du dispositif mis en place par la plateforme, le régulateur pourra sanctionner fermement les opérateurs en question : cette régulation sera crédible car elle s'appuiera sur d'importantes sanctions financières : jusqu'à 4 % du chiffre d'affaires mondial ! Ce n'est pas rien !
Il apparaît toutefois nécessaire d'améliorer le texte sur ce volet. C'est pourquoi je vous propose quatre pistes d'amélioration. La première consiste à éviter que des plateformes qui ne correspondent pas aux seuils qui seront établis par décret, mais sur lesquelles il existe un défaut caractérisé de lutte contre la haine en ligne, puissent échapper à la supervision du régulateur. Le CSA pourrait donc imposer certaines obligations à ces plateformes sous les seuils, afin d'éviter le déport des auteurs de propos haineux vers d'autres sites qui ne seraient pas soumis à la réglementation. De cette façon, la balance entre liberté d'entreprendre et protection de la dignité humaine serait garantie.
La deuxième consiste à s'assurer que les obligations mises à la charge des plateformes seront proportionnées tant à la capacité des plateformes à les mettre en oeuvre qu'à l'ampleur du risque du préjudice, lequel croît nécessairement à mesure du nombre de vues. Autrement dit, il s'agit de s'assurer que le dispositif sera adapté au modèle d'affaires des plateformes et prendra en compte la viralité du contenu.
Par ailleurs, et c'est ma troisième piste, nous ne pouvons ignorer que la Commission européenne a émis un avis particulièrement réservé sur la proposition de loi quant à sa conformité au regard du droit européen. Sur ce volet de la proposition de loi, elle a en particulier pointé une disposition particulièrement problématique au regard du droit européen car elle imposerait une obligation générale de surveillance des contenus publiés sur la plateforme. C'est pourquoi je propose de supprimer ce point.
Enfin, quatrième piste d'amélioration, le texte prévoit que le régulateur pourra encourager les plateformes à coopérer pour lutter contre la diffusion de contenus haineux répréhensibles par la loi. Je propose de préciser que cette coopération pourra également porter sur le partage d'informations entre plateformes. Cela pourrait conduire à la création d'un pot commun de données afin de renforcer l'efficacité du dispositif.
Je conclurai par quelques remarques générales. Si l'on prend du recul, on s'aperçoit que ce texte propose un nouveau modèle de régulation du numérique. Il comporte trois grandes caractéristiques : un régulateur spécialisé, des obligations de moyens et une régulation qui s'applique en priorité aux acteurs les plus structurants du marché, ceux qui ont un impact massif.
Une régulation qui s'applique avant tout aux plus grands, et représente donc une régulation asymétrique, est la seule façon de permettre à d'éventuels nouveaux entrants de pénétrer le marché ! Sur ce point, le texte est assez évasif quant aux critères que le Gouvernement entend retenir pour déterminer ces plateformes structurantes. Il apparaît nécessaire que le Gouvernement retienne une pluralité de critères afin de bien cibler le dispositif sur les plateformes où les enjeux sont les plus prégnants.
Quelques mots enfin, sur la méthode adoptée par le Gouvernement. Alors que le Gouvernement a réfléchi au sujet pendant de longs mois, il est dommage qu'il ait choisi de faire déposer à la hâte une proposition de loi mal ficelée, largement remaniée suite à l'avis du Conseil d'État. Elle pourrait d'ailleurs être à nouveau retouchée à la faveur de l'adoption de différents textes abordant le même thème tant au niveau français qu'au niveau européen. Surtout, je déplore que le Gouvernement n'ait pas jugé nécessaire de nous transmettre l'avis de la Commission européenne. Malgré nos demandes, nous avons dû en prendre connaissance par voie de presse ! De même, je n'ai reçu les réponses à mon questionnaire écrit, envoyé le 8 octobre, que le 4 décembre, soit moins d'une semaine avant le passage en commission. Cependant, nous ne pouvons que soutenir l'option politique retenue par le Gouvernement, consistant à agir d'abord à l'échelon national, dans l'attente d'une réponse pérenne au niveau européen. Cette approche rejoint celle que notre commission a adoptée à travers la proposition de loi sur le libre choix du consommateur dans le cyberespace. Espérons que le Gouvernement soit aussi allant sur ce sujet tout aussi fondamental !
Dispose-t-on des moyens techniques pour identifier des propos haineux ?
Certains éléments de cette proposition de loi rejoignent les propositions de la commission d'enquête sur la souveraineté numérique, que j'ai eu l'honneur de présider. La définition de la plateforme systémique est compliquée mais il faut, je crois, en passer par là. Il nous paraît indispensable de placer sous l'autorité d'un régulateur indépendant les opérations de régulation ex ante.
L'auditabilité des algorithmes n'a pas été évoquée. Elle conditionne toutefois le fonctionnement des plateformes. Lorsqu'elles laissent passer des choses, c'est que les algorithmes le permettent, car ils représentent le point d'entrée de tous les systèmes. Nous pourrions aborder ce thème en séance.
Nous regrettons la présentation hâtive de ce texte. J'ai compris que le Président de la République souhaitait se rendre au prochain dîner du Conseil représentatif des institutions juives de France (CRIF) pour y présenter la traduction des engagements qu'il avait pu formuler. Ce sujet est sérieux et aurait mérité d'y consacrer davantage de temps.
Je salue la volonté de ne pas laisser les plateformes s'emparer de la régulation - je pense au projet de « cour suprême » de Facebook. Il est important que l'État reprenne la main sur ces sujets. Il est également nécessaire que la question soit prise en considération au niveau européen. Il va y avoir 28 législations, 28 types de sanctions. L'applicabilité pourrait être compliquée et derrière, il existe un véritable enjeu : la réouverture de la directive e-commerce et le Digital Services Act.
Pour quelles raisons la Commission européenne est-elle aussi frileuse sur ces questions ? Quels sont ses arguments ? C'est difficile à comprendre car tous les pays sont concernés.
Notre capacité à détecter les propos haineux dépend des propos tenus. S'il faut tenir compte du contexte, cela ne peut pas être automatisé. Le régulateur qu'est le CSA devra être doté des moyens nécessaires.
Je partage les remarques de Franck Montaugé. Les algorithmes sont un vrai sujet. Effectivement, à ce stade, ils ne sont pas abordés dans ce texte.
Comme le dit très bien Anne-Catherine Loisier, il s'agit d'un sujet de régulation complexe et en construction.
Les réticences de la Commission européenne sur ce texte s'expliquent par des raisons juridiques liées à la directive sur le commerce électronique.
Sachez que nous avons travaillé en excellente intelligence tant avec la commission des lois, qui examine le texte au fond, qu'avec la commission de la culture, qui s'est également saisie pour avis. Je présenterai demain l'avis de notre commission devant la commission des lois.
Le noeud central, c'est le modèle économique des plateformes, qui ont un statut d'hébergeur et non d'éditeur. Si on les mettait au même niveau que la presse, leur modèle s'écroulerait. Cela explique le comportement des acteurs. Devant la commission d'enquête sur la souveraineté numérique, les hébergeurs nous ont fait part de leur refus d'une responsabilité accrue sur les données qu'ils hébergent.
J'ajoute que certaines de ces données ne sont pas hébergées en France. La réglementation américaine interdit la transmission de toutes les données relatives aux citoyens américains.
La LCEN est un outil intéressant, avec notamment la distinction entre éditeur, hébergeur et fournisseur d'accès à internet : chacun a son rôle et ses responsabilités.
EXAMEN DES ARTICLES
Article 2
Je vais vous présenter quatre amendements ciblés sur le dispositif de régulation administrative. Ils ont été élaborés en bonne intelligence avec la commission des lois.
L'amendement AFFECO.1 vise à éviter le report d'usagers habitués à tenir des propos haineux illicites vers des plateformes non régulées. Le régulateur pourrait ainsi, sur décision motivée et en application de critères définis par décret, imposer des obligations de lutte contre la haine en ligne aux plateformes qui n'entreraient pas dans le champ de la régulation administrative.
Nous sommes favorables à cet amendement et nous le voterons, mais qu'est-ce qu'un « rôle significatif » ? Il faudra que cette notion soit définie.
Effectivement, cette notion sera définie par décret.
L'amendement AFFECO.1 est adopté.
L'amendement AFFECO.2 a pour objet de s'assurer que les obligations imposées aux plateformes prendront en compte les capacités de chacune à mettre en oeuvre des moyens de lutte contre la haine en ligne et qu'elles seront adaptées à l'ampleur du risque d'atteinte à la dignité humaine. En effet, toutes les plateformes ont des modèles d'affaires différents : certaines permettent de publier du contenu éphémère, d'autres du contenu conservé sur un fil d'actualité. En outre, il faut tenir compte de la viralité des contenus, qui détermine l'ampleur du préjudice subi.
L'amendement AFFECO.2 est adopté.
Une des dispositions de la proposition de loi instaure, à la charge des hébergeurs, une obligation de surveillance générale des contenus. Elle est incompatible avec le droit européen en vigueur. L'amendement AFFECO.3 vise donc à la supprimer.
L'amendement AFFECO.3 est adopté.
Article 4
La proposition de loi prévoit que le régulateur pourra encourager la coopération entre plateformes pour lutter contre la diffusion des contenus haineux illicites. Notre amendement AFFECO.4 vise à compléter ce dispositif en prévoyant également le partage d'informations entre plateformes.
C'est d'ailleurs une demande des plateformes, qui souhaitent mutualiser leurs recherches. C'est une disposition de bon sens.
L'amendement AFFECO.4 est adopté.
La réunion est close à 14 h 30.