Intervention de Florence Blatrix Contat

Commission des affaires européennes — Réunion du 18 mars 2021 à 8h30
Justice et affaires intérieures — Désinformation en ligne : communication et avis politique de mmes florence blatrix contat et catherine morin-desailly

Photo de Florence Blatrix ContatFlorence Blatrix Contat, co-rapporteure :

Par bien des aspects, les plateformes en ligne sont désormais assimilables à des espaces publics ; elles jouent un rôle de plus en plus important dans l'accès à l'information, et sont même devenues un moyen privilégié de communication avec les citoyens, pour les partis politiques comme pour les pouvoirs publics. Les récents événements en Australie ont bien montré à quel point Facebook, contrairement à ses dires, est devenu un canal de diffusion de l'information irremplaçable, y compris pour certaines autorités et certains services publics.

Il est vrai que la défiance envers les médias traditionnels est de plus en plus grande : selon le dernier baromètre du Cevipof, seuls 16 % des Français déclareraient faire confiance aux médias traditionnels. De plus en plus de personnes se tournent vers les réseaux sociaux pour accéder à l'information. L'encadrement des contenus publiés sur les plateformes en ligne et la lutte contre la désinformation apparaissent donc comme des enjeux majeurs.

L'Union européenne s'intéresse à ce sujet depuis déjà plusieurs années. Le code européen de bonnes pratiques contre la désinformation en ligne, cadre d'autorégulation mis en place en 2018, présente, de l'aveu général, un bilan plutôt positif : il a permis d'engager un dialogue entre les acteurs économiques et les autorités européennes et nationales pertinentes. Ce dialogue s'est, par exemple, montré particulièrement efficace pendant la crise de la covid-19 : les plateformes signataires, encouragées par la Commission, ont montré leur capacité à lutter contre la désinformation et à promouvoir des contenus fiables, issus de sources journalistiques ou gouvernementales. En particulier, les récents progrès de leurs algorithmes d'analyse des contenus leur permettent de détecter rapidement une très grande proportion des contenus douteux, y compris en tenant compte des nuances de contexte.

En ce qui concerne la promotion de contenus fiables, un certain nombre de grandes plateformes pratiquent déjà le marquage de contenus publiés par des autorités, ou vérifiés par des fact checkers. Il conviendrait d'encourager plus largement le recours à des vérificateurs de faits agréés. Nous pensons que les journalistes, en particulier, ont un rôle à jouer dans ce processus. Le projet de DSA institutionnalise un statut de « signaleurs de confiance » - trusted flaggers -, principalement pour le signalement de contenus illicites et de produits contrefaits, qui offrirait un cadre pour une coopération renforcée dans le domaine de la lutte contre la désinformation.

Le cadre non contraignant du code n'est plus suffisant, au regard de l'ampleur prise par le phénomène de désinformation en ligne. Facebook affirme, par exemple, bloquer chaque jour automatiquement des millions de tentatives de création de faux comptes. Et les outils désormais à la disposition des plateformes ont prouvé leur efficacité. Ce constat n'est pas fait seulement en Europe : après l'attaque du Capitole, début janvier, les parlementaires américains ont constaté que « l'autorégulation a échoué » et ont convoqué les PDG de Facebook, Twitter et Alphabet pour qu'ils répondent de leur rôle et de leur responsabilité dans la diffusion de fausses informations.

De fait, comme le scandale Cambridge Analytica il y a quelques années, la récente affaire du Capitole illustre les risques pour le fonctionnement réel de nos démocraties, qu'induit le modèle économique des plateformes, fondé sur l' « économie de l'attention », nourrie par l'exploitation abusive des données à caractère personnel. Car si ces plateformes sont devenues des lieux inévitables de débat public, il ne faut jamais perdre de vue qu'elles demeurent des acteurs économiques privés à but lucratif, dont la vertu n'excédera jamais les limites de leur intérêt économique : leur modèle de financement quasi exclusif par les revenus publicitaires aboutit à une recherche systématique d'exposition maximale des utilisateurs à la publicité, et il est désormais bien établi que cette logique favorise les contenus les plus clivants et radicaux, qui retiennent l'attention, au détriment des informations pondérées.

À cet égard, la Commission européenne, dans son projet de Digital Services Act et dans la nouvelle mouture en préparation du code de bonne conduite, continue de tabler sur le risque réputationnel encouru par les plateformes, pour les encourager à améliorer spontanément leurs comportements en matière de régulation des contenus - notamment les contenus préjudiciables et de désinformation. Il faut être bien naïf pour penser que cela suffira à faire bouger significativement les lignes, quand on pense à l'impact dérisoire sur son chiffre d'affaires qu'a eu le boycott de Facebook par plus de 400 grands annonceurs, à l'été 2020.

Plus fondamentalement, s'il faut évidemment empêcher que la diffusion de contenus illégaux, préjudiciables ou trompeurs ne rapporte gros, il nous faut aussi refuser, quand bien même la pression de l'opinion publique obligerait les plateformes à s'acheter une vertu, que le débat public puisse être orienté uniquement par des principes de rentabilité, à rebours de tous les principes et garanties établis en France : c'est bien d'une régulation propre à assurer la pluralité des opinions en ligne dont nous avons besoin. Mais quelle régulation ?

La proposition de Digital Services Act maintient le principe de responsabilité limitée pour les hébergeurs : cela implique qu'ils ne peuvent être tenus responsables des contenus illicites publiés sur leurs services que si, une fois informés, ils n'agissent pas pour les retirer. Des obligations additionnelles sont prévues pour les plateformes en matière de transparence et d'obligations de moyens, et plus encore pour les très grandes plateformes. Ces dernières sont tenues de procéder à une évaluation des risques systémiques posés par l'utilisation de leurs services, par exemple en matière d'atteinte aux droits fondamentaux, et de prendre des mesures d'atténuation de ces risques. C'est dans ce dernier cadre qu'entre le traitement de la désinformation.

Nous ne pouvons que saluer le fait que le texte traite de la question des algorithmes d'ordonnancement des contenus : ces derniers favorisent la visibilité et l'accessibilité, voire la viralité de certains contenus, et leur permettent de toucher un très large public en un temps record. Ils constituent donc un enjeu majeur en matière de lutte contre la désinformation. Cette caractéristique de la diffusion de l'information sur internet fait que poser le débat en termes de respect de la liberté d'expression n'est pas adéquat, ou en tout cas pas suffisant : on peut encadrer les modalités de diffusion - ce que les Anglo-Saxons appellent « freedom of reach » - sans attenter à la liberté d'expression - « freedom of speech » - des individus qui utilisent les services de médias sociaux.

Il est essentiel que les acteurs privés que sont les plateformes ne disposent pas d'un pouvoir arbitraire de suppression des contenus, en particulier en matière de contenus douteux, moins aisés à qualifier ; mais le déclassement algorithmique de certains contenus, en réduisant considérablement leur visibilité, s'apparente déjà à une sorte de censure de fait. Il convient donc d'envisager une responsabilité des plateformes sur ce qu'elles maîtrisent, à savoir les modalités d'ordonnancement algorithmique.

Le projet de DSA prend partiellement en compte cet aspect, en assurant une meilleure accessibilité de ces algorithmes aux chercheurs et aux régulateurs, aux fins d'évaluation des risques systémiques. Il demande aussi aux très grandes plateformes de prendre en compte le fonctionnement de leurs algorithmes dans l'évaluation des risques et, le cas échéant, dans les mesures prises en vue de les atténuer. Il offre en outre aux utilisateurs la possibilité, à laquelle nous sommes très favorables, de modifier les paramètres du système de recommandation, voire de le désactiver, même si nous aurions préféré que cette désactivation soit imposée par défaut.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion