Intervention de Catherine Morin-Desailly

Commission des affaires européennes — Réunion du 18 mars 2021 à 8h30
Justice et affaires intérieures — Désinformation en ligne : communication et avis politique de mmes florence blatrix contat et catherine morin-desailly

Photo de Catherine Morin-DesaillyCatherine Morin-Desailly, co-rapporteure :

Ces mesures de transparence nous paraissent bien insuffisantes : nous avons interrogé de nombreux acteurs et experts du numérique sur la possibilité et l'opportunité d'introduire un statut spécifique pour les plateformes, caractérisé par une redevabilité accrue pour les contenus illicites qui sont diffusés, ou même seulement préjudiciables ou de désinformation. En effet, nous considérons que l'usage d'algorithmes d'ordonnancement des contenus et, plus encore, la détermination des paramètres de ces algorithmes, est assimilable à une éditorialisation. L'opinion quasiment unanime, à l'exception, bien entendu, des représentants des très grandes plateformes, globalement très satisfaites du projet de règlement en l'état, c'est que l'introduction d'un tel statut serait parfaitement justifiée. Nous invitons donc la Commission à évaluer et considérer cette option sans préjugés.

Le texte, même s'il cherche à en atténuer les effets, échoue à affronter directement la question du modèle de fonctionnement et du modèle économique des plateformes : aucune mesure concrète n'est en effet proposée pour assécher la monétisation des fausses informations via la publicité. Les effets négatifs d'un tel modèle sur le débat public et les processus démocratiques ne sont pas mentionnés parmi les facteurs potentiels de risques systémiques qui doivent être pris en compte par les très grandes plateformes lors de leurs évaluations.

Le second pilier sur lequel repose le modèle de fonctionnement des plateformes en ligne est l'exploitation des données personnelles de leurs utilisateurs, qui sert de base à la publicité ciblée qui les finance : il peut s'agir de données fournies sciemment par l'utilisateur, ou de données observées par le réseau social, ou même inférées à partir d'autres données - comme les likes, les traces de connexion ou encore l'historique de recherche.

Dans tous les cas, des obligations de transparence et, la plupart du temps, de recueil du consentement s'imposent à l'intermédiaire, au titre du règlement général sur la protection des données (RGPD) et aussi de la directive ePrivacy de 2002, mais elles ne sont clairement pas observées de manière satisfaisante. En particulier, toute personne faisant l'objet d'opérations de profilage devrait pouvoir s'y opposer, en vertu de l'article 22 du RGPD.

Il faut d'ailleurs attirer l'attention sur le rôle particulièrement néfaste, dans ce processus, des data brokers - les courtiers en données -, qui possèdent des dizaines de milliers de données sur chaque individu, données que les plateformes utilisent pour consolider les profils des utilisateurs. Ces data brokers, qui ont largement contribué à rendre possible le scandale Cambridge Analytica, commencent à intéresser les régulateurs, tant aux États-Unis qu'en Europe.

Le RGPD a déjà fortement encadré leur activité, et la proposition d'acte sur la gouvernance des données publiée par la Commission européenne en novembre dernier présente d'intéressantes propositions pour aller plus loin. J'espère que nous pourrons travailler sur ce sujet lorsque le deuxième volet de cette réglementation - la proposition d'acte sur les données - sera publié à l'automne prochain.

Force est cependant de constater que, malgré la défiance grandissante observée dans l'opinion publique envers les réseaux sociaux et le pistage généralisé, nous n'assistons pas pour l'instant, concrètement, à des refus massifs de ces pratiques par les utilisateurs ; certes, ils peuvent abandonner temporairement les réseaux sociaux ou les plateformes, mais ils ont tendance à y revenir.

L'obligation faite aux plateformes, dans le projet de DSA, d'informer clairement les utilisateurs sur le caractère publicitaire des communications commerciales auxquelles ils sont exposés, et de fournir des informations sur l'annonceur et les critères de ciblage utilisés, est tout à fait bienvenue. Cette proposition est conforme aux garanties de transparence imposées par le RGPD et la directive ePrivacy, et va même, pour ce qui est des critères de ciblage, au-delà du RGPD.

Cela devrait sensibiliser les utilisateurs au fonctionnement de ces systèmes de profilage, et aux atteintes potentielles à leur intimité et à leurs droits fondamentaux. Cependant, cela ne doit en aucun cas se substituer à la nécessité d'une application pleine et entière des règles européennes en matière de protection des données à caractère personnel.

Dans son avis sur le projet de DSA, le Contrôleur européen de la protection des données, que nous avons longuement auditionné, appelle la Commission à aller bien au-delà des mesures de transparence prévues dans le texte. Il suggère même d'aboutir in fine à la suppression de la publicité ciblée basée sur le profilage. Pour s'assurer de l'accord des utilisateurs au traitement de leurs données à des fins commerciales, conformément au RGPD, nous recommandons donc que les plateformes soient tenues de mettre à disposition des utilisateurs une option de désactivation de la publicité ciblée.

Sur la question du cadre de protection des données personnelles, la situation est contrastée. L'Europe dispose de l'une des législations les plus protectrices dans ce domaine, et la Commission nationale de l'informatique et des libertés (CNIL) comme le Comité européen de la protection des données (CEPD) - qui rassemble les « CNIL » européennes - estiment que le bilan du RGPD, entré en vigueur en 2018, est largement positif. Preuve de son efficacité, la totalité des grands acteurs du numérique a fait, ces deux dernières années, l'objet de plaintes au niveau européen à ce sujet, dont la plupart sont encore en cours de traitement.

Cependant, le consensus est également général pour estimer qu'il est indispensable de renforcer encore, d'une part, les moyens dont disposent les autorités nationales de protection des données, et, d'autre part, la coopération entre ces autorités nationales, afin de faire mieux vivre le système des autorités cheffes de file et harmoniser concrètement le niveau de protection dans les différents États membres.

La question de la publicité ciblée est, en outre, particulièrement sensible lorsqu'elle est utilisée à des fins de communication politique, aussi bien par les partis politiques traditionnels, dans le cadre de campagnes électorales, ou par des acteurs tiers, afin de déstabiliser des opinions. Toutefois, les modalités de manipulation des opinions sont différentes de celles que ma collègue a décrites concernant la diffusion des fausses nouvelles ; dans le cas de la publicité politique, les informations diffusées le sont en effet sciemment.

C'est le même modèle économique qui permet la diffusion de ce modèle néfaste, et les conséquences sur le fonctionnement des processus démocratiques sont similaires. Les techniques d'analyses massives de données à caractère personnel et de micro-ciblage créent « des asymétries extrêmes des connaissances et du pouvoir qui découle de ces connaissances », comme l'écrit l'universitaire américaine Shoshana Zuboff dans L'âge du capitalisme de surveillance.

Cela confère un pouvoir d'influence considérable sur les utilisateurs aux plateformes, et parfois à leurs annonceurs - pouvoir d'influence susceptible d'affecter gravement la liberté et la sincérité de leurs choix politiques. En outre, la diffusion de communications politiques uniquement auprès d'un cercle restreint de personnes, spécifiquement ciblées grâce aux techniques de profilage, empêche la vérification par des tiers de la véracité des faits allégués, et fait obstacle à tout débat contradictoire.

Là encore, une pleine application du RGPD devrait conduire à une atténuation considérable du risque. Les données susceptibles de révéler des opinions politiques relèvent, aux termes du RGPD, de la catégorie des données dites « sensibles », qu'elles soient recueillies directement ou qu'elles soient inférées, par profilage, à partir d'autres données -socio-économiques, de localisation, d'habitudes de consommation... On peut songer aux controverses autour du compteur Linky. La collecte et le traitement de ces données sont en principe interdits, sauf si celles-ci ont été manifestement rendues publiques par la personne concernée, ou que cette dernière a donné son consentement pour leur utilisation.

Ce champ de régulation est encore quasiment vierge. Il existe un relatif consensus sur la nécessité d'adapter le droit, et en particulier le droit électoral, à l'utilisation désormais massive des outils numériques, mais il n'existe pas actuellement de définition claire du concept de « publicité politique ». La Commission s'interroge d'ailleurs, en vue de sa future proposition législative, sur l'opportunité de faire entrer dans le champ de la publicité politique les communications sponsorisées sur des sujets d'intérêt général, sans qu'il s'agisse de communications émises par des partis politiques durant les campagnes électorales. Cette définition large est par exemple retenue par la Cour européenne des droits de l'homme (CEDH), qui inclut dans la publicité politique les publicités « thématiques » traitant de « questions d'intérêt général », qui peuvent être financées, par exemple, par des groupes d'intérêt privé ou des ONG.

Considérant qu'il est urgent de réguler le débat public et le débat politique en ligne, nous encourageons la Commission en ce sens. Cette initiative viendra assurément compléter de manière utile les dispositions horizontales sur la publicité ciblée déjà contenues dans le projet de DSA. Notre commission aura sans doute l'occasion de se prononcer plus précisément sur ce texte, quand le détail de la proposition sera connu, et il faudra alors être attentif à ce que la mise en place de règles au niveau européen n'aboutisse pas à un affaiblissement du haut niveau de protection qui existe actuellement dans certains États membres, et notamment en France, où la publicité politique sponsorisée est interdite, en ligne comme hors ligne.

Nous espérons que notre communication a permis de mettre en lumière, plus globalement, les effets néfastes du modèle de fonctionnement et de financement des grandes plateformes, les avancées et aussi les insuffisances des premiers remèdes proposés dans le projet de DSA. Ces éléments pourront également alimenter nos débats sur les propositions de textes sectoriels ultérieurs ; ils nourriront en tout cas notre rapport sur le projet de DSA, que nous vous présenterons dans les prochains mois.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion