6 interventions trouvées.
...ormes. En outre, les plateformes en ligne qui touchent plus de 10 % de la population européenne seront soumises à des obligations renforcées, en vue de prévenir les risques systémiques posés par l'utilisation de leurs services : auto-évaluation des risques, mesures d'atténuation, audits indépendants de leurs systèmes de gestion des risques, mais aussi large ouverture de leurs données et de leurs algorithmes aux autorités de régulation et à la communauté académique. Ces avancées vont dans le bon sens. Cependant, après plus d'une vingtaine d'auditions, nous sommes convaincues que de nombreux points méritent d'être précisés, complétés et renforcés : vous pourrez en trouver le détail dans notre rapport. Nous souhaitons insister aujourd'hui sur trois d'entre eux. En premier lieu, le renforcement de la...
Le troisième point, qui est le plus structurant, est la nécessité de mieux prendre en compte le fonctionnement même des plateformes en ligne, et le modèle économique sous-jacent. Ce dernier, nous le savons, repose sur l'accumulation de très grandes masses de données, en particulier personnelles, qui sont ensuite exploitées par des algorithmes de recommandation des contenus et d'adressage de la publicité : il s'agit de maximiser le temps passé par l'utilisateur sur les plateformes et, en conséquence, les revenus de ces dernières. Ce système aboutit inévitablement à favoriser les contenus les plus clivants et les plus contestables, qui provoquent le plus de réactions, mais qui enferment aussi les utilisateurs dans des bulles de contenu...
...xistent déjà contre ces addictions et ces dérapages. Cependant, les parents ne respectent pas toujours, par exemple, la préconisation de non-exposition avant 13 ans. Comment les faire appliquer ? Par ailleurs, comme vous, je pense que le DSA manque d'ambition, mais il est vrai que ce n'est qu'en portant ce sujet au niveau européen que nous pourrons avancer. Enfin, je suis plus dubitatif sur les algorithmes, qui sont à la base du développement des Gafam. Même si je souhaite comme vous la transparence des algorithmes, ne risque-t-on pas une fin de non-recevoir, sous prétexte de protéger les secrets de fabrication, au même titre par exemple que la recette du Coca-Cola ?
Nous fixons des garde-fous pour les mineurs. La législation et les campagnes nationales d'information seront les plus efficaces. Sur les algorithmes, nous devons au moins afficher une volonté, sans quoi nous n'aboutirons pas, et nous devons aboutir : Frances Haugen nous a clairement dit que Facebook pouvait modifier les algorithmes.
...e Facebook, Youtube Instagram ou le chinois TikTok... Le Conseil supérieur de l'audiovisuel (CSA), qui réalise des campagnes d'information, a un rôle particulier à jouer, mais il manque de moyens pour informer le jeune public, comme j'en avais déjà fait état lors de l'examen de ma proposition de loi visant à lutter contre l'exposition précoce des enfants aux écrans. Ce que nous proposons sur les algorithmes, c'est que les plateformes, en tant qu'espaces publics, se conforment à des règles. Les chercheurs que nous avons auditionnés nous ont confirmé, comme Frances Haugen, que les plateformes utilisent sciemment les algorithmes pour faire du profit au détriment de la sécurité, notamment des enfants. Il faut donc leur imposer des audits externes réguliers en se basant sur cette qualité d'espace public...
On parle souvent d'internet comme d'une autoroute de l'information. Or, pour conduire un véhicule, il faut un permis. De même, pour naviguer sur internet, un certain nombre d'informations sont nécessaires. Certaines écoles font passer un permis internet. Sans qu'il faille le rendre obligatoire, cela me semble un service à rendre aux enfants. Les cookies sont aux algorithmes ce que l'eau est aux moulins. On atteint désormais des démarches liberticides : certains sites refusent l'accès sans acceptation de la fenêtre pop-up proposant les cookies. Je tenais à le signaler.