Photo de Claude Malhuret

Interventions sur "contenu" de Claude Malhuret


15 interventions trouvées.

...s plateformes et qu'il est de plus en plus utilisé par des adultes. Quelles sont, pour vous, les évolutions marquantes depuis octobre 2021 ? Les choses se passent-elles exactement comme avant, ou la croissance du réseau a-t-elle conduit à introduire ou à développer d'autres fonctions qui n'existaient pas encore ? D'un côté, il y a collecte de données. De l'autre, il y a production ou poussée de contenus. C'est donc à double sens. Sur les collectes de données, vous nous avez expliqué que la loi chinoise, qui oblige à déférer à toute demande des services de renseignement, qui impose, dans la direction de ByteDance, une cellule du parti communiste chinois, montre qu'il n'y a évidemment aucune échappatoire pour les dirigeants de ByteDance à l'égard du parti communiste chinois. Mais les dirigeants...

...lles recommandations feriez-vous pour avancer, sur la question qui nous réunit ? Savez-vous, ensuite, quelle a été la réponse du président de ByteDance Singapour aux remarques assez « cuisantes » des quatre commissaires européens sur les manques de modération et sur l'opacité de l'algorithme utilisé par TikTok ? Des délais lui ont-ils été fixés pour y remédier ? Connaissez-vous quels sont les contenus amplifiés ou cachés par les « pousseurs », c'est-à-dire par des opérations humaines volontaires, et quelle est leur part par rapport à l'algorithme dans la promotion de contenus ou la censure ? Enfin, le Sénat avait voté, contre l'avis du Gouvernement, mon amendement à la loi du 24 août 2021 confortant le respect des principes de la République, pour faire de l'hébergeur un éditeur de contenu d...

...de ce débat : la régulation des grandes plateformes numériques est capitale, non seulement pour nos entreprises, mais surtout pour nos citoyens. Les réseaux antisociaux sont un Far West où se développent complotisme et haine de l’autre. C’est un écosystème de fake news qui abîme nos démocraties et met les jeunes et les moins jeunes à la merci du cyberharcèlement. La régulation des contenus avec le Digital Services Act (DSA) et l’encadrement des pratiques commerciales avec le Digital Markets Act (DMA) sont les meilleurs moyens de maîtriser notre espace européen. Je forme le vœu que ces textes soient applicables dès la fin de l’année et que l’on continue sans relâche à travailler sur ces sujets. La performance des six derniers mois est d’autant plus appréciable que ce...

...tidiens sur les réseaux sociaux – c’est exactement ce que vous avez dit il y a un instant, monsieur le secrétaire d’État. La raison de notre impuissance, c’est que nous avons cédé à l’argumentaire des plateformes numériques et de leurs milliers de lobbyistes, expliquant qu’ils étaient de simples hébergeurs des messages émis par leurs abonnés et non, comme la presse, des éditeurs responsables des contenus. Ce raisonnement les exonère de la responsabilité des contenus illicites, mais c’est évidemment une fiction : en effet, ces plateformes ne se contentent pas d’héberger des contenus. Leur business model est même à l’opposé, puisqu’il aboutit, par l’intermédiaire des algorithmes, à sélectionner les contenus les plus discutables, les plus polémiques, les plus violents – ce sont ceux qui gé...

... dites, monsieur le secrétaire d’État, que les discussions autour du DSA ont pour objectif de créer un statut tiers, entre hébergeur et éditeur. Mais mon amendement n’a pas un tel objet. Je me fiche de savoir si les plateformes sont des hébergeurs ou des éditeurs ! Je pense qu’elles sont des éditeurs, mais mon amendement vise simplement à ce qu’elles soient responsables de leurs algorithmes et du contenu qu’elles produisent. Si vous voulez créer un statut tiers, cela ne me pose aucun problème. Vous nous dites aussi que l’adoption de cet amendement forcerait les hébergeurs et les plateformes à vérifier un par un l’ensemble des contenus. Ce n’est pas non plus ce que je demande ! Nous voulons simplement que leurs algorithmes ne permettent pas la sélection des contenus les plus mauvais et les plus ...

... Gates veut tuer 15 % de l’humanité avec un vaccin contre la covid… Mais les choses ont changé depuis que Facebook, au lendemain de l’élection américaine de 2016, a modifié ses algorithmes qui avaient permis aux de peser sur le résultat du vote. Dégrader la promotion des pages au profit des groupes partait d’une idée intéressante, mais l’enfer est pavé de bonnes intentions : une grande partie du contenu des fils d’actualité proviennent aujourd’hui des groupes et de leurs centaines de liens, de vidéos et de commentaires indignés. Les plateformes sont désormais remplies de bataillons soudés à l’intérieur par leurs certitudes et leurs indignations, et à l’extérieur par le combat contre ceux qui ne pensent pas comme eux. Qu’il s’agisse des groupes sur Facebook, des combattants sur Twitter, le tout ...

...gation de transparence des vendeurs d’espaces publicitaires et des annonceurs. Elle nous a suivis en plaçant l’observatoire de la haine en ligne sous la tutelle du CSA et en reconnaissant la nécessité de renforcer la prévention en milieu scolaire. Il ne reste qu’une divergence majeure, et, malheureusement, elle porte sur le cœur du texte initial. Le Sénat a supprimé le délit de non-retrait des contenus haineux dans les vingt-quatre heures, qui constitue la mesure phare du texte, celle qu’attendent les victimes des contenus haineux et les associations qui les défendent. J’ai plaidé sans succès, en première lecture, pour que nous conservions cet article. La commission des lois n’étant pas de mon avis, la tâche était surhumaine. Voltaire disait qu’il est dangereux d’avoir raison quand le Gouvern...

...torrents de boue […] La liberté d’expression doit s’arrêter aux frontières de la vie privée que chaque citoyen est en droit d’exiger. » Ces paroles méritent, me semble-t-il, d’être répétées. Malheureusement, cette proposition de loi, dans sa version sénatoriale, n’exaucera pas le souhait du président du Sénat ; c’est ce que je voudrais tenter d’expliquer. Des textes destinés à faire retirer les contenus haineux existent déjà : la directive européenne e-commerce et la loi française. Ils ont fait la preuve de leur inefficacité, puisque ces contenus se multiplient de façon exponentielle. Pourquoi cet échec ? Pour une raison simple : le non-retrait ne donne lieu à aucune sanction. Si les lois actuelles sont inopérantes, c’est parce qu’elles prévoient, pour les plateformes, une obligation de moyens...

...e la même façon, en ce qui concerne la non-conformité au droit européen, je rappelle que la loi allemande, qui prévoit le même délit et va beaucoup plus loin que la loi française, a fait l’objet des mêmes critiques, mais n’a subi aucune censure de la part des instances européennes. Comme M. Ouzoulias, je m’étonne de l’exclusion des moteurs de recherche du dispositif. Les plateformes publient les contenus haineux, les moteurs dirigent vers ces contenus ; ne sanctionner que les premiers revient à vouloir punir les producteurs de drogue sans inquiéter les dealers. Tout l’écosystème est concerné. Je voudrais terminer sur une réflexion qui pourrait nous rassembler tous. J’entends les critiques expliquant que l’efficacité du texte initial est sujette à caution – l’avenir nous le dira. De la même faço...

Cet amendement vise, pour lutter efficacement contre les contenus haineux, à permettre au CSA d’organiser le partage transparent d’informations entre tous les opérateurs, quelles que soient leur taille et leurs relations concurrentielles.

...eur le secrétaire d’État, mes chers collègues, je ne peux, au moment d’examiner cette proposition de loi, m’empêcher d’exprimer ma surprise sur la façon dont la discussion s’engage. Ce texte nous arrive de l’Assemblée nationale avec une disposition essentielle, selon les termes mêmes de Mme Laetitia Avia, son auteur : « Le cœur du texte est l’obligation pour les grandes plateformes de retirer les contenus manifestement haineux dans un délai maximum de vingt-quatre heures après leur signalement. Pour la mettre en œuvre, nous créons un nouveau délit, placé sous le contrôle du juge. » La raison de cette proposition est assez évidente : la loi pour la confiance dans l’économie numérique, telle qu’elle est rédigée aujourd’hui, se révèle impuissante à enrayer le phénomène de la haine sur internet, qui...

...la censure. Il est urgent de défendre les victimes, pas de protéger les plateformes. Quatrième réflexion : certains objectent que ce texte risque de porter atteinte à la liberté d’expression. Comment peut-on soutenir cette position, alors que le mécanisme va exactement dans le même sens que celui qui s’applique à la presse depuis 1881 ? La loi précise que la presse n’a pas le droit de livrer de contenus haineux ou de diffamer. La presse se conforme depuis toujours à ces principes ; elle contrôle ses contenus et personne n’a jamais dit qu’on lui confiait le rôle du juge. Pourquoi y aurait-il deux poids deux mesures ? L’erreur de raisonnement consiste à distinguer les éditeurs, c’est-à-dire la presse, et les hébergeurs, alors qu’ils ont un point commun : ce sont des diffuseurs. Or c’est la diffu...

...texte. Nous nous retrouverons donc pratiquement dans la situation d’aujourd’hui – c’est la loi pour la confiance dans l’économie numérique qui continuera à peu près à s’appliquer –, avec de très minimes modifications qui ne sont pas des reculs, mais qui sont vraiment minimes. Par conséquent, les mêmes causes produisant les mêmes effets, nous n’aurons pas fait de progrès dans la lutte contre les contenus haineux sur internet. Bien entendu, je le regrette ! Il n’y a donc pas de raison, à notre avis, de voter le texte tel qu’il ressort des travaux du Sénat. Néanmoins, il ne constitue pas non plus, à proprement parler, un recul par rapport à la situation actuelle. Nous exprimerons donc notre indifférence plutôt que de l’hostilité et nous nous abstiendrons. Le débat va continuer à l’Assemblée nati...

Selon la rédaction actuelle du texte, les contenus ayant fait l’objet d’une notification au sens de la loi pour la confiance dans l’économie numérique et ayant été rendus inaccessibles par un hébergeur peuvent être conservés par celui-ci pour les besoins de la justice ; mais il s’agit d’une simple faculté. Or la conservation de ces contenus est un des meilleurs moyens de preuve, qui permettra aux juges d’apprécier et de qualifier les faits et l...

...la question de la censure, de la sur-censure et de la privatisation de la censure. Je suis sensible à ces arguments, mais je ne les comprends pas. On nous dit qu'il n'est pas pertinent de comparer la presse - des éditeurs - avec les Gafam, des hébergeurs. Or, c'est le rôle du diffuseur qui est déterminant. C'est le résultat qui compte. La loi précise que la presse n'a pas le droit de livrer de contenus haineux. La presse veille à ne pas diffuser les contenus non conformes et donc s'autocensure. La liberté d'expression, ce n'est pas la liberté de diffuser de la pourriture, de la haine, de l'antisémitisme, du harcèlement sur ces médias. Les éditorialistes sont responsables pénalement des propos diffusés. Pourquoi les plateformes ne le seraient-elles pas ? Il s'agirait donc non pas d'une sur-cens...