93 interventions trouvées.
...el. Nous aurions pu nous en emparer plus sérieusement, avec un projet qui aurait suivi un réel diagnostic et qui aurait été mûrement réfléchi dans le cadre de la navette. Au lieu de cela, on va faire croire, une nouvelle fois, que l’on apporte une solution, alors que le problème restera entier. Pour le régler, il faudrait une volonté politique que vous n’avez pas. Il faudrait surtout obliger les plateformes à respecter leur statut d’hébergeur et la neutralité qui lui est associée. Aujourd’hui, grâce à leurs algorithmes que vous ne voulez pas rendre publics, elles sont dans une situation d’éditeurs, car elles interviennent systématiquement sur les contenus et leur diffusion.
Voici donc l’article clé, celui qui a soulevé toutes les controverses. De fait, il donne la possibilité aux plateformes de retirer dans un délai très bref, inférieur à vingt-quatre heures, des contenus considérés comme manifestement illicites, car manifestement haineux. La possibilité, que dis-je ? Il s’agira d’une obligation. Dans la discussion générale, nous avons exprimé notre inquiétude sur l’attitude de prévention qu’adopteront les plateformes : compte tenu de la sanction extraordinairement lourde prévue pa...
...a protection des droits d’autrui ; en France, traditionnellement, l’une des garanties essentielles pour assurer cet équilibre repose sur l’intervention de l’autorité judiciaire. C’est notamment pour cette raison que la commission des lois a rejeté le dispositif initial de la proposition de loi, qui faisait reposer l’appréciation du caractère illicite d’un contenu, essentiellement, sur les seules plateformes, en lieu et place d’un juge. Il y va aussi de notre souveraineté numérique, comme plusieurs orateurs l’ont fait observer. En revanche, le mécanisme proposé pour réintroduire le juge ne me semble pas opérationnel. La saisine du juge serait, si l’on suit les auteurs de l’amendement, systématique, pour faire confirmer tout retrait de contenus. Cette mesure conduirait immanquablement à engorger nos...
...avec quels moyens… Car, si la justice n’a pas les moyens de faire le travail, le CSA, aujourd’hui, au moment où l’on nous demande de voter la loi, ne les a pas non plus ! Avec un peu plus de temps, nous aurions pu faire des pas les uns vers les autres, comme le propose Marie-Pierre de la Gontrie. La formule qu’elle a présentée est proportionnée et modérée : elle permet d’agir, sans confier à des plateformes un pouvoir de censure, mais en faisant intervenir un juge. Cet équilibre, je suis sûr que, si nous avions eu le temps de la discussion, la majorité de cet hémicycle en aurait reconnu le bon sens. Seulement voilà : le rapporteur, parce qu’il y a une difficulté, veut supprimer l’article 1er ; et le Gouvernement, lui, entend maintenir l’article tel quel. Résultat : il n’y a pas place pour la reche...
...néa 4 de l’article 1er de la proposition de loi de Mme Avia prévoit que, lorsqu’un contenu est supprimé suivant la procédure de signalement mise en place par la loi de 2004 pour la confiance dans l’économie numérique, il est remplacé par un message mentionnant la suppression. Nous considérons que cette disposition, si elle est bien utile, n’est pas suffisante pour informer les utilisateurs de la plateforme. Il est nécessaire de préciser que la suppression résulte du caractère illicite du contenu proposé. En effet, certaines plateformes informent déjà leurs utilisateurs de la suppression de contenus, même lorsque la suppression a eu lieu à l’initiative des auteurs et en l’absence d’illicéité.
... les contenus rendus inaccessibles, sans autre précision. M. le rapporteur m’a suggéré d’utiliser la formule consacrée : « contenus illicites retirés ou rendus inaccessibles ». Je l’ai acceptée, puisque c’était la condition pour que la commission donne un avis favorable. J’attire toutefois l’attention de M. le rapporteur sur un point : il me semble important que tous les contenus retirés par les plateformes soient conservés par elles, non seulement les contenus illicites, mais également ceux qui ne le sont pas, pour que la justice puisse sanctionner les retraits abusifs. Si un hébergeur est contraint, pour telle ou telle raison, de retirer des contenus qui s’avèrent ultérieurement non illicites, nous sommes en présence d’une demande de retrait abusive de la part d’un internaute. J’accepte donc la ...
...ion de conservation des contenus illicites retirés par les hébergeurs, afin de faciliter d’éventuelles poursuites ultérieures. Il s’agit de réaliser un équilibre délicat entre la facilitation des enquêtes et les contraintes imposées aux hébergeurs. D’un côté, il est vrai que l’un des obstacles aux poursuites est trop souvent la disparition des preuves. Lors de l’audition des représentants de la plateforme Pharos, certains enquêteurs ont déploré que les plateformes soient parfois, paradoxalement, trop rapides : le temps que les services aillent sur les réseaux sociaux, le contenu a disparu, ce qui empêche la constatation. De l’autre, j’attire votre attention sur la nature extrêmement sensible des fichiers que risquent de constituer les hébergeurs. Si nous n’y prenons pas garde, de véritables banqu...
La proposition de M. Malhuret me paraît très intéressante. En effet, pour déposer plainte, il ne suffit pas de prendre une photo de son téléphone ou de son ordinateur à l’instant t. Il faut également que les propos racistes ou injurieux soient constatés par un huissier. Or, si les faits surviennent à vingt-deux heures et que la plateforme supprime les contenus très rapidement, il est de fait très difficile pour une victime d’obtenir un constat officiel. La conservation par les plateformes des propos injurieux supprimés permettra – j’en suis convaincu – de faciliter le dépôt de plainte.
...et de vifs débats, la commission des lois a souhaité attendre son adoption avant d’envisager de modifier aussi hâtivement notre droit. Le blocage administratif actuel fonctionne bien, et le Gouvernement ne justifie pas dans l’exposé des motifs de la nécessité de légiférer ainsi en urgence. Tous les hébergeurs ne seraient pas matériellement en mesure de répondre en une heure ; seules les grandes plateformes en ont les moyens. Le dispositif proposé est enfin très déséquilibré, puisqu’il ne prévoit aucune des principales garanties envisagées par le projet de règlement européen. Il y a des cas de force majeure ou d’impossibilité technique insurmontable : il faudrait donc prévoir des cas d’exonération de responsabilité. Il y a aussi des cas d’erreur de l’administration : il faudrait donc prévoir de p...
...ns souhaitent signaler un message litigieux, elles peinent parfois à identifier un interlocuteur français. Nous souhaitons par cet amendement qu’elles puissent intervenir facilement dans la chaîne de procédure de signalement des contenus illégaux. Il serait même opportun de créer un label officiel de signaleurs de confiance, afin d’inclure l’ensemble des ONG susceptibles d’être reconnues par ces plateformes, qui pourraient ainsi réagir encore plus rapidement. Cela permettrait, mes chers collègues, d’assurer un traitement accéléré des signalements qui font l’objet d’une pré-qualification juridique.
Le présent amendement a pour objet de s’assurer de la qualité de la prise en charge des mineurs dans le cadre des signalements aux plateformes pour les faits dont ils sont victimes. Il vise également à prévenir tout risque de sur-notification. Il convient de réserver aux seules associations reconnues d’utilité publique la possibilité de notifier un contenu haineux lorsqu’elles sont saisies par un mineur.
...l’article 1er ter B restreint le nombre d’associations en capacité d’agir pour la protection des mineurs. De très nombreuses associations travaillent dans le secteur de la protection de l’enfance et ont acquis une sérieuse expérience. Il serait dommageable de leur refuser le droit d’agir car leurs statuts n’auraient pas prévu la mention de leur protection « dans le cadre de leur usage des plateformes en ligne ». Le présent amendement a donc pour objet d’assurer une meilleure protection des mineurs.
Cet amendement proposé par Mme Goulet vise à élargir aux associations exerçant dans le secteur de la protection de l’enfance la possibilité de notifier des contenus haineux à la demande d’un mineur. Ne serait plus exigée la condition spécifique d’une action de protection dans le cadre de leur usage des plateformes en ligne. L’adoption de l’amendement n° 60 de la commission permettant de s’assurer du sérieux des intervenants, je n’y suis pas opposé. J’émets donc un avis favorable.