2 interventions trouvées.
...xploitation des enfants est la priorité n° 1 ». Pourtant, le 6 février dernier, le « New York Times » publiait une étude qui soulignait que, quatre mois après cette annonce, la publication en ligne d'abus sexuels sur les enfants était loin d'avoir disparu de Twitter : à l'heure actuelle, il est toujours aussi aisé d'y trouver des images pornographiques mettant en scène de jeunes mineurs. Certains contenus sont largement diffusés et, même, sont recommandés par l'algorithme. En outre, le système de signalement de ces contenus illicites semble défectueux : le « Times » aurait signalé plusieurs comptes qui sont restés actifs et sont même apparus comme recommandations. Twitter a depuis réagi et a assuré avoir besoin de plus de temps pour comprendre la raison de ces dysfonctionnements... Il n'est donc...
Merci à tous les trois pour ce travail sérieux et exhaustif. Au regard du tableau fourni, je suis effaré des délais nécessaires pour supprimer un contenu une fois le danger identifié. Une fois l'alerte émise de manière quasi-immédiate, il faut ensuite minimum 12 voire 24 mois pour la suppression du contenu, c'est impressionnant. En ce sens, PHAROS vous paraît-elle être une structure efficace, avec des moyens et un dispositif suffisants ?