par email |
M. Jean-Noël Guérini appelle l'attention de M. le ministre délégué auprès du ministre de l'économie, des finances et de la souveraineté industrielle et numérique, chargé de la transition numérique et des télécommunications sur les dangers du « deepfake ».
Une étude menée par des chercheurs de l'université du Texas et publiée le 22 février 2022 (« AI-synthesized faces are indistinguishable from real faces and more trustworthy ») a montré que non seulement les visages créés par des intelligences artificielles n'étaient plus détectables à l'œil nu, mais que ces visages de synthèse suscitaient même un sentiment de confiance supérieur chez les spectateurs.
On peut donc légitimement s'inquiéter des usages du « deepfake » (hypertrucage, infox vidéo ou vidéotox), cette technique de synthèse multimédia reposant sur l'intelligence artificielle et permettant de générer des vidéos falsifiées, qui superposent des images et des prises de vues réelles. Voix clonée et visage modélisé s'avèrent désormais d'un réalisme tellement confondant que cela confère une dimension inédite aux fausses informations que peuvent propager ces vidéos. De telles manipulations fabriquent de l'incertitude et jettent la suspicion sur l'ensemble des contenus audiovisuels d'information. Se posent dès lors des questions liées non seulement à la désinformation, mais également au droit d'auteur, à la vie privée, au harcèlement…
Alors que l'Europe révise son code de bonnes pratiques contre la désinformation, il lui demande comment détecter les vidéos truquées et s'assurer qu'elles sont présentées comme telles.
Cette question n'a pas encore de réponse.
Aucun commentaire n'a encore été formulé sur cette question.