Intervention de Bernard Benhamou

Commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale — Réunion du 3 avril 2018 à 18h10
Fausses informations « fake news » — Diffusion d'un message et audition

Bernard Benhamou, secrétaire général de l'Institut de la souveraineté numérique :

La transparence des algorithmes est un sujet essentiel. Toutes les plateformes en utilisent, qu'il s'agisse de Facebook avec ses fils de News, de YouTube, de Google et ces algorithmes sont parfaitement opaques. Je vous invite tous à vous référer à l'excellent ouvrage The Black Box Society, de Frank Pasquale. L'auteur plaide pour une transparence qualifiée. Bien sûr, le code source d'une application est totalement illisible pour le grand public, mais il faut que des experts soient à même d'analyser ces codes quand il y va de notre vie : bientôt se poseront des problèmes sur les algorithmes des voitures sans pilote, qui devront faire l'objet d'un véritable débat démocratique pour savoir quels seront leurs comportements en situation d'accident.

De même, le choix des informations qui intervient sur des plateformes comme Google News ou comme le fil de News de Facebook, et peut-être surtout sur YouTube, est extraordinairement important. Pour l'instant nous n'y avons pas accès, ces algorithmes demeurant des secrets industriels. Mais, lorsqu'il est question d'enjeux aussi sensibles que le devenir de nos démocraties et le fonctionnement de nos sociétés, ce manque de transparence n'est pas soutenable.

Il commence à y avoir des études sur l'impact émotionnel, voir idéologique, de ces algorithmes. L'université de Cornell à New York et l'Université de Californie ont mesuré l'impact émotionnel d'une modification du fil de News de Facebook sur 700 000 personnes : qui dit manipulation émotionnelle dit sans doute, avec l'usage de l'intelligence artificielle, manipulation idéologique. De même qu'il y a quelques années il y a eu un avant et un après Snowden, je crois qu'il y aura un avant et un après Cambridge Analytica. Nous pensions que la bonne volonté des acteurs suffirait pour réguler le système, mais cette idée se heurte à la dure réalité de la manipulation, des intérêts économiques et des conflits géopolitiques.

Nous avons vu l'intervention stratégique d'un État étranger dans le fonctionnement démocratique de l'élection américaine, ainsi que, probablement, dans le vote sur le Brexit et sans doute aussi dans d'autres élections, y compris notre élection présidentielle. L'autorégulation a clairement montré ses limites et même, sur ces points, a échoué. À preuve, l'un des partisans et pionniers historiques d'Internet, Tim Berners-Lee, en a appelé récemment à la loi. Un éditorial du New York Times expliquait d'ailleurs récemment que le problème n'est pas Facebook, mais le fait que nos lois soient beaucoup trop molles en matière de protection de la vie privée. Un autre édito dans le même journal expliquait que l'Europe était en train de montrer le chemin, ajoutant que le nouveau monde doit aussi apprendre de l'ancien !

Le RGPD aura un impact bien au-delà des frontières de l'Union européenne : le consommateur américain sera touché par ses dispositions sur la protection des données. De fait, ce qui s'est passé avec Facebook de Cambridge Analytica était entièrement légal : les utilisateurs avaient donné leur accord - évidemment non éclairé au sens où nous l'entendrions en Europe. Ensuite, cette compagnie a ouvert les vannes de telle sorte que quelques centaines de milliers de personnes permettent de capter 50 millions de profils et d'en faire une moisson pour aller influencer une élection. L'élection américaine s'est jouée à 90 000 voix dans quelques États-clés. Or il est quasiment certain qu'une telle machine de guerre, en collusion possible avec des intérêts étrangers, a pu influencer 90 000 électeurs.

Nous devons donc nous interroger sur les algorithmes qui font fonctionner les plateformes. Si vous regardez une vidéo relative au massacre de Parkland, vous constatez que la vidéo suivante est celle du patron de la NRA, le lobby des armes. De même, si vous regardez des vidéos sur les attentats, YouTube vous présente ensuite des vidéos de plus en plus atroces. Je ne dis pas cela pour stigmatiser cette plateforme : la raison est tout simplement que l'algorithme détecte que les utilisateurs restent plus longtemps sur ces vidéos et que le modèle économique de ces plateformes est de montrer de la publicité.

Marc Zuckerberg, interviewé il y a deux jours, est revenu longuement sur ces questions et a indiqué qu'au mieux il faudrait plusieurs années pour rectifier le tir. Nous devons nous interroger sur les limites que nous souhaitons imposer à ces plateformes en tant qu'État démocratique et en tant qu'Union européenne. Penser qu'elles se réguleront elles-mêmes est une illusion. D'autant que la prochaine menace est celle de la manipulation de masse par des robots, qui pourront cibler certaines personnes en fonction des informations fournies par les plateformes. Et l'étape suivante est encore plus inquiétante : bientôt, l'usage de l'intelligence artificielle servira à dissimuler l'intervention des robots - au point qu'il faudra avoir recours aussi à l'intelligence artificielle pour les déceler.

Bref, ces questions qui ont fait irruption très rapidement, en une décennie environ, sont devenues si importantes pour l'avenir de nos sociétés que nous ne pouvons plus nous permettre le luxe de la naïveté.

Lawrence Lessig est légitimement inquiet. Il explique que, si notre société pouvait être jusqu'à présent captée par des groupes d'intérêts, elle peut désormais l'être par des puissances technologiques, y compris étrangères. À cet égard, la portée des propositions de loi est trop étroite puisqu'elles se focalisent sur la période préélectorale, en oubliant l'ensemble des phénomènes qui peuvent modifier le climat dans lequel les élections se déroulent. Le Brexit sera un terrain d'étude extraordinairement important dans ce domaine.

Un autre universitaire américain, philosophe et constitutionnaliste, M. Katzenstein, a écrit un ouvrage sur ces questions, et il considère qu'une démocratie digne de ce nom met en contact ses citoyens non seulement avec des opinions différentes, mais aussi avec des opinions qui les dérangent. En effet, l'élection américaine a montré qu'à force de n'être mis en contact par la régulation algorithmique qu'avec des opinions proches des siennes, chacun se radicalise. Si nous ne mettons pas chacun en contact avec des opinions abrasives, nous aurons perdu beaucoup de ce que nous considérons comme l'essentiel du débat démocratique. Il faudra donc une régulation par la loi. Cela aura un impact sur nos voisins et, d'ailleurs, l'opinion publique anglo-saxonne est en train de se rendre compte que ce qui a toujours été perçu comme le juridisme européen était en fait précurseur, puisque nous avons toujours été soucieux de protéger les données personnelles, qui sont bien la donnée de base pour le micro-targeting qu'on dénonce aujourd'hui.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion