Intervention de Jânis Sârts

Commission des affaires étrangères, de la défense et des forces armées — Réunion du 19 décembre 2018 à 10h00
Audition de M. Jânis Sârts directeur du centre d'excellence pour la communication stratégique de l'otan

Jânis Sârts, directeur du Centre d'excellence pour la communication stratégique de l'OTAN :

Monsieur le président, je vous remercie de m'avoir invité.

Le Centre d'excellence pour la communication stratégique de l'OTAN, créé en 2014, est une des entités accréditées par l'OTAN, mais ne fait pas partie de sa structure de commandement. Il compte treize membres, dont la France qui contribue à ses travaux.

Le centre développe des méthodologies pour l'OTAN et ses membres afin de faire face à certaines situations, et de les aider à tester leurs capacités. Nous n'avons pas de responsabilités opérationnelles dans l'OTAN, nous apportons un support en termes d'expertise et de conseil.

J'aborderai, d'abord, les domaines d'actions.

Chercher à influencer l'adversaire est une idée aussi vieille que le conflit lui-même. Il suffit de se référer aux théoriciens militaires : ils montrent que pénétrer l'espace cognitif de l'adversaire présente un avantage de taille. Cela a toujours été le cas, mais la dynamique a beaucoup changé : nos sociétés ont connu un changement important dans la façon de consommer l'information. Cela s'explique par la numérisation de l'information : 70 à 80 % de celle-ci est consommée sous forme numérique, et de 50 à 60 % des citoyens s'informent sur les réseaux sociaux.

Une étude de Microsoft de 2015 montre que la durée moyenne de concentration en matière d'information numérique est de huit secondes. Aujourd'hui, c'est peut-être même encore moins ! Par comparaison, je vous rappelle que la durée de concentration d'un poisson rouge est de neuf secondes... De plus, des expériences ont démontré que nous consommons davantage d'émotions, qui ont un impact plus puissant, particulièrement quand elles sont combinées à des images, que de faits. Par conséquent, les faits ne jouent plus le même rôle qu'avant, ce qui est un changement massif en termes de flux d'information.

Se produit un phénomène de chambre de résonance ou de bulles d'information. Les réseaux sociaux - Facebook, Twitter, Instagram - cherchent à garder le plus longtemps possible leurs utilisateurs en ligne, l'objectif étant de vendre de la publicité en faisant de nous des « produits ». Ils ont pour objectif de nous faire regarder des contenus toujours plus extrêmes, notamment en matière politique. Certaines chambres de résonance sont très puissantes : l'une de mes préférées, qui regroupe environ 10 000 personnes et est active surtout aux États-Unis, regroupe ceux qui croient que les humains sont dirigés par des lézards aliens...

Ces chambres de résonance deviennent de plus en plus puissantes.

Les forces hostiles essayent d'exploiter les vulnérabilités. Il est aujourd'hui beaucoup plus facile de saper les facteurs de cohésion d'une société qu'il y a quinze ans.

J'en viens maintenant aux acteurs néfastes.

Ce sont, en premier lieu, les groupes terroristes. Daech a été la première organisation terroriste à utiliser cette méthode, en s'adressant à ses followers via des réseaux. Mais leur opération tendant à se présenter comme un État islamique global n'a pas fonctionné. Néanmoins, la prochaine grande opération qui surviendra sera le fait de groupes terroristes qui utiliseront une stratégie de communication encore plus sophistiquée, en se basant sur les réseaux pour disséminer l'information et en exploitant ce phénomène de chambre de résonance. Heureusement, en ce moment, les organisations terroristes sont les cibles des plateformes en ligne et ne sont plus aussi efficaces qu'avant ; elles utilisent des plateformes de discussion en ligne réservées à des groupes fermés, mais à une échelle moins importante qu'il y a trois ou quatre ans.

Le deuxième acteur est la Russie, qui utilise différents spectres d'action. Le pays utilise des concepts hérités de l'Union soviétique des années soixante-dix et quatre-vingt. La Russie cherche à exploiter les vulnérabilités existantes au sein des sociétés en utilisant les outils à sa disposition : les médias financés par l'État, comme Sputnik et RT, et des opérations en ligne, telle l'ingérence dans le processus électoral américain. Cette ingérence était continue en 2016 et s'est poursuivie jusqu'aux élections.

La Chine a développé une approche différente, beaucoup plus subtile, privilégiant des stratégies à long terme. Dans cinq à sept ans, elle sera l'un des acteurs les plus performants dans notre environnement numérique. Elle investit dans les technologies, en combinant trois éléments : le captage de données, l'intelligence artificielle, et les technologies de surveillance. Bientôt émergera une technologie de contrôle et d'influence des esprits humains à un niveau inconnu jusqu'alors. La Chine a développé ces technologies d'abord pour des raisons de politique intérieure. La Russie avait fait de même, pour son usage interne, puis a ensuite découvert qu'elle pouvait utiliser ces outils à l'extérieur. Ce sera donc probablement la même chose en Chine.

L'environnement futur ne sera donc pas aussi simple qu'avant... Des éléments clefs vont polluer notre environnement, rendant toute activité sociale plus complexe, avec la possibilité d'altérer le contenu d'une vidéo ou d'une image, empêchant de voir si elle est vraie ou fausse. Dans une campagne électorale, cela aura un effet domino : un événement vrai ne sera plus cru ! Cela ébranle aussi la croyance fondamentale dans la véracité de l'information.

Le big data est un élément important. À la suite du scandale Cambridge Analytica, qui a surestimé ses forces et s'est survendu, on croit avoir suffisamment de matériaux pour influencer le comportement des gens. Cette année, nous avons mené un test avec un scénario particulier durant un exercice militaire. Nous voulions savoir si la quantité de big data pouvait révéler les manoeuvres en cours et influencer le comportement des soldats. Associé à l'intelligence artificielle, le big data peut influencer la sphère militaire et la société dans son ensemble. Nous devons être très scrupuleux sur les endroits où nous entreposons nos données, et sur les personnes qui y ont accès et qui traitent l'information...

L'intelligence artificielle est un outil rendant tous les autres beaucoup plus performants. Sans intelligence artificielle, il est très difficile de générer des deepfakes (permutation intelligente de visages) ou de tirer parti du big data pour fournir des informations. Ces opérations visent des groupes très limités.

Il y a un marché noir d'informations pour manipuler et influencer. En ligne, vous pouvez acheter tous les outils de manipulation numérique : des vues, des partages, des commentaires... C'est paradoxal : sur Google, la première chose que vous voyez lorsque vous cherchez à voir l'audience d'une vidéo, c'est une publicité : pour 20 euros, vous pouvez acheter 2 000 vues ou « likes », et dix commentaires... Google fournit ainsi les plateformes qui peuvent tromper les particuliers et les entreprises. Les algorithmes savent ce qui a été vu par certains types de personnes, comme des mères. Ils peuvent agir dessus. Des comptes bots, robots, sont automatisés. Lorsqu'on analyse les discussions sur la présence de l'OTAN dans les pays baltes ou en Pologne, 80 % des conversations en ligne émanent de comptes automatisés, contre 20 % de comptes humains. Il est très facile de déployer ce type d'opérations, qui impactent les sociétés : les citoyens, qui ont un rapport émotionnel à l'information, peuvent être mobilisés par ces actes et transformer leur action. Dans ce marché noir de l'information, tout repose sur des logiciels développés en Russie - même si les opérations elles-mêmes sont réalisées ailleurs, comme au Brésil, au Mexique ou en France...

Que faire face à ce phénomène ? Il faut d'abord comprendre ce qui est en train de se passer - c'est à la fois simple et difficile. Notre centre d'excellence apporte son soutien aux nations qui le souhaitent pour développer la résilience électorale, et comprendre ce qui s'est passé. Il a fallu deux ans pour comprendre ce qui s'est passé lors des élections américaines de 2016. Combien de temps faudra-t-il pour nos États, qui ont des moyens bien moins importants ?

Nous sommes loin de parvenir à une autorégulation. Ces plateformes en ligne ont reçu un important pouvoir dans un environnement démocratique. Nous devons exiger la transparence des algorithmes pour savoir quelles actions peuvent tromper les gens afin de les inciter à agir différemment, ou ce qui est fait des données laissées par les citoyens dans leur sillage numérique... Alors que nous nous sommes battus pour acquérir des droits, nous sommes en train de les perdre dans l'environnement numérique. Les algorithmes pourront toujours davantage déterminer nos choix...

Nous devons avoir une approche globale sur ce sujet de sécurité nationale, qui ne doit pas être uniquement géré par les forces armées. Ces dispositifs viseront toujours le maillon le plus faible, qui n'est pas nécessairement militaire. Les gouvernements, mais également les acteurs de la société civile, doivent agir, car les premiers n'ont pas forcément la crédibilité suffisante. Il faut responsabiliser la société civile.

Voyons comment utiliser les technologies pour rendre cet environnement meilleur. L'essentiel réside dans l'usage de la technologie, pour plus de liberté d'expression, de croyance, d'action et de transparence, par rapport aux conséquences de ces opérations sur les citoyens. Parfois, on mélange liberté d'expression et lutte contre la désinformation numérique. Ne nous attachons pas au contenu des messages. La désinformation concerne l'impact de la manipulation de l'information. Il faut regarder la logistique mise en oeuvre, ce qui la sous-tend. Parfois, nous n'avons pas accès aux données Facebook ou YouTube : nous voyons les visuels mais pas la campagne de coordination interplateformes, la recette qui rend la manipulation possible...

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion