Je m'interrogerai tout d'abord avec vous sur le principe directeur d'une gouvernance de l'Internet. On a souvent tendance, pour certains sujets, à se cristalliser sur les aspects institutionnels, notamment autour du rôle de l'Internet corporation for assigned names and numbers (ICANN).
J'essaierai ensuite de caractériser le moment diplomatique dans lequel nous nous trouvons et de commenter l'annonce du Gouvernement américain, vendredi dernier, qui envisage de se dégager du contrôle de l'ICANN.
Je tenterai enfin d'esquisser un chemin pour aller vers la mise en place d'une gouvernance multilatérale de l'ICANN...
Quels sont les principes directeurs ? L'Internet a pris une place telle dans nos sociétés qu'il est devenu un enjeu majeur des relations internationales. Il existe une tension entre un réseau conçu techniquement comme sans frontière, et un système qui repose sur la souveraineté d'États disposant de juridictions géographiquement définies. L'idée de certains pionniers selon laquelle l'Internet pourrait bénéficier d'un régime d'exemption, qu'il serait hors le monde et pourrait se développer à côté du monde réel et s'en isoler, a perdu de plus en plus de validité avec l'intrication du monde réel et du monde virtuel, bien plus encore si l'on pense à l'émergence de l'Internet des objets.
L'Internet est donc rattrapé par les règles des États et par les règles territorialisées, les États souhaitant y rétablir leur souveraineté. Cette question est légitime. J'essaye cependant de faire valoir que les États démocratiques devraient s'imposer une forme de retenue. L'exigence de souveraineté doit être conciliée avec d'autres exigences, d'autres impératifs, notamment pour préserver le caractère mondial et universel de l'Internet, ainsi que certaines de ses propriétés les plus précieuses.
Le 2 septembre 1969, des scientifiques, en Californie, relient deux ordinateurs entre eux, au moyen d'un câble d'environ cinq mètres. En 1975, on dénombrait aux Etats-Unis 200 000 ordinateurs, 25 millions en 1985, 90 millions en 1995, 225 millions en 2005. On en compte 1,4 milliards aujourd'hui, auxquels il faut ajouter 400 millions de tablettes et 1,6 milliard de Smartphones, tous majoritairement connectés à l'Internet. Il s'agit d'un véritable changement d'échelle.
Pendant des années, l'Internet s'est développé sans le concours de l'industrie des télécommunications, celle-ci le regardant avec méfiance, le considérant comme un réseau bizarre, sans centre. L'Internet a prospéré sans l'industrie des systèmes d'exploitation, et sans les constructeurs d'ordinateurs personnels, qui ont longtemps refusé d'intégrer des modems à leurs ordinateurs.
Si l'Internet s'est répandu sans le concours des industries, c'est qu'il devait avoir des propriétés particulières. En un sens, comme l'a expliqué un expert en sécurité reconnu, Bruce Schneier, l'histoire de l'Internet est un accident fortuit, résultant d'un désintérêt commercial initial des entreprises, d'une négligence des gouvernements et de l'inclinaison des ingénieurs à construire des systèmes ouverts, simples et faciles.
Cette incompréhension des industries installées vis-à-vis de ce qui allait devenir l'Internet a permis à des sociétés comme Google, Yahoo ou Amazon de proposer des services innovants et d'acquérir très vite une puissance leur permettant d'acheter d'autres acteurs, afin de les empêcher de développer leurs innovations. Google, à lui seul, a ainsi absorbé 152 sociétés depuis sa création -dont deux françaises ! L'Internet devait donc avoir des propriétés peu communes pour rencontrer un tel succès, s'imposer aux industries numériques de l'époque et devenir, en vingt ans, l'infrastructure mondiale des échanges scientifiques, culturels et économiques ! Ces propriétés s'ancrent dans la technologie et dans l'architecture du réseau, qui donne aux individus le pouvoir d'émettre des contenus, autant que de les recevoir, et s'assure que leurs messages seront transmis avec la même priorité que ceux des grands groupes internationaux.
Certains de ces sujets ont été abordés par M. Silicani, comme la distinction entre le transport et le service, les fonctions de traitement des informations, ou le principe du end-to-end - ou « bout à bout » - qui fait que l'intelligence est située à l'extrémité du réseau, et non en son centre, comme avec les réseaux traditionnels.
Il s'agit donc d'un réseau dans lequel les fonctions de traitement sont assurées aux extrémités par les ordinateurs et par les usagers. C'est cette particularité qui a permis à des développeurs, des innovateurs, et des start-ups, de mettre ces technologies à la disposition du public, personne ne pouvant les en empêcher.
Ces propriétés - l'ouverture, l'interopérabilité, la neutralité, l'architecture du bout à bout - ont ouvert un champ inouï d'innovations, de circulation des connaissances et de développement des échanges.
Je dois, à ce stade, évoquer la thèse de Lawrence Lessig, juriste américain, qui a exposé dans son livre, paru en 1999, « Code is law », sa théorie des deux codes. Il existe, selon lui, un code juridique -la loi, le droit- qu'il appelle le code de la côte Est, et un code informatique, inscrit dans les logiciels, qui structure l'architecture de l'Internet, le code de la côte Ouest. Il expliquait dans son ouvrage que sur l'Internet, c'est le code informatique qui prévaut et définit les comportements, bien plus que le droit ou la loi. Il montre que la liberté du cyberespace est inhérente à son architecture et que, si celle-ci est modifiée, les libertés seront supprimées. Il prévient aussi que le code de l'Internet n'est ni figé, ni définitif, et que les États et les entreprises auront à coeur de modifier l'architecture, en y ajoutant de nouvelles couches, de manière à rendre l'Internet plus régulable. Ces prévisions se sont assez largement réalisées !
Je voudrais attirer l'attention sur les trois grandes atteintes aux principes architecturaux de l'Internet. Le premier est au coeur de votre mission : il s'agit de la fameuse fragmentation. Certains pays ont entrepris de construire une forme d'Internet national, afin de se mettre à l'abri des influences extérieures. On pense à la Chine, qui a édifié un immense pare-feu -la nouvelle muraille de Chine- qui est en fait essentiellement un dispositif de filtrage assuré par 300 000 censeurs.
Eric Schmidt, dirigeant de Google, et très bon observateur des pratiques de filtrage dans le monde, a dressé une typologie des États qui tentent de filtrer et de contrôler l'Internet. Il distingue trois modèles. Le premier est le modèle flagrant, comme la Chine, où sévissent les censeurs. Le second est le modèle qu'il qualifie de honteux, comme la Turquie. Le troisième modèle, qu'il qualifie de culturellement et politiquement acceptable, est celui de la Corée du Sud ou de la Malaisie.
La seconde atteinte à l'architecture et au principe fondateur réside dans la surveillance de masse. On commence, grâce aux révélations d'Edward Snowden, à avoir une idée de l'ampleur de la surveillance et de la diversité des moyens mis en oeuvre. La Quadrature du Net (LQDN) a entrepris de recenser les programmes mis en place par l'Agence nationale de la Sécurité (NSA) ; elle a déjà répertorié 112 programmes et annonces. Il lui en reste 217 à documenter...
Parmi ces programmes de surveillance, il en est qui portent uniquement sur le fait de se brancher sur des infrastructures ; d'autres modifient l'architecture de l'Internet. On sait maintenant que la NSA est intervenue dans l'établissement des normes américaines en matière de chiffrage, qu'elle a collaboré avec des entreprises pour intégrer, dès la conception même des logiciels, des portes dérobées dans les solutions de chiffrement, ce qui a fait dire à Bruce Schneier : « La NSA a transformé l'Internet en une gigantesque plate-forme de surveillance ; le Gouvernement américain a trahi l'Internet. Nous devons le reprendre en main et le réparer ».
La troisième atteinte aux principes fondateurs se trouve dans l'hyperconcentration autour d'un petit nombre de plates-formes. L'Internet a été originellement conçu comme un réseau décentralisé, dans lequel chaque ordinateur est son propre serveur, dans une architecte pair-à-pair. Assez rapidement, cet Internet historique a vu émerger des plates-formes centralisées, autour desquelles les usagers se sont progressivement agrégés.
Ces plates-formes centralisées ont progressivement entrepris de développer leurs activités dans des secteurs jusqu'alors séparés de l'Internet, comme le mobile. Ceci constitue un changement majeur dans la dynamique du réseau, ces géants ayant reconstitué, au-dessus de l'Internet décentralisé, ou à côté, dans l'univers des mobiles, de véritables empires privés.
On peut les analyser comme une autre forme de fragmentation du réseau, de nature différente, mais comparable à celle que certains États entreprennent de mettre en oeuvre. Certaines de ces plates-formes - Google notamment - ont même entrepris de développer leurs propres infrastructures de transport. M. Silicani a abordé ce point l'autre jour. C'est là aussi une atteinte potentielle à la neutralité.
Ces trois évolutions - la fragmentation, la surveillance de masse et la centralisation autour de quelques acteurs - se nourrissent et se renforcent mutuellement. La centralisation des usages et des trafics autour de quelques plates-formes a considérablement facilité la tâche de la NSA. Ce n'est pas elle qui a créé les services Web centralisés, comme Facebook ou Google, mais elle les a utilisés.
De même, les révélations d'Edward Snowden sur la surveillance encouragent ou légitiment les démarches des États qui essaient de constituer des réseaux nationaux ou régionaux. Peut-être évoquera-t-on l'hypothèse de la chancelière allemande, à propos d'un réseau Internet européen...
Après la description de ces trois types d'atteintes, j'aurais tendance à assigner comme mission à la gouvernance de l'Internet de faire en sorte que celui-ci reste un réseau mondial et ouvert, qui permette la circulation des échanges scientifiques, culturels et économiques.
Il ne s'agit pas simplement de proclamer des principes ; il faut également veiller à ce que l'architecture technique de l'Internet continue de les garantir ! J'essaie de lier ici la dimension des principes juridiques et l'architecture technique, qui sous-tend et garantit leur mise en oeuvre, pour faire en sorte que la porte qui s'est ouverte en 1969, avec l'invention de l'Internet, et en 1990, avec l'arrivée du Web, ne se referme pas.
Quelques remarques sur le moment particulier dans lequel nous sommes entrés depuis quelques mois... Les États-Unis étaient déjà en position de faiblesse ou d'isolement diplomatique après la fameuse conférence internationale de l'Union internationale des télécommunications (UIT), à Dubaï, qui a donné lieu à un bras de fer entre les nations souhaitant pouvoir partager le contrôle des infrastructures critiques du réseau, et les États-Unis, qui s'y refusaient.
Le document au coeur de cette conférence a été adopté, contre l'avis des États-Unis. Une majorité s'est donc dégagée : c'est la première fois que les États-Unis se retrouvaient en minorité, la France figurant avec eux parmi les 55 États à avoir refusé le texte adopté par 89 États. À l'époque, on a évoqué une sorte de guerre froide autour du contrôle de l'Internet, où l'on retrouvait la Russie et la Chine dans le camp de ceux qui souhaitaient placer l'Internet dans la sphère de l'ONU, ou d'organes dépendants de l'ONU.
Ce sont les révélations d'Edward Snowden qui ont permis aux gouvernements et aux opinions de prendre la mesure de l'écart incroyable entre la doctrine américaine de liberté de l'Internet et ses pratiques. Très vite, toutes les instances mondiales de gestion de l'Internet ont déclaré que le Gouvernement américain avait miné la confiance sur l'Internet, et plusieurs chefs d'État et de Gouvernement ont pris position, comme la Présidente brésilienne, Angela Merkel ou le Gouvernement français. Une résolution a été portée à l'ONU par le Brésil et l'Allemagne. Une conférence Netmundial doit se tenir fin avril à Sao Paulo. La pression qui s'exerce sur le Gouvernement américain ne provient pas seulement des États, mais aussi de leur propre industrie de l'Internet, qui a pris ses distances. La pression vient aussi d'une partie de l'opinion publique américaine et du Congrès, ainsi que du milieu judiciaire, le juge Richard Leon ayant, dans une décision très remarquée, estimé que la collecte massive de métadonnées est contraire à la Constitution. Je pense que ceci ouvre à l'Europe une fenêtre d'opportunité pour obtenir des États-Unis de véritables avancées, que l'on attend depuis assez longtemps.
J'en viens à l'annonce par le Département du commerce américain du transfert des fonctions clés des noms de domaine à l'ICANN... Cette annonce était attendue. Elle a été esquissée dans le rapport que le Président Obama a demandé à une commission d'experts fin 2013. Mais l'annonce de ce transfert a pris tout le monde de vitesse. On pensait que les Américains attendraient la conférence du Brésil pour annoncer leurs intentions. Tel n'a pas été le cas. C'est une manière de signifier qu'ils entendent garder la main et qu'ils n'agissent pas sous pression.
Cette annonce constitue une ouverture très partielle ; on compte deux acteurs dans la gestion du serveur racine du Domain name system (DNS), l'ICANN et la société privée VeriSign, la première enregistrant les noms de domaine, la seconde les publiant. Or, le communiqué du National Telecommunications and Information Administration (NTIA) n'évoque que le retrait du Gouvernement américain de l'ICANN, à qui il confie la transition et lui demande de faire des propositions, court-circuitant ainsi la conférence prévue en avril au Brésil. Le Gouvernement américain privilégie ainsi l'ICANN, avec qui l'État américain entretient des relations historiques, personnelles et institutionnelles.
Le communiqué précise surtout que le Gouvernement américain ne veut pas d'une solution de supervision intergouvernementale. Même si ce n'est pas nouveau, il réaffirme sa position historique avec force. Le communiqué précise que le Gouvernement américain validera la proposition de l'ICANN, l'administration américaine prenant ainsi la décision finale.
Le débat est donc loin d'être clos. On ne sait pas qui supervisera le fonctionnement technique de l'Internet, ni quel sera le mécanisme de responsabilité. À qui l'ICANN devra-t-elle signifier que ses missions ont bien été exécutées ?
Une fenêtre risque de se fermer, la diplomatie américaine ayant repris fort habilement l'initiative. Il existe cependant une opportunité à saisir pour obtenir des avancées des États-Unis, sans pour autant faire le jeu de la Chine, de la Russie, ou de l'Arabie saoudite.
Deux sujets qui, jusqu'à présent, étaient distincts, sont maintenant liés. Il s'agit de l'idée, réactivée par les révélations d'Edward Snowden, d'un traité international et, par ailleurs, de la question de la gestion multilatérale de l'ICANN. Selon moi, ces sujets ne doivent pas être traités dans le cadre de l'ONU, mais dans la perspective d'un traité euro-américain ouvert à d'autres nations démocratiques, comme les grands pays émergents que sont l'Inde, le Brésil, l'Argentine, l'Afrique du Sud et les pays d'Amérique latine. Seuls les pays signataires de ce traité pourraient être associés à la supervision de l'ICANN. C'est à cette seule condition que les États-Unis pourraient accepter une supervision mutualisée de l'ICANN.
Toutefois, si ce traité est trop flou, tous les États pourraient le signer ; il faut donc que cette démarche marginalise les propositions les plus radicales émanant des régimes autoritaires. Selon moi, le contenu doit garantir l'universalité du réseau, assurer la liberté d'expression de l'Internet, considérer ce dernier comme une infrastructure indispensable à la démocratie, promouvoir sa sécurité et sa stabilité, protéger la vie privée et préserver les propriétés techniques essentielles de l'Internet, conditions du respect et de la pérennité des principes.
Un traité de cette nature conférerait un statut quasi constitutionnel aux principes architecturaux de l'Internet. Les gouvernements signataires pourraient ainsi faire valoir leur souveraineté, veiller au respect de leur législation sur leur territoire, à condition toutefois de ne pas porter atteinte à ces principes. Les gouvernements pourraient continuer à se livrer à l'espionnage, sans nuire à l'intégrité de l'Internet, la NSA devant alors s'interdire un certain nombre de pratiques.
Cette voie pourrait passer par une démarche en liaison avec nos partenaires allemands, avant de passer à l'échelle européenne -mais je mesure la complexité de l'exercice, ainsi que l'accélération du calendrier diplomatique que cela suppose.