Intervention de Marceau Coupechoux

Office parlementaire d'évaluation des choix scientifiques et technologiques — Réunion du 8 novembre 2018 à 10h00
Audition publique sur les perspectives et enjeux technologiques du développement de la 5g

Marceau Coupechoux, professeur à Télécom Paris Tech et à l'École Polytechnique :

Je vous remercie, Monsieur le président. Je vous parlerai des innovations au niveau des réseaux. Les réseaux cellulaires devraient s'introduire dans de nombreux aspects de la vie quotidienne et de nombreux secteurs de l'économie. Un certain nombre d'objectifs ont été définis par l'Union internationale des télécommunications (UIT) pour la cinquième génération de réseau mobile. Ils se divisent en très haut débit, accès massif, et communications critiques.

Le très haut débit s'inscrit dans la continuité des générations précédentes, jusqu'à 20 gigabits par seconde en 5G, d'un point de vue théorique, par exemple pour une personne seule directement en face d'une antenne. Ce débit est partagé avec d'autres utilisateurs d'une cellule, ce qui permet d'obtenir plutôt 100 mégabits par seconde. Ces objectifs ont été fixés pour la 5e génération dans un avenir de moyen terme. La première version de la 5G sera relativement proche de la dernière version de la 4G. Les réseaux évoluent plutôt que subissent une révolution.

L'accès massif, ce qui correspond à l'internet des objets, est une dimension plus récente des réseaux de télécommunications. Nous parlons de millions de capteurs par kilomètre carré avec des débits très faibles. La première version de la 4G n'est pas en mesure de couvrir ce genre de trafic. La 5G se donne des objectifs de couverture et de durée de vie des batteries jusqu'à dix ans, même si cet objectif est optimiste. La latence est un paramètre très important si deux véhicules communiquent entre eux. L'UIT fixe un délai d'une à quatre millisecondes, sachant que nous sommes toujours limités par la vitesse de la lumière. Tout le monde n'aura pas accès à ce genre de latence, qui sera vraisemblablement réservée à des réseaux privés, dédiés à une industrie ou un service particulier. La fiabilité très importante de la 5G était jusqu'à présent inconcevable sur les réseaux sans fil traditionnels.

La formule de Shannon est utilisée depuis les années 1950. La capacité ou asymptote évoquée par le président Gérard Longuet dépend du nombre d'antennes et de la bande passante. Nous passons de 20 mégahertz en 4G à 400 mégahertz en 5G. Nous allons donc déployer de très nombreuses antennes, dans un premier temps 64 et pourquoi pas 256. Le faisceau de l'antenne peut être orienté vers l'utilisateur, alors que l'antenne 4G émet uniformément. Des faisceaux simultanés peuvent être proposés par l'utilisateur qui pourra en effet avoir ses propres faisceaux, c'est ce que l'on appelle un traitement de signal « MIMO massif » associé à des algorithmes pour passer d'un faisceau à l'autre.

Où trouverons-nous cette bande ? Comment est-il possible de passer de 4 à 64 antennes ? La réponse se situe dans les ondes millimétriques, ces fréquences, comprises entre 30 et 300 gigahertz. Jusqu'à présent, les réseaux cellulaires utilisaient des fréquences inférieures à 6 gigahertz. Ce spectre est très congestionné, ce qui suppose de monter en fréquence. L'avantage est que la taille des antennes diminue lorsque la fréquence augmente. Nous allons pouvoir compenser ce problème de propagation par la focalisation de l'énergie sur un faible faisceau. Une technique classique utilisée depuis la 2G consiste à densifier les réseaux, c'est-à-dire à augmenter le nombre d'antennes par kilomètre carré. La capacité étant partagée entre les utilisateurs d'une même cellule, plus vous installez d'antennes, plus le débit sera important pour l'utilisateur.

Une grande cellule utilise des fréquences inférieures à 6 gigahertz pour couvrir une zone donnée. Ensuite, il faut déployer de petites cellules, le long des routes ou sur les lampadaires, qui desserviront l'utilisateur. Elles sont multitechnologiques (3G, 4G ou 5G), multibandes, avec des ondes millimétriques ou des fréquences sans licence du type WiFi. Un ensemble d'études sont indispensables pour prévoir les performances, optimiser et gérer les interférences.

L'accès massif requiert de nouvelles approches technologiques. Dans une cellule, chaque utilisateur se voit attribuer un sous-canal, dit orthogonal car il est sans interférence entre les utilisateurs. En 5G, il est possible de créer des sous-canaux extrêmement fins et flexibles de façon à accroître les connexions sur une même bande passante. L'objectif fixé par l'UIT consiste à multiplier par dix le nombre de connexions au kilomètre carré.

Un autre défi concerne l'économie d'énergie. Un certain nombre de dispositifs radios pourront rester éteints et n'être ouverts que pour envoyer un message. Le standard 5G permet d'éteindre les terminaux jusqu'à 400 jours, alors que la norme 4G ne lui permet pas s'éteindre plus de 3 secondes. Des techniques de répétition et de codage permettent d'augmenter la couverture de ces réseaux pour atteindre des zones non couvertes par la 4G, en intérieur profond des bâtiments ou dans des zones difficiles d'accès.

En ce qui concerne les communications critiques, le délai et la latence posent problème. En 4G, l'envoi d'un paquet demande une milliseconde, puis trois millisecondes pour obtenir l'accusé de réception. La latence est beaucoup plus faible en 5G, de l'ordre de la centaine de microseconde. L'acquittement de l'envoi d'un paquet peut advenir en 125 microsecondes. Il est aussi possible de préempter les ressources : lorsque des données critiques arrivent, les ressources sont préemptées et les autres flux sont interrompus. Imaginez deux véhicules communiquant entre eux, ils communiqueront directement entre deux sans passer par l'antenne relais, ce qui permet d'augmenter la puissance reçue, de diminuer les délais et d'augmenter la fiabilité.

Le réseau lui-même connaîtra des mutations relativement significatives. La virtualisation est une dimension importante de cette évolution. Auparavant, une fonction réseau était associée à un matériel. À présent, les fonctions réseaux sont de plus en plus logicielles : ce sont des programmes informatiques qui peuvent être placés dans des data centers, dont le matériel est générique, moins coûteux et géré de manière centralisée. L'augmentation de trafic entraînera une augmentation des fonctions logicielles, avec une certaine flexibilité.

Dans une infrastructure (câbles, antennes, etc.), vous pourrez par exemple créer une tranche pour internet, une tranche pour l'industrie, une tranche pour la télémédecine, etc. Les utilisateurs auront l'impression d'avoir accès à des réseaux complètement différents, l'un dédié au très haut débit, l'autre à l'accès massif. Les petits clouds créés dans les antennes relais concentreront des fonctions de traitement du signal, des fonctions de calcul complexe et des contenus populaires comme des vidéos préstockées et une boucle optique qui enverra un signal radio transmis à l'utilisateur.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion