L’optimisation énergétique de la 5G
On assiste aujourd’hui au lancement de la 5G, dont l’exploitation est planifiée jusqu’en 2040. Le cahier des charges de la 5G, défini en 2012, est triple, avec une normalisation et un déploiement étalé en trois phases successives.
Quelles sont les trois phases de normalisation et de déploiement de la 5G ?
La phase 1 porte sur l’exigence de débit : augmenter le débit maximal par antenne du réseau (base station, ou BS) à 10 G/s. Applications typiques : écrans 8K, jeux en ligne, réalité augmentée et réalité virtuelle. Pour l’utilisateur cela donne en moyenne un débit de 100 Mb/s, soit un ordre de grandeur au-dessus de la 4G. La normalisation est achevée. Les déploiements d’antenne ont commencé dans le monde en s’appuyant sur le cœur de réseau 4G. Les smartphones 5G sont disponibles. Mais pas encore de déploiement des nouveaux cœurs de réseau 5G, pour des raisons économiques.
La phase 2 porte sur l’exigence de latence : garantir une latence de 1 ms. En comparaison, la latence moyenne de la 4G est de 40 ms, mais elle n’est pas garantie. Applications typiques : voiture autonome, smart city, télémédecine, trading haute fréquence. Cela nécessite de réarchitecturer le réseau en aménageant des datacenters assez près des stations de base (edge computing). Avec la transmission par fibre optique, le rayon admissible est de 150 km autour des BS. La possibilité de déport dans un rayon de 150 km permet la scalabilité du système (la « scalabilité » est la capacité d’un dispositif informatique à s’adapter à la croissance de la demande). La normalisation sera achevée courant 2020.
La phase 3 porte sur l’exigence de connectivité : offrir une connectivité massive d’un million d’objets connectés par kilomètre carré. Les connections M2M (machine to machine) vers les objets connectés mobiles, qui seront nécessaires pour les véhicules autonomes, ne peuvent pas être assurées par les technologies 2G, ni par les technologies bas débit et basse consommation LoRa et Sigfox. La normalisation sera achevée fin 2020.
REPÈRES
Le cahier des charges de la 2G, lancée en 1990, était la voix en mobilité. Celui de la 3G, lancée en 2000, était la visiophonie, mais la 3G a également permis de démarrer l’Internet mobile. Celui de la 4G, lancée en 2010, avait pour but de fournir de l’Internet mobile, dans toute sa dimension. Aujourd’hui, un certain nombre de réseaux 2G ont été arrêtés, mais il reste encore des réseaux 2G actifs, dix ans après leur fin théorique.
On commence en revanche à observer les premiers arrêts de réseaux 3G.
Quelles sont les caractéristiques techniques de la 5G qui impactent sa consommation énergétique ?
Tout en conservant les techniques de multiplexage en fréquences (OFDM) et de codage en phase / amplitude (constellations QAM), la technologie phare de la 5G NR (NR pour New Radio) se distingue de la technologie LTE Advanced de la 4G et elle nécessite des processeurs dédiés 5G. Il faut noter que les téléphones contiennent donc aujourd’hui quatre types de processeurs en raison de la coexistence des quatre générations de la 2G à la 5G. La technologie 5G NR introduit des « codes polaires » qui permettent de corriger les erreurs de transmission sur des paquets d’erreurs courts. Mais l’évolution technique la plus gourmande en énergie tient aux antennes comportant un grand nombre de « sous-antennes » (massive MIMO, multiple input multiple output). Pour les stations de base (BS), il y a 128 antennes physiques, 256 antennes virtuelles si l’on exploite les deux polarisations des ondes électromagnétiques. En comparaison, la 4G n’utilisait que 2 sous-antennes. Chacune de ces sous-antennes possède son chemin indépendant de transmission, sa couche physique (QAM, OFDM et codes polaires). On multiplie ainsi le débit théoriquement par 256. Comme les sous-antennes sont espacées pour éviter les interférences, on monte en fréquence pour conserver une dimension d’équipement raisonnable. Deux bandes sont allouées : 3,4−3,8 GHz et la bande millimétrique en 28–32 GHz, nettement plus haute en raison de la raréfaction du spectre disponible. Le traitement numérique du signal radio (pour le ramener en bande de base), d’autant plus consommateur que la fréquence porteuse est élevée, est effectué pour chaque sous-antenne.
D’un autre côté la portée est d’autant plus faible que cette fréquence est élevée. Pour la bande 3,4−3,8 GHz on est dans le même domaine de fréquences que pour le wifi (2,4 ou 5 GHz) dont on connaît la portée réduite. La solution pour augmenter la portée, c’est le beam forming, formation d’un faisceau directif, en combinant la réception des plusieurs sous-antennes. C’est également très consommateur en puissance de calcul. Cela fonctionne très bien en visibilité directe, notamment en environnement rural dégagé d’obstacles. C’est plus délicat en environnement urbain, avec les multiples réflexions des ondes sur les obstacles. Ainsi la portée réduite en absence de visibilité directe nécessite de densifier le réseau par rapport à la 4G. On est en moyenne 2 à 3 fois plus dense que la 4G, mais cette densification n’est pas uniforme sur le territoire. En zone rurale, nul besoin de densifier. En zone urbaine il faut densifier. Cette densification est obligatoire en raison des bandes de fréquences allouées, à cause de l’occupation du spectre. On pourrait recourir au refarming, c’est-à-dire réallouer le spectre 2G pour le 5G. Mais les réseaux 2G sont encore actifs, parce qu’ils apportent encore du revenu via le roaming. Sur près de 100 millions de touristes en France chaque année, beaucoup viennent avec des terminaux 2G.
“On peut réduire encore de 50 %
la consommation des téléphones portables.”
Quel est le bilan énergétique de toutes ces évolutions techniques ?
La consommation énergétique absolue des réseaux 5G tels que prévus par la norme est en nominal supérieure à celle des réseaux 4G. En moyenne 3 fois plus consommatrice que la 4G, elle est jusqu’à 3,5 fois plus consommatrice à charge maximale, avec un plancher incompressible de 2,6 fois la 4G en l’absence de trafic. D’un autre côté, l’efficacité énergétique ramenée au débit moyen est bien meilleure que pour la 4G, puisqu’on multiplie le débit moyen par utilisateur par 10 pour une consommation énergétique triple. Huawei et l’ensemble des constructeurs travaillent sur des méthodes pour économiser l’énergie et réduire le coût opérationnel de l’opérateur. L’approche est de passer en mode veille un certain nombre de stations de base la nuit quand le trafic est faible. Ces optimisations ne sont pas normalisées, sauf pour la signalisation afin d’activer / désactiver le mode veille. Pour identifier les stations que l’on peut mettre en veille, on recourt à des approches d’intelligence artificielle (IA), notamment pour modéliser un réseau hétérogène comportant des équipements de différents constructeurs.
Quelle est la vision de Huawei pour contenir la hausse des émissions carbone ?
En 2010, Huawei faisait déjà partie de l’initiative Green Touch, qui visait à diviser la consommation énergétique par un facteur 1 000. Mais l’objectif était trop ambitieux ! Pour Huawei, la maîtrise de la consommation énergétique des équipements en phase d’utilisation est un enjeu parce que c’est un enjeu économique pour nos clients. On travaille sur les technologies de batteries après le lithium. On travaille sur l’énergie solaire. On optimise la consommation des équipements de réseau et des terminaux. Pour les téléphones portables, on peut réduire encore la consommation de 50 %. On travaille d’ailleurs sur l’IA dans le téléphone. Nous sommes par exemple leader des circuits spécialisés pour l’on-device AI, qui vient en complément de l’IA dans les centres de données (cloud AI et edge AI). On utilise des réseaux de neurones binaires, qui consomment beaucoup moins.
Découvrir l’ensemble du dossier Numérique et environnement