Memoire de Fin Detude
Memoire de Fin Detude
Memoire de Fin Detude
UNIVERSITE D’ANTANANARIVO
----------------------
ECOLE SUPERIEURE POLYTECHNIQUE
-----------------------
DEPARTEMENT TELECOMMUNICATION
Gloire à Dieu tout puissant, ce mémoire n’aurait jamais été réalisé sans sa bénédiction.
J’adresse tous mes sincères remerciements à :
Monsieur RANDRIANARY Philipe, Professeur Titulaire, Directeur de l’Ecole Supérieure
Polytechnique d’Antananarivo, qui a permis mes cinq ans d’étude au sein de l’université.
Je remercie de tout cœur les membres du jury, d’avoir accepté d’examiner mon travail :
- Monsieur RABEMANANTSOA Josh, docteur en télécommunication
- Monsieur ANDRIAMANALINA Ando, Maitre de Conférences
- Monsieur RANDRIAMIHAJARISON Mparany Jimmy, Assistant d'enseignement et
recherche
i
Table des matières
REMERCIEMENTS ...................................................................................................................................... i
ABREVIATIONS .......................................................................................................................................... v
INTRODUCTION GENERALE ................................................................................................................. 1
CHAPITRE 1 EVOLUTION DE LA SERVICE DE LA TELEPHONIE MOBILE .............................. 3
1.1 Introduction ......................................................................................................................................... 3
ii
2.3.2 Réseau cœur ................................................................................................................................ 39
iii
4.5.1 Les étapes et paramétrages de la simulation .............................................................................. 79
iv
ABREVIATIONS
1G 1ère Génération
2G 2ème Génération
3G 3ème Génération
4G 4è Génération
BA Behaviour Aggregates
CL Controlled Load
CN Core Network
CN Correspondant Node
v
CqI Channel quality Indicator
CS Circuit Switching
DL Downlink
FA Foreign Agent
FM Frequency Modulation
vi
GPRS General Packet Radio Service
GS Guaranteed Service
HA Home Agent
IP Internet Protocol
vii
LCoA Local CoA
MN Mobile Node
OA Ordered Agregate
viii
OFDMA Orthogonal Frequency Division Multiple Access
PHY PHYsique
PQ Priority Queuing
ix
PUCCH Physical Uplink Control CHanel
x
TCL Tool Command Linux
TE Traffic Engenering
UE User Equipement
UL Uplink
xi
INTRODUCTION GENERALE
Les réseaux mobiles et sans fil ont connu un essor sans précédent ces dernières années. Il s’agit
d’une part du déploiement de plusieurs générations successives de réseaux de télécommunications
essentiellement dédiés à la téléphonie (2G, réseau de la 2nd Génération définit par la norme GSM
ou Global System for Mobile telecommunication), puis plus orientés ensuite vers le multimédia
(3G, réseau de la 3è Génération, définit par la norme UMTS ou Universal Mobile
Telecommunications System). D’autre part, les réseaux locaux sans fil sont rentrés dans la vie
quotidienne au travers de standards phares tels que Wi-Fi (Wireless Fidelity), Bluetooth, etc.
Les évolutions se poursuivent de partout, tant dans le monde des réseaux spécialisés (capteurs,
étiquettes intelligentes, etc.) que des réseaux de télécommunications. Ceux-ci voient désormais des
solutions concurrentes apparaitre provenant de divers horizons : monde télécoms classiques avec
HSPA, monde des réseaux sans fil avec le Wi MAX (Worldwide Interoperability for Microwave
Access) voire le monde de la diffusion de la télévision numérique terrestre et satellite.
En effet, presque tout le service de la télécommunication converge dans le réseau Internet.
L’avènement des nouvelles technologies de l'information et les nombreuses applications (les
services de téléphonie, la vidéoconférence,…) font que le nombre d'utilisateurs (particuliers,
entreprises, laboratoires, …) est sans cesse croissant. Ces infrastructures ne répondent plus aux
exigences de certaines applications en termes de qualité de service. Ainsi, l'utilisation des nouvelles
générations de réseau dans le cadre d'applications multimédia ou de services à qualité garantie,
impose que l'acheminement soit assuré avec une qualité de service maîtrisée.
La future génération de réseau dite de quatrième génération (4G), avec un tout nouveau système
« tout IP », apporte un véritablement tournant dans le foisonnement et la disparité des solutions
existantes. L’objectif sera évidemment d’augmenter les débits et les applications prises en charge
par ces réseaux avec le plus bref de temps d’interaction entre l’utilisateur et le réseau, ainsi que la
gestion de la mobilité mais encore de construire un cadre permettant leur interopérabilité.
Des premières solutions sont déjà disponibles au niveau « accès » auprès de la plupart des
opérateurs de télécommunications mais la plupart d’entre elles sont des solutions spécifiques à un
type d’interconnexion et à un opérateur. La capacité du réseau d’accès 4G promet beaucoup en
termes de qualité de service mais un grand problème se pose dans le réseau cœur, comment gérer
tant de ressource pour les flux de données échangés, la gestion de la bande passante, les congestions
du réseau, les changements de zone de routage (cas du Handover) tout en tenant compte de la qualité
de service.
1
Le système « tout IP» du réseau 4G nous permet l’implémentation du réseau IP/MPLS (Internet
Protocole/ Multi Protocole Label Switching) dans le cœur LTE/SAE (Long Term Evolution/
System Architecture Evolution) qui est l’une des mécanismes pour fournir la qualité de service. Plus
techniquement, le protocole IPv6 a plusieurs extensions conçues pour la mobilité comme le MIPv6
(Mobile IPv6), le HMIPv6 (Hierrarchical Mobile IPv6), le FHMIPv6 (Fast Handover Mobile IPv6)
qui a pour but d’offrir une connexion permanente sans interruption de transfert de donnée et surtout
avec la même adresse IP durant un changement de zone de routage. Le protocole MPLS intervient
dans la gestion du réseau, c’est-à-dire facilite le routage grâce au «label», et bénéficie des technique
de qualité de service comme le « trafic engineering » ou TE, l’intégration de service ou IntServ, et
la différentiation de service ou DiffServ.
Dans ce mémoire va présenter les différentes normes de téléphonie mobile, on commencera tout
d’abord par le réseau de la première génération, puis le réseau 2G, ensuite on passera à la 2,5G ou
GPRS (General Packet Radio Service), issu du réseau GSM, au réseau 2.75G ou réseau EDGE
(Evolved Packet Data Gateway) une extension du réseau GSM, après on présentera les réseaux 3G
(UMTS).
Ensuite, on va étudier le réseau 4G pour une approche sur la qualité de service offert par le réseau.
On va ensuite cibler nos travaux sur les réseaux de type IP/MPLS incluant des mécanismes de
l'ingénierie de trafic et de différenciation de service, dans le réseau cœur 4G.
Nous adoptons ensuite une évaluation des qualités de services (débit, perte de paquet, gigue) par
simulations, en utilisant le simulateur réseau NS-2 (Network Simulation version 2).
.
2
CHAPITRE 1
EVOLUTION DE LA SERVICE DE LA TELEPHONIE MOBILE
1.1 Introduction
Depuis plusieurs années les réseaux mobiles n’a cessé de s’améliorer en vue de fournir aux
utilisateurs ses services de façons satisfaisantes. De la première génération, du second, de la
troisième, et vers la nouvelle génération réseau, c’est en termes de débit qu’on a rencontré une
évolution remarquable et exceptionnel, et aussi une bande passante de plus en plus large qui permet
d’augmenter le nombre d’utilisateur pouvant être supportés.
Les réseaux de la 1è génération (appelée aussi 1G) ont été intégrés au réseau de télécommunication
dans les années 80. Ces systèmes ont cependant été abandonnés il y a quelques années laissant la
place à la seconde génération, appelée 2G lancée en 1991 qui est encore active de nos jours. Nous
pouvons distinguer deux autres types de générations au sein même de la seconde : la 2.5G et la
2.75G. Le principal standard utilisant la 2G est le Global System for Mobile Communications ou
GSM.
A la différence de la 1G, la seconde génération de normes permet d’accédé à divers services,
comme l’utilisation du WAP permettant d’accéder à internet, tant dit que pour la 3 ème génération
connue sous le nom de 3G permet un haut débit pour l’accès internet et le transfert de données.
Les réseaux mobiles ont beaucoup évoluée depuis leur apparition dans les années 1970 à nos jours.
La première génération des réseaux cellulaires (1G) est apparue vers le début des années 1970, 1er
radiotéléphones analogiques sans fils avec un mode de transmission analogique et des appareils de
taille relativement volumineuse.
Ce réseau est caractérisé par une multitude de technologies introduites en parallèle à travers le
monde. On peut citer les technologies suivantes :
AMPS (Advanced Mobile Phone System) aux États-Unis ;
TACS (Total Access Communication System) au Japon et au Royaume-Uni ;
NMT (Nordic Mobile Telephone) dans les pays scandinaves ;
Radiocom2000 en France ;
3
Ces systèmes devaient offrir un service de téléphonie en mobilité mais ils ne parvinrent pas à
réellement franchir les frontières de leurs pays d’origine et aucun de ces systèmes ne s’imposa en
tant que véritable norme internationale.
Leurs différences impliquaient de fait, l’incompatibilité entre systèmes et l’impossibilité
d’itinérance internationale (aussi appelée Roaming). Cet échec relatif fut primordial dans la
reconnaissance par les différents pays de la nécessité de définir des normes de téléphonie mobile à
l’échelle internationale.
D’un point de vue technique, ces systèmes étaient basés sur une technologie de modulation radio
est similaire à celle utilisée par les stations radio FM.
Ils utilisaient une technique d’accès multiples appelée FDMA (Frequency Division Multiple
Access), associant une fréquence à un utilisateur. La capacité de ces systèmes demeurait très limitée,
de l’ordre de quelques appels voix simultanés par cellule. Cette contrainte de capacité, ainsi que les
coûts élevés des terminaux et des tarifs de communication ont restreint l’utilisation de la 1G à un
très faible nombre d’utilisateurs.
Par ailleurs, les dimensions importantes, ainsi que le coût des terminaux limitaient significativement
leur portabilité. [1]
C’était dans le réseau de la seconde génération ou réseau 2G (deuxième génération réseau) que le
monde de la télécommunication a commencé à se développer. La norme GSM (Global System for
Mobile Communication) est la standardisation du réseau 2G. Elle a largement amélioré les services
de la téléphonie grâce à la commutation du circuit, suivi du réseau GPRS (General Packet Radio
Service), ou encore réseau 2.5 G, qui a offert une service de type « donnée » en mode paquet.
Le réseau EDGE (Enhanced Data GPRS Evolved) ou réseau 2.75G a été ensuite établi pour
accroitre le service nécessaire au client que la GPRS n’a pu fournir.
La définition de la norme GSM remonte au début des années 80, il s'agit de la norme 2G. Cette
norme utilise une technique de commutation de circuit, spécialisé pour les sévices de la téléphonie
dont laquelle un chemin physique qui est réservé par chaque connexion ou communication, avec un
accès par liaison radio s'appuyant sur les transmissions numériques. Le réseau GSM a aussi une
fonctionnalité de transfert de donnée utilisant les mêmes ressources que celle de la téléphonie.
4
1.3.1.1 Caractéristique du réseau GSM
Le GSM offre au public des services de télécommunication tel que le service de la téléphonie basée
sur les communications entre abonnées mobiles (GSM) et abonnées du réseau téléphonique
commuté (RTC ou Réseau Téléphonique Commuté, réseau fixe), le service de messagerie ou SMS
(Short Message Service), le service de transport de données en mode circuit (jusqu’à 9,6 kbps) avec
une couverture continue sur un vaste territoire. Le service d’appel international est aussi possible.
5
1.3.1.2 L’architecture du réseau GSM
Un ensemble de fonction a été défini pour obtenir un réseau GSM satisfaisant en termes de qualité
de service suivant l’architecture sur la figure 1.01 :
La station mobile ou MS
C’est l'équipement physique utilisé par l'usager permettent d’accéder aux services de
télécommunication offerts par l’opérateur dans le réseau GSM.
Le MS est constituée de :
L’équipement mobile qui fournit les capacités radio et logicielles nécessaires au dialogue
avec le réseau et demeure indépendant de l’abonné utilisateur.
6
Une carte SIM (Subscriber Identification Module) qui contient tous les informations
concernant les abonnés dans le réseau (localisation, identification, souscription, …) et ses
droits.
La station de base ou BTS
Equipé par des antennes directionnelles chargées pour la couverture du réseau, une BTS relie les
stations mobiles à l’infrastructure fixe du réseau.
Une station de base assure en premier lieu l’accès du mobile au réseau pour se procure les différents
services du GSM dans sa zone de couverture. C’est-à-dire la gestion de la liaison de données
(données de trafic et de signalisation) entre les mobiles et les BTS.
Côté performance, c’est la BTS qui effectue le codage et décodage du signal radio pour minimiser
le taux d’erreur binaire lors de la communication. La modulation utilisée est le GMSK (Gaussian
Minimum Shift Keying) permettent d’obtenir un débit théorique de 9,6 kbps pour la transmission
des données, suffisant pour une conversation téléphonique en temps réel.
Une BTS assure la gestion du multiplexage temporel (une porteuse est divisée en 8 slots dont 7 sont
alloués aux utilisateurs), et la gestion des sauts de fréquence. Son capacité maximale est à 16
porteuses, soit 112 communications simultanées.
On appel « Handover » un transfert intercellulaires des utilisateurs dans sa zone de couverture,
c’est-à-dire, un mécanisme grâce auquel un mobile peut transférer sa connexion d’une BTS vers
une autre (Handover inter BTS) ou, sur la même BTS d’un canal radio vers un autre (Handover
intra BTS) pendant son déplacement dans sa zone de couverture.
La surveillance des niveaux de champ reçu et de la qualité des signaux est aussi son rôle le plus
important d’une BTS pour les « Handover ». Elle assure les mesures radio (puissance de signal
reçue) permettant de vérifier la qualité de service ; ces mesures sont transmises directement au
BSC.
Le BSC
Un BSC gère un ou plusieurs BTS et communique avec elles par le biais de l'interface A-bis, et
n’est relié qu’à un seul MSC. Pour le trafic abonné venant des BTS, le BSC joue le rôle de
concentrateur. Pour le trafic venant du commutateur, il joue le rôle d’aiguilleur vers la BTS dont
dépend le destinataire.
Un BSC utilise les mesures radio au niveau de la qualité du signal des BTS pour gérer la
signalisation des "Handover" entre les cellules dont il a la responsabilité.
7
b. Le sous-système réseau ou NSS (Network Sub System)
Le sous-système réseau ou NSS, joue un rôle essentiel dans un réseau mobile. Alors que le sous-
réseau radio gère l'accès radio, les éléments du NSS sont interconnectés pour prendre en charge
toutes les fonctions de contrôle et d'analyse des informations contenues dans des bases de données,
nécessaires à l'établissement, la connexion, et les interactions d’une MS au réseau.
Son rôle est d'assurer les fonctions de commutations, de routage et de la gestion du trafic circulant
dans le réseau.
En plus des fonctions indispensables de commutation, on y retrouve les fonctions de gestion de la
mobilité, de la sécurité et de la confidentialité qui sont implantées dans la norme GSM.
Il relai le réseau mobile GSM au réseau public téléphonique commuté (RTCP).
Les entités fonctionnelles du sous-système réseau NSS sont le centre de commutation mobile ou
MSC (Mobile Switching Center), le registre des abonnés visiteurs ou VLR (Visitor Location
Register), le registre des données de l’abonnés ou HLR (Home Location Register), le service
d’authentification AuC (Authentication Center) et l’EIR (Equipment Identity Register)
8
VLR (Visitor Location Register) :
Fichier des abonnés visitant le réseau, l’enregistreur de localisation des visiteurs est une base de
données associée à un commutateur MSC. Pour établir une communication, il faut savoir dans quelle
cellule se trouve les MS afin de les reliés. Le VLR a pour mission d’enregistrer des informations
dynamiques relatives aux abonnés de passage dans le réseau, ainsi l’opérateur peut savoir dans
quelle cellule se trouve chacun de ses abonnés. Les données mémorisées par le VLR concernent les
abonnés présents dans la zone concernée, c’est-à-dire, les visiteurs du réseau.
9
c. Le sous-système d’exploitation et de maintenance OSS
OSS (Operation Sub-System) permet à l’opérateur d’exploiter son réseau. La mise en place d’un
réseau GSM (en mode circuit) va permettre à un opérateur de proposer des services de type « Voix »
à ses clients en donnant accès à la mobilité tout en conservant un interfaçage avec le réseau fixe
RTC existant.
Deux niveaux de hiérarchie sont définis dans la norme GSM. Les OMC (Operations and
Maintenance Center) et les NMC (Network and Management Centre).
Cette organisation a été définie afin de permettre aux opérateurs télécoms de gérer la multiplicité
des équipements (émetteurs, récepteurs, bases de données, commutateurs ...) et des fournisseurs.
Le NMC permet l’administration générale de l’ensemble du réseau par un contrôle centralisé.
Ainsi que les OMC permettent une supervision locale des équipements (BSC, MSC, VLR) et
transmettent au NMC les incidents majeurs survenus sur le réseau. Les différents OMC assurent
une fonction de médiation. [1] [2] [4].
Le service HSCSD (High Speed Circuit Switching Data) est un service de données en mode circuit,
à débit élevé, qui consiste à allouer plusieurs canal physique par utilisateur et par trame TDMA
(jusqu’à 4slots), soit la moitié de la trame. L’allocation des ressources se fait en mode circuit, par
connexion et pour toute la durée de la connexion. Cette allocation peut être asymétrique, c’est-à-
dire offrir plus de débit dans un sens que dans l’autre.
L’interconnexion est lourde, avec les réseaux paquet externes et donc avec Internet, la transmission
de données en mode circuit nécessite des éléments d’adaptation spécifique à la frontière du réseau
de l’opérateur.
Le réseau GPRS ou General Packet Radio Service a été établi pour offrir des services
complémentaire à celles du GSM. En effet, l’architecture GSM fournit les services voix, tandis que
l’architecture GPRS fournit les services de données par paquets avec un débit élevé.
En effet, le réseau GSM a un service de donnée en mode circuit mais avec un débit en mode
«connecté» qui ne dépasse pas 9,6 kbps ce qui est trop «étroit » pour transmettre des données
informatiques.
10
De plus, ce mode connecté nécessite la monopolisation d’un canal pendant toute la communication
qui est inadaptée pour un service d’échange de donnée et gaspille les ressources radio.
11
1.3.2.3 Architecture du réseau GPRS
On observe sur la figure 1.02 qu’on a gardé l’architecture du réseau GSM avec l’implémentation de
nouveau matériel comme le SGSN (Serving GPRS Support Node), le GGSN (Gateway GPRS
Support Node), le PCU (Packet Control Unit) qui contribue à la fluidité du réseau de la commutation
de paquet. La station mobile MS nécessite aussi un terminal spécifié en GPRS pour y accédé au
réseau.
a. Le sous-système radio
On réutilise les infrastructures et les systèmes existants, la BTS et le BSC qui assure toujours l’accès
au réseau et la couverture et utilise les mêmes fréquences attribuées au GSM.
On a ajouté l'unité de contrôle de paquets (PCU, Packet Control Unit), une entité responsable du
partage des ressources et de la retransmission des données erronées dans les BSC.
Cet équipement gère les fonctions de couches basses, c'est-à-dire les protocoles RLC (Radio Link
Control), MAC (Medium Acces Control), contrôle de puissance, adaptation des débits, … pour
envoyer sur le réseau « GPRS ». Il gère les fonctions de transmissions et d’acquittements.
12
Sur l’adaptation de débit, GPRS définit quatre schémas de codage pour la correction d’erreur : CS1,
CS2, CS3 et CS4, chacun d’entre eux fournissant un niveau de correction d’erreur différent et un
débit effectif différent sur le même canal radio.
L’entité SGSN
Le SGSN (Serving GPRS Support Node) est un nœud important qui a une interface avec le BSS, le
HLR, le GGSN, le SMSC, et l’EIR pour les échanges de donnée du MS avec le réseau GPRS
(donnée, tarification, information sur l’abonnée, …)
Le SGSN est un serveur d’accès aux services GPRS, qui gère et contrôle les MS présentes dans une
zone donnée. C’est-à-dire, authentifie le terminal GPRS, prend en charge l’attachement du MS au
réseau, assure la gestion de mobilité du MS en faisant un mis à jour du déplacement du terminal
pour chaque changement de zone de routage. Son rôle principal est de délivrer des paquets aux MS.
L’entité GGSN
Il sert de passerelle entre les SGSN du réseau GPRS et les autres réseaux de données.
Le GGSN (Gateway GPRS Support Node) est donc un routeur permettant d’envoyer des paquets de
données émis par le mobile au réseau externe correspondant et permet également d’acheminer les
paquets provenant des réseaux de données externes vers le SGSN du mobile destinataire tout en
s’assurant de la sécurité du réseau.
Il collecte les données de taxation associées à l’usage des ressources entre SGSN et GGSN.
EDGE est considéré comme une technologie pré-3G ou encore 2.75G, fait partie des solutions 3G
de l'UIT (International Telecommunication Union).
13
Avec le GPRS, le système GSM permet un accès au monde de l’internet et ouvre la porte aux
applications multimédias par l’utilisation de la commutation de paquets et l’augmentation du débit.
Cependant, les contenus mobiles volumineux, de plus en plus graphiques et de plus en plus orientés
vers la vidéo, poussent à une évolution technique car le débit du GPRS, et la modulation binaire
GMSK véhiculant environ 1bit par symbole sont insuffisants.
Le standard EDGE vise donc à optimiser la partie radio d’un réseau mobile pour la partie "données"
afin d’augmenter les débits principalement en voie descendante.
EDGE utilise une modulation numérique par déplacement de phase à 8 états ou 8-PSK (Phase Shift
Keying), permet d'atteindre des débits allant jusqu’à 384 kbps pour les stations fixes, et de 144 kbps
pour les stations mobiles mais avec une couverture plus réduite. Ces débits varient selon le schème
de modulation et codage utilisé (décidé par le PCU) qui dépend de la qualité du canal de transmission
radio. Ce changement de modulation implique une modification des stations de base et des
terminaux mobiles.
EDGE utilise alors la même architecture que le réseau GPRS mais le déploiement de L’EDGE
nécessite la mise à jour du BSC et de la BTS, l’ajout d’un émetteur-récepteur (EDGE Transceiver)
au niveau de la BTS, capable de supporter la modulation 8-PSK. Pour la technique d’accès, il utilise
le TDMA.
Pour exprimer la qualité de service en terme d’échange de donnée, le mobile dispose d’un ensemble
de classes de paramètres : la priorité du service, la fiabilité, les délais tolérés, le débit moyen et enfin
le débit pic des informations transmises. Tous ces paramètres sont négociés entre le GGSN
(Gateway GPRS Support Node) et le mobile lors de la connexion. Le GGSN prend donc des
décisions comme la suppression des données dans le cas d’une congestion du réseau (basé sur la
classe de priorité : haute, normale et basse pour différencier les services en cours).
Dans le paramètre de fiabilité, trois classes également sont définies, basé sur la contrainte de temps
réel. Elles correspondent à des garanties sur les taux de perte, de duplication, de dé-séquencement
et d’erreur résiduelle de la transmission. Elles doivent être attribuées en fonction de l’application
de l’utilisateur. Par exemple, si l’application utilisateur repose sur X.25, il est nécessaire d’avoir
une transmission fiable. La probabilité de perte fait allusion au temps maximal de séjour du paquet
dans le réseau GPRS, temps au-delà duquel le paquet est supprimé. Ce temps maximal dépend des
protocoles utilisés, tel que TCP/IP.
14
1.4 Le réseau de la troisième génération
Le réseau mobile 3G est apparu pour établir des normes internationales afin de garantir une
compatibilité mondiale, une mobilité globale, la compatibilité avec les réseaux 2G. Les principales
normes 3G sont le CDMA2000 et l'UMTS (Universal Mobile Telecommunications System), mais
la norme CDMA2000 (amélioration de la norme IS-95) n'est pas compatible avec le GSM.
L’UMTS a été défini par le 3GPP (Third Generation Partenership Project) comme la norme 3G des
systèmes de télécommunications mobile.
La première version de la norme est appelée « Release 99 » ou version 99, et a pour objectifs
d’augmenter la capacité du système pour le service voix mais surtout d’améliorer le support des
services de données visant la rapidité du transfert des fichiers de grande taille, la visiophonie,
l’internet à haut débit, …
L’UMTS utilise une technologie W-CDMA (Wavelength Code Division Multiple Access) basé sur
une technique d’accès multiple à répartition de code ou CDMA (Code Division Multiple Access),
et supporte les deux schémas de duplexage en fréquence FDD (Frequency Division Duplexing) et
en temps TDD (Time Division Duplexing) autorisant la connexion simultanée à plusieurs cellules,
renforçant la qualité des communications lors du Handover.
Le standard W-CDMA a évolué et une extension appelée High Speed Packet Access (HSPA) est
apparue, elle vise surtout à augmenter la capacité du réseau d’accès. Cette extension a apporté un
essor en terme de débit au réseau 3G, donnant lieu aux normes HSDPA (High Speed Down Link
Packet Access définie comme 3,5G) qui offre un débit théorique maximum de 14,4 Mbps en ligne
descendante, et HSUPA (High Speed Uplink Packet Access définie comme 3,75G) offrant un débit
théorique maximum en ligne ascendante de 5,76 Mbps.
HSPA+ est une autre évolution introduisant notamment la technologie Multiple Input Multiple
Output (MIMO), un system multi antennaire et offre un débit qui peut atteindre 42 Mbps en lien
descendant ou «Downlink » et 11 Mbps en lien montant ou « Uplink ».
1.4.1 UMTS
L’UMTS, release 99, est publiée mi-1999 redéfinit une nouvelle interface radio basée sur la
technique d’accès W-CDMA. La bande de fréquence utilisée est dans les gammes de 1885-2025
MHz et 2110-2200 MHz. Les interfaces radio des deux réseaux d'accès sont supportées par l'ATM.
15
Le débit maximal dans le sens descendant est, en théorie de 2 Mbps, et dans le sens montant est de
768 kbps. Le réseau du cœur se base sur le réseau de transport du GSM et GPRS.
Les fréquences allouées pour l’UMTS sont 1885-2025 MHz et 2110-2200 MHz.
L’UIT (Union Internationale des Télécommunications) a désigné des bandes de fréquences pour les
différents systèmes de l'UMTS qui sont :
Duplex temporel TDD (Time Division Duplex) : 1885 à 1920 MHz pour la liaison montante avec
une bande de 35MHz et 2010 à 2025 MHz pour la liaison descendante avec une bande de 15 MHz.
Duplex fréquentiel FDD (Frequency Division Duplex) 1920 à 1980 pour la liaison montante et 2110
à 2170 MHz pour la liaison descendante, la largeur de la bande est de 60 MHz pour chaque liaison.
Bandes satellites : 1980 à 2010 MHz pour la liaison montante et 2170 à 2200 MHz pour la liaison
descendante, la largeur de la bande est de 60 MHz pour chaque liaison.
La bande passante d’un canal de transmission est de 5MHz avec une largeur spectrale réelle de
4,685 MHz.
Le tableau suivant présente les répartitions des fréquences utilisées en UMTS :
1885 - 1920 1920 - 1980 2010 – 2025 2110 - 2170 1980 - 2010 2170 - 2200
16
En zone bâtiment : 2 Mbps depuis un point fixe.
Cette amélioration des débits est rendue possible par l’évolution des technologies radio qui autorise
une meilleure efficacité spectrale et l’exploitation de bandes de spectre de fréquence supérieure à
celles utilisées par la technologie GSM.
La macro-diversité est la phase pendant laquelle la station mobile maintient plusieurs liens radio
avec des cellules différentes. Le CDMA utilise la macro-diversité pour obtenir un signal de
meilleure qualité. L'avantage de la macro-diversité est que la transmission n'est pas interrompue lors
du changement de cellule de l'usager à la différence du Handover.
Le CDMA (Code Division Multiple Access) est basé sur la répartition par codes. En effet, chaque
utilisateur est différencié du reste des utilisateurs par un code N, utilisant toute la bande de fréquence
durant toute la communication. Ce code lui a été alloué au début de sa communication et qui est
orthogonal au reste de codes liés à d’autres utilisateurs. Dans ce cas, pour écouter l’utilisateur, le
récepteur n’a qu’à multiplier le signal reçu par le code N associé à cet utilisateur.
Le W-CDMA utilise le mode de duplexage FDD (Frequency Division Duplex). W-CDMA utilise
deux bandes passantes de 5 Mhz, l'une pour le sens montant (uplink), l'autre pour le sens descendant
(downlink). Le débit maximal supporté par un seul code est de 384 kbit/s.
Pour les services à haut débit, plusieurs codes sont nécessaires pour supporter un débit de 2 Mbit/s.
Le TD-CDMA utilise le mode de duplexage TDD (Time Division Duplex). TD-CDMA n'utilise
qu'une bande passante de 5 Mhz divisée en intervalles de temps (time slot) ; elle est utilisée pour
les deux sens. Elle comprend donc une composante TDMA (Time Division Multiple Access) fondée
sur la trame GSM en plus de la séparation par code. Ce concept offre une large gamme de débits de
service en allouant plusieurs codes ou plusieurs intervalles de temps à un utilisateur. Le débit de 2
Mbps peut être obtenu en allouant plusieurs codes ou plusieurs intervalles de temps à un utilisateur,
mais des raisons techniques et complexes (dues par exemple au déplacement ou au déphasage)
limitent le bon fonctionnement de ce système aux bâtiments ou aux petites cellules.
Le réseau UMTS repose sur une architecture flexible et modulaire. Cette architecture n’est associée
ni à une technique d’accès radio, ni à un ensemble prédéfini de services, ce qui assure sa
compatibilité avec d’autres réseaux mobiles (2G) et garantit son évolution.
17
L’architecture peut être adaptée en fonction des besoins des opérateurs de télécommunications. Une
telle architecture, comme l’illustre la figure 1.03, est composée de trois «domaines» : le domaine de
l’équipement de l’usager UE (User Equipment), celui du réseau d’accès radio «universel» UTRAN
(Universal Terestrial Radio Access Network) et celui du réseau cœur CN (Core Network). Les
domaines du réseau d’accès et du réseau cœur constituent le domaine de l’infrastructure.
Chaque domaine réalise une fonction bien précise dans le réseau, tandis que des points d’échange,
dénotés par Uu et lu, servent d’interfaces permettant les échanges entre les différentes parties du
réseau.
a. Le réseau d’accès
18
Le RNS est composé en deux éléments : celui du Node-B (ou plusieurs Node-B) et celui du RNC
(Radio Controller Network) qui s’interface avec le domaine CN, généralement à un MSC et à un
SGSN grâce aux interfaces « lu CS » et « lu PS ».
Le rôle principal du Node-B est d’assurer les fonctions de réception et de transmission radio pour
une ou plusieurs cellules du réseau d’accès de l’UMTS avec un équipement usager. Le Node-B
travaille au niveau de la couche physique du modèle OSI, (le codage du canal, l’entrelacement,
l’adaptation du débit et l’étalement).
Le RNC commande un ou plusieurs Node-B via l’interface lub, Le rôle principal du RNC est de
router les communications entre le NodeB et le réseau cœur de l’UMTS. Il travaille au niveau des
couches 2 et 3 du modèle OSI (contrôle de puissance, allocation de codes). Le RNC assure les
mécanismes de handover. L’UTRAN fournit donc à l’UE les ressources radio et les mécanismes
nécessaires pour accéder au réseau cœur. Il contrôle les fonctions liées à la mobilité et à l’accès au
service du réseau, tout comme les BSS.
b. Le réseau cœur
Le réseau cœur CN (Core Network) regroupe l’ensemble des équipements assurant les fonctions
telles que le contrôle d’appels, le contrôle de la sécurité et la gestion de l’interface avec les réseaux
externes.
Le réseau cœur de I'UMTS vient se combiner aux réseaux déjà existants GSM et GPRS. Il est en
charge de la commutation et du routage des communications (voix et données) vers les réseaux
externes, le réseau UMTS apporte ensuite les fonctionnalités Multimédia.
L’architecture de référence du réseau cœur de base UMTS (CN) est divisée en trois groupes.
Le premier est celui du domaine circuit ou CS (Circuit Switching), comprenant les entités MSC,
GMSC, et VLR. C’est le MSC qui effectue le routage dans le réseau, l'interconnexion avec les autres
réseaux (RNIS) et de la coordination des appels.
Le second est celui du domaine paquet ou PS (Paquet Switching) regroupant les entités SGSN et
GGSN qui sont responsable de tous les commutations de paquets dans le réseau, de l’UE vers
internet, ou d’autre réseau privé extérieur de ce réseau.
Le GGSN est une passerelle vers les réseaux à commutation de paquets extérieurs tels que l’Internet.
Le SGSN (Serving GPRS Support Node) est une passerelle permettant l'acheminement des données
dans les réseaux mobiles GPRS. Il maintient les informations identifiant l'abonné et les services
utilisés. Il contrôle la localisation du mobile sur une "Routing Area".
19
Le dernier comprend les entités du réseau communes aux domaines PS et CS, à savoir, HLR, EIR,
et AuC.
Le domaine circuit permettra de gérer les services temps réels dédiés aux conversations
téléphoniques. Ces applications nécessitent un temps de transfert rapide. Lors de l'introduction de
I'UMTS le débit du mode domaine circuit sera de 384 Kbits/s.
L'infrastructure s'appuie alors sur les principaux Élément du réseau GSM : MSC/VLR (bases
données existantes) et le GMSC afin d'avoir une connexion directe vers le réseau externe.
Le domaine paquet permettra de gérer les services non temps réels. II s'agit principalement de la
navigation sur Internet, de la gestion de jeux en réseaux ainsi que l'accès et l’utilisation des e-mails.
Ces applications sont moins sensibles au temps de transfert, c'est la raison pour laquelle les données
transiteront en mode paquet. Le débit du domaine paquet sera sept fois plus rapide que le mode
circuit, environ 2Mbits/s. L'infrastructure s'appuie alors sur les principaux éléments du réseau GPRS
tel que le SGSN (bases de données existantes en mode paquet GPRS) et le GGSN (équivalent du
GMSC en réseau GSM) qui jouera le rôle de commutateur vers le réseau Internet et les autres
réseaux publics ou privés de transmission de données.
Un Soft Handover survient entre deux cellules ou deux secteurs qui sont supportés par différents
Node B. L'UE transmet ses données vers différents Node B simultanément et reçoit des données de
ces différents Node B simultanément. Dans le sens descendant, les données utilisateur délivrées à
l'UE sont émises par chaque Node B simultanément et sont combinées dans l'UE. Dans le sens
montant, les données utilisateur émises par l'UE sont transmises à chaque Node B qui les achemine
au RNC où les données sont combinées.
Un hard Handover survient dans différentes situations, telles que entre cellules utilisant des
fréquences différentes (Handover inter-fréquences) ou entres cellules rattachées à des RNC
différents sans que ceux-ci disposent d'une interface lur entre eux ou lors d'un Handover FDD/TDD
puisque l'UE ne peut utiliser qu'une technologie d'accès à un instant donné.
Le hard Handover est aussi réalisé dans le cas d'un Handover entre une cellule UMTS et une cellule
GSM/GPRS (Handover inter-système). Au début du déploiement des réseaux UMTS, les Handover
vers le GSM seront nécessaires pour assurer une couverture continue.
20
Dans tous les cas, la décision de Handover est prise par le RNC, sur la base des mesures radio qui
lui sont rapportées par l'UE.
L’attribution des ressources sont classés selon les types de services demandés. On a alors défini 4
classes de services dans le réseau 3G.
Services conversationnels (Conversational class) : les services de cette catégorie permettent
de transmettre principalement du son et des images entre deux personnes ou groupes de
personnes. Leur qualité est donc assez sensible à des délais dans la transmission, ces délais
pouvant être facilement perceptibles par les utilisateurs. Parmi ces services, nous pouvons
citer la téléphonie en mode circuit, la téléphonie en mode paquet utilisant le protocole VoIP
(Voice over IP) et la vidéophonie.
Néanmoins, cette dernière est moins tolérante aux erreurs que la téléphonie et requiert généralement
un débit plus important ;
Services streaming (Streaming class) : on retrouve dans cette classe les services qui traitent
l’information au niveau du terminal de façon continue, c’est à dire au moment même où elle
est reçue (avant de la recevoir dans sa totalité). Ce type de service est unidirectionnel. Ces
services sont assez récents et offrent un potentiel d’application assez vaste. Les streaming
audio et vidéo sont des exemples d’applications typiques. À la différence des services
conversationnels, les services de type streaming sont assez asymétriques (on ne reçoit pas
au même débit que l’on émet) et on peut tolérer dans ce cas des délais importants ;
Services interactifs (Interactive class) : ce type de service est caractérisé par le fait que le
terminal ayant envoyé un message/commande attend une réponse du destinataire dans un
certain intervalle de temps. Par conséquent, un paramètre clé pour identifier la QoS des
services interactifs est le temps d’aller-retour, c’est à dire le temps écoulé entre le moment
où le message/commande est émis et celui où la réponse arrive. Comme exemple, nous
pouvons citer le commerce électronique ainsi que les services de localisation qui se
développent de plus en plus ;
Services en arrière-plan (Background class) : il existe des services qui ne posent, ou presque,
aucune contrainte de temps dans le transfert de l’information qu’ils génèrent. Ils peuvent
s’exécuter en «arrière-plan». Parmi ces services, nous pouvons trouver l’envoi d’un courrier
électronique, d’un message court ou alors le téléchargement d’un fichier.
21
Le paramètre pour quantifier la QoS de ce type de service est principalement le taux
d’erreurs qui doit être souvent assez faible.
Afin de garantir donc une qualité de service contre les congestions, les trafics, la charge du réseau,
trois protocoles se sont imposés :
Intserv (Integrated Service)
Diffserv (Differentiated Services)
MPLS (MultiProtocol Label Switching)
Ces protocoles sont très importants dans le cœur du réseau mais on verra les détails dans le troisième
chapitre.
1.4.2 HSDPA
Les objectifs visés lors de l’introduction de HSDPA furent d’utiliser le plus efficacement possible
les canaux radio et d’atteindre une augmentation significative du débit de données dans un lien
montant par rapport à UMTS.
Pour offrir des services (de type interactive, streaming et background) à haut débit supérieurs à 2
Mbps par l’UMTS, le 3GPP a défini HSDPA (High Speed Downlink Packet Access) dans la Release
5, connu aussi par le nom de 3,5G.
Il s’agit d’une technologie radio qui permet d’atteindre des débits dans le lien descendant supérieurs
à 10 Mbits/s. La technique HSDPA n’est que l’évolution logicielle de la technologie W-CDMA de
la Release 99.
Un certain nombre de modifications apportées dans la couche physique et le MAC (Medium Access
Control) ont permis d’atteindre ces objectifs. Les processus HARQ (Hybrid Automatic Repeat
reQuest) parallèles et AMC (Adaptive Modulation et Codage) assurent une plus grande capacité
utile et une utilisation plus efficace des ressources radios.
Il a été nécessaire, pour réduire l’intervalle de temps transmission ou TTI (Transmission Time
Interval), de transférer des sections de la couche MAC du RNC dans les stations de base 3G : seul
moyen pour atteindre TTI de 2 ms.
Le processus transmet ainsi toutes les 2 ms des blocs de données pour lesquels les paramètres de
transmission peuvent être adaptés aux conditions actuelles du niveau de champ (AMC). Pour cela,
le téléphone mobile doit informer la station de base toutes les 2 ms du succès ou de l’échec de la
réception d’un paquet.
22
L’adaptation des paramètres de transmission par la station de base est fondée sur le Channel quality
Indicator (CqI) déterminé en fonction de la qualité de réception du signal piloté par le téléphone
mobile qui l’indique périodiquement (tous les n TTI) à la station de base.
Pour répondre à ces exigences, trois nouveaux canaux ont été introduits. Dans un lien montant ou
downlink, le High Speed Downlink Shared Channel (HS-DSCH) prend en charge le transport des
données.
Sur le High Speed Shared Control Channel (HS-SCCH), le téléphone mobile est informé de la
configuration du HS-DSCH. Comme leurs noms le laissent supposer, ces deux canaux ne sont pas
réservés à un téléphone mobile en particulier mais permettent au contraire à la station de base d’en
servir parallèlement plusieurs. Dans un lien descendant ou uplink, le High Speed Dedicated Physical
Control Channel (HS-DPCCH) prend en charge la transmission rapide des valeurs CqI et des
signaux d’acquittement pour les paquets.
Voici donc l’architecture de l’ HSDPA :
D’après cette architecture, HSDPA est doté d’un ensemble de propriétés dont la combinaison permet
d’améliorer la capacité du réseau ainsi que le débit de données jusqu’à plus de 10 Mbps (débit pic)
pour le trafic sur le lien descendant. Parmi ces propriétés, nous retrouvons des techniques connues
23
et utilisées dans des standards d’évolution tel que le GSM/EDGE et que l’on résume par les points
suivants :
Cette technique permet la variation du débit de transmission de manière adaptative pour pallier les
dégradations du signal dues aux conditions de propagation. Cependant, les performances de cette
technique sont assez sensibles à des erreurs dans l’estimation des conditions du canal et aux retards
implicites de sa transmission vers le Node-B;
En matière de modulation et codage des données, plus les débits utiles sont élevés, plus faible est la
robustesse de transmission. C’est la raison pour laquelle on essaie de déterminer pour les conditions
de transmission actuelles les paramètres optimaux pouvant garantir une transmission fiable avec le
débit le plus élevé possible. HSDPA offre le choix entre différents types de modulation (QPSK et
16QAM) et de codage de données. L’adaptation d’une modulation et d’un codage peut intervenir à
chaque TTI, ce qui permet une réaction rapide aux modifications du niveau reçu.
La méthode HARQ est vue comme un complément à la précédente AMC en apportant la possibilité
d’ajuster le débit de transmission de manière plus fine. Le Node-B transmet un packet de données
au mobile. Si au bout d’un certain temps ce dernier n’envoie pas un acquittement positif (ACK,
Acknowledgement) ou si l’acquittement est négatif (NACK, Negative-Acknowledgement) alors, le
Nod-B considère que le paquet n’a pas été reçu convenablement et il renvoie à nouveau le même
paquet. Le mobile le garde et le combine avec les paquets retransmis par la suite. Ce type de
retransmission est appelée soft combining et il existe un autre type qui s’appelle « Incremental
Redundancy », ce qui augmente la probabilité de décoder correctement l’information ;
Les deux techniques précédentes permettent d’améliorer les performances de la liaison radio en
faisant changer le débit de transmission en fonction des caractéristiques instantanées du canal. Les
algorithmes d’ordonnancement permettent de sélectionner les utilisateurs de cellule auxquels il faut
allouer le canal de transmission de donnée HS-DSCH pendant un TTI.
24
Parmi les stratégies d’allocation de ressources radio appelées « scheduling » on trouve le Max C/I,
le PF (Proportional Fair) et le FFTH (Fast Fair Throughput).
Le débit du lien descendant varie de : 1.8 Mbit/s, 3.6 Mbit/s, 7.2 Mbit/s, et peut atteindre 14.4 Mbit/s
pour un terminal adapté avec une meilleur condition radio. [4]
1.4.3 HSUPA
HSUPA doit obtenir en uplink toutes les améliorations réalisées par le HSDPA en downlink. D’où
l’évidence d’utiliser des méthodes similaires. Ainsi, pour une transmission de données efficace, les
processus HARQ ont été ici également introduits et le TTI a été réduit à 10 ou 2 ms. Pour pouvoir
atteindre ces temps de réponse rapides, une partie du MAC Layer a dû également être transférée
dans la station de base.
Alors que pour le HSDPA le facteur limitant du débit est le CGI déterminé par le téléphone mobile
à partir du niveau de champ, en uplink c’est la puissance d’émission maximale que la station de base
peut autoriser pour un mobile. Cette puissance est limitée tant par la puissance d’émission maximale
d’un mobile que par le fait que la station de base ne peut lui attribuer une puissance d’émission qui
masquerait les autres téléphones.
La station de base régule la puissance par l’intermédiaire de « Grants » attribués aux téléphones
mobiles. Le Serving Cell peut fixer cette puissance par l’octroi d’un « Absolute Grant » sur une
valeur initiale déterminée. En outre, toutes les stations de base perturbées par l’émission d’un
téléphone mobile peuvent réduire sa puissance d’émission autorisée par paliers successifs à l’aide
du « Relative Grant ».
L’introduction de cinq nouveaux canaux a permis d’atteindre cet objectif. L’EDCH Dedicated
Physical DATA Channel (EDPDCH) et l’EDCH Dedicated Physical Control Channel (E-DPCCH)
prennent en charge la transmission des données en uplink. Les données sont transmises à la station
de base via l’EDPDCH et son format via l’EDPCCH. En downlink, l’EDCH Absolute Grant
Channel (EAGCH) et l’EDCH Relative Grant Channel (E-RGCH) prennent en charge la régulation
de la puissance d’émission autorisée. Les accusés de réception de la station de base vers le téléphone
mobile, nécessaires pour les processus HARq, sont transmis via l’EDCH Hybrid ARq Indicator
Channel (E-HICH).
La vitesse d’accès sur le lien montant est de 5,76 Mbit/s.
25
1.4.4 L’évolution du réseau 3G ou HSPA+
La technologie UMTS et ses évolutions HSPA (High Speed Packet Access) ont commencé à
montrer leurs limites en termes de capacité. La mise sur le marché de terminaux attractifs comme
les smartphones et l’introduction de nouveaux services impliquant une connexion quasi-continue au
réseau sont des facteurs qui ont mené à un essor brutal des usages et du trafic à écouler par les
réseaux. On fait à présent référence aux utilisateurs toujours connectés ou « always-on ».
Cette augmentation du trafic implique un partage des ressources entre les utilisateurs et, dans
certains cas, une réduction des débits qui leur sont délivrés. Avec l’augmentation de la charge des
réseaux, la qualité de service fournie aux clients se dégrade, ce qui pose un véritable problème aux
opérateurs de réseaux mobiles. Le 3GPP afin de répondre à ces contraintes a donc proposé :
la définition d’évolutions du HSPA, appelées HSPA+ ;
la définition du LTE et les réseaux 4G
HSPA+ est un terme qui regroupe plusieurs évolutions techniques visant principalement à
améliorer:
les débits fournis aux utilisateurs et la capacité du système ;
la gestion des utilisateurs « always-on ».
Le HSPA+ a été normalisé par le 3GPP en UMTS Release 7 (en 2007) et en LTE Releases 8 ou
« Long Term Evolution » release 8 (en 2008). L’amélioration des débits et de la capacité est rendue
possible par l’introduction de nouvelles techniques. En voie descendante, la modulation 64QAM est
désormais prise en charge, de même que la modulation 16QAM en voie montante. En complément,
une cellule peut transmettre des données à un utilisateur sur deux porteuses simultanément en voie
descendante, à l’aide de la fonctionnalité DC-HSDPA (Dual Carrier – HSDPA). Le spectre
supportant la transmission n’est donc plus limité à 5 MHz mais à 10 MHz. La largeur de bande plus
élevée permet au système une gestion plus efficace des ressources spectrales.
La fonctionnalité MIMO (Multiple Input Multiple Output) est également introduite pour améliorer
les débits en voie descendante, un principe d’utilisé plusieurs antennes à l’émission et à la réception.
Ainsi, le débit maximal varie selon la largeur de bande et le nombre d’antenne utilisé.
26
Figure 1.05 : Débit maximal du HSPA+
Les utilisateurs always-on sont mieux pris en compte via des fonctionnalités regroupées sous le
terme de CPC (Continuous Packet Connectivity).
Les évolutions HSPA+ apportent ainsi des gains très significatifs en termes de débits, de capacité et
de latence et renforcent la pérennité des réseaux 3G+.
1.5 Conclusion
Dans ce chapitre introductif, nous avons présenté d’une façon générale les différentes générations
de téléphone mobiles et les principales caractéristiques d’un réseau cellulaire.
Ainsi, la mise en œuvre du service GPRS implique une Evolution matérielle et logiciel s’ajoutent
au réseau GSM déjà existants. L’évolution du GSM vers GPRS améliorer par EDGE prépare à
l’introduction des Réseaux de troisième génération l’UMTS. En ce qui concerne l’infrastructure,
des modifications doivent être effectuées pour l’intégration du GPRS ou l’UMTS par l’ajout
d’autres équipements, et le chargement de logiciels.
L’UMTS a ensuite répondu aux problèmes de débits vis-à-vis des applications multimédia mais a
été limité par l’accroissement rapide des usagers via smartphone qui implique le partage des
ressources dégrade la qualité de service. L’évolution HSPA+, grâce à l’utilisation des différentes
technologie (technique d’accès multiple, modulation et codage, MIMO, …) a réglé ces problèmes
mais encore augmenté le débit. Dans le réseau cœur, les protocoles de qualité de service ont pallié
le problème de charge du réseau dans le domaine paquet (IP).
27
CHAPITRE 2
LE RESEAU DE LA QUATRIEME GENERATION
2.1 Introduction
A chaque passage d’une norme du réseau mobile à une autre, la nouvelle génération mobile se
différencie toujours par rapport au précèdent par un débit plus supérieur, une latence plus courte,
une capacité en nombre importante de la cellule, un coût de la connexion plus flexible, et surtout
une qualité de service offerte par le réseau.
La mise sur le marché des terminaux tels que les smartphones ou les clés 3G+ a entraîné l’explosion
des usages de services de données mobiles. La présence des abonnées dans une même cellule traduit
une réduction du débit fourni à chacun. Vu cette problème de charge sur l’accès au réseau, on a
adopté de nouvelle technologie radio qui tient aussi compte de la qualité du canal de transmission.
D’un autre côté, les applications utilisant le réseau internet ont accru dans ces derniers temps et
demande plus de débit avec le moindre taux d’erreur de transmission. Cependant, presque tous les
services de la télécommunication tendent dans le réseau internet. L’acheminement des données dans
le domaine paquet pour assurer la qualité de service nécessite un dynamisme au niveau du routage
dans le cœur du réseau.
Ces motivations liées à une conjonction de facteurs techniques décrivent l’avènement du réseau de
la quatrième génération ou réseau 4G. En 2010, LTE (du Release 10) a été définie comme la norme
véritable du réseau 4G, une « évolution multi porteuse » du HSDPA (jusqu’à 4 porteuses, soit 20
MHz), et appelé finalement « LTE-Advanced ».
En terme de vocabulaire, le réseau 4G s’appelle EPS (Evolved Packet System), constitué du réseau
d’accès appelé LTE (Long Term Evolution) et du réseau cœur appelé EPC (Evolved Packet Core).
Le réseau de la quatrième génération vise techniquement à améliorer l’efficacité spectrale et à
augmenter la capacité de gestion du nombre de mobiles dans une même cellule. Elle tente aussi
d’offrir des débits élevés en situation de mobilité et à offrir une mobilité totale à l’utilisateur en
établissant l’interopérabilité entre différentes technologies existantes. Elle vise à rendre le passage
entre les réseaux transparent pour l’utilisateur, à éviter l’interruption des services durant le transfert
intercellulaire, et à basculer l’utilisation vers le « tout-IP ».
Les principaux objectifs visés par les réseaux 4G sont d’augmenter le débit de transmission,
d’assurer la continuité de la session en cours, réduire les délais et le trafic de signalisation, optimiser
28
l’utilisation des ressources, fournir une meilleure qualité de service tel que la réduction du délai de
relève, du délai de bout-en-bout, de la gigue et de la perte de paquets.
Une des caractéristiques qui différencie le réseau 4G est l’entité e-Node B, la seul entité dans son
réseau d’accès. Cette entité a la capacité d’utilisé la technologie OFDM (Orthogonal Frequency
Division Multiplexing) qui bénéficie d’une grande immunité contre l’interférence entre symboles,
et qui permet de gérer simplement des largeurs de bande variables et potentiellement grandes.
Pour la méthode d’accès, le 4G utilise l’OFDMA (Orthogonal Frequency Division Multiple Access)
assure un partage aisé des ressources fréquentielles entre un nombre variable d’utilisateurs
bénéficiant de débits divers. Il utilise aussi la technologie MIMO (Multiple Input Multiple Output),
qui nécessite plusieurs antennes à l’émission et à la réception, généralement 2 ou 4 antennes de
chaque côté.
Dans le réseau cœur, le concept EPC est un réseau tout IP à la différence des réseaux 2G et 3G où
l’on distinguait les domaines de commutation de circuit et de commutation de paquet dans le réseau
cœur, le réseau 4G ne possède qu’un domaine paquet appelé EPC. Tous les services devront être
offerts sur IP y compris ceux qui étaient auparavant offerts par le domaine circuit.
Chaque nouvelle technologie de réseaux mobiles augmente les débits et suscite une attente de débits
supérieurs. Plusieurs facteurs limitent le débit de transmission comme les limitations capacitaires,
la condition radio, liées en particulier à la position de l’UE dans la cellule, de la ressource spectrale
disponible, et des technologies de transmission employées comme l’OFDMA et le SC-FDMA.
Les débits maximaux atteints par le LTE Advanced sont les suivants :
100 Mbit/s en voie descendante pour une largeur de bande allouée de 20 MHz, soit une
efficacité spectrale crête de 5 bit/s/Hz.
50 Mbit/s en voie montante pour une largeur de bande allouée de 20 MHz, soit une efficacité
spectrale crête de 2,5 bit/s/Hz.
L’avantage de la LTE est sa flexibilité dans l’usage de la bande où elle opère dans des allocations
de bande de fréquence de différentes tailles incluant 1.25, 2.5, 5, 10, 15 et 20MHz. Notons que le
débit crête est proportionnel à la largeur de bande maximale 20 MHz.
29
2.2.2 La connexion permanente
Le principe des accès haut débit où la connectivité est permanente est pour l’accès à internet. Mais
même si la connexion est permanente au niveau du réseau, il est nécessaire pour le terminal de
passer de l’état IDLE (en veille) à l’état ACTIF lorsqu’il s’agira d’envoyer ou recevoir du trafic. Ce
changement d’état s’opère en moins de 100 ms. Le réseau pourra recevoir le trafic de tout terminal
rattaché puisque ce dernier dispose d’une adresse IP, mettre en mémoire ce trafic, réaliser
l’opération de « paging », c’est-à-dire, localiser le terminal et lui demander de réserver des
ressources afin de pouvoir lui relayer son trafic.
Le spectre de fréquence est une ressource rare qui nécessite une bonne gestion pour éviter son
gaspillage. Son organisation au niveau mondial est nécessaire à plusieurs titres. Elle garantit la
compatibilité des systèmes entre pays, autorisant l’itinérance des utilisateurs à travers le monde.
Elle permet aussi aux constructeurs d’équipements de réaliser des économies d’échelle
substantielles, réduisant les coûts et favorisant le développement des technologies.
30
Chaque continent utilise différent bande de fréquence tel que :
La répartition de des bandes de fréquences du LTE est gérée par le fonctionnement en mode dual :
le multiplexage de fréquences FDD ou Frequency Division Duplexing et le multiplexage temporel
TDD ou Time Division Duplexing.
Le mode FDD
FDD désigne une méthode de duplexage dans le domaine des télécommunications sans fil.
L'émission et la réception des données se font à des fréquences différentes; autrement dit, la
fréquence de la porteuse du signal est différente suivant que le sens de la liaison est montant ou
descendant permettant d'émettre et de recevoir simultanément. Cette caractéristique aide à tirer le
meilleur parti des mécanismes qui exploitent un échange rapide d’informations de contrôle entre
émetteur et récepteur. Par exemple, l’allocation de ressources dynamique, qui se base sur la qualité
instantanée du canal mesurée par le récepteur (l’UE en voie descendante).
Cette séparation donne aussi une grande immunité contre les interférences. En contrepartie, une
bande de garde est nécessaire entre les porteuses dédiées aux voies montante et descendante afin
d’éviter l’interférence de canal adjacent de la bande d’émission sur la bande de réception pour
laquelle la puissance des signaux reçus est généralement très faible.
De plus, un duplexeur est requis au sein du terminal ainsi qu’à la station de base, afin d’isoler la
partie du modem dédiée à l’émission de celle dédiée à la réception, puisque toutes deux partagent
les mêmes antennes.
On notera que la bande dédiée à la voie montante est généralement la bande basse, tandis que celle
dédiée à la voie descendante est généralement la bande haute. En effet, l’atténuation des ondes
électromagnétiques en espace libre croît avec la fréquence. Par conséquent, un UE transmettant sur
31
une fréquence basse requiert moins de puissance d’émission pour être reçu à la station de base avec
un niveau de puissance donné qu’un UE d’un même système transmettant sur une fréquence plus
haute. L’énergie étant une ressource rare pour l’UE et moins critique pour la station de base, il est
logique d’allouer la fréquence basse à la voie montante et la fréquence haute à la voie descendante.
Le mode TDD
32
2.2.5 Mobilité dans le réseau
La mobilité est une fonction clé pour les réseaux mobiles. Le LTE vise à rester fonctionnel pour
des UE se déplaçant à des vitesses élevées (comprises entre 120 et 350 km/h), dans un vaste
territoire, tout en étant optimisé pour des vitesses de l’UE faibles (comprises entre 0 et 15 km/h).
Le système intègre également des mécanismes optimisant les délais et la perte de paquets lors d’un
handover intra-système.
Comme la LTE pourra opérer sur des bandes de fréquences diverses et notamment basses comme
celle des 700 MHz, il sera possible de considérer des cellules qui pourront couvrir un large diamètre.
La coexistence et l’interfonctionnement avec le réseau 3G permet aussi de gagner plus de couverture
car au début du déploiement de la LTE, peu de zones seront couvertes. Il s’agira pour l’opérateur
de s’assurer que le handover entre la LTE et la 2G/3G est toujours possible.
Le handover entre LTE et UTRAN (3G) doit être réalisé en moins de 300 ms pour les services
temps-réel, et 500 ms pour les services non temps-réel.
En effet, la SAE est le nom d’une étude où la 3GPP développe une structure pour une évolution et
migration des systèmes courants à un système qui supporte des technologies d'accès multiples, avec
un plus haut taux de transfert de données et basé sur la commutation de paquet, alors que l’EPC
(Evolved Packet Core) est le nom du réseau cœur évolué.
Tous les services de télécommunication sont offerts sur IP en mode paquet qui permet ainsi
l’interconnexion avec le domaine paquet les réseaux de génération antérieur GPRS, 3G.
Cette caractéristique réduit la latence, et optimise la fluidité du cœur du réseau. [4] [5]
La figure ci-dessous décrit l’architecture globale du réseau 4G, incluant le réseau cœur, le réseau
d’accès, et aussi d’autres blocs des réseaux externes.
Les nouveaux blocs spécifiés pour le LTE, connu aussi sous le nom d’EPS (Evolved Packet System),
sont l’EPC (Evolved Packet Core) et l’E-UTRAN (Evolved UTRAN).
L’IMS (IP Multimedia Subsystem) est localisé au sommeil de la parties cœur et fournit l’accès aux
services multimédia.
33
Figure 2.03 : Architecture du réseau 4G
La partie radio du réseau 4G, appelée « e-UTRAN » est l’équivalent du BSS (2G) et de l’UTRAN
(3G), et est composé que de l’entité eNodeB ou Evolved NodeB.
Cette partie est responsable sur la gestion des ressources radio, les méthodes d’accès, les
modulations utilisées, la compression, la sécurité, et la connectivité vers le réseau cœur évolué.
34
Les fonctions supportées par le RNC du réseau 3G ont été réparties entre l’eNodeB et les entités du
réseau cœur MME/SGW dans le 4G. La fonctionnalité du contrôleur radio réside dans l’eNodeB, le
réseau est moins latent, car la mobilité est déterminée par une seule entité eNodeB, le handover est
sera alors plus robuste dans LTE.
L’eNodeB dispose d’une interface S1 avec le réseau cœur. L’interface S1 comprend la S1-C (S1-
Contrôle), entre l’eNodeB et la MME, puis S1-U (S1-Usager) entre l’eNodeB et la SGW. Une
nouvelle interface X2 a été définie entre les eNodeB adjacents. Son rôle est de minimiser la perte
de paquets lors de la mobilité de l’usager en mode ACTIF (Handover).
35
Sécurité de la signalisation réseau :
À cause de la sensibilité des messages de signalisation échangés entre eNodeB et le terminal ou
entre le MME et le terminal. Toutes ces informations sont protégées contre l’écoute et l’altération.
L’interface radio de la technologie LTE fournie des bonnes conditions de connexion à voir les
débits, la capacité en nombre de communication simultanée d’une cellule, une très brève latence et
le minimum taux d’erreur de paquet. Tous ceci grâce à l’utilisation des technologies MIMO,
OFDMA, SC-FDMA et de la modulation multi porteuse.
b. La méthode d’accès
L’OFDMA (Orthogonal Frequency Division Multiple Access) est une technologie de codage radio
de type Accès multiple par répartition en fréquence (AMRF ou en anglais FDMA) pour la liaison
descendante et le SC-FDMA (Le single-carrier FDMA) est aussi une technologie de codage radio
de type accès multiple par répartition en fréquence pour la liaison montante.
36
OFDMA
L’OFDMA est une technique de multiplexage et de codage des données utilisée principalement dans
les réseaux de téléphonie mobile de quatrième génération.
L’OFDMA est optimisé pour l’accès multiple, c’est-à-dire le partage de la ressource spectrale
(bande de fréquence) entre de nombreux utilisateurs distants les uns des autres. L’OFDMA est
compatible avec la technique des antennes MIMO.
L’OFDMA donne pour une même largeur spectrale, un débit binaire plus élevé grâce à sa grande
efficacité spectrale (nombre de bits transmis par Hertz) et à sa capacité à conserver un débit élevé
même dans des environnements défavorables avec échos et trajets multiples des ondes radio. Ce
codage (tout comme le CDMA utilisé dans les réseaux mobiles 3G) permet un facteur de
réutilisation des fréquences égal à « 1 », c’est-à-dire que des cellules radio adjacentes peuvent
réutiliser les mêmes fréquences hertziennes.
Le principe de l'OFDMA est de répartir sur un grand nombre de sous-porteuses le signal numérique
que l'on veut transmettre ce qui permet, pour un même débit global, d'avoir sur chaque canal un
débit plus faible et donc un temps d'émission de chaque symbole plus long.
Cela limite les problèmes d'interférences inter-symboles et de fading liés aux chemins multiples de
propagation qui existent dans les liaisons radio de moyenne et longue portées.
Un filtrage séparé de chaque sous-porteuse n'est pas nécessaire pour le décodage dans le terminal
récepteur, une « Transformée de Fourier » FFT est suffisante pour séparer les sous-porteuses l'une
de l'autre. Dans le cas du LTE, il y a jusqu'à 1200 porteuses indépendantes.
Orthogonalité (le « O » de OFDMA) : en utilisant des signaux orthogonaux les uns aux autres pour
les sous-porteuses, l’OFDMA évite les interférences mutuelles. Ce résultat est obtenu en ayant un
écart de fréquence entre les sous-porteuses qui est égal à la fréquence des symboles sur chaque sous-
porteuse. Cela signifie que lorsque les signaux sont démodulés, ils ont un nombre entier de cycles
dans la durée du symbole et leur contribution aux interférences est égale à zéro; en d'autres termes,
le produit scalaire entre chacune des sous-porteuses est nul pendant la durée de transmission d'un
symbole (66.7 µs en LTE, soit une fréquence de 15 KHz, ce qui correspond à l'écart de fréquence
entre 2 sous-porteuses).
Ce codage est associé dans les réseaux LTE à des modulations de type QPSK ou QAM utilisées sur
chacun des canaux, pour s'adapter aux conditions radio locales et à la distance séparant l'antenne de
chaque terminal.
37
SC-FDMA
Le SC-FDMA ou single-carrier FDMA est une technologie de codage radio de type accès multiple
par répartition en fréquence.
Comme pour d'autres techniques à schéma d'accès multiples (TDMA, FDMA, CDMA, OFDMA),
le but est l'attribution et le partage d'une ressource radio commune (bande de fréquence) entre
plusieurs utilisateurs. Le SC-FDMA peut être considéré comme une variante linéaire des codages
OFDM et OFDMA, dans le sens où il consiste aussi à répartir sur un grand nombre de sous-
porteuses du signal numérique, mais il utilise en complément, une DFT (Transformation de Fourier
discrète u signal) supplémentaire pour pré-coder l'OFDMA conventionnel.
Son PAPR (peak-to-average power ratio) est plus faible que celui de l'OFDMA et donne une
bénéficie au terminal mobile en termes d’efficacité énergétique, en diminuant la puissance crête
d’émission et donc le poids et le coût du terminal (smartphone ou tablette tactile).
Il a été adopté pour les liaisons montantes (Uplink) de certaines normes pour la partie radio
(eUTRAN) des réseaux mobiles LTE, car ce codage permet de diminuer la consommation électrique
du terminal et donc d'augmenter l'autonomie de sa batterie.
Pour les liaisons radio descendantes (Downlink) des réseaux LTE, pour lesquelles il y a moins de
contraintes énergétique, c'est l'OFDMA qui est utilisé car il permet pour une même largeur spectrale,
un débit binaire plus élevé.
c. La Modulation
38
L'amplitude et la phase de la porteuse sont simultanément modifiées en fonction de l'information à
transmettre.
Le format de modulation QAM est étudié de plus en plus sérieusement dans le domaine des
télécommunications par fibre optique afin de répondre à l'augmentation du débit.
La modulation QPSK
Deux signaux FI en quadrature sont générés à partir d'un oscillateur local à la fréquence quadruple.
Le train de donnée binaire est séparé en deux "sous trains" appelés I et Q. La paire de valeur,
constitue ce que l’on appelle un symbole.
Pour des considérations électroniques, les signaux I et Q sont centrés sur 0V. On peut donc
considérer que I et Q prennent symboliquement deux niveaux +1, -1 correspondant aux états
binaires.
Le cœur de réseau appelé « EPC » (Evolved Packet Core) utilise des technologies « full IP », c'est-
à-dire basées sur les protocoles internet pour le transport de la voix, des données et la signalisation
qui permet des temps de latence réduits. Ce cœur de réseau permet l’interconnexion via des routeurs
avec les autres eNodeB distants, les réseaux des autres opérateurs mobiles, les réseaux de téléphonie
fixe et le réseau Internet.
39
2.3.2.1 Les entités fonctionnelles de l’EPC
Entité de gestion de mobilité, MME : la MME est le nœud principal de contrôle du réseau d'accès
LTE/EPC.
Cette partie est responsable de la localisation et la poursuite du terminal mobile (UE) entre les appels
et la sélection d’une bonne S-GW (Serving-GetWay) à travers une connexion.
Comme elle réalise le dernier point de la protection par codage, donc par conséquent c’est le point
qui valide l’interception de signalisation. Ainsi, elle contrôle le signal entre l’UE et le réseau cœur,
et assure l’établissement, la maintenance, et l’élargissement de la porteuse radio services. Elle se
charge alors de l’activation et de la désactivation du Bearer.
La MME effectue la procédure de paging où elle suit des UE Mode Inactif (IDLE).
La MME gère aussi le handover Intra-LTE impliquant la location du nœud du réseau d’accès, ainsi
que le handover 2G/3G en sélectionnant le SGSN.
Elle s’interface avec le HSS pour authentifier un utilisateur en attachement et implémentation des
restrictions d'itinérance.
40
PCRF: Policy and Charging Rules Function
Responsable sur la décision principale du control. Il fournit une QoS d'autorisation pour décider le
traitement des données en respectant l’abonnement des utilisateurs.
La PCRF est le nom générique de l'entité au sein de la LTE qui détecte les flux de service et applique
la politique de tarification. Pour les applications qui nécessitent une politique dynamique de
tarification ou de contrôle, un élément du réseau intitulé « Applications Function » est utilisée.
La passerelle de service SGW, est un élément plan de données au sein de l’EPC. Son objectif
principal est de gérer la mobilité du plan utilisateur, et elle agit également comme une frontière
principale entre le réseau d’accès et le réseau cœur.
La SGW achemine les paquets de données, maintient la connexion de l’inter-eNodeB handover,
puis inter-système handover entre LTE et GSM/UMTS et réservé le contexte du terminal mobile
(UE), comme les paramètres de la porteuse service et le routage des informations.
La SGW maintien également les chemins de données entre les eNodeB et les passerelles PDN, et
quand les UE se déplacent dans les régions desservies par des eNodeB différentes, la SGW sert de
point d'ancrage de mobilité veillant à ce que le chemin de données soit maintenu.
Elle permet d' identifier l' usager lorsque ce dernier se joint au réseau, elle met à jour la
zone de localisation (tracking area) , et elle demande ensuite des ressources pour assurer les
communications. Elle permet aussi de sécuriser les flux de signalisation des usagers en les
cryptant entre l'UE et l'eNodeB.
La fonction de gestion de la mobilité
C'est une fonctionnalité qui permet à l'UE de s’attacher, de quitter et de mettre à jour la zone
de localisation.
41
La fonction de gestion de session
Elle permet d'établir soit des « defaults bearers» et des « dedicated bearers» afin que l'UE
dispose de connectivité IP pour ses communications.
La fonction de routage de paquet et de transfert
Elle permet d’acheminer les paquets de l'UE au PDN-GW (Packet Data Network Gateway) ainsi
que du PDN-GW vers l'UE.
La fonction de gestion de ressource radio
Elle permet l'établissement et la libération de RAB (Radio Access Bearer) entre l'UE et le
«Serving Gateway » à chaque fois que le terminal souhaite devenir actif pour communiquer.
Mode d’itinérance
L’EPC fonctionne en situation de roaming en mode « home routed » ou en mode « local breakout
». Autrement dit lorsqu’un client est dans un réseau visité, son trafic de données est soit routé à son
réseau nominal qui le relaye par la suite à la destination (home routed) ou directement routé au
réseau de destinataire sans le faire acheminer à son réseau nominal (local breakout).
Il est possible de faire acheminer le trafic de l’EPC vers l’accès LTE, CDMA-2000 (paquet), 2G
(paquet) et 3G (paquet) et ainsi garantir le handover entre ces technologies d’accès.
Fonction de filtrage
Enfin, l’EPC supporte le filtrage de paquet par exemple pour la détection de virus et une taxation
évoluée basée sur le service accédé par le client en termes du volume, de la session, de la durée, de
l’événement, du contenu, etc.
L’IP Multimedia Sub-system (IMS) est une architecture standardisée NGN (Next Generation
Network) pour les opérateurs de téléphonie, qui permet de fournir des services multimédias fixes
et mobiles. Cette architecture utilise la technologie VoIP ainsi qu'une implémentation 3GPP
standardisée.
Les systèmes téléphoniques existants (commutation de paquets et commutation de circuits) sont pris
en charge. L’objectif d’IMS n’est pas seulement de permettre de nouveaux services, existants ou
futurs, proposés sur internet, mais les utilisateurs doivent aussi être capables d’utiliser ces services
aussi bien en déplacement (situation de roaming) que depuis chez eux.
42
Pour cela, l’IMS utilise les protocoles standards IP. Ainsi, une session multimédia, qu’elle
s’effectue entre deux utilisateurs IMS, entre un utilisateur IMS et un internaute, ou bien encore entre
deux internautes, est établie en utilisant exactement le même protocole.
De plus, les interfaces de développement de services sont également basées sur les protocoles IP.
C’est pour cela qu’IMS fait converger l’internet et le monde de la téléphonie cellulaire; Il utilise les
technologies cellulaires pour fournir un accès en tout lieu, et les technologies Internet pour fournir
les services.
Voici quelques exemples de services de l’IMS :
Echange de fichiers pendant un appel.
Un usager peut créer une règle qui le montre connecté après une certaine heure et rejette tous
les appels en provenance d’un appelant de son groupe professionnel.
Un usager peut couper lorsque ses collègues professionnels appellent et les rediriger vers
une page Web spécifique présentant l'hôtel où il passe ses vacances.
Un usager peut activer la sonnerie au niveau de tous ses appareils en fonction de l’appelant.
Messagerie instantanée et vidéo conférence.
L’architecture en couche montre les mécanismes du réseau pour fournir la connexion entre l’UE et
le réseau. L’interface radio E-UTRAN est décrite selon le modèle OSI, avec une couche physique
(Layer1) qui implémente la partie PHY, une couche liaison de données (Layer 2) qui supporte le
RLC, le PDCP et le MAC, et la couche RRC (Layer 3).
L’interface radio du LTE présente trois grandes couches. Ces couches sont caractérisées par ses
propres piles protocolaires, ainsi on peut voir le service que doit être rendu par la couche N de
l’architecture à la couche supérieure (N + 1) par l’intermédiaire de certain protocole.
La figure 2.05 suivante illustre l’architecture en couche de l’interface radio du réseau 4G :
43
Figure 2.05 : Architecture en couche de l’interface radio du réseau 4G
Cette couche qui est la plus basse, a pour rôle principale d’assurer la transmission des données. Elle
réalise le codage canal, la modulation, les traitements MIMO ainsi que la modulation multi-porteuse.
Les opérations inverses sont effectuées par la couche physique en réception. De plus, cette couche
effectue des taches nécessaires à son fonctionnement et aux fonctionnements de la couche
supérieure comme les mesures radio, la synchronisation, la détection de la présence d’une cellule et
la signalisation d’informations de contrôle.
Cette couche intervient pour le transfert de données tel que le MAC (Medium Access Control) prend
en charge l’ordonnancement des paquets et la répétition rapide, le RLC (Radio Link Control) est
responsable de la transmission fiable de données, et le PDCP (Packet Data Convergence Protocol)
qui fournit le protocole de compression d’entête et implémente le cryptage de données.
44
a.La sous couche PDCP (Packet Data Compression Protocol)
La couche PDCP dont le rôle est de fournir le protocole de compression d’entête et implémente le
cryptage de données. Cette couche supporte les porteuses radio. Chaque porteuses correspond à un
flux d’information comme les données du plan usager ou les signalisations du plan de contrôle.
Cette couche à son tour assure le contrôle du lien des données comme
La couche RLC fournit à la couche PDCP les services basique de la couche 2 du modèle OSI,
comme la segmentation des données paquet et l’ARQ (Automatic Repeat Request) pour le
mécanisme de correction d’erreur, la retransmission des PDU (Protocol Data Unit) manquantes
permettant la reprise sur erreur et la remise en séquence des PDU pour assurer l’ordonnancement
des SDU (Service Data Unit) à la couche supérieure.
Elle permet l’accès et l’adaptation au support de transmission grâce aux mécanismes correction
d’erreur par retransmission HARQ (Hybrid Automatic Repeat reQuest), à l’allocation dynamique
de ressource ou « scheduling » et à la priorisation des flux sur les liens.
Le but principale est la couche MAC est de mapper et multiplexer les canaux logique sur les canaux
de transport après avoir performer les manipulations de priorité sur les flux de données reçu par la
couche RLC. Finalement, la couche MAC délivre les flux de transport à la couche PHY, qui
appliquera le codage canal et la modulation avant la transmission sur l’interface radio.
La couche RRC (Radio Ressource Control) sert au control de l’interface radio. Elle assure la
diffusion et le décodage d’informations systèmes pour tous les équipements en mode veille, l’envoi
et la réception de paging pour l’établissement d’appel destiné à n UE en mode veille, le contrôle des
mesures de l’UE et le contrôle de la mobilité en mode veille.
La couche RRC (Radio Resource Control) supports toutes les procédures de signalisation entre le
UE et l’eNodeB. Ceci inclut les procédures de mobilités et la gestion de connexion. Les
signalisations venant du plan de contrôle de l’EPC sont transférés au terminal à travers le protocole
RRC, d’où le lien entre le RRC et les couches supérieures.
45
2.3.4.4 Les canaux de transmission
L’interface radio E-UTRAN doit être capable de transmettre des informations à haut débit et à faible
temps de latence. Cependant, pas tous les flux d’information ne nécessitent la même protection face
aux erreurs de transmission ou la manipulation de la Qualité de Service (QoS). Les messages de
signalisations E-UTRAN doivent être transmis le plus rapidement possible en utilisant le meilleur
schéma de protection contre les erreurs, car ils sont critiques dans le cas d’une mobilité radio.
D’un autre côté, la voix et les données peuvent tolérés un « frame loss » raisonnable, due à la
transmission radio.
Dans le but d’être flexible et permettre différents schéma pour la transmission de données, les
spécifications de l’E-UTRAN on introduit plusieurs types de canaux :
Les canaux logiques
Les canaux de transport
Les canaux physiques.
46
a. Les canaux logiques
Les canaux logiques sont définis par le type d’informations qu’il transporte et opèrent entre la
couche MAC et la couche RLC. Ils correspondent aux services de transfert de données offert par les
protocoles des couches hautes de l’interface radio. Un canal logique est associé à un ou plusieurs
flux de données qui possèdent des caractéristiques communs comme la typologie des données (plan
usager ou plan de contrôle), priorité des flux ou le débit nominal.
Il y a uniquement deux types de canaux logiques : les canaux de contrôle, pour les transferts des
informations du plan de contrôle et les canaux de trafic pour les transferts des données utilisateur
du plan usager. Chacun des canaux de ces deux catégories corresponds à un certain type de flux
d’information.
Les différents canaux logiques de l’interface radio du LTE sont:
BCCH (Broadcast Control CHannel) : utilisé pour la diffusion d’informations de contrôle
sur la cellule.
PCCH (Paging Control CHannel) : utilisé pour la notification d’appel.
CCCH (Common Control CHannel) : utilisé pour la transmission de la signalisation quand
elle ne peut pas être transmise sur un canal dédié DCCH.
DCCH (Dedicated Control CHanel) : utilisé pour la signalisation dédiée à un utilisateur.
DTCH (Dedicated Trafic CHannel) : utilisé pour porter les informations de trafic dédiées à
un utilisateur.
Les canaux de transport décrivent pourquoi et avec quelles caractéristique les données sont
transférés à travers l’interface radio. Par exemple, les canaux de transport décrivent comment les
données sont protégées contre les erreurs de transmission, le type de codage canal, la taille des
paquets de données envoyés sur l’interface radio, ... Cet ensemble d’information est connu sous le
nom de « Transport Format ».
Les canaux de transports sont classifiés en deux catégories : les canaux de transport en lien
montante et descendante.
Les différents canaux de transport de l’interface radio sont:
BCH (Broadcast CHannel) : Utilisé en voie descendante pour la diffusion d’information sur
la cellule.
47
DL-SCH (Downlink Shared CHannel) : Utilisé pour la transmission de données dédiées de
contrôle et du plan usager en sens descendant et utilisé également pour transmettre les
informations de cellule non portées par le BCH.
PCH (Paging CHannel) : Utilisé pour diffuser les informations de paging sur l’ensemble de
la cellule.
RACH (Random Access CHannel) : Utilisé pour l’établissement d’une connexion RRC avec
la station de base et le rétablissement lors d’un handover.
UL-SCH (Uplink Shared CHannel) : Utilisé pour la transmission de données dédies de
contrôle et du plan usager en sens montant.
Les canaux physiques sont l’implémentation des canaux transport sur l’interface radio. Leur
structure dépend étroitement des caractéristiques de l’interface physique OFDM. Voici la liste des
canaux physiques en voie montante et en voie descendante.
Pour la voie montante :
PUSCH (Physical Uplink Shared CHannel): utilisé pour la transmission de l’UL-SCH et
porte également les informations de contrôle du PUCCH en cas de collision de ces deux
canaux sur le même intervalle de temps
PUCCH (Physical Uplink Control CHanel): utilisé pour la transmission d’information de
contrôle nécessaire à l’HARQ et à l’allocation de ressource
PRACH (Physical Random Access CHannel): utilisé pour porter le RACH
48
2.4 Qualité de service dans le réseau 4G
49
Le Default bearer
Ou encore non-Guaranted Bit-Rate (non-GBR), le premier bearer établi lorsque le terminal se
connecte pour la première fois à un PDN, il reste actif durant toute la connexion.
2.5 Conclusion
Durant ce chapitre, on a pu voir comment la LTE s’est pris pour atteindre à ses performances.
En bref, les usagers mobiles du réseau 4G peuvent profiter pleinement des services de ce réseau car
déjà le temps de session avec le réseau est courte (latence), les technologies de l’interface radio
(OFDMA, SC-FDMA, MIMO, …) permet le minimum de perte de donnée avec un débit élevé qui
est même gardé en cas de mauvaise condition radio. Ces technologies assurent aussi une part de
responsabilité dans la mobilité de l’UE en lui permettant la bonne fonctionnalité du réseau lors du
déplacement à une vitesse élevée de ce dernier.
Pour l’acheminement de données échangées, le concept de bearer apporte beaucoup en termes de
qualité de service.
Même si le réseau d’accès est optimale, et que les bearers assurent le traitement des flux de donné
en terme de QoS, il se peut que le réseau rencontre des problèmes de congestion, de surcharge, et
de manque de ressource qui refusera l’activation du bearer. Pour cela, dans le prochain chapitre, on
va résoudre ce problème, par le concept IP/MPLS qui a aussi une part de responsabilité pour fournir
la qualité de service dans le réseau 4G.
50
CHAPITRE 3
IMPLEMENTATION DE L’IPV6/MPLS POUR FOURNIR LA QUALITE DE SERVICE
DANS LE RESEAU 4G
3.1 Introduction
La croissance exponentielle des besoins en termes de réseaux implique, en plus d'une augmentation
considérable des ressources, l'intégration de nouvelles fonctionnalités. Celles-ci sont nécessaires,
d'une part pour utiliser de manière efficace les ressources ainsi disponibles, et d'autre part pour
satisfaire les récents besoins des nouvelles applications.
Cependant, l'intégration de ces fonctionnalités vue récemment dans le réseau internet nécessite
l'utilisation de techniques de plus en plus performantes. Ce qui a amené les fournisseurs d'accès
Internet à introduire certains technologies dans le cœur de réseau tel que l'IP (Internet Protocol),
l'ATM (Asynchronous Transfer Mode), le PoS (Packet over Sonet/SDH), ou encore le MPLS (Multi
Protocol Label Switching), depuis quelques années.
L'idée a consisté de ne garder de l'ATM (Asynchronus Transfert Mode) que sa capacité de transfert
et remplacer les protocoles de commandes jusque-là associés par un contrôle direct des matrices de
commutation par les protocoles de routage utilisés dans les réseaux IP.
Les motivations pour l'élaboration d'une telle technique vont bien au-delà de la facilité d'intégration
de l'IP et l'ATM. Il s'agit en effet d'enrichir les capacités de la technologie IP, également la capacité
à mettre en œuvre une ingénierie de trafic et par là même permettre la définition de contrats de
qualité de service. La capacité à isoler des trafics autorisant ainsi la création de réseaux privés
virtuels directement à partir du réseau et non plus seulement sur la base de techniques de tunnels. Il
s'agit ici d'intégrer dans le service IP les vertus des technologies relais de trame ou ATM qui
travaillent en mode connecté.
D’où l’utilisation du protocole MPLS (Multi Protocol Label Switching), une solution efficace à la
gestion de la qualité de service ou QoS (Quality of Service) dans un réseau, et à évoluer ce réseau
en intégrant la solution IP/MPLS.
Un tout autre problème se repose aussi à la mobilité de l’usager. La mobilité dans l’Internet est
considérée comme le changement du point d’attachement d’un terminal mobile, lors de ses
déplacements, en passant d’un réseau local à un autre. Grâce à l’architecture IP/MPLS, le protocole
Mobile IP sera en mesure de gérer le Handover tandis que MPLS va optimiser les échanges de
données dans le réseau.
51
3.2 La qualité de service
La qualité de service ou QoS (Quality of service) est la capacité de transmission dans de bonnes
conditions un certain nombre de paquet dans une connexion entre un émetteur et un récepteur, et
cela peut être présenté sous plusieurs termes tel que la disponibilité, débit, délais de transmission,
les taux de perte de paquets…
Elle regroupe un ensemble de technologies mise en œuvre pour assurer des débits suffisants et
constants sur tous les types de réseaux.
Le but de la QoS est donc d’optimiser les ressources du réseau et de garantir de bonnes performances
aux applications. La qualité de service sur les réseaux permet d’offrir aux utilisateurs des débits et
des temps de réponse différenciés par application suivant les protocoles mis en œuvre au niveau de
la couche réseau.
Elle permet ainsi aux fournisseurs de services de s’engager formellement auprès de leurs clients sur
les caractéristiques de transport des données applicatives sur leurs infrastructures IP.
Une séquence de paquets envoyés d'une source vers une destination est appelée un flux.
Les besoins qualitatives d'un flux peuvent être caractérisés par quatre paramètres : le débit de
transmission de donnée (Throughput), la bande passante (Bandwidth), le délai d'acheminement
(Delay), la variation du délai ou gigue (Jitter) et la perte de paquet (Packet loss). [8]
Aujourd'hui le protocole IP tend à s'imposer dans la plupart des infrastructures réseaux, que ce soit
dans les réseaux locaux des entreprises, l'Internet bien sûr qui l'a vu naître, mais aussi les Backbones
des providers. D’un autre côté, les applications multimédia ayant des exigences spécifiques en
termes de QoS sont fournies par le réseau Internet où certains services comme les services vocaux
ont besoin d'un faible délai point à point et d'une faible gigue. D'autres, comme les trafics de
données, nécessitent de faibles taux de perte ou d'erreurs sans retransmission avec éventuellement
une certaine garantie de bande passante pour le trafic de données transactionnel.
Pour pouvoir garantir la QoS des flux transportés, il va donc falloir utiliser des mécanismes
permettant de traiter de manière différenciée les différentes catégories de trafic, ainsi que des
protocoles de signalisation de la QoS pour pouvoir allouer des ressources en fonction des besoins
des applications.
52
On peut distinguer deux grandes problématiques pour la gestion de la QoS dans un réseau IP : celle
de la gestion des phénomènes de congestion et celui de l’ordonnancement de trafic.
Il s’agit un point fondamental pour garantir la QoS des flux. En effet, le routage IP se base sur
l’utilisation du chemin le plus court pour les échanges de donnée dans le réseau. La congestion peut
être due à la surcharge de ce chemin. La gestion de la QoS dans les réseaux IP suppose un ensemble
de traitements différenciés, réalisés soit au niveau de la source de trafic (terminal émetteur) soit dans
les organes du réseau. On peut distinguer les mécanismes suivants :
Le traffic shaping (mise en forme du trafic)
Qui consiste principalement à introduire du délai entre les émissions de paquets de manière à éviter
ou limiter les rafales de paquets. Le shaper fournit au réseau une description simple du trafic.
Le traffic policing (contrôle du trafic)
Le traffic policing est une opération qui consiste à vérifier que le trafic émis est bien conforme à la
description qui en a été faite par la source.
Le mécanisme de buffer management (gestion de tampon)
Cette étape consiste à éliminer des paquets en cas de congestion du tampon d’une interface de sortie
de manière sélective, en fonction des paramètres de QoS associés aux flux.
Appelé aussi « traffic scheduling », ce mécanisme consiste à ordonner la transmission des paquets
présents dans les tampons de l’interface de sortie en fonction des paramètres de QoS associés aux
flux.
Ceci est évident si on considère des flux hétérogènes : les rafales de certaines connexions peuvent
perturber le trafic temps réel même s’il n’y a pas congestion. Ainsi, bien que la mise en œuvre
d’ordonnancements autres que FIFO (First in, First out) ou Premier Entré-Premier Sorti, soit
difficile sur des routeurs à très haut débit.
Ces différents mécanismes de contrôle de congestion et d’ordonnancement des paquets sont présents
dans toutes les architectures développées pour le contrôle de la QoS dans les réseaux IP.
53
3.2.2.3 L’intégration de service ou IntServ
Historiquement, la première architecture qui a été proposée associe, comme ATM, une QoS à
chaque flux que le réseau transporte. Il s’agit du modèle IntServ (Integrated Services : Service
intégré). Le modèle IntServ permet de faire une réservation de ressources pour chaque flux circulant
sur les réseaux en utilisant le protocole RSVP (Ressource Reservation Protocole).
a.Principe de l’IntServ
La première proposition d’architecture Internet avec support pour la QoS a été faite par l’IETF avec
le modèle IIS (Internet Integrated Services) ou IntServ. L’IntServ consiste à réserver les ressources
nécessaires au niveau de tous les nœuds du réseau avant de faire transiter les flux. Cette approche
repose sur l’utilisation du protocole RSVP (ressource réservation Protocol) qui induit alors une
couche de contrôle d’admission supplémentaire pour s’assurer que la bande passante requise est
bien disponible à un instant t.
IntServ définit deux types de services:
Guaranteed Service (GS) :
Le GS garantit la bande passante et un délai d'acheminement limité (Audio, Vidéo) mais pas de
gestion de la gigue.
GS utilise des limites supérieures sur les délais d’attente de chaque flux pour fournir une QoS dite
dure (limite en termes de délai d’attente dans un routeur) en réservant la bande-passante et la
mémoire nécessaires. Ce service est prévu pour les applications temps-réel comme la voix.
Controlled Load (CL) :
CL simule un réseau peu chargé lors de la congestion du réseau grâce à un multiplexage statistique.
Il fournit de faibles taux de pertes et de faibles délais, mais reste qualitatif. De ce fait, ce service
peut se dégrader et est équivalent à un service Best Effort si le réseau est très chargé. Il convient à
des applications adaptatives.
Pour un traitement des paquets avec QoS, les routeurs disposent de 4 fonctions:
Le contrôle d’admission
Il contrôle l’arrivé des nouveaux flots de donnée muni de leurs paramètre de QoS de sorte qu’ils ne
perturbent pas la QoS des autres flots existants.
54
Classification des paquets
Les routeurs intègrent des classificateurs de paquets des flots en classe spécifique (GS, CL).
Ordonnancement des paquets qui détermine l’ordre de service des paquets.
La réservation des ressources
Utilise le protocole RSVP (ReSsource reserVation Protocol) pour la réservation des ressources.
Le RSVP va mettre en place une session entre les deux communicants. L’émetteur spécifie son
besoin en QoS dans un message « PATH » qu’il envoi à la destination par l’intermédiaire du
protocole RSVP. Ainsi plusieurs message de signalisation vont être échangés jusqu’à ce la
réservation soit réussie. En, cas de réussite, plusieurs messages doivent aussi être échangés pour
maintenir la réservation de ressource.
Par conséquent, une architecture telle qu’IntServ/RSVP qui requiert le maintien des états par flot
pose certains problèmes pour le "passage à l'échelle". Une augmentation très importante du nombre
de flots à gérer se traduit par un accroissement de la charge de traitement qui peut devenir
insupportable. Cependant, le maintien des états n'est pas le seul problème. Il y a également celui dû
à la multiplication des classes qui génèrent des complexités au niveau ordonnancement. L'autre
problème aussi est le fait que les fonctions d’IntServ sont implémentées dans chaque routeur. Cela
peut ralentir les traitements et par exemple entraîner une baisse du débit.
A l’encontre de l’IntServ qui traite indépendamment leurs flux, le Diffserv propose de regrouper
ces flux en classe de trafic.
Certains bits de l’entête IP (TOS ou Type of Service pour l’IPv4 et Traffic Class pour l'IPv6) sont
utilisés pour associer au paquet une classe de service (champ de l’entête appelé DSCP ou Diffserv
Code Point), et une information indiquant si le paquet peut être éliminé en cas de congestion.
Tous les flux d'une même classe seront traités de la même manière dans le réseau dit traitement par
saut ou PHB (Per Hop Behaviour). Le PHB définit des classes de trafics et des services associés en
termes de ressource, de priorité relative par rapport à un autre PHB.
Deux PHB ont été défini :
L’Expedited Forwarding (RFC 2598)
Appelé aussi traitement accéléré, il assure une garantie de bande passante et des taux de perte
minimisé ou le délai et une gigue faible pour fournir un service « Premium».
55
L’Assured Forwarding (RFC 2597)
Diffserv n'utilise pas de mécanisme de réservation de ressources et offre aux flux de donnés une
QoS bien meilleure que celle du "Best effort" (IP normal).
Un domaine Diffserv est un ensemble de nœud appliquant une politique de QoS commune. Pour la
gestion de la QoS, les traitements des paquets sont effectués par l’« Edge Router» ou routeur de
bordure et du « Core Router» ou routeur cœur, qui sont tous des routeurs « Diffserv ».
a. Le routeur de bordure
Les routeurs de bordure sont les portes d’entrées obligatoires pour un flux de donnée pénétrant dans
le domaine Diffserv. Ils effectuent les traitements suivants :
Classifier
Ce mécanisme permet de déterminer leur classe de service grâce à l’entête du paquet (champ Type
de Service (ToS), adresse source et/ou destination, protocole, port) sur la base d’un contrat
(attribution de ressource tel que la bande, le débit, ou la priorité) avec l’opérateur.
Meter
Ce mécanisme mesure à la volée les caractéristiques des trafics de cette classe injectés par la source
(débits moyen et maximal, longueur maximale d’un stream au débit maximal, etc.). Si ces
caractéristiques dépassent le contrat passé avec l’opérateur, le Meter indique que le paquet est « out
profile » en positionnant le champ « in/out ». Cela signifie que par la suite ce paquet pourra être
traité en « best-effort » voire même supprimé en cas de congestion. Sinon le paquet est marqué « in
profile » que l’on ne détruit pas en cas de congestion.
Marker
C’est à ce niveau qu’est réalisée l’agrégation des flots en classes. Le Marker détermine le PHB (Per
Hop Behavior) du paquet, et en accord avec les informations transmises par le Meter, positionne le
champ DSCP (marquage de la classe). Il est important de noter que cela n’est pas fait par le
classifier, car un même flot suivant les conditions de trafic peut être marqué différemment.
Shaper
Le Shaper permet de réguler les flots suivant les caractéristiques de leur classe, par exemple leur
débit selon leur classe.
56
Dropper ou Policer
Ce mécanisme permet les détruire ou de déclasser en cas de congestion (s’ils sont marqués « out
profile »). L’opération de déclassement n’est possible que dans les routeurs de bordure.
Si les paquets ne sont pas conformes, ils peuvent être jetés ou déclassés dès l’entrée du domaine
Diffserv (dans le cœur du réseau, les paquets ne pourront plus être déclassés).
b. Le routeur Coeur
La différenciation de service se fait au niveau des deux mécanismes cruciaux du modèle Diffserv:
« le scheduling » et « le buffer management ». Les routeurs du cœur de réseau réalisent donc des
opérations simples de « bufferization » et de routage des paquets en se basant uniquement sur le
marquage effectué par les routeurs situés en bordure de domaine Diffserv.
Gestion de tampon ou Buffer Management
L’une des algorithmes utilisés est le WRED (Weighted Random Early Discard). On a ainsi des
éliminations de paquets sélectives en fonction de la classe de trafic. La configuration de ces
algorithmes est toutefois relativement délicate.
Ordonnancement
Plusieurs politiques d’ordonnancement peuvent être utilisées : WFQ (Weighted Fair Queuing),
WRR (Weighted Round Robin), PQ (Priority Queuing) ou priorités fixes.
A l’heure actuelle, il semblerait que les opérateurs s’orientent vers une combinaison de ces
politiques avec une priorité fixe pour le trafic temps réel et un ordonnancement WFQ pour les autres
classes. C’est le champ DSCP (classe de service) dans l’entête des paquets qui permet de les affecter
à une file d’ordonnancement particulière. [10]
Afin de contrôler les services offerts par le réseau, en fonction de la demande des utilisateurs, deux
types d'ingénierie se distinguent: l’ingénierie de réseau et l'ingénierie de trafic.
L'ingénierie de réseau consiste à adapter la topologie du réseau au trafic, en se basant sur des
prédictions sur le trafic, elle installe ou modifie la topologie du réseau (ajout de liens, routeurs, etc..)
pour offrir une transmission de donnée avec QoS. L'ingénierie de réseau s'effectue sur une longue
échelle de temps (mois/année), le temps nécessaire pour l'installation de nouveaux équipements ou
circuits. C’est tout à fait dans le cas du réseau 4G : le basculement vers le « tout-IP ».
57
Par ailleurs, l'ingénierie de trafic consiste à adapter le trafic à la topologie du réseau. L'expression
"Ingénierie de trafic" désigne l'ensemble des mécanismes de contrôle de l'acheminement du trafic
dans le réseau afin d'optimiser l'utilisation des ressources et de limiter les risques de congestion.
Avec l’augmentation du débit des liens de communication et du nombre de routeur dans l’Internet,
l’IETF a défini le nouveau protocole MPLS (Multi Protocol Label Switching : commutation de label
multi-protocole) pour faire face au goulot d’étranglement induit par la complexité de la fonction du
routage IP.
La technologie MPLS consiste à aiguiller des paquets non plus en fonction de leur adresse IP de
destination, mais en fonction d'un label inséré entre l'entête de niveau 2 du modèle OSI et l'entête
IP. Ainsi, on dit souvent de MPLS qu'il est un protocole de niveau 2,5. Le protocole MPLS basé sur
le paradigme de la commutation de label dérive directement de l’expérience acquise avec ATM
(Asynchronous Transfer Mode) sur les étiquettes VPI et VCI (Virtual Path Identifier et Virtual
Channel Identifier). [9] [10]
L’architecture MPLS est basé sur :
Le plan de contrôle
Il se charge de l’information de routage et de l’étiquette entre les nœuds adjacents. Il utilise les
protocoles OSPF (Open Shortest Path First) et IS-IS pour distribuer au nœud les informations sur
la capacité et les charges des différents liens du réseau. Ceci est utile dans la redirection du LSP
vers un autre chemin moins chargé dans le concept d’ingénierie de trafic.
Le plan de donnée
Il se charge de la transmission des paquets en utilisant les « Label ».
58
Cette partition va définir des classes d’équivalence. Ainsi, la notion de Classe d’Equivalence pour
l’Acheminement (Forwarding Equivalence Class ou FEC) correspond à chaque classe résultante
d’une partition du trafic en ce qui concerne l’acheminement, et implique que tous les paquets
appartenant à une même classe seront traités, au niveau de l’acheminement, de façon identique.
59
Une fois le LSP mis en place, les paquets IP arrivant dans un LER peuvent être étiquetés par l’en-
tête MPLS (le label) et être commutés jusqu’au LER de sortie.
A l’entrée du cœur de réseau, les LER (Ingress) vont marquer les paquets avec un label avant de les
propager. Le choix de ce label provient directement des informations de routage contenues dans ce
routeur. Pour cela, MPLS se sert de la FEC qui contient des tables de correspondance dont les clés
sont des éléments du paquet : adresses IP ou adresses MAC, classe de service ou application (port),
etc... .
Une fois le label distribué, le routeur LER encapsule le paquet IP dans un paquet MPLS avec un
nouvel en-tête composé principalement de ce label. Après avoir appris les informations des LDP,
les LSR construisent 2 tables : LIB (Label Information Base), contenant tous les labels appris des
LSR voisins, et FIB (Forwarding IP Base) pour la commutation proprement dite.
La propagation se fait alors par commutation de labels utilisant ces tables.
Le dernier nœud le long du LSP (Egress) va retirer l’en-tête MPLS du paquet et le propager ensuite
en IP. [9] [11] [12]
60
3.3.3.2 Apport du MPLS dans la QoS
MPLS a résolu le problème de congestion du réseau dû à la sous exploitation des liens dans le
réseau, de permettre un routage particulier pour chacun des LSP et donc d’associer un chemin à
chaque groupe de flots considéré. La granularité du choix des routes est donc améliorée permettant
ainsi une meilleure gestion de la QoS et surtout une ingénierie de trafic plus aisée.
Mais les avantages de MPLS ne s’arrêtent pas à ces améliorations. Il permet aussi un grand nombre
de fonctionnalités très poussées :
Une intégration IP/ATM
En effet, si la couche 2 est gérée par le protocole ATM (ou Frame Relay), MPLS permet l’utilisation
de l’en-tête de couche 2. Cela évite l’ajout d’un en-tête supplémentaire et permet donc de diminuer
la taille des données de signalisation.
La flexibilité :
MPLS permet l’utilisation de n’importe quelle couche 2 car ce protocole vient se placer entre la
couche réseau et la couche de transmission de données. L’ajout d’une couche supplémentaire permet
de coexister avec l’ensemble des protocoles existants (surtout pour la couche 2). De plus, il est
possible de d´employer un réseau IP/MPLS sur des infrastructures sous-jacentes hétérogènes
(Ethernet, ATM, SDH, WDM, etc. . .).
Approche DiffServ :
L’architecture d’un cœur de réseau IP/MPLS formé de LER aux frontières et de LSR dans le cœur
est identique à celle retenue dans DiffServ nécessitant des fonctionnalités différentes aux frontières
et dans le cœur. De plus, l’association des trafics aux FEC permet et facilite l’affectation des
différentes classes de trafics aux files d’attente dédiées.
L’ingénierie de trafic :
MPLS est souvent associé à l’ingénierie de trafic (Traffic Engineering : TE) car MPLS-TE se base
sur la redirection du trafic vers des liens peu ou pas utilisé par l’intermédiaire des tunnels LSP. [12]
[13]
61
3.4 Rappel sur la mobilité IP
IPv4 ou Internet Protocol version 4 est un protocole défini dans la RFC 791 qui permet l’adressage
de tous les nœuds du réseau et le routage des paquets de données. Il correspond à la couche 3 (réseau)
du modèle de référence OSI, son rôle est d’établir des communications sans connexion de bout en
bout entre des réseaux, de délivrer des trames de données (datagram) « au mieux » (best effort),
c’est-à-dire, ne garantit aucun qualité de service.
Il utilise une adresse IP sur 32 bits, c'est-à-dire que 4 294 967 296 adresses sont possibles, et utilise
le protocole DHCP qui supporte la fonction d'auto-configuration d'adresses pour les terminaux et le
protocole NAT (Network Address Translation – NAT) qui permet de résoudre la pénurie d'adresses
IP mais surcharge les tables de routage.
L’adressage IP permet donc d’identifier de façon unique chaque nœud connecté à un réseau, et grâce
à cette adresse, les paquets de données pourront être acheminés vers leur destination prévue. En
effet, un routeur contient une table de routage IP résumant l’information de routage et la liste des
adresses connues localement afin d’associer une interface de sortie à toutes les destinations. C’est-
à-dire qu’une entrée de cette table associe une destination au prochain routeur vers lequel le flot doit
se diriger (Next Hop).
Le routage IP effectue une détermination des chemins optimaux de routage, et envoi les paquets IP
à travers le réseau en utilisant le protocole OSPF (Open Shortest Path First) défini dans la RFC2328.
IPv4 ne peut pas répondre aux besoins engendrés par la croissance très forte d'Internet, ni aux
besoins induits par de nouvelles applications. Le routage IP n’offre non plus aucun service garanti,
il ne fait qu’acheminer les paquets de données sans prendre compte des QoS (Best Effort).
Les limitations d'IPv4, surtout la pénurie des adresses IPv4, conduit à la transition d'IPv4 vers IPv6
défini dans la RFC 2460 qui a été conçu dans la continuité d'esprit d'IPv4, sans réelle rupture
technologique. La caractéristique la plus importante d'IPv6 est qu'il supporte des adresses plus
longues qu'en IPv4. L'augmentation de la taille des adresses conduit à une taille d'en-tête de 40
octets pour le paquet IPv6.
En outre, le format d'en-tête IPv6 est amélioré pour permettre aux routeurs de meilleures
performances dans leurs traitements de paquets. [17]
62
3.4.2 Le concept de la mobilité IP
Le terme de mobilité peut être défini comme la capacité d’accéder à l’ensemble des services du
réseau tout en se déplaçant et quelle que soit la localisation.
Le réseau 4G a pour but de rendre le passage entre les réseaux transparent pour l’utilisateur, éviter
l’interruption des services durant le transfert intercellulaire. L’utilisation du « tout-IP » implique
donc une part de responsabilité à la mobilité IP sur le mécanisme du Handover.
Le protocole Mobile IP est l’amélioration de protocole IP pour la prise en charge de la mobilité des
terminaux entre les différents domaines, a été introduite par l’organisme de standardisation IETF1()
qui s’est principalement penché sur la gestion des déplacements d’un terminal mobile sur le réseau
Internet, c'est-à-dire du passage d’un réseau local à un autre réseau local.
Le problème de la mobilité peut se décomposer en deux sous-problèmes distincts:
La localisation (ou joignabilité) :
L’équipement mobile doit avoir une adresse qui lui permet d’être joignable quel que soit sa
localisation dans la topologie Internet.
63
Figure 3.01 : Le concept du Mobile IP
Cette figure montre le déplacement du mobile communiquant avec son correspondant d’un point
d’accès à un autre.
Le concept du mobile IP propose d’attribué 2 types d’adresses à un nœud mobile ou MN (Mobile
Node) : l’HoA (Home Address) enregistrer à son agent mère HA (Home Agent) qui est une adresse
qui permet de l’identifier de façon permanente. L’autre adresse CoA (Care of Address) s’agit d’une
adresse temporaire, soit celle de l’agent visité FA (Foreign Agent), soit une adresse attribué à lui-
même et qui permet ainsi de le localiser dans son nouveau réseau (zone de routage).
Le mécanisme est donc d’attribué une CoA au MN qu’il pourra utiliser dans le réseau. Lorsque le
MN obtient son CoA, il s’enregistre auprès de son HA. Après cet enregistrement, les paquets qui
sont destinés à l’adresse d’origine du MN seront tous intercepter par le HA et les diriges vers le
CoA. Dans ce cas, la session du MN n’a pas été coupée ainsi que les services ne sont pas
interrompus.
Mobile IPv4 (MIPv4) a fait l’objet de la RCF 3344, et a été développé comme protocole de gestion
de la mobilité au niveau L3 d’un terminal mobile. Il établit 2 fonctions d’adressage IP pour
l’identification et la localisation du mobile.
64
Le but de fournir un service Internet sans discontinuité et un maintien des sessions actives lors d’un
changement de points d’attachement au réseau (changement de routeurs d’accès). Le MIPv4 suit
exactement les mécanismes du concept de la mobilité décrite ci-dessus et les réparties en 4 étapes :
Détection de mouvement
Pendant le déplacement du MN, le HA et le FA annoncent la disponibilité du FA auquel il peut s’y
attacher.
Configuration de l’adresse CoA
Soit le MN utilise l’adresse de FA soit il est configuré automatiquement par un DHCP.
Enregistrement
Après avoir eu son adresse temporaire, le MN s’authentifie à son HA et enregistre son CoA.
Tunneling
Le HA redirige ensuite les paquets destinés au MN via un tunnel vers le FA.
La conception du protocole Mobile IPv6 (MIPv6) présenté dans la RFC 3775 résout un certain
nombre de problèmes qu'avaient à résoudre le support MIPv4. C’est surtout le problème del’IPv4
qui a limité la performance du MIPv4.
L’infrastructure est semblable mais dans le MIPv6, il n’y a plus d’agent visité ou FA. L’attribution
de l’adresse temporaire se fait directement au niveau des routeurs d’accès du MN qui permet d’éviter
le routage triangulaire entre MN-FA-HA qui réduit par conséquent la transmission des paquets.
Ainsi, lorsque le MN se trouve sur un réseau visité, il peut communiquer directement avec le CN
sans passer par le HA (voie montante). Plusieurs messages de signalisation s’échangent par contre
dans le MIPv6 qui ralentit la phase du Handover. [11] [14] [15]
Le but de l'utilisation de l’IP/MPLS sur LTE est de réutiliser une grande partie des technologies 2G
et 3G, du domaine paquet, qui permet une utilisation plus efficace des ressources réseaux existantes
en adaptant le routage aux trafics supportés par le réseau. L’optimisation du routage permet une
amélioration globale des performances, en particulier pour les réseaux ayant une distribution de
trafic non uniforme. Il est cependant bien connu que, à cause du principe même du routage dans ces
réseaux, l’ingénierie de trafic dans les réseaux IP est un problème complexe à résoudre.
65
La proposition de l’IPv6/MPLS peut donner un routage IP avancé d'ingénierie de trafic, grâce
notamment aux caractéristiques du protocole MPLS, en veillant à ce que le trafic est correctement
hiérarchisé selon ses caractéristiques (voix, données, vidéo, etc.) et les routes à travers le réseau sont
mises en place pour prévenir les défaillances de lien.
On a adopté dans cette topologie le protocole FHMIPv6 ou Fast Handover Mobile IPv6, qui est une
extension de MIPv6. Le but est de réduire le délai du handover en comblant les lacunes de MIPv6
du délai de procédure lent et à une légère perte de paquets qui ne peut pas répondre à certaines
applications exigeantes en QoS.
Avec cette topologie, l’utilisation du routeur NAR (New Access Router) ou nouveau routeur d’accès
et PAR (Previous Access Router) routeur d’accès précédent permet d’anticiper le Handover.
L’entité MAP (Mobility Anchor Point) ou contrôleur de domaine réseau est nécessaire pour la
contrôle des routeurs NAR et PAR afin de réduire le temps du Handover. Les nœuds MPLS (LSR
et LER) sont pour la gestion de QoS. [16]
66
3.5.2 Traitement du Handover
HI (Handover Initiate) :
Ce message est envoyé par le PAR au NAR pour le handover du MN.
HAck (Handover Acknowledge) :
Ce message d’acquittement du handover est envoyé par le NAR au PAR à travers le MAP pour
répondre au message HI.
67
3.5.2.2 Le processus de traitement de l’Handover
L’enregistrement
Pour établir un Handover plus rapide, le MN envoie tout de suite un message FBU au MAP.
Ce message a pour objet de permettre au MAP de lier l'adresse temporaire précédente PLCoA à la
nouvelle adresse temporaire NLCoA et de rediriger les paquets destinés à l'adresse temporaire
PLCoA à sa nouvelle adresse temporaire NLCoA.
Cependant, le MAP doit assurer la possibilité d'utilisation de la nouvelle adresse temporaire NLCoA
pour le MN dans le nouveau réseau avant d'envoyer la réponse FBAck au MN. Il envoie donc le
message HI (Handover Initiate) contenant l'adresse MAC, l'adresse PLCoA et l'adresse NLCoA du
MN au NAR pour la demande de procédé du Handover. Le NAR approuve l'utilisation de cette
adresse NLCoA en envoyant le message HAck au MAP. A la réception du message HAck, le MAP
envoie le message FBAck au MN et au NAR pour répondre au message FBU pour indiquer la
création d'un tunnel entre le NAR et le PAR.
68
Le MN envoie ensuite un message FNA (Fast Neighbor Advertisement) son NAR pour prévenir son
attachement sur ce réseau.
En même temps, le MN envoie un message LBU (Local Binding Update) au MAP pour créer une
association entre son adresse RCoA et son adresse NLCoA. Quand le MAP envoie le message LBA
(Local Binding Acknowledgement) au MN, cela signifie que la phase de « binding update » ou
enregistrement avec le MAP est réussie. Ensuite, le MN effectue la phase de « binding update »
avec le HA en utilisant son adresse RCoA. Le HA mettent à jour leurs binding caches avec l'adresse
RCoA et envoient les paquets vers l'adresse RCoA du MN. Les paquets du CN sont envoyés à
l'adresse RCoA du MN, le MAP intercepte ensuite ces paquets, les encapsule et les retransmet à
l'adresse LCoA du MN en traversant le tunnel.
L’idée est de profité les avantages du MPLS dans la gestion de la QoS comme son intégration avec
Diffserv, l’ingénierie de trafic, …
En effet, les limitations du routage IP sont principalement sur les garanties de QoS difficiles à
fournir, l’optimisation de l’utilisation des ressources limitées, et les tables de routage conséquentes
pouvant conduire à un temps de consultation parfois trop long.
Plusieurs scenarios peuvent exister dans un réseau de télécommunication. On peut envisager la
présence de plusieurs abonnés (MN) dans cette topologie, donc la gestion de déplacement du mobile
est attribuée au protocole de mobilité IP, tandis que les traitements des paquets, en tenant compte
du QoS sera la responsabilité du MPLS.
a. Concept du MPLS-TE
69
Plusieurs LSP peuvent exister entre deux LER, pour offrir des routes différentes correspondantes à
la qualité de service requise pour les flux et d’autre part de créer des LSP de secours en cas de panne
ou de surcharge sur les LSP initiaux.
Découverte de Ressources
La découverte et la gestion des ressources disponibles par chaque équipement réseau est l’étape
préalable à la diffusion aux entités concernées de l’état du réseau.
Cette découverte est réalisée automatiquement (pour des ressources configurées manuellement) ou
suite à la réception de messages des protocoles de contrôle.
Sélection de Route
Le terme calcul et sélection de route englobe les procédures, les algorithmes et les heuristiques
destinés au calcul d’une structure de données contenant la liste de routeurs entre deux éléments du
réseau et a pour but d’identifier les chemins constituants un groupe de LSP. Cette liste vérifie un
certain nombre de contraintes administratives et de qualité de service. Une heuristique pour le calcul
de routes largement utilisée est l’heuristique du «Plus Court Chemin Contraint» ou CSPF
(Constrained Shortest Path First).
Assignation du trafic
L’assignation de trafic est composée de deux fonctionnalités : la fonction de partition où le trafic à
transporter dans le réseau est divisé en classes d’équivalence FEC, et la fonction d’attribution qui
a son tour fait correspondre chaque classe d’équivalence un ou plusieurs chemins.
70
Le fait d’attribuer à une FEC un nombre arbitraire de LSP nous permet de mettre en place des
mécanismes de partage de charge.
Les mécanismes de protection et de restauration sont des mesures pour les pannes dans le réseau,
ou dans les éventuelles erreurs de transmission de donnée. Ces mécanismes sont caractérisés par :
Le FRR (Fast Re-Routing)
La sécurisation temporaire du chemin d’un tunnel protégé en cas de panne d’un lien ou d’un routeur
est faite par FRR. Le principe de FRR est de pré-instancier un LSP de secours sans réservation
physique de la bande passante, mais simplement avec la distribution de labels.
Lors de l’activation de ce LSP (suite à une panne), on effectue une réservation de bande passante
pour le trafic protégé de sorte que ce LSP ne bloque pas de ressource quand il est inactif. Ce
mécanisme FRR permet au réseau d’éviter la panne par des chemins de secours en attendant que le
LER d’entrée mette en place un LSP secondaire pour le tunnel.
La protection de chemin
Pour la protection du chemin, une fois l’information remontée à l’Ingress LER, le mécanisme de
protection de chemin peut alors être mis en place. Il consiste en le calcul d’un second LSP qui ne
passe par aucun des routeurs du LSP primaire.
71
3.5.3.2 MPLS-DiffServ:
L’intégration du modèle DiffServ dans un réseau MPLS est très simple puisqu’il suffit d’affecter un
label à un paquet en fonction de sa classe de service et de sa destination. MPLS est particulièrement
adapté au modèle DiffServ car en effet, on y retrouve la notion de routeurs de bordure et de routeurs
de cœur de réseau (Edge/Core router) ainsi que la notion d’agrégation de flots.
MPLS permet à l’administrateur réseau de spécifier comment les agrégats DiffServ (Behavior
Aggregates : BA) sont affectés aux LSP.
Quand les paquets arrivent à un Ingress du domaine MPLS, le champ DSCP est ajouté à l’entête qui
correspond au Behavior Aggregate (BA).
A chaque nœud traversé, c’est le DSCP qui va permettre de sélectionner le PHB (Per Hop Behavior),
qui définit le Scheduling (classe prioritaire, WFQ etc.) et les probabilités de rejet du paquet. Cette
correspondance entre les classes DiffServ et le PHB de MPLS offre de multiples possibilités à un
administrateur pour un cœur de réseau DiffServ/MPLS.
L’affectation de classes DiffServ à différents LSP permet aussi d’attribuer des mécanismes de
protection différents pour ces différentes classes de service.
Avant de formuler les techniques de routage des réseaux supportant le DS-TE, nous définissons
quelques concepts relatifs au traitement des flux :
FEC (Forwarding Equivalent Class)
Un groupe de paquets IP qui sont commutés de la même manière dans un domaine MPLS. (e.g. sur
le même chemin, avec le même traitement..),
72
PHB Scheduling class (PSC)
Un ensemble des PHB appliqués aux différentes Behaviour Aggregates du même Ordered
Agregate.
Par exemple, AF1x est un PSC comprenant les PHB de AF11, AF12 et AF13. De même, EF est un
PSC comprenant exclusivement le PHB de EF. En effet, MPLS permet à l'administrateur réseau de
spécifier comment les agrégats Diffserv sont affectés aux LSP. La question est de savoir comment
affecter un ensemble de BA au même LSP ou à des LSP différents. Quand les paquets arrivent à un
Ingress du domaine MPLS, le champ DSCP est ajouté à l'entête qui correspond au Behavior
Aggregate (BA). A chaque nœud traversé, le DSCP (DiffServ Code Point) permet de sélectionner
le PHB (Per Hop Behavior), qui défnit le Scheduling (classe prioritaire, WFQ, CBQ,...) et les
probabilités de rejet du paquet. Cette correspondance entre les classes Diffserv et le PHB de MPLS
offre de multiples possibilités à un administrateur pour un cœur de réseau Diffserv/MPLS.
L'affectation de classes Diffserv à différents LSP permet aussi d'attribuer des mécanismes de
protection différents pour ces différentes classes de service.
3.6 Conclusion
Grace à sa nature orientée connexion, MPLS offre un cadre architectural très prometteur pour
l’implémentation d’une ingénierie de trafic efficace dans le monde IP et, en particulier, pour le
partage de charge.
Le protocole mobilité FHMIPv6 est la solution actuelle pour résoudre les problèmes de rupture de
communication durant les déplacements des nœuds mobiles dans le réseau 4G. Ce protocole permet
donc aux nœuds mobiles de se déplacer de réseau en réseau sans interrompre leurs sessions en cours
tout en continuant leur communication, en minimisant des pertes de paquets qui peuvent avoir lieu.
D’un autre côté, son méthode concernant l’anticipation du Handover le permet de traiter rapidement
ce mécanisme et stabilise quelque paramètre de QoS tel que la gigue et surtout le débit de
transmission de donnée. Par conséquent, le routage IP ne satisfait pas vraiment la qualité de service
espéré d’où l’intervention de l’MPLS. En, effet l’IP/MPLS existait déjà dans le cœur des réseaux
de générations antérieur (3G) mais dans notre cas, les caractéristique du protocole MPLS lui rend
indispensable en termes d’optimisation de la QoS surtout dans un réseau à grande échelle.
Nous verrons par la suite en utilisant le simulateur NS-2 la performance de l’IP/MPLS en suivant
exactement la procédure de routage optimisé par MPLS.
73
CHAPITRE 4
EVALUATION DE PERFORMANCE DU FHMIPv6/MPLS
4.1 Introduction
Les réseaux informatique connaissent une expansion importante grâce à plusieurs moyens qui ont
pu se développer au cours du temps, donc il est couteux de déployer un banc d’essai complet
contenant plusieurs ordinateurs, des routeurs et des liaisons de données pour valider et vérifier un
protocole de réseau ou un certain algorithme spécifique. C’est pour cela que les simulateurs de
réseaux sont utilisés.
Les simulateurs du réseau offrent beaucoup d’économie, de temps et d’argent pour
l’accomplissement des tâches de simulation et sont également utilisés pour que les concepteurs des
réseaux puissent tester les nouveaux protocoles ou modifier les protocoles déjà existants d’une
manière contrôlée et productrice.
La problématique étudiée dans ce mémoire étant la simulation des performances des réseaux 4G, et
en particulier les paramètres de la QoS. Nous présentons dans ce qui suit d’abords le simulateur NS-
2 (Network Simulation), puis le déroulement des étapes de simulation que nous avons menée dans
ce travail de fin d’études qui consiste à simuler quelques critères de QoS. Notre intérêt est d’évaluer
les paramètres qui influencent sur les performances globales du cœur du réseau 4G.
NS-2 est un simulateur de réseau à évènement discrets orienté objet. Il est gratuit et mis à jour
régulièrement et tourne sur plusieurs distributions d’UNIX et MS Windows.
Le simulateur NS actuel est particulièrement bien adapté aux réseaux à commutation de paquets et
à la réalisation de simulations de petite taille. Il contient les fonctionnalités nécessaires à l'étude des
algorithmes de routage, de contrôle de congestion, des protocoles de transport, de session, de
réservation, des services intégrés, et la mobilité.
NS2 développé en C++ fait partie du projet VINT (Virtual InterNetwork Tested) qui est un effort
commun mené par l’Université de Berkeley, l’USC/ISI (University of Southern California's
Information Sciences Institute), le LBL (Lawrence Berkeley national Laboratory).
Il est supporté par le DARPA (Defense Advanced Research Projects Agency).
74
Il utilise comme interface utilisateur un interpréteur dérivé de TCL (Tool Comand Linux), l’OTCL,
pour la description des conditions de simulation sous forme de scripts. Dans ce script, l’utilisateur
fournit la topologie de réseau, les caractéristiques des liens physiques, les protocoles utilisés, le type
de trafic généré par les sources, les événements, ...
Tcl est un langage de commande comme le shell UNIX mais qui sert à contrôler les applications.
Son nom signifie : « Tool Command Language ». Tcl offre des structures de programmation telles
que les boucles, les procédures ou les notions de variables. Il y a deux principales façons de se servir
de Tcl: comme un langage autonome interprété ou comme une interface applicative d'un programme
classique écrit en C ou C++. En pratique, l'interpréteur Tcl se présente sous la forme d'une
bibliothèque de procédures C qui peut être facilement incorporée dans une application. Cette
application peut alors utiliser les fonctions standards du langage Tcl mais également ajouter des
commandes à l'interpréteur.
Le script écrit en OTCL permet une utilisation (édition, modification des simulations) facile du
simulateur, les routines sont, elles, écrites en C++ pour avoir une plus grande puissance de calcul.
Le résultat d’une simulation est un fichier texte appelé aussi fichier trace, qu’on génère, et contenant
tous les événements de la simulation (le mouvement des nœuds, les pannes dans le réseau, l’envoie,
la réception et la perte de paquets de donnée). Le traitement ultérieur de ce fichier nous permet d’en
soustraire des informations utiles à l’évaluation des aspects réseaux que l’on va étudier, interpréter,
analyser, et en tirer une conclusion.
Par ailleurs, le simulateur permet la création d’un fichier d’animation permettant de visualiser la
simulation sur une interface graphique appelée NAM (Network Animation Monitor).
Un grand nombre de classes est prédéfini. Ces classes mettent en œuvre plusieurs types de
protocoles, de files d’attente, de sources et des algorithmes de routage.
75
Le simulateur possède déjà donc une palette de systèmes de transmission (couche 1 de l'architecture
TCP/IP), d'ordonnanceurs et de politiques de gestion de files d'attente pour effectuer des études de
contrôle de congestion à voir par exemple TCP et UDP pour le transport de donnée, RED et
DropTail pour la gestion de file d'attente, CBQ, SFQ, DRR, Fair queueing pour les disciplines de
service.
On a utilisé « ns-2.31 », version 2.31 et l’extension FHMIPv6-2.31, un patch qui inclus les nœuds
comme l’agent mère (HA), le MAP, et les routeurs d’accès pour le Handover.
Cet outil permet de visualiser les trafics circulants dans la topologie qu’on a écrite en TCL.
Tous les évènements de la simulation tel que le temps d’envoi, de réception, la taille d’un paquet
sont enregistrés dans un fichier trace. Donc pour extraire ces informations, qui sont utilisés pour
avoir des résultats sur le débit, la latence, les pertes de paquets, on va créer un script afin de tracer
les résultats sur une courbe.
76
Figure 4.03 : Extrait d’un fichier trace
77
4.3.1.4 L’outil NS-2 Visual Trace Analyzer
Cet outil nécessite à récupérer les données dans le fichier trace pour ensuite les traduire en
statistiques utilisées au tracé d’un courbe.
On va essayer de d’analyser les paramètres de QoS (débit, latence, gigue, perte de paquet) en
utilisant différentes topologie de réseau IP/MPLS. L'objectif de cette simulation avec différents
scénarios est d'analyser les paramètres de QoS dans l’intégration FHMIPv6/MPLS avec des trafics
de différent critère de QoS.
78
4.5 Réalisation du programme
La première étape consiste à écrire dans un script utilisant le langage Tcl le code permettant de
mettre en place la topologie du réseau, ensuite on obtient un fichier trace concernant tous les
évènements qui s’est déroulé au cours de la simulation.
Il existe donc 2 grandes paramètres de configuration : les nœuds FHMIPv6 et les nœuds MPLS.
Il faut utiliser un adressage hiérarchique dans le simulateur NS-2. En effet, on n’utilise pas
proprement dit un vrai adresse IPv6 mais la fonctionnalité des nœuds, du protocole de mobilité le
simule. Cet adressage hiérarchique est de type [X.X.X] et permet de localiser les nœuds par 3
niveaux : son domaine, son sous-domaine et son adresse unique.
Ensuite, mettre en place les nœuds du protocole de mobilité. Le niveau du MAP doit être supérieur
à ceux des PAR et NAR dans la hiérarchie. Il est toujours préférable d’installé le MAP près des 2
routeurs d’accès.
On choisit le mode de distribution de label, ce mode prend en charge des calculs de ressource, des
chemins possibles, puis attribue le LSP à chaque FEC.
La topologie suivante sur la figure 4.05 est la plus simple mais nous permet d’étudier la performance
maximale du réseau car, d’abords, les nombres de nœuds (8 nœuds avec 1 seul mobile) facilite les
traitements de donnée et ce seul nœud mobile ainsi que le réseau lui-même ont à ses dispositions le
maximum de ressource.
79
Les configurations des liens sont les suivantes :
Initialement, le MN est située dans le zone du HA, 1 secondes après le début de la simulation, le
MN se déplace vers la zone PAR à 100 m/s.
A t = 4s, le CN commence à envoyer de trafic CBR à la MN suivant la route :
CN → LSR2 → HA → LSR2 → MAP → LSR3 → PAR ))) MN.
On utilise le CBR ou Constant Bit Rate, application qui peut simuler un service vidéo ou audio en
temps réel et demande un QoS important.
Puis, à t = 6 s, le MN met en mouvement vers la zone NAR à 10 m/s.
La figure 4.02 ci-dessous montre une topologie simple qui va permettre de montrer la QoS maximale
du réseau intégrant FHMIPv6/MPLS.
80
Ici, les routeurs MPLS sont utilisés pour priorisé les messages de mobilités du protocole mobile IP
pour éviter de les retardés dans une file d’attente.
Dès que le MAP reçoit le message Hack ou « Handover acknowledge », MN reçoit ces paquets du
routeur NAR (aux alentours de l’instant t = 10s, figure 4.06). Plusieurs paquets destiné au PAR
seront tout de suite redirigé vers NAR par le MAP (tunneling).
Les résultats des mesures sur le paramètre de QoS sont les suivantes :
On a généré des paquets de 512 bit, juste après l’arrivée du MN au PAR. Le démarrage lent du TCP
entraine une variation de délai au début de la transmission. Au cours de la simulation, cette variation
du délai de transit dépend du nombre de routeurs traversés et de la charge de chaque routeur traversé
donc il est normal qu’elle soit petite.
En effet, le délai de transit est un peu long qui est ralentie par le délai de bout-en-bout entre le
routeur LSR2 et le MAP qui dure 50 ms. Cette valeur a été choisie pour limiter les paquets à
redirectionner au cours du Handover, par conséquent, la gigue sera minimisée.
Le débit de transmission est satisfaisant car il est proportionnel à la taille du paquet.
81
La perte de 0% est obtenue par le fonctionnement sans perturbation du mécanisme du Handover du
protocole FHMIPv6. D’un autre côté, on a défini une classe de service privilégié au message de
Handover du FHMIPv6 que le protocole MPLS va priorisé durant toute la simulation.
L’un des problèmes du protocole FHMIPv6 est la dépendance du routage avec le MAP où si ce
dernier tombe en panne, l’acheminement des paquets sera compromis. Par conséquent, on va
proposer d’ajouté des routeurs MPLS contournant le MAP pour réduire son charge. Ainsi, le MAP
n’effectue que son tache d’attente de signalisation sur la mobilité et l’acheminement des paquets
vers le routeur d’accès indiqué.
Dans la figure 4.07, on peut voir que les acquittements TCP ne circulent pas dans le MAP, le coût
du trajet est le même mais grâce à MPLS, le but est de réduire la charge du MAP d’où l’explication
de la sélection du LSP.
82
Nous allons voir maintenant le résultat obtenu
Le débit de transmission
Durant la période du Handover, les paquets sont toujours générés vers une destination précise. Dès
que le MAP reçoit le message Hack plusieurs paquets destiné au PAR seront tout de suite redirigé
vers le NAR, et en même temps, le MN s’enregistre à son HA avec son nouveau CoA (NLCoA) ce
qui explique cette réduction de débit entre l’intervalle t= [7 ; 12].
Le délai de transit
83
Ici, d’abord une latence qui atteigne les 100 ms est remarquée au début de la génération du paquet,
dû forcément au démarrage lent du paquet de type TCP. Dans l’intervalle de temps t = [8,5 ; 9,5],
la latence augmente toujours à cause de la redirection de paquet. Par rapport à l’intervalle de temps
du changement du débit, la variation du délai est courte, c’est-à-dire que c’est entre cet intervalle de
temps que commence le « tunneling » par le biais du MAP et on peut remarquer encore que juste
après cette variation, le débit commence à augmenter.
La gigue :
84
Conversation IP entre 2 nœuds
On a simulé une conversation entre les 2 nœuds « Voice », le nœud numéro 6 et 12 dans la figure
4.07, utilisant encore le CBR où l’on peut voir les flux de couleur orange et vert suivant la route :
Voice →LSR 5→LSR 4→LSR9→LSR7→LSR11→Voice.
L’objectif ici est de montrer que malgré la redirection des paquets, ainsi que ses mécanismes pour
accomplir un Handover, cela n’affecte que peut la qualité de service des autres applications en cours
dans le réseau. On remarque peut la présence d’un fil d’attente, qui est du à la réservation des
ressources.
Déjà, on remarque que les liens dans le réseau sont bien exploités car les paquets de type TCP (en
bleu) utilise le chemin contournant le MAP alors que c’est le chemin le plus court. Le chemin
qu’empruntent ces paquets est attribué par le LSP dû à la réservation de ressource au routeur MAP
(routeur clé dans la mobilité) qui doit être moins utilisé pour minimiser son charge.
D’un autre côté pour la conversation « Voice », même si le chemin : LSR9→LSR8→LSR10 est
déjà utilisé, cette chemin est beaucoup plus large (paramétré à 100 Mb) et peut donc contenir
plusieurs trafics en même temps. LSP a choisi un autre chemin utilisant LSR7→LSR11 qui peut
être un gaspillage de ressource mais il permet de minimiser le taux de perte si une éventuelle panne
85
se présente et aussi de permettre au routeur de ne pas travailler au maximum, qui réduit le taux de
charge du chemin LSR9→LSR8→LSR10.
Le débit de transmission
La différence de débit entre chaque trafic est caractérisée le type de trafic qui définit ses classes de
service. En effet, le CBR requiert une QoS privilégié, et son débit dépend de la taille du paquet de
donné (haute si le paquet est volumineux).
Pour les paquets de type TCP, son classe de service est moyenne et il ne requiert aucun utilisation
de tous les ressources disponibles et son attribution de bande passante dépend aussi de la taille du
paquet.
Le délai de transit
Le plus remarquable ici est que le délai de transmission du trafic CBR du nœud mobile MN se
rapproche à quelque milliseconde près à celle du trafic TCP de la simple topologie IP/MPLS dans
la partie 4.5.2.1. MPLS est donc encore une fois très efficace car il a bien su acheminer un trafic
volumineux sur un chemin avec plus de coût que la simple topologie.
Le délai du trafic TCP est en effet élevé que celle du trafic « Voice » utilisant CBR car dans le nœud
LSR 8, il est déjà confronté au trafic du nœud mobile MN, et à celui du trafic « Voice » dans LSR9
et LSR4 par la suite.
86
La gigue
Pour le trafic « Voice », il n’y a presque pas de variation de délai grâce à son classe de service, mais
cette gigue de 0, 83 ms est apparues lors du début de la génération du trafic du MN.
Notons que le trafic CBR du nœud mobile MN généré après les 3 autres trafics d’où cette gigue qui
est presque égale à celle de la simple topologie, à ne pas oublier la différence entre le type de paquet.
Dans le cas du trafic TCP, c’est le premier flux qui s’est circulé dans le réseau donc subit quelque
changement brusque de l’état du routeur utilisé par son LSP.
La perte de paquet
Concernant la perte de paquet, on peut dire qu’y a pas vraiment de perte car pour le trafic « Voice »,
1,37% de perte sur une taille volumineux du paquet avec un débit de transmission de 4912, 09 Kbps
défini une bonne QoS. D’un autre point de vue, le protocole UDP transportant ces trafics CBR ne
garantit pas que les paquets arrivent à destination. Une erreur sur l'en-tête du paquet peut entraîner
sa perte ou l'envoi vers une mauvaise destination.
Pour celle du nœud mobile, la perte est aussi acceptable car le débit de 1558, 11 Kbps est élevé par
rapport à la condition d’acheminement (nœud mobile en se déplaçant à 10 m/s) et à la génération
du paquet au niveau du CN (512 bit tous les 0, 005 ms).
Enfin, pour le trafic entre Client et le Serveur, cette perte est causée lorsque l’un des routeurs utilisé
par son LSP est congestionné. Comme le LSR9 par exemple, tous les types de trafic se rencontre
dans ce routeur, alors il libère automatiquement de la bande passante en détruisant une certaine
proportion des paquets entrants en fonction de son FEC prédéfinis.
4.6 Conclusion
Dans ce chapitre, on a pu mis en évidence l’apport du protocole MPLS dans un réseau IP/MPLS.
Le protocole FHMIPv6 du côté « IP » s’occupe du Handover, et grâce à la méthode MPLS-TE,
aucun des services déjà en cours n’est perturbé. MPLS a encore beaucoup contribué sur le
mécanisme du Handover car l’utilisation des FEC pour chaque type de paquet a permis de priorisé
les messages FHMIPv6, critiques en temps de réponse. Par conséquent, les pertes de donnés sont
acceptable, et le débit de donné est satisfaisant. Concernant le délai de transit, elle n’augmente pas
énormément comme on le craint en fonction de la complexité du réseau, grâce évidemment à la
gestion du fil des LSR. Les résultats ont donc montré que l’intégration du réseau IP/MPLS donne
une stabilité à l’état du réseau lors des différents services utilisés par les abonnés.
87
CONCLUSION GENERAL ET PERSPECTIVE
Durant ce travail on a pu constater que les générations de téléphonie mobile ont été développées
pour garantir de meilleure performance en particulier les Qualités de Services, tout en apportant de
nouvelles applications, de nouveaux services, ainsi. L’évolution se concentrait surtout dans les
technologies radio.
La particularité du réseau 4G est son architecture tout IP, et ne lui permet pas par conséquent un
service « Best Effort ». Le principe est de fournir un garantit au donnés, et le réseau IP/MPLS déjà
utilisé par certains opérateur apporte beaucoup que le best effort.
Les abonnées les plus nombreux utilisant les services de la télécommunication sont les abonnés
mobiles et de plus, les équipements usagers UE supportent presque ces services. De ce fait intervient
le protocole de mobilité FHMIP pour offrir aux UE une communication sans interruption, et sans
dégradation de l’état de connexion malgré ces éventuels déplacements. Plusieurs critères de
performance ont mené à la migration vers l’IPv6 donc on a fait appel particulièrement au protocole
FHMIPv6 pour cette gestion de mobilité. Sur ce, la transparence sur le déplacement de l’UE ne doit
en aucun cas influer l’état du réseau (performance) tout en gardant la QoS notamment grâce à MPLS
et à l’ingénierie de trafic utilisant MPLS (MPLS-TE).
Les résultats sur les mesures des paramètres de QoS dans la simulation sur NS-2 ont montré
l’efficacité du réseau IP/MPLS en tenant compte des classes de services de chaque flux de données.
En effet, le but du FHMIPv6/MPLS est d’offrir une QoS satisfaisant aux UE, l’état du réseau reste
stable en tenant compte de la QoS de chaque service en cours.
Enfin comme perspective, l’étude plus approfondie du FHMIPv6/MPLS pourrait avoir une
contribution à un autre type de mobilité : le NEMO (Network Mobility) ou réseau mobile. Comme
solution, le trajet du NEMO peut être défini alors il suffit d’installé et de configuré les routeurs sur
son trajet.
88
ANNEXE 1 : Etape de réalisation du fichier script de la simulation
Par la suite, le symbole #indique les commentaires
# Création du simulateur
set ns [new Simulator]
#utilisation du patch FHMIP
Node set useFhmipv6_ true
#Utilisation de l’adressage hierarchique
$ns_ node-config -addressType hierarchical
AddrParams set domain_num_ 5
lappend cluster_num 2 1 1 2 2
AddrParams set cluster_num_ $cluster_num
lappend eilastlevel 1 1 2 1 1 1 1 1
AddrParams set nodes_num_ $eilastlevel; #### ces paramètres indiquent le domaine, le sous
##réseau, et les nombres de nœuds dans un sous réseau
#génération du fichier trace
set nm [open out.nam w]
$ns namtrace-all $nf
# nœuds MPLS
$ns node-config -MPLS ON
set LSR1 [$ns node]
#…..
$ns node-config -MPLS OFF ; # fin du nœud MPLS
89
#établissement des liens câblés
$ns duplex-link $node0 $LSR2 100Mb 2ms ; montre un lien full-duplex de 100Mb de bande
#passante et un délai de 2 ms entre les nœuds LSR2 et node0
# APPLICATION
set udp [new Agent/UDP] ;#agent de transport
$ns attach-agent $node0 $udp ;#définir le nœuds qui utilise l’agent
#ROUTAGE MPLS
$ns RSVP-TE
# On continue ensuite par les Paramètres des fonctions MPLS
#Classifier/Addr/MPLS set control_driven_ 1 ; #envoi une signalisation LDP pour définir
#les LSP et les attribués aux FEC.
#Classifier/Addr/MPLS enable-ordered-control ;#gestion du fil d’attente par rapport au FEC
#Scenario
# à t= 6.0 envoyer MN au point X= 1555.0 et Y= 135.1 à une vitesse de 10m/s
$ns_ at 6.0 "$MN setdest 155.0 135.1 10"
#Lancer la simlation
$ns run
90
ANNEXE 2 : Script en awk pour obtenir les résultats de la simulation.
BEGIN {
send = 0; #initialisation
receive = 0;
}
{
#recupération des valeur de chaque colone dans une ligne
action = $1;
time = $2;
node_1 = $3;
node_2 = $4;
type = $5;
taille=$6 ;
flow_id = $8;
node_1_address = $9;
node_2_address = $10;
seq_no = $11;
packet_id = $12;
if (type== cbr && taille>=500 && action == "+"&&flow_id==1)
send++ ;
if (type==cbr && action == "r"&&flow_id==1)
receive++;
lost=send-receive ;
}
END {
printf("paquet envoyer: %d reçue : %d perdu :%f\n", send, receive, lost) ;
}
91
BIBLIOGRAPHIE
[4] www.effort.com.
[5] M.A Rakotomalala, «Réseaux 2G, 3G et 4G», Cours Master II, Département.
Télécommunication, ESPA, AU: 2013-2014.
[8] A.A Randriamitantsoa, « Qualité de service dans un réseau », Cours Master II,
Département Télécommunication, ESPA, AU : 2013-2014.
[9] A.A Randriamitantsoa, « Outil de planification réseau », Cours Master II, Département
Télécommunication, ESPA, AU : 2013-2014.
[10] Khodor ABBOUD « conception et évaluation d'un modèle adaptatif pour la qualité de
service dans les réseaux MPLS ».
Doctorat, délivré par l'École Centrale de Lille Soutenue le 20/12/2010.
[13] Ramon Casellas « Partage de Charge et Ingénierie de Trafic dans les Réseaux MPLS »,
Telecom Paris-Tech, 2002.
92
[14] David GAUCHARD « Simulation hybridede sreseaux IP-DiffServ-MPLSmulti-services
sur environnement d'execution distribuee Automatic », Universite Paul Sabatier
Toulouse III, 2003.
[15] MEDILEH Saci, « Solutions pour la prise en charge de la mobilité dans l’Internet »
UNIVERSITE KASDI MERBAH OUARGLA, 2009.
[16] Jesús Hamilton Ortiz « Integration of HMIPv6 mobility protocol and Diffserv quality of
service protocols over M-MPLS to provide QoS on IP mobile networks» 10th IFIP
International Wireless Communications Conference PWC´05 IEEE. Colmar, France,
August 25-27, 2005.
93
FICHE DE RENSEIGNEMENTS
Prénom : Ando
E-mail : [email protected]
Nombre de figures : 24
Nombre de tableaux : 6
Directeur de mémoire :
Nom : RANDRIAMITANTSOA
E-mail : [email protected]
94
RESUME
Depuis la première génération des réseaux mobile, la première contrainte du concept cellulaire se
reposait sur le support de transmission. Plusieurs études ont mené jusqu’au réseau 4G version 10,
connu par le nom de LTE, se montre performant en garantissant une valeur beaucoup plus optimale
de paramètre de QoS. En effet les caractéristiques radios du réseau 4G offre des dizaines de
mégabits, des latences de plus en plus, grâce aux technologies radios MIMO et OFDMA. Mais le
problème se pose dans la capacité du réseau cœur à gérer les paquets jusqu’au réseau d’accès lors
des congestions, des charges, des files d’attente, en plus de la mobilité. Ce mémoire vise à la garantie
de ressource, et de qualité de service d’un UE en mobilité tout en tenant compte à la stabilité du
réseau cœur. On se propose donc l’intégration de l’FHMIPv6/MPLS au cœur EPC du réseau LTE
pour garder la qualité de service de l’UE tout en se déplaçant dans un réseau d’accès à un autre sans
influencer les services en cours partageant la même ressource réseau.
ABSTRACT
Since the first generation of networks mobile, the first constraint of the cellular concept was based
on the support. Several studies have led until the LTE release 9 and continues to increase the
throughput and improves the robustness of its transmission channel minimize data loss, always
through the improvement of the access network using MIMO and OFDM technology. The 4G
version 10 network, known by the name of LTE shows performance ensuring a much more optimal
QoS parameter value. Indeed the radios of the 4G network features has tens of megabits, latencies
more in shorter but the problem is in the ability of the core network to manage the packages until
the network when congestion charges, queues, in addition to mobility. This thesis aims to guarantee
resource, and quality of service of an user equipment mobility taking into account the stability of
the core network. It proposes therefore the integration of the FHMIPv6/MPLS in the heart EPC of
the LTE network to keep the quality of service of the EU while moving in an access to another
network without affecting current services sharing the same network resource.
95