Memoire de Fin Detude

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 107

N° d’ordre : 33 / IRS / TCO Année Universitaire : 2013 / 2014

UNIVERSITE D’ANTANANARIVO
----------------------
ECOLE SUPERIEURE POLYTECHNIQUE
-----------------------
DEPARTEMENT TELECOMMUNICATION

MEMOIRE DE FIN D’ETUDES


en vue de l’obtention
du Diplôme de MASTER
Titre : Ingénieur
Parcours : Ingénierie des réseaux et systèmes

par : RANDRIAMARO Tsihoarana Ando

MECANISME POUR FOURNIR LES QUALITES DE


SERVICES DANS LE RESEAU DE QUATRIEME
GENERATION
Soutenu le 9 avril 2015, devant la Commission d’Examen composée de :
Président :
M. RANDRIAMITANTSOA Paul Auguste
Examinateurs :
M. RABEMANANTSOA Josh.
M. ANDRIAMANALINA Ando
M. RANDRIAMIHAJARISON Mparany Jimmy
Directeur de mémoire :M. RANDRIAMITANTSOA Andry Auguste
REMERCIEMENTS

Gloire à Dieu tout puissant, ce mémoire n’aurait jamais été réalisé sans sa bénédiction.
J’adresse tous mes sincères remerciements à :
 Monsieur RANDRIANARY Philipe, Professeur Titulaire, Directeur de l’Ecole Supérieure
Polytechnique d’Antananarivo, qui a permis mes cinq ans d’étude au sein de l’université.

Ensuite, je souhaite témoigner de mes remerciements chaleureux à :


 Monsieur RAKOTOMALALA Mamy Alain, Maître de Conférences, Chef de département
de la filière Télécommunication pour son apport au sein de département qui m’a permis
d’avoir les connaissances nécessaires et une vision professionnelle du monde de la
Télécommunication.

Je tiens à exprimer ma profonde gratitude à :


Monsieur RANDRIAMITANTSOA Andry Auguste, Maître de Conférences, directeur de mémoire.
Je veux le remercier pour son encadrement plein d'enthousiasme et de rigueur et pour la confiance
dont il a fait preuve à mon égard.

Je témoigne toute ma reconnaissance à monsieur Randriamitantsoa Paul Auguste


Professeur Titulaire, qui nous fait l’honneur de présider les membres du Jury de ce présent mémoire.

Je remercie de tout cœur les membres du jury, d’avoir accepté d’examiner mon travail :
- Monsieur RABEMANANTSOA Josh, docteur en télécommunication
- Monsieur ANDRIAMANALINA Ando, Maitre de Conférences
- Monsieur RANDRIAMIHAJARISON Mparany Jimmy, Assistant d'enseignement et
recherche

Je profite de cette opportunité pour exprimer ma gratitude à ma famille de m’avoir soutenu, je ne


serai jamais assez reconnaissants envers mes parents qui ont toujours tout mis en œuvre pour qu’on
s’épanouisse dans tous ce qu’on entreprend.
Enfin, nous tenons à remercier toute personne qui nous a aidés de près ou de loin durant notre travail
et en particulier tous mes collègues de cette promotion.

i
Table des matières
REMERCIEMENTS ...................................................................................................................................... i
ABREVIATIONS .......................................................................................................................................... v
INTRODUCTION GENERALE ................................................................................................................. 1
CHAPITRE 1 EVOLUTION DE LA SERVICE DE LA TELEPHONIE MOBILE .............................. 3
1.1 Introduction ......................................................................................................................................... 3

1.2 La première génération du réseau mobile ........................................................................................ 3

1.3 Le réseau de la seconde génération.................................................................................................... 4

1.3.1 Le réseau GSM ou 2G .................................................................................................................. 4

1.3.2 Le réseau GPRS ou 2.5 G ........................................................................................................... 10

1.3.3 EDGE (Enhanced Data for GSM Evolution) ............................................................................ 13

1.3.4 La qualité de service dans le réseau de la seconde génération ................................................. 14

1.4 Le réseau de la troisième génération ............................................................................................... 15

1.4.1 UMTS .......................................................................................................................................... 15

1.4.2 HSDPA ........................................................................................................................................ 22

1.4.3 HSUPA ........................................................................................................................................ 25

1.4.4 L’évolution du réseau 3G ou HSPA+ ........................................................................................ 26

1.5 Conclusion ......................................................................................................................................... 27

CHAPITRE 2 LE RESEAU DE LA QUATRIEME GENERATION .................................................... 28


2.1 Introduction ....................................................................................................................................... 28

2.2 Caractéristiques fondamentaux du réseau 4G ............................................................................... 29

2.2.1 Le débit de transmission de donnée ........................................................................................... 29

2.2.2 La connexion permanente .......................................................................................................... 30

2.2.3 Temps de latence ......................................................................................................................... 30

2.2.4 La bande de fréquence utilisée dans le 4G ................................................................................ 30

2.2.5 Mobilité dans le réseau ............................................................................................................... 33

2.2.6 Le réseau tout IP ......................................................................................................................... 33

2.3 Architecture du réseau 4G ............................................................................................................... 33

2.3.1 Réseau d’accès ............................................................................................................................ 34

ii
2.3.2 Réseau cœur ................................................................................................................................ 39

2.3.3 La partie IMS .............................................................................................................................. 42

2.3.4 Architecture en couche du réseau 4G ........................................................................................ 43

2.4 Qualité de service dans le réseau 4G ............................................................................................... 49

2.5 Conclusion ......................................................................................................................................... 50

CHAPITRE 3 IMPLEMENTATION DE L’IPV6/MPLS POUR FOURNIR LA QUALITE DE


SERVICE DANS LE RESEAU 4G............................................................................................................ 51
3.1 Introduction ....................................................................................................................................... 51

3.2 La qualité de service ......................................................................................................................... 52

3.2.1 Paramètres de la QoS ................................................................................................................. 52

3.2.2 La gestion de la qualité de service .............................................................................................. 52

3.3 Rappel sur le protocole MPLS ......................................................................................................... 58

3.3.1 Le protocole MPLS ..................................................................................................................... 58

3.3.2 Les éléments de l’architecture MPLS ........................................................................................ 58

3.3.3 Principe de fonctionnement du protocole MPLS ...................................................................... 60

3.4 Rappel sur la mobilité IP .................................................................................................................. 62

3.4.1 Le protocole IPv4 et IPv6 ........................................................................................................... 62

3.4.2 Le concept de la mobilité IP ....................................................................................................... 63

3.5 Intégration de l’architecture IP/MPLS dans LTE/EPC ................................................................ 65

3.5.1 L’architecture IP/MPLS ............................................................................................................. 66

3.5.2 Traitement du handover ............................................................................................................. 67

3.5.3 L’optimisation avec MPLS ......................................................................................................... 69

3.6 Conclusion ......................................................................................................................................... 73

CHAPITRE 4 EVALUATION DE PERFORMANCE DU FHMIPv6/MPLS....................................... 74


4.1 Introduction ....................................................................................................................................... 74

4.2 Choix du simulateur.......................................................................................................................... 74

4.3 Présentation du simulateur NS2 ...................................................................................................... 74

4.4 Objectif de la simulation................................................................................................................... 78

4.5 Réalisation du programme ............................................................................................................... 79

iii
4.5.1 Les étapes et paramétrages de la simulation .............................................................................. 79

4.5.2 Simulation avec différente scenario ........................................................................................... 79

4.6 Conclusion ......................................................................................................................................... 87

CONCLUSION GENERAL ET PERSPECTIVE .................................................................................... 88


ANNEXE 1 : Etape de réalisation du fichier script de la simulation...................................................... 89
ANNEXE 2 : Script en awk pour obtenir les résultats de la simulation. .......................................... 91
BIBLIOGRAPHIE ...................................................................................................................................... 92
FICHE DE RENSEIGNEMENTS ............................................................................................................. 94
RESUME ...................................................................................................................................................... 95
ABSTRACT ................................................................................................................................................. 95

iv
ABREVIATIONS
1G 1ère Génération

2G 2ème Génération

3G 3ème Génération

3GPP 3rd Generation Partnership Project

4G 4è Génération

16-QAM QAM à 16 états

AMC Adaptive Modulation and Codage

AMPS Advanced Mobile Phone System

ARQ Automatic Repeat reQuest

ASN-GW Access Service Network Gateway

ATM Asynchronus Transfert Mode

AuC Authentication Center

BA Behaviour Aggregates

BCCH Broadcast Control Channel

BCH Broadcast CHannel

BSC Base System Controler

BSS Base Station Sub-system

BTS Base Transceiver Station

CBR Constant Bite Rate

CCCH Common Control CHannel

CDMA Code Division Multiple Access

CL Controlled Load

CN Core Network

CN Correspondant Node

CoA Care of Address

v
CqI Channel quality Indicator

CS Circuit Switching

CSN Conectivity Service Network

DARPA Defense Advanced Research Projects Agency

DCCH Dedicated Control Chanel

DC-HSDPA Dual carry HSDPA

DCS Digital Cellular telecommunications System

DFT Discrete Fourier Transform

DL Downlink

DL-SCH Downlink Shared CHannel

DSCP Diffserv Code Point

DTCH Dedicated Trafic CHannel

EMM EPS Mobility Management

E-UTRAN Evolved UMTS Terrestrial Radio Access Network

EDGE Evolved Packet Data Gateway

EIR Equipment Identity Register

EPC Evolved Packet Core

FA Foreign Agent

FDMA Frequency-Division Multiple Access

FEC Forwarding Equivalent Class

FFTH Fast Fair Throughput

FHMIPv6 Fast Handover Mobile IPv6

FIB Forwarding IP Base

FIFO First In, First Out

FM Frequency Modulation

GBR Guaranted Bit Rate

vi
GPRS General Packet Radio Service

GGSN Gateway GPRS Support Node

GMSC Gateway Mobile Switching Centre

GMSK Gaussian Minimum Shift Keying

GS Guaranteed Service

GSM Global System for Mobile Communication

HA Home Agent

HARQ Hybrid Automatic Repeat reQuest

HLR Home Location Register

HMIPv6 Handover Mobile IPv6

HSS Home Subscriber Server

HS-DSCH High Speed Downlink Shared Channel

HS-SCCH High Speed Shared Control Channel

HSDPA High Speed Downlink Packet Access

HSUPA High-Speed Uplink Packet Access

IEEE Institute of Electrical and Electronics Engineers

IIS Internet Integrated Services

IMS Internet Protocol Multimedia Subsystem

IP Internet Protocol

IPV6 Internet Protocol version 6

Iu-cs Interface entre RNC et MSC

Iu-ps Interface entre RNC et SGSN

Iub Interface entre Node-B et RNC

Iur Interface entred eux RNC différents

LAN Local Area Network

LBL Lawrence Berkeley national Laboratory

vii
LCoA Local CoA

LDP Label Distribution Protocole

LER Label Edge Router

LIB Label Information Base

LSP Label Switching Path

LSR Label Switched Router

LTE Long Term Evolution

MAC Medium Access Control

MAP Mobile Anchor Point

MIMO Multiple Input Multiple Output

MIPv4 Mobile IPv4

MIPv6 Mobile IPv6

MME Mobility Management Entity

MN Mobile Node

MPLS Multi Protocole Label Switching

MPLS-TE Multi Protocole Label Switching-Traffic Engenering

MSC Mobile Switching Center

MU-MIMO Multiple User MIMO

NAM Network Animation Monitor

NAR Next Access Router

NAS Network Access Server

NEMO Network Mobility

NMC Network Management Center

NS-2 Network Simulation version 2

OA Ordered Agregate

OFDM Orthogonal Frequency Division Multiplexing

viii
OFDMA Orthogonal Frequency Division Multiple Access

OMC Operations Management Center

OSPF Open Shortest Path First

OSS Operations Sub System

PAR Preview Access Router

PBCH Physical Broadcast CHannel

PCCH Paging Control Channel

PCFICH Physical Control Format Indicator CHannel

PCH Paging CHannel

PCRF Policy and Charging Rules Function

PDCCH Physical Downlink Control CHannel

PDCP Packet Data Compression Protocole

PDN Packet Data Network

PDSCH Physical Downlink Shared CHannel

PDN-GW Packet Data Network Gateway

PDU Protocol Data Unit

PEP Policy Enforcement Point

PHICH Physical Hybrid ARQ Indicator CHannel

PHY PHYsique

PHB Per Hop Behavior

PSC PHB Scheduling class

PoS Packet over Sonet/SDH

PQ Priority Queuing

PRACH Physical Random Access Channel

PS-CN Packet Switch-Core Network

PSTN Packet Switched Telephone Network

ix
PUCCH Physical Uplink Control CHanel

PUSCH Physical Uplink Shared CHannel

QAM Quadrature Amplitude Modulation

QCI QoS Class Identifier

QoS Quality of Service

QPSK Quadrature Phase Shift Keying

RACH Random Access CHannel

RCoA Regional CoA

RMPG Réseau Mobile de Prochaine Generation

RLC Radio Link Protocol

RNC Radio Network Controller

RRC Radio Resource Control

RRM Radio Ressource Management

RSVP Ressource Reservation Protocole

RTC Réseau Téléphonique Commuté

RTPC Réseau Téléphonique Public Commuté

SAE System Architecture Evolution

SC-FDMA Single Carrier - Frequency Division Multiple Access

SDH Synchronous Digital Hierarchic

SGSN Serving GPRS Support Node

SGW Serving Gateway

SMS Short Message Service

S1-U S1 User plan (Interface entre eNodeB et S-GW)

S1-C S1 Control plan (Interface entre eNodeB et MME)

S11 Interface entre MME et S-GW

SU-MIMO Single User MIMO

x
TCL Tool Command Linux

Tcl Tool Command Language

TE Traffic Engenering

TDMA Time Division Multiple Access

ToS Type of Service

TTI Transmission Time Interval

UL-SCH DownLink Shared CHannel

UE User Equipement

UMTS Universal Mobile Telecommunications System

UL Uplink

UTRAN Universal Terrestrial Radio Access Network

VINT Virtual InterNetwork Tested

VLR Visitor Location Register

VoIP Voice over IP ou Voix sur réseau IP

W-CDMA Wideband Code Division Multiple Access Evaluation

WFQ Weighted Fair Queuing

Wi-Fi Wireless Fidelity

WiMAX Worldwide Interoperability for Microwave Access

WLAN Wireless Local Area Network

WRED Weighted Random Early Discard

WRR Weighted Round Robin

X2 Interface entre eNodeB

xi
INTRODUCTION GENERALE
Les réseaux mobiles et sans fil ont connu un essor sans précédent ces dernières années. Il s’agit
d’une part du déploiement de plusieurs générations successives de réseaux de télécommunications
essentiellement dédiés à la téléphonie (2G, réseau de la 2nd Génération définit par la norme GSM
ou Global System for Mobile telecommunication), puis plus orientés ensuite vers le multimédia
(3G, réseau de la 3è Génération, définit par la norme UMTS ou Universal Mobile
Telecommunications System). D’autre part, les réseaux locaux sans fil sont rentrés dans la vie
quotidienne au travers de standards phares tels que Wi-Fi (Wireless Fidelity), Bluetooth, etc.
Les évolutions se poursuivent de partout, tant dans le monde des réseaux spécialisés (capteurs,
étiquettes intelligentes, etc.) que des réseaux de télécommunications. Ceux-ci voient désormais des
solutions concurrentes apparaitre provenant de divers horizons : monde télécoms classiques avec
HSPA, monde des réseaux sans fil avec le Wi MAX (Worldwide Interoperability for Microwave
Access) voire le monde de la diffusion de la télévision numérique terrestre et satellite.
En effet, presque tout le service de la télécommunication converge dans le réseau Internet.
L’avènement des nouvelles technologies de l'information et les nombreuses applications (les
services de téléphonie, la vidéoconférence,…) font que le nombre d'utilisateurs (particuliers,
entreprises, laboratoires, …) est sans cesse croissant. Ces infrastructures ne répondent plus aux
exigences de certaines applications en termes de qualité de service. Ainsi, l'utilisation des nouvelles
générations de réseau dans le cadre d'applications multimédia ou de services à qualité garantie,
impose que l'acheminement soit assuré avec une qualité de service maîtrisée.
La future génération de réseau dite de quatrième génération (4G), avec un tout nouveau système
« tout IP », apporte un véritablement tournant dans le foisonnement et la disparité des solutions
existantes. L’objectif sera évidemment d’augmenter les débits et les applications prises en charge
par ces réseaux avec le plus bref de temps d’interaction entre l’utilisateur et le réseau, ainsi que la
gestion de la mobilité mais encore de construire un cadre permettant leur interopérabilité.
Des premières solutions sont déjà disponibles au niveau « accès » auprès de la plupart des
opérateurs de télécommunications mais la plupart d’entre elles sont des solutions spécifiques à un
type d’interconnexion et à un opérateur. La capacité du réseau d’accès 4G promet beaucoup en
termes de qualité de service mais un grand problème se pose dans le réseau cœur, comment gérer
tant de ressource pour les flux de données échangés, la gestion de la bande passante, les congestions
du réseau, les changements de zone de routage (cas du Handover) tout en tenant compte de la qualité
de service.

1
Le système « tout IP» du réseau 4G nous permet l’implémentation du réseau IP/MPLS (Internet
Protocole/ Multi Protocole Label Switching) dans le cœur LTE/SAE (Long Term Evolution/
System Architecture Evolution) qui est l’une des mécanismes pour fournir la qualité de service. Plus
techniquement, le protocole IPv6 a plusieurs extensions conçues pour la mobilité comme le MIPv6
(Mobile IPv6), le HMIPv6 (Hierrarchical Mobile IPv6), le FHMIPv6 (Fast Handover Mobile IPv6)
qui a pour but d’offrir une connexion permanente sans interruption de transfert de donnée et surtout
avec la même adresse IP durant un changement de zone de routage. Le protocole MPLS intervient
dans la gestion du réseau, c’est-à-dire facilite le routage grâce au «label», et bénéficie des technique
de qualité de service comme le « trafic engineering » ou TE, l’intégration de service ou IntServ, et
la différentiation de service ou DiffServ.
Dans ce mémoire va présenter les différentes normes de téléphonie mobile, on commencera tout
d’abord par le réseau de la première génération, puis le réseau 2G, ensuite on passera à la 2,5G ou
GPRS (General Packet Radio Service), issu du réseau GSM, au réseau 2.75G ou réseau EDGE
(Evolved Packet Data Gateway) une extension du réseau GSM, après on présentera les réseaux 3G
(UMTS).
Ensuite, on va étudier le réseau 4G pour une approche sur la qualité de service offert par le réseau.
On va ensuite cibler nos travaux sur les réseaux de type IP/MPLS incluant des mécanismes de
l'ingénierie de trafic et de différenciation de service, dans le réseau cœur 4G.
Nous adoptons ensuite une évaluation des qualités de services (débit, perte de paquet, gigue) par
simulations, en utilisant le simulateur réseau NS-2 (Network Simulation version 2).
.

2
CHAPITRE 1
EVOLUTION DE LA SERVICE DE LA TELEPHONIE MOBILE

1.1 Introduction

Depuis plusieurs années les réseaux mobiles n’a cessé de s’améliorer en vue de fournir aux
utilisateurs ses services de façons satisfaisantes. De la première génération, du second, de la
troisième, et vers la nouvelle génération réseau, c’est en termes de débit qu’on a rencontré une
évolution remarquable et exceptionnel, et aussi une bande passante de plus en plus large qui permet
d’augmenter le nombre d’utilisateur pouvant être supportés.
Les réseaux de la 1è génération (appelée aussi 1G) ont été intégrés au réseau de télécommunication
dans les années 80. Ces systèmes ont cependant été abandonnés il y a quelques années laissant la
place à la seconde génération, appelée 2G lancée en 1991 qui est encore active de nos jours. Nous
pouvons distinguer deux autres types de générations au sein même de la seconde : la 2.5G et la
2.75G. Le principal standard utilisant la 2G est le Global System for Mobile Communications ou
GSM.
A la différence de la 1G, la seconde génération de normes permet d’accédé à divers services,
comme l’utilisation du WAP permettant d’accéder à internet, tant dit que pour la 3 ème génération
connue sous le nom de 3G permet un haut débit pour l’accès internet et le transfert de données.

1.2 La première génération du réseau mobile

Les réseaux mobiles ont beaucoup évoluée depuis leur apparition dans les années 1970 à nos jours.
La première génération des réseaux cellulaires (1G) est apparue vers le début des années 1970, 1er
radiotéléphones analogiques sans fils avec un mode de transmission analogique et des appareils de
taille relativement volumineuse.
Ce réseau est caractérisé par une multitude de technologies introduites en parallèle à travers le
monde. On peut citer les technologies suivantes :
 AMPS (Advanced Mobile Phone System) aux États-Unis ;
 TACS (Total Access Communication System) au Japon et au Royaume-Uni ;
 NMT (Nordic Mobile Telephone) dans les pays scandinaves ;
 Radiocom2000 en France ;

3
Ces systèmes devaient offrir un service de téléphonie en mobilité mais ils ne parvinrent pas à
réellement franchir les frontières de leurs pays d’origine et aucun de ces systèmes ne s’imposa en
tant que véritable norme internationale.
Leurs différences impliquaient de fait, l’incompatibilité entre systèmes et l’impossibilité
d’itinérance internationale (aussi appelée Roaming). Cet échec relatif fut primordial dans la
reconnaissance par les différents pays de la nécessité de définir des normes de téléphonie mobile à
l’échelle internationale.
D’un point de vue technique, ces systèmes étaient basés sur une technologie de modulation radio
est similaire à celle utilisée par les stations radio FM.
Ils utilisaient une technique d’accès multiples appelée FDMA (Frequency Division Multiple
Access), associant une fréquence à un utilisateur. La capacité de ces systèmes demeurait très limitée,
de l’ordre de quelques appels voix simultanés par cellule. Cette contrainte de capacité, ainsi que les
coûts élevés des terminaux et des tarifs de communication ont restreint l’utilisation de la 1G à un
très faible nombre d’utilisateurs.
Par ailleurs, les dimensions importantes, ainsi que le coût des terminaux limitaient significativement
leur portabilité. [1]

1.3 Le réseau de la seconde génération

C’était dans le réseau de la seconde génération ou réseau 2G (deuxième génération réseau) que le
monde de la télécommunication a commencé à se développer. La norme GSM (Global System for
Mobile Communication) est la standardisation du réseau 2G. Elle a largement amélioré les services
de la téléphonie grâce à la commutation du circuit, suivi du réseau GPRS (General Packet Radio
Service), ou encore réseau 2.5 G, qui a offert une service de type « donnée » en mode paquet.
Le réseau EDGE (Enhanced Data GPRS Evolved) ou réseau 2.75G a été ensuite établi pour
accroitre le service nécessaire au client que la GPRS n’a pu fournir.

1.3.1 Le réseau GSM ou 2G

La définition de la norme GSM remonte au début des années 80, il s'agit de la norme 2G. Cette
norme utilise une technique de commutation de circuit, spécialisé pour les sévices de la téléphonie
dont laquelle un chemin physique qui est réservé par chaque connexion ou communication, avec un
accès par liaison radio s'appuyant sur les transmissions numériques. Le réseau GSM a aussi une
fonctionnalité de transfert de donnée utilisant les mêmes ressources que celle de la téléphonie.

4
1.3.1.1 Caractéristique du réseau GSM

Le GSM offre au public des services de télécommunication tel que le service de la téléphonie basée
sur les communications entre abonnées mobiles (GSM) et abonnées du réseau téléphonique
commuté (RTC ou Réseau Téléphonique Commuté, réseau fixe), le service de messagerie ou SMS
(Short Message Service), le service de transport de données en mode circuit (jusqu’à 9,6 kbps) avec
une couverture continue sur un vaste territoire. Le service d’appel international est aussi possible.

 Les bandes de fréquences utilisées :


L’accès au réseau est par une liaison radio et utilise deux types de réseaux cellulaires numériques
de télécommunications pour abonnés mobiles :
 Le réseau GSM900 : il utilise des fréquences porteuses dans la gamme des 900 MHz
 Le réseau DCS1800 (Digital Cellular telecommunications System) qui utilise des
fréquences porteuses dans la gamme des 1800 MHz.

 La technique d’accès dans un réseau GSM :


Pour gérer cette bande de fréquence, le réseau GSM combine deux techniques d’accès : FDMA
(Frequency Division Multiple Access) ou AMRF (Accès Multiple à Répartition en Fréquence) et le
TDMA (Time Division Multiple Access) ou AMRT (Accès Multiple à Répartition de Temps).
Le FDMA est un multiplexage fréquentiel partageant la bande de fréquence 890-915 MHz en 124
canaux de 200 KHz (partagés aux opérateurs) pour les voies montantes et la bande 935-960 MHz
en 124 canaux de 200 KHz pour les voies descendantes.
Pour augmenter la capacité des canaux, on a utilisé le TDMA qui consiste à diviser chaque canal de
communication en 8 intervalles de temps appelés « time slots » et qui définit une trame TDMA.
Une fois la communication établie, le canal de données dans la cellule du réseau GSM est
monopolisé pour cette connexion.

5
1.3.1.2 L’architecture du réseau GSM
Un ensemble de fonction a été défini pour obtenir un réseau GSM satisfaisant en termes de qualité
de service suivant l’architecture sur la figure 1.01 :

Figure 1.01 : Architecture du réseau GSM

Ainsi le réseau GSM est compose des sous-ensembles suivants:

a. Le sous-système radio ou Base Sub System (BSS)


Le BSS est composé du terminal mobile ou MS (Mobile Station), des stations de base ou BTS (Base
Transceiver Station), et un BSC (Base Station Controller) qui contrôle l’ensemble des BTS et
permettent déjà une première concentration des circuits.
C’est un sous-système de l'architecture GSM qui assure les transmissions radioélectriques et gère la
ressource radio (l’accès et la couverture du réseau).

 La station mobile ou MS
C’est l'équipement physique utilisé par l'usager permettent d’accéder aux services de
télécommunication offerts par l’opérateur dans le réseau GSM.
Le MS est constituée de :
 L’équipement mobile qui fournit les capacités radio et logicielles nécessaires au dialogue
avec le réseau et demeure indépendant de l’abonné utilisateur.

6
 Une carte SIM (Subscriber Identification Module) qui contient tous les informations
concernant les abonnés dans le réseau (localisation, identification, souscription, …) et ses
droits.
 La station de base ou BTS
Equipé par des antennes directionnelles chargées pour la couverture du réseau, une BTS relie les
stations mobiles à l’infrastructure fixe du réseau.
Une station de base assure en premier lieu l’accès du mobile au réseau pour se procure les différents
services du GSM dans sa zone de couverture. C’est-à-dire la gestion de la liaison de données
(données de trafic et de signalisation) entre les mobiles et les BTS.
Côté performance, c’est la BTS qui effectue le codage et décodage du signal radio pour minimiser
le taux d’erreur binaire lors de la communication. La modulation utilisée est le GMSK (Gaussian
Minimum Shift Keying) permettent d’obtenir un débit théorique de 9,6 kbps pour la transmission
des données, suffisant pour une conversation téléphonique en temps réel.

Une BTS assure la gestion du multiplexage temporel (une porteuse est divisée en 8 slots dont 7 sont
alloués aux utilisateurs), et la gestion des sauts de fréquence. Son capacité maximale est à 16
porteuses, soit 112 communications simultanées.
On appel « Handover » un transfert intercellulaires des utilisateurs dans sa zone de couverture,
c’est-à-dire, un mécanisme grâce auquel un mobile peut transférer sa connexion d’une BTS vers
une autre (Handover inter BTS) ou, sur la même BTS d’un canal radio vers un autre (Handover
intra BTS) pendant son déplacement dans sa zone de couverture.
La surveillance des niveaux de champ reçu et de la qualité des signaux est aussi son rôle le plus
important d’une BTS pour les « Handover ». Elle assure les mesures radio (puissance de signal
reçue) permettant de vérifier la qualité de service ; ces mesures sont transmises directement au
BSC.

 Le BSC
Un BSC gère un ou plusieurs BTS et communique avec elles par le biais de l'interface A-bis, et
n’est relié qu’à un seul MSC. Pour le trafic abonné venant des BTS, le BSC joue le rôle de
concentrateur. Pour le trafic venant du commutateur, il joue le rôle d’aiguilleur vers la BTS dont
dépend le destinataire.
Un BSC utilise les mesures radio au niveau de la qualité du signal des BTS pour gérer la
signalisation des "Handover" entre les cellules dont il a la responsabilité.

7
b. Le sous-système réseau ou NSS (Network Sub System)
Le sous-système réseau ou NSS, joue un rôle essentiel dans un réseau mobile. Alors que le sous-
réseau radio gère l'accès radio, les éléments du NSS sont interconnectés pour prendre en charge
toutes les fonctions de contrôle et d'analyse des informations contenues dans des bases de données,
nécessaires à l'établissement, la connexion, et les interactions d’une MS au réseau.
Son rôle est d'assurer les fonctions de commutations, de routage et de la gestion du trafic circulant
dans le réseau.
En plus des fonctions indispensables de commutation, on y retrouve les fonctions de gestion de la
mobilité, de la sécurité et de la confidentialité qui sont implantées dans la norme GSM.
Il relai le réseau mobile GSM au réseau public téléphonique commuté (RTCP).
Les entités fonctionnelles du sous-système réseau NSS sont le centre de commutation mobile ou
MSC (Mobile Switching Center), le registre des abonnés visiteurs ou VLR (Visitor Location
Register), le registre des données de l’abonnés ou HLR (Home Location Register), le service
d’authentification AuC (Authentication Center) et l’EIR (Equipment Identity Register)

 Les MSC (Mobile Switching Center) :


Le MSC est relié au sous-système radio via l'interface « A ». Son rôle principal est d'assurer la
commutation entre les abonnés du réseau mobile et ceux du réseau commuté public.
Son liaison au BSS via l’interface A lui permet de recueillir des informations sur la localisation, le
niveau de signal, les informations caractéristiques du MS.
La localisation du MS sera tout de suite transmis au registre des abonnés visiteur ou VLR. Le MSC
assure la mise à jour de ce registre à chaque déplacement du MS dans le réseau Le niveau de signal
reçu par le MS est transmis au MSC pour l’exécution du Handover afin de permettre la mobilité du
MS. Quant aux autres informations caractéristiques du MS, le MSC les envois aux entités HLR,
VLR, et AuC pour le contrôle d’accès du MS.
Le commutateur est donc un nœud important du réseau, il donne un accès vers les bases de données
du réseau et vers le centre d’authentification qui vérifie les droits des abonnes. Le MSC gère la
communication ou la connexion entre abonnés grâce à ces informations.
Des MSC servant de passerelle (GMSC : Gateway Mobile Switching Center) sont placées en
périphérie du réseau d'un opérateur de manière à assurer une interopérabilité entre réseaux
d'opérateurs.

8
 VLR (Visitor Location Register) :
Fichier des abonnés visitant le réseau, l’enregistreur de localisation des visiteurs est une base de
données associée à un commutateur MSC. Pour établir une communication, il faut savoir dans quelle
cellule se trouve les MS afin de les reliés. Le VLR a pour mission d’enregistrer des informations
dynamiques relatives aux abonnés de passage dans le réseau, ainsi l’opérateur peut savoir dans
quelle cellule se trouve chacun de ses abonnés. Les données mémorisées par le VLR concernent les
abonnés présents dans la zone concernée, c’est-à-dire, les visiteurs du réseau.

 le HLR (Home Location Register) :


Le HLR est une base de données qui contient les informations relatives aux abonnés du réseau
comme son souscription, son déplacement, le service qu’il peut acceder, sa localisation au niveau
des cellules pour la taxation et le routage des appels vers le MSC sous lequel le mobile est localisé.
Le HLR contient par ailleurs la clé secrète de l’abonné que seul le service d’authentification AUC
peut décrypter pour que ce service puisse authentifier l’abonné.
Le HLR est alors base de données qui conserve des données statiques sur l’abonné et qui administre
des données dynamiques sur le comportement de l’abonné. Les informations sont ensuite exploitées
par l’OMC.

 l’AUC (Authentication Centre) :


Base de données qui génère des paramètres sur demande du HLR pour protéger le réseau des
utilisateurs frauduleux.
Le centre d’authentification AUC (Authentification Center) mémorise pour chaque abonné une clé
secrète utilisée pour authentifier les demandes de services et pour chiffrer (crypter) les
communications. L’AUC de chaque abonné est associé au HLR. Pour autant le HLR fait partie du
sous-système fixe alors que l’AUC est attaché au sous-système d’exploitation et de maintenance.

 L'EIR (Equipment Identity Register) :


Chaque terminal a un identifiant unique (IMEI : International Mobile station Equipment Identity),
enregistré dans le EIR du réseau GSM, qui ne peut pas être modifié sans altérer le terminal. Un EIR
sauvegarde toutes les identités des équipements mobiles utilisés dans un réseau GSM, du coup,
chaque poste mobile est enregistré dans l'EIR. En fonction des données au sujet de ce mobile,
l’opérateur peut le tracer en cas de vol, ou seulement de refuser son accès au réseau en cas d’autre
problème.

9
c. Le sous-système d’exploitation et de maintenance OSS

OSS (Operation Sub-System) permet à l’opérateur d’exploiter son réseau. La mise en place d’un
réseau GSM (en mode circuit) va permettre à un opérateur de proposer des services de type « Voix »
à ses clients en donnant accès à la mobilité tout en conservant un interfaçage avec le réseau fixe
RTC existant.
Deux niveaux de hiérarchie sont définis dans la norme GSM. Les OMC (Operations and
Maintenance Center) et les NMC (Network and Management Centre).
Cette organisation a été définie afin de permettre aux opérateurs télécoms de gérer la multiplicité
des équipements (émetteurs, récepteurs, bases de données, commutateurs ...) et des fournisseurs.
Le NMC permet l’administration générale de l’ensemble du réseau par un contrôle centralisé.
Ainsi que les OMC permettent une supervision locale des équipements (BSC, MSC, VLR) et
transmettent au NMC les incidents majeurs survenus sur le réseau. Les différents OMC assurent
une fonction de médiation. [1] [2] [4].

1.3.1.3 La commutation de circuit

Le service HSCSD (High Speed Circuit Switching Data) est un service de données en mode circuit,
à débit élevé, qui consiste à allouer plusieurs canal physique par utilisateur et par trame TDMA
(jusqu’à 4slots), soit la moitié de la trame. L’allocation des ressources se fait en mode circuit, par
connexion et pour toute la durée de la connexion. Cette allocation peut être asymétrique, c’est-à-
dire offrir plus de débit dans un sens que dans l’autre.
L’interconnexion est lourde, avec les réseaux paquet externes et donc avec Internet, la transmission
de données en mode circuit nécessite des éléments d’adaptation spécifique à la frontière du réseau
de l’opérateur.

1.3.2 Le réseau GPRS ou 2.5 G

Le réseau GPRS ou General Packet Radio Service a été établi pour offrir des services
complémentaire à celles du GSM. En effet, l’architecture GSM fournit les services voix, tandis que
l’architecture GPRS fournit les services de données par paquets avec un débit élevé.
En effet, le réseau GSM a un service de donnée en mode circuit mais avec un débit en mode
«connecté» qui ne dépasse pas 9,6 kbps ce qui est trop «étroit » pour transmettre des données
informatiques.

10
De plus, ce mode connecté nécessite la monopolisation d’un canal pendant toute la communication
qui est inadaptée pour un service d’échange de donnée et gaspille les ressources radio.

1.3.2.1 Caractéristique général du réseau GPRS


Le GPRS résout alors les problèmes de service de transfert de donnée du réseau GSM en définissant
une architecture de réseau à commutation de paquets. La mise en place d'un réseau GPRS pour les
services de type « donnée » en mode paquet permet à ses clients la fluidité de la navigation, de
l’échange de donnée tel que des images, des séquences vidéos de petite taille, des groupes de
discussions (chat), …
La connexion internet offerte par le GPRS est typiquement permanente. Alors que le GSM actuel
fonctionne en mode "connecté", le GPRS utilise pour sa part le mode de connexion virtuel. Dans le
mode "virtuel", les ressources sont partagées. L'intervalle de temps n'est jamais affecté à un
utilisateur unique, mais partagé entre un certain nombre d'utilisateurs. Chaque utilisateur en dispose
lorsqu'il en a besoin et uniquement dans ce cas. Le reste du temps elles sont disponibles du fait que
la majorité du temps d’une connexion internet sont dominés par des temps mort où aucune donnée
ne circule. Cette gestion de ressource permet une tarification flexible qui est mesuré par le volume
de donnée échangé.
Dans le cas d’une transmission avec des mauvaises conditions radio, les données de l’usager est
encodés avec des redondances où lorsque la BSS détecte une erreur sur une trame reçue, elle sera
retransmise jusqu'à ce qu'elle soit reçue sans erreur pour être transférée sur le sous-système réseau
GPRS.
Le réseau GPRS utilise les mêmes bandes fréquences attribuées au réseau GSM, ainsi que la
répartition est le même.

1.3.2.2 Les techniques d’accès dans le réseau GPRS

Comme le GSM, le GPRS utilise le multiplexage fréquentiel FDMA et le multiplexage statistique à


la place du multiplexage temporel TDMA. Le multiplexage statistique est semblable au
multiplexage temporel sauf que pour le multiplexage statistique si dans une communication aucune
donnée n’est transmise pendant un certain temps, aucun time slot n’est réservé.
Le GPRS peut utiliser plusieurs time slots (jusqu’à 8, qui est le maximum) sur une seule trame pour
transporter les données, c’est la transmission en multi slot, un facteur qui permet d’atteindre un débit
171,2 kbps (avec le minimum degré de correction), supérieur à ce du réseau GSM.

11
1.3.2.3 Architecture du réseau GPRS

Figure 1.02 : Architecture du réseau GPRS

On observe sur la figure 1.02 qu’on a gardé l’architecture du réseau GSM avec l’implémentation de
nouveau matériel comme le SGSN (Serving GPRS Support Node), le GGSN (Gateway GPRS
Support Node), le PCU (Packet Control Unit) qui contribue à la fluidité du réseau de la commutation
de paquet. La station mobile MS nécessite aussi un terminal spécifié en GPRS pour y accédé au
réseau.

a. Le sous-système radio

On réutilise les infrastructures et les systèmes existants, la BTS et le BSC qui assure toujours l’accès
au réseau et la couverture et utilise les mêmes fréquences attribuées au GSM.
On a ajouté l'unité de contrôle de paquets (PCU, Packet Control Unit), une entité responsable du
partage des ressources et de la retransmission des données erronées dans les BSC.
Cet équipement gère les fonctions de couches basses, c'est-à-dire les protocoles RLC (Radio Link
Control), MAC (Medium Acces Control), contrôle de puissance, adaptation des débits, … pour
envoyer sur le réseau « GPRS ». Il gère les fonctions de transmissions et d’acquittements.

12
Sur l’adaptation de débit, GPRS définit quatre schémas de codage pour la correction d’erreur : CS1,
CS2, CS3 et CS4, chacun d’entre eux fournissant un niveau de correction d’erreur différent et un
débit effectif différent sur le même canal radio.

Schémas de codage CS1 CS2 CS3 CS4


1 slot 9.05 Kbps 13.4 Kbps 15.6 Kbps 21.4 Kbps
8 slots 72.4 Kbps 107.2 Kbps 124.8 Kbps 171.2 Kbps

Tableau 1.01: Tableau comparatif des différents codages


Le débit maximal correspond à l’utilisation de tous les slots et sans corrections d’erreurs et la
modulation utilisée est toujours le GMSK. [3]

b.Le sous-système réseau


Le sous-système réseau GPRS se compose principalement des SGSN et des GGSN.

 L’entité SGSN
Le SGSN (Serving GPRS Support Node) est un nœud important qui a une interface avec le BSS, le
HLR, le GGSN, le SMSC, et l’EIR pour les échanges de donnée du MS avec le réseau GPRS
(donnée, tarification, information sur l’abonnée, …)
Le SGSN est un serveur d’accès aux services GPRS, qui gère et contrôle les MS présentes dans une
zone donnée. C’est-à-dire, authentifie le terminal GPRS, prend en charge l’attachement du MS au
réseau, assure la gestion de mobilité du MS en faisant un mis à jour du déplacement du terminal
pour chaque changement de zone de routage. Son rôle principal est de délivrer des paquets aux MS.

 L’entité GGSN
Il sert de passerelle entre les SGSN du réseau GPRS et les autres réseaux de données.
Le GGSN (Gateway GPRS Support Node) est donc un routeur permettant d’envoyer des paquets de
données émis par le mobile au réseau externe correspondant et permet également d’acheminer les
paquets provenant des réseaux de données externes vers le SGSN du mobile destinataire tout en
s’assurant de la sécurité du réseau.
Il collecte les données de taxation associées à l’usage des ressources entre SGSN et GGSN.

1.3.3 EDGE (Enhanced Data for GSM Evolution)

EDGE est considéré comme une technologie pré-3G ou encore 2.75G, fait partie des solutions 3G
de l'UIT (International Telecommunication Union).

13
Avec le GPRS, le système GSM permet un accès au monde de l’internet et ouvre la porte aux
applications multimédias par l’utilisation de la commutation de paquets et l’augmentation du débit.
Cependant, les contenus mobiles volumineux, de plus en plus graphiques et de plus en plus orientés
vers la vidéo, poussent à une évolution technique car le débit du GPRS, et la modulation binaire
GMSK véhiculant environ 1bit par symbole sont insuffisants.
Le standard EDGE vise donc à optimiser la partie radio d’un réseau mobile pour la partie "données"
afin d’augmenter les débits principalement en voie descendante.
EDGE utilise une modulation numérique par déplacement de phase à 8 états ou 8-PSK (Phase Shift
Keying), permet d'atteindre des débits allant jusqu’à 384 kbps pour les stations fixes, et de 144 kbps
pour les stations mobiles mais avec une couverture plus réduite. Ces débits varient selon le schème
de modulation et codage utilisé (décidé par le PCU) qui dépend de la qualité du canal de transmission
radio. Ce changement de modulation implique une modification des stations de base et des
terminaux mobiles.
EDGE utilise alors la même architecture que le réseau GPRS mais le déploiement de L’EDGE
nécessite la mise à jour du BSC et de la BTS, l’ajout d’un émetteur-récepteur (EDGE Transceiver)
au niveau de la BTS, capable de supporter la modulation 8-PSK. Pour la technique d’accès, il utilise
le TDMA.

1.3.4 La qualité de service dans le réseau de la seconde génération

Pour exprimer la qualité de service en terme d’échange de donnée, le mobile dispose d’un ensemble
de classes de paramètres : la priorité du service, la fiabilité, les délais tolérés, le débit moyen et enfin
le débit pic des informations transmises. Tous ces paramètres sont négociés entre le GGSN
(Gateway GPRS Support Node) et le mobile lors de la connexion. Le GGSN prend donc des
décisions comme la suppression des données dans le cas d’une congestion du réseau (basé sur la
classe de priorité : haute, normale et basse pour différencier les services en cours).
Dans le paramètre de fiabilité, trois classes également sont définies, basé sur la contrainte de temps
réel. Elles correspondent à des garanties sur les taux de perte, de duplication, de dé-séquencement
et d’erreur résiduelle de la transmission. Elles doivent être attribuées en fonction de l’application
de l’utilisateur. Par exemple, si l’application utilisateur repose sur X.25, il est nécessaire d’avoir
une transmission fiable. La probabilité de perte fait allusion au temps maximal de séjour du paquet
dans le réseau GPRS, temps au-delà duquel le paquet est supprimé. Ce temps maximal dépend des
protocoles utilisés, tel que TCP/IP.

14
1.4 Le réseau de la troisième génération

Le réseau mobile 3G est apparu pour établir des normes internationales afin de garantir une
compatibilité mondiale, une mobilité globale, la compatibilité avec les réseaux 2G. Les principales
normes 3G sont le CDMA2000 et l'UMTS (Universal Mobile Telecommunications System), mais
la norme CDMA2000 (amélioration de la norme IS-95) n'est pas compatible avec le GSM.
L’UMTS a été défini par le 3GPP (Third Generation Partenership Project) comme la norme 3G des
systèmes de télécommunications mobile.
La première version de la norme est appelée « Release 99 » ou version 99, et a pour objectifs
d’augmenter la capacité du système pour le service voix mais surtout d’améliorer le support des
services de données visant la rapidité du transfert des fichiers de grande taille, la visiophonie,
l’internet à haut débit, …
L’UMTS utilise une technologie W-CDMA (Wavelength Code Division Multiple Access) basé sur
une technique d’accès multiple à répartition de code ou CDMA (Code Division Multiple Access),
et supporte les deux schémas de duplexage en fréquence FDD (Frequency Division Duplexing) et
en temps TDD (Time Division Duplexing) autorisant la connexion simultanée à plusieurs cellules,
renforçant la qualité des communications lors du Handover.
Le standard W-CDMA a évolué et une extension appelée High Speed Packet Access (HSPA) est
apparue, elle vise surtout à augmenter la capacité du réseau d’accès. Cette extension a apporté un
essor en terme de débit au réseau 3G, donnant lieu aux normes HSDPA (High Speed Down Link
Packet Access définie comme 3,5G) qui offre un débit théorique maximum de 14,4 Mbps en ligne
descendante, et HSUPA (High Speed Uplink Packet Access définie comme 3,75G) offrant un débit
théorique maximum en ligne ascendante de 5,76 Mbps.
HSPA+ est une autre évolution introduisant notamment la technologie Multiple Input Multiple
Output (MIMO), un system multi antennaire et offre un débit qui peut atteindre 42 Mbps en lien
descendant ou «Downlink » et 11 Mbps en lien montant ou « Uplink ».

1.4.1 UMTS

L’UMTS, release 99, est publiée mi-1999 redéfinit une nouvelle interface radio basée sur la
technique d’accès W-CDMA. La bande de fréquence utilisée est dans les gammes de 1885-2025
MHz et 2110-2200 MHz. Les interfaces radio des deux réseaux d'accès sont supportées par l'ATM.

15
Le débit maximal dans le sens descendant est, en théorie de 2 Mbps, et dans le sens montant est de
768 kbps. Le réseau du cœur se base sur le réseau de transport du GSM et GPRS.

1.4.1.1 Caractéristique du réseau 3G

a. La bande de fréquence utilisée

Les fréquences allouées pour l’UMTS sont 1885-2025 MHz et 2110-2200 MHz.
L’UIT (Union Internationale des Télécommunications) a désigné des bandes de fréquences pour les
différents systèmes de l'UMTS qui sont :

Duplex temporel TDD (Time Division Duplex) : 1885 à 1920 MHz pour la liaison montante avec
une bande de 35MHz et 2010 à 2025 MHz pour la liaison descendante avec une bande de 15 MHz.

Duplex fréquentiel FDD (Frequency Division Duplex) 1920 à 1980 pour la liaison montante et 2110
à 2170 MHz pour la liaison descendante, la largeur de la bande est de 60 MHz pour chaque liaison.

Bandes satellites : 1980 à 2010 MHz pour la liaison montante et 2170 à 2200 MHz pour la liaison
descendante, la largeur de la bande est de 60 MHz pour chaque liaison.
La bande passante d’un canal de transmission est de 5MHz avec une largeur spectrale réelle de
4,685 MHz.
Le tableau suivant présente les répartitions des fréquences utilisées en UMTS :

Liaison terrestre en MHz Liaison Satellites en MHz

Liaison montante Liaison descendante Liaison Liaison


1885 - 2025 2110 - 2200 montante descendante

TDD FDD TDD FDD TDD FDD

1885 - 1920 1920 - 1980 2010 – 2025 2110 - 2170 1980 - 2010 2170 - 2200

Tableau 1.02: Répartition des fréquences UMTS.

b. Le débit de transmission de donnée

L’UMTS a théoriquement des débits de transfert de 2 Mbps.


Le débit est différent suivant le lieu d’utilisation et la vitesse de déplacement de l’utilisateur :
 En zone rurale : 144 kbps pour une utilisation mobile (voiture, train, etc.) ;
 En zone urbaine : 384 kbps pour une utilisation piétonne.

16
 En zone bâtiment : 2 Mbps depuis un point fixe.
Cette amélioration des débits est rendue possible par l’évolution des technologies radio qui autorise
une meilleure efficacité spectrale et l’exploitation de bandes de spectre de fréquence supérieure à
celles utilisées par la technologie GSM.

c.Le technique d’accès au réseau 3 G

La macro-diversité est la phase pendant laquelle la station mobile maintient plusieurs liens radio
avec des cellules différentes. Le CDMA utilise la macro-diversité pour obtenir un signal de
meilleure qualité. L'avantage de la macro-diversité est que la transmission n'est pas interrompue lors
du changement de cellule de l'usager à la différence du Handover.
Le CDMA (Code Division Multiple Access) est basé sur la répartition par codes. En effet, chaque
utilisateur est différencié du reste des utilisateurs par un code N, utilisant toute la bande de fréquence
durant toute la communication. Ce code lui a été alloué au début de sa communication et qui est
orthogonal au reste de codes liés à d’autres utilisateurs. Dans ce cas, pour écouter l’utilisateur, le
récepteur n’a qu’à multiplier le signal reçu par le code N associé à cet utilisateur.
Le W-CDMA utilise le mode de duplexage FDD (Frequency Division Duplex). W-CDMA utilise
deux bandes passantes de 5 Mhz, l'une pour le sens montant (uplink), l'autre pour le sens descendant
(downlink). Le débit maximal supporté par un seul code est de 384 kbit/s.
Pour les services à haut débit, plusieurs codes sont nécessaires pour supporter un débit de 2 Mbit/s.
Le TD-CDMA utilise le mode de duplexage TDD (Time Division Duplex). TD-CDMA n'utilise
qu'une bande passante de 5 Mhz divisée en intervalles de temps (time slot) ; elle est utilisée pour
les deux sens. Elle comprend donc une composante TDMA (Time Division Multiple Access) fondée
sur la trame GSM en plus de la séparation par code. Ce concept offre une large gamme de débits de
service en allouant plusieurs codes ou plusieurs intervalles de temps à un utilisateur. Le débit de 2
Mbps peut être obtenu en allouant plusieurs codes ou plusieurs intervalles de temps à un utilisateur,
mais des raisons techniques et complexes (dues par exemple au déplacement ou au déphasage)
limitent le bon fonctionnement de ce système aux bâtiments ou aux petites cellules.

1.4.1.2 Architecture du réseau 3G

Le réseau UMTS repose sur une architecture flexible et modulaire. Cette architecture n’est associée
ni à une technique d’accès radio, ni à un ensemble prédéfini de services, ce qui assure sa
compatibilité avec d’autres réseaux mobiles (2G) et garantit son évolution.

17
L’architecture peut être adaptée en fonction des besoins des opérateurs de télécommunications. Une
telle architecture, comme l’illustre la figure 1.03, est composée de trois «domaines» : le domaine de
l’équipement de l’usager UE (User Equipment), celui du réseau d’accès radio «universel» UTRAN
(Universal Terestrial Radio Access Network) et celui du réseau cœur CN (Core Network). Les
domaines du réseau d’accès et du réseau cœur constituent le domaine de l’infrastructure.
Chaque domaine réalise une fonction bien précise dans le réseau, tandis que des points d’échange,
dénotés par Uu et lu, servent d’interfaces permettant les échanges entre les différentes parties du
réseau.

Figure 1.03 : Architecture du réseau 3G

a. Le réseau d’accès

Le domaine UE comprend tous les équipements terminaux et permet à l’abonné l’accès à


l’infrastructure et à ses services par le biais de l’interface Uu. Le domaine UE est constitué de deux
domaines : celui de l’équipement mobile ME (Mobile Equipment) et celui du modèle d’identité des
services de l’abonné ou carte USIM (UMTS Subscriber Identy Module), une carte spéciale pour
l’accès au réseau.
Le domaine UTRAN est caractérisé par un ensemble de sous-systèmes nommés RNS (Radio
Network Subsystem).

18
Le RNS est composé en deux éléments : celui du Node-B (ou plusieurs Node-B) et celui du RNC
(Radio Controller Network) qui s’interface avec le domaine CN, généralement à un MSC et à un
SGSN grâce aux interfaces « lu CS » et « lu PS ».
Le rôle principal du Node-B est d’assurer les fonctions de réception et de transmission radio pour
une ou plusieurs cellules du réseau d’accès de l’UMTS avec un équipement usager. Le Node-B
travaille au niveau de la couche physique du modèle OSI, (le codage du canal, l’entrelacement,
l’adaptation du débit et l’étalement).
Le RNC commande un ou plusieurs Node-B via l’interface lub, Le rôle principal du RNC est de
router les communications entre le NodeB et le réseau cœur de l’UMTS. Il travaille au niveau des
couches 2 et 3 du modèle OSI (contrôle de puissance, allocation de codes). Le RNC assure les
mécanismes de handover. L’UTRAN fournit donc à l’UE les ressources radio et les mécanismes
nécessaires pour accéder au réseau cœur. Il contrôle les fonctions liées à la mobilité et à l’accès au
service du réseau, tout comme les BSS.

b. Le réseau cœur

Le réseau cœur CN (Core Network) regroupe l’ensemble des équipements assurant les fonctions
telles que le contrôle d’appels, le contrôle de la sécurité et la gestion de l’interface avec les réseaux
externes.
Le réseau cœur de I'UMTS vient se combiner aux réseaux déjà existants GSM et GPRS. Il est en
charge de la commutation et du routage des communications (voix et données) vers les réseaux
externes, le réseau UMTS apporte ensuite les fonctionnalités Multimédia.
L’architecture de référence du réseau cœur de base UMTS (CN) est divisée en trois groupes.
Le premier est celui du domaine circuit ou CS (Circuit Switching), comprenant les entités MSC,
GMSC, et VLR. C’est le MSC qui effectue le routage dans le réseau, l'interconnexion avec les autres
réseaux (RNIS) et de la coordination des appels.
Le second est celui du domaine paquet ou PS (Paquet Switching) regroupant les entités SGSN et
GGSN qui sont responsable de tous les commutations de paquets dans le réseau, de l’UE vers
internet, ou d’autre réseau privé extérieur de ce réseau.
Le GGSN est une passerelle vers les réseaux à commutation de paquets extérieurs tels que l’Internet.
Le SGSN (Serving GPRS Support Node) est une passerelle permettant l'acheminement des données
dans les réseaux mobiles GPRS. Il maintient les informations identifiant l'abonné et les services
utilisés. Il contrôle la localisation du mobile sur une "Routing Area".

19
Le dernier comprend les entités du réseau communes aux domaines PS et CS, à savoir, HLR, EIR,
et AuC.

1.4.1.3 Mode de transmission dans le réseau 3G

Le domaine circuit permettra de gérer les services temps réels dédiés aux conversations
téléphoniques. Ces applications nécessitent un temps de transfert rapide. Lors de l'introduction de
I'UMTS le débit du mode domaine circuit sera de 384 Kbits/s.
L'infrastructure s'appuie alors sur les principaux Élément du réseau GSM : MSC/VLR (bases
données existantes) et le GMSC afin d'avoir une connexion directe vers le réseau externe.
Le domaine paquet permettra de gérer les services non temps réels. II s'agit principalement de la
navigation sur Internet, de la gestion de jeux en réseaux ainsi que l'accès et l’utilisation des e-mails.
Ces applications sont moins sensibles au temps de transfert, c'est la raison pour laquelle les données
transiteront en mode paquet. Le débit du domaine paquet sera sept fois plus rapide que le mode
circuit, environ 2Mbits/s. L'infrastructure s'appuie alors sur les principaux éléments du réseau GPRS
tel que le SGSN (bases de données existantes en mode paquet GPRS) et le GGSN (équivalent du
GMSC en réseau GSM) qui jouera le rôle de commutateur vers le réseau Internet et les autres
réseaux publics ou privés de transmission de données.

1.4.1.4 La gestion de mobilité du réseau 3G

Un Soft Handover survient entre deux cellules ou deux secteurs qui sont supportés par différents
Node B. L'UE transmet ses données vers différents Node B simultanément et reçoit des données de
ces différents Node B simultanément. Dans le sens descendant, les données utilisateur délivrées à
l'UE sont émises par chaque Node B simultanément et sont combinées dans l'UE. Dans le sens
montant, les données utilisateur émises par l'UE sont transmises à chaque Node B qui les achemine
au RNC où les données sont combinées.
Un hard Handover survient dans différentes situations, telles que entre cellules utilisant des
fréquences différentes (Handover inter-fréquences) ou entres cellules rattachées à des RNC
différents sans que ceux-ci disposent d'une interface lur entre eux ou lors d'un Handover FDD/TDD
puisque l'UE ne peut utiliser qu'une technologie d'accès à un instant donné.
Le hard Handover est aussi réalisé dans le cas d'un Handover entre une cellule UMTS et une cellule
GSM/GPRS (Handover inter-système). Au début du déploiement des réseaux UMTS, les Handover
vers le GSM seront nécessaires pour assurer une couverture continue.

20
Dans tous les cas, la décision de Handover est prise par le RNC, sur la base des mesures radio qui
lui sont rapportées par l'UE.

1.4.1.5 La qualité de service du réseau 3G

L’attribution des ressources sont classés selon les types de services demandés. On a alors défini 4
classes de services dans le réseau 3G.
 Services conversationnels (Conversational class) : les services de cette catégorie permettent
de transmettre principalement du son et des images entre deux personnes ou groupes de
personnes. Leur qualité est donc assez sensible à des délais dans la transmission, ces délais
pouvant être facilement perceptibles par les utilisateurs. Parmi ces services, nous pouvons
citer la téléphonie en mode circuit, la téléphonie en mode paquet utilisant le protocole VoIP
(Voice over IP) et la vidéophonie.
Néanmoins, cette dernière est moins tolérante aux erreurs que la téléphonie et requiert généralement
un débit plus important ;
 Services streaming (Streaming class) : on retrouve dans cette classe les services qui traitent
l’information au niveau du terminal de façon continue, c’est à dire au moment même où elle
est reçue (avant de la recevoir dans sa totalité). Ce type de service est unidirectionnel. Ces
services sont assez récents et offrent un potentiel d’application assez vaste. Les streaming
audio et vidéo sont des exemples d’applications typiques. À la différence des services
conversationnels, les services de type streaming sont assez asymétriques (on ne reçoit pas
au même débit que l’on émet) et on peut tolérer dans ce cas des délais importants ;
 Services interactifs (Interactive class) : ce type de service est caractérisé par le fait que le
terminal ayant envoyé un message/commande attend une réponse du destinataire dans un
certain intervalle de temps. Par conséquent, un paramètre clé pour identifier la QoS des
services interactifs est le temps d’aller-retour, c’est à dire le temps écoulé entre le moment
où le message/commande est émis et celui où la réponse arrive. Comme exemple, nous
pouvons citer le commerce électronique ainsi que les services de localisation qui se
développent de plus en plus ;
 Services en arrière-plan (Background class) : il existe des services qui ne posent, ou presque,
aucune contrainte de temps dans le transfert de l’information qu’ils génèrent. Ils peuvent
s’exécuter en «arrière-plan». Parmi ces services, nous pouvons trouver l’envoi d’un courrier
électronique, d’un message court ou alors le téléchargement d’un fichier.

21
Le paramètre pour quantifier la QoS de ce type de service est principalement le taux
d’erreurs qui doit être souvent assez faible.
Afin de garantir donc une qualité de service contre les congestions, les trafics, la charge du réseau,
trois protocoles se sont imposés :
 Intserv (Integrated Service)
 Diffserv (Differentiated Services)
 MPLS (MultiProtocol Label Switching)

Ces protocoles sont très importants dans le cœur du réseau mais on verra les détails dans le troisième
chapitre.

1.4.2 HSDPA

Les objectifs visés lors de l’introduction de HSDPA furent d’utiliser le plus efficacement possible
les canaux radio et d’atteindre une augmentation significative du débit de données dans un lien
montant par rapport à UMTS.
Pour offrir des services (de type interactive, streaming et background) à haut débit supérieurs à 2
Mbps par l’UMTS, le 3GPP a défini HSDPA (High Speed Downlink Packet Access) dans la Release
5, connu aussi par le nom de 3,5G.
Il s’agit d’une technologie radio qui permet d’atteindre des débits dans le lien descendant supérieurs
à 10 Mbits/s. La technique HSDPA n’est que l’évolution logicielle de la technologie W-CDMA de
la Release 99.

Un certain nombre de modifications apportées dans la couche physique et le MAC (Medium Access
Control) ont permis d’atteindre ces objectifs. Les processus HARQ (Hybrid Automatic Repeat
reQuest) parallèles et AMC (Adaptive Modulation et Codage) assurent une plus grande capacité
utile et une utilisation plus efficace des ressources radios.
Il a été nécessaire, pour réduire l’intervalle de temps transmission ou TTI (Transmission Time
Interval), de transférer des sections de la couche MAC du RNC dans les stations de base 3G : seul
moyen pour atteindre TTI de 2 ms.
Le processus transmet ainsi toutes les 2 ms des blocs de données pour lesquels les paramètres de
transmission peuvent être adaptés aux conditions actuelles du niveau de champ (AMC). Pour cela,
le téléphone mobile doit informer la station de base toutes les 2 ms du succès ou de l’échec de la
réception d’un paquet.

22
L’adaptation des paramètres de transmission par la station de base est fondée sur le Channel quality
Indicator (CqI) déterminé en fonction de la qualité de réception du signal piloté par le téléphone
mobile qui l’indique périodiquement (tous les n TTI) à la station de base.
Pour répondre à ces exigences, trois nouveaux canaux ont été introduits. Dans un lien montant ou
downlink, le High Speed Downlink Shared Channel (HS-DSCH) prend en charge le transport des
données.
Sur le High Speed Shared Control Channel (HS-SCCH), le téléphone mobile est informé de la
configuration du HS-DSCH. Comme leurs noms le laissent supposer, ces deux canaux ne sont pas
réservés à un téléphone mobile en particulier mais permettent au contraire à la station de base d’en
servir parallèlement plusieurs. Dans un lien descendant ou uplink, le High Speed Dedicated Physical
Control Channel (HS-DPCCH) prend en charge la transmission rapide des valeurs CqI et des
signaux d’acquittement pour les paquets.
Voici donc l’architecture de l’ HSDPA :

Figure 1.04 : Architecture HSDPA

D’après cette architecture, HSDPA est doté d’un ensemble de propriétés dont la combinaison permet
d’améliorer la capacité du réseau ainsi que le débit de données jusqu’à plus de 10 Mbps (débit pic)
pour le trafic sur le lien descendant. Parmi ces propriétés, nous retrouvons des techniques connues

23
et utilisées dans des standards d’évolution tel que le GSM/EDGE et que l’on résume par les points
suivants :

 La technique de modulation et de codage adaptatif AMC :

Cette technique permet la variation du débit de transmission de manière adaptative pour pallier les
dégradations du signal dues aux conditions de propagation. Cependant, les performances de cette
technique sont assez sensibles à des erreurs dans l’estimation des conditions du canal et aux retards
implicites de sa transmission vers le Node-B;
En matière de modulation et codage des données, plus les débits utiles sont élevés, plus faible est la
robustesse de transmission. C’est la raison pour laquelle on essaie de déterminer pour les conditions
de transmission actuelles les paramètres optimaux pouvant garantir une transmission fiable avec le
débit le plus élevé possible. HSDPA offre le choix entre différents types de modulation (QPSK et
16QAM) et de codage de données. L’adaptation d’une modulation et d’un codage peut intervenir à
chaque TTI, ce qui permet une réaction rapide aux modifications du niveau reçu.

 Une méthode de retransmission hybride rapide appelée HARQ:

La méthode HARQ est vue comme un complément à la précédente AMC en apportant la possibilité
d’ajuster le débit de transmission de manière plus fine. Le Node-B transmet un packet de données
au mobile. Si au bout d’un certain temps ce dernier n’envoie pas un acquittement positif (ACK,
Acknowledgement) ou si l’acquittement est négatif (NACK, Negative-Acknowledgement) alors, le
Nod-B considère que le paquet n’a pas été reçu convenablement et il renvoie à nouveau le même
paquet. Le mobile le garde et le combine avec les paquets retransmis par la suite. Ce type de
retransmission est appelée soft combining et il existe un autre type qui s’appelle « Incremental
Redundancy », ce qui augmente la probabilité de décoder correctement l’information ;

 Des algorithmes d’ordonnancement rapide de paquets (Fast Packet Scheduling) :

Les deux techniques précédentes permettent d’améliorer les performances de la liaison radio en
faisant changer le débit de transmission en fonction des caractéristiques instantanées du canal. Les
algorithmes d’ordonnancement permettent de sélectionner les utilisateurs de cellule auxquels il faut
allouer le canal de transmission de donnée HS-DSCH pendant un TTI.

24
Parmi les stratégies d’allocation de ressources radio appelées « scheduling » on trouve le Max C/I,
le PF (Proportional Fair) et le FFTH (Fast Fair Throughput).

Le débit du lien descendant varie de : 1.8 Mbit/s, 3.6 Mbit/s, 7.2 Mbit/s, et peut atteindre 14.4 Mbit/s
pour un terminal adapté avec une meilleur condition radio. [4]

1.4.3 HSUPA

HSUPA doit obtenir en uplink toutes les améliorations réalisées par le HSDPA en downlink. D’où
l’évidence d’utiliser des méthodes similaires. Ainsi, pour une transmission de données efficace, les
processus HARQ ont été ici également introduits et le TTI a été réduit à 10 ou 2 ms. Pour pouvoir
atteindre ces temps de réponse rapides, une partie du MAC Layer a dû également être transférée
dans la station de base.
Alors que pour le HSDPA le facteur limitant du débit est le CGI déterminé par le téléphone mobile
à partir du niveau de champ, en uplink c’est la puissance d’émission maximale que la station de base
peut autoriser pour un mobile. Cette puissance est limitée tant par la puissance d’émission maximale
d’un mobile que par le fait que la station de base ne peut lui attribuer une puissance d’émission qui
masquerait les autres téléphones.
La station de base régule la puissance par l’intermédiaire de « Grants » attribués aux téléphones
mobiles. Le Serving Cell peut fixer cette puissance par l’octroi d’un « Absolute Grant » sur une
valeur initiale déterminée. En outre, toutes les stations de base perturbées par l’émission d’un
téléphone mobile peuvent réduire sa puissance d’émission autorisée par paliers successifs à l’aide
du « Relative Grant ».
L’introduction de cinq nouveaux canaux a permis d’atteindre cet objectif. L’EDCH Dedicated
Physical DATA Channel (E­DPDCH) et l’EDCH Dedicated Physical Control Channel (E-DPCCH)
prennent en charge la transmission des données en uplink. Les données sont transmises à la station
de base via l’EDPDCH et son format via l’EDPCCH. En downlink, l’EDCH Absolute Grant
Channel (E­AGCH) et l’EDCH Relative Grant Channel (E-RGCH) prennent en charge la régulation
de la puissance d’émission autorisée. Les accusés de réception de la station de base vers le téléphone
mobile, nécessaires pour les processus HARq, sont transmis via l’EDCH Hybrid ARq Indicator
Channel (E-HICH).
La vitesse d’accès sur le lien montant est de 5,76 Mbit/s.

25
1.4.4 L’évolution du réseau 3G ou HSPA+

La technologie UMTS et ses évolutions HSPA (High Speed Packet Access) ont commencé à
montrer leurs limites en termes de capacité. La mise sur le marché de terminaux attractifs comme
les smartphones et l’introduction de nouveaux services impliquant une connexion quasi-continue au
réseau sont des facteurs qui ont mené à un essor brutal des usages et du trafic à écouler par les
réseaux. On fait à présent référence aux utilisateurs toujours connectés ou « always-on ».
Cette augmentation du trafic implique un partage des ressources entre les utilisateurs et, dans
certains cas, une réduction des débits qui leur sont délivrés. Avec l’augmentation de la charge des
réseaux, la qualité de service fournie aux clients se dégrade, ce qui pose un véritable problème aux
opérateurs de réseaux mobiles. Le 3GPP afin de répondre à ces contraintes a donc proposé :
 la définition d’évolutions du HSPA, appelées HSPA+ ;
 la définition du LTE et les réseaux 4G
HSPA+ est un terme qui regroupe plusieurs évolutions techniques visant principalement à
améliorer:
 les débits fournis aux utilisateurs et la capacité du système ;
 la gestion des utilisateurs « always-on ».
Le HSPA+ a été normalisé par le 3GPP en UMTS Release 7 (en 2007) et en LTE Releases 8 ou
« Long Term Evolution » release 8 (en 2008). L’amélioration des débits et de la capacité est rendue
possible par l’introduction de nouvelles techniques. En voie descendante, la modulation 64QAM est
désormais prise en charge, de même que la modulation 16QAM en voie montante. En complément,
une cellule peut transmettre des données à un utilisateur sur deux porteuses simultanément en voie
descendante, à l’aide de la fonctionnalité DC-HSDPA (Dual Carrier – HSDPA). Le spectre
supportant la transmission n’est donc plus limité à 5 MHz mais à 10 MHz. La largeur de bande plus
élevée permet au système une gestion plus efficace des ressources spectrales.
La fonctionnalité MIMO (Multiple Input Multiple Output) est également introduite pour améliorer
les débits en voie descendante, un principe d’utilisé plusieurs antennes à l’émission et à la réception.
Ainsi, le débit maximal varie selon la largeur de bande et le nombre d’antenne utilisé.

26
Figure 1.05 : Débit maximal du HSPA+

Les utilisateurs always-on sont mieux pris en compte via des fonctionnalités regroupées sous le
terme de CPC (Continuous Packet Connectivity).
Les évolutions HSPA+ apportent ainsi des gains très significatifs en termes de débits, de capacité et
de latence et renforcent la pérennité des réseaux 3G+.

1.5 Conclusion

Dans ce chapitre introductif, nous avons présenté d’une façon générale les différentes générations
de téléphone mobiles et les principales caractéristiques d’un réseau cellulaire.
Ainsi, la mise en œuvre du service GPRS implique une Evolution matérielle et logiciel s’ajoutent
au réseau GSM déjà existants. L’évolution du GSM vers GPRS améliorer par EDGE prépare à
l’introduction des Réseaux de troisième génération l’UMTS. En ce qui concerne l’infrastructure,
des modifications doivent être effectuées pour l’intégration du GPRS ou l’UMTS par l’ajout
d’autres équipements, et le chargement de logiciels.
L’UMTS a ensuite répondu aux problèmes de débits vis-à-vis des applications multimédia mais a
été limité par l’accroissement rapide des usagers via smartphone qui implique le partage des
ressources dégrade la qualité de service. L’évolution HSPA+, grâce à l’utilisation des différentes
technologie (technique d’accès multiple, modulation et codage, MIMO, …) a réglé ces problèmes
mais encore augmenté le débit. Dans le réseau cœur, les protocoles de qualité de service ont pallié
le problème de charge du réseau dans le domaine paquet (IP).

27
CHAPITRE 2
LE RESEAU DE LA QUATRIEME GENERATION

2.1 Introduction

A chaque passage d’une norme du réseau mobile à une autre, la nouvelle génération mobile se
différencie toujours par rapport au précèdent par un débit plus supérieur, une latence plus courte,
une capacité en nombre importante de la cellule, un coût de la connexion plus flexible, et surtout
une qualité de service offerte par le réseau.
La mise sur le marché des terminaux tels que les smartphones ou les clés 3G+ a entraîné l’explosion
des usages de services de données mobiles. La présence des abonnées dans une même cellule traduit
une réduction du débit fourni à chacun. Vu cette problème de charge sur l’accès au réseau, on a
adopté de nouvelle technologie radio qui tient aussi compte de la qualité du canal de transmission.
D’un autre côté, les applications utilisant le réseau internet ont accru dans ces derniers temps et
demande plus de débit avec le moindre taux d’erreur de transmission. Cependant, presque tous les
services de la télécommunication tendent dans le réseau internet. L’acheminement des données dans
le domaine paquet pour assurer la qualité de service nécessite un dynamisme au niveau du routage
dans le cœur du réseau.
Ces motivations liées à une conjonction de facteurs techniques décrivent l’avènement du réseau de
la quatrième génération ou réseau 4G. En 2010, LTE (du Release 10) a été définie comme la norme
véritable du réseau 4G, une « évolution multi porteuse » du HSDPA (jusqu’à 4 porteuses, soit 20
MHz), et appelé finalement « LTE-Advanced ».
En terme de vocabulaire, le réseau 4G s’appelle EPS (Evolved Packet System), constitué du réseau
d’accès appelé LTE (Long Term Evolution) et du réseau cœur appelé EPC (Evolved Packet Core).
Le réseau de la quatrième génération vise techniquement à améliorer l’efficacité spectrale et à
augmenter la capacité de gestion du nombre de mobiles dans une même cellule. Elle tente aussi
d’offrir des débits élevés en situation de mobilité et à offrir une mobilité totale à l’utilisateur en
établissant l’interopérabilité entre différentes technologies existantes. Elle vise à rendre le passage
entre les réseaux transparent pour l’utilisateur, à éviter l’interruption des services durant le transfert
intercellulaire, et à basculer l’utilisation vers le « tout-IP ».
Les principaux objectifs visés par les réseaux 4G sont d’augmenter le débit de transmission,
d’assurer la continuité de la session en cours, réduire les délais et le trafic de signalisation, optimiser

28
l’utilisation des ressources, fournir une meilleure qualité de service tel que la réduction du délai de
relève, du délai de bout-en-bout, de la gigue et de la perte de paquets.

2.2 Caractéristiques fondamentaux du réseau 4G

Une des caractéristiques qui différencie le réseau 4G est l’entité e-Node B, la seul entité dans son
réseau d’accès. Cette entité a la capacité d’utilisé la technologie OFDM (Orthogonal Frequency
Division Multiplexing) qui bénéficie d’une grande immunité contre l’interférence entre symboles,
et qui permet de gérer simplement des largeurs de bande variables et potentiellement grandes.
Pour la méthode d’accès, le 4G utilise l’OFDMA (Orthogonal Frequency Division Multiple Access)
assure un partage aisé des ressources fréquentielles entre un nombre variable d’utilisateurs
bénéficiant de débits divers. Il utilise aussi la technologie MIMO (Multiple Input Multiple Output),
qui nécessite plusieurs antennes à l’émission et à la réception, généralement 2 ou 4 antennes de
chaque côté.
Dans le réseau cœur, le concept EPC est un réseau tout IP à la différence des réseaux 2G et 3G où
l’on distinguait les domaines de commutation de circuit et de commutation de paquet dans le réseau
cœur, le réseau 4G ne possède qu’un domaine paquet appelé EPC. Tous les services devront être
offerts sur IP y compris ceux qui étaient auparavant offerts par le domaine circuit.

2.2.1 Le débit de transmission de donnée

Chaque nouvelle technologie de réseaux mobiles augmente les débits et suscite une attente de débits
supérieurs. Plusieurs facteurs limitent le débit de transmission comme les limitations capacitaires,
la condition radio, liées en particulier à la position de l’UE dans la cellule, de la ressource spectrale
disponible, et des technologies de transmission employées comme l’OFDMA et le SC-FDMA.
Les débits maximaux atteints par le LTE Advanced sont les suivants :
 100 Mbit/s en voie descendante pour une largeur de bande allouée de 20 MHz, soit une
efficacité spectrale crête de 5 bit/s/Hz.
 50 Mbit/s en voie montante pour une largeur de bande allouée de 20 MHz, soit une efficacité
spectrale crête de 2,5 bit/s/Hz.

L’avantage de la LTE est sa flexibilité dans l’usage de la bande où elle opère dans des allocations
de bande de fréquence de différentes tailles incluant 1.25, 2.5, 5, 10, 15 et 20MHz. Notons que le
débit crête est proportionnel à la largeur de bande maximale 20 MHz.

29
2.2.2 La connexion permanente

Le principe des accès haut débit où la connectivité est permanente est pour l’accès à internet. Mais
même si la connexion est permanente au niveau du réseau, il est nécessaire pour le terminal de
passer de l’état IDLE (en veille) à l’état ACTIF lorsqu’il s’agira d’envoyer ou recevoir du trafic. Ce
changement d’état s’opère en moins de 100 ms. Le réseau pourra recevoir le trafic de tout terminal
rattaché puisque ce dernier dispose d’une adresse IP, mettre en mémoire ce trafic, réaliser
l’opération de « paging », c’est-à-dire, localiser le terminal et lui demander de réserver des
ressources afin de pouvoir lui relayer son trafic.

2.2.3 Temps de latence

 Latence du plan de contrôle


L’objectif fixé pour le LTE est d’améliorer la latence du plan de contrôle par rapport à l’UMTS, via
un temps de transition inférieur à 100 ms entre un état de veille de l’UE et un état actif autorisant
l’établissement du plan usager.
 La latence du plan usager
La latence du plan usager est définie par le temps de transmission d’un paquet entre la couche IP
de l’UE et la couche IP d’un nœud du réseau d’accès ou inversement. En d’autres termes, la latence
du plan usager correspond au délai de transmission d’un paquet IP au sein du réseau d’accès.
La latence du plan usager est inférieure à 5 ms dans des conditions de faible charge du réseau et
pour des paquets IP de petite taille. Elle ne dépasse pas les 25 ms dans le cas d’une charge moyenne
du réseau.

2.2.4 La bande de fréquence utilisée dans le 4G

2.2.4.1 L’attribution des bandes de fréquence dans le monde

Le spectre de fréquence est une ressource rare qui nécessite une bonne gestion pour éviter son
gaspillage. Son organisation au niveau mondial est nécessaire à plusieurs titres. Elle garantit la
compatibilité des systèmes entre pays, autorisant l’itinérance des utilisateurs à travers le monde.
Elle permet aussi aux constructeurs d’équipements de réaliser des économies d’échelle
substantielles, réduisant les coûts et favorisant le développement des technologies.

30
Chaque continent utilise différent bande de fréquence tel que :

Pays Bande de fréquence en MHz


Amérique du Nord 700 – 2100
Amérique Latine 700 – 2100 et 700 – 2600
Europe de l’EST 800 – 2600 et 1800 - 2600
Europe de l’OUEST 800 – 2600 et 800 – 1800 – 2600
Asie 700 - 2600
Afrique 2100 - 2600
Moyen Orient 900 - 1800

Tableau 2.01: Bande de fréquence dans le monde

2.2.4.2 La gestion de la bande de fréquence

La répartition de des bandes de fréquences du LTE est gérée par le fonctionnement en mode dual :
le multiplexage de fréquences FDD ou Frequency Division Duplexing et le multiplexage temporel
TDD ou Time Division Duplexing.

 Le mode FDD
FDD désigne une méthode de duplexage dans le domaine des télécommunications sans fil.
L'émission et la réception des données se font à des fréquences différentes; autrement dit, la
fréquence de la porteuse du signal est différente suivant que le sens de la liaison est montant ou
descendant permettant d'émettre et de recevoir simultanément. Cette caractéristique aide à tirer le
meilleur parti des mécanismes qui exploitent un échange rapide d’informations de contrôle entre
émetteur et récepteur. Par exemple, l’allocation de ressources dynamique, qui se base sur la qualité
instantanée du canal mesurée par le récepteur (l’UE en voie descendante).
Cette séparation donne aussi une grande immunité contre les interférences. En contrepartie, une
bande de garde est nécessaire entre les porteuses dédiées aux voies montante et descendante afin
d’éviter l’interférence de canal adjacent de la bande d’émission sur la bande de réception pour
laquelle la puissance des signaux reçus est généralement très faible.
De plus, un duplexeur est requis au sein du terminal ainsi qu’à la station de base, afin d’isoler la
partie du modem dédiée à l’émission de celle dédiée à la réception, puisque toutes deux partagent
les mêmes antennes.
On notera que la bande dédiée à la voie montante est généralement la bande basse, tandis que celle
dédiée à la voie descendante est généralement la bande haute. En effet, l’atténuation des ondes
électromagnétiques en espace libre croît avec la fréquence. Par conséquent, un UE transmettant sur

31
une fréquence basse requiert moins de puissance d’émission pour être reçu à la station de base avec
un niveau de puissance donné qu’un UE d’un même système transmettant sur une fréquence plus
haute. L’énergie étant une ressource rare pour l’UE et moins critique pour la station de base, il est
logique d’allouer la fréquence basse à la voie montante et la fréquence haute à la voie descendante.

Figure 2.01 : Le duplexage en fréquence

 Le mode TDD

Le TDD (Time-Division Duplex) est une technique permettant à un canal de télécommunication


utilisant une même ressource de transmission (un canal radio) de séparer dans le temps l'émission
et la réception.
En mode TDD, les voies montante et descendante utilisent la même fréquence porteuse, le partage
entre les deux directions s’effectuant dans le domaine temporel. Le TDD permet d’optimiser le
système pour une éventuelle asymétrie du trafic entre les deux voies. Concrètement, le volume de
trafic en voie descendante est généralement plus important qu’en voie montante. L’opérateur peut
alors configurer un plus grand nombre de sous-trames descendantes que de sous-trames montantes.

Figure 2.02 : Le duplexage temporel

32
2.2.5 Mobilité dans le réseau

La mobilité est une fonction clé pour les réseaux mobiles. Le LTE vise à rester fonctionnel pour
des UE se déplaçant à des vitesses élevées (comprises entre 120 et 350 km/h), dans un vaste
territoire, tout en étant optimisé pour des vitesses de l’UE faibles (comprises entre 0 et 15 km/h).
Le système intègre également des mécanismes optimisant les délais et la perte de paquets lors d’un
handover intra-système.
Comme la LTE pourra opérer sur des bandes de fréquences diverses et notamment basses comme
celle des 700 MHz, il sera possible de considérer des cellules qui pourront couvrir un large diamètre.
La coexistence et l’interfonctionnement avec le réseau 3G permet aussi de gagner plus de couverture
car au début du déploiement de la LTE, peu de zones seront couvertes. Il s’agira pour l’opérateur
de s’assurer que le handover entre la LTE et la 2G/3G est toujours possible.
Le handover entre LTE et UTRAN (3G) doit être réalisé en moins de 300 ms pour les services
temps-réel, et 500 ms pour les services non temps-réel.

2.2.6 Le réseau tout IP

En effet, la SAE est le nom d’une étude où la 3GPP développe une structure pour une évolution et
migration des systèmes courants à un système qui supporte des technologies d'accès multiples, avec
un plus haut taux de transfert de données et basé sur la commutation de paquet, alors que l’EPC
(Evolved Packet Core) est le nom du réseau cœur évolué.
Tous les services de télécommunication sont offerts sur IP en mode paquet qui permet ainsi
l’interconnexion avec le domaine paquet les réseaux de génération antérieur GPRS, 3G.
Cette caractéristique réduit la latence, et optimise la fluidité du cœur du réseau. [4] [5]

2.3 Architecture du réseau 4G

La figure ci-dessous décrit l’architecture globale du réseau 4G, incluant le réseau cœur, le réseau
d’accès, et aussi d’autres blocs des réseaux externes.
Les nouveaux blocs spécifiés pour le LTE, connu aussi sous le nom d’EPS (Evolved Packet System),
sont l’EPC (Evolved Packet Core) et l’E-UTRAN (Evolved UTRAN).
L’IMS (IP Multimedia Subsystem) est localisé au sommeil de la parties cœur et fournit l’accès aux
services multimédia.

33
Figure 2.03 : Architecture du réseau 4G

2.3.1 Réseau d’accès

2.3.1.1 L’entité e-Node B

Figure 2.04 : Architecture e-UTRAN

La partie radio du réseau 4G, appelée « e-UTRAN » est l’équivalent du BSS (2G) et de l’UTRAN
(3G), et est composé que de l’entité eNodeB ou Evolved NodeB.
Cette partie est responsable sur la gestion des ressources radio, les méthodes d’accès, les
modulations utilisées, la compression, la sécurité, et la connectivité vers le réseau cœur évolué.

34
Les fonctions supportées par le RNC du réseau 3G ont été réparties entre l’eNodeB et les entités du
réseau cœur MME/SGW dans le 4G. La fonctionnalité du contrôleur radio réside dans l’eNodeB, le
réseau est moins latent, car la mobilité est déterminée par une seule entité eNodeB, le handover est
sera alors plus robuste dans LTE.
L’eNodeB dispose d’une interface S1 avec le réseau cœur. L’interface S1 comprend la S1-C (S1-
Contrôle), entre l’eNodeB et la MME, puis S1-U (S1-Usager) entre l’eNodeB et la SGW. Une
nouvelle interface X2 a été définie entre les eNodeB adjacents. Son rôle est de minimiser la perte
de paquets lors de la mobilité de l’usager en mode ACTIF (Handover).

Les principales fonctions de l’eNodeB sont les suivantes :


 Radio Bearer Management :
Qui inclut l’établissement et la libération des supports de données radio (Radio Bearer) ainsi que
les fonctions de la gestion des ressources radio pour le contrôle de l’admission ainsi que l’allocation
des supports de données. Cet ensemble de fonctions est sous le contrôle du MME à travers
l’interface S1 pendant l’établissement, la libération et la modification de la session.

 L’interface radio de transmission et de réception


Qui inclut la modulation/démodulation ainsi que le codage/décodage du canal radio.

 La gestion dynamique des ressources radio en lien montant et lien descendant et


l’Ordonnancement (Scheduling) des paquets
C’est la fonction la plus critique qui requière que l’eNodeB fait face à plusieurs contraintes dans le
but d’être capable de multiplexer différents flux de données sur l’interface radio, et d’utiliser les
ressources disponibles de façon optimal.

 Radio Mobility Management :


Qui s’occupe de la mobilité du terminal lorsqu’il est dans l’état ACTIF. Ceci doit être distingué du
Mobility Management qui est une fonction gérée par le Packet Core.

 Chiffrement et compression des entêtes IP des données usager


C’est la fonction clé de la transmission de données sur l’interface radio. Elle répond aux besoins de
sécurité sur l’interface radio et la transmission de paquets IP de façon optimal.

35
 Sécurité de la signalisation réseau :
À cause de la sensibilité des messages de signalisation échangés entre eNodeB et le terminal ou
entre le MME et le terminal. Toutes ces informations sont protégées contre l’écoute et l’altération.

 L’ordonnancement et la transmission des informations « Broadcast », qui est présente de


tous, ou presque, les réseaux cellulaire.

 L’ordonnancement et la transmission des messages de paging, cette fonction est essentielle


pour pouvoir localiser le mobile. [4]

2.3.1.2 L’interface radio du 4G

L’interface radio de la technologie LTE fournie des bonnes conditions de connexion à voir les
débits, la capacité en nombre de communication simultanée d’une cellule, une très brève latence et
le minimum taux d’erreur de paquet. Tous ceci grâce à l’utilisation des technologies MIMO,
OFDMA, SC-FDMA et de la modulation multi porteuse.

a. Le mode de transmission MIMO

Le mode de transmission MIMO se définit par l’utilisation de plusieurs antennes à l’émission et à


la réception.
Les modes de transmissions utilisées en LTE sur la voie descendante sont :
 La diversité de transmission qui augmente la robustesse de la transmission.
 Le « beamforming » ou formation de faisceau, qui consiste à concentrer l’énergie du signal dans
la direction du récepteur que l’émetteur souhaite servir.
 Le multiplexage spatial mono-utilisateur ou SU-MIMO et le multiplexage spatial multi-
utilisateur MU-MIMO, qui maximise le débit de transmission.
Sur la voie montante, seule la sélection d’antenne est présente dans les spécifications LTE.

b. La méthode d’accès

L’OFDMA (Orthogonal Frequency Division Multiple Access) est une technologie de codage radio
de type Accès multiple par répartition en fréquence (AMRF ou en anglais FDMA) pour la liaison
descendante et le SC-FDMA (Le single-carrier FDMA) est aussi une technologie de codage radio
de type accès multiple par répartition en fréquence pour la liaison montante.

36
 OFDMA
L’OFDMA est une technique de multiplexage et de codage des données utilisée principalement dans
les réseaux de téléphonie mobile de quatrième génération.
L’OFDMA est optimisé pour l’accès multiple, c’est-à-dire le partage de la ressource spectrale
(bande de fréquence) entre de nombreux utilisateurs distants les uns des autres. L’OFDMA est
compatible avec la technique des antennes MIMO.
L’OFDMA donne pour une même largeur spectrale, un débit binaire plus élevé grâce à sa grande
efficacité spectrale (nombre de bits transmis par Hertz) et à sa capacité à conserver un débit élevé
même dans des environnements défavorables avec échos et trajets multiples des ondes radio. Ce
codage (tout comme le CDMA utilisé dans les réseaux mobiles 3G) permet un facteur de
réutilisation des fréquences égal à « 1 », c’est-à-dire que des cellules radio adjacentes peuvent
réutiliser les mêmes fréquences hertziennes.
Le principe de l'OFDMA est de répartir sur un grand nombre de sous-porteuses le signal numérique
que l'on veut transmettre ce qui permet, pour un même débit global, d'avoir sur chaque canal un
débit plus faible et donc un temps d'émission de chaque symbole plus long.
Cela limite les problèmes d'interférences inter-symboles et de fading liés aux chemins multiples de
propagation qui existent dans les liaisons radio de moyenne et longue portées.
Un filtrage séparé de chaque sous-porteuse n'est pas nécessaire pour le décodage dans le terminal
récepteur, une « Transformée de Fourier » FFT est suffisante pour séparer les sous-porteuses l'une
de l'autre. Dans le cas du LTE, il y a jusqu'à 1200 porteuses indépendantes.
Orthogonalité (le « O » de OFDMA) : en utilisant des signaux orthogonaux les uns aux autres pour
les sous-porteuses, l’OFDMA évite les interférences mutuelles. Ce résultat est obtenu en ayant un
écart de fréquence entre les sous-porteuses qui est égal à la fréquence des symboles sur chaque sous-
porteuse. Cela signifie que lorsque les signaux sont démodulés, ils ont un nombre entier de cycles
dans la durée du symbole et leur contribution aux interférences est égale à zéro; en d'autres termes,
le produit scalaire entre chacune des sous-porteuses est nul pendant la durée de transmission d'un
symbole (66.7 µs en LTE, soit une fréquence de 15 KHz, ce qui correspond à l'écart de fréquence
entre 2 sous-porteuses).
Ce codage est associé dans les réseaux LTE à des modulations de type QPSK ou QAM utilisées sur
chacun des canaux, pour s'adapter aux conditions radio locales et à la distance séparant l'antenne de
chaque terminal.

37
 SC-FDMA
Le SC-FDMA ou single-carrier FDMA est une technologie de codage radio de type accès multiple
par répartition en fréquence.
Comme pour d'autres techniques à schéma d'accès multiples (TDMA, FDMA, CDMA, OFDMA),
le but est l'attribution et le partage d'une ressource radio commune (bande de fréquence) entre
plusieurs utilisateurs. Le SC-FDMA peut être considéré comme une variante linéaire des codages
OFDM et OFDMA, dans le sens où il consiste aussi à répartir sur un grand nombre de sous-
porteuses du signal numérique, mais il utilise en complément, une DFT (Transformation de Fourier
discrète u signal) supplémentaire pour pré-coder l'OFDMA conventionnel.
Son PAPR (peak-to-average power ratio) est plus faible que celui de l'OFDMA et donne une
bénéficie au terminal mobile en termes d’efficacité énergétique, en diminuant la puissance crête
d’émission et donc le poids et le coût du terminal (smartphone ou tablette tactile).
Il a été adopté pour les liaisons montantes (Uplink) de certaines normes pour la partie radio
(eUTRAN) des réseaux mobiles LTE, car ce codage permet de diminuer la consommation électrique
du terminal et donc d'augmenter l'autonomie de sa batterie.
Pour les liaisons radio descendantes (Downlink) des réseaux LTE, pour lesquelles il y a moins de
contraintes énergétique, c'est l'OFDMA qui est utilisé car il permet pour une même largeur spectrale,
un débit binaire plus élevé.

c. La Modulation

Principalement par la mise en œuvre de la modulation QAM (Quadrature Amplitude Modulation)


à 16 états ou 16 QAM. Cette modulation permet de doubler la capacité de transfert par rapport à la
modulation utilisée pour l'UMTS, la QPSK (Quadrature Phase Shift Keying) qui est basée sur deux
porteuses de même fréquence déphasées de 90 degrés, soit 2 puissance 2 = 4 états d'information.
Pour sa part, la 16 QAM combine deux niveaux d'amplitude avec deux porteuses en quadrature, soit
2 puissance 4 = 16 états d'information. Chacune de ces modulations est utilisée pour un lien précis
tel que : modulations Downlink : QPSK, 16QAM, 64QAM ; et modulations Uplink : QPSK et
16QAM
 La modulation 16QAM
La modulation d'amplitude en quadrature (QAM) est une forme de modulation d'une porteuse par
modification de l'amplitude de la porteuse elle-même et d'une onde en quadrature (une onde
déphasée de 90° avec la porteuse) selon l'information transportée par deux signaux d'entrée.

38
L'amplitude et la phase de la porteuse sont simultanément modifiées en fonction de l'information à
transmettre.
Le format de modulation QAM est étudié de plus en plus sérieusement dans le domaine des
télécommunications par fibre optique afin de répondre à l'augmentation du débit.

 La modulation QPSK
Deux signaux FI en quadrature sont générés à partir d'un oscillateur local à la fréquence quadruple.
Le train de donnée binaire est séparé en deux "sous trains" appelés I et Q. La paire de valeur,
constitue ce que l’on appelle un symbole.
Pour des considérations électroniques, les signaux I et Q sont centrés sur 0V. On peut donc
considérer que I et Q prennent symboliquement deux niveaux +1, -1 correspondant aux états
binaires.

 La modulation multi porteuse


Le principe de l'OFDM consiste à répartir sur un grand nombre de sous-porteuses le signal
numérique que l'on veut transmettre. Comme si l'on combinait le signal à transmettre sur un grand
nombre de systèmes de transmission (des émetteurs, par exemple) indépendants et à des fréquences
différentes.
Grâce à l'OFDM (Orthogonal Frequency Division Multiplexing) qui joue dans ce cas le rôle d’une
modulation multi porteuse, c’est-à-dire un fort recouvrement spectral entre sous porteuses, on peut
tirer profit de la diversité fréquentielle en privilégiant les bonnes sous porteuses.
Le canal large bande est transformé en un ensemble de N canaux à bande étroite avec une
orthogonalité entre canaux. Chaque symbole M-QAM (16) est transmis sur un canal, simplement
caractérisé par un gain complexe sur la sous porteuse correspondante.

2.3.2 Réseau cœur

Le cœur de réseau appelé « EPC » (Evolved Packet Core) utilise des technologies « full IP », c'est-
à-dire basées sur les protocoles internet pour le transport de la voix, des données et la signalisation
qui permet des temps de latence réduits. Ce cœur de réseau permet l’interconnexion via des routeurs
avec les autres eNodeB distants, les réseaux des autres opérateurs mobiles, les réseaux de téléphonie
fixe et le réseau Internet.

39
2.3.2.1 Les entités fonctionnelles de l’EPC

 MME : Mobility Management Entity

Entité de gestion de mobilité, MME : la MME est le nœud principal de contrôle du réseau d'accès
LTE/EPC.
Cette partie est responsable de la localisation et la poursuite du terminal mobile (UE) entre les appels
et la sélection d’une bonne S-GW (Serving-GetWay) à travers une connexion.
Comme elle réalise le dernier point de la protection par codage, donc par conséquent c’est le point
qui valide l’interception de signalisation. Ainsi, elle contrôle le signal entre l’UE et le réseau cœur,
et assure l’établissement, la maintenance, et l’élargissement de la porteuse radio services. Elle se
charge alors de l’activation et de la désactivation du Bearer.
La MME effectue la procédure de paging où elle suit des UE Mode Inactif (IDLE).
La MME gère aussi le handover Intra-LTE impliquant la location du nœud du réseau d’accès, ainsi
que le handover 2G/3G en sélectionnant le SGSN.
Elle s’interface avec le HSS pour authentifier un utilisateur en attachement et implémentation des
restrictions d'itinérance.

 HSS : Home Subscriber Service


Base de données similaire au HLR en GSM, le HSS est utilisée simultanément par les réseaux 2G,
3G, LTE, IMS appartenant au même opérateur et contient l’information de souscription pour ces
réseaux et porte l’appel de control et la session management.
A la différence de la 2G et de la 3G où l’interface vers le HLR est supportée par le protocole du
monde SS7, MAP, l’interface S6 s’appuie sur le protocole du monde IP, DIAMETER.
Elle est Principalement désignée à l’authentification, l’autorisation, la sécurité, le débit et fournit
une localisation détaillée à l’utilisateur.

 PDN-GW: Packet Data Network GateWay


PDN-GW est une passerelle qui assure la connectivité pour l'UE à des réseaux de paquets de données
externes (internet), remplissant la fonction d'entrée et de sortie pour les données UE.
Il réalise les procédures d’allocation d’adresse IP au mobile, d’interception légale ainsi que de
contrôle (gating, QoS control) et de taxation des flux de service montants et descendants.

40
 PCRF: Policy and Charging Rules Function
Responsable sur la décision principale du control. Il fournit une QoS d'autorisation pour décider le
traitement des données en respectant l’abonnement des utilisateurs.
La PCRF est le nom générique de l'entité au sein de la LTE qui détecte les flux de service et applique
la politique de tarification. Pour les applications qui nécessitent une politique dynamique de
tarification ou de contrôle, un élément du réseau intitulé « Applications Function » est utilisée.

 SGW: Serving Gateway

La passerelle de service SGW, est un élément plan de données au sein de l’EPC. Son objectif
principal est de gérer la mobilité du plan utilisateur, et elle agit également comme une frontière
principale entre le réseau d’accès et le réseau cœur.
La SGW achemine les paquets de données, maintient la connexion de l’inter-eNodeB handover,
puis inter-système handover entre LTE et GSM/UMTS et réservé le contexte du terminal mobile
(UE), comme les paramètres de la porteuse service et le routage des informations.
La SGW maintien également les chemins de données entre les eNodeB et les passerelles PDN, et
quand les UE se déplacent dans les régions desservies par des eNodeB différentes, la SGW sert de
point d'ancrage de mobilité veillant à ce que le chemin de données soit maintenu.

 . SGSN : Serving GRPS Support Node


Interconnecte le LTE, UMTS, et le réseau GSM pour augmenter la mobilité.

2.3.2.2 L’interface du réseau cœur EPC

Voici donc en résumé les grandes fonctions assuré par l’EPC :


 La fonction de contrôle d'accès réseau

Elle permet d' identifier l' usager lorsque ce dernier se joint au réseau, elle met à jour la
zone de localisation (tracking area) , et elle demande ensuite des ressources pour assurer les
communications. Elle permet aussi de sécuriser les flux de signalisation des usagers en les
cryptant entre l'UE et l'eNodeB.
 La fonction de gestion de la mobilité

C'est une fonctionnalité qui permet à l'UE de s’attacher, de quitter et de mettre à jour la zone
de localisation.

41
 La fonction de gestion de session

Elle permet d'établir soit des « defaults bearers» et des « dedicated bearers» afin que l'UE
dispose de connectivité IP pour ses communications.
 La fonction de routage de paquet et de transfert

Elle permet d’acheminer les paquets de l'UE au PDN-GW (Packet Data Network Gateway) ainsi
que du PDN-GW vers l'UE.
 La fonction de gestion de ressource radio
Elle permet l'établissement et la libération de RAB (Radio Access Bearer) entre l'UE et le
«Serving Gateway » à chaque fois que le terminal souhaite devenir actif pour communiquer.
 Mode d’itinérance
L’EPC fonctionne en situation de roaming en mode « home routed » ou en mode « local breakout
». Autrement dit lorsqu’un client est dans un réseau visité, son trafic de données est soit routé à son
réseau nominal qui le relaye par la suite à la destination (home routed) ou directement routé au
réseau de destinataire sans le faire acheminer à son réseau nominal (local breakout).
Il est possible de faire acheminer le trafic de l’EPC vers l’accès LTE, CDMA-2000 (paquet), 2G
(paquet) et 3G (paquet) et ainsi garantir le handover entre ces technologies d’accès.
 Fonction de filtrage
Enfin, l’EPC supporte le filtrage de paquet par exemple pour la détection de virus et une taxation
évoluée basée sur le service accédé par le client en termes du volume, de la session, de la durée, de
l’événement, du contenu, etc.

2.3.3 La partie IMS

L’IP Multimedia Sub-system (IMS) est une architecture standardisée NGN (Next Generation
Network) pour les opérateurs de téléphonie, qui permet de fournir des services multimédias fixes
et mobiles. Cette architecture utilise la technologie VoIP ainsi qu'une implémentation 3GPP
standardisée.
Les systèmes téléphoniques existants (commutation de paquets et commutation de circuits) sont pris
en charge. L’objectif d’IMS n’est pas seulement de permettre de nouveaux services, existants ou
futurs, proposés sur internet, mais les utilisateurs doivent aussi être capables d’utiliser ces services
aussi bien en déplacement (situation de roaming) que depuis chez eux.

42
Pour cela, l’IMS utilise les protocoles standards IP. Ainsi, une session multimédia, qu’elle
s’effectue entre deux utilisateurs IMS, entre un utilisateur IMS et un internaute, ou bien encore entre
deux internautes, est établie en utilisant exactement le même protocole.
De plus, les interfaces de développement de services sont également basées sur les protocoles IP.
C’est pour cela qu’IMS fait converger l’internet et le monde de la téléphonie cellulaire; Il utilise les
technologies cellulaires pour fournir un accès en tout lieu, et les technologies Internet pour fournir
les services.
Voici quelques exemples de services de l’IMS :
 Echange de fichiers pendant un appel.
 Un usager peut créer une règle qui le montre connecté après une certaine heure et rejette tous
les appels en provenance d’un appelant de son groupe professionnel.
 Un usager peut couper lorsque ses collègues professionnels appellent et les rediriger vers
une page Web spécifique présentant l'hôtel où il passe ses vacances.
 Un usager peut activer la sonnerie au niveau de tous ses appareils en fonction de l’appelant.
 Messagerie instantanée et vidéo conférence.

2.3.4 Architecture en couche du réseau 4G

L’architecture en couche montre les mécanismes du réseau pour fournir la connexion entre l’UE et
le réseau. L’interface radio E-UTRAN est décrite selon le modèle OSI, avec une couche physique
(Layer1) qui implémente la partie PHY, une couche liaison de données (Layer 2) qui supporte le
RLC, le PDCP et le MAC, et la couche RRC (Layer 3).
L’interface radio du LTE présente trois grandes couches. Ces couches sont caractérisées par ses
propres piles protocolaires, ainsi on peut voir le service que doit être rendu par la couche N de
l’architecture à la couche supérieure (N + 1) par l’intermédiaire de certain protocole.
La figure 2.05 suivante illustre l’architecture en couche de l’interface radio du réseau 4G :

43
Figure 2.05 : Architecture en couche de l’interface radio du réseau 4G

2.3.4.1 La couche physique ou la couche L1

Cette couche qui est la plus basse, a pour rôle principale d’assurer la transmission des données. Elle
réalise le codage canal, la modulation, les traitements MIMO ainsi que la modulation multi-porteuse.
Les opérations inverses sont effectuées par la couche physique en réception. De plus, cette couche
effectue des taches nécessaires à son fonctionnement et aux fonctionnements de la couche
supérieure comme les mesures radio, la synchronisation, la détection de la présence d’une cellule et
la signalisation d’informations de contrôle.

2.3.4.2 La couche 2 ou couche L2

Cette couche intervient pour le transfert de données tel que le MAC (Medium Access Control) prend
en charge l’ordonnancement des paquets et la répétition rapide, le RLC (Radio Link Control) est
responsable de la transmission fiable de données, et le PDCP (Packet Data Convergence Protocol)
qui fournit le protocole de compression d’entête et implémente le cryptage de données.

44
a.La sous couche PDCP (Packet Data Compression Protocol)

La couche PDCP dont le rôle est de fournir le protocole de compression d’entête et implémente le
cryptage de données. Cette couche supporte les porteuses radio. Chaque porteuses correspond à un
flux d’information comme les données du plan usager ou les signalisations du plan de contrôle.

b.La sous couche RLC (Radio Link Protocol)

Cette couche à son tour assure le contrôle du lien des données comme
La couche RLC fournit à la couche PDCP les services basique de la couche 2 du modèle OSI,
comme la segmentation des données paquet et l’ARQ (Automatic Repeat Request) pour le
mécanisme de correction d’erreur, la retransmission des PDU (Protocol Data Unit) manquantes
permettant la reprise sur erreur et la remise en séquence des PDU pour assurer l’ordonnancement
des SDU (Service Data Unit) à la couche supérieure.

c.La sous couche MAC (Medium Access Control)

Elle permet l’accès et l’adaptation au support de transmission grâce aux mécanismes correction
d’erreur par retransmission HARQ (Hybrid Automatic Repeat reQuest), à l’allocation dynamique
de ressource ou « scheduling » et à la priorisation des flux sur les liens.
Le but principale est la couche MAC est de mapper et multiplexer les canaux logique sur les canaux
de transport après avoir performer les manipulations de priorité sur les flux de données reçu par la
couche RLC. Finalement, la couche MAC délivre les flux de transport à la couche PHY, qui
appliquera le codage canal et la modulation avant la transmission sur l’interface radio.

2.3.4.3 La couche 3 ou couche RRC

La couche RRC (Radio Ressource Control) sert au control de l’interface radio. Elle assure la
diffusion et le décodage d’informations systèmes pour tous les équipements en mode veille, l’envoi
et la réception de paging pour l’établissement d’appel destiné à n UE en mode veille, le contrôle des
mesures de l’UE et le contrôle de la mobilité en mode veille.
La couche RRC (Radio Resource Control) supports toutes les procédures de signalisation entre le
UE et l’eNodeB. Ceci inclut les procédures de mobilités et la gestion de connexion. Les
signalisations venant du plan de contrôle de l’EPC sont transférés au terminal à travers le protocole
RRC, d’où le lien entre le RRC et les couches supérieures.

45
2.3.4.4 Les canaux de transmission

L’interface radio E-UTRAN doit être capable de transmettre des informations à haut débit et à faible
temps de latence. Cependant, pas tous les flux d’information ne nécessitent la même protection face
aux erreurs de transmission ou la manipulation de la Qualité de Service (QoS). Les messages de
signalisations E-UTRAN doivent être transmis le plus rapidement possible en utilisant le meilleur
schéma de protection contre les erreurs, car ils sont critiques dans le cas d’une mobilité radio.
D’un autre côté, la voix et les données peuvent tolérés un « frame loss » raisonnable, due à la
transmission radio.
Dans le but d’être flexible et permettre différents schéma pour la transmission de données, les
spécifications de l’E-UTRAN on introduit plusieurs types de canaux :
 Les canaux logiques
 Les canaux de transport
 Les canaux physiques.

Figure 2.06 : Canal de transmission

46
a. Les canaux logiques

Les canaux logiques sont définis par le type d’informations qu’il transporte et opèrent entre la
couche MAC et la couche RLC. Ils correspondent aux services de transfert de données offert par les
protocoles des couches hautes de l’interface radio. Un canal logique est associé à un ou plusieurs
flux de données qui possèdent des caractéristiques communs comme la typologie des données (plan
usager ou plan de contrôle), priorité des flux ou le débit nominal.
Il y a uniquement deux types de canaux logiques : les canaux de contrôle, pour les transferts des
informations du plan de contrôle et les canaux de trafic pour les transferts des données utilisateur
du plan usager. Chacun des canaux de ces deux catégories corresponds à un certain type de flux
d’information.
Les différents canaux logiques de l’interface radio du LTE sont:
 BCCH (Broadcast Control CHannel) : utilisé pour la diffusion d’informations de contrôle
sur la cellule.
 PCCH (Paging Control CHannel) : utilisé pour la notification d’appel.
 CCCH (Common Control CHannel) : utilisé pour la transmission de la signalisation quand
elle ne peut pas être transmise sur un canal dédié DCCH.
 DCCH (Dedicated Control CHanel) : utilisé pour la signalisation dédiée à un utilisateur.
 DTCH (Dedicated Trafic CHannel) : utilisé pour porter les informations de trafic dédiées à
un utilisateur.

b. Les canaux de transport

Les canaux de transport décrivent pourquoi et avec quelles caractéristique les données sont
transférés à travers l’interface radio. Par exemple, les canaux de transport décrivent comment les
données sont protégées contre les erreurs de transmission, le type de codage canal, la taille des
paquets de données envoyés sur l’interface radio, ... Cet ensemble d’information est connu sous le
nom de « Transport Format ».
Les canaux de transports sont classifiés en deux catégories : les canaux de transport en lien
montante et descendante.
Les différents canaux de transport de l’interface radio sont:
 BCH (Broadcast CHannel) : Utilisé en voie descendante pour la diffusion d’information sur
la cellule.

47
 DL-SCH (Downlink Shared CHannel) : Utilisé pour la transmission de données dédiées de
contrôle et du plan usager en sens descendant et utilisé également pour transmettre les
informations de cellule non portées par le BCH.
 PCH (Paging CHannel) : Utilisé pour diffuser les informations de paging sur l’ensemble de
la cellule.
 RACH (Random Access CHannel) : Utilisé pour l’établissement d’une connexion RRC avec
la station de base et le rétablissement lors d’un handover.
 UL-SCH (Uplink Shared CHannel) : Utilisé pour la transmission de données dédies de
contrôle et du plan usager en sens montant.

c. Les canaux physiques

Les canaux physiques sont l’implémentation des canaux transport sur l’interface radio. Leur
structure dépend étroitement des caractéristiques de l’interface physique OFDM. Voici la liste des
canaux physiques en voie montante et en voie descendante.
Pour la voie montante :
 PUSCH (Physical Uplink Shared CHannel): utilisé pour la transmission de l’UL-SCH et
porte également les informations de contrôle du PUCCH en cas de collision de ces deux
canaux sur le même intervalle de temps
 PUCCH (Physical Uplink Control CHanel): utilisé pour la transmission d’information de
contrôle nécessaire à l’HARQ et à l’allocation de ressource
 PRACH (Physical Random Access CHannel): utilisé pour porter le RACH

Pour la voie descendante :


 PDSCH (Physical Downlink Shared CHannel): utilisé pour la transmission du DL-SCH et
du PCH
 PBCH (Physical Broadcast CHannel): utilisé pour la transmission de BCH
 PCFICH (Physical Control Format Indicator CHannel): utilisé pour indiquer le nombre de
symbole OFDM utilisés pour la transmission du PDCCH dans une sous-trame
 PDCCH (Physical Downlink Control CHannel): utilisé pour la transmission d’information
de contrôle
 PHICH (Physical Hybrid ARQ Indicator CHannel): utilisé pour porter les acquittements
HARQ. [4] [6] [7]

48
2.4 Qualité de service dans le réseau 4G

Le développement du réseau Internet et le nombre d’utilisateurs pouvant se connectés à ce réseau


impose le recours à des niveaux importants de QoS. Dans cette perspective, plusieurs groupes de
travail ont vu le jour pour les réseaux 4G. Les nouveaux besoin en termes de mobilité des utilisateurs
et la croissance des réseaux permettant le nomadisme des utilisateurs ont fait migrer le problème
vers la des réseaux sans fil. On voit alors que les besoins en QoS peuvent être différents. Par exemple
si l’on veut diffuser de la vidéo à la demande, on aura besoin d’un transfert quasi temps-réel avec
une latence très faible et une gigue faible, en revanche il ne sera pas dramatique de perdre une
image de temps en temps ou alors d’avoir une qualité d’image un peu dégradée.
Les applications réseau ont évolué, ou plus exactement de nouvelles applications sont apparues et
étant gourmandes en ressources, les réseaux traditionnels doivent mettre en œuvre des mécanismes
de QoS pour ces flux dits continus.
La LTE a alors établi le concept « bearer », le bearer EPS, un concept logique qui est établi entre le
terminal et la PDN GW et qui agrège plusieurs flux de donné transportés entre les deux entités. Il
permet d’identifier de manière unique des flux de trafic recevant la même qualité de service entre
le terminal et la PDN GW. Tous les flux associés à un bearer EPS reçoivent les mêmes traitements
en termes de « forwarding » ou expédition des paquets. La classification de trafic repose sur les
paramètres de QoS tels que le délai, le débit, la priorité …
L’établissement, la modification, et la suppression des bearers est effectué par l’entité « Policy
Controller », dont laquelle ces décisions sont basés sur les paramètres de QoS comme la classe de
service ou QoS Class Identifier (QCI), la priorité ou Allocation Retention Priority (ARP), le débit
maximum que le trafic n’a pas à excéder ou Maximum Bit Rate (MBR), le débit garanti par le réseau
ou Guaranted Bit Rate (GBR).
Sur ce, le QCI est utilisé pour le traitement d’expédition des paquets en terme de bearer (allocation),
de priorité, de gigue, et de perte de paquet que le trafic reçoit entre l’UE et le passerelle.
La priorisation de paquet exige l’attribution des ressources nécessaire (bande passante, débit, ordre
de transfert, …) pour sa transmission.
L’ARP ou Allocation Retention Priority est utilisé pour décider si on accepte ou rejette à cause
d’une limitation de ressource la requête d’établissement ou de modification des bearers.
Il existe deux types de bearers EPS : le default beare et le dedicated bearer.

49
 Le Default bearer
Ou encore non-Guaranted Bit-Rate (non-GBR), le premier bearer établi lorsque le terminal se
connecte pour la première fois à un PDN, il reste actif durant toute la connexion.

 Le Dedicated bearer, ou Guaranteed Bit-Rate (GBR), où tous les bearers additionnels


établis avec le même PDN
Le dedicated bearer garanti les ressources minimum demandé par le service, c’est-à-dire qu’il est
attribué pour fournir une QoS à un service spécifique. Par exemple, quand l’usager souhaitera établir
un appel qui requiert une certaine qualité de service telle que l’appel voix ou visiophonie, le réseau
pourra établir pour la durée de l’appel un dedicated bearer qui supporte la qualité de service exigée
par le flux de service et surtout qui dispose d’un débit garanti afin d’émuler le mode circuit.

2.5 Conclusion

Durant ce chapitre, on a pu voir comment la LTE s’est pris pour atteindre à ses performances.
En bref, les usagers mobiles du réseau 4G peuvent profiter pleinement des services de ce réseau car
déjà le temps de session avec le réseau est courte (latence), les technologies de l’interface radio
(OFDMA, SC-FDMA, MIMO, …) permet le minimum de perte de donnée avec un débit élevé qui
est même gardé en cas de mauvaise condition radio. Ces technologies assurent aussi une part de
responsabilité dans la mobilité de l’UE en lui permettant la bonne fonctionnalité du réseau lors du
déplacement à une vitesse élevée de ce dernier.
Pour l’acheminement de données échangées, le concept de bearer apporte beaucoup en termes de
qualité de service.
Même si le réseau d’accès est optimale, et que les bearers assurent le traitement des flux de donné
en terme de QoS, il se peut que le réseau rencontre des problèmes de congestion, de surcharge, et
de manque de ressource qui refusera l’activation du bearer. Pour cela, dans le prochain chapitre, on
va résoudre ce problème, par le concept IP/MPLS qui a aussi une part de responsabilité pour fournir
la qualité de service dans le réseau 4G.

50
CHAPITRE 3
IMPLEMENTATION DE L’IPV6/MPLS POUR FOURNIR LA QUALITE DE SERVICE
DANS LE RESEAU 4G

3.1 Introduction

La croissance exponentielle des besoins en termes de réseaux implique, en plus d'une augmentation
considérable des ressources, l'intégration de nouvelles fonctionnalités. Celles-ci sont nécessaires,
d'une part pour utiliser de manière efficace les ressources ainsi disponibles, et d'autre part pour
satisfaire les récents besoins des nouvelles applications.
Cependant, l'intégration de ces fonctionnalités vue récemment dans le réseau internet nécessite
l'utilisation de techniques de plus en plus performantes. Ce qui a amené les fournisseurs d'accès
Internet à introduire certains technologies dans le cœur de réseau tel que l'IP (Internet Protocol),
l'ATM (Asynchronous Transfer Mode), le PoS (Packet over Sonet/SDH), ou encore le MPLS (Multi
Protocol Label Switching), depuis quelques années.
L'idée a consisté de ne garder de l'ATM (Asynchronus Transfert Mode) que sa capacité de transfert
et remplacer les protocoles de commandes jusque-là associés par un contrôle direct des matrices de
commutation par les protocoles de routage utilisés dans les réseaux IP.
Les motivations pour l'élaboration d'une telle technique vont bien au-delà de la facilité d'intégration
de l'IP et l'ATM. Il s'agit en effet d'enrichir les capacités de la technologie IP, également la capacité
à mettre en œuvre une ingénierie de trafic et par là même permettre la définition de contrats de
qualité de service. La capacité à isoler des trafics autorisant ainsi la création de réseaux privés
virtuels directement à partir du réseau et non plus seulement sur la base de techniques de tunnels. Il
s'agit ici d'intégrer dans le service IP les vertus des technologies relais de trame ou ATM qui
travaillent en mode connecté.
D’où l’utilisation du protocole MPLS (Multi Protocol Label Switching), une solution efficace à la
gestion de la qualité de service ou QoS (Quality of Service) dans un réseau, et à évoluer ce réseau
en intégrant la solution IP/MPLS.
Un tout autre problème se repose aussi à la mobilité de l’usager. La mobilité dans l’Internet est
considérée comme le changement du point d’attachement d’un terminal mobile, lors de ses
déplacements, en passant d’un réseau local à un autre. Grâce à l’architecture IP/MPLS, le protocole
Mobile IP sera en mesure de gérer le Handover tandis que MPLS va optimiser les échanges de
données dans le réseau.

51
3.2 La qualité de service

La qualité de service ou QoS (Quality of service) est la capacité de transmission dans de bonnes
conditions un certain nombre de paquet dans une connexion entre un émetteur et un récepteur, et
cela peut être présenté sous plusieurs termes tel que la disponibilité, débit, délais de transmission,
les taux de perte de paquets…
Elle regroupe un ensemble de technologies mise en œuvre pour assurer des débits suffisants et
constants sur tous les types de réseaux.
Le but de la QoS est donc d’optimiser les ressources du réseau et de garantir de bonnes performances
aux applications. La qualité de service sur les réseaux permet d’offrir aux utilisateurs des débits et
des temps de réponse différenciés par application suivant les protocoles mis en œuvre au niveau de
la couche réseau.
Elle permet ainsi aux fournisseurs de services de s’engager formellement auprès de leurs clients sur
les caractéristiques de transport des données applicatives sur leurs infrastructures IP.

3.2.1 Paramètres de la QoS

Une séquence de paquets envoyés d'une source vers une destination est appelée un flux.
Les besoins qualitatives d'un flux peuvent être caractérisés par quatre paramètres : le débit de
transmission de donnée (Throughput), la bande passante (Bandwidth), le délai d'acheminement
(Delay), la variation du délai ou gigue (Jitter) et la perte de paquet (Packet loss). [8]

3.2.2 La gestion de la qualité de service

Aujourd'hui le protocole IP tend à s'imposer dans la plupart des infrastructures réseaux, que ce soit
dans les réseaux locaux des entreprises, l'Internet bien sûr qui l'a vu naître, mais aussi les Backbones
des providers. D’un autre côté, les applications multimédia ayant des exigences spécifiques en
termes de QoS sont fournies par le réseau Internet où certains services comme les services vocaux
ont besoin d'un faible délai point à point et d'une faible gigue. D'autres, comme les trafics de
données, nécessitent de faibles taux de perte ou d'erreurs sans retransmission avec éventuellement
une certaine garantie de bande passante pour le trafic de données transactionnel.
Pour pouvoir garantir la QoS des flux transportés, il va donc falloir utiliser des mécanismes
permettant de traiter de manière différenciée les différentes catégories de trafic, ainsi que des
protocoles de signalisation de la QoS pour pouvoir allouer des ressources en fonction des besoins
des applications.

52
On peut distinguer deux grandes problématiques pour la gestion de la QoS dans un réseau IP : celle
de la gestion des phénomènes de congestion et celui de l’ordonnancement de trafic.

3.2.2.1 La gestion des phénomènes de congestion

Il s’agit un point fondamental pour garantir la QoS des flux. En effet, le routage IP se base sur
l’utilisation du chemin le plus court pour les échanges de donnée dans le réseau. La congestion peut
être due à la surcharge de ce chemin. La gestion de la QoS dans les réseaux IP suppose un ensemble
de traitements différenciés, réalisés soit au niveau de la source de trafic (terminal émetteur) soit dans
les organes du réseau. On peut distinguer les mécanismes suivants :
 Le traffic shaping (mise en forme du trafic)
Qui consiste principalement à introduire du délai entre les émissions de paquets de manière à éviter
ou limiter les rafales de paquets. Le shaper fournit au réseau une description simple du trafic.
 Le traffic policing (contrôle du trafic)
Le traffic policing est une opération qui consiste à vérifier que le trafic émis est bien conforme à la
description qui en a été faite par la source.
 Le mécanisme de buffer management (gestion de tampon)
Cette étape consiste à éliminer des paquets en cas de congestion du tampon d’une interface de sortie
de manière sélective, en fonction des paramètres de QoS associés aux flux.

3.2.2.2 L’ordonnancement (Scheduling)

Appelé aussi « traffic scheduling », ce mécanisme consiste à ordonner la transmission des paquets
présents dans les tampons de l’interface de sortie en fonction des paramètres de QoS associés aux
flux.
Ceci est évident si on considère des flux hétérogènes : les rafales de certaines connexions peuvent
perturber le trafic temps réel même s’il n’y a pas congestion. Ainsi, bien que la mise en œuvre
d’ordonnancements autres que FIFO (First in, First out) ou Premier Entré-Premier Sorti, soit
difficile sur des routeurs à très haut débit.
Ces différents mécanismes de contrôle de congestion et d’ordonnancement des paquets sont présents
dans toutes les architectures développées pour le contrôle de la QoS dans les réseaux IP.

53
3.2.2.3 L’intégration de service ou IntServ

Historiquement, la première architecture qui a été proposée associe, comme ATM, une QoS à
chaque flux que le réseau transporte. Il s’agit du modèle IntServ (Integrated Services : Service
intégré). Le modèle IntServ permet de faire une réservation de ressources pour chaque flux circulant
sur les réseaux en utilisant le protocole RSVP (Ressource Reservation Protocole).

a.Principe de l’IntServ

La première proposition d’architecture Internet avec support pour la QoS a été faite par l’IETF avec
le modèle IIS (Internet Integrated Services) ou IntServ. L’IntServ consiste à réserver les ressources
nécessaires au niveau de tous les nœuds du réseau avant de faire transiter les flux. Cette approche
repose sur l’utilisation du protocole RSVP (ressource réservation Protocol) qui induit alors une
couche de contrôle d’admission supplémentaire pour s’assurer que la bande passante requise est
bien disponible à un instant t.
IntServ définit deux types de services:
 Guaranteed Service (GS) :
Le GS garantit la bande passante et un délai d'acheminement limité (Audio, Vidéo) mais pas de
gestion de la gigue.
GS utilise des limites supérieures sur les délais d’attente de chaque flux pour fournir une QoS dite
dure (limite en termes de délai d’attente dans un routeur) en réservant la bande-passante et la
mémoire nécessaires. Ce service est prévu pour les applications temps-réel comme la voix.
 Controlled Load (CL) :
CL simule un réseau peu chargé lors de la congestion du réseau grâce à un multiplexage statistique.
Il fournit de faibles taux de pertes et de faibles délais, mais reste qualitatif. De ce fait, ce service
peut se dégrader et est équivalent à un service Best Effort si le réseau est très chargé. Il convient à
des applications adaptatives.

b.Les mécanismes de gestion de QoS utilisé par l’IntServ

Pour un traitement des paquets avec QoS, les routeurs disposent de 4 fonctions:
 Le contrôle d’admission
Il contrôle l’arrivé des nouveaux flots de donnée muni de leurs paramètre de QoS de sorte qu’ils ne
perturbent pas la QoS des autres flots existants.

54
 Classification des paquets
Les routeurs intègrent des classificateurs de paquets des flots en classe spécifique (GS, CL).
 Ordonnancement des paquets qui détermine l’ordre de service des paquets.
 La réservation des ressources
Utilise le protocole RSVP (ReSsource reserVation Protocol) pour la réservation des ressources.
Le RSVP va mettre en place une session entre les deux communicants. L’émetteur spécifie son
besoin en QoS dans un message « PATH » qu’il envoi à la destination par l’intermédiaire du
protocole RSVP. Ainsi plusieurs message de signalisation vont être échangés jusqu’à ce la
réservation soit réussie. En, cas de réussite, plusieurs messages doivent aussi être échangés pour
maintenir la réservation de ressource.
Par conséquent, une architecture telle qu’IntServ/RSVP qui requiert le maintien des états par flot
pose certains problèmes pour le "passage à l'échelle". Une augmentation très importante du nombre
de flots à gérer se traduit par un accroissement de la charge de traitement qui peut devenir
insupportable. Cependant, le maintien des états n'est pas le seul problème. Il y a également celui dû
à la multiplication des classes qui génèrent des complexités au niveau ordonnancement. L'autre
problème aussi est le fait que les fonctions d’IntServ sont implémentées dans chaque routeur. Cela
peut ralentir les traitements et par exemple entraîner une baisse du débit.

3.2.2.4 La différenciation de service ou DiffServ

A l’encontre de l’IntServ qui traite indépendamment leurs flux, le Diffserv propose de regrouper
ces flux en classe de trafic.
Certains bits de l’entête IP (TOS ou Type of Service pour l’IPv4 et Traffic Class pour l'IPv6) sont
utilisés pour associer au paquet une classe de service (champ de l’entête appelé DSCP ou Diffserv
Code Point), et une information indiquant si le paquet peut être éliminé en cas de congestion.
Tous les flux d'une même classe seront traités de la même manière dans le réseau dit traitement par
saut ou PHB (Per Hop Behaviour). Le PHB définit des classes de trafics et des services associés en
termes de ressource, de priorité relative par rapport à un autre PHB.
Deux PHB ont été défini :
 L’Expedited Forwarding (RFC 2598)
Appelé aussi traitement accéléré, il assure une garantie de bande passante et des taux de perte
minimisé ou le délai et une gigue faible pour fournir un service « Premium».

55
 L’Assured Forwarding (RFC 2597)

Diffserv n'utilise pas de mécanisme de réservation de ressources et offre aux flux de donnés une
QoS bien meilleure que celle du "Best effort" (IP normal).
Un domaine Diffserv est un ensemble de nœud appliquant une politique de QoS commune. Pour la
gestion de la QoS, les traitements des paquets sont effectués par l’« Edge Router» ou routeur de
bordure et du « Core Router» ou routeur cœur, qui sont tous des routeurs « Diffserv ».

a. Le routeur de bordure

Les routeurs de bordure sont les portes d’entrées obligatoires pour un flux de donnée pénétrant dans
le domaine Diffserv. Ils effectuent les traitements suivants :
 Classifier
Ce mécanisme permet de déterminer leur classe de service grâce à l’entête du paquet (champ Type
de Service (ToS), adresse source et/ou destination, protocole, port) sur la base d’un contrat
(attribution de ressource tel que la bande, le débit, ou la priorité) avec l’opérateur.
 Meter
Ce mécanisme mesure à la volée les caractéristiques des trafics de cette classe injectés par la source
(débits moyen et maximal, longueur maximale d’un stream au débit maximal, etc.). Si ces
caractéristiques dépassent le contrat passé avec l’opérateur, le Meter indique que le paquet est « out
profile » en positionnant le champ « in/out ». Cela signifie que par la suite ce paquet pourra être
traité en « best-effort » voire même supprimé en cas de congestion. Sinon le paquet est marqué « in
profile » que l’on ne détruit pas en cas de congestion.
 Marker
C’est à ce niveau qu’est réalisée l’agrégation des flots en classes. Le Marker détermine le PHB (Per
Hop Behavior) du paquet, et en accord avec les informations transmises par le Meter, positionne le
champ DSCP (marquage de la classe). Il est important de noter que cela n’est pas fait par le
classifier, car un même flot suivant les conditions de trafic peut être marqué différemment.
 Shaper
Le Shaper permet de réguler les flots suivant les caractéristiques de leur classe, par exemple leur
débit selon leur classe.

56
 Dropper ou Policer
Ce mécanisme permet les détruire ou de déclasser en cas de congestion (s’ils sont marqués « out
profile »). L’opération de déclassement n’est possible que dans les routeurs de bordure.
Si les paquets ne sont pas conformes, ils peuvent être jetés ou déclassés dès l’entrée du domaine
Diffserv (dans le cœur du réseau, les paquets ne pourront plus être déclassés).

b. Le routeur Coeur

La différenciation de service se fait au niveau des deux mécanismes cruciaux du modèle Diffserv:
« le scheduling » et « le buffer management ». Les routeurs du cœur de réseau réalisent donc des
opérations simples de « bufferization » et de routage des paquets en se basant uniquement sur le
marquage effectué par les routeurs situés en bordure de domaine Diffserv.
 Gestion de tampon ou Buffer Management
L’une des algorithmes utilisés est le WRED (Weighted Random Early Discard). On a ainsi des
éliminations de paquets sélectives en fonction de la classe de trafic. La configuration de ces
algorithmes est toutefois relativement délicate.
 Ordonnancement
Plusieurs politiques d’ordonnancement peuvent être utilisées : WFQ (Weighted Fair Queuing),
WRR (Weighted Round Robin), PQ (Priority Queuing) ou priorités fixes.
A l’heure actuelle, il semblerait que les opérateurs s’orientent vers une combinaison de ces
politiques avec une priorité fixe pour le trafic temps réel et un ordonnancement WFQ pour les autres
classes. C’est le champ DSCP (classe de service) dans l’entête des paquets qui permet de les affecter
à une file d’ordonnancement particulière. [10]

3.2.2.5 L’ingénierie de trafic ou TE

Afin de contrôler les services offerts par le réseau, en fonction de la demande des utilisateurs, deux
types d'ingénierie se distinguent: l’ingénierie de réseau et l'ingénierie de trafic.
L'ingénierie de réseau consiste à adapter la topologie du réseau au trafic, en se basant sur des
prédictions sur le trafic, elle installe ou modifie la topologie du réseau (ajout de liens, routeurs, etc..)
pour offrir une transmission de donnée avec QoS. L'ingénierie de réseau s'effectue sur une longue
échelle de temps (mois/année), le temps nécessaire pour l'installation de nouveaux équipements ou
circuits. C’est tout à fait dans le cas du réseau 4G : le basculement vers le « tout-IP ».

57
Par ailleurs, l'ingénierie de trafic consiste à adapter le trafic à la topologie du réseau. L'expression
"Ingénierie de trafic" désigne l'ensemble des mécanismes de contrôle de l'acheminement du trafic
dans le réseau afin d'optimiser l'utilisation des ressources et de limiter les risques de congestion.

3.3 Rappel sur le protocole MPLS

3.3.1 Le protocole MPLS

Avec l’augmentation du débit des liens de communication et du nombre de routeur dans l’Internet,
l’IETF a défini le nouveau protocole MPLS (Multi Protocol Label Switching : commutation de label
multi-protocole) pour faire face au goulot d’étranglement induit par la complexité de la fonction du
routage IP.
La technologie MPLS consiste à aiguiller des paquets non plus en fonction de leur adresse IP de
destination, mais en fonction d'un label inséré entre l'entête de niveau 2 du modèle OSI et l'entête
IP. Ainsi, on dit souvent de MPLS qu'il est un protocole de niveau 2,5. Le protocole MPLS basé sur
le paradigme de la commutation de label dérive directement de l’expérience acquise avec ATM
(Asynchronous Transfer Mode) sur les étiquettes VPI et VCI (Virtual Path Identifier et Virtual
Channel Identifier). [9] [10]
L’architecture MPLS est basé sur :
 Le plan de contrôle
Il se charge de l’information de routage et de l’étiquette entre les nœuds adjacents. Il utilise les
protocoles OSPF (Open Shortest Path First) et IS-IS pour distribuer au nœud les informations sur
la capacité et les charges des différents liens du réseau. Ceci est utile dans la redirection du LSP
vers un autre chemin moins chargé dans le concept d’ingénierie de trafic.
 Le plan de donnée
Il se charge de la transmission des paquets en utilisant les « Label ».

3.3.2 Les éléments de l’architecture MPLS

 La classe d’équivalence pour le routage


De façon abstraite, l’ensemble de tous les paquets appartenant à un protocole de niveau 3 peut être
vu comme un «espace», sur lequel on peut définir une partition étant donnée un ensemble de
propriétés.

58
Cette partition va définir des classes d’équivalence. Ainsi, la notion de Classe d’Equivalence pour
l’Acheminement (Forwarding Equivalence Class ou FEC) correspond à chaque classe résultante
d’une partition du trafic en ce qui concerne l’acheminement, et implique que tous les paquets
appartenant à une même classe seront traités, au niveau de l’acheminement, de façon identique.

 Routeurs de bordures ou LER


Les routeurs de bordure d’un réseau MPLS sont appelés LER (Label Edge Router). Le label MPLS
encapsule le paquet au niveau du LER d’entrée et est retiré au niveau du LER de sortie.
L’allocation d’un label peut se faire de plusieurs manières. Un label identifie nécessairement un
LER d’entrée et un LER de sortie, mais permet de regrouper les flux de façon assez souple. Il peut
représenter un port d’entrée, des adresses (de bout-en-bout) source et destination, des classes de
services, ou une combinaison de tout cela.
Le routage des paquets IP dans le réseau MPLS est entièrement déterminé au niveau du LER
d’entrée par l’affectation d’un label : le label définit un LSP et pourra transporter des paquets dont
les adresses de destination correspondent à une FEC et appartenant à un certain ensemble de classes
de service.

 Routeurs de cœur de réseau ou LSR


Au niveau des LSR (Label Switch Router) ou routeurs à commutation de label, la fonction de
routage, que l’on préfère qualifier de commutation, est très simple, afin d’être très rapide (traitement
matériel). Tout routeur LSR possède une table de commutation où à chaque label entrant sur un port
donné correspond un label et un port de sortie. La taille de cette table de commutation est
relativement réduite car elle est locale au cœur de réseau, et découplée du routage IP.

 Le chemin à commutation de label ou LSP


Le fait de classer un paquet IP dans un FEC donné détermine son étiquette de sortie, le routeur
suivant et son traitement ultérieur dans le domaine. D’une façon informelle, ce classement détermine
la liste de routeurs (ou de façon équivalente, de liens) à traverser, et donc le chemin. C’est ainsi que
l’on définit la notion de Chemin à Commutation d’Etiquettes (Label Switched Path ou LSP).
Les LSP sont des chemins de LER à LER, à travers les LSR, et positionnés par l’opérateur. La
construction de ces chemins se fait dans les LSR, qui insèrent de proche en proche leur identification
dans des messages de contrôle du protocole LDP (Label Distribution Protocol) protocole de
distribution de labels ou dans le RSVP.

59
Une fois le LSP mis en place, les paquets IP arrivant dans un LER peuvent être étiquetés par l’en-
tête MPLS (le label) et être commutés jusqu’au LER de sortie.

 Le protocole de distribution d’étiquette ou LDP


Le protocole LDP ou Label Distribution Protocol est un protocole de signalisation (plus
précisément, de distribution d’étiquettes) héritier du protocole propriétaire TDP Tag Distribution
Protocol. Pour en décrire le fonctionnement, rappelons la notion de l’arbre de plus court chemin :
pour un préfixe d’adresse, le protocole de routage classique définit implicitement un arbre de plus
court chemin, arbre ayant pour racine le LSR de sortie (celui qui a annoncé le préfixe) et pour
feuilles les différents routeurs d’entrée. Le routeur de sortie va annoncer le préfixe à ses voisins,
tout y en associant une étiquette. Les messages de signalisation vont «monter» jusqu’aux routeurs
d’entrée, permettant à chaque LSR intermédiaire d’associer une étiquette au préfixe.

3.3.3 Principe de fonctionnement du protocole MPLS

3.3.3.1 Routage MPLS

A l’entrée du cœur de réseau, les LER (Ingress) vont marquer les paquets avec un label avant de les
propager. Le choix de ce label provient directement des informations de routage contenues dans ce
routeur. Pour cela, MPLS se sert de la FEC qui contient des tables de correspondance dont les clés
sont des éléments du paquet : adresses IP ou adresses MAC, classe de service ou application (port),
etc... .
Une fois le label distribué, le routeur LER encapsule le paquet IP dans un paquet MPLS avec un
nouvel en-tête composé principalement de ce label. Après avoir appris les informations des LDP,
les LSR construisent 2 tables : LIB (Label Information Base), contenant tous les labels appris des
LSR voisins, et FIB (Forwarding IP Base) pour la commutation proprement dite.
La propagation se fait alors par commutation de labels utilisant ces tables.
Le dernier nœud le long du LSP (Egress) va retirer l’en-tête MPLS du paquet et le propager ensuite
en IP. [9] [11] [12]

60
3.3.3.2 Apport du MPLS dans la QoS

MPLS a résolu le problème de congestion du réseau dû à la sous exploitation des liens dans le
réseau, de permettre un routage particulier pour chacun des LSP et donc d’associer un chemin à
chaque groupe de flots considéré. La granularité du choix des routes est donc améliorée permettant
ainsi une meilleure gestion de la QoS et surtout une ingénierie de trafic plus aisée.
Mais les avantages de MPLS ne s’arrêtent pas à ces améliorations. Il permet aussi un grand nombre
de fonctionnalités très poussées :
 Une intégration IP/ATM
En effet, si la couche 2 est gérée par le protocole ATM (ou Frame Relay), MPLS permet l’utilisation
de l’en-tête de couche 2. Cela évite l’ajout d’un en-tête supplémentaire et permet donc de diminuer
la taille des données de signalisation.

 La flexibilité :
MPLS permet l’utilisation de n’importe quelle couche 2 car ce protocole vient se placer entre la
couche réseau et la couche de transmission de données. L’ajout d’une couche supplémentaire permet
de coexister avec l’ensemble des protocoles existants (surtout pour la couche 2). De plus, il est
possible de d´employer un réseau IP/MPLS sur des infrastructures sous-jacentes hétérogènes
(Ethernet, ATM, SDH, WDM, etc. . .).

 Approche DiffServ :
L’architecture d’un cœur de réseau IP/MPLS formé de LER aux frontières et de LSR dans le cœur
est identique à celle retenue dans DiffServ nécessitant des fonctionnalités différentes aux frontières
et dans le cœur. De plus, l’association des trafics aux FEC permet et facilite l’affectation des
différentes classes de trafics aux files d’attente dédiées.

 L’ingénierie de trafic :
MPLS est souvent associé à l’ingénierie de trafic (Traffic Engineering : TE) car MPLS-TE se base
sur la redirection du trafic vers des liens peu ou pas utilisé par l’intermédiaire des tunnels LSP. [12]
[13]

61
3.4 Rappel sur la mobilité IP

3.4.1 Le protocole IPv4 et IPv6

IPv4 ou Internet Protocol version 4 est un protocole défini dans la RFC 791 qui permet l’adressage
de tous les nœuds du réseau et le routage des paquets de données. Il correspond à la couche 3 (réseau)
du modèle de référence OSI, son rôle est d’établir des communications sans connexion de bout en
bout entre des réseaux, de délivrer des trames de données (datagram) « au mieux » (best effort),
c’est-à-dire, ne garantit aucun qualité de service.
Il utilise une adresse IP sur 32 bits, c'est-à-dire que 4 294 967 296 adresses sont possibles, et utilise
le protocole DHCP qui supporte la fonction d'auto-configuration d'adresses pour les terminaux et le
protocole NAT (Network Address Translation – NAT) qui permet de résoudre la pénurie d'adresses
IP mais surcharge les tables de routage.
L’adressage IP permet donc d’identifier de façon unique chaque nœud connecté à un réseau, et grâce
à cette adresse, les paquets de données pourront être acheminés vers leur destination prévue. En
effet, un routeur contient une table de routage IP résumant l’information de routage et la liste des
adresses connues localement afin d’associer une interface de sortie à toutes les destinations. C’est-
à-dire qu’une entrée de cette table associe une destination au prochain routeur vers lequel le flot doit
se diriger (Next Hop).
Le routage IP effectue une détermination des chemins optimaux de routage, et envoi les paquets IP
à travers le réseau en utilisant le protocole OSPF (Open Shortest Path First) défini dans la RFC2328.
IPv4 ne peut pas répondre aux besoins engendrés par la croissance très forte d'Internet, ni aux
besoins induits par de nouvelles applications. Le routage IP n’offre non plus aucun service garanti,
il ne fait qu’acheminer les paquets de données sans prendre compte des QoS (Best Effort).
Les limitations d'IPv4, surtout la pénurie des adresses IPv4, conduit à la transition d'IPv4 vers IPv6
défini dans la RFC 2460 qui a été conçu dans la continuité d'esprit d'IPv4, sans réelle rupture
technologique. La caractéristique la plus importante d'IPv6 est qu'il supporte des adresses plus
longues qu'en IPv4. L'augmentation de la taille des adresses conduit à une taille d'en-tête de 40
octets pour le paquet IPv6.
En outre, le format d'en-tête IPv6 est amélioré pour permettre aux routeurs de meilleures
performances dans leurs traitements de paquets. [17]

62
3.4.2 Le concept de la mobilité IP

Le terme de mobilité peut être défini comme la capacité d’accéder à l’ensemble des services du
réseau tout en se déplaçant et quelle que soit la localisation.
Le réseau 4G a pour but de rendre le passage entre les réseaux transparent pour l’utilisateur, éviter
l’interruption des services durant le transfert intercellulaire. L’utilisation du « tout-IP » implique
donc une part de responsabilité à la mobilité IP sur le mécanisme du Handover.
Le protocole Mobile IP est l’amélioration de protocole IP pour la prise en charge de la mobilité des
terminaux entre les différents domaines, a été introduite par l’organisme de standardisation IETF1()
qui s’est principalement penché sur la gestion des déplacements d’un terminal mobile sur le réseau
Internet, c'est-à-dire du passage d’un réseau local à un autre réseau local.
Le problème de la mobilité peut se décomposer en deux sous-problèmes distincts:
 La localisation (ou joignabilité) :
L’équipement mobile doit avoir une adresse qui lui permet d’être joignable quel que soit sa
localisation dans la topologie Internet.

 La continuité des services en cours de déplacement :


Lors de changement de réseaux d’accès, les sessions ouvertes doivent être maintenues d’une
manière transparente pour les utilisateurs mobiles dans leur passage d’une zone de routage à une
autre, ainsi que les services en cours ne doivent pas être interrompu.
Lors de son changement de réseau d’accès, un nœud mobile change de point d’attachement (le
routeur d’accès), son adresse IP change également et corresponde à sa nouvelle localisation, il n’est
plus joignable par ses correspondants. Le changement d’adresse a pour conséquence de couper les
sessions ouvertes qui se servent de l’adresse IP comme identificateur et ce qui pose des problèmes
aux couches supérieures, et le changement d’emplacement dans le réseau nécessite un re-routage.
Le support de la mobilité a pour but, d’une part de définir un mécanisme permettant de maintenir
les sessions ouvertes lors des déplacements, et d’autre part de déterminer la nouvelle position du
nœud dans la topologie (localisation et routage). Le concept de la mobilité IP consiste donc à
séparation de l’identité de la machine et de sa localisation.

63
Figure 3.01 : Le concept du Mobile IP

Cette figure montre le déplacement du mobile communiquant avec son correspondant d’un point
d’accès à un autre.
Le concept du mobile IP propose d’attribué 2 types d’adresses à un nœud mobile ou MN (Mobile
Node) : l’HoA (Home Address) enregistrer à son agent mère HA (Home Agent) qui est une adresse
qui permet de l’identifier de façon permanente. L’autre adresse CoA (Care of Address) s’agit d’une
adresse temporaire, soit celle de l’agent visité FA (Foreign Agent), soit une adresse attribué à lui-
même et qui permet ainsi de le localiser dans son nouveau réseau (zone de routage).
Le mécanisme est donc d’attribué une CoA au MN qu’il pourra utiliser dans le réseau. Lorsque le
MN obtient son CoA, il s’enregistre auprès de son HA. Après cet enregistrement, les paquets qui
sont destinés à l’adresse d’origine du MN seront tous intercepter par le HA et les diriges vers le
CoA. Dans ce cas, la session du MN n’a pas été coupée ainsi que les services ne sont pas
interrompus.

3.4.2.2 Le protocole MIPv4

Mobile IPv4 (MIPv4) a fait l’objet de la RCF 3344, et a été développé comme protocole de gestion
de la mobilité au niveau L3 d’un terminal mobile. Il établit 2 fonctions d’adressage IP pour
l’identification et la localisation du mobile.

64
Le but de fournir un service Internet sans discontinuité et un maintien des sessions actives lors d’un
changement de points d’attachement au réseau (changement de routeurs d’accès). Le MIPv4 suit
exactement les mécanismes du concept de la mobilité décrite ci-dessus et les réparties en 4 étapes :
 Détection de mouvement
Pendant le déplacement du MN, le HA et le FA annoncent la disponibilité du FA auquel il peut s’y
attacher.
 Configuration de l’adresse CoA
Soit le MN utilise l’adresse de FA soit il est configuré automatiquement par un DHCP.
 Enregistrement
Après avoir eu son adresse temporaire, le MN s’authentifie à son HA et enregistre son CoA.
 Tunneling
Le HA redirige ensuite les paquets destinés au MN via un tunnel vers le FA.

3.4.2.3 Le protocole MIPv6

La conception du protocole Mobile IPv6 (MIPv6) présenté dans la RFC 3775 résout un certain
nombre de problèmes qu'avaient à résoudre le support MIPv4. C’est surtout le problème del’IPv4
qui a limité la performance du MIPv4.
L’infrastructure est semblable mais dans le MIPv6, il n’y a plus d’agent visité ou FA. L’attribution
de l’adresse temporaire se fait directement au niveau des routeurs d’accès du MN qui permet d’éviter
le routage triangulaire entre MN-FA-HA qui réduit par conséquent la transmission des paquets.
Ainsi, lorsque le MN se trouve sur un réseau visité, il peut communiquer directement avec le CN
sans passer par le HA (voie montante). Plusieurs messages de signalisation s’échangent par contre
dans le MIPv6 qui ralentit la phase du Handover. [11] [14] [15]

3.5 Intégration de l’architecture IP/MPLS dans LTE/EPC

Le but de l'utilisation de l’IP/MPLS sur LTE est de réutiliser une grande partie des technologies 2G
et 3G, du domaine paquet, qui permet une utilisation plus efficace des ressources réseaux existantes
en adaptant le routage aux trafics supportés par le réseau. L’optimisation du routage permet une
amélioration globale des performances, en particulier pour les réseaux ayant une distribution de
trafic non uniforme. Il est cependant bien connu que, à cause du principe même du routage dans ces
réseaux, l’ingénierie de trafic dans les réseaux IP est un problème complexe à résoudre.

65
La proposition de l’IPv6/MPLS peut donner un routage IP avancé d'ingénierie de trafic, grâce
notamment aux caractéristiques du protocole MPLS, en veillant à ce que le trafic est correctement
hiérarchisé selon ses caractéristiques (voix, données, vidéo, etc.) et les routes à travers le réseau sont
mises en place pour prévenir les défaillances de lien.

3.5.1 L’architecture IP/MPLS

Figure 3.02 : L’architecture FHMIPv6/MPLS

On a adopté dans cette topologie le protocole FHMIPv6 ou Fast Handover Mobile IPv6, qui est une
extension de MIPv6. Le but est de réduire le délai du handover en comblant les lacunes de MIPv6
du délai de procédure lent et à une légère perte de paquets qui ne peut pas répondre à certaines
applications exigeantes en QoS.
Avec cette topologie, l’utilisation du routeur NAR (New Access Router) ou nouveau routeur d’accès
et PAR (Previous Access Router) routeur d’accès précédent permet d’anticiper le Handover.
L’entité MAP (Mobility Anchor Point) ou contrôleur de domaine réseau est nécessaire pour la
contrôle des routeurs NAR et PAR afin de réduire le temps du Handover. Les nœuds MPLS (LSR
et LER) sont pour la gestion de QoS. [16]

66
3.5.2 Traitement du Handover

3.5.2.1 Les messages de signalisation utilisées

Le protocole FHMIPv6 définit les messages de signalisation suivants:


 RtSolPr (Router Solicitation for Proxy Advertisement) :
Ce message est envoyé par le MN à son PAR pour demander les informations concernant un
handover potentiel.

 PrRtAdv (Proxy Router Advertisement) :


Ce message est envoyé par le PAR au MN pour fournir les informations concernant les liens d’accès
des réseaux voisins, facilitant ainsi la détection rapide de mouvement.

 FBU (Fast Binding Update) :


Ce message est envoyé par le MN à son PAR. Il a pour objet de permettre au PAR de lier l'adresse
temporaire précédente PLCoA (Preview Local CoA) à la nouvelle adresse temporaire NLCoA
(NextLocalCoA) et de rediriger les paquets destinés à l'adresse temporaire précédente (PLCoA) à
sa nouvelle adresse temporaire (NLCoA).

 FBAck (Fast Binding Acknowledgement) :


Ce message est envoyé par le PAR au MN et au NAR pour indiquer la création d'un tunnel.

 HI (Handover Initiate) :
Ce message est envoyé par le PAR au NAR pour le handover du MN.
 HAck (Handover Acknowledge) :
Ce message d’acquittement du handover est envoyé par le NAR au PAR à travers le MAP pour
répondre au message HI.

 FNA (Fast Neighbor Advertisement) :


Ce message est envoyé par le MN à son NAR pour annoncer son attachement sur ce réseau.

67
3.5.2.2 Le processus de traitement de l’Handover

Le mécanisme du Handover comprend 3 phases :


 la détection du mouvement
Le MAP contrôle les routeurs NAR et PAR qui se trouve dans son domaine (niveau hiérarchique).
Lorsqu'un MN entre dans un domaine qui est contrôlé par le MAP, il reçoit le message « Router
Advertissement ». Ce message contient l'information concernant le MAP qui contrôle ce domaine,
telle que l'adresse du MAP, le préfixe du réseau où le MAP se trouve.
Après avoir découvert un ou plusieurs liens d'accès, le MN envoie un message RtSolPr au MAP
afin d’obtenir les informations de préfixe des routeurs d’accès associés à ces nouveaux liens.
L’envoi de ce message peut être déclenché par un trigger au niveau de la couche L2.
A la réception du message RtSolPr, le MAP répond au MN en envoyant le message PrRtAdv qui
contient les informations concernant le routeur NAR, tels que le préfixe, l'adresse IP et l'adresse
MAC.
 L’auto-configuration
Une fois que le message PrRtAdv est reçu par le MN, il peut s’auto-configurer avec 2 types
d’adresse temporaire NLCoA (Next Local Care of Address) qui permet de le localiser dans le réseau
(au niveau du NAR) et qui sera potentiellement utilisable dans le nouveau réseau. L’autre adresse,
le RCoA (Region Care of Adresse) est une adresse composée du préfixe du MAP. Le MN ne change
pas cette adresse RCoA tant qu'il reste dans le domaine du MAP.

 L’enregistrement
Pour établir un Handover plus rapide, le MN envoie tout de suite un message FBU au MAP.
Ce message a pour objet de permettre au MAP de lier l'adresse temporaire précédente PLCoA à la
nouvelle adresse temporaire NLCoA et de rediriger les paquets destinés à l'adresse temporaire
PLCoA à sa nouvelle adresse temporaire NLCoA.
Cependant, le MAP doit assurer la possibilité d'utilisation de la nouvelle adresse temporaire NLCoA
pour le MN dans le nouveau réseau avant d'envoyer la réponse FBAck au MN. Il envoie donc le
message HI (Handover Initiate) contenant l'adresse MAC, l'adresse PLCoA et l'adresse NLCoA du
MN au NAR pour la demande de procédé du Handover. Le NAR approuve l'utilisation de cette
adresse NLCoA en envoyant le message HAck au MAP. A la réception du message HAck, le MAP
envoie le message FBAck au MN et au NAR pour répondre au message FBU pour indiquer la
création d'un tunnel entre le NAR et le PAR.

68
Le MN envoie ensuite un message FNA (Fast Neighbor Advertisement) son NAR pour prévenir son
attachement sur ce réseau.
En même temps, le MN envoie un message LBU (Local Binding Update) au MAP pour créer une
association entre son adresse RCoA et son adresse NLCoA. Quand le MAP envoie le message LBA
(Local Binding Acknowledgement) au MN, cela signifie que la phase de « binding update » ou
enregistrement avec le MAP est réussie. Ensuite, le MN effectue la phase de « binding update »
avec le HA en utilisant son adresse RCoA. Le HA mettent à jour leurs binding caches avec l'adresse
RCoA et envoient les paquets vers l'adresse RCoA du MN. Les paquets du CN sont envoyés à
l'adresse RCoA du MN, le MAP intercepte ensuite ces paquets, les encapsule et les retransmet à
l'adresse LCoA du MN en traversant le tunnel.

3.5.3 L’optimisation avec MPLS

L’idée est de profité les avantages du MPLS dans la gestion de la QoS comme son intégration avec
Diffserv, l’ingénierie de trafic, …
En effet, les limitations du routage IP sont principalement sur les garanties de QoS difficiles à
fournir, l’optimisation de l’utilisation des ressources limitées, et les tables de routage conséquentes
pouvant conduire à un temps de consultation parfois trop long.
Plusieurs scenarios peuvent exister dans un réseau de télécommunication. On peut envisager la
présence de plusieurs abonnés (MN) dans cette topologie, donc la gestion de déplacement du mobile
est attribuée au protocole de mobilité IP, tandis que les traitements des paquets, en tenant compte
du QoS sera la responsabilité du MPLS.

3.5.3.1 L’ingénierie de trafic dans MPLS ou MPLS-TE

a. Concept du MPLS-TE

L'apport de l'ingénierie de trafic est de permettre à l'administrateur du réseau la distribution des


multiples flux de trafic sur les différentes liaisons existantes afin de maîtriser la QoS dans le réseau.
MPLS-TE (MPLS - Traffic Engineering) est basé sur le concept de routage de tunnels (traffic
trunk). Le tunnel est unidirectionnel et est défini par deux LER (Ingress et Egress), la ou les FEC
transportées et des attributs. Le chemin emprunté par le tunnel est un LSP, un LSP peut contenir un
ou plusieurs tunnels pour le but d’éviter un risque de congestion.

69
Plusieurs LSP peuvent exister entre deux LER, pour offrir des routes différentes correspondantes à
la qualité de service requise pour les flux et d’autre part de créer des LSP de secours en cas de panne
ou de surcharge sur les LSP initiaux.

b. Le mécanisme d’acheminement de donnée dans le MPLS-TE

 Découverte de Ressources
La découverte et la gestion des ressources disponibles par chaque équipement réseau est l’étape
préalable à la diffusion aux entités concernées de l’état du réseau.
Cette découverte est réalisée automatiquement (pour des ressources configurées manuellement) ou
suite à la réception de messages des protocoles de contrôle.

 Diffusion de l’état du réseau


C’est ici que les protocoles de routage existants OSPF, IS-IS, éventuellement modifiés et étendus
interviennent pour la diffusion de l’état du réseau. Les informations concernées sont la topologie et
la disponibilité de ressources comme la bande passante nominale ou résiduelle.

 Sélection de Route
Le terme calcul et sélection de route englobe les procédures, les algorithmes et les heuristiques
destinés au calcul d’une structure de données contenant la liste de routeurs entre deux éléments du
réseau et a pour but d’identifier les chemins constituants un groupe de LSP. Cette liste vérifie un
certain nombre de contraintes administratives et de qualité de service. Une heuristique pour le calcul
de routes largement utilisée est l’heuristique du «Plus Court Chemin Contraint» ou CSPF
(Constrained Shortest Path First).

 Gestion des Routes


La gestion de routes concerne les mécanismes, algorithmes, procédures et protocoles permettant
l’établissement, la gestion et le relâchement de routes (LSP) dans un domaine MPLS, et notamment
la distribution d’étiquettes. Deux protocoles sont utilisés à cette fin : CR-LDP et RSVP-TE.

 Assignation du trafic
L’assignation de trafic est composée de deux fonctionnalités : la fonction de partition où le trafic à
transporter dans le réseau est divisé en classes d’équivalence FEC, et la fonction d’attribution qui
a son tour fait correspondre chaque classe d’équivalence un ou plusieurs chemins.

70
Le fait d’attribuer à une FEC un nombre arbitraire de LSP nous permet de mettre en place des
mécanismes de partage de charge.

c. Mécanismes de Protection et de Restauration

Les mécanismes de protection et de restauration sont des mesures pour les pannes dans le réseau,
ou dans les éventuelles erreurs de transmission de donnée. Ces mécanismes sont caractérisés par :
 Le FRR (Fast Re-Routing)
La sécurisation temporaire du chemin d’un tunnel protégé en cas de panne d’un lien ou d’un routeur
est faite par FRR. Le principe de FRR est de pré-instancier un LSP de secours sans réservation
physique de la bande passante, mais simplement avec la distribution de labels.
Lors de l’activation de ce LSP (suite à une panne), on effectue une réservation de bande passante
pour le trafic protégé de sorte que ce LSP ne bloque pas de ressource quand il est inactif. Ce
mécanisme FRR permet au réseau d’éviter la panne par des chemins de secours en attendant que le
LER d’entrée mette en place un LSP secondaire pour le tunnel.

 La protection de chemin
Pour la protection du chemin, une fois l’information remontée à l’Ingress LER, le mécanisme de
protection de chemin peut alors être mis en place. Il consiste en le calcul d’un second LSP qui ne
passe par aucun des routeurs du LSP primaire.

 La protection par commutation


Les mécanismes de restauration MPLS dits de «Protection par Commutation» (Protection
Switching) préétablissent des chemins (ou morceaux de chemin) de secours, selon des politiques de
routage, selon les besoins de restauration du trafic à acheminer sur les chemins principaux et selon
les politiques administratives. Les chemins de secours peuvent être ou non disjoints lien-à-lien ou
nœud-à-nœud avec le chemin principal. Néanmoins, si les chemins de secours partagent avec les
chemins principaux des sources potentielles de panne, la tolérance du réseau aux pannes en est
réduite. Suite à la détection d’une panne, le trafic est acheminé sur le ou les chemins de secours et
restauré. La Protection par Commutation utilise des chemins de secours préétablis. Si une
réservation de ressources est n´nécessaire, la protection par commutation utilise aussi des ressources
réservées à l’avance.

71
3.5.3.2 MPLS-DiffServ:

L’intégration du modèle DiffServ dans un réseau MPLS est très simple puisqu’il suffit d’affecter un
label à un paquet en fonction de sa classe de service et de sa destination. MPLS est particulièrement
adapté au modèle DiffServ car en effet, on y retrouve la notion de routeurs de bordure et de routeurs
de cœur de réseau (Edge/Core router) ainsi que la notion d’agrégation de flots.
MPLS permet à l’administrateur réseau de spécifier comment les agrégats DiffServ (Behavior
Aggregates : BA) sont affectés aux LSP.
Quand les paquets arrivent à un Ingress du domaine MPLS, le champ DSCP est ajouté à l’entête qui
correspond au Behavior Aggregate (BA).
A chaque nœud traversé, c’est le DSCP qui va permettre de sélectionner le PHB (Per Hop Behavior),
qui définit le Scheduling (classe prioritaire, WFQ etc.) et les probabilités de rejet du paquet. Cette
correspondance entre les classes DiffServ et le PHB de MPLS offre de multiples possibilités à un
administrateur pour un cœur de réseau DiffServ/MPLS.
L’affectation de classes DiffServ à différents LSP permet aussi d’attribuer des mécanismes de
protection différents pour ces différentes classes de service.

Avant de formuler les techniques de routage des réseaux supportant le DS-TE, nous définissons
quelques concepts relatifs au traitement des flux :
 FEC (Forwarding Equivalent Class)
Un groupe de paquets IP qui sont commutés de la même manière dans un domaine MPLS. (e.g. sur
le même chemin, avec le même traitement..),

 Behaviour Aggregates (BA)


Un ensemble de paquets IP passant dans un domaine Diffserv et demandant le même traitement.
En d'autres termes, un BA est un ensemble de paquets qui possède le même champ DSCP. Chaque
nœud Diffserv détermine, à partir de la valeur du DSCP dans l'entête du paquet, le PHB (Per Hop
Behavior) à appliquer (i.e. l'ordonnancement et la probabilité de perte),

 Ordered Agregate (OA)


Un ensemble de Behaviour Aggregates liés par un certain partage d'ordre des contraintes.

72
 PHB Scheduling class (PSC)
Un ensemble des PHB appliqués aux différentes Behaviour Aggregates du même Ordered
Agregate.
Par exemple, AF1x est un PSC comprenant les PHB de AF11, AF12 et AF13. De même, EF est un
PSC comprenant exclusivement le PHB de EF. En effet, MPLS permet à l'administrateur réseau de
spécifier comment les agrégats Diffserv sont affectés aux LSP. La question est de savoir comment
affecter un ensemble de BA au même LSP ou à des LSP différents. Quand les paquets arrivent à un
Ingress du domaine MPLS, le champ DSCP est ajouté à l'entête qui correspond au Behavior
Aggregate (BA). A chaque nœud traversé, le DSCP (DiffServ Code Point) permet de sélectionner
le PHB (Per Hop Behavior), qui défnit le Scheduling (classe prioritaire, WFQ, CBQ,...) et les
probabilités de rejet du paquet. Cette correspondance entre les classes Diffserv et le PHB de MPLS
offre de multiples possibilités à un administrateur pour un cœur de réseau Diffserv/MPLS.
L'affectation de classes Diffserv à différents LSP permet aussi d'attribuer des mécanismes de
protection différents pour ces différentes classes de service.

3.6 Conclusion

Grace à sa nature orientée connexion, MPLS offre un cadre architectural très prometteur pour
l’implémentation d’une ingénierie de trafic efficace dans le monde IP et, en particulier, pour le
partage de charge.
Le protocole mobilité FHMIPv6 est la solution actuelle pour résoudre les problèmes de rupture de
communication durant les déplacements des nœuds mobiles dans le réseau 4G. Ce protocole permet
donc aux nœuds mobiles de se déplacer de réseau en réseau sans interrompre leurs sessions en cours
tout en continuant leur communication, en minimisant des pertes de paquets qui peuvent avoir lieu.
D’un autre côté, son méthode concernant l’anticipation du Handover le permet de traiter rapidement
ce mécanisme et stabilise quelque paramètre de QoS tel que la gigue et surtout le débit de
transmission de donnée. Par conséquent, le routage IP ne satisfait pas vraiment la qualité de service
espéré d’où l’intervention de l’MPLS. En, effet l’IP/MPLS existait déjà dans le cœur des réseaux
de générations antérieur (3G) mais dans notre cas, les caractéristique du protocole MPLS lui rend
indispensable en termes d’optimisation de la QoS surtout dans un réseau à grande échelle.
Nous verrons par la suite en utilisant le simulateur NS-2 la performance de l’IP/MPLS en suivant
exactement la procédure de routage optimisé par MPLS.

73
CHAPITRE 4
EVALUATION DE PERFORMANCE DU FHMIPv6/MPLS

4.1 Introduction

Les réseaux informatique connaissent une expansion importante grâce à plusieurs moyens qui ont
pu se développer au cours du temps, donc il est couteux de déployer un banc d’essai complet
contenant plusieurs ordinateurs, des routeurs et des liaisons de données pour valider et vérifier un
protocole de réseau ou un certain algorithme spécifique. C’est pour cela que les simulateurs de
réseaux sont utilisés.
Les simulateurs du réseau offrent beaucoup d’économie, de temps et d’argent pour
l’accomplissement des tâches de simulation et sont également utilisés pour que les concepteurs des
réseaux puissent tester les nouveaux protocoles ou modifier les protocoles déjà existants d’une
manière contrôlée et productrice.
La problématique étudiée dans ce mémoire étant la simulation des performances des réseaux 4G, et
en particulier les paramètres de la QoS. Nous présentons dans ce qui suit d’abords le simulateur NS-
2 (Network Simulation), puis le déroulement des étapes de simulation que nous avons menée dans
ce travail de fin d’études qui consiste à simuler quelques critères de QoS. Notre intérêt est d’évaluer
les paramètres qui influencent sur les performances globales du cœur du réseau 4G.

4.2 Choix du simulateur

NS-2 est un simulateur de réseau à évènement discrets orienté objet. Il est gratuit et mis à jour
régulièrement et tourne sur plusieurs distributions d’UNIX et MS Windows.
Le simulateur NS actuel est particulièrement bien adapté aux réseaux à commutation de paquets et
à la réalisation de simulations de petite taille. Il contient les fonctionnalités nécessaires à l'étude des
algorithmes de routage, de contrôle de congestion, des protocoles de transport, de session, de
réservation, des services intégrés, et la mobilité.

4.3 Présentation du simulateur NS2

NS2 développé en C++ fait partie du projet VINT (Virtual InterNetwork Tested) qui est un effort
commun mené par l’Université de Berkeley, l’USC/ISI (University of Southern California's
Information Sciences Institute), le LBL (Lawrence Berkeley national Laboratory).
Il est supporté par le DARPA (Defense Advanced Research Projects Agency).

74
Il utilise comme interface utilisateur un interpréteur dérivé de TCL (Tool Comand Linux), l’OTCL,
pour la description des conditions de simulation sous forme de scripts. Dans ce script, l’utilisateur
fournit la topologie de réseau, les caractéristiques des liens physiques, les protocoles utilisés, le type
de trafic généré par les sources, les événements, ...
Tcl est un langage de commande comme le shell UNIX mais qui sert à contrôler les applications.
Son nom signifie : « Tool Command Language ». Tcl offre des structures de programmation telles
que les boucles, les procédures ou les notions de variables. Il y a deux principales façons de se servir
de Tcl: comme un langage autonome interprété ou comme une interface applicative d'un programme
classique écrit en C ou C++. En pratique, l'interpréteur Tcl se présente sous la forme d'une
bibliothèque de procédures C qui peut être facilement incorporée dans une application. Cette
application peut alors utiliser les fonctions standards du langage Tcl mais également ajouter des
commandes à l'interpréteur.
Le script écrit en OTCL permet une utilisation (édition, modification des simulations) facile du
simulateur, les routines sont, elles, écrites en C++ pour avoir une plus grande puissance de calcul.
Le résultat d’une simulation est un fichier texte appelé aussi fichier trace, qu’on génère, et contenant
tous les événements de la simulation (le mouvement des nœuds, les pannes dans le réseau, l’envoie,
la réception et la perte de paquets de donnée). Le traitement ultérieur de ce fichier nous permet d’en
soustraire des informations utiles à l’évaluation des aspects réseaux que l’on va étudier, interpréter,
analyser, et en tirer une conclusion.
Par ailleurs, le simulateur permet la création d’un fichier d’animation permettant de visualiser la
simulation sur une interface graphique appelée NAM (Network Animation Monitor).

Figure 4.01 : Environnement de base du NS-2

Un grand nombre de classes est prédéfini. Ces classes mettent en œuvre plusieurs types de
protocoles, de files d’attente, de sources et des algorithmes de routage.

75
Le simulateur possède déjà donc une palette de systèmes de transmission (couche 1 de l'architecture
TCP/IP), d'ordonnanceurs et de politiques de gestion de files d'attente pour effectuer des études de
contrôle de congestion à voir par exemple TCP et UDP pour le transport de donnée, RED et
DropTail pour la gestion de file d'attente, CBQ, SFQ, DRR, Fair queueing pour les disciplines de
service.
On a utilisé « ns-2.31 », version 2.31 et l’extension FHMIPv6-2.31, un patch qui inclus les nœuds
comme l’agent mère (HA), le MAP, et les routeurs d’accès pour le Handover.

4.3.1.2 L’outil de visualisation NAM

Cet outil permet de visualiser les trafics circulants dans la topologie qu’on a écrite en TCL.

Figure 4.02 : L’outil NAM

On clique sur le bouton « PLAY » et la simulation s’exécute.

4.3.1.3 Le fichier trace

Tous les évènements de la simulation tel que le temps d’envoi, de réception, la taille d’un paquet
sont enregistrés dans un fichier trace. Donc pour extraire ces informations, qui sont utilisés pour
avoir des résultats sur le débit, la latence, les pertes de paquets, on va créer un script afin de tracer
les résultats sur une courbe.

76
Figure 4.03 : Extrait d’un fichier trace

 Colonne 1: montre le type de l'opération


"r" pour la réception d'un paquet au niveau d'un nœud
"+" pour l'arrivée d'un paquet dans une file d'attente
"-" pour le départ d'un paquet d'une file d'attente
"d" pour la perte d'un paquet dans une file d'attente pleine
 Colonne 2 ou timestamp : l'instant de simulation où la trace a lieu
 Colonne 3 ou node_src : numéro du nœud qui envoi le paquet
 Colonne 4 ou node_dst : numéro du nœud qui reçoit le paquet
 Colonne 5 : type de paquet comme cbr, tcp et ack (paquet d'acquittement de TCP)
 Colonne 6 : taille du paquet
 Colonne 7flags : exemple typique d'utilisation de ces flags est ECN (Explicit Congestion
Notification)
 Colonne 8 ou fd (flow identifier), identifie le flux auquel appartient le paquet
 Colonne 9 ou ad_src : l'adresse source suivi du numéro de port
 Colonne 10 ou ad_dst : adresse destination du paquet suivi du numéro de port
 Colonne 11 ou seqno : numéro de séquence du paquet
 Colonne 12 ou uid : identificateur unique de paquet
La première ligne de la figure 4.02 se traduit donc par : à l’instant t = 21.292041s, le paquet numéro
1354 est arrivé dans le nœud numéro 2 pour aller au numéro 8. C’est un paquet de type « CBR »,
de 512 bit. Ce paquet est envoyé par un nœud ayant l’adresse IP « 0.0.0 », qui peut être mais n’est
pas forcément le nœud numéro 2. L’adresse du nœud destinataire est le « 1.0.1 » qui aussi peut être
le nœud numéro 8.
Ainsi nous pourrions suivre un paquet de son point de départ à son arriver qui nous permet de
calculer sa vitesse de transmission, son délai et savoir s’il est bien arrivé à son destinataire ou détruit
dans un fil d’attente. [18]

77
4.3.1.4 L’outil NS-2 Visual Trace Analyzer

Cet outil nécessite à récupérer les données dans le fichier trace pour ensuite les traduire en
statistiques utilisées au tracé d’un courbe.

Figure 4.04 : L’outil NS-2 Visual Trace Analyzer

4.4 Objectif de la simulation

On va essayer de d’analyser les paramètres de QoS (débit, latence, gigue, perte de paquet) en
utilisant différentes topologie de réseau IP/MPLS. L'objectif de cette simulation avec différents
scénarios est d'analyser les paramètres de QoS dans l’intégration FHMIPv6/MPLS avec des trafics
de différent critère de QoS.

78
4.5 Réalisation du programme

4.5.1 Les étapes et paramétrages de la simulation

La première étape consiste à écrire dans un script utilisant le langage Tcl le code permettant de
mettre en place la topologie du réseau, ensuite on obtient un fichier trace concernant tous les
évènements qui s’est déroulé au cours de la simulation.
Il existe donc 2 grandes paramètres de configuration : les nœuds FHMIPv6 et les nœuds MPLS.

4.5.1.1 Configuration des nœuds FHMIPv6

Il faut utiliser un adressage hiérarchique dans le simulateur NS-2. En effet, on n’utilise pas
proprement dit un vrai adresse IPv6 mais la fonctionnalité des nœuds, du protocole de mobilité le
simule. Cet adressage hiérarchique est de type [X.X.X] et permet de localiser les nœuds par 3
niveaux : son domaine, son sous-domaine et son adresse unique.
Ensuite, mettre en place les nœuds du protocole de mobilité. Le niveau du MAP doit être supérieur
à ceux des PAR et NAR dans la hiérarchie. Il est toujours préférable d’installé le MAP près des 2
routeurs d’accès.

4.5.1.2 Configuration des routeurs MPLS

On choisit le mode de distribution de label, ce mode prend en charge des calculs de ressource, des
chemins possibles, puis attribue le LSP à chaque FEC.

4.5.2 Simulation avec différente scenario

4.5.2.1 La topologie à 9 nœuds

La topologie suivante sur la figure 4.05 est la plus simple mais nous permet d’étudier la performance
maximale du réseau car, d’abords, les nombres de nœuds (8 nœuds avec 1 seul mobile) facilite les
traitements de donnée et ce seul nœud mobile ainsi que le réseau lui-même ont à ses dispositions le
maximum de ressource.

79
Les configurations des liens sont les suivantes :

Lien Bande passante Délai


CN → LSR2 100 Mb 2 ms
LSR2 → HA 100 Mb 2 ms
LSR2 → MAP 100 Mb 50 ms
MAP → LSR3 10 Mb 2 ms
MAP → LSR4 10 Mb 2 ms
LSR3 → PAR 1 Mb 2 ms
LSR4 → NAR 1Mb 2 ms

Tableau 4.01: Configuration des liens

Figure 4.05 : Topologie de la simulation IP/MPLS

Initialement, le MN est située dans le zone du HA, 1 secondes après le début de la simulation, le
MN se déplace vers la zone PAR à 100 m/s.
A t = 4s, le CN commence à envoyer de trafic CBR à la MN suivant la route :
CN → LSR2 → HA → LSR2 → MAP → LSR3 → PAR ))) MN.
On utilise le CBR ou Constant Bit Rate, application qui peut simuler un service vidéo ou audio en
temps réel et demande un QoS important.
Puis, à t = 6 s, le MN met en mouvement vers la zone NAR à 10 m/s.
La figure 4.02 ci-dessous montre une topologie simple qui va permettre de montrer la QoS maximale
du réseau intégrant FHMIPv6/MPLS.

80
Ici, les routeurs MPLS sont utilisés pour priorisé les messages de mobilités du protocole mobile IP
pour éviter de les retardés dans une file d’attente.
Dès que le MAP reçoit le message Hack ou « Handover acknowledge », MN reçoit ces paquets du
routeur NAR (aux alentours de l’instant t = 10s, figure 4.06). Plusieurs paquets destiné au PAR
seront tout de suite redirigé vers NAR par le MAP (tunneling).

Figure 4.06 : Handover

Les résultats des mesures sur le paramètre de QoS sont les suivantes :

Nœud Type Débit Délai Gigue Perte de paquets


de paquet en Kbps en ms en ms %
CN - MN tcp 1047, 08 Kbps 65, 76 ms 4,17 ms 0%

Tableau 4.02: Résultat de la simple FHMIPv6/MPLS

On a généré des paquets de 512 bit, juste après l’arrivée du MN au PAR. Le démarrage lent du TCP
entraine une variation de délai au début de la transmission. Au cours de la simulation, cette variation
du délai de transit dépend du nombre de routeurs traversés et de la charge de chaque routeur traversé
donc il est normal qu’elle soit petite.
En effet, le délai de transit est un peu long qui est ralentie par le délai de bout-en-bout entre le
routeur LSR2 et le MAP qui dure 50 ms. Cette valeur a été choisie pour limiter les paquets à
redirectionner au cours du Handover, par conséquent, la gigue sera minimisée.
Le débit de transmission est satisfaisant car il est proportionnel à la taille du paquet.

81
La perte de 0% est obtenue par le fonctionnement sans perturbation du mécanisme du Handover du
protocole FHMIPv6. D’un autre côté, on a défini une classe de service privilégié au message de
Handover du FHMIPv6 que le protocole MPLS va priorisé durant toute la simulation.

4.5.2.2 Les différents scenarios de la simulation

a. Transfert de paquet de type TCP avec 12 nœuds

L’un des problèmes du protocole FHMIPv6 est la dépendance du routage avec le MAP où si ce
dernier tombe en panne, l’acheminement des paquets sera compromis. Par conséquent, on va
proposer d’ajouté des routeurs MPLS contournant le MAP pour réduire son charge. Ainsi, le MAP
n’effectue que son tache d’attente de signalisation sur la mobilité et l’acheminement des paquets
vers le routeur d’accès indiqué.
Dans la figure 4.07, on peut voir que les acquittements TCP ne circulent pas dans le MAP, le coût
du trajet est le même mais grâce à MPLS, le but est de réduire la charge du MAP d’où l’explication
de la sélection du LSP.

Figure 4.07 : Chemins des données

82
Nous allons voir maintenant le résultat obtenu

 Le débit de transmission

Figure 4.08 : Débit de transmission du paquet de type TCP

Durant la période du Handover, les paquets sont toujours générés vers une destination précise. Dès
que le MAP reçoit le message Hack plusieurs paquets destiné au PAR seront tout de suite redirigé
vers le NAR, et en même temps, le MN s’enregistre à son HA avec son nouveau CoA (NLCoA) ce
qui explique cette réduction de débit entre l’intervalle t= [7 ; 12].

 Le délai de transit

Figure 4.09 : Le délai

83
Ici, d’abord une latence qui atteigne les 100 ms est remarquée au début de la génération du paquet,
dû forcément au démarrage lent du paquet de type TCP. Dans l’intervalle de temps t = [8,5 ; 9,5],
la latence augmente toujours à cause de la redirection de paquet. Par rapport à l’intervalle de temps
du changement du débit, la variation du délai est courte, c’est-à-dire que c’est entre cet intervalle de
temps que commence le « tunneling » par le biais du MAP et on peut remarquer encore que juste
après cette variation, le débit commence à augmenter.

 La gigue :

Figure 4.10 : La gigue

Cette courbe explique nettement la variation du délai pendant le Handover.


D’après la définition de la gigue vue dans le paragraphe 3.2.1, on peut déduire qu’à l’instant 8.5ms
sur la figure 4.10, la gigue augmente, c’est-à-dire qu’il y a une faible variation de la latence au
moment du Handover.

b. Utilisation de plusieurs trafics

On a encore utilisé un trafic CBR pour le nœud mobile MN


 Echange de donnée entre un client et un serveur
Les flux colorés en bleu sont une application TCP entre les nœuds « Client » et « Serveur ». Les
acquittements suivent le même chemin pour le retour. Cette application a été lancée avant le début
de la transmission de donnée vers le MN.

84
 Conversation IP entre 2 nœuds
On a simulé une conversation entre les 2 nœuds « Voice », le nœud numéro 6 et 12 dans la figure
4.07, utilisant encore le CBR où l’on peut voir les flux de couleur orange et vert suivant la route :
Voice →LSR 5→LSR 4→LSR9→LSR7→LSR11→Voice.
L’objectif ici est de montrer que malgré la redirection des paquets, ainsi que ses mécanismes pour
accomplir un Handover, cela n’affecte que peut la qualité de service des autres applications en cours
dans le réseau. On remarque peut la présence d’un fil d’attente, qui est du à la réservation des
ressources.

Figure 4.11 : Scenario avec différents applications

Déjà, on remarque que les liens dans le réseau sont bien exploités car les paquets de type TCP (en
bleu) utilise le chemin contournant le MAP alors que c’est le chemin le plus court. Le chemin
qu’empruntent ces paquets est attribué par le LSP dû à la réservation de ressource au routeur MAP
(routeur clé dans la mobilité) qui doit être moins utilisé pour minimiser son charge.
D’un autre côté pour la conversation « Voice », même si le chemin : LSR9→LSR8→LSR10 est
déjà utilisé, cette chemin est beaucoup plus large (paramétré à 100 Mb) et peut donc contenir
plusieurs trafics en même temps. LSP a choisi un autre chemin utilisant LSR7→LSR11 qui peut
être un gaspillage de ressource mais il permet de minimiser le taux de perte si une éventuelle panne

85
se présente et aussi de permettre au routeur de ne pas travailler au maximum, qui réduit le taux de
charge du chemin LSR9→LSR8→LSR10.

 Présentation des résultats

Abonnés Type de trafic Débit Délai Gigue Perte


(en Kbps) (en ms) (en ms) (%)
Voice “6” – CBR 4912, 09 Kbps 13, 35 ms 0, 83 ms 1,37%
Voice “12”
Voice “12” – CBR 4912,17 Kbps 13,40 ms 0, 83 ms 1,37%
Voice “6”
Nœud CBR 1558,11 Kbps 69,89 ms 4, 19 ms 6,42%
Mobile
Client - TCP/ack 6141,63 Kbps 15,15 ms 1, 13 ms 0,20%
Serveur

Tableau 4.03: Résultats des paramètres de QoS sur plusieurs Trafics

 Le débit de transmission
La différence de débit entre chaque trafic est caractérisée le type de trafic qui définit ses classes de
service. En effet, le CBR requiert une QoS privilégié, et son débit dépend de la taille du paquet de
donné (haute si le paquet est volumineux).
Pour les paquets de type TCP, son classe de service est moyenne et il ne requiert aucun utilisation
de tous les ressources disponibles et son attribution de bande passante dépend aussi de la taille du
paquet.

 Le délai de transit
Le plus remarquable ici est que le délai de transmission du trafic CBR du nœud mobile MN se
rapproche à quelque milliseconde près à celle du trafic TCP de la simple topologie IP/MPLS dans
la partie 4.5.2.1. MPLS est donc encore une fois très efficace car il a bien su acheminer un trafic
volumineux sur un chemin avec plus de coût que la simple topologie.
Le délai du trafic TCP est en effet élevé que celle du trafic « Voice » utilisant CBR car dans le nœud
LSR 8, il est déjà confronté au trafic du nœud mobile MN, et à celui du trafic « Voice » dans LSR9
et LSR4 par la suite.

86
 La gigue
Pour le trafic « Voice », il n’y a presque pas de variation de délai grâce à son classe de service, mais
cette gigue de 0, 83 ms est apparues lors du début de la génération du trafic du MN.
Notons que le trafic CBR du nœud mobile MN généré après les 3 autres trafics d’où cette gigue qui
est presque égale à celle de la simple topologie, à ne pas oublier la différence entre le type de paquet.
Dans le cas du trafic TCP, c’est le premier flux qui s’est circulé dans le réseau donc subit quelque
changement brusque de l’état du routeur utilisé par son LSP.

 La perte de paquet
Concernant la perte de paquet, on peut dire qu’y a pas vraiment de perte car pour le trafic « Voice »,
1,37% de perte sur une taille volumineux du paquet avec un débit de transmission de 4912, 09 Kbps
défini une bonne QoS. D’un autre point de vue, le protocole UDP transportant ces trafics CBR ne
garantit pas que les paquets arrivent à destination. Une erreur sur l'en-tête du paquet peut entraîner
sa perte ou l'envoi vers une mauvaise destination.
Pour celle du nœud mobile, la perte est aussi acceptable car le débit de 1558, 11 Kbps est élevé par
rapport à la condition d’acheminement (nœud mobile en se déplaçant à 10 m/s) et à la génération
du paquet au niveau du CN (512 bit tous les 0, 005 ms).
Enfin, pour le trafic entre Client et le Serveur, cette perte est causée lorsque l’un des routeurs utilisé
par son LSP est congestionné. Comme le LSR9 par exemple, tous les types de trafic se rencontre
dans ce routeur, alors il libère automatiquement de la bande passante en détruisant une certaine
proportion des paquets entrants en fonction de son FEC prédéfinis.

4.6 Conclusion

Dans ce chapitre, on a pu mis en évidence l’apport du protocole MPLS dans un réseau IP/MPLS.
Le protocole FHMIPv6 du côté « IP » s’occupe du Handover, et grâce à la méthode MPLS-TE,
aucun des services déjà en cours n’est perturbé. MPLS a encore beaucoup contribué sur le
mécanisme du Handover car l’utilisation des FEC pour chaque type de paquet a permis de priorisé
les messages FHMIPv6, critiques en temps de réponse. Par conséquent, les pertes de donnés sont
acceptable, et le débit de donné est satisfaisant. Concernant le délai de transit, elle n’augmente pas
énormément comme on le craint en fonction de la complexité du réseau, grâce évidemment à la
gestion du fil des LSR. Les résultats ont donc montré que l’intégration du réseau IP/MPLS donne
une stabilité à l’état du réseau lors des différents services utilisés par les abonnés.

87
CONCLUSION GENERAL ET PERSPECTIVE
Durant ce travail on a pu constater que les générations de téléphonie mobile ont été développées
pour garantir de meilleure performance en particulier les Qualités de Services, tout en apportant de
nouvelles applications, de nouveaux services, ainsi. L’évolution se concentrait surtout dans les
technologies radio.
La particularité du réseau 4G est son architecture tout IP, et ne lui permet pas par conséquent un
service « Best Effort ». Le principe est de fournir un garantit au donnés, et le réseau IP/MPLS déjà
utilisé par certains opérateur apporte beaucoup que le best effort.
Les abonnées les plus nombreux utilisant les services de la télécommunication sont les abonnés
mobiles et de plus, les équipements usagers UE supportent presque ces services. De ce fait intervient
le protocole de mobilité FHMIP pour offrir aux UE une communication sans interruption, et sans
dégradation de l’état de connexion malgré ces éventuels déplacements. Plusieurs critères de
performance ont mené à la migration vers l’IPv6 donc on a fait appel particulièrement au protocole
FHMIPv6 pour cette gestion de mobilité. Sur ce, la transparence sur le déplacement de l’UE ne doit
en aucun cas influer l’état du réseau (performance) tout en gardant la QoS notamment grâce à MPLS
et à l’ingénierie de trafic utilisant MPLS (MPLS-TE).
Les résultats sur les mesures des paramètres de QoS dans la simulation sur NS-2 ont montré
l’efficacité du réseau IP/MPLS en tenant compte des classes de services de chaque flux de données.
En effet, le but du FHMIPv6/MPLS est d’offrir une QoS satisfaisant aux UE, l’état du réseau reste
stable en tenant compte de la QoS de chaque service en cours.
Enfin comme perspective, l’étude plus approfondie du FHMIPv6/MPLS pourrait avoir une
contribution à un autre type de mobilité : le NEMO (Network Mobility) ou réseau mobile. Comme
solution, le trajet du NEMO peut être défini alors il suffit d’installé et de configuré les routeurs sur
son trajet.

88
ANNEXE 1 : Etape de réalisation du fichier script de la simulation
Par la suite, le symbole #indique les commentaires
# Création du simulateur
set ns [new Simulator]
#utilisation du patch FHMIP
Node set useFhmipv6_ true
#Utilisation de l’adressage hierarchique
$ns_ node-config -addressType hierarchical
AddrParams set domain_num_ 5
lappend cluster_num 2 1 1 2 2
AddrParams set cluster_num_ $cluster_num
lappend eilastlevel 1 1 2 1 1 1 1 1
AddrParams set nodes_num_ $eilastlevel; #### ces paramètres indiquent le domaine, le sous
##réseau, et les nombres de nœuds dans un sous réseau
#génération du fichier trace
set nm [open out.nam w]
$ns namtrace-all $nf

set myTrace [open out.tr w]


$ns trace-all $tr
#configuration des nœuds
set node0 [$ns node]
$node0 label "CN"

# nœuds MPLS
$ns node-config -MPLS ON
set LSR1 [$ns node]
#…..
$ns node-config -MPLS OFF ; # fin du nœud MPLS

89
#établissement des liens câblés
$ns duplex-link $node0 $LSR2 100Mb 2ms ; montre un lien full-duplex de 100Mb de bande
#passante et un délai de 2 ms entre les nœuds LSR2 et node0
# APPLICATION
set udp [new Agent/UDP] ;#agent de transport
$ns attach-agent $node0 $udp ;#définir le nœuds qui utilise l’agent

set cbr [new Application/Traffic/CBR] ;#type de traffic à générer


$cbr set packetSize_ 512
$cbr set interval_ 0.005
$cbr set class_ 1 ;#génère 512 bit tous les 0.005 ms, avec la classe de service 1

set sinknode0 [new Agent/LossMonitor] ;#définition du nœud correspondant


$ns attach-agent $node9 $sinknode0
$ns connect $udp $sinknode0

#ROUTAGE MPLS
$ns RSVP-TE
# On continue ensuite par les Paramètres des fonctions MPLS
#Classifier/Addr/MPLS set control_driven_ 1 ; #envoi une signalisation LDP pour définir
#les LSP et les attribués aux FEC.
#Classifier/Addr/MPLS enable-ordered-control ;#gestion du fil d’attente par rapport au FEC

#Scenario
# à t= 6.0 envoyer MN au point X= 1555.0 et Y= 135.1 à une vitesse de 10m/s
$ns_ at 6.0 "$MN setdest 155.0 135.1 10"
#Lancer la simlation
$ns run

90
ANNEXE 2 : Script en awk pour obtenir les résultats de la simulation.
BEGIN {
send = 0; #initialisation
receive = 0;
}
{
#recupération des valeur de chaque colone dans une ligne
action = $1;
time = $2;
node_1 = $3;
node_2 = $4;
type = $5;
taille=$6 ;
flow_id = $8;
node_1_address = $9;
node_2_address = $10;
seq_no = $11;
packet_id = $12;
if (type== cbr && taille>=500 && action == "+"&&flow_id==1)
send++ ;
if (type==cbr && action == "r"&&flow_id==1)
receive++;
lost=send-receive ;
}
END {
printf("paquet envoyer: %d reçue : %d perdu :%f\n", send, receive, lost) ;
}

91
BIBLIOGRAPHIE

[1] TONYE.E et EWOUSSAOUA.L, « Planification Et ingénierie Des Réseau De


Télécoms », mémoire pro 2 de télécommunication, Université de Yaounde I, 2011.

[2] T.E Rakotondraina, «Communication radio-mobile», Cours 4è année, Département


Télécommunication, ESPA, AU: 2012-2013.

[3] A. Andriamanalina, « Réseaux cellulaires », Cours 3è année, Département.


Télécommunication, ESPA, AU: 2011-2012.

[4] www.effort.com.

[5] M.A Rakotomalala, «Réseaux 2G, 3G et 4G», Cours Master II, Département.
Télécommunication, ESPA, AU: 2013-2014.

[6] G. Pujolle, « les réseaux », Eyrolles, 2014.

[7] G. Seide « Planification du réseau de la quatrième génération à partir de la troisième


génération », Université de Montréal, 2011.

[8] A.A Randriamitantsoa, « Qualité de service dans un réseau », Cours Master II,
Département Télécommunication, ESPA, AU : 2013-2014.

[9] A.A Randriamitantsoa, « Outil de planification réseau », Cours Master II, Département
Télécommunication, ESPA, AU : 2013-2014.

[10] Khodor ABBOUD « conception et évaluation d'un modèle adaptatif pour la qualité de
service dans les réseaux MPLS ».
Doctorat, délivré par l'École Centrale de Lille Soutenue le 20/12/2010.

[11] MOHAMED ANOUAR RACHDI « Optimisation des ressources de réseaux


hétérogènes avec cœur de réseau MPLS », Ecole doctorale : EDSYS.

[12] Cedric FORTUNY « Estimation du Trafic, Planification et Optimisation des ressources


pour l’ingénierie des réseaux IP/MPLS. », DOCTORAT DE L’UNIVERSITE DE
TOULOUSE.

[13] Ramon Casellas « Partage de Charge et Ingénierie de Trafic dans les Réseaux MPLS »,
Telecom Paris-Tech, 2002.

92
[14] David GAUCHARD « Simulation hybridede sreseaux IP-DiffServ-MPLSmulti-services
sur environnement d'execution distribuee Automatic », Universite Paul Sabatier
Toulouse III, 2003.

[15] MEDILEH Saci, « Solutions pour la prise en charge de la mobilité dans l’Internet »
UNIVERSITE KASDI MERBAH OUARGLA, 2009.

[16] Jesús Hamilton Ortiz « Integration of HMIPv6 mobility protocol and Diffserv quality of
service protocols over M-MPLS to provide QoS on IP mobile networks» 10th IFIP
International Wireless Communications Conference PWC´05 IEEE. Colmar, France,
August 25-27, 2005.

[17] DE ROUCY DE FLACOURT Maxime, « ARCHITECTURES 3GPP ET ÉVOLUTION


VERS IPV6 » Maîtrise et Sciences Appliquées, 2011.

[18] www.ns-nam.com, « Introduction to NS-2 ».

93
FICHE DE RENSEIGNEMENTS

Nom : RANDRIAMARO TSIHOARANA

Prénom : Ando

Adresse de l’auteur : Lot IC 185 Andrefan’Ilafy

Téléphone : +261 32 40 778 79, +261 34 99 711 99

E-mail : [email protected]

Titre du mémoire : « MECANISME POUR FOURNIR LES QUALITES DE SERVICE DANS LE


RESEAU DE QUATRIEME GENERATION »

Nombre de pages : 107

Nombre de figures : 24

Nombre de tableaux : 6

Directeur de mémoire :

Nom : RANDRIAMITANTSOA

Prénoms : Andy Auguste

Grade : Professeur Titulaire

E-mail : [email protected]

Téléphone : +261 33 07 446 66

94
RESUME
Depuis la première génération des réseaux mobile, la première contrainte du concept cellulaire se
reposait sur le support de transmission. Plusieurs études ont mené jusqu’au réseau 4G version 10,
connu par le nom de LTE, se montre performant en garantissant une valeur beaucoup plus optimale
de paramètre de QoS. En effet les caractéristiques radios du réseau 4G offre des dizaines de
mégabits, des latences de plus en plus, grâce aux technologies radios MIMO et OFDMA. Mais le
problème se pose dans la capacité du réseau cœur à gérer les paquets jusqu’au réseau d’accès lors
des congestions, des charges, des files d’attente, en plus de la mobilité. Ce mémoire vise à la garantie
de ressource, et de qualité de service d’un UE en mobilité tout en tenant compte à la stabilité du
réseau cœur. On se propose donc l’intégration de l’FHMIPv6/MPLS au cœur EPC du réseau LTE
pour garder la qualité de service de l’UE tout en se déplaçant dans un réseau d’accès à un autre sans
influencer les services en cours partageant la même ressource réseau.

Mot clés : 4G, QoS, FHMIPv6, MPLS, NS-2

ABSTRACT
Since the first generation of networks mobile, the first constraint of the cellular concept was based
on the support. Several studies have led until the LTE release 9 and continues to increase the
throughput and improves the robustness of its transmission channel minimize data loss, always
through the improvement of the access network using MIMO and OFDM technology. The 4G
version 10 network, known by the name of LTE shows performance ensuring a much more optimal
QoS parameter value. Indeed the radios of the 4G network features has tens of megabits, latencies
more in shorter but the problem is in the ability of the core network to manage the packages until
the network when congestion charges, queues, in addition to mobility. This thesis aims to guarantee
resource, and quality of service of an user equipment mobility taking into account the stability of
the core network. It proposes therefore the integration of the FHMIPv6/MPLS in the heart EPC of
the LTE network to keep the quality of service of the EU while moving in an access to another
network without affecting current services sharing the same network resource.

Keys words: 4G, QoS, FHMIPv6, MPLS, NS-2

95

Vous aimerez peut-être aussi