Reseaux Hauts Debits FR
Reseaux Hauts Debits FR
Reseaux Hauts Debits FR
Guillaume Desgeorge
Novembre 1999
INTRODUCTION AUX RÉSEAUX À HAUTS DÉBITS ........................................................................................... 3
INTRODUCTION .......................................................................................................................................................................3
I - NATURE DES INFORMATIONS À TRANSPORTER.............................................................................................................3
II - RÉSEAU NUMÉRIQUE À INTÉGRATION DE SERVICES (RNIS)....................................................................................4
III – TECHNIQUES DES RÉSEAUX HAUTS DÉBITS................................................................................................................4
LE RELAIS DE TRAMES ................................................................................................................................................... 8
I – PRINCIPES GÉNÉRAUX DU FRAME RELAY.....................................................................................................................8
Architecture générale...................................................................................................................................................... 8
Mécanismes du Frame Relay ......................................................................................................................................... 9
II – LA SIGNALISATION ET L ’INTERCONNEXION DU FRAME RELAY .............................................................................10
LES RÉSEAUX D’INTERCONNEXION......................................................................................................................13
I – FDDI : FIBER DISTIBUTED DATA INTERFACE ...........................................................................................................13
Généralités......................................................................................................................................................................13
Protocoles et architecture ............................................................................................................................................14
FDDI–II............................................................................................................................................................................16
II – DQDB : DISTRIBUTED QUEUE DUAL BUS................................................................................................................18
Architecture et fonctionnement....................................................................................................................................18
Architecture des protocoles..........................................................................................................................................19
LES RÉSEAUX LOCAUX .................................................................................................................................................22
I - ETHERNET ET LE HAUT DÉBIT .......................................................................................................................................22
Fast Ethernet ..................................................................................................................................................................22
Gigabit Ethernet.............................................................................................................................................................23
Exemples d’architecture...............................................................................................................................................24
II – LE 100VG A NY LAN...................................................................................................................................................25
Principe de l’accès par scrutation (polling) .............................................................................................................25
Architecture et performances.......................................................................................................................................25
III - LES RÉSEAUX LOCAUX VIRTUELS...............................................................................................................................26
L’ATM (ASYNCHRONOUS TRANSFER MODE)....................................................................................................28
I - PRÉSENTATION GÉNÉRALE .............................................................................................................................................28
II - LA COUCHE ATM ..........................................................................................................................................................29
III - CONTRÔLE DE FLUX, DE CONGESTION ET D ’ADMISSION.........................................................................................29
IV - LA COUCHE AAL.........................................................................................................................................................30
LES SUPPORTS PHYSIQUES.........................................................................................................................................32
I – LE CUIVRE ET LA FIBRE OPTIQUE .................................................................................................................................32
Le cuivre ..........................................................................................................................................................................32
La fibre optique..............................................................................................................................................................32
Wavelength Division Multiplexing (WDM) ...............................................................................................................33
II – PDH, SDH ET SONET .................................................................................................................................................33
III – LES TECHNOLOGIES XDSL (DIGITAL SUBSCRIBER LINE) .....................................................................................35
IV – LES RÉSEAUX SANS-FIL...............................................................................................................................................36
HiperLAN.........................................................................................................................................................................36
IEEE 802.11....................................................................................................................................................................37
Pour répondre à de nouveaux besoins, et ayant les possibilités technologiques de les satisfaire.
Les architectures de type client – serveur et les applications multimédia (données, sons, images
animées (applications futures) ) sont gourmandes en bande passante.
Est naturellement apparu un besoin de réseaux multiservices hauts débits.
Voix intéractive
Sons
Données multimédia
Réseau multiservice
Poste de travail
Données
Video
Le terme « haut débit » ne précise pas de fourchette précise. Si le haut débit, il y a 15 ans, pouvait
s’appliquer à des débits de l’ordre du Mégabit par seconde, il peut aujourd’hui s’appliquer à des débits
de l’ordre du Gigabit par seconde…
Le cours qui est présenté ici présentera donc diverses techniques au débit supérieur à 1 Mbps… La
liste n’est pas exhaustive et ce ne sont pas toutes les techniques supérieures au Mégabit par seconde
qui seront traitées…
- Voix interactive : temps réel (temps de transfert <150 ms pour être indécelable)
La voix interactive nécessite un intervalle strict entre chaque échantillon (transfert isochrone). La
commutation de circuits oblige à garder le même circuit pendant tout l’échange ce qui sous-utilise la
bande passante alors que la commutation de paquets permet de récupérer les blancs dans la
conversation (60% du temps). Dans ce cas, les paquets sont récupérés dans un buffer qui délivrera
régulièrement les paquets au destinataire (émulation de circuit) ce qui introduit un délai
supplémentaire.
La mise en paquet fournit également un délai supplémentaire : la source codée donne 1 octet par 125
µs, soit 8ms pour 32 octets. Il faut que le réseau supporte les paquets voix de petite taille. Sans
oublier les délais de compression et de décompression. Par contre, un paquet perdu n’a aucune
incidence sur la conversation et n’est pas détectable par l’oreille. Ces paquets sont soit ignorés, soit
reconstitués (en recopiant le précédent).
On a donc rangé les données dans des classes d’applications en fonction de leurs besoins :
Le RNIS est un réseau aux infrastructures flexibles dédié à l’intégration de voix, de données, de vidéo,
d’images et d’autres applications. Il a été pensé pour remplacer les lignes téléphoniques analogiques
actuelles.
RNIS bande étroite (Narrowband ISDN) permet l’intégration de services pour des débits de 56 Kbps à
2 Mbps alors que RNIS large bande (Broadhand ISDN) est basé sur des cellules évoluées de la
technologie ATM pour des débits de 2 à 600 Mbps.
Le RNIS est une évolution du réseau téléphonique actuel. Il propose la continuité numérique de bout
en bout. Ce n’est pas un réseau supplémentaire entrant en concurrence avec les réseaux existants
comme le téléphonique traditionnel, les réseaux X25 ou les liaisons spécialisées. C’est plutôt un
accès universel à ces réseaux ou plus exactement à ces services supports.
En jouant sur son sigle, le RNIS apparaissait à l’époque comme un moyen de communication rapide,
normalisé, intelligent et souple :
- Rapide, car l’accès de base à 144 Kbps comporte 2 voies à 64 Kbps et une voie à 16 Kbps (2B+D).
Les canaux B permettent, par exemple, de téléphoner tout en envoyant une télécopie rapide. Le canal
D, pour sa part, convoie les signaux servant à l’établissement de la communication et toutes les
informations de service ; il peut aussi transporter des informations à bas débit. Il existe des accès
primaires qui comportent 30 canaux B et un canal D.
- Normalisé, car tous les éléments d’accès au RNIS sont spécifiés par des normes internationales :
même canal de base, même canal D, même câblage et même prise (RJ 45) servent pour tous.
- Intelligent, car les centraux sont capables de gérer une signalisation bien plus riche que celle du
téléphone classique.
- Souple et simple, car le RNIS a la vocation d’héberger la grande majorité des services de
communication et fait un pas vers la transparence des réseaux avec son accès universel aux services
de télécommunication.
Les protocoles hauts débits utilisent le mode orienté connexion qui préserve le séquencement des
informations et allège le travail des terminaux.
Quality of Service
Pour assurer le support de ces applications, on a défini une certaine qualité de service (QoS) basée
sur deux critères :
- La transparence temporelle (délai de transfert et variation du délai (gigue)
- La transparence sémantique (respect de la signification des informations)
Commutation de circuits
Noeud de
commutation
Noeud de
Noeud de commutation
commutation
Téléphone
Téléphone
Noeud de
commutation
Commutation de paquets
Réordonnancement et
p2
réassamblage
Commutateur
Voies incidentes
Voies incidentes
Voie composite
MUX ETCD ETCD MUX
voie composite
bande de garde
F1 F2 F3
Fréquences
Voies incidentes
Voie composite
ETCD ETCD
V1 V2 V3 V4 Vi
MUX MUX
canal 1
canal 2
canal 3
canaux multiplexés
canal 5 MUX
canal 7 c3 c7 c3 c5 c5 c3 c3
Pour éviter d’acheminer des données erronées, le réseau effectue souvent un contrôle de validité et
élimine les blocs où une erreur est détectée. La reprise d’information (inutile pour le temps réel) est
laissée aux couches supérieures des organes d’extrémité.
Deux approches sont possibles pour le contrôle d’erreur :
- Un contrôle sur l’ensemble du bloc de données, méthode qui se justifie uniquement sur les réseaux
à fort taux d’erreur.
- Un contrôle sur l’en-tête du bloc, méthode qui s’applique parfaitement à la transmission de données
de faible taille.
Le contrôle d’intégrité prévoit aussi le contrôle de la validité des fanions, la taille du bloc et la
vraisemblance de l’identification (élimination des blocs dont le numéro de voie logique est inconnu).
potentiel maximum
seuil de
congestion
Trafic écoulé
Trafic offert
Pour prévenir la congestion, il faut mettre en place un contrôle d’admission (ne pas admettre dans le
réseau plus de trafic que celui-ci ne peut supporter) et un contrôle de flux (asservir le débit de la
source aux capacités de traitement du nœud).
Contrôle d’admission : En X25, on réserve les ressources nécessaires lors de la mise en place du
circuit, mais ceci est incompatible avec un trafic en rafale.
Pour garantir la QoS, une connexion ne doit être acceptée que si le réseau est apte à la satisfaire. Les
demandes de connexion seront donc accompagnées par des informations comme le débit moyen et le
débit de pointe nécessaire.
Contrôle de flux : En mode connecté, le contrôle de flux se fait par fenêtre glissante. La fenêtre est le
nombre de blocs que la source peut émettre sans avoir reçu d’acquittement. Plus la fenêtre est
importante, plus l’émission peut-être continue mais le contrôle de la source est faible.
Etant donné la rapidité du passage des informations sur un réseau haut débit, il ne peut y avoir de
contrôle de flux par fenêtre glissante. Celui-ci est assuré par les couches supérieures.
Pour éviter les congestions non prévenues, il existe des contrats de trafic établis à chaque connexion
qui permet, en cas de congestion importante, au commutateur d’accès de supprimer des blocs
entrants ou de les mettre en attente.
Architecture générale
Le Frame Relay est une évolution de la commutation par paquets X25. Il établit, en mode connecté,
une liaison virtuelle entre les deux extrémités. Cette liaison est soit permanente (PVC : Permanent
Virtual Circuit), soit établie à la demande (SVC : Switched Virtual Circuit).
Le Frame Relay couvre les couches 1 et 2 du modèle OSI mais n’est pas conforme à ce dernier.
Organisme de normalisation
Objet UIT ANSI
Description des services I.233 T1.606
Fonctions de base Q.933 T1.617
Accès et signalisation Q.933 T1.617
La couche physique utilise du bit stuffing (transparence binaire) : insertion d’un zéro tous les cinq 1
à l’émission et suppression du 0 suivant cinq 1 à la réception. Cette technique est pénalisante car elle
introduit une irrégularité dans le débit utile. Elle est utilisée afin de s'assurer que la suite de bits
01111110 (0x7E, fanion des trames du Frame Relay) ne puisse apparaître « par hasard ».
L’interface physique n’est pas précisée par la norme, elle dépendra du constructeur ou de l’opérateur.
La trame utilisée par le Frame Relay au niveau 2 (Noyau) est de type HDLC (High Level Data Link
Control) dérivée de LAP-D et délimitée par deux fanions 0x7E.
Son format est le suivant :
0 5 6 7 11 12 13 14 15
Adressage
De même que pour un réseau X25, on établit la connexion à travers une liaison virtuelle. La
particularité par rapport à X25 est d’être unidirectionnel, la machine distante devant établir son propre
circuit virtuel de retour.
Un circuit virtuel est identifié par un identificateur de lien virtuel (DLCI) équivalent au NVL (Numéro de
voie logique) d’X25. Dans la version de base de 2 octets, le DLCI permet d’adresser 1024 liaisons
virtuelles dont seules 992 sont utilisables.
DLCI Utilisation
0 Etablissement de circuit (Q.931)
1 – 15 Réservés
16 – 1007 DLCI utilisateurs (PVC, SVC)
1008 – 1018 Réservés
1019 – 1022 Multicast
1023 Signalisation de la congestion et états des liens
Les gains du relais de trames par rapport à X25 en terme de vitesse de commutation est de l’ordre de
10 grâce à la simplification du protocole et la suppression de contrôles redondants.
Contrôle de congestion
Le réseau fait donc appel à l’autodiscipline pour prévenir les congestions en marquant les trames
excédantes. Lorsque le débit dépasse le CIR, les trames en excédent sont marquées par les organes
de commutation en positionnant le bit DE à 1. S’il y a congestion, elles seront éliminées.
Si le débit dépasse l’EIR, les trames sont directement éliminées.
éliminées
trames
Volume de congestion
EIR
marquées
DE = 1
Trames
Volume transmis
débordement autorisé
CIR
normalement
transmises
Trames
Volume transmis
garanti par le réseau
Tc
Le bit FECN est positionné à 1 par l’organe de commutation en état de congestion. Dans la réponse à
une trame dont le bit FECN est à 1, le récepteur marquera le bit BECN à 1 pour avertir l’émetteur de la
congestion.
Ce procédé étant injuste pour les hôtes n’ayant pas provoqué la congestion, le protocole CLLM a été
développé pour y remédier.
Ce protocole permet aux nœuds en état de congestion d’en avertir ses voisins ainsi que la source de
la congestion. Le format du message CLLM est le suivant :
Drapeau 0x7E Type de message
Champ adresse Identificateur de la norme = 0
DLCI = 1023 Longueur paramètre = 4
Champ de contrôle 1
Trame XID = 0xAF 1
Identificateur de
2
protocole
Format privé = 130 2
Identificateur de groupe Type de message
Formation privée = 15 Cause congestion = 2
Valeur de la cause de congestion :
longueur de groupe Longueur paramètre = 1 2 : Congestion de courte durée (pointe de trafic)
(2 octets) 3 : Congestion de longue durée (pointe de trafic)
Valeur de la cause (1 octet)
6 : Panne de courte durée d'un équipement
Type de message 10 : Maintenance de longue durée
informations Liste DLCI = 3
sur la 16 : Congestion de longue durée (cause inconnue)
congestion Longueur paramètre 2.n
n nombre de DLCI (1 octet)
DLCI 1
FCS (2 octets)
DLCI 2
Drapeau 0x7E
...
DLCI n
Drapeau 0x7E
Champ adresse
DLCI = 1023 Type de message
Status enquiry = 0x75
Champ de contrôle
Trame non numérotée = 0x3 Identificateur de message
Discriminateur de protocole Type de rapport = 0x51
LMI = 0x8 (CVP) Longueur = 1
Q.931 = 0x9 (CVC) Type de rapport
Référence d'appel Status complet = 0
Type de message Identificateur de message
Identificateur de message Vérification d'intégrité = 0x53
exemple Longueur = 2
Longueur
Numéro séquence émis (Ns)
Element d'information
Numéro séquence reçu (Nr)
Ce protocole permet à l’utilisateur (FRAD : Frame Relay Access Device) de connaître l’état des CVP,
du lien physique ou de la modification du statut d’un lien.
Les messages d’établissement des circuits virtuels sont acheminés sur le DLCI 0. Ce sont des
messages complexes puisqu’ils doivent préciser les paramètres de la liaison demandée.
L’échange de trames est le suivant au cours d’une communication :
Setup F = 0
Appel accepté
Connect Connect
ECHANGE DE DONNEES
Disconnect Disconnect
Release Release
Release complete
Drapeau 0x7E
Champ adresse DLCI = 0
Champ de contrôle
Trame non numérotée = 0x3
Discriminateur de protocole
Q.931 = 0x9
Longueur référence d'appel Message setup = 0x05
F Référence d'appel (2 octets) Message Call Proceeding = 0x02
Message connect = 0x07
Type de message
Message disconnect = 0x25
Type élément d'information Message release = 0x2D
Bearer Capability = 0x04 Message release complete = 0x3A
Longueur élément L = 0x03
Information Bearer Capability
Type élément d'information
DLCI = 0x19
Longueur élément
Autres éléments d'information
FCS (2 octets)
Drapeau 0x7E
La référence d’appel (2 octets éventuels) n’a qu’une valeur locale (Usager/Réseau) et est donc
différente à chaque extrémité. Elle identifie tous les messages de supervision relatifs à une connexion.
Le bit F (Flag) sert à repérer un message appelant (F=0) d’un message appelé (F=1).
Le champ relatant les capacités du réseau support (Bearer Capability) n’est présent que pour les
compatibilités futures et indique actuellement le codage en mode CCITT standard, le mode binaire
transparent et l’utilisation du noyau LAP-D.
Le relais de trames est parfaitement adapté à l’interconnexion de réseaux locaux pour des protocoles
divers et plus particulièrement pour X25 de façon transparente (encapsulation ou tunneling). Il est vu
par les protocoles comme un support physique.
La segmentation est également prévue par le Frame Relay de façon transparente pour les utilisateurs
du réseau. Si le réseau reçoit une unité dépassant son MTU (Maximum Transfert Unit), il la segmente
et la réassemble en sortie après l’avoir encapsulée dans une trame Frame Relay (sauf le champ
DLCI).
Si un fragment est perdu lors du processus de réassemblage, c’est l’ensemble de l’unité de données
qui est rejetée.
Le Frame Relay permet un débit de 2 Mbit/s à 45 Mbit/s et des temps de réponse très faibles. Il est
particulièrement bien adapté aux forts trafics aléatoires tels que les trafics d'interconnexion de réseaux
locaux. Par contre les délais de transmission sont variables, le Frame Relay n'est pas adapté aux
applications telles que la phonie.
Les deux technologies concernées sont FDDI et DQDB. Elles sont sérieusement concurrencées par le
Fast Ethernet qui à l’avantage d’utiliser les infrastructures déjà existantes.
La technique FDDI est d’origine ANSI (X3T9.5), puis a été normalisée par l’ISO (9314). C’est un
réseau en double anneau fondé sur une infrastructure fibre optique multimode. Le débit nominale est
de 100 Mbps pour une distance maximale de 100 km. FDDI supporte jusqu’à 1000 stations distantes
l’une de l’autre de moins de 2 km. Il existe une version de FDDI sur paire torsadée (TPDDI : Twisted
Pair Distributed Data Interface) qui autorise des débits de 100 Mbps sur 100 m.
La méthode d’accès est similaire à celle du réseau 802.5 version 16 Mbps. Chaque station doit
posséder l’unique jeton pour émettre puis pour générer un nouveau jeton. Les différences avec la
version 802.5 sont qu’il n’y a pas de station monitrice, que la synchronisation ne se fait pas par une
horloge unique (le réseau est plésiochrone) mais par une mémoire tampon (EB : Elasticity Buffer) qui
limite les trames à 4500 octets, et enfin que les données sont séparés en deux catégories distinctes,
les données urgentes à contrainte de débit (classe synchrone) et les données sporadiques à débit
variable (classe asynchrone).
Horloge Horloge
d'émission d'émission
E R
mémoire tampon
Station
Horloge Horloge
d'émission d'émission
R E
mémoire tampon
Station
TTRT
données données
asynchrones synchrones
Temps
Protocoles et architecture
Les protocoles
La couche MAC est chargée des fonctions habituelles (gestion du jeton, temporisation …). Le
protocole SMT gère l’insertion et le retrait des stations, la configuration du réseau et le
traitement des erreurs.
Codage 4B/5B
On utilise un codage Manchester de type NRZI (No Return to Zero Inverted). Il y a une
transition à chaque 1 et pas de transition pour un 0. Cependant, pour éviter la perte de la
synchronisation lors de longues séquences de zéros, FDDI utilise un double codage (code dit
4B/5B) : à chaque séquence de 4 bits, on fait correspondre une séquence de 5 bits telle qu’il
existe au moins deux transitions par symbole.
Le codage de 5 bits permettant 32 combinaisons pour n’en représenter que 16, certaines
combinaisons serviront de codes significatifs de l’état du réseau :
PA SD FC DA SA Données FCS ED FS
16 symboles 2 symboles 2 symboles 4 ou 12 sym 4 ou 12 sym (trames LLC) 8 symboles 2 symboles >= 3 sym
Les champs d’adresses DA et SA peuvent donc être soit longs (6 octets ou 12 symboles),
soit courts (2 octets ou 4 symboles) selon que le champ L est à 0 (adresse sur 16 bits) ou à 1
(adresse sur 48 bits).
Enfin, comme en 802.5, le champ Frame Status comporte les indications d’erreur, d’adresse
reconnue et de trames recopiées. Il est composé d’au moins 3 symboles, E (erreur détectée),
A (adresse reconnue) et C (trame recopiée). Ces symboles sont à 0 au départ de la trame.
Dans le cas où aucune station n’a détecté d’erreur, que 3 stations se sont reconnues dans
l’adresse (adresse de groupe) mais que seulement 2 ont correctement recopiées la trame, le
champ FS est le suivant :
E A C A C A C
Etat Reset Set Set Set Set Set Reset
Binaire 00111 11001 11001 11001 11001 11001 00111
Architecture de l’anneau
Le double anneau autorise, en cas de défaillance d’un nœud FDDI, le rebouclage sur l’anneau
secondaire. Pour les stations à simple attachement, c’est le concentrateur qui assure cette
fonction.
anneau principal
anneau secondaire
Station à double
attachement (DAS)
Station à double
attachement (DAS)
Concentrateur
à double attachement (DAC)
A l’initialisation, sur détection d’inactivité, une station emet une trame Claim Token qui
comporte l’indication du TTRT revendiqué. Chaque station compare la valeur du TTRT avec
celle qu’elle désire. Si la valeur qu’elle désire est inférieure à celle proposée, la station
substitue son TTRT à celui proposé. La station gagnante (celle qui voit revenir sa proposition)
génère le premier jeton pour informer les stations du TTRT retenu. Puis elle emet les données
à partir du deuxième jeton.
Une station qui a des données à émettre attend la réception du jeton. De même que pour le
Token Ring, c’est la station qui émet une trame qui la retire de l’anneau lorsqu’elle lui revient.
Même si FDDI offre une bande passante minimale aux données des différentes stations
(classe synchrone), elle ne garantit une récurrence temporelle entre les différentes émissions.
Cela empêche FDDI d’assurer les transfert isochrone (voix et vidéo).
FDDI–II
FDDI–II multiplexe sur le support une voie asynchrone et une voie synchrone en mode paquet
et une voie isochrone en mode circuit.
Si le trafic généré est uniquement du type paquet, une station FDDI-II fonctionne en mode de
base. Lorsque du trafic paquet et du trafic isochrone sont multiplexés, elle fonctionne en mode
hybride.
Multiplexeurs à commutation de
LLC LLC
circuits CS-MUX
SMT
PHY PHY
SONET FO Paires FO
PMD (SPM) monomode torsadées multimode
Une station maître (Cycle Master) génère une trame ou cycle FDDI-II toutes les 125 µs, soit
12500 bits. Ce cycle est le suivant :
Ordre de
transmission
Préambule Cycle Header
Cyclic group 0
on passe le 1er octet
de chaque canal
C C C C C C C
A A A A A A A
N N N N N N N
A A A A A A A
L L L L L L L
W W W W W W W
B B B B B B B
C C C C C C C
0 1 2 3 13 14 15
Canal DPG
Le canal DPG (Dedicaced Packet data Group) de 12 octets d’un débit de 768 Kbps est
notamment utilisé par la couche SMT pour la signalisation.
Les 16 canaux WBC (Wide Band Channel) de 96 octets sont utilisés en mode isochrone ou
paquet. Le débit nominal de chaque canal est de 6,144 Mbps, ce qui fait un débit synchrone
de 98,304 Mbps pour l’ensemble des canaux. Ces 16 canaux sont constitués d’un
entrelacement d’octets répartis en 96 cyclic group.
Cette norme a été proposée à l’IEEE 802.6 qui a finalement préféré le protocole DQDB.
Développé par une université australienne et soutenu par Telecom Australia, ce protocole a
été normalisé par l’IEEE 802.6 et l’ISO 8802.6 comme norme de réseau métropolitain. Il a été
développé parallèlement à ATM et utilise le format des cellules de 53 octets dont 48 de charge
utile.
DQDB permet des transfert isochrone et asynchrone en mode connecté ou non à des débits
de 45 à 155 Mbps. Une version 622 Mbps devrait être disponible prochainement.
Architecture et fonctionnement
DQDB utilise un double bus unidirectionnel. Sur chaque bus, une tête de bus (HoB, Head of
Bus) génère une trame toutes les 125 µs contenant n slots (cellules de 53 octets). Le nombre
n de slots dépend du débit du réseau. Les têtes de bus sont généralement situées sur une
même station.
Le premier bit de chaque slot (bit Busy) indique si le slot est libre ou occupé.
fin de
bus
HoB-A
HoB-B
Bus A
fin de
bus
Bus B
Station Station
Station
Les stations peuvent lire ou écrire des données au vol dans une cellule mais c’est la fin de bus
qui a la fonction d’absorption des trames. Chaque station écrit dans le bus qui correspond à la
direction de la station avec laquelle elles veulent communiquer, sauf en cas de broadcast où
les données sont émises sur les deux bus.
Chaque station qui a des données à émettre les dépose dans un slot vide de manière
statistique (données asynchrones) ou pré-affectée (pré-arbitrage pour les données isochrone).
Transfert isochrone
L’allocation des cellules est gérée par la tête de bus. Un lien virtuel (VC, Virtual Connection)
est établi à l’aide d’un protocole de signalisation (Q.931 du RNIS bande étroite) entre les
stations participant à l’échange.
La tête de bus alloue une ou plusieurs cellules PA (Pre-Arbitrated) selon le débit requis par la
station demandant l’établissement du lien, chaque cellule garantissant un débit de 3 Mbps.
DQDB peut même multiplexer plusieurs connexion dans une même cellule, chaque octet
garantissant un débit de 64 Kbps.
Cette connexion est entièrement déterminée par un identifiant de circuit (VCI, Virtual Circuit
Identifier) et une position dans une cellule.
Transfert asynchrone
Une station désirant émettre fait une requête de réservation sur le bus allant dans la direction
opposé à la station cible. Pour situer la station cible, elle lui adresse un message sur les deux
bus, et en fonction du bus d’où arrive la réponse, elle sait de quel côté elle est.
Si une station fait une requête sur le bus B pour obtenir N slots sur le bus A, la station
suivante (et donc celle qui la précède dans l’autre sens) laisse passer N slots vide sur le bus A
avant de déposer ses données dans le slot vide N+1.
Ce système n’est pas équitable car les stations en amont émettent leur requête de réservation
avant les autres. Le mécanisme «Bandwidth Balancing Mechanism » tend à corriger ce
défaut en obligeant les stations ayant émis N segments à laisser passer une cellule vide.
L’accès au support partagé est géré par deux entités, celle qui s’occupe du trafic isochrone
(PAF) et celle qui s’occupe du trafic asynchrone (QAF).
CF : Common Function
On rajoute un en-tête aux trames MAC pour donner les trames IMPDU qui sont ensuite
découpées en DMPDU de 48 octets pour donner les cellules DQDB.
Le Common PDU Header est un en-tête commun aux modes connecté et non connecté :
- l’octet RES est réservé pour une utilisation ultérieure.
- l’octet BE-tag (Beginning-End tag) correspond à la numérotation modulo 256 des trames
IM-PDU et est utilisé pour le réassemblage.
- le champ BA-size (Buffer Allocation size) précise au récepteur la place à réserver en
mémoire pour pouvoir recevoir toute la SDU.
Le champ MCP (MAC Convergence Protocol) n’est présent que pour le mode non connecté. Il
contient :
- les adresses source et destination (S A et DA).
- la longueur du champ de bourrage de 0 à 3 octets (PL : Pad Length).
- le type de SDU (champ PI : Protocol Identifier). Il peut s’agir d’une SDU LLC ou de gestion.
- la qualité de service en terme de délai (Delay) et de suppression lors de congestion (Loss).
Le bit CIB (CRC Indicator Bit) indique si le champ CRC est utilisé ou non.
- la longueur du champ d’extension d’en-tête en nombre de mots de 32 bits (HEL : Header
Extension Length).
- Un champ de temps de vie (Bridging) qui, en cas d’interconnexion de réseaux DQDB, est
décrémenté de 1 à chaque passage de pont jusqu’à ce que sa valeur atteigne 0 auquel cas la
trame est détruite.
Le format de l’extension d’en-tête (Header extension) n’est pas défini à ce jour. Le champ
PAD permet d’aligner l’IMPDU sur un multiple de 4 octets, sa longueur est précisée par le
champ PL. Le champ CRC32 est facultatif et validé par le bit CIB.
La partie commune à la fin de la trame IM-PDU comporte un octet non utilisé RES, un octet
BE-tag qui est la copie exact de celui d’en-tête ainsi que 2 octets Length qui indiquent la
longueur totale des champs MCP Header, Header extension, Données, PAD et CRC. Cette
indication autorise un contrôle lors du réassemblage.
Le champ d’adresse est particulier car DQDB peut utiliser plusieurs formats d’adresse :
Le champ EtherType donne l’identifiant du protocole supérieur (par exemple, 2048 est IP).
C’est le seul champ qui varie par rapport à la trame 802.3 où il est remplacé par le champ
« Longueur des données ».
Les différentes implémentations sont le 10 base 5 (10 Mbps en bande de base sur câble
coaxial d’une longueur maximale par segment de 500 mètres) qui est la version d’origine
d’Ethernet, le 10 base 2 (Thin Ethernet), sa version économique avec du câble coaxial souple
et fin qui permet une longueur de segment de 185 mètres pour un débit de 10 Mbps, et la
version 10 base T, sur paires torsadées où la longueur maximum des brins est de 100 à 150
mètres.
Avec un débit de 10 Mégabits par seconde, Ethernet 10 base X fait déjà partie des réseaux à
hauts débits. La version 100 Mégabits est une évolution du 10 base T idéal pour les réseaux
locaux d’entreprise.
Fast Ethernet
La compatibilité de la vers 100 Mégabits est assurée par la reprise du protocole CSMA/CD et
le maintien de la taille des trames. La topologie du réseau est la même que pour le 10 base T.
Nous ne nous intéresserons, pour le Fast Ethernet, qu’à la partie interconnexion, soit le niveau
physique puisqu’il n’y a que ce niveau qui change par rapport à Ethernet.
La fenêtre de collision (temps minimal pendant lequel une station émettrice doit écouter le
réseau pour détecter la collision la plus tardive) est réduite à 5,12 µs, ce qui fait un silence
inter-trame (IFG : InterFrame Gap) de 0,96 µs (96 bits). Ce ci induit de fortes contraintes sur le
temps de propagation du signal et donc sur la distance maximale entre les deux stations les
plus éloignées du réseau. La longueur d’un segment ne peut excéder 100 mètres.
Il existe deux classes de hubs différentes, le hubs de classe 1 qui régénèrent les signaux et
les diffusent sur les autres ports selon le type de port (100 base TX ou 100 base T4) et les
hubs de classe 2 qui répètent immédiatement les signaux reçus et donc qui autorisent une
connexion avec une et uniquement une cascade avec une distance inter-hub de 5 mètres.
100 base TX
100 base T4 100 base FX
2 paires type 5 UTP
4 paires type 3, 4, 5 UTP Fibre optique
(unshielded twisted pair)
Le 100 base T4 utilise un codage de type 8B/6T (8 bits sur 3 temps d’horloge). Trois paires
sont utilisées pour la transmission de données, la quatrième pour la détection de collision.
Le 100 base TX et 100 base FX utilise la signalisation 4B/5B (16 symboles parmi 32) sur une
paire ou fibre d’émission et une paire ou fibre de réception.
Gigabit Ethernet
Le Gigabit Ethernet est une évolution naturelle de la technologie CSMA/CD. Son architecture
générale est la suivante :
Le Gigabit Ethernet se présente comme une solution d’attente ou un complément plutôt qu’un
concurrent d’ATM.
Ces deux évolutions d’Ethernet sont généralement utilisés comme backbone sur les réseaux
locaux. Les machines ne travaillent pas nécessairement à 100 ou 1000 Mbps mais les
commutateurs qui forment la partie centrale du réseau l’utilisent.
Commutateur
Fast Ethernet
100 Mbps
Hub Hub
100 base T 100 base T
Station 100 Mbps Station 10 Mbps Station 100 Mbps Station 10 Mbps
Backbone 1 Gbps
Hub Hub
10 base T 10 base T
Pendant que qu’un groupe de travail autour de Cisco crée le Fast Ethernet, Helwett-Packard, soutenu
par AT&T et IBM, développe une autre possibilité d’évolution vers le 100 Mégabits qui prend en
charge l’évolution des réseaux Ethernet et Token Ring. Le 100VG Any LAN sera standardisé par la
spécification IEEE 802.12.
L’appellation 100VG Any LAN provient de 100 Mbps, avec de 4 simples paires torsadées de qualité
vocale (Voice Grade) et de sa double compatibilité Ethernet et Token Ring (Any LAN).
La topologie est identique à celle du 10 base T : une étoile hierarchisée autorisant jusqu’à 5 niveaux,
soit 4 hubs . Le hub de tête est appelé « root hub ». Les distances maximum dépendent des câbles
utilisés, soit 100 mètres pour les catégorie 3 et 4 et 150 mètres pour les câbles de catégorie 5 UTP.
Certains câbles particuliers autorisent des longueur de segment de 200 mètres.
Les hubs utilisés sont particuliers à la norme et s’ils sont appelés hubs dans la spécification, ils se
rapprochent plus du commutateur.
Lorsqu’une station désire émettre, elle fait une requête auprès du hub qui lui alloue ou non le support
(Demand Priority Access Method ou DPAM). Les collisions sont donc impossible et le délai d’attente
du aux jetons sont supprimés.
Les stations informent le hub de leur disponibilité en lui transmettant le signal «Idle ». La station
désirant émettre formule une requête avec un niveau de priorité. Les autres machines raccordées sont
averties par le hub que quelqu’un va émettre et se mettent en état de recevoir (signal Incomming,
INC). Lorsque toutes les stations ont cessé l’émission du Idle, cela signifie qu’elles sont prêtes à
recevoir et la station émettrice transmet sa trame. Le hub l’analyse et la transmet à la station
intéressée et reprend l’émission du Idle.
Les signaux de signalisation sont émis en basse fréquence (30 Mhz), ils se composent de 2 tonalités.
La première tonalité correspond à la transmission de 16 bits à 1 suivis de 16 bits à 0, se qui donne un
signal de 0.9375 Mhz, la seconde tonalité alternent la transmission de 8 bits à 0 et 8 bits à 1, se qui
donne un signal de 1.875 MHz.
Architecture et performances
Les 4 paires étant nécessaire, le débit sur chaque paire est ramené à 25 Mbps. L’architecture
des couches 1 et 2 du modèle OSI est représenté ci-après :
LLC
MAC
Les données sont codées en 5B/6B (32 symboles parmi 64). La sous-couche
PMI PMI constitue la trame selon la configuration du réseau (802.3 ou 802.5) et
(Physical Medium Interface) prépare les données pour chaque paire
Le 100VG Any LAN est actuellement un des protocoles les plus performants sur les réseaux locaux.
Le Fast Ethernet a cependant les faveurs du marché en raison de la possibilité de conserver une
partie du parc à 10 Mbps.
Le tableau suivant rappelle les caractéristiques du Fast Ethernet et du 100VG Any LAN :
Les réseaux virtuels (VLAN : Virtual Local Area Network) permettent de réaliser des réseaux
axés sur l’organisation de l’entreprise en s’affranchissant de certaines contraintes techniques
comme la localisation géographique. On peut ainsi définir des domaines de diffusion
(domaines de broadcast) indépendamment de l’endroit où se situe les systèmes.
Les VLAN ne traduisent aucun protocole de haut débit mais sont souvent utilisés dans des
réseaux locaux hauts débits. C’est à ce titre qu’ils sont rapidement évoqués dans ce cours.
Les normes 802.1Q et 802.1p décrivent respectivement les VLAN et la qualité de service
associée. Quatre octets sont insérés dans la trame MAC des réseaux 802.3 juste après
l’adresse source :
- le champ VPID (VLAN Protocol ID), équivalent du champ EtherType sur 2 octets
- le champ User Priority sur 3 bits (8 niveaux de priorité)
- un bit T qui indique si la trame transporte des données Token Ring
- un champ VID (VLAN ID) sur 12 bits qui identifie le VLAN destination.
Les VLAN introduisent la notion de segmentation virtuelle, qui permet de constituer des sous-
réseaux logiques en fonction de critères prédéfinis comme les adresses MAC ou les numéros
de ports de façon statique ou dynamique. Les échanges à l’intérieur d’un domaine sont
automatiquement sécurisés, et les communications inter-domaines peuvent être contrôlées.
On peut également créer des VLAN selon un protocole (IP, IPX,…), la communication ne
pouvant s’établir qu’entre deux stations utilisant le même protocole, par application (n° de port
TCP, par exemple), ou par mot de passe suivant le login de l’utilisateur.
Réseau de commutateurs
Station A Station B
Commutateur A Commutateur B
Requête ARP
VLAN ARP
Acceptation de la connexion
Réponse ARP
Pour les communications inter-VLAN, le protocole NHRP (Next Hop Resolution Protocol) a été défini.
Il s’agit d’un mécanisme de résolution d’adresses entre systèmes n’appartenant pas au même VLAN.
Pour se faire, la station source ou le commutateur de rattachement émet une requête NHRP vers le
routeur ou serveur NHS (Next Hop Server) qui transmet la requête à la station destination après avoir
effectué les contrôles d’usage. Les stations peuvent ensuite échanger directement les informations
sans passer par un tiers.
Réseau de commutateurs
Routage de la
requête
Transfert de la requête
Réponse NHRP
I - Présentation générale
En traitant des données de longueur réduite et fixe (cellules), on peut assurer leur commutation au
niveau physique (multiplexage). La commutation peut donc être assurée par des systèmes hardware
et non plus logiciels, ce qui autorise des débits bien plus importants.
La cellule ATM suit cette logique en présentant une cellule de 53 octets, dont 5 octets d’en-tête et 48
octets de charge utile. L’architecture ATM est représentée dans la figure suivante :
Segmentation / Réassemblage
Traitement des erreurs et des pertes de cellules
Correction de gigue
AAL AAL
Commutateur Délimitation des unités Commutateur
de données
ATM ATM Détection d'erreur ATM ATM
Commutation de
cellules
Physique Physique Physique Physique
La couche physique assure l’adaptation des cellules au système de transport utilisé. Trois modes de
fonctionnement ont été définis au niveau physique : le mode PDH (Plesiochronous Digital Hierarchy)
ou mode tramé temporel qui utilise les infrastructure existantes, le mode SDH (Synchronous Digital
Hierarchy) ou mode tramé synchrone (mode conteneur) qui devrait être le seul utilisé à terme, et le
mode cellule pour les réseaux privés où les cellules sont transmises directement sur le support de
transmission.
La couche ATM s’occupe de la commutation et du multiplexage des cellules et la couche AAL (ATM
Adaptation Layer) adapte les unités de données des couches supérieures à la couche ATM par
segmentation et réassemblage. Elles seront vues plus en détails dans les paragraphes suivants.
Pour l’administration des réseaux ATM, le protocole ILMI (Interim Local Management Interface), qui
s’appuie fortement sur SNMP, a été défini par l’ATM Forum (RFC 1695). L’agent SNMP renvoie les
informations de la MIB ILMI directement sur la couche AAL5. Les commandes utilisées sont les
commandes classiques de SNMP sur un VCC (Virtual Circuit Connection) réservé (VPI=0, VCI=16).
Manager SNMP Agent SNMP MIB ILMI MIB ILMI Agent SNMP
AAL5 AAL5
ATM ATM
Physique Physique
0/16
ATM
Une MIB ATM, extension de la MIB ILMI, autorise l’accès aux informations des commutateurs ATM.
L’en-tête de 5 octets que la couche ATM rajoute aux 48 octets de charge utile est la suivante :
0 3 4 7 0 3 4 7
GFC VPI VPI
VCI VCI
HEC HEC
Cette en-tête est différente sur la liaison station-commutateur (UNI) et sur la liaison entre deux
commutateurs (NNI). Le champ GFC étant inutile dans le réseau de commutateurs ATM, il est
récupéré pour obtenir une plage d’adressage plus importante.
Le champ GFC (Generic Flow Control) contrôle l’accès au réseau. Il permet d’assurer des fonctions
locales comme l’identification de plusieurs stations ayant un accès commun au réseau. Ce champ est
généralement non utilisé.
Le champ VPI (Virtual Path Identifier) identifie une connexion permanente ou semi-permanente et le
champ VCI (Virtual Channel Identifier) identifie une voie virtuelle semi-permanente ou établie lors de
l’appel. Ces deux notions renvoie un adressage du chemin à suivre plutôt que de la station
destination. L’ATM fonctionnant en mode connecté, les données ne sont acheminées qu’après
l’établissement d’une voie virtuelle (VCC, Virtual Channel Connection) unicast (bidirectionnelle) ou
multicast (unidirectionnelle).
Le champ PT (Payload Type) est sur 3 bits. Le premier bit définit si la cellule est d’origine utilisateur
(0) ou de données internes au réseau (1). Dans le cas de données utilisateurs, le deuxième bit (EFCI :
Explicit Forward Congestion Indication) signale si au moins un nœud est congestionné dans le réseau
(EFCI = 1), et le dernier bit indique la dernière cellule d’une trame AAL5.
Le bit CLP (Cell Loss Priority) indique lorsqu’il est à 1 une cellule à éliminer en priorité en cas de
congestion.
Le champ HEC (Header Error Control), rajouté par la couche physique, permet un contrôle d’erreur et
une autocorrection sur 1 bit.
De plus, le destinataire d’un message est prévenu de la congestion sur le réseau par le bit EFCI du
champ PT. Le destinataire ou n’importe quel commutateur peut alors envoyer une cellule RM
De ces classes de service ont été définis des contrats de service (CTD, Connection Traffic Descriptor)
Classes de service
Paramètres
CBR VBR - rt VBR – nrt ABR UBR
CTD : Cell Transfert Delay • • •
QoS
IV - La couche AAL
Pour affiner la qualité de service offerte aux applications, la couche AAL (ATM Adaptation Layer) a été
rajoutée pour répondre aux 4 différentes classes d’applications :
CS H CS_SDU T
AAL
SAR H SAR_SDU T H SAR_SDU T
La couche AAL1 : C’est celle qui permet le transfert isochrone par émulation de circuits.
Le format de l’en-tête SAR est le suivant :
La couche AAL2 : Elle diffère de l’AAL1 par la possibilité de débit variable et donc de cellules
incomplètes où rentre la notion de bourrage.
SN IT LI
Charge utile CRC
Sequence Number Information Type Length Indicator
45 octets 10 bits
4 bit 4 bits 6 bits
Le champ SN est identique à celui de l’AAL1 (Champs CSI et SNC). Le champ IT permet de distinguer
le début ou la fin d’un message (BOM, EOM), une cellule unique, etc... Le champ LI indique la
longueur des données utiles et enfin le champ CRC protège les données.
La couche AAL3/4 : Elle est utilisée pour le transport des données sans contrainte temporelle. Pour
assurer la reprise sur erreur (mode assuré), la sous-couche CS a été subdivisée en 2 sous-couches,
CPCS (Common Part Convergence Sublayer), commune aux modes assuré et non assuré et SSCS
(Service Specific Convergence Sublayer), spécifique au mode assuré.
Les champs seront rapidement énumérés : CPI (Common Part Indicator) est une indication pour
interpréter les champs suivants, Btag et Etag (Begin ou End Tag) est un numéro identifiant les unités
appartenant à la même unité de données, BaSize (Buffer Allocation Size) indique comment
dimensionner les buffers, AL (Alignment) est un drapeau de fin pour compléter la fin de la SDU à 32
bits, Len (Length) donne la taille des données utile de la SDU, ST (Segment Type) informe sur les
segment de début ou de fin, MID (Multiplexing Identification) identifie les cellules d’origine différente
sur une même connexion multiplexée, LID (Length Indicator) donne le nombre d’octets utiles dans
l’unité de données et le CRC protège le champ de données.
La couche AAL5 : C’est une simplification de la couche AAL3/4, elle en adopte donc l’architecture.
Longueur max 65535 octets avec bourrage
UU CPI LI CRC
AAL5 CS_SDU
1 octet 1 octet 16 bits 32 bits
Le cuivre
Deux types de support cuivre coexistent, la paire torsadée et le câble coaxial. Le câble coaxial a
une meilleure bande passante et une sensibilité aux perturbations plus faible mais il reste environ 8
fois plus cher que la paire torsadée et est donc souvent délaissée au profit de cette dernière. Le câble
coaxial est également plus lourd et moins maniable.
La paire torsadée est composée de deux fils en spirale entouré chacun d’une gaine isolante en
plastique. L’ensemble est peut-être blindé (STP, Shielded Twisted Pair) ou non-blindé (UTP,
Unshielded Twisted Pair), mais le blindage a là aussi de lourdes conséquences sur le prix. Dans le
cadre des hauts débits, le standard tant à devenir l’UTP de catégorie 5 avec 2 ou 4 paires.
Les inconvénients majeurs du cuivre sont un forte atténuation et une vitesse de transmission
relativement faible, ce qui limite la distance maximum entre deux stations ou entre deux appareils
d’interconnexion.
La fibre optique
La fibre optique est un support privilégié pour les transmissions à haut débit, mais son coût est bien
plus élevé que le support cuivre. La fibre optique se développe pourtant très bien et si les limites du
cuivre sont dessinées, celles de la fibre optique sont encore loin.
Face à l’inconvénient du prix, on lui reconnaît de nombreux avantages : une bande passante de
l’ordre de 1 GHz pour 1 km, un volume très faible pour un encombrement minimum, une grande
légèreté, une très faible atténuation (1 dB/km) et donc une très bonne qualité de transmission, une
indépendance presque totale face à la température et aux perturbations. Elle-même ne rayonne
d’ailleurs pas.
Un autre avantage de la fibre optique est l’aspect sécurité : il est très difficile de brancher une écoute
sur câble optique et une telle opération se traduit par une chute significative du signal dont la cause
est facilement localisable.
Il existe deux types de fibre optique, la fibre monomode et la fibre multimode. La fibre monomode
possède un cœur de très petit diamètre, de l’ordre de la longueur d’onde du signal transmis. La
lumière transite donc le long de l’axe du câble et donc de plus longues distances possible (peu
d’atténuation). La fibre multimode voit les rayons lumineux suivre des trajets différents suivant l’angle
de réfraction. Les rayons peuvent donc arriver au bout de la ligne à des instants différents, d’où une
certaine dispersion du signal.
Il est à noter que la fibre monomode est plus cher que la fibre multimode.
La technologie WDM est né au début des années 90 de l’idée d’injecter simultanément dans la même
fibre optique plusieurs trains de signaux numériques à la même vitesse de modulation, mais chacun a
une longueur d’onde distincte.
La norme IUT G692 a défini un peigne de longueurs d’onde autorisées dans la fenêtre de
transmission 1530-1565 nm. Elle normalise l’espacement en nanomètre ou en GigaHertz entre deux
longueurs d’onde permises de la fenêtre : 200 GHz ou 1,6 nm ou 100 GHz ou 0,8 nm.
La technologie WDM est dite dense (DWDM) lorsque l’espacement utilisé est égal ou inférieur à 100
GHz. Des systèmes à 50 GHz ou à 25 GHz ont déjà été testés.
La SDH est actuellement très utilisée, elle constitue même le standard d’ATM au niveau physique.
Pour comprendre les fondements de la hiérarchie synchrone (SDH, Synchronous Digital Hierarchy
pour l’Europe et SONET, Synchronous Optical Network pour les Etats-Unis), il est préférables de voir
ce qui se faisait dans les débuts du multiplexage temporel, c’est-à-dire, la hiérarchie plésiochrone.
Le Japon, l’Amérique du Nord et l’Europe ont défini des standards différents en terme de multiplexage
temporel. Les français multiplexent 30 lignes à 64 Kbps alors que les deux autres n’en multiplexent
que 24. Ces différences vont générer des standard différents dans chacun des trois pays à chaque
niveau de multiplexage.
En effet, les lignes déjà multiplexées sont à nouveau multiplexées. De l’information est rajoutée à
chaque niveau pour gérer ce multiplexage, c’est pour cela que le débit n’est pas exactement le
multiple de ce qui rentre mais légèrement plus. C’est cela qui l’a qualifié de plésiochrone (en grec,
plésio = presque, plésiochrone = presque synchrone).
5 x niveau 2 3 x niveau 3
Japon 32064 Kbps 97728 Kbps
Le principal défaut de cette technique de multiplexage est qu’elle ne permet pas d’avoir accès aux
informations d’une voix directement sans démultiplexer l’ensemble des voies. Ce défaut était
largement acceptable en téléphonie mais n’est pas admissible dans le cadre d’un réseau de services.
La SDH étant l’objet d’une autre présentation, seul le principe sera abordé.
Contrairement à la PDH, la SHD repose, elle, sur une trame numérique qui apporte, en plus d’un débit
plus important, une facilité de brassage et d’insertion ou d’extraction, d’où une plus grande souplesse
dans l’exploitation et la gestion des réseaux de transmission.
Ce concept est possible grâce à une structure en conteneur. En effet, chaque signal est encapsulé
dans un conteneur qui, avec son surdébit (POH, Path Overhead) permettant le repérage des
informations, forme un conteneur virtuel (VC). Ce sont ces conteneurs qui sont gérés dans le réseau
de transmission SDH, indépendamment des signaux qu’ils transportent.
Dans la hiérarchie synchrone, un ensemble de conteneurs est défini, chacun correspondant à un débit
PDH, sauf 8 Mbps. Ceci permet une migration de PDH vers SDH de façon très simple.
Le débit de base, compromis entre les intérêts américains, européens et japonais, est de 51.84 Mbps.
Ce débit forme le premier niveau : STS-1 (Synchronous Transport Signal, level 1). Les niveaux
supérieurs, STS-n, sont les multiples n-ièmes du niveau de base.
Une autre grandeur de débit, les niveaux STM-N, a été définie. Il s’agit de multiples du débit STM-1
(Synchronous Transfer Mode, level 1) de 155,520 Mbps, soit STS-3. Ainsi, les STM 1, 4, 16, 64, 128
et 256 ont été définis. Le STM-4 (622,080 Mbps) est le débit typique prévu pour ATM.
La trame de base (STM-1) d’un signal SDH est représenté sous la forme de 9 rangées de 270 octets
(dont 9 octets de supervision), soit 261 octets d’information utile par rangée. Ces trames seront
ensuite multiplexées en étant rangées dans des conteneurs plus grand, et ainsi de suite. En fonction
des débits PDH de base, on rangera un certain nombre de trames dans les conteneurs STM-N.
9 octets
P
O Conteneur
H
Conteneur virtuel
Framing
VC 1 VC 2 VC 3
P
Pointeurs
O Conteneur VC 4 1 2 3 4
H
1 2 3 4 1
Conteneur virtuel
2 3 4 1 2
3 4 1 2 3
Il existe donc différents types de conteneurs virtuels (qui peuvent eux-mêmes contenir d’autres
conteneurs virtuels, VC-3 et VC-4). Ces VC sont rangés dans des STM-N ayant également un
surdébit (SOH, Section Overhead) où l’on trouve notamment des pointeurs vers les différents VC.
De cette façon, chaque trame peut-être repérée et lu sans avoir besoin de démultiplexer l’ensemble
du STM.
SDH et SONET se correspondent puisqu’elles ont été basées sur le même débit de base, soit
51,84 Mbps. Le niveau 1 de SDH (STM-1) correspond au niveau 3 de SONET (OC-3, Optical
Carrier, level 3), la hiérarchie SDH étant la même norme que celle de SONET pour l’ATM.
90 octets
OC-1 51.84 Mbps
octet octet octet 87 octets OC-3 155.52 Mbps
OC-9 466.56 Mbps
OC-12 622.08 Mbps
9 rangées
La trame de base OC-1 est composée de 9 rangées de 90 octets avec 3 octets de contrôle. Ces
conteneurs virtuels seront à leur tour rangés dans des conteneurs de débit plus important, et ainsi de
suite.
Le déploiement massif de la fibre optique jusque chez l’abonné, envisagé au début des années 90
s’est révélé un investissement trop onéreux à la rentabilité hypothétique. Il s’agit de trouver une autre
solution à moindre coût.
Le but de la technologie DSL est de doper les paires téléphoniques de cuivre existantes en mixant le
trafic de données, de voix et de vidéo en point à point sur le réseau téléphonique traditionnel. La
barrière théorique des 300 – 3400 Hz de bande passante utilisée sur les lignes téléphoniques peut
être repousser sous certaines conditions.
Afin d’augmenter le débit sans que la dissipation d’énergie et la diaphonie ne posent problème, il faut
par exemple que la liaison entre l’abonné et la centrale la plus proche soit la plus courte possible, les
signaux hautes fréquences étant atténués plus rapidement que les signaux basses fréquences et
l’utilisation de répéteurs étant irréalisable. La clé se trouve dans la mise en œuvre de techniques de
traitement du signal et notamment dans la modulation d’amplitude et de phase ou de fréquence.
Chacune de ces techniques utilise des modes de séparation des canaux différents (AdE, Annulateur
d’écho et FDM, modulation de fréquence) et des codages différents (DMT, Discrete Multitone qui
divise le signal en 256 sous-canaux, CAP, Carrierless Amplitude Modulation qui module en phase et
en amplitude et le codage 2B1Q, 2 Binary 1 Quaternary qui est le codage à 4 états utilisé par RNIS).
Fréquences
20 kHz
Les caractéristiques des différentes techniques DSL sont décrites dans le tableau suivant :
Les réseaux sans-fil se développent très rapidement et devraient représenter un marché énorme au
début des années 2000. Il s’agit d’utiliser la voie hertzienne pour constituer ces réseaux sans-fil dans
les entreprises et de nombreuses institutions.
On distingue deux types de réseaux sans-fil, le premier étant les réseaux locaux sans-fil (WLAN,
Wireless LAN) et le deuxième étant les réseaux mobiles. Nous n’aborderons ici que le WLAN, qui ont
pour avantages de ne pas poser de problème de roaming (changement de zone par un utilisateur), la
taille limitée de l’entreprise permettant à une seule cellule d’être suffisante.
Plusieurs produits sont déjà commercialisés mais ils sont incompatibles entre eux par un manque de
normalisation finalisée. Plusieurs solutions sont envisagées, la première étant d’avoir une seule borne
qui effectue le relais entre les différentes stations par voie hertzienne, la deuxième étant d’avoir des
microcellules (typiquement, chaque pièce) qui utilisent l’infrarouge. Les bornes sont dans ce cas
interconnectés soit par voie hertzienne, soit par un réseau filaire classique. Deux grandes orientations
se détachent dans le domaine : HiperLAN et IEEE 802.11.
HiperLAN
Le nom est l’abréviation de High performance radio LAN. Les fréquences retenues se situent entre
5.15 et 5.30 GHz ainsi qu’une bande de 200 MHz autour de 17 GHz (HiperLAN 2). Les vitesses de
transfert devraient être de 10 à 20 Mbps et les communications se font directement de station à
station ou par l’intermédiaire d’un nœud central.
Les communications peuvent se faire sur 5 canaux distinctes de priorité différente. L’adaptation du
CSMA/CD appelée EY-NPMA (Elimination Yield None Preemptive Priority Multiple Access) consiste à
scruter les canaux par ordre de priorité jusqu’à trouver un canal libre pour émettre.
Le niveau 2 du modèle OSI est divisée en deux sous-couches, la sous-couche CAC (Channel Access
Control) qui correspond à la partie physique de la technique d’accès (gestion des problèmes liés au
canal hertzien ainsi que toute la transmission et réception) et la sous-couche MAC qui correspond à la
partie logique, soit la mise en forme de la trame, le routage interne, les algorithmes de confidentialité,
la gestion de priorité (QoS) et l’insertion et le retrait des stations.
Les communications peuvent se faire soit de station à station, soit par une borne de concentration.
Une station ne peut par contre pas relayer les paquets vers une autre station terminale. Les débits
sont de 1 ou 2 Mbps selon qu’on utilise le codage FHSS (Frequency Hopping Spread Spectrum) qui
utilise un saut de fréquence ou le codage DSSS (Direct Sequence Sequence Spread Spectrum) qui
code de façon continue. L’utilisation de l’infrarouge est également possible.
La technique d’accès est plus compliquée, il s’agit du CSMA/CA (Collision Avoidance). Pour éviter les
collisions, plusieurs temporisateurs propres à chaque station sont attribués se qui limite la probabilités
d’avoir deux stations émettant dans les mêmes microsecondes.