Chapitre 9 Ethernet
Chapitre 9 Ethernet
Chapitre 9 Ethernet
L’IETF gère les protocoles et services fonctionnels de la suite de protocoles TCP/IP dans les couches
supérieures. Toutefois, les protocoles et services fonctionnels de la couche liaison de données et de la
couche physique OSI sont décrits par d’autres organismes (IEEE, ANSI, ITU) ou par des sociétés privées
(protocoles propriétaires). Puisque Ethernet est constitué de normes au niveau de ces couches inférieures,
on y fait généralement référence dans le contexte du modèle OSI. Le modèle OSI sépare les
fonctionnalités d’adressage, de tramage et d’accès aux supports entre la couche liaison de données et les
normes de la couche physique des supports. Les normes Ethernet définissent à la fois les protocoles de la
couche 2 et les technologies de la couche 1. Bien que les spécifications Ethernet prennent en charge
différents supports, bandes passantes et autres variantes de la couche 1 et de la couche 2, le format de
trame et le schéma d’adressage de base sont les mêmes pour toutes les versions d’Ethernet.
Dans ce chapitre, nous nous intéresserons aux caractéristiques et au fonctionnement d’Ethernet en suivant
son évolution depuis la technologie de communication de données, basée sur des supports partagés et sur
la restriction de l’accès aux supports jusqu’à la technologie de large bande haut débit, bidirectionnelle
simultanée moderne.
Objectifs pédagogiques
Normes IEEE
Le premier réseau local au monde a été la version originale d’Ethernet. Robert Metcalfe et ses
collaborateurs de Xerox l’ont conçu il y a plus de trente ans. La première norme Ethernet a été publiée en
1980 par un consortium de Digital Equipment Corporation, Intel et Xerox (DIX). Metcalfe souhaitant
qu’Ethernet soit une norme standard dont tout le monde puisse bénéficier, elle a été publiée en tant que
norme ouverte. Les premiers produits développés respectant la norme Ethernet ont été commercialisés au
début des années 80.
En 1985, le comité de normes de l’IEEE (Institute of Electrical and Electronics Engineers) pour les
réseaux locaux et métropolitains a publié des normes pour les réseaux locaux. Ces normes commencent
par le numéro 802. La norme Ethernet porte le numéro 802.3. LIEEE a voulu faire en sorte que ses
normes soient compatibles avec lISO (International Standards Organization) et le modèle OSI. Pour
garantir cette comptabilité, la norme IEEE 802.3 devait répondre aux besoins de la couche 1 et de la
partie inférieure de la couche 2 du modèle OSI. En conséquence, certaines modifications mineures de la
norme Ethernet originale ont été apportées à la 802.3.
Ethernet fonctionne au niveau des deux couches inférieures du modèle OSI, à savoir la couche liaison de
données et la couche physique.
Au niveau de la couche 1, Ethernet est associé aux signaux, aux flux de bits qui traversent les supports,
aux composants physiques qui placent les signaux sur les supports et à diverses autres technologies. La
couche 1 Ethernet joue un rôle clé dans la mise en œuvre des communications entre les périphériques.
Toutefois, chacune des fonctions de cette couche présente des limitations.
Comme présenté dans la figure, au niveau de la couche 2, Ethernet permet de contourner ces limitations.
Les sous-couches liaison de données contribuent largement à la compatibilité technologique et à la
communication entre périphériques. La sous-couche MAC est associée aux composants physiques, qui
seront utilisés pour communiquer les informations et préparer les données pour qu’elles soient transmises
sur les supports.
La sous-couche LLC (Logical Link Control) reste relativement indépendante de l’équipement physique
qui sera utilisée pour communiquer.
Pour Ethernet, la norme IEEE 802.2 décrit les fonctions de la sous-couche LLC et la norme 802.3 celles
de la sous-couche MAC et de la couche physique. LLC gère la communication entre les couches
supérieures et les logiciels de mise en réseau et entre les couches inférieures et le matériel. La sous-
couche LLC extrait les données des protocoles réseau, en principe un paquet IPv4, et leur ajoute des
informations de contrôle pour faciliter la transmission du paquet jusqu’au nœud de destination. La
couche 2 communique avec les couches supérieures via LLC.
La mise en œuvre LLC se fait au niveau logiciel et est indépendante de l’équipement physique. Dans un
ordinateur, LLC est en quelque sorte le logiciel du pilote de la carte réseau. Le pilote de la carte réseau est
un programme qui interagit directement avec le matériel de la carte réseau pour transmettre les données
entre les supports et la sous-couche MAC.
http://standards.ieee.org/getieee802/download/802.2-1998.pdf
http://standards.ieee.org/regauth/llc/llctutorial.html
http://www.wildpackets.com/support/compendium/reference/sap_numbers
L’encapsulation des données consiste à assembler les trames avant de les transmettre et à les analyser
lorsqu’elles sont reçues. Lorsqu’elle assemble une trame, la couche MAC ajoute un en-tête et un code de
fin à l’unité de données de protocole de la couche 3. L’utilisation de trames facilite la transmission des
bits lors de leur placement sur le support et facilite le regroupement des bits sur le nœud récepteur.
Le processus de tramage fournit des délimiteurs importants utilisés pour identifier un groupe de bits qui
composent une trame. Ce processus permet la synchronisation entre les nœuds de transmission et ceux de
réception.
L’encapsulation fournit également un adressage pour la couche liaison de données. Chaque en-tête
Ethernet ajouté à la trame contient l’adresse physique (adresse MAC) qui permet à une trame d’être
remise au nœud de destination.
L’encapsulation de données permet également de détecter d’éventuelles erreurs. Chaque trame Ethernet
contient un code de fin avec un contrôle de redondance cyclique (CRC, Cyclic Redundancy Check) du
contenu des trames. Après réception d’une trame, le nœud récepteur crée un CRC pour le comparer à
celui de la trame. Si ces deux calculs de CRC correspondent, cela signifie probablement que la trame a été
reçue sans erreur.
Laboratoire CISCO - 55 - Alex Isis MANKAYA
Chapitre 9 : Ethernet
La sous-couche MAC contrôle le placement des trames sur les supports, ainsi que leur retrait. Elle gère le
contrôle de l’accès aux supports. En particulier, elle initialise la transmission des trames et permet leur
restauration après un échec de transmission dû à des collisions.
Topologie logique
La topologie logique sous-jacente d’Ethernet est un bus prenant en charge un accès multiple. Cela
implique que tous les nœuds (périphériques) de ce segment de réseau partagent le même support. De plus,
tous ces nœuds reçoivent l’ensemble des trames transmises par n’importe quel nœud appartenant à ce
segment.
Dans la mesure où les nœuds reçoivent toutes les trames, chaque nœud doit déterminer si une trame doit
être acceptée et traitée par ce nœud. Cela nécessite l’examen de l’adressage de la trame fourni par
l’adresse MAC.
Ethernet détermine comment les nœuds se partagent l’accès au support. La méthode de contrôle de
l’accès aux supports, pour Ethernet classique, est un accès avec détection des collisions appelé
CSMA/CD (Carrier Sense Multiple Access with Collision Detection, détection de porteuse avec accès
multiple). Cette méthode sera décrite plus loin dans ce chapitre.
http://standards.ieee.org/regauth/groupmac/tutorial.html
L’introduction de Gigabit Ethernet a amélioré la technologie LAN initiale pour atteindre des distances qui
font d’Ethernet une référence en matière de réseau métropolitain et de réseau étendu.
En tant que technologie associée à la couche physique, Ethernet définit et met en œuvre les schémas de
codage et de décodage qui permettent de transporter les bits de trame sous la forme de signaux, le long du
support. Les périphériques Ethernet utilisent différents types de câble et de connecteur.
Dans les réseaux modernes, Ethernet utilise les câbles de cuivre à paires torsadées non blindées et les
fibres optiques pour interconnecter les périphériques réseau via des périphériques intermédiaires tels que
les concentrateurs et les commutateurs. Avec tous les types de support qu’Ethernet prend en charge, la
structure de trame Ethernet reste la même, quelle que soit le type de mise en œuvre physique d’Ethernet.
C’est pour cette raison que cette technologie est très évolutive et permet de répondre aux besoins des
réseaux modernes.
Avec Alohanet, toutes les stations devaient suivre un protocole selon lequel une transmission sans reçu
devait être retransmise après un court délai. Des techniques similaires permettant d’utiliser un support
partagé ont été appliquées plus tard à la technologie filaire, sous la forme d’Ethernet.
Ethernet a été développé dans l’objectif d’accueillir plusieurs ordinateurs interconnectés sur une topologie
de bus partagée.
La première version d’Ethernet incorporait une méthode de contrôle de l’accès aux supports appelée
CSMA/CD (Carrier Sense Multiple Access with Collision Detection). Cette méthode d’accès a permis de
résoudre les problèmes liés à la communication de plusieurs périphériques sur un support physique
partagé.
Les premières versions d’Ethernet font appel aux câbles coaxiaux pour connecter les ordinateurs à une
topologie de bus. Chaque ordinateur est directement connecté au réseau fédérateur. Ces premières
versions d’Ethernet s’appelaient Thicknet, (10BASE5) et Thinnet (10BASE2).
10BASE5 ou Thicknet reposait sur un câble coaxial épais prenant en charge des distances de câblage de
500 mètres au maximum, avant que le signal ne nécessite un répéteur. 10BASE2 ou Thinnet utilise un
câble coaxial plus mince et plus souple que Thicknet et prend en charge des distances de câblage de
185 mètres.
La migration de la mise en œuvre initiale d’Ethernet vers des mises en œuvre actuelles et futures est
possible grâce à la structure quasiment inchangée du tramage de la couche 2. Les supports physiques,
l’accès aux supports et leur contrôle évoluent de façon permanente. En revanche, l’en-tête et le code de
fin Ethernet n’ont quasiment pas changé.
Les premières mises en œuvre d’Ethernet ont été déployées dans un environnement LAN à faible bande
passante, dans lequel l’accès aux supports partagés était géré par la méthode CSMA, et plus tard
CSMA/CD. Ethernet reposait non seulement sur une topologie de bus logique au niveau de la couche
liaison de données, mais aussi sur une topologie de bus physique. Cette dernière est devenue
problématique avec l’expansion des réseaux locaux et les demandes de services LAN, devenant de plus
en plus nombreuses sur l’infrastructure.
Les câbles coaxiaux épais et les supports coaxiaux fins ont été remplacés par les premières catégories
câbles à paires torsadées non blindées. Comparés aux câbles coaxiaux, les câbles à paires torsadées non
blindées sont plus maniables, plus légers et moins chers.
Une topologie en étoile avec des concentrateurs a supplanté la topologie initiale. Les concentrateurs
concentrent les connexions. En d’autres termes, ils rassemblent un groupe de nœuds et permettent au
réseau de les interpréter en tant qu’unité unique. Lorsqu’une trame parvient sur un port, elle est copiée sur
les autres ports pour que tous les segments du réseau LAN reçoivent cette trame. L’utilisation d’un
concentrateur dans cette topologie de bus a permis d’améliorer la fiabilité des réseaux car, même si l’un
des câbles est défectueux, le réseau continue à fonctionner. Toutefois, la répétition de la trame sur tous les
ports n’a pas résolu les problèmes de collisions. Plus loin dans ce chapitre, nous verrons comment les
problèmes de collisions dans les réseaux Ethernet sont gérés par l’introduction des commutateurs.
Ethernet hérité
En règle générale, dans les réseaux 10BASE-T, le point central du segment de réseau était le
concentrateur. Ce point servait donc de support partagé. Le support étant partagé, une seule station à la
fois pouvait effectuer une transmission. Cette transmission est dite bidirectionnelle non simultanée.
Au fur et à mesure que des périphériques étaient ajoutés à un réseau Ethernet, le nombre de collisions de
trame augmentait considérablement. Durant des périodes de faible activité de communication, les
quelques collisions qui surviennent sont gérées par CSMA/CD, sans conséquence majeure sur les
performances. En revanche, lorsque le nombre de périphériques et le trafic de données subséquent
augmentent, le nombre important de collisions peut avoir des effets négatifs pour les utilisateurs.
C’est un peu comme lorsque nous quittons la maison pour partir au travail tôt le matin, les routes sont
bien dégagées. Par contre, plus la circulation augmente sur les routes, plus il y a de risques d’accidents et
plus le trafic s’en trouve ralenti.
Ethernet moderne
L’introduction des commutateurs dans les réseaux Ethernet a supplanté l’utilisation des concentrateurs et
permis d’améliorer considérablement les performances LAN. Les commutateurs ont été introduits en
même temps qu’Ethernet 100BASE-TX. Ils permettent de contrôler le flux de données en isolant chaque
port et en envoyant une trame uniquement à sa destination (si elle est connue), plutôt qu’en envoyant
chaque trame à chaque périphérique.
Le commutateur réduit le nombre de périphériques recevant chaque trame, ce qui permet de minimiser les
risques de collisions. Par la suite, l’introduction des communications bidirectionnelles simultanées, dont
la connexion transporte à la fois des signaux transmis et reçus), a permis de développer Gigabit Ethernet
et de le dépasser.
Gigabit Ethernet est utilisé pour décrire les mises en œuvre Ethernet qui fournissent une bande passante
de 1 000 Mbits/s (1 Gbit/s) ou d’un débit supérieur. Cette avancée repose sur les technologies de
transmission bidirectionnelle simultanée, ainsi que sur les technologies de support UTP et à fibres
optiques de l’Ethernet hérité.
L’amélioration des performances réseau est considérable lorsque le débit potentiel passe de 100 Mbits/s à
1 Gbit/s et plus.
La mise à niveau vers Gigabit Ethernet n’implique pas toujours le remplacement complet de
l’infrastructure réseau existante, en termes de câbles et de commutateurs. Certains des équipements et des
câbles installés dans les réseaux bien conçus existants peuvent fonctionner normalement avec des débits
plus élevés, en subissant une mise à niveau minimale. Cela présente l’avantage de réduire le coût total de
possession du réseau.
Les distances de câblage plus grandes, rendues possibles grâce aux câbles à fibres optiques des réseaux
Ethernet, font qu’il est aujourd’hui difficile de distinguer un réseau local d’un réseau étendu. À l’origine,
la mise en œuvre d’Ethernet était limitée par les systèmes de câblage LAN à un bâtiment à la fois, puis
elle a été étendue entre plusieurs bâtiments. Aujourd’hui, cette mise en œuvre est possible pour toute une
ville, c’est ce que l’on appelle le réseau métropolitain ou MAN (Metropolitan Area Network).
L’en-tête et le code de fin Ethernet comportent plusieurs parties d’informations dont se sert le protocole
Ethernet. Chaque section de la trame est appelée un champ. On distingue deux types de tramage
Ethernet : la spécification IEEE 802.3 (d’origine) et IEEE 802.3 (Ethernet) révisée.
Les différences entre les deux types de tramage sont minimes. Il s’agit notamment de l’ajout d’un
délimiteur de début de trame (SFD) et d’une petite modification apportée au champ Type de manière à
inclure la longueur, comme l’indique la figure.
La norme Ethernet initiale prévoyait une taille de trame minimale de 64 octets et maximale de 1 518
octets. Cela comprenait tous les octets du champ Adresse MAC de destination jusqu’au champ Séquence
de contrôle de trame. Les champs Préambule et Délimiteur de début de trame n’étaient pas inclus dans la
description de la taille d’une trame. La norme IEEE 802.3ac, publiée en 1998, a fixé la taille de trame
maximale autorisée à 1 522 octets. La taille de trame a évolué de manière à prendre en charge une
technologie appelée VLAN (Virtual Local Area Network, réseau local virtuel). Ces réseaux virtuels
privés, créés dans un réseau commuté, font l’objet d’un autre chapitre du cours.
Si la taille d’une trame transmise est inférieure à la taille minimale ou supérieure à la taille maximale, le
périphérique récepteur abandonne la trame. Les trames abandonnées sont souvent le résultat de collisions
ou d’autres signaux rejetés et donc traités comme étant non valides.
Les champs Préambule, de 7 octets, et Délimiteur de début de trame, de 1 octet, permettent une
synchronisation entre les périphériques d’envoi et de réception. Les huit premiers octets de la trame
préparent les nœuds de réception à recevoir. Les quelques premiers octets indiquent essentiellement aux
récepteurs de se préparer à recevoir une nouvelle trame.
Ce champ de 6 octets identifie l’adresse de la destination. Comme nous l’avons vu précédemment, cette
adresse est utilisée par la couche 2 pour aider les périphériques à déterminer si une trame leur est
adressée. L’adresse de la trame est comparée à l’adresse MAC du périphérique. Si les deux
correspondent, le périphérique accepte la trame.
Ce champ de 6 octets permet d’identifier l’interface ou la carte réseau émettrice de la trame. Les
commutateurs utilisent également cette adresse pour les ajouter à leurs tables de recherche. Ce chapitre
décrit le rôle des commutateurs dans l’une des sections suivantes.
Champ Longueur/Type
Ce champ de 2 octets définit la longueur exacte du champ de données de la trame. Cette longueur est
ensuite utilisée dans la séquence de contrôle de trame, pour garantir la réception du message. Une
longueur ou un type peut être entré dans ce champ. Toutefois, seul l’un ou l’autre peut être utilisé dans
une mise en œuvre donnée. Si le champ a pour objectif de désigner un type, le champ Type décrit le
protocole mis en œuvre.
Le champ Longueur/Type comportait uniquement la longueur dans les premières versions d’IEEE et
uniquement le type dans la version DIX. Étant très courantes, ces deux utilisations du champ ont été
officiellement combinées dans l’une des dernières versions d’IEEE. Le champ Type d’Ethernet II est
incorporé dans la définition de trame 802.3 actuelle. Ethernet II est le format de trame Ethernet utilisé
dans les réseaux TCP/IP. Lorsqu’un nœud reçoit une trame, il doit examine le champ Longueur/Type
pour déterminer le protocole de couche supérieure présent. Si la valeur de deux octets est supérieure ou
égale à l’hexadécimal 0x600 ou au décimal 1 536, le contenu du champ de données est décodé selon le
protocole indiqué.
Ces deux champs de 46 - 1 500 octets contiennent les données encapsulées d’une couche supérieure qui
est une unité de données de protocole de couche 3 c’est-à-dire un paquet IPv4. La longueur minimale de
la trame est fixée à 64 octets. Si un petit paquet est encapsulé, le champ Pad est utilisé pour augmenter la
taille de la trame pour qu’elle atteigne la valeur minimale.
Ce champ de 4 octets permet de détecter les erreurs d’une trame. Il utilise le contrôle de redondance
cyclique (CRC, Cyclic Redundancy Check). Le périphérique d’envoi inclut les résultats d’un CRC dans le
champ FCS de la trame.
Le périphérique de réception reçoit la trame et génère un CRC pour détecter les erreurs. Si les calculs
correspondent, aucune erreur ne se produit. Les calculs non rapprochés indiquent que les données ont
changé et que la trame est abandonnée. Si les données sont modifiées, cela peut perturber les signaux
électriques qui représentent les bits.
Un identifiant unique appelé adresse MAC (Media Access Control) a été créé pour pouvoir déterminer les
adresses source et de destination sur un réseau Ethernet. Indépendamment de la variante Ethernet utilisée,
la convention d’appellation fournissait une méthode pour identifier les périphériques à un niveau inférieur
du modèle OSI.
Si vous vous en souvenez, l’adressage MAC est ajouté dans l’unité de données de protocole de la
couche 2. Une adresse MAC Ethernet est une valeur binaire de 48 bits exprimées sur 12 chiffres
hexadécimaux.
La valeur de l’adresse MAC est un résultat direct des règles mises en application par l’IEEE auprès des
revendeurs pour garantir l’attribution d’adresses uniques à chaque périphérique Ethernet, et ce, à l’échelle
mondiale. Les règles établies par l’IEEE exigent de chaque revendeur de périphérique Ethernet qu’il
s’enregistre auprès de l’IEEE. L’IEEE attribue au revendeur un code de 3 octets appelé OUI
(Organizationally Unique Identifier, Identifiant unique d’organisation).
L’adresse MAC est souvent dite rémanente car elle est stockée dans la mémoire morte de la carte réseau.
Cela signifie que l’adresse est codée dans la puce de mémoire morte (ROM) de façon définitive et qu’elle
ne peut pas être modifiée à l’aide d’un logiciel.
Toutefois, lorsque l’ordinateur démarre, la carte réseau copie l’adresse dans la mémoire vive (RAM). Si
l’on examine les trames, c’est l’adresse stockée dans la mémoire vive (RAM) qui est utilisée comme
adresse source à comparer à l’adresse de destination. L’adresse MAC est utilisée par la carte réseau pour
déterminer si un message doit être transmis aux couches supérieures en vue de son traitement.
Périphériques réseau
Lorsque le périphérique source transmet le message à un réseau Ethernet, les informations d’en-tête de
l’adresse MAC de destination y sont jointes. Le périphérique source envoie les données sur le réseau.
Chaque carte réseau du réseau accède aux informations pour déterminer si l’adresse MAC correspond à
son adresse physique. En l’absence de correspondance, la carte réseau ignore la trame. Lorsque la trame
atteint la destination dans laquelle l’adresse MAC de la carte réseau correspond à l’adresse MAC de
destination de la trame, la carte réseau transmet la trame jusqu’aux couches OSI, dans laquelle se produit
le décapsulage.
Tous les périphériques connectés à un réseau LAN Ethernet ont des interfaces comportant une adresse
MAC. Les fabricants de matériel et de logiciels peuvent représenter l’adresse MAC dans des formats
hexadécimaux différents. Les formats d’adresse peuvent être similaires à 00-05-9A-3C-78-00,
00:05:9A:3C:78:00 ou à 0005.9A3C.7800. Les adresses MAC sont attribuées à des postes de travail, des
serveurs, des imprimantes, des commutateurs et des routeurs. Tous ces périphériques doivent envoyer
et/ou recevoir des données sur le réseau.
Ce type de numérotation est un moyen pratique de représenter des valeurs binaires. Le système de
numérotation décimale est en base dix, le système binaire en base deux et le système hexadécimal est en
base seize.
Ce dernier utilise les chiffres compris entre 0 et 9 et les lettres de A à F. La figure présente les valeurs
hexadécimales, décimales et binaires équivalentes pour les nombres binaires de 0000 à 1111. Pour
l’utilisateur, il est plus facile d’exprimer une valeur sous la forme d’un seul chiffre hexadécimal plutôt
qu’avec quatre octets.
Sachant que 8 bits (un octet) est un regroupement binaire courant, la plage binaire de 00000000 à
11111111 correspond, dans le format hexadécimal, à la plage 00 FF. Les zéros de gauche sont toujours
affichés pour compléter la représentation de 8 bits. Par exemple, la valeur binaire 0000 1010 correspond à
0A au format hexadécimal.
Remarque : il est important de distinguer les valeurs hexadécimales des valeurs décimales en ce qui
concerne les caractères 0 à 9, comme l’indique la figure.
Le format hexadécimal est habituellement représenté avec du texte par la valeur précédée de 0x (par
exemple 0x73) ou un exposant 16. Moins souvent, il peut être suivi de la lettre H, par exemple 73H.
Toutefois, dans la mesure où le texte sous forme d’exposant n’est pas reconnu dans les environnements de
ligne de commande ou de programmation, la représentation technique hexadécimale est précédée d’un 0x.
Par conséquent, les exemples ci-dessus doivent correspondre respectivement à 0x0A et 0x73.
Le format hexadécimal permet de représenter les adresses MAC Ethernet et les adresses IPv6. Vous avez
déjà rencontré le format hexadécimal dans le volet Packets Byte de Wireshark où il est utilisé pour
représenter les valeurs binaires des trames et des paquets.
Conversions hexadécimales
Les conversions numériques entre des valeurs décimales et hexadécimales sont très simples, bien que la
division ou la multiplication par 16 ne soit pas toujours très commode. Lorsque de telles conversions sont
nécessaires, il est habituellement plus simple de convertir la valeur décimale ou hexadécimale en valeur
binaire, puis de convertir cette dernière en valeur décimale ou hexadécimale, selon le cas.
Avec un peu de pratique, il est possible de reconnaître les configurations binaires qui correspondent aux
valeurs décimales et hexadécimales. La figure représente ces configurations pour des valeurs de 8 bits
données.
Pour visualiser l’adresse MAC de votre ordinateur, utilisez la commande ipconfig /all ou ifconfig. Dans le
schéma, vous pouvez voir l’adresse MAC de cet ordinateur. Si vous avez accès à la ligne de commande,
vous pouvez déterminer celle de votre propre ordinateur.
Vous pouvez également rechercher l’identifiant OUI de l’adresse MAC pour déterminer le fabricant de
votre carte réseau.
L’adressage physique de la couche liaison de données OSI (couche 2), mis en œuvre sous la forme d’une
adresse MAC Ethernet, permet de transporter la trame sur les supports locaux. Bien que les adresses
d’hôte soient uniques, les adresses physiques ne sont pas organisées au sein d’une hiérarchie. Elles sont
associées à un périphérique particulier, quel que soit son emplacement ou le réseau auquel il est connecté.
Les adresses de la couche 2 n’ont pas de signification en dehors des supports réseau locaux. Avant
d’atteindre sa destination, il arrive qu’un paquet doive traverser plusieurs technologies de liaison de
données dans les réseaux locaux et étendus. De ce fait, un périphérique source ne connaît pas la
technologie utilisée dans les réseaux intermédiaires et de destination ni dans les structures d’adressage et
de tramage de la couche 2.
Couche réseau
Les adresses de la couche réseau (couche 3), telles que les adresses IPv4, fournissent un adressage
logique omniprésent, compris à la fois par la source et la destination. Pour atteindre sa destination finale,
un paquet transporte l’adresse de la couche 3 de destination depuis sa source. Toutefois, lorsqu’elle est
mise en trame par les différents protocoles de couche liaison de données rencontrés, l’adresse de la
couche 2 qu’il reçoit chaque fois s’applique uniquement à la partie locale du trajet et à ses supports.
En d’autres termes :
L’adresse de la couche réseau permet l’acheminement du paquet jusqu’à sa destination.
L’adresse de la couche liaison de données permet l’acheminement du paquet par les supports locaux sur
chaque segment du réseau.
Comme le montre la figure, l’adresse IP de diffusion d’un réseau requiert une adresse MAC de diffusion
correspondante dans la trame Ethernet. Sur les réseaux Ethernet, l’adresse MAC de diffusion comporte 48
uns (1), affichés au format hexadécimal FF-FF-FF-FF-FF-FF.
Multidiffusion
Rappelez-vous que les adresses multidiffusion permettent à un périphérique source d’envoyer un paquet à
un groupe de périphériques. Les périphériques qui font partie d’un groupe multidiffusion se voient
affecter une adresse IP de groupe multidiffusion. La plage d’adresses multidiffusion s’étend de 224.0.0.0
à 239.255.255.255. Dans la mesure où les adresses multidiffusion représentent un groupe d’adresses
(parfois appelé groupe d’hôtes), elles ne peuvent s’utiliser que dans la destination d’un paquet. La source
doit toujours avoir une adresse monodiffusion.
Les adresses multidiffusion conviennent, par exemple, dans des situations de jeu à distance où plusieurs
joueurs sont connectés à distance mais jouent au même jeu, et d’apprentissage à distance via des
conférences vidéo, où plusieurs participants sont connectés au même cours.
Comme avec les adresses monodiffusion et de diffusion, l’adresse IP multidiffusion nécessite une adresse
MAC multidiffusion correspondante pour remettre les trames sur un réseau local. L’adresse MAC
multidiffusion est une valeur spécifique, qui commence par 01-00-5E au format hexadécimal. La valeur
se termine en convertissant les 23 bits de droite de l’adresse du groupe multidiffusion IP en 6 caractères
hexadécimaux de l’adresse Ethernet. Le bit restant de l’adresse MAC est toujours un 0.
http://www.iana.org/assignments/ethernet-numbers
http://www.cisco.com/en/US/docs/app_ntwk_services/waas/acns/v51/configuration/central/guide/51ipmu
l.html
http://www.cisco.com/en/US/docs/internetworking/technology/handbook/IP-Multi.html
Les collisions sont le prix que doit payer Ethernet pour la simplicité de chaque transmission.
Ethernet utilise la méthode d’accès CSMA/CD pour détecter et traiter les collisions, puis gérer la reprise
de la communication.
Puisque tous les ordinateurs prenant en charge Ethernet envoient leurs messages via les mêmes supports,
un schéma de coordination distribuée est utilisé pour détecter l’activité électrique des câbles. Un
périphérique peut ensuite déterminer le moment auquel il peut transmettre les données. Lorsqu’un
périphérique ne détecte qu’aucun autre ordinateur n’envoie de trame ou de signal porteur, le périphérique
transmet les éventuelles données à envoyer.
Avec la méthode d’accès CSMA/CD, tous les périphériques réseau qui ont des messages à envoyer
doivent les écouter avant de les transmettre.
Si un périphérique détecte un signal provenant d’un autre périphérique, il attend un certain temps avant
d’essayer de transmettre un message.
Si aucun trafic n’est détecté, le périphérique transmet son message. Lorsque la transmission a lieu, le
périphérique continue à écouter le trafic ou les collisions survenant sur le réseau local. Une fois le
message envoyé, le périphérique se remet en mode d’écoute par défaut.
Accès multiple
Si la distance entre les périphériques est telle que la latence des signaux de l’un des périphériques
implique que les signaux ne seront pas détectés par un deuxième périphérique, ce dernier peut, lui aussi,
commencer à transmettre son message. Le support a maintenant deux périphériques qui transmettent
simultanément leurs signaux. Leurs messages seront propagés via les supports, jusqu’à ce qu’ils se
rencontrent. À ce stade, les signaux se mélangent, et les messages sont détruits. Bien que les messages
soient endommagés, les signaux restants désordonnés continuent à se propager sur les supports.
Lorsqu’un périphérique est en mode d’écoute, il peut détecter la survenance d’une collision sur les
supports partagés. La détection d’une collision est rendue possible car tous les périphériques peuvent
déterminer si l’amplitude des signaux dépasse le niveau normal.
Une fois qu’une collision survient, les autres périphériques en mode d’écoute (ainsi que les périphériques
transmetteurs) détectent ce dépassement d’amplitude. Par la suite, tous les périphériques qui transmettent
Laboratoire CISCO - 70 - Alex Isis MANKAYA
Chapitre 9 : Ethernet
un message continuent à le transmettre pour s’assurer que tous les périphériques du réseau détectent la
collision.
Dès qu’une collision est détectée par les périphériques transmetteurs, ils envoient un signal de congestion.
Ce signal permet de notifier les autres périphériques de la collision pour qu’ils invoquent un algorithme
d’interruption. Cet algorithme demande à tous les périphériques de cesser leur transmission pendant un
temps qui est aléatoire, ce qui permet aux signaux de collision de diminuer.
Une fois le délai expiré sur un périphérique, ce dernier se remet en mode d’écoute avant transmission.
Une période de réémission aléatoire garantit que les périphériques impliqués dans la collision ne tentent
pas d’envoyer leur trafic en même temps, ce qui engendrerait une reproduction de l’ensemble du
processus. Toutefois, cela signifie également qu’un troisième périphérique puisse transmettre ses
messages avant que les deux impliqués dans la collision n’ait une chance de retransmettre leur trafic.
En supposant que des collisions se produiront occasionnellement dans une topologie de supports partagés,
même en appliquant la méthode CSMA/CD, nous devons examiner les circonstances susceptibles
d’accroître le nombre de collisions. Suite à la croissance rapide d’Internet :
Davantage de périphériques sont connectés au réseau.
Les périphériques accèdent aux supports réseau plus souvent.
Les distances entre les périphériques augmentent.
Souvenez-vous que les concentrateurs ont été créés pour servir de périphériques réseau intermédiaires,
qui permettent à un nombre plus important de nœuds de se connecter aux supports partagés. Également
appelés « répéteurs multiport », les concentrateurs retransmettent les signaux de données reçus à tous les
périphériques connectés, sauf à celui qui a émis les signaux. Les concentrateurs n’exécutent pas de
fonctions réseau, telles que la direction des données en fonction d’adresses.
Les concentrateurs et les répéteurs sont des périphériques intermédiaires qui permettent d’augmenter la
distance que les câbles Ethernet peuvent atteindre. Dans la mesure où les concentrateurs fonctionnent sur
la couche physique pour s’occuper des signaux traversant les supports, des collisions peuvent survenir
entre les périphériques qu’ils connectent et à l’intérieur des concentrateurs eux-mêmes.
De plus, l’utilisation de concentrateurs pour fournir un accès réseau à un plus grand nombre d’utilisateurs
réduit les performances pour chaque utilisateur, car la capacité fixe des supports doit être partagée entre
un nombre grandissant de périphériques.
Les périphériques connectés qui accèdent à un support partagé via un concentrateur ou une série de
concentrateurs directement connectés forment ce que l’on appelle un domaine de collision. Ce dernier est
Laboratoire CISCO - 71 - Alex Isis MANKAYA
Chapitre 9 : Ethernet
également désigné sous le nom de segment de réseau. Les concentrateurs et les répéteurs ont donc pour
effet d’augmenter la taille du domaine de collision.
Comme l’indique la figure, l’interconnexion de concentrateurs forment une topologie physique en forme
d'« étoile étendue ». L’étoile étendue peut créer un domaine de collision considérablement étendu.
Un nombre accru de collisions réduit l’efficacité et l’efficience d’un réseau, jusqu’à ce que les collisions
deviennent une nuisance pour l’utilisateur.
Bien que la méthode d’accès CSMA/CD soit un système de gestion des collisions de trames, il s’applique
à un nombre limité de périphériques et sur des réseaux dont le trafic est peu important. Ainsi, d’autres
mécanismes doivent être mis en œuvre lorsqu’un très grand nombre d’utilisateurs nécessitent un accès et
si les besoins en accès réseau actif sont plus importants.
Nous verrons que l’utilisation de commutateurs à la place de concentrateurs peut permettre de résoudre le
problème, du moins en partie.
http://standards.ieee.org/getieee802/802.3.html
Latence
Comme nous l’avons précisé, chaque périphérique qui doit transmettre du trafic doit d’abord « écouter »
pour vérifier la présence de transmissions. En l’absence de trafic, il entame immédiatement la
transmission. Le signal électrique qui est transmis met un certain temps (latence) pour se propager
(traverser) le long du câble. Chaque concentrateur, ou « répéteur », qui se trouve sur le trajet du signal
ajoute de la latence pour acheminer les bits d’un port à l’autre.
Ce délai cumulé augmente la probabilité de survenance de collisions, dans la mesure où un nœud écouteur
peut se mettre à transmettre des signaux alors que le concentrateur ou le répéteur est déjà en train de
traiter le message. Puisque le signal n’avait pas encore atteint ce nœud alors qu’il était en phase d’écoute,
il en a conclu que le support était disponible. C’est dans ce type de circonstance que des collisions
surviennent.
Laboratoire CISCO - 72 - Alex Isis MANKAYA
Chapitre 9 : Ethernet
Synchronisation
Les mises en œuvre Ethernet à des débits de 10 Mbits/s et inférieurs, sont dites asynchrones. Dans ce
contexte, la communication asynchrone implique que chaque périphérique récepteur utilise les 8 octets
d’informations de synchronisation pour synchroniser le circuit de réception sur les données entrantes, puis
abandonne les 8 octets.
Les mises en œuvre Ethernet à des débits de 100 Mbits/s et supérieurs, sont dites synchrones. Dans ce
contexte, la communication synchrone implique qu’aucune information de synchronisation n’est
nécessaire. Toutefois, pour des raisons de compatibilité, les champs Preamble (Préambule) et SFD (Start
Frame Delimiter, Délimiteur de début de trame), sont tout de même présents.
Durée de bit
Pour chaque vitesse de support, le placement et la détection d’un bit sur le support peut prendre un certain
temps. Ce temps s’appelle la durée de bit. Sur Ethernet 10 Mbits/s, il faut 100 nanosecondes (ns) pour
transmettre un bit au niveau de la couche MAC. À 100 Mbits/s, il lui faut 10 ns pour procéder à la
transmission. À 1 000 Mbits/s, il lui faut seulement 1 ns pour procéder à la transmission. Selon une
estimation approximative, la valeur de 20,32 cm par nanoseconde est souvent utilisée pour calculer le
délai de propagation le long d’un câble UTP. Ainsi, pour cent mètres de câble à paires torsadées non
blindées, il faut 5 durées de bit à peine à un signal 10BASE-T pour parcourir la longueur du câble.
Pour que la méthode d’accès Ethernet CSMA/CD puisse fonctionner, le périphérique émetteur doit avoir
connaissance d’une collision avant d’avoir terminé la transmission d’une trame de taille minimum. À
100 Mbits/s, l’émission des données de synchronisation des périphériques s’étale sur 100 mètres de câble.
À 1000 Mbits/s, des ajustements spéciaux sont nécessaires, du fait qu’environ une trame de taille
minimum serait transmise avant que le premier bit n’atteigne la fin des premiers 100 mètres de câble
UTP. C’est pour cette raison que la transmission bidirectionnelle non simultanée n’est pas autorisée dans
le 10-Gigabit Ethernet.
Ces paramètres de synchronisation doivent être appliqués à l’espacement intertrame et aux durées de
réémission (éléments présentés en détail dans la section suivante) pour s’assurer que lorsqu’un
périphérique transmet sa trame suivante, le risque de collision est réduit.
Fenêtre de collision
Dans la transmission Ethernet bidirectionnelle non simultanée, où les données ne voyagent que dans un
seul sens à la fois, la fenêtre de collision devient un facteur déterminant dans l’évaluation du nombre de
périphériques qui partagent un réseau. Pour toutes les vitesses de transmission Ethernet égales ou
inférieures à 1 000 Mbits/s, la norme détermine comment une transmission unique ne peut pas être
inférieure à la fenêtre de collision.
La définition de la fenêtre de collision est un compromis entre la nécessité d’alléger les conséquences
d’une reprise sur collision (durée de réémission et de retransmission) et la nécessité d’augmenter
suffisamment les distances réseau pour prendre en charge des tailles de réseau adéquates. Dans ce
compromis, il a fallu choisir un diamètre de réseau maximal (environ 2 500 mètres), puis fixer la longueur
maximale de trame de manière à pouvoir détecter les collisions les plus dangereuses.
La fenêtre de collision pour Ethernet 10 et 100 Mbits/s est de 512 durées de bit, soit 64 octets. La fenêtre
de collision pour Ethernet 1 000 Mbits/s est 4 096 durées de bit, soit 512 octets.
La fenêtre de collision permet de garantir que si une collision est sur le point de se produire, elle sera
détectée dans les 512 premiers bits (4 096 pour Gigabit Ethernet) de la transmission de la trame. Cela
simplifie la gestion des retransmissions de trame suite à une collision.
La fenêtre de collision est un paramètre important pour diverses raisons, qui sont les suivantes :
La fenêtre de collision de 512 bits fixe la taille minimale d’une trame Ethernet à 64 octets. Toute trame
inférieure à cette valeur est interprétée comme un fragment de collision ou une trame incomplète et est
automatiquement rejetée par les périphériques récepteurs.
La fenêtre de collision établit une limite pour la taille maximale des segments d’un réseau. Si le réseau
devient trop important, des collisions tardives peuvent s’ensuivre. Ces dernières sont considérées comme
une panne du réseau car elles sont détectées trop tard par les périphériques durant la transmission de la
trame qui doit être automatiquement gérée par CSMA/CD.
La fenêtre de collision est calculée en partant du principe que des longueurs de câble maximales sont
utilisées sur la plus grande architecture légale de réseau. Tous les délais de propagation sont fixés au
niveau maximum légal, et le signal de congestion 32 bits est utilisé lorsque des collisions sont détectées.
La fenêtre de collision réelle est à peine supérieure à la durée théorique requise pour qu’une trame
parcourt le chemin entre les points les plus éloignés du domaine de collision, puis entre en collision au
dernier moment avec une autre transmission, et que les fragments de collision retournent au périphérique
émetteur et soient détectés. Reportez-vous à la figure.
Pour que le système fonctionne, le premier périphérique doit détecter la collision avant d’avoir terminé
d’envoyer la plus petite taille de trame légale.
Pour permettre à Ethernet 1 000 Mbits/s de fonctionner en mode bidirectionnel non simultané, le champ
d’extension a été ajouté aux seules fins d’occuper l’émetteur suffisamment longtemps pour le retour d’un
fragment de collision lors de l’envoi de petites trames. Ce champ n’est présent que sur les liaisons
1 000 Mbits/s en mode bidirectionnel non simultané et permet aux trames de taille minimale d’être assez
longues pour satisfaire les exigences des fenêtres de collision. Les bits d’extension sont abandonnés par le
périphérique récepteur.
Les normes Ethernet prévoient un espacement minimum entre deux trames n’entrant pas en collision.
Cela donne aux supports le temps de se stabiliser après la transmission de la trame précédente et aux
périphériques le temps de traiter la trame. Désigné sous le nom d’espacement intertrame, cet intervalle est
mesuré entre le dernier bit du champ FCS de la première trame et le premier bit du champ Preamble
(Préambule) de la deuxième trame.
Lorsqu’une trame est envoyée, tous les périphériques d’un réseau Ethernet 10 Mbits/s doivent attendre au
minimum une durée de 96 bits, soit 9,6 microsecondes, avant qu’un autre périphérique ait le droit de
transmettre la trame suivante. Sur les versions plus rapides d’Ethernet, l’espacement reste le même, c’est-
à-dire 96 durées de bit, mais le temps nécessaire pour cet intervalle se réduit de façon proportionnelle.
Les délais de synchronisation entre les périphériques peuvent entraîner la perte de quelques bits de
préambule de trame. Cela peut réduire sensiblement l’espacement intertrame lorsque les concentrateurs et
les répéteurs réémettent les 64 bits d’informations (champs Preamble et SFD) au début de chaque trame
transmise. À des débits Ethernet plus importants, certains périphériques sensibles aux délais risquent de
ne pas pouvoir reconnaître les trames individuelles et de devenir des points d’échec de communication.
Signal de brouillage
Dès qu’une collision est détectée, les périphériques émetteurs transmettent un signal de brouillage sur
32 bits qui déclenchera la collision. Cela permet à tous les périphériques du réseau LAN de détecter la
collision.
Il est important que le signal de brouillage ne soit pas interprété comme une trame valide, sinon les
périphériques ne pourront pas identifier la collision. La configuration de données la plus courante pour un
signal de brouillage est simplement une configuration répétitive de 1, 0, 1, 0, comme dans le champ
Preamble (Préambule).
Les messages endommagés et partiellement transmis sont souvent appelés « fragments de collision » ou
« trames incomplètes ». Les collisions normales, dont la longueur est inférieure à 64 octets, et n’est donc
pas conforme à la longueur minimale et aux tests FCS, sont faciles à identifier.
Durée de réémission
Lorsqu’une collision se produit et que tous les périphériques rendent le câble inactif (en attente de
l’espacement intertrame complet), les périphériques à l’origine de la collision doivent observer un délai
supplémentaire qui peut s’allonger progressivement, avant de tenter de retransmettre la trame entrée en
collision. Le délai d’attente est intentionnellement aléatoire afin que les deux périphériques n’observent
pas le même délai avant de procéder à la retransmission, ce qui entraînerait davantage de collisions. Pour
cela, on étend l’intervalle de base à la sélection de la durée de retransmission lors de chaque tentative de
retransmission. La période d’attente est mesurée par incréments de la fenêtre de collision.
Si la congestion des supports rend l’envoi de la trame impossible après seize tentatives par la couche
MAC, elle abandonne et génère une erreur sur la couche réseau. Une telle situation est assez rare et ne
peut se produire qu’en cas de surcharge extrême du réseau, ou lorsqu’il existe un problème physique.
Les méthodes décrites dans cette section permettent à Ethernet de fournir un service plus fiable dans une
topologie de supports partagés, basée sur l’utilisation de concentrateurs. Dans la section suivante,
consacrée aux commutateurs, nous verrons comment ils réduisent ou éliminent le besoin d’utiliser la
fonction CSMA/CD.
Ethernet est régi par les normes IEEE 802.3. Quatre débits de données sont actuellement définis pour
fonctionner dans les câbles à fibres optiques et à paires torsadées, à savoir :
10 Mbits/s : 10Base-T Ethernet
100 Mbits/s : Fast Ethernet
1000 Mbits/s : Gigabit Ethernet
10 Gbits/s : 10 Gigabit Ethernet
Bien qu’il existe de nombreuses mises en œuvre d’Ethernet avec ces débits de données, nous ne
présenterons que la plus courante. La figure illustre certaines de caractéristiques de PHY Ethernet.
La partie d’Ethernet qui fonctionne sur la couche physique est décrite dans cette section, en commençant
par la variante 10Base-T jusqu’à 10 Gbits/s.
Les premières mises en œuvres d’Ethernet, 10BASE5 et 10BASE2, faisaient appel à un câble coaxial
dans un bus physique. Elles ne sont plus appliquées et ne sont, par ailleurs, pas prises en charge par les
normes 802.3.
10BASE-T utilise un codage Manchester sur deux câbles à paires torsadées non blindées. Les premières
mises en œuvres d’Ethernet, 10BASE-T faisaient appel à un câblage de catégorie 3. Toutefois, la
catégorie 5 ou supérieure est beaucoup plus répandue aujourd’hui.
Ethernet 10 Mbits/s correspond à Ethernet classique et repose sur une topologie physique en étoile. Les
liaisons Ethernet 10BASE-T peuvent atteindre jusqu’à 100 mètres avant de nécessiter un concentrateur ou
un répéteur.
10BASE-T utilise deux paires de câble à 4 paires et des connecteurs RJ-45 à 8 broches, sertis à chaque
extrémité. La paire connectée aux broches 1 et 2 est destinée à la transmission et celle connectée aux
broches 3 et 6 à la réception. La figure illustre la brochage RJ45 utilisé dans Ethernet 10BASE-T.
Au milieu des années 90, plusieurs nouvelles normes 802.3 ont été établies pour décrire des méthodes de
transmission des données sur des supports Ethernet à 100 Mbits/s. Ces normes utilisaient différentes
configurations de codage pour pouvoir atteindre ces débits de données plus importants.
Ethernet 100 Mbits/s, également désigné sous le nom de Fast Ethernet, peut être mis en œuvre à l’aide de
câble en cuivre à paires torsadées ou de supports à fibres optiques. Les mises en œuvre de Fast Ethernet
les plus répandues sont les suivantes :
100BASE-TX avec câble UTP de catégorie 5 ou supérieure
100BASE-FX avec un câble à fibres optiques
Dans la mesure où les signaux de plus haute fréquence utilisés dans Fast Ethernet sont plus sensibles aux
interférences, deux étapes de codage distinctes sont appliquées par Fast Ethernet pour améliorer
l’intégrité des signaux.
100BASE-TX
100BASE-TX a été conçu pour prendre en charge les transmissions sur deux paires de câble UTP de
catégorie 5 ou deux brins de fibres optiques. La mise en œuvre 100BASE-TX utilise les deux mêmes
paires et brochages UTP que 10BASE-T. Toutefois, 100BASE-TX nécessite des câbles UTP de
catégorie 5 ou supérieure. Le codage 4B/5B est utilisé pour 100BASE-T Ethernet.
Comme avec 10BASE-TX, 100Base-TX est connecté selon une topologie physique en étoile. La figure
illustre un exemple de topologie en étoile. En revanche, contrairement aux réseaux 10BASE-T, les
réseaux 100BASE-TX utilisent généralement un commutateur au lieu d’un concentrateur au centre de
l’étoile. Quasiment au même moment, les technologies 100BASE-TX se sont répandues, les
commutateurs LAN étant également très largement déployés. Ces développements concourants ont
conduit à leur combinaison naturelle dans la conception des réseaux 100BASE-TX.
100BASE-FX
La norme 100BASE-FX utilise la même procédure de signalement que 100BASE-TX, mais via un
support à fibres optiques plutôt que via des câbles en cuivre UTP. Bien que le codage, le décodage et les
procédures de récupération d’horloge soient les mêmes pour les deux supports, la transmission des
signaux est différentes (impulsions électriques dans le cuivre et impulsion lumineuses dans les fibres
optiques). 100BASE-FX utilise des connecteurs d’interface à fibres bon marché (appelés connecteurs SC
duplex).
Les mises en œuvre d’Ethernet à fibres optiques sont des connexions de point à point, c’est-à-dire qu’elles
permettent la connexion de deux périphériques. Ces connexions peuvent être établies entre deux
ordinateurs, un ordinateur et un commutateur ou entre deux commutateurs.
L’établissement des normes Gigabit Ethernet a permis de créer des spécifications pour les supports cuivre
UTP, fibres multimodes et fibres monomodes. Sur des réseaux Gigabit Ethernet, les bits se déplacent en
une fraction de la durée qu’ils utiliseraient sur des réseaux 100 Mbits/s et 10 Mbits/s. La fréquence des
signaux étant plus élevée, les bits deviennent plus sensibles aux interférences. La synchronisation est
donc un facteur déterminant. Les performances dépendent de la rapidité avec laquelle la carte ou
l’interface réseau change de niveau de tension et du degré de fiabilité de la détection de ces changements,
dans un périmètre de 100 mètres, par la carte ou l’interface réseau réceptrice.
Avec des vitesses plus élevées, le codage et le décodage des données sont des processus plus complexes.
Gigabit Ethernet fait appel à deux étapes de codage distinctes. La transmission des données est plus
efficace lorsque les codes sont utilisés pour représenter le flux binaire. Le codage des données permet la
synchronisation, l’optimisation de l’utilisation de la bande passante et améliore également le rapport
signal/bruit.
1000BASE-T Ethernet
Ethernet 1000BASE-T fournit une transmission bidirectionnelle simultanée à l’aide de quatre paires de
câble à paires torsadées non blindées de catégorie 5 ou supérieure. Une connexion Gigabit Ethernet via un
câblage de cuivre permet de faire passer le débit de 100 Mbits/s par paire à 125 Mbits/s soit 500 Mbits/s
pour les quatre paires. Chaque paire de câbles transporte les signaux en mode bidirectionnel simultané, ce
qui permet de doubler le débit (de 500 Mbits à 1 000 Mbits/s).
1000BASE-T utilise un codage de lignes 4D-PAM5 pour obtenir un débit de données de 1 Gbits/s. Le
schéma de codage permet de transmettre simultanément des signaux sur quatre paires de câbles. Il
convertit un octet de données de 8 bits en une transmission simultanée de quatre symboles de code (4D)
Laboratoire CISCO - 80 - Alex Isis MANKAYA
Chapitre 9 : Ethernet
qui sont envoyés via les supports, un sur chaque paire, sous forme de signaux d’amplitude de niveau 5
appelés PAM5 (5-level Pulse Amplitude Modulated). Cela implique que chaque symbole correspond à
deux bits de données. Les informations étant transmises simultanément sur les quatre chemins, le circuit
doit diviser les trames au niveau de l’émetteur et les réunir au niveau du récepteur. La figure représente
l’ensemble des circuits utilisés par Ethernet 1000BASE-T.
1000BASE-T permet la transmission et la réception des données dans les deux sens, sur le même câblage
et en même temps. Ce flux de trafic crée des collisions permanentes sur les paires de câbles. Ces
collisions sont à l’origine de profils électriques complexes. Les circuits hybrides qui détectent les signaux
mettent en œuvre des techniques sophistiquées telles que l’annulation de l’écho, la correction des erreurs
de transmission sur la couche 1 ou encore la sélection prudente des niveaux de tension. Grâce à ces
techniques, le système peut atteindre un débit de 1 Gigabit.
Pour participer à la synchronisation, la couche physique encapsule chaque trame avec des délimiteurs de
début et de fin de flux. La synchronisation des boucles est gérée par des flux continus de symboles IDLE,
envoyés sur chaque paire de câbles, dans l’espacement intertrame.
Contrairement à la plupart des signaux numériques où l’on trouve en principe deux niveaux de tension
discrète, 1000BASE-T utilise plusieurs niveaux. Durant les périodes d’inactivité, neuf niveaux de voltage
sont utilisés dans le câblage. Durant les périodes de transmission de données, un maximum de 17 niveaux
de voltage est utilisé dans le câblage. Avec ce nombre important d’états et les effets de bruit, les signaux
semblent plus analogiques que numériques. À l’instar des signaux analogiques, le système risque de
générer davantage de bruit, en raison du câblage et des problèmes de raccordement.
Les versions à fibres optiques de Gigabit Ethernet - 1000BASE-SX et 1000BASE-LX - offrent les
avantages suivants sur les connexions UTP : elles sont insensibles aux bruits électromagnétiques, leur
taille est réduite, elles permettent de disposer de bandes passantes plus larges et elles autorisent des
distances plus grandes sans répéteur.
Toutes les versions 1000BASE-SX et 1000BASE-LX prennent en charge une transmission binaire
bidirectionnelle simultanée à 1 250 Mbits/s, sur deux brins de fibre optique. Le codage de transmission
est basé sur le schéma de codage 8B/10B. En raison de l’importante logistique associée à ce codage, le
débit de transfert des données reste à 1 000 Mbits/s.
Chaque trame de données est encapsulée au niveau de la couche physique avant sa transmission, et la
synchronisation des liaisons est gérée par l’envoi d’un flux continu de groupes de codes IDLE, dans
l’espacement intertrame.
Les différences majeures entre les versions fibres optiques 1000BASE-SX et 1000BASE-LX sont les
supports de liaison, les connecteurs et la longueur d’onde du signal optique. Elles sont illustrées dans la
figure.
Avec un format de trame et d’autres spécifications de couche 2 d’Ethernet conformes aux normes
précédentes, 10GbE peut fournir une bande passante plus large, utilisable avec l’infrastructure réseau
existante.
Avec Ethernet 10 Gbits/s, il est désormais possible de disposer de réseaux Ethernet de bout en bout
flexibles, efficaces, fiables et relativement peu onéreux.
Alors que la norme 1 Gigabit Ethernet est désormais largement commercialisée et que les produits
10Gigabit deviennent plus disponibles, l’IEEE et l’alliance 10 GEA étudient l’établissement de
normes 40, 100 et même 160 Gbits/s. Les technologies adoptées vont dépendre de plusieurs facteurs,
notamment de l’expérience acquise en matière de technologies et de normes, ou encore du taux
d’implantation sur les marchés et du coût des produits novateurs.
De plus, cette mise en œuvre d’Ethernet classique génère souvent un nombre important de collisions sur
le LAN. En raison de ces problèmes de performances, ce type de LAN Ethernet n’est pas très répandu
dans les réseaux modernes. De nos jours, les mises en œuvre d’Ethernet utilisant des concentrateurs se
trouvent en principe dans les réseaux LAN de petite taille ou dont les besoins en bande passante sont
réduits.
Le partage de supports entre les périphériques crée de sérieux problèmes à mesure de l’évolution du
réseau. La figure illustre certains des problèmes abordés dans ce chapitre.
Évolutivité
Dans un réseau de concentrateurs, la quantité de bande passante que les périphériques peuvent partager
est limitée. Au fur et à mesure qu’un périphérique est ajouté aux supports partagés, la bande passante
moyenne disponible de chaque périphérique diminue. Chaque fois que le nombre de périphériques
augmente sur les supports, les performances décroissent.
Latence
La latence du réseau correspond au temps que met un signal pour atteindre toutes les destinations sur les
supports. Chaque nœud d’un réseau de concentrateurs doit attendre que l’occasion se présente pour
transmettre son signal afin d’éviter que des collisions surviennent. La latence peut augmenter
considérablement en cas d’augmentation de la distance entre les nœuds. La latence dépend également du
délai de transport des signaux le long des supports, ainsi que du délai ajouté par le traitement des signaux
qui traversent les concentrateurs et les répéteurs. Si la longueur des supports ou le nombre de
concentrateurs et de répéteurs connectés à un segment augmente, la latence augmente également. Plus la
latence est grande, plus il y a de risques que les nœuds ne reçoivent pas les signaux d’origine, plus les
risques de collisions augmentent sur le réseau.
Panne réseau
Dans la mesure où Ethernet classique partage les réseaux, tous les périphériques peuvent propager leur
problème à d’autres périphériques. Si l’un des périphériques connectés au concentrateur génère un trafic
qui peut être nuisible, la communication entre tous les périphériques sur les supports peut être bloquée.
Ce type de trafic préjudiciable peut provenir de paramètres de vitesse ou de transmission bidirectionnelle
simultanée mal définis sur une carte réseau.
Collisions
Avec la méthode d’accès CSMA/CD, un nœud doit toujours envoyer un paquet sauf si le réseau ne
présente pas de trafic. Si deux nœuds envoient des paquets simultanément, une collision se produit, ce qui
entraîne la perte de paquets. Ensuite, les deux nœuds envoient un signal de brouillage, observent un délai
aléatoire, puis retransmettent leurs paquets. Toute partie du réseau dans laquelle les trames de deux nœuds
ou plus peuvent entrer en conflit constitue un domaine de collision. Un réseau comportant un plus grand
Laboratoire CISCO - 84 - Alex Isis MANKAYA
Chapitre 9 : Ethernet
nombre de nœuds sur le même segment présentera un domaine de collision plus important, et
généralement plus de trafic. Au fur et à mesure que le trafic augmente sur le réseau, les risques de
collisions augmentent également.
Les commutateurs apportent une solution aux environnements basés sur des restrictions de partage de
supports d’Ethernet classique.
Un réseau LAN peut avoir un commutateur centralisé connecté à des concentrateurs qui continuent à
fournir la connectivité aux nœuds. Par ailleurs, tous les nœuds d’un réseau local peuvent être connectés
directement à un commutateur. Ces topologies sont présentées dans la figure.
Dans un réseau local (LAN) où un concentrateur est connecté au port d’un commutateur, la bande
passante continue à être partagée, ce qui peut générer des collisions dans l’environnement partagé du
concentrateur. Toutefois, le commutateur isolera le segment de manière à limiter les collisions au trafic
entre les ports du commutateur.
Dans un réseau local (LAN) où tous les nœuds sont connectés directement au commutateur, le débit du
réseau augmente considérablement. Les raisons de ce phénomène sont les suivantes :
Bande passante dédiée sur tous les ports
Environnement sans collision
Transmission bidirectionnelle simultanée
Ces topologies physiques en étoile ne sont autres que des liaisons de point à point.
Chaque nœud dispose de la bande passe totale du support pour sa connectivité au commutateur. Étant
donné qu’un concentrateur réplique les signaux qu’il reçoit, puis les envoie à tous les autres ports, les
concentrateurs d’Ethernet classique forment un bus logique. Cela implique que tous les nœuds doivent
partager la bande passante de ce bus. Avec les commutateurs, chaque périphérique bénéficie d’une
connectivité point à point au commutateur, sans restriction de partage d’accès aux supports.
Comparons par exemple deux réseaux locaux (LAN) de 100 Mbits/s, chacun comportant 10 nœuds. Dans
le segment de réseau A, ces 10 nœuds sont connectés à un concentrateur. Chaque nœud partage la bande
passante disponible de 100 Mbits/s. Ainsi, chaque nœud bénéficie d’un débit de 10 Mbits/s en moyenne.
Dans le segment de réseau B, les 10 nœuds sont connectés à un commutateur. Dans ce segment,
l’ensemble de nœuds dispose de toute la bande passante de 100 Mbits/s.
Même dans cet exemple de réseau de petite taille, l’augmentation de la bande passante peut être
considérable. Au fur et à mesure que le nombre de nœuds augmente, l’écart entre les disponibilités de
bande passante dans les deux mises en œuvre se creuse.
Une connexion point à point à un commutateur permet également de partager les supports sans restriction
et de réduire, voire supprimer, le nombre de collisions rencontrées sur un nœud. Dans un réseau Ethernet
classique de taille moyenne utilisant des concentrateurs, environ 40 à 50 % de la bande passante sont
consommées par une reprise sur collision. Dans un réseau Ethernet commuté où les collisions ne
surviennent quasiment jamais, la logistique associée à la reprise sur collision est inexistante. Cela permet
au réseau commuté d’atteindre des débits beaucoup plus élevés.
La connectivité entre le périphérique et le commutateur est mise en œuvre sans collision. De ce fait, la
vitesse de transmission est doublée par rapport à la communication bidirectionnelle non simultanée. Par
exemple, si la vitesse du réseau est de 100 Mbits/s, chaque nœud peut à la fois transmettre et recevoir une
trame à cette vitesse.
La plupart des réseaux Ethernet ont des commutateurs comme périphériques finaux et fonctionnent en
mode bidirectionnel simultané. Étant donné que les commutateurs offrent des débits beaucoup plus élevés
que les concentrateurs et améliorent considérablement les performances, pourquoi ne pas les utiliser dans
tous les réseaux locaux Ethernet ? Les concentrateurs sont encore utilisés, principalement pour les trois
raisons suivantes :
La disponibilité : il a fallu attendre le début des années 90 pour voir apparaître les premiers
commutateurs LAN qui n’ont été commercialisés que dans le milieu des années 90. Les premiers
réseaux Ethernet, qui utilisaient des concentrateurs UTP, les ont conservés jusqu’à aujourd’hui.
Le coût : au départ les commutateurs étaient très chers. Plus les commutateurs sont accessibles en
termes de prix, puis les concentrateurs tendent à disparaître ; le coût devient donc un facteur
déterminant dans les décisions de déploiement.
La configuration requise : les premiers réseaux LAN étaient de simples structures conçues pour
échanger des fichiers et des imprimantes. Dans la plupart des cas, ils ont laissé la place à des
Laboratoire CISCO - 87 - Alex Isis MANKAYA
Chapitre 9 : Ethernet
réseaux multiservices modernes, d’où la croissance des besoins utilisateurs en bande passante
disponible. Toutefois, dans certains cas, un concentrateur de supports partagés peut suffire et ce
type de produit est toujours en vente.
Dans la section suivante, nous nous intéresserons au fonctionnement de base des commutateurs et à la
façon dont ils permettent d’optimiser les performances dont nos réseaux dépendent tant aujourd’hui. L’un
des cours suivants présente les commutateurs et les technologies qui y sont associées.
Pour être exact, cette connexion temporaire n’est pas simultanée entre les 2 nœuds. Par essence, c’est ce
qui fait de la connexion entre les hôtes une connexion point à point. En fait, chaque nœud qui fonctionne
en mode bidirectionnel simultané peut transmettre à chaque fois qu’il a une trame, sans tenir compte de la
disponibilité du nœud de réception. En effet, un commutateur LAN met en mémoire tampon une trame
entrante afin de l’envoyer au port correspondant une fois désactivé. Ce processus s’appelle stockage et
retransmission.
Grâce à la commutation par stockage et retransmission, le commutateur reçoit la trame complète, vérifie
si la séquence de contrôle de trame (FSC) contient des erreurs, puis transmet la trame au port approprié du
nœud de destination. Les nœuds ne sont pas contraints d’attendre que le support soit inactif et peuvent
donc envoyer et recevoir des messages à la vitesse maximale des supports, sans risque de pertes dues à
des collisions ou à la logistique associée à la gestion des collisions.
Le commutateur gère une table, appelée table MAC qui mappe les adresses MAC de destination aux ports
utilisés pour la connexion aux nœuds. Pour chaque trame entrante, l’adresse MAC de destination figurant
dans l’en-tête de trame est comparée à la liste des adresses de la table MAC. Lorsqu’un numéro de port
répertorié dans la table est mappé à l’adresse MAC, il est utilisé comme port de sortie de la trame.
La table MAC peut porter différents noms. Elle est souvent appelée table de commutation. La
commutation étant dérivée d’une ancienne technologie appelée routage transparent, on utilise parfois
l’expression table de pont. C’est la raison pour laquelle de nombreux processus exécutés par des
commutateurs LAN peuvent contenir des termes tels que pont ou routage dans leur nom.
Le pont était le moyen le plus fréquemment utilisé, au début de la technologie LAN, pour connecter deux
segments physiques d’un réseau. Les commutateurs permettent de réaliser cette opération. Ils permettent
également la connectivité des périphériques finaux au réseau local. De nombreuses autres technologies
ont été développées autour de la commutation LAN. La plupart seront présentées dans un prochain cours.
Les ponts sont particulièrement répandus dans les réseaux sans fil. Les ponts sans fil permettent
l’interconnexion de deux segments d’un réseau sans fil. Par conséquent, vous pouvez rencontrer les deux
termes : commutation et routage dans le domaine des réseaux.
Pour accomplir leurs tâches, les commutateurs LAN Ethernet utilisent cinq fonctions de base :
L’apprentissage
L’horodatage
L’inondation
Le réacheminement sélectif
Le filtrage
Apprentissage
La table MAC doit contenir des adresses MAC ainsi que les ports correspondants. Le processus
d’apprentissage permet l’acquisition dynamique de ces mappages en mode de fonctionnement normal.
Chaque fois qu’une trame entre dans le commutateur, celui-ci examine son adresse MAC source. Une
procédure de recherche permet au commutateur de déterminer si la table contient déjà une entrée pour
l’adresse MAC concernée. Si l’entrée n’existe pas, le commutateur en crée une nouvelle dans la table
MAC, à l’aide de l’adresse MAC source, et associe cette adresse au port d’arrivée de la trame. Par la
suite, le commutateur pourra utiliser ce mappage pour transmettre des trames à ce nœud.
Horodatage
Les entrées de la table MAC qui sont acquises à l’aide du processus d’apprentissage sont horodatées.
L’horodatage permet de supprimer les entrées les plus anciennes d’une table MAC. Après chaque entrée
dans la table MAC, un compte à rebours est lancé. Cette procédure utilise l’horodatage comme valeur de
début. Une fois la valeur 0 atteinte, l’entrée de la table sera actualisée la prochaine fois que le
commutateur recevra une trame en provenance de ce nœud sur le même port.
Inondation
Quand un commutateur ne sait pas sur quel port envoyer une trame parce que l’adresse MAC de
destination ne figure pas dans la table MAC, il envoie la trame à tous les ports, à l’exception du port
d’arrivée de la trame. Ce processus d’envoi de la trame à tous les segments s’appelle inondation. Le
commutateur ne transmet pas la trame au port d’arrivée de la trame car toutes les destinations sur ce
segment l’ont déjà reçue. L’inondation est également utilisée pour les trames envoyées à l’adresse MAC
de diffusion.
Réacheminement sélectif
Le réacheminement sélectif est un processus permettant l’analyse de l’adresse MAC de destination d’une
trame et sa retransmission vers le port approprié. C’est la fonction principale du commutateur.
Lorsqu’une trame provenant d’un nœud arrive sur le commutateur et que ce dernier connaît déjà l’adresse
MAC, cette adresse est associée à une entrée figurant dans la table MAC, ce qui permet l’acheminement
de la trame au port correspondant. Au lieu d’inonder tous les ports, le commutateur envoie la trame au
nœud de destination via son port désigné. Cette action est appelée réacheminement.
Filtrage
Dans certains cas, une trame n’est pas transmise. C’est ce que l’on appelle le filtrage de trame. L’une des
utilisations du filtrage a déjà été présentée : un commutateur ne réacheminera pas une trame vers son port
d’arrivée. En outre, il abandonnera également une trame si elle est endommagée. Si le contrôle de
redondance cyclique (CRC) échoue, la trame est abandonnée. Les trames sont également filtrées pour des
raisons de sécurité. Un commutateur possède des paramètres de sécurité qui permettent de bloquer les
trames à destination et/ou en provenance de certaines adresses MAC ou de ports spécifiques.
À chaque trame placée sur un support LAN doit correspondre une adresse MAC de destination. Quand un
paquet est envoyé à la couche liaison de données pour être encapsulé dans une trame, le nœud désigne
une table dans sa mémoire pour y trouver l’adresse de couche liaison de données qui est mappée à
l’adresse IPv4 de destination. Cette table est appelée table ARP, ou cache ARP. La table ARP est stockée
dans la mémoire vive (RAM) du périphérique.
Chaque entrée ou ligne de la table ARP comporte deux valeurs : une adresse IP et une adresse MAC. La
relation entre les deux valeurs s’appelle une mise en correspondance : ce qui signifie simplement que si
vous choisissez une adresse IP dans la table vous y trouverez l’adresse MAC correspondante. La table
ARP garde en mémoire cache le mappage des périphériques du réseau local (LAN).
Pour lancer la procédure, un nœud émetteur tente de trouver l’adresse MAC associée à une adresse IPv4
de destination, dans la table ARP. Si ce mappage est dans la mémoire cache de la table, le nœud utilise
Laboratoire CISCO - 90 - Alex Isis MANKAYA
Chapitre 9 : Ethernet
l’adresse MAC comme destination MAC dans la trame qui encapsule le paquet IPv4. La trame est ensuite
codée sur le support réseau.
La table ARP est mise à jour de manière dynamique. Un périphérique dispose de deux méthodes pour
obtenir des adresses MAC. La première consiste à surveiller le trafic sur le segment du réseau local.
Quand un nœud reçoit des trames en provenance du support, il enregistre les adresses IP source et MAC
dans la table ARP sous forme de mappage. Au fur et à mesure que les trames sont transmises sur le
réseau, le périphérique remplit la table ARP de paires d’adresses.
La seconde méthode permettant à un périphérique d’obtenir une paire d’adresse consiste à diffuser une
requête ARP. Le protocole ARP envoie un message de diffusion de couche 2 à tous les périphériques du
LAN Ethernet. La trame contient un paquet de requête ARP comportant l’adresse IP de l’hôte de
destination. Lorsqu’un nœud reçoit la trame et identifie sa propre adresse IP, il répond en envoyant un
paquet réponse ARP à l’expéditeur, sous la forme d’une trame monodiffusion (à une seule adresse MAC).
Cette réponse permet de créer une nouvelle entrée dans la table ARP.
Ces entrées dynamiques de la table MAC sont horodatées de la même façon que les entrées de la table
MAC sur les commutateurs. Si le périphérique ne reçoit de trame d’aucun périphérique avant expiration
de l’horodatage, l’entrée correspondante est supprimée de la table ARP.
Des entrées statiques de mappage peuvent également être ajoutées dans une table ARP, mais ceci ne se
produit que rarement. Les entrées statiques de la table ARP expirent avec le temps et elles doivent être
supprimées manuellement.
Création de la trame
Que fait un nœud lorsqu’il doit créer une trame et que le cache ARP ne contient pas la correspondance
entre une adresse IP et l’adresse MAC de destination ? Quand le protocole ARP reçoit une requête de
mappage entre une adresse IPv4 et une adresse MAC, il recherche le mappage stocké en mémoire cache
dans sa table ARP. S’il ne trouve pas d’entrée, l’encapsulation du paquet IPv4 échoue, et les processus de
la couche 2 informent le protocole ARP qu’un mappage est nécessaire.
Les processus ARP envoient alors un paquet de requête ARP pour trouver l’adresse MAC du
périphérique de destination sur le réseau local. Si le périphérique qui reçoit la requête possède l’adresse IP
de destination, il répond à l’aide d’une réponse ARP. Une entrée est créée dans la table ARP. Les paquets
à destination de cette adresse IPv4 peuvent à présent être encapsulés dans des trames.
Si aucun périphérique ne répond à la requête ARP, le paquet est abandonné car il est impossible de créer
une trame. L’échec de l’encapsulation est signalé aux couches supérieures du périphérique. Dans le cas
d’un périphérique intermédiaire, comme un routeur, les couches supérieures peuvent choisir de répondre à
l’hôte source en générant une erreur dans un paquet ICMPv4.
Au cours des travaux pratiques, vous utiliserez Wireshark pour observer la transmission des requêtes et
des réponses ARP sur un réseau.
Si l’hôte IPv4 de destination ne se trouve pas sur le réseau local, le nœud source doit livrer la trame à
l’interface du routeur qui sert de passerelle ou de saut suivant pour atteindre cette destination. Le nœud
source utilise l’adresse MAC de la passerelle comme adresse de destination, pour les trames contenant un
paquet IPv4 adressé à des hôtes situés sur d’autres réseaux.
L’adresse de passerelle de l’interface du routeur est stockée dans la configuration IPv4 des hôtes.
Lorsqu’un hôte crée un paquet pour une destination, il compare l’adresse IP de destination à sa propre
adresse IP pour déterminer si les deux adresses IP se situent sur le même réseau de la couche 3. Si l’hôte
destinataire ne se situe pas sur le même réseau, l’hôte source fait appel au processus ARP pour déterminer
l’adresse MAC de l’interface du routeur qui sert de passerelle.
Si l’entrée de la passerelle n’est pas dans la table, le processus ARP normal envoie une requête ARP pour
retrouver l’adresse MAC associée à l’adresse IP de l’interface du routeur.
Proxy ARP
Dans certains cas, un hôte peut envoyer une requête pour tenter de mapper une adresse IPv4 qui se trouve
en dehors de la plage d’adresses d’un réseau local. Dans ces cas, le périphérique envoie une requête ARP
pour rechercher les adresses IPv4 qui n’appartiennent pas au réseau local, au lieu de demander l’adresse
MAC associée à l’adresse IPv4 de la passerelle. Pour fournir l’adresse MAC de ces hôtes, l’interface du
routeur peut utiliser un Proxy ARP pour répondre au nom de ces hôtes distants. Cela signifie que le cache
ARP du périphérique à l’origine de la requête contient l’adresse MAC de la passerelle associée aux
adresses IP externes au réseau local. Le Proxy ARP permet à l’interface du routeur de se comporter
comme un hôte possédant l’adresse IPv4 demandée dans la requête ARP. En « falsifiant » son identité, le
routeur accepte d’acheminer les paquets vers la destination « réelle ».
Cela peut s’avérer utile lorsqu’une mise en œuvre antérieure d’iPv4 ne parvient pas à déterminer si l’hôte
de destination est situé sur le même réseau logique que l’hôte source. Dans ce cas, le protocole ARP
envoie systématiquement des requêtes ARP pour rechercher l’adresse IPv4 de destination. Si le Proxy
ARP est désactivé sur l’interface du routeur, les hôtes ne peuvent pas communiquer en dehors du réseau
local.
Le Proxy ARP est également utilisé lorsque l’hôte source se croit directement connecté au même réseau
logique que l’hôte de destination. Cela se produit généralement lorsqu’un hôte est configuré avec un
masque incorrect.
Comme l’indique la figure, l'Hôte A est configuré avec un masque de sous réseau /16, ce qui est incorrect.
L’hôte pense être connecté directement à l’ensemble du réseau 172.16.0.0 /16, et non au sous réseau
172.16.10.0 /24.
Lorsqu’il tente de communiquer avec un hôte IPv4 dont l’adresse appartient à la plage allant de
172.16.0.1 à 172.16.255.254, l'Hôte A envoie une requête ARP pour rechercher cette adresse IPv4. Le
routeur peut utiliser un Proxy ARP pour répondre aux requêtes concernant l’adresse IPv4 de l'Hôte C
(172.16.20.100) et de l'Hôte D (172.16.20.200). Par la suite, l'Hôte A aura des entrées pour ces adresses
associées à l’adresse MAC de l’interface e0 du routeur (00-00-0c-94-36-ab).
Un Proxy ARP peut également être utilisé quand un hôte n’est pas configuré avec une passerelle par
défaut. Le Proxy ARP peut aider les périphériques d’un réseau à atteindre des sous réseaux distants, sans
qu’il soit nécessaire de configurer le routage ou une passerelle par défaut.
Par défaut, les routeurs Cisco prennent en charge le Proxy ARP sur des interfaces LAN.
http://www.cisco.com/en/US/tech/tk648/tk361/technologies_tech_note09186a0080094adb.shtml
Des commandes permettent aussi de supprimer manuellement les entrées de la table ARP totalement ou
partiellement. Lorsqu’une entrée est supprimée, le processus d’envoi d’une requête ARP et de réception
d’une réponse ARP doit être répété pour entrer le mappage dans la table ARP.
Au cours des travaux pratiques correspondant à cette section, vous utiliserez la commande ARP pour
afficher le contenu du cache ARP d’un ordinateur. Notez que cette commande, malgré son nom, ne
permet pas d’appeler l’exécution du protocole ARP. Elle sert simplement à afficher, ajouter ou supprimer
des entrées de la table ARP. Le service ARP est intégré au protocole IPv4 et mis en œuvre par le
périphérique. Cette opération est transparente pour les utilisateurs et les applications des couches
supérieures.
Comme les trames de diffusion, les requêtes ARP sont reçues et traitées par chaque périphérique du
réseau local. Sur un réseau d’entreprise type, ces diffusions auraient probablement une incidence minime
sur les performances du réseau. Toutefois, si un grand nombre de périphériques sont mis sous tension et
accèdent aux services du réseau au même moment, les performances du réseau peuvent s’en trouver
réduites, sur un court laps de temps. Par exemple, si tous les participants d’une salle de travaux pratiques
se connectent sur les ordinateurs et tentent d’accéder à Internet en même temps, cela peut engendrer des
délais d’attente.
En revanche, si les périphériques envoient les messages de diffusion ARP initiaux et disposent des
adresses MAC nécessaires, l’impact sur le réseau sera minime.
Sécurité
Dans certains cas, l’utilisation du protocole ARP peut porter atteinte à la sécurité du réseau. L’usurpation
ARP ou empoisonnement ARP, est une technique d’attaque qui consiste à injecter un faux mappage
d’adresse MAC dans un réseau en émettant de fausses requêtes ARP. Si un pirate informatique usurpe
l’adresse MAC d’un périphérique, les trames risquent d’être envoyées à la mauvaise destination.
La configuration manuelle des associations ARP statiques permet d’éviter l’usurpation ARP. Les adresses
MAC autorisées peuvent être configurées sur certains périphériques du réseau pour limiter l’accès réseau
aux seuls périphériques listés.
Conformément aux spécifications des normes IEEE 802.2/3, la trame Ethernet fournit un adressage MAC
et un contrôle des erreurs. Ethernet étant une technologie de supports partagés, les premières versions
devaient appliquer une méthode CSMA/CD pour gérer le partage des supports entre plusieurs
périphériques. Le remplacement des concentrateurs par des commutateurs sur le réseau local a permis de
réduire les risques de collision de trames dans les liaisons bidirectionnelles non simultanées. En revanche,
les versions d’Ethernet actuelles et à venir fonctionnent comme des liaisons de communication
bidirectionnelle simultanée et n’ont plus besoin de gérer les restrictions de partage de supports.
L’adressage de la couche 2 fourni par Ethernet prend en charge les différents types de communications :
monodiffusion, diffusion et multidiffusion. Ethernet utilise le protocole ARP pour déterminer les adresses
MAC de destination et les mapper à des adresses de couche de réseau connues.
Décrivez l’évolution d’Ethernet et son développement depuis la technologie LAN jusqu’aux technologies
MAN et WAN. Comment cela a-t-il été possible ?
Initialement conçu pour les réseaux de communication de données, Ethernet est à présent aussi utilisé
dans les réseaux de contrôle industriel en temps réel. Décrivez les défis techniques et opérationnels
qu’Ethernet devra relever avant de pouvoir être utilisé pleinement dans ce domaine.