Cours Normes Et Protocoles Complet
Cours Normes Et Protocoles Complet
Cours Normes Et Protocoles Complet
Faculté de technologie
Département de génie électrique
1
Chapitre 1
Notions fondamentales
I- Institutions de normalisation en télécommunications
Un organisme de normalisation est un organisme dont les activités premières sont
l'établissement puis le maintien de normes destinées à des utilisateurs extérieurs à cette
organisation. Leurs activités peuvent inclure le développement, la coordination, la révision, la
modification, la réédition ou l'interprétation de telles normes. Pour les désigner, on utilise
parfois le sigle anglais SDO pour Standard Development Organisation.
La plupart des organismes de normalisation ont été fondés en ayant pour unique but les
objectifs précités. Toutefois, il existe quelques exemples d'organisations qui sont devenues
involontairement de tels organismes, ayant été à l'origine de certaines normes. Cette situation
se produit le plus souvent lorsqu'une norme établie à la base par un organisme pour son
fonctionnement interne est employée graduellement par un nombre important d'entités
extérieures et devient alors le standard de fait dans la branche de l'industrie en question.
Exemples : le fabricant Hayes Micro computer Products et son protocole de modem, la norme
de police d'écriture TrueType d'Apple ou encore le protocole PCL utilisé parHewlett-
Packard pour leurs imprimantes.
Dans un réseau, de nombreux composants matériels et logiciels, souvent conçus par des
fabricants différents, doivent pouvoir communiquer.
Pour faciliter leur interconnexion, il est indispensable d’adopter des normes établies par
différents organismes de normalisation :
2
II- Historique et évolution
Fondée, en 1865, l’UIT est devenue une agence spécialisée de l’Organisation des Nations
Unies en 1947. Elle est l’institution spécialisée des Nations Unies pour les technologies de
l’information et de la communication. Son siège se situe à Genève et elle compte 191 Etats
Membres et plus de 700 membres de Secteurs et Associés, du secteur public et du secteur
privé. Elle travaille également en collaboration avec des organisations de télécommunication
internationales et régionales. La participation aux travaux de l’UIT est ouverte tant aux Etats
qu’aux compagnies privées (exploitants, équipementiers, organismes de financement ou de
recherche-développement) et aux organisations internationales et régionales de
télécommunication. Pôle de convergence mondial où se retrouvent pouvoirs publics et secteur
privé, l’UIT aide le monde à communiquer, et ce dans trois secteur fondamentaux : les
radiocommunications (UIT-R), la normalisation (UIT-T) et le développement (UIT-D). Le
secteur des radiocommunications s’occupe de la gestion des ressources internationales que
constituent le spectre des fréquences radioélectriques et les orbites des satellites. Ses tâches
principales sont, notamment, d’élaborer des normes pour les systèmes de
radiocommunications, de garantir l’utilisation efficace du spectre des fréquences
radioélectriques et de procéder à des études sur le développement des systèmes de
radiocommunication. Les activités de normalisation sont les activités les plus connues – et les
plus anciennes – de l’UIT. Ce secteur de l’Union est en charge de l’élaboration de textes
normatifs couvrant tous les domaines de la télécommunication mondiale. Il produit
principalement des Recommandations. Aujourd’hui, ce ne sont pas moins de 3000
Recommandations qui sont en vigueur.
III- Définitions
a- Normes
Une norme, du latin norma « équerre, règle », désigne un état habituellement
répandu, moyen, considéré le plus souvent comme une règle à suivre. Ce terme générique
désigne un ensemble de caractéristiques décrivant un objet, un être, qui peut être virtuel ou
non. Tout ce qui entre dans une norme est considéré comme « normal », alors que ce qui en
sort est « anormal ». Ces termes peuvent sous-entendre ou non des jugements de valeur.
3
fait, le terme de normalisation évoque le plus souvent la normalisation dans l'industrie et les
services. En raison de son influence déterminante sur les économies contemporaines, la
normalisation vue sous cet angle peut être considérée comme un instrument commercial pour
étendre l'influence d'une puissance économique, en utilisant des techniques de lobbying et les
réseaux d'organisations non gouvernementales par exemple (voir plus loin, au
chapitre Relations internationales, la question de l'hégémonie appliquée à la norme).
Au 31 décembre 2012 l’ISO a publié 19 573 normes, dont 1 280 en 2012 et ceux depuis 1947.
b- Protocoles
Le protocole doit également définir les règles du dialogue et spécifier la façon de corriger les
erreurs détectées. Enfin, on doit pouvoir détecter les pannes des équipements ou les ruptures
complètes de liaison pour avertir l’utilisateur de l’indisponibilité du service.
c- Standard
Un standard est un référentiel publié par une entité privée autre qu’un organisme de
normalisation national ou international ou non approuvé par un de ces organismes pour un
usage national ou international. On ne parle de standard qu'à partir du moment où le
référentiel (un ensemble structuré de recommandations ou de bonnes pratiques utilisées pour
le management du système d'information ) a une diffusion large, on parle alors de standard de
facto (standard de fait). Un standard est ouvert quand le référentiel est diffusé librement.
4
Dans la loi française nº 2004-575 du 21 juin 2004 pour la confiance dans l'économie
numérique, on peut lire la définition suivante d’un standard ouvert (Titre Ier, De la liberté de
communication en ligne, Chapitre Ier, La communication au public en ligne, article 4) : « On
entend par standard ouvert tout protocole de communication, d'interconnexion ou d'échange et
tout format de données interopérable et dont les spécifications techniques sont publiques et
sans restriction d'accès ni de mise en œuvre. »
L'accès à des normes est généralement payant, et peu diffusé, alors que les standards sont plus
facilement diffusés. En particulier le standard Unicode est généralement mieux connu que la
norme ISO-10646 qui en est un sur-ensemble.
Traditionnellement présents dans le secteur industriel, les normes et standards ont gagné le
domaine des services, notamment au travers des normes relatives aux processus et à la qualité
de service. (ISO 9001 v 2008).
d- Recommandation
Les Recommandations sont des normes qui définissent les modalités d’exploitation et
d’interfonctionnement des réseaux de télécommunication. Bien qu’elles ne soient pas élevée
et du fait qu’elles garantissent l’inter-connectivité des réseaux et permettent de fournir des
services de télécommunication dans le monde entier.
Dr L.Djouablia
Chapitre 2
5
Normes associées à la diffusion analogique et
numérique
I- Normes audio et vidéo analogiques (CCIR, NTSC, …)
Une image vidéo analogique en couleurs peut être reconstituée par le mélange, à quantité
variable, des trois couleurs primaires rouge, vert, bleu. Mais en pratique, le signal vidéo ne se
présente pas toujours sous la forme de trois signaux RVB. Il peut en fait revêtir quatre formes
différentes.
– RVB : chaque couleur primaire rouge, verte, bleue est véhiculée par trois signaux distincts
sur trois liaisons indépendantes (une quatrième voie peut être utilisée pour la
synchronisation).
– Composantes : les signaux en composantes sont fabriqués à partir d’une recomposition
linéaire des signaux primaires RVB, conduisant à un signal de luminance Y (représentant à lui
seul l’image en noir et blanc), et deux signaux dits de différence de couleurs R-Y et B-Y,
notés Dr et Db.
– Composite : les trois signaux composantes Y, Dr, Db sont combinés en un unique signal
vidéo appelé signal composite. Il existe trois standards composites, le PAL, le SECAM et le
NTSC, dont les différences portent essentiellement sur la manière dont sont combinés les
signaux.
– Y/C (ou composite séparé) : il s’agit d’un mode de représentation dans lequel la luminance
et la chrominance sont codées chacune comme en composite, mais restent séparées l’une de
l’autre au niveau de la connectique et des équipements. La qualité de l’image est meilleure
qu’en composite (définition supérieure, pas de cross-color,...).
Force est de constater que les normes de codage composite des signaux de télévision en
vigueur aujourd’hui reposent sur des spécifications établies il y a plus de 50 ans, en fonction
de la technologie et des besoins de l’époque. En effet, les standards PAL, SECAM et NTSC
sont tous trois nés de la nécessité d’assurer le passage de la télévision en noir et blanc à la
télévision en couleurs de façon totalement compatible. Ces trois standards vidéo composites
utilisés selon les zones géographiques, qui sont, par ordre de création, le NTSC (525 lignes
par image, 60 trames par seconde), le SECAM et le PAL (625 lignes par image, 50 trames par
seconde).
6
I-1- Le NTSC
Lancé en 1953, le NTSC (National Television System Comittee) est utilisé principalement par
les États-Unis, le Canada, le Mexique et le Japon. Tout comme le PAL mais contrairement au
SECAM, le NTSC transmet simultanément les deux composantes de couleurs Dr et Db. Deux
porteuses, de même fréquence mais décalées de 90° l’une par rapport à l’autre, sont modulées
en amplitude par les signaux de différence de couleurs, puis supprimées. Les signaux
résultants sont mélangés pour former un signal unique de chrominance modulé en amplitude
(saturation) et en phase (teinte). Ce signal de chrominance est alors ajouté au signal de
luminance. Comme deux phases sont possibles en ligne, la périodicité du signal NTSC est de
quatre trames, alors que celle du signal en noir et blanc n’est que de deux trames. Pionnier des
systèmes de télévision en couleurs et par conséquent tributaire de techniques peu évoluées, le
NTSC est sujet à un défaut majeur : la moindre distorsion de phase – due aux circuits du
récepteur, à l’antenne, à la propagation, etc. – se traduit par des erreurs de teinte sur l’image.
Ainsi, les récepteurs NTSC sont pourvus d’un potentiomètre de réglage de phase pour
rattraper d’éventuels défauts. Il faut cependant savoir que les États-Unis vivent actuellement
une période de transition vers la diffusion numérique hertzienne standard et à haute définition,
au terme de laquelle le NTSC est appelé à disparaître définitivement. Les 1600 diffuseurs
américains se sont vu prêter chacun par le gouvernement américain un second canal hertzien
de 6 MHz, sur lequel ils sont tenus de diffuser un programme numérique (parallèlement à leur
canal NTSC), conformément à un calendrier ayant démarré en 1998 et s’étalant jusqu’en
décembre 2006. À l’issue de cette phase transitoire, tous les diffuseurs devront définitivement
cesser de diffuser en NTSC et restituer leurs canaux au gouvernement qui les emploiera à
d’autres fins.
I-2- Le PAL
Lancé en 1963, le système de codage PAL (Phase Alternation Line) apporte une variation au
NTSC, d’apparence mineure, mais qui en supprime la principale faiblesse. Le PAL utilise le
même type de modulation que le NTSC, mais avec la particularité d’inverser, à l’émission, la
phase de la sous-porteuse relative au signal de différence de couleurs Dr une ligne sur deux,
tout en conservant son amplitude (une salve de référence de la phase couleur est insérée sur le
palier de suppression ligne). Ainsi, si une rotation de phase accidentelle survient sur une ligne
donnée, une rotation de signe opposé se produit sur la ligne suivante. L’oeil faisant une
7
synthèse additive des couleurs, il restitue la bonne teinte, puisque les deux déphasages
s’annulent mutuellement (on admet que l’information de couleur est quasiment identique sur
deux lignes successives). L’alternance de phase sur la composante de différence de couleurs
Dr d’une ligne à l’autre engendre une périodicité de quatre trames. Cependant, si l’on
considère la fréquence de la sous-porteuse choisie pour le PAL, le nombre de périodes par
ligne n’est pas un entier. Au total, la périodicité du signal PAL s’élève en fait à huit trames.
En montage, le fait de briser un bloc de quatre images entraîne une saute de couleur
provoquée par un déphasage de la sous-porteuse, visible surtout lorsqu’il s’agit de plan sur
plan.
I-3- Le SECAM
Lancé en 1967, le SECAM repose sur la transmission en alternance une ligne sur deux de
chacun des deux signaux différence de couleurs Dr et Db (solution par ailleurs récemment
reprise par la structure de codage 4:2:0 de la diffusion numérique, du DVD et du format DV).
La résolution verticale de la chrominance est ainsi réduite de moitié par rapport à celle de la
luminance – ce qui n’est pas le cas des systèmes PAL et NTSC. Rappelons que la résolution
horizontale de la chrominance est, de son côté, fortement diminuée en raison de la réduction
de sa bande passante. Les inventeurs du SECAM ont estimé superflu de transmettre pour la
chrominance une définition meilleure en vertical qu’en horizontal. Un seul signal de
différence de couleurs est donc transmis par ligne en modulant en fréquence une sous-
porteuse (une sous-porteuse différente est attribuée à chaque signal de différence de couleurs).
Cette alternance Dr, Db à la fréquence ligne entraîne une périodicité de quatre trames.
Cependant, l’inversion dela phase de la sous-porteuse (une ligne sur trois, une trame sur deux)
choisie pour améliorer la compatibilité directe porte cette périodicité à douze trames. À la
réception, le circuit de décodage traite, sur chaque ligne, le signal Dr ou Db transmis
directement, additionné du signal Db ou Dr de la ligne précédente, conservé en mémoire et
considéré comme encore valable pour la ligne actuelle (des signaux d’identification couleur
sont transmis à chaque suppression trame et ligne). On s’est cependant assez vite rendu
compte que si le SECAM offrait des avantages appréciables pour la transmission (pas de
risque d’intermodulation des signaux de chrominance qui ne sont jamais présents
simultanément, démodulation simple, etc.), il présentait en contrepartie des inconvénients
irréfutables dans le domaine de la production. En effet, le mélange de deux sources SECAM
impose de démoduler systématiquement les signaux en composantes Y, Dr, Db, afin de
procéder à leur addition, puis de les remoduler en sortie de traitement. C’est pourquoi même
8
dans les pays ayant adopté le SECAM comme norme de diffusion, ce dernier a souvent laissé
la place au PAL en studio, qui permet le mélange des sources sans démodulation (si elles sont
bien en phase). C’est ainsi que les standards se sont progressivement divisés entre la
production et la diffusion. L’Europe a été partagée entre le PAL et le SECAM, les chaînes de
télévision ayant opté pour la diffusion en SECAM étant pour la plupart équipées aussi de
matériels PAL. D’autre part, avec le développement des travaux de postproduction est né le
désir de repousser les limites des standards composites, dont la principale faiblesse est la
limitation de la bande passante des signaux et l’imbrication de leurs spectres. Car si ce défaut
est toléré pour la diffusion, il constitue un sérieux handicap pour les traitements complexes de
l’image en régie. Au début des années 1980, l’avenir des normes composites dans les studios
commence à s’assombrir.
Le signal numérique n’a pas de nature physique. Il se présente sous la forme d’un message
composé d’une suite de symboles, et est donc discontinu, le passage d’un symbole à un autre
s’effectuant par une transition brutale. Basé sur le langage binaire, le signal numérique est
constitué d’une suite de 0 et de 1, traduisant respectivement un niveau bas et un niveau haut
du signal électrique. L’avantage fondamental du numérique réside dans le fait qu’il autorise
un nombre de traitements complexes très élevé sans que soit affectée l’intégrité de
l’information. Les dégradations causées par les perturbations du support de transmission ou
d’enregistrement, telles que l’adjonction de bruit, la distorsion, etc., ne touchent que les
paramètres analogiques du signal numérique et n’altèrent pas l’information, si elles restent
dans certaines limites. En effet, tant que les niveaux électriques hauts et bas correspondant
aux deux valeurs binaires se distinguent l’un de l’autre, le message transporté demeure intact.
Parmi les normes régissant sur les diffusions audio et vidéo numériques, il existe :
II-1- Le ATSC
Les diffuseurs ATSC doivent maintenir un signal analogique sur deux canaux séparés, parce
que le système ATSC exige l'utilisation d'un canal entier de 6 MHz. Celui-ci a été critiqué car
il est considéré comme compliqué et cher à mettre en œuvre et à employer.
II-2- Le DVB
Digital Video Broadcasting (abrégé en DVB, et qu'on pourrait traduire par « diffusion vidéo
numérique »), est un ensemble de normes de télévision numérique édictées par le consortium
européen DVB, et utilisées dans un grand nombre de pays. Ses principales concurrentes sont
les normes ATSC (utilisées aux États-Unis et au Canada) et les normes ISDB (utilisées
au Japon et au Brésil).
10
Le projet DVB a commencé la première phase de son travail en 1993 à la même période où en
Amérique du Nord, le forum "Grand Alliance" organise également le même type de
développements, avec en ligne de mire, la télévision numérique puis la Haute Définition. Il
faut souligner que certains acteurs impliqués participent à la fois aux deux forums concurrents
mais dont les objectifs sont similaires, notamment les Européens Philips Consumer
Electronics et Thomson Consumer Electronics.
Durant le processus de multiplexage, les différents services (chaînes, jeux, radio…) sont
assemblés en flux de transport (TS, Transport Stream) par l’adjonction des tables DVB.
Chaque TS peut ainsi transporter jusqu’à 20 chaînes de télévision, voire plus, dépendant du
mode de transport et de la qualité d’encodage voulus.
Une fois ce processus terminé, ces flux sont transmis soit sous la forme d’un bouquet
numérique vers les clients finaux qui devront donc posséder un décodeur (Set-top box)
compatible qui fera le processus inverse : démultiplexage, vérification des droits d’accès,
décodage et transmission vers la télévision, soit par un modulateur PAL, soit par une
sortie Péritel (SCART), soit par une sortie HDMI ou encore sous la forme d’un
signal composite pour la vidéo et analogique pour l’audio.
Globalement, la norme DVB entre donc en jeu depuis la mise en multiplex jusqu’à la sortie du
décodeur final.
Normes Description
Transmission
11
DVB-S2 Transmission satellite version 2
II-3- Le ISDB
L'ISDB (Integrated Services Digital Broadcasting) est une norme japonaise de diffusion
de télévision et radio numérique. Elle comporte plusieurs sous-normes, qui sont l'ISDB-T
(pour la diffusion dite terrestre), l'ISDB-S (pour la diffusion par satellite) et l'ISDB-C (pour la
diffusion par câble). L'ISDB-T est elle-même découpée en deux normes dites 1seg et 13seg, la
première étant prévue pour la réception sur appareil mobile.
Cette norme est principalement utilisée au Japon et en Amérique du Sud. Elle fut définie par
l'ARIB, une organisation de standardisation japonaise. La vidéo diffusée est encodée au
format MPEG-2. L'accès conditionnel, qui permet de n'autoriser que certains terminaux à
12
afficher certaines chaînes (pour la télévision payante par exemple), est défini dans la
norme ARIB STD-B25.
II-4- Le NICAM
NICAM est un acronyme qui signifie Near Instantaneous Companded Audio Multiplex :
« Multiplexage audio à compression quasi instantanée ». Ce procédé permet la transmission
d’un son numérique stéréo en complément d'un signal de télévision analogique. La première
diffusion NICAM a eu lieu en septembre 1994 avec la chaîne TF1. À la fin de l'année 2011, la
suppression de la diffusion analogique des chaînes nationales par voie terrestre, sur satellite et
le câble a entrainé l'arrêt définitif du NICAM en France.
Dès le lancement de la norme audio, la promotion présentait la qualité sonore du NICAM,
équivalente à celle du CD audio. Toutefois, bien que d'une performance supérieure à la
modulation AM et monophonique associée au standard historique SECAM et à la « norme
L », la qualité sonore du NICAM est limitée ; si l'encodage numérique du CD
exploite44,1 kHz avec 16 bits d’échantillonnage, le NICAM est pour sa part, encodé
seulement à 32 kHz avec 14 bits d’échantillon compressé sur 10 bits. Le spectre sonore
restitué en NICAM est donc, selon Shannon, réduit à ~15 kHz contre ~20 kHz pour le CD.
Enfin, la dynamique (le rapport entre le son de niveau le plus élevé et le son le plus faible
théoriquement reproductible) maximale se limite à 84 dB au lieu de 96 dB ; Enfin, la norme
de compression Musicam peut engendrer dans certains cas, des artefacts plus ou moins
audibles par l'oreille humaine.
Dr L.Djouablia
Chapitre 3
13
Normes associées aux réseaux de
communications numériques
I- Classification des réseaux de communications
Un réseau de communication peut être défini comme l’ensemble des ressources matériels et
logiciels liées à la transmission et l’échange d’information entre différentes entités. Suivant
leur organisation, ou architecture, les distances, les vitesses de transmission et la nature des
informations transmises, les réseaux font l’objet d’un certain nombre de spécifications et de
normes.
Les réseaux de communications peuvent donc être classés en fonction du type
d’informations transportées et de la nature des entités impliquées. On distingue ainsi trois
principales catégories de réseaux :
• Les réseaux de télécommunications
• Les réseaux Téléinformatiques
• Les réseaux de télédiffusion
14
I-3- Les réseaux de télédiffusion
Plus récents, ils servent à la diffusion de canaux de télévisions entre les studios TV et les
particuliers. On retrouve les réseaux de distribution terrestre des câblo-opérateurs et les
réseaux satellites.
Remarques : Une des particularités des réseaux terrestres, c’est qu’aujourd’hui ils sont
exploités en analogique et non en numérique, tandis que les transmissions via des satellites
sont unidirectionnelles.
Exemples : Numéricable (Paris), Vsat ou Eutelsat,
15
III- Historique et évolution des réseaux
Pour alléger les coûts de communication et pour exploiter au mieux les ressources de
transmission, des équipements de partage de supports apparaissent: les multiplexeurs et
les concentrateurs. La différence essentielle résidait dans leur fonctionnement. Pour l'instant,
nous soulignons qu'un concentrateur contenait un processeur et de la mémoire lui conférant
une " intelligence " supérieure au multiplexeur. Nous reviendrons dans un chapitre ultérieur
sur les différents équipements téléinformatiques.
16
acheminer l'information issu des calculateurs et des terminaux informatiques. Mais il y avait
un problème d'ordre physique: les supports de transmission qui allaient être utilisés n'étaient
pas adaptés à la transmission des signaux digitaux. D'où la nécessité d'adaptateurs:
les modems.
Les années 70 marquèrent la baisse des coûts des calculateurs. Les mini-calculateurs firent
leur apparition. Ainsi, une entreprise avait de plus en plus de facilités de disposer de
calculateurs. Les calculateurs allaient être reliés au réseau.
Dans les années 80 l'informatique personnelle s'impose peu à peu. Les micro-
ordinateurs offrent convivialité et souplesse d'utilisation à défaut de puissance. Le désir et la
nécessité de communiquer sont de plus en plus forts. Et tout calculateur offre la possibilité
d'être raccordé à un réseau par des interfaces spécifiques.
17
La convergence entre les différents réseaux va s'accentuer avec la numérisation de
l'information. Ainsi, sur le même réseau transiteront des données informatiques et des
données audiovisuelles... La téléphonie pourra utiliser le réseau au même titre que les
données... Cela va amener une restructuration dans l'entreprise.
On peut voir l'architecture RNIS comme une évolution entièrement numérique des réseaux
téléphoniques plus anciens, conçue pour associer la voix, les données, la vidéo et toute autre
application ou service. RNIS s'oppose donc au réseau téléphonique commuté (RTC)
traditionnel ; elle a été standardisée à la fin des années 1980
18
L'abréviation RNIS était utilisée en France et au Canada. Cependant, le réseau RNIS
de France Telecom est plus connu sous son nom commercial « Numéris ».
RNIS combine la large couverture géographique d'un réseau téléphonique avec la capacité de
transport d'un réseau de données supportant simultanément la voix, les données et la vidéo.
Le modèle OSI (Open Systems Interconnection) définit de quelle manière les protocoles sont
associés entre eux pour permettre une communication entre les périphériques en réseau. Il
spécifie le comportement d’un système ouvert (qui échange en permanence des informations).
Ce modèle est normalisé par l’ISO.
19
V-1-2 Rôle de chaque couche
Niveau 1 : couche physique
- Adaptation du signal (électrique, numérique, analogique, électromagnétique, lumineux…) au
support de transmission (cuivre, air, fibre optique…)
- Gestion du type de transmission : synchrone ou asynchrone.
- Si besoin : modulation ou démodulation du signal
- Unité d’échange = le bit
- Quelques types de signaux : ADSL, codage manchester, RS-232…
20
- Dans l’en-tête : numéros de port source et de port destination (type de protocole transporté
dans les données), numéros de séquence et d’acquittement (pour que le récepteur remette les
paquets dans l’ordre).
- Quelques protocoles : TCP, UDP, RTP …
Niveau 5 : couche session
- Permet l’ouverture et la fermeture d’une session de travail entre deux périphériques.
- Gère la chronologie du dialogue.
- Détermine le mode de transmission : full duplex, half duplex…
- Unité d’échange = données
- Quelques protocoles : RTSP, Telnet …
Niveau 6 : couche présentation
- Formate les données pour qu’elles soient compréhensibles par les 2 périphériques.
- code , compresse, crypte, décrypte les données.
- Unité d’échange = données
- Quelques formats de données : ASCII, MIME (courriels)…
Niveau 7 : couche application
- Fournit les services utilisables sur le réseau par les applications installées.
- Unité d’échange = données
- Quelques protocoles : HTTP, HTTPs, DHCP, DNS, FTP, SSH…
V-2- Modèle TCP/IP
Le modèle DOD ou TCP/IP se décompose en 4 couches :
21
L’architecture TCP/IP a été développée, dans le milieu des années 70, par la DARPA Defense
Advanced Research Projets Agency (États-Unis) pour les besoins de communication et
d’interfonctionnement des applications entre les systèmes informatiques de l’armée (DoD,
Department of Defense). Pour cela, il fallait définir un format d’échange des données commun
à tous les systèmes tout en préservant l’existant, c’est-à-dire sans modifier les réseaux réels.
Le modèle DOD ou TCP/IP se décompose en 4 couches :
Au niveau de l’émetteur (source) un message parcourt les couches du haut vers le bas
(segmentation et encapsulation des données).
Au niveau du récepteur (destination) un message parcourt les couches du bas vers le haut
(décapsulation et assemblage des données).
22
V-2-3 Au niveau d’un commutateur
Un commutateur ou switch filtre puis transfère (vers un seul hôte) ou inonde (vers plusieurs
hôtes) des trames en fonction de leur adresse physique de destination.
Il agit au niveau de la couche 2 du modèle OSI :
23
4.1. Au niveau d’un routeur
Un routeur détermine le chemin optimal pour transférer les paquets d’un réseau vers un autre,
en fonction de leur adresse logique de destination.
Il agit au niveau de la couche 3 du modèle OSI :
Ainsi, alors que la voix est transportée sur une bande de fréquence allant de 300 à 3400Hz
(rappelons que la bande de fréquence audible va de 20Hz à 20kHz), le signal ADSL est
transmis sur les plages de fréquences hautes, inaudibles, de 25,875kHz à 1,104MHz.
L’utilisation de cette bande très large permet de transporter des données à des débits pouvant
atteindre 8Mbit/s au maximum en réception et 768Kbit/s en émission (d’où le A de ADSL qui
signifie asymétrique).
24
VI-1 Architectures protocolaires de l’ADSL
(Mode de transfert asynchrone) C’est une technique de commutation de petits paquets de taille
fixe appelés cellules. Ce Protocole a été développé par le CNET en 1984 et est devenu standard
international depuis 1991. Comme solution d’interconnexion de sites clients, les opérateurs
proposent le transport de données en mode ATM. Ceci consiste notamment en la fourniture de
tuyaux (virtuels) reliant deux points ou une multitude de points.
L’information est mise dans des cellules de taille fixe de 53 octets.
C’est un service de transfert de données en mode connecté, une connexion devant être établie
avant le transfert des informations. Le séquencement des cellules est assuré sur une même
connexion. Les cellules d’un flux applicatif sont transmises en mode asynchrone. On distingue
2 niveaux de connexion :
Un VP peut contenir plusieurs VC, une application utilise toujours une (ou plusieurs)
connexion(s) de type VC. Le mode ATM permet de transporter ensemble des flux aux
caractéristiques différentes : ces trafics sont transmis simultanément, mais à chacun d’eux sera
apporté un soin particulier selon sa nature. Pour cela, un mécanisme de qualité de service est
25
mis en œuvre dans le réseau.
C’est l’interface entre la couche ATM et la couche application. Elle permet d'affiner la qualité
de service offerte par la couche ATM, selon les exigences du service utilisateur et d'adapter les
couches supérieures au transport de cellules ATM.
26
- La sous-couche de convergence (CS, Convergence Sublayer) qui gère l’identification des
messages à transmettre, qui est en charge de la récupération d'erreur sur les données utilisateur
et qui peut assurer également la synchronisation de bout en bout.
Le protocole Point à Point (PPP) propose une méthode standard pour le transport de
datagrammes multi-protocoles sur une liaison simple point à point.
PPP comprend trois composants principaux:
- Une méthode pour encapsuler les datagrammes de plusieurs protocoles.
- Un protocole de contrôle du lien "Link Control Protocol" (LCP) destiné à établir, configurer,
et tester la liaison de données.
- Une famille de protocoles de contrôle de réseau "Network Control Protocols" (NCPs) pour
l'établissement et la configuration de plusieurs protocoles de la couche "réseau".
L'encapsulation PPP est utilisée pour lever l'ambiguïté sur des datagrammes provenant de
protocoles différents. Cette encapsulation nécessite l'usage d'un tramage dont le but principal
est d'indiquer le début et la fin de l'encapsulation.
8/16 bits * *
6- L2TP
permet de créer un tunnel de " niveau 2 ", support de sessions multi-protocoles PPP, sur des
architectures IP, Frame-relay ou ATM.
Il normalise les fonctionnalités de tunneling qui avaient été développées par les différents
27
constructeurs (ATMP pour Ascend, L2F pour Cisco) et de garantir une interopérabilité entre les
équipements.
Dans la norme L2TP, on parle de LAC : « L2TP Access Concentrator », et de LNS : L2TP
Network Server .
Les avantages de cette technique de tunnel sont :
- de dissocier le BAS du point de terminaison de la session PPP, permettant de prolonger la
session jusqu’un concentrateur local (appelé LNS) via un backbone partagé, et d’attribuer les
adresses des utilisateurs distants de manière centralisée (via un serveur Radius) ou par le
routeur LNS. L’adressage peut alors être privé, même dans le cas d’un support sur backbone IP
public.
- de s’affranchir de la connexion sur le même BAS pour les sessions multilink PPP. Les
sessions sont alors terminées dans le même LNS via des BAS différents.
28
IP. L'en-tête IP contient les adresses IP source et de destination qui correspondent
respectivement au client et au serveur VPN.
PPP over Ethernet fournit la capacité de connecter un réseau d'hôtes vers un site distant à
travers un simple dispositif d'accès bridgé. Avec ce modèle, chaque hôte utilise sa propre pile
PPP
Pour fournir une connexion point à point à travers Ethernet, chaque session PPP doit apprendre
l'adresse Ethernet de la machine distante afin d'établir et d'identifier une session unique. PPPoE
inclus donc un protocole de découverte.
Lors du processus de découverte, un hôte (PC, MAC) découvre le concentrateur d'accès (BAS).
Quand la découverte s'achève avec succès, l'hôte et le concentrateur d'accès choisissent les
informations qu'ils emploieront pour construire leur connexion point à point sur Ethernet.
Une fois que la session PPPoE est ouverte, les données PPP sont envoyées comme dans
l'encapsulation PPP.
l'unité maximum de retour pour une trame d'option (Maximum-Receive-Unit = MRU) ne doit
29
pas être négociée à une taille supérieure à 1492 octets. En effet, une trame Ethernet à une taille
maximale de 1500 octets, l'en-tête PPPoE est de 6 octets et le PPP ID est de 2 octets, le PPP
MTU ne doit pas être plus grand que 1492o.
Point to Point Protocol over ATM. Il est utilisé entre l’utilisateur et le BAS et gère
l’encapsulation des trames PPP.
10- Radius
Il est utilisé entre le BAS, le PAS (Plate-forme d’accès aux services = Proxy RADIUS), et le
serveur RADIUS du FAI. Le protocole RADIUS comprend deux parties :
1) L’authentification, qui permet à l’utilisateur de se connecter en transmettant des attributs
comme son identifiant et son mot de passe, elle se fait par des échanges BASPAS-serveur
RADIUS. En cas d’acceptation, le PAS transmet des attributs come l’adresse IP attribuée à
l’utilisateur et le nom du routeur virtuel du BAS auquel l’utilisateur appartient.
2) Le comptage permet de mesurer le temps de connexion d’un utilisateur par l’envoi par le
BAS de d’un message de début et d’un message de fin (ou intermédiaire) qui contient des
attributs comme le nombre d’octets envoyés et reçus.
Remarque :
Le datagramme est un paquet de données dans un réseau informatique utilisé par des
protocoles orientés non connectés tel que : IPX ou UDP. Le datagramme est le terme
généralement utilisé pour désigner la transmission d'un paquet via un service non « fiable » : il
n'y a aucun moyen de s'assurer que le paquet est arrivé à sa destination (un peu comme une
lettre sans accusé de réception).
30
11- IP
Internet Protocol, est un protocole de télécommunications très répandu, utilisé sur les réseaux
qui servent de support à Internet. Il permet de découper l’information à transmettre en paquets,
d’adresser les différents paquets, de les transporter indépendamment les uns des autres et de
recomposer le message initial à l’arrivée.
Pour l'ADSL, l'IP est utilisé au niveau du BAS pour router les données provenant de l'abonné
vers son FAI au travers du réseau backbone de collecte IP.
31
Chapitre 4
Les protocoles des réseaux sans fil et des
réseaux mobiles
I- Les Protocoles 802.11
802.11 est un ensemble de standards qui régissent les transactions sur les WLAN.
Chaque standard ou sous standard est désigné par une lettre de l’alphabet. Ceci ne correspond
pas à une appellation empirique, mais désigne le groupe de travail chargé à l’IEEE de l’étude
et de la publication d’un standard ou sous standard de la famille 802.11. Nous remarquerons
aussi qu’il y des trous dans l’alphabet, ceci afin de ne pas prêter à confusion avec d’autres
standards de la famille 802 (exemple 801.1x et 802.11x). L’histoire ne dit pas encore ce que
va faire l’IEEE maintenant que la lettre « z » est atteinte. Il faut faire une différence entre
lettres minuscules, relatives au standard, et lettres majuscules, relatives à des
recommandations non obligatoires.
La norme IEEE 802.11 définit les deux premières couches (basses) du modèle OSI, à savoir la
couche physique et la couche liaison de données. Cette dernière est elle-même subdivisée en
deux sous-couches, la sous-couche LLC (Logical Link Control) et la couche MAC (Medium
Access Control).
32
Le FHSS (Frequency Hopping Spread Spectrum) et le DSSS (Direct Sequence Spread
Spectrum) sont tous deux basés sur une large utilisation du spectre par le signal à émettre,
d’où la notion d’étalement. En FHSS, chaque communication utilise un canal de 1 MHz et
l’étalement se fait en faisant varier périodiquement la position de ce canal sur la largeur du
spectre alloué. Bien que présentant pas mal d’avantages, notamment au niveau de l’immunité
au bruit, le FHSS ne permet pas d’évoluer vers de très hauts débits et fut rapidement
abandonné.
Le DSSS prévoit un étalement du signal sur un canal de 30 MHz en le multipliant par un code
donné (chipping code). Le DSSS permet d’évoluer vers de plus hauts débits, ce que nous
verrons dans la suite de l’alphabet.
802.11B HIGHER SPEED PHY EXTENSION IN THE 2.4 GHZ BAND (1999)
Beaucoup plus proche du standard 802.11 d’origine, il reprend la bande de fréquences 2,4
GHz et le DSSS. Une amélioration des techniques de modulation lui permet d’atteindre des
débits théoriques de 11 Mbits/s. Lorsque les conditions de transmission se dégradent, la
modulation courante se replie automatiquement vers une autre de performances inférieures, le
processus pouvant se réitérer jusqu’au repli vers la modulation et les performances du 801.11
DSSS original. Bien sûr, il se produit la même chose en sens inverse, la modulation devenant
plus performante au fur et à mesure que les conditions de transmission s’améliorent.
33
L’édition b de 802.11 connut très rapidement un vif succès et pour mettre fin à l’anarchie des
implémentations du standard, la Wi-Fi Alliance (initialement WECA) édita des règles propres
à garantir l’interopérabilité des équipements. C’est alors qu’on commença à parler de Wi-Fi.
802.11g FURTHER HIGHER DATA RATE EXTENSION IN THE 2.4 GHZ BAND
(2003)
34
Nous avons vu que 802.11b était limité à des débits théoriques de 11 Mbits/s et qu’une
amélioration sensible du débit était obtenue par 802.11a. Ce dernier n’a pas eu un
développement foudroyant, en partie à cause des limitations d’émission dans la bande 5 GHz,
mais surtout à cause de son incompatibilité totale avec 802.11b, rendant impossible la
migration des réseaux existants.
Une alternative fut trouvée avec 802.11g, ratifié en 2003. Cette nouvelle version du standard
fonctionne dans la bande 2,4 GHz, comme 802.11b, mais utilise l’OFDM comme 802.11a, ce
qui lui permet d’atteindre le même débit théorique de 54 Mbits/s (toutefois les débits utiles
restent inférieurs à ceux de 802.11a). Un Access Point 802.11g sait gérer bien sûr des
terminaux 802.11g mais sait se replier en mode 802.11b pour supporter des terminaux de
génération antérieure (bien sûr l’inverse n’est pas vrai, un Access Point 802 .11b reste
802.11b !). Cette particularité permet donc une migration « en douceur » des réseaux, sans
avoir à intervenir immédiatement sur le parc de terminaux.
Depuis sa ratification, 802.11g s’est imposé sur le marché pour améliorer les performances
des réseaux sans fil. Sa prise de position massive a évidemment été facilitée par sa
compatibilité avec les équipements 802.11b.
35
Très attendu fut aussi 802.11i qui introduit des mécanismes avancés de sécurité dans les
réseaux 802.11.
Le standard 802.11 ne prévoyait qu’un mécanisme de sécurité plutôt faible, le WEP, qu’un
hacker bien entraîné pouvait « casser » en un quart d’heure. Cette fâcheuse caractéristique fut
bientôt contournée par des solutions propriétaires, bien sûr incompatibles, et l’IEEE revit sa
copie sur la sécurité. Dans une première phase, apparut un protocole WPA-1 (Wi-Fi Protected
Access), basé sur une authentification forte RADIUS et le protocole de gestion de clés TKIP,
permettant d’améliorer l’ancien WEP. Les équipements WEP ne nécessitent qu’une mise à
jour logicielle pour passer en WPA-1.
La seconde version WPA-2 est le résultat du processus de standardisation 802.11i qui est
l’aboutissement du processus de sécurisation du Wi-Fi. Il reprend les grandes lignes de WPA-
1 mais avec un mode de chiffrement AES, beaucoup plus puissant. L’envers de la médaille est
que les anciens équipements WEP doivent subir une mise à niveau matérielle pour supporter
WPA-2, par contre les équipements natifs WPA-1 sont prêts pour la migration.
- Le nombre de trames reçues de ces Access Points dans un intervalle de temps donné et le
délai.
- Le niveau sur chaque canal des interférences avec d’autres systèmes radio.
- Etc.
Ces informations sont stockées dans les terminaux et disponibles auprès du réseau via SNMP.
36
802.11 l
Non utilisé.
37
dues aux interférences, a pour autre conséquence l’amélioration de la portée de réseau en
termes de couverture radio.
Le standard 802.11n reprend l’OFDM des versions a et g et est compatible avec les deux
bandes de fréquences 2,4 et 5GHz. Il est possible de doubler la largeur canal dans la bande 5
GHz, moins encombrée, afin de quasiment doubler le débit.
38
Les PAN (Personal Area Network) regroupent des équipements contrôlés par un seul
utilisateur La norme 802.15 définit les PAN sans fil appelé WPAN (Wireless PAN) dont les
technologies sont le Bluetooth, les normes IEEE 802.15.3 (WPAN haut débit) et IEEE
802.15.4 (WPAN faible débit, Zig-Bee).
Le rôle du Bluetooth est de permettre la communication radio sur de courtes distances
Première norme de communication pour les WPAN approuvée en 2002 sous le numéro IEEE
802.15.1. Dans la bande des 2,4 Ghz, possibilité d'atteindre sur des distances inférieure à 10m,
jusqu'à 720 kbit/s.
39
adapte les protocoles de la couche supérieure à la couche bande de base. L2CAP offre un
service avec et sans connexion.
5- Protocole de découverte de service (SDP) : permet d'obtenir des informations sur les
services disponibles sur un équipement Le protocole de contrôle de téléphonie TCS BIN
(Telephony Control Specification – Binary) est orienté bit et définit la signalisation de
contrôle d'appel employée dans l'établissement de connexions pour la voix et les données
entre des équipements téléphoniques. Les protocoles adoptés sont des protocoles définies dans
des spécifications publiés par d'autres organismes normatifs mais pris en compte dans
l'architecture bluetooth. Ces protocoles sont les suivants
PPP : Permet le transport de datagrammes IP sur une liaison point à point.
TCP/UDP/IP : principaux protocoles au coeur du monde Internet.
OBEX : protocole d'échange d'objets de la couche session développé par IrDA (Infrared Data
Association). Il possède des fonctionnalités similaires à HTTP mais de façon simplifiée. Il
inclut également des modèles de représentation de données comme les formats vCard et
vCalendar.
WAE/WAP (Wireless Application Environment) et le WAP (Wireless Application Protocol)
utilisés par les téléphones portables ont également été intégrés dans l'architecture Bluetooth
La configuration réseau de base avec le Bluetooth est un piconet. Un piconet se compose d'un
équipement radio Bluetooth assurant le rôle de maître et de un à sept autres équipements
jouant le rôle d'esclaves. Le maître assure la synchronisation et la détermination du canal à
Utiliser.
Après le 802.15.1, le Bluetooth, le groupe IEEE 802.15.2 a publié en 2003 un document
récapitulant les pratiques recommandées sur la bande ISM des 2,4 Ghz La problèmatique de
la bande de fréquence ISM 2,4 Ghz est d'être utilisé à la fois pour le IEEE 802.11 et IEEE
802.15.
Le groupe IEEE 802.15.3 s'est ensuite penché sur le problème de la transmission à débit
beaucoup plus élevée qu'en Bluetooth, document initialement publié en 2003.
La même année, la norme 802.15.4 pour des débits très faibles, inférieurs au Bluetooth, mais
aussi pour des équipements d'un très faible coût Le 802.15.3. Pour le développement de
WPAN haut débit. Les applications concernées sont :
- les connexions entre appareil photo numérique et imprimante.
- les connexions entre ordinateurs portables et vidéo-projecteur.
- les connexions entre un haut-parleur et un appareil récepteur.
Les débits bruts sont > 110 Mbit/s sur des distances < 10 m Caractéristiques du 802.15.3
40
Faible portée : 10 m
Haut débit : > 20 Mbit/s pour supporter les flux vidéo et/ou audio multi-canaux
Faible consommation d'énergie
Faible coût
Qualité de Service permettant d'offrir un débit garanti
Supporte un environnement dynamique. L'apparition ou la disparition d'équipement ne doit
pas perturber le comportement du réseau. Une vitesse inférieure à 7 km/h doit être supportée
Connectivité simple sans connaissance particulière de l'utilisateur. Confidentialité IEEE
802.15.4
Cette norme spécifie 2 couches physiques :
- Une PHY DSSS sur la bande des 868/915 Mhz avec des débits de 20 et
40 kbit/s. une PHY DSSS dans la bande des 2,4 Ghz avec des débits de 250 kbits/s
Applications incluent les réseaux de capteurs, les jouets interactifs, les badges intelligents, la
domotique.
- La ZigBee Alliance travaille sur des spécifications pouvant opérer sur des
implémentations 802.15.4 et couvrant les couches réseau, sécurité et application.
41
42
43
44
45
IV- Les protocoles GSM
Tel quel, le réseau GSM (Global System for Mobile Communications, originally Groupe
Spécial Mobile) est adéquat pour les communications téléphoniques de parole. En effet, il
s'agit principalement d'un réseau commuté, à l'instar des lignes fixes et constitués de circuits,
c'est-à-dire de ressources allouées pour la totalité de la durée de la conversation. Rien ne fut
mis en place pour les services de transmission de données. Or, parallèlement au déploiement
du GSM en Belgique, en 1994, la société Netscape allait donner un tour spectaculaire à un
réseau de transmission de données, appelé Internet, en diffusant le premier logiciel de
navigation grand public, articulé sur le protocole http et communément appelé web.
1- Pile de protocoles
La figure en dessous représente l’architecture des protocoles GSM des différents éléments du
réseau. Au niveau applicatif, on distingue les protocoles suivants qui, au travers de différents
éléments du réseau, relient un mobile à un centre de communication (MSC) : 1. Le protocole
Call Control (CC) prend en charge le traitement des appels tels que l’établissement, la
terminaison et la supervision.
Permet l’envoi de courts messages au départ d’un mobile. La longueur d’un SMS est limité à
160 caractères de 7 bits, soit 140 bytes.
Prend en charge les compléments de services. La liste de ces services est longue mais, à titre
d’exemple, citons le Calling Line Identification Presentation (CLIP), le Calling Line
Identification Restriction (CLIR) et le Call Forwarding Unconditional (CFU).
46
5- Le protocole Radio Ressource management (RR)
S’occupe de la liaison radio. Il interconnecte une BTS et un BSC car ce dernier gère
l’attribution des fréquences radio dans une zone. Les trois premiers protocoles applicatifs pré-
cités (CC, SMS et SS) ne sont implémentés que dans les terminaux mobiles et les
commutateurs; leurs messages voyagent de façon transparente à travers le BSC et le BTS.
47
V- Les protocoles 3G
Apparue en 2000, la troisième génération (3G) désigne une génération de normes
de téléphonie mobile. Elle est représentée principalement par les normes Universal Mobile
Telecommunications System (UMTS) et CDMA2000, permettant
des débits (de 2 à 42 Mb/s définis par la dernière génération des réseaux UMTS : l'HSPA+
DC) qui sont bien plus rapides qu'avec la génération précédente, par exemple le GSM.
Les spécifications IMT-2000 (International Mobile Telecommunications for the year 2000) de
l'Union Internationale des Communications (UIT), définissent les caractéristiques de
la 3G (troisième génération de téléphonie mobile). Ces caractéristiques sont notamment les
suivantes :
144 Kbps avec une couverture totale pour une utilisation mobile,
384 Kbps avec une couverture moyenne pour une utilisation piétonne,
2 Mbps avec une zone de couverture réduite pour une utilisation fixe.
compatibilité mondiale,
compatibilité des services mobiles de 3ème génération avec les réseaux de seconde
génération,
La 3G propose d'atteindre des débits supérieurs à 144 kbit/s, ouvrant ainsi la porte à des
usages multimédias tels que la transmission de vidéo, la visio-conférence ou l'accès à internet
haut débit. Les réseaux 3G utilisent des bandes de fréquences différentes des réseaux
précédents : 1885-2025 MHz et 2110-2200 MHz.
48
8 à 10 Mbits/s. La technologie HSDPA utilise la bande de fréquence 5 GHz et utilise le
codage W-CDMA.
Une des particularités de la 4G est d'avoir un « cœur de réseau » basé sur IP et de ne plus
offrir de mode commuté (établissement d'un circuit pour transmettre un appel « voix »), ce qui
signifie que les communications téléphoniques utilisent la voix sur IP (en mode paquet).
Le réseau mobile 4G peut donc offrir un débit nettement supérieur à celui de la fibre optique
actuelle, du moins en théorie car en pratique il n'est pour l'instant "que" de quelques dizaines
de Mb/s, du fait que la bande passante soit partagée entre les différents utilisateurs du réseau
dans une même zone.
En France, la norme 4G utilisée est le LTE (Long Term Evolution) et elle utilise les bandes de
fréquences des 2 600 MHz et des 800 MHz.
Comme pour le passage de la 2G à la 3G, les terminaux mobiles doivent être adaptés à la
nouvelle génération 4G, ce qui est déjà le cas pour bon nombre de produits qui ont été mis sur
le marché récemment. En effet, qu'il s'agisse d'une clé mobile ou d'un smartphone, leur
adaptation aux nouveaux protocoles IPv6, fournis par la connexion 4G, est nécessaire. De leur
côté, les opérateurs commencent peu à peu à proposer des forfaits adaptés.
49
Chapitre 5
Les protocoles internet
I- Internet (historique et évolution)
50
II- Protocoles des services de messagerie (SMTP), POP, IMAP
Le principe d'utilisation du courrier électronique est relativement simple, c'est ce qui en a
rapidement fait le principal service utilisé sur internet. A la manière du service postal
classique, il suffit de connaître l'adresse de son expéditeur pour lui faire parvenir un message.
Le protocole SMTP (Simple Mail Transfer Protocol, traduisez Protocole Simple de Transfert
de Courrier) est le protocole standard permettant de transférer le courrier d'un serveur à un
autre en connexion point à point.
Il s'agit d'un protocole fonctionnant en mode connecté, encapsulé dans une trame TCP/IP. Le
courrier est remis directement au serveur de courrier du destinataire. Le protocole SMTP
fonctionne grâce à des commandes textuelles envoyées au serveur SMTP (par défaut sur
le port 25). Chacune des commandes envoyées par le client (validée par la chaîne de
caractères ASCIICR/LF, équivalent à un appui sur la touche entrée) et suivi d'une réponse du
serveur SMTP composée d'un numéro et d'un message descriptif.
51
SMTP est un protocole de type client / serveur.
En effet, il y a une session qui s'établit entre le programme client et le serveur SMTP.
Durant cette session, un jeu de commandes est utilisé.
Chaque commande envoyée par le client est suivie d'une réponse du serveur.
La réponse est de type :
<code><msg>[<précisions>]
Par exemple, la réponse suivante indique que la commande passée a correctement été reçue et
appliquée par le serveur :
250
POP signifie Post Office Protocol. Actuellement c'est la version 3 qui est utilisée.
Le service POP écoute sur le port 110 d'un serveur.
POP est avant tout un protocole très simple, de ce fait il ne propose que des fonctionnalités
basiques:
Malgré tout, ces fonctionnalités sont amplement suffisantes pour répondre aux besoins de la
plupart des utilisateurs.
+OK
52
-ERR <raison>
USER <nom_utilisateur>
PASS <mot_de_passe>
3/ Pour connaitre le nombre de messages présents sur le serveur ainsi que la taille totale des
messages :
STAT
4/ Pour lister les messages sur le serveur, avec pour chacun le numéro d’ordre dans la file de
messages et la taille en octets :
LIST
RETR <id_msg>
6/ Pour récupérer les premiéres lignes d’un message (l’en-tete et le début du message) :
DELE <id_msg>
QUIT
Il est possible de visualiser les échanges entre son client et le serveur POP de son Fournisseur
d'Accès à Internet (FAI) lorsque l'on utilise le logiciel de messagerie Outlook.
Pour cela, il faut cocher la case comme indiqué ci-dessous:
53
Le service POP3 est très simple mais propose toutes les fonctionnalités nécessaires pour la
gestion d'un compte mail. Ainsi, de par son efficacité, POP 3 reste l'un des protocoles les plus
utilisés pour récupérer ses mails.
POP3 présente tout de même quelque points faibles notamment le fait que le mot de passe
circule en clair sur le réseau lors de l'établissement de la connexion avec le serveur.
Le gros point noir de POP3 réside dans le fait de l'impossibilité de choisir les messages que
l'on souhaite rapatrier.
MAP signifie Internet Message Access Protocol, la version actuellement utilisée est la 4. Le
service IMAP écoute sur le port 143 d'un serveur.
54
Tout comme POP, IMAP est un protocole de récupération de mails. IMAP4 se pose donc
comme une alternative à POP3. Non seulement IMAP propose plus de services que POP,
mais ceux-ci sont aussi plus évolués. Une des principales nouveautés est la possibilité de
pouvoir lire uniquement les objets des messages (sans le corps).
Ainsi on peut par exemple effacer des messages sans les avoir lus.
Contrairement au protocole POP où tous les mails sont rapatriés du serveur vers le logiciel de
messagerie du client, avec IMAP, les mails restent stockés dans des dossiers sur le serveur.
Ceci permet de proposer de nombreuses fonctionnalités très pratiques, telles que :
●effacer, déplacer des messages sans les lire, éventuellement avec des règles de tri
automatique,
●rapatrier en local certains messages et pas d'autres, en faisant une copie ou un déplacement,
lire des messages en les laissant sur le serveur,
Ce protocole est de plus en plus utilisé. Et bien tout simplement, parce qu’en laissant les mails
sur le serveur, on peut y avoir accès de n’importe où (ordinateur à la maison, webmail en
vacances, smartphone, tablette, …).
Le principal inconvénient est qu’il faut être connecté pour mettre à jour ou lire les nouveaux
messages.
Il existe plusieurs serveurs IMAP, mais deux sortent du lot et dominent le marché.
Ces deux serveurs fonctionnent différemment :
55
IMAP, à l'instar de POP ou SMTP, est un protocole de type client / serveur.
Le client peut envoyer plusieurs commandes sans obligatoirement attendre à chaque fois la
réponse. Un tag précédant chacune des commandes doit être ajouté afin de permettre au
serveur de retrouver facilement la réponse à une commande donnée.
De plus chaque commande envoyée par le client est suivie d'une réponse par le serveur de la
forme suivante en cas de réussite :
Le nombre de commandes mises à disposition par un serveur IMAP est beaucoup plus
important qu'en POP (25 contre 12).
Les commandes présentées ici sont dans l'ordre chronologique d'utilisation.
2/ Il faut ensuite choisir la boite aux lettres que l'on souhaite utiliser :
Select inbox
3/ La commande Fetch est très puissante elle permet de faire de nombreuses et diverses
sélections auprès de la liste des messages et des messages eux-mêmes :
Logout
56
permet désormais de transférer des messages avec des en-têtes décrivant le contenu des
messages. Donc, en clair un protocole de transfert d’HyperText !
HyperText : un hypertexte est un texte contenant des liens qui permettent d’accéder
directement à d’autres ressources (documents, images, …). Si on regarde bien, les pages qui
sont affichées dans votre navigateur sont de l’hypertexte car elles contiennent des liens (vers
des URL).
Pour surfer sur le web, vous utilisez un navigateur Internet. En fonction de vos clicks ou de
vos saisies, celui-ci va appeler des pages contenues sur des serveurs, les récupérer et les
afficher. Comme le montre le schéma suivant:
En général, le surf commence par une adresse, que vous l’ayez saisie directement, ou
qu’elle soit le résultat d’un moteur de recherche (qui d’ailleurs est lui aussi lancé par une
adresse comme par exemple http://www.google.fr, il vous faut toujours une adresse pour aller
quelque part. Pour atteindre un serveur http, c’est pareil : on utilise une adresse.
57
Une adresse Internet est toujours constituée de la façon suivante :
(Il faut noter que le port, le chemin et la ressource peuvent alors être omis, alors ce sont les
valeurs par défaut qui seront utilisées).
(Attention, certains navigateurs n’affichent pas http://, ils considèrent que http étant la norme
par défaut, il n’est pas nécessaire de l’afficher).
http : C’est le protocole qui va être utilisé par le navigateur pour accéder au serveur et lui
adresser ces demandes: il faut que le navigateur sache dans quelle langue il doit parler au
serveur. Cette langue est appelée protocole.
58
o et si vous voulez accéder à l’ensemble des fichiers à télécharger sur Culture-
Informatique, vous pouvez donc cliquer sur : http://www.culture-
informatique.net/download/
o etc …
FTP veut dire « File Transfert Protocol » ou Protocole de transfert de Fichier. C’est donc un
langage qui va permettre l’échange de fichiers entre 2 ordinateurs (NAV, et plus
exactement entre un serveur et un client.
On parle alors de :
serveur FTP
client FTP
Il y a deux intervenants dans un échange FTP : le serveur et le client » ; (connexion au site
<culture informatique>.
Le serveur FTP est un logiciel qui va répondre aux demandes des clients. Lorsque le serveur
reçoit une demande, il vérifie les droits et si le client à les droits suffisants, il répond à cette
demande sinon la demande est rejetée.
Le client FTP C’est lui qui va être à l’initiative de toutes les transactions. Il se connecte au
serveur FTP, effectue les commandes (récupération ou dépôt de fichiers) puis se déconnecte.
Toutes les commandes envoyées et toutes les réponses seront en mode texte. Cela veut dire
qu’un humain peut facilement saisir les commandes et lire les réponses.
Le protocole FTP n’est pas sécurisé : les mots de passe sont envoyés sans cryptage entre le
client FTP et le serveur FTP. (Le protocole FTPS avec S pour « secure » permet de crypter les
données).
Il faut dire qu’autrefois, il était incontournable d’utiliser FTP pour télécharger des fichiers.
Maintenant, avec des connexions plus performantes, la plupart des téléchargements
s’effectuent avec le navigateur web, en cliquant sur les liens proposés et les téléchargements
démarrent directement. Pourtant dans certains cas encore, il est nécessaire d’utiliser FTP pour
télécharger des fichiers.
59
Vous pouvez également vous servir des services FTP pour échanger des fichiers avec
des personnes ou des entreprises.
Le protocole https a été créé pour pallier aux défauts de l’http, il est composé de deux
protocoles :
●le protocole ssl : c’est lui qui donne le S au protocole httpS (S pour Secure).
Grace à un échange de clés entre eux, le serveur et le client vont établir une connexion
chiffrée dont eux seuls pourront lire le contenu. Car seul le client et le serveur en possession
de la clé de décryptage pourront déchiffrer les données reçues.
Le protocole FTPS est le protocole de transfert de fichiers avec sécurité (S), c’est une
extension du protocole FTP qui ajoute des mécanismes /capacités basés sur la sécurité de la
couche de la sécurité SSL {soum}.
SSL = Secure Socket Layer. C'est un système qui permet d'échanger des informations
entre 2 ordinateurs de façon sûre. SSL assure 3 choses:
60
61