Plan D'exposé QoS

Télécharger au format docx, pdf ou txt
Télécharger au format docx, pdf ou txt
Vous êtes sur la page 1sur 6

I.

Introduction

A. Définition de la QoS

La Qualité de Service (QoS) est un concept essentiel en ingénierie réseau, visant à contrôler
et à améliorer l'efficacité du trafic réseau. Elle regroupe un ensemble de techniques
permettant de prioriser certains types de trafic sur les autres afin de garantir une transmission
optimale. Dans un réseau où plusieurs types de données circulent (vidéo, voix, données...), la
QoS permet de s'assurer que les applications sensibles à la latence, comme la
vidéoconférence ou la VoIP, ne soient pas affectées par des délais, des pertes de paquets ou
des variations de débit causées par le trafic moins prioritaire, comme les téléchargements de
fichiers ou les e-mails.

B. Importance de la QoS dans les réseaux modernes

Avec la numérisation croissante et l'augmentation exponentielle du volume de données


échangées, la gestion efficace de la bande passante est cruciale pour maintenir la qualité des
services offerts. La QoS est devenue incontournable dans les réseaux modernes, car elle
permet de répondre aux exigences des applications critiques (ex. : télémédecine, finance, jeux
en ligne). Elle garantit également une utilisation efficace des ressources réseau, en optimisant
les performances globales, réduisant ainsi les coûts opérationnels pour les fournisseurs de
services.

C. Objectifs de l'exposé

Cet exposé a pour but de fournir une compréhension approfondie des mécanismes et des
concepts qui sous-tendent la QoS. Nous explorerons les paramètres de QoS, les techniques de
classification du trafic, ainsi que les différents mécanismes de gestion de la QoS tels que le
policing, le shaping, le scheduling, et le marquage. Enfin, nous aborderons les défis actuels et
les perspectives futures de la QoS dans les réseaux.

II. Concepts de base de la QoS

A. Paramètres de QoS

Les paramètres de QoS sont des indicateurs clés permettant de mesurer et d'ajuster la qualité
du service dans un réseau. Les principaux sont :

1. Latence
La latence est le délai entre l'envoi d'un paquet de données par une source et sa
réception par la destination. Une faible latence est cruciale pour les applications
interactives telles que les jeux en ligne ou la vidéoconférence, où les retards peuvent
entraîner une dégradation perceptible de la qualité.
2. Jigue (ou variation de délai)
La jigue fait référence à la variation de latence dans la transmission des paquets. Un
réseau avec une grande jigue peut entraîner des problèmes dans les applications temps
réel comme la voix ou la vidéo, car les paquets n'arrivent pas de manière régulière.
3. Perte de paquets
Ce paramètre mesure le pourcentage de paquets qui sont perdus pendant la
transmission sur le réseau. Une perte élevée de paquets peut entraîner des coupures
dans les appels ou des images vidéo pixélisées. Une bonne gestion de la QoS permet
de minimiser ces pertes.
4. Débit (Throughput)
Le débit correspond à la quantité de données pouvant être transmises sur un réseau
pendant une période donnée. Une gestion efficace de la QoS veille à ce que les
applications critiques disposent du débit nécessaire pour fonctionner sans interruption.

B. Types de trafic réseau

Il existe différents types de trafic réseau, et leur gestion dépend de leurs besoins spécifiques :

1. Trafic temps réel


Ce type de trafic, comme la VoIP (voix sur IP) ou la vidéo en temps réel, est très
sensible à la latence, à la jigue et à la perte de paquets. Il nécessite donc une gestion
de la QoS stricte pour garantir une transmission fluide.
2. Trafic non temps réel
Le trafic non temps réel inclut les e-mails, les téléchargements de fichiers, ou la
navigation web. Ce type de trafic tolère mieux les délais et les variations, et ne
nécessite donc pas une QoS aussi rigoureuse que le trafic temps réel.

III. Classification du trafic

A. Différentiation des services

La différentiation des services est une méthode clé pour classer le trafic réseau et lui
attribuer des priorités différentes. Cela permet aux administrateurs réseau de s'assurer que les
flux critiques, tels que les appels téléphoniques ou la vidéo, reçoivent un traitement prioritaire
par rapport aux flux moins urgents, comme les téléchargements de fichiers.

B. Introduction au DSCP (Differentiated Services Code Point)

Le DSCP est une norme utilisée pour classifier le trafic réseau en fonction de son importance.
Le DSCP attribue une valeur à chaque paquet de données, permettant aux routeurs et
commutateurs de décider comment traiter et prioriser ce paquet.

1. Structure et fonctionnement du DSCP


Le DSCP utilise un champ de 6 bits dans l'en-tête IP pour classifier le trafic réseau en
différentes catégories de priorité. Ces catégories permettent de mettre en œuvre une
gestion différenciée du trafic, favorisant les applications critiques.
2. Valeurs DSCP courantes et leurs significations
Chaque valeur DSCP correspond à un niveau de priorité. Par exemple, EF (Expedited
Forwarding) est souvent utilisé pour les applications VoIP, garantissant une
transmission rapide et fiable. D'autres valeurs incluent AF (Assured Forwarding) pour
les applications moins prioritaires.
C. Exemple d’utilisation et de configuration

Dans un réseau d'entreprise, le DSCP peut être configuré pour prioriser les appels VoIP sur le
trafic de téléchargement. Les administrateurs peuvent définir des politiques afin que les
paquets contenant des données VoIP reçoivent une priorité élevée, réduisant ainsi la latence
et la perte de paquets.

IV. Mécanismes de gestion de la QoS

A. Policing

1. Définition et objectifs
Le policing consiste à limiter la bande passante utilisée par un flux en fonction de
règles prédéfinies. Si un flux dépasse la bande passante allouée, les paquets
excédentaires peuvent être soit rejetés, soit marqués pour un traitement avec une
priorité plus faible.
2. Méthodes de mise en œuvre
Le policing est souvent mis en œuvre au niveau des routeurs pour empêcher certains
flux de consommer trop de ressources réseau. Il s'agit d'une technique strictement
punitive, dans le sens où les paquets dépassant les seuils sont rejetés.
3. Avantages et inconvénients
Un avantage du policing est qu'il empêche une surcharge du réseau par des flux
gourmands en bande passante. Cependant, il peut entraîner une dégradation de la
qualité pour les applications sensibles lorsque les paquets sont rejetés.
4. Exemples d'utilisation
Le policing est utilisé pour limiter les débits de trafic dans les réseaux où la bande
passante est limitée, comme les réseaux d'accès public ou les réseaux mobiles.

B. Shaping

1. Définition et objectifs
Le shaping est une technique qui permet de lisser le trafic en retardant
temporairement certains paquets afin de respecter les limites de bande passante.
Contrairement au policing, le shaping n'élimine pas les paquets, mais les met en file
d'attente.
2. Différences avec le policing
La principale différence est que le shaping retarde les paquets pour les envoyer plus
tard lorsque la bande passante est disponible, tandis que le policing supprime les
paquets excédentaires.
3. Scénarios d'application
Le shaping est souvent utilisé dans les réseaux où la continuité du flux de données est
cruciale, comme les réseaux d'entreprise qui gèrent des applications critiques.
4. Cas d’utilisation et bénéfices
Par exemple, dans un réseau vidéo, le shaping peut être utilisé pour s'assurer que les
flux vidéo ne dépassent pas les limites de bande passante, tout en maintenant une
qualité de service acceptable.
C. Scheduling

1. Définition
Le scheduling, ou ordonnancement, consiste à planifier la manière dont les paquets
sont traités par les routeurs et les commutateurs lorsqu’ils sont en attente de
transmission. Le scheduling permet de définir un ordre de priorité dans lequel les
paquets sont envoyés sur le réseau, en fonction de leur classe de service (CoS) ou de
leur importance.
2. Techniques de planification (FIFO, WFQ, CBWFQ)
o FIFO (First In, First Out) : C’est la méthode la plus simple
d’ordonnancement, où les paquets sont envoyés dans l'ordre dans lequel ils
arrivent. Elle ne prend pas en compte la priorité ou le type de service, et
convient mal aux réseaux modernes nécessitant une gestion sophistiquée de la
QoS.
o WFQ (Weighted Fair Queuing) : Cette technique attribue une pondération à
chaque file d'attente en fonction de la classe de service. Les paquets de flux
avec une priorité plus élevée sont envoyés en premier, mais tous les flux
reçoivent une partie de la bande passante, selon leurs poids. WFQ permet une
meilleure gestion des différentes priorités.
o CBWFQ (Class-Based Weighted Fair Queuing) : Une évolution de WFQ,
CBWFQ offre plus de contrôle en classant les paquets en différentes
catégories, chaque catégorie ayant sa propre file d'attente pondérée. Cela
permet une meilleure différenciation des priorités pour chaque type de trafic.
3. Importance du scheduling pour la QoS
Le scheduling est crucial pour garantir que les applications critiques reçoivent le
traitement prioritaire dont elles ont besoin. Par exemple, dans un réseau avec du trafic
VoIP et des téléchargements de fichiers, le scheduling assure que la voix soit traitée
plus rapidement pour éviter des coupures ou des retards.
4. Impact sur la performance du réseau
Un bon ordonnancement permet d’optimiser l'utilisation des ressources réseau, en
équilibrant efficacement la charge entre les différents types de trafic. Cela évite les
goulets d’étranglement et améliore l’expérience utilisateur en garantissant que les
services sensibles bénéficient d'une bande passante suffisante.

D. Marking

1. Définition et processus
Le marquage est une technique permettant d'identifier les paquets pour leur appliquer
un traitement différencié sur le réseau. Chaque paquet peut être marqué avec une
priorité spécifique pour informer les équipements réseau (routeurs, commutateurs) sur
la manière dont ils doivent traiter ces paquets.
2. Types de marquage (DSCP, 802.1Q)
o DSCP (Differentiated Services Code Point) : Utilisé pour marquer les
paquets dans les réseaux IP, le DSCP attribue une valeur dans l'en-tête IP pour
classifier les paquets en fonction de leur importance.
o 802.1Q : Ce protocole de marquage est principalement utilisé dans les réseaux
locaux VLAN, où les paquets sont marqués pour définir des priorités à
l'intérieur des réseaux locaux virtuels (VLAN). Cela permet de gérer
efficacement les priorités au sein d'un même réseau local.
3. Impact sur le traitement du trafic
Le marquage permet aux dispositifs réseau de traiter les paquets selon leur priorité.
Par exemple, dans un réseau où la bande passante est limitée, un paquet VoIP marqué
avec une priorité élevée sera traité avant un paquet de téléchargement de fichier
marqué avec une priorité basse.

V. Mise en œuvre de la QoS dans les réseaux

A. Stratégies et meilleures pratiques

La mise en œuvre de la QoS nécessite une planification minutieuse et une gestion adaptée des
ressources réseau. Les meilleures pratiques incluent l'identification des types de trafic
critiques, la définition de règles de classification et de marquage, ainsi que l'application de
techniques de policing et de shaping appropriées. Il est important de surveiller régulièrement
les performances réseau pour ajuster la QoS en fonction des besoins changeants.

B. Outils et technologies

Les administrateurs réseau disposent de divers outils et technologies pour mettre en œuvre la
QoS. Parmi eux, les routeurs et commutateurs prennent en charge des mécanismes de gestion
du trafic, comme les ACL (Access Control Lists) pour la classification, le marquage DSCP
pour la différenciation des services, ainsi que des outils de monitoring pour analyser les
performances réseau.

C. Études de cas

1. QoS dans les réseaux d'entreprise


Dans les grandes entreprises, la QoS est utilisée pour garantir que les applications
critiques, telles que la vidéoconférence ou les systèmes de téléphonie, fonctionnent
sans interruption, même en période de congestion. Par exemple, une entreprise peut
configurer son réseau pour prioriser le trafic VoIP sur les transferts de fichiers
internes, afin d’éviter des coupures dans les communications.
2. QoS dans les réseaux de fournisseurs de services
Les fournisseurs d’accès à Internet (FAI) utilisent la QoS pour garantir la qualité de
leurs services tout en optimisant l'utilisation de leur infrastructure. Ils peuvent, par
exemple, offrir des niveaux de service différenciés à leurs clients en fonction de la
bande passante allouée et de la priorisation du trafic, garantissant ainsi que les
services haut de gamme (comme la télévision par Internet) ne soient pas affectés par
les usages plus classiques (navigation web).

VI. Défis et considérations

A. Limites des mécanismes de QoS

Même avec des mécanismes sophistiqués, la QoS a des limites. Dans des situations de
congestion extrême ou des réseaux de faible capacité, il peut être difficile de garantir une
qualité de service optimale. De plus, la gestion de la QoS nécessite des équipements
compatibles, et une configuration inadéquate peut entraîner des résultats inattendus, tels
qu'une baisse de la qualité pour certains services prioritaires.

B. Évolution des besoins en QoS avec l'augmentation du trafic

L’augmentation massive du trafic due à la prolifération des services numériques, des


appareils connectés et de l’Internet des objets (IoT) a entraîné un besoin croissant d’une
gestion plus fine de la QoS. Les mécanismes traditionnels doivent être adaptés pour gérer les
nouveaux types de trafic et garantir que les réseaux puissent supporter des volumes de
données toujours plus importants sans compromettre la qualité des services essentiels.

C. Interopérabilité entre différents équipements réseau

L'un des défis majeurs dans la mise en œuvre de la QoS est l'interopérabilité entre différents
équipements réseau, surtout dans les environnements hétérogènes où des équipements de
différents fournisseurs sont utilisés. Tous les dispositifs ne gèrent pas de la même manière les
standards comme le DSCP, ce qui peut rendre difficile une gestion cohérente de la QoS à
travers un réseau complet.

VII. Conclusion

A. Récapitulatif des points clés

Nous avons exploré les concepts de base de la QoS, les paramètres critiques (latence, gigue,
perte de paquets, débit), ainsi que les mécanismes de gestion tels que le policing, le shaping,
le scheduling et le marquage. La QoS joue un rôle crucial dans la gestion des réseaux
modernes, où elle permet de prioriser et d'optimiser les différents flux de données.

B. Importance continue de la QoS à l'ère numérique

À mesure que le trafic réseau continue de croître, la QoS restera un élément essentiel pour
garantir une expérience utilisateur satisfaisante. Les services sensibles, comme la
vidéoconférence, les jeux en ligne et la VoIP, nécessitent une gestion attentive pour éviter les
interruptions.

C. Perspectives futures sur la QoS

Avec l'évolution des réseaux, notamment avec l'avènement de la 5G et de l'Internet des objets
(IoT), les mécanismes de QoS devront s’adapter pour gérer des millions de nouveaux
dispositifs connectés et des applications encore plus sensibles à la qualité de service. Les
technologies émergentes, telles que la virtualisation des fonctions réseau (NFV) et les réseaux
définis par logiciel (SDN), joueront un rôle clé dans l'évolution future de la QoS.

Vous aimerez peut-être aussi