Main

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 140

𝑛 −

Maxime Chupin — 2022


𝑘
𝑥
𝑏
𝑀 0
𝑘 =
∑ 1
+ 1 1 )
− 𝑘 1 1
𝑦 𝑛 0 0 0 1
𝑎 𝑘 0 1 0 0 1
𝑁 1 0 1 0 1
= ( 1 𝜈 𝑡 𝑡
∑ 𝑘
𝐻 = 1 0
−2 i𝜋 d
𝑠(𝑡 )e
∶= ∫
)
̂𝑠(𝜈Introduction R
au
Traitement
du
Signal
Ce document est mis à disposition selon les termes de la licence Creative
Commons : « Attribution - Partage dans les mêmes conditions 4.0
International ».
Pour accéder à une copie de cette licence, merci de vous rendre à l’adresse
suivante :

https://creativecommons.org/licenses/by-sa/4.0/deed.fr
Table des matières

Introduction 1
0.1 Objectifs du cours . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.2 Chaîne de transmission numérique . . . . . . . . . . . . . . . 2
0.3 Les sons et les images . . . . . . . . . . . . . . . . . . . . . . . 4
0.3.1 Le son . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.3.2 Les images . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.4 Plan du cours . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1 Formule de Shannon-Nyquist et échantillonnage 7


1.1 Transformées de Fourier des fonctions 𝐿1 . . . . . . . . . . . . 8
1.1.1 Définitions et notations . . . . . . . . . . . . . . . . . . 8
1.1.2 Convolution . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.3 Le lemme de Riemann-Lebesgue . . . . . . . . . . . . . 12
1.1.4 La formule d’inversion . . . . . . . . . . . . . . . . . . 13
1.1.5 Dérivation et transformée de Fourier . . . . . . . . . . 16
1.1.6 Transformée de Fourier à deux dimensions . . . . . . . 18
1.2 Séries de Fourier des signaux 𝐿1loc . . . . . . . . . . . . . . . . . 19
1.2.1 Définitions, coefficients de Fourier . . . . . . . . . . . 19
1.2.2 Convolution . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.3 Le Noyau de Poisson et son application à la formule
d’inversion . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.3 Reconstruction des signaux périodiques . . . . . . . . . . . . . 27
1.3.1 Le théorème de Shannon-Nyquist . . . . . . . . . . . . 28
1.3.2 Phénomène de recouvrement de spectre . . . . . . . . 32
1.3.3 Sur-échantillonnage . . . . . . . . . . . . . . . . . . . . 35
1.4 Note bibliographique . . . . . . . . . . . . . . . . . . . . . . . 35

2 Quantification scalaire des signaux discrets 37


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2 Formulation mathématique . . . . . . . . . . . . . . . . . . . . 39
2.2.1 Cadre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.2 Erreur de distorsion de quantification . . . . . . . . . . 40
2.2.3 Taux de quantification . . . . . . . . . . . . . . . . . . 41
2.3 Quantification uniforme . . . . . . . . . . . . . . . . . . . . . 42
2.3.1 Quantification uniforme des sources uniformes . . . . 42

i
TABLE DES MATIÈRES

2.3.2 Quantification uniforme des sources non-uniformes . . 43


2.4 Quantification adaptative . . . . . . . . . . . . . . . . . . . . . 45
2.4.1 Approches online et offline . . . . . . . . . . . . . . . . 45
2.4.2 Quantification adaptative directe – offline . . . . . . . . 45
2.4.3 Quantification adaptative rétrograde – online . . . . . . 46
2.5 Quantification non-uniforme . . . . . . . . . . . . . . . . . . . 47
2.6 Note bibliographique . . . . . . . . . . . . . . . . . . . . . . . 48

3 Codage sans perte de l’information 49


3.1 Codage source et compression sans perte . . . . . . . . . . . . 50
3.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.2 Entropie et mesure de la quantité d’information . . . . 51
3.1.3 Propriétés d’un codage source . . . . . . . . . . . . . . 54
3.1.4 Algorithme de Huffman . . . . . . . . . . . . . . . . . 59
3.2 Codage canal et correction d’erreur . . . . . . . . . . . . . . . . 62
3.2.1 Une approche naïve . . . . . . . . . . . . . . . . . . . . 62
3.2.2 Codes linéaires par blocs . . . . . . . . . . . . . . . . . 63
3.2.3 Détection et correction d’erreur . . . . . . . . . . . . . 68
3.2.4 Syndrôme et matrice de vérification . . . . . . . . . . . 71
3.2.5 Codes de Hamming . . . . . . . . . . . . . . . . . . . . 74
3.3 Notes bibliographiques . . . . . . . . . . . . . . . . . . . . . . 77

4 Transformation de Fourier discrète 79


4.1 La transformée de Fourier discrète (TFD) . . . . . . . . . . . 80
4.1.1 Cadre et problèmes . . . . . . . . . . . . . . . . . . . . 80
4.1.2 Propriétés de la TFD et signaux périodiques discrets . . 81
4.2 L’algorithme FFT . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2.1 L’algorithme de Tuckey et Cooley . . . . . . . . . . . 83
4.3 Analyse numérique . . . . . . . . . . . . . . . . . . . . . . . . 84
4.4 Notes bibliographiques . . . . . . . . . . . . . . . . . . . . . . 85

5 Filtres numériques 87
5.1 Filtres linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.1.2 Propriétés des filtres . . . . . . . . . . . . . . . . . . . . 90
5.2 Stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2.1 Caractérisation . . . . . . . . . . . . . . . . . . . . . . 94
5.3 Filtres linéaires récursifs causaux . . . . . . . . . . . . . . . . . 94
5.3.1 Réponse impulsionnelle finie (RIF) et infinie (RII) . . . 95
5.3.2 Transformée en 𝑧 . . . . . . . . . . . . . . . . . . . . . 95
5.3.3 Fonction de transfert . . . . . . . . . . . . . . . . . . . 98

M. Chupin Version du 1er février 2023, 22 h 29 CET. ii


TABLE DES MATIÈRES

5.3.4 Stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . 100


5.3.5 Représentation en schéma-bloc . . . . . . . . . . . . . 101
5.4 Réponse fréquentielle . . . . . . . . . . . . . . . . . . . . . . . 101
5.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.4.2 Modification spectrale du signal d’entrée . . . . . . . . 103
5.4.3 Diagramme de Bode . . . . . . . . . . . . . . . . . . . 104
5.5 Synthèse de filtre . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.5.1 Filtres idéaux et gabarits . . . . . . . . . . . . . . . . . 105
5.5.2 Conception de filtres à RIF . . . . . . . . . . . . . . . . 106
5.5.3 Synthèse par transformation de Fourier discrète . . . 108
5.6 Notes bibliographiques . . . . . . . . . . . . . . . . . . . . . . 108

6 L’analyse temps/fréquences 109


6.1 Transformées de Fourier des fonctions 𝐿2 . . . . . . . . . . . 110
6.1.1 Définition et propriétés de 𝐿2 . . . . . . . . . . . . . . . 110
6.1.2 Transformation de Fourier . . . . . . . . . . . . . . . 111
6.2 La transformée de Fourier à fenêtre . . . . . . . . . . . . . . 113
6.2.1 Fonction fenêtre . . . . . . . . . . . . . . . . . . . . . . 113
6.2.2 Formule d’inversion . . . . . . . . . . . . . . . . . . . . 114
6.2.3 Le principe d’incertitude . . . . . . . . . . . . . . . . . 115
6.2.4 Spectrogramme . . . . . . . . . . . . . . . . . . . . . . 119
6.3 La transformation en ondelettes . . . . . . . . . . . . . . . . . 121
6.3.1 L’idée de base . . . . . . . . . . . . . . . . . . . . . . . 121
6.3.2 Localisation temps-fréquence . . . . . . . . . . . . . . 124
6.4 Aspects numériques et compression . . . . . . . . . . . . . . . 125
6.5 Notes bibliographiques . . . . . . . . . . . . . . . . . . . . . . 125

A Rappels d’intégration 127


A.1 Théorèmes de convergence . . . . . . . . . . . . . . . . . . . . 127
A.2 Théorèmes de Fubini et Tonelli . . . . . . . . . . . . . . . . 129

iii Version du 1er février 2023, 22 h 29 CET. M. Chupin


TABLE DES MATIÈRES

M. Chupin Version du 1er février 2023, 22 h 29 CET. iv


Introduction

Sommaire du chapitre
0.1 Objectifs du cours . . . . . . . . . . . . . . . 2
0.2 Chaîne de transmission numérique . . . . . 2
0.3 Les sons et les images . . . . . . . . . . . . . 4
0.3.1 Le son . . . . . . . . . . . . . . . . . 4
0.3.2 Les images . . . . . . . . . . . . . . . 5
0.4 Plan du cours . . . . . . . . . . . . . . . . . . 6

Ce cours concerne le traitement du signal. C’est un vaste sujet tant les


signaux sont présents tout autour de nous, proviennent de sources très diverses.
Le signal est le support de l’information. Le traitement du signal traite des
opérations possibles sur ces signaux, et elles sont nombreuses : la transmission,
le filtrage, avec notamment la réduction du bruit qui vient perturber le signal,
la compression, le contrôle, etc. Si cette discipline trouve son origine dans les
sciences de l’ingénieur avec l’électronique et l’automatique, elle fait aujourd’hui
largement appel à un large spectre de domaines mathématiques. Dans ce cours,
on essaiera de balayer un certain nombre de thématiques tout en essayant d’être
suffisamment précis et rigoureux.
Énormément de choses qui nous entourent peuvent être considérées comme
des signaux. On distingues deux grands types de signaux :
— les signaux analogiques qui sont des signaux physiques devenus la
plupart du temps électriques à l’aide de capteurs. On peut penser au
signal à la sortie d’un microphone, aux senseurs thermiques, optique,
etc.
— Les signaux numériques eux sont issus d’ordinateurs et de terminaux.
Les signaux à traiter proviennent de sources très diverses : le son, les images,
la vidéo, les échanges sur internet, le Wi-Fi, etc. La plupart d’entre eux, pour
être modifiés ou transportés, sont soit des signaux numériques, soit transformés
en signaux numériques (par numérisation).
Le traitement du signal peut avoir de multiples finalités comme la détection
d’un signal, l’estimation de grandeurs à mesurer, le codage, et la compressions
des signaux en vue du stockage et de la transmission, l’amélioration de sa
qualité, la modification du signal (effets sonores par exemple).

1
TABLE DES MATIÈRES

0.1 Objectifs du cours


Le but principal de ce cours est de mieux comprendre les techniques, mé-
thodes et outils mathématiques utilisés dans ce qu’on appelle habituellement le
traitement numérique du signal.
Ce faisant, il doit permettre de mieux comprendre les différents problèmes
scientifiques rencontrés. Plus généralement, l’objectif est aussi de familiariser le
lecteur et la lectrice à un domaine qui occupe de nos jours une place importante
dans la plupart des objets techniques de la vie courante.
Parmi les multiples finalités du traitement du signal, nous nous intéresse-
ront principalement à son échantillonnage (transformation d’un signal analo-
gique en signal numérique), à son codage, à son traitement et sa compressions.
Mis à part le cours d’intégration et l’analyse de Fourier, peu de prérequis
sont nécessaires pour l’aborder. Les outils mathématiques abordés dans ce cours
ont souvent une portée qui dépasse le simple cadre du traitement numérique du
signal, si bien que le cours a aussi vocation à ouverture scientifique et culturelle.

0.2 Chaîne de transmission numérique


Prenons l’exemple de la transmission d’une conversation téléphonique, et
voyons quelles sont les différentes procédures que subit le signal entre son
émission et sa réception.

Conversion analogique-numérique

Lorsque l’on parle dans le microphone d’un téléphone, les vibrations acous-
tiques sont transformées en une tension oscillante par l’intermédiaire d’une
membrane et d’un électro-aimant qui convertit ainsi le signal mécanique en
signal électrique. C’est à ce moment qu’intervient la conversion analogique-
numérique, c’est-à-dire le passage du continu au discret, de l’analogique au
numérique, de R → R à Z → Z en quelque sorte. Le temps et les valeurs prises
par la tension sont des valeurs continues, à valeur dans R. Pour obtenir un
signal complètement numérique, la tension est donc discrétisée en temps et en
valeur. Concrètement, cela revient à prendre une série de photos instantanées
des valeurs de la tension, puis de projeter les valeurs obtenues sur une grille
fixe. Dans le vocabulaire du traitement numérique du signal, ces deux étapes
sont respectivement appelées échantillonnage et quantification. L’ensemble de
ces deux étapes constitue la conversion analogique-numérique, souvent notée
C.A.N.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 2


TABLE DES MATIÈRES

Codage et compression

Revenons à notre exemple de conversation téléphonique. Les normes sui-


vies dans les télécommunications sont fixées au niveau international par l’IUT,
l’union internationale de télécommunications, c’est-à-dire un important (en
taille et en influence) groupement d’ingénieur·e·s et d’expert·e·s des télécom-
munications. Dans notre exemple, le signal analogique (la tension issue de la
conversion signal mécanique en signal électrique) est échantillonné à 8 kHz
et quantifié sur 8 bits. Cela signifie que l’on relève la valeur de la tension 8000
fois par seconde, et que la valeur obtenue est remplacée par une valeur choisie
sur une grille en comportant 256 = 28 . Si l’on voulait transmettre telle quelle la
liste de 0 et de 1 obtenue après ces deux étapes, il faudrait donc disposer d’un
canal de transmission de débit 64 kBits par seconde.
Au début des années 50, on pensait que ce débit était très peu compressible
et qu’il fallait concevoir des dispositifs de transmission supportant de tels débits.
À l’heure actuelle, on transmet correctement une conversation téléphonique
à l’aide d’un canal de débit de 4 kBits par seconde. Comment a-t-on fait pour
réduire autant (plus de 10 fois !) le volume d’informations à transmettre ?
On a fait appel à des techniques de compression. L’ensemble de ces mé-
thodes, appelées codage source développées à partir des années 50, peut être
divisé en deux grandes catégories : la compression avec et la compression sans
perte. Un représentant célèbre de la première catégorie est le format mp3, et un
représentant célèbre de la seconde catégorie est le logiciel 7-zip. Toujours dans
l’exemple de la conversation téléphonique, ces deux techniques sont utilisées
pour obtenir le débit de 4 kBits par seconde. Ce débit prend en compte un autre
traitement qu’a subi le signal à transmettre, le codage canal qui, au contraire de
la compression, ajoute des redondances pour permettre de corriger les erreurs
éventuelles qui vont intervenir lors de la transmission. Signalons que c’est éga-
lement ce type de techniques qui permet de lire correctement des CD ou des
DVD rayés.

Modulation et transmission dans le canal

Le signal — codé — peut alors être envoyé dans le canal de transmission


qui peut être selon le téléphone utilisé, un câble en cuivre (cas courant du
téléphone fixe), une fibre optique, l’atmosphère (cas du téléphone portable),
l’espace (cas des communications par satellite)… Le but est alors d’adapter les
symboles numériques, i.e. la séquence de 0 et de 1, au canal de transmission
choisi. Concrètement, si l’on souhaite transmettre 1 bit en Δ𝑡 seconde, il s’agit
de construire un signal analogique qui garde une caractéristique constante
pendant Δ𝑡 seconde. Toute cette étape est généralement désignée sous le terme

3 Version du 1er février 2023, 22 h 29 CET. M. Chupin


TABLE DES MATIÈRES

de modulation. Dans le canal, le signal codé subit des altérations de nature très
variées, que le codage canal va pouvoir corriger.

Réception et décodage

À la réception en sortie de canal, interviennent séquentiellement les opé-


rations inverses de celles présentées ci-dessus. On effectue donc une démodu-
lation, un décodage canal, un décodage source et finalement une conversion
numérique-analogique.
L’ensemble de cette chaîne de transmission est reproduite dans la figure 1.

Échantillonnage Quantification Codage source Codage canal Modulation

Conversion analogique-numérique
Chapitre 1 Chapitre 2 Chapitre 3 & 5-7 Chapitre 3

Conversion numérique-analogique Décodage source Décodage canal Démodulation

Figure 1 – La chaîne de transmission du signal et chapitres correspondants

0.3 Les sons et les images


Les signaux sonores et les images sont de bonnes illustrations pour les
méthodes exposées dans ce cours.

0.3.1 Le son
Un son est un ébranlement élastique de l’air, d’un fluide ou d’un solide
qui se manifeste par des variations de pression autour de la pression moyenne
du milieu. Lorsque le milieu est homogène, l’onde sonore se propage à vitesse
constante 𝑐 appelée célérité, célérité qui va dépendre du milieu.
Ces variations de pression sont modélisées par une fonction, et cette fonction
peut-être décomposée, sous certaines hypothèses, en somme de cosinus et de
sinus (série de Fourier). Pour les sons simples, il suffit d’ailleurs de peu de
fonctions sinus et cosinus pour décrire correctement le son.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 4


TABLE DES MATIÈRES

En reliant un microphone à un oscilloscope, on peut observer l’évolution


temporelle de la pression acoustique lorsqu’une note est jouée avec un instru-
ment de musique. Une note produite peut être décomposée en quatre phases
successives :
— la phase d’attaques ;
— le déclin ;
— la phase de maintien ;
— la chute.
Durant la phase de maintien, le signal est quasi périodique dont la forme
sur une période est propre à l’instrument. C’est la périodicité de cette partie
qui constitue la fréquence principale et donc la note que l’on définit comme
la hauteur d’une note. Le timbre d’une note est directement lié à la forme du
signal pendant la phase de maintien.

0.3.2 Les images


Une onde. La lumière est une onde électromagnétique. Nos yeux détectent
les ondes électromagnétiques, mais une toute petite part d’entre elles, celles
dont la longueur d’onde est comprise entre 380 et 760 nm. Ce sont ces ondes
qu’on appelle les ondes lumineuses. Les fréquences correspondantes sont très
élevées, environ 1 million de milliards d’oscillations par seconde (c’est-à-dire
1000 milliards de fois les fréquences des sons). Là encore, comme il y a onde,
l’analyse de Fourier est très importante.
Mathématiquement, une image est une fonction 𝑓 ∶ (𝑥, 𝑦) ∈ R2 ↦ 𝑓(𝑥, 𝑦)
où 𝑓(𝑥, 𝑦) peut être un réel, appelé niveau de gris, pour une image monochro-
matique, ou bien un vecteur de R3 (ou R4 ) pour des images couleurs. L’espace
sans doute le plus connu est l’espace rouge-vert-bleu (RVB), où chaque compo-
sante du vecteur 𝑓(𝑥, 𝑦) ∈ R3 correspond à l’intensité de rouge, de vert ou de
bleu de la couleur à produire en (𝑥, 𝑦). Il y a d’autres codages de la couleur, par
exemple dans R4 avec l’espace cyan-magenta-jaune-noir (CMJN).
Ces décompositions sont cependant assez éloignées de la représentation
dîte psychovisuelle qui décrit une couleur selon les trois attributs :
La luminosité : (ou luminance) qui traduit le niveau énergétique de l’ob-
servation.
La teinte : qui indique une position dans la palette des couleurs visibles.
Elle correspond à la longueur d’onde d’un rayonnement monochroma-
tique provoquant une sensation dans le même ton coloré.
La saturation : qui traduit le degré de pureté de la teinte. En effet, le
rayonnement observé peut être considéré comme un mélange de lumière

5 Version du 1er février 2023, 22 h 29 CET. M. Chupin


TABLE DES MATIÈRES

blanche et de lumière de teinte pure. La saturation est le rapport entre


la luminosité de teinte pure et de celle du rayonnement total.

0.4 Plan du cours


Le plan du cours suit en partie les différentes étapes de la chaîne de trans-
mission qui vient d’être décrite. Les chapitres 1 et 2 portent sur les conditions
d’échantillonnage et les techniques de quantification 1 . Pour établir le résultat
principal du chapitre 1, nous introduirons les outils d’analyse de Fourier, outils
mathématiques fondamentaux dans le traitement du signal. Des techniques
de codage source sans perte de codage canal sont présentées au chapitre 3. Les
chapitres suivants permettent d’introduire la compression avec perte. Celle-ci
repose presque systématiquement sur la décomposition du signal. Dans le cadre
de ce cours, cette décomposition s’effectue suivant les composantes de Fourier
du signal à transmettre. On commence donc par introduire la transformation
de Fourier discrète ainsi qu’un algorithme très efficace permettant son calcul,
la transformée de Fourier rapide, encore appelée FFT au chapitre 4. On aborde
ensuite la notion de filtre numérique, outil indispensable à la décomposition
d’un signal numérique au chapitre 5. Enfin, dans le chapitre 6, nous aborderons
le traitement dit « temps/fréquence » où nous introduirons la transformée de
Fourier à fenêtre ainsi que la transformée en ondelettes.

1. Le chapitre 2 ne fait pas partie du contenu du cours, il est là, à titre d’information pour
répondre à la curiosité des plus investi·e·s.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 6


Chapitre
1
Formule de Shannon-Nyquist et échan-
tillonnage

Sommaire du chapitre
1.1 Transformées de Fourier des fonctions 𝐿1 . . 8
1.1.1 Définitions et notations . . . . . . . . 8
1.1.2 Convolution . . . . . . . . . . . . . . 11
1.1.3 Le lemme de Riemann-Lebesgue . . . 12
1.1.4 La formule d’inversion . . . . . . . . 13
1.1.5 Dérivation et transformée de Fourier 16
1.1.6 Transformée de Fourier à deux dimen-
sions . . . . . . . . . . . . . . . . . . 18
1.2 Séries de Fourier des signaux 𝐿1loc . . . . . . . 19
1.2.1 Définitions, coefficients de Fourier . 19
1.2.2 Convolution . . . . . . . . . . . . . . 21
1.2.3 Le Noyau de Poisson et son applica-
tion à la formule d’inversion . . . . . 23
1.3 Reconstruction des signaux périodiques . . . 27
1.3.1 Le théorème de Shannon-Nyquist . . 28
1.3.2 Phénomène de recouvrement de spectre 32
1.3.3 Sur-échantillonnage . . . . . . . . . . 35
1.4 Note bibliographique . . . . . . . . . . . . . 35

Dans ce chapitre, nous établissons un théorème fondamental du traitement


du signal. En effet, comme discuté dans l’introduction, les signaux analogiques,
pour leur traitement, sont discrétisés, et donc, il est nécessaire d’être capable, à

7
CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

partir de relevés discrets d’un signal, de le reconstruire entièrement. Ceci se


fait bien entendu au prix de quelques hypothèses de régularité sur le signal
que nous allons détailler. Ce théorème est connu sous le nom du théorème
d’échantillonnage, du théorème de Shannon ou bien encore du théorème de
Nyquist-Shannon. 1
La démonstration du théorème, ainsi que bon nombre de résultat de traite-
ment du signal reposent sur la théorie de la Transformation de Fourier 2 , théorie
au cœur du traitement du signal. Ainsi ce chapitre débute par quelques rappels
de résultats bien connus.

1.1 Transformées de Fourier des fonctions 𝐿1


Tout d’abord, donnons la définition de la transformée de Fourier.

1.1.1 Définitions et notations


Introduisons tout d’abord quelques notations. On note :

𝐿1 ∶= {𝑓 ∶ R → C, ∫ |𝑓| < +∞} .


R

Pour ce qui nous concerne, nous désignerons par signal stable une fonction de
𝐿1 .
Étant donnée une partie 𝐴 de R, on note 1𝐴 sa fonction indicatrice, c’est-à-
dire la fonction de R dans R qui vaut 1 sur la partie 𝐴 et 0 ailleurs.
Une fonction est dite à support borné si elle est nulle en dehors d’une partie
bornée de R. Venons-en à la définition qui nous intéresse.

Définition 1.1 — Transformée de Fourier dans 𝐿1


Soit 𝑠 ∈ 𝐿1 (R). La transformée de Fourier de 𝑠, notée 𝑠 ̂ est définie sur R
par la formule :
̂ ∶= ∫ 𝑠(𝑡)e−2i𝜋𝜈𝑡 d𝑡.
𝑠(𝜈)
R

1. (Wikipédia) À partir des années 1960, le théorème d’échantillonnage est souvent appelé
théorème de Shannon, du nom de l’ingénieur qui en a publié la démonstration en posant les
bases de la théorie de l’information chez Bell Laboratories en 1949. Quelques années plus tard,
on joint à ce nom celui de Nyquist, de la même entreprise, qui avait ouvert la voie dès 1928.
2. Joseph Fourier (21 mars 1768, Auxerre - 16 mai 1830, Paris) est un mathématicien et
physicien français, connu pour ses travaux sur la décomposition de fonctions périodiques en
séries trigonométriques convergentes appelées séries de Fourier.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 8


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

La transformée de Fourier se note aussi ℱ(𝑠) = 𝑠.̂

Remarque 1.1 :
Plusieurs conventions sont possibles pour la définition de la transformée de
Fourier : sans constante dans l’exponentielle (2𝜋), soit avec une constante
1/2𝜋 facteur de l’intégrale. Le seul changement dans les résultats se situe
au niveau des constantes dans les formules.

Remarque 1.2 :
— Le cadre fonctionnel 𝐿1 (R) est un cadre naturel pour la transformée
de Fourier. En effet, avec ce cadre là, la transformée 𝑠 ̂ est bien définie
pour tout 𝜈 dans R puis que (𝑥 ↦ 𝑠(𝑥)e−2i𝜋𝜈𝑥 ) ∈ 𝐿1 . Nous verrons
que dans ce cadre fonctionnel, la transformée de Fourier n’est pas
toujours inversible.
— La transformée de Fourier peut être étendue aux fonctions 𝐿2 par
un passage à la limite, cadre dans lequel elle est un isomorphisme
et une isométrie (théorème de Plancherel). On adoptera ce cadre
fonctionnel au chapitre 6.
— La transformée de Fourier peut être considéré dans l’espace des dis-
tributions tempérées de Laurent Schwartz qui contient tous les 𝐿𝑝 et
dans lequel elle est encore inversible. Beaucoup de références de trai-
tement du signal se placent dans ce cadre là. Nous ne l’aborderons
presque pas ici.

Exercice 1.1 :
Montrer que pour 𝑇 > 0, la transformée de Fourier d’une fonction fenêtre,
encore appelée signal rectangulaire,définie par

∀𝑡 ∈ R, rect𝑇 (𝑡) ∶= 1[−𝑇/2,𝑇/2] (𝑡)

est donnée par :

sin(𝜋𝜈𝑇)

ect𝑇 (𝜈) ∶= 𝑇 sinc(𝜋𝜈𝑇) = 𝑇 .
𝜋𝜈𝑇
Voir figure 1.1 pour un tracé.

9 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

𝑇
1

−3 −2 −1 0 1 2 3
−𝑇/2 0 𝑇/2 𝑇 𝑇 𝑇 𝑇 𝑇 𝑇 𝑇

Figure 1.1 – Fonction fenêtre et sa transformée de Fourier

Exercice 1.2 :
Soit 𝑓 une fonction de 𝐿1 (R) paire. Montrez que :
+∞
∀𝜈 ∈ R, ℱ(𝑓)(𝜈) = 2 ∫ 𝑓(𝑡) cos(2𝜋𝜈𝑡)d𝑡.
0

Exercice 1.3 :
Soit 𝑎 > 0 et
𝑓 ∶ 𝑡 ∈ R ↦ e−𝑎|𝑡| .
Montrez que
2𝑎
∀𝜈 ∈ R, ℱ(𝑓)(𝜈) = .
𝑎2 + 4𝜋2 𝜈2

On montre par le calcul la proposition suivante :

Proposition 1.1 : Soit 𝑠 un signal stable. Alors, on a :

Transformations 𝑓 𝑓ˆ
Délais 𝑓 ∶ 𝑡 ↦ 𝑠(𝑡 − 𝑡0 ) 𝑓ˆ ∶ 𝜈 ↦ e−2i𝜋𝜈𝑡0 𝑠(𝜈)
̂

Modulation 𝑓 ∶ 𝑡 ↦ e2i𝜋𝜈0𝑡 𝑠(𝑡) 𝑓ˆ ∶ 𝜈 ↦ 𝑠(𝜈


̂ − 𝜈0 )
1 𝜈
Op. linéaires 𝑓 ∶ 𝑡 ↦ 𝑠(𝑎𝑡) 𝑓ˆ ∶ 𝜈 ↦ 𝑠 ̂( )
|𝑎| 𝑎

𝑓 ∶ 𝑡 ↦ 𝜆𝑠(𝑡) 𝑓ˆ ∶ 𝜈 ↦ 𝜆𝑠(𝜈)
̂

𝑓 ∶ 𝑡 ↦ 𝑠∗ (𝑡) 𝑓ˆ ∶ 𝜈 ↦ 𝑠(−𝜈)
̂ ∗

M. Chupin Version du 1er février 2023, 22 h 29 CET. 10


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

Exercice 1.4 :
Démontrer les résultats de la proposition 1.1.

Exercice 1.5 :
Montrer que la transformée de Fourier est linéaire et continue dans 𝐿1 (R).

1.1.2 Convolution
Une loi de composition est généralement associée à la transformée de
Fourier, c’est le produit de convolution 3 . Nous verrons que cette loi de com-
position donne les clés pour comprendre et analyser les problèmes soulevés
par la conversion d’un signal analogique en signal digital (CAN : conversion
analogique-numérique) et aussi pour la conversion inverse, d’un signal digital
en un signal analogique (CNA : convertion numérique-analogique).

Définition 1.2 — Convolution


Soit 𝑎, 𝑏 deux fonctions de 𝐿1 . On définit le produit de convolution ou
convolée de 𝑎 et 𝑏 par la formule :

∀𝑡 ∈ R, 𝑎 ⋆ 𝑏(𝑡) = ∫ 𝑎(𝑡 − 𝑢)𝑏(𝑢)d𝑢.


R

Cette définition a bien un sens car d’après le théorème de Tonelli (voir


annexe A), on a :

∫ ∫ |𝑎(𝑡 − 𝑢)||𝑏(𝑢)|d𝑢 d𝑡 = (∫ |𝑎|) × (∫ |𝑏|) ,


R R R R

et donc :
∫ |𝑎(𝑡 − 𝑢)||𝑏(𝑢)|d𝑢 < +∞ 𝑝.𝑝.,
R

par conséquent 𝑡 ↦ ∫R 𝑎(𝑡 − 𝑢)𝑏(𝑢)d𝑢 est définie presque partout.

3. qui elle aussi peut être généralisée à des cadres plus larges que celui des fonctions de
𝐿1 (R).

11 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

Attention, ici le vocabulaire diverge entre physicien·ne·s et mathémati-


cien·ne·s. En mathématiques, on parle de convolée de deux fonctions, alors que
les physicien·ne·s emploient le terme convoluée.
On vérifie aisément que cette loi de composition est commutative et asso-
ciative. Le lien avec la transformée de Fourier est donné par le lemme suivant.

Lemme 1.1 Soit 𝑎, 𝑏 deux fonctions de 𝐿1 . On a :

𝑎ˆ ̂ ̂
⋆ 𝑏 = 𝑎𝑏.

Autrement dit, la transformée de Fourier change le produit de convolution


en simple produit.
Preuve : La fonction 𝑎 ⋆ 𝑏 étant intégrable, d’après le théorème de Fubini nous avons :

∫ (∫ 𝑎(𝑡 − 𝑢)𝑏(𝑢)d𝑢) e−2i𝜋𝜈𝑡 d𝑡 = ∫ 𝑏(𝑢) (∫ 𝑎(𝑡 − 𝑢)e−2i𝜋𝜈(𝑡−ᵆ) d𝑡) e−2i𝜋ᵆ d𝑢


R R R R
̂ ̂
= 𝑎𝑏,

ce qui achève la preuve. 

Exercice 1.6 :
Soit 𝑎 de classe 𝒞 1 , stable de dérivée 𝑎′ stable, et soit 𝑏 un signal stable.
Montrer que
d
∀𝑡 ∈ R, (𝑎 ⋆ 𝑏)(𝑡) = 𝑎′ ⋆ 𝑏(𝑡).
d𝑡

1.1.3 Le lemme de Riemann-Lebesgue


Dans les démonstrations que nous verrons dans la suite, nous ferons souvent
appel à des passages à la limite sous le signe intégral. Nous aurons en particulier
besoin du résultat suivant, généralement appelé Lemme de Riemann-Lebesgue.

Lemme 1.2 — Lemme de Riemann-Lebesgue La transformée de


Fourier d’un signal 𝑠 stable vérifie :

lim |𝑠(𝜈)|
̂ = 0.
|𝜈|→+∞

Preuve : On procéde en trois étapes.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 12


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

1. Pour un signal rectangulaire, nous avons vu à la section 1.1.1 qu’il existe un


𝐾 > 0 tel que :
𝐾
|𝑠(𝜈)|
̂ ≤ .
|𝜈|
Le résultat est donc vrai dans ce cas.
2. Ce résultat s’étend aux combinaisons linéaires finies de signaux rectangulaires,
c’est-à-dire aux fonctions étagées.
3. Soit maintenant un signal stable 𝑠 et un réel 𝜈. Par densité des fonctions éta-
gées dans 𝐿1 , nous savons qu’il existe une suite de fonctions étagées (𝑠𝑛 )𝑛∈N
vérifiant :
lim ∫ |𝑠𝑛 (𝜈) − 𝑠(𝜈)d𝜈| = 0.
𝑛→∞
R

avec, d’après le point précédant,

𝐾𝑛
|𝑠ˆ𝑛 (𝜈)| ≤ .
|𝜈|

Par linéarité de l’intégral :

∀𝜈 ∈ R, ∫ 𝑠(𝑡)e−2i𝜋𝜈𝑡 d𝑡 = ∫ (𝑠(𝑡) − 𝑠𝑛 (𝑡)) e−2i𝜋𝜈𝑡 d𝑡 + ∫ 𝑠𝑛 (𝑡)e−2i𝜋𝜈𝑡 d𝑡,


R R R

puis par inégalité triangulaire, nous obtenons :

|𝑠(𝜈)|
̂ ≤ |𝑠ˆ𝑛 (𝜈)| + ∫ |𝑠(𝑡) − 𝑠𝑛 (𝑡)|d𝑡
R
𝐾
≤ 𝑛 + ∫ |𝑠(𝑡) − 𝑠𝑛 (𝑡)|d𝑡,
|𝜈| R

qui peut être rendu arbitrairement petit, sous réserve que |𝜈| soit suffisamment
grand. 

1.1.4 La formule d’inversion


Les résultats précédents nous indiquent que la transformée de Fourier d’un
signal stable tend vers 0. On peut également montrer qu’elle est uniformément
continue et bornée.
Par contre, elle ne constitue pas un signal stable. En effet, nous avons vu
que la transformée de Fourier du signal rectangulaire rect𝑇 pour 𝑇 ∈ R est
proportionnelle au sinus cardinal et que celui ci n’appartient pas à 𝐿1 (R).

13 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

Exercice 1.7 :
sin 𝑡
Montrer que la fonction 𝑡 ↦ n’appartient pas à 𝐿1 (R).
𝑡

Ainsi, la transformée de Fourier d’un signal stable n’est pas nécessairement


un signal stable.
L’inversion de la transformée de Fourier ne peut donc se faire que sur un
sous espace vectoriel de 𝐿1 .

Théorème 1.1 — Formule d’inversion de la transformée de


Fourier — Soit 𝑠 un signal stable, tel que sa transformée de Fourier 𝑠 ̂
soit également stable. Alors, pour presque tout 𝑡 :

2i𝜋𝜈𝑡
𝑠(𝑡) = ∫ 𝑠(𝜈)e
̂ d𝜈.
R

Preuve : (hors programme) On procède de nouveau en trois étapes.


1. Par un calcul simple, sans problème de convergence, on montre le résultat
pour les fonctions 𝑓𝛼,𝛽 , 𝛼 et 𝛽 deux réels, définies par :
2 +𝛽𝑡
∀𝑡 ∈ R, 𝑓𝛼,𝛽 (𝑡) = e−𝛼𝑡 .

2. On considère ensuite la fonction ℎ𝜍 définie par :


𝑡2
1 −
ℎ𝜍 (𝑡) = e 2𝜍2 ,
𝜎√2𝜋

dont la transformée de Fourier est :

ˆ𝜍 (𝜈) = e−2𝜋2𝜍2𝜈2 .

Étant donné un signal stable 𝑠, la formule d’inversion est vraie pour 𝑠 ⋆ ℎ𝜍 . En


effet :
— on a successivement :

𝑠 ⋆ ℎ𝜍 (𝑡) = ∫ 𝑠(𝑢)ℎ𝜍 (𝑡 − 𝑢)d𝑢


R
(𝑡−𝑢)2
1 −
= ∫ 𝑠(𝑢) e 2𝜍2 𝑑𝑢
R 𝜎√2𝜋
= ∫ 𝑠(𝑢)ℎ𝜍 (𝑢)𝑓 1
,
𝑢 (𝑡)d𝑢,
R 𝜍√2 𝜍2

M. Chupin Version du 1er février 2023, 22 h 29 CET. 14


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

— de plus :

𝑠(𝜈)
̂ ℎ ˆ𝜍 (𝜈) = ∫ ∫ 𝑠(𝑢)ℎ𝜍 (𝑢)𝑓 1 𝑢 (𝑡)e−2𝜋𝑖𝜈𝑡 d𝑡d𝑢
,
R R 𝜍√2 𝜍2

= ∫ 𝑠(𝑢)ℎ𝜍 (𝑢) ∫ 𝑓 1 , 𝑢 (𝑡)e−2𝜋𝑖𝜈𝑡 d𝑡 d𝑢,


R R 𝜍√2 𝜍2
⏟⎵⎵⎵⎵⎵⎵⏟⎵⎵⎵⎵⎵⎵⏟
𝑓ˆ 1 𝑢 (𝜈)
,
𝜍√2 𝜍2

— donc :

∫ 𝑠(𝜈)
̂ ℎ ˆ𝜍 (𝜈)e2i𝜋𝜈𝑡 d𝜈 = ∫ ∫ 𝑠(𝑢)ℎ𝜍 (𝑢)𝑓ˆ 1 𝑢 (𝜈)e2i𝜋𝜈𝑡 d𝑢d𝜈
,
R R R 𝜍√2 𝜍2

= ∫ 𝑠(𝑢)ℎ𝜍 (𝑢)𝑓 1
,
𝑢 (𝑡)d𝑢
R 𝜍√2 𝜍2

=𝑠 ⋆ ℎ𝜍 (𝑡),
ce qui constitue la conclusion recherchée.
3. Enfin, nous avons :
2 2 2
lim ℎ𝜍̂ (𝜈) = lim e2𝜋 𝜍 𝜈 = 1.
𝜍→0 𝜍→0
Par convergence dominée, ceci donne :

lim ∫ 𝑠(𝜈)
̂ ℎ ˆ𝜍 (𝜈)e2i𝜋𝜈𝑡 d𝜈 = ∫ 𝑠(𝜈)e
̂ 2i𝜋𝜈𝑡 d𝜈.
𝜍→0
R R
Il reste donc à montrer :
lim 𝑠 ⋆ ℎ𝜍 = 𝑠,
𝜍→0
dans 𝐿1 . Pour ce faire, en utilisant le fait que ∫R ℎ𝜍 (𝑢)d𝑢 = 1, notons que :
| |
∫ |𝑠 ⋆ ℎ𝜍 − 𝑠| = ∫ |∫ (𝑠(𝑡 − 𝑢) − 𝑠(𝑡))ℎ𝜍 (𝑢)d𝑢| d𝑡.
R R| R |
On pose alors 𝜙(𝑢) = ∫R |𝑠(𝑡 − 𝑢) − 𝑠(𝑡)|d𝑡. On a que 𝜙 ∈ 𝐿1 (R) (bornée par
2 ‖𝑠‖𝐿1 ) et nous obtenons :

∫ |𝑠 ⋆ ℎ𝜍 − 𝑠| ≤ ∫ 𝜙(𝑢)ℎ𝜍 (𝑢)d𝑢 = ∫ 𝜙(𝜎𝑢)ℎ1 (𝑢)d𝑢 = 𝐼𝜍 .


R R R

Il reste à montrer que lim𝜍→0 𝐼𝜍 = 0.


— Si 𝑠 est à support compact et continue, alors par uniforme-continuité, pour
toute suite 𝑢𝑛 tendant vers 0
lim |𝑠(𝑡 − 𝑢𝑛 ) − 𝑠(𝑡)| = 0.
𝑛→+∞
Donc, puisque 𝜙 est intégrable, on obtient par convergence dominée :
lim 𝐼𝜍 = 0.
𝜍→0

15 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

— On utilise la densité des fonctions continue à support compact dans 𝐿1 :


ainsi pour 𝑠 stable, il existe une suite de fonctions 𝑠𝑛 à support compact
qui converge vers 𝑠 dans 𝐿1 . On obtient alors le résultat cherché par l’inter-
médiaire de cette approximation. 

Exercice 1.8 :
En utilisant le résultat de l’exercice 1.3, et la transformée de Fourier inverse,
montrer que la transformée de Fourier de la fonction, pour 𝑏 ∈ R, définie
par
1
𝑓∶𝑡∈R↦ 2
𝑏 + 𝑡2
est
𝜋
ℱ(𝑓) ∶ 𝜈 ↦ e−2𝜋𝑏𝑡 .
𝑏

1.1.5 Dérivation et transformée de Fourier

Théorème 1.2 — Dérivation — Soit 𝑛 ∈ N.


1. Soit 𝑠 un signal dans 𝒞 𝑛 tel que toutes ses dérivées 𝑘-ième pour
𝑘 ∈ {1, … , 𝑛} sont 𝐿1 , alors

ℱ(𝑠(𝑘) ) = (𝜈 ↦ (2i𝜋𝜈)𝑘 𝑠(𝜈))


̂ .

2. Soit 𝑠 ∈ 𝐿1 tel que 𝑡 ↦ 𝑡𝑘 𝑠(𝑡) ∈ 𝐿1 pour tout 𝑘 ∈ {1, … , 𝑛} où


𝑛 ∈ N, alors sa transformée de Fourier est dans 𝒞 𝑛 et pour tout 𝑘,
on a
ℱ(𝑡 ↦ (−2i𝜋𝑡)𝑘 𝑠(𝑡)) = (𝜈 ↦ 𝑠(𝑘)
̂ (𝜈)) .

Preuve : Montrons tout d’abord la deuxième assertion. Avec la définition de la trans-


formée de Fourier, et grâce au théorème de différentiation sous l’intégrale où intervient
l’hypothèse 𝑡 ↦ 𝑡𝑘 𝑠(𝑡) ∈ 𝐿1 pour dominer la dérivée, on peut dérivée 𝑘 fois sous le
signe intégral et obtenir :

∀𝜈 ∈ R, 𝑠(𝑘)
̂ (𝜈) = ∫ (−2i𝜋𝑡)𝑘 𝑠(𝑡)e−2i𝜋𝜈𝑡 d𝑡.
R

La première assertion se prouve par récurrence. On prouve le résultat pour 𝑛 = 1 puis


on itère le procédé.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 16


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

Tout d’abord, on a que lim|𝑎|→∞ 𝑠(𝑎) = 0. En effet, soit 𝑎 > 0, on a :


𝑎
𝑠(𝑎) = 𝑠(0) + ∫ 𝑠′ (𝑡)d𝑡,
0

et puisque 𝑠′ ∈ 𝐿1 , la limite existe et est finie. Cette limite est alors 0 puis que 𝑠 est
intégrable. Ensuite, on a
+𝑎
∫ e−2i𝜋𝜈𝑡 𝑠′ (𝑡)d𝑡 = lim ∫ e−2i𝜋𝜈𝑡 𝑠′ (𝑡)d𝑡.
|𝑎|→∞
R −𝑎

Une simple intégration par partie donne


+𝑎 +𝑎
+𝑎
∫ e−2i𝜋𝜈𝑡 𝑠′ (𝑡)d𝑡 = [e−2i𝜋𝜈𝑡 𝑠(𝑡)]−𝑎 + ∫ (2i𝜋𝜈)e−2i𝜋𝜈𝑡 𝑠(𝑡)d𝑡.
−𝑎 −𝑎

Il suffit alors de faire tendre 𝑎 vers +∞ pour obtenir le résultat. 

Exercice 1.9 :
Montrer que la transformée de Fourier d’une gaussienne est une gaus-
sienne :
2 2 √𝜋 − 𝜋22 𝜈2
ℱ(𝑓 ∶ 𝑡 ↦ e−𝑏 𝑡 ) = (𝜈 ↦ e 𝑏 ).
|𝑏|
On pourra partir de l’équation différentielle que satisfait 𝑓, et d’en faire la
transformée de Fourier. On rappellera que

2 𝑡2 √𝜋
∫ e−𝑏 d𝑡 = .
R
|𝑏|

Exercice 1.10 :
Résoudre par transformée de Fourier l’équation de la chaleur suivante
𝜕𝜃 𝜕2 𝜃
=𝜅 2 ,
𝜕𝑡 𝜕 𝑥

— pour tout 𝑥 ∈ R et 𝑡 ∈ R, 𝜃(𝑥, 𝑡) est la température au temps 𝑡 au
point 𝑥 d’une barre unidimensionnelle de conductance 𝜅 ∈ R ;
— à 𝑡 = 0, on a pour tout 𝑥 ∈ R, 𝜃(𝑥, 0) = 𝑓(𝑥) avec 𝑓 ∈ 𝐿1 (R) et
𝑓ˆ ∈ 𝐿1 (R).

17 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

On supposera l’application partielle 𝑡 ↦ 𝜃(𝑥, 𝑡) suffisamment régulière et


intégrable, et on supposera l’application partielle 𝑥 ↦ 𝜃(𝑥, 𝑡) ∈ 𝐿1 (R).

1.1.6 Transformée de Fourier à deux dimensions


La transformée de Fourier dans R𝑛 est une extension simple de la transfor-
mée de Fourier à une dimension dont nous venons de rappeler les résultats qui
nous seront utiles dans ce cours.
Nous allons ici nous restreindre au cas bidimensionnel utile au traitement
des images par exemple.

Définition 1.3 — Transformée de Fourier dans 𝐿1 (R2 )


Soit 𝑠 ∈ 𝐿1 (R2 ). La transformée de Fourier de 𝑠, notée 𝑠 ̂ est définie sur R2
par la formule :

̂ 1 , 𝜈2 ) ∶= ∫ ∫ 𝑠(𝑥, 𝑦)e−2i𝜋(𝜈1𝑥+𝜈2𝑦) d𝑥 d𝑦.


𝑠(𝜈
R R

On a les résultats analogues aux précédents que nous synthétisons dans la


proposition suivante.

Proposition 1.2 : — Si 𝑠 et 𝑠 ̂ sont deux fonctions de 𝐿1 (R2 ) alors on a la for-


mule d’inversion pour tout 𝑥 ∈ 𝑅2 :

i2𝜋(𝜈⋅𝑥)
𝑠(𝑥) = ∬ 𝑠(𝜈)e
̂ d𝜈.
R2

— Si 𝑠 et ℎ sont deux fonctions de 𝐿1 (R2 ), alors la transformée de Fourier de


la convolution 𝑔 définie pour tout 𝑥 ∈ R2 par

𝑔(𝑥) = 𝑠 ⋆ ℎ(𝑥) = ∬ 𝑠(𝑢)ℎ(𝑥 − 𝑢)d𝑢,


R2

est, pour tout 𝜈 ∈ R2 :


𝑔(𝜈)
̂ = 𝑠(𝜈) ̂
̂ ℎ(𝜈).

M. Chupin Version du 1er février 2023, 22 h 29 CET. 18


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

1.2 Séries de Fourier des signaux 𝐿1loc

Un signal périodique n’est ni stable (𝐿1 (R)), ni d’énergie finie (𝐿2 (R)). Pour
ce type de signal, nous allons considérer leurs séries de Fourier. Celles-ci peuvent
être vues comme des transformées de Fourier particulières : il s’agit en effet de
transformées de Fourier de fonctions périodiques. Dans la suite, 𝐿1loc désigne
l’espace des signaux localement stable, i.e. :

𝐿1loc ∶= {𝑠; ∀𝐴 compact ⊂ R, 1𝐴 ⋅ 𝑠 ∈ 𝐿1 } .

1.2.1 Définitions, coefficients de Fourier


On rappelle le cadre fonctionnel considéré.

Définition 1.4 — Signal périodique


Soit 𝑇 > 0. Un signal 𝑠 est dit 𝑇-périodique si :

∀𝑡 ∈ R, 𝑠(𝑡 + 𝑇) = 𝑠(𝑡).

Un signal 𝑠 𝑇-périodique est dit de plus localement stable si 𝑠 ∈ 𝐿1loc .

Et dans le cas des fonctions périodiques, la transformée de Fourier est


définie sur un ensemble discret, c’est la suite des coefficients de Fourier.

Définition 1.5 — Transformée de Fourier dans 𝐿1loc


La transformée de Fourier (𝑠𝑛̂ )𝑛∈Z d’un signal localement stable 𝑠, 𝑇-
périodique, est définie par la formule :
𝑇
1 𝑛
−2i𝜋 𝑡
𝑠𝑛̂ ∶= ∫ 𝑠(𝑡)e 𝑇 d𝑡.
𝑇 0

Étant donné 𝑛 ∈ Z, 𝑠𝑛̂ est appelé 𝑛-ième coefficient de Fourier du signal


𝑠.

Les coefficients de Fourier permettent d’écrire les fonctions périodiques


localement intégrable comme une série :
+∞ 𝑛
2i𝜋𝑡
∀𝑡 ∈ [0, 𝑇], 𝑠(𝑡) = ∑ 𝑠𝑛̂ e 𝑇 .
𝑛=−∞

19 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

La convergence de ces séries de Fourier est un sujet à part entière et nous


n’établirons uniquement ici qu’un résultat de convergence presque partout,
résultat analogue à la formule d’inversion (voir théorème 1.1) dans le cas de la
transformée de Fourier dans 𝐿1 .
On notera 𝑛 𝑘
2i𝜋𝑡
𝑆𝑛 (𝑡) = ∑ 𝑠𝑘̂ e 𝑇 (1.1)
𝑘=−𝑛
la somme partielle.
Bien entendu d’autres résultats de convergence pour les séries de Fourier
existent et nous renvoyons à [5, 3] pour plus de détails.

Illustration graphique
Le vidéaste 3Blue1Brown 4 , mathématicien et vulgarisateur mathématique
sur YouTube, a réalisé une vidéo où il illustre la décomposition de Fourier d’un
chemin fermé par des animations de mécanismes d’engrenages de cercles mis
bout à bout. Le résultat est magnifique et envoûtant (voir figure 1.2).

Figure 1.2 – Vidéo Mais qu’est-ce qu’une série de Fourier ? Du transfert ther-
mique à des dessins avec des cercles du vidéaste 3Blue1Brown sur YouTube.

Cette animation est une application directe de la décomposition en séries


de Fourier. Ici, on considèrera une fonction périodique dans R2 (ou dans C).
Géométriquement, on peut voir la relation (1.1) comme une somme de
vecteurs de R2 (donc mis bout à bout) de norme le module du nombre com-
𝑘
2i𝜋𝑡
plexe 𝑠𝑘̂ e 𝑇 et, comme orientation, son argument. Ainsi, quand 𝑡 parcourt
4. https://www.youtube.com/watch?v=-qgreAUpPwM

M. Chupin Version du 1er février 2023, 22 h 29 CET. 20


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

l’intervalle [0, 𝑇], ces vecteurs bout à bout tournent et l’extrémité du dernier
vecteur dessine la courbe fermée 5 que l’on a décomposée.
En figure 1.3, vous pouvez voir une illustration de ceci appliqué au contour
de la lettre 𝑓. Si vous visionnez le PDF de ce document avec Acrobat Reader,
vous pourrez la voir sous forme d’animation 6 .

Figure 1.3 – Illustration de la décomposition en série de Fourier d’un contour


de lettre.

1.2.2 Convolution
Puisque le produit de convolution est une opération essentiellement algé-
brique, elle s’applique au cadre précédemment défini. On peut même convoler
5. Ou plutôt une approximation du contour.
6. Cette décomposition a été réalisée avec LuaLATEX !

21 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

des fonctions périodiques et des fonctions 𝐿1 , comme l’explique le résultat


suivant.

Lemme 1.3 Soit 𝑠 un signal localement stable 𝑇-périodique et ℎ un


signal stable. Alors la fonction 𝑔 définie par la formule :

𝑔(𝑡) ∶= ∫ ℎ(𝑡 − 𝑢)𝑠(𝑢)d𝑢


R

est 𝑇-périodique, définie presque partout et localement stable.


De plus son 𝑛-ième coefficient de Fourier est donné par la formule :
𝑛
𝑔𝑛̂ = ℎ ̂ ( ) 𝑠𝑛̂ .
𝑇

Cette dernière formule est à mettre en relation avec le fait que la transformée
de Fourier change un produit de convolution en produit.

Preuve : (hors programme) Par changement de variable, on a :

𝑇
∫ ℎ(𝑡 − 𝑢)𝑠(𝑢)d𝑢 = ∫ ℎ𝑇̃ (𝑡 − 𝑢)𝑠(𝑢)d𝑢,
R 0

où l’on a noté ℎ𝑇̃ (𝑢) = ∑𝑛∈Z ℎ(𝑢 + 𝑛𝑇). De plus, on peut montrer que 𝑔 est périodique
de période 𝑇 partout où elle est définie. En effet, en utilisant le fait que ℎ ⋆ 𝑠 = 𝑠 ⋆ ℎ,
on a
𝑔(𝑡 + 𝑇) = ∫ ℎ(𝑢)𝑠(𝑡 + 𝑇 − 𝑢)d𝑢 = ∫ ℎ(𝑢)𝑠(𝑡 − 𝑢)d𝑢 = 𝑔(𝑡).
R R

Comme :
𝑇
∫ |ℎ𝑇̃ (𝑢)|d𝑢 ≤ ∫ |ℎ(𝑢)|d𝑢 < +∞,
0 R

on a en utilisant le théorème de Fubini (voir annexe A)


𝑇 𝑇 𝑇
∫ |𝑔(𝑡)| d𝑡 ≤ ∫ ∫ |ℎ𝑇̃ (𝑡 − 𝑢)||𝑠(𝑢)|d𝑢d𝑡
0 0 0
𝑇
≤ ‖ℎ‖𝐿1 ∫ |𝑠(𝑢)| d𝑢
0
< +∞

Ainsi pour presque tout 𝑡 ∈ [0, 𝑇], 𝑡 ↦ ∫R ℎ(𝑡−𝑢)𝑠(𝑢)d𝑢 est définie, et par 𝑇-périodicité
pour presque tout 𝑡 ∈ R. On vérifie ensuite aisément que 𝑔 est localement stable et

M. Chupin Version du 1er février 2023, 22 h 29 CET. 22


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

enfin, on montre :
𝑇
1 𝑛
2i𝜋 𝑡
𝑔𝑛̂ = ∫ 𝑔(𝑡)e 𝑇 d𝑡
𝑇 0
𝑇 𝑇
1 𝑛
2i𝜋 𝑡
= ∫ ∫ ℎ𝑇̃ (𝑡 − 𝑢)𝑠(𝑢)e 𝑇 d𝑢d𝑡
𝑇 0 0
𝑇 𝑇
1 𝑛
2i𝜋 (𝑡−ᵆ)
𝑛
−2𝑖𝜋 ᵆ
= ∫ ∫ (ℎ𝑇̃ (𝑡 − 𝑢)e 𝑇 ) 𝑠(𝑢)e 𝑇 d𝑢d𝑡
𝑇 0 0
𝑛
= ℎ ̂ ( ) 𝑠𝑛̂ ,
𝑇
ce qui achève la preuve. 

La formule que nous venons d’obtenir sur les coefficients peut sembler
sophistiquée, mais elle nous sera utile par la suite.

1.2.3 Le Noyau de Poisson et son application à la formule d’inversion


Dans cette section nous établissons la formule de Poisson qui permet de
faire le lien entre transformée de Fourier et série de Fourier, et qui est une des
briques élémentaires de la preuve du Théorème de Shannon 7 -Nyquist 8 qui,
rappelons le, est le but de ce chapitre.

Noyau de Poisson
On introduit tout d’abord le noyau de Poisson et quelques-unes de ses
propriétés.

Définition 1.6 — Noyau de Poisson


Étant donné un réel 𝑟 appartenant à ] − 1, 1[ et 𝑇 > 0, on appelle noyau
de Poisson la fonction 𝑃𝑟 définie sur R et à valeur dans C par :
𝑛
2i𝜋 𝑡
𝑃𝑟 (𝑡) ∶= ∑ 𝑟|𝑛| e 𝑇 .
𝑛∈Z

7. Claude Elwood Shannon (30 avril 1916 Gaylord, Michigan - 24 février 2001) est un
ingénieur électricien et mathématicien américain. Il est l’un des pères, si ce n’est le père
fondateur, de la théorie de l’information.
8. Harry Nyquist (7 février 1889 Nilsby, Suède- 4 avril 1976, Harlingen, Texas) a été un
important contributeur à la théorie de l’information et à l’automatique. Ses travaux théoriques
sur la détermination de la bande passante nécessaire à la transmission d’information, publiés
dans l’article ”Certain factors affecting telegraph speed” posent les bases des recherches de
Claude Shannon.

23 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

Certaines propriétés de ce noyau sont indiquées dans la proposition suivante


que nous ne démontrerons pas.
Proposition 1.3 : La fonction 𝑃𝑟 vérifie :
𝑛 𝑛
2i𝜋 𝑡 −2i𝜋 𝑡 1−𝑟2
1. 𝑃𝑟 (𝑡) = ∑𝑛∈N 𝑟|𝑛| e 𝑇 + ∑𝑛∈N 𝑟|𝑛| e 𝑇 −1= 𝑡 2 .
| 2i𝜋 |
|1−𝑟e 𝑇 |
| |
2. Pour tout réel 𝑡, on a :
𝑃𝑟 (𝑡) ⩾ 0.
3. La fonction est normalisée :
𝑇/2
1
∫ 𝑃 (𝑡)d𝑡 = 1.
𝑇 −𝑇/2 𝑟
4. Pour tout 𝜀 > 0, on a :
1 1 − 𝑟2
∫ 𝑃𝑟 (𝑡)d𝑡 ⩽ 2
−−−→ 0.
𝑇 [−𝑇/2,𝑇/2]−[−𝜀,𝜀] ||1 − 𝑟e2i𝜋 𝑇𝜀 || 𝑟→1
| |

Formule d’inversion
Les propriétés 2, 3, 4 correspondent à ce que l’on appelle une identité appro-
chée. On a déjà rencontré cette notion, sans le signaler, avec la fonction ℎ𝜍 de
la preuve du théorème 1.1. Les identités approchées permettent de régulariser
les fonctions par convolution et d’utiliser ensuite des formules du type :
𝑇
1
lim ∫ 𝜑(𝑡)𝑃𝑟 (𝑡)d𝑡 = 𝜑(0), (1.2)
𝑟→1 𝑇
0
lorsque l’on souhaite revenir à la fonction initiale. C’est ce raisonnement que
nous allons maintenant effectuer avec le noyau de Poisson pour obtenir une
formule d’inversion.

Théorème 1.3 — formule d’inversion — Soit 𝑠 un signal 𝑇-


périodique localement stable, tel que

∑ |𝑠𝑛̂ | < +∞.


𝑛∈Z

Alors, pour presque tout 𝑡 ∈ R,


𝑛
2i𝜋 𝑡
𝑠(𝑡) = ∑ 𝑠𝑛̂ e 𝑇 .
𝑛∈Z

M. Chupin Version du 1er février 2023, 22 h 29 CET. 24


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

Autrement dit, si ∑𝑛∈Z |𝑠𝑛̂ | < +∞, la fonction 𝑠 est connue dès lors que ses
coefficients de Fourier sont connus.

Remarque 1.3 :
Si on suppose en outre que 𝑠 est continue, alors la formule d’inversion
devient vraie pour tout 𝑡 ∈ R.

Preuve : (hors programme) Par le calcul, on a :


𝑇
1 𝑛
2i𝜋 𝑡
∫ 𝑠(𝑢)𝑃𝑟 (𝑡 − 𝑢)d𝑢 = ∑ 𝑠𝑛̂ 𝑟|𝑛| e 𝑇 ,
𝑇 0 𝑛∈Z

puisque toutes les intégrales considérées sont convergentes. De plus :


𝑇| 𝑇 |
1
lim ∫ | ∫ 𝑠(𝑢)𝑃𝑟 (𝑡 − 𝑢)d𝑢 − 𝑠(𝑡)|| d𝑡 = 0,
|
𝑟→1
0 |
𝑇 0 |

d’après (1.2) et le théorème de convergence dominée. Par conséquent la suite de fonc-


𝑛
2i𝜋 𝑡
tions 𝜑𝑟 (𝑡) ∶= ∑𝑛∈Z 𝑠𝑛̂ 𝑟|𝑛| e 𝑇 (indexée par 𝑟) converge dans 𝐿1loc vers 𝑠. D’autre part,
𝑛
2i𝜋 𝑡
puisque ∑𝑛∈Z |𝑠𝑛̂ | < +∞, la fonction 𝜑𝑟 (𝑡) tend vers ∑𝑛∈Z 𝑠𝑛̂ e 𝑇 ponctuellement.
On utilise alors le résultat du cours d’intégration suivant :

« Si une suite de fonction 𝑓𝑛 converge vers 𝑓 dans 𝐿𝑝 et vers 𝑔 presque partout, alors 𝑓 = 𝑔
presque partout »

pour conclure que pour presque tout 𝑡 ∈ R :


𝑛
2i𝜋 𝑡
𝑠(𝑡) = ∑ 𝑠𝑛̂ e 𝑇 .
𝑛∈Z 

Au passage, on en déduit le résultat suivant.

Corollaire 1.1 : Deux signaux 𝑇-périodiques stable ayant les mêmes coefficients de
Fourier sont égaux presque partout.

Formule de Poisson faible


Le théorème suivant établit un lien entre séries de Fourier et transformée
de Fourier.

25 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

Théorème 1.4 — Formule de Poisson faible — Soit 𝑠 un signal stable


et 𝑇 > 0. La série ∑𝑛∈Z 𝑠(𝑡 + 𝑛𝑇) converge presque partout vers une fonc-
tion 𝜙 𝑇-périodique, localement intégrable et dont le 𝑛-ième coefficient
de Fourier est donné par la formule :
1 𝑛
𝜙ˆ𝑛 = 𝑠 ̂ ( ) .
𝑇 𝑇

Formellement, ce théorème nous dit que 𝜙 est telle que :

∀𝑡 ∈ R, 𝜙(𝑡) = ∑ 𝑠(𝑡 + 𝑛𝑇).


𝑛∈Z

De plus, 𝜙 est 𝑇-périodique et sa série de Fourier formelle 𝑆𝑓 est :

1 𝑛 2i 𝜋 𝑡
𝑆𝑓 (𝑡) = ∑ 𝑠 ̂( ) e 𝑇 .
𝑇 𝑛∈Z 𝑇

On utilise ici le mot formelle car nous ne disons rien sur la convergence de
cette série de Fourier.

Remarque 1.4 :
Si on arrive à montrer 𝜙(0) = 𝑆𝑓 (0), alors on aura la formule de Poisson
forte : pour tout 𝑠 ∈ 𝐿1 ,
𝑛
𝑇 ∑ 𝑠(𝑛𝑇) = ∑ 𝑠 ̂ ( ) .
𝑛∈Z 𝑛∈Z
𝑇

Ce résultat faible nous suffira pour établir le théorème de Shannon-Nyquist


dans la section suivante.
Preuve : On montre aisément que 𝜙 est 𝑇-périodique. Notons ensuite que 𝜙 est bien
définie, puisque :
𝑇 𝑇
∫ ∑ |𝑠(𝑡 + 𝑛𝑇)|d𝑡 = ∑ ∫ |𝑠(𝑡 + 𝑛𝑇)|d𝑡
0 𝑛∈Z 𝑛∈Z 0
(𝑛+1)𝑇
= ∑∫ |𝑠(𝑡)|d𝑡 (1.3)
𝑛∈Z 𝑛𝑇

= ∫ |𝑠(𝑡)|d𝑡 < +∞,


R

et que donc ∑𝑛∈Z |𝑠(𝑡 + 𝑛𝑇)| < +∞ presque partout.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 26


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

La formule (1.3) montre en outre que 𝜙 est localement intégrable. On peut donc
calculer son coefficient de Fourier. On obtient :
𝑇
1 −2i𝜋 𝑡
𝑛
𝜙ˆ𝑛 = ∫ 𝜙(𝑡)e 𝑇 d𝑡
𝑇 0
𝑇
1 𝑛
−2i𝜋 𝑡
= ∫ ( ∑ 𝑠(𝑡 + 𝑘𝑇)) e 𝑇 d𝑡
𝑇 0 𝑘∈Z
𝑇
1 𝑛
−2i𝜋 (𝑡+𝑘𝑇)
= ∫ ( ∑ 𝑠(𝑡 + 𝑘𝑇)e 𝑇 ) d𝑡
𝑇 0 𝑘∈Z
1 𝑛
−2i𝜋 𝑡
= ∫ 𝑠(𝑡)e 𝑇 d𝑡
𝑇 R
1 𝑛
= 𝑠 ̂( ) ,
𝑇 𝑇
ce qui achève la preuve. 

Pour aller un peu plus loin vers la version forte, on peut énoncer le résultat
suivant.

𝑛
Proposition 1.4 : Soit 𝑠 un signal stable tel que ∑𝑛∈Z ||𝑠 ̂ ( )|| < +∞. Alors :
𝑇

1 𝑛 2i𝜋 𝑛 𝑡
∑ 𝑠(𝑡 + 𝑛𝑇) = ∑ 𝑠 ̂( ) e 𝑇 .
𝑛∈Z
𝑇 𝑛∈Z 𝑇

Ce résultat est en fait une simple application de la formule d’inversion


obtenue au théorème 1.3.

1.3 Reconstruction des signaux périodiques


Dans cette dernière section nous allons répondre aux deux questions sui-
vantes :
1. Étant donné un signal analogique, quels critères doivent-être appliqués
pour en extraire une suite discrète représentative ?
2. Comment reconstruire un signal analogique à partir d’un échantillon
discret de valeurs ?
Les réponses à ces deux questions sont en partie données par le théorème
de Shannon-Nyquist, lui-même obtenu à partir de la formule de Poisson vue à
la section précédente.

27 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

1.3.1 Le théorème de Shannon-Nyquist

Avant d’énoncer le théorème, on montre deux résultats préliminaires.

Lemme 1.4 Soit 𝑠, un signal stable et continu, de transformée de Fourier


𝑠 ̂ stable et un réel 𝐵 > 0. Supposons que :
𝑛
∑ ||𝑠 ( )|| < +∞. (1.4)
𝑛∈Z
2𝐵

Alors :
1 𝑛 −2i𝜋𝜈 𝑛
∑ 𝑠(𝜈
̂ + 2𝑗𝐵) = ∑ 𝑠( )e 2𝐵 ,

𝑗∈Z
2𝐵 𝑛∈Z 2𝐵
pour presque tout 𝜈 ∈ R.

Preuve : D’après la formule de Poisson faible, la fonction 𝜈 ↦ 𝜙(𝜈) = ∑𝑗∈Z 𝑠(𝜈


̂ + 2𝑗𝐵)
est localement intégrable et son 𝑛-ième coefficient de Fourier vaut :

1 −2i𝜋
𝑛𝜈
𝜙ˆ𝑛 = ∫ 𝑠(𝜈)e
̂ 2𝐵 d𝜈.
2𝐵 R

Mais puisque 𝑠 ̂ est stable, on peut appliquer la formule d’inversion du théorème 1.1.
Dans notre cas, celle-ci s’écrit :

−2i𝜋
𝑛𝜈
1 𝑛
∫ 𝑠 ̂ (𝜈) e 2𝐵 d𝜈 = 𝑠 (− ) .
R
2𝐵 2𝐵

En combinant les deux formules, nous obtenons donc formellement :

1 𝑛 −2i𝜋 𝑛𝜈
𝜙(𝜈) = ∑ 𝑠( )e 2𝐵 .
2𝐵 𝑛∈Z 2𝐵

Mais l’hypothèse (1.4), permet l’utilisation du théorème d’inversion 1.3 et donc justifie
rigoureusement cette dernière formule. 

Montrons maintenant un second lemme technique. .

M. Chupin Version du 1er février 2023, 22 h 29 CET. 28


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

Lemme 1.5 Soit 𝑠 un signal vérifiant les hypothèses du lemme 1.4 et ℎ


un signal de la forme :

ℎ(𝑡) = ∫ 𝜒(𝜈)e2i𝜋𝜈𝑡 d𝜈, (1.5)


R

où 𝜒 est stable. Alors, le signal :


1 𝑛 𝑛
𝑠(𝑡)
̃ = ∑ 𝑠 ( ) ℎ (𝑡 − ) (1.6)
2𝐵 𝑛∈Z 2𝐵 2𝐵

admet la représentation :

̂ + 2𝑗𝐵)) 𝜒(𝜈)e2i𝜋𝜈𝑡 d𝜈.


̃ = ∫ ( ∑ 𝑠(𝜈
𝑠(𝑡)
R 𝑛∈Z

Preuve : Notons tout d’abord que 𝑠 ̃ est borné et continu, en tant que somme d’une série
normalement convergente (en plus des hypothèses sur 𝑠, ℎ est bornée, et uniformément
continue).
En remplaçant ℎ par sa valeur dans (1.6), on obtient :

1 𝑛 𝑛
2i𝜋𝜈(𝑡− )
𝑠(𝑡)
̃ = ∑ 𝑠 ( ) ∫ 𝜒(𝜈)e 2𝐵 d𝜈
2𝐵 𝑛∈Z 2𝐵 R
1 𝑛 − 2i𝜋𝜈𝑛
=∫ ∑ 𝑠 ( ) e 2𝐵 𝜒(𝜈)e2i𝜋𝜈𝑡 d𝜈,
R 𝑛∈Z
2𝐵 2𝐵

où on a utilisé le théorème de Fubini, applicable car :

𝑛 𝑛
∫ ∑ ||𝑠 ( )|| ⋅ |𝜒(𝜈)| d𝜈 = ( ∑ ||𝑠 ( )||) ⋅ (∫ |𝜒(𝜈)| d𝜈) < +∞.
R 𝑛∈Z
2𝐵 𝑛∈Z
2𝐵 R

Donc :
̃ = ∫ 𝑔(𝜈)𝜒(𝜈)e2i𝜋𝜈𝑡 d𝜈,
𝑠(𝑡)
R
avec :
1 𝑛 − 2i𝜋𝜈𝑛
𝑔(𝜈) = ∑ 𝑠 ( ) e 2𝐵 ,
𝑛∈Z
2𝐵 2𝐵
ou encore, d’après le lemme 1.4 :

𝑔(𝜈) = ∑ 𝑠(𝜈
̂ + 2𝑗𝐵),
𝑗∈Z

ce qui conduit au résultat annoncé. 

29 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

On peut alors énoncer le fameux théorème de Shannon-Nyquist.

Théorème 1.5 — de Shannon-Nyquist — Soit 𝑠, un signal stable et


continu dont la transformée de Fourier 𝑠 ̂ s’annule en dehors d’un intervalle
[−𝐵, 𝐵]. Supposons également que (1.4) soit vérifiée. Alors,
𝑛
𝑠(𝑡) = ∑ 𝑠 ( ) sinc ((2𝐵𝑡 − 𝑛)𝜋). (1.7)
𝑛∈Z
2𝐵

Dans le cadre temporel, ce théorème nous dit que si un signal n’a pas de
fréquence plus haute que 𝐵 hertz, alors il est complètement déterminé par les
valeurs discrètes séparées de 1/2𝐵 seconde.
Ainsi le théorème de Shannon-Nyquist nous indique comment choisir une
fréquence d’échantillonnage lorsqu’on a des informations sur le support de la
transformée de Fourier du signal 9 considérée.
Démontrons ce théorème.
Preuve : Définissons 𝜒 par la formule :

𝜒 = 1[−𝐵,𝐵] ,

de telle sorte que la fonction ℎ de lemme 1.5 soit définie par :


sin(2𝜋𝐵𝑡)
∀𝑡 ∈ R, ℎ(𝑡) = 2𝐵 sinc(2𝜋𝐵𝑡) = 2𝐵 .
2𝜋𝐵𝑡
Alors :
( ∑ 𝑠(𝜈
̂ + 2𝑗𝐵)) 𝜒(𝜈) = 𝑠(𝜈)𝜒(𝜈)
̂ = 𝑠(𝜈),
̂
𝑗∈Z

d’après le choix de 𝜒 et l’hypothèse faite sur le support de 𝑠.̂


Le lemme 1.5 donne alors :

2i𝜋𝜈𝑡 d𝜈 = 1 𝑛 𝑛
̃ = ∫ 𝑠(𝜈)e
𝑠(𝑡) ̂ ∑ 𝑠 ( ) ℎ (𝑡 − ),
R
2𝐵 𝑛∈N 2𝐵 2𝐵

puis, par le théorème d’inversion 1.1, on obtient :

∫ 𝑠(𝜈)e
̂ 2i𝜋𝜈𝑡 d𝜈 = 𝑠(𝑡),
R

ce qui achève la démonstration. 

La fonction 𝜒 joue donc finalement le rôle d’une troncature, puisqu’elle


tronque artificiellement le support de la fonction considérée.
9. Les ingénieurs parlent plutôt de spectre d’un signal.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 30


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

Échantillonnage, distribution de Dirac et illustration **


Lorsqu’on utilise le cadre des distributions tempérées (voir [2, 11]), alors
l’échantillonnage d’un signal 𝑠 revient à multiplier ce signal par un peigne de
Dirac.

Définition 1.7 — Distribution de Dirac


La distribution de Dirac, notée 𝛿0 , peut être vue comme la forme linéaire
continue de norme 1 définie par :

𝒟(R) → R
𝛿0 ∶
𝜙 ↦ ⟨𝛿0 , 𝜙⟩ ∶= 𝜙(0)

où 𝒟(R) est l’ensemble des fonctions 𝒞 ∞ à support compact.

Par abus de langage, cette distribution est souvent expliquée comme étant
une « fonction » qui vaut zéro partout, sauf en 0 où sa valeur infinie correspond
à une « masse » de 1.
À partir de cette distribution, on peut définir un outil important de traite-
ment du signal.

Définition 1.8 — Peigne de Dirac


Le peigne de Dirac III est défini par

def
III𝑇 = ∑ 𝛿𝑘𝑇
𝑘=−∞

où pour 𝑎 ∈ R, 𝛿𝑎 est la masse de Dirac translatée en 𝑎, i.e. :

𝒟(R) → R
𝛿𝑎 ∶ .
𝜙 ↦ ⟨𝛿𝑎 , 𝜙⟩ ∶= 𝜙(𝑎)

Grâce au peigne de Dirac, l’échantillonnage d’un signal 𝑠 de fréquence 1/𝑇,


noté 𝑠𝑇 , est alors simplement sa multiplication avec le peigne de Dirac.
+∞
𝑠𝑇 (𝑡) = ∑ 𝑠(𝑛𝑇)𝛿𝑛𝑇 (𝑡),
𝑛=−∞

avec l’abus de notation 𝛿𝑎 (⋅) comme « fonction ».


Cette formalisation donne une bonne vision de l’échantillonnage qui cor-
respond au fait de prendre des points sur le graph du signal, voir figure 1.4.

31 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

𝑉 𝑉

1 1

𝑂 𝑡 𝑂 𝑡

(a) Le signal. (b) Le peigne de Dirac.


𝑉

𝑂 𝑡

(c) Le signal échantillonné.

Figure 1.4 – Procédé d’échantillonnage d’un signal vu comme multiplication


du signal avec un peigne de Dirac.

1.3.2 Phénomène de recouvrement de spectre

Si le support de la transformée de Fourier du signal, ou encore le spectre du


signal, est inclus dans l’intervalle [−𝐵, 𝐵], alors, une fréquence d’échantillon-
nage correcte est 𝑓𝑒 = 1/2𝐵, parfois appelée fréquence de Nyquist. Mais que se
passe-t-il lorsqu’on sous-échantillonne, c’est-à-dire, lorsque l’hypothèse faite sur
le support n’est plus valide ?
Sans passer par l’analyse de Fourier, on peut se convaincre qu’il faut une
certaine fréquence d’échantillonnage 1/𝑇 pour être capable de reconstruire le
signal, sans même le traiter. La figure 1.5 montre un signal sinusoïdale, un
échantillonnage de celui-ci, et le signal sinusoïdale qu’on peut reconstruire à
partir des échantillon.
Supposons donc que l’affirmation supp(𝑠)̂ ⊂ [−𝐵, 𝐵] soit fausse. Après mul-
tiplication de 𝑠 ̂ par 1[−𝐵,𝐵] , c’est-à-dire convolution par ℎ(𝑡) = 2𝐵 sinc(2𝜋𝐵𝑡),

M. Chupin Version du 1er février 2023, 22 h 29 CET. 32


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

Signal analogique
Signal reconstitué
Echantillon

𝑇
Figure 1.5 – Phénomène de sous-échantillonnage.

on se ramène au cadre précédent et on a :


𝑛
̃ = ∑ 𝑠(
𝑠(𝑡) ) sinc ((2𝐵𝑡 − 𝑛)𝜋).
𝑛∈Z
2𝐵

Quelle est la transformée de Fourier de ce signal ?

Proposition 1.5 : Soit 𝑠 un signal stable et continu tel que la condition (1.4) soit
satisfaite. Alors le signal :
𝑛
̃ = ∑ 𝑠(
𝑠(𝑡) ) sinc ((2𝐵𝑇 − 𝑛)𝜋),
𝑛∈N
2𝐵

admet la représentation :

̂̃
̃ = ∫ 𝑠(𝜈)e
𝑠(𝑡) 2i𝜋𝜈𝑡
d𝜈,
R

avec :
̂̃ = ( ∑ 𝑠(𝜈
𝑠(𝜈) ̂ + 2𝑗𝐵)) 1[−𝐵,𝐵] (𝜈). (1.8)
𝑗∈Z

La démonstration de ce résultat s’obtient en reprenant ligne à ligne celle du


théorème 1.5. La figure 1.6 donne une illustration de ce phénomène.
En conséquence, on voit que les supports des fonctions dans la somme (1.8)
vont se recouvrir sur les bords de l’intervalle [−𝐵, 𝐵], ce qui altérera le spectre

33 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

𝑠(𝜈)
̂

−𝑊−𝐵 𝐵 𝑊

𝑠(𝜈
̂ + −4𝐵) 𝑠(𝜈
̂ + −2𝐵) 𝑠(𝜈
̂ + 0𝐵) 𝑠(𝜈
̂ + 2𝐵) 𝑠(𝜈
̂ + 4𝐵)

−4𝐵 −2𝐵 0𝐵 2𝐵 4𝐵

̂̃
𝑠(𝜈)

−𝑊−𝐵 𝐵 𝑊

Figure 1.6 – Illustration du phénomène de recouvrement de spectre, phéno-


mène connu sous le nom d’aliasing.

du signal reconstruit et par conséquent, le signal lui-même. Ce phénomène est


appelé recouvrement du spectre ou encore, en anglais, aliasing.
La conclusion pratique que l’on peut tirer de cette proposition est que,
lorsque l’on souhaite discrétiser 10 un signal, il faut tout d’abord en tronquer le
spectre — à l’aide d’un filtre, voir les chapitres 5 — puis l’échantillonner à une
fréquence au moins égale à celle de Nyquist.
Un exemple simple est celui de la numérisation de signaux sonores. Les
fréquences audibles pour un nourrisson vont de 20 Hz à 20 kHz. Pour concevoir
le format de codage des CD audio, les ingénieur·e·s ont choisi une fréquence
d’échantillonnage de 44 kHz, c’est-à-dire à peu près le double de la fréquence
maximale audible, ce qui correspond bien à la fréquence de Nyquist. Les 4 kHz
supplémentaires correspondent à des corrections d’erreurs qui seront présentées
au chapitre 3. De même, l’échantillonnage des conversations téléphoniques se
fait à la cadence de 8 kHz, qui est plus faible que celle des CD audio, car les
spectres considérés sont beaucoup plus étroits et la qualité du rendu n’est plus
un critère prédominant.

10. En utilisant un vocabulaire plus proche de celui des ingénieurs, on dirait « numériser ».

M. Chupin Version du 1er février 2023, 22 h 29 CET. 34


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

1.3.3 Sur-échantillonnage
On peut maintenant se poser la question inverse. Quelles sont les consé-
quences d’un échantillonnage à une fréquence trop élevée ?
Nous allons voir que le sur-échantillonnage peut permettre d’accélérer la
vitesse de convergence. En effet, on peut remarquer que dans la formule (1.7) la
série obtenue converge très lentement, grosso-modo en 1/𝑛. En effet, la quantité
sinc(2𝐵𝑡 − 𝑛) est d’ordre 1/𝑛 et de signe alterné. Elle n’est donc pas satisfaisante
d’un point de vue pratique.
Supposons que l’on sur-échantillonne un signal 𝑠 : soit 𝑊 tel que supp(𝑠)̂ ⊂
[−𝑊, 𝑊], et choisissons la fréquence d’échantillonnage 1/2𝐵 telle que 𝐵 =
(1 + 𝛼)𝑊, pour un certain 𝛼 > 0.
Choisissons notre fonction de troncature 𝜒 de telle sorte que :

∀𝜈 ∈ [−𝑊, 𝑊], 𝜒(𝜈) = 1,

et
∀𝜈 ∈ R − [−𝐵, 𝐵], 𝜒(𝜈) = 0,
où nous ne disons rien entre sur ] − 𝐵, −𝑊[ et sur ]𝑊, 𝐵[.
Alors, le théorème de Shannon-Nyquist s’applique et en en reproduisant la
preuve, on obtient :
1 𝑛 𝑛
𝑠(𝑡) = ∑ 𝑠 ( ) ℎ (𝑡 − ),
2𝐵 𝑛∈Z 2𝐵 2𝐵

où la fonction ℎ est la transformée inverse de 𝜒 donnée par la formule (1.5). On


met ainsi en évidence un nouveau degré de liberté : par un choix judicieux de ℎ,
i.e. de 𝜒 sur ]−𝐵, −𝑊[ et sur ]𝑊, 𝐵[, on peut accélérer la vitesse de convergence.
Ceci se fait en particulier en augmentant la régularité de la fonction 𝜒.

1.4 Note bibliographique


Pour plus détails sur ce chapitre, avec le même cadre fonctionnel, on consul-
tera les parties A et B de la référence [3]. Pour approfondir la théorie de la
transformée de Fourier, on pourra consulter [5]. Enfin, pour les résultats ana-
logues dans le cadre de la théorie des distributions, on consultera [2, 11].

35 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 1. FORMULE DE SHANNON-NYQUIST ET ÉCHANTILLONNAGE

M. Chupin Version du 1er février 2023, 22 h 29 CET. 36


Chapitre
2
Quantification scalaire des signaux dis-
crets

Sommaire du chapitre
2.1 Introduction . . . . . . . . . . . . . . . . . . 38
2.2 Formulation mathématique . . . . . . . . . . 39
2.2.1 Cadre . . . . . . . . . . . . . . . . . . 39
2.2.2 Erreur de distorsion de quantification 40
2.2.3 Taux de quantification . . . . . . . . 41
2.3 Quantification uniforme . . . . . . . . . . . 42
2.3.1 Quantification uniforme des sources
uniformes . . . . . . . . . . . . . . . 42
2.3.2 Quantification uniforme des sources
non-uniformes . . . . . . . . . . . . . 43
2.4 Quantification adaptative . . . . . . . . . . . 45
2.4.1 Approches online et offline . . . . . . 45
2.4.2 Quantification adaptative directe – of-
fline . . . . . . . . . . . . . . . . . . . 45
2.4.3 Quantification adaptative rétrograde –
online . . . . . . . . . . . . . . . . . . 46
2.5 Quantification non-uniforme . . . . . . . . . 47
2.6 Note bibliographique . . . . . . . . . . . . . 48

37
CHAPITRE 2. QUANTIFICATION SCALAIRE DES SIGNAUX DISCRETS

Remarque 2.1 :
Ce chapitre n’est pas au programme du cours, il est là à titre d’information
pour satisfaire la curiosité des plus curieux et curieuses.

2.1 Introduction
Après avoir échantillonné un signal analogique, on dispose d’un signal dis-
cret, c’est-à-dire une suite de nombres réels. À ce stade, la conversion analogique-
numérique (souvent désignée par CAN) n’est pas encore achevée. Il nous faut
encore transformer une suite de nombres réels en une suite de 0 et de 1. C’est
l’objet de ce chapitre.
On considère donc une source 1 émettant un signal discret en temps. La
transformation des nombres émis en suite de nombres binaires consiste en fait
en deux opérations : le codage et le décodage.
Coder, ou encoder un signal, c’est appliquer à chacun des termes de la suite
qu’il constitue une fonction de la forme :

[−𝑀, 𝑀] → {𝐼𝑛 }0≤𝑛≤𝑁


𝑄∶ (2.1)
𝑠(𝑡) ↦ 𝐼𝑘

où :
— l’ensemble {𝐼𝑛 }0≤𝑛≤𝑁 est une famille d’intervalles disjoints formant une
partition de l’intervalle [−𝑀, 𝑀] (𝑁 est un entier naturel),
— 𝑠(𝑡) est un réel, représentant la valeur du signal 𝑠 à l’instant 𝑡, supposé
appartenir à l’intervalle [−𝑀, 𝑀] (𝑀 est un réel, qui peut être inconnu).
L’encodage est donc une opération irréversible car faisant intervenir une
fonction non-injective, qui entraîne une perte d’information.
Un exemple courant est la quantification sur 3 bits. Dans ce cas, l’intervalle
[−𝑀, 𝑀] est partitionné en 𝑁 = 23 = 8 intervalles.
Décoder un signal, c’est réaliser l’opération inverse, c’est-à-dire appliquer à
chacun des termes d’une suite d’intervalles une fonction de la forme :

𝐼𝑛 → 𝑦𝑛 ,

où 𝑦𝑛 est un réel représentant l’intervalle 𝐼𝑛 , par exemple la valeur de son milieu.

1. Ce terme sera très largement employé dans la suite et désigne un dispositif émettant des
signaux à partir de maintenant supposés discrets en temps.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 38


CHAPITRE 2. QUANTIFICATION SCALAIRE DES SIGNAUX DISCRETS

Remarque 2.2 :
Les valeurs 𝑦𝑛 sont ensuite elles-même codées par des entiers binaires.

La figure 2.1 représente un signal avant et après quantification.

1s

Figure 2.1 – Exemple de quantification d’un signal.

2.2 Formulation mathématique


Dans cette section, on formalise mathématiquement le problème de la quan-
tification. Nous allons voir que le problème de quantification fait intervenir
beaucoup de paramètre, et nous allons formuler plusieurs problèmes d’optimi-
sation qui permettent de déterminer la quantification. Comme il est courant
dans ce genre de modélisation, les problèmes qui en découlent sont souvent
trop difficile à attaquer, et il faut passer par des approximations (fixer a priori
des paramètres, simplifier le modèle, utiliser des méthodes numériques pour
résoudre, etc.).

2.2.1 Cadre
On considère donc une source émettant un signal aléatoire 𝑆 de densité de
probabilité 𝑓𝑆 ∈ 𝐿1 (R). Pour construire une quantification, il faut donc définir
une famille d’intervalles (i.e. la famille {𝐼𝑛 }0≤𝑛≤𝑁 de l’introduction), donc de
frontières, et de valeurs d’assignation (i.e. les valeurs 𝑦𝑛 de l’introduction).

39 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 2. QUANTIFICATION SCALAIRE DES SIGNAUX DISCRETS

Pour fixer les idées conservons les notations de l’introduction et désignons


par 𝑁 le nombre d’intervalles constituant la partition et donc également le
nombre de valeurs d’assignations. Le nombre de valeurs frontières, aussi ap-
pelées valeurs de décision, que l’on note 𝑏𝑖 est alors 𝑁 + 1. On pose a priori
𝑏0 = −∞ et 𝑏𝑁 = +∞ et on signalera dans la suite les cas où l’on adopte une
autre convention. La fonction de quantification s’écrit :

𝑄(𝑥) = 𝑦𝑛 ,

pour 𝑥 ∈]𝑏𝑛−1 , 𝑏𝑛 ].

2.2.2 Erreur de distorsion de quantification

Définition 2.1 — Erreur de distorsion de quantification


On définit l’erreur quadratique moyenne de quantification par :
+∞
𝜎𝑞2 (𝐵, 𝑌 ) =∫ (𝑥 − 𝑄(𝑥))2 𝑓𝑆 (𝑥)d𝑥
−∞
𝑁 𝑏𝑛 (2.2)
2
=∑∫ (𝑥 − 𝑦𝑛 ) 𝑓𝑆 (𝑥)d𝑥,
𝑛=1 𝑏𝑛−1

où l’on a noté 𝐵 = {𝑏𝑛 }0≤𝑛≤𝑁 et 𝑌 = {𝑦𝑛 }1≤𝑛≤𝑁 . La quantité 𝜎𝑞 est aussi


appelée erreur de distorsion de quantification.

Une formalisation possible de l’erreur de quantification consiste à considérer


son effet comme celui d’un bruit externe affectant le signal 𝑆.
Le problème est alors le suivant : étant donné 𝑓𝑆 et 𝑁 le nombre d’intervalles
de quantification, trouver les valeurs 𝑏𝑛 et 𝑦𝑛 solution du problème

min 𝜎𝑞2 (𝐵, 𝑌 ).


𝐵,𝑌

En conclusion, l’erreur de distorsion de quantification dépend à la fois de la


partition choisie et du choix du représentant.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 40


CHAPITRE 2. QUANTIFICATION SCALAIRE DES SIGNAUX DISCRETS

2.2.3 Taux de quantification

Définition 2.2 — Taux de quantification


On considère un codage des 𝑦𝑛 en entiers binaires de taille variable ℓ𝑛 , la
taille moyenne des symboles après codage, appelé taux de quantification,
est :
𝑁
𝑅 = ∑ ℓ𝑛 𝑝(𝑦𝑛 ), (2.3)
𝑛=1
où l’on a noté 𝑝(𝑦𝑛 ) la probabilité d’apparition après codage du symbole
correspondant à 𝑦𝑛 .

Attention, la valeur 𝑅 dépend des frontières car :


𝑏𝑛
𝑝(𝑦𝑛 ) = ∫ 𝑓𝑆 (𝑥)d𝑥,
𝑏𝑛−1

et donc :
𝑁 𝑏𝑛
𝑅 = ∑ ℓ𝑛 ∫ 𝑓𝑆 (𝑥)d𝑥.
𝑛=1 𝑏𝑛−1

On considère donc selon les cas l’une ou l’autre des reformulations du


problème suivantes.

Problème 1
Si l’on se donne une contrainte de distorsion de quantification

𝜎𝑞 ≤ 𝜎⋆ , (2.4)

où 𝜎⋆ est un réel fixé, trouver le nombre 𝑁, les frontières 𝐵 et les représentants


𝑌 minimisant le taux 𝑅, défini par (2.3) et satisfaisant (2.4).

Problème 2
Si l’on se donne une contrainte sur le taux

𝑅 ≤ 𝑅⋆ , (2.5)

où 𝑅⋆ est un réel fixé, trouver le nombre 𝑁, les frontières 𝐵 et les représentants


𝑌 minimisant la distorsion quantification et satisfaisant (2.5).

41 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 2. QUANTIFICATION SCALAIRE DES SIGNAUX DISCRETS

Remarque 2.3 :
L’une où l’autre de ces formulations constitue un problème plus général
que celui que nous allons considérer dans ce chapitre. On se restreint en
effet dans la suite à de codage de tailles fixes, si bien que 𝑅 est constant par
rapport à 𝐵 et 𝑌. Le problème du codage en taille variable sera quant à lui
traité au chapitre 3.

2.3 Quantification uniforme

La solution de quantification la plus simple est la quantification uniforme.


Dans ce cadre, tout les intervalles ont la même longueur, que l’on note dans la
suite Δ. On parle dans ce cas de quantification uniforme.
On suppose que l’on adopte une stratégie de codage où 𝑁 le nombre d’inter-
valles est pair, c’est-à-dire que 0 ∈ 𝐵.

2.3.1 Quantification uniforme des sources uniformes


Supposons que pour tout 𝑡, 𝑠(𝑡) ∈ [−𝑆max , 𝑆max ] avec une probabilité uni-
2𝑆
forme. Dans ce cas, on fixe cette fois-ci 𝑏0 = −𝑆max et 𝑏𝑁 = 𝑆max . Alors Δ = max
𝑁
et
𝑁/2 𝑛Δ
2𝑛 − 1 2 1
𝜎𝑞2 (𝐵, 𝑌 ) = 2 ∑ ∫ (𝑥 − Δ) d𝑥
𝑛=1 (𝑛−1)Δ
2 2𝑆max
Δ2
= .
12
Afin d’évaluer l’effet de l’augmentation du nombre d’intervalle sur la qualité
du codage, on considère alors le rapport signal/bruit défini par :

𝜎𝑥2
𝑆𝑁𝑅 = 10 log10 ( ),
𝜎𝑞2

où 𝜎𝑥 désigne l’écart type du signal 𝑆.


Puisque 𝑆 est une variable aléatoire de loi uniforme à valeurs dans [−𝑆max , 𝑆max ],
on a alors :
𝑆
1
2
max
𝑆2
𝜎𝑥2 = 𝔼[𝑋 2 ] − 𝔼[𝑋]
⏟ = 2𝑆 ∫ 𝑥2 d𝑥 = max .
max −𝑆 3
√ =0 max

M. Chupin Version du 1er février 2023, 22 h 29 CET. 42


CHAPITRE 2. QUANTIFICATION SCALAIRE DES SIGNAUX DISCRETS

Par conséquent, le rapport signal/bruit vaut :


𝜎𝑥2
𝑆𝑁𝑅 = 10 log10 ( )
𝜎𝑞2

(2𝑆max )2 12
= 10 log10 ( × )
12 2𝑆max 2 (2.6)
( )
𝑁
= 10 log10 (𝑁 2 )
= 20 log10 (2𝑘 )
= 6.02𝑘 dB,
où 𝑘 représente le nombre de bits utilisés pour le codage binaire des représen-
tants 𝑦𝑛 .

Définition 2.3 — Décibel


Le décibel (dB) est une unité de grandeur sans dimension définie comme
dix fois le logarithme décimal du rapport entre deux puissances, utilisé
dans les télécommunications, l’électronique et l’acoustique.

La conclusion du calcul précédent est que l’ajout d’un bit de quantification


augmente le rapport signal/bruit d’approximativement 6 dB. C’est un résultat
très standard et qui est utilisé comme indication du gain maximal possible
lorsqu’on augmente le taux de quantification. Ceci n’est qu’une indication car
les hypothèses sur le signal sont très fortes et rarement vérifiées en pratique.

2.3.2 Quantification uniforme des sources non-uniformes


Pour introduire ce qui va suivre, considérons l’exemple d’une source émet-
tant dans [−100, 100] dont 95% des valeurs sont dans [−1, 1]. Supposons que
l’on ait adopté la stratégie de quantification uniforme de la section précédente
et que le codage soit effectué sur 𝑘 = 3 (codage sur 3 bits), ce qui revient à
considérer 8 intervalles de longueur 25. On a donc, dans 95% des cas une er-
reur minimum de 11,5. Cet exemple est représentatif des sources gaussiennes
et montre le défaut de la quantification uniforme telle que présentée dans la
section précédente.
Si l’on souhaite rester dans le cadre de la quantification uniforme, une
solution consiste à utiliser la fonction de répartition pour optimiser la taille des
intervalles considérés. Concrètement cela revient à considérer 𝜎𝑞2 comme une
fonction de Δ et à résoudre :
min 𝜎𝑞2 (Δ).
Δ

43 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 2. QUANTIFICATION SCALAIRE DES SIGNAUX DISCRETS

Explicitons le début du calcul menant à la résolution de ce problème. On a :

𝑁/2−1 𝑛Δ
2𝑛 − 1 2
𝜎𝑞2 (Δ) = 2 ∑ ∫ (𝑥 − Δ) 𝑓𝑆 (𝑥)d𝑥
𝑛=1 (𝑛−1)Δ
2
+∞
𝑁−1 2
+ 2∫ (𝑥 − Δ) 𝑓𝑆 (𝑥)d𝑥.
(𝑁/2−1)Δ
2

Exercice 2.1 :
Montrer que :
𝑁/2−1 𝑛Δ
𝜕𝜎𝑞2 (Δ) 2𝑛 − 1
= − ∑ (2𝑛 − 1) ∫ (𝑥 − Δ) 𝑓𝑆 (𝑥)d𝑥
𝜕Δ 𝑛=1 (𝑛−1)Δ
2
+∞
𝑁−1
− (𝑁 − 1) ∫ (𝑥 − Δ) 𝑓𝑆 (𝑥)d𝑥.
(𝑁/2−1)Δ
2

Pour trouver un extremum de 𝜎𝑞 , il faut donc annuler cette dernière valeur.


L’équation en découlant n’est pas résoluble algébriquement dans le cas général.
On la résout donc approximativement par des méthodes numériques. Il existe
aussi des tableaux indiquant les solutions dans les cas de densités de probabilités
classiques.

Remarque 2.4 :
Dans ce cas, on peut en fait distinguer deux types d’erreurs de quantifica-
tion :
1. L’erreur de surcharge, qui correspond aux erreurs se produisant
dans les deux intervalles extrêmes. On parle également de bruit de
saturation.
2. L’erreur granulaire, qui correspond à l’erreur de quantification dans
les autres intervalles. On parle alors de bruit granulaire.

Il arrive que l’on ne dispose que d’information partielles sur la source et sa


densité de probabilité 𝑓𝑆 . Cette carence conduit à des erreurs de modélisation.
𝑎𝑝𝑝𝑟𝑜𝑥
La fonction 𝑓𝑆 considérée ne coïncide pas avec la vraie fonction 𝑓𝑆 . Il faut
donc en fait prévoir une série de tests sur la source pour estimer ses paramètres.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 44


CHAPITRE 2. QUANTIFICATION SCALAIRE DES SIGNAUX DISCRETS

2.4 Quantification adaptative

Une solution simple aux problèmes évoqués dans la section précédente


consiste à fonder la stratégie de codage sur des intervalles de longueurs variables.
On parle dans ce cas de quantification adaptative. Le but est bien sûr d’adapter
les paramètres de quantification à la source considérée.

2.4.1 Approches online et offline


Deux approches sont généralement considérées, l’approche online condui-
sant à une adaptation de la quantification rétrograde, c’est-à-dire effectuée en
même temps que la quantification elle-même et une adaptation offline, où les
paramètres de la quantification sont calculés de manière directe, c’est-à-dire en
fixant a priori les paramètres de la quantification.

2.4.2 Quantification adaptative directe – offline


Dans cette approche le signal émis est divisé en blocs temporels et chaque
bloc est analysé avant la quantification. Les paramètres de la quantification sont
calculés en fonction de l’analyse. On a donc, dans ce cas, besoin d’adjoindre à
chaque bloc codé un bloc d’information supplémentaire permettant d’indiquer
au décodeur les paramètres de quantification qui ont finalement été retenus.
Deux problèmes apparaissent dans cette approche.
1. Un problème de synchronisation, car deux types de données sont trans-
mis : le code du signal et les blocs d’informations.
2. Un problème de choix de la taille des bloc de codage considérés. Il faut
alors trouver un compromis entre des bloc grands, qui seront alors plus
grossièrement décrits par les paramètres de quantifications retenus, et
des blocs petits, qui conduiront à de nombreux blocs d’information.
Donnons maintenant un exemple de procédure d’estimation des paramètres
d’un bloc à quantifier. Étant donné un bloc de taille 𝑀, un estime sa variance 2
au voisinage du temps 𝑛 par
𝑀−1
1
𝜎𝑥̂2 = ∑ 𝑥2 ,
𝑀 𝑖=0 𝑖+𝑛

où on a supposé que notre signal d’entrée avait une valeur moyenne nulle.
2. Il s’agit en fait de ce qu’on appelle en probabilité la variance empirique.

45 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 2. QUANTIFICATION SCALAIRE DES SIGNAUX DISCRETS

Pour quantifier le bloc considéré, une stratégie possible est alors de consi-
dérer une densité de probabilité 𝑓𝑆 pour le bloc considéré du signal qui par
exemple peut être une gaussienne avec pour variance la variance empirique pré-
cédemment calculée et utiliser la stratégie uniforme indiquée à la section 2.3.2.
Évidemment d’autres raffinements sont possible mais dépasse le cadre de
cette introduction à la quantification.

Remarque 2.5 :
Attention, il faudra aussi quantifier les informations des blocs d’information,
car tout doit être in fine sous forme binaire !

2.4.3 Quantification adaptative rétrograde – online


Dans cette second approche, l’adaptation se fait à la sortie du quantificateur.
Elle ne nécessite pas de bloc d’information supplémentaire. Ici, seulement les
valeurs quantifiés passées sont accessible pour adapter la quantification.
La méthode consiste à fixer le modèle, par exemple gaussien, et à adapter
au cours du temps la valeur de Δ en observant les histogrammes issus de la
quantification. Au bout d’un temps long, on aura de bonnes informations sur le
signal, mais comment adapter la quantification avant ?
Évidemment, l’idée est de n’avoir ni un paramètre Δ trop petit, ni trop grand.
Nous allons présenter ici une idée de quantification adaptative qui n’utilise
que la dernière valeur du signal passé. Il s’agit de la quantification de Jayant.
L’idée derrière cet algorithme est très simple : pour un nombre fixé d’intervalles
𝑁, on considère des multiplicateurs 𝑀𝑘 pour chaque intervalle. On numérotera
de 0 à 𝑁/2 − 1 les intervalles positifs, avec la relation

𝑀𝑘 = 𝑀𝑘+𝑁/2 ,

pour tout 𝑘 entre 0 et 𝑁/2 − 1. On aura donc deux intervalles pour 𝑘 = 𝑁/2 − 1
et 𝑘 = 𝑁 − 1 qui seront de la forme [𝑏𝑘 , +∞[ et ] − ∞, −𝑏𝑘 ] et qui sont des
intervalles en dehors de la zone de quantification.
Partant de là, si la valeur à quantifier est dans les intervalles en dehors de la
zone de quantification alors, le paramètre Δ doit être augmenter (pour tenter
de faire rentrer la valeur dans la zone à l’intérieur de la quantification). Au
contraire, si la valeur à quantifier est à l’intérieur de la zone de quantification,
alors on peut essayer de diminuer la valeur de Δ.
On aura alors que pour les intervalles internes, 𝑀𝑘 ≤ 1 et pour les deux
intervalles externes 𝑀𝑘 > 1. L’algorithme est alors :

M. Chupin Version du 1er février 2023, 22 h 29 CET. 46


CHAPITRE 2. QUANTIFICATION SCALAIRE DES SIGNAUX DISCRETS

— la 𝑛-ième valeur est dans l’intervalle 𝑘,


— le paramètre de quantification est mise à jour par Δ𝑛 = 𝑀𝑘 ∗ Δ𝑛−1 ,
— et les intervalles (𝐼𝑘𝑛 )𝑘∈[0,𝑁−1] sont recalculés avec le nouveau Δ𝑛 .

Exercice 2.2 :
Appliquer l’algorithme pour :
— 𝑀0 = 𝑀4 = 0.8, 𝑀1 = 𝑀5 = 0.9, 𝑀2 = 𝑀6 = 1 et 𝑀3 = 𝑀7 = 1.2 ;
— la valeur initiale du paramètre de quantification Δ0 = 0.5 ;
— la séquence à quantifier {0.1, −0.2, 0.2, 0.1, −0.3, 0.1, 0.2, 0.5, 0.9, 1.5}.

Le choix des multiplicateurs est un choix crucial pour cette algorithme. Il


est assez libre, mais plusieurs méthodes ont été proposées pour le faire. Nous
renvoyons à [9] pour une description d’une d’entre elles.

2.5 Quantification non-uniforme

La dernière solution envisagée habituellement consiste à postuler une den-


sité de probabilité, à considérer ensuite 𝜎𝑞 comme une fonction des 2𝑁 + 1
variables réelles contenues dans les variables 𝑌 et 𝐵 et finalement à optimiser
𝜎𝑞 globalement. La taille des intervalles de quantification Δ𝑖 = 𝑏𝑖+1 − 𝑏𝑖 n’est
alors plus constant.
Nous présentons dans cette section un algorithme connu sous le nom d’al-
gorithme de Lloyd ou de Lloyd-Max. Cette méthode a initialement été déve-
loppée pour les problèmes de quantification (en 1957) mais a désormais des
domaines d’application très variés notamment pour calculer le diagramme
de Voronoï de 𝑘 points, pour la résolution d’EDP, ou même désormais en
machine-learning.
Un calcul de différentielle partielle de (2.2) conduit à l’algorithme suivant.
avec 𝑏0 = −∞ et 𝑏𝑁 = +∞. Celles-ci permettent de définir un algorithme
de point fixe. En effet, le calcul des 𝑦𝑛 dépend des 𝑏𝑛 , et le calcul des 𝑏𝑛 dépend
des 𝑦𝑛 . On peut montrer rigoureusement que l’algorithme converge.
La méthode est donc d’itérer le calcul des jeux de variables (𝑦𝑛 ) et (𝑏𝑛 )
jusqu’à convergence.
De même que ce qu’à la section 2.3.2, ce système n’est, dans le cas général,
par résoluble algébriquement. Il faut donc mettre en oeuvre une méthode
numérique pour le résoudre approximativement.
Une preuve de convergence de l’algorithme de Lloyd peut se lire ici [12],
mais a été largement étendue depuis.

47 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 2. QUANTIFICATION SCALAIRE DES SIGNAUX DISCRETS

Algorithme 1 : Algorithme de Lloyd-Max


Require : 𝑏10 , … , 𝑏𝑁−1
0
, 𝑦10 , … , 𝑦𝑁 0
et 𝑓𝑆
𝑖 𝑖
1 : Pour tout 𝑖, 𝑏0 = −∞, 𝑏𝑁 = +∞
2: 𝑖 = 0
3 : repeat
4: Calculer :
𝑏𝑖
∫𝑏𝑖𝑛 𝑥𝑓𝑆 (𝑥)d𝑥
𝑦𝑛𝑖+1 = 𝑛−1 , ∀𝑛 ∈ {1, … , 𝑁}
𝑏𝑖
∫𝑏𝑖𝑛 𝑓𝑆 (𝑥)d𝑥
𝑛−1
𝑖+1
𝑦𝑛+1 + 𝑦𝑛𝑖+1
𝑏𝑛𝑖+1 = , ∀𝑛 ∈ {1, … , 𝑁 − 1}
2
5: until Convergence

2.6 Note bibliographique


Pour plus de détails sur les différentes techniques de quantification des
signaux, on consultera le chapitre 9 de la référence [9].

M. Chupin Version du 1er février 2023, 22 h 29 CET. 48


Chapitre
3
Codage sans perte de l’information

Sommaire du chapitre
3.1 Codage source et compression sans perte . . 50
3.1.1 Définitions . . . . . . . . . . . . . . . 50
3.1.2 Entropie et mesure de la quantité d’in-
formation . . . . . . . . . . . . . . . 51
3.1.3 Propriétés d’un codage source . . . . 54
3.1.4 Algorithme de Huffman . . . . . . . 59
3.2 Codage canal et correction d’erreur . . . . . . 62
3.2.1 Une approche naïve . . . . . . . . . . 62
3.2.2 Codes linéaires par blocs . . . . . . . 63
3.2.3 Détection et correction d’erreur . . . 68
3.2.4 Syndrôme et matrice de vérification . 71
3.2.5 Codes de Hamming . . . . . . . . . . 74
3.3 Notes bibliographiques . . . . . . . . . . . . 77

Nous continuons de suivre le cheminement du signal. Après avoir été échan-


tillonné puis quantifié, il est maintenant représenté par une suite de 0 et de 1.
Nous allons voir comment on peut préparer sa transmission dans de bonnes
conditions. Plus précisément, deux raffinements très utiles vont être présentés
dans ce chapitre : tout d’abord ce qui est parfois appelé le codage source, i.e.
une méthode de compression sans perte d’information du signal, comme le
fait par exemple la compression zip, ensuite, ce qui est parfois appelé le codage
canal, i.e. l’ajout judicieux de bits de correction qui vont permettre de corriger
les erreurs éventuelles qui vont affecter le signal au cours de sa transmission.
Nous regarderons un codage particulier appelé le code de Hamming qui permet

49
CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

de détecter deux erreurs par mot transmis et d’en corriger une.

3.1 Codage source et compression sans perte

On appelle donc codage source l’ensemble des techniques permettant de


compresser avec ou sans perte d’information un signal numérique. Ceci revient
en fait à coder de manière astucieuse les symboles émis par une source de
manière à réduire le nombre total de bits utilisés.
Dans cette section on démontre le théorème fondamental du codage source,
qui indique une limite théorique de compression sans perte et on présente
un algorithme, dû à Huffman 1 , permettant d’approcher arbitrairement cette
limite.

3.1.1 Définitions
On commence par poser deux définitions.

Définition 3.1 — Source de symboles 𝑚-aire


On appelle source de symboles 𝑚-aire tout dispositif émettant des mots
construits par concaténations de symboles pris dans un alphabet de taille
𝑚.

Par exemple en informatique, l’alphabet est constitué de deux symboles 0


et 1, il s’agit d’un alphabet 2-aire, ou encore binaire. L’anglais utilise quant à
lui un peu plus de 26 symboles (car on peut ajouter aux 26 lettres de l’alphabet
latin 2 quels autres symboles comme les signes de ponctuation).
On appelle source sans mémoire une source pour laquelle la probabilité
d’émission d’un symbole ne dépend pas des symboles précédemment émis.
Dans ce cours, on ne va considérer que des sources sans mémoire, mais la
plupart des résultats présentés dans ce chapitre, et en particulier un nouveau
théorème de Shannon, peuvent être étendus à des cas beaucoup plus généraux.

1. David Albert Huffman (9 août 1925 — 7 octobre 1999, Ohio), chercheur américain
pionnier dans le domaine de l’informatique.
2. L’alphabet français lui comporte l’alphabet latin morderne de 26 lettres auxquelles il
faut ajouter les lettres accentuées au nombre de 13, le c cédille et deux ligutares, e-dans-l’a et
e-dans-l’o, pour un total de 42 !

M. Chupin Version du 1er février 2023, 22 h 29 CET. 50


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Définition 3.2 — Extension d’ordre 𝑘


On appelle extension d’ordre 𝑘 d’une source 𝑆, la source 𝑆𝑘 dont l’alphabet
est obtenu par concaténation de 𝑘 symboles consécutif de la source 𝑆.

Remarque 3.1 :
Notons, le débit de la source 𝑆𝑘 est 𝑘 fois moins élevé que celui de la source
initiale 𝑆. De plus, si 𝑆 est une source de symboles 𝑚-aire, l’alphabet de la
source 𝑆𝑘 sera de taille 𝑚𝑘 .

3.1.2 Entropie et mesure de la quantité d’information


Pour pouvoir compresser efficacement les symboles émis par une source, il
est utile de savoir mesurer la quantité d’information apportée par les symboles
qu’elle produit. Intuitivement, un symbole qui apparaît rarement, par exemple
le w dans les textes en français, apporte plus d’information qu’un symbole très
fréquent, par exemple le e toujours dans les textes en français 3 .

Quantité d’information par symbole


Étant donné une source 𝑆 émettant des symboles d’un alphabet 𝐴, on com-
mence par calculer la probabilité d’apparition des symboles de 𝐴. Ce calcul
peut-être fait offline, c’est-à-dire a posteriori, en calculant la fréquence d’appari-
tion de chaque symbole si l’on dispose de l’ensemble du signal émis, ou bien
online, c’est-à-dire a priori, si l’on connaît certaines propriétés de la source, par
exemple si l’on sait que la source émet des mots dans une certaine langue écrite.
Notons ℎ la quantité d’information — que nous n’avons pas encore définie —
apportée par un symbole 𝑥 ∈ 𝐴. Faisons une liste des propriétés de ℎ attendues.
1. Tout d’abord, on souhaite que la quantité d’information apportée par
l’émission d’un symbole 𝑥 augmente lorsque la probabilité d’émission
de 𝑥, notée 𝑝(𝑥) dans la suite, diminue, ce qui peut se modéliser par

1
ℎ(𝑥) = 𝑓 ( ),
𝑝(𝑥)

où 𝑓 est un fonction croissante.


3. à l’exception de La disparition de G. Perec, un livre ne contenant pas — dans un but bien
précis — la lettre e.

51 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

2. Si la probabilité d’émission d’un symbole est 1, alors celui-ci n’apporte


aucune information, on peut alors imposer

𝑓(1) = 0.

3. On souhaite enfin que la quantité d’information apportée par deux mes-


sages indépendants soit la somme des quantités d’information apportées
par chacun des messages. On peut alors demander à 𝑓 de vérifier

1 1 1 1
𝑓( ) = 𝑓( ) = 𝑓( ) + 𝑓( ).
𝑝(𝑥 et 𝑦) 𝑝(𝑥) ⋅ 𝑝(𝑦) 𝑝(𝑥) 𝑝(𝑦)

Ces différentes propriétés impliquent que la fonction ℎ doit être choisie de la


forme :
ℎ(𝑥) = − log𝑞 (𝑝(𝑥)).

La base 𝑞 n’est pas fixée a priori. Nous verrons plus tard que on la choisira en
fonction de la « dimension » de codage que on va utiliser.

Entropie d’une source

On souhaite maintenant définir la quantité moyenne d’information appor-


tée par la source 𝑆. Cette quantité est appelée entropie 4 et est naturellement
définie par la formule :

𝑚
𝐻(𝑆) ∶= ∑ 𝑝(𝑥)ℎ(𝑥) = − ∑ 𝑝𝑖 log𝑞 (𝑝𝑖 ),
𝑥∈𝐴 𝑖=1

où l’on a noté 𝑝𝑖 la probabilité d’émission du 𝑖-ème symbole de l’alphabet 𝐴.

Maximisation de l’entropie

Notre but est maintenant de recoder les symboles de 𝑆 de telle sorte que
son entropie soit maximisée. Pour ce faire, on introduit le résultat préliminaire
suivant.

4. L’entropie est une notion très variable suivant les disciplines mais s’il existe des liens
entre les différentes formulation. Ici, nous ne parlerons que de l’entropie de Shannon : https:
//fr.wikipedia.org/wiki/Entropie_de_Shannon.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 52


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Lemme 3.1 — Inégalité de Gibbs Soit 𝑛 nombres 𝑝𝑖 et 𝑞𝑖 tels que :

0 < 𝑝𝑖 < 1, 0 < 𝑞𝑖 < 1,

et 𝑛 𝑛
∑ 𝑝𝑖 = 1, ∑ 𝑞𝑖 ≤ 1.
𝑖=1 𝑖=1
Alors : 𝑛
𝑞𝑖
∑ 𝑝𝑖 log𝑞 ( ) ≤ 0,
𝑖=1
𝑝𝑖
avec égalité si et seulement si

∀𝑖, 0 ≤ 𝑖 ≤ 𝑛, 𝑝𝑖 = 𝑞𝑖 .

Exercice 3.1 :
Montrer ce lemme pour le logarithme népérien.

Cette inégalité est également appelée inégalité de Jensen 5 dans d’autres


contextes.

Proposition 3.1 : L’entropie vérifie l’inégalité suivante

𝐻(𝑆) ≤ log𝑞 (𝑚),

avec égalité dans le cas où tous les symboles de 𝑆 sont équiprobables, c’est-à-dire
que pour tout 𝑖 ∈ {1, … , 𝑚}, 𝑝𝑖 = 1/𝑚.

Exercice 3.2 :
Montrer cette proposition.

On remarque que l’incertitude sur le résultat d’une expérience est d’autant


plus grande que tous les résultats possibles sont équiprobables.
5. Johan Ludwig William Valdemar Jensen, surtout connu comme Johan Jensen, (8 mai
1859, Nakskov, Danemark - 5 mars 1925, Copenhague, Danemark) était un mathématicien et
ingénieur danois. Il est surtout connu pour sa fameuse inégalité de Jensen. En 1915, il démontra
également la formule de Jensen en analyse complexe.

53 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

3.1.3 Propriétés d’un codage source


L’objectif de la compression est de construire un nouvel alphabet de codage
minimisant la taille moyenne des nouveaux symboles obtenus :
𝑚
ℓ ̄ = ∑ 𝑛𝑖 𝑝𝑖 ,
𝑖=1

où 𝑛𝑖 est la taille du nouveau code du 𝑖-ème symbole de 𝐴.


Supposons que la source 𝑆 (après quantification) soit constituée de 𝑚 états,
c’est-à-dire, prenant des valeur dans l’alphabet {𝑠1 , … , 𝑠𝑚 }. À chacun de ces
états 𝑠𝑖 , on va associer une suite de 𝑛𝑖 symboles d’un nouvel alphabet 𝑞-aire.
Ceux-ci constituent un code source que l’on note 𝐶 = {𝑐1 , … , 𝑐𝑞 }.
Comme ici, on considère deux alphabets, on appellera les symboles de
l’alphabet constituant la source 𝑆 qu’on cherche à coder les états.

Définition 3.3 — Déchiffrabilité


Un code est appelé un code déchiffrable, ou encore à décodage unique,
si toute suite de mots de code ne peut être interprétée que de manière
unique.

Il y a plusieurs manières d’avoir un code déchiffrable :


— définir un code à longueur fixe, c’est-à-dire avec des mots de longueur
fixe, qu’on peut décoder sans ambiguïté (par exemple : le code ASCII) ;
— consacrer un symbole de l’alphabet de destination comme séparateur
de mot ;
— on évite qu’un mot du code soit identique au début d’un autre mot.
C’est à cette dernière proporiété que nous allons nous intéresser dans ce
cours. On va ajouter donc une autre contrainte sur le nouvel alphabet. On
souhaite que celui-ci soit auto-ponctué, c’est-à-dire que les nouveaux symboles
soient émis par simple concaténation. On parle aussi de code préfixe ou code
irréductible. Ceci est formalisé par la définition suivante.

Définition 3.4 — Code irréductible


On appelle code irréductible, ou code préfixe, ou code auto-ponctué, un
ensemble de mots tel qu’aucun mot ne soit le début d’un autre.

De la sorte, le récepteur d’un message sait toujours comment découper la


suite de symboles qu’il reçoit, car il sait identifier les moments où l’on passe
d’un symbole à un autre.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 54


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Tous les codes utilisés dans la vie courante ne sont pas irréductibles. Les
langues écrites ne le sont pas en général, le code morse non plus par exemple.

Arbre 𝑞−aire

Les codes auto-ponctués sont de manière naturelle associés à la notion


d’arbre 𝑞-aire, que l’on introduit maintenant.

Définition 3.5 — Arbre 𝑞-aire


On appelle arbre 𝑞-aire un arbre dont chaque nœud est soit une feuille,
soit possède au plus 𝑞 descendants.

Par exemple un arbre binaire est obtenu en considérant l’arbre généalogique


des ascendants d’une personne (et en se fixant une limite dans le temps). La
notion d’arbre 𝑞-aire est le bon concept pour représenter les codes auto-ponctués.
Le nombre 𝑞 représente le nombre de caractères utilisés pour le nouveau codage
des symboles de la source 𝐴 et les mots sont donnés par l’ensemble des feuilles.
Le découpage du message reçu se fait donc par parcours successifs de l’arbre,
avec retour à la racine à chaque fois que l’on obtient une feuille.
Si l’alphabet est un alphabet binaire (composé de 0 et de 1) alors, l’arbre
correspondant est un arbre binaire très utile en algorithme et pour lesquels
il existe beaucoup de résultats théoriques et de bibliothèques pour nombreux
langages de programmation.
Les arbres 𝑞-aires vérifient l’inégalité de Kraft 6 qui nous servira dans la
suite.

6. Cette inégalité fut publiée pas Leon Kraft en 1949. Dans l’article correspondant Kraft
ne considère que les codes auto-ponctués et attribue l’analyse qu’il présente pour obtenir son
résultat à Raymond M. Redheffer. Cette inégalité est aussi parfois appelée « Théorème de
Kraft-McMillan » après que Brockway McMillan l’a découverte indépendamment en 1956.
McMillan prouve le résultat pour une classe plus large de codes et attribue quant à lui la version
correspondant aux codes auto-ponctués de Kraft à des observations de Joseph Leo Doob en
1955.

55 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Lemme 3.2 — Inégalité de Kraft et réciproque Les longueurs


(𝑛𝑖 )1≤𝑖≤𝑚 des 𝑚 chemins allant vers les 𝑚 feuilles d’un arbre 𝑞-aire véri-
fient : 𝑚
∑ 𝑞−𝑛𝑖 ≤ 1. ( inégalité de Kraft)
𝑖=1
Réciproquement, si l’on se donne un entier 𝑞 et 𝑚 entiers (𝑛𝑖 )1≤𝑖≤𝑚 véri-
fiant l’inégalité de Kraft, alors on peut construire un arbre 𝑞-aire ayant 𝑚
feuilles situées à des profondeurs (𝑛𝑖 )1≤𝑖≤𝑚 .

Exercice 3.3 :
Montrer cette inégalité pour les code irréductibles.

Théorème fondamental du codage source


On dispose maintenant de tous les outils pour énoncer et démontrer le
théorème fondamental du codage source, qui est également un théorème de
Shannon.

Théorème 3.1 — Théorème fondamental du codage source —


Dans le codage d’une source 𝑆 auto-ponctué sans mémoire à l’aide d’un
alphabet de taille 𝑞, la longueur moyenne ℓ ̄ des mots du code utilisé pour
coder un symbole de 𝑆 vérifie :

𝐻(𝑆) ≤ ℓ,̄

et l’on peut approcher cette limite aussi près que l’on veut, quitte à coder
les extensions de 𝑆 au lieu de 𝑆 elle-même.

Preuve : On considère 𝑚 états de la source 𝑆 codés par des mots de longueurs (𝑛𝑖 )1≤𝑖≤𝑚
dans un alphabet de taille 𝑞. Si ces mots sont obtenus comme les feuilles d’un arbre
𝑞-aire, alors leurs longueurs vérifient :
𝑚
𝑄 ∶= ∑ 𝑞−𝑛𝑖 ≤ 1.
𝑖=1

D’après l’inégalité de Gibbs, on a également :


𝑚
𝑞−𝑛𝑖
∑ 𝑝𝑖 log𝑞 ( ) ≤ 0,
𝑖=1
𝑝𝑖

M. Chupin Version du 1er février 2023, 22 h 29 CET. 56


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

où 𝑝𝑖 est la probabilité d’émission du 𝑖-ème symbole de 𝑆 avec 𝑛𝑖 la longueur du nouveau


code du 𝑖-ème symbole. On en déduit :
𝑚 𝑚 𝑚
− ∑ 𝑝𝑖 log𝑞 𝑝𝑖 ≤ log𝑞 𝑞 × ∑ 𝑝𝑖 𝑛𝑖 = 1 × ∑ 𝑝𝑖 𝑛𝑖 .
𝑖=1 𝑖=1 𝑖=1

Or :
𝑚
— 𝐻(𝑆) = − ∑𝑖=1 𝑝𝑖 log𝑞 𝑝𝑖 ,
𝑚
— ∑𝑖=1 𝑝𝑖 = 1,
𝑚
— ∑𝑖=1 𝑝𝑖 𝑛𝑖 = ℓ,̄ la longueur moyenne d’un mot du nouveau code.
Finalement, on trouve :
𝐻(𝑆) ≤ ℓ.̄
Nous avons donc obtenu la borne théorique de compression annoncée dans l’introduc-
tion de cette section.
Montrons maintenant qu’on peut s’approcher aussi près que l’on veut de cette
borne. On cherche à minimiser ℓ.̄ Pour ce faire, on peut essayer d’approcher le cas
d’égalité dans les inégalités de Kraft et de Gibbs utilisées, c’est-à-dire à avoir :

𝑄 = 1, 𝑞−𝑛𝑖 = 𝑝𝑖 ,

qui se traduit pour 𝑛𝑖 par :


𝑛𝑖 = − log𝑞 𝑝𝑖 .
Mais cette dernière fraction n’est pas forcément égale à un entier, on choisit donc de
définir 𝑛𝑖 par :
− log𝑞 𝑝𝑖 ≤ 𝑛𝑖 ≤ − log𝑞 𝑝𝑖 + 1.
En conséquence, on a :
𝑚 𝑚
∑ 𝑞−𝑛𝑖 ≤ ∑ 𝑝𝑖 = 1,
𝑖=1 𝑖=1
et l’inégalité de Kraft est vérifiée. Il existe donc un arbre 𝑞-aire correspondant aux
longueurs 𝑛𝑖 , dont on peut déduire les mots (de longueurs 𝑛𝑖 ) du nouveau codage. De
plus on a :
−𝑝𝑖 log𝑞 𝑝𝑖 ≤ 𝑝𝑖 𝑛𝑖 ≤ −𝑝𝑖 log𝑞 𝑝𝑖 + 𝑝𝑖 ,
d’où l’on déduit par sommation :

𝐻(𝑆) ≤ ℓ ̄ ≤ 𝐻(𝑆) + 1.

Pour approcher arbitrairement la limite théorique, une stratégie judicieuse est de


considérer non plus la source 𝑆 comme source initiale, mais son extension d’ordre 𝑘,
𝑆𝑘 . Si on considère les symboles comme des variables aléatoires prenant des valeurs
dans 𝐴 = {𝑠1 , … , 𝑠𝑚 }, alors

ℓ𝑘̄ = ∑ 𝑝(𝑥1 , … , 𝑥𝑘 )𝑛(𝑥1 , … , 𝑥𝑘 )


𝑥1 ,…,𝑥𝑘

57 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

où la somme est sur toutes les combinaisons possibles, et 𝑝 est la probabilité d’avoir la
combinaison et 𝑛 la longueur de codage de cette suite de symboles. Pour cette source
là, on applique le théorème que l’on vient d’obtenir, et on obtient :

𝐻(𝑆𝑘 ) ≤ ℓ𝑘̄ ≤ 𝐻(𝑆𝑘 ) + 1,

où ℓ𝑘̄ représente la longueur moyenne des mots du nouveau codage de 𝑆𝑘 . On divise


alors ces inégalités par 𝑘 :

𝐻(𝑆𝑘 ) ℓ𝑘̄ 𝐻(𝑆𝑘 ) 1


≤ ≤ + .
𝑘 𝑘 𝑘 𝑘

ℓ𝑘̄ 𝐻(𝑆𝑘 )
La quantité est alors notre longueur moyenne pour la source 𝑆 et notons ℋ = .
𝑘 𝑘
On a alors

1 1
ℋ= ∑ 𝑝(𝑥1 , … , 𝑥𝑘 ) log𝑞 ( )
𝑘 𝑥 ,…,𝑥 𝑝(𝑥1 , … , 𝑥𝑘 )
1 𝑘
1 1
= E [log𝑞 ( )]
𝑘 𝑝(𝑋1 , … , 𝑋𝑘 )

où on a noté 𝑋𝑘 les variables aléatoires du processus. Dans ce cours, on ne considère que


des sources sans mémoire, et donc les symboles sont indépendants, ainsi 𝑝(𝑥1 , … , 𝑥𝑘 ) =
𝑝(𝑥1 )𝑝(𝑥2 ) ⋯ 𝑝(𝑥𝑘 ) et donc

𝑘
1 1
ℋ= E [log𝑞 (∏ )]
𝑘 𝑖=1
𝑝(𝑋𝑖 )
𝑘
1 1
= ∑ E [log𝑞 ( )]
𝑘 𝑖=1 𝑝(𝑋𝑖 )
𝑘
1
= ∑𝐻
𝑘 𝑖=1
= 𝐻. 

Remarque 3.2 :
Nous avons démontrer ce résultat dans le cas d’une source sans mémoire,
mais on peut aussi montrer que ℋ ≤ 𝐻 dans le cas d’une source avec
mémoire.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 58


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Remarque 3.3 :
Évidemment, approcher cette limite a un certain coût ! En effet, la technique
de codage considérée implique à un moment ou à un autre la transmission
d’un dictionnaire permettant le décodage pour retrouver les symboles émis
initialement. Si l’on code les extensions de 𝑆 au lieu de 𝑆 elle-même, la
taille du dictionnaire va augmenter et ce exponentiellement par rapport à
l’extension considérée.

3.1.4 Algorithme de Huffman


Problème d’optimisation
On cherche à construire un code préfixé de longueur moyenne minimale.
La compression est d’autant plus forte que la longueur moyenne des mots de
code est faible. Trouver un tel code revient donc à choisir les longueurs des
mots de codes, par rapport à la distribution de probabilité des symboles de
source, afin de rendre la longueur moyenne minimale. Il faut donc minimiser
la longueur moyenne du code ℓ ̄ sous les conditions de l’inégalité de Kraft (qui
donne une condition nécessaire et suffisante pour qu’un code possède un code
préfixé équivalent). Mathématiquement cela revient à résoudre le problème de
minimisation de la longueur moyenne
𝑚
ℓ ̄ = ∑ 𝑝𝑖 𝑛𝑖
𝑖=1

sur l’ensemble des longueurs {𝑛𝑖 }𝑖∈{1,…,𝑚} et sous la contrainte donnée par
l’inégalité de Kraft :
𝑚
∑ 𝑞−𝑛𝑖 ≤ 1.
𝑖=1
Par la méthode des multiplicateurs de Lagrange, on définit le lagrangien 𝐽 :
𝑚 𝑚
𝐽 = ∑ 𝑝𝑖 𝑛𝑖 + 𝜆 (∑ 𝑞−𝑛𝑖 − 1)
𝑖=1 𝑖=1

que l’on différentie par rapport aux 𝑛𝑖 . Un rapide calcul donne les longueurs
optimales 𝑛∗𝑖 = − log2 (𝑝𝑖 ), c’est-à-dire une longueur moyenne égale à l’entropie.
Bien évidemment, ces longueurs optimales ne sont pas des longueurs entières.
Le but de cette section est de présenter un algorithme qui permet d’approcher
cette limite.

59 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

L’algorithme
Il nous reste à donner une méthode permettant la mise en pratique du
résultat théorème 3.1 (qui n’est pas constructif). C’est l’algorithme 2, dit de
Huffman, qui fournit ce résultat à partir d’une source de 𝑚 symboles, dont
on connaît les probabilités (𝑝𝑖 )1≤𝑖≤𝑚 d’émission. En pratique cet algorithme
explique comment construire un arbre de codage.

Algorithme 2 : Algorithme de Huffman d’un code 𝑞-aire de 𝑚 sym-


boles
Require : (𝑠𝑖 )𝑖∈{1,…,𝑚} symboles de distribution de probabilité
(𝑝𝑖 )𝑖∈{1,…,𝑚}
1 : Définir 𝑚 nœuds actifs correspondant aux 𝑚 symbole
2 : Calculer 𝑟 comme le reste de la division de 1 − 𝑚 par 𝑞 − 1 (si on a
un code binaire, alors 𝑟 = 0)
3 : while il reste plus d’un nœud actif do
4: Grouper, un tant que fils d’un nœud nouvellement créé, les 𝑞 − 𝑟
nœuds actifs les moins probables et les 𝑟 nœuds inutilisés
5: Marquer les 𝑞 − 𝑟 nœuds actifs comme non-actifs et le nœud
nouvellement crée comme actif
6: Assigner au nœud nouvellement créé une probabilité égale à
la somme des probabilités des 𝑞 − 𝑟 nœuds qui viennent d’être
désactivés.
7: Poser 𝑟 = 0
8 : end while

Exercice 3.4 :
On considère une source 𝑆 composée des états {𝑠1 , 𝑠2 , … , 𝑠8 } avec la distri-
bution de fréquence suivante que l’on veut coder en binaire :

𝑠1 𝑠2 𝑠3 𝑠4 𝑠5 𝑠6 𝑠7 𝑠8
0.4 0.18 0.1 0.1 0.07 0.06 0.05 0.04

1. Calculer l’entropie de la source d’information 𝑆 pour un codage en


base 2.
2. Calculer un codage de Huffman binaire de cette source puis la lon-
gueur moyenne de ce codage. Comparer avec la longueur moyenne
à l’entropie.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 60


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Remarque 3.4 :
En ayant calculé l’entropie de la source 𝑆, on peut établir une prescrip-
tion d’un objectif pour la taille moyen du code ℓ.̄ Si l’objectif de longueur
moyenne n’est pas atteint, alors il suffit de reprendre l’algorithme avec une
extension d’ordre plus élevée du code.

Exemple : Réduction de la longueur moyenne par extension


Considérons un code simpliste : soit une source 𝑆 prenant valeur dans les états
𝐶 = (𝑐1 , 𝑐2 ) de probabilité d’émission 𝑃 = (𝑝1 , 𝑝2 ) = (1/4, 3/4). Le codage de
Huffman est alors juste un arbre à un nœud et deux feuilles qui donne 𝑐1 → 0
et 𝑐2 → 1 de taille respective 𝑛1 = 𝑛2 = 1, de longueur moyenne

ℓ ̄ = 1 × 1/4 + 1 × 3/4 = 1.

Considérons désormais l’extension d’ordre 2, c’est-à-dire 𝑆2 d’alphabet 𝐶 2 =


(𝑐1 𝑐1 , 𝑐1 𝑐2 , 𝑐2 𝑐1 , 𝑐2 𝑐2 ) et d’émission de probabilité 𝑃 2 = (1/16, 3/16, 3/16, 9/16).
Cette extension d’ordre 2 donne l’arbre suivant.


1

𝑐2 𝑐2 7/16

1/4 𝑐2 𝑐1
1 0

𝑐1 𝑐2 𝑐1 𝑐1
𝑐1 𝑐1 → 010, 𝑐1 𝑐2 → 011, 𝑐2 𝑐1 → 00 et 𝑐2 𝑐2 → 1.

La longueur moyenne est alors de

ℓ2̄ = 3 × 1/16 + 3 × 1/16 + 2 × 3/16 + 9/16 = 1.6875,

ce qui donne
ℓ∗̄ = 0.5 × ℓ2̄ < ℓ.̄

61 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

3.2 Codage canal et correction d’erreur


On considère maintenant uniquement des signaux binaires même si de
nombreuses définitions et résultats présentés ici peuvent être généralisés. Une
fois le signal — c’est-à-dire une suite de 0 et de 1 — compressé, il va maintenant
s’agir de le transmettre. Le medium utilisé pour la transmission est appelé canal.
Évidemment, les canaux peuvent être de nature très variée. Il peut s’agir d’une
onde électromagnétique envoyée dans une fibre optique, dans l’atmosphère
ou dans l’espace dans le cas de la communication par satellite, d’impulsions
électriques envoyées dans un réseau, ou encore d’une clef USB, d’un disque
dur ou d’un disque optique pour les CD ou pour les DVD.
Chacun de ces canaux rend intrinsèquement possible l’introduction d’er-
reurs. Il y a concrètement toujours un risque que le médium transforme un 0 en
1 et réciproquement. Cela peut ne pas avoir d’effet grave si le code supporte une
image ou un son, mais peut être beaucoup plus lourd de conséquence s’il s’agît
du texte d’un programme exécutable par exemple. Dans ce cas, la transmission
échouera si le moindre symbole du programme est modifié.
Il apparaît donc nécessaire de mettre en place une stratégie permettant
au moins de détecter, lors de la réception, les erreurs de transmission, voir de
les corriger. De nombreuses méthodes atteignant cet objectif ont été conçues
depuis une cinquantaine d’années. Elles reposent toutes sur l’ajout de bits de
correction, ou bits de contrôle, c’est-à-dire qu’elles ont toujours pour effet négatif
de grossir la taille du signal à envoyer. Un compromis doit donc être trouvé
entre qualité de correction et alourdissement du signal.
Dans cette section, on présente des outils permettant de quantifier le facteurs
intervenant dans ce compromis et une stratégie générale de codage canal ainsi
qu’une de ses réalisations concrètes.
Dans la suite on désignera indifféremment de code correcteur, codage canal
ou encore code la stratégie de correction considérée.

3.2.1 Une approche naïve


Une idée simple que l’on peut avoir est de répéter un certain nombre de fois
chaque symbole à transmettre. Si on choisit par exemple de doubler le symbole,
c’est-à-dire d’appliquer la fonction :

0 → 00,

1 → 11,
on pourra facilement détecter une erreur (si les symboles reçus ne coïncident pas
deux à deux). Par contre, on ne pourra corriger l’erreur correctement qu’une fois

M. Chupin Version du 1er février 2023, 22 h 29 CET. 62


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

sur deux en moyenne, en choisissant arbitrairement de remplacer la séquence


erronée détectée par un 0, par exemple.
Dans cette démarche, on a ajouté un bit de correction par bit transmis. Si on
choisit maintenant d’en ajouter deux, en adoptant une stratégie de triplement,
on constate que la correction sera plus efficace : on remplacera une séquence
erronée, par exemple 001, par le signe apparaissant majoritairement 7 dans le
triplet, 0 dans notre exemple. Cette méthode permet de détecter deux erreurs par
bloc de trois bits et d’en corriger une : en effet, si deux erreurs affectent, lors de
la transmission la séquence de trois bits, alors la stratégie choisie donnera lieu,
lors du décodage, à une erreur. Pour aller plus loin, on peut regarder l’exemple
d’un canal introduisant 5% d’erreurs, avec lequel on applique la stratégie du
triplement. Puisqu’une erreur est corrigée, la probabilité qu’une séquence de
trois bits soit transmise correctement ou avec une seule erreur est de :

𝑝 = 0, 953 + 3 × 0, 952 × 0, 005 = 0, 99275.

Ainsi le taux de succès est passé de 95% à un taux supérieur 99%. Évidem-
ment, ceci a un coût ! Il a en effet fallu tripler la taille du signal à transmettre.
On va voir dans la suite comment optimiser l’usage des bits de correction.

3.2.2 Codes linéaires par blocs


Découpage en bloc et structure algébrique des blocs

Un préalable souvent nécessaire à la correction d’erreur est le découpage


du signal à transmettre en blocs de taille fixe, disons 𝑘. L’ensemble sur lequel
on va travailler est donc 𝐵𝑘 où 𝐵 = {0, 1}. En munissant celui-ci de l’addition
composante par composante dans le groupe (Z/2Z, +), ainsi que du corps des
scalaires (fini) (Z/2Z, +, ×), on voit que l’on peut doter 𝐵𝑘 d’une structure
d’espace vectoriel (fini) que l’on notera F𝑘2 .

Remarque 3.5 :
— Le plus petit corps fini est noté F2 . Il est composé de deux éléments
distincts, 0 qui est l’élément neutre pour l’addition, et 1 qui est
élément neutre pour la multiplication. Ceci détermine les tables de
ces deux opérations en dehors de 1 + 1 qui ne peut alors être que 0,
car 1 doit avoir un opposé. On vérifie alors qu’elles définissent bien
un corps commutatif.

7. On parle parfois de stratégie du vote majoritaire.

63 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

+ 0 1 × 0 1
0 0 1 0 0 0
1 1 0 1 0 1
Le corps F2 peut s’interpréter diversement. C’est l’anneau Z/2Z,
les entiers pris modulo 2, c’est-à-dire que 0 représente les entiers
pairs, 1 les entiers impairs (c’est le reste de leur division par 2), et
les opérations se déduisent de celles sur Z.
C’est aussi l’ensemble des valeurs de vérité classiques, 0 pour le
faux, et 1 pour le vrai. L’addition est le « ou exclusif » (xor), la
multiplication le « et ».
— Une généralisation naturelle de F2 = Z/2Z est, pour 𝑝 premier, le
corps Z/𝑝Z à 𝑝 éléments, noté aussi F𝑝 . Pour que l’anneau Z/𝑝Z
soit un corps, il faut et il suffit que 𝑝 soit premier.

Théorie des codes correcteurs

Introduisons quelques définitions pour pouvoir travailler mathématique-


ment avec ces concepts.

Définition 3.6 — Poids d’un mot


On définit le poids d’un mot 𝑚 de F𝑘2 comme le nombre de composantes
non nulles du mot. On le notera 𝑤(𝑚).

On définit alors une distance 8 sur cet espace vectoriel.

Définition 3.7 — Distance de Hamming


La distance de Hamming entre deux mots 𝑚1 et 𝑚2 de F𝑘2 est le nombre
de composantes distinctes de 𝑚1 et 𝑚2 . On la note 𝑑(𝑚1 , 𝑚2 ).

On peut montrer, mais nous ne le ferons pas ici, que cette distance de

8. On appelle distance sur un ensemble 𝐸 toute application 𝑑 définie sur le produit 𝐸 2 =


𝐸 × 𝐸 et valeur dans R+ vérifiant les propriétés suivantes :
(symétrie) ∀(𝑎, 𝑏) ∈ 𝐸 2 , 𝑑(𝑎, 𝑏) = 𝑑(𝑏, 𝑎),
(séparation) ∀(𝑎, 𝑏) ∈ 𝐸 2 , 𝑑(𝑎, 𝑏) = 0 ⇔ 𝑎 = 𝑏,
(inégalité triangulaire) ∀(𝑎, 𝑏, 𝑐) ∈ 𝐸 3 , 𝑑(𝑎, 𝑐) ⩽ 𝑑(𝑎, 𝑏) + 𝑑(𝑏, 𝑐).
Un ensemble muni d’une distance est un espace métrique.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 64


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Hamming 9 est bien une distance au sens mathématique du terme.

Proposition 3.2 : La distance de Hamming est une distance sur F𝑘2 .

On a par exemple :
𝑑(111, 101) = 1.
Une propriété intéressante de cette distance est qu’elle vérifie :

𝑑(𝑚1 , 𝑚2 ) = 𝑑(𝑚1 + 𝑚2 , 0F𝑛2 ), (3.1)

où :
0F𝑛2 = (0,
⏟⎵…⏟⎵,⏟
0).
𝑛 fois

Autrement dit, pour connaître la distance entre deux mots, il suffit de les
additionner et de compter le nombre de composantes égales à 1 dans le résultat.
Derrière cette notion de distance, se cache une stratégie de correction : étant
donné que les mots du code ne forment qu’une sous-partie de F𝑛2 , lorsqu’on
reçoit en sortie de canal un mot ne figurant pas dans l’ensemble des mots
possible, on le remplace par le mot du code le plus proche.

Code

Dans le cadre que l’on vient d’introduire, l’ajout de 𝑟 bits de correction peut
être vu comme l’application d’une certaine fonction injective :

𝑔 ∶ F𝑘2 → F𝑛2 ,

où 𝑛 = 𝑘 + 𝑟. La stratégie de correction est dite linéaire, lorsque 𝑔 est une


application linéaire (entre les espaces F𝑘2 et F𝑛2 ). Si on note 𝑚 un mot de taille 𝑘
et 𝑚′ son image par le codage, on a donc :

𝑚′ = 𝑚𝐺,

où 𝐺 est la transposée de la matrice de 𝑔 de dimensions (𝑛, 𝑘) et à coefficients


dans Z/2Z.
Puisque 𝑛 > 𝑘, l’image de 𝑔 est un sous-espace vectoriel de F𝑛2 .
9. Richard Wesley Hamming (11 février 1915, Chicago - 7 janvier 1998, Monterey, Californie)
est un mathématicien américain surtout connu pour son algorithme de correction d’erreur, le
Code de Hamming. Il travailla avec Claude Shannon entre 1946 et 1976 aux laboratoires Bell.

65 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Définition 3.8 — Code linéaire


On appelle codage linéaire le sous-espace vectoriel Im(𝑔) que l’on note
𝐶(𝑘, 𝑛). En tant que sous-espace de dimension 𝑘 (𝑔 est injective), il est
caractérisé par 𝑛 − 𝑘 = 𝑟 équations linéaires traduisant les dépendances
entre les bits des blocs codés.

Exemple
Un exemple particulièrement simple est le bit de parité : on ajoute à la fin
du message un bit correspondant à la parité de la somme des éléments du
message. Si la somme est paire, alors le bit vaut 0 et 1 sinon. Pour un mot de
longueur 𝑘, le code associé a donc pour paramètres (𝑘, 𝑘 + 1).

Définition 3.9 — Matrice génératrice


La matrice 𝐺 est appelée matrice génératrice du code 𝐶(𝑘, 𝑛).

Définition 3.10 — Distance minimale d’un code


On appelle distance minimale d’un code 𝐶 (de correction linéaire par
bloc) la plus petite distance entre deux mots de 𝐶 :

𝑑𝐶 = min {𝑑(𝑚1 , 𝑚2 ); 𝑚1 ∈ 𝐶, 𝑚2 ∈ 𝐶, 𝑚1 ≠ 𝑚2 } .

Proposition 3.3 : Pour un code linéaire 𝐶, on a

𝑑𝐶 = min {𝑤(𝑚); 𝑚 ∈ 𝐶, 𝑚 ≠ 0} .

Exercice 3.5 :
Écrire la preuve.

Proposition 3.4 : Soit 𝐶 un code linéaire de paramètre (𝑛, 𝑘, 𝑑𝐶 ), alors

𝑑𝐶 ≤ 𝑛 − 𝑘 + 1.

C’est la borne de Singleton.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 66


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

67 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Exercice 3.6 :
Écrire la preuve (indication : faire un raisonnement sur les dimensions des
espaces).

Décodage par maximum de vraisemblance


Une classe de décodage importante est la classe des décodage à distance
minimale que nous définissons maintenant.

Définition 3.11 — Décodage à distance minimale


On dit qu’un code 𝐶 utilise un décodage à distance minimale chaque fois
que la décision de décodage, noté 𝒟 consiste pour un mot reçu 𝑚∗ , à
choisir le ou un des mots de code le plus proche

𝒟(𝑚∗ ) = arg min 𝑑(𝑚, 𝑚∗ ).


𝑚∈𝐶

Le lemme suivant donne une méthode simple pour calculer la distance d’un
code.

Lemme 3.3 La distance d’un code est égale au nombre de 1 contenus


dans le mot non nul du code qui en contient le moins.

Preuve : Ce lemme est une conséquence directe de la formule (3.1). En effet, puisque
𝐶(𝑘, 𝑛) est un espace vectoriel, on a :
𝐶(𝑘, 𝑛) − {0F𝑛2 } = {𝑚1 + 𝑚2 ; 𝑚1 ≠ 𝑚2 , 𝑚1 ∈ 𝐶(𝑘, 𝑛), 𝑚2 ∈ 𝐶(𝑘, 𝑛)} . 

3.2.3 Détection et correction d’erreur


Si la distance d’un code est 1, un mot avec un bit erroné peut également
être un mot du code. On ne pourra donc pas à coup sûr détecter 1 erreur. Si
la distance est 2, on détectera à coup sûr une erreur, mais on ne pourra pas la
corriger dans tous les cas. En effet, il se peut que le mot entaché d’une erreur
soit équidistant de deux mots distincts du code, ce qui fait qu’on ne pourra
choisir qu’arbitrairement et sans garantie le mot du code qui lui correspondait
avant l’erreur. Enfin, si la distance est 3, alors, par un raisonnement analogue,
on pourra détecter 2 erreurs et corriger correctement 1 erreur. Tout ceci se
généralise dans le théorème suivant.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 68


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Théorème 3.2 Un code par bloc de longueur 𝑛 utilisant un décodage


à distance minimale peut, pour toute paire d’entiers 𝑡 ∈ {0, … , 𝑛} et
𝑠 ∈ {0, … , 𝑛 − 𝑡}
— corriger les mots contenant 𝑡 erreurs ou moins,
— détecter les mots contenant de 𝑡 + 1 à 𝑡 + 𝑠 erreurs,
si et seulement si
𝑑𝐶 > 2𝑡 + 𝑠.

Avant de prouver ce résultat, on introduira la formalisation suivante. Comme


stipulé précédemment, la transmission à travers le canal peut donner lieu à
une erreur affectant certains bits du mot. Le mot 𝑚∗ recueilli en sortie de canal
sera donc de la forme :
𝑚∗ = 𝑚′ + 𝑒,
où 𝑒 est un vecteur de F𝑛2 comportant des 1 sur les composantes correspondant
à celles affectées et des 0 ailleurs.

Preuve : (difficile) On démontre ce théorème en démontrant la contraposée, c’est-


à-dire : 𝐶 ne peut corriger tous les schémas à 𝑡 erreurs ou ne peut détecter tous les
schémas à 𝑡 + 1,…,𝑡 + 𝑠 erreurs si et seulement si 𝑑𝐶 ⩽ 2𝑡 + 𝑠.
Supposons tout d’abord que le code 𝐶 ne peut pas corriger tous les schémas à 𝑡
erreurs ou ne peut détecter tous les schémas à 𝑡 + 1,…,𝑡 + 𝑠 erreurs.
Dans un premier temps, si le code 𝐶 ne peut pas corriger tous les schémas de
moins de 𝑡 erreurs (inclues), cela signifie qu’il existe au moins un mot de code 𝑚1 et un
schéma d’erreur 𝑒 de poids inférieur à 𝑡 tels que le décodage 𝒟(𝑚1 + 𝑒) ne soit pas 𝑚1 .
Notons 𝑚2 le mot décodé au lieu de 𝑚1 , c’est-à-dire 𝑚2 = 𝒟(𝑚1 + 𝑒). Grâce à l’égalité
triangulaire, on a

𝑑(𝑚1 , 𝑚2 ) ⩽ 𝑑(𝑚1 , 𝑚1 + 𝑒) + 𝑑(𝑚1 + 𝑒, 𝑚2 ).

De plus, on a 𝑑(𝑚1 , 𝑚1 + 𝑒) = 𝑤(𝑒) ⩽ 𝑡 et 𝑑(𝑚1 + 𝑒, 𝑚2 ) ⩽ 𝑑(𝑚1 + 𝑒, 𝑚1 ) car le code


utilise un décodage à distance minimale. Ainsi

𝑑(𝑚1 , 𝑚2 ) ⩽ 𝑡 + 𝑡 ⩽ 2𝑡 + 𝑠,

et donc 𝑑𝐶 qui est inférieur ou égale à 𝑑(𝑚1 , 𝑚2 ) est aussi inférieure ou égale à 2𝑡 + 𝑠.
Ensuite, si le code peut corriger tous les schémas de moins de 𝑡 erreurs mais ne
peut pas détecter tous les schémas à 𝑡 + 1, … , 𝑡 + 𝑠 il existe au moins un mot de code 𝑚1
et schéma d’erreur 𝑒 de poids entre 𝑡 + 1 et 𝑡 + 𝑠 qui ne sont pas détectés mais décodé
en un autre mot du code 𝑚2 = 𝒟(𝑚1 + 𝑒). En introduisant l’erreur 𝑒′ = 𝑚2 + (𝑚1 + 𝑒),
nous avons aussi 𝒟(𝑚2 + 𝑒′ ) = 𝑚2 , c’est-à-dire que 𝑒′ est une erreur qui est corrigée
lorsqu’elle est appliquée à 𝑚2 . Comme 𝑤(𝑒′ ) = 𝑑(𝑚2 + 𝑒′ , 𝑚2 ) = 𝑑(𝑚1 + 𝑒, 𝑚2 ) ⩽
𝑑(𝑚1 + 𝑒, 𝑚1 ) = 𝑤(𝑒) (puisque le décodage est à distance minimale), nous avons

69 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

𝑤(𝑒′ ) ⩽ 𝑡 + 𝑠. Comme 𝑒′ est une erreur qui est corrigée, alors 𝑤(𝑒′ ) ⩽ 𝑡. On conclut
alors
𝑑(𝑚1 , 𝑚2 ) ⩽ 𝑑(𝑚1 , 𝑚1 + 𝑒) + 𝑑(𝑚1 + 𝑒, 𝑚2 ) ⩽ (𝑡 + 𝑠) + 𝑡 = 2𝑡 + 𝑠,
et donc 𝑑𝐶 ⩽ 2𝑡 + 𝑠.
Réciproquement, supposons que 𝑑𝐶 ⩽ 2𝑡 + 𝑠. Il existe donc deux mots du code 𝑚1
et 𝑚2 tels que 𝑑(𝑚1 , 𝑚2 ) ⩽ 2𝑡 + 𝑠. Ceci signifie aussi que le poids du vecteur 𝑚1 + 𝑚2
est aussi inférieur à 2𝑡 + 𝑠. Tout vecteur 𝑚 de poids inférieur ou égal à 2𝑡 + 𝑠 peut s’écrire
comme la somme de deux vecteurs 𝑒 et 𝑓 tels que 𝑤(𝑒) ⩽ 𝑡 et 𝑤(𝑓) ⩽ 𝑡 + 𝑠 : prendre
les premières composantes de 𝑚 jusqu’à 2𝑡 complétées par des zéros pour constituer
𝑒, et inversement, 2𝑡 composantes nulles complétées par le reste des composantes de
𝑚 pour 𝑓. Par exemple 011010 peut être écrit comme 010000 + 001010 pour 𝑡 = 1 et
𝑠 = 1.
Ainsi 𝑚 = 𝑚1 + 𝑚2 = 𝑒 + 𝑓, c’est-à-dire (puis que en binaire +𝑒 = −𝑒), 𝑚1 + 𝑓 =
𝑚2 + 𝑒. Ceci veut dire que deux mots de code distincts et deux schémas d’erreur seront
décodés de la même façon. Ceci implique que (au moins) 𝑚1 + 𝑓 n’est pas corrigé
(𝒟(𝑚1 + 𝑓) ≠ 𝑚1 ) ou que 𝑚2 + 𝑒 n’est pas détecté (𝒟(𝑚2 + 𝑒) = 𝑚1 ).
Ainsi, tous les schémas de moins de 𝑡 erreurs ne peuvent être corrigés, ou tous les
schémas à 𝑡 + 1, … , 𝑡 + 𝑠 erreurs ne peuvent être détectées. 
Pour illustrer ce résultat, considérons un code par bloc ayant une distance
minimale de 8. Un tel code peut être utilisé pour l’un ou l’autre des points
suivants :
— corriger tous les schémas d’erreur de moins que 3 (inclus) erreurs et
détecter tous les schémas à 4 erreurs (𝑡 = 3, 𝑠 = 1) ;
— corriger tous les schémas d’erreur de moins que 2 erreurs et détecter
tous les schémas de 3 à 5 erreurs (𝑡 = 2, 𝑠 = 3) ;
— corriger tous les schémas d’erreur de 1 erreur et détecter tous les schémas
de 2 à 6 erreurs (𝑡 = 1, 𝑠 = 5) ;
— détecter tous les schémas de moins que 7 (inclus) erreurs (𝑡 = 0, 𝑠 = 7).
Un code par bloc ayant une distance minimale de 7 peut (l’un ou l’autre) :
— corriger tous les schémas d’erreur de moins que 3 (inclus) erreurs (𝑡 = 3,
𝑠 = 0) ;
— corriger tous les schémas d’erreur de moins que 2 erreurs et détecter
tous les schémas de 3 à 4 erreurs (𝑡 = 2, 𝑠 = 2) ;
— corriger tous les schémas d’erreur de 1 erreur et détecter tous les schémas
de 2 à 5 erreurs (𝑡 = 1, 𝑠 = 4) ;
— détecter tous les schémas de moins que 6 (inclus) erreurs (𝑡 = 0, 𝑠 = 6).
Du théorème précédent, on obtient les deux résultats suivants.
Corollaire 3.1 (Capacité maximale de détection d’erreurs) : Un code par bloc 𝐶 uti-
lisant le décodage à distance minimale peut être utilisé pour détecter tous les
schémas d’erreur de 𝑑𝐶 − 1 erreurs, ou moins.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 70


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Preuve : Utiliser 𝑡 = 0 et 𝑠 = 𝑑𝐶 − 1 dans le théorème précédent. 

Corollaire 3.2 (Capacité maximale de correction d’erreurs) : Un code par bloc 𝐶 uti-
lisant le décodage à distance minimale peut-être utilisé pour corriger tous les
schémas d’erreur de maximum (𝑑𝐶 − 1)/2 (division euclidienne) erreurs ou moins,
mais ne peut pas corriger les schémas d’erreur de 1 + (𝑑𝐶 − 1)/2 erreurs.

Preuve : Utiliser 𝑡 = (𝑑𝐶 − 1)/2 et 𝑠 = 0, et le 𝑡 est maximal car pour 𝑡∗ = 1 + (𝑑𝑐 − 1)/2
on a 2𝑡∗ = 1 + 𝑑𝐶 ⩾ 𝑑𝐶 . 

3.2.4 Syndrôme et matrice de vérification


Notion de syndrome
On peut caractériser l’appartenance au code 𝐶(𝑘, 𝑛) grâce à la notion de
matrice de vérification :

𝑚′ ∈ 𝐶(𝑘, 𝑛) ⇔ 𝐻𝑚′ = 0,

où 𝐻 est une matrice de dimensions (𝑟, 𝑛).

Remarque 3.6 :
La théorie de l’algèbre linéaire montre qu’une telle application existe, il
suffit par exemple de considérer un projecteur a sur un sous-espace sup-
plémentaire de 𝐶(𝑘, 𝑛) parallèlement à 𝐶(𝑘, 𝑛). Notons qu’un code linéaire
donné pourrait avoir plusieurs matrices de vérification différentes : toute
matrice dont les lignes sont une base de l’espace vectoriel orthogonal au
code linéaire est une matrice de vérification pour ce code.

Définition 3.12 — Matrice de vérification


La matrice 𝐻 est appelée matrice de vérification, matrice de contrôle ou
matrice de test du code linéaire 𝐶(𝑘, 𝑛)

a. Soient 𝐹 un sous-espace vectoriel de 𝐸 et 𝐺 un supplémentaire de 𝐹 dans 𝐸. N’importe


quel vecteur 𝑥 de 𝐸 peut s’écrire d’une façon unique comme somme d’un vecteur de 𝐹 et d’un
vecteur de 𝐺 : ∀𝑥 ∈ 𝐸, ∃!(𝑥′ , 𝑥″ ) ∈ 𝐹 × 𝐺, 𝑥 = 𝑥′ + 𝑥″ . La projection sur 𝐹 parallèlement à
𝐺 est alors l’application :
𝑝∶ 𝐸 =𝐹⊕𝐺 →𝐸
.
𝑥 = 𝑥′ + 𝑥″ ↦ 𝑥′ .

71 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

On a 𝐶(𝑘, 𝑛) = Ker(𝐻) et la relation :


𝐻𝑚∗ = 𝐻𝑒,
puisque 𝑚 ∈ Ker(𝐻).

Définition 3.13 — Syndrome


Le vecteur 𝐻𝑚∗ = 𝐻𝑒 est appelé syndrome de 𝑚∗ .

Remarque 3.7 :
— Si seul une erreur s’est produite sur la composante 𝑖 de 𝑚′ , alors le
syndrome sera égal à la 𝑖-ème colonne de 𝐻.
— On note ici 𝐻𝑚 au lieu de 𝑚𝐻 𝑇 car cela facilitera l’écriture du pro-
chain théorème.
— Les définitions précédentes ne disent pas comment trouver en pra-
tique les matrices de vérifications ce qui sera l’objet de ce qui suit.

Introduisons maintenant les matrices génératrices sous forme systématique.

Définition 3.14 — Forme systématique


Une matrice génératrice 𝐺 d’un code linéaire (𝑘, 𝑛) est dite sous forme
systématique si elle est de la forme

𝐺 = [𝐼𝑘 𝑃],

où 𝐼𝑘 est la matrice identité de taille 𝑘 et 𝑃 est une matrice 𝑘 × (𝑛 − 𝑘)


souvent appelée matrice de parité.

On peut montrer que lorsqu’elle existe pour un code donné, la matrice


génératrice systématique est unique.
Exemple
Pour les messages binaires, le bit de vérification de parité est le bit qui corres-
pond à la parité du message, c’est-à-dire à la somme (binaire) du message.
Le code par bit de parité consiste simplement à envoyer d’abord le message
tel quel, suivi de son bit de parité. En termes de codes, ceci correspond au
code binaire linéaire (𝑘, 𝑘 + 1) dont la matrice génératrice est
1
𝐺 = [𝐼𝑘 ⋮ ]
1
M. Chupin Version du 1er février 2023, 22 h 29 CET. 72
CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

qui est sous forme systématique.

Théorème 3.3 Pour un code linéaire 𝐶(𝑘, 𝑛) dont la matrice génératrice


est sous forme systématique est

𝐺 = [𝐼𝑘 𝑃]

la matrice
𝐻 = [−𝑃 ⊤ 𝐼𝑛−𝑘 ]
est une matrice de vérification.

Preuve : Pour tout message 𝑚 ∈ F𝑘2 , le mot de code 𝑧 ∈ F𝑛2 correspondant est

𝑧 = 𝑚 ⋅ 𝐺 = 𝑚 ⋅ [𝐼𝑘 𝑃],

c’est-à-dire
(𝑧1 , … , 𝑧𝑘 ) = 𝑚,
{
(𝑧𝑘+1 , … , 𝑧𝑛 ) = 𝑚 ⋅ 𝑃.

Ainsi
(𝑧𝑘+1 , … , 𝑧𝑛 ) = (𝑧1 , … , 𝑧𝑘 ) ⋅ 𝑃,

ce qui sous forme matricielle donne la matrice de contrôle 𝐻.


Réciproquement, on montre que tout code 𝑧 ∈ F𝑛2 tel que 𝐻 ⋅ 𝑧 = 0 vérifie

𝑧 = (𝑧1 , … , 𝑧𝑘 ) ⋅ 𝐺

et se trouve être un mot de code. 

Remarque 3.8 :
On notera qu’il est fait mention de la matrice −𝑃 𝑇 . Le signe − est là car,
même s’il n’a pas été défini sur l’espace F2 , il provient de la preuve, et le
résultat s’étend à des espaces vectoriels autre que F2 . Pour notre cas, c’est-à-
dire le cas binaire, le signe − est comme le signe +, en effet 1−1 = 0 = 1+1
en binaire, et 0 − 1 = 0 + 1 = 1.

73 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Exercice 3.7 :
Soit le code 𝐶 dont la matrice génératrice est

1 0 1 0 1
𝐺=( ).
0 1 1 1 1

Trouver une matrice de vérification pour le code 𝐶.

Matrice de vérification et distance minimale

Théorème 3.4 — Matrice de vérification et distance minimale —


Si 𝐻 est une matrice de vérification pour un code linéaire 𝐶(𝑘, 𝑛) alors
la distance minimale 𝑑𝐶 de ce code est égale au plus petit nombre de
colonnes linéairement dépendantes de 𝐻.

Preuve : Pour tout vecteur 𝑧 ∈ F𝑛2 , 𝐻 ⋅ 𝑧 est une combinaison linéaire de 𝑤(𝑧) colonnes
de 𝐻. Par définition, 𝑧 ∈ 𝐶(𝑘, 𝑛) si et seulement si 𝐻 ⋅ 𝑧 = 0. Ainsi, si 𝑧 ∈ 𝐶(𝑘, 𝑛), il
existe 𝑤(𝑧) colonnes de 𝐻 qui sont linéairement dépendantes. Réciproquement, si 𝑞
colonnes de 𝐻 sont linéairement dépendantes, il existe un mot du code de poids 𝑞.
Donc 𝑑𝐶 est le nombre minimal de colonnes de 𝐻 qui sont linéairement dépen-
dantes en vertu de la proposition 3.3. 

3.2.5 Codes de Hamming


Pour achever la description de la stratégie de correction, on aimerait être
capable de construire les matrices 𝐺 et 𝐻. C’est l’objet de cette section. On va
prendre l’exemple de codes très répandus : les codes de Hamming.
L’idée est de disposer d’un code dont le syndrome indique directement la
position de l’erreur, par exemple sous forme de son code binaire.

Choix des paramètres

On se place dans le cadre simple où au plus une erreur peut affecter les mots
(de longueur 𝑛) du code. Il y a donc 𝑛 + 1 scenari possibles : soit il n’y a pas eu
d’erreur pendant la transmission, soit une erreur s’est produite sur l’un des 𝑛
bits. Or, d’après les dimensions des espaces considérés, 2𝑟 syndromes possibles,
puisque 𝐻𝑒 ∈ F𝑟2 . Si l’on veut pouvoir faire correspondre de manière sûre,
c’est-à-dire par le biais d’une injection, les vecteurs syndromes observés et le

M. Chupin Version du 1er février 2023, 22 h 29 CET. 74


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

scénario dont il est la conséquence, il faut nécessairement :

2𝑟 ≥ 𝑛 + 1.

On va ici se restreindre aux paramètres vérifiants l’égalité suivante :

2𝑟 = 𝑛 + 1. (3.2)

D’autre part, on a :
𝑛 = 𝑘 + 𝑟. (3.3)
Enfin 𝑘 ≥ 1, car on travaille sur des blocs de longueur non nulle ! En
cherchant quels sont les 𝑘 pour lesquels (3.2) et (3.3) ont des solutions (𝑘, 𝑛)
entières, on trouve par exemple :

𝑛 𝑘 𝑟
3 1 2
7 4 3
15 11 4
31 26 5
63 57 6

Le premier exemple correspond à la stratégie de triplement, décrite à la sec-


tion 3.2.1. Le second correspond à un code largement utilisé, souvent appelé
𝐶(4, 7), ce qui correspond aux notations utilisées dans cette section.
L’idée du code de Hamming est d’exploiter le fait que lorsqu’il n’y a qu’une
erreur, le syndrôme nous donne exactement la position de l’erreur. En exploitant
le fait que 𝐻𝑒 nous donne la 𝑖e colonne de 𝐻, on définit le code de Hamming
comme il suit.

Définition 3.15 — Code de Hamming


Un code de Hamming est un code linéaire (𝑘, 𝑛) binaire dont la matrice
de vérification est

𝐻𝑟 = [𝑏𝑟 (1)⊤ 𝑏𝑟 (2)⊤ ⋯ 𝑏𝑟 (𝑛)⊤ ]

où 𝑛 = 2𝑟 − 1 et 𝑘 = 2𝑟 − 𝑟 − 1, pour 𝑟 ≥ 2, et 𝑏𝑟 (𝑖) est la représentation


binaire de 𝑖 sur 𝑟 bits.

Par construction, ces matrices donnent bien un code linéaire et sont bien
de rang plein puisqu’il est aisé de construire la matrice indentité 𝐼𝑛−𝑘 à partir
des colonnes. La dimension du noyau est alors 𝑘.

75 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Pour construire la matrice de génération du code, il suffirait par exemple


de mettre la matrice 𝐻 sous forme systématique pour extraire la matrice 𝑃 et
construire la matrice 𝐺. Cependant, cela nous ferait perdre la propriété que
le syndrôme donne la position de l’erreur à corriger. Nous n’allons donc pas
suivre cette stratégie.
La matrice de contrôle définit totalement la géométrie du code, il suffit
donc, pour terminer l’implémentation de trouver une matrice génératrice 𝐺.
L’application linéaire associée doit vérifier deux conditions : elle est injective,
et son image est le noyau de 𝐻. Il suffit donc de trouver une matrice de rang 𝑘
(𝑛 = 𝑘 + 𝑟) tel que 𝐻 ⋅ 𝐺𝑇 = 0.

Théorème 3.5 — Distance minimum du code de Hamming — La


distance minimale des codes de Hamming est toujours 3. Ainsi de tels
codes peuvent corriger tous les schémas à une erreur.

Preuve : Calculons la distance minimale. Les matrices de vérification n’ont jamais


de colonne nulle ni deux fois la même colonne. De plus, les trois premières colonnes
(représentation binaires de 1, 2, et 3) sont toujours linéairement dépendantes. La
distance minimale est donc toujours 3. 

Exemple
Soit la matrice de syndrôme du code de Hamming 𝐶(4, 7) :

0 0 0 1 1 1 1
𝐻 = ( 0 1 1 0 0 1 1 ).
1 0 1 0 1 0 1

Pour trouver la matrice génératrice, nous cherchons 4 vecteurs linéairement


indépendant 𝑧𝑖 tels que 𝐻𝑧𝑖⊤ = 0, par exemple :

𝑧1 = 1110000
𝑧2 = 1101001
𝑧3 = 1000011
𝑧4 = 1111111

ce qui donne
1 1 1 0 0 0 0
⎡ ⎤
1 1 0 1 0 0 1⎥
𝐺=⎢
⎢1
⎢ 0 0 0 0 1 1⎥⎥
⎣1 1 1 1 1 1 1⎦

M. Chupin Version du 1er février 2023, 22 h 29 CET. 76


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

Supposons maintenant devoir envoyer le message 𝑚 = 1001. Il est codé par 𝐺


en 𝑧 = 0001111. Faisons maintenant l’hypothèse qu’une erreur soit survenue
sur le troisième bit, et donc que 𝑧 ̂ = 0011111 soit reçu.
Le syndrome d’un tel code reçu sera alors 𝑠 = 011, c’est-à-dire 3 en code
binaire, ce qui indique que l’erreur est apparue sur le troisième bit. Le résultat
de décodage avec correction d’erreur est alors

𝑧 = 𝑧 ̂ − 0010000.

Remarque 3.9 :
On peut montrer que pour un canal ayant une probabilité d’erreur de 5%,
la probabilité de transmettre correctement 4 bits est .954 ≈ 81%.
L’utilisation de 𝐶(4, 7) permet de faire passer cette valeur à (1−𝑝)7 +7𝑝(1−
𝑝)6 ≈ 95%. Ce résultat, comparable à la stratégie par triplement, est en fait
bien meilleur, car la taille des mots du code n’a même pas doublé. Notons
enfin qu’on peut rendre la probabilité d’erreur aussi faible que l’on veut en
appliquant un code correcteur plusieurs fois de suite.

3.3 Notes bibliographiques


Ce chapitre s’inspire de notes de cours gracieusement fournies par Yvan
Pigeonnat. Pour plus d’informations sur le codage source, on pourra consulter
les références [9], [4]. Pour plus d’informations sur les codes correcteurs (de type
Hamming), on pourra également consulter [4], mais bien d’autres documents
relatifs à la correction d’erreur se trouvent facilement sur Internet. Enfin, pour
des références très complète sur le codage et pour découvrir des codages autres
que le codage de Hamming (il en existe énormément), on pourra consulter [10,
7] et [1].

77 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 3. CODAGE SANS PERTE DE L’INFORMATION

M. Chupin Version du 1er février 2023, 22 h 29 CET. 78


Chapitre
4
Transformation de Fourier discrète

Sommaire du chapitre
4.1 La transformée de Fourier discrète (TFD) . 80
4.1.1 Cadre et problèmes . . . . . . . . . . 80
4.1.2 Propriétés de la TFD et signaux pério-
diques discrets . . . . . . . . . . . . . 81
4.2 L’algorithme FFT . . . . . . . . . . . . . . . . 82
4.2.1 L’algorithme de Tuckey et Cooley . 83
4.3 Analyse numérique . . . . . . . . . . . . . . 84
4.4 Notes bibliographiques . . . . . . . . . . . . 85

Ce chapitre est un préliminaire aux chapitres qui suivent. Avant d’abor-


der les filtres, qui permettent de travailler et de modifier la transformée de
Fourier, en d’autres termes le spectre d’un signal, il est nécessaire d’indiquer
comment calculer effectivement ce spectre. Puisque les signaux auxquels on
s’intéresse sont discrets (car numériques), on se concentre ici sur la transformée
de Fourier discrète. Son calcul, si il est fait naïvement, peut être très coûteux. Il
peut cependant être accéléré considérablement en utilisant une méthode due à
Tuckey 1 et Cooley 2 , le fameux algorithme FFT , dont le nom est l’acronyme
correspondant à Fast Fourier Transform.

1. John Wilder Tukey (16 juin 1915, New Bedford, Massachusetts - 26 juillet 2000, New
Brunswick, New Jersey. ) était un statisticien américain.
2. James Cooley (1926-2016) était un mathématicien americain.

79
CHAPITRE 4. TRANSFORMATION DE FOURIER DISCRÈTE

4.1 La transformée de Fourier discrète (TFD)


On commence par rappeler le cadre discret où l’on se place.

4.1.1 Cadre et problèmes


On considère un signal échantillonné, fini :

𝑠 = {𝑠0 , 𝑠1 , … , 𝑠𝑁−2 , 𝑠𝑁−1 },

obtenu à partir d’un signal analogique. également noté 𝑠, par une formule du
type :
𝑠𝑛 = 𝑠(𝑛Δ𝑡),
où Δ𝑡 est le pas de l’échantillonnage, relié à la fréquence d’échantillonnage 2𝐵
du chapitre 1 par l’équation :
1
Δ𝑡 = .
2𝐵
On ne tient pas compte ici du fait que le signal peut avoir été quantifié, c’est-à-
dire que les 𝑠𝑛 sont considérés a priori comme réels.

Définition 4.1 — Transformée de Fourier discrète (TFD)


On appelle transformée de Fourier discrète, en abrégé TFD, de la suite
finie 𝑠 = {𝑠0 , 𝑠1 , … , 𝑠𝑁−2 , 𝑠𝑁−1 }, la suite finie

𝑠 ̂ = {𝑠0̂ , 𝑠1̂ , … , 𝑠𝑁−2


̂ , 𝑠𝑁−1
̂ }

définie par la formule :


𝑁−1 𝑛
−2i𝜋𝑘
𝑠𝑘̂ = ∑ 𝑠𝑛 e 𝑁 .
𝑛=0

Comme toute transformée de Fourier, on voit que la TFD est une appli-
cation linéaire. Sa matrice est une matrice pleine, c’est-à-dire ne comportant
pas de 0, de type matrice de Vandermonde. On voit de plus que le pas de
temps utilisé n’apparaît pas dans la formule. On peut en quelque sorte consi-
dérer que celui-ci est égal à 1. Ceci est en fait naturel : un signal discret est
une suite de nombres et seules des informations supplémentaires sur ce qu’elle
représente permettent de connaître la fréquence qui a été utilisée pour obtenir
l’échantillon.
On va s’intéresser à deux questions dans la suite :

M. Chupin Version du 1er février 2023, 22 h 29 CET. 80


CHAPITRE 4. TRANSFORMATION DE FOURIER DISCRÈTE

1. Quel est le coût de calcul de la TFD ? et comment l’améliorer ?


2. Quelle est la qualité de l’approximation de la transformée de Fourier du
signal analogique initial ?

4.1.2 Propriétés de la TFD et signaux périodiques discrets


Pour simplifier l’exposé, on introduit de nouvelles notations. Soit une suite fi-
nie 𝑎 = {𝑎0 , 𝑎1 , ..., 𝑎𝑁−2 , 𝑎𝑁−1 }, et 𝜔𝑁 = e−i2𝜋/𝑁 . Alors la suite 𝐴 = {𝐴0 , 𝐴1 , ..., 𝐴𝑁−2 , 𝐴𝑁−1 },
définie par
𝑁−1
𝑛𝑚
𝐴𝑚 = ∑ 𝑎𝑛 𝜔𝑁 (4.1)
𝑛=0
est la TFD de 𝑎. Sous forme matricielle, cela s’écrit :

𝐴 1 1 1 ⋯ ⋯ 1 𝑎0
⎛ 0 ⎞ ⎛ 1 𝜔1 𝜔𝑁2
⋯ ⋯ 𝜔𝑁 𝑁−1 ⎞ ⎛ ⎞
𝐴1 ⎜ 𝑁 ⎟ 𝑎1
⎜ ⎟ 2 4 2(𝑁−1) ⎜ ⎟
⎜ ⋮ ⎟ = ⎜⎜1 𝜔𝑁 𝜔𝑁 ⋯ ⋯ 𝜔𝑁 ⎟⎜ ⋮ ⎟,
⎜ ⋮ ⎟ ⎜⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⎟⎜ ⋮ ⎟
2(𝑁−1) (𝑁−1)2

⎝𝐴𝑁−1 ⎠ ⎝1 𝜔𝑁 𝜔𝑁
𝑁
⋯ ⋯ 𝜔 𝑁 ⎠ ⎝𝑎𝑁−1 ⎠
et l’on notera la matrice de Vandermonde Ω𝑁 .
Dans le cas de la transformée de Fourier discrète, on peut, sans autre
hypothèse, inverser la transformée pour obtenir le signal initial.

Théorème 4.1 — Formule d’inversion de la TFD — En gardant les


notations précédentes, on a :
𝑁−1
1
𝑎𝑛 = ∑ 𝐴 𝜔−𝑛𝑚 .
𝑁 𝑚=0 𝑚 𝑁

Exercice 4.1 :
Prouver ce résultat.

Évidemment, on retrouve dans la TFD et sa formule d’inversion les analogies


habituelles entre les transformées de Fourier et leurs inverses. Dans le cas
présent, on retrouve simplement que l’inverse d’une matrice de Vandermonde
est une matrice de Vandermonde 3 , c’est-à-dire Ω−1
𝑁 = 1/𝑁 × Ω𝑁 .

3. proportionnelle à une matrice de Vandermonde, pour être plus précis.

81 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 4. TRANSFORMATION DE FOURIER DISCRÈTE

Remarque 4.1 :
Cette formule reste valable si on considère les extensions périodiques de 𝑎 et
𝐴, définies par les formules :

𝑎𝑛+𝑘𝑁 = 𝑎𝑛 , 𝐴𝑚+𝑘𝑁 = 𝐴𝑚 .

C’est maintenant comme cela que l’on envisagera les choses. Tous les si-
gnaux considérés seront vus dorénavant comme des signaux discrets pério-
diques.

Par conséquent, l’ordre de sommation peut-être choisi arbitrairement. En


supposant par exemple que 𝑁 = 2𝑀 + 1, on obtient :
𝑁−1 𝑀
𝑛𝑚 1
𝐴𝑚 = ∑ 𝑎𝑛 𝜔𝑁 , 𝑎𝑛 = ∑ 𝐴 𝜔−𝑛𝑚 .
𝑛=0
2𝑀 + 1 𝑚=−𝑀 𝑚 𝑁

Pour simplifier encore, on notera dans la suite ces relations en abrégé par :
ℱ𝑁
(𝑎𝑛 ) ⟷ (𝐴𝑚 ).

ℱ𝑁 ℱ𝑁
Théorème 4.2 Si (𝑎𝑛 ) ⟷ (𝐴𝑚 ) et (𝑏𝑛 ) ⟷ (𝐵𝑚 ), alors :
𝑁−1
ℱ𝑁
( ∑ 𝑎𝑘 𝑏𝑛−𝑘 ) ⟷ (𝐴𝑚 𝐵𝑚 ).
𝑘=0

Exercice 4.2 :
Montrer ce résultat.

Ce théorème est une variante de ceux que nous avions déjà vus au chapitre
1 sur le lien entre séries de Fourier et convolution.

4.2 L’algorithme FFT


En appliquant la formule (4.1), on est conduit à calculer la somme suivante :

𝑚 2𝑚 𝑚(𝑁−1)
𝐴𝑚 = 𝑎0 + 𝑎1 𝜔𝑁 + 𝑎2 𝜔𝑁 + ... + 𝑎𝑁−1 𝜔𝑁 .

M. Chupin Version du 1er février 2023, 22 h 29 CET. 82


CHAPITRE 4. TRANSFORMATION DE FOURIER DISCRÈTE

Si on ne retient que les multiplications et en considérant que la suite


𝑘𝑚
(𝜔𝑁 )𝑘=0,…,𝑁−1 a été pré-calculée 4 , on est conduit à effectuer 𝑁 − 1 opéra-
tions. Le calcul complet de la suite 𝐴 nécessite donc (𝑁 − 1)2 opérations, ce qui
n’est pas satisfaisant du tout dès lors que 𝑁 devient « assez » grand.

4.2.1 L’algorithme de Tuckey et Cooley


Publié en 1965 dans un article devenu depuis célèbre, Tuckey et Cooley
ont donné une méthode permettant de réduire considérablement le temps de
calcul de la suite (𝐴𝑚 ) précédente.

Première itération
On va montrer comment réduire à 𝑁 log2 𝑁 le nombre de multiplications.
On se place dans le cas où la taille des suites considérées est paire et on considère
ℱ2𝑁
(𝑎𝑛 ) ⟷ (𝐴𝑚 ).

On introduit alors deux suites (𝑏𝑛 )𝑛=0,…,𝑁−1 et (𝑐𝑛 )𝑛=0,…,𝑁−1 définies par
𝑏𝑛 = 𝑎2𝑛 et 𝑐𝑛 = 𝑎2𝑛+1 et on note :
ℱ𝑁 ℱ𝑁
(𝑏𝑛 ) ⟷ (𝐵𝑚 ), (𝑐𝑛 ) ⟷ (𝐶𝑚 ).

On remarque alors que :


𝑚
— 𝐴𝑚 = 𝐵𝑚 + 𝜔2𝑁 𝐶𝑚 , pour 𝑚 = 0, … , 2𝑁 − 1,

𝑚+𝑁 𝑚
— 𝐵𝑚+𝑁 = 𝐵𝑚 , 𝐶𝑚+𝑁 = 𝐶𝑚 et 𝜔2𝑁 = −𝜔2𝑁 .

Exercice 4.3 :
Le prouver.

On en déduit :
𝑚
𝐴𝑚 = 𝐵𝑚 + 𝜔2𝑁 𝐶𝑚 𝑚 = 0, … , 𝑁 − 1 (4.2)
𝑚
𝐴𝑚+𝑁 = 𝐵𝑚 − 𝜔2𝑁 𝐶𝑚 𝑚 = 𝑁, … , 2𝑁 − 1. (4.3)

On a vu que le calcul de 𝐵 et 𝐶 nécessitait 2(𝑁 − 1)2 opérations. Le calcul de


𝐴 peut alors être fait à partir de 𝐵 et 𝐶 par 𝑁 − 1 opérations supplémentaires.
4. c’est-à-dire calculée une fois pour toute, en supposant que l’entier 𝑁 est fixé.

83 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 4. TRANSFORMATION DE FOURIER DISCRÈTE

De plus, on voit qu’ayant calculé tous les termes (4.2), on dispose sans calcul
supplémentaire de tous les termes (4.3). Le coût total est donc :
2(𝑁 − 1)2 + 𝑁 − 1 = (𝑁 − 1)(2𝑁 − 3),
au lieu de (2𝑁 −1)2 , ce qui fait qu’on a divisé le temps de calcul par, grosso-modo,
deux.

Cas général
Mais on peut aller encore plus loin ! Il suffit pour cela d’appliquer récursi-
vement le raisonnement précédent. Supposons pour ce faire que 𝑁 = 2𝑀 et
notons 𝐹(𝑁) le nombre d’opérations nécessaire au calcul de la TFD d’une suite
de taille 𝑁, c’est-à-dire d’un signal 𝑁-périodique.

Théorème 4.3 Il existe un algorithme de calcul de TFD vérifiant :


1
𝐹(𝑁) ≤ 𝑁 log2 𝑁.
2

Preuve : En appliquant la méthode présentée dans l’exemple, on obtient :


𝐹(2𝑁) = 2𝐹(𝑁) + 𝑁 − 1 ≤ 2𝐹(𝑁) + 𝑁.
1
Supposons que 𝐹(𝑁) ≤ 𝑁 log2 𝑁, alors
2
1
2𝐹(𝑁) + 𝑁 ≤ 𝑁(log2 𝑁 + 1) = 2𝑁 log2 (2𝑁),
2
ce qui achève la démonstration par récurrence. 

Pour illustrer ce résultat, considérons une suite de 𝑁 = 1024 termes. Par la


méthode naïve expliquée en introduction de cette section, le calcul nécessite
(𝑁 − 1)2 = 1 046 529 opérations. Par l’algorithme FFT de Tuckey et Cooley,
1
il nécessite moins de 𝑁 log2 𝑁 = 5120 opérations. Le rapport du temps de
2
calcul entre les deux méthodes est donc d’à peu près 200. Autrement dit, ce qui
nécessitait presque 7 mois ne requiert maintenant qu’une journée.
Si la taille de l’échantillon n’est pas une puissance de 2, ce qui n’arrive pas
en traitement numérique du signal, on complète généralement l’échantillon
par des zéros pour pouvoir appliquer l’algorithme.

4.3 Analyse numérique

À ÉCRIRE

M. Chupin Version du 1er février 2023, 22 h 29 CET. 84


CHAPITRE 4. TRANSFORMATION DE FOURIER DISCRÈTE

𝑎0 + + + 𝐴0

𝑎4 𝜔20 − + + 𝐴1

𝑎2 + 𝜔40 − + 𝐴2

𝑎6 𝜔20 − 𝜔41 − + 𝐴3

𝑎1 + + 𝜔80 − 𝐴4

𝑎5 𝜔20 − + 𝜔81 − 𝐴5

𝑎3 + 𝜔40 − 𝜔82 − 𝐴6

𝑎7 𝜔20 − 𝜔41 − 𝜔83 − 𝐴7

Figure 4.1 – Schéma illustratif de l’algorithme de la FFT.

4.4 Notes bibliographiques


Ce chapitre s’inspire de la présentation de la FFT faite dans la référence [3],
qui ne contient pas l’application aux polynômes. On pourra également consulter
les chapitres 7 et 8 de la référence [6] pour une autre présentation de l’algo-
rithme, moins mathématique. Ici encore, de nombreux textes et documents
concernant la FFT sont disponibles sur Internet.

85 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 4. TRANSFORMATION DE FOURIER DISCRÈTE

M. Chupin Version du 1er février 2023, 22 h 29 CET. 86


Chapitre
5
Filtres numériques

Sommaire du chapitre
5.1 Filtres linéaires . . . . . . . . . . . . . . . . . 88
5.1.1 Définitions . . . . . . . . . . . . . . . 88
5.1.2 Propriétés des filtres . . . . . . . . . . 90
5.2 Stabilité . . . . . . . . . . . . . . . . . . . . . 93
5.2.1 Caractérisation . . . . . . . . . . . . 94
5.3 Filtres linéaires récursifs causaux . . . . . . . 94
5.3.1 Réponse impulsionnelle finie (RIF) et
infinie (RII) . . . . . . . . . . . . . . 95
5.3.2 Transformée en 𝑧 . . . . . . . . . . . 95
5.3.3 Fonction de transfert . . . . . . . . . 98
5.3.4 Stabilité . . . . . . . . . . . . . . . . 100
5.3.5 Représentation en schéma-bloc . . . 101
5.4 Réponse fréquentielle . . . . . . . . . . . . . 101
5.4.1 Définition . . . . . . . . . . . . . . . 102
5.4.2 Modification spectrale du signal d’entrée 103
5.4.3 Diagramme de Bode . . . . . . . . . 104
5.5 Synthèse de filtre . . . . . . . . . . . . . . . . 105
5.5.1 Filtres idéaux et gabarits . . . . . . . 105
5.5.2 Conception de filtres à RIF . . . . . . 106
5.5.3 Synthèse par transformation de
Fourier discrète . . . . . . . . . . . 108
5.6 Notes bibliographiques . . . . . . . . . . . . 108

On aborde dans ce chapitre, le filtrage des signaux numériques. Une fois


le signal échantillonné et quantifié, il est utile pour de nombreuses applica-

87
CHAPITRE 5. FILTRES NUMÉRIQUES

tions d’en définir et calculer le contenu fréquentiel, c’est-à-dire son spectre.


L’algorithme de la FFT nous permet de réaliser efficacement cet objectif.
L’étape suivante, à laquelle on s’attaque maintenant, est d’agir sur ce spectre
de manière à en atténuer, amplifier, sélectionner ou occulter certaines fré-
quences, ou certaines plages de fréquences. Cette démarche s’appelle le filtrage
et peut être réalisée, pour ce qui concerne les signaux discrets, par des filtres
numériques 1 . Dans ce chapitre, on donne les bases permettant de définir un
filtre et ses propriétés.

5.1 Filtres linéaires


Un filtre numérique peut-être vu de plusieurs manières, selon le domaine
dans lequel on travaille. Certains le définiront par un circuit électronique,
d’autres par un assemblage de portes logiques… Notre penchant pour les ma-
thématiques nous conduit plutôt à les assimiler à des algorithmes de calculs.
Mais on parle en tout cas de la même chose.

5.1.1 Définitions
On donne donc une définition mathématique d’un filtre numérique.

Définition 5.1
Un filtre numérique est une application de ℓ2 (Z) → ℓ2 (Z) où ℓ2 (Z), noté
aussi ℓ2 , est définie par

ℓ2 (Z) = {(𝑥𝑛 )𝑛∈Z ; ∑ |𝑥𝑛 |2 < +∞} .


𝑛∈Z

Cet espace est un espace vectoriel muni de la norme définie pour tout
𝑥 = (𝑥𝑛 ) ∈ ℓ2 ,
1/2
2
‖𝑥‖2 = ( ∑ |𝑥𝑛 | ) .
𝑛∈Z
Un filtre numérique est donc un système qui produit un signal discret,
que l’on notera dans la suite 𝑦 = (𝑦𝑛 )𝑛∈Z à partir d’un signal reçu en

1. Il existe aussi des filtres analogiques, qui agissent sur des fonctions 𝐿1 , par exemple,
et dont les outils sont proches de ceux introduit au chapitre 1. On en trouve dans la nature,
par exemple l’oreille humaine, ou plus généralement tout système physique répondant à une
excitation. Du point de vue de l’activité humaine, l’essor massif des technologies numériques
les place plutôt sur la liste des espèces en voie de disparition.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 88


CHAPITRE 5. FILTRES NUMÉRIQUES

entrée 𝑥 = (𝑥𝑛 )𝑛∈Z . On appelle parfois excitation ou entrée du filtre la


suite 𝑥 et réponse ou sortie du filtre la suite 𝑦.

On schématisera cette définition par la figure 5.1.

𝑥 = (𝑥𝑛 )𝑛∈Z 𝑦 = (𝑦𝑛 )𝑛∈Z


Système
entrée/excitation sortie/réponse
𝑦 = 𝔽(𝑥)

Figure 5.1 – Schématisation d’un filtre numérique.

Dans la pratique, les signaux rencontrés sont finis, si bien que le fait de
travailler dans ℓ2 (Z) plutôt que dans un autre ℓ𝑝 (Z) n’a pas beaucoup d’impor-
tance. Le fait de choisir cet espace plutôt qu’un autre vient du fait que la norme
2 d’un signal (discret ou pas) est souvent égale à son énergie et que d’un point
de vue physique, il est raisonnable de ne considérer que des signaux d’énergie
finie.

Remarque 5.1 :
Dans toute la suite, on ne considère –− sauf mention contraire −– que des
filtres qui élaborent la réponse en un temps fixé 𝑛 en fonction d’un nombre
fini de termes de 𝑥 ou de 𝑦.

Dans la réalité, les dispositifs dont on dispose ne permettent de toute façon


que de travailler dans le cadre fixé par cette remarque. Donnons un exemple de
filtre. La formule :
𝑦𝑛 = 𝑥𝑛−1 (5.1)
définit un filtre qui effectue un décalage unitaire. On fera souvent appel dans
la suite à ce filtre élémentaire, si bien qu’on fixe d’ores-et-déjà sa notation.

Définition 5.2 — Décalage unitaire


On appelle décalage unitaire et on note 𝜏 le filtre défini par la relation
(5.1).

La suite 𝑦 peut être cependant définie de manière plus compliquée, par


exemple de manière récursive, comme c’est le cas pour :
1 1 1
𝑦𝑛 = 𝑦𝑛−1 + 𝑥𝑛 + 𝑥𝑛−1 . (5.2)
4 2 2
89 Version du 1er février 2023, 22 h 29 CET. M. Chupin
CHAPITRE 5. FILTRES NUMÉRIQUES

On parle alors de filtre récursif 2 . Attention, un même filtre peut avoir une
définition récursive et une définition non récursive. Par exemple :
1
𝑦𝑛 = 𝑦𝑛−1 + 𝑥𝑛
2
produit le même filtre que :

1 𝑘
𝑦𝑛 = ∑ ( ) 𝑥𝑛−𝑘 .
𝑘∈N
2

Par contre, cette dernière formule n’entre pas dans le cadre des filtres non-
récursifs que l’on considère dans la suite de ce cours, puisqu’on s’est placé dans
le champs de la remarque 5.1.

Réponse impulsionelle
Dans la suite, on considérera souvent l’image par les filtres de l’entrée
impulsion, c’est-à-dire le signal spécifique :

1 si 𝑛 = 0,
𝛿𝑛0 = {
0 sinon.

Définition 5.3 — Réponse impulsionelle


On appelle réponse impulsionnelle d’un filtre numérique l’image par ce
filtre du signal d’entrée 𝛿0 = (𝛿𝑛0 )𝑛∈Z .
La réponse impulsionelle sera notée ℎ = (ℎ𝑛 )𝑛∈Z .

5.1.2 Propriétés des filtres


On passe maintenant en revue les premières propriétés des filtres numé-
riques. Pour simplifier les définitions, on note 𝔽 le filtre, considéré comme une
fonction.

Définition 5.4 — Invariance temporelle


Un filtre est dit invariant en temps, si l’image par 𝔽 de la suite décalée
(𝑥𝑛−𝑛0 )𝑛∈Z , où 𝑛0 est un entier relatif fixé, est la suite décalée de 𝑦 =
(𝑦𝑛 )𝑛∈Z , c’est-à-dire (𝑦𝑛−𝑛0 )𝑛∈Z .

2. On verra dans la suite du chapitre des définitions plus précises.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 90


CHAPITRE 5. FILTRES NUMÉRIQUES

De manière équivalente, un filtre est invariant en temps si sa fonction 𝔽


commute avec la fonction décalage 𝜏.

Exercice 5.1 :
Montrer que le filtre défini par la relation :

𝑦𝑛 = 𝑛𝑥𝑛 ,

ne définit pas un filtre invariant en temps.

Remarque 5.2 :
Tous les filtres que nous considérerons à partir de maintenant seront inva-
riants en temps.

Définition 5.5 — Linéarité


Un filtre est dit linéaire si la relation de dépendance de 𝑦 à 𝑥 est linéaire.

Autrement dit, un filtre est dit linéaire si la fonction 𝔽 est une application
linéaire.
Un premier théorème permet de caractériser simplement les filtres linéaires
invariants en temps.

Théorème 5.1 Un filtre linéaire invariant ou système linéaire invariant


(SLI) en temps est entièrement déterminé par la donnée de sa réponse
impulsionnelle, c’est-à-dire, en notant (ℎ𝑛 )𝑛∈Z la réponse impulsionnelle,
on a pour une entrée (𝑥𝑛 )𝑛∈Z , une sortie

∀𝑛 ∈ Z, 𝑦𝑛 = ∑ 𝑥𝑘 ℎ𝑛−𝑘 . (5.3)
𝑘∈Z

Remarque 5.3 :
Nous ne considérerons à partir de maintenant que les systèmes linéaires
invariants.

91 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 5. FILTRES NUMÉRIQUES

Remarque 5.4 :
La propriété du théorème ??, à savoir d’être entièrement déterminé par la
donnée de sa réponse impulsionnelle peut avoir une grande utilité. Imagi-
nons que l’on dispose d’un filtre devant nous dont nous ne connaissons pas
les propriétés, mais auquel nous pouvons soumettre une entrée et récupérer
la sortie correspondante. Supposons alors que c’est un SLI. Il suffit alors
d’envoyer un entrée le signal impulsion et de récupérer la réponse impul-
sionnelle (sortie) pour, si notre hypothèse SLI est valide, pouvoir prédire la
réponse à n’importe quel signal d’entrée.

Preuve : Notons ℎ = (ℎ𝑛 )𝑛∈Z la réponse impulsionnelle d’un filtre défini par une
fonction 𝔽.
On a :

(𝑦𝑛 )𝑛∈Z = 𝔽 ((𝑥𝑛 )𝑛∈Z )

0
= 𝔽 (( ∑ 𝑥𝑘 𝛿𝑛−𝑘 ) )
𝑘∈Z 𝑛∈Z
0
= ∑ 𝑥𝑘 𝔽((𝛿𝑛−𝑘 )𝑛∈Z ) (𝔽 linéaire)
𝑘∈Z
= ∑ 𝑥𝑘 𝔽(𝜏−𝑘 (𝛿𝑛0 )𝑛∈Z ) (Déf. de 𝜏)
𝑘∈Z
= ∑ 𝑥𝑘 𝜏−𝑘 𝔽((𝛿𝑛0 )𝑛∈Z ) (𝔽 invariante en temps)
𝑘∈Z
= ∑ 𝑥𝑘 𝜏−𝑘 (ℎ𝑛 )𝑛∈Z (Déf. de (ℎ𝑛 )𝑛∈Z )
𝑘∈Z
= ∑ 𝑥𝑘 (ℎ𝑛−𝑘 )𝑛∈Z (Déf. de 𝜏)
𝑘∈Z

= ( ∑ 𝑥𝑘 ℎ𝑛−𝑘 )
𝑘∈Z 𝑛∈Z

On voit donc que le calcul de 𝑦 nécessite seulement la connaissance de la suite ℎ =


(ℎ𝑛 )𝑛∈Z . 

La formule (5.3) est une formule de convolution. On voit ainsi une relation
algébrique très simple entre l’entrée et la sortie d’un filtre linéaire, invariant en
temps :
𝑦 = ℎ ⋆ 𝑥,
qui montre que de tels filtres ne font, in fine, que réaliser des produits de
convolution.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 92


CHAPITRE 5. FILTRES NUMÉRIQUES

Causalité

Dans les exemples que nous avons traités jusqu’à présent, l’indice 𝑛 des
signaux numériques représente le temps. Dans ce cadre, il est impossible qu’un
filtre élabore une réponse en fonction de données du futur. C’est ce qui motive
l’introduction de la définition suivante.

Définition 5.6 — Causalité


Un filtre est dit causal si, à 𝑛 fixé, 𝑦𝑛 ne dépend que des valeurs 𝑥𝑘 , pour
𝑘 ≤ 𝑛 et 𝑦𝑘 , pour 𝑘 ≤ 𝑛 − 1.

La réponse impulsionnelle ℎ d’un tel filtre est donc nécessairement à support


dans N. On a alors un équivalent du théorème 5.1.

Théorème 5.2 — Filtre linéaire, invariant en temps et causal —


Un filtre linéaire, invariant en temps et causal vérifie :

𝑦𝑛 = ∑ ℎ𝑛−𝑘 𝑥𝑘 = ∑ ℎ𝑘 𝑥𝑛−𝑘 ,
𝑘≤𝑛 𝑘∈N

où l’on a noté ℎ = (ℎ𝑛 )𝑛∈N la réponse impulsionelle du filtre.

Remarque 5.5 :
Il existe cependant des cas où il est nécessaire de considérer des filtres non
causaux. En traitement d’image par exemple, où les signaux – les images
donc – sont de dimension 2, les filtres appliquent à chaque pixel de l’image
une fonction de l’ensemble des pixels de l’image considérée. La notion de
causalité dans ce cas n’a pas vraiment de sens.

5.2 Stabilité
On introduit maintenant une notion importante pour la conception des
filtres.
De manière imagée, on parle de filtre stable si le filtre n’explose pas pour
certaines entrées. La plupart des filtres que l’on considère sont évidemment
stables. Les filtres instables donnent cependant parfois lieu à des phénomènes

93 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 5. FILTRES NUMÉRIQUES

de saturation, qui peuvent être mis à profit dans certaines applications 3 .

Définition 5.7
Un filtre est dit stable si il laisse stable le sous-espace ℓ∞ (Z).

Autrement dit, pour toute entrée bornée, la sortie est bornée.

Remarque 5.6 :
Cette définition est valable pour tout filtre, même non-linéaire.

5.2.1 Caractérisation
Dans le cas des filtres linéaires, invariants en temps, on a une caractérisation
simple de la stabilité.

Lemme 5.1 Un filtre linéaire, invariant en temps est stable si et seule-


ment si sa réponse impulsionnelle est une suite de ℓ1 (Z).

Preuve : Condition suffisante : supposons ℎ = (ℎ𝑛 )𝑛∈Z ∈ ℓ1 (Z) et 𝑥 = (𝑥𝑛 )𝑛∈Z ∈


ℓ∞ (Z). Alors :

|𝑦𝑛 | = |(ℎ ⋆ 𝑥)𝑛 | ≤ ∑ |ℎ𝑘 | ⋅ |𝑥𝑛−𝑘 | ≤ ‖𝑥‖∞ ⋅ ∑ |ℎ𝑘 | = ‖𝑥‖∞ ‖ℎ‖1 ,


𝑘∈Z 𝑘∈Z

ce qui montre que 𝑦 est bornée, donc dans ℓ∞ (Z).


Condition nécessaire : supposons, pour simplifier, que ℎ soit à valeurs réelles.
Posons 𝑥 = (signe(ℎ−𝑛 ))𝑛∈Z . Puisque le système est stable, ℎ ⋆ 𝑥 ∈ ℓ∞ (Z), or :

(ℎ ⋆ 𝑥)0 = ∑ ℎ𝑘 𝑥−𝑘 = ∑ |ℎ𝑘 |.


𝑘∈Z 𝑘∈Z

On en déduit le résultat. 

Ce lemme n’est qu’une reformulation du fait que le dual de ℓ1 (Z) est ℓ∞ (Z).

5.3 Filtres linéaires récursifs causaux


On définie précisément ici ce que nous avons introduit à la remarque 5.1.
3. Par exemple en électronique, où l’utilisation des Amplificateurs Opérationnels en régime
saturé permet de concevoir des oscillateurs et donc des horloges.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 94


CHAPITRE 5. FILTRES NUMÉRIQUES

Définition 5.8 — Filtres linéaires récursifs causaux


Les filtres linéaires récursifs causaux élaborent leur réponse au temps 𝑛
par une formule du type :
𝑁 𝑀
𝑦𝑛 = ∑ 𝑎𝑘 𝑦𝑛−𝑘 + ∑ 𝑏𝑘 𝑥𝑛−𝑘 , (5.4)
𝑘=1 𝑘=0

où les (𝑎𝑘 ) et les (𝑏𝑘 ) sont des constantes.

L’intérêt de tels filtres est qu’ils sont très faciles à implémenter en pratique.
On dit que ces systèmes sont définis par une équation aux différences.

5.3.1 Réponse impulsionnelle finie (RIF) et infinie (RII)


Les filtres linéaires invariants en temps et causaux peuvent maintenant être
divisés en deux catégories.

Définition 5.9 — RIF et RII


Un filtre linéaire, invariant en temps et causal est dit :
— à réponse impulsionnelle finie (en abrégé RIF ou FIR) si ℎ =
(ℎ𝑛 )𝑛∈Z est à support fini. Ces filtres sont un cas particulier des
filtres récursifs causaux, où les 𝑎𝑘 sont nuls, c’est-à-dire :
𝑀
𝑦𝑛 = ∑ 𝑏𝑘 𝑥𝑛−𝑘 .
𝑘=0

— Il est dit à réponse impulsionnelle infinie (en abrégé RII ou IIR)


dans le cas où il existe un ou des 𝑎𝑘 non nuls.

5.3.2 Transformée en 𝑧
La réponse impulsionnelle d’un filtre n’est pas forcément très parlante. Nous
avons donc besoin d’outils pour caractériser les filtres et savoir construire la
réponse impulsionnelle d’un filtre en fonction des caractéristiques que l’on
désire pour lui.
Un de ces outil est ce qu’on appelle la transformée en 𝑧.

95 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 5. FILTRES NUMÉRIQUES

Définition 5.10 — Transformée en 𝑧


Étant donné un signal 𝑥 = (𝑥𝑛 )𝑛∈Z , on appelle transformée en 𝑧 de 𝑥, la
fonction :
𝑋(𝑧) = ∑ 𝑥𝑛 𝑧 −𝑛 ,
𝑛∈Z
pour tout 𝑧 ∈ C dans le domaine de convergence

𝐷𝑥 = {𝑧 ∈ C; 𝑅1 < |𝑧| < 𝑅2 } ,

𝑅2 pouvant valoir l’infini.

Traditionnellement, on utilise des lettres majuscules pour noter la transfor-


mée en 𝑧.

Remarque 5.7 :

1. La transformée en 𝑧 est une série entière dite série de Laurent.


2. Le domaine de convergence de ces séries est un sujet en soit, faisant
appel à l’analyse complexe. Nous ne l’aborderons pas ici.
3. Il y a un lien entre la transformée en 𝑧 et la transformée de Fourier
discrète : la TFD est la transformée en 𝑧 restreinte au cercle unité
(𝑧 = e2i𝜋/𝑁 ) à condition qu’il appartienne à la couronne de conver-
gence.
4. La transformée en 𝑧 est à la TFD ce que la transformée de Laplace
est à la transformée de Fourier.

On peut montrer les quelques propriétés suivantes sur le domaine de conver-


gence.

Proposition 5.1 : — Si (𝑥𝑛 ) est de durée finie, 𝐷𝑥 est le plan complexe tout
entier, sauf peut-être en 𝑧 = 0.
— Si (𝑥𝑛 ) est nulle à gauche (𝑥𝑛 = 0 pour tout 𝑛 < 𝑁), 𝐷𝑥 s’étend à l’infini.
— Si (𝑥𝑛 ) est nulle à droite (𝑥𝑛 = 0 pour tout 𝑛 > 𝑁), 𝐷𝑥 contient l’origine.
— Si (𝑥𝑛 ) s’étend à droite et à gauche, alors 𝐷𝑥 est une couronne.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 96


CHAPITRE 5. FILTRES NUMÉRIQUES

Exercice 5.2 :
Calculer la transformée en 𝑧 de (𝑥𝑛 ) définie par

∀𝑛 ∈ N, 𝑥𝑛 = 𝑎𝑛

où 𝑎 ∈ R, 𝑥𝑛 = 0 pour 𝑛 < 0.

La transformée en 𝑧 possède aussi d’autre propriétés qui nous seront utiles.

Proposition 5.2 : La transformée en 𝑧 satisfait les propriétés suivantes :

Propriété suite Trans. en 𝑧 Domaine


Linéarité (𝑥𝑛 ) + 𝜆(𝑦𝑛 ) 𝑋(𝑧) + 𝜆𝑌 (𝑧) 𝐷𝑥 ∩ 𝐷𝑦
Retournement temporel (𝑥−𝑛 ) 𝑋(1/𝑧) 1/𝐷𝑥
Retard (𝑥𝑛−𝑛0 ) 𝑋(𝑧)𝑧 −𝑛0 𝐷𝑥
Convolution ((𝑥 ⋆ 𝑦)𝑛 ) 𝑋(𝑧)𝑌 (𝑧) 𝐷𝑥 ∩ 𝐷𝑦
Produit (𝑥𝑛 𝑦𝑛 ) 𝑋 ⋆ 𝑌 (𝑧) 𝐷𝑥 × 𝐷𝑦

Exercice 5.3 :
Démontrer la propriété de retard de la proposition 5.2.

Calculer les transformées inverses

Comme souvent, il est intéressant d’avoir la transformée en 𝑧 inverse. Pour


la calculer, il faut encore faire appel à l’analyse complexe et intégrer sur un
contour de Cauchy. En pratique, les transformées en 𝑧 qui nous intéresserons
seront des fractions rationnelles (voir exercice 5.2) que l’on décomposera en
éléments simples.
Nous rappelons ici le théorème de décomposition en éléments simples sur
le corps des complexes.

97 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 5. FILTRES NUMÉRIQUES

Théorème 5.3 — Décomposition en éléments simples — Toute


𝑃
fraction rationnelle 𝐹 = ∈ C admet une unique décomposition en
𝑄
éléments simples, c’est-à-dire comme somme d’un polynôme 𝑇 et de frac-
tions 𝑎/(𝑥–𝑧)𝑘 avec 𝑎 et 𝑧 complexes et 𝑘 entier supérieur ou égal à 1. Si
𝑄 admet la factorisation

𝑄 = (𝑥 − 𝑧1 )𝑛1 (𝑥 − 𝑧2 )𝑛2 … (𝑥 − 𝑧𝑝 )𝑛𝑝 ,

alors la décomposition de 𝐹 est de la forme


𝑃 𝑎𝑖,1 𝑎𝑖,2 𝑎𝑖,𝑛𝑖
𝐹= = 𝑇 + 𝐹1 + … + 𝐹𝑝 et 𝐹𝑖 = + + … + ,
𝑄 𝑥 − 𝑧𝑖 (𝑥 − 𝑧𝑖 )2 (𝑥 − 𝑧𝑖 )𝑛𝑖

c’est-à-dire que les seuls 𝑎/(𝑥–𝑧)𝑘 avec 𝑎 non nul qui risquent d’apparaître
sont pour 𝑧 égal à un pôle de F et 𝑘 inférieur ou égal à son ordre.

Exercice 5.4 :
Déterminer la transformée inverse de :
1
𝑋(𝑧) = 3 1 1
.
1− 𝑧 + 𝑧−2
2 2

5.3.3 Fonction de transfert


Puisque cette nouvelle transformée s’applique à tout signal numérique, on
peut en particulier l’appliquer à la réponse impulsionnelle.

Définition 5.11 — Fonction de transfert


On appelle fonction de transfert la transformée en 𝑧 de la réponse impul-
sionnelle :
𝐻(𝑧) = ∑ ℎ𝑖 𝑧 −𝑖 .
𝑖∈Z

On peut alors établir un lien entre les transformées en 𝑧 de cette dernière,


de l’entrée et de la sortie.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 98


CHAPITRE 5. FILTRES NUMÉRIQUES

Lemme 5.2 Soit 𝑥 et 𝑦 l’entrée et la sortie d’un filtre linéaire récursif


causal défini par (5.4) et de réponse impulsionnelle ℎ. On a :
𝑀
𝑌 (𝑧) ∑𝑘=0 𝑏𝑘 𝑧 −𝑘
𝐻(𝑧) = = .
𝑋(𝑧) 1 − ∑𝑁 𝑎 𝑧−𝑘
𝑘=1 𝑘

Preuve : Commençons par établir la deuxième égalité. On a :

𝑌 (𝑧) = ∑ 𝑦𝑛 𝑧 −𝑛
𝑛∈Z
𝑁 𝑀
= ∑ ( ∑ 𝑎𝑘 𝑦𝑛−𝑘 ) 𝑧 −𝑛 + ∑ ( ∑ 𝑏𝑘 𝑥𝑛−𝑘 ) 𝑧 −𝑛
𝑛∈Z 𝑘=1 𝑛∈Z 𝑘=0
𝑁 𝑀
−𝑘 −(𝑛−𝑘)
= ∑ 𝑎𝑘 𝑧 ( ∑ 𝑦𝑛−𝑘 𝑧 ) + ∑ 𝑏𝑘 𝑧 −𝑘 ( ∑ 𝑥𝑛−𝑘 𝑧 −(𝑛−𝑘) )
𝑘=1 𝑛∈Z 𝑘=0 𝑛∈Z
𝑁 𝑀
= ∑ 𝑎𝑘 𝑧 −𝑘 𝑌 (𝑧) + ∑ 𝑏𝑘 𝑧 −𝑘 𝑋(𝑧),
𝑘=1 𝑘=0

d’où le résultat.
La première égalité provient quant à elle du fait que la transformée en 𝑧, comme le
font les différentes transformées de Fourier, transforme le produit de convolution en
produit. 

On voit facilement que la fonction de transfert d’un filtre récursif causal


est une fraction rationnelle. La réciproque n’est pas vraie. On peut par exemple
voir que le filtre défini par la formule :

𝑦𝑛 = 𝑥𝑛+1

à pour fonction de transfert 𝐻(𝑧) = 𝑧.

Définition 5.12 — Forme normalisée


On appelle forme normalisée de la fonction de transfert d’un filtre linéaire
récursif causal est une fraction rationnelle
𝑀
∏𝑘=1 (1 − 𝑧𝑘 𝑧 −1 )
𝐻(𝑧) = 𝑁
,
∏𝑘=0 (1 − 𝑝𝑘 𝑧−1 )

où les coefficients 𝑧𝑘 , 𝑘 ∈ {1, … , 𝑀} et 𝑝𝑘 , 𝑘 ∈ {0, … , 𝑀} sont appelés


respectivement zéros et pôles de la fonction transfert.

99 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 5. FILTRES NUMÉRIQUES

Dans la définition précédente, on suppose bien entendu que la fraction


rationnelle est irréductible, c’est-à-dire qu’aucun facteur n’apparaît à la fois au
numérateur et au dénominateur.

Exercice 5.5 :
Calculer la fonction transfert des filtres définis par :
— 𝑦𝑛 = 𝑥𝑛−1 ;
1 1 1
— 𝑦𝑛 = 𝑦𝑛−1 + 𝑥𝑛 + 𝑥𝑛−1 .
4 2 2

5.3.4 Stabilité
La fonction de transfert introduite à la section précédente permet de formu-
ler un nouveau critère de stabilité des filtres linéaires récursifs, causaux.

Théorème 5.4 Un filtre linéaire, récursif, causal est stable si et seule-


ment si les pôles de sa fonction de transfert (mise sous forme irréductible)
sont situés à l’intérieur du disque unité.

Preuve : Puisque l’on considère un filtre causal, on sait que le domaine de convergence
de sa fonction de transfert est l’extérieur d’un cercle,
Par hypothèse de rationalité de la fonction de transfert, on peut la réduire en
éléments simples, c’est-à-dire la mettre sous la forme, où on a supposé pour simplifier
que les pôle étaient simples
𝛼𝑖
𝐻(𝑧) = ∑ =∶ ∑ 𝐻𝑖 (𝑧).
𝑖∈{1,…,𝑁}
1 − 𝑝𝑖 𝑧−1 𝑖

Le développement en série entière par rapport au paramètre 𝑧 −1 de chacun des


éléments de cette somme vaut :

𝐻𝑖 (𝑧) = ∑ 𝑝𝑖𝑘 𝑧 −𝑘 .
𝑘∈N

Par identification, on voit que 𝐻𝑖 (𝑧) est la transformée en 𝑧 de la réponse impulsionnelle


ℎ𝑖 définie par ℎ𝑛𝑖 = 𝑝𝑖𝑛 , qui appartient à ℓ1 (Z) si et seulement si |𝑝𝑖 | < 1. 

Il existe de nombreux critères permettant de déterminer rapidement par cal-


cul si les racines d’un polynôme donné sont situées à l’intérieur ou à l’extérieur
du disque unité. On peut citer par exemple :
— le critère de Schur,
— le critère de Routh,

M. Chupin Version du 1er février 2023, 22 h 29 CET. 100


CHAPITRE 5. FILTRES NUMÉRIQUES

— le critère de Jary,
— le critère de Nyquist,
— le critère d’Evans,
— le critère du revers,
— le critère du contour de Hall.
On n’aborde ici ni les énoncés ni les démonstrations de la validité de ces critères.
Une fois un critère choisi, il est facile de décider si un filtre est stable ou non.

5.3.5 Représentation en schéma-bloc


Le schéma fonctionnel, appelé aussi schéma-bloc, schéma de principe ou en
anglais block diagram, est la représentation graphique simplifiée d’un procédé
relativement complexe impliquant plusieurs unités ou étapes. Il est composé
de blocs connectés par des lignes d’action. Il est utilisé principalement en
automatique, en traitement du signal, en génie chimique et en fiabilité.
Il est très pratique de représenter les filtres sous forme de schéma-bloc. C’est
à la fois très intuitif, facile à former à partir de l’équation de définition du filtre
et proche de ce qui serait un circuit électronique réalisant effectivement le filtre.
Dans notre contexte, on utilisera des blocs élémentaires de décalage unitaire
et des opérations de sommation (ou soustraction). L’entrée du schéma est 𝑥𝑛 et
la sortie est 𝑦𝑛 . Avec ces simples éléments, on est alors capable de représenter
graphiquement les filtres récursifs causaux de ce cours.
Considérons de nouveau l’exemple de filtre défini par (5.2), que nous rap-
pelons ici :
1 1 1
𝑦𝑛 = 𝑦𝑛−1 + 𝑥𝑛 + 𝑥𝑛−1 .
4 2 2

La figures 5.2 est une des représentations possibles sous forme de schéma-
bloc.
N’importe quel filtre récursif causal peut-être représenté par un schéma-
bloc, cependant, la représentation n’est évidemment pas unique.

5.4 Réponse fréquentielle

On va maintenant présenter un lien entre transformée en 𝑧 et série de


Fourier. Ce lien avait déjà été entrevu lorsque l’on avait utiliser un argument
de convolution dans la preuve du lemme 5.2

101 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 5. FILTRES NUMÉRIQUES

1
𝑥𝑛 𝑥𝑛 𝑦𝑛
2
1/2 + +

𝑧 −1 𝑧 −1

1 1
𝑥𝑛−1 1/2 𝑥𝑛−1 𝑦𝑛−1 1/4 𝑦𝑛−1
2 4

1 1 1
Figure 5.2 – Une représentation du filtre défini par 𝑦𝑛 = 𝑦𝑛−1 + 𝑥𝑛 + 𝑥𝑛−1 .
4 2 2

5.4.1 Définition
La réponse fréquentielle d’un filtre (linéaire, récursif ou non, causal ou non)
donne des informations sur la manière dont le filtre réagit aux excitations
périodiques.

Définition 5.13
On appelle réponse fréquentielle d’un filtre la fonction :

[0, 2𝜋] → C
𝜔 ↦ 𝐻(ei𝜔 ).

Cette fonction est parfois, par abus de notations, simplement notée 𝐻(𝜔).

On remarque que 𝐻(e𝑖𝜔 ) est la série de Fourier dont les coefficients sont
ceux de la réponse impulsionnelle. La réponse en fréquence est donc la trans-
formée de Fourier de la série (ℎ𝑛 )𝑛∈Z .
Si on se place dans le cadre d’application du théorème d’échantillonnage de
Shannon, et qu’on suppose que le contenu fréquentiel du signal d’entrée est
inclus dans [−𝑓𝑒 /2, 𝑓𝑒 /2] où 𝑓𝑒 est la fréquence d’échantillonnage.
De plus, comme on se place après la phase d’échantillonnage, le temps
n’apparaît plus (le temps entre 𝑥𝑛 et 𝑥𝑛+1 est 1/𝑓𝑒 ) et doit être transmis.
On a alors la correspondance suivante :
𝑓
𝜔 = 2𝜋
𝑓𝑒

qui appartient à [−𝜋, 𝜋] quand 𝑓 ∈ [−𝑓𝑒 /2, 𝑓𝑒 /2]. Le passage par 𝜔 permet de

M. Chupin Version du 1er février 2023, 22 h 29 CET. 102


CHAPITRE 5. FILTRES NUMÉRIQUES

normaliser la réponse fréquentiel. Le retour à la réponse fréquentielle non


normalisée se fait par une simple multiplication pour la fréquence d’échan-
tillonnage 𝑓𝑒 .

Remarque 5.8 :
— On note que 𝜔 ↦ 𝐻(ei𝜔 ) est 2𝜋-périodique.
— Sans rentrer dans le détail mathématique, dans le cas où l’anneau
de convergence inclut le cercle unité, l’intégrale d’inversion de la
transformée en 𝑧 peut se faire sur le cercle unité. On a alors
2𝜋
1
𝑥𝑘 = ∫ 𝑋(ei𝜔 )ei𝑘𝜔 d𝜔.
2𝜋 0

5.4.2 Modification spectrale du signal d’entrée


Grâce à ce formalisme mathématique, on arrive à l’idée du traitement du
signal par modification spectral. En effet, pour les filtre linéaires récursifs
causaux, la relation :
𝑌 (𝑧)
𝐻(𝑧) = ⇔ 𝑌 (𝑧) = 𝐻(𝑧)𝑋(𝑧),
𝑋(𝑧)
nous donne dans le domaine fréquentiel
𝑌 (ei𝜔 ) = 𝐻(ei𝜔 )𝑋(ei𝜔 ).
Ainsi, dans le domaine fréquentiel, le spectre de 𝑌 est le produit des deux
spectres de 𝐻 et de 𝑋. Ainsi, pour réaliser les traitements que l’on souhaite, il
faudra être capable de construire la fonction 𝐻 correspondante.

Exercice 5.6 :
Soit le filtre numérique défini par

𝑦𝑛 = ∑ 𝑎𝑘 𝑥𝑛−𝑘 , (5.5)
𝑘∈N

où la suite (𝑥𝑛 ) est le signal d’entrée et (𝑦𝑛 ) le signal de sortie, et où 0 < 𝑎 <
1.
1. Montrer que le filtre peut se mettre sous forme récursive. On pourra
passer par la transformer en 𝑧 du filtre (c’est-à-dire de l’égalité (5.5)).

103 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 5. FILTRES NUMÉRIQUES

2. Déterminer la réponse impulsionnelle du filtre, c’est-à-dire la ré-


ponse (ℎ𝑛 )𝑛≥0 au signal d’entrée (𝑥𝑛 )𝑛≥0 défini par 𝑥0 = 1 et 𝑥𝑛 = 0
pour tout 𝑛 > 0.
3. À quelle condition sur la réponse impulsionnelle le filtre est-il
stable ? Est-ce que cela est vérifié ?
4. À quelle condition sur la fonction de transfert le filtre est-il stable ?
Est-ce que cela est vérifié ?
5. Pour 𝑎 = 1/2, étudier la réponse fréquentielle du filtre. On rappelle
que la réponse fréquentielle du filtre est définie à partir de sa fonc-
tion de transfert 𝐻(𝑧) par |𝐻(ei𝜔 )| où 𝜔 est la pulsation normalisée,
c’est-à-dire que 𝜔 = 2𝜋𝑓/𝑓𝑒 où 𝑓 est la fréquence et 𝑓𝑒 la fréquence
d’échantillonnage. On supposera que le signal a été échantillonné
en validant les hypothèses du théorème de Shannon. Déterminer
alors la nature du filtre.

Exercice 5.7 :
Étudier la réponse fréquentielle du filtre défini par la réponse impulsion-
nelle suivante :
ℎ = {0, 5; 0; 0; 0; 0; 0; 0; 0; 0, 5}.

5.4.3 Diagramme de Bode


Le diagramme de Bode est un moyen de représenter la réponse en fréquence
d’un système dont la fonction de transfert se met sous la forme d’une fraction
rationnelle. Il est adapté à la représentation des filtres récursifs causaux.
Le diagramme de Bode d’un système de réponse fréquentielle 𝐻(𝜔) se
compose de deux tracés :
— le gain (ou amplitude) en décibels (dB). Sa valeur est calculée à partir
de 20 log10 |𝐻(𝜔)|. ;
— la phase en degré, donnée par arg(𝐻(𝜔).
L’échelle des pulsations est logarithmique et est exprimée en rad/s (radian par
seconde). L’échelle logarithmique permet un tracé très lisible, car construit à
partir de tronçons de ligne droite.
Par exemple, le diagramme de Bode de la fonction de l’exercice 5.4 :
1
𝐻(𝑧) = 3 −1 1
(5.6)
1 − 𝑧 + 𝑧−2
2 2

M. Chupin Version du 1er février 2023, 22 h 29 CET. 104


CHAPITRE 5. FILTRES NUMÉRIQUES

est donné en figure 5.3.


|𝐻(ei𝜔 )| (dB)

10
0
−10
0 0.5 1 1.5 2 2.5 3
𝜔
arg (𝐻(ei𝜔 ))

−0.5

0 0.5 1 1.5 2 2.5 3


𝜔

Figure 5.3 – Diagramme de Bode de la fonction de transfert définie par


l’équation 5.6.

Suivant les puissances des polynômes du dénominateur et du numérateur,


il y a des classifications standards de ces filtres.

5.5 Synthèse de filtre

Dans cette section, nous allons effleurer la thématique de la synthèse de


filtre, c’est-à-dire la conception de filtres numériques.

5.5.1 Filtres idéaux et gabarits


On considérera ici que trois types de filtre :
— les filtres passe-bas, qui ne laissent passer que les basses fréquences ;
— les filtres passe-haut, qui ne laissent passer que les hautes fréquences ;
— les filtre passe-bande, qui ne laissent passer qu’une bande fréquentielle.
On appelle fréquence de coupure toute fréquence autour de laquelle le filtre
change de comportement. La qualité d’un filtre se mesure bien souvent à ses
qualité de coupure, où l’objectif est souvent de pour passer idéalement de 1 à 0
instantanément (en fréquence).

105 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 5. FILTRES NUMÉRIQUES

Définition 5.14 — Gabarit


On appelle gabarit l’ensemble des contraintes que l’on souhaite pour le
filtre à réaliser.

En figure 5.4, un exemple gabarit type d’un filtre passe-bas est présenté.
On a en rouge le filtre idéal que l’on souhaite réaliser avec des paramètres de
tolérance :
— Δ𝑓 est la zone de coupure autour de la fréquence de coupure souhaité,
notée 𝑓𝑐 , pendant laquelle la transition doit être effectuée ;
— Δ𝑒1 et Δ𝑒2 sont les tolérances autour de respectivement les valeurs 1 et
0.
|𝐻(𝜔)|

Δ𝑒1

Filtre réel
Δ𝑓
Filtre idéal

Δ𝑒2
𝑓𝑐 𝜔

Figure 5.4 – Illustration d’un gabarit d’un filtre et ses paramètres de tolérance.

Nous n’aborderons dans ce cours que la synthèse de filtre à réponse impul-


sionnelle finie.

5.5.2 Conception de filtres à RIF


Dans cette section, nous abordons rapidement la conception de filtres à
réponse impulsionnelle finie (RIF). Pour ce type de filtre, ℎ = (ℎ𝑛 )𝑛∈Z est à
support fini, donc, un tel filtre est nécessairement stable.

Méthode de la fenêtre
La méthode de la fenêtre est la suivante. On choisit une réponse fréquentielle
idéale notée 𝐻 ∗ (𝜔). Ce choix peut-être fait par exemple par le graphe de la
fonction dans le domaine fréquentiel.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 106


CHAPITRE 5. FILTRES NUMÉRIQUES

Par ailleurs, on a
𝐻 ∗ (𝜔) = ∑ ℎ𝑛∗ ei𝜔𝑛
𝑛∈Z

avec, grâce à la formule de transformée inverse :


𝜋
1
ℎ𝑛∗ = ∫ 𝐻 ∗ (𝜔)ei𝜔𝑛 d𝜔.
2𝜋 −𝜋

Malheureusement, rien ne garantit que la suite (ℎ𝑛∗ ) correspondante soit à


support fini. On va donc tronquer la suite de coefficients (ℎ𝑛∗ ) à un certain rang
𝑀 − 1, c’est-à-dire multiplier (ℎ𝑛∗ ) par une suite fenêtre (𝑔𝑘 ) défini par :

1 si 𝑘 = 0, … , 𝑀 − 1
𝑔𝑘 = { .
0sinon.

Ce procédé revient à définir un nouveau filtre (ℎ𝑘 ) par l’opération :

ℎ𝑘 = ℎ𝑘∗ 𝑔𝑘 .

Pour avoir la réponse fréquentielle du filtre réel obtenue, on prend la trans-


formée de Fourier du produit :

𝐻(𝜔) = 𝐻 ∗ ⋆ 𝐺(𝜔),

c’est-à-dire
𝜋
1
𝐻(𝜔) = ∫ 𝐻 ∗ (𝜔)𝐺(𝜔 − 𝜈)d𝜈,
2𝜋 −𝜋
et
𝑀−1
𝐺(𝜔) = ∑ e−i𝑘𝜔 .
𝑘=0

Malheureusement, si cette méthode est assez simple à comprendre et à


mettre en place, elle souffre du phénomène de Gibbs (voir figure 5.5).

Remarque 5.9 :
Pour améliorer cette méthode, il est possible d’utiliser des fonctions fenêtre
plus régulières comme les fenêtre de Hamming, Barlett, etc.

107 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 5. FILTRES NUMÉRIQUES

𝑦
signal
1 𝑠0
𝑠1
𝑠8

0.5

𝜋 2𝜋 𝑥

Figure 5.5 – Illustration du phénomène de Gibbs sur la fonction créneau.

5.5.3 Synthèse par transformation de Fourier discrète

5.6 Notes bibliographiques


Pour une introduction plus complète des filtres numériques, on pourra
consulter les chapitres 2, 3, 4, 5 et 9 de la référence [6]. Pour un exposé plus
court et en français, on pourra se référer à [11].

M. Chupin Version du 1er février 2023, 22 h 29 CET. 108


Chapitre
6
L’analyse temps/fréquences

Sommaire du chapitre
6.1 Transformées de Fourier des fonctions 𝐿2 . 110
6.1.1 Définition et propriétés de 𝐿2 . . . . . 110
6.1.2 Transformation de Fourier . . . . . 111
6.2 La transformée de Fourier à fenêtre . . . . 113
6.2.1 Fonction fenêtre . . . . . . . . . . . . 113
6.2.2 Formule d’inversion . . . . . . . . . . 114
6.2.3 Le principe d’incertitude . . . . . . . 115
6.2.4 Spectrogramme . . . . . . . . . . . . 119
6.3 La transformation en ondelettes . . . . . . . 121
6.3.1 L’idée de base . . . . . . . . . . . . . 121
6.3.2 Localisation temps-fréquence . . . . 124
6.4 Aspects numériques et compression . . . . . 125
6.5 Notes bibliographiques . . . . . . . . . . . . 125

Dans ce chapitre nous aborderons l’analyse temps/fréquences. Nous avons


vu jusque là que l’outil d’analyse de Fourier permet d’obtenir beaucoup d’in-
formations sur un signal donnée. Nous avons vu cela dans le cadre de l’espace
fonctionnel 𝐿1 , dit des signaux stables. Nous allons ici voir que cette transfor-
mée s’étend à l’espace 𝐿2 dans lequel elle est une bijection. C’est un résultat
mathématique très beau mais il n’est pas entièrement satisfaisant pour des
applications importantes du traitement du signal.
En effet, lorsqu’on considère un signal sonore, par exemple un morceau
de musique, les notes sont à la fois localisées en temps et en fréquence. La
transformée de Fourier n’est pas adapté à cette analyse, car pour une fréquence

109
CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

donnée (une note), elle est reliée à l’énergie totale de toutes les occurrences de
cette note dans tout le morceau.
Après avoir donner rapidement des résultats sur la transformée de Fourier
dans l’espace fonctionnel 𝐿2 , on introduira la transformée de Fourier à fenêtre,
puis nous introduirons la transformée en ondelettes.

6.1 Transformées de Fourier des fonctions 𝐿2


Comme nous avons dit en remarque 1.2, on peut considérer plusieurs cadre
fonctionnel pour la transformée de Fourier. Dans cette section, nous nous
intéresserons aux résultats propre à l’espace de fonction 𝐿2 . On ne démontrera
que peu de ces résultats et nous renvoyons à [ma102, 3] pour plus de détails.

6.1.1 Définition et propriétés de 𝐿2


On désignera par Ω un ouvert de R𝑛 .

Définition 6.1 — Espace 𝐿2 (Ω)


Une fonction définie sur Ω à valeurs complexes est dite de carré intégrable
si 𝑢 est mesurable et 𝑢2 ∈ 𝐿1 (Ω). On pose alors
1/2
2
‖𝑢‖𝐿2 = (∫ |𝑢(𝑥)| d𝑥) .
Ω

On note 𝐿2 (Ω) l’ensemble des fonctions de carré intégrable sur Ω.

Proposition 6.1 : L’ensemble 𝐿2 (Ω) satisfait les propriétés suivantes :


1. 𝐿2 (Ω) est un espace vectoriel et ‖⋅‖𝐿2 est une norme sur 𝐿2 (Ω). En particu-
lier, si 𝑢 ∈ 𝐿2 (Ω) et 𝑣 ∈ 𝐿2 (Ω), alors la somme 𝑢 + 𝑣 appartient à 𝐿2 (Ω)
et on a l’inégalité de Minkowski

‖𝑢 + 𝑣‖𝐿2 ≤ ‖𝑢‖𝐿2 + ‖𝑣‖𝐿2 .

2. Si 𝑢 ∈ 𝐿2 (Ω) et 𝑣 ∈ 𝐿2 (Ω), alors le produit 𝑢𝑣 appartient à 𝐿1 (Ω) et on a


l’inégalité de Cauchy-Schwarz :
1/2 1/2
2 2
∫ |𝑢(𝑥)𝑣(𝑥)| d𝑥 ⩽ (∫ |𝑢(𝑥)| d𝑥) (∫ |𝑣(𝑥)| d𝑥) .
Ω Ω Ω

M. Chupin Version du 1er février 2023, 22 h 29 CET. 110


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

3. L’application
⟨𝑢, 𝑣⟩𝐿2 ∶ (𝑢, 𝑣) ↦ ∫ 𝑢(𝑥)𝑣(𝑥)d𝑥
Ω
2
est un produit scalaire sur 𝐿 (Ω).

On peut alors montrer le résultat suivant :

Théorème 6.1 Soit (𝑓𝑛 ) une suite de Cauchy dans 𝐿2 (Ω). Alors il existe
𝑓 ∈ 2 (Ω) tel que

‖𝑓 − 𝑓𝑛 ‖𝐿2 → 0 quand 𝑛 → +∞.

L’espace 𝐿2 (Ω) est dont complet pour la topologie déduite de la norme :

‖𝑓‖𝐿2 = ⟨𝑓, 𝑓⟩1/2


𝐿2 .

Ce théorème montre que 𝐿2 (Ω) est un espace de Hilbert.

6.1.2 Transformation de Fourier


Dans le cadre de ce cours, Ω sera R ou R2 (mais tous les résultats s’étendent
aisément à R𝑛 ). Remarquons tout d’abord qu’une fonction 𝑓 de carré intégrable
dans R appartient à 𝐿1loc . En effet, pour tout compact 𝐴 ∈ R, on a, d’après
l’inégalité de Cauchy-Schwarz :

∫ |𝑓(𝑥)| d𝑥 = ∫ 1𝐴 (𝑥) |𝑓(𝑥)| d𝑥 ⩽ ‖𝑓‖𝐿2 |𝐴| .


𝐴 R

En revanche, on peut trouver des fonction 𝐿2 qui n’appartiennent pas à 𝐿1 ,


et donc, les définitions établies au chapitre 1, section 1.1.1 ne s’appliquent pas.
Pour définir la transformée de Fourier dans 𝐿2 on utilise le théorème
suivant (qu’on ne démontrera pas).

Théorème 6.2 Soit 𝑢 ∈ 𝐿1 ∩ 𝐿2 , alors ℱ(𝑢) ∈ 𝐿2 et

2 2
∫ |𝑢(𝑡)| d𝑡 = ∫ |ℱ(𝑢)(𝜈)| d𝜈.
R R

Grâce à ce théorème, l’application 𝜙 ∶ 𝑢 ↦ ℱ(𝑢) de 𝐿1 ∩ 𝐿2 dans 𝐿2 est


linéaire et est une isométrie. Ensuite, par densité de 𝐿1 ∩ 𝐿2 dans 𝐿2 , cette

111 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

isométrie linéaire peut être étendue de manière unique à 𝐿2 tout entier. On


continuera à noter 𝑠 ̂ ou ℱ(𝑠) la transformée de Fourier sur 𝐿2 .
L’isométrie dont on vient juste de parler est donnée par le théorème suivant.

Théorème 6.3 — de Plancherel — Si 𝑠1 et 𝑠2 sont deux fonctions


de 𝐿2 , alors
∫ 𝑠1 (𝑡)𝑠2 (𝑡)d𝑡 = ∫ 𝑠ˆ1 (𝜈)𝑠ˆ2 (𝜈)d𝜈,
R R
ou encore
⟨𝑠1 , 𝑠2 ⟩𝐿2 = ⟨𝑠ˆ1 , 𝑠ˆ2 ⟩𝐿2 .

Et on peut aussi démontrer un résultat concernant le produit de convolution.

Théorème 6.4 Soit ℎ ∈ 𝐿1 et 𝑥 ∈ 𝐿2 , alors

𝑦(𝑡) = ∫ ℎ(𝑡 − 𝑠)𝑥(𝑠)d𝑠


R

est défini presque partout et appartient à 𝐿2 . De plus, sa transformée de


Fourier est
∀𝜈 ∈ R, 𝑦(𝜈) ̂ 𝑥(𝜈).
̂ = ℎ(𝜈) ̂

On peut montrer alors le résultat suivant.

Théorème 6.5 La transformation de Fourier ℱ est une isométrie bi-


jective de 𝐿2 dans lui-même, d’inverse ℱ.

Remarque 6.1 :
Dans la construction de la transformée de Fourier dans 𝐿2 on passe par
l’ensemble 𝐿1 ∩ 𝐿2 . En pratique, pour calculer la transformée de Fourier
d’une fonction de 𝐿2 qui n’est pas dans 𝐿1 , on utilisera le résultat qui dit que
pour 𝑓 ∈ 𝐿2 , on a 𝑓ˆ comme limite dans 𝐿2 lorsque 𝑛 → +∞ de

∫ 𝑓(𝑡)e−2i𝜋𝜈𝑡 d𝑡.
|𝑡|⩽𝑛

M. Chupin Version du 1er février 2023, 22 h 29 CET. 112


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

6.2 La transformée de Fourier à fenêtre


Comme expliqué en introduction de ce chapitre, la problématique à laquelle
on s’attaque ici est de pouvoir obtenir de l’information en temps/fréquence
mais localisée. L’amplitude de transformée de Fourier nous donne, dans le
cas d’un morceau de piano par exemple, pour une note de fréquence 𝜈𝑓 sera
reliée à toutes les occurrences de cette note dans tout le morceau.
Ceci a amené Dennis Gabor 1 à proposer l’idée d’une transformée de
Fourier à fenêtre.

6.2.1 Fonction fenêtre


Pour un signal 𝑓 à analyser, l’information locale autour du temps 𝑡 = 𝑏 est
contenue dans le signal localisé en temps

∀𝑡, 𝑡 ↦ 𝑓(𝑡)𝑤(𝑡 − 𝑏) (6.1)

où 𝑤 est une fonction fenêtre temporelle paire qui est nulle, ou suffisamment
proche de zéro, en dehors d’un petit intervalle autour de zéro. Donnons deux
exemples classiques pour se fixer les idées.
La fenêtre rectangulaire : 𝑤 ∶ 𝑡 ↦ 𝑤(𝑡) = 1[−𝛼,𝛼] (𝑡) où 𝛼 > 0 ;
2
La fenêtre gaussienne : 𝑤 ∶ 𝑡 ↦ 𝑤(𝑡) = e−𝛼𝑡 où 𝛼 > 0.

𝑓(𝑡)𝑤(𝑡 − 𝑏)

𝑓(𝑡)

𝑤(𝑡 − 𝑏)
𝑏 𝑡

Figure 6.1 – Illustration de l’action d’une fenêtre rectangulaire sur une fonc-
tion.

1. Dennis Gabor (5 juin 1900 à Budapest, Hongrie - 8 février 1979 à Londres) est un
ingénieur et physicien hongrois. Il est notamment connu pour l’invention de l’holographie
pour laquelle il a reçu le prix Nobel de physique de 1971.

113 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

Ayant une fonction fenêtre 𝑤, l’information spectrale locale au temps 𝑏 est


obtenue en calculant la transformée de Fourier de (6.1) que l’on notera :

𝑊𝑓 (𝜈, 𝑏) = ∫ 𝑓(𝑡)𝑤(𝑡 − 𝑏)e−2i𝜋𝜈𝑡 d𝑡. (6.2)


R

Définition 6.2 — Transformée de Fourier à fenêtre


Soient 𝑤 et 𝑓 deux fonctions 𝐿2 , où 𝑤 est une fonction fenêtre. On appelle
la fonction 𝑊𝑓 ∶ R × R → C définie par (6.2) la transformée de Fourier
à fenêtre de 𝑓 associée à la fenêtre 𝑤.
Si la fenêtre est la fenêtre rectangulaire, on parlera de transformée de
Fourier en temps court, et si la fenêtre est gaussienne, on parlera de la
transformée de Gabor de 𝑓.

6.2.2 Formule d’inversion


On énoncera ici un théorème de reconstruction du signal à partir de la
transformée de Fourier à fenêtre, dont la preuve dépasse le cadre de ce cours
(voir [3, 5]).

Théorème 6.6 Supposons :


— 𝑤 ∈ 𝐿1 ∩ 𝐿2 ;
2
— ∫R |𝑤(𝑡)| d𝑡 = 1 ;
— |𝑤|ˆ est une fonction paire.
On a alors, pour tout 𝑓 ∈ 𝐿2 , la formule de la conservation de l’énergie

2 2
∫ ∫ |𝑊𝑓 (𝜈, 𝑏)| d𝜈d𝑏 = ∫ |𝑓(𝑡)| d𝑡.
R R R

De plus, on a la formule de reconstruction (ou formule d’inversion) :

| |2
|
lim ∫ |𝑓(𝑡) − ∫ ∫ 𝑊𝑓 (𝜈, 𝑏)𝑤(𝑡 − 𝑏)e2i𝜋𝜈𝑡
d𝜈d𝑏|| d𝑡.
R| |
𝐴→+∞
|𝜈|⩽𝐴 R

Preuve : (difficile) À ÉCRIRE 

Ce résultat montre que pour la transformée de Fourier à fenêtre dans 𝐿2 ,


nous avons des formules analogues à celles pour la transformée de Fourier
dans 𝐿2 : la conservation de l’énergie, et la formule d’inversion.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 114


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

Remarque 6.2 :
— En notant
𝑤𝜈,𝑏 (𝑡) = 𝑤(𝑡 − 𝑏)e2i𝜋𝜈𝑡 ,
on a alors 𝑊𝑓 (𝜈, 𝑏) = ⟨𝑓, 𝑤𝜈,𝑏 ⟩𝐿2 .
— D’après le théorème de Plancherel, on a alors
ˆ 𝑤
𝑊𝑓 (𝜈, 𝑏) = ⟨𝑓, 𝑤𝜈,𝑏 ⟩𝐿2 = ⟨𝑓, ˆ𝜈,𝑏 ⟩𝐿2 .

Ce résultat nous dit que nous aurions pu aussi définir la fonction


𝑊𝑓 à partir de la transformée de Fourier de 𝑓.

6.2.3 Le principe d’incertitude


Nous allons dans un premier temps voir ce qui nous permettra de quantifier
la notion intuitive de « largeur » d’une fonction, à la fois dans le domaine
temporel et dans le domaine spectrale.
Nous verrons ensuite ce que ces notions nous permettent de comprendre
sur la transformée de Fourier à fenêtre et ses limitations.

Localisation temps-fréquence
Commençons par définir le centre d’une fonction.

Définition 6.3 — Centre d’une fonction


On définit et on note 𝑚𝑤 le centre d’une fonction 𝑤 comme la valeur,
quand elle est finie, de :

1 2
𝑚𝑤 = ∫ 𝑡 |𝑤(𝑡)| d𝑡.
‖𝑤‖2𝐿2 R

Remarque 6.3 :
Quand la fenêtre 𝑤 est paire, et donc 𝑚𝑤 = 0, 𝑤𝜈,𝑏 (𝑡) = 𝑤(𝑡 − 𝑏)e2i𝜋𝜈𝑡 est
centré sur 𝑏. Le produit 𝑓 𝑤𝜈,𝑏 isole donc les composantes de 𝑓 au voisinage
de 𝑏.

On définit la notion d’étalement en temps.

115 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

Définition 6.4 — Étalement en temps


Avec les notations qui précèdent on définit l’étalement en temps de la
fonction fenêtre par
1/2
1 2
𝜎𝑤 = ( ∫(𝑡 − 𝑚𝑤 )2 |𝑤(𝑡)| d𝑡) .
‖𝑤‖2𝐿2 R

Exemple
2 1 1
Pour la gaussienne 𝑤 ∶ 𝑡 ↦ e−4𝑡 , on a ‖𝑤‖2𝐿2 = √2𝜋, et 𝜎𝑤 = .
4 4

0.5

0
−3 −2 −1 0 1 2 3

Il est assez aisé de vérifier que dans le cas d’une fenêtre centrée en 0, on a :
1/2
1 2
∀𝑏 ∈ R, 𝜎𝑤 = ( ∫(𝑡 − 𝑏)2 |𝑤𝜈,𝑏 (𝑡)| d𝑡) .
‖𝑤‖2𝐿2 R

Exercice 6.1 :
Montrer que
ˆ𝜈,𝑏 (𝜔) = e−2i𝜋𝑏(𝜔+𝜈) 𝑤(𝜔
𝑤 ˆ + 𝜈).

On définit la notion analogue d’étalement en fréquence.

Définition 6.5 — Étalement en fréquence


Avec les notations qui précèdent on définit l’étalement en fréquence de la
transformée de Fourier de fonction fenêtre par
1/2
1 2| 2
𝜎𝑤ˆ = ( 2
∫(𝜈 − 𝑚𝑤ˆ ) 𝑤(𝜈)|
ˆ d𝜈) ,
‖𝑤‖
ˆ 𝐿2 R

M. Chupin Version du 1er février 2023, 22 h 29 CET. 116


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

où 𝑚𝑤ˆ est le centre de 𝑤.


ˆ

Là encore, il est assez aisé de vérifier que, dans le cas où 𝑚𝑤ˆ = 0 et que
1/2
1 2| 2
∀𝑏 ∈ R, 𝜎𝑤ˆ = ( 2
ˆ𝜈,𝑏 (𝜈)| d𝜈)
∫(𝜈 − 𝜔) |𝑤 .
‖𝑤‖
ˆ 𝐿2 R

Boîte de Heisenberg. Dans le plan temps-fréquence (𝑡, 𝜔), on représente


𝑤𝜈,𝑏 par une boîte de Heisenberg de taille 𝜎𝑤 ×𝜎𝑤ˆ , centré en (𝑏, 𝜈). La taille de la
boîte ne dépend pas de (𝑏, 𝜈), ce qui veut dire que la résolution de la transformée
de Fourier à fenêtre reste constante sur tout le plan temps-fréquence. On peut
voir une illustration de ce concept en figure 6.2.
𝜔
𝜎𝑤
|𝑤
ˆ𝜈2,𝑏2 (𝜔)|
𝜈2 𝜎𝑤ˆ

𝜎𝑤
|𝑤
ˆ𝜈1,𝑏1 (𝜔)|
𝜈1 𝜎𝑤ˆ

|𝑤𝜈1,𝑏1 (𝑡)| |𝑤𝜈2,𝑏2 (𝑡)|

𝑡
𝑏1 𝑏2
Figure 6.2 – Illustration du concept de boîte de Heisenberg pour la trans-
fourmée de Fourier à fenêtre.

Incertitude de Heisenberg
Pour mesurer les composantes de la fonction 𝑓 à étudier dans les petits
voisinages de 𝑏 et 𝜈, il faut construire une fenêtre 𝑤 qui est bien localisée dans
le temps, et dont l’énergie de la transformée de Fourier est concentrée dans
un petit domaine fréquentiel. Nous avons vu avec l’exemple de la transformée
de Fourier du créneau (exercice 1.1), un phénomène général : moins une
fonction temporelle est étalée en temps, plus sa transformée de Fourier l’est

117 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

en fréquence. Ce phénomène peut aussi être illustré par le fait d’opérer un


changement d’échelle de temps d’un facteur 𝑎 > 1, c’est-à-dire considérer
la fonction 𝑤𝑎 ∶ 𝑡 ↦ 𝑤(𝑎𝑡) dont la transformée de Fourier est, d’après la
1 𝜈
proposition 1.1 du chapitre 1, 𝑤ˆ𝑎 ∶ 𝜈 ↦ 𝑤 ˆ ( ). Il y a donc un compromis
𝑎 𝑎
entre la localisation en temps et celle en fréquence.
Les concentration en temps et en fréquences sont limitées par le principe
d’Heisenberg 2 . Le théorème suivant montre que le produit 𝜎𝑤 × 𝜎𝑤ˆ ne peut
être arbitrairement petit.

Théorème 6.7 — Incertitude de Heisenberg — On suppose que


𝑤 ∈ 𝐿2 est une fonction centrée en 0 et dont la transformée de Fourier
est aussi centrée en 0 :

2 2
∫ 𝑡 |𝑤(𝑡)| d𝑡 = ∫ 𝜈 |𝑤(𝜈)|
ˆ d𝜈 = 0.
R R

Alors on a l’inégalité de Heisenberg suivante :


1
𝜎𝑤 𝜎𝑤ˆ ⩾ . (6.3)
4𝜋

Preuve : Nous ne démontrerons ici le résultat que pour les fonctions fenêtre 𝑤 𝒞 ∞ à
support compact, le résultat s’obtenant dans le cas général par des outils de densité, qui
dépasse le cadre de ce cours.
On doit montrer que
1
‖𝑡𝑤‖𝐿2 ‖𝜈𝑤‖
ˆ 𝐿2 ⩾ ‖𝑤‖2𝐿2 .
4𝜋
On a d’après le théorème 1.2 (qui s’étend aux fonction 𝐿2 ) :
ˆ′ (𝜈) = 2i𝜋𝜈𝑤,
𝑤 ˆ

et donc, en utilisant le théorème 6.3,


2 1 ‖ˆ′ ‖2 1 2
‖𝜈𝑤‖
ˆ 𝐿2 = 𝑤 = ‖𝑤′ ‖𝐿2 .
4𝜋2 ‖ ‖𝐿2 4𝜋2
Il reste alors à montrer que
1
‖𝑡𝑤‖𝐿2 × ‖𝑤′ ‖𝐿2 ⩾ ‖𝑤‖2𝐿2 . (6.4)
2
Par l’inégalité de Cauchy-Schwarz, on a :

‖𝑡𝑤‖𝐿2 ‖𝑤′ ‖𝐿2 ⩾ |⟨𝑡𝑤, 𝑤′ ⟩| ⩾ |Re{⟨𝑡𝑤, 𝑤′ ⟩}| .

2. Ce principe d’incertitude a un rôle crucial en mécanique quantique.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 118


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

On a alors :

2 Re{⟨𝑡𝑤, 𝑤′ ⟩} = ⟨𝑡𝑤, 𝑤′ ⟩ + ⟨𝑤′ , 𝑡𝑤⟩ = ∫ 𝑡(𝑤𝑤′ + 𝑤′ 𝑤)d𝑡


R
2 +∞ 2
= [𝑡 |𝑤(𝑡)| ] − ∫ |𝑤(𝑡)| d𝑡 = 0 − ‖𝑤‖2𝐿2 ,
−∞
R

ce qui permet de démontrer 6.4 et donc l’inégalité de Heisenberg pour les fenêtres
𝒞 ∞ à support compact. 

On a alors la proposition suivante.


Proposition 6.2 : L’égalité dans le théorème 6.7 est obtenu si et seulement si la
2
fenêtre 𝑤 est proportionnelle à un signal gaussien 𝑡 ↦ e−𝑐𝑡 avec 𝑐 > 0.
La fenêtre de Gabor est donc optimal au sens où elle minimise l’incertitude
𝜎𝑤 𝜎𝑤ˆ .

Preuve : Pour qu’il y ait égalité dans la preuve du théorème 6.7, il faut et il suffit qu’il
y ait égalité dans l’inégalité de Cauchy-Schwarz, c’est-à-dire que 𝑡𝑤(𝑡) et 𝑤′ (𝑡) soient
proportionnelles :
∃𝑐 ∈ R, 𝑤′ (𝑡) = −𝑐𝑡𝑤(𝑡),
ce qui donne
2
𝑤(𝑡) = 𝐴e−𝑐𝑡
où 𝑐 > 0 car 𝑤 ∈ 𝐿2 . Le reste de la preuve se poursuit sans difficulté. 

6.2.4 Spectrogramme

Définition 6.6 — Spectrogramme


On peut associer à la transformée de Fourier à fenêtre une densité
d’énergie qu’on appelle spectrogramme que l’on définit comme suit. Pour
fonction 𝑓 et toute fenêtre 𝑤 satisfaisant les hypothèses précédentes, on
appelle spectrogramme, et on note 𝑃𝑊 𝑓 la fonction :

2 | −2i𝜋𝜈𝑡
|2
| |
(𝜈, 𝑏) ↦ 𝑊𝑓 (𝜈, 𝑏) = |∫ 𝑓(𝑡)𝑤(𝑡 − 𝑏)e d𝑡| .
| R |

Le spectrogramme mesure l’énergie de 𝑓 et 𝑓ˆ dans le voisinage temps-


fréquence ou l’énergie de 𝑤𝜈,𝑏 est concentrée. Le code python suivant, grâce
à la bibliothèque librosa, permet de tracer le spectrogramme obtenu par la
calcul de la transformée de Fourier à fenêtre avec une fenêtre à temps court
(Short Time Fourier Transform : stft).

119 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

import librosa
import matplotlib.pyplot as plt
import librosa.display
from scipy.io import wavfile

x, sr = librosa.load(’musique.wav’, sr=None)
X = librosa.stft(x)
Xdb = librosa.amplitude_to_db(abs(X))
plt.figure(figsize=(14, 5))
librosa.display.specshow(Xdb, sr=sr, x_axis=’time’, y_axis=’
hz’)

plt.savefig(’spectrogramA.pdf’,bbox_inches=’tight’,
transparent=True, pad_inches=0.0 )

Ce code produit l’image présentée en figure 6.3 pour un morceau de musique


classique (provenant d’une conversion d’une fichier mp3 vers le format wav).

20000
17500
15000
12500
Hz

10000
7500
5000
2500
0
0:00 0:50 1:40 2:30 3:20 4:10
Time

Figure 6.3 – Tracé d’un spectrogramme en python grâce à la bibliothèque


librosa d’un morceau de musique avec une fenêtre à temps court.

Remarque 6.4 :
Nous venons de présenter rapidement la transformée de Fourier à fenêtre
sur le plan théorique et analytique. Il faudrait, mais cela ferait trop pour ce
cours introductif, rentrer dans le détails de la version discrète et des aspects
numériques de cette transformée de Fourier à fenêtre.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 120


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

6.3 La transformation en ondelettes


On a vu que la transformée de Fourier à fenêtre présente un inconvénient
majeur : la fenêtre est de longueur fixe, et cet handicap est important lorsqu’on
veut traiter des signaux dont les variations peuvent avoir des ordres de grandeur
très variables. C’est le cas notamment pour le traitement du son : l’attaque d’une
note est une phase courte composée de hautes fréquences et caractéristiques
de l’instrument et de l’interprète, tandis que le reste de la note contient des
fréquences relativement plus basses.
Le géophysicien J. Morlet 3 a constaté ces inconvénients en prospection
pétrolière pour l’analyse des signaux sismiques. Ceci l’a amené à proposer
en 1983 une méthode nouvelle où la fenêtre varie par translation mais aussi
par dilatation ou contraction. En anglais, cette transformée en ondelettes est
appelée wavelet transform.

6.3.1 L’idée de base


L’idée de la transformée en ondelettes est de remplacer la famille de fonc-
tions de la transformée de Fourier à fenêtre :

𝑤𝜈,𝑏 (𝑡) = 𝑤(𝑡 − 𝑏)e2i𝜋𝜈𝑡 , 𝑏 ∈ R, 𝜈 ∈ R,

par une famille de fonctions élémentaires, dîtes ondelettes, construite à partir


d’une ondelette-mère 𝜓 :
1 𝑡−𝑏
𝜓𝑎,𝑏 (𝑡) = 𝜓( ), 𝑎, 𝑏 ∈ R, 𝑎 ≠ 0. (6.5)
√|𝑎| 𝑎

On ne rentrera pas dans le détails des choix de l’ondelette mère mais celle-ci,
doit satisfaire les hypothèses données dans la définition suivante.

Définition 6.7 — Transformée en ondelettes


Soit 𝜓 ∈ 𝐿1 ∩ 𝐿2 une ondelette-mère vérifiant

2
∫ |𝜓(𝑡)| d𝑡 = 1,
R

3. Jean Morlet (né à Fontenay-sous-Bois le 13 janvier 1931, mort à Nice le 27 avril 2007),
ancien élève de l’École polytechnique (X1952), est un géophysicien français qui est le pionnier
dans le domaine de l’analyse des ondelettes en collaboration avec Alex Grossmann. Morlet
invente le mot « ondelette » pour décrire des équations similaires à celles existant depuis environ
les années 1930. (Wikipedia)

121 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

et
2
ˆ ||
||𝜓(𝜈)
∫ d𝜈 = 𝐾 < ∞.
R
|𝜈|
La transformée en ondelettes d’une fonction 𝑓 ∈ 𝐿2 est la fonction 𝐶𝑓 ∶
(R − {0}) × R → C définie par :

𝐶𝑓 (𝑎, 𝑏) = ⟨𝑓, 𝜓𝑎,𝑏 ⟩ = ∫ 𝑓(𝑡)𝜓𝑎,𝑏 (𝑡)d𝑡,


R

où la famille 𝜓𝑎,𝑏 est définie par (6.5).

On peut tout de même citer quelques ondelettes mères.

Ondelette de Haar. Une ondelette mère simple qui permet de bien visuali-
ser les effets de translation et de dilatation est l’ondelettede Haar 4 , ondelette
considérée comme la première ondelette connue.
La fonction-mère des ondelettes de Haar est une fonction constante par
morceaux :
1
⎧1 pour − ≤ 𝑡 < 0,
⎪ 2
1
𝜓(𝑡) = −1 pour 0 ≤ 𝑡 < ,
⎨ 2

⎩0 sinon.

En figure 6.4, sont représenter l’ondelette mère de Haar ainsi que deux
ondelettes construites à partir d’elle.
La transformée de Fourier de l’ondelette de Haar est imaginaire pure, et
vaut
ˆ = i cos(𝜋𝜈) − 1 .
𝜓(𝜈)
𝜋𝜈
Nous la représentons en figure 6.5.

L’ondelette de Morlet. l’ ondelette de Morlet 5 est une ondelette compo-


sée d’une exponentielle complexe (porteuse) multipliée par une fenêtre gaus-
sienne (enveloppe). Cette ondelette est étroitement liée à la perception humaine,
à la fois auditive et visuelle.
4. Alfréd Haar (né le 11 octobre 1885 à Budapest et mort le 16 mars 1933 à Szeged) est un
mathématicien hongrois.
5. Jean Morlet (13 janvier 1931 - 27 avril 2007) était un géophysicien français qui a été
un pionnier dans le domaine de l’analyse des ondelettes. Il a inventé le terme ondelette pour
décrire les fonctions qu’il utilisait.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 122


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

0.5
Ondelette mère 𝜓
𝑡
𝜓1/2,2 0
𝜓2,4 0 2 4
−0.5

−1

Figure 6.4 – Représentation de l’ondelette mère de Haar ainsi que deux


ondelettes filles qui permettent d’observer les phénomènes de décalage temporel
et de dilatation.

En figure 6.6, on a représenté l’ondelette réelle mère de Morlet suivante :

2 /2
𝜓(𝑡) = e−𝑡 cos(5𝑡),

ainsi que sa transformée de Fourier.


On a un équivalent du théorème 6.6 obtenu pour la transformée de Fourier
à fenêtre pour la transformée en ondelettes. Le théorème suivant donne une
formule d’inversion, c’est-à-dire une formule qui permet d’obtenir une fonction
𝐿2 à partir de sa transformée en ondelettes. De plus, la transformée en ondelettes
préserve l’énergie.

Théorème 6.8 Soit 𝜓 une ondelette-mère qui satisfait les hypothèses


de la définition 6.7 et la famille d’ondelettes 𝜓𝑎,𝑏 définie par (6.5). Pour
toute fonction 𝑓 ∈ 𝐿2 , on a :

2 1 2 d𝑎 d𝑏
∫ |𝑓(𝑡)| d𝑡 = ∫ ∫ |𝐶𝑓 (𝑎, 𝑏)| ,
R
𝐾 R−{0} R 𝑎2

et
1 d𝑎 d𝑏
𝑓(𝑡) = ∫ ∫ 𝐶 (𝑎, 𝑏)𝜓𝑎,𝑏 (𝑡) 2 .
𝐾 R−{0} R 𝑓 𝑎

Preuve : (difficile) À ÉCRIRE. 

123 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

0.5

𝜈
−4 −2 2 4

−0.5

Figure 6.5 – Partie imaginaire de la transformée de Fourier de l’ondelette de


Haar, sa partie réelle étant nulle.

𝜓ˆ
1
𝜓
0.5
𝑡 0.5
−2 2
𝜈
−0.5
−2 −1 1 2

Figure 6.6 – Ondelette mère de Morlet et sa transformée de Fourier.

6.3.2 Localisation temps-fréquence


Nous considérerons dans cette introduction à la théorie des ondelettes que
des ondelettes mères 𝜓 est centré en 0. Ainsi, il est facile de vérifier par le calcul
que 𝜓𝑎,𝑏 est centrée en 𝑏.
Dans un soucis de généralité, nous ne présupposerons rien concernant le
centre de la transformée de Fourier de 𝜓 que nous noterons classiquement
𝑚𝜓ˆ.
On peut montrer que :

𝜓ˆ𝑎,𝑏 (𝜈) = |𝑎|1/2 e−2i𝜋𝜈𝑏 𝜓(𝑎𝜈),


ˆ (6.6)

et grâce à cette relation, que :


1
𝑚𝜓ˆ = 𝑚 . (6.7)
𝑎,𝑏 𝑎 𝜓ˆ

M. Chupin Version du 1er février 2023, 22 h 29 CET. 124


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

Exercice 6.2 :
Montrer les égalités (6.6) et (6.7).

Concernant l’étalement en temps et en fréquence, en adoptant les même


conventions et définitions que pour la transformée de Fourier à fenêtre, on
peut montrer qu’à partir des définitions données à la section précédentes :

𝜎𝜓𝑎,𝑏 = 𝑎𝜎𝜓 . (6.8)


De même on peut prouver que
1
𝜎𝜓ˆ = 𝜎 . (6.9)
𝑎,𝑏 𝑎 𝜓ˆ

Exercice 6.3 :
Montrer les égalités (6.8) et (6.9).

On voit alors que 𝐶𝑓 (𝑎, 𝑏) est le résultat de l’analyse de la fonction 𝑓 dans


la boîte d’Heisenberg :
𝑎 𝑎 𝑚𝜓ˆ 𝜎𝜓ˆ 𝑚𝜓ˆ 𝜎𝜓ˆ
[𝑏 − 𝜎𝜓 , 𝑏 + 𝜎𝜓 ] × [ − , + ].
2 2 𝑎 2𝑎 𝑎 2𝑎
On peut alors, pour se fixer les idées, représenter ce phénomène comme un
pavage du plan temps-fréquence comme fait à la figure 6.7. On constate que
plus la fréquence est haute, c’est-à-dire 𝑎 grand, plus l’étalement fréquentiel est
grand, et moins l’étalement temporel est grand, et réciproquement.

6.4 Aspects numériques et compression

À ÉCRIRE

6.5 Notes bibliographiques


Pour l’analyse temps-fréquence on renverra aux références classiques [3, 5,
8].

125 Version du 1er février 2023, 22 h 29 CET. M. Chupin


CHAPITRE 6. L’ANALYSE TEMPS/FRÉQUENCES

Figure 6.7 – Pavage du plan temps-fréquence pour l’analyse en ondelettes.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 126


Annexe
A
Rappels d’intégration

A.1 Théorèmes de convergence

Dans les deux théorème qui suivent, on considèrera (Ω, 𝐵, 𝜇) un espace


mesuré (on pourra penser à un ouvert de R𝑛 ).

Théorème A.1 — de convergence monotone —


1. Soit (𝑓𝑛 )𝑛⩾0 une suite croissante de fonctions mesurables sur Ω.
On a :
lim ∫ 𝑓𝑛 d𝜇 = ∫ lim 𝑓𝑛 d𝜇.
𝑛→+∞ 𝑛→+∞

2. Soit (𝑓𝑛 )𝑛⩾0 une suite de fonctions mesurables positives. On a :


∞ ∞
∫ ∑ 𝑓𝑛 d𝜇 = ∑ ∫ 𝑓𝑛 d𝜇.
𝑛=0 𝑛=0

127
ANNEXE A. RAPPELS D’INTÉGRATION

Théorème A.2 — de convergence dominée (Lebesgue) — Soit


(𝑓𝑛 )𝑛⩾0 une suite de fonction mesurables de Ω dans C et 𝑓 une fonction
mesurable de Ω dans C. On suppose que :
— (limite) pour 𝜇-presque tout 𝑥 ∈ Ω, 𝑓𝑛 (𝑥) → 𝑓(𝑥) ;
𝑛→∞
— (domination) il existe une fonction 𝜑 ∶ Ω → R[+] mesurable
telle que ∫ 𝜑d𝜇 < ∞ et pour tout 𝑛 ∈ N, pour 𝜇-presque tout
𝑥 ∈ Ω, |𝑓𝑛 (𝑥)| ⩽ 𝜑(𝑥).
On a alors que 𝑓 est intégrable, de même que pour tout 𝑛 ∈ N 𝑓𝑛 est
intégrable, et

∫ |𝑓𝑛 − 𝑓| d𝜇 → 0 et ∫ 𝑓𝑛 d𝜇 → ∫ 𝑓 d𝜇.
𝑛→∞ 𝑛→∞

Théorème A.3 — de continuité sous l’intégrale — Soit 𝑓 ∶ (𝑡, 𝑥) ↦


𝑓(𝑡, 𝑥) une fonction de 𝐼 ×Ω dans C où 𝐼 est un intervalle de R. On suppose
que :
— (mesurabilité) pour tout 𝑡 ∈ 𝐼, 𝑥 ↦ 𝑓(𝑡, 𝑥) est mesurable ;
— (continuité) pour presque tout 𝑥 ∈ Ω, 𝑡 ↦ 𝑓(𝑡, 𝑥) est continue
sur 𝐼 ;
— (domination) il existe une fonction 𝜑 ∶ Ω → R+ mesurable telle
que ∫ 𝜑d𝜇 < ∞ et que pour tout 𝑡 ∈ 𝐼, pour presque tout 𝑥 ∈ Ω,
|𝑓(𝑡, 𝑥)| ⩽ 𝜑(𝑥).
Alors, la fonction

𝐹 ∶ 𝑡 ↦ 𝐹(𝑡) = ∫ 𝑓(𝑡, 𝑥)d𝜇(𝑥)

est bien définie pour tout 𝑡 ∈ 𝐼 et est continue sur 𝐼.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 128


ANNEXE A. RAPPELS D’INTÉGRATION

Théorème A.4 — de dérivation sous l’intégrale — Soit 𝑓 ∶ (𝑡, 𝑥) ↦


𝑓(𝑡, 𝑥) une fonction de 𝐼 ×Ω dans C où 𝐼 est un intervalle de R. On suppose
que :
— (existence de 𝐹) pour tout 𝑡 ∈ 𝐼, 𝑥 ↦ 𝑓(𝑡, 𝑥) est intégrale ;
— (dérivabilité) pour presque tout 𝑥 ∈ Ω, 𝑡 ↦ 𝑓(𝑡, 𝑥) est dérivable
𝜕𝑓
sur 𝐼, de dérivée notée ;
𝜕𝑡
— (domination de la dérivée) il existe une fonction 𝜑 ∶ Ω → R+
mesurable telle que ∫ 𝜑d𝜇 < ∞ et que pour tout 𝑡 ∈ 𝐼, pour
𝜕𝑓
presque tout 𝑥 ∈ Ω, || (𝑡, 𝑥)|| ⩽ 𝜑(𝑥).
𝜕𝑡
Alors, la fonction

𝐹 ∶ 𝑡 ↦ 𝐹(𝑡) = ∫ 𝑓(𝑡, 𝑥)d𝜇(𝑥)

est dérivable sur 𝐼 et pour tout 𝑡 ∈ 𝐼

𝜕𝑓
𝐹 ′ (𝑡) = ∫ (𝑡, 𝑥)d𝜇(𝑥).
𝜕𝑡

A.2 Théorèmes de Fubini et Tonelli

Les théorèmes de Fubini et de Tonelli sont des théorèmes qui permettent


de changer les ordres d’intégration dans les calculs d’intégrales de fonctions
dépendant de plusieurs variables. Il en existe différentes versions.

Soient (Ω, 𝐵, 𝜇) et (Ω′ , 𝐵 ′ , 𝜈) des espaces mesurés 𝜎-fini (on pourra penser à
des ouverts de R𝑛 par exemple).

129 Version du 1er février 2023, 22 h 29 CET. M. Chupin


ANNEXE A. RAPPELS D’INTÉGRATION

Théorème A.5 — de Tonelli — Soit 𝑓 ∶ Ω × Ω′ → [0, +∞[ mesu-


rable. Alors :
— pour tout 𝑥 ∈ Ω, 𝑦 ↦ 𝑓(𝑥, 𝑦) est 𝐵′ -mesurable et 𝑥 ↦
∫Ω′ 𝑓(𝑥, 𝑦)d𝜈(𝑦) est 𝐵-mesurable.
— Pour tout 𝑦 ∈ Ω′ , 𝑥 ↦ 𝑓(𝑥, 𝑦) est 𝐵-mesurable et 𝑦 ↦
∫Ω 𝑓(𝑥, 𝑦)d𝜇(𝑥) est 𝐵 ′ -mesurable.
En outre, on a :

∫ 𝑓(𝑥, 𝑦)d(𝜇 ⊗ 𝜈)(𝑥, 𝑦) = ∫ (∫ 𝑓(𝑥, 𝑦)d𝜈(𝑦)) d𝜇(𝑥)


Ω×Ω′ Ω Ω′

= ∫ (∫ 𝑓(𝑥, 𝑦)d𝜇(𝑥)) d𝜈(𝑦)


Ω′ Ω

où 𝜇 ⊗ 𝜈 est la mesure produit.

Théorème A.6 — de Fubini — Soit 𝑓 ∈ 𝐿1 (Ω×Ω′ ) mesurable. Alors :


— la fonction 𝑥 ↦ ∫Ω′ 𝑓(𝑥, 𝑦)d𝜈(𝑦) estdéfinie pour presque tout 𝑥 et
est dans 𝐿1 (Ω).
— La fonction 𝑦 ↦ ∫Ω 𝑓(𝑥, 𝑦)d𝜇(𝑥) est définie pour presque tout 𝑦
et est dans 𝐿1 (Ω′ ).
En outre, on a :

∫ 𝑓(𝑥, 𝑦)d(𝜇 ⊗ 𝜈)(𝑥, 𝑦) = ∫ (∫ 𝑓(𝑥, 𝑦)d𝜈(𝑦)) d𝜇(𝑥)


Ω×Ω′ Ω Ω′

= ∫ (∫ 𝑓(𝑥, 𝑦)d𝜇(𝑥)) d𝜈(𝑦)


Ω′ Ω

où 𝜇 ⊗ 𝜈 est la mesure produit.

M. Chupin Version du 1er février 2023, 22 h 29 CET. 130


Bibliographie
[1] F. Bavaud, J.-C. Chappelier et J. Kohlas. Introduction à la Théorie de
l’Information et ses applications. 2008. url : https://icwww.epfl.ch/
~chappeli/it/pdf/FullCourseEPFL-FR.pdf.
[2] Maurice Bellanger. Traitement numérique du signal Cours et exercices
corrigés 9eme edition. 9eme. Dunod, 2012. isbn : 2100588648 9782100588640.
[3] Pierre Brémaud. Mathematical Principles of Signal Processing : Fourier
and Wavelet Analysis. 1re éd. Springer-Verlag New York, 2002. isbn :
978-1-4419-2956-3,978-1-4757-3669-4.
[4] Thomas M. Cover et Joy A. Thomas. Elements of Information Theory.
2e éd. Wiley Series in Telecommunications and Signal Processing. Wiley-
Interscience, 2006. isbn : 0-471-24195-4,978-0-471-24195-9.
[5] Claude Gasquet et Patrick Witomski. Analyse de Fourier et applica-
tions : Filtrage, calcul numérique, ondelettes. Dunod, 1995. isbn : 2-225-
85426-2.
[6] V.K. Ingle et J.G. Proakis. Digital Signal Processing Using Matlab :
Version 4. 1999.
[7] F. J. MacWilliams et N. J. A. Sloane. The Theory of Error-Correcting
Codes. 1st. North-Holland Mathematical Library 16. North-Holland, 1977.
isbn : 9780444850102,0444850104.
[8] Stephane Mallat. A wavelet tour of signal processing the Sparse way.
3e éd. Academic Press, 2008. isbn : 9780123743701,0123743702.
[9] Khalid Sayood. Introduction to data compression. 3rd ed. Morgan Kauf-
mann series in multimedia information and systems. Elsevier, 2006. isbn :
012620862X,9780126208627,9780080509259.
[10] Lin Shu et Daniel J. Costello. Error control coding : fundamentals and
applications. Cambridge University Press, 2004. isbn : 0130179736.
[11] E. Tisserand, J.F. Pautex et P. Schweitzer. Analyse et traitement des
signaux - 2e éd. : Méthodes et applications au son et à l’image. Sciences de
l’ingénieur. Dunod, 2009. isbn : 9782100539840.
[12] X. Wu. “On convergence of Lloyd’s method I”. In : IEEE Transactions on
Information Theory 38.1 (jan. 1992), p. 171-174. issn : 0018-9448. doi :
10.1109/18.108266.

131
BIBLIOGRAPHIE

M. Chupin Version du 1er février 2023, 22 h 29 CET. 132


Index

algorithme de Huffman, 60 décodage, 38


Algorithme de Lloyd, 47 diagramme de Bode, 104
Algorithme de Huffman, 59 distance de Hamming, 65
aliasing, 34 distorsion
alphabet, 50 de quantification, 40
analyse temps/fréquence, 109 DVD, 3, 62
arbre de codage, 60 décodage à distance minimale, 68

binaire, 50 échantillonage, 2, 30, 34, 35


bit de parité, 72 encodage, 38
entropie, 52
bits
entrée, 89
de contrôle, 62
erreur
de correction, 49, 62
de distorsion de quantification,
boîte de Heisenberg, 117
40
bruit
de surcharge, 44
de saturation, 44
granulaire, 44
granulaire, 44
espace de Hilbert, 111
calcul excitation, 89
offline, 45 Fast Fourier Transform, 79
online, 45 fenêtre gaussienne, 113
CAN, 2, 38 fenêtre rectangulaire, 113
canal, 62 FFT, 79
CD, 3, 34, 62 filtrage, 88
codage, 38 filtre
canal, 3, 4, 49, 62 gabarit, 106
source, 3, 49, 56 passe-bande, 105
code, 62 passe-bas, 105
auto-ponctué, 54 passe-haut, 105
correcteur, 62 filtre
déchiffrable, 54 linéaire récursif causal, 95
irréductible, 54 numérique, 88
préfixe, 54 récursif, 90
convolée, 11 stable, 93

133
INDEX

FIR, 95 recouvrement du spectre, 34


fonction de transfert, 98 réponse fréquentielle, 102
fonction fenêtre, 113 RIF, 95
fonction à support borné, 8 réponse, 89
forme normalisée d’une fonction de réponse impulsionnelle, 90
transfert, 99
forme systématique, 72 schéma fonctionnel, 101
fréquence schéma-bloc, 101
de Nyquist, 32 signal
fréquence de coupure, 105 rectangulaire, 9
stable, 8
identité approchée, 24 SLI, 91
impulsion, 90 sortie, 89
incertitude de Heisenberg, 117 source, 38
source sans mémoire, 50
La disparition, 51 spectre, 79
localement stable, 19 spectrogramme, 119
stratégie
matrice
du vote majoritaire, 63
de contrôle, 71
syndrome, 72
de vérification, 71
système linéaire invariant, 91
pleine, 80
Série de Laurent, 96
modulation, 4
mots, 50 transformée de Fourier rapide, 6
mp3, 3 transformée de Fourier rapide, 84
méthode de la fenêtre, 106 transformée de Fourier rapide, 79,
82, 88
noyau de Poisson, 23
transformée de Fourier à fenêtre,
offline, 51 114
ondelette-mère, 121 transformée en ondelettes, 121
online, 51 transformée en 𝑧, 95

produit de convolution, 11, 21, 92, valeurs de décision, 40


101 wavelet transform, 121
quantification, 2, 38, 39, 41, 43 zip, 3, 49
adaptative., 45
uniforme, 42 échantillonage, 80

M. Chupin Version du 1er février 2023, 22 h 29 CET. 134

Vous aimerez peut-être aussi