Chapitre V
Chapitre V
Chapitre V
Depuis quelques décennies, les signaux réels sont, de plus en plus, traités de façon numérique.
Ce chapitre sera consacré exclusivement aux signaux numériques.
La transformée de Fourier à temps discret concerne uniquement les signaux à temps discret
non-périodiques. Dans le chapitre précédent, nous avons vu que le signal échantillonné se(t)
est réalisé par la multiplication du signal continu s(t) par un peigne de Dirac de période Te :
+∞ +∞
se (t) = s(t). δTe (t) = s(t) ∑ δ(t − nTe ) = ∑ s(nTe ) δ(t − nTe )
n=−∞ n=−∞
+∞ +∞
En utilisant la relation :
+∞
On trouve :
+∞
On constate que la transformée de Fourier d’un signal échantillonné ne fait plus intervenir le
calcul d’une intégrale mais s’exprime comme une somme infinie de termes. S e(ν) est une
fonction complexe de la variable réelle continue ν.
1- Périodicité de Se(ν)
+∞ +∞
−2jπ(ν+kFe )nTe
Se (ν + kFe ) = ∑ s(nTe ) e = ∑ s(nTe ) e−2jπνnTe e−2jπkFe nTe
n=−∞ n=−∞
+∞ +∞
La transformée de Fourier Se(ν) du signal échantillonné se(t) est une fonction périodique de
F F
période Fe. Il suffit donc d’étudier le comportement de Se(ν) sur l’intervalle [− 2e , 2e ].
2- Fréquence normalisée
+∞
1 1
Se(f) est périodique de période 1. On limite sa représentation sur l’intervalle [− 2 , ].
2
On définit alors la transformée de Fourier à temps discret d’un signal discret s[n] résultant de
l’échantillonnage de s(t) toutes les Te secondes, par :
+∞
s[n] = ∫ S(f)e2jπfn df
1
−
2
La 𝒯ℱ𝒯𝒟 inverse fait appel à une intégrale et non pas à une somme car f est une variable
continue.
V-1-2 Exemples
1- Impulsion à temps discret
1 si n=0
s[n] = δ[n] = {
0 ailleurs
+∞
2- Signal rectangulaire
1 si − N ≤ n ≤ N
s[n] = {
0 ailleurs
+∞ +N
S(f) est la somme de 2N + 1 termes d’une suite géométrique de raison e−2jπf et de premier
terme e2jπfN :
+N
1 − e−2jπf(2N+1)
S(f) = ∑ e−2jπfn = e2jπfN
1 − e−2jπf
n=−N
k
S(f ) = 0 si πf(2N + 1) = kπ et f = 2N+1
k
La transformée de Fourier S(f) s’annule pour toutes les fréquences f = 2N+1
signal rectangulaire
1.5
1
s[n]
0.5
0
-10 -5 0 5 10
n
spectre du signal rectangulaire
20
2N+1=15
S(f)
10
0
0 0.066 0,2 0,4 0,6 0,8 1
f
Exercice 1 :
Calculer la TFTD du signal suivant :
1 si 0 ≤ n ≤ N − 1
x[n] = {
0 sinon
Réponse :
sin (πfN)
X(f) = e−jπf(N−1)
sin (πf)
fait intervenir un nombre infini d’échantillons, ce qui le rend inexploitable par un système
numérique. L’ordinateur ne peut calculer le contenu fréquentiel du signal discret qu’en un
nombre fini de points fréquentiels, alors que la fréquence f varie continument. Il faut remplacer
la fréquence continu f par une fréquence discrète fk comme le montre la figure (V.2) tel que :
fk = k Δf
Δf : incrément
k : entier
S(f) f
Discrétisation
S(fk) Δf
fk
On va calculer la transformée de Fourier d’un signal discret qui a un nombre fini d’échantillons
non nuls. On considère donc un nombre fini N de points temporels s[0], s[1], … , s[N-1] et on
discrétise la fréquence en prenant un nombre fini L de points fréquentiels, S[0], S[1], … ,
S[L-1].
Puisque S(f) est périodique de période Fe, on peut diviser la période [0 , Fe] en L incréments ou
F
intervalles, comme le montre la figure (V.3), on obtient alors Δf = Le et k varie de 0 à L – 1.
S(f) f
Fe
Fe
Δf =
L
S(fk) fk
Fe Fe Fe
2 (L − 1)
L L L
S(f) f
1
1
Δf =
L
S(fk) fk
1 2 1
(L − 1)
L L L
Définition :
Pour un signal discret de durée finie s[n], on définit la transformée de Fourier discrète 𝒯ℱ𝒟
par :
N−1
k
S(k) = ∑ s[n] e−2jπLn (V.5)
n=0
N : nombre de points temporels
n : variable temporelle, n = 0 … N – 1
N N
n ∈ [0 , N − 1] ou n ∈ [− , ]
2 2
L : nombre de points fréquentiels
k : variable fréquentielle,
L L
k ∈ [0 , L − 1] ou k ∈ [− , ]
2 2
Généralement, on prend N = L (Fig V.5), et la transformée de Fourier discrète d’une suite fine
de N termes s[0], s[1], …, s[N-1] est la suite de N termes S[0], S[1], …, S(N-1] définis par :
N−1
k
S(k) = ∑ s[n] e−2jπNn (V.7)
n=0
|X[0]| = 4 φ(0) = 0
3
1 π
k = 1 ; X(1) = ∑ x[n] e−jπ2n = 1 + 2e−j2 + e−jπ + 0 = −2j
n=0
π
|X[1]| = 2 φ(1) = −
2
|X[2]| = 0 φ(1) = 0
3
3 3π
k = 3 ; X(3) = ∑ x[n] e−jπ2n = 1 + 2e−j 2 + e−j3π + 0 = 2j
n=0
π
|X[3]| = 2 φ(1) =
2
finalement
π π
X[k] = [4 -2j 0 2j] |X[k]| = [4 2 0 2] 𝜑[k] = [0 − 0 ]
2 2
2
x[n]
1
0
-0.5 0 0.5 1 1.5 2 2.5 3 3.5
n
4
|X[k]|
2
0
-0.5 0 0.5 1 1.5 2 2.5 3 3.5
k
pi/2
(k)
0
-pi/2
-0.5 0 0.5 1 1.5 2 2.5 3 3.5
k
1.5
1
s[n]
0.5
0
-5 0 5
n
3
2
|S(f)|
1
0
0 0.5 1
f
0
(f)
-pi/2
-pi
0 0.5 1
f
b)
1 1
Dans ce cas, N = 4, Δf = = = 0.25 et n = 0 … (N-1)
N 4
N−1 N−1 N−1
k k k
S(k) = ∑ s[n] e−2jπNn = ∑ s[n] e−2jπ4n = ∑ s[n] e−jπ2n
n=0 n=0 n=0
|S[0]| = 2 φ(0) = 0
3
1 π
k = 1 ; S(1) = ∑ s[n] e−jπ2n = 1 + e−j2 + 0 + 0 = 1 − j
n=0
π
|S[1]| = √2 φ(1) = −
4
3
|S[2]| = 0 φ(2) = 0
3
3 3π
k = 3 ; S(3) = ∑ s[n] e−jπ2n = 1 + e−j 2 + 0 + 0 = 1 + j
n=0
π
|S[3]| = √2 φ(1) =
4
Finalement
π π
S[k] = [2 (1 – j) 0 (1 + j)] |S[k]| = [2 √2 0 √2] 𝜑[k] = [0 − 4 0 ]
4
3
2
S[f]
(a)
1
0
0 0.1 0.25 0.5 0.75 1
f
pi/4
(f)
0 (b)
-pi/4
0 0.25 0.5 0.75 1
f
TFD & TFTD de s[n]
3
2 (c)
1
0
0 0.25 0.5 0.75 1
f
La figure (V.8a) représente la 𝒯ℱ𝒟 du signal s[n]. Les quatre échantillons de la 𝒯ℱ𝒟
superposés sur la courbe obtenue par la 𝒯ℱ𝒯𝒟 du signal discret, comme le montre la figure
(V.8c).
Ainsi, pour calculer les N valeurs de S[k], on doit effectuer N2 multiplications complexes et
N
N(N - 1) additions. L’algorithme de Cooley-Tukey permet d’effectuer 2 log 2 (N) multiplications
Ln(N)
complexes où log 2 (N) = est le logarithme de base 2. La figure (V.9) montre que le
Ln(2)
nombre de multiplications complexes augmente plus vite dans le cas de la 𝒯ℱ𝒟 que dans le cas
de la FFT.
400
TFD
350 FFT
300
nombre de multiplications
250
200
150
100
50
0
0 5 10 15 20
N
La 𝒯ℱ𝒟 a été définie pour des signaux de durée finie. On ne connait pas la durée des signaux
réels. On observera donc, les signaux sur une durée finie NTe appelée durée d’observation, avec
N le nombre d’échantillons et Te la période d’échantillonnage. C’est la troncation des signaux
réels. Le signal tronqué sT[n] est le résultat de la multiplication du signal de durée infinie s[n]
par un signal appelé fenêtre d’analyse ou fenêtre de troncature w[n] qui limitera sT[n] à N
échantillons :
sT [n] = s[n] × w[n]
Cette fenêtre peut être un signal rectangulaire de largeur N :
1 si 0 ≤ n ≤ N − 1
wr [n] = {
0 ailleurs
2/N
-5/N -4/N -3/N -2/N -1/N 0 1/N 2/N 3/N 4/N 5/N
f
Fig V.10. Spectre du signal rectangulaire de durée N
s[n] = cos(2f n)
0 spectre de s[n]
1
(a) (b)
-1
0
-f0 f0
signal rectangulaire w [n] de largeur N
r spectre du signal rectangulaire
1
(c)
(d)
0 0
0 N-1 -1/N0 1/N
signal tronqué s [n] spectre du signal tronqué
T
1
(e) 0 (f)
-1
0
0 N-1 -f0 f0
2/N
Fig V.11. Effet d’une troncation sur une sinusoïde tronquée
La figure (V.11f) montre que la convolution avec le spectre du signal rectangulaire, introduit
2
des ondulations sur le spectre. La raie à la fréquence f0 est devenue un lobe de largeur N, associée
à des lobes secondaires.
Après la troncation, l’énergie se répartie autour de la fréquence de la sinusoïde, c’est l’étalement
spectral. On observe également de l’énergie dans toutes les fréquences, c’est la fuite spectrale
(Fig V.12).
L’étalement et la fuite spectrale sont liés à la troncature. Plus le nombre d’échantillons N est
important, plus la fenêtre est large, plus le lobe principal est étroit, plus on approche du pic de
Dirac, mais ne réduit pas la hauteur des lobes secondaires (Fig.V.13).
150
N = 16
N = 64
100 N = 128
50
0
0.4 0.45 0.5 0.55 0.6
2- Zéro padding
Si on observe via la 𝒯ℱ𝒟, on n’observera pas le spectre en continu la courbe rouge sur la figure
1
(V.14), (voir l’exemple 2), mais échantillonné avec un échantillon de ST(f) tous les N. Sur un
2
lobe de largeur on aura donc 3 points, les points bleus sur la figure (V.14).
N
1 f0 1
−
N N
Les points bleus nous donnent la courbe verte de la figure (V.14) qui est loin de la sinc. Pour
améliorer la visualisation, on va augmenter l’échantillonnage fréquentielle de manière à avoir
plus de points. C’est le zéro padding.
Le zéro padding est donc le remplissage avec des zéros. On augmente artificiellement le nombre
d’échantillons en ajoutant des zéros. On ajoute N0 zéros à la suite sT[n] jusqu’à obtenir un
nouveau nombre d’échantillons N’ = N + N0, on aura alors :
−1 −1 f0 1 1
N 2N 2N N
Exemple 5 : La FFT d’un signal rectangulaire de largeur N = 16, sur 16 points, 32 points et
128 points
1.5
1
0.5
0
0 2 4 6 8 10 12 14 16
FFT sur 16 points de 16 échantillons d’une fenêtre rectangulaire
20
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
1.5
1
0.5
0
0 5 10 15 20 25 30 35
FFT sur 32 points de 16 échantillons d’une fenêtre rectangulaire.
20
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
.
1.5
1
0.5
0
0 20 40 60 80 100 120 140
FFT sur 128 points de 16 échantillons d’une fenêtre rectangulaire
20
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Fig V.16. FFT sur 16, 32 et 128 points d’un signal rectangulaire de largeur N = 16
3- Types de fenêtre
On aimerait que la troncature du signal en temps sT [n] = s[n] × w[n] ne modifie pas son
spectre, ST [f] = S[f] ∗ W[f], c'est-à-dire que S(f) = ST(f), ce qui suppose que W[f] = ẟ[f]. La
fenêtre idéale est donc un Dirac. Malheureusement, les fenêtres présentent un lobe principal de
largeur non nulle L, et des lobes secondaires de hauteur non nulle, comme le montre la figure
(V.13).
Il existe plusieurs types de fenêtres. La figure (V.17) représente les principales fenêtres
utilisées : rectangulaire, triangulaire ou Bartlett, Hanning, Hamming et Blackmann. Elles ont
une grande ressemblance, mais leurs effets sont différents
0.8
0.6
w[n]
Rectangulaire
0.4
Bartlett
Hanning
Hamming
0.2
Blackman
0
0 10 20 30 40 50 60
n
La transformée de Fourier discrète des différents types de fenêtres est représentée sur la figure
(V.18), en échelle linéaire et en échelle logarithmique pour bien mettre en évidence les lobes
secondaires. On constate que la fenêtre rectangulaire a le lobe principal le plus étroit mais ses
lobes secondaires sont les plus importants, au contraire celle de Blackman a les plus faibles
lobes secondaires, mais un lobe principal plus large.
La fenêtre est caractérisée par (Fig.V.19) :
➢ L : la largeur du lobe principal,
➢ A : le rapport des amplitudes du premier lobe secondaire et du lobe principal.
Le tableau (V.1) résume les caractéristiques de chaque type de fenêtre.
22
rectangulaire
20
Bartlett
18 Hanning
Hamming
16
Blackman
14
12
(a)
W[f]
10
8
6
4
2
0
0 0.2 0.4 0.6 0.8 1
f
40
20
-20
W[f] en dB
-40
(b)
-60
rectangulaire
-80 Bartlett
Hanning
Hamming
-100
Blackman
-120
0 0.2 0.4 0.6 0.8 1
f
A
-10
-20
-30
L
-40
-50
0.3 0.35 0.4 0.45 0.5 0.55 0.6 0.65 0.7
On considère un signal composé de deux sinusoïdes avec deux fréquences f1 et f2 très proches
dont le spectre est représenté sur la figure (V.20).
|S(f)|
0
0 f1 f2
f
Fig V.20. Spectre de deux sinusoïdes de fréquences très proches
Le signal est ensuite tronqué par une fenêtre. Si les deux fréquences sont très proches et les
deux lobes principaux sont trop larges, on ne peut pas distinguer les deux sinusoïdes sur le
spectre du signal.
On appelle alors la résolution fréquentielle
α
Rf = F (V.9)
N e
l’écart minimal entre deux fréquences pour qu’elles soient distinguable dans le spectre observé.
D’après le tableau (V.1), la largeur du lobe principal vaut :
α
L= (V.10)
N
avec αrectangle = 2 ; αB artlett = αHanning = αHamming = 4 et αBlackman = 6
α
➢ Si |f2 − f1 | > R f = Fe , alors il est possible de distinguer les deux fréquences f1 et f2. Le
N
spectre résultant en pointillait sur la figure (V.21a) permet de retrouver les deux fréquences.
α
➢ Si |f2 − f1 | < R f = N Fe , les lobes principaux de chacune seront très proches qu’il sera
difficile de distinguer avec certitude les deux fréquences. Le spectre résultant en pointillait
de la figure (V.21b) ne permet pas de retrouver les deux fréquences f1 et f2.
f1 f1
f2 f2
spectre résultant spectre résultant
L L
f1 f2 f1 f2
Δf = f2 – f1
Δf = f2 – f1
(a) (b)
α α Fe
|f2 − f1 | ≥ R f = F et N≥ (V.11)
N e |f2 − f1 |
La largeur du lobe principal définit la résolution fréquentielle de l'analyse spectrale, c'est-à-
dire l'aptitude à distinguer deux fréquences proches l'une de l'autre. Plus le lobe principal est
étroit, meilleur est la résolution fréquentielle.
S[f]
S[f]
0 -20
-20 -40
-40 -60
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
f f
Hanning Hamming
50 20
0
0
S[f]
S[f]
-20
-50
-40
-100 -60
0 0.2 0.4 0.6 0.8 1 0 0,2 0.4 0.6 0.8 1
f f
Blackman
50
0
S[f]
-50
-100
0 0.2 0.4 0.6 0.8 1
f
Fig V.22. Spectre d’un signal composé de deux sinusoïdes à fréquences voisines. N = 32
D’après la figure (V.22), seule la fenêtre rectangulaire permet de distinguer les deux fréquences
voisines.
Si on prend N = 64, la figure (V.23) montre une amélioration de la résolution en fréquence pour
toutes les fenêtre sauf pour Blackman. Il faut augmenter d’avantage N pour la fenêtre de
Blackman.
20 0
S[f]
S[f]
0 -50
-20
0 0,2 0.4 0.6 0.8 1 -100 0 0.2 0.4 0.6 0.8 1
f f
Hanning Hamming
50 40
20
0
S[f]
S[f] 0
-50
-20
-100
0 0,2 0.4 0.6 0.8 1 -400 0,2 0.4 0.6 0.8
f f
Blackman
50
0
S[f]
-50
-100
0 0,2 0.4 0.6 0.8 1
f
Fig V.23. Spectre d’un signal composé de deux sinusoïdes à fréquences voisines. N = 64
On considère cette fois, un signal composé de deux sinusoïdes d’amplitudes très différentes
(Fig.V.24).
|S(f)| A1
A2
0 f1 f2
f
Fig V.24. Spectre de deux sinusoïdes d’amplitudes très différentes
Si l’écart est très important, le lobe principal en f2 est masqué par un lobe secondaire de f1. Ainsi
la figure (V.25) montre que :
Le lobe secondaire de f1, en pointillait bleu, ne cache pas le lobe principal de f2, en trait continu
rouge. Il ne va pas masquer la fréquence f2, (Fig.V.25a)
Le lobe secondaire de f1, en pointillait bleu, cache le lobe principal de f2, en trait continu vert.
Il va masquer la fréquence f2, (Fig.V.25b).
f1
f1
f2
f2
f1 f2 f1 f2
(a) (b)
Fig V.25. Résolution en amplitude
La résolution en amplitude Ra, est la capacité à distinguer des raies spectrales de faible
amplitude proche d’une raie spectrale plus importante.
amplitude du lobe principal
Ra = (V.12)
amplitude du 1er lobe secondaire
A1 A
➢ Si A2
< R a ou bien en dB, 20 log A1 < 20 logR a c ′ est à dire A1dB − A2dB < R adB alors
2
les deux fréquences se distinguent l’une de l’autre.
A1
➢ Si > R a c ′ est à dire A1dB − A2dB > R adB alors les deux fréquences ne se distinguent
A2
pas l’une de l’autre.
La résolution en amplitude n’est pas fonction du nombre de points N de l’analyse mais dépend
du type de fenêtre utilisée.
En général les résolutions en fréquence et en amplitude sont d'autant meilleures que le lobe
principal est étroit et les lobes secondaires sont de faibles amplitudes. Malheureusement, aucune
fenêtre ne peut présenter ces deux caractéristiques. Il est nécessaire donc d’effectuer un
compromis entre ces deux propriétés.
Exemple 7 : Le spectre d’un signal composé de deux sinusoïdes ayant des amplitudes
différentes, s[n] = sin(2π 0.4 n) + 0.02 sin(2π 0.15 n) en considérant N = 32, la largeur de la
fenêtre.
On constate sur la figure (V.26) que le lobe principal en 0.15 est couvert par les lobes
secondaires de 0.4. La fenêtre rectangulaire ne permet pas de différencier correctement les deux
sinusoïdes. En revanche, le premier lobe principal en 0.15 devient visible dans le cas des
fenêtres de Bartlett, de Hanning de Hamming et de Blackman.
cos(2 440 t)
1
0.5
s(t)
0
-0.5
-1
0 0.005 0.01
t
20 0
S[f]
S[f]
0 -20
-20 -40
-40 -60
0 0,2 0.4 0.6 0.8 1 0 0,2 0.4 0.6 0.8 1
f f
Hanning Hamming
50 20
0
0
S[f]
S[f]
-20
-50
-40
-100 -60
0 0,2 0.4 0.6 0.8 1 0 0,2 0.4 0.6 0.8 1
f f
Blackman
50
0
S[f]
-50
-100
0 0,2 0.4 0.6 0.8 1
f
Fig V.26. Spectre d’un signal composé de deux sinusoïdes ayant des amplitudes différentes
b- Représentation fréquentielle
0.4
Fig V.28. Représentation fréquentielle d’une
S(f)
sinusoïde
0.2
0
-500 0 500
f
500
450
400
350
Frequency 300
250
200
150
100
50
0
0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
Time
Un signal est stationnaire si ses caractéristiques spectrales ne varient pas dans le temps. Chaque
composante de fréquence existe à tout instant.
Un signal est non stationnaire si ses caractéristiques spectrales varient au cours du temps.
Chaque composante de fréquence existe à tout instant. Pour décrire ces signaux, on doit faire
appel à des représentations associant le temps et la fréquence.
Un signal chirp est un signal dont la fréquence varie. Si la fréquence varie linéairement avec
le temps, le signal chirp est linéaire (Fig.V.30).
0
-0.5
-1
0 0.2 0.4 0.6 0.8 1
t
Fig V.30. Signal chirp linéaire
τ1 τ2 τ3 τ4 τ5 temps
chevauchement segment
segment
FFT
➢ Plus la fenêtre est petite, plus la résolution temporelle est meilleure mais plus la résolution
fréquentielle est mauvaise.
➢ Plus la fenêtre est longue, plus la résolution fréquentielle est meilleure mais plus la
résolution temporelle est mauvaise.
C’est pourquoi il faut adopter un compromis entre la résolution temporelle et la résolution
fréquentielle.
4- Spectrogramme
Le spectrogramme est un diagramme associant à chaque instant τ d’un signal son spectre de
fréquence. C’est une représentation temps-fréquence.
Le spectrogramme représente le carré du module de la transformée de Fourier à court terme
𝒯ℱ𝒞𝒯.
200
Exemple 9 : 1) signal chirp s(t) = cos[2π ( ) t2]
6
500
450
400
350
Frequency (Hz)
300
250
200
150
100
50
0
1 2 3 4 5 6 7 8 9 10 11
Time (s)
9000
8000
X: 0.2022
7000 Y: 6035
Z: -26.41
Frequency (Hz)
6000
X: 0.5802
Y: 4395
5000 Z: -20.3
4000
3000
2000
1000
0
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
Time (s)
V-5 CONVOLUTION
V-5-1 Définition
1 1
a^2
h[n]
x[n]
0 0
0 5 10 0 N -1 5 10
n n
Fig V.32. Signaux x[n] et h[n]
1
a^2
x[-k]
0
-10 -5 0
1
x[n - k]
0
n 0
Fig V.34. Signal x[n] inversé et translaté
3ème étape : multiplication des deux signaux x[n – k] et h[k] point par point,
1
x[n-k] h[k]
0
nn00 N-1
N-1
0
Fig V.35. Signaux x[n – k] et h[k]
❑ Dans le cas de la figure (V.35) le produit est nul, par suite le produit de convolution est nul
aussi. Ceci est valable tant qu’il n’y ait aucune intersection entre x[n-k] et h[k]. A la limite
on aura le cas de la figure ci-dessous relative à la translation n = 0.
D’où
y[n] = h[n] ∗ x[n] = 0 pour tout n < 0 ①
1
x[n-k] h[k]
0
0
0 N-1
N-1
n
1
x[n-k] h[k]
0
0 N-1
0 n N-1
0
Fig V.37. Translation n>0
les deux signaux ont une partie commune qui se trouve entre zéro et n, par suite le produit de
convolution est :
+∞ n n
n−k
1 − a−(n+1)
y[n] = h[n] ∗ x[n] = ∑ h[k] x[n − k] = ∑ a = a ∑ a−k = an
n
1 − a−1
k=−∞ k=0 k=0
1 − a−(n+1)
y[n] = h[n] ∗ x[n] = an ②
1 − a−1
Au fur et à mesure que le signal x[n – k] continue sa translation vers la droite, le nombre
d’échantillons communs entre x[n – k] et le signal h[k] augmente jusqu’à ce qu’on atteigne la
valeur maximale pour n = N -1, comme le montre la figure (V.38).
La relation ② est donc valable pour toute translation 0 ≤ n < N.
1
x[n-k] h[k]
0
00 N-1
N-1
n 0
Fig V.38. Translation n > 0, nombre maximum d’échantillons communs
❑ Le signal x[n – k] se déplace toujours vers la droite et il dépasse la partie non nulle de
h[k] (Fig(V.39)):
h[k] x[n-k]
0
0 N-1 n
0
Fig V.39. Translation n > 0, x[n – k] dépasse la partie non nulle de h[k]
La partie commune entre les deux signaux se trouve maintenant entre zéro et N – 1 et le
nombre d’échantillons en commun reste constant. D’où :
+∞ N−1 N−1
n−k n −k
1 − a−N
n
y[n] = h[n] ∗ x[n] = ∑ h[k] x[n − k] = ∑ a =a ∑a =a
1 − a−1
k=−∞ k=0 k=0
1 − a−N
n
y[n] = h[n] ∗ x[n] = a ③
1 − a−1
Si le signal x[n] est de dimension N et h[n] de dimension M et les signaux sont causaux, le
produit de convolution est :
N−1 M−1
Exemple 11 :
N−1 2
y[n] = [-1 , 0 , 3 , 2] défini dans l’intervalle [0 , 3] est représenté sur la figure (V.40).
x[n]
3
0
0 1 2 3
h[n]
3
2
1
0
-1
0 1 2 3
x[n] = 1 2 1
×
h[n] = -1 2
-1 -2 -1
+ . 2 4 2
y[n] = -1 0 3 2
La convolution normale de deux signaux périodiques n’existe pas. Il faut faire la convolution
périodique ou circulaire.
Si x[n] et h[n] sont tous deux périodiques avec la même période N, alors leur convolution
périodique produira une séquence y[n] périodique et ayant la même période N.
1
0.8
0.6
0.4
0.2
0
-4 -2 0 2 4 6 8
h[n]
0
-4 -2 0 2 4 6 8
Fig V.41. Deux séquences périodiques
N−1 3
xp[n] = 1 0 1 1
×
hp[n] = 1 2 3 1
1 0 1 1
+ . 2 0 2 2
. 3 0 3 3
. 1 0 1 1
= 1 2 4 4 5 4 1 0
1 2 4 4
+ 5 4 1 0
= 6 6 5 4
b) Convolution et 𝓣𝓕𝓓
La transformée de Fourier discrète de la convolution circulaire est le produit des transformées
de Fourier discrètes, cependant la transformée de Fourier discrète de la convolution classique
n’est pas le produit des transformées de Fourier discrètes.
𝓣𝓕𝓓
xp [n] ⨂ yp [n] ⇒ X p [k] × Yp [k] (V.17)
et
𝓣𝓕𝓓
xp [n] × yp [n] ⇒ X p [k]⨂Yp [k]
mais
xp [n] ∗ yp [n] ⇏ Xp [k] × Yp [k]
On suppose que x[n] et y[n] sont deux séquences bornées de taille M et N respectivement, la
convolution circulaire coïncide avec la convolution classique en remplissant de zéros chaque
séquence jusqu’à M + N – 1.
xp[n] = 1 0
×
hp[n] = 1 2
1 0
+ . 2 0
= 1 2 0
xp[n] et yp[n] sont deux séquences de taille M = 2 et N = 2 respectivement, ajoutons des zéros
de telle manière que la taille de chaque séquence soit égale à M + N – 1 = 2 + 2 + 1 = 3.
xp[n] = 1 0 0
×
hp[n] = 1 2 0
1 0 0
+ . 2 0 0
. 0 0 0
= 1 2 0 0 0
La convolution circulaire est alors égale à [1 2 0] qui concorde bien avec la convolution
classique.
V-6 CORRELATION
La corrélation permet de comparer deux signaux pour mesurer leur ressemblance. La
corrélation entre deux signaux discrets réels x[n] et y[n] est défini par :
+∞ +∞
Intercorrélation
+∞
Autocorrélation
Signaux à puissance moyenne finie
+N
1
Cxy [k] = lim ∑ x[n] y[n − k] (V.20)
N→∞ 2N + 1
n=−N
+N
1
Cxx [k] = lim ∑ x[n] x[n − k] (V.21)
N→∞ 2N + 1
n=−N
Les fonctions de corrélation sont des signaux numériques périodiques de même période N que
les signaux x[n] et y[n].
Si x[n] est de dimension N et y[n] de dimension M, la fonction de corrélation est :
N−1
anu[n]
1
a
a^3
a^5
0
-4 -3 -2 -1 0 1 2 3 4 5
1
a
a^3
a^5
0
-4 -3 -2 -1 0 1 2 3 4 5
k
Fig V.42. Signal x[n] et sa version translatée k < 0
+∞ +∞ +∞
n (n−k) −k
a−k
Cxy [k] = ∑ x[n] x[n − k] = ∑ a a =a ∑ a2n =
1 − a2
n=0 n=0 n=0
L’énergie est :
1
Cxy [0] =
1 − a2
Pour une translation k > 0
+∞ +∞ +∞
n (n−k) −k
a2k ak
Cxy [k] = ∑ x[n] x[n − k] = ∑ a a =a ∑ a2n = a−k =
1 − a2 1 − a2
n=k n=k n=k
anu[n]
1
a
a^3
a^5
0
-4 -3 -2 -1 0 1 2 3 4 5
k
Fig V.43. Signal x[n] et sa version translatée k > 0
L’énergie est :
1
Cxy [0] =
1 − a2
En résumé :
a|k| 1
Cxy [k] = 1−a2 et Cxy [0] = 1−a2
Finalement
Cxy [k] = [1 , −0.5 , −1.5 , 1]
L’intercorrélation est représentée sur la figure (V.44).
Intercorrélation
1
0.5
Cxy[k]
0
-0.5
-1
-1.5
-2
-3 -2 -1 0 1 2 3
k
Fig V.44. Intercorrélation Cxy [k]
V-7 TRANSFORMEE EN Z 𝓣𝓩
La transformée en Z est aux systèmes en temps discrets ce que la transformée de Laplace est
aux systèmes en temps continus.
V-7-1 Définition
On considère un signal discret x[n], sa transformée en 𝒵 est donnée par :
+∞
Exemple 15 :
x[n] = [1 , 2 , 3 , 5 , 0 , 2]
5
X1(z) : la 𝒯𝒵 d’une séquence anti causale, ne comportant des éléments que pour les valeurs
négatives de l’indice.
X2(z) : la 𝒯𝒵 d’une séquence causale, ne comportant des éléments que pour les valeurs positives
de l’indice.
➢ Appliquons le critère de Cauchy à la série X2(z)
1 1
lim |x[n]z −n |n < 1 soit lim |x[n]n z −1 | < 1
n→∞ n→∞
On pose
1
R − = lim |x[n]|n
n→∞
d’où
1
lim |x[n]n | = R − < z
n→∞
La série X2(z) converge donc pour |z| > R − . La figure (V.45) montre que z doit être à
l’extérieur d’un cercle de rayon R-.
ℐ𝓂(z)
Domaine de convergence
R-
ℛℯ(z)
X1 (z) = ∑ x[n]z −n
n=−∞
Posons p = -n
+∞
X1 (z) = ∑ x[−p]z p
p=+1
La série converge si :
1
lim |x[−p]z p |p < 1
p→∞
et
1
lim |x[−p]𝑝 z| < 1
p→∞
par la suite
1 −1
|z| < [ lim |x[−p]p |] = R+
p→∞
La figure (V.46) montre que z doit être à l’intérieur d’un cercle de rayon R+.
ℐ𝓂(z)
R+
ℛℯ(z)
Domaine de convergence
ℐ𝓂(z)
R+
R- ℛℯ(z)
anneau de convergence
V-7-3 Exemples
1- Impulsion
x[n] = ẟ[n]
+∞ 0
−n
X(z) = ∑ x[n]z = ∑ z −0 = 1
n=−∞ n=0
𝒯𝒵{ẟ[n]} = 1 (V.29)
La transformée en 𝒵 existe partout, ∀ z ∈ ℂ.
2- Echelon
x[n] = u[n]
+∞ +∞
X(z) = ∑ u[n]z −n = ∑ z −n = 1 + z −1 + z −2 + ⋯
n=−∞ n=0
La transformée en 𝒵 existe donc pour |z| > 1. Le domaine de convergence est à l’extérieur du
cercle unité.
𝐚𝐧 𝐬𝐢 𝐧≥𝟎
3- 𝐱 𝟏 [𝐧] = 𝐚𝐧 𝐮[𝐧] = {
𝟎 𝐬𝐢 𝐧<𝟎
x [n] = an u[n]
1
1
a
a^4
0
-5 -4 -3 -2 -1 0 1 2 3 4 5
−𝐚𝐧 𝐬𝐢 𝐧 < −𝟏
4- 𝐱 𝟐 [𝐧] = −𝐚𝐧 𝐮[−𝐧 − 𝟏] = {
𝟎 𝐬𝐢 𝐧 ≥ −𝟏
Le signal x2[n] représenté sur la figure (V.49) est un signal anti causal.
a^4
-a
-1
-5 -4 -3 -2 -1 0 1 2 3 4 5
+∞ −1
n −n
X(z) = ∑ −a u[−n − 1] z = − ∑ an z −n
n=−∞ n=−∞
Posons p = -n
+∞ +∞ +∞
V-7-5 Propriétés
1- Linéarité
Supposons que :
2- Décalage
Posons n – n0 = p
+∞ +∞
Finalement
si
𝒯𝒵{x[n]} = X(z)
alors
𝒯𝒵{x[n − n0 ]} = z −n0 X(z) (V.34)
C’est le théorème du retard.
Multiplier une transformée en 𝒵 par z-1, revient donc à retarder la séquence d’une unité.
Exemple 16 :
a)
𝒯𝒵{δ[n]} = 1
𝒯𝒵{δ[n − k]} = z −k 𝒯𝒵{δ[n]} = z −k
b)
z
𝒯𝒵{u[n]} =
z−1
z z −k
𝒯𝒵{u[n − k]} = z −k 𝒯𝒵{u[n]} = z −k =
z−1 1 − z −1
Exercice 1 :
Déterminer la transformée en 𝒵 d’un signal rectangulaire causal :
1 si 0≤n<N−1
x[n] = {
0 ailleurs
Réponse :
On peut écrire le rectangle en fonction des échelons :
x[n] = u[n] − u[n − N]
et en appliquant le résultat de l’exemple (16b), on trouve :
1 − z −N
𝒯𝒵{x[n]} =
1 − z −1
3- Séquence avancée
Posons n + n0 = p
+∞ +∞ n0 −1
finalement
n0 −1
Cas particuliers
4- Produit de convolution
sa transformée en 𝒵 est :
+∞ +∞
5- Changement d’échelle
finalement
z (V.38)
𝒯𝒵{an x[n]} = X( )
a
6- Théorèmes limites
❑ Valeur initiale :
❑ Valeur finale :
Exemple 18 :
z
X(z) =
z−1
z
x[0] = lim X(z) = lim =1
z→∞ z→∞ z − 1
z
x[∞] = lim x[n] = lim(z − 1)X(z) = lim(z − 1) =1
n→∞ z→1 z→1 z−1
1 z
C’est l’échelon, et 𝒯𝒵{𝑢[𝑛]} = =
1+z−1 z−1
Transformée de Fourier :
+∞
ν
X(f) = ∑ x[n] e−2jπfn avec f = ∶ fréquence normalisée
Fe
n=−∞
Transformée en 𝒵 :
+∞
X(z) = ∑ x[n]z −n
n=−∞
Par comparaison :
ν
2jπ
X(f) = X(z) lorsque z = e2jπf = e Fe
Pour les séquences finies, X(z) a une forme polynomiale qui donne immédiatement la
transformée en 𝒵 inverse x[n].
Exemple 19 :
Soit X(z) = 3z-1 + 5z-3 + 2z-4
Le polynôme donne directement la séquence : x[n] = 3ẟ[n – 1] + 5ẟ[n – 3] + 2ẟ[n – 4]
par suite
x[n] = [0 , 3 , 0 , 5 , 2]
2- fonction rationnelle
a- Division selon les puissances de z-1
Si X(z) est une fonction rationnelle, on peut utiliser la division pour retrouver la transformée en
𝒵 inverse.
Si le signal est causal, on place le numérateur et le dénominateur en ordre croissant de puissance
en z, puis on effectue la division pour obtenir des valeurs décroissantes de z.
0 si n<0
x[0] = 1
x[1] = 1
x[n] = d’où x[n] = u[n]
x[2] = 1
x[3] = 1
{ …
Rien ne nous informe sur le comportement analytique de x[n] pour les valeurs de n > 3. Pour
en savoir plus, on est obligé de poursuivre les divisions. C’est l‘inconvénient de cette méthode.
Si le signal est anti causal, on place le numérateur et le dénominateur en ordre décroissant de
puissance en z, puis on effectue la division pour obtenir des valeurs croissantes de z.
Les racines de D(z) = 0, sont appelées les pôles pi . Le dénominateur peut être écrit sous la
forme :
D(z) = K 2 (z − p1 ) (z − p2 ) (z − p3 )… (z − pm ) avec k 2 une constante
Ou bien
m
N(z) K1 ∏ki=1(z − zi )
X(z) = =
D(z) K 2 ∏m
i=1(z − pi )
➢ Pôles simples
On suppose que d° [N(p)] < d° [D(p)].
N(z) N(z)
X(z) = =
D(z) (z − p1 )(z − p2 ) … (z − pm )
A1 A2 Am
X(z) = + + ⋯+
(z − p1 ) (z − p2 ) (z − pm )
Le calcul de Ai
Ai = [X(z). (z − pi )]z=pi avec i = 1, 2, … m :
x[n] = ∑ Ai pni
i=1
1
A1 = [X(z). (z − p1 )]z=p1 = [ (z −1 − 1)] =1
1
2(z −1 − 1)(z −1 − 2)
𝑧 −1 =1
1 1
A2 = [X(z). (z − p2 )]z=p2 = [ (z −1 − )] = −1
1 2
2(z −1 − 1)(z −1 − 2) 1
𝑧 −1 =
2
1 1 −1 1 2
X(z) = = + = − +
1− 3z −1 + 2z −2 (z −1 1
− 1) (z −1 − ) (1 − z ) (1 − 2z −1 )
−1
2
La transformée en 𝒵 inverse est alors :
m
Système d’ordre 2 :
avec a0 = 1
En plaçant les pôles (x) et les zéros (o) de H(z) dans le plan de z, on obtient la figure (V.50) :
ℐ𝓂(z)
j
z
Vp1
p1 Vz1
x
ℛℯ(z)
-1 z1 1
Vp2
p2
x
-j
La figure (V.50) montre les vecteurs pôles, notés Vpi (z), reliant les pôles pi à un point z donné
du cercle unité et les vecteurs zéros, notés Vzi (z), reliant les zéros zi à un point z donné du
cercle unité.
Le module et l’argument de H(z) sont donnés par les relations suivantes :
∏M
i=1|Vzi (z)|
|H(z)| =
∏N
i=1|Vpi (z)| (V.41)
M N
θ=π/2
ℐ𝓂(z)
f=1/4
υ=Fe/4 j
z
θ=π
f=1/2
υ=Fe/2
-1 θ 1 ℛℯ(z)
θ=-π θ=0
f=-1/2 f=0
υ=-Fe/2 υ=0
-j
θ=-π/2
f=-1/4
υ=-Fe/4
Remarques :
➢ Le gain atteint un maximum lorsque z s’approche d’un pôle. Ce maximum est d’autant plus
élevé que le pôle est plus proche du cercle.
➢ Le gain atteint un minimum lorsque z s’approche d’un zéro. Ce minimum est d’autant plus
faible que le zéro est plus proche du cercle.
z
Exemple 23 : Soit H(z) = ou a est un réel <1. Donner l’allure de la réponse fréquentielle.
z−a
x Pôles : z – a = 0, z = a
θ=π/2
ℐ𝓂(z)
f=1/4
υ=Fe/4 j
z
θ=π
f=1/2
υ=Fe/2
-1 θ 1 ℛℯ(z)
x
0 a
θ=-π θ=0
f=-1/2 f=0
υ=-Fe/2 υ=0
-j
θ=-π/2
f=-1/4
υ=-Fe/4
θ = 2πf = 0 d’où f = 0 et
z = ejθ = 1.
Le maximum vaut donc :
1
G(0) = |H(z = 1)| = = Hmax
1−a
et localisé en f = 0.
Le minimum est obtenu lorsque z est le plus éloigné du pôle a, c'est-à-dire :
1
θ = 2πf = ±π d’où f = ± 2 et z = ejθ = ej±π = −1
|H(f)|
Hmax
Hmin
f
1 0 1
−
2 2
V-9-1 Causalité
Un filtre numérique est dit causal si sa réponse impulsionnelle h[n] est nulle pour n < 0. Sa
transformée en 𝒵 converge alors à l’extérieur d’un cercle.
Un filtre numérique est dit anti causal si sa réponse impulsionnelle h[n] est nulle pour n < 0. Sa
transformée en 𝒵 converge alors à l’intérieur d’un cercle.
V-9-2 Stabilité
La stabilité est très importante pour concevoir un filtre numérique. Un filtre instable n’a aucune
utilité pratique.
Un filtre numérique est stable si à toute entrée bornée x[n] correspond une sortie y[n] bornée.
∃ M, ∀ n, |x[n]| < M ⟺ ∃ M ′ , ∀ n, |y[n]| < M ′
Il n’est toujours pas facile de prouver qu’un filtre est stable en pratique. Cependant, il y a une
condition nécessaire et suffisante de stabilité qui dit :
un filtre numérique de réponse impulsionnelle h[n] est stable si :
+∞
∑ |h[n]| < A
n=−∞
Exemples 24 :
1) Le système suivant est-il stable ?
1 n
h[n] = ( ) u[n]
2
1/8
0
-5 -4 -3 -2 -1 0 1 2 3 4 5
1 n
Fig V.54. h[n] = (2) u[n]
h[n] = 2n u[n]
40
32
24
16
8
0
-5 0 5
Dans ce cas :
+∞ +∞
∑ |h[n]| = ∑ 2n = 1 + 2 + 22 + 23 + ⋯
n=−∞ 0
La stabilité d’un filtre peut aussi être vérifiée à partir de la fonction de transfert H(z). En effet :
➢ un filtre causal, sa fonction de transfert est rationnelle, est stable si tous les pôles de H(z)
sont à l’intérieur du cercle unité.
➢ un filtre anti-causal, sa fonction de transfert est rationnelle, est stable si tous les pôles de
H(z) sont à l’extérieur du cercle unité.
➢ Si un pôle unique est sur le cercle unitaire, le système est marginalement table.
➢ Quand les pôles et les zéros d’un système sont à l’intérieur du cercle unité, le système est
appelé à phase minimale.
M : ordre du filtre.
bi : coefficients de la fonction de transfert du filtre.
Calculons la transformée en 𝒵 de l’équation aux différences de la relation (V.42) :
Y(z) = b0 X(z) + b1 z −1 X(z) + b2 z −2 X(z) + ⋯ + bM z −M X(z)
La fonction de transfert est :
M
Y(z)
H(z) = = b0 + b1 z −1 + b2 z −2 + ⋯ + bM z −M = ∑ bi z −i (V.43)
X(z)
i=0
Un filtre non récursif d’ordre M possède M + 1 coefficients. Il n’y a pas de dénominateur, donc
pas de pôles, par conséquent le filtre est toujours stable.
Cherchons la réponse impulsionnelle. Si l’entrée est l’impulsion de Dirac, x[n] = ẟ[n], la sortie
est la réponse impulsionnelle y[n] = h[n], la relation (V.42) devient :
M M
Après avoir comparé les deux membres de l’équation (V.46) et en utilisant la relation (V.47),
on trouve :
h[0] = b0
h[1] = b1
b si 0≤i≤M
h[2] = b2 d’où h[n] = { i (V.48)
0 sinon
…
h[M] = bM }
1
Y(z) = [X(z) + z −1 X(z) + z −2 X(z) + ⋯ + z −(M−1) X(z)]
M
Y(z) 1
H(z) = = [1 + z −1 + z −2 + ⋯ + z −(M−1) ]
X(z) M
La réponse impulsionnelle :
h[n] = 𝒯𝒵 −1 [H(z)]
M−1
1 1
= ∑ δ[n − i] = [δ[n] + δ[n − 1] + δ[n − 2] + ⋯ + δ[n − (M − 1)]]
M M
i=0
1 1 1 1
=[ + + + ⋯ + , 0,0]
M M M M
1
h[n] = { M si 0≤i≤M−1
0 sinon
n
signal d'entrée: x[n] = (1.02) + cos(2n/8 + /4)
4
0
-10 0 10 20 30 40 50
(a)
signal de sortie filtre moyenneur sur 7 points
3
0
-10 0 10 20 30 40 50
élimination d'une valeur érronée en n= 6
1.5
0.5
(b)
z[n]
-0.5
-1
moyenne mobile sur 5 échantillons
valeurs mesurées
-1.5
0 5 10 15 20
n
signal sinuoidal bruité
2 2
signal filtré
1.5 1.5
1 1
0.5 0.5
y(t)
z(t)
0 0
-0.5 -0.5
-1 -1
-1.5 -1.5
-2 -2
0 0.5 1 1.5 2 0 0.5 1 1.5 2
t (c) t
La réponse impulsionnelle
h[n]
...
0
-2 0 2 4 M-1
Fig V.57. Réponse impulsionnelle d’un filtre moyenneur
La réponse fréquentielle :
La réponse fréquentielle est obtenue en remplaçant z par e2jπf, avec f la fréquence normalisée.
M−1
Y(z) 1 1
H(z = e2jπf ) = = [1 + e−2jπf + e−4jπf + ⋯ + e−2jπf(M−1) ] = ∑ e−2jπfi
X(z) M M
i=0
Finalement
sinc (fM)
H(z = e2jπf ) = e−jπf(M−1) sinc (f)
M=2
1
M=5
M=10
0.8
|H| 0.6
0.4
0.2
0
0 0.1 0.2 0.3 0.4 0.5
f
On va visualiser l’équation aux différences associée à un filtre numérique sous la forme d’une
structure faisant apparaitre les éléments suivants :
➢ Additionneur symbolisé par :
La structure du filtre non récursif est représentée sur la figure (V.59) ; à partir de l’équation
M
y[n] = ∑ bi x[n − i]
i=0
x[n] b0 y[n]
z-1
b1
Fig V.59. Structure d’un filtre non
récursif
z-1
b2
z-1
bM
3- filtre récursif
La réponse y[n] d’un système causal récursif d’ordre N se calcule à partir du signal d’entrée
x[n] et des valeurs précédentes y[n – i] de la sortie. Son équation aux différences est :
N M
Y(z)[1 + a1 z −1 + a2 z −2 + ⋯ + aN z −N ] = X(z)[b0 + b1 z −1 + b2 z −2 + ⋯ + bM z −M ]
avec a0 = 1.
Cherchons la réponse impulsionnelle.
M N
finalement
N−1
bn − ∑ ai y[n − i] si n≤M−1
i=1
h[n] = N−1
∑ ai y[n − i] ailleurs
{ i=1
Stabilité
➢ Il faut s’assurer que H(z) ne possède pas de pôle à l’extérieur du cercle unité.
➢ Les pôles situés le long de z = 1, donnent lieu à des réponses oscillatoires.
➢ Si tous les zéros de la fonction de transfert du filtre sont de module inférieur à 1, le filtre est
dit à minimum de phase.
0.5 0.5
Imaginary Part
Imaginary Part
0 0
-0.5 -0.5
-1 -1
-1 -0.5 0 0.5 1 -1 -0.5 0 0.5 1
Real Part Real Part
0.5
Imaginary Part
-0.5
-1
-1 -0.5 0 0.5 1
Real Part
a>1
Instable
Réponse impulsionnelle
si x[n] = ẟ[n] alors y[n] = h[n]
h[n] = ẟ[n] – ah[n – 1]
h[0] = ẟ[0] – ah[– 1] = 1
(−1)n an si n ≥ 0
h[1] = ẟ[1] – ah[0] = -a h[n] = {
0 ailleurs
h[2] = ẟ[2] – ah[1] = a2
h[3] = ẟ[3] – ah[2] = -a3
si a < 1 ;
+∞ +∞
1
∑ h[n] = ∑(−1)n an = fini et le filtre est stable.
1+a
n=0 n=0
si a > 1 ;
+∞ +∞
Réponse fréquentielle
z = e2jπf
1
H(z = e2jπf ) =
1 + ae−2jπf
Le module est :
1
|H(z = e2jπf )| =
√1 + 2 a cos(2πf) + a2
1 1
|H(f = 0)| = =
√1 + 2a + a2 1+a
Si a > 0
1 1
|H(f = 0)| = = <1
√1 + 2a + a2 1+a
1 1 1
|H (f = )| = = >1
2 √1 − 2a + a2 1 − a
module
1
1/(1-a)
0.5
Imaginary Part
0
|H|
-0.5
-1
-1 -0.5 0 0.5 1 1/(1+a)
Real Part 0 0.5
f
Si a < 0
1 1
|H(f = 0)| = = >1
√1 + 2a + a2 1+a
1 1 1
|H (f = )| = = <1
2 √1 − 2a + a2 1 − a
module
1
1/(1+a)
0.5
Imaginary Part
|H|
0
-0.5
-1
1/(1-a)
-1 -0.5 0 0.5 1 0
0 0,5
Real Part
f
x[n] b0 y[n]
z-1 z-1
b1 -a1
z-1 z-1
bM -aN
V-9-4 Applications
1- Filtre à encoche (Notch filter)
Le filtre à encoches permet de supprimer une composante sinusoïdale parasite. Des zéros
proches du cercle unité produisent des minimas au niveau de la réponse fréquentielle. Des pôles
proches du cercle unité produisent de larges pics sur la réponse fréquentielle.
Pour concevoir un filtre pour supprimer une seule fréquence parasite f0, on va placer deux zéros
sur le cercle unité pour supprimer la fréquence f0 et deux pôles proches de zéros à l’intérieur du
cercle pour compenser l’effet des zéros aux autres fréquences.
f0
avec fn = , Fe : fréquence d′ échantillonnage.
Fe
module en fontion de a
2.5
0.98 0.8 0.5 0.1
1.5
|H|
0.5
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
f
La figure (V.61) montre que plus que le coefficient a est proche de 1 plus le filtre est sélectif, a
permet donc d’ajuster la sélectivité du filtre.
Un filtre en peigne ajoute une version retardée du signal à lui-même. Sa structure est représentée
sur la figure (V.62).
x[n] y[n]
z-N0
z N0 + α = 0 z N0 = − α 1
Il y a N0 solutions régulièrement
espacés dans le cercle du plan 0.5
Imaginary Part
complexe.
Pôles : 0
10
z N0 = 0
Il y a N0 pôles à z = 0. -0.5
Réponse impulsionnelle
La réponse impulsionnelle est obtenue en remplaçant y[n] par h[n] et x[n) par δ[n] dans
l’équation aux différences :
h[n] = δ[n] + α δ[n – N0 ]
réponse impulsionnelle
1
h[n]
alpha
0
0 N0
n
Fig V.64. Réponse impulsionnelle d’un filtre en peigne
Réponse en fréquence
Pour obtenir la réponse en fréquence, on effectue le changement z = e2jπf :
H(z = e2jπf ) = 1 + α e−2jπfN0 = 1 + α cos(2πfN0 ) − j α sin(2πfN0 )
Le module :
La réponse en fréquence du filtre en peigne est périodique. La figure (V.65) montre que les
maximas et les minimas sont à égale distance de 1 et le maximum pour une valeur positive de
α coïncide avec le minimum des valeurs négatives de α et vice versa.
module pour = 1
2
|H|
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
f
module pour = -1
2
1.5
|H|
0.5
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
f
Fig V.65. Réponse en fréquence d’un filtre en peigne pour α = ±1
1 zN0 1 Y(z)
Etudions la fonction inverse G(z) = = = =
H(z) zN0 +α 1+α z−N0 X(z)
-α z-N0
x[n] y[n]
Fig V.66. Structure de G(z)
Zéros :
z N0 = 0
Il y a N0 zéros à z = 0.
Pôles :
N0
z N0 + α = 0 z N0 = − α z = √−α
Il y a N0 solutions régulièrement espacés dans le cercle du plan complexe.
0.5
Imaginary Part
10
0
-0.5
-1
-1 -0.5 0 0.5 1
Real Part
Réponse impulsionnelle
x[n] = y[n] + α y[n – N0 ]
y[n] = x[n] - α y[n – N0 ]
h[n] = δ[n] - α h[n – N0 ]
h[0] = δ[0] – α h[–N0 ] = 1
h[1] = δ[1] – αh[1 – N0 ] = 0
h[2] = δ[2] – αh[2 – N0 ] = 0
h[N0 ] = δ[N0 ] – αh[0] = – α
h[2N0 ] = δ[2N0 ] – αh[2N0 - N0 ] = δ[2N0 ] – αh[N0 ] = – α.(– α) = α2
La réponse impulsionnelle est :
k k
h[n] = {(−1) α si n = k N0 avec k ∈ N
0 ailleurs
réponse impulsionnelle
1
alpha^2
h[n]
0
-alpha^3
-alpha
-1
0 N0 2N0 3N0
n
1
Fig V.68. Réponse impulsionnelle G(z) =
H(z)
Réponse en fréquence
Pour obtenir la réponse en fréquence, on effectue le changement z = e2jπf :
1 z N0 1 Y(z)
G(z) = = N = −N
=
H(z) z 0 + α 1 + α z 0 X(z)
1 1
G(z = e2jπf ) = =
1+αe −2j𝜋fN 0 1 + α cos(2πfN0 ) − j α sin(2πfN0 )
Le module :
1 1
|G(z = e2jπf )| = =
√[1 + α cos(2πfN0 )]2 + α2 sin2 (2πfN0 ) √1 + α2 + 2α cos(2πfN0 )
La réponse en fréquence est aussi périodique. La figure (V.69) montre que les maximas et les
minimas ne sont plus à égale distance de 1.
|G| 10
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
f
module pour = - 0.9
15
10
|G|
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
f
1
Fig V.69. Réponse en fréquence de G(z) =
H(z)
3- Echo
L’écho est un phénomène acoustique de réflexion du son. La vitesse du son est de 343 m/s.
Pour réaliser un écho, on retarde le signal d’entrée puis l’additionner au signal original.
L’équation sera donc :
y[n] = x[n] + α x[n – N0]
α < 1 : atténuation
N0 : grandeur qui réalise le retard. Cela revient à retarder le signal original de N0 fois la période
N F
d’échantillonnage, soit un retard temporel θ = F 0 , si par exemple, N0 = 2e alors θ = 0.5 s.
e
1
L’oreille humaine ne peut distinguer un écho du son origine si le retard est inférieur à 15 s.
Pour supprimer l’écho, on utilise le système d’équation aux différences :
y[n] + α y[n – N0]= x[n]
x[n] est le signal corrompu par l’écho et y[n] le signal de sortie qui a l’écho supprimé.
4- Réverbération
Dans le cas où les réflexions sont multiples, on parle de réverbération. Pour réaliser une
réverbération, on retarde cette fois le signal de sortie puis l’additionner au signal original.
L’équation sera donc :