01 Intro Slides.2x2

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 8

Plan du cours

Introduction
Motivations
Signaux aléatoires
Signaux Aléatoires Rappels sur les signaux
Energie et puissance
Introduction Notion de bruit
Rappels de probabilité
Définitions
R. Flamary, R. Herault, A. Rakotomamonjy Moments
Exemples de lois
Système de v.a.
Bibliographie
10 septembre 2018
Signaux aléatoires

Exemples de signaux aléatoires

Propriétés spectrales des signaux stationnaires

2 / 34

Note de piano Signaux aléatoires


La propagation des ondes dans un corde de piano et dans l’air est modélisé par des Motivation
équations aux dérivées partielles (EDP).
I Difficulté de modéliser exactement des signaux physiques.
I Signaux réels sont aléatoires ou présentent une composante aléatoire.
I Prédiction exacte impossible mais inférence possible.

Exemples
I Cours de la bourse.
I Température maximale dans la
journée.
I Consommation instantanée d’énergie.
I IP instruction pointer dans les
processeurs.

Pourquoi le son simulé et le son enregistré sont différents ?

Source : Interstice, Images ©Juliette Chabassier 2012


3 / 34 4 / 34
Déterministe VS aléatoire Signal aléatoire
X1 , X2 x1 (t)
X(t, ω) x2 (t)
x3 (t)
x(t) = f (t, . . . )
t
t1 t2

Définition
Un signal aléatoire temporel est une fonction de deux variables. L’un des variables
Déterministe Aléatoire
prend ses valeurs dans R ou C, l’autre étant la réalisation d’une variable aléatoire :
I Signal modélisé exactement par I Une part d’incertitude sur le signal.
une fonction mathématique. X( t , w ) (1)
I Impossibilité de prédire avec z }| { z }| {
I Connaissance du signal à chaque certitude le signal à l’instant t. temps v.a.
instant.

Approche I À t = ti fixé, X(ti , w) = Xi = Xi (w) est une variable aléatoire ;


I Pour w = wi fixé, X(t, wi ) = xi (t) est un signal temporel ;
I Incertitude modélisée par des lois de probabilité.
I Si X est à temps discret, on parle alors de processus aléatoire. (n ∈ N à la place
I L’étude de ces lois permet un meilleur traitement des signaux.
de t ∈ R)
I Maı̂trise du traitement du signal et des probabilités.

5 / 34 6 / 34

Exemple de signal aléatoire (1) Exemple de signal aléatoire (2)


Fréquence aléatoire Phase aléatoire

X(t, ω) = cos(ωt) X(t, φ) = cos(π ∗ t + φ)

I t ∈ R est le temps. I t ∈ R est le temps.


I ω ∈ [0, 2π] est une variable aléatoire uniforme. I φ ∈ [0, 2π] est une variable aléatoire uniforme.
I X est une fonction de 2 variables. I X est une fonction de 2 variables.

Exemple de réalisation Exemple de réalisation

7 / 34 9 / 34
Energie et puissance Puissance moyenne

Puissance instantanée Puissance moyenne d’un signal


La puissance instantané d’un signal x(t) est On définit la puissance moyenne d’un signal par
Z +T
px (t) = |x(t)|2 (2) 1 2
P m = lim |x(t)|2 dt (4)
T →∞ T −T
Unité : Watt (W). 2

Énergie d’un signal I Si le signal est périodique, la puissance moyenne peut être calculé sur une période.
On définit l’énergie d’un signal x(t) par : I La puissance est homogène à une énergie divisée par un temps.
Z +∞
I Notons qu’il existe aussi la valeur efficace qui est la racine carrée de la puissance
E= |x(t)|2 dt (3)
−∞
moyenne.
I Un signal dénergie finie est de puissance moyenne nulle.
et le signal et dit d’énergie finie si E < ∞.
Unité : Joule, Calorie ou Wattheure (J, Cal ou Wh, 1 calorie = 4.2 J). I Unité : Watt (W).

11 / 34 12 / 34

Exemple Notion de bruit


Tension aux bornes d’une résistance Définition
I u(t) est la tension, i(t) l’intensité et R la résistance. un phénomène perturbateur pouvant gêner la perception ou l’interprétation d’un signal.

I u(t) = R.i(t) (loi d’Ohm). Exemples


I u(t) = 1 si t ∈ [0, 1] et O sinon, R = 1.
I Signaux Satellite et Astrophysique
I Télécom : Signal satellite est signal, astro est le
Puissance instantanée 1 bruit
px (t) = u(t) ∗ i(t) = u(t)2 = I Astrophysique : Satellite est le bruit, astro est le
R
signal
Énergie du signal I Réseau EDF, pic à 50Hz quand on fait des mesures
Z +∞ de tension.
1
E= |u(t)|2 dt =
R −∞ Bruit additif
Le bruit additif est un bruit qui vient se rajouter à un signal.
Puissance moyenne Z +T
1 2
y(t) = x(t) + b(t)
P m = lim |u(t)|2 dt =
T →∞ TR −T
2
y(t) est le signal observé, x(t) le signal qui nous intéresse et b(t) le signal de bruit.

13 / 34 14 / 34
Rapport signal sur bruit (RSB) Définition de la probabilité

Espace des épreuves Ω


Définition
Ensemble de tous les évènements possibles issus d’une expérience donnée.
Le rapport signal sur bruit est définit par :
PS Définition de P (A)
RS/B = ou RS/B (dB) = 10 log10 (RS/B ) (5)
PB Soit A un ensemble d’évènements inclus dans Ω,
avec PS la puissance du signal et PB la puissance du bruit n(A)
P (A) = lim si la limite existe,
I Un processus d’acquisition doit avoir le meilleur RSB possible. n→∞ n
I Le RSB est également appelé SNR pour Signal to Noise Ratio. avec
I n le nombre d’expériences réalisées,
I Le Rapport signal sur signal + bruit est également utilisé.
I n(A) le nombre d’expériences où A s’est réalisé.
PS
RS/S+B =
PS+B
Exemple, dé à 6 faces
I Un filtrage permet d’améliorer le RSB quand les signaux sont différent en terme
I Ω = {faces :1, 2, 3, 4, 5, 6}
de contenu fréquentiel.
I Si dé non pipé, alors P (k) = 1/6, ∀k ∈ 1, . . . , 6

15 / 34 16 / 34

Axiomes des probabilités Définitions

Variable Aléatoire
Premier axiome Deuxième axiome C’est un nombre (réel) Xω dont la valeur est déterminée par le résultat ω d’une
Si A ∈ Ω alors expérience aléatoire.
P (Ω) = 1 P (Ø) = 0
0 ≤ P (A) ≤ 1
avec Ø l’ensemble vide
Ω ω

Union et intersection Union Intersection


Si A ∈ Ω, B ∈ Ω, alors Xω R
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
Exemple : dé à 6 faces

Si A ∩ B = Ø alors I L’évènement aléatoire (e.a.) est l’apparation d’une face.


P (A ∪ B) = P (A) + P (B). I On associe un entier 1 à 6 à chaque face.
A∪B A∩B

17 / 34 18 / 34
Fonction de répartition et dérivé Propriétés

Propriétés de la fonction de répartition


Fonction de répartition
La fonction de répartition FX (x) d’une v.a.X est définie comme étant la probabilité FX (−∞) = 0 FX (∞) = 1
que la v.a.X soit inférieur ou égale à x, 0≤ FX (x) ≤1
FX (x) = P (X ≤ x) . P (x1 ≤ x ≤ x2 ) = FX (x2 ) − FX (x1 )

Densité de probabilité (d.d.p.) Propriétés de la densité de probabilité


R +∞
Elle est définie comme la dérivée de la fonction de répartition, p(x) ≥ 0 −∞
p(x)dx = 1
Z x1
dF (x) Rx
p(x) = . P (x ≤ x1 ) = FX (x1 ) = p(x)dx P (x1 ≤ x ≤ x2 ) = x12 p(x)dx
dx −∞

19 / 34 20 / 34

Moments d’une v.a.(1) Moments d’une v.a.(2)

Définition du moment
Le moment g(x) d’une v.a.est donné par l’espérance, Définition de la variance
Z +∞ La variance est l’espérance du carré des écarts par rapport à la valeur moyenne
E(g(x)) = g(x)p(x)dx m = E(X),
−∞
Z +∞
m 2 
Généralement g(x) = x , on parle alors de moment d’ordre m, σX = E (X − mX )2 = (x − mX )2 p(x)dx ,
−∞
Z +∞
2 2 2
Moment d’ordre 1 mX = E(X) = xp(x)dx σX = E X − E (X) .
−∞
Z +∞ On utilise souvent aussi la notion d’écart-type σ,
(2)
Moment d’ordre 2 mX = E(X2 ) = x2 p(x)dx q
−∞ 2
σX = σX .
Le moment d’ordre 1 est aussi souvent appelé moyenne.

Propriété le linéarité de l’espérance Caractérisation incomplète


On caractérise, de manière incomplète, une v.a.par sa moyenne et sa variance.
E(X + Y ) = E(X) + E(Y ), E(kX) = kE(X)
Pour k une constante.

21 / 34 22 / 34
Exemples de lois (1) Exemples de lois (2)
p(x) 1
F (x)

1
b−a

0 a b x 0 a b x

Loi uniforme U(a, b)


Loi normale N (µ, σ 2 )
I Densité de probabilité I Espérance :
I Densité de probabilité I Espérance :
 1
si x ∈ [a, b] , b+a
p(x) = b−a mX = E(X) = 1 (x−µ)2
mX = E(X) = µ
0 ailleurs . 2 p(x) = √ e− 2σ2
σ 2π
I Fonction de répartition
I Variance : I Fonction de répartition I Variance :

 0 x < a, 1   
V ar(X) = E((X−mX )2 ) = (b−a)2 1 x−µ
F (x) = x−a
b−a
si x ∈ [a, b] , 12 F (x) = 1 + erf √ V ar(X) = E((X − mX )2 ) = σ 2
 2 σ 2
1 x>b .

23 / 34 24 / 34

Exemples de lois (3) Système de v.a.


p(x)
1 Réalisations de 2 v.a.
1 X(t, ω)
n i
n

t
t0 t1

0 a b x 0
a b
I On est souvent amené à considérer un ensemble de v.a.dans la mesure où à
chaque instant ti est associé une v.a..
Loi uniforme discrète U({x1 , . . . , xn }) I Modélisation jointe de ces variables.
I P (X = xi ) = 1
, i ∈ 1, . . . , n I Espérance :
n
I xi valeurs réelles. n
1X
I Densité de probabilité mX = E(X) = xi
n i=1
n
1X
p(x) = δ(x − xi ) I Variance :
n i=1
n
I Fonction de répartition 1X
V ar(X) = (xi − mX )2 I Lorsque l’on a plusieurs v.a.X1 , X2 , . . . , Xd il est intéressant de modéliser ces
n n i=1
1X v.a.par un vecteur aléatoire X ∈ Rd
F (x) = 1x≥xi
n i=1
25 / 34 26 / 34
Densité de probabilité jointe Densité de probabilité jointe

Probabilité conditionnelle
Fonction de répartition mutuelle Propriétés
I Loi jointe p(x, y).
Soit X et Y deux v.a.alors, 0 ≤ F (x, y) ≤ 1
I Probabilité d’une des variable sachant la valeur de la seconde.
F (x, y) = P (X ≤ x, Y ≤ y) F (−∞, −∞) = 0
I Notation : p(x|y).
F (∞, ∞) = 1

Densité de probabilité jointe Propriétés Théorème de Bayes


Soit X et Y deux v.a.alors,
p(x, y) ≥ 0 p(x, y)
∂ 2 F (x, y) Z Z p(x|y) =
p(x, y) = p(y)
∂x∂y p(x, y)dxdy = 1 p(x, y)
Z p(y|x) =
p(x) = p(x, y)dy p(x)
Z p(A, B) = P (x ∈ A, y ∈ B) p(x, y) = p(y|x)p(x) = p(x|y)p(y)
Z Z
p(y) = p(x, y)dx
= p(x, y)dxdy
A B
p(x) et p(y) sont appelées lois marginales.

27 / 34 28 / 34

Covariance et corrélation Indépendance et corrélation


Pour caractériser l’interdépendance de deux variables, on introduit la notion de
covariance.
Définitions
I Moments d’une loi jointe
Z +∞ Z +∞
E(g(x, y)) = g(x, y) p(x, y)dxdy
−∞ −∞
Covariance et Corrélation
I Corrélation Z Z
+∞ +∞
RXY = E(XY) = xy p(x, y)dxdy RXY = E(XY) = CXY + mX mY
−∞ −∞

I Covariance
Indépendance
CXY = σXY = E ((X − mX )(Y − mY ))
Z +∞ Z +∞ I Deux v.a.X et Y sont indépendantes si
CXY = (x − mX )(y − mY ) p(x, y)dxdy
−∞ −∞ p(x, y) = p(x)p(y)

I Coefficient de corrélation I Si les variables sont indépendantes alors


CXY
rXY =
σX σY RXY = mX mY et CXY = 0.
29 / 34 30 / 34
Exemples de système de v.a.(1) Exemples de système de v.a.(2)

0.2 1

0.14 1
0.8
0.15
0.12
0.6 0.8

0.1 0.1
0.4 0.6
0.08
0.05
0.2 0.06 0.4

0 0 0.04
3 3 0.2
0.02
2 2
0 0
1 1
3 3
3 3
0 0 2 2
2 2
−1 1 −1 1 1 1
0 0 3 3
−2 −2 −1 0 0
−1 2 2
x2 −2 x2 −2 −1 1 −1 1
−3 −3 −3 −3 0 0
x1 x1 −2 −1 −2 −1
−2 −2
x2 −3 x2 −3 −3
−3
x1 x1

Loi uniforme multivariée


Loi gaussienne multivariée
I X ∼ U (ax , bx ) et Y ∼ U (ay , by ) I Espérance :
I X ∼ N (µ, Σ) I Espérance :
I X = [X, Y ] >  bx +ax 
mX = E(X) = 2 I Densité de probabilité
I Densité de probabilité by +ay mX = E(X) = µ
2
 −1 (x−µ)> Σ−1 (x−µ)
I Covariance : p(x, y) = Ke 2
I Covariance :
 1 si x ∈ [ax , bx ],
p(x, y) = S et y ∈ [ay , by ] I Coefficient K =
 Cov(X) = E((X − mX )(X − mX )> ) 1
(2π)N/2 |Σ|1/2 Cov(X) = E((X − mX )(X − mX )> )
0 sinon  
V ar(X) 0 =Σ
=
I Surface S = (bx − ax )(by − ay ) 0 V ar(Y )

31 / 34 32 / 34

Bibliographie Sources web I

Cours fortement inspiré des références suivantes :


I Traitement Statistique du Signal, R. Herault, INSA Rouen.
I Interstice,
https://moodle.insa-rouen.fr/course/view.php?id=199
https://interstices.info/jcms/ni_76925/le-piano-reve-des-mathematiciens
I Signaux Aléatoires, J.-F. Bercher, ESIEE
I http://www.w3.org/People/Bos/Nice/tempgraph
http://www.esiee.fr/~bercherj/New/polys/poly_alea.pdf
I http://www.manicore.com/documentation/hydro.html
I Théorie du signal, C. Jutten,
I http://commons.wikimedia.org/wiki/File:Sixsided_Dice_inJapan.jpg
http://www.gipsa-lab.grenoble-inp.fr/~christian.jutten/mescours/
Theorie_du_signal.pdf
I Probability, random variables and stochastic processes., A Papoulis

33 / 34 34 / 34

Vous aimerez peut-être aussi