2 - Processus Stochastiques
2 - Processus Stochastiques
2 - Processus Stochastiques
V.A.
• On peut accélérer les calculs en faisant l’approximation de la distribution de Poisson par une
gaussienne de moyenne = et de variance 2, valant toues les deux = 264. Cela donne :
P(X 250) = P(X - -14) P((Y - )/ 250/) = P(Z -14/264½)
où Z est une variable normale standard. Donc
P(X 250) ½·[1 + erf(7·33½/66)] = 0.806
Processus de Markov
L’évolution du processus dépend de son comportement
passé (processus à mémoire)
• 1er ordre : Si on observe on à l ’instant tn, alors
P( X (tn ) on X (tn1 ) on1 ,..., X (t1 ) o1 ) P( X (tn ) on X (tn1 ) on1 )
L’état courant du système suffit pour prédire son prochain état
m
i 0 , 1
i 0
i
Représentation d’une chaîne de Markov
Il faut définir:
L’espace des observations ={o1,...,om}, où oi est un élément d’un
alphabet définissant la valeur possible de chaque état observé de X(t)
La matrice des probabilités de transitions A={ai,j}, où ai,j = P(oj|oi)
est la probabilité d’observer oj après avoir observé oi à l’état précédent
Le vecteur des probabilités initiales ={i}, où i=P(oi) est la
probabilité d’observer oi à l’état initial
Exemple: X(t) : Temps qu’il fait sur 3 jours Représentation Graphique
={‘ neige ’,‘ pluie ’, ’soleil ’} 0.4 0.6
0.4 0.3 0.3 0.2
Neige Pluie
0.2 0.6 0.2 0.3
A= 0.1 0.1 0.8
0.3 0.1 0.2 0.1
0.02
= {0.02 , 0.4, 0.58} Soleil
0.58 0.4
m m 0.8
aij 1
j 1
i 1
i 1
Probabilité d’une séquence d’états
Th. Bayes
P(on , on 1 ,..., o1 ) P(on on 1 ,..., o1 ) P(on 1 ,..., o1 )
P(on on 1 ) P(on 1 on 2 ,..., o1 ) P(on 2 ,..., o1 )
Propriété de
P(on on 1 ) P(on 1 on 2 ) ... P(o2 o1 ) P(o1 )
Markov
n
P( o1 ) P( ot ot 1 )
t 2 Représentation Graphique
Application:
Quelle est la probabilité qu’il fasse ‘ Soleil ’, 0.4 0.6
5 jours de suite ? 0.2
Neige 0.3
Pluie
P(Soleil, Soleil, Soleil, Soleil, Soleil)=
0.58*0.8*0.8*0.8*0.8 =0.2375 0.3 0.1 0.2 0.1
0.02
Soleil
P(Neige, Neige, Pluie, Pluie, Soleil)= 0.58 0.4
0.02*0.4*0.3*0.6*0.2=0,000288 0.8
Et s’il y a plusieurs chemins ?
Probabilité de faire une transition en n sauts
Pijn P{ X n m j | X m i}, n, m 0, i, j 0
P n
Noteij: P
est l’élément (i, j) de la matrice P ;
n
ij P
n
n
ij
• Quelle est la probabilité qu’il fasse ‘ Soleil’ dans 2 jours sachant qu’il neige
aujourd’hui ?
P( X 3 S X 1 N )
0.4 N 0.3
P( S N ) P( N N ) P( S P) P( P N ) P( S S ) P( S N )
0.3 0.2
N P S
0.3 * 0.4 0.2 * 0.3 0.8 * 0.3 0.42
0.3
S 0.8 ou
P( X 3 S X 1 N ) P 2 NS
système d’évènements complet
On s’intéresse uniquement au résultat, en suivant
les chemins possibles sans se soucier de l’état de
départ : m
P( X t j ) P( X t j X t 1 i ) P( X t 1 i )
i 1
6 3 4
0.25 1.00
0.25
5
Deuxième résolution : par matrice
0.50
0,50 0,5 0 0 0 0 1 2
Matrice 0,5 0 0 0,5 0 0
0.25
0.50
0.50
0,25 0,25 0 0 0,25 0,25
initiale P 0 0 1 0 0 0
0.25
4
6 3
0 0 0 0 1 0
0 0 0 0 0 1 0.25 1.00
0.25
1 2
1 2
0
0
3 4
3 4
Détermination de la distribution stationnaire
1 p
P{gets wet} π 0 p p
Se mouiller
3 p
Ex.: chaîne Markov avec un nombre fini d’états
1 p
0 0 1
0 2 1 1 p P 0 1 p p
1 p p 0
1 p p
π 0 (1 p )π 2
π πP π (1 p )π pπ
1 1 2 1 p 1 1
π , π , π
i π i 1 2π π 0 p π 1
0
3 p
1
3 p
2
3 p
π 0 π1 π 2 1
1 p
P{gets wet} π 0 p p
Se mouiller
3 p
Ex.: chaîne Markov avec un nombre fini d’états
Si on prend p = 0.1:
1 p 1 1
π
3 p
,
3 p
,
3 p 0.310, 0.345, 0.345
0 0 1
P 0 0.9 0.1 1 p
P{gets wet} π 0 p p
Se mouiller
0.9 0.1 0 3 p
1
À l’équilibre, on a : 2 3