Corrige Phys Stat TD1

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 10

Corrigé TD Chapitre 1

24 mars 2012

1 Probabilités
1.1 Probabilités conditionnelles
1.1.1
La probabilité du dixième tirage est indépendante de celle des tirages précédents, donc toujours 1/2.

1.1.2
La fiabilité du test indique la probabilité qu’il soit positif si on est malade (ou négatif si on est
sain) donc 99%. En revanche ce n’est pas la probabilité d’être malade si le test est positif : parmi 1000
personnes, 1 sera malade et aura sans doute un test positif, mais seulement 990 personnes saines auront
un test négatif, autrement dit il y aura 9 faux positifs. La probabilité d’être malade sachant qu’on a un
test positif est donc de 1/10. Formellement
P (M )
P (M |p) = P (p|M )
P (p)

où M = être malade (M̄ = être sain), p = avoir un test positif, M |p = M sachant p. Ici

P (M ) = 1/1000 P (M̄ ) = 999/1000


99 1
P (p) = P (M ) + P (M̄ ) ≈ 1/100
100 100
donc
1 1 99
P (M |p) ≈ P (p|M ) = ≈ 10%
10 10 100

1.2 Monty Hall


Supposons que la voiture soit derrière la porte A. Si le joueur choisit cette porte (P = 1/3), le
présentateur ouvre la B ou la C, et celle qui reste cache une chèvre, donc le joueur doit garder celle qu’il
a choisie. Si le joueur a choisi la B ou la C (P = 2/3), alors le présentateur ouvre la C ou la B, et la
porte restante est la A qui cache une voiture. Il est donc avantageux de changer de porte 2/3 du temps
(ou, dit autrement, seulement un tiers des joueurs aura choisi dès le début la bonne porte et n’aura pas
intérêt à changer son choix).

1.3 Paradoxe des anniversaires


1.3.1
La probabilité P qu’il y ait au moins deux personnes avec la même date d’anniversaire dans une classe
de N personne est donnée par 1 − P0 , avec P0 la probabilité que tous les anniversaires soient différents.
Pour cela, le premier élève a 365 jours possibles, le second seulement 364, etc. alors qu’il existe en tout
365N possibilités pour les anniversaires de tous les élèves, donc
365 × 364 × ... × (365 − N + 1)
P0 =
365N

1
Si N = 23
P0 ≈ 0.497
P = 1 − P0 ≈ 50.3%

1.3.2
C’est 1 moins la probabilité que ça ne se soit jamais produit durant les dix ans, donc

1 − (1 − P )10 = 0.9990

2 Dépôt d’atomes sur une surface de quartz


2.1
Chaque atome qui tombe a une probabilité p = b2 /S de se poser sur un certain élement de surface de
taille b2 . On a certainement S  b2 (on parlerait difficilement d’une surface de quartz si elle ne faisait
que quelques atomes de large), on a p  1, ce qui nous autorise à utiliser une loi de Poisson.

2.2
On a déposé N atomes avec N assez grand pour avoir en moyenne λ = N p = 3 atomes sur chaque
élément de surface. La probabilité d’avoir k atomes sur un élément de surface (et donc la fraction du
substrat qui est dans ce cas) est donnée par

λk −λ
P (k, λ) = e
k!
Dans le cas présent
P (0, 3) = e−3 ≈ 5%
P (3, 3) ≈ 22%
P (6, 3) ≈ 5%

3 Effet de grenaille
3.1
1−p

3.2
Le nombre d’électrons émis n suit une loi binomiale de probabilité p. La moyenne de la binomiale est
donnée par
hni = N p
On a alors hQi = N pe.

3.3
La variance de la binomiale est donnée par

(∆n)2 = hn2 i − hni2 = N p(1 − p)

Quand p est petit, on a 1 − p ≈ p

(∆Q)2 = hQ2 i − hQi2 = h(ne)2 i − hnei2 = N p(1 − p)e2 ≈ N pe2

2
3.4

(∆I)2 (∆Q)2 t e
= =
hIi hQi t2 t

3.5
Ces fluctuations sont importantes si on considère l’intensité émise pendant un temps très court, mais
elles finissent par se moyenner si on attend assez longtemps. Elles permettent également de mesurer la
charge de l’électron e. r
hIie
∆I = = 1.265 10−8 A ≈ 0.01 µA
t

4 Marche au hasard
4.1 Approche par la combinatoire
4.1.1

n 1 N! 1
P (n; N ) = CN N
=
2 n!(N − n)! 2N
x = (2n − N )a
t = Nτ

4.1.2

hni = N/2

4.1.3

(∆n)2 = hn2 i − hni2 = N/4


(∆x)2 = 4a2 (hn2 i − 4hni + N/4))
a2 t
= N a2 =
τ

4.1.4
On attend un grand nombre de pas N  1, et on suppose qu’une fraction ξ = n/N de ces pas a été
faite vers la droite, avec ξ qui ne tend ni vers 0 ni vers 1 (par conséquent il y a eu de nombreux pas faits
vers la droite n  1, mais aussi vers la gauche N − n  1). Dans ce cas, en utilisant la formle de Stirling

ln(x!) ≈ x(ln x − 1)

on trouve
ln P (n; N ) ≈ N (ln N − ln 2) − n ln n − (N − n) ln(N − n)
≈ −N [ln 2 + ξ ln ξ + (1 − ξ) ln(1 − ξ)]
On veut approximer la loi binomiale par une gaussienne en ξ, qui sera centrée en hξi = 1/2. Cette
approximation ne marche que quand on s’éloigne peu de cette valeur moyenne, par conséquent on va
chercher à faire un développement pour |ξ − 1/2|  1. On pose donc

ξ ∗ = ξ − hξi = ξ − 1/2

3
       
1 1 1 1
ln P (n; N ) ≈ −N + ξ ∗ ln + ξ∗ + − ξ ∗ ln − ξ∗
2 2 2 2
On peut alors utiliser le développement du logarithme
1
ln( ± ξ ∗ ) = ln(1 ± 2ξ ∗ ) − ln 2 ≈ ±2ξ ∗ − ln 2
2
d’où
ln P (n; N ) ≈ −4N ξ ∗2
"  2 #
1
P (n; N ) ∼ exp −4N ξ −
2
On revient dans la variable x
n x 1
ξ= = +
N 2aN 2
  x 2 
P (n; N ) ∼ exp −4N
2aN
En réexprimant tout avec a, t, et τ on trouve donc la probabilité que la particule se trouve à la position
x au temps t  2 
x τ
P (x, t) ∼ exp − 2
a t

4.1.5
La distance typique atteinte au temps t est donnée par l’écart-type à la position moyenne
r
a2 t √
∆x = ∝ t
τ

4.2 Equation maı̂tresse


4.2.1
La probabilité d’être en x au temps t + τ est donnée par la probabilité d’avoir été en x − a à l’instant
précédent ET d’avoir sauté vers la droite (avec une probabilité 1/2), ou d’avoir été en x + a et d’avoir
sauté vers la gauche, d’où
1
P (x, t + τ ) = P (x − a, t) + P (x + a, t)
2

4.2.2
On soustrait P (x, t) des deux côtés
1
P (x, t + τ ) − P (x, t) = [P (x − a, t) + P (x + a, t) − 2P (x, t)]
2
On sait que
f (x + dx) − f (x) df
lim =
dx→0 dx dx
f (x + dx) + f (x − dx) − 2f (x) d2 f
lim =
dx→0 dx dx2
On essaie donc de ramener l’équation sur P (x, t) a une forme similaire en divisant et multipliant par les
bonnes quantités :

P (x, t + τ ) − P (x, t) a2 P (x − a, t) + P (x + a, t) − 2P (x, t)


=
τ 2τ a2

4
On fait tendre a → 0 et τ → 0 en gardant a2 /τ constant (puisqu’on sait que c’est la variance de x) pour
passer à un temps et un espace continus, et on trouve

∂P (x, t) a2 ∂ 2 P (x, t)
=
∂t 2τ ∂x2
On a donc D = a2 /2τ . C’est une équation de diffusion, avec le coefficient de diffusion D. On connaı̂t
la diffusion thermique (conduction de la chaleur), ou encore la diffusion d’une goutte d’encre dans de
l’eau.

4.2.3
Pour chaque phénomène physique comportant de la diffusion, on peut trouver un système d’unités tel
que D = 1, de sorte à se ramener à un équation universelle (indépendante des propriétés du phénomène).
Soient
x = Lx̂
t = T t̂
où x̂ et t̂ sont des variables sans dimensions et L et T les unités typiques du système. On trouve

1 ∂P (x̂, t̂) D ∂ 2 P (x̂, t̂)


= 2
T ∂ t̂ L ∂ x̂2
Si on veut se ramener à la forme universelle
∂P (x̂, t̂) ∂ 2 P (x̂, t̂)
=
∂ t̂ ∂ x̂2
il faut poser
L2 = DT

On a donc la longueur typique L qui se comporte comme DT .

4.2.4
Si P (x, 0) = δ(x) (autrement dit, la probabilité initiale est concentrée en x = 0), on peut résoudre
l’équation de diffusion par transformée de Fourier. Soit F la transformée de Fourier de P
Z +∞
F (k, t) = eikx P (x, t)
−∞

On trouve la condition initiale


F (k, 0) = 1
Et l’équation de diffusion devient
∂F (k, t)
= −Dk 2 F (k, t)
∂t
qu’on peut résoudre avec la condition initiale ci-dessus

F (k, t) = exp[−Dk 2 t]

Puis on prend la transformée inverse


Z +∞
1
P (x, t) = e−ikx F (k, t)
2π −∞
r
a2 t
 2 
x τ
P (x, t) = exp − 2
πτ a t
On retrouve donc bien la gaussienne obtenue par l’approche combinatoire (avec le coefficient de norma-
lisation tel que l’intégrale sur x vaille 1).

5
5 Désintégrations radioactives
5.1 Question de cours
5.1.1
Cf. cours (sans grande surprise)

5.1.2
λ = cT

5.2 Décroissance radioactive


5.2.1
Binomiale
N!
P (n; N ) = pn (1 − p)N −n
n!(N − n)!

5.2.2
Calcul de la valeur moyenne
N
X
hni = nP (n; N )
n=0

Soit
N
X N!
f (x) = (px + 1 − p)N = pn (1 − p)N −n xn
n=0
n!(N − n)!
alors
N
df X N!
= pn (1 − p)N −n nxn−1
dx n=0 n!(N − n)!
On remarque que
N
df X N!
= pn (1 − p)N −n n = hni
dx x=1 n=0 n!(N − n)!
or
df d
= (px + 1 − p)N = N p(px + 1 − p)N −1
dx dx

df
= N p(p + 1 − p)N −1 = N p
dx x=1
N dt
hni = N p = t au

5.2.3
Entre t et t + dt, en moyenne hni = N p atomes se désintègrent.

N (t + dt) = N (t) − hni = N (t)(1 − dt/τ )

dN N (t + dt) − N (t) N (t)


= lim =−
dt dt→0 dt τ

5.2.4

N (t) = N0 exp[−t/τ ]

6
5.3 Compteur Geiger
5.3.1
Si T  τ , N est à peu près constant donc on s’attend à N p désintégrations en moyenne durant
chaque pas de temps dt, et il y a T /dt pas de temps. Par conséquent il y aura en moyenne
T NT
λ = Np =
dt τ
coups dans la fenêtre T . On a dt < T  τ donc p  1 ce qui nous autorise à utiliser une loi de
Poisson de paramètre λ (au demeurant on peut choisir un pas de temps arbitrairement petit puisqu’une
désintégration radioactive est à peu près instantanée à notre échelle).

5.3.2
Si on choisit une fenêtre T = 1s, et qu’on fait de nombreuses mesures du nombre de coups entendus
dans cette fenêtre, la moyenne de ces mesures nous donnera l’activité.

5.3.3
Il faut un certain nombre de mesures pour obtenir avec une bonne précision l’activité dans une fenêtre
de temps où N est supposé à peu près stable. Si on reproduit ces mesures à intervalles réguliers, on verra
l’activité décroı̂tre exponentiellement. En attendant ∆T entre deux mesures de l’activité, celle-ci sera
multipliée par un facteur exp(−∆T /τ ), ce qui nous permet de mesurer τ .

5.3.4
Une fois que τ est connu pour un espèce donnée, on en déduit directement sa contamination (c’est-
à-dire N le nombre d’atomes radioactifs) à partir de l’activité qui vaut N T /τ avec T = 1s.

5.4 Probabilité de survie


5.4.1
Chaque atome a une probabilité p de se désintégrer entre 0 et dt, puis (1 − p)p d’avoir survécu au
premier pas puis de s’être désintégré entre dt et 2dt, etc. Si on a t = M dt, sa probabilité de se désintégrer
entre t et t + dt (pas avant, ni après) est donc
Pd (M ) = (1 − p)M p
On doit avoir

X
Pd (M ) = 1
M =0
puisqu’il se désintègre forcément entre t = 0 et t = ∞. Or effectivement on retrouve (série géométrique)

X 1 p
(1 − p)M p = p = =1
1 − (1 − p) p
M =0

5.4.2
La probabilité que l’atome survive jusqu’à t est simplement
 t/dt
dt
Ps (t) = (1 − p)M = 1 − → exp [−t/τ ] (dt → 0)
τ
(le développement de Taylor de l’exponentielle coincide avec celui de (1 − p)M dans la limite dt → 0 ; on
retrouve le résultat d’une loi de Poisson avec 0 événément)
Par conséquent, si les atomes sont indépendants, le nombre d’atomes restants au temps t est simple-
ment donné par le nombre d’atomes initial multiplié par cette probabilité
N (t) = N0 Ps (t) = N0 e−t/τ

7
5.4.3
La durée de vie moyenne est donnée par

X
hti = dthM i = dt P (M )M
M =0

ou sous forme intégrale (même limite que précédemment, ou loi de Poisson en utilisant la probabilité que
la particule se désintègre une fois exactement λe−λ )
Z ∞ i∞
1 h
t e−t/τ = −τ e−t/τ =τ
0 τ 0

La probabilité qu’il vive au moins deux fois plus longtemps vaut donc

Ps (2τ ) = e−2 = 13.5%

6 Distribution des vitesses d’un gaz


6.1
f (vx , vy , vz ) donne la densité de probabilité correspondant à une particule qui a une vitesse valant
vx selon les x, ET vy selon les y, ET vz selon les z. Si ces trois composantes sont des variables aléatoires
indépendantes, alors f peut se réécrire comme un produit

f (vx , vy , vz ) = g(vx )g(vy )g(vz )

où g est une certaine distribution, encore inconnue, mais qui est la même dans les trois dimensions de
l’espace puisqu’on suppose f isotrope.
De plus, l’isotropie implique que la probabilité deqtrouver une vitesse ne dépend pas de la direction
de cette vitesse, mais seulement de son module v = vx2 + vy2 + vz2 . Par conséquent il doit aussi exister
une fonction h telle qu’on puisse écirre

f (vx , vy , vz ) = h(vx2 + vy2 + vz2 )

6.2
L’exponentielle est omniprésente dans les problèmes probabilistes parce que c’est la seule fonction
qui représente des probabilités additives, c’est-à-dire qui permette que P (A et B) = P (A + B) pour A et
B deux quantités indépendantes – on sait que P (A et B) = P (A)P (B).
Si h est une exponentielle, alors

h(vx2 + vy2 + vz2 ) = h(vx2 )h(vy2 )h(vz2 )

et donc g(vx ) = h(vx2 ) est une gaussienne. La seule forme possible pour f est donc

f (vx , vy , vz ) = K exp[−a(vx2 + vy2 + vz2 )]

avec a et K deux constantes à déterminer. On a d’abord la condition de normalisation


ZZZ
dvx dvy dvz f (vx , vy , vz ) = 1
ZZZ
dvx dvy dvz exp[−a(vx2 + vy2 + vz2 )] = 1/K

On décompose l’exponentielle d’une somme en produit des exponentielles


Z Z Z
1/K = dvx exp[−avx ] dvy exp[−avy ] dvz exp[−avz2 ]
2 2

8
or Z r
2 π
dx exp[−ax ] =
a
donc (on a la même intégrale au cube)
 π 3/2
1/K =
a

6.3
Pour une particule, l’énergie cinétique est donnée par
1 m 2
mv 2 = vx + vy2 + vz2

Ec =
2 2
Par conséquent sa valeur moyenne vaut
ZZZ
m  a 3/2
dvx dvy dvz vx2 + vy2 + vz2 exp[−a(vx2 + vy2 + vz2 )]

hEc i =
2 π
ZZZ
m  a 3/2
=3 dvx vx2 exp[−a(vx2 + vy2 + vz2 )]
2 π
(les trois intégrales sont identiques au nom de variable près, d’où le facteur 3). Or
ZZZ Z
2 2 2 2 π
dvx vx exp[−a(vx + vy + vz )] = dvx vx2 exp[−avx2 ]
a
On intègre par parties sachant que
x x d
x2 exp[−ax2 ] = −2ax exp[−ax2 ] = − exp[−ax2 ]

−2a 2a dx
d’où Z Z
1
dx x2 exp[−ax2 ] = dx exp[−ax2 ]
2a
Et enfin
3m 3
hEc i = = kB T
4a 2
d’où
m
a=
2kB T
et pour une particule
3/2 " #
m(vx2 + vy2 + vz2 )

m
f (vx , vy , vz ) = exp −
2πkB T 2kB T

On peut faire le même calcul pour N particules.

6.4
q
Pour trouver la distribution de probabilité du module de la vitesse v = vx2 + vy2 + vz2 , on passe en
R∞
coordonnées sphériques. La condition de normalisation est maintenant 0 dvf (v) = 1 or le système est
isotrope donc dvx dvy dvz = 4πv 2 dv et par conséquent
3/2
mv 2
  
m
f (v) = 4πv 2 exp −
2πkB T 2kB T
Sa valeur la plus probable v ∗ est donnée par le maximum de la distribution

df
=0
dv v=v∗

9
d’où r
∗ 2kB T
v =
m
On trouve également par intégration par partie
Z r
2kB T
hvi = dv vf (v) = 2
πm
Z
3kB T
hv 2 i = dv v 2 f (v) =
m
d’où r
p kB T
∆v = hv 2 i − hvi2 = (3 − 8/π)
m
r
∗ kB T
Toutes ces quantités v , hvi, ∆v ont le même ordre de grandeur qui donne la vitesse typique d’une
m
molécule d’air.

10

Vous aimerez peut-être aussi