Formulaire Mathematiques ECG2 A5
Formulaire Mathematiques ECG2 A5
Formulaire Mathematiques ECG2 A5
Algèbre
Analyse
Probabilités
Sommaire
Edito 3
Algébre 5
Espaces vectoriels réels de dimension finie . . . . . . . . . . . . . . . . . . . . . . . 5
Applications linéaires, endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . 6
Réduction des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Analyse 9
Systèmes différentiels linéaires à coefficients constants . . . . . . . . . . . . . . . . 10
Compléments sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Compléments et rappels sur les séries . . . . . . . . . . . . . . . . . . . . . . . . . 12
Compléments sur les fonctions réelles . . . . . . . . . . . . . . . . . . . . . . . . . 13
Intégration sur un intervalle quelconque . . . . . . . . . . . . . . . . . . . . . . . . 14
2
Fonctions réelles définies sur R . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Calcul différentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Probabilités et Statistique 18
Graphes probabilistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Compléments sur les variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . 19
Variables aléatoires à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Lois à densité usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Convergences et approximations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Analyse statistique de données : cas bivariées . . . . . . . . . . . . . . . . . . . . . 25
Statistique inférentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2
3
Édito
Ce formulaire est un outil destiné à vous aider à réviser vos définitions, vos formules, ainsi
que les résultats les plus importants du cours de 2ème année de classe préparatoire ECG en
mathématiques approfondies. Pour le cours de première année, vous pouvez vous référer au
formulaire de première année. Ce formulaire n’est pas conçu comme un cours de maths, en
particulier, il ne se substitue pas au cours dispensé en classe par un professeur.
Il est important de noter que ce formulaire ne doit pas être considéré comme une extension
externe de votre mémoire ; il s’agit simplement d’une aide à la révision. Les conseils donnés dans
l’éditorial du formulaire de 1ère année demeurent pertinents pour la 2ème année : il est essentiel
de mémoriser, de comprendre et de maı̂triser le cours de mathématiques. En prépa ECG, il est
fréquent de constater que la maı̂trise complète du cours n’est pas acquise. Cependant, cette
maı̂trise est indispensable pour réussir les concours.
Rappelons simplement que l’assimilation du cours de mathématiques doit être effectuée en
vue de pouvoir l’appliquer lors des concours, ce qui demande du travail et un entraı̂nement
régulier. Le calcul, qui prend de plus en plus d’importance chaque année aux concours, est une
compétence qui ne peut être acquise qu’à travers un entraı̂nement assidu. Il est nécessaire de
s’entraı̂ner tous les jours en calcul.
En deuxième année, la proximité des concours ajoute des difficultés supplémentaires : il ne
s’agit plus seulement d’être bon en maths, il faut aussi être efficace, rapide et gagner des points.
Comment y parvenir ? Tout d’abord, il faut penser rapidement, c’est pourquoi on vous demande
de maı̂triser votre cours à la perfection. Un cours correctement appris sera plus facile à mettre
en pratique. En vous entraı̂nant sur différents problèmes, vous acquerrez l’habitude de trouver
les solutions plus rapidement. Un dernier conseil : dans un problème, les questions ont rarement
une fonction décorative ; elles sont là pour vous aider à répondre aux questions suivantes. Vous
pouvez donc sauter une question, mais vous ne devez pas la sauter sans l’avoir préalablement
comprise, car vous pourriez avoir besoin de son contenu par la suite.
Ensuite, il est crucial de porter une attention particulière à la rédaction. Une rédaction efficace
doit être à la fois suffisamment développée pour obtenir tous les points et suffisamment concise
pour ne pas perdre de temps. Cela signifie qu’entre deux solutions possibles, il faudra souvent
choisir celle qui demande le moins de rédaction. Trouver un tel équilibre (et le faire sans y passer
trop de temps) nécessite de l’entraı̂nement. Les DM, les DS et les concours blancs sont des
occasions idéales pour perfectionner votre rédaction, mais n’hésitez pas à solliciter le professeur
concernant la rédaction des solutions à d’autres moments.
4
Enfin, pour être pleinement efficace, il est essentiel de savoir calculer de manière efficace.
Si vous suivez mes conseils, c’est une compétence que vous travaillez tous les jours, mais
rappelons quelques grands principes au-delà du travail quotidien. D’une part, le meilleur moyen
de ne pas commettre d’erreur de calcul est de ne pas effectuer de calculs inutiles. Avant de vous
lancer dans un calcul complexe, demandez-vous s’il existe une méthode plus simple. D’autre
part, l’organisation d’un calcul est presque aussi importante que le calcul lui-même. Un calcul
bien présenté sera facile à relire, à la fois pour le correcteur et pour vous-même lorsque vous
chercherez des erreurs de calcul.
Avant les concours, une phase de révision débutera. Elle sera d’autant plus facile que vous
aurez travaillé régulièrement tout au long des deux années de prépa. Pour bien couvrir tous les
chapitres de chaque matière durant cette phase intense, la création d’un rétro-planning détaillé
s’avère essentielle.”En mathématiques, ce formulaire vous aidera à réviser efficacement. À ce
stade, votre santé physique joue un rôle crucial : couchez-vous suffisamment tôt, levez-vous à
l’heure à laquelle vous devrez vous lever le jour des concours, et adoptez une alimentation saine.
Enfin, deux jours avant les concours, ainsi que pendant la période des concours, ne faites plus
rien d’autre que vous reposer. Après deux ans de travail très intensif, quelques heures de plus
ou de moins ne feront aucune différence, tandis qu’un corps et un esprit reposés peuvent faire
toute la différence.
La prépa est une période exceptionnelle qui devrait vous permettre d’exprimer votre véritable
potentiel. La rigueur que vous y acquérez vous sera utile tout au long de vos études et bien
au-delà. Bon courage pour cette année et pour les concours !
Valentin Kilian
5
Combinaison linéaire. On dit que u est combinaison linéaire de u1 , u2 , ..., un s’il existe un
n-uplet (λ1 , ..., λn ) ∈ R tel que : u = ∑i=1 λi ui . L’ensemble des combinaisons linéaires de
n n
Famille libre. (u1 , ..., un ) est une famille libre de E si : ∀(λ1 , ..., λn ) ∈ R
n
∑i=1 λi ui = 0E ⇒ ∀i ∈ [[ 1 , n ]], λi = 0.
n
Famille liée. (u1 , ..., un ) est une famille liée de E si ce n’est pas une famille libre de E, i.e.
si au moins un des éléments de cette famille est combinaison linéaire des autres.
Base, dimension. (u1 , ..., un ) est une base de E si c’est une famille libre et génératrice de
E. Toutes les bases de E sont alors de longueur n. On dit que E est de dimension n.
Rang d’une famille de vecteurs, d’une matrice. Le rang de (u1 , ..., un ) est donné par
rg(u1 , ..., un ) = dim(Vect(u1 , ..., un )). Le rang d’une matrice A, noté rg(A) est le rang de ses
t
colonnes vues comme des vecteurs. On a rgA = rg A.
Matrice de f . On appelle matrice de f dans les bases B et B la matrice de Mp,n (R) notée
′
MatBB′ (f ) dont la j-ième colonne est formée des coordonnées du vecteur f (ej ) dans la base B .
′
Si F = E et B = B on note plutôt MatB (f ). Ainsi, une fois qu’on a fixé les bases B et B , on
′ ′
peut associer à toute application linéaire f ∈ L(E, F ) une matrice de Mn,p (R).
Image d’un vecteur Soient x ∈ E et X son vecteur dans la base B. Soient y ∈ F et Y son
vecteur dans la base B . Alors on a y = f (x) ⇔ Y = MatBB′ (f )X.
′
Noyau. Kerf = {u ∈ E, f (u) = 0}. Kerf est un s.e.v. de E, et Kerf = {0} ⇔ f est injective.
Rang. Le rang de f ∶ E → F est la dimension de son image : rgf = dim(Imf ). Si A est une
matrice représentant l’endomorphisme f , alors rgf = rgA
7
−1
Proposition 7. PB,B′ est inversible et on a PB,B′ =PB′ ,B
Matrices semblables. Deux matrices A et A de Mn (R) sont dites semblables s’il existe
′
une matrice P de Mn (R) inversible telle que : A = P A P . Autrement dit deux matrices
−1 ′
sont semblables ssi elles sont les matrices d’un même endomorphisme de E, dans des bases
différentes.
8
Valeurs propres, vecteurs propres et spectre. On dit que λ ∈ R est une valeur propre de
n
la matrice A s’il existe un vecteur colonne U ∈ R non nul tel que AU = λU . Un tel vecteur U
est appelé vecteur propre de A associé à la valeur propre λ. L’ensemble des valeurs propres de
A est appelé le spectre de A. On le note Sp(A).
Sous-espaces propres d’une matrice. Si λ est une valeur propre de la matrice A alors
l’espace vectoriel Eλ (A) = {X ∈ R ∶ AX = λ.X} = Ker (A − λ.In ) est appelé sous-espace
n
Proposition 9.
• λ est une valeur propre de A si et seulement si Eλ (A) ≠ {0n } .
• λ est une valeur propre de A ∈ Mn (R) si et seulement si A − λ.In n’est pas inversible.
• A est inversible si et seulement si 0 n’est pas valeur propre de A.
k
Polynôme annulateur. Soit P ∶ x ↦ ∑ ai .x un polynôme non nul. On dit que P est un
i
i=0
i=0
Proposition 11. Soit P un polynôme annulateur d’une matrice A. Toute valeur propre de A
est racine de P .
9
Remarque : Par conséquent les valeurs propres possibles d’une matrice carrée sont à recher-
cher parmi les racines d’un polynôme annulateur.
Proposition 12. Une famille de vecteurs propres associés à des valeurs propres distinctes est
libre.
Matrice diagonalisable. On dit que A est diagonalisable s’il existe une matrice inversible P
−1
et une matrice diagonale D telles que : A = P DP . Les colonnes de P forment une base de
n
R constituée de vecteurs propres de A, les éléments diagonaux de D sont les valeurs propres
de A. Autrement dit A est diagonalisable si elle est semblable à une matrice diagonale.
Proposition 13. (Condition suffisante de diagonalisabilité) Toute matrice symétrique est dia-
gonalisable.
Remarque : Bien entendu, et même si c’est en théorie hors-programme, tous ces résultats
se traduisent immédiatement en termes d’endomorphismes : étant donné un endomorphisme f ,
il suffit de considérer sa matrice A dans une base B pour définir les valeurs propres de f , les
vecteurs propres de f ...
10
Résoudre ce système c’est trouver des fonctions (y1 , ...yn ) vérifiant simultanément ces n
équations.
et A = (aij )i,j∈[[ 1 , n ]] .
Théorème 16. Soit t0 ∈ I et (x1 , ..., xn ) alors il existe une unique solution sur I au système
0 0
′
Proposition 17. (Résolution lorsque A est diagonalisable) On considère un système X = AX
où A est une matrice diagonalisable. On note (U1 , ..., Un ) une base de diagonalisation de A
associée aux valeurs propres (non nécessairement distinctes) λ1 , ...λn . Alors les solutions du
sytème sont de la forme
X ∶ t ↦ ∑k=1 αk e k Uk où les αk sont dans R.
n λ t
Equilibre. On appelle état d’équilibre du système (S) toute solution de (S) constituée de
fonctions constantes.
Point fixe. On appelle point fixe de f tout réel x tel que f (x) = x.
Comparaison de suites.
• Suites négligeables. u est négligeable devant v , et l’on note u = o(v ) ou un = o(vn ),
s’il existe n0 ∈ N tel que pour tout n ≥ n0 : un = εn vn , où : εn ⟶ 0.
• Suites équivalentes. u est équivalente à v , et l’on note u ∼ v ou un ∼ vn , si un − vn =
o(vn ), i.e. s’il existe n0 ∈ N tel que pour tout n ≥ n0 : un = hn vn , où : hn ⟶ 1.
Proposition 20. (Caractérisation) Si (vn )n ne s’annule pas à partir d’un certain rang :
un = o(vn ) ⇔ lim uvn = 0 et un ∼ vn ⇔ lim uvn = 1
n→+∞ n n→+∞ n
Remarque : Attention à être précautionneux lorsque vous faites des opérations sur les
équivalents et sur les petit o, toutes les opérations ne sont pas licites (cf les compléments
sur les fonctions réelles).
• ln(n) = o(n )
γ β
”Toute puissance n-ième, l’emporte sur toute puissance de n, qui l’emporte sur toute
puissance de ln(n).”
∗
Proposition 22. (Equivalents usuels) Soit un une suite de limite nulle et α ∈ R alors
ln(1 + un ) ∼ un , e n − 1 ∼ un et (1 + un ) − 1 ∼ αun
u α
12
général un converge (et on note ∑ un converge) lorsque la suite (Sn )n converge. Quand ∑ un
converge, on appelle somme de ∑ un la limite de la suite (Sn )n . On la note ∑k=0 uk . Quand
+∞
Divergence grossière. Si ∑ un converge, alors (un )n tend vers 0. Si (un )n ne tend pas vers
0, alors ∑ un ne converge pas. On dit alors que la série diverge grossièrement.
Séries particulières.
• Soit q ∈ R, on appelle série géométrique la série ∑ q . Quand ∣q∣ < 1, cette série est
n
Théorème 23. Premier théorème de comparaison des séries à terme général positif Soient
(un ) et (vn ) deux suites vérifiant, à partir d’un certain rang, 0 ≤ un ≤ vn alors :
∑ vn converge ⇒ ∑ un converge et ∑ un diverge ⇒ ∑ vn diverge.
Théorème 24. Second théorème de comparaison des séries à terme général positif
• Soient (un ) et (vn ) deux suites positives à partir d’un certain rang. Si un ∼ vn alors
∑ vn et ∑ un sont de même nature.
• Soient (un ) et (vn ) deux suites vérifiant un = o(vn ) avec (vn ) positive à partir d’un
certain rang, alors ∑ vn converge ⇒ ∑ un converge.
Théorème 25. Séries de Riemann. Soit α ∈ R, la série ∑ n1α converge ssi α > 1.
Par suite la série de terme général un+1 − un a même nature que la suite (un ).
1. La dérivation terme à terme de séries n’est pas possible en général. Il existe des théorèmes expliquant sous
quelles conditions c’est possible, mais ils ne sont pas au programme d’ECG, ne retenez donc cette méthode que
comme un moyen mnémotechnique.
13
x→x0
+ o(x ). • (1 + x) = 1 + αx + + o(x ).
2 α α(α−1) 2 2
x 2
• e =1+x + x
2 2
x
+ o(x ). = 1 + x + x + o(x ).
2 1 2 2
• ln(1 + x) = x − x 2
• 1−x
2
+ o(x ). = 1 − x + x + o(x ).
2 1 2 2
• ln(1 − x) = −x − x 2
• 1+x
2
14
a x→b a
est finie. On pose alors ∫ f (t)dt =lim ∫ f (t)dt. Si cette limite n’est pas finie, on dit
b x
a x→b a
que l’intégrale diverge.
• Définitions analogues pour les intervalles de la forme I =]a, b] avec −∞ ≤ a < b < +∞,
ou I =]∞, a[∪]a, +∞[
• Cette définition étend celle de l’intégrale d’une fonction continue par morceaux sur un
segment. Les propriétés usuelles de linéarité, positivité et la relation de Chasles s’étendent
à cette nouvelle définition de l’intégrale, sous réserve de convergence de toutes les
intégrales en présence.
Intégration par parties. L’intégration par parties pour les intégrales sur un intervalle quel-
conque N’est PAS au programme. Pour faire une IPP sur un intervalle quelconque il faut donc
pratiquer l’IPP sur un segment et passer ensuite à la limite.
Théorème 33. Changement de variables. Si f est continue sur ]a, b[, si ϕ est une bijection
C croissante de ]α, β[ dans ]a, b[, alors les intégrales ∫ f (u)du et ∫ f (ϕ(t))ϕ (t)dt sont
b β
1 ′
a α
de même nature et en cas de convergence sont égales. Résultat analogue dans le cas où ϕ
est décroissante.
15
2
Fonctions réelles définies sur R
2
Définition. Une fonction réelle f définie sur un sous-ensemble D de R est une fonction de
la forme f ∶ (x, y ) ∈ D ↦ f (x, y ) ∈ R
2 3
Graphe. Soit f ∶ R ↦ R. On appelle graphe de f le sous ensemble de R d’équation
z = f (x, y ). Le graphe de f est donc une surface.
2
Ligne de niveau. Soit f ∶ R ↦ R et λ ∈ R. On appelle ligne de niveau λ de f l’ensemble
{x ∈ R , f (x) = λ}.
2
Elle est continue sur O si elle est continue en tout point de O. La définition n’est-elle pas
très proche de la définition de fonction continue sur R ?
2
Proposition 34. Les fonctions coordonnées et polynomiales sont continues sur R .
Calcul différentiel
2
Soit U un ouvert de R , soit f ∶ U → R une fonction.
Gradient. Si f admet une dérivée partielle en a par rapport à la 1ère et à la 2ème variable,
le gradient de f en a est le vecteur ▽f (a) = (∂1 f (a), ∂2 f (a)).
1 1
Fonction de classe C . Une fonction f est de classe C sur U, si elle y admet des dérivées
partielles continues par rapport à chaque variable.
1
Proposition 36. (Développement limité d’ordre 1) Si f est de classe C sur U, alors pour tout
a ∈ U, il existe une fonction réelle ε continue en 0 telle que ε(0) = 0 et vérifiant pour tout
2
h ∈ R tel que a + h ∈ U :
f (a + h) = f (a) + ⟨▽f (a) ∣ h ⟩ + ∥h∥ε(h).
où, pour tous x, y ∈ R ,⟨x ∣ y ⟩ = x1 y1 + x2 y2
2
1
Dérivées partielles d’ordre 2. Soit f une fonction de classe C sur U. Soit deux entiers
i et j de [[ 1 , 2 ]]. La fonction ∂j f est une fonction continue de U dans R. Si elle admet une
dérivée partielle par rapport à la i -ième variable, on la note ∂i,j f = ∂i (∂j f ). On l’appelle la dérivée
2
2
Théorème 37. (Théorème de Schwarz) Si f est de classe C sur U,
alors pour tout (i, j) ∈ [[ 1 , 2 ]] , on a ∂i,j f = ∂j,i f
2 2 2
2 2
Proposition 38. Les fonctions coordonnées et polynomiales sont de classe C sur R .
17
Optimisation
n
Soient U un ouvert de R et f ∶ U → R.
Théorème 40. Une fonction continue sur une partie fermée et bornée admet un maximum
global et un minimum global sur cette partie.
1
Point critique On suppose f de classe C . Un point a ∈ U est un point critique de f lorsque
▽f (a) est nul, c’est à dire lorsque pour tout i , ∂i f (a) = 0.
1
Proposition 41. (Condition nécessaire du premier ordre) On suppose f de classe C . Si f
admet un extremum en un point a de U, alors a est un point critique de f . La réciproque est
fausse.
Point selle, point col. On appelle point selle, ou point col, de f les points critiques en lequels
f n’admet pas d’extremum local.
• Si ▽ f (a) admet deux valeurs propres non nulles de signe différent, alors a est un point
2
selle.
18
Graphes probabilistes
Définition. Un graphe probabiliste est un graphe orienté dans lequel il y a au plus un arc
d’un sommet à l’autre. Les arcs d’un graphe probabiliste sont pondérés, et la somme des poids
des arcs issus d’un même sommet vaut toujours 1.
Matrice de transition. Soit G un graphe probabiliste d’ordre N dont les sommets sont
numérotés de 1 à N. La matrice de transition M ∈ MN (R) associée à G a pour coefficient mij
le poids de l’arc allant de i a j dans le graphe G, s’il existe, et 0 sinon.
Chaı̂ne de Markov associée. Soit G un graphe probabiliste d’ordre N dont les sommets
sont numérotés de 1 à N. Soit µ0 une distribution de probabilité sur [[ 1 , N ]]. La chaı̂ne de
Markov associée à un graphe probabiliste G et de loi initiale µ0 est la suite de variables aléatoires
(Xn )n∈N à valeurs dans l’ensemble des sommets du graphes vérifiant : X0 ↪ µ0 et, pour tout
n ∈ N, et pour tous les sommets i et j on ait P (Xn+1 = j∣Xn = i) = mij .
Etat d’une chaı̂ne de Markov. Le n-ième état de la chaı̂ne de Markov, noté Vn , est la
matrice ligne (P (Xn = 1), ..., P (Xn = r )).
Proposition 44. (Interprétation probabiliste des états stables) Soit V un état stable du graphe
G et soient (Xn )n la chaine de Markov associée à G et de loi initiale V alors Xn ↪ V pour
tout n.
0.2 1 0.8
0.1
0.5
0.5
2 0.5 3
0.4
Définition. Une variable aléatoire réelle (v.a.r) est une application X ∶ Ω → R telle que,
pour tout x ∈ R l’ensemble [X ≤ x] est un événement.
Loi. La loi d’une v.a.r. X, est la donnée des probabilités P (X ∈ I) où I est un intervalle.
Théorème 46. (Formule de l’espérance totale.) Soit X une v.a.r. discrète et soit (An )n∈N
un système complet d’évènements tels que, pour tout n, P (An ) ≠ 0. Alors X admet une
espérance pour P si, et seulement si :
• Pour tout n ∈ N l’espérance conditionnelle E[X∣An ] existe ;
• La série ∑n∈N E[∣X∣∣An ]P (An ) converge.
Définition. X est une variable aléatoire à densité si sa fonction de répartition est continue
1
sur R, de classe C sur R sauf peut-être en un nombre fini de points.
Densité. f est une densité de probabilité si f est positive sur R, continue sur R sauf peut-être
f (t)dt converge et vaut 1.
+∞
en un nombre fini de points, et telle que : ∫
−∞
Proposition 47. Si F est la fonction de répartition de X, alors toute fonction f telle que
′
F = f aux points où F est dérivable est une densité de X. Si f est une densité de X, alors
la fonction de répartition de X est donnée par : ∀x ∈ R, F (x) = ∫ f (t)dt. La fonction F
x
−∞
1
est de classe C partout là où f est continue.
Proposition 48. La loi d’une v.a.r. à densité est caractérisée par la donnée d’une densité fX .
Soit f une densité, alors il existe une v.a.r X ayant pour densité f .
Proposition 49. Soit X une v.a.r. de densité f alors Y = aX + b où a, b ∈ R, a ≠ 0 est aussi
une variable aléatoire à densité, de densité fY ∶ x ↦ f ( x−b
a
)
Proposition 50. Soient X, Y deux v.a.r à densité telles que on a 0 ≤ ∣X∣ ≤ Y presque
sûrement. Si Y admet une espérance alors X admet une espérance.
Théorème 51. ( Théorème de transfert.) Si X est une v.a.r. ayant une densité fX nulle en
dehors de l’intervalle ]a, b[ et si g est une fonction continue par morceaux sur ]a, b[, alors
E[g(X)] existe et est égale à ∫a g(t)fX (t)dt ssi cette intégrale converge absolument.
b
Variance.
• Si X est une v.a.r. ayant une densité fX , alors X admet une variance V (X) qui est égale
à ∫−∞ (t − E(X)) f (t)dt ssi l’intégrale ∫−∞ t f (t)dt converge absolument.
+∞ 2 +∞ 2
⎧
⎪
⎪
⎪
0 si x < a
F (x) = ⎪
⎨
⎪
⎪
si x > 0
⎪
1
⎪
⎩ b−a
x−a
si x ∈ [a, b]
V (X) =
(b−a)
2
• Espérance, variance. E(X) = a+b
2
. 12
.
σ 2π
N (m + m , σ + σ ).
′ 2 ′2
22
23
23
Vecteurs aléatoires
Probabilités
On se place danssur un espace
un espace (Ω, Tou
probabiliséfini , P ).discret
On se place
Vecteurs dedans un espace
variables probabilisable
aléatoires. (Ω, Tsont
Si X1 , ...X ). des v.a.r, alors X = (X , ..., X ) ∶→ Rn
définie par X(ω) = (X1 (ω), ..., Xn (ω)) est une variable aléatoire à valeurs dans R .
n 1 n
n
(t1 ,∪
: Pn )(A An2)∪=. P. . (⋂ n )[X ]).i ).
≤ Pti (A
n
=i ∑
n
F(Xa1 ,...X
à deux incompatibles, on ...t ∪ Ai=1
Système complet. {Ai }i∈I est un système complet d’événements si : ∀i ∈ I, Ai ≠ ∅ ;
i=1
Lois marginales. On appelle lois marginales du vecteur X les lois de ses coordonnées. On peut
∀(i , j) ∈ I , i ≠ j, Ai ∩ Aj = ∅ et ⋃i∈I , Ai = Ω.
2
les obtenir à l’aide de la formule des probabilités totales. Attention : la loi conjointe détermine
les lois marginales mais la réciproque est fausse !
Probabilité. Une probabilité est une application P définie sur l’ensemble A des évenements
à valeurs dans [0, 1], σ-additive et telle que P (Ω) = 1.
Indépendance.
• On dit que les v.a.r. X1 , X2 , ..., Xn sont (mutuellement) indépendantes lorsqu’on a
P (⋂k=1 (Xk ∈ Ik )) = ∏k=1 P (Xk ∈ Ik ) pour tous intervalles I1 , ..., Ik de R.
Théorème n 61. Théorème de nla limite monotone ▲
• Ainsi la(A
• Soit loin )conjointe
une suited’un
d’événements, croissante
dont pour l’inclusion. On sonta indépendantes est
(⋃ ) (A )
vecteur aléatoire
+∞ les coordonnées
P
caractérisée par les lois marginales. k=0 k A = lim P n .
suite(A(X
n )i )
n→+∞
• •LaSoit une suite d’événements, décroissante pour l’inclusion. On a
i∈N est une suite de variables aléatoires discrètes réelles indépendantes si,
1, (⋂ Ak ) = aléatoires
lim P (An(X ) . i )0≤i≤n sont indépendantes.
+∞
et seulement si, pour tout n ≥ P lesk=0
variables n→+∞
P (B) ≠ 0 :SiPAX(B)
P (A∩B)
Proposition
Probabilité 53. (Lemme desSicoalitions)
conditionnelle. =XnP (A)
1 , ..., sont. indépendantes, toute variable
aléatoire fonction de X1 , ..., Xp est indépendante de toute variable aléatoire fonction de
Proposition 62. Formule des probabilités conditionnelles. Si P (A1 ∩ A2 ∩ . . . ∩ An−1 ) ≠ 0,
Xp+1 , ..., Xn .
alors : P (A1 ∩ A2 ∩ . . . ∩ An ) = P (A1 )PA1 (A2 ) . . . PA1 ∩A2 ∩...An−1 (An ).
Proposition 54. Si X1 , ..., Xn sont indépendantes et admettent une espérance alors leur pro-
E (∏i=1 Xi ) = ∏i=1 E(Xi ).
n n
Proposition 63. Formule des probabilités totales. Si {Ai }i∈I est un système complet d’événements
duit admet une espérance et
tous de probabilité
Covariance. Si X non
et Y nulle, P (B)
alors :une
admettent = ∑P:(B
variance ∩ Ai )Y=) ∑
Cov(X, (B)P
= PEAi[(X −(Ai ).
E[X])(Y − E[Y ])].
i∈I i∈I
Proposition 55.
• Formule de Koenig-Huygens. Cov(X, Y ) = E(XY ) − E(X)E(Y ).
Proposition 64. Formule de Bayes. Si {Ai }i∈I est un système complet d’événements tous de
• Cov(X, X) = V (X). Cov(X, Y ) = Cov(Y, X). P (B)P (A )
probabilité
• Cov(aX non nulle Z)si=Pa(B)
+ bY,et ≠ 0, Z)
Cov(X, alors
+ b: Cov(Y, PB (Ai ) = Ai P (B) i .
∀i ∈ I,Z).
• Si X et Y sont indépendantes, alors Cov(X, Y ) = 0. La réciproque est fausse.
Evénements indépendants, deux à deux indépendants, mutuellement indépendants.
• A et B sont indépendants pour la probabilité P si : P (A ∩ B) = P (A)P (B).
• A1 , A2 , . 56. (∑i=1deux
. . AnV sont Xi ) = (Xi ) + 2 ∑si Cov(X
∑i=1 Vindépendants
à deux
p , Xq )
la probabilité de l’intersection de deux
n n
Proposition
événements distincts parmi eux est égale1≤p<q≤n
au produit des deux probabilités correspon-
dantes.
• A1 , A2 , . . . An sont mutuellement indépendants si la probabilité de l’intersection de n’im-
porte quels événements distincts parmi eux est égale au produit des probabilités corres-
pondantes.
• L’indépendance mutuelle implique l’indépendance deux à deux. La réciproque est fausse.
24
Convergences et approximations
Proposition 57. Inégalité de Markov.
Soit X une v.a.r. à valeurs positives alors ∀ε > 0, P (X ≥ ε) ≤
E(X)
ε
.
Théorème 59. Loi faible des grands nombres Si (Xn )n∈N est une suite de variables aléatoires
notant Xn = n1 ∑k=0 Xk , pour tout ε > 0 on a : lim P (Xn − m ≥ ε) = 0.
iid (indépendantes de même loi) qui admettent une espérance m et une variance, alors, en
n
n→+∞
Convergence en loi. La suite de v.a.r (Xn )n∈N∗ converge en loi vers la v.a.r X si, et seulement
si en tout point de continuité x de la fonction de répartition FX on a lim FXn (x) = FX (x). On
n→+∞
L
note Xn → X.
Proposition 60. Si les Xn et X sont à valeurs dans N alors (Xn )n∈N∗ converge en loi vers X
ssi ∀k ∈ N, lim P (Xn = k) = P (X = k).
n→+∞
Théorème 61. Si la suite de v.a.r (Xn )n∈N∗ converge en probabilité [resp. en loi] vers la v.a.r.
X et si f est une fonction continue sur R à valeurs réelles, alors (f (Xn ))n∈N∗ converge en
probabilité [resp. en loi] vers f (X).
Théorème 62. (Théorème Limite Centrale) Si (Xn )n∈N∗ est une suite de v.a.r indépendantes
2
et de même loi (iid) admettant une espérance m et une variance σ . Alors en notant Xn =
∑k=0 Xk , on a :
1 n
√ Xn − m L
n
n ( σ ) → N (0, 1).
25
Nuage de points. On appelle nuage de points de la série précédente l’ensemble des points
Mi de coordonnées (xi , yi ).
Proposition 63. On a toujours ∣rXY ∣ ≤ 1. Si ∣rXY ∣ = 1 alors cela signifie que les points du
nuage sont alignés sur une droite.
On cherche à expliquer Y à partir de X. On peut par exemple chercher une relation linéaire
entre ces deux variables.
Proposition 64. Il existe une unique droite d’équation y = ax +b rendant minimale la quantité
∑i=1 (yi − axi − b) . C’est la droite d’équation y = ssXY2 (x − x) + y . Cette droite est appelée
N 2
X
droite de régression linéaire de Y en X.
Remarque
▶ Une régression linéaire n’est pas toujours pertinente, elle l’est d’autant plus que ∣rXY ∣
est proche de 1.
▶ On peut effectuer des pré-transformations avant d’effectuer une régression linéaire, par
exemple on peut chercher à expliquer Y en fonction de ln(X). On peut ainsi rendre
pertinente une régression linéaire qui ne le serait pas sans pré-transformation.
▶ Quoi qu’il en soit il faut garder à l’esprit que la régression linéaire n’est qu’une approxi-
mation, dont il faut discuter la pertinence.
26
Statistique inférentielle
Soit X une v.a.r., en probabilité, on étudie les propriétés de X connaissant sa loi. En statis-
tique inférentielle le paradigme est différent : la loi de X n’est pas complètement spécifiée, on
2
sait seulement qu’elle appartient à une famille de lois dépendant d’un paramètre θ ∈ R (ou R ).
Le paramètre θ est donc une quantité fixe mais inconnue que l’on cherche à estimer à partir de
plusieurs réalisations de X. Parfois on estime plutôt une quantité de la forme g(θ).
Echantillon. On appelle n-échantillon de loi X tout n-uplet (X1 , ..., Xn ) de variables aléatoires
indépendantes et identiquement distribuées de même loi que X. On appelle réalisation (ou ob-
servation) de cet échantillon, tout n-uplet (x1 , ..., xn ) =(X1 (ω), ..., Xn (ω)).
Moyenne empirique. Si (X1 , ..., Xn ) est un échantillon de loi X sa moyenne empirique est
Xn = n1 ∑k=0 Xk .
n
Variance empirique. Si (X1 , ..., Xn ) est un échantillon de loi X sa variance empirique est
Sn = n1 ∑i=1 (Xi − Xn ) .
n 2
https://www.instagram.com/ipesup/
https://www.linkedin.com/school/ipesup/
@ipesup2534
Ipesup
101 boulevard Raspail
75006 Paris
01 44 32 12 00