Cas de référence
En pratique, on choisit souvent par défaut un niveau de confiance de 95 %. Si X suit une loi binomiale de paramètres 10 et 1/2, par exemple, on trouve P(X < 2) = P(X > 8) = 111024 0,01 donc l'intervalle [[2 ; 8]] est un intervalle de fluctuation à plus de 95 %.
Pour la loi uniforme sur un intervalle [0, A], on pose en général a = 0,025A et b = 0,975A, ce qui exclut des valeurs à gauche ou à droite de l'intervalle avec une même probabilité de 2,5 %.
Pour la loi normale centrée réduite, un intervalle de fluctuation à 95 % ne peut s'exprimer avec les fonctions de référence mais en notant Z une variable aléatoire normale centrée réduite on dispose de l'approximation P(Z ∈ [−1,96 ; 1,96]) 0,95.
Plus généralement, pour tout α ∈ ]0 ; 1[ on peut noter tα l'unique antécédent de α par la fonction de répartition de la loi normale centrée réduite. Dans ce cas, on a t0,975 1,96 et t1−α = −tα.
Approximation par la loi normale
Soit (Xn) une suite de variables aléatoires réelles. Soit Z une variable aléatoire réelle. On dit que la suite (Xn) converge en loi vers Z si pour tout réel a en lequel la fonction de répartition FZ est continue on a limn→+∞ FXn(a) = FZ(a).
En particulier, si les variables aléatoires Xn et la variable aléatoire Z sont à valeurs entières, la convergence en loi s'écrit ∀ k ∈ Z, limn→+∞ P(Xn = k) = P(Z = k).
Si la variable aléatoire Z est à densité, la convergence en loi revient à écrire que pour tout intervalle réel I on a limn→+∞ P(Xn ∈ I) = P(Z ∈ I).
- Théorème central de la limite
- Soit (Xn) une suite de variables aléatoires indépendantes et de même loi admettant une variance. En notant pour tout n ∈ N∗, Sn = ∑i=1n Xi, la suite ((Sn − E(Sn))√V(Sn)) converge en loi vers la loi normale centrée réduite.
En particulier, ce théorème permet d'approcher certaines lois s'obtenant à l'aide de sommes de variables comme la loi binomiale ou la loi de Poisson.
- La loi binomiale 𝓑(n, p) peut être approchée par la loi normale 𝓝(np, np(1 − p)) si le produit np(1 − p) est assez grand.
- La loi de Poisson 𝓟(λ) peut être approchée par la loi normale 𝓝(λ, λ) si le paramètre λ est assez grand.
Attention, il n'y a pas d'approximation d'une loi quelconque par la loi normale.
Encadrement de la fréquence
Or E(Sn)
= ∑i=1n
E(Xi)
= np par linéarité de l'espérance
et V(Sn)
= ∑i=1n
V(Xi)
= np(1 − p) par indépendance des variables
(on reconnait l'espérance et la variance de la loi binomiale).
Donc on trouve P(np − 1,96√(np(1 − p)) ≤ Sn ≤ np + 1,96√(np(1 − p))) 0,95 d'où P(p − 1,96√(p(1 − p)n ≤ X ≤ p + 1,96√(p(1 − p)n) 0,95.
Cet intervalle peut être étendu en un intervalle de fluctuation avec une expression plus simple sous la forme [p − 1√n, p + 1√n] à l'aide de la majoration 1,96 < 2 et du fait que pour tout p ∈ [0 ; 1], on a p(1 − p) ≤ 1/4.
On obtient donc ainsi un encadrement probable de la fréquence d'observation d'un phénomène sur un échantillon. Cela permet notamment de détecter des écarts anormaux par rapport à une probabilité attendue.
Utilisation de la variance
- Inégalité de Markov
- Soit X une variable aléatoire réelle positive. Pour tout a ∈ R∗+, P(X ≥ a) ≤ E(X)a.
- Inégalité de Bienaymé-Tchebychev
- Soit X une variable aléatoire réelle admettant une variance. Pour tout ε ∈ R∗+, on a P(|X − E(X)| ≥ ε) ≤ V(X)ε2.
On en déduit un intervalle de fluctuation au niveau de confiance au moins 1 − α en choisissant ε pour obtenir V(X)ε2 ≤ α c'est-à-dire ε ≥ √V(X)α.
Pour la loi normale centrée réduite, on trouve donc un intervalle de fluctuation au niveau de confiance au moins 95 % sous la forme [−ε , ε] avec ε = √20 4,5, ce qui est bien moins précis que l'intervalle [−1,96 ; 1,96].