Mémo variables aléatoires

Lois discrètes avec (a, b) ∈ Z2 tel que a < b, nN, λR∗+
Loi Notation Support P(X = k) Espérance Variance
uniforme 𝒰(⟦a, b⟧) a, b 1/ba + 1 a + b/2 (ba + 1)2 − 1/12
de Bernoulli ℬ(p) {0 ; 1} p si k = 1,
1−p si k = 0
p p(1 − p)
binomiale ℬ(n, p) ⟦0 ; n (kn) pk(1 − p)nk np np(1 − p)
géométrique 𝒢(p) N (1 − p)k−1p 1/p 1 − p/p2
de Poisson 𝒫(λ) N λk/k! eλ λ λ
Lois à densité avec (a, b) ∈ R2 tel que a < b, λR∗+, μR, σR∗+
Loi Notation Support Fonction de densité Espérance Variance
uniforme 𝒰([a, b]) [a, b] t1/ba a + b/2 (ba)2/12
exponentielle ℰ(λ) R+ tλ eλt 1/λ 1/λ2
normale 𝒩(μ, σ2) R t1/σ exp(−(tμ)2/2σ2) μ σ2
de Cauchy R t1/π (t2 + 1) non définie non définie
Soit X une variable discrète une variable de densité f
Probabilité d’un évènement AX(Ω), P(XA)=kA P(X=k). a < bR, P(aXb) = ab f(t)dt
Si X(Ω) = N, a < bN, P(aXb) = k=ab P(X = k) aR, P(X = a) = 0
Espérance E(X) = kX(Ω) k P(X = k) E(X) = −∞+∞ t f(t) dt
Théorème de transfert φ:RR E(φ(X)) = kX(Ω) φ(k) P(X = k) E(φ(X)) = −∞+∞ φ(t) f(t) dt
Fonction de répartition
Soit X une variable aléatoire réelle (v.a.r).
xR, FX(x) = P(Xx)
Linéarité de l’espérance
X,Y v.a.r., λR, E(λX+Y)=λE(X)+E(Y)
Variance et écart type
V(X) =E((XE(X))2) ; σ(X)=V(X)
Formule de Koenig-Huygens
V(X) = E(X2) − (E(X))2
Caractère quadratique de la variance
∀ (a,b)∈R+∗× R, V(aX+b) = a2V(X)
Moments et moments centrés d’ordre r
rN, mr(X) = E(Xr)
qr, mr(X) existe ⇒ mq(X) existe
rN, μr(X) = E((XE(X))r)
rN, mr(X) existe ⇔ μr(X) existe
Indépendance de variables aléatoires
Soit X1,…,Xn une famille de v.a.r.
X1, … , Xn (mutuellement) indépendantes ⇔ ∀I1, … , In intervalles réels, P(X1I1, … , XnIn) = P(X1I1) ⋯ P(XnIn)
Lemme des coalitions
Soit X1,…,Xn des v.a.r. indépendantes.
Si Y = f(X1,…,Xk) alors Y,Xk+1,…,Xn sont mutuellement indépendantes
Combinaisons de v.a.r. indépendantes
Soit X1,…,Xn des v.a.r. indépendantes.
E(X1Xn) = E(X1) ⋯ E(Xn) V(X1 + ⋯ + Xn) = V(X1) + ⋯ + V(Xn)
Covariance en probabilités
Soit X et Y deux v.a.r. avec espérance.
Cov(X, Y) = E((XE(X))(YE(Y))) = E(XY) − E(X)E(Y)
Coefficient de corrélation linéaire
Cor(X, Y) = Cov(X, Y)/V(X) V(Y)
Invariance d’échelle
∀ (a, b, c, d) ∈ R+∗ × R × R+∗ × R, Cor(aX + b, cY + d) = Cor(X, Y)
Lois sans mémoire
Si X géométrique ou exponentielle, a,bX(Ω), P(X>a+b|X>b)=P(X>a)
Somme de variables binomiales
Soit p ∈ ]0, 1[ et X1,…,Xn ↝ ℬ(p) mutuellement indépendantes.
X1 + … + Xn ↝ ℬ(n, p)
X↝ℬ(m, p) et Y↝ℬ(n, p) indépendantes X + Y ↝ ℬ(m+n, p)
Paradigme de Poisson
Soit Xn↝ℬ(n, pn) une suite de v.a.r. telle que limn→+∞ npn = λ.
kN, limn→+∞ P(Xn=k) = λk/k! eλ
Inégalité de Markov
Soit X une v.a.r. positive avec espérance.
aR+∗, P(Xa) ≤ E(X)/a
Inégalité de Bienaymé-Tchebychev
Soit X une v.a.r. avec variance.
aR+∗, P(|XE(X)|a)V(X)/a2
Variable centrée réduite
Soit X une v.a.r. de densité ρ et admettant une variance.
X = XE(X)/σ(X) ; ρ : x ↦ σ(X) ρ(E(X) + σ(X)x)
Moyenne empirique
Soit X1, … , Xn des v.a.r. indépendantes d’espérance μ et variance σ2.
X = 1/n k=1n Xk ; E(X) = μ ; V(X) = σ2/n
Loi faible des grands nombres
ε > 0, limn→+∞ P(|Xμ|ε) = 0
Intervalle de confiance pour l’espérance
a>0, P(Xσ/naμX+σ/na)≥1−a