Cadre général
Une
variable aléatoire réelle discrète sur un
espace probabilisé (Ω, 𝒜, P) est une application
X :
Ω → R
dont l'ensemble image
X(Ω)
est l'ensemble des termes d'une suite
(xi) finie ou infinie
et telle que pour tout indice
i
la
préimage X−1({xi}) soit un évènement de
𝒜
dont on note la probabilité
P(X = xi).
Dans ce cas, la
loi de probabilité de
X
est définie par l'application
xi
↦ P(X = xi).
Réciproquement,
si (xi)
est une suite finie ou infinie de réels deux à deux distincts
et si p est une application
de {x0, x1,
x2, …}
vers R+
telle que ∑i
p(xi)
= 1,
alors p est une loi de probabilité
d'une variable aléatoire réelle discrète.
Dans le cas où la suite est infinie, la somme est la limite des sommes partielles :
∑i∈N
p(xi)
= limn→+∞ ∑i=0n
p(xi),
qui existe comme limite d'une suite croissante.
Lois de référence
À la suite des lois de probabilités à support fini que sont la loi uniforme,
la loi de Bernoulli
et la loi binomiale,
on définit d'autres lois de probabilité discrètes de référence.
Soit p ∈ ]0 ; 1[.
On dit qu'une variable aléatoire réelle X
suit la loi géométrique de paramètre p
si pour tout k ∈ N∗,
P(X = k)
= p(1 − p)k−1.
On note alors X ↝
𝒢(p).
Les lois géométriques sont les seules a être décrites par des suites géométriques. Il arrive aussi qu'on parle de loi géométrique sur N, auquel cas on a pour tout k ∈ N,
P(X = k)
= p(1 − p)k.
Soit λ ∈ R∗+.
On dit qu'une variable aléatoire réelle X
suit la loi de Poisson de paramètre λ
si pour tout k ∈ N,
P(X = k)
= (λk)/(k!) e−λ.
On note alors X ↝
𝒫(λ).
Espérance
Soit
X une variable aléatoire discrète
positive avec
X(Ω) = {xi, i ∈ N} ⊂ R+.
On dit que la variable
X admet une espérance si la
série (∑ xi P(X = xi)) converge. Dans ce cas l'
espérance de
X est la somme de cette série
E(X)
= ∑i=0+∞
xi P(X = xi).
- Une variable géométrique X de paramètre p admet une espérance E(X)
= 1/p.
- Une variable de Poisson X de paramètre λ admet une espérance E(X) = λ.
- Théorème de transfert
- Si X est une variable aléatoire réelle discrète et si f est fonction réelle positive définie sur X(Ω), alors la composée est aussi une variable aléatoire réelle discrète, notée f(X). Cette variable aléatoire admet une espérance si la série (∑
f(xi)
P(X = xi))
converge et dans ce cas, on a
E(f(X))
= ∑i
f(xi)
P(X = xi).
Pour une variable aléatoire discrète
X à valeurs positives
ou négatives, et en particulier dans le cadre du théorème de transfert si la fonction
f n’est pas toujours positive, l’existence des espérances est conditionnée à la
convergence absolue des séries.
L'espérance est linéaire : pour tout λ ∈ R,
si X et Y sont deux variables aléatoires discrètes admettant chacune une espérance, alors la variable aléatoire (λX + Y) aussi avec
E(λX + Y)
= λ E(X) + E(Y).
L'espérance est croissante : si X
et Y sont deux variables aléatoires réelles discrètes admettant chacune une espérance telles que
P(X ≤ Y) = 1
alors E(X) ≤ E(Y).
Toute variable aléatoire réelle discrète bornée admet une espérance.
Soit X une variable aléatoire réelle discrète bornée. On note X(Ω) = {xi, i ∈ N}
et il existe (m, M) ∈ R2 tel que
pour tout i ∈ N,
m ≤ xi ≤ M.
Alors X − m est une variable aléatoire réelle discrète positive
et ∑i=0+∞ (xi − m) P(X = xi)
≤ ∑i=0+∞ (M − m) P(X = xi)
= M − m.
Donc la série est majorée et converge.
Soit X une variable aléatoire réelle discrète. Si X est toujours positive et admet une espérance nulle
alors on a P(X = 0) = 1.
Moments et variance
Soit X une variable aléatoire réelle discrète.
Soit r ∈ N.
Le moment d'ordre r de X, parfois noté mr(X),
est égal à E(Xr) si cette espérance est bien définie.
Le moment centré d'ordre r est le moment d'ordre r de la variable aléatoire (X − E(X)).
En particulier, la variance est le moment centré d'ordre 2 :
V(X) = E((X − E(X))2).
Une variable aléatoire discrète admet un moment d'ordre r si et seulement si elle admet un moment centré d'ordre r.
Si X admet un moment d'ordre r alors elle admet un moment d'ordre q pour tout entier naturel q < r.
- Si X suit une loi géométrique de paramètre p alors V(X) = (1 − p)/p2.
- Si X suit une loi de Poisson de paramètre λ alors V(X) = λ.
Les moments (centrés ou non) d'ordre pair, et en particulier la variance, sont toujours positifs.
Si X admet une variance
alors pour tout c ∈ R, on a
V(X + c)
= V(X).
- Formule de König-Huygens
- Si X admet une variance alors
V(X)
= E(X2) − (E(X))2
S'il existe, le moment d'ordre r est de degré r :
pour tout λ ∈ R,
on a
mr(λX)
= λr mr(X).
En particulier, la variance est quadratique :
V(λX)
= λ2 V(X).
Indépendance
Deux variables aléatoires réelles discrètes X et Y sont dites indépendantes si pour tout (x, y) ∈ R2
on a
P(X = x et Y = y)
= P(X = x) P(Y = y).
Comme pour les évènements, l'indépendance mutuelle de trois variables aléatoires ou plus est une propriété plus forte que l'indépendance des variables deux à deux.
Soit (X1, … , Xn)
une famille de variables aléatoires discrètes.
On dit que les variables qui composent cette famille sont mutuellement indépendantes
si pour tout (x1, … , xn) ∈ Rn,
on a
P(∀i, Xi = xi)
= ∏i=1n P(Xi = xi).
- Lemme des coalitions
- Soit (X1, … , Xn) une famille de variables aléatoires
réelles mutuellement indépendantes.
Soit k ∈ ⟦1 ; n − 1⟧ et f une fonction de Rk
vers R.
Alors Y = f(X1, … , Xn)
et les variables Xk+1, … , Xn sont mutuellement indépendantes.
Soit (X1, … , Xn) une famille de variables aléatoires mutuellement indépendantes et suivant la même loi de Bernoulli de paramètre p ∈ ]0 ; 1[.
Alors ∑i=1n Xi suit la loi binomiale de paramètres n et p.
Si X et Y
sont deux variables aléatoires indépendantes suivant des lois géométriques
de paramètres respectifs p et q
alors min(X, Y) suit aussi une loi géométrique
de paramètre p + q − pq.
Si X et Y
sont deux variables aléatoires indépendantes suivant des lois de Poisson
de paramètres respectifs λ et μ
alors (X + Y) suit aussi une loi de Poisson
de paramètre λ + μ.
- Paradigme de Poisson
- Si (Xn) est une famille de variables aléatoires suivant des lois binomiales
Xn ↝ ℬ(n, pn)
telles que la suite (npn)n∈N converge vers un réel λ > 0,
alors la suite (Xn) converge en loi vers la loi de Poisson de paramètre λ :
pour tout k ∈ N,
limn→+∞ P(Xn = k) = e−λ(λk)/(k!).
Pour tout n ≥ k,
on a P(Xn = k)
= (k parmi n)
pnk (1 − pn)n−k
= (n! (npn)k)/(k! (n − k)! nk)
exp((n − k) ln(1 − pn))
,
or limn→+∞
(npn)k
= λk,
et (n!)/((n − k)! nk)
= (n (n − 1) ⋯ (n − k + 1))/(nk)
= 1 × (1 − (1)/(n)) × (1 − (2)/(n)) × ⋯ × (1 − (k+1)/(n)) qui converge vers 1,
enfin à l’aide du développement limité à l’ordre 1,
ln(1 + x) = x + x ε(x),
on trouve
exp((n − k) ln(1 − pn))
= (exp(n ln(1 − pn))
)/(exp(k ln(1 − pn))
),
avec un numérateur qui s’écrit exp(−npn (1 + ε(pn)))
donc qui converge vers exp(−λ),
et limn→+∞ pn = 0
donc le dénominateur converge vers 1.