Variables aléatoires réelles discrètes

Notions
variable aléatoire discrète et loi de probabilité,
Définitions
loi géométrique, loi de Poisson, formule de l’espérance, moment et moment centré, indépendance de variables aléatoires
Résultats
Espérance et variance de la loi géométrique, espérance et variance de la loi de Poisson, théorème de transfert, formule de Koenig-Huygens, stabilité de la loi de Poisson
Compétences
Rechercher les valeurs propres et vecteurs propres d’une matrice ou d’un endomorphisme
Interpréter des sous-espaces vectoriels comme des espaces propres pour démontrer qu’ils sont en somme directe
Utiliser un polynôme annulateur pour calculer une matrice inverse

Cadre général

Définition
Une variable aléatoire réelle discrète sur un espace probabilisé (Ω, 𝒜, P) est une application X : Ω → R dont l'ensemble image X(Ω) est l'ensemble des termes d'une suite (xi) finie ou infinie et telle que pour tout indice i la préimage X−1({xi}) soit un évènement de 𝒜 dont on note la probabilité P(X = xi).
Dans ce cas, la loi de probabilité de X est définie par l'application xiP(X = xi).
Propriété
Réciproquement, si (xi) est une suite finie ou infinie de réels deux à deux distincts et si p est une application de {x0, x1, x2, …} vers R+ telle que i p(xi) = 1, alors p est une loi de probabilité d'une variable aléatoire réelle discrète.
Remarque
Dans le cas où la suite est infinie, la somme est la limite des sommes partielles : iN p(xi) = limn→+∞ i=0n p(xi), qui existe comme limite d'une suite croissante.

Lois de référence

À la suite des lois de probabilités à support fini que sont la loi uniforme, la loi de Bernoulli et la loi binomiale, on définit d'autres lois de probabilité discrètes de référence.

Définition
Soit p ∈ ]0 ; 1[. On dit qu'une variable aléatoire réelle X suit la loi géométrique de paramètre p si pour tout kN, P(X = k) = p(1 − p)k−1.
On note alors X 𝒢(p).

Les lois géométriques sont les seules a être décrites par des suites géométriques. Il arrive aussi qu'on parle de loi géométrique sur N, auquel cas on a pour tout kN, P(X = k) = p(1 − p)k.

Définition
Soit λR∗+. On dit qu'une variable aléatoire réelle X suit la loi de Poisson de paramètre λ si pour tout kN, P(X = k) = (λk)/(k!) eλ.
On note alors X 𝒫(λ).

Espérance

Définition
Soit X une variable aléatoire discrète positive avec X(Ω) = {xi, iN} ⊂ R+. On dit que la variable X admet une espérance si la série (xi P(X = xi)) converge. Dans ce cas l'espérance de X est la somme de cette série E(X) = i=0+∞ xi P(X = xi).
Exemples
Théorème de transfert
Si X est une variable aléatoire réelle discrète et si f est fonction réelle positive définie sur X(Ω), alors la composée est aussi une variable aléatoire réelle discrète, notée f(X). Cette variable aléatoire admet une espérance si la série (f(xi) P(X = xi)) converge et dans ce cas, on a E(f(X)) = i f(xi) P(X = xi).
Remarque
Pour une variable aléatoire discrète X à valeurs positives ou négatives, et en particulier dans le cadre du théorème de transfert si la fonction f n’est pas toujours positive, l’existence des espérances est conditionnée à la convergence absolue des séries.
Propriété
L'espérance est linéaire : pour tout λR, si X et Y sont deux variables aléatoires discrètes admettant chacune une espérance, alors la variable aléatoire (λX + Y) aussi avec E(λX + Y) = λ E(X) + E(Y).
Propriété
L'espérance est croissante : si X et Y sont deux variables aléatoires réelles discrètes admettant chacune une espérance telles que P(XY) = 1 alors E(X) ≤ E(Y).
Propriété
Toute variable aléatoire réelle discrète bornée admet une espérance.
Démonstration
Soit X une variable aléatoire réelle discrète bornée. On note X(Ω) = {xi, iN} et il existe (m, M) ∈ R2 tel que pour tout iN, mxiM. Alors Xm est une variable aléatoire réelle discrète positive et i=0+∞ (xim) P(X = xi) ≤ i=0+∞ (Mm) P(X = xi) = M − m. Donc la série est majorée et converge.
Propriété
Soit X une variable aléatoire réelle discrète. Si X est toujours positive et admet une espérance nulle alors on a P(X = 0) = 1.

Moments et variance

Soit X une variable aléatoire réelle discrète. Soit rN.

Définition
Le moment d'ordre r de X, parfois noté mr(X), est égal à E(Xr) si cette espérance est bien définie.
Le moment centré d'ordre r est le moment d'ordre r de la variable aléatoire (XE(X)).
En particulier, la variance est le moment centré d'ordre 2 : V(X) = E((XE(X))2).
Propriété
Une variable aléatoire discrète admet un moment d'ordre r si et seulement si elle admet un moment centré d'ordre r.
Propriété
Si X admet un moment d'ordre r alors elle admet un moment d'ordre q pour tout entier naturel q < r.
Exemples
Propriété
Les moments (centrés ou non) d'ordre pair, et en particulier la variance, sont toujours positifs.
Propriété
Si X admet une variance alors pour tout cR, on a V(X + c) = V(X).
Formule de König-Huygens
Si X admet une variance alors V(X) = E(X2) − (E(X))2
Propriété
S'il existe, le moment d'ordre r est de degré r : pour tout λR, on a mr(λX) = λr mr(X).
En particulier, la variance est quadratique : V(λX) = λ2 V(X).

Indépendance

Définition
Deux variables aléatoires réelles discrètes X et Y sont dites indépendantes si pour tout (x, y) ∈ R2 on a P(X = x et Y = y) = P(X = x) P(Y = y).

Comme pour les évènements, l'indépendance mutuelle de trois variables aléatoires ou plus est une propriété plus forte que l'indépendance des variables deux à deux.

Soit (X1, … , Xn) une famille de variables aléatoires discrètes. On dit que les variables qui composent cette famille sont mutuellement indépendantes si pour tout (x1, … , xn) ∈ Rn, on a P(∀i, Xi = xi) = i=1n P(Xi = xi).

Lemme des coalitions
Soit (X1, … , Xn) une famille de variables aléatoires réelles mutuellement indépendantes. Soit k ∈ ⟦1 ; n − 1⟧ et f une fonction de Rk vers R. Alors Y = f(X1, … , Xn) et les variables Xk+1, … , Xn sont mutuellement indépendantes.
Propriété
Soit (X1, … , Xn) une famille de variables aléatoires mutuellement indépendantes et suivant la même loi de Bernoulli de paramètre p ∈ ]0 ; 1[. Alors i=1n Xi suit la loi binomiale de paramètres n et p.
Propriété
Si X et Y sont deux variables aléatoires indépendantes suivant des lois géométriques de paramètres respectifs p et q alors min(X, Y) suit aussi une loi géométrique de paramètre p + qpq.
Propriété
Si X et Y sont deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres respectifs λ et μ alors (X + Y) suit aussi une loi de Poisson de paramètre λ + μ.
Paradigme de Poisson
Si (Xn) est une famille de variables aléatoires suivant des lois binomiales Xn ↝ ℬ(n, pn) telles que la suite (npn)nN converge vers un réel λ > 0, alors la suite (Xn) converge en loi vers la loi de Poisson de paramètre λ : pour tout kN, limn→+∞ P(Xn = k) = eλ(λk)/(k!).
Démonstration
Pour tout nk, on a P(Xn = k) = (k parmi n) pnk (1 − pn)nk = (n! (npn)k)/(k! (nk)! nk) exp((nk) ln(1 − pn)) ,
or limn→+∞ (npn)k = λk,
et (n!)/((nk)! nk) = (n (n − 1) ⋯ (nk + 1))/(nk) = 1 × (1 − (1)/(n)) × (1 − (2)/(n)) × ⋯ × (1 − (k+1)/(n)) qui converge vers 1, enfin à l’aide du développement limité à l’ordre 1, ln(1 + x) = x + x ε(x), on trouve exp((nk) ln(1 − pn)) = (exp(n ln(1 − pn)) )/(exp(k ln(1 − pn)) ),
avec un numérateur qui s’écrit exp(−npn (1 + ε(pn))) donc qui converge vers exp(−λ), et limn→+∞ pn = 0 donc le dénominateur converge vers 1.