Verbatim cours du 11 mai 2020

Introduction

Je réponds aux questions individuelles sur le tchat.

Vous pouvez aussi rédiger sur votre propre tableau blanc et partager l’écran vers ce tableau pour indiquer vos formules de réponse.

Il faut pour cela que vous ouvriez une deuxième session de votre navigateur en parallèle et que vous partagiez votre écran (icone écran en bas à gauche) vers cette 2e session. Mais ne faites ce partage que lorsque vous avez des maths à montrer.

Je vais faire une copie de tout ce qui sera écrit ici, ainsi qu’une copie des discussions sur le tchat si certains le souhaitent.

Correction des exercices

Formules de duplication de l’angle pour le cosinus et le sinus.

Pour montrer cos(2x) = cos²(x) − sin²(x) et sin(2x) = 2 sin(x) cos(x), on utilise l’exponentielle complexe.

La formule de De Moivre nous donne (e^ix)^2 = e^2ix.

En traduisant cela avec des sinus et cosinus, on obtient

(cos(x) + i sin(x))^2 = cos(2x) + i sin(2x)

donc en développant, on trouve cos²(x) − sin²(x) + 2i sin(x) cos(x) = cos(2x) + i sin(2x)

et en identifiant les parties réelles d’une part et les parties imaginaires d’autre part,

cos²(x) − sin²(x) = cos(2x) et 2 sin(x) cos(x) = sin(2x).

À vous : exprimez cos(3θ) comme un polynôme en cos(θ).

En effet, d’après la formule de De Moivre, on a pour tout θ ∈ ℝ, (e^iθ)^3 = e^3iθ donc...

(cos(θ) + i sin(θ))^3 = cos(3θ) + i sin(3θ), et on utilise le binôme de Newton pour développer le cube à gauche.

cos(θ)^3 + 3 cos²(θ) i sin(θ) − 3 cos(θ) sin²(θ) − i sin³(θ) = cos(3θ) + i sin(3θ)

donc cos³(θ) − 3 cos(θ) sin²(θ) = cos(3θ)

or sin²(θ) = 1 − cos²(θ) donc cos(3θ) = cos³(θ) − 3 cos(θ) (1 − cos²(θ)) = −3 cos(θ) + 4 cos³(θ)

Retour aux variables aléatoires discrètes.

La dernière fois, nous avons étudié les variables géométriques et de Poisson. Il y en a beaucoup d’autres, on en verra d’ailleurs en exercice.

Comme pour les variables sur univers fini, on va pouvoir calculer des espérances et variances.

Commençons par l’espérance d’une variable géométrique.

Si X ↝ G(p) (ce qui se lit « X suit une loi géométrique de paramètre p ») on trouve :

E(X) = ∑_{k=1}^∞ k × P(X=k)

(la loi géométrique est à valeurs dans N* !)

Le problème avec l’espérance pour des variables qui ont une infinité de valeurs, c’est que rien ne nous dit a priori que cette série converge.

Il faudra donc l’étudier au cas par cas.

Dans le cas de la loi géométrique, on trouve E(X) = ∑_{k=1}^∞ k × p × (1−p)^{k−1}

On reconnait une série géométrique dérivée (∑ k x^{k-1}) sans même avoir besoin de réindexation ! Il ne reste qu’à sortir le facteur p.

E(X) = p × 1/(1−(1−p))² = p / p² = 1/p.

Comment interpréter cela dans le cas du lancer de dé ?

Si on lance un dé jusqu’à obtenir un 6, il nous faut en moyenne 1/p = 1/ (1/6) = 6 lancers.

Pour la loi de Poisson, on peut appliquer la même démarche.

Si X ↝ P(λ) (« X suit la loi de Poisson de paramètre lambda »), on trouve :

E(X) = ∑_{k=0}^∞ k P(X=k) = ∑_{k=0}^∞ k × λ^k / k ! × e^−λ

On reconnait une série exponentielle, à condition de simplifier le facteur k avec la factorielle au dénominateur. À condition que k ≠ 0 !

Mais l’expression à droite est nulle pour k=0, donc on peut l’éliminer, commencer la somme à 1, simplifier par k,

E(X) = ∑_{k=1}^∞ λ^k / (k−1) ! × e^−λ

on réindexe : E(X) = ∑_{k=0}^∞ λ^{k+1} / k ! × e^−λ.

on sort les constantes en facteur E(X) = λ e^−λ ∑_{k=0}^∞ λ^k / k ! = λ e^−λ × e^λ = λ.

Cela s’interprète en disant que le paramètre d’une loi de Poisson est son espérance.

Ces deux lois ont donc des espérances qui convergent (les séries convergent) mais ce n’est pas le cas de toutes les lois discrètes.

Exemple : on définit une variable Y à valeurs dans Y(Ω) = N*

avec les probabilités pour tout k ∈ N* : P(Y = k) = 1/(k²+k) > 0.

Ceci ne définit bien les probabilités d’une variable aléatoire que si la somme des probabilités vaut 1.

Pour cela, on peut vérifier que pour tout k ∈ N*, 1/(k²+k) = 1/k − 1/(k+1).

Donc la série ∑_{k=1}^∞ P(Y=k) est téléscopique :

∑_{k=1}^n P(Y=k) = ∑_{k=1}^n (1/k − 1/(k+1)) = ∑_{k=1}^n 1/k − ∑_{k=2}^{n+1} 1/k

= 1/1 − 1/(n+1) donc quand n tend vers +∞, on trouve bien une limite 1

donc ∑_{k=1}^∞ P(Y=k) = 1.

E(Y) = ∑_{k=1}^∞ k × P(Y=k) = ∑_{k=1}^∞ k × 1/(k²+k) = ∑_{k=1}^∞ 1/(k+1)

et là on reconnait une série harmonique qui diverge. Donc l’espérance diverge.

Comment l’interpréter ? Cette variable aléatoire n’a que des valeurs finies.

Mais si on calcule la moyenne des valeurs sur un grand nombre de lancers, on ne va pas avoir de convergence.

Ce type de comportement est un peu perturbant mais correspond à une réalité.

Un exemple classique est donné par les catastrophes naturelles.

A contrario des remboursements d’assurance pour les accidents de la route, qui suivent une loi avec espérance (donc on peut calculer le montant de la prime d’assurance en moyennant les dépenses des années précédentes), les catastrophes naturelles occasionnent des dépenses sans espérance.

Un autre exemple est donné par les marches aléatoires.

Par exemple on imagine qu’on se promène sur un damier infini.

À chaque intersection, on tourne à droite ou à gauche ou on va tout droit avec la même probabilité.

Dans ce cas là on est sûr (c’est-à-dire qu’on a une probabilité de 1) de revenir à son point de départ.

Mais le temps de retour n’a pas d’espérance : cela signifie que si on continue sa promenade et que l’on compte le temps moyen de retour au point de départ, ce temps moyen ne va pas converger. Il tend vers +∞.

En des termes économiques, la marche aléatoire correspond à un échange d’argent à pile ou face. Si on perd 1 € avec une chance sur 2 et qu’on gagne 1 € avec la même probabilité, le montant total possédé s’apparente à une marche aléatoire sur Z.

Le montant possédé est en effet un entier (négatif si vous avez des dettes) et on se promène aléatoirement en faisant +1 ou −1 avec la même probabilité.

Au bout de combien de temps revient-on en 0 ?

On est sûr d’y revenir mais en un temps fini qui n’a pas d’espérance.

Le temps moyen de retour à 0 va tendre vers +∞.

Il nous restera demain à voir le calcul de variance et à faire des exercices.