Ce programme est valable pour la classe d’hypokhâgne à partir de la rentrée 2017 et pour la classe de khâgne à partir de la rentrée 2018, pour le concours 2019. Il a été publié en annexe du bulletin officiel no 1 du .
Les mathématiques jouent un rôle important dans la société
et une importance grandissante dans les sciences humaines et sociales.
Les probabilités et la statistique interviennent dans tous les secteurs
de l’économie et dans une grande variété de contextes
(actuariat, biologie, épidémiologie, finance quantitative, prévision économique...)
où la modélisation de phénomènes aléatoires à partir de bases de données
est indispensable.
L’objectif de ce programme est de permettre de manière équilibrée
une formation par les mathématiques en tant que telles ;
l’acquisition d’outils utiles notamment aux sciences sociales
et de l’économie (probabilités et statistiques, introduction aux
fonctions de deux variables par exemple).
L’objectif de la formation dans les classes préparatoires B/L
n’est pas de former des professionnels des mathématiques.
L’enseignement des mathématiques concourt à structurer la pensée des étudiants,
de développer les capacités d’imagination et d’abstraction,
et de les former à la rigueur et à la logique en insistant sur
les divers types de raisonnement (par équivalence, implication, l’absurde, analyse-synthèse...).
Il permet aux étudiants d’utiliser des outils mathématiques
ou d’en comprendre l’usage dans diverses situations de leur parcours
académique et professionnel. L’état de l’art en sciences sociales et économie
a été un guide important pour donner aux étudiants de B/L les bases
dont ils auront besoin pour aller plus loin.
Le programme définit les objectifs de l’enseignement de ces classes
et décrit les connaissances et les capacités exigibles des étudiants.
Il précise également certains points de terminologie et certaines notations.
Les limites du programme sont clairement précisées.
Elles doivent être respectées aussi bien dans le cadre de l’enseignement
en classe que dans l’évaluation.
Compétences développées
L’enseignement de mathématiques en classes préparatoires B/L permet
de développer chez les étudiants les compétences générales suivantes :
Rechercher et mettre en œuvre des stratégies adéquates :
savoir analyser un problème, émettre des conjectures notamment à partir
d’exemples, choisir des concepts et des outils mathématiques pertinents.
Modéliser : savoir conceptualiser des situations concrètes
(phénomènes aléatoires ou déterministes notamment issues de problèmes
de sciences sociales ou économiques) et les traduire en langage mathématique,
élaborer des algorithmes.
Interpréter : être en mesure d’interpréter des résultats mathématiques
dans des situations concrètes, avoir un regard critique sur ces résultats.
Raisonner et argumenter : savoir conduire une démonstration,
confirmer ou infirmer des conjectures.
Maîtriser le formalisme et les techniques mathématiques :
savoir employer les symboles mathématiques à bon escient,
être capable de mener des calculs de manière pertinente et efficace.
Communiquer par écrit et oralement : comprendre les énoncés mathématiques,
savoir rédiger une solution rigoureuse, présenter une production mathématique.
Architecture des programmes
Par rapport au programme précédent, le programme d’algèbre linéaire
donne une place plus importante aux aspects matriciels
et introduit des bases de géométrie euclidienne qui pourront être illustrées
par d’autres parties du programme. Il est important de mettre en valeur
l’interaction entre les différentes parties du programme.
À titre d’exemple, l’algèbre linéaire trouvera ainsi son application
dans les problèmes d’optimisation, l’analyse et les probabilités
dans les problèmes d’estimation.
Le programme a été rédigé sur deux années. Au sein de chaque année,
aucun ordre particulier n’est imposé et chaque professeur conduit
en toute liberté l’organisation de son enseignement.
Le programme tient compte de l’évolution des programmes de Terminale
tout en maintenant une exigence intellectuelle élevée adaptée
au niveau des étudiants de la filière B/L et la place que des
techniques quantitatives en sciences humaines et sociales.
Le programme se présente de la manière suivante :
dans la colonne de gauche figurent les contenus exigibles des étudiants ;
la colonne de droite comporte des précisions sur ces contenus
ou des exemples d’activités ou d’applications.
Généralités
Concernant cette partie, le vocabulaire doit être connu et un savoir-faire est attendu. Aucune difficulté théorique ne sera soulevée. Certaines des notions peuvent être introduites en situation sans faire l’objet de chapitres spécifiques.
Aucun théorie générale n’est exigible sur les suites définies par récurrence.
Série à termes positifs.
Somme (finie ou infinie).
On pourra montrer l’existence d’une valeur limite (finie ou infinie)
par la croissance des sommes partielles.
Paradoxe de Zénon.
∑k ∑lak,l
= ∑l ∑kak,l
Résultat admis (les termes sont positifs).
Séries géométriques.
Convergence des séries de Riemann ∑ n−a
Résultat admis, la démonstration par comparaison avec l’intégrale
pourra être traitée en exercice le moment venu.
Sommation d’inégalités.
Si 0 ≤ un ≤ vn pour tout n,
∑nun
≤ ∑nvn.
En particulier,
si ∑nvn est finie,
alors ∑nun aussi.
ex
= ∑k=0∞(xk)/(k!) ;
pour |x| < 1,
(1)/(1 − x)
= ∑k=0∞xk
.
Admis.
À part ces exemples, on ne fera aucune théorie sur les séries à termes non positifs.
Algèbre linéaire
L’accent sera mis dans la présentation de l’algèbre linéaire sur les sous-espaces de Rn, avec de nombreux exemples en dimension 2 ou 3 visant à développer l’intuition géométrique.
Représenter un sous-espace vectoriel comme noyau d’une matrice revient à donner un système d’équations. Représenter un sous-espace vectoriel comme image d’une matrice revient à en donner une description paramétrique. On montrera notamment comment passer d’un point de vue à l’autre.
L’espace Rn
Définition de l’espace Rn des n-uplets de réels,
interprétation géométrique comme vecteurs.
Les opérations + : Rn × Rn → Rn
et · : R × Rn → Rn.
Les propriétés :
commutativité x + y = y + x ;
associativités (x + y) + z
= x + (y + z) ;
(ab) · x = a · (b · x) ;
opposé x + (−1) · x = 0 ;
distributivité (a + b) · (x + y)= a·x + a·y
+ b·x + b·y.
On définira les opérations par leur expression algébrique
en en donnant l’interprétation géométrique.
Les propriétés pourront être démontrées à partir de la définition des opérations.
Si le sous-espace n’est pas {0},
il contient un vecteur non nul e.
Si tous les éléments du sous-espace sont proportionnels à e, c’est une droite vectorielle,
sinon, c’est R2.
Algorithme de Gauss pour réduire un système linéaire (une matrice)
à une forme échelonnée par opérations sur les lignes.
On donnera des exemples de résolution de systèmes linéaires (homogènes ou non)
en utilisant l’algorithme de Gauss.
Des exemples où il existe une solution unique,
où il n’existe pas de solution,
et où il existe plusieurs solutions seront traités.
Dans ce dernier cas, on donnera une représentation paramétrique
de l’ensemble des solutions.
Le système A(x) = 0 a des solutions non triviales
si A a strictement moins de lignes que de colonnes.
Ce résultat sera utilisé en théorie de la dimension.
Détermination d’un système d’équations pour l’image d’une matrice
(écriture de l’image d’une matrice comme noyau d’une autre matrice).
Applications linéaires entre sous-espaces vectoriels de Rn
Noyau et image d’une application linéaire, rang.
Représentation par une matrice dans des bases.
Changement de bases, formule A′ = Q−1AP.
Toute application linéaire de rang r
peut être représentée dans des bases appropriées par la matrice
[[Ir ;0][0 ;0]]
Cet énoncé pourra être démontré en utilisant
le théorème de la base incomplète ou en utilisant les opérations élémentaires,
il conduit au théorème du rang.
Théorème du rang.
Isomorphismes.
Une application linéaire entre sous-espaces vectoriels de même dimension
est un isomorphisme si elle est injective, si elle est surjective.
Deux sous-espaces vectoriels isomorphes ont même dimension.
En particulier Rn
et Rm ne sont pas isomorphes
pour n ≠ m.
Rang d’une matrice
Le rang en lignes est égal au rang en colonnes.
On pourra se ramener à la matrice équivalente de la forme
[[Ir ;0][0 ;0]]
Le rang est le nombre de lignes non nulles dans les formes échelonnées.
Toute matrice carrée inversible à droite (à gauche) est inversible.
On ne considérera donc que des espaces vectoriels de dimension finie.
Cette définition a pour but de permettre de discuter d’espaces
autres que Rn,
mais aucune difficulté abstraite ne sera soulevée.
Une fonction dérivable sur [a, b]
atteint son minimum en un point x0.
Si x0 ∈ ]a, b[
alors f′(x0) = 0,
si x0 = a
alors f′(a+) ≥ 0,
si x0 = b
alors f′(b−) ≤ 0.
Démonstration à partir du développement limité. Exemples.
On fera remarquer que tout point critique (c’est-à-dire un point où la dérivée s’annule) n’est pas forcément un extremum.
Théorème de Rolle, égalité des accroissements finis.
Démonstration de ce qui précède.
Inégalité des accroissements finis.
On donnera les versions de l’inégalité pour
m ≤ f′(x) ≤ M
et pour |f′(x)| ≤ k.
Exemples d’application à la convergence de suites récurrentes.
Utilisation de la dérivée pour l’étude des variations.
Une fonction est constante sur un intervalle si et seulement si
sa dérivée est identiquement nulle.
Une fonction est croissante sur un intervalle si et seulement si
sa dérivée est positive ou nulle.
Une fonction dont la dérivée est strictement positive est strictement croissante.
On donnera la démonstration. On remarquera, sans formalisation,
que le résultat reste vrai si la dérivée s’annule en un nombre fini de points.
Dérivées d’ordre supérieur, fonctions 𝒞k.
On insistera plus sur les conclusions et l’utilisation des résultats
que sur leurs hypothèses de régularité.
Exemple d’étude de fonction : régression linéaire
On considère des données se présentant comme des couples de variables
(xi, yi), 1 ≤ i ≤ n,
où xi est vue comme
une variable explicative de yi.
En notant ¯(x) et ¯(y)
les moyennes, on cherche un coefficient a
tel que ¯(y) + a (x − ¯(x)) soit une bonne approximation de y.
On peut pour ceci minimiser la somme des écarts quadratiques
∑i
(yi − ¯(y)
− a (xi − ¯(x)))2.
C’est le britannique Francis Galton qui a introduit la méthode au 19e siècle
pour étudier la taille des enfants yi
en fonction de la taille des parents xi
obtenant un coefficient a ≈ 2/3.
Le fait que a > 0 signifie que les enfants sont
(en moyenne) plus grands que la moyenne lorsque les parents le sont.
Le fait que a < 1 signifie un retour vers la moyenne,
regression towards the mean en anglais, d’où le nom de la méthode.
Les explications génétiques que Galton donna de ce phénomène sont aujourd’hui
considérées comme incorrectes.
En étudiant la fonction de a ci-dessus,
on montre que la valeur optimale de a est
a = (∑i
((xi − ¯(x))(yi − ¯(y))))/(∑i
(xi − ¯(x))2).
On pourra interpréter cette valeur comme a = (Cov(x, y))/(Var(x)),
en lien avec le cours de probabilités.
Intégration
Définition informelle de l’intégrale ∫abf comme aire algébrique.
On ne soulèvera pas de difficulté sur la régularité de f,
on limitera la discussion aux fonctions continues.
Propriétés de l’intégrale : linéarité, relation de Chasles, monotonie.
Les propriétés ne seront pas démontrées, mais interprétées en termes géométriques.
Inégalité de la moyenne.
La fonction ∫xf
est une primitive de f.
Les primitives de f diffèrent d’une constante additive.
Démonstration à partir des propriétés de l’intégrale.
Relation ∫abf = F(b) − F(a).
Vraie pour toute primitive F de f.
Primitives de fonctions usuelles :
ex,
xa,
ln x,
sin x,
cos x.
Calcul d’intégrales : intégration par parties, changements de variables.
Il n’est pas attendu des candidats qu’ils sachent trouver eux-même
les bons changements de variable,
sauf dans quelques cas simples comme les changements affines.
Probabilités
L’esprit du programme de probabilités est de familiariser les étudiants
au concept de variables aléatoires et de leur indépendance,
dont la partie statistique, en deuxième année, peut être vue comme un aboutissement.
Les variables aléatoires finies ou discrètes sont plus à envisager
comme un contexte dans lequel certaines des propriétés importantes
peuvent être démontrées de manière simple
que comme une source d’exercices de dénombrement.
Évènements aléatoires
Univers Ω, ensemble ℰ des événements.
ℰ est un ensemble de parties de Ω.
On ne soulèvera pas de difficulté sur l’ensemble ℰ.
Évènement A et B,
évènement A ou B, évènement contraire,
évènements incompatibles, famille complète d’évènements.
Lien avec les opérations ensemblistes. On mentionnera que la réunion d’une suite d’évènements est un évènement.
Probabilité P : ℰ → [0, 1], axiomes :
P(Ω) = 1, P(∅) = 0 ; P(A) ≤ P(B) si
A ⊂ B ; P(A ∪ B)
= P(A) + P(B)
si A ∩ B = ∅ ; P(⋃iAi)
= ∑iP(Ai)
si Ai est une suite d’évènements deux à deux disjoints.
Probabilité conditionnelle sachant un événement B de probabilité non nulle :
P(A | B)
= PB(A)
= (P(A ∩ B))/(P(B)).
On remarque que PB : ℰ → [0, 1]
est une probabilité.
Formule des probabilités totales :
P(A)
= ∑iP(A | Bi)
P(Bi).
(Bi) est une famille complète finie
d’événements de probabilité strictement positive.
Formules de Bayes :
P(A | B)
= (P(B | A) P(A))/(P(B)) P(Ak | B)
= (P(B | A)
P(Ak))/(∑iP(B | Ai)
P(Ai)).
On donnera des applications concrètes de ces formules. (Ai) est un système complet d’événements, tous les événements sont de probabilité non nulle. On donnera des applications concrètes.
Variables aléatoires discrètes
On considère ici une variable aléatoire à valeurs dans un ensemble 𝒳 ⊂ R de la forme
𝒳 = {xi, i ∈ I}
où I est soit N, soit Z, soit un ensemble fini.
Une variable aléatoire sur 𝒳 est une fonction
X : Ω → 𝒳
telle que X−1(x) = {X = x} est un événement pour tout x ∈ X.
La loi de la variable aléatoire est la fonction
x ↦ p(x) := P(X = x).
({X = x}, x∈𝒳) est une famille complète d’évènements.
∑x∈𝒳p(x) = 1.
Pour toute partie 𝒳′ ⊂ 𝒳,
P(X ∈ 𝒳′) = ∑x∈𝒳′p(x).
Fonction de répartition, quantiles.
FX(x)
= P(X ≤ x).
Variable de Bernoulli, loi de Bernoulli.
L’indicatrice de l’événement A
suit une loi de Bernoulli de paramètre P(A).
Loi uniforme sur un ensemble fini.
Moments des variables aléatoires discrètes réelles positives
Les variables aléatoires sont positives dans cette partie.
Espérance des variables aléatoires positives.
On évoquera l’espérance des variables aléatoires finies de signe quelconque.
Moment d’ordre k (k-moment) E(Xk) ∈ [0, ∞].
Formule de transfert.
Une variable prenant un nombre fini de valeurs a des moments finis.
Inégalité E(X)2 ≤ E(X2).
Admise, mais on pourra par la suite faire le lien avec Cauchy-Schwartz.
Une variable de second moment fini est donc de premier moment fini.
Propriétés de l’espérance : linéarité, monotonie.
La linéarité est admise.
Variance des variables de premier moment fini :
V(X)
= E((X − E(X))2),
V(X)
= E(X2) − E(X)2),
V(aX + b)
= a2V(X).
Définition de l’écart type σ(X) = √(V(X)).
Puisque V(|X|) ≥ 0
on retrouve l’inégalité E(|X|)2 ≤ E(X2) dans le cas des variables de moment d’ordre 2 fini.
Si V(X) = 0, la variable X est constante en dehors d’un évènement de probabilité nulle.
Si X est une variable de Bernoulli de paramètre p,
E(X) = p,
V(X) = p (1 − p).
Inégalité de Markov :
P(X ≥ a) ≤ (E(X))/(a)
si X est une variable aléatoire à valeurs positives et a > 0.
Inégalité de Bienaymé-Tchebychev :
P(|X − E(X)| ≥ a)
≤ (V(X))/(a2)
si X est une variable aléatoire de second moment fini et a > 0.
Covariance de deux variables aléatoires finies : Cov(X, Y)= E((X − E(X))(Y − E(Y))),
Cov(X, Y)
= E(XY) − E(X)E(Y).
Coefficient de corrélation de variables aléatoires finies : Cor(X, Y)
= (Cov(X, Y))/(√(V(X) V(Y))).
Invariance d’échelle : Cor(X, Y) = Cor(aX + b, cY + d) pour a > 0, c > 0.
Indépendance
Indépendance de deux événements :
P(A ∩ B) = P(A) P(B).
Les événements A et B
(avec P(B) ≠ 0) sont indépendants
si et seulement si P(A | B) = P(A).
Indépendance de variables aléatoires discrètes.
Les variables X1, X2, … Xn, à valeurs dans 𝒳1, … 𝒳n
sont dites indépendantes si, pour toutes parties
A1 ⊂ 𝒳1, … An ⊂ 𝒳n,
P((X1 ∈ A1)
∩ ⋯
∩ (Xn ∈ An))
= P(X1 ∈ A1) ⋯
P(Xn ∈ An).
Deux variables de Bernoulli B1
et B2
sont indépendantes si et seulement si les événements
{B1 = 1}
et {B2 = 1} sont indépendants.
Les variables discrètes X1, … Xn sont indépendantes si et seulement si
P((X1 = x1,
…
Xn = xn)
= P(X1 = x1) …
P(Xn = xn)
pour tout x1 ∈ 𝒳1, … ,
xn ∈ 𝒳n.
La covariance de deux variables indépendantes est nulle.
Cette condition n’est pas suffisante.
Si X1, X2, … Xk, Y1, … Yl sont des variables indépendantes,
alors f(X1, X2, … Xk), Y1, Y2, … Yl
sont indépendantes pour toute fonction f.
On ne soulèvera aucune difficulté sur la notion de fonctions de plusieurs variables.
Si les variables X1, … Xn sont indépendantes et de second moment fini,
alors E(X1 ⋯ Xn)
= E(X1) ⋯ E(Xn)
et V(X1 + ⋯ + Xn)= V(X1) + ⋯ + V(Xn)
Démonstration dans le cas fini.
Processus de Bernoulli
On considère dans cette section une suite Xi, i ∈ N∗
de variables indépendantes suivant une loi de Bernoulli
de paramètre p.
L’indépendance signifie ici que, pour tout n,
les variables Xi, 1 ≤ i ≤ n sont indépendantes.
Soit T l’indice du premier 1.
T est une variable aléatoire
à valeurs dans N∗ = {1, 2, …}.
Sa loi est la loi géométrique :
P(T = n) = p (1 − p)n−1,
P(T ≥ n) = (1 − p)n.
Notation 𝒢(p) de la loi géométrique
de paramètre p.
Les lois géométriques satisfont la propriété
P(T > j + k | T > j) = P(T > k).
On pourra remarquer que cette propriété caractérise les lois géométriques,
la démonstration n’en est pas exigible.
Moments : E(T) = 1 / p,
V(T) = (1 − p) / p2.
On présentera le calcul de l’espérance en admettant la dérivation sous le signe somme.
On pose Sn
= X1 + ⋯ + Xn.
La loi de Sn est la loi binomiale de paramètres n et p :
P(Sn = k)
= (k parmi n)pk (1 − p)n−k.
On introduira à cette occasion les coefficients binomiaux
(k parmi n)
de manière combinatoire
et la notation ℬ(n, p)
pour la loi binomiale de paramètres n
et p.
Relations :
(k parmi n)
= (n!)/(k! (n−k)!),
(k parmi n)
= (k−1 parmi n−1)
+ (k parmi n−1),
(k parmi n)
= (n−k parmi n),
k(k parmi n)
= n(k−1 parmi n−1).
Triangle de Pascal.
Relation
(a + b)n
= ∑k=0n(k parmi n)akbn−k.
Lien avec la loi binomiale de paramètre
p = a/(a + b)
lorsque a et b sont positifs.
Moments :
E(Sn) = npV(Sn)
= nV(X1)
= np (1 − p).
La somme de deux variables binomiales indépendantes de paramètres
(k, p)
et (l, p)
est une variable binomiale de paramètres
(k + l, p).
On justifiera ce résultat en interprétant cette somme comme une somme de (k + l) variables de Bernoulli indépendantes.
Loi de Poisson de paramètre λ :
P(X = k) = e−λ(λk)/(k!).
Notation 𝒫(λ).
Moments d’une variable X suivant une loi de Poisson :
E(X) = λV(X) = λ.
On présentera le calcul de l’espérance en admettant la dérivation sous le signe somme.
On démontrera la convergence quand n → ∞
de la suite de lois binomiales de paramètre
pn vers la loi de Poisson
de paramètre λ
si npn → λ,
∀k, (k parmi n)pnk
(1 − pn)n−k→ (λk)/(k!) e−λ.
Il s’agit ici d’une convergence pour chaque k.
On ne discutera pas de concepts de convergences en loi en général.
Interprétation, paradigme de Poisson :
La somme Sn d’un grand nombre de variables de Bernoulli indépendantes de petit paramètre
suit approximativement la loi de Poisson de paramètre E(Sn).
On illustrera ce paradigme par des exemples concrets.
Exemple : Dans un texte, le nombre de coquilles par page
peut être modélisé par une loi de Poisson.
Si, dans une collection de qualité et de pagination homogènes,
le nombre moyen de coquilles par pages a été estimé à 1/2,
la probabilité qu’une page donnée ne contienne pas de coquille
est de 60% environ.
Deuxième Année
Algèbre et géométrie
Comme en première année les scalaires sont réels,
et le contexte est celui de Rn
(ou, éventuellement,
d’espaces isomorphes à Rn
comme Rk[x]
et Mk,l(R))
et de ses sous-espaces.
Une matrice A est diagonalisable s’il existe une matrice inversible P telle que P−1AP soit diagonale.
Un endomorphisme est diagonalisable s’il existe une base
dans laquelle il est représentée par une matrice diagonale.
Une application linéaire d’un sous-espace vectoriel E
dans lui-même est diagonalisable si et seulement s’il existe une base de E
constituée de vecteurs propres de cette application linéaire.
Si une matrice carrée n × n
admet n valeurs propres distinctes,
alors elle est diagonalisable.
Diagonalisation pratique des matrices 2 × 2.
Produit scalaire
Seul le produit scalaire usuel de Rn sera étudié,
aucun développement sur les espaces euclidiens plus généraux n’est au programme.
Allure locale du graphe d’une fonction admettant un développement limité
du type
f(x)
= a0 + a1x
+ akxk
+ xkε(x)
où k ≥ 2 et ak ≠ 0.
La forme du graphe en un point dépend principalement
du premier terme non linéaire du développement limité.
Exemples avec k = 2 ou k = 3.
Lien avec les extrema locaux et les points d’inflexion.
En un minimum local à l’intérieur du domaine de définition,
le coefficient a2 d’ordre 2
du développement limité vérifie a2 ≥ 0.
Un point où a1 = 0
et a2 > 0 est un minimum local.
Détermination de l’asymptote oblique d’une fonction en l’infini. Position par rapport à l’asymptote.
Notions d’intégrales indéfinies pour des fonctions positives, du type
∫abf
∈ [0, +∞]
où a ou b peuvent être infinis
et où f est continue
sur ]a, b[.
On donnera la définition comme limite
tout en évoquant une notion informelle directe comme une aire (finie ou infinie).
Les deux terminologies pourront être employées : intégrale convergente (divergente) ; intégrale finie (infinie).
Le niveau de formalisme de cette partie sera minimal.
On ne cherchera pas à préciser les hypothèses générales des résultats.
Aucune notion précise sur la classe de régularité d’une fonction de deux variables
n’est exigible. Les fonctions seront le plus souvent définies sur le plan R2 tout entier.
Dans le cas contraire, on ne soulèvera aucune difficulté liée au bord de l’ensemble de définition.
Notation f(x)
= f(x1, x2)
Exemples
Graphe, lignes de niveau. Étude d’exemples, notamment les suivants
(allure du graphe et des lignes de niveau) :
Le point x0 est un minimum local
s’il existe δ > 0
tel que f(x) ≥ f(x0)
dans le disque B(x0, δ).
On ne discutera pas d’extremum atteint au bord du domaine de définition.
Démonstration des conditions d’optimalité en considérant les fonctions
t ↦ f(t, x2)
et t ↦ f(x1, t).
f(x1, x2)
= ax12
+ 2bx1x2
+ cx22.
La fonction quadratique a un extremum local (strict) en 0
si et seulement si le discriminant
∆ = b2 − ac
est (strictement) négatif.
Détermination (dans les cas ∆ < 0) du type d’extremum en fonction du signe de a et c.
Il n’est pas demandé aux étudiants de connaître les résultats de cet exemple,
mais de savoir les retrouver.
Dans la présentation classique de la régression linéaire,
on cherche deux coefficients a et b
tels que b + ax
soit une aussi bonne approximation que possible de y.
On minimise pour ceci la fonction
f(a, b)
= ∑i
(yi − b − axi)2
et on retrouve
a = Cov(x, y) / Var(x),
b = ¯(y) − a¯(x).
On trouve le point critique en calculant les dérivées partielles.
On remarque que c’est la même approximation que dans la première approche.
On pourra justifier que c’est un minimum par l’interprétation géométrique suivante.
Dans l’espace Rn
(n est le nombre de données),
on considère les points e = (1, …, 1),
x = (x1, …, xn)
et y = (y1, …, yn).
La fonction f(a, b)
s’interprète comme le carré de la distance entre les points y
et ax + be.
Les valeurs optimales de a et b
correspondent donc à l’unique point ax + be
du sous-espace E = Vect(e, x)
tel que y − (ax + be)est orthogonal à E.
En écrivant le système
〈y − (ax + be), x〉 = 0,
〈y − (ax + be), e〉 = 0,
on retrouve bien
a = (〈e, e〉〈x, y〉
− 〈x, e〉〈y, e〉)/(〈e, e〉〈x, x〉
− 〈x, e〉2),
b = (〈y, e〉 − a〈x, e〉)/(〈e, e〉)
Soit ρ une fonction positive de R dans R.
La fonction X → R est une variable aléatoire
de densité ρ si, pour tout intervalle
]a, b[ de R,
l’ensemble {X ∈ ]a, b[}
est un événement et
P(X ∈ ]a, b[)
= ∫abρ(x) dx.
On se limitera au cas de densités ρ continues
(sauf éventuellement en un nombre fini de points).
On remarquera que
∫−∞∞ρ(x) dx
= P(Ω) = 1.
Si X est une variable aléatoire à densité,
alors P(X = x) = 0
pour tout x ∈ R.
Un événement de probabilité nulle n’est pas forcément impossible.
Inégalité de Markov :
P(X ≥ a) ≤ (E(X))/(a)
si X est une variable aléatoire à valeurs positives et a > 0. Inégalité de Bienaymé-Tchebychev :
P(|X − E(X)| ≥ a)
≤ (V(X))/(a2)
si X est une variable aléatoire de second moment fini et a > 0.
Loi normale, loi exponentielle
Une variable aléatoire Gaussienne (ou normale) centrée réduite
est une variable X admettant la densité
ρ(x)
= (1)/(√(2π))e−x2/2
On a E(X) = 0, V(X) = 1.
La variable Y = σX + E
est alors une variable Gaussienne (ou normale) de moyenne E
et de variance σ2, elle admet la densité
ρ(x)
= (1)/(σ√(2π))e−(x−E)2/2σ2.
Loi exponentielle :
ρ(x)
= λ e−λx
sur R+, E(X) = 1 / λ.
V(X) = 1 / λ2.
Pour tout x ≥ 0,
P(X > x)
= e−λx.
Cette propriété caractérise les lois exponentielles (démonstration non exigible).
Les lois exponentielles s’interprètent comme les lois de durée de vie
sans vieillissement. Ce sont des variantes continues des lois géométriques.
Indépendance de variables à densité
Les variables aléatoires à densité X1, …, Xn
sont dites indépendantes si
P((X1 ∈ I1)
∩ …
∩ (Xn ∈ In))
= P(X1 ∈ I1) …
P(Xn ∈ In)
pour tous intervalles Ik
de R.
Soit X une variable aléatoire (discrète ou à densité).
Soient Xi,
i ∈ N∗
des variables aléatoires indépendantes de même loi que X.
On considère les variables aléatoires
¯(X)n
= (X1 + ⋯ + Xn) / n.
Démonstration dans le cas V(X) < ∞
par l’inégalité de Bienaymé-Tchebychev :
P(|¯(X)n − E(X)| ≥ ε)≤ (V(¯(X)n))/(ε2)
≤ (V(¯(X)n))/(nε2).
Intervalle de confiance :
La probabilité que l’intervalle
[¯(X)n − √((V)/(na)),
¯(X)n − √((V)/(na))]
contienne la moyenne E(X) est supérieure à 1 − a.
On discutera la notion d’intervalle de confiance au niveau 1 − a.
On démontrera l’énoncé ci-contre à l’aide de l’inégalité de Bienaymé-Tchebychev.
En pratique :
La variance V est souvent inconnue, mais on peut la majorer :
dans le cas général d’une variable aléatoire bornée |X| ≤ M, par M2 ;
dans le cas d’une variable de Bernoulli, par 1/4.
Application numérique :
Pour n = 1000, au seuil de confiance de 90 %, l’incertitude est de 5 %
dans le cas d’une variable de Bernoulli.