Programme de mathématiques en khâgne B/L

Ce programme est valable pour la classe d’hypokhâgne à partir de la rentrée 2017 et pour la classe de khâgne à partir de la rentrée 2018, pour le concours 2019. Il a été publié en annexe du bulletin officiel no 1 du .

Table des matières

Objectifs généraux de la formation

  1. Compétences développées
  2. Architecture des programmes

Généralités

  1. Logique
  2. Vocabulaire ensembliste
  3. Les nombres entiers
  4. La droite réelle
  5. Le plan complexe

Première Année

Suites et séries de nombres réels

Algèbre linéaire

  1. L’espace Rn
  2. Matrices et systèmes linéaires
  3. Matrices carrées inversibles
  4. Sous-espaces vectoriels de Rn
  5. Applications linéaires entre sous-espaces vectoriels de Rn
  6. Rang d’une matrice
  7. Espaces vectoriels

Fonctions d’une variable réelle

  1. Limites et continuité
  2. Dérivées
  3. Exemple d’étude de fonction : régression linéaire
  4. Intégration

Probabilités

  1. Évènements aléatoires
  2. Variables aléatoires discrètes
  3. Moments des variables aléatoires discrètes réelles positives
  4. Indépendance
  5. Processus de Bernoulli

Deuxième Année

Algèbre et géométrie

  1. Somme directe, supplémentaire
  2. Valeurs propres des endomorphismes
  3. Produit scalaire

Étude locale des fonctions d’une variable réelle

  1. Fonctions polynomiales
  2. Développements limités
  3. Intégrales généralisées

Fonctions de deux variables réelles

  1. Exemples
  2. Dérivées partielles
  3. Fonctions quadratiques
  4. Retour sur la régression linéaire
  5. Étude des points critiques

Probabilités

  1. Variables aléatoires à densité
  2. Loi normale, loi exponentielle
  3. Indépendance de variables à densité
  4. Statistiques

Objectifs généraux de la formation

Les mathématiques jouent un rôle important dans la société et une importance grandissante dans les sciences humaines et sociales. Les probabilités et la statistique interviennent dans tous les secteurs de l’économie et dans une grande variété de contextes (actuariat, biologie, épidémiologie, finance quantitative, prévision économique...) où la modélisation de phénomènes aléatoires à partir de bases de données est indispensable.

L’objectif de ce programme est de permettre de manière équilibrée

L’objectif de la formation dans les classes préparatoires B/L n’est pas de former des professionnels des mathématiques. L’enseignement des mathématiques concourt à structurer la pensée des étudiants, de développer les capacités d’imagination et d’abstraction, et de les former à la rigueur et à la logique en insistant sur les divers types de raisonnement (par équivalence, implication, l’absurde, analyse-synthèse...). Il permet aux étudiants d’utiliser des outils mathématiques ou d’en comprendre l’usage dans diverses situations de leur parcours académique et professionnel. L’état de l’art en sciences sociales et économie a été un guide important pour donner aux étudiants de B/L les bases dont ils auront besoin pour aller plus loin.

Le programme définit les objectifs de l’enseignement de ces classes et décrit les connaissances et les capacités exigibles des étudiants. Il précise également certains points de terminologie et certaines notations. Les limites du programme sont clairement précisées. Elles doivent être respectées aussi bien dans le cadre de l’enseignement en classe que dans l’évaluation.

Compétences développées

L’enseignement de mathématiques en classes préparatoires B/L permet de développer chez les étudiants les compétences générales suivantes :

Architecture des programmes

Par rapport au programme précédent, le programme d’algèbre linéaire donne une place plus importante aux aspects matriciels et introduit des bases de géométrie euclidienne qui pourront être illustrées par d’autres parties du programme. Il est important de mettre en valeur l’interaction entre les différentes parties du programme. À titre d’exemple, l’algèbre linéaire trouvera ainsi son application dans les problèmes d’optimisation, l’analyse et les probabilités dans les problèmes d’estimation.

Le programme a été rédigé sur deux années. Au sein de chaque année, aucun ordre particulier n’est imposé et chaque professeur conduit en toute liberté l’organisation de son enseignement. Le programme tient compte de l’évolution des programmes de Terminale tout en maintenant une exigence intellectuelle élevée adaptée au niveau des étudiants de la filière B/L et la place que des techniques quantitatives en sciences humaines et sociales.

Le programme se présente de la manière suivante : dans la colonne de gauche figurent les contenus exigibles des étudiants ; la colonne de droite comporte des précisions sur ces contenus ou des exemples d’activités ou d’applications.

Généralités

Concernant cette partie, le vocabulaire doit être connu et un savoir-faire est attendu. Aucune difficulté théorique ne sera soulevée. Certaines des notions peuvent être introduites en situation sans faire l’objet de chapitres spécifiques.

Logique

Connecteurs : et, ou, non, implication, réciproque, contraposée. Négation d’une phrase mathématique utilisant connecteurs et quantificateurs.
Quantificateurs ∃, ∀.
Raisonnement par l’absurde. Introduit sur des exemples.
Notion de condition nécessaire et de condition suffisante.

Vocabulaire ensembliste

Appartenance, inclusion, notations ∈, ⊂.
Ensemble 𝒫(E) des parties de E.
Complémentaire, notation ¯(A).
Union, intersection, notations ∪, ∩.
Lien entre les opérations ensemblistes et les connecteurs logiques.
Distributivité, lois de De Morgan.
Définition du produit cartésien d’ensembles. Exemples : R2, Rn
Applications, composition, restriction.
Applications injectives, surjectives, bijectives.
Introduire ces notions en situation. Le vocabulaire doit être connu.

Les nombres entiers

Notations N et Z.
Raisonnement par récurrence. Il sera introduit sur des exemples.
Notations ∑, ∏. Définition de n!
Formules k=1n k = (n(n + 1))/(2) ; k=0n xk = (xn+1 − 1)/(x − 1). Savoir les retrouver.

La droite réelle

Propriétés élémentaires des opérations de (R, +, ×).
Manipulation d’inégalités.
Intervalles.
Valeur absolue, inégalité triangulaire.
La construction de R n’est pas au programme.
Majorant, minorant, maximum, minimum, borne supérieure, borne inférieure. L’existence d’une borne supérieure (inférieure) pour toute partie non vide majorée (minorée) de R est admise.

Le plan complexe

Partie réelle, partie imaginaire, conjugué d’un nombre complexe. On donnera l’interprétation géométrique de ces notions.
Opérations, propriétés élémentaires de (C, +, ×), calcul du quotient en coordonnées cartésiennes.
Module, argument, notation exponentielle, calcul du produit et du quotient en coordonnées polaires. Lien avec la notion informelle de coordonnées polaires.
Formules d’Euler et de De Moivre. Lien avec les formules trigonométriques.
Résolution des équations du second degré à coefficients réels. Les formules de résolution sont exigibles, ainsi que leur démonstration.

Première Année

Suites et séries de nombres réels

Limite (finie ou infinie) d’une suite.
Unicité de la limite.
On donnera la définition sans en faire un usage systématique.
Toute suite convergente est bornée.
Opérations algébriques sur les suites convergentes.
Passage à la limite dans des inégalités.
Étude de convergence par encadrement.
Comparaison entre les suites de terme général n!, an, nb, (ln n)c.
Suites monotones, limites des suites monotones. Toute suite croissante admet une limite qui est, si elle est majorée, le suprémum de ses termes (démonstration non exigible).
Suites définies par récurrence, suites géométriques, suites arithmétiques, suites arithmético-géométriques. Aucun théorie générale n’est exigible sur les suites définies par récurrence.
Série à termes positifs.
Somme (finie ou infinie).
On pourra montrer l’existence d’une valeur limite (finie ou infinie) par la croissance des sommes partielles.
Paradoxe de Zénon.
kl ak,l = ∑lk ak,l Résultat admis (les termes sont positifs).
Séries géométriques.
Convergence des séries de Riemann na Résultat admis, la démonstration par comparaison avec l’intégrale pourra être traitée en exercice le moment venu.
Sommation d’inégalités. Si 0 ≤ unvn pour tout n, n un ≤ ∑n vn.
En particulier, si n vn est finie, alors n un aussi.
ex = k=0 (xk)/(k!) ; pour |x| < 1, (1)/(1 − x) = k=0 xk . Admis.
À part ces exemples, on ne fera aucune théorie sur les séries à termes non positifs.

Algèbre linéaire

L’accent sera mis dans la présentation de l’algèbre linéaire sur les sous-espaces de Rn, avec de nombreux exemples en dimension 2 ou 3 visant à développer l’intuition géométrique. Représenter un sous-espace vectoriel comme noyau d’une matrice revient à donner un système d’équations. Représenter un sous-espace vectoriel comme image d’une matrice revient à en donner une description paramétrique. On montrera notamment comment passer d’un point de vue à l’autre.

L’espace Rn

Définition de l’espace Rn des n-uplets de réels, interprétation géométrique comme vecteurs.
Les opérations + : Rn × RnRn et · : R × RnRn.
Les propriétés : commutativité x + y = y + x ;
associativités (x + y) + z = x + (y + z) ; (ab) · x = a · (b · x) ;
opposé x + (−1) · x = 0 ;
distributivité (a + b) · (x + y) = a·x + a·y + b·x + b·y.
On définira les opérations par leur expression algébrique en en donnant l’interprétation géométrique.
Les propriétés pourront être démontrées à partir de la définition des opérations.
Notion de combinaison linéaire, définition d’un sous-espace vectoriel de Rn.
Classification des sous-espaces vectoriels de R2. Si le sous-espace n’est pas {0}, il contient un vecteur non nul e. Si tous les éléments du sous-espace sont proportionnels à e, c’est une droite vectorielle, sinon, c’est R2.
Représentation d’une droite vectorielle ou affine par équation et par paramétrisation.

Matrices et systèmes linéaires

Matrices à coefficients réels, l’application associée de Rm dans Rn.
Définition d’une application linéaire de Rm dans Rn.
L’application associée à une matrice est linéaire.
(xi) ↦ (∑j Ai,j xj)
Toute application linéaire est associée à une matrice.
Somme de matrices, produit par un réel, propriétés. Les opérations sur Mn,m(R) vérifient les mêmes propriétés que celles de Rmn.
Produit de matrices et composition.
Systèmes linéaires, écriture sous la forme A(x) = y.
Noyau d’une application linéaire, l’application est injective si et seulement si son noyau est réduit à {0}.
Algorithme de Gauss pour réduire un système linéaire (une matrice) à une forme échelonnée par opérations sur les lignes. On donnera des exemples de résolution de systèmes linéaires (homogènes ou non) en utilisant l’algorithme de Gauss. Des exemples où il existe une solution unique, où il n’existe pas de solution, et où il existe plusieurs solutions seront traités. Dans ce dernier cas, on donnera une représentation paramétrique de l’ensemble des solutions.
Le système A(x) = 0 a des solutions non triviales si A a strictement moins de lignes que de colonnes. Ce résultat sera utilisé en théorie de la dimension.
Détermination d’un système d’équations pour l’image d’une matrice (écriture de l’image d’une matrice comme noyau d’une autre matrice).
Matrice transposée, produit des transposées. (AB)T = BT AT.

Matrices carrées inversibles

Dans cette section les matrices sont carrées (et réelles).

Matrice diagonale, triangulaire. Résolution des systèmes linéaires associés.
Trace, trace d’un produit.
Matrice inversible, équivalence entre :
  • le système A(x) = y a une unique solution pour tout y ;
  • il existe une matrice carrée B telle que AB = I = BA.
La matrice B est alors unique, c’est l’inverse de A, notée A−1.
La solution du système A(x) = y est x = A−1(y).
Calcul de l’inverse par pivot de Gauss.
Inverse d’un produit.
Les opérations sur les lignes correspondent à des multiplications à gauche par des matrices inversibles, matrices des opérations élémentaires.
Déterminant des matrices 2 × 2. Une matrice 2 × 2 est inversible si et seulement si son déterminant est non nul.
La théorie générale des déterminants est hors programme.

Sous-espaces vectoriels de Rn

Le noyau et l’image d’une matrice sont des sous-espaces vectoriels. Le noyau est l’ensemble des solutions du système A(x) = 0, l’image est l’ensemble des seconds membres y tels que le système A(x) = y a une solution. L’image est aussi le sous-espace vectoriel engendré par les colonnes.
Sous-espace vectoriel engendré par une famille de vecteurs, famille génératrice.
Famille libre de vecteurs de Rn, base d’un sous-espace vectoriel, coordonnées dans une base.
Base canonique de Rn.
Dans un sous-espace vectoriel de Rn, une famille libre a un nombre d’éléments inférieur ou égal à celui d’une famille génératrice. Toutes les bases ont le même nombre d’éléments.
Toute famille libre de Rn a au plus n éléments.
Pour la démonstration, on pourra utiliser qu’un système linéaire homogène ayant moins d’équations que d’inconnues a des solutions non triviales.
Existence d’une base pour tout sous-espace vectoriel de Rn, théorème de la base incomplète. Trouver une base du noyau d’une matrice est une compétence exigible.
Dimension d’un sous-espace vectoriel de Rn. Si EFRn sont des sous-espaces vectoriels, alors la dimension de E est inférieure à celle de F.
Dans un sous-espace vectoriel de dimension d, une famille libre à d éléments est une base, une famille génératrice à d éléments est une base.

Applications linéaires entre sous-espaces vectoriels de Rn

Noyau et image d’une application linéaire, rang.
Représentation par une matrice dans des bases.
Changement de bases, formule A′ = Q−1AP.
Toute application linéaire de rang r peut être représentée dans des bases appropriées par la matrice [[Ir ;0][0 ;0]] Cet énoncé pourra être démontré en utilisant le théorème de la base incomplète ou en utilisant les opérations élémentaires, il conduit au théorème du rang.
Théorème du rang.
Isomorphismes.
Une application linéaire entre sous-espaces vectoriels de même dimension est un isomorphisme si elle est injective, si elle est surjective.
Deux sous-espaces vectoriels isomorphes ont même dimension. En particulier Rn et Rm ne sont pas isomorphes pour nm.

Rang d’une matrice

Le rang en lignes est égal au rang en colonnes. On pourra se ramener à la matrice équivalente de la forme [[Ir ;0][0 ;0]]
Le rang est le nombre de lignes non nulles dans les formes échelonnées.
Toute matrice carrée inversible à droite (à gauche) est inversible.

Espaces vectoriels

Un espace vectoriel de dimension n est un ensemble E muni d’une opération interne +, d’une opération externe ·, et d’une bijection f de E dans Rn qui préserve les combinaisons linéaires. On ne considérera donc que des espaces vectoriels de dimension finie. Cette définition a pour but de permettre de discuter d’espaces autres que Rn, mais aucune difficulté abstraite ne sera soulevée.
Applications linéaires entre espaces vectoriels, endomorphismes, isomorphismes.
Exemples : Rn , Rn[x], Mn,m(R), L(E, F). La notion d’indéterminée ne sera pas introduite.
Sous-espaces vectoriels et restrictions d’applications linéaires.
Bases d’espaces vectoriels, la dimension est aussi le cardinal des bases. La bijection structurelle f permet de se ramener à la théorie de Rn.

Fonctions d’une variable réelle

Un des objectifs principaux est de savoir étudier une fonction, tracer et interpréter son graphe.

Domaine de définition, table de variations, graphe d’une fonction. On notera indifféremment une fonction de la variable x, quand le contexte est sans ambiguïté, par xf(x) ou simplement f(x).
Graphe des fonctions x2, x3, (x), 3(x), ln x, ex, sin x, cos x, tan x, |x|. Ces graphes serviront d’illustrations aux concepts introduits dans cette section.
Fonctions périodiques, paires, impaires, majorées, minorées, bornées.
Fonctions monotones, strictement monotones.

Limites et continuité

Limite (finie ou infinie) d’une fonction en un point, limite à gauche, limite à droite, limites en ±∞. Les définitions seront interprétées graphiquement et illustrées par des exemples.
On remarquera, sans s’y attarder formellement, que la notion de limite en un point s’étend au cas d’une fonction non définie en ce point.
Opérations algébriques sur les limites.
Limites et composition (de deux fonctions ou d’une fonction et d’une suite).
Unicité de la limite, passage à la limite dans des inégalités.
Étude de convergence par encadrement.
lim0 xa|ln x|b, lim xa|ln x|b, lim±∞ |x|a ex La démonstration de l’existence et de la valeur de ces limites n’est pas exigible.
Continuité, opérations sur les fonctions continues.
Les fonctions classiques sont continues sur leur domaine de définition : ln, exp, sin, cos, xa, |x|. La continuité est vraie par définition pour exp, elle est admise pour sin, cos. Elle sera démontrée pour ln en tant que fonction réciproque de exp.
Exemples de prolongement par continuité.
L’image d’un intervalle fermé borné par une fonction continue est un intervalle fermé borné. Résultat admis.
Théorème des valeurs intermédiaires.
Toute fonction continue sur un intervalle fermé borné atteint son maximum et son minimum.
Toute fonction continue et strictement monotone sur un intervalle admet une fonction réciproque sur l’intervalle image, qui est continue et strictement monotone. La fonction arctan sera introduite comme exemple.
Graphe de la fonction réciproque par symétrie.

Dérivées

Dérivée, dérivée à gauche, dérivée à droite, interprétation graphique. La dérivabilité implique la continuité.
Équation de la droite tangente au graphe en un point.
Fonction dérivée. Cas des fonctions classiques : ln, exp, sin, cos, xa.
Méthodes de calcul (linéarité, produit, quotient, composition).
Dérivée de la fonction réciproque. Application au calcul de la dérivée de arctan.
Développement limité d’ordre 1.
Dérivée et extremums. Une fonction dérivable sur [a, b] atteint son minimum en un point x0. Si x0 ∈ ]a, b[ alors f′(x0) = 0, si x0 = a alors f′(a+) ≥ 0, si x0 = b alors f′(b) ≤ 0. Démonstration à partir du développement limité. Exemples.
On fera remarquer que tout point critique (c’est-à-dire un point où la dérivée s’annule) n’est pas forcément un extremum.
Théorème de Rolle, égalité des accroissements finis. Démonstration ce qui précède.
Inégalité des accroissements finis. On donnera les versions de l’inégalité pour mf′(x) ≤ M et pour |f′(x)|k.
Exemples d’application à la convergence de suites récurrentes.
Utilisation de la dérivée pour l’étude des variations. Une fonction est constante sur un intervalle si et seulement si sa dérivée est identiquement nulle.
Une fonction est croissante sur un intervalle si et seulement si sa dérivée est positive ou nulle.
Une fonction dont la dérivée est strictement positive est strictement croissante. On donnera la démonstration. On remarquera, sans formalisation, que le résultat reste vrai si la dérivée s’annule en un nombre fini de points.
Dérivées d’ordre supérieur, fonctions 𝒞k. On insistera plus sur les conclusions et l’utilisation des résultats que sur leurs hypothèses de régularité.

Exemple d’étude de fonction : régression linéaire

On considère des données se présentant comme des couples de variables (xi, yi), 1 ≤ in, où xi est vue comme une variable explicative de yi. En notant ¯(x) et ¯(y) les moyennes, on cherche un coefficient a tel que ¯(y) + a (x¯(x)) soit une bonne approximation de y. On peut pour ceci minimiser la somme des écarts quadratiques i (yi¯(y)a (xi¯(x)))2. C’est le britannique Francis Galton qui a introduit la méthode au 19e siècle pour étudier la taille des enfants yi en fonction de la taille des parents xi obtenant un coefficient a ≈ 2/3. Le fait que a > 0 signifie que les enfants sont (en moyenne) plus grands que la moyenne lorsque les parents le sont. Le fait que a < 1 signifie un retour vers la moyenne, regression towards the mean en anglais, d’où le nom de la méthode. Les explications génétiques que Galton donna de ce phénomène sont aujourd’hui considérées comme incorrectes.
En étudiant la fonction de a ci-dessus, on montre que la valeur optimale de a est a = (i ((xi¯(x))(yi¯(y))))/(i (xi¯(x))2). On pourra interpréter cette valeur comme a = (Cov(x, y))/(Var(x)), en lien avec le cours de probabilités.

Intégration

Définition informelle de l’intégrale ab f comme aire algébrique. On ne soulèvera pas de difficulté sur la régularité de f, on limitera la discussion aux fonctions continues.
Propriétés de l’intégrale : linéarité, relation de Chasles, monotonie. Les propriétés ne seront pas démontrées, mais interprétées en termes géométriques.
Inégalité de la moyenne.
La fonction x f est une primitive de f.
Les primitives de f diffèrent d’une constante additive.
Démonstration à partir des propriétés de l’intégrale.
Relation ab f = F(b) − F(a). Vraie pour toute primitive F de f.
Primitives de fonctions usuelles : ex, xa, ln x, sin x, cos x.
Calcul d’intégrales : intégration par parties, changements de variables. Il n’est pas attendu des candidats qu’ils sachent trouver eux-même les bons changements de variable, sauf dans quelques cas simples comme les changements affines.

Probabilités

L’esprit du programme de probabilités est de familiariser les étudiants au concept de variables aléatoires et de leur indépendance, dont la partie statistique, en deuxième année, peut être vue comme un aboutissement. Les variables aléatoires finies ou discrètes sont plus à envisager comme un contexte dans lequel certaines des propriétés importantes peuvent être démontrées de manière simple que comme une source d’exercices de dénombrement.

Évènements aléatoires

Univers Ω, ensemble des événements. est un ensemble de parties de Ω. On ne soulèvera pas de difficulté sur l’ensemble .
Évènement A et B, évènement A ou B, évènement contraire, évènements incompatibles, famille complète d’évènements. Lien avec les opérations ensemblistes. On mentionnera que la réunion d’une suite d’évènements est un évènement.
Probabilité P : → [0, 1], axiomes : P(Ω) = 1, P(∅) = 0 ;
P(A) ≤ P(B) si AB ;
P(AB) = P(A) + P(B) si AB = ∅ ;
P(⋃iAi) = ∑i P(Ai) si Ai est une suite d’évènements deux à deux disjoints.
Probabilité conditionnelle sachant un événement B de probabilité non nulle : P(A | B) = PB(A) = (P(AB))/(P(B)). On remarque que PB : ℰ → [0, 1] est une probabilité.
Formule de probabilités composées : P(A1A2 ∩ ··· ∩ An) = P(A1) P(A2 | A1) P(An | A1 ∩ ··· ∩ An−1).
Formule des probabilités totales : P(A) = ∑i P(A | Bi) P(Bi). (Bi) est une famille complète finie d’événements de probabilité strictement positive.
Formules de Bayes : P(A | B) = (P(B | A) P(A))/(P(B))
P(Ak | B) = (P(B | A) P(Ak))/(i P(B | Ai) P(Ai)).
On donnera des applications concrètes de ces formules.
(Ai) est un système complet d’événements, tous les événements sont de probabilité non nulle. On donnera des applications concrètes.

Variables aléatoires discrètes

On considère ici une variable aléatoire à valeurs dans un ensemble 𝒳 ⊂ R de la forme 𝒳 = {xi, iI}I est soit N, soit Z, soit un ensemble fini.

Une variable aléatoire sur 𝒳 est une fonction X : Ω → 𝒳 telle que X−1(x) = {X = x} est un événement pour tout xX.
La loi de la variable aléatoire est la fonction xp(x) := P(X = x).
({X = x}, x∈𝒳) est une famille complète d’évènements.
x∈𝒳 p(x) = 1.
Pour toute partie 𝒳′ ⊂ 𝒳, P(X𝒳′) = x𝒳′ p(x).
Fonction de répartition, quantiles. FX(x) = P(Xx).
Variable de Bernoulli, loi de Bernoulli. L’indicatrice de l’événement A suit une loi de Bernoulli de paramètre P(A).
Loi uniforme sur un ensemble fini.

Moments des variables aléatoires discrètes réelles positives

Les variables aléatoires sont positives dans cette partie.

Espérance des variables aléatoires positives. On évoquera l’espérance des variables aléatoires finies de signe quelconque.
Moment d’ordre k (k-moment) E(Xk) ∈ [0, ∞]. Formule de transfert.
Une variable prenant un nombre fini de valeurs a des moments finis.
Inégalité E(X)2E(X2). Admise, mais on pourra par la suite faire le lien avec Cauchy-Schwartz. Une variable de second moment fini est donc de premier moment fini.
Propriétés de l’espérance : linéarité, monotonie. La linéarité est admise.
Variance des variables de premier moment fini : V(X) = E((XE(X))2), V(X) = E(X2) − E(X)2), V(aX + b) = a2 V(X). Définition de l’écart type σ(X) = (V(X)).
Puisque V(|X|) ≥ 0 on retrouve l’inégalité E(|X|)2E(X2) dans le cas des variables de moment d’ordre 2 fini.
Si V(X) = 0, la variable X est constante en dehors d’un évènement de probabilité nulle.
Si X est une variable de Bernoulli de paramètre p, E(X) = p, V(X) = p (1 − p).
Inégalité de Markov : P(Xa) ≤ (E(X))/(a) si X est une variable aléatoire à valeurs positives et a > 0.
Inégalité de Bienaymé-Tchebychev : P(|XE(X)|a) ≤ (V(X))/(a2) si X est une variable aléatoire de second moment fini et a > 0.
Covariance de deux variables aléatoires finies :
Cov(X, Y) = E((XE(X))(YE(Y))), Cov(X, Y) = E(XY) − E(X)E(Y).
Coefficient de corrélation de variables aléatoires finies :
Cor(X, Y) = (Cov(X, Y))/((V(X) V(Y))).
Invariance d’échelle :
Cor(X, Y) = Cor(aX + b, cY + d) pour a > 0, c > 0.

Indépendance

Indépendance de deux événements : P(AB) = P(A) P(B). Les événements A et B (avec P(B) ≠ 0) sont indépendants si et seulement si P(A | B) = P(A).
Indépendance de variables aléatoires discrètes. Les variables X1, X2, … Xn, à valeurs dans 𝒳1, … 𝒳n sont dites indépendantes si, pour toutes parties A1𝒳1, … An𝒳n, P((X1A1) ∩ ⋯ ∩ (XnAn))
= P(X1A1) ⋯ P(XnAn)
.
Deux variables de Bernoulli B1 et B2 sont indépendantes si et seulement si les événements {B1 = 1} et {B2 = 1} sont indépendants.
Les variables discrètes X1, … Xn sont indépendantes si et seulement si P((X1 = x1, … Xn = xn)
= P(X1 = x1) … P(Xn = xn)
pour tout x1𝒳1, … , xn𝒳n.
La covariance de deux variables indépendantes est nulle. Cette condition n’est pas suffisante.
Si X1, X2, … Xk, Y1, … Yl sont des variables indépendantes, alors f(X1, X2, … Xk), Y1, Y2, … Yl sont indépendantes pour toute fonction f. On ne soulèvera aucune difficulté sur la notion de fonctions de plusieurs variables.
Si les variables X1, … Xn sont indépendantes et de second moment fini, alors E(X1Xn) = E(X1) ⋯ E(Xn)
et V(X1 + ⋯ + Xn) = V(X1) + ⋯ + V(Xn)
Démonstration dans le cas fini.

Processus de Bernoulli

On considère dans cette section une suite Xi, iN de variables indépendantes suivant une loi de Bernoulli de paramètre p. L’indépendance signifie ici que, pour tout n, les variables Xi, 1 ≤ in sont indépendantes.

Soit T l’indice du premier 1. T est une variable aléatoire à valeurs dans N = {1, 2, …}. Sa loi est la loi géométrique : P(T = n) = p (1 − p)n−1, P(Tn) = (1 − p)n. Notation 𝒢(p) de la loi géométrique de paramètre p.
Les lois géométriques satisfont la propriété P(T > j + k | T > j) = P(T > k). On pourra remarquer que cette propriété caractérise les lois géométriques, la démonstration n’en est pas exigible.
Moments : E(T) = 1 / p, V(T) = (1 − p) / p2. On présentera le calcul de l’espérance en admettant la dérivation sous le signe somme.
On pose Sn = X1 + ⋯ + Xn. La loi de Sn est la loi binomiale de paramètres n et p : P(Sn = k) = (k parmi n) pk (1 − p)nk. On introduira à cette occasion les coefficients binomiaux (k parmi n) de manière combinatoire et la notation ℬ(n, p) pour la loi binomiale de paramètres n et p.
Relations : (k parmi n) = (n!)/(k! (nk)!), (k parmi n) = (k−1 parmi n−1) + (k parmi n−1), (k parmi n) = (nk parmi n), k(k parmi n) = n(k−1 parmi n−1). Triangle de Pascal.
Relation (a + b)n = k=0n (k parmi n) ak bnk. Lien avec la loi binomiale de paramètre p = a/(a + b) lorsque a et b sont positifs.
Moments : E(Sn) = np V(Sn) = n V(X1) = np (1 − p).
La somme de deux variables binomiales indépendantes de paramètres (k, p) et (l, p) est une variable binomiale de paramètres (k + l, p). On justifiera ce résultat en interprétant cette somme comme une somme de (k + l) variables de Bernoulli indépendantes.
Loi de Poisson de paramètre λ : P(X = k) = eλ (λk)/(k!). Notation 𝒫(λ).
Moments d’une variable X suivant une loi de Poisson : E(X) = λ V(X) = λ. On présentera le calcul de l’espérance en admettant la dérivation sous le signe somme.
On démontrera la convergence quand n → ∞ de la suite de lois binomiales de paramètre pn vers la loi de Poisson de paramètre λ si n pnλ, k,
(k parmi n) pnk (1 − pn)nk (λk)/(k!) eλ.
Il s’agit ici d’une convergence pour chaque k. On ne discutera pas de concepts de convergences en loi en général.
Interprétation, paradigme de Poisson :
La somme Sn d’un grand nombre de variables de Bernoulli indépendantes de petit paramètre suit approximativement la loi de Poisson de paramètre E(Sn).
On illustrera ce paradigme par des exemples concrets.
Exemple : Dans un texte, le nombre de coquilles par page peut être modélisé par une loi de Poisson. Si, dans une collection de qualité et de pagination homogènes, le nombre moyen de coquilles par pages a été estimé à 1/2, la probabilité qu’une page donnée ne contienne pas de coquille est de 60% environ.

Deuxième Année

Algèbre et géométrie

Comme en première année les scalaires sont réels, et le contexte est celui de Rn (ou, éventuellement, d’espaces isomorphes à Rn comme Rk[x] et Mk,l(R)) et de ses sous-espaces.

Somme directe, supplémentaire

Somme de sous-espaces vectoriels. E + F = {x + y, xE, yF}
Somme directe de deux sous-espaces vectoriels, caractérisation par l’intersection. La réunion d’une base de E et d’une base de F est une base de EF.
Supplémentaire d’un sous-espace vectoriel dans un autre, dimension des supplémentaires. Si F est un sous-espace vectoriel, et E un sous-espace vectoriel de F , alors E admet un supplémentaire dans F.
Projection sur E parallèllement à F. F = ker P, E = ker(PI)
Tout endomorphisme P vérifiant P2 = P est une projection.
Symétrie par rapport à E le long de F. F = ker(S + I), E = ker(PI)
Tout endomorphisme S vérifiant S2 = I est une symétrie. Cette définition inclut le cas S = I.

Valeurs propres des endomorphismes

Représentation d’un endomorphisme dans une base par une matrice carrée, changement de base, formule A′ = P−1AP.
Valeurs propres, vecteurs propres.
Des vecteurs propres dont les valeurs propres associées sont distinctes forment une famille libre.
Endomorphisme diagonalisable. Matrice diagonalisable. Une matrice A est diagonalisable s’il existe une matrice inversible P telle que P−1AP soit diagonale. Un endomorphisme est diagonalisable s’il existe une base dans laquelle il est représentée par une matrice diagonale.
Une application linéaire d’un sous-espace vectoriel E dans lui-même est diagonalisable si et seulement s’il existe une base de E constituée de vecteurs propres de cette application linéaire.
Si une matrice carrée n × n admet n valeurs propres distinctes, alors elle est diagonalisable.
Diagonalisation pratique des matrices 2 × 2.

Produit scalaire

Seul le produit scalaire usuel de Rn sera étudié, aucun développement sur les espaces euclidiens plus généraux n’est au programme.

Définition du produit scalaire x, y〉 = ∑ xiyi et de la norme x‖ = (x, x). La convergence de la suite (‖x(m)‖) vers 0 est équivalente à celle de chacune des suites de coordonnées (xi(m)).
Bilinéarité et symétrie du produit scalaire
La formule Ax, y〉 = 〈x, ATy
Orthogonalité entre deux vecteurs. Théorème de Pythagore : x + y2 = ‖x2 + ‖y2 si et seulement si x et y sont orthogonaux.
Familles orthogonales, orthonormées, base orthonormée.
Toute famille orthogonale de vecteurs non nuls est libre.
Toute famille orthonormée se complète en une base orthonormée.
Coordonnées dans une base orthonormée x = ∑iei, xei, x2 = ∑iei, x2
Inégalité de Cauchy-Schwarz : x, y〉 ≤ ‖x‖ ‖y. Démonstration possible : Dans une base orthonormée telle que xe1 = x, on a : y2 = iei, y2 ≥ 〈e1, y2
Inégalité triangulaire x + y‖ ≤ ‖x‖ + ‖y.
Distance xy.
Boule, sphère de centre et de rayon donnés.
Orthogonal d’une partie, d’un sous-espace vectoriel.
L’orthogonal d’un sous-espace vectoriel en est un supplémentaire.
Pour tout sous-espace vectoriel E, E = E. Une base de l’orthogonal donne un système d’équations du sous-espace.
Hyperplans. L’orthogonal d’un vecteur non-nul est un hyperplan.
Deux vecteurs orthogonaux à un même hyperplan sont colinéaires.
Projection orthogonale PE sur un sous-espace E muni d’une base orthonormée (ei) (c’est la projection sur E parallèlement à E). PE(x) = ∑iei, xei
Le projeté PE(x) de x sur E est le point de E le plus proche de x. La distance au sous-espace E est xPE(x)‖.

Étude locale des fonctions d’une variable réelle

Fonctions polynomiales

Étude de polynômes, limites en ±∞.
Racines (réelles), tout polynôme de degré impair admet une racine.
Les polynômes sont à coefficients réels et sont vus comme des fonctions d’une variable réelle.
Factorisation d’un polynôme par (xx0) si x0 est une racine. L’existence d’une factorisation est admise, mais savoir factoriser en pratique est exigible.
Multiplicité d’une racine : La racine x0 est de multiplicité k si f(x) = (xx0)k g(x) avec g(x0) ≠ 0.
Un polynôme change de signe en une racine si et seulement si sa multiplicité est impaire.
Si x0 est une racine de f de multiplicité k ≥ 2, alors c’est une racine de f de multiplicité k − 1.
Un polynôme f admet un extremum local en x0 si et seulement si x0 est une racine de f de multiplicité impaire. Les étudiants doivent connaitre le cas f′(x0) = 0 et f″(x0) ≠ 0.

Développements limités

On se limitera autant que possible à l’ordre 2 ou 3 et on ne cherchera aucune technicité.

Développements limités, formule de Taylor Young (admise).
Unicité du développement limité.
Quelques exemples simples de calcul de limite à l’aide de développements limités.
Développement limité à tous ordres de ex et (1 − x)−1 à tout ordre. Premiers termes de (1 + x)a et ln(1 + x).
Allure locale du graphe d’une fonction admettant un développement limité du type f(x) = a0 + a1x + akxk + xk ε(x)k ≥ 2 et ak ≠ 0. La forme du graphe en un point dépend principalement du premier terme non linéaire du développement limité. Exemples avec k = 2 ou k = 3.
Lien avec les extrema locaux et les points d’inflexion. En un minimum local à l’intérieur du domaine de définition, le coefficient a2 d’ordre 2 du développement limité vérifie a2 ≥ 0.
Un point où a1 = 0 et a2 > 0 est un minimum local.
Détermination de l’asymptote oblique d’une fonction en l’infini. Position par rapport à l’asymptote.
Étude de la fonction ex2 La forme du graphe doit être connue.

Intégrales généralisées

Notions d’intégrales indéfinies pour des fonctions positives, du type ab f ∈ [0, +∞]a ou b peuvent être infinis et où f est continue sur ]a, b[. On donnera la définition comme limite tout en évoquant une notion informelle directe comme une aire (finie ou infinie).
Les deux terminologies pourront être employées : intégrale convergente (divergente) ; intégrale finie (infinie).
Extension des propriétés de linéarité, de monotonie, et de relation de Chasles à ce cadre. Admises.
0 et dt = 1.
−∞ et2/2 dt = (). Valeur admise, on pourra toutefois démontrer la convergence par comparaison.
Conditions de convergence de 0 ta dt et ta dt.

Fonctions de deux variables réelles

Le niveau de formalisme de cette partie sera minimal. On ne cherchera pas à préciser les hypothèses générales des résultats. Aucune notion précise sur la classe de régularité d’une fonction de deux variables n’est exigible. Les fonctions seront le plus souvent définies sur le plan R2 tout entier. Dans le cas contraire, on ne soulèvera aucune difficulté liée au bord de l’ensemble de définition.

Notation f(x) = f(x1, x2)

Exemples

Graphe, lignes de niveau. Étude d’exemples, notamment les suivants (allure du graphe et des lignes de niveau) :
Fonctions coordonnées (x1, x2) ↦ x1 et (x1, x2) ↦ x2
Fonctions linéaires ax1 + bx2.
Le vecteur (a, b) est orthogonal aux droites de niveau.

Dérivées partielles

Dérivées partielles. Notations 1f, 2f.
Définition d’un extremum local, condition nécessaire : 1f = 0 = ∂2f
Point critique, tout minimum local est un point critique.
Le point x0 est un minimum local s’il existe δ > 0 tel que f(x) ≥ f(x0) dans le disque B(x0, δ). On ne discutera pas d’extremum atteint au bord du domaine de définition.
Démonstration des conditions d’optimalité en considérant les fonctions tf(t, x2) et tf(x1, t).

Fonctions quadratiques

f(x1, x2) = ax12 + 2bx1x2 + cx22.
La fonction quadratique a un extremum local (strict) en 0 si et seulement si le discriminant = b2ac est (strictement) négatif.
Détermination (dans les cas < 0) du type d’extremum en fonction du signe de a et c.

Retour sur la régression linéaire

Il n’est pas demandé aux étudiants de connaître les résultats de cet exemple, mais de savoir les retrouver.

Dans la présentation classique de la régression linéaire, on cherche deux coefficients a et b tels que b + ax soit une aussi bonne approximation que possible de y. On minimise pour ceci la fonction f(a, b) = i (yibaxi)2
et on retrouve a = Cov(x, y) / Var(x), b = ¯(y)a¯(x).
On trouve le point critique en calculant les dérivées partielles. On remarque que c’est la même approximation que dans la première approche. On pourra justifier que c’est un minimum par l’interprétation géométrique suivante. Dans l’espace Rn (n est le nombre de données), on considère les points e = (1, …, 1), x = (x1, …, xn) et y = (y1, …, yn). La fonction f(a, b) s’interprète comme le carré de la distance entre les points y et ax + be. Les valeurs optimales de a et b correspondent donc à l’unique point ax + be du sous-espace E = Vect(e, x) tel que y − (ax + be)est orthogonal à E. En écrivant le système y − (ax + be), x〉 = 0, y − (ax + be), e〉 = 0, on retrouve bien a = (e, e〉〈x, y〉 − 〈x, e〉〈y, e)/(e, e〉〈x, x〉 − 〈x, e2), b = (y, e〉 − ax, e)/(e, e)

Étude des points critiques

Dérivées partielles d’ordre 2 Notations 21,1f, 21,2f, 22,1f, 22,2f
Égalité 21,2f(x) = 22,1f(x) Admis.
Soit x un point critique de f. Si le discriminant de la fonction quadratique q(y1,y2) = 21,1f(x)y12 + 221,2f(x)y1y2 + 22,2f(x)y22 est strictement négatif, alors la fonction f a un extremum local en x, qui est de même nature que celui de la fonction q en 0. Admis.

Probabilités

Variables aléatoires à densité

Soit ρ une fonction positive de R dans R. La fonction XR est une variable aléatoire de densité ρ si, pour tout intervalle ]a, b[ de R, l’ensemble {X ∈ ]a, b[} est un événement et P(X ∈ ]a, b[) = ab ρ(x) dx. On se limitera au cas de densités ρ continues (sauf éventuellement en un nombre fini de points).
On remarquera que −∞ ρ(x) dx = P(Ω) = 1.
Si X est une variable aléatoire à densité, alors P(X = x) = 0 pour tout xR. Un événement de probabilité nulle n’est pas forcément impossible.
Fonction de répartition FX(x) = P(X = x) = −∞x ρ.
Inverse (réciproque) de la fonction de répartition et quantiles.
La fonction de répartition caractérise la densité (si la densité est continue).
Exemples de calculs de fonctions de répartition et de densités de variables images fX avec f monotone.
Loi uniforme sur un intervalle borné.
Moments : R|x|k ρ(x) dx = 0 xk (ρ(x) + ρ(−x)) dx.
Espérance des variables à densité de premier moment fini : E(X) = 0 xρ(x) dx + 0 xρ(−x) dx. Cette expression de l’espérance permet de ne manipuler que des intégrales de fonctions positives.
Propriétés de l’espérance : linéarité, monotonie. Admises.
Variance V(X) = E((XE(X)2)), V(X) = E(X2) − E(X)2, V(aX + b) = a2 V(X). Définition de l’écart type σ(X) = (V(X)).
La variable X := (XE(X))/(σ(X)) est centrée réduite. Elle a pour densité ρ(x) = σ(X)ρ(E(X) + σ(X)x).
Inégalité de Markov : P(Xa) ≤ (E(X))/(a) si X est une variable aléatoire à valeurs positives et a > 0.
Inégalité de Bienaymé-Tchebychev : P(|XE(X)|a) ≤ (V(X))/(a2) si X est une variable aléatoire de second moment fini et a > 0.

Loi normale, loi exponentielle

Une variable aléatoire Gaussienne (ou normale) centrée réduite est une variable X admettant la densité ρ(x) = (1)/(())ex2/2
On a E(X) = 0, V(X) = 1.
La variable Y = σX + E est alors une variable Gaussienne (ou normale) de moyenne E et de variance σ2, elle admet la densité ρ(x) = (1)/(σ())e−(xE)2/2σ2.
Loi exponentielle : ρ(x) = λ eλx sur R+,
E(X) = 1 / λ. V(X) = 1 / λ2.
Pour tout x ≥ 0, P(X > x) = eλx.
Les lois exponentielles satisfont la propriété P(X > t + s | X > t) = P(X > s) pour tous réels s et t positifs ou nuls. Cette propriété caractérise les lois exponentielles (démonstration non exigible). Les lois exponentielles s’interprètent comme les lois de durée de vie sans vieillissement. Ce sont des variantes continues des lois géométriques.

Indépendance de variables à densité

Les variables aléatoires à densité X1, …, Xn sont dites indépendantes si P((X1I1) ∩ … ∩ (XnIn))
= P(X1I1) … P(XnIn)
pour tous intervalles Ik de R.
Si X1, … Xn sont indépendantes : E(X1Xn) = E(X1) ⋯ E(Xn)
et V(X1 + ⋯ + Xn) = V(X1) + ⋯ + V(Xn)
Propriété admise. La loi d’une somme de variables aléatoires est hors programme.
On pourra, comme en première année, introduire la covariance et le coefficient de corrélation sans discuter les problèmes de définition des intégrales.
Cov(X, Y) = E((XE(X))(YE(Y))),
Cov(X, Y) = E(XY) − E(X)E(Y).
Cor(X, Y) = (Cov(X, Y))/((V(X) V(Y))).
La covariance de deux variables indépendantes est nulle (condition non suffisante).

Statistiques

Soit X une variable aléatoire (discrète ou à densité). Soient Xi, iN des variables aléatoires indépendantes de même loi que X. On considère les variables aléatoires ¯(X)n = (X1 + ⋯ + Xn) / n.

E(¯(X)n) = E(X), V(¯(X)n) = V(X) / n
Loi faible des grands nombres : P(|¯(X)nE(X)|ε) → 0 pour tout ε > 0. Démonstration dans le cas V(X) < ∞ par l’inégalité de Bienaymé-Tchebychev : P(|¯(X)nE(X)|ε) (V(¯(X)n))/(ε2)(V(¯(X)n))/(nε2).
Intervalle de confiance : La probabilité que l’intervalle [¯(X)n((V)/(na)), ¯(X)n((V)/(na))] contienne la moyenne E(X) est supérieure à 1 − a. On discutera la notion d’intervalle de confiance au niveau 1 − a. On démontrera l’énoncé ci-contre à l’aide de l’inégalité de Bienaymé-Tchebychev.
En pratique :
La variance V est souvent inconnue, mais on peut la majorer : dans le cas général d’une variable aléatoire bornée |X|M, par M2 ;
dans le cas d’une variable de Bernoulli, par 1/4.
Application numérique :
Pour n = 1000, au seuil de confiance de 90 %, l’incertitude est de 5 % dans le cas d’une variable de Bernoulli.