Leçon 260 : Espérance, variance et moments d’une variable aléatoire.

(2018) 260

Dernier rapport du Jury :

(2019 : 260 - Espérance, variance et moments d’une variable aléatoire.) Cette leçon ne sera pas utilisée pour la session 2020 ; les notions qui s’y rapportent peuvent être exploitées dans les leçons 261, 262, 264, 266. $\\$ Les candidats doivent connaître la définition des moments centrés et les implications d’existence de moments (décroissance des $L^p$). Les connaissances sur les variables aléatoires à densité sont parfois fragiles. Le candidat doit pouvoir citer — mais doit surtout savoir retrouver rapidement — les espérances et variances de lois usuelles, notamment Bernoulli, binomiale, géométrique, Poisson, exponentielle, normale. La variance de la somme de variables aléatoires indépendantes suscite souvent des hésitations. Les inégalités classiques (de Markov, de Bienaymé-Chebyshev, de Jensen et de Cauchy-Schwarz) pourront être données, ainsi que les théorèmes de convergence (lois des grands nombres et théorème central limite). La notion de fonction génératrice des moments est importante ainsi que les liens entre moments et fonction caractéristique.

(2017 : 260 - Espérance, variance et moments d'une variable aléatoire.) Le jury attend des candidats qu’ils donnent la définition des moments centrés, qu’ils rappellent les implications d’existence de moments (décroissance des $L^p$). Le candidat peut citer — mais doit surtout savoir retrouver rapidement — les espérances et variances de lois usuelles, notamment Bernoulli, binomiale, géométrique, Poisson, exponentielle, normale. La variance de la somme de variables aléatoires indépendantes suscite souvent des hésitations. Les inégalités classiques (de Markov, de Bienaymé-Chebyshev, de Jensen et de Cauchy-Schwarz) pourront être données, ainsi que les théorèmes de convergence (lois des grands nombres et théorème central limite). La notion de fonction génératrice des moments pourra être présentée ainsi que les liens entre moments et fonction caractéristique. Pour aller plus loin, le comportement des moyennes empiriques pour une suite de variables aléatoires indépendantes et identiquement distribuées n’admettant pas d’espérance pourra être étudié. Pour les candidats suffisamment à l’aise avec ce sujet, l’espérance conditionnelle pourra aussi être abordée.
(2016 : 260 - Espérance, variance et moments de variables aléatoires. ) Le jury attend des candidats qu’ils donnent la définition des moments centrés, qu’ils rappellent les implications d’existence de moments (décroissance des L p ). Le candidat peut citer — mais doit surtout savoir retrouver rapidement — les espérances et variances de lois usuelles, notamment Bernoulli, binômiale, géométrique, Poisson, exponentielle, normale. La variance de la somme de variables aléatoires indépendantes suscite souvent des hésitations. Les inégalités classiques (de Markov, de Bienaymé-Chebychev, de Jensen et de Cauchy-Schwarz) pourront être données, ainsi que les théorèmes de convergence (loi des grands nombres et théorème central limite). La notion de fonction génératrice des moments pourra être présentée ainsi que les liens entre moments et fonction caractéristique. Pour aller plus loin, le comportement des moyennes pour une suite de variables aléatoires indépendantes et identiquement distribuées n’admettant pas d’espérance pourra être étudié. Pour les candidats suffisamment à l’aise avec ce sujet, l’espérance conditionnelle pourra aussi être abordée.
(2015 : 260 - Espérance, variance et moments de variables aléatoires.) Le jury attend des candidats qu'ils donnent la définition des moments centrés, qu'ils rappellent les implications d'existence de moments. Les inégalités classiques (de Markov, de Bienaymé-Chebychev, de Jensen et de Cauchy-Schwarz) pourront être données, ainsi que les théorèmes de convergence (loi des grands nombres et théorème central limite). Le comportement des moyennes pour une suite de variables aléatoires indépendantes et identiquement distribuées n'admettant pas d'espérance pourra être étudié. La notion de fonction génératrice des moments pourra être présentée.
(2014 : 260 - Espérance, variance et moments d'une variable aléatoire.) Le jury attend des candidats qu'ils donnent la définition des moments centrés, qu'ils rappellent les implications d'existence de moments. Les inégalités classiques (de Markov, de Bienaymé-Chebichev, de Jensen et de Cauchy-Schwarz) pourront être données, ainsi que les théorèmes de convergence (loi des grands nombres et théorème limite central). Le comportement des moyennes de Cesàro pour une suite de variables aléatoires indépendantes et identiquement distribuées n'admettant pas d'espérance pourra être étudié. La notion de fonction génératrice des moments pourra être présentée.

Plans/remarques :

2019 : Leçon 260 - Espérance, variance et moments d’une variable aléatoire.


2018 : Leçon 260 - Espérance, variance et moments d’une variable aléatoire.


2017 : Leçon 260 - Espérance, variance et moments d'une variable aléatoire.


2016 : Leçon 260 - Espérance, variance et moments de variables aléatoires.


Retours d'oraux :

2019 : Leçon 260 - Espérance, variance et moments d’une variable aléatoire.

  • Leçon choisie :

    260 : Espérance, variance et moments d’une variable aléatoire.

  • Autre leçon :

    224 : Exemples de développements asymptotiques de suites et de fonctions.

  • Développement choisi : (par le jury)

    Théorème de Lévy et TCL

  • Autre(s) développement(s) proposé(s) :

    Pas de réponse fournie.

  • Liste des références utilisées pour le plan :

    Pas de réponse fournie.

  • Résumé de l'échange avec le jury (questions/réponses/remarques) :

    J'ai un peu galéré sur le développement, j'arrivais pas à démontrer mon lemme qui prenait 1/3 du développement, du coup je l'ai passé. J'ai terminé en un peu moins de 16 mins.

    Questions sur le développement : Vous utilisez un résultat de densité sur les transformées de Fourier ; pouvez vous nous rappeler quel ensemble est dense dans quel ensemble et pour quelle norme ? Vous utilisez le théorème de convergence dominée, vous pouvez nous rappeler les hypothèses ? Comment vous montrez que votre limite est bien exp(-x^2/2) ? J'avais fait une petite erreur de calcul à la fin mais heureusement, ma petite erreur était multipliée par 0 donc je trouvais la bon résultat.

    Question sur le plan : Vous dites que l'espérance est linéaire, qu'en est-il de la variance ?
    - La variance de la somme est la somme des variances si les variables sont indépendantes.
    - La réciproque est-elle vraie ?
    - Non.
    - Vous avez un exemple ?
    - Je suis sûr que c'est faux mais j'ai pas de contre exemple ....
    - D'accord, que se passe-t-il si les variables ne sont pas indépendantes ?
    - Il y a un terme de covariance qui apparaît.
    - Comment on définit la covariance ?
    - 2cov(X,Y) = Var(X+Y) - Var(X) - Var(Y)
    - Mouais, j'aime pas trop cette définition.
    - Sinon on peut dire Cov(X,Y) = E(XY) - E(X)E(Y).
    - Et comment vous définissez E(XY) ?
    - Bah intégrale sur oméga de XY dP ....
    - Oui, ok.

    Vous dites que si deux variables aléatoires sont indépendantes alors la fonction caractéristique de la somme est le produits des fonctions caractéristiques, est ce que la réciproque est vraie ?
    - Euh je sais pas .... Comme ça je dirais que c'est faux un peu comme la variance....
    - Ok, en fait c'est vrai.

    Passons aux exercices :
    I) Calculer les moments à tout ordre d'une loi de poisson. Je commence à faire une IPP pour trouver une relation de récurrence, une personne du jury me dit que je devrais vérifier avant que les moments existent. Je trouve la relation rapidement et j'en déduis une formule pour les moments.

    II) Soient X1,...,Xn de loi uniforme sur [0,1], calculer les moments de min(X1,...,Xn). Je trouve toute suite comment on fait, il m'arrête à la fin quand il a vu que j'ai compris. Vous pouvez me rappeler les hypothèses sur la fonction de répartition pour avoir une densité ?

    III) Démontrer la loi forte des grands nombres pour la convergence L2. Je vois que l'espérance de la suite est constante donc j'essaye de regarder si c'est une martingale. Une personne du jury me dit "pourquoi pas" mais au final ça marche pas. Du coup je veux utiliser Minkowski mais il m'arrête pour me dire d'utiliser un truc dont a parlé, et je m'en sors avec les fameuses covariances.

    IV) Je me souviens plus trop de l'énoncé, on m'a donné la loi conditionnelle d'une variable aléatoire par rapport à une autre et je devais en déduire l'espérance. J'ai calculé l'espérance conditionnelle et j'en ai déduis l'espérance.

  • Quelle a été l'attitude du jury (muet/aide/cassant) ?

    Assez gentils, j'avais peur qu'ils me parlent du petit lemme que j'ai pas réussi à démontrer mais ils ont rien dit.

  • L'oral s'est-il passé comme vous l'imaginiez ou avez-vous été surpris par certains points ? Cette question concerne aussi la préparation.

    Un peu moins de 3 heures de préparation.

  • Note obtenue :

    16


Références utilisées dans les versions de cette leçon :

Probabilités, Barbe-Ledoux (utilisée dans 23 versions au total)
Probabilités 2 , Ouvrard (utilisée dans 30 versions au total)
Probabilités pour les non-probabilistes, Walter Appel (utilisée dans 19 versions au total)
Probabilités 1 , Ouvrard (utilisée dans 7 versions au total)
Calcul des probabilités , Foata (utilisée dans 4 versions au total)
De l'intégration aux probabilités, Garet, Kurtzman (utilisée dans 39 versions au total)
Les contre-exemples en mathématiques , Hauchecorne (utilisée dans 23 versions au total)