Leçon 233 : Analyse numérique matricielle. Résolution approchée de systèmes linéaires, recherche d’éléments propres, exemples.

(2019) 233
(2021) 233

Dernier rapport du Jury :

(2019 : 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.) Pour la session 2020, l’intitulé de cette leçon est reformulé en $\\$ Analyse numérique matricielle. Résolution approchée de systèmes linéaires, recherche d’éléments propres, exemples. $\\$ Cette leçon de synthèse doit mettre en lumière l’exploitation de techniques d’analyse pour aborder la résolution approchée de systèmes linéaires et de leurs propriétés spectrales, la recherche de vecteurs propres et de valeurs propres, et approfondir la compréhension des algorithmes.Les notions de norme matricielle, de rayon spectral et de conditionnement sont évidemment centrales dans cette leçon. Néanmoins, un trop grand nombre de candidats maîtrise insuffisamment ces notions et se trouve mis en difficulté. Le jury attend donc un exposé clair et mieux dominé de ces notions, qui doit être agrémenté d’exemples et d’études de la convergence de méthodes itératives. Le lien avec la convergence des suites du type $X_{n+1}=AX_n$ doit être connu et illustré. Le conditionnement d’une matrice symétrique définie positive doit être connu et un lien avec $sup_{\|x\|=1}x^TAx$ doit être fait. Le résultat général de convergence, relié au théorème du point fixe de Banach, doit être enrichi de considérations sur la vitesse de convergence. $\\$ Le jury invite les candidats à étudier diverses méthodes issues de contextes variés : résolution de systèmes linéaires, optimisation de fonctionnelles quadratiques (du type $\frac{1}{2}(Ax|x)-(b|x)$),recherche de valeurs propres,... Parmi les points intéressants à développer, on peut citer les méthodes de typeJacobipour la résolution de systèmes linéaires, les méthodes de gradient dans le cadre quadratique, les méthodes de la puissance, puissance inverse et QR pour la recherche d’éléments propres. Les candidats pourront illustrer leur propos sur des matrices issues de problèmes de moindres carrés ou de schémas numériques pour les équations différentielles ou aux dérivées partielles linéaires.

(2017 : 233 - Méthodes itératives en analyse numérique.) Dans cette leçon de synthèse, les notions de norme matricielle et de rayon spectral sont centrales, en lien avec le conditionnement et avec la convergence des méthodes itératives ; elles doivent être développées. Le résultat général de convergence, relié au théorème du point fixe de Banach, doit être enrichi de considérations sur la vitesse de convergence. Le jury invite les candidats à étudier diverses méthodes issues de contextes variés : résolution de systèmes linéaires, optimisation de fonctionnelles quadratiques (du type $\frac{1}{2} (Ax,x) - (b,x)$), recherche de valeurs propres,... Parmi les points intéressants à développer, on peut citer les méthodes de type Jacobi pour la résolution de systèmes linéaires, les méthodes de gradient dans le cadre quadratique, les méthodes de puissance pour la recherche de valeurs propres. Les candidats pourront également envisager les schémas numériques pour les équations différentielles ou aux dérivées partielles linéaires.
(2016 : 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.) Cette leçon est reformulée pour la session 2017 au profit de la nouvelle leçon 233 suivante. 233 : Méthodes itératives en analyse numérique matricielle. Dans cette leçon de synthèse, les notions de norme matricielle et de rayon spectral sont centrales, en lien avec le conditionnement et avec la convergence des méthodes itératives ; elles doivent être développées. Le résultat général de convergence, relié au théorème du point fixe de Banach, doit être enrichi de considérations sur la vitesse de convergence. Le jury invite les candidats à étudier diverses méthodes issues de contextes variés : résolution de systèmes linéaires, optimisation de fonctionnelles quadratiques, recherche de valeurs propres, ... Parmi les points intéressants à développer, on peut citer les méthodes de type Jacobi pour la résolution de systèmes linéaires, les méthodes de gradient dans le cadre quadratique, les méthodes de puissance pour la recherche de valeurs propres. Les candidats pourront également envisager les schémas numériques pour les équations différentielles ou aux dérivées partielles linéaires.
(2015 : 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.) Cette leçon puise une bonne part de son contenu dans le programme complémentaire de l'oral, commun aux différentes options. Les notions de norme matricielle et de rayon spectral sont bien sûr centrales pour ce sujet où le rôle du conditionnement dans l'étude de sensibilité des solutions de systèmes linéaires doit être bien identifié. L'analyse de convergence des méthodes itératives de résolution de systèmes linéaires, en identifiant leurs avantages par rapport aux méthodes directes, trouve naturellement sa place dans cette leçon, tout comme l'étude d'algorithmes de recherche d'éléments propres, avec la méthode de la puissance (ou la méthode QR) et des applications à des matrices vérifiant les hypothèses des théorèmes de Perron-Frobenius. Le cas particulier des matrices symétriques définies positives doit amener à faire le lien avec les problèmes de minimisation et les méthodes de gradient. On notera d'ailleurs que de tels développements peuvent aussi être exploités avec bonheur dans la leçon 226. Les techniques d'analyse permettent aussi l'investigation des propriétés spectrales de matrices et la localisation de valeurs propres de matrices (théorème de Gershgörin, suites de Sturm). Le jury encourage les candidats à illustrer leur propos d'exemples pertinents issus de la théorie de l'interpolation ou de la résolution approchée de problèmes aux limites, incluant l'analyse de stabilité de méthodes numériques.
(2014 : 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.) Cette leçon puise une bonne part de son contenu dans le programme complémentaire de l'oral, commun aux différentes options. Les notions de norme matricielle et de rayon spectral sont bien sûr centrales pour ce sujet où le rôle du conditionnement dans l'étude de sensibilité des solutions de systèmes linéaires doit être bien identifié. L'analyse de convergence des méthodes itératives de résolution de systèmes linéaires, en identifiant leurs avantages par rapport aux méthodes directes, trouve naturellement sa place dans cette leçon, tout comme l'étude d'algorithmes de recherche déléments propres, avec la méthode de la puissance (ou la méthode $QR$) et des applications à des matrices vérifiant les hypothèses des théorèmes de Perron-Frobenius. Le cas particulier des matrices symétriques définies positives doit amener à faire le lien avec les problèmes de minimisation et les méthodes de gradient. On notera d'ailleurs que de tels développements peuvent aussi être exploités avec bonheur dans la leçon 226. Les techniques d'analyse permettent aussi l'investigation des propriétés spectrales de matrices et la localisation de valeurs propres de matrices (théorème de Gershgörin, suites de Sturm). Le jury encourage les candidats à illustrer leur propos d'exemples pertinents issus de la théorie de l'interpolation ou de la résolution approchée de problèmes aux limites, incluant l'analyse de stabilité de méthodes numériques.

Plans/remarques :

2020 : Leçon 233 - Analyse numérique matricielle. Résolution approchée de systèmes linéaires, recherche d’éléments propres, exemples.

  • Auteur :
  • Remarque :
    Je suis passé sur cette leçon à l'oral, mais je n'avais pas mis dans mon plan la partie sur le conditionnement d'une recherche d'éléments propres.
    Je ne peux que vous conseiller de ne pas faire l'impasse dessus. Elle ne demande pas un investissement considérable, il y a de jolies choses dedans, et vu qu'en fait tout le monde fait l'impasse dessus, le jury ne la voit jamais. Ma prestation a été plus que moyenne, mais je pouvais difficilement espérer une meilleure note...
    Voir mon compte rendu si cela vous intéresse.

    Toutes les références sont à la fin du plan.

    Mes excuses pour l'écriture, et attention aux coquilles...
  • Fichier :

2019 : Leçon 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.


2016 : Leçon 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.


Retours d'oraux :

2020 : Leçon 233 - Analyse numérique matricielle. Résolution approchée de systèmes linéaires, recherche d’éléments propres, exemples.

  • Leçon choisie :

    233 : Analyse numérique matricielle. Résolution approchée de systèmes linéaires, recherche d’éléments propres, exemples.

  • Autre leçon :

    229 : Fonctions monotones. Fonctions convexes. Exemples et applications.

  • Développement choisi : (par le jury)

    Algorithme du gradient à pas optimal

  • Autre(s) développement(s) proposé(s) :

    Pas de réponse fournie.

  • Liste des références utilisées pour le plan :

    Pas de réponse fournie.

  • Résumé de l'échange avec le jury (questions/réponses/remarques) :

    Je suis passé en 2021, pas en 2020 mais le site ne permet pas d'effectuer de retour pour cette année au moment où je l'écris.

    Questions sur le développement :
    1) réexpliquer pourquoi si un vecteur annule le gradient de la fonctionnelle quadratique, alors c'est le point de minimum
    2) prouver la coercivité et la stricte convexité de la fonctionnelle quadratique
    3) l'inégalité de Kantorovich est-elle optimale ? (oui : si on prend une homothétie de rapport positif)
    4) quand veut-on utiliser cet algorithme plutôt qu'une résolution directe style pivot de Gauss ? Discussion sur la complexité du pivot de Gauss et celle du gradient optimal.
    5) Combien de fois désire-t-on appliquer l'algorithme ? J'ai répondu que vu qu'il avait une complexité en $O(n^2)$ contre $O(n^3)$ pour Gauss, au maximum n fois. Ce n'était visiblement pas la réponse attendue par M. Gonnord, mais au moins c'était logique...
    6) Quelle précision souhaite-t-on obtenir sur l'estimation du point de minimum ? (je n'ai pas su répondre)

    Autre questions (dans le désordre):
    1) démontrer le théorème de Gershgorin-Hadamard
    2) Pourquoi la norme de Frobenius n'est pas une norme subordonnée ?
    3) D'où sort la matrice du Laplacien 1D (j'ai redonné l'équation -u'' = f(t) avec comme conditions initiales u(0) = u(1) = 0, dit que l'on découpait [0,1] en n+1 intervalles puis qu'on appliquait la méthode des différences finies, on ne m'a pas demandé de l'expliciter)
    4) en admettant les valeurs propres du L1D, calculer son conditionnement en norme 2. Comme celui-ci (qui est en n²) tend vers +inf, on m'a demandé si je connaissais d'autres matrices qui auraient un pire conditionnement. Je ne savais pas, mais M. Gonnord m'a dit à la toute fin de l'oral d'aller voir du côté des matrices de Hilbert

    A ce moment là on m'a dit que l'oral était terminé, mais M. Gonnord m'a subitement dit que je n'avais pas parlé de conditionnement de recherche d'éléments propres, et demandé comment on faisait.
    Je lui ai donc parlé du théorème de Bauer-Fike en essayant d'expliquer ça le plus proprement possible.

  • Quelle a été l'attitude du jury (muet/aide/cassant) ?

    Le jury était composé de deux hommes (dont M. Gonnord) et d'une femme. Ils ont été remarquablement polis et courtois, et la dame avait des yeux d'une extrême gentillesse qui mettait vraiment en confiance.

    M. Gonnord est très incisif, direct, mais très bienveilant.

    Vraiment un jury remarquable.

  • L'oral s'est-il passé comme vous l'imaginiez ou avez-vous été surpris par certains points ? Cette question concerne aussi la préparation.

    C'est une leçon très particulière, je ne connaissais rien à l'analyse numérique matricielle quelques mois auparavant donc je ne savais vraiment pas à quoi m'attendre.

    Au final, c'est comme toutes les épreuves de l'agreg : le jury veut voir si vous comprenez ce que vous avez écrit dans votre plan, si vous avez de la marge autour des notions abordées (ce n'était pas vraiment mon cas sur cette leçon), et surtout vous voir réfléchir.

  • Note obtenue :

    19.25


Références utilisées dans les versions de cette leçon :

Analyse Numérique, Francis Filbet (utilisée dans 5 versions au total)
Methodes numériques pour le calcul scientifique , Quarteroni (utilisée dans 4 versions au total)
Introduction à l'analyse numérique matricielle et à l'optimisation , Ciarlet (utilisée dans 63 versions au total)
Analyse numérique et optimisation : une introduction à la modélisation mathématique et à la simulation numérique, Allaire (utilisée dans 34 versions au total)
Algèbre linéaire numérique., Allaire, Grégoire & Kaber, Sidi Mahmoud (utilisée dans 8 versions au total)
Algèbre linéaire numérique, Allaire (utilisée dans 25 versions au total)
Algèbre linéaire réduction des endomorphismes, R. Mansuy, R. Mneimné (utilisée dans 51 versions au total)
Mathématiques pour l'agrégation: Algèbre et géométrie, Jean Etienne Rombaldi (utilisée dans 493 versions au total)
Analyse pour l'agrégation de mathématiques, 40 développements, Julien Bernis et Laurent Bernis (utilisée dans 150 versions au total)