Leçon 233 : Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.

(2018) 233
(2020) 233

Dernier rapport du Jury :

(2019 : 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.) Pour la session 2020, l’intitulé de cette leçon est reformulé en $\\$ Analyse numérique matricielle. Résolution approchée de systèmes linéaires, recherche d’éléments propres, exemples. $\\$ Cette leçon de synthèse doit mettre en lumière l’exploitation de techniques d’analyse pour aborder la résolution approchée de systèmes linéaires et de leurs propriétés spectrales, la recherche de vecteurs propres et de valeurs propres, et approfondir la compréhension des algorithmes.Les notions de norme matricielle, de rayon spectral et de conditionnement sont évidemment centrales dans cette leçon. Néanmoins, un trop grand nombre de candidats maîtrise insuffisamment ces notions et se trouve mis en difficulté. Le jury attend donc un exposé clair et mieux dominé de ces notions, qui doit être agrémenté d’exemples et d’études de la convergence de méthodes itératives. Le lien avec la convergence des suites du type $X_{n+1}=AX_n$ doit être connu et illustré. Le conditionnement d’une matrice symétrique définie positive doit être connu et un lien avec $sup_{\|x\|=1}x^TAx$ doit être fait. Le résultat général de convergence, relié au théorème du point fixe de Banach, doit être enrichi de considérations sur la vitesse de convergence. $\\$ Le jury invite les candidats à étudier diverses méthodes issues de contextes variés : résolution de systèmes linéaires, optimisation de fonctionnelles quadratiques (du type $\frac{1}{2}(Ax|x)-(b|x)$),recherche de valeurs propres,... Parmi les points intéressants à développer, on peut citer les méthodes de typeJacobipour la résolution de systèmes linéaires, les méthodes de gradient dans le cadre quadratique, les méthodes de la puissance, puissance inverse et QR pour la recherche d’éléments propres. Les candidats pourront illustrer leur propos sur des matrices issues de problèmes de moindres carrés ou de schémas numériques pour les équations différentielles ou aux dérivées partielles linéaires.

(2017 : 233 - Méthodes itératives en analyse numérique.) Dans cette leçon de synthèse, les notions de norme matricielle et de rayon spectral sont centrales, en lien avec le conditionnement et avec la convergence des méthodes itératives ; elles doivent être développées. Le résultat général de convergence, relié au théorème du point fixe de Banach, doit être enrichi de considérations sur la vitesse de convergence. Le jury invite les candidats à étudier diverses méthodes issues de contextes variés : résolution de systèmes linéaires, optimisation de fonctionnelles quadratiques (du type $\frac{1}{2} (Ax,x) - (b,x)$), recherche de valeurs propres,... Parmi les points intéressants à développer, on peut citer les méthodes de type Jacobi pour la résolution de systèmes linéaires, les méthodes de gradient dans le cadre quadratique, les méthodes de puissance pour la recherche de valeurs propres. Les candidats pourront également envisager les schémas numériques pour les équations différentielles ou aux dérivées partielles linéaires.
(2016 : 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.) Cette leçon est reformulée pour la session 2017 au profit de la nouvelle leçon 233 suivante. 233 : Méthodes itératives en analyse numérique matricielle. Dans cette leçon de synthèse, les notions de norme matricielle et de rayon spectral sont centrales, en lien avec le conditionnement et avec la convergence des méthodes itératives ; elles doivent être développées. Le résultat général de convergence, relié au théorème du point fixe de Banach, doit être enrichi de considérations sur la vitesse de convergence. Le jury invite les candidats à étudier diverses méthodes issues de contextes variés : résolution de systèmes linéaires, optimisation de fonctionnelles quadratiques, recherche de valeurs propres, ... Parmi les points intéressants à développer, on peut citer les méthodes de type Jacobi pour la résolution de systèmes linéaires, les méthodes de gradient dans le cadre quadratique, les méthodes de puissance pour la recherche de valeurs propres. Les candidats pourront également envisager les schémas numériques pour les équations différentielles ou aux dérivées partielles linéaires.
(2015 : 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.) Cette leçon puise une bonne part de son contenu dans le programme complémentaire de l'oral, commun aux différentes options. Les notions de norme matricielle et de rayon spectral sont bien sûr centrales pour ce sujet où le rôle du conditionnement dans l'étude de sensibilité des solutions de systèmes linéaires doit être bien identifié. L'analyse de convergence des méthodes itératives de résolution de systèmes linéaires, en identifiant leurs avantages par rapport aux méthodes directes, trouve naturellement sa place dans cette leçon, tout comme l'étude d'algorithmes de recherche d'éléments propres, avec la méthode de la puissance (ou la méthode QR) et des applications à des matrices vérifiant les hypothèses des théorèmes de Perron-Frobenius. Le cas particulier des matrices symétriques définies positives doit amener à faire le lien avec les problèmes de minimisation et les méthodes de gradient. On notera d'ailleurs que de tels développements peuvent aussi être exploités avec bonheur dans la leçon 226. Les techniques d'analyse permettent aussi l'investigation des propriétés spectrales de matrices et la localisation de valeurs propres de matrices (théorème de Gershgörin, suites de Sturm). Le jury encourage les candidats à illustrer leur propos d'exemples pertinents issus de la théorie de l'interpolation ou de la résolution approchée de problèmes aux limites, incluant l'analyse de stabilité de méthodes numériques.
(2014 : 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.) Cette leçon puise une bonne part de son contenu dans le programme complémentaire de l'oral, commun aux différentes options. Les notions de norme matricielle et de rayon spectral sont bien sûr centrales pour ce sujet où le rôle du conditionnement dans l'étude de sensibilité des solutions de systèmes linéaires doit être bien identifié. L'analyse de convergence des méthodes itératives de résolution de systèmes linéaires, en identifiant leurs avantages par rapport aux méthodes directes, trouve naturellement sa place dans cette leçon, tout comme l'étude d'algorithmes de recherche déléments propres, avec la méthode de la puissance (ou la méthode $QR$) et des applications à des matrices vérifiant les hypothèses des théorèmes de Perron-Frobenius. Le cas particulier des matrices symétriques définies positives doit amener à faire le lien avec les problèmes de minimisation et les méthodes de gradient. On notera d'ailleurs que de tels développements peuvent aussi être exploités avec bonheur dans la leçon 226. Les techniques d'analyse permettent aussi l'investigation des propriétés spectrales de matrices et la localisation de valeurs propres de matrices (théorème de Gershgörin, suites de Sturm). Le jury encourage les candidats à illustrer leur propos d'exemples pertinents issus de la théorie de l'interpolation ou de la résolution approchée de problèmes aux limites, incluant l'analyse de stabilité de méthodes numériques.

Plans/remarques :

2019 : Leçon 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.


2016 : Leçon 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.


Retours d'oraux :

Pas de retours pour cette leçon.

Références utilisées dans les versions de cette leçon :

Algèbre linéaire numérique, Allaire (utilisée dans 16 versions au total)
Introduction à l'analyse numérique matricielle et à l'optimisation , Ciarlet (utilisée dans 48 versions au total)
Algèbre linéaire réduction des endomorphismes, R. Mansuy, R. Mneimné (utilisée dans 39 versions au total)
Mathématiques pour l'agrégation: Algèbre et géométrie, Jean Etienne Rombaldi (utilisée dans 276 versions au total)
Analyse pour l'agrégation de mathématiques, 40 développements, Julien Bernis et Laurent Bernis (utilisée dans 130 versions au total)