Leçon 233 : Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.

(2018) 233

Dernier rapport du Jury :

(2017 : 233 - Méthodes itératives en analyse numérique.) Dans cette leçon de synthèse, les notions de norme matricielle et de rayon spectral sont centrales, en lien avec le conditionnement et avec la convergence des méthodes itératives ; elles doivent être développées. Le résultat général de convergence, relié au théorème du point fixe de Banach, doit être enrichi de considérations sur la vitesse de convergence. Le jury invite les candidats à étudier diverses méthodes issues de contextes variés : résolution de systèmes linéaires, optimisation de fonctionnelles quadratiques (du type $\frac{1}{2} (Ax,x) - (b,x)$), recherche de valeurs propres,... Parmi les points intéressants à développer, on peut citer les méthodes de type Jacobi pour la résolution de systèmes linéaires, les méthodes de gradient dans le cadre quadratique, les méthodes de puissance pour la recherche de valeurs propres. Les candidats pourront également envisager les schémas numériques pour les équations différentielles ou aux dérivées partielles linéaires.

(2016 : 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.) Cette leçon est reformulée pour la session 2017 au profit de la nouvelle leçon 233 suivante. 233 : Méthodes itératives en analyse numérique matricielle. Dans cette leçon de synthèse, les notions de norme matricielle et de rayon spectral sont centrales, en lien avec le conditionnement et avec la convergence des méthodes itératives ; elles doivent être développées. Le résultat général de convergence, relié au théorème du point fixe de Banach, doit être enrichi de considérations sur la vitesse de convergence. Le jury invite les candidats à étudier diverses méthodes issues de contextes variés : résolution de systèmes linéaires, optimisation de fonctionnelles quadratiques, recherche de valeurs propres, ... Parmi les points intéressants à développer, on peut citer les méthodes de type Jacobi pour la résolution de systèmes linéaires, les méthodes de gradient dans le cadre quadratique, les méthodes de puissance pour la recherche de valeurs propres. Les candidats pourront également envisager les schémas numériques pour les équations différentielles ou aux dérivées partielles linéaires.
(2015 : 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.) Cette leçon puise une bonne part de son contenu dans le programme complémentaire de l'oral, commun aux différentes options. Les notions de norme matricielle et de rayon spectral sont bien sûr centrales pour ce sujet où le rôle du conditionnement dans l'étude de sensibilité des solutions de systèmes linéaires doit être bien identifié. L'analyse de convergence des méthodes itératives de résolution de systèmes linéaires, en identifiant leurs avantages par rapport aux méthodes directes, trouve naturellement sa place dans cette leçon, tout comme l'étude d'algorithmes de recherche d'éléments propres, avec la méthode de la puissance (ou la méthode QR) et des applications à des matrices vérifiant les hypothèses des théorèmes de Perron-Frobenius. Le cas particulier des matrices symétriques définies positives doit amener à faire le lien avec les problèmes de minimisation et les méthodes de gradient. On notera d'ailleurs que de tels développements peuvent aussi être exploités avec bonheur dans la leçon 226. Les techniques d'analyse permettent aussi l'investigation des propriétés spectrales de matrices et la localisation de valeurs propres de matrices (théorème de Gershgörin, suites de Sturm). Le jury encourage les candidats à illustrer leur propos d'exemples pertinents issus de la théorie de l'interpolation ou de la résolution approchée de problèmes aux limites, incluant l'analyse de stabilité de méthodes numériques.
(2014 : 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.) Cette leçon puise une bonne part de son contenu dans le programme complémentaire de l'oral, commun aux différentes options. Les notions de norme matricielle et de rayon spectral sont bien sûr centrales pour ce sujet où le rôle du conditionnement dans l'étude de sensibilité des solutions de systèmes linéaires doit être bien identifié. L'analyse de convergence des méthodes itératives de résolution de systèmes linéaires, en identifiant leurs avantages par rapport aux méthodes directes, trouve naturellement sa place dans cette leçon, tout comme l'étude d'algorithmes de recherche déléments propres, avec la méthode de la puissance (ou la méthode $QR$) et des applications à des matrices vérifiant les hypothèses des théorèmes de Perron-Frobenius. Le cas particulier des matrices symétriques définies positives doit amener à faire le lien avec les problèmes de minimisation et les méthodes de gradient. On notera d'ailleurs que de tels développements peuvent aussi être exploités avec bonheur dans la leçon 226. Les techniques d'analyse permettent aussi l'investigation des propriétés spectrales de matrices et la localisation de valeurs propres de matrices (théorème de Gershgörin, suites de Sturm). Le jury encourage les candidats à illustrer leur propos d'exemples pertinents issus de la théorie de l'interpolation ou de la résolution approchée de problèmes aux limites, incluant l'analyse de stabilité de méthodes numériques.

Plans/remarques :

2016 : Leçon 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.


Retours d'oraux :

Pas de retours pour cette leçon.