(2019 : 233 - Analyse numérique matricielle : résolution approchée de systèmes linéaires, recherche de vecteurs propres, exemples.)
Pour la session 2020, l’intitulé de cette leçon est reformulé en $\\$ Analyse numérique matricielle. Résolution approchée de systèmes linéaires, recherche d’éléments propres, exemples. $\\$ Cette leçon de synthèse doit mettre en lumière l’exploitation de techniques d’analyse pour aborder la résolution approchée de systèmes linéaires et de leurs propriétés spectrales, la recherche de vecteurs propres et de valeurs propres, et approfondir la compréhension des algorithmes.Les notions de norme matricielle, de rayon spectral et de conditionnement sont évidemment centrales dans cette leçon. Néanmoins, un trop grand nombre de candidats maîtrise insuffisamment ces notions et se trouve mis en difficulté. Le jury attend donc un exposé clair et mieux dominé de ces notions, qui doit être agrémenté d’exemples et d’études de la convergence de méthodes itératives. Le lien avec la convergence des suites du type $X_{n+1}=AX_n$ doit être connu et illustré. Le conditionnement d’une matrice symétrique définie positive doit être connu et un lien avec $sup_{\|x\|=1}x^TAx$ doit être fait. Le résultat général de convergence, relié au théorème du point fixe de Banach, doit être enrichi de considérations sur la vitesse de convergence. $\\$ Le jury invite les candidats à étudier diverses méthodes issues de contextes variés : résolution de systèmes linéaires, optimisation de fonctionnelles quadratiques (du type $\frac{1}{2}(Ax|x)-(b|x)$),recherche de valeurs propres,... Parmi les points intéressants à développer, on peut citer les méthodes de typeJacobipour la résolution de systèmes linéaires, les méthodes de gradient dans le cadre quadratique, les méthodes de la puissance, puissance inverse et QR pour la recherche d’éléments propres. Les candidats pourront illustrer leur propos sur des matrices issues de problèmes de moindres carrés ou de schémas numériques pour les équations différentielles ou aux dérivées partielles linéaires.
229 : Fonctions monotones. Fonctions convexes. Exemples et applications.
Pas de réponse fournie.
Pas de réponse fournie.
Je suis passé en 2021, pas en 2020 mais le site ne permet pas d'effectuer de retour pour cette année au moment où je l'écris.
Questions sur le développement :
1) réexpliquer pourquoi si un vecteur annule le gradient de la fonctionnelle quadratique, alors c'est le point de minimum
2) prouver la coercivité et la stricte convexité de la fonctionnelle quadratique
3) l'inégalité de Kantorovich est-elle optimale ? (oui : si on prend une homothétie de rapport positif)
4) quand veut-on utiliser cet algorithme plutôt qu'une résolution directe style pivot de Gauss ? Discussion sur la complexité du pivot de Gauss et celle du gradient optimal.
5) Combien de fois désire-t-on appliquer l'algorithme ? J'ai répondu que vu qu'il avait une complexité en $O(n^2)$ contre $O(n^3)$ pour Gauss, au maximum n fois. Ce n'était visiblement pas la réponse attendue par M. Gonnord, mais au moins c'était logique...
6) Quelle précision souhaite-t-on obtenir sur l'estimation du point de minimum ? (je n'ai pas su répondre)
Autre questions (dans le désordre):
1) démontrer le théorème de Gershgorin-Hadamard
2) Pourquoi la norme de Frobenius n'est pas une norme subordonnée ?
3) D'où sort la matrice du Laplacien 1D (j'ai redonné l'équation -u'' = f(t) avec comme conditions initiales u(0) = u(1) = 0, dit que l'on découpait [0,1] en n+1 intervalles puis qu'on appliquait la méthode des différences finies, on ne m'a pas demandé de l'expliciter)
4) en admettant les valeurs propres du L1D, calculer son conditionnement en norme 2. Comme celui-ci (qui est en n²) tend vers +inf, on m'a demandé si je connaissais d'autres matrices qui auraient un pire conditionnement. Je ne savais pas, mais M. Gonnord m'a dit à la toute fin de l'oral d'aller voir du côté des matrices de Hilbert
A ce moment là on m'a dit que l'oral était terminé, mais M. Gonnord m'a subitement dit que je n'avais pas parlé de conditionnement de recherche d'éléments propres, et demandé comment on faisait.
Je lui ai donc parlé du théorème de Bauer-Fike en essayant d'expliquer ça le plus proprement possible.
Le jury était composé de deux hommes (dont M. Gonnord) et d'une femme. Ils ont été remarquablement polis et courtois, et la dame avait des yeux d'une extrême gentillesse qui mettait vraiment en confiance.
M. Gonnord est très incisif, direct, mais très bienveilant.
Vraiment un jury remarquable.
C'est une leçon très particulière, je ne connaissais rien à l'analyse numérique matricielle quelques mois auparavant donc je ne savais vraiment pas à quoi m'attendre.
Au final, c'est comme toutes les épreuves de l'agreg : le jury veut voir si vous comprenez ce que vous avez écrit dans votre plan, si vous avez de la marge autour des notions abordées (ce n'était pas vraiment mon cas sur cette leçon), et surtout vous voir réfléchir.
19.25