Analyse numérique matricielle appliquée à l'art de l'ingénieur, tome 1 : Méthodes directes

Patrick Lascaux, Raymond Théodor

Utilisée dans les 2 développements suivants :

Accélération de la convergence des méthodes itératives par la méthode de Tchebychev
Décomposition en valeurs singulières (SVD)

Utilisée dans les 0 leçons suivantes :


Utilisée dans les 2 versions de développements suivants :

  • Développement :
  • Remarque :
    Je ne sais pas qui a mis ce développement sur agreg-maths mais en tous cas je suis triste qu'il n'ait ni références ni pdf, alors j'ai cherché et trouvé des références, et rédigé un pdf. Ce résultat est très joli (et pas forcément très dur ! C'est juste un théorème spectral appliqué à $A^*A$ !) et conviendra très bien aux habitué.e.s d'algèbre linéaire numérique. J'ai également rajouté le théorème d'Eckart-Young, qui dit la chose suivante : si $A \in \mathcal{M}_{m,n}(\mathbb{K})$ a pour SVD $U\Sigma V^*$, alors en notant, pour $k \in[\![1,\mathrm{rg}(A)]\!]$, $A_k := U\Sigma_k V^*$, où $\Sigma_k$ correspond à la matrice $\Sigma$, où on a remplacé les valeurs singulières $\sigma_{k+1},\ldots,\sigma_{\mathrm{rg(A)}}$ par $0$, alors $A_k$ vérifie :
    \[
    \vert\!\vert\!\vert A - A_k \vert\!\vert\!\vert_2 = \min_{\substack{B \in \mathcal{M}_{m,n}(\mathbb{K}) \\ \mathrm{rg}(B) = k}}\vert\!\vert\!\vert A - B \vert\!\vert\!\vert_2,
    \]
    où $\vert\!\vert\!\vert \cdot \vert\!\vert\!\vert_2$ désigne la norme subordonnée aux normes euclidiennes au départ et à l'arrivée.
    Ce résultat est (était ?) très utilisé pour la compression de données ! Garder les plus grandes valeurs principales revient à garder les "directions de plus grandes tendances" dans la matrice : on enlève de l'information que l'on peut juger superflue.
  • Références :
  • Fichier :

Utilisée dans les 0 versions de leçons suivantes :