3. Diagonalisation des matrices symétriques
Alors qu'une matrice réelle n’a pas forcement de valeurs propres réelles, par exemple la matrice \[A=\left( \begin{array}{cc} 0 & -1 \\ 1 & 0% \end{array}% \right)\] a pour valeurs propres \(i\) et \(-i\) dans l'ensemble des nombres complexes \(C\).
Nous allons montrer qu'une matrice symétrique réelle ou de manière équivalente, un endomorphisme symétrique a toute ses valeurs propres réelles et est diagonalisable dans une base orthonormée.
Fondamental : Lemme 3.3
Les valeurs propres d’une matrice symétrique réelle \(A\) sont toutes réelles.
Preuve : Soient \(\lambda\) une valeur propre complexe de \(A \in S_{n} (R)⊂ M_{n} (C)\) et \(x\) un vecteur propre associé à \(\lambda\). On a
\(AX =\lambda X\),
qui par conjugaison complexe donne
\(\overset{-}{A}\overset{-}{X}=A\overset{-}{X}=\overset{-}{\lambda}\overset{-}{X}\), \(A\) est réelle donc \(\overset{-}{A}=A\).
D'où
\[\begin{equation*} ^{t}XAX=^{t}X\overset{-}{\lambda }\overset{-}{X}=\overset{-}{\lambda }.^{t}X% \overset{-}{X}=\overset{-}{\lambda }\sum_{i=1}^{n}\left\vert x_{i}\right\vert ^{2}, \label{5} \end{equation*}\] . . . (3.3)
car \(x_{i}\overset{-} x_{i}=\left\vert x_{i}\right\vert^{2}\) où \(\left\vert x_{i}\right\vert\) c’est le module de \(x_i\). On a aussi, du fait que \(A\) est symétrique
\[\begin{equation*} ^{t}XAX=^{t}\left( AX\right) \overset{-}{X}=^{t}\left( \lambda X\right) \overset{-}{X}=\lambda .^{t}X\overset{-}{X}=\lambda \sum_{i=1}^{n}\left\vert x_{i}\right\vert ^{2}. \label{6} \end{equation*}\] . . . (3.4)
De (3.3) et (3.4) on déduit que \(\overset{-}{\lambda }=\lambda\), car \(\sum_{i=1}^{n}\left\vert x_{i}\right\vert ^{2}\neq 0\),
d’où \(\lambda\) est réelle.
De lemme précèdent on déduit le résultat suivant
Fondamental : Corollaire 3.1
Toute matrice symétrique réelle a \(n\) valeurs propres réelles distinctes ou confondues.
Preuve : En effet, \(P_{A}\left( \lambda \right)\) le polynôme caractéristique de \(A\in S_{n}\left(\mathbb{R}\right)\) est de degré \(n\) qui admet toutes ses racines dans \(\mathbb{R}\).
Fondamental : Lemme 3.4
On suppose que \(n ≥ 2\).
Si \(\lambda,\mu\) sont deux valeurs propres distinctes de \(A\in S_{n}\left(\mathbb{R}\right)\), alors les sous-espaces
propres \(E_\lambda\) et \(E_\mu\) sont orthogonaux.
Preuve :
Soit \(f\) l’endomorphisme associé `a \(A\), pour tout \(x \in E_\lambda\) et tout \(y \in E_\mu\), on a
\(\lambda \langle x,y\rangle =\langle \lambda x,y\rangle =\langle f(x),y\rangle =\langle x,f(y)\rangle =\langle x,\mu y\rangle =\mu \langle x,y\rangle\),
d'où
\(\left( \lambda -\mu \right) \langle x,y\rangle =0\).
Puisque \(\lambda \neq \mu\), on d´déduit que \(\langle x,y\rangle =0\). D’où \(E_\lambda\) et \(E_\mu\) sont orthogonaux.
Fondamental : Proposition 3.8
On suppose que \(n ≥ 2\).
Si \(\lambda _{1}\) est une valeur propre de \(f\in S\left( E\right)\) (ou de \(A\in S_{n}\left(\mathbb{R}\right)\)), \(e_1\) un vecteur propre associé `a \(\lambda _{1}\) de norme ´égale `a \(1\) (\(\left\Vert e_{1}\right\Vert =1\)), alors l’hyperplan \(H=\left(\mathbb{R}e_{1}\right) ^{\bot }\) est stable par \(f\) et la restriction de \(f\) `a \(H\) est symétrique.
Preuve :
\(H\) est un hyperplan puisque c’est le noyau de la forme linéaire non nulle
\[\begin{equation*} \begin{array}{c} l:E\rightarrow \mathbb{R}\\ \qquad \quad x\mapsto \langle x,e_{1}\rangle% \end{array}% \end{equation*}\]
Pour tout \(x \in H\), on a
\(\langle f(x), e_{1}\rangle =\langle x, f(e_{1})\rangle =\langle x, \lambda _{1}e_{1}\rangle =\lambda _{1}\langle x,e_{1}\rangle =0\),
et donc \(f(x) \in H\).
La restriction g de \(f\) `a \(H\) est donc un endomorphisme de \(H\).
En désignant par \(\left( e_{i}\right) _{2\leq i\leq n}\) une base orthonormée de \(H\) (procédé de Gram-Schmidt), \(B_1 = (e_i)_{1≤i≤n}\) est une base orthonormée de \(E\) et la matrice de \(f\) dans cette base est
\[\begin{equation*} A_{1}=\left( \begin{array}{cc} \lambda _{1} & 0 \\ 0 & B% \end{array}% \right) , \end{equation*}\]
o`u \(B \in M_{n-1} (\mathbb{R})\) est la matrice de \(g\) dans \((e_i)_{1≤i≤n}\). Comme \(f\) est symétrique, il en est de même de \(A_1\), donc de \(B\) et de \(g\).
Fondamental : Théorème 3.5 (Spectral)
Soit \(A\) une matrice symétrique de \(S_{n} (\mathbb{R})\). Alors, on a les propriétés ´équivalentes suivantes
\(A\) est diagonalisable.
Il existe une base orthonormée de \(E\) constituée de vecteurs propres de \(A\).
Il existe une matrice orthogonale \(P \in M_n (\mathbb{R})\), telle que \(P^{-1}AP =^{t}PAP = D\) soit diagonale.
En termes d’endomorphismes on a le théorème spectral suivant
Fondamental : Théorème 3.6
Soit \(f \in S(E)\) un endomorphisme symétrique. Alors, on a les propriétés ´équivalentes suivantes
\(f\) est diagonalisable.
Il existe une base orthonormée de E constituée de vecteurs propres de \(f\).
Exemple : Exemple 3.5
Diagonaliser la matrice suivante dans une base orthonormée.
\[\begin{equation*} A=\left( \begin{array}{ccc} -1 & 1 & 1 \\ 1 & -1 & 1 \\ 1 & 1 & -1% \end{array}% \right) . \end{equation*}\]
Solution : Le polynôme caractéristique de \(A\) est \(P_{A}\left( \lambda \right) =\left( 1-\lambda \right) \left( \lambda +2\right) ^{2}\),
donc les valeurs propres de \(A\) sont \(\lambda _{1}=1\) v.p.s. et \(\lambda_{2}=-2\) v.p.d. et les vecteurs propres associés sont : \(v_{1}=( 1,1,1)\) pour \(\lambda _{1}\) et \(v_2 = (-1, 1, 0), v_3 = (-1, 0, 1)\) pour \(\lambda_{2\). On remarque que
\(\langle v_{1},v_{2}\rangle =\langle v_{1},v_{3}\rangle =0\) mais \(\langle v_{2},v_{3}\rangle =1\neq 0\).
En utilisant le procédé de Gram-Schmidt pour \(\left\{v_{2},v_{3}\right\}\), on obtient deux vecteurs orthogonaux.
\[\begin{eqnarray*} u_{2} &=&v_{2} \\ u_{3} &=&v_{3}-\frac{\langle v_{3},u_{2}\rangle }{\left\Vert u_{2}\right\Vert ^{2}}u_{2}=-\frac{1}{2}\left( 1,1,-2\right) , \end{eqnarray*}\]
si on pose \(u_1 = v_1\), on obtient une base orthogonale \(B=\left\{ u_{1},u_{2},u_{3}\right\} \)pour \(\mathbb{R}^{3}\).
D’où une base orthonormée
\(\left\{ w_{1}=\frac{1}{\sqrt{3}}( 1,1,1) ,w_{2}=\frac{1}{\sqrt{2}}\left( -1,1,0\right) ,w_{3}=-\frac{1}{\sqrt{6}}\left( 1,1,-2\right) \right\}\)
pour \(\mathbb{R}^{3}\). D’où \(A\) est diagonalisable telle que
\[\begin{equation*} ^{t}PAP=D=\left( \begin{array}{ccc} 1 & 0 & 0 \\ 0 & -2 & 0 \\ 0 & 0 & -2% \end{array}% \right) , \end{equation*} \]
où
\[\begin{equation*} P=\frac{1}{\sqrt{6}}\left( \begin{array}{ccc} \sqrt{2} & -\sqrt{3} & -1 \\ \sqrt{2} & \sqrt{3} & -1 \\ \sqrt{2} & 0 & 2% \end{array}% \right) \end{equation*}\]
est une matrice orthogonale.
Exemple : Exercice 3.2
Soit la matrice \[\begin{equation*} M=\left( \begin{array}{ccc} \frac{1}{2} & \frac{1}{4} & \frac{1}{4} \\ \frac{1}{4} & \frac{1}{3} & \frac{5}{12} \\ \frac{1}{4} & \frac{5}{12} & \frac{1}{3}% \end{array}% \right) \end{equation*}\]
Prouver que la suite de matrices \((M^n)\) converge.
Soit \(N=\underset{n\rightarrow \infty }{\lim }M^{n}\). Caractériser géométriquement l’endomorphisme associé `a \(N\).
Soit \((X_n)\) la suite de vecteurs de \(\mathbb{R}^{3}\) d´définie par \[X_{0}=\left( \begin{array}{c} u_{0} \\ v_{0} \\ w_{0}% \end{array}% \right)\] et \(X_{n+1}=MX_{n}\).
Prouver que la suite \((X_n)\) converge et d´déterminer sa limite en fonction de \(u_0, v_0\) et \(w_0\).