\( %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Mes commandes %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \newcommand{\multirows}[3]{\multirow{#1}{#2}{$#3$}}%pour rester en mode math \renewcommand{\arraystretch}{1.3}%pour augmenter la taille des case \newcommand{\point}[1]{\marginnote{\small\vspace*{-1em} #1}}%pour indiquer les points ou le temps \newcommand{\dpl}[1]{\displaystyle{#1}}%megamode \newcommand{\A}{\mathscr{A}} \newcommand{\LN}{\mathscr{N}} \newcommand{\LL}{\mathscr{L}} \newcommand{\K}{\mathbb{K}} \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\M}{\mathcal{M}} \newcommand{\D}{\mathbb{D}} \newcommand{\E}{\mathcal{E}} \renewcommand{\P}{\mathcal{P}} \newcommand{\G}{\mathcal{G}} \newcommand{\Kk}{\mathcal{K}} \newcommand{\Cc}{\mathcal{C}} \newcommand{\Zz}{\mathcal{Z}} \newcommand{\Ss}{\mathcal{S}} \newcommand{\B}{\mathbb{B}} \newcommand{\inde}{\bot\!\!\!\bot} \newcommand{\Proba}{\mathbb{P}} \newcommand{\Esp}[1]{\dpl{\mathbb{E}\left(#1\right)}} \newcommand{\Var}[1]{\dpl{\mathbb{V}\left(#1\right)}} \newcommand{\Cov}[1]{\dpl{Cov\left(#1\right)}} \newcommand{\base}{\mathcal{B}} \newcommand{\Som}{\textbf{Som}} \newcommand{\Chain}{\textbf{Chain}} \newcommand{\Ar}{\textbf{Ar}} \newcommand{\Arc}{\textbf{Arc}} \newcommand{\Min}{\text{Min}} \newcommand{\Max}{\text{Max}} \newcommand{\Ker}{\text{Ker}} \renewcommand{\Im}{\text{Im}} \newcommand{\Sup}{\text{Sup}} \newcommand{\Inf}{\text{Inf}} \renewcommand{\det}{\texttt{det}} \newcommand{\GL}{\text{GL}} \newcommand{\crossmark}{\text{\ding{55}}} \renewcommand{\checkmark}{\text{\ding{51}}} \newcommand{\Card}{\sharp} \newcommand{\Surligne}[2]{\text{\colorbox{#1}{ #2 }}} \newcommand{\SurligneMM}[2]{\text{\colorbox{#1}{ #2 }}} \newcommand{\norm}[1]{\left\lVert#1\right\rVert} \renewcommand{\lim}[1]{\underset{#1}{lim}\,} \newcommand{\nonor}[1]{\left|#1\right|} \newcommand{\Un}{1\!\!1} \newcommand{\sepon}{\setlength{\columnseprule}{0.5pt}} \newcommand{\sepoff}{\setlength{\columnseprule}{0pt}} \newcommand{\flux}{Flux} \newcommand{\Cpp}{\texttt{C++\ }} \newcommand{\Python}{\texttt{Python\ }} %\newcommand{\comb}[2]{\begin{pmatrix} #1\\ #2\end{pmatrix}} \newcommand{\comb}[2]{C_{#1}^{#2}} \newcommand{\arrang}[2]{A_{#1}^{#2}} \newcommand{\supp}[1]{Supp\left(#1\right)} \newcommand{\BB}{\mathcal{B}} \newcommand{\arc}[1]{\overset{\rotatebox{90}{)}}{#1}} \newcommand{\modpi}{\equiv_{2\pi}} \renewcommand{\Re}{Re} \renewcommand{\Im}{Im} \renewcommand{\bar}[1]{\overline{#1}} \newcommand{\mat}{\mathcal{M}} \newcommand{\und}[1]{{\mathbf{\color{red}\underline{#1}}}} \newcommand{\rdots}{\text{\reflectbox{$\ddots$}}} \newcommand{\Compa}{Compa} \newcommand{\dint}{\dpl{\int}} \newcommand{\intEFF}[2]{\left[\!\left[#1 ; #2\right]\!\right]} \newcommand{\intEFO}[2]{\left[\!\left[#1 ; #2\right[\!\right[} \newcommand{\intEOF}[2]{\left]\!\left]#1 ; #2\right]\!\right]} \newcommand{\intEOO}[2]{\left]\!\left]#1 ; #2\right[\!\right[} \newcommand{\ou}{\vee} \newcommand{\et}{\wedge} \newcommand{\non}{\neg} \newcommand{\implique}{\Rightarrow} \newcommand{\equivalent}{\Leftrightarrow} \newcommand{\Ab}{\overline{A}} \newcommand{\Bb}{\overline{B}} \newcommand{\Cb}{\overline{C}} \newcommand{\Cl}{\texttt{Cl}} \newcommand{\ab}{\overline{a}} \newcommand{\bb}{\overline{b}} \newcommand{\cb}{\overline{c}} \newcommand{\Rel}{\mathcal{R}} \newcommand{\superepsilon}{\varepsilon\!\!\varepsilon} \newcommand{\supere}{e\!\!e} \makeatletter \newenvironment{console}{\noindent\color{white}\begin{lrbox}{\@tempboxa}\begin{minipage}{\columnwidth} \ttfamily \bfseries\vspace*{0.5cm}} {\vspace*{0.5cm}\end{minipage}\end{lrbox}\colorbox{black}{\usebox{\@tempboxa}} } \makeatother \def\ie{\textit{i.e. }} \def\cf{\textit{c.f. }} \def\vide{ { $ {\text{ }} $ } } %Commande pour les vecteurs \newcommand{\grad}{\overrightarrow{Grad}} \newcommand{\Vv}{\overrightarrow{v}} \newcommand{\Vu}{\overrightarrow{u}} \newcommand{\Vw}{\overrightarrow{w}} \newcommand{\Vup}{\overrightarrow{u'}} \newcommand{\Zero}{\overrightarrow{0}} \newcommand{\Vx}{\overrightarrow{x}} \newcommand{\Vy}{\overrightarrow{y}} \newcommand{\Vz}{\overrightarrow{z}} \newcommand{\Vt}{\overrightarrow{t}} \newcommand{\Va}{\overrightarrow{a}} \newcommand{\Vb}{\overrightarrow{b}} \newcommand{\Vc}{\overrightarrow{c}} \newcommand{\Vd}{\overrightarrow{d}} \newcommand{\Ve}[1]{\overrightarrow{e_{#1}}} \newcommand{\Vf}[1]{\overrightarrow{f_{#1}}} \newcommand{\Vn}{\overrightarrow{0}} \newcommand{\Mat}{Mat} \newcommand{\Pass}{Pass} \newcommand{\mkF}{\mathfrak{F}} \renewcommand{\sp}{Sp} \newcommand{\Co}{Co} \newcommand{\vect}[1]{\texttt{Vect}\dpl{\left( #1\right)}} \newcommand{\prodscal}[2]{\dpl{\left\langle #1\left|\vphantom{#1 #2}\right. #2\right\rangle}} \newcommand{\trans}[1]{{\vphantom{#1}}^{t}{#1}} \newcommand{\ortho}[1]{{#1}^{\bot}} \newcommand{\oplusbot}{\overset{\bot}{\oplus}} \SelectTips{cm}{12}%Change le bout des flèches dans un xymatrix \newcommand{\pourDES}[8]{ \begin{itemize} \item Pour la ligne : le premier et dernier caractère forment $#1#2$ soit $#4$ en base 10. \item Pour la colonne : les autres caractères du bloc forment $#3$ soit $#5$ en base 10. \item A l'intersection de la ligne $#4+1$ et de la colonne $#5+1$ de $S_{#8}$ se trouve l'entier $#6$ qui, codé sur $4$ bits, est \textbf{\texttt{$#7$}}. \end{itemize} } \)

Souvent en algèbre (bi)linéaire (en dimension finie) on choisi de travailler avec les matrices. Cependant les matrices impliquent le choix d'une base. Si \( \mathcal{B}\) est une base d'un espace vectoriel \( E\) et \( \overrightarrow{e}_{}\in E\) , on notera \( \overrightarrow{e}_{\mathcal{B}}\) l'expression de \( \overrightarrow{e}_{}\) dans la base \( \mathcal{B}\) . On rappel qu'étant donné deux bases \( \mathcal{B}\) et \( \mathcal{B}'\) , on note \( Pass(\mathcal{B}, \mathcal{B'})\) la matrice de passage de \( \mathcal{B}\) à \( \mathcal{B}'\) . En particulier on a \( P\overrightarrow{e}_{\mathcal{B}'}=\overrightarrow{e}_{\mathcal{B}}\) . %(voir par ici)

Définition


Soient \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) un espace euclidien de dimension \( n\in\N_{{>}0}\) et \( \mathcal{B}=\{\overrightarrow{e}_{1}, \ldots, \overrightarrow{e}_{n}\}\) une base de \( E\) . On appel matrice du produit scalaire par rapport à \( \mathcal{B}\) , la matrice \( M\) où \[\forall i, j \in [\![1 ; n]\!], \ M_{i, j}=\left\langle \overrightarrow{e}_{i} \left|\vphantom{\overrightarrow{e}_{i} \overrightarrow{e}_{j}}\right. \overrightarrow{e}_{j} \right\rangle\]
Considérons par exemple \( \R^2\) munit de sa structure euclidienne canonique. On laisse le soin au lecteur de vérifier que \( \mathcal{B}=\left\{\overrightarrow{e}_{1}=\begin{pmatrix} 1\\1 \end{pmatrix}, \overrightarrow{e}_{2}=\begin{pmatrix} 1\\0 \end{pmatrix}\right\}\) forment une base de \( \R^2\) . Alors la matrice du produit scalaire dans cette base est \( M=\begin{pmatrix} 2&1\\1&1 \end{pmatrix}\) .

Exercice


Considérons \( \R^2\) munit de sa structure euclidienne canonique. Déterminer la matrice du produit scalaire dans les bases suivantes après avoir montré qu'il s'agit bien de basse de \( \R^2\)
  1. \( \mathcal{A}=\left\{ \begin{pmatrix} 1\\0 \end{pmatrix}, \begin{pmatrix} 0\\1 \end{pmatrix} \right\}\)
  2. \( \mathcal{B}=\left\{ \begin{pmatrix} 1\\1 \end{pmatrix}, \begin{pmatrix} 1\\-1 \end{pmatrix} \right\}\)
  3. \( \mathcal{C}=\left\{ \begin{pmatrix} 1\\0 \end{pmatrix}, \begin{pmatrix} 1\\1 \end{pmatrix} \right\}\)
  4. \( \mathcal{D}=\left\{ \begin{pmatrix} 1\\2 \end{pmatrix}, \begin{pmatrix} 3\\4 \end{pmatrix} \right\}\)
  5. \( \mathcal{E}=\left\{ \begin{pmatrix} -2\\1 \end{pmatrix}, \begin{pmatrix} 1\\2 \end{pmatrix} \right\}\)

Proposition


Soit \( n\in \N_{{>}0}\) .La matrice du produit scalaire canonique dans \( \R^n\) munit de sa structure euclidienne canonique est \( Id_n\) .

Démonstration

Exercice

Théorème


Soient \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) un espace euclidien de dimension \( n\in\N_{{>}0}\) , \( \mathcal{B}=\{\overrightarrow{e}_{1}, \ldots, \overrightarrow{e}_{n}\}\) une base de \( E\) et \( M\) la matrice du produit scalaire par rapport à \( \mathcal{B}\) . \[\forall \overrightarrow{x}, \overrightarrow{y}\in E, \ \left\langle \overrightarrow{x} \left|\vphantom{\overrightarrow{x} \overrightarrow{y}}\right. \overrightarrow{y} \right\rangle={\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}M\overrightarrow{y}_{\mathcal{B}}\]

Démonstration

Exercice
Reprenons l'exemple précédent. On vérifie que \( \overrightarrow{x}=\begin{pmatrix} x_1\\x_2 \end{pmatrix}=x_2\overrightarrow{e}_{1}+(x_1-x_2)\overrightarrow{e}_{2}=\begin{pmatrix} x_2\\x_1-x_2 \end{pmatrix}_{\mathcal{B}}\) . On a alors \begin{eqnarray*} {\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}M\overrightarrow{y}_{\mathcal{B}} &=&\begin{pmatrix} x_2&x_1-x_2 \end{pmatrix}_\mathcal{B}\begin{pmatrix} 2&1\\1&1 \end{pmatrix} \begin{pmatrix} y_2\\y_1-y_2 \end{pmatrix}_\mathcal{B}\\ &=&\begin{pmatrix} x_2&x_1-x_2 \end{pmatrix}_\mathcal{B}\begin{pmatrix} 2y_2+(y1-y2)\\ y_2+(y_1-y_2) \end{pmatrix}\\ &=&\begin{pmatrix} x_2&x_1-x_2 \end{pmatrix}_\mathcal{B}\begin{pmatrix} y_2+y1\\ y_1 \end{pmatrix}\\ &=&x_2(y_2+y_1)+(x_1-x_2)y_1\\ &=&x_2y_2+x_2y_1+x_1y_1-x_2y_1\\ &=&x_2y_2+x_1y_1 \end{eqnarray*} On retrouve bien l'expression du produit scalaire canonique.

Proposition


Soit \( M\) la matrice du produit scalaire dans une base \( \mathcal{B}\) quelconque d'un espace vectoriel euclidien \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) .
\( (i)\) Symétrie.
\( {\vphantom{M}}^{t}{M}=M\)

\( (ii)\) Positivité.
\( \forall \overrightarrow{x}\in E, \ {\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}A\overrightarrow{x}_{\mathcal{B}}\geqslant 0\)

\( (iii)\) Séparation.
\( \forall \overrightarrow{x}\in E, \ {\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}A\overrightarrow{x}_{\mathcal{B}}=0\Longleftrightarrow\overrightarrow{x}_{\mathcal{B}}=\overrightarrow{0}_{\mathcal{B}}\)

\( (iv)\) Inversibilité.
\( M\in GL_n(\R)\) .

Démonstration

Hormis la dernière proposition, toutes les formules sont l'expression matricielle des axiomes d'un produit scalaire. Pour démontrer que \( M\in GL_n(\R)\) , c'est à dire que \( M\) est inversible, il suffit de montrer qu'elle définie une application linéaire injective (c'est une conséquence du théorème du rang). Soit \( \overrightarrow{x}_{\mathcal{B}}\in \Ker(M)\) alors \( M\overrightarrow{x}_{\mathcal{B}}=\overrightarrow{0}\) donc \( 0={\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}M\overrightarrow{x}_{\mathcal{B}}=\left\langle \overrightarrow{x} \left|\vphantom{\overrightarrow{x} \overrightarrow{x}}\right. \overrightarrow{x} \right\rangle=\norm{\overrightarrow{x}}^2\) et donc \( \overrightarrow{x}=\overrightarrow{0}\) par la propriété de la séparation.
Intéressons nous aux changement de base.

Lemme


Soit \( A, B\in \mathcal{Mat}_n(\R)\) . \[A=B \ \Longleftrightarrow\ \left(\forall \overrightarrow{x}, \overrightarrow{y}\in E, \ {\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}A\overrightarrow{y}_{\mathcal{B}} = {\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}B\overrightarrow{y}_{\mathcal{B}} \right)\]

Démonstration

Le sens \( \Rightarrow\) est trivial, il suffit de montrer \( \Leftarrow\) mais cela découle de l'observation que \( {\vphantom{\overrightarrow{e}_{i}}}^{t}{\overrightarrow{e}_{i}}A\overrightarrow{e}_{j}=A_{i, j}\) pour \( \overrightarrow{e}_{k}\) les vecteurs de la base la base canonique.

Théorème


Soient \( \mathcal{B}\) et \( \mathcal{B}'\) deux bases d'un espace euclidien \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) , \( P=\mathcal{Pass}(\mathcal{B}, \mathcal{B}')\) , \( M_{\mathcal{B}}\) la matrice du produit scalaire par rapport à la base \( \mathcal{B}\) et \( M_{\mathcal{B}'}\) la matrice du produit scalaire par rapport à la base \( \mathcal{B}'\) . \[M_{\mathcal{B}'}={\vphantom{P}}^{t}{P}M_{\mathcal{B}}P\]

Démonstration

Soient \( \overrightarrow{x}, \overrightarrow{y}\in E\) . On rappel que \( P\overrightarrow{x}_{\mathcal{B}'}=\overrightarrow{x}_{\mathcal{B}}\) \begin{eqnarray*} \left\langle \overrightarrow{x} \left|\vphantom{\overrightarrow{x} \overrightarrow{y}}\right. \overrightarrow{y} \right\rangle=\left\langle \overrightarrow{x}_{\mathcal{B}} \left|\vphantom{\overrightarrow{x}_{\mathcal{B}} \overrightarrow{y}_{\mathcal{B}}}\right. \overrightarrow{y}_{\mathcal{B}} \right\rangle=\left\langle \overrightarrow{x}_{\mathcal{B}'} \left|\vphantom{\overrightarrow{x}_{\mathcal{B}'} \overrightarrow{y}_{\mathcal{B}'}}\right. \overrightarrow{y}_{\mathcal{B}'} \right\rangle &\Longrightarrow& {\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}M_{\mathcal{B}}\overrightarrow{y}_{\mathcal{B}}= {\vphantom{\overrightarrow{x}_{\mathcal{B}'}}}^{t}{\overrightarrow{x}_{\mathcal{B}'}}M_{\mathcal{B}'}\overrightarrow{y}_{\mathcal{B}'}\\ &\Longrightarrow& {\vphantom{\left(P\overrightarrow{x}_{\mathcal{B}'}\right)}}^{t}{\left(P\overrightarrow{x}_{\mathcal{B}'}\right)}M_{\mathcal{B}}\left(P\overrightarrow{y}_{\mathcal{B}'}\right)= {\vphantom{\overrightarrow{x}_{\mathcal{B}'}}}^{t}{\overrightarrow{x}_{\mathcal{B}'}}M_{\mathcal{B}'}\overrightarrow{y}_{\mathcal{B}'}\\ &\Longrightarrow& {\vphantom{\overrightarrow{x}_{\mathcal{B}'}}}^{t}{\overrightarrow{x}_{\mathcal{B}'}}{\vphantom{P}}^{t}{P}M_{\mathcal{B}}P\overrightarrow{y}_{\mathcal{B}'}= {\vphantom{\overrightarrow{x}_{\mathcal{B}'}}}^{t}{\overrightarrow{x}_{\mathcal{B}'}}M_{\mathcal{B}'}\overrightarrow{y}_{\mathcal{B}'}\\ &\Longrightarrow& {\vphantom{\overrightarrow{x}_{\mathcal{B}'}}}^{t}{\overrightarrow{x}_{\mathcal{B}'}}\left({\vphantom{P}}^{t}{P}M_{\mathcal{B}}P\right)\overrightarrow{y}_{\mathcal{B}'}= {\vphantom{\overrightarrow{x}_{\mathcal{B}'}}}^{t}{\overrightarrow{x}_{\mathcal{B}'}}M_{\mathcal{B}'}\overrightarrow{y}_{\mathcal{B}'}\\ \end{eqnarray*} On conclut avec le précédent lemme.

Définition


On dira qu'une matrice \( A\in \mathcal{Mat}_n(\R)\) est orthogonale si \( {\vphantom{A}}^{t}{A}A=Id_n\) .

Proposition


\( (i)\) .
Si \( A\) est une matrice orthogonale \( \det(A)=\pm 1\)

\( (ii)\) .
Si \( A\) est une matrice orthogonale alors \( A\) est inversible et \( A^{-1}={\vphantom{A}}^{t}{A}\) .

\( (iii)\) .
Si \( \mathcal{B}\) et \( \mathcal{B}'\) sont deux bases orthogonales d'un espace euclidien alors \( \mathcal{Pass}(\mathcal{B}, \mathcal{B}')\) est orthogonale.

Démonstration

\( (i)\) .
Par définition on a \( {\vphantom{A}}^{t}{A}A=Id_n\) alors \( \det\left({\vphantom{A}}^{t}{A}A\right)=\det\left(Id_n\right)\) soit encore \( \det\left({\vphantom{A}}^{t}{A}\right)\det\left(A\right)=1\) et donc \( \det(A)^2=1\) puisque une matrice et sa transposée ont le même déterminant.

\( (ii)\)
En particulier puisque ce determinant est non nul alors la matrice est inversible. L'unicité de l'inverse prouve que \( A^{-1}={\vphantom{A}}^{t}{A}\) .

\( (iii)\) .
La matrice d'un produit scalaire par rapport à une base orthonormé est l'identité. Le théorème précédent donne alors \( Id_n={\vphantom{P}}^{t}{P}Id_nP={\vphantom{P}}^{t}{P}P\) .

Exercice


Déterminer des réels \( a\) , \( b\) et \( c\) pour que \( \begin{pmatrix} \dfrac{1}{a}&b\\ \dfrac{1}{a}&c \end{pmatrix}\) soit orthogonale.

Lemme


Toute matrice symétrique réelle admet au moins une valeur propre réelle.

Démonstration

D'après le théorème de de Gauss d'Alembert, le polynôme caractéristique \( \chi_A(X)=\det(A-XId)\) d'un matrice symétrique \( A\) admet au moins une solution complexe. Soit \( \lambda\) une solution. Montrons que \( \lambda\) est réel. Soit \( \overrightarrow{x}\) un vecteur propre (éventuellement complexe). \[ \begin{array}{rcll} A\overrightarrow{x}&=&\lambda \overrightarrow{x} &\\ \overline{A\overrightarrow{x}}&=&\overline{\lambda \overrightarrow{x}} &\text{On conjugue}\\ {\vphantom{\overline{\overrightarrow{x}}}}^{t}{\overline{\overrightarrow{x}}}{\vphantom{\overline{A}}}^{t}{\overline{A}}&=&\overline{\lambda} \overline{{\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}} &\text{On transpose}\\ {\vphantom{\overline{\overrightarrow{x}}}}^{t}{\overline{\overrightarrow{x}}}{\vphantom{\overline{A}}}^{t}{\overline{A}}\overrightarrow{x}&=&\overline{\lambda} \overline{{\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}}\overrightarrow{x} &\text{On multiplie à droite par }\overrightarrow{x}\\ {\vphantom{\overline{\overrightarrow{x}}}}^{t}{\overline{\overrightarrow{x}}}\overline{A}\overrightarrow{x}&=&\overline{\lambda} \overline{{\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}}\overrightarrow{x} &\text{La matrice }A\text{est symétrique et réelle}\\ {\vphantom{\overline{\overrightarrow{x}}}}^{t}{\overline{\overrightarrow{x}}}\lambda\overrightarrow{x}&=&\overline{\lambda} \overline{{\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}}\overrightarrow{x} &\text{Le vecteur }\overrightarrow{x}\text{ est un vecteur propre de la valeur propre }\lambda\\ \lambda\norm{\overrightarrow{x}}^2&=&\overline{\lambda} \norm{\overrightarrow{x}}^2 & \text{On observe que }\overline{{\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}}\overrightarrow{x}=\norm{\overrightarrow{x}}^2\\ \lambda &=& \overline{\lambda} &\text{On simplifie}\\ \end{array} \]

Théorème [Théorème spectrale]


Toute matrice symétrique réelle est diagonalisable dans une base orthonormé. Précisément, pour toute matrice symétrique \( A\) (\( {\vphantom{A}}^{t}{A}=A\) ), il existe une matrice orthogonale \( P\) (\( {\vphantom{P}}^{t}{P}P=Id\) ) tel que \( {\vphantom{P}}^{t}{P}AP\) soit une matrice diagonale.

Démonstration

Munissons \( \R^n\) de sa structure d'espace euclidien canonique. En particulier la base canonique \( \mathcal{B}\) est une base orthonormale. D'après le lemme précédent, \( A\) possède une valeur propre réelle. Notons \( \lambda\) cette valeur propre et \( \overrightarrow{x}\) un vecteur propre que l'on peut choisir normalisé. Notons \( X={\texttt{Vect}}\left(\overrightarrow{x} \right)\) et considérons, par l'intermédiaire du procédé de Gram-Schmidt, une base orthonormé \( \mathcal{B}'=\{\overrightarrow{x}, \overrightarrow{f}_{1}, \overrightarrow{f}_{n-1}\}\) de \( \R^n=X\overset{\bot}{\oplus}X^{\bot}\) . Puisque les bases \( \mathcal{B}\) et \( \mathcal{B}'\) sont orthonormales, \( P=\mathcal{Pass}(\mathcal{B}, \mathcal{B}')\) est orthogonale. Soit \( B\) l'expression de la matrice \( A\) dans la base \( \mathcal{B}'\) alors \( B=\begin{pmatrix} \lambda & 0 & ... & 0 \\ 0 & & & \\ \vdots & &\text{ C} & \\ 0 & & & \end{pmatrix} \) . En effet, la première colonne est la définition de vecteur propre, tandis que pour la première ligne, cela vient du fait que \( \left\langle A\overrightarrow{f}_{k} \left|\vphantom{A\overrightarrow{f}_{k} \overrightarrow{x}}\right. \overrightarrow{x} \right\rangle={\vphantom{\left(A\overrightarrow{f}_{k}\right)}}^{t}{\left(A\overrightarrow{f}_{k}\right)}\overrightarrow{x}={\vphantom{\overrightarrow{f}_{k}}}^{t}{\overrightarrow{f}_{k}}{\vphantom{A}}^{t}{A}\overrightarrow{x}={\vphantom{\overrightarrow{f}_{k}}}^{t}{\overrightarrow{f}_{k}}A\overrightarrow{x}={\vphantom{\overrightarrow{f}_{k}}}^{t}{\overrightarrow{f}_{k}}\lambda\overrightarrow{x}=\lambda{\vphantom{\overrightarrow{f}_{k}}}^{t}{\overrightarrow{f}_{k}}\overrightarrow{x}=\lambda\left\langle \overrightarrow{f}_{k} \left|\vphantom{\overrightarrow{f}_{k} \overrightarrow{x}}\right. \overrightarrow{x} \right\rangle=\lambda 0=0\) . Puisque \( A\) est symétrique, il de va même pour \( B\) et naturellement aussi pour \( C\) . En raisonnant par récurrence, on peut trouver une base orthogonale de vecteur propre pour \( C\) .

Corollaire


Soit \( A\) une matrice symétrique de \( \mathcal{Mat}_n(\R)\) et \( \lambda_1\leqslant\cdots\leqslant\lambda_n\) ses valeurs propres. \[\forall \overrightarrow{x}\in \R^n, \ \lambda_1\norm{\overrightarrow{x}}^2\leqslant {\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}A\overrightarrow{x}\leqslant\lambda_1\norm{\overrightarrow{x}}^2\]

Démonstration

D'après le théorème précédent, quitte à changer de base, on peut supposer que \( A\) est diagonale \( A=\begin{pmatrix} \lambda_1&&\\ &\ddots&\\ &&\lambda_n \end{pmatrix}\) . Notons \( x_i\) les coordonnées de \( \overrightarrow{x}\) dans cette base orthonormé de diagonalisation. Alors \( {\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}A\overrightarrow{x}=\dpl{\sum_{i=1}^n\lambda_ix_i^2}\) . L'organisation des valeurs propres permet de conclure.

Corollaire


Soit \( A\) une matrice symétrique de \( \mathcal{Mat}_n(\R)\) et \( \lambda_1\leqslant\cdots\leqslant\lambda_n\) ses valeurs propres. \[\underset{\norm{\overrightarrow{x}}=1}{Sup}\left({\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}A\overrightarrow{x}\right)=\lambda_n\] De plus le \( Sup\) est atteint pour les vecteurs de l'espace propre \( \Ker\left(A-\lambda_nId_n\right)\)

Démonstration

Triviale

Exercice


  1. Justifier que la matrice \( A= \begin{pmatrix} 6 & -2 & 2 \\ -2 & 5& 0 \\ 2 & 0 & 7 \end{pmatrix} \) admet une base orthonormée de \( \R^3\) comme vecteurs propres.
  2. Monter que les valeurs propres de cette matrice sont \( 3\) , \( 6\) et \( 9\) .
  3. Déterminer une matrice \( P \) telle que \( {\vphantom{P}}^{t}{P}AP \) soit diagonale.

Exercice


  1. Justifier que la matrice \( A= \begin{pmatrix} 1 & -2 &- 2 \\ -2 & 1& -2 \\ -2 & -2 & 1 \end{pmatrix} \) admet une base orthonormée de \( \R^3\) comme vecteurs propres.
  2. Monter que les valeurs propres de cette matrice sont \( 3\) et \( -3\) .
  3. Déterminer une base de \( \R^3\) composée de vecteurs propres de \( A \) .

Exercice


Soit \( E=\R^4\) est muni de sa structure euclidienne canonique. On considère le sous-espaces \( F \) de \( E \) défini par \( F=\left\{\begin{pmatrix} x\\y\\z\\t \end{pmatrix}\in E\left|\vphantom{\begin{pmatrix} x\\y\\z\\t \end{pmatrix}}\right. x+z+t=0 \et x-y+z=0\right\} \)
Déterminer une base orthonormale de \( F \)