Souvent en algèbre (bi)linéaire (en dimension finie) on choisi de travailler avec les matrices. Cependant les matrices impliquent le choix d'une base.
Si \( \mathcal{B}\) est une base d'un espace vectoriel \( E\) et \( \overrightarrow{e}_{}\in E\) , on notera \( \overrightarrow{e}_{\mathcal{B}}\) l'expression de \( \overrightarrow{e}_{}\) dans la base \( \mathcal{B}\) .
On rappel qu'étant donné deux bases \( \mathcal{B}\) et \( \mathcal{B}'\) , on note \( Pass(\mathcal{B}, \mathcal{B'})\) la matrice de passage de \( \mathcal{B}\) à \( \mathcal{B}'\) . En particulier on a \( P\overrightarrow{e}_{\mathcal{B}'}=\overrightarrow{e}_{\mathcal{B}}\) .
%(voir par
ici)
Définition
Soient \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) un espace euclidien de dimension \( n\in\N_{{>}0}\) et \( \mathcal{B}=\{\overrightarrow{e}_{1}, \ldots, \overrightarrow{e}_{n}\}\) une base de \( E\) . On appel matrice du produit scalaire par rapport à \( \mathcal{B}\) , la matrice \( M\) où
\[\forall i, j \in [\![1 ; n]\!], \ M_{i, j}=\left\langle \overrightarrow{e}_{i} \left|\vphantom{\overrightarrow{e}_{i} \overrightarrow{e}_{j}}\right. \overrightarrow{e}_{j} \right\rangle\]
Considérons par exemple \( \R^2\) munit de sa structure euclidienne canonique. On laisse le soin au lecteur de vérifier que \( \mathcal{B}=\left\{\overrightarrow{e}_{1}=\begin{pmatrix}
1\\1
\end{pmatrix}, \overrightarrow{e}_{2}=\begin{pmatrix}
1\\0
\end{pmatrix}\right\}\) forment une base de \( \R^2\) . Alors la matrice du produit scalaire dans cette base est \( M=\begin{pmatrix}
2&1\\1&1
\end{pmatrix}\) .
Exercice
Considérons \( \R^2\) munit de sa structure euclidienne canonique.
Déterminer la matrice du produit scalaire dans les bases suivantes après avoir montré qu'il s'agit bien de basse de \( \R^2\)
- \( \mathcal{A}=\left\{
\begin{pmatrix}
1\\0
\end{pmatrix},
\begin{pmatrix}
0\\1
\end{pmatrix}
\right\}\)
- \( \mathcal{B}=\left\{
\begin{pmatrix}
1\\1
\end{pmatrix},
\begin{pmatrix}
1\\-1
\end{pmatrix}
\right\}\)
- \( \mathcal{C}=\left\{
\begin{pmatrix}
1\\0
\end{pmatrix},
\begin{pmatrix}
1\\1
\end{pmatrix}
\right\}\)
- \( \mathcal{D}=\left\{
\begin{pmatrix}
1\\2
\end{pmatrix},
\begin{pmatrix}
3\\4
\end{pmatrix}
\right\}\)
- \( \mathcal{E}=\left\{
\begin{pmatrix}
-2\\1
\end{pmatrix},
\begin{pmatrix}
1\\2
\end{pmatrix}
\right\}\)
Proposition
Soit \( n\in \N_{{>}0}\) .La matrice du produit scalaire canonique dans \( \R^n\) munit de sa structure euclidienne canonique est \( Id_n\) .
Démonstration
Exercice
Théorème
Soient \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) un espace euclidien de dimension \( n\in\N_{{>}0}\) , \( \mathcal{B}=\{\overrightarrow{e}_{1}, \ldots, \overrightarrow{e}_{n}\}\) une base de \( E\) et \( M\) la matrice du produit scalaire par rapport à \( \mathcal{B}\) .
\[\forall \overrightarrow{x}, \overrightarrow{y}\in E, \ \left\langle \overrightarrow{x} \left|\vphantom{\overrightarrow{x} \overrightarrow{y}}\right. \overrightarrow{y} \right\rangle={\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}M\overrightarrow{y}_{\mathcal{B}}\]
Démonstration
Exercice
Reprenons l'exemple précédent. On vérifie que \( \overrightarrow{x}=\begin{pmatrix}
x_1\\x_2
\end{pmatrix}=x_2\overrightarrow{e}_{1}+(x_1-x_2)\overrightarrow{e}_{2}=\begin{pmatrix}
x_2\\x_1-x_2
\end{pmatrix}_{\mathcal{B}}\) .
On a alors
\begin{eqnarray*}
{\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}M\overrightarrow{y}_{\mathcal{B}}
&=&\begin{pmatrix}
x_2&x_1-x_2
\end{pmatrix}_\mathcal{B}\begin{pmatrix}
2&1\\1&1
\end{pmatrix}
\begin{pmatrix}
y_2\\y_1-y_2
\end{pmatrix}_\mathcal{B}\\
&=&\begin{pmatrix}
x_2&x_1-x_2
\end{pmatrix}_\mathcal{B}\begin{pmatrix}
2y_2+(y1-y2)\\
y_2+(y_1-y_2)
\end{pmatrix}\\
&=&\begin{pmatrix}
x_2&x_1-x_2
\end{pmatrix}_\mathcal{B}\begin{pmatrix}
y_2+y1\\
y_1
\end{pmatrix}\\
&=&x_2(y_2+y_1)+(x_1-x_2)y_1\\
&=&x_2y_2+x_2y_1+x_1y_1-x_2y_1\\
&=&x_2y_2+x_1y_1
\end{eqnarray*}
On retrouve bien l'expression du produit scalaire canonique.
Proposition
Soit \( M\) la matrice du produit scalaire dans une base \( \mathcal{B}\) quelconque d'un espace vectoriel euclidien \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) .
- \( (i)\) Symétrie.
- \( {\vphantom{M}}^{t}{M}=M\)
- \( (ii)\) Positivité.
- \( \forall \overrightarrow{x}\in E, \ {\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}A\overrightarrow{x}_{\mathcal{B}}\geqslant 0\)
- \( (iii)\) Séparation.
- \( \forall \overrightarrow{x}\in E, \ {\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}A\overrightarrow{x}_{\mathcal{B}}=0\Longleftrightarrow\overrightarrow{x}_{\mathcal{B}}=\overrightarrow{0}_{\mathcal{B}}\)
- \( (iv)\) Inversibilité.
- \( M\in GL_n(\R)\) .
Démonstration
Hormis la dernière proposition, toutes les formules sont l'expression matricielle des axiomes d'un produit scalaire.
Pour démontrer que \( M\in GL_n(\R)\) , c'est à dire que \( M\) est inversible, il suffit de montrer qu'elle définie une application linéaire injective (c'est une conséquence du théorème du rang). Soit \( \overrightarrow{x}_{\mathcal{B}}\in \Ker(M)\) alors \( M\overrightarrow{x}_{\mathcal{B}}=\overrightarrow{0}\) donc \( 0={\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}M\overrightarrow{x}_{\mathcal{B}}=\left\langle \overrightarrow{x} \left|\vphantom{\overrightarrow{x} \overrightarrow{x}}\right. \overrightarrow{x} \right\rangle=\norm{\overrightarrow{x}}^2\) et donc \( \overrightarrow{x}=\overrightarrow{0}\) par la propriété de la séparation.
Intéressons nous aux changement de base.
Lemme
Soit \( A, B\in \mathcal{Mat}_n(\R)\) .
\[A=B \ \Longleftrightarrow\ \left(\forall \overrightarrow{x}, \overrightarrow{y}\in E, \ {\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}A\overrightarrow{y}_{\mathcal{B}} = {\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}B\overrightarrow{y}_{\mathcal{B}} \right)\]
Démonstration
Le sens \( \Rightarrow\) est trivial, il suffit de montrer \( \Leftarrow\) mais cela découle de l'observation que \( {\vphantom{\overrightarrow{e}_{i}}}^{t}{\overrightarrow{e}_{i}}A\overrightarrow{e}_{j}=A_{i, j}\) pour \( \overrightarrow{e}_{k}\) les vecteurs de la base la base canonique.
Théorème
Soient \( \mathcal{B}\) et \( \mathcal{B}'\) deux bases d'un espace euclidien \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) , \( P=\mathcal{Pass}(\mathcal{B}, \mathcal{B}')\) , \( M_{\mathcal{B}}\) la matrice du produit scalaire par rapport à la base \( \mathcal{B}\) et \( M_{\mathcal{B}'}\) la matrice du produit scalaire par rapport à la base \( \mathcal{B}'\) .
\[M_{\mathcal{B}'}={\vphantom{P}}^{t}{P}M_{\mathcal{B}}P\]
Démonstration
Soient \( \overrightarrow{x}, \overrightarrow{y}\in E\) . On rappel que \( P\overrightarrow{x}_{\mathcal{B}'}=\overrightarrow{x}_{\mathcal{B}}\)
\begin{eqnarray*}
\left\langle \overrightarrow{x} \left|\vphantom{\overrightarrow{x} \overrightarrow{y}}\right. \overrightarrow{y} \right\rangle=\left\langle \overrightarrow{x}_{\mathcal{B}} \left|\vphantom{\overrightarrow{x}_{\mathcal{B}} \overrightarrow{y}_{\mathcal{B}}}\right. \overrightarrow{y}_{\mathcal{B}} \right\rangle=\left\langle \overrightarrow{x}_{\mathcal{B}'} \left|\vphantom{\overrightarrow{x}_{\mathcal{B}'} \overrightarrow{y}_{\mathcal{B}'}}\right. \overrightarrow{y}_{\mathcal{B}'} \right\rangle
&\Longrightarrow&
{\vphantom{\overrightarrow{x}_{\mathcal{B}}}}^{t}{\overrightarrow{x}_{\mathcal{B}}}M_{\mathcal{B}}\overrightarrow{y}_{\mathcal{B}}=
{\vphantom{\overrightarrow{x}_{\mathcal{B}'}}}^{t}{\overrightarrow{x}_{\mathcal{B}'}}M_{\mathcal{B}'}\overrightarrow{y}_{\mathcal{B}'}\\
&\Longrightarrow&
{\vphantom{\left(P\overrightarrow{x}_{\mathcal{B}'}\right)}}^{t}{\left(P\overrightarrow{x}_{\mathcal{B}'}\right)}M_{\mathcal{B}}\left(P\overrightarrow{y}_{\mathcal{B}'}\right)=
{\vphantom{\overrightarrow{x}_{\mathcal{B}'}}}^{t}{\overrightarrow{x}_{\mathcal{B}'}}M_{\mathcal{B}'}\overrightarrow{y}_{\mathcal{B}'}\\
&\Longrightarrow&
{\vphantom{\overrightarrow{x}_{\mathcal{B}'}}}^{t}{\overrightarrow{x}_{\mathcal{B}'}}{\vphantom{P}}^{t}{P}M_{\mathcal{B}}P\overrightarrow{y}_{\mathcal{B}'}=
{\vphantom{\overrightarrow{x}_{\mathcal{B}'}}}^{t}{\overrightarrow{x}_{\mathcal{B}'}}M_{\mathcal{B}'}\overrightarrow{y}_{\mathcal{B}'}\\
&\Longrightarrow&
{\vphantom{\overrightarrow{x}_{\mathcal{B}'}}}^{t}{\overrightarrow{x}_{\mathcal{B}'}}\left({\vphantom{P}}^{t}{P}M_{\mathcal{B}}P\right)\overrightarrow{y}_{\mathcal{B}'}=
{\vphantom{\overrightarrow{x}_{\mathcal{B}'}}}^{t}{\overrightarrow{x}_{\mathcal{B}'}}M_{\mathcal{B}'}\overrightarrow{y}_{\mathcal{B}'}\\
\end{eqnarray*}
On conclut avec le précédent lemme.
Définition
On dira qu'une matrice \( A\in \mathcal{Mat}_n(\R)\) est orthogonale si \( {\vphantom{A}}^{t}{A}A=Id_n\) .
Proposition
- \( (i)\) .
- Si \( A\) est une matrice orthogonale \( \det(A)=\pm 1\)
- \( (ii)\) .
- Si \( A\) est une matrice orthogonale alors \( A\) est inversible et \( A^{-1}={\vphantom{A}}^{t}{A}\) .
- \( (iii)\) .
- Si \( \mathcal{B}\) et \( \mathcal{B}'\) sont deux bases orthogonales d'un espace euclidien alors \( \mathcal{Pass}(\mathcal{B}, \mathcal{B}')\) est orthogonale.
Démonstration
- \( (i)\) .
- Par définition on a \( {\vphantom{A}}^{t}{A}A=Id_n\) alors \( \det\left({\vphantom{A}}^{t}{A}A\right)=\det\left(Id_n\right)\) soit encore \( \det\left({\vphantom{A}}^{t}{A}\right)\det\left(A\right)=1\) et donc \( \det(A)^2=1\) puisque une matrice et sa transposée ont le même déterminant.
- \( (ii)\)
- En particulier puisque ce determinant est non nul alors la matrice est inversible. L'unicité de l'inverse prouve que \( A^{-1}={\vphantom{A}}^{t}{A}\) .
- \( (iii)\) .
- La matrice d'un produit scalaire par rapport à une base orthonormé est l'identité. Le théorème précédent donne alors \( Id_n={\vphantom{P}}^{t}{P}Id_nP={\vphantom{P}}^{t}{P}P\) .
Exercice
Déterminer des réels \( a\) , \( b\) et \( c\) pour que \( \begin{pmatrix}
\dfrac{1}{a}&b\\
\dfrac{1}{a}&c
\end{pmatrix}\) soit orthogonale.
Lemme
Toute matrice symétrique réelle admet au moins une valeur propre réelle.
Démonstration
D'après le théorème de de Gauss d'Alembert, le polynôme caractéristique \( \chi_A(X)=\det(A-XId)\) d'un matrice symétrique \( A\) admet au moins une solution complexe. Soit \( \lambda\) une solution. Montrons que \( \lambda\) est réel. Soit \( \overrightarrow{x}\) un vecteur propre (éventuellement complexe).
\[
\begin{array}{rcll}
A\overrightarrow{x}&=&\lambda \overrightarrow{x} &\\
\overline{A\overrightarrow{x}}&=&\overline{\lambda \overrightarrow{x}} &\text{On conjugue}\\
{\vphantom{\overline{\overrightarrow{x}}}}^{t}{\overline{\overrightarrow{x}}}{\vphantom{\overline{A}}}^{t}{\overline{A}}&=&\overline{\lambda} \overline{{\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}} &\text{On transpose}\\
{\vphantom{\overline{\overrightarrow{x}}}}^{t}{\overline{\overrightarrow{x}}}{\vphantom{\overline{A}}}^{t}{\overline{A}}\overrightarrow{x}&=&\overline{\lambda} \overline{{\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}}\overrightarrow{x} &\text{On multiplie à droite par }\overrightarrow{x}\\
{\vphantom{\overline{\overrightarrow{x}}}}^{t}{\overline{\overrightarrow{x}}}\overline{A}\overrightarrow{x}&=&\overline{\lambda} \overline{{\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}}\overrightarrow{x} &\text{La matrice }A\text{est symétrique et réelle}\\
{\vphantom{\overline{\overrightarrow{x}}}}^{t}{\overline{\overrightarrow{x}}}\lambda\overrightarrow{x}&=&\overline{\lambda} \overline{{\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}}\overrightarrow{x} &\text{Le vecteur }\overrightarrow{x}\text{ est un vecteur propre de la valeur propre }\lambda\\
\lambda\norm{\overrightarrow{x}}^2&=&\overline{\lambda} \norm{\overrightarrow{x}}^2 & \text{On observe que }\overline{{\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}}\overrightarrow{x}=\norm{\overrightarrow{x}}^2\\
\lambda &=& \overline{\lambda} &\text{On simplifie}\\
\end{array}
\]
Théorème [Théorème spectrale]
Toute matrice symétrique réelle est diagonalisable dans une base orthonormé.
Précisément, pour toute matrice symétrique \( A\) (\( {\vphantom{A}}^{t}{A}=A\) ), il existe une matrice orthogonale \( P\) (\( {\vphantom{P}}^{t}{P}P=Id\) ) tel que \( {\vphantom{P}}^{t}{P}AP\) soit une matrice diagonale.
Démonstration
Munissons \( \R^n\) de sa structure d'espace euclidien canonique. En particulier la base canonique \( \mathcal{B}\) est une base orthonormale.
D'après le lemme précédent, \( A\) possède une valeur propre réelle. Notons \( \lambda\) cette valeur propre et \( \overrightarrow{x}\) un vecteur propre que l'on peut choisir normalisé. Notons \( X={\texttt{Vect}}\left(\overrightarrow{x} \right)\) et considérons, par l'intermédiaire du procédé de Gram-Schmidt, une base orthonormé \( \mathcal{B}'=\{\overrightarrow{x}, \overrightarrow{f}_{1}, \overrightarrow{f}_{n-1}\}\) de \( \R^n=X\overset{\bot}{\oplus}X^{\bot}\) . Puisque les bases \( \mathcal{B}\) et \( \mathcal{B}'\) sont orthonormales, \( P=\mathcal{Pass}(\mathcal{B}, \mathcal{B}')\) est orthogonale.
Soit \( B\) l'expression de la matrice \( A\) dans la base \( \mathcal{B}'\) alors
\( B=\begin{pmatrix}
\lambda & 0 & ... & 0 \\
0 & & & \\
\vdots & &\text{ C} & \\
0 & & &
\end{pmatrix} \) . En effet, la première colonne est la définition de vecteur propre, tandis que pour la première ligne, cela vient du fait que \( \left\langle A\overrightarrow{f}_{k} \left|\vphantom{A\overrightarrow{f}_{k} \overrightarrow{x}}\right. \overrightarrow{x} \right\rangle={\vphantom{\left(A\overrightarrow{f}_{k}\right)}}^{t}{\left(A\overrightarrow{f}_{k}\right)}\overrightarrow{x}={\vphantom{\overrightarrow{f}_{k}}}^{t}{\overrightarrow{f}_{k}}{\vphantom{A}}^{t}{A}\overrightarrow{x}={\vphantom{\overrightarrow{f}_{k}}}^{t}{\overrightarrow{f}_{k}}A\overrightarrow{x}={\vphantom{\overrightarrow{f}_{k}}}^{t}{\overrightarrow{f}_{k}}\lambda\overrightarrow{x}=\lambda{\vphantom{\overrightarrow{f}_{k}}}^{t}{\overrightarrow{f}_{k}}\overrightarrow{x}=\lambda\left\langle \overrightarrow{f}_{k} \left|\vphantom{\overrightarrow{f}_{k} \overrightarrow{x}}\right. \overrightarrow{x} \right\rangle=\lambda 0=0\) .
Puisque \( A\) est symétrique, il de va même pour \( B\) et naturellement aussi pour \( C\) .
En raisonnant par récurrence, on peut trouver une base orthogonale de vecteur propre pour \( C\) .
Corollaire
Soit \( A\) une matrice symétrique de \( \mathcal{Mat}_n(\R)\) et \( \lambda_1\leqslant\cdots\leqslant\lambda_n\) ses valeurs propres.
\[\forall \overrightarrow{x}\in \R^n, \ \lambda_1\norm{\overrightarrow{x}}^2\leqslant {\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}A\overrightarrow{x}\leqslant\lambda_1\norm{\overrightarrow{x}}^2\]
Démonstration
D'après le théorème précédent, quitte à changer de base, on peut supposer que \( A\) est diagonale \( A=\begin{pmatrix}
\lambda_1&&\\
&\ddots&\\
&&\lambda_n
\end{pmatrix}\) . Notons \( x_i\) les coordonnées de \( \overrightarrow{x}\) dans cette base orthonormé de diagonalisation.
Alors \( {\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}A\overrightarrow{x}=\dpl{\sum_{i=1}^n\lambda_ix_i^2}\) .
L'organisation des valeurs propres permet de conclure.
Corollaire
Soit \( A\) une matrice symétrique de \( \mathcal{Mat}_n(\R)\) et \( \lambda_1\leqslant\cdots\leqslant\lambda_n\) ses valeurs propres.
\[\underset{\norm{\overrightarrow{x}}=1}{Sup}\left({\vphantom{\overrightarrow{x}}}^{t}{\overrightarrow{x}}A\overrightarrow{x}\right)=\lambda_n\]
De plus le \( Sup\) est atteint pour les vecteurs de l'espace propre \( \Ker\left(A-\lambda_nId_n\right)\)
Démonstration
Triviale
Exercice
- Justifier que la matrice \( A= \begin{pmatrix}
6 & -2 & 2 \\
-2 & 5& 0 \\
2 & 0 & 7
\end{pmatrix} \)
admet une base orthonormée de \( \R^3\) comme vecteurs propres.
- Monter que les valeurs propres de cette matrice sont \( 3\) , \( 6\) et \( 9\) .
- Déterminer une matrice \( P \) telle que \( {\vphantom{P}}^{t}{P}AP \) soit diagonale.
Exercice
- Justifier que la matrice \( A= \begin{pmatrix}
1 & -2 &- 2 \\
-2 & 1& -2 \\
-2 & -2 & 1
\end{pmatrix} \)
admet une base orthonormée de \( \R^3\) comme vecteurs propres.
- Monter que les valeurs propres de cette matrice sont \( 3\) et \( -3\) .
- Déterminer une base de \( \R^3\) composée de vecteurs propres de \( A \) .
Exercice
Soit \( E=\R^4\) est muni de sa structure euclidienne canonique.
On considère le sous-espaces \( F \) de \( E \) défini par \( F=\left\{\begin{pmatrix}
x\\y\\z\\t
\end{pmatrix}\in E\left|\vphantom{\begin{pmatrix}
x\\y\\z\\t
\end{pmatrix}}\right. x+z+t=0 \et x-y+z=0\right\} \)
Déterminer une base orthonormale de \( F \)