Voici une définition de déterminant qui nécessiterai pour la comprendre d'introduire le groupe symétrique, les transpositions et la signature. Le bagage théorique pour comprendre cette définition étant trop conséquent et un peu hors de propos, on pourra l'oublier après l'avoir lu
1.
Définition
Soient \( n\in \N_{{>}0}\) et \( A\in \M_n(\R)\) . Le déterminant de la matrice \( A\) , noté \( \det(A)\) , est le nombre réel défini par
\[\det(A)=\sum_{\sigma\in \mathfrak{S}_n}\varepsilon(\sigma)\prod_{i=1}^na_{i,\sigma(i)}\]
Proposition
Soient \( n\in \N_{{>}0}\) et \( A\in \M_n(\R)\) .
- \( \det
\begin{pmatrix}
a&b\\
c&d
\end{pmatrix}=ad-bc
\)
- \( \det(Id_n)=1\)
- \( \det(Col_1,\dots,Col_i,\dots, Col_j,\dots,Col_n)=(-1)^{i+j}det(Col_1,\dots,Col_j,\dots, Col_i,\dots,Col_n)\)
- \( \det(Col_1, \dots, \lambda Col_i, \dots, Col_n)=\lambda \det(Col_1, \dots, Col_i, \dots, Col_n)\)
- \( \det(\lambda\cdot A)=\lambda^n\det(A)\)
- On ne modifie pas la valeur du déterminant d'une matrice en ajoutant à une colonne une combinaison linéaire des autres.
Démonstration
Ces propositions découlent plus ou moins trivialement de la définition.
Théorème [Calcul du déterminant par développement]
Soient \( n\in \N_{{>}0}\) et \( A\in \M_n(\R)\) . Notons \( \hat{A}_{i,j}\) la matrice \( A\) où on a supprimer la ligne \( i\) et la colonne \( j\) . Alors
\[
\forall j\in [\![1;n]\!], \quad \det(A)=\sum_{i=1}^n(-1)^{i+j}a_{i,j}\det(\hat{A}_{i,j})
\]
Démonstration
Se démontre par récurrence sur la dimension \( n\) en utilisant abusivement la définition.
Par exemple
calculons \( \dpl{\left|
\begin{array}{ccc}
1&2&1\\
2&0&1\\
1&1&-1
\end{array}
\right|}\) .
On choisi la colonne avec le plus de 0 pour minimiser les calculs. A savoir la colonne 2.
\[
\left|
\begin{array}{ccc}
1&2&1\\
2&0&1\\
1&1&-1
\end{array}
\right|=
\underbrace{
-2
\left|
\begin{array}{ccc}
2&1\\
1&-1
\end{array}
\right|
}_{=6}
\underbrace{
+0
\left|
\begin{array}{ccc}
1&1\\
1&-1
\end{array}
\right|
}_{=0}
\underbrace{
-1
\left|
\begin{array}{ccc}
1&1\\
2&1\\
\end{array}
\right|
}_{=1}
=7
\]
Théorème
Soient \( n\in \N_{{>}0}\) et \( A\) , \( B\) des matrices de \( \M_n(\R)\) .
\[\det(AB)=\det(A)\det(B)\]
Démonstration
Il s'agit d'un exercice combinatoire usant sans retenue de la définition.
Proposition
Soient \( n\in \N_{{>}0}\) et \( A\in \M_n(\R)\) .
\[
\det({\vphantom{A}}^{t}{A})=\det(A)
\]
Démonstration
Cela découle de la définition
Remarque
Cette proposition implique en particulier que les propriétés du determinant sur les colonnes sont également vrai sur les lignes.
Par exemple
calculons (à nouveau) \( \dpl{\left|
\begin{array}{ccc}
1&2&1\\
2&0&1\\
1&1&-1
\end{array}
\right|}\) . Nous allons appliquer à ce système l'algorithme de Gauss. La première ligne ne change pas et nous allons l'utiliser pour faire apparaitre des \( 0\) sous le \( 1\) en haut à gauche. Pour cela nous allons soustraire à la seconde ligne deux fois la première et à la troisième une fois la première.
\[
\left|
\begin{array}{ccc}
1&2&1\\
2&0&1\\
1&1&-1
\end{array}
\right|
=
\left|
\begin{array}{ccc}
1&2&1\\
0&-4&-1\\
0&-1&-2
\end{array}
\right|
=1
\left|
\begin{array}{cc}
-4&-1\\
-1&-2
\end{array}
\right|=7
\]
La seconde égalité c'est obtenue en développant le déterminant par rapport à la première colonne et la dernière égalité est le calcul des déterminants en dimension 2.
Définition
Soient \( n\in \N_{{>}0}\) et \( A\in \M_n(\R)\) . La matrice des cofacteurs de \( A\) ou comatrice de \( A\) est la matrice, notée \( \mathcal{Co}(A)\) définie pour tout \( i\) et \( j\) de \( [\![1;n]\!]\) par
\[\mathcal{Co}(A)_{i,j}=(-1)^{i+j}\det(\hat{A}_{i,j})\]
où \( \hat{A}_{i,j}\) est la matrice \( A\) où on a supprimé la ligne \( i\) et la colonne \( j\) .
Par exemple,
\[\mathcal{Co}
\begin{pmatrix}
3&4&5\\
-1&3&6\\
3&4&-5
\end{pmatrix}=
\begin{pmatrix}
-39&13&-13\\
40&-30&0\\
9&-23&13
\end{pmatrix}
\]
Théorème
Soient \( n\in \N_{{>}0}\) et \( A\in \M_n(\R)\) .
- \( (i)\) .
- La matrice \( A\) est inversible si et seulement si \( \det(A)\neq 0\) .
- \( (ii)\) .
- Si \( A\) est inversible alors son inverse est \( \dfrac{1}{\det(A)}{\vphantom{\mathcal{Co}(A)}}^{t}{\mathcal{Co}(A)}\) .
Démonstration
Supposons que \( \det(A)\neq0\) et vérifions que \( A{\vphantom{\mathcal{Co}(A)}}^{t}{\mathcal{Co}(A)}={\vphantom{\mathcal{Co}(A)}}^{t}{\mathcal{Co}(A)}A=\det(A).Id_n\) .
\begin{eqnarray*}
(A{\vphantom{\mathcal{Co}(A)}}^{t}{\mathcal{Co}(A)})_{i,j}
&=& \sum_{k=1}^nA_{i,k}{\vphantom{\mathcal{Co}(A)}}^{t}{\mathcal{Co}(A)}_{k,j}\\
&=& \sum_{k=1}^nA_{i,k}\mathcal{Co}(A)_{j,k}\\
&=& \sum_{k=1}^nA_{i,k}(-1)^{j+k}\det(\hat{A}_{j,k})
\end{eqnarray*}
Si \( i=j\) alors cette dernière égalité correspond au déterminant d'après le calcul du déterminant par développement.
Sinon, cette dernière ligne s'identifie à \( \det(A')\) où \( A'\) est la même matrice que \( A\) sauf que la ligne \( j\) à été remplacée par la ligne \( i\) . Puisque \( i\) est différent de \( j\) , la matrice \( A'\) a deux lignes identiques ce qui implique que \( \det(A')=0\) .
Remarque
l'inverse d'une matrice étant unique on la note en général \( A^{-1}\) . Ainsi le théorème précédent stipule que
\[
A^{-1}=\dfrac{1}{\det(A)}{\vphantom{Co(A)}}^{t}{Co(A)}
\]
Par exemple
\[
\begin{pmatrix}
3&4&5\\
-1&3&6\\
3&4&-5
\end{pmatrix}^{-1}=\dfrac{1}{130}
{\vphantom{
\begin{pmatrix}
-39&13&-13\\
40&-30&0\\
9&-23&13
\end{pmatrix}
}}^{t}{
\begin{pmatrix}
-39&13&-13\\
40&-30&0\\
9&-23&13
\end{pmatrix}
}
=\dfrac{1}{130}
\begin{pmatrix}
-39&40&9\\
13&-30&-23\\
-13&0&13
\end{pmatrix}
\]
Corollaire
Soient \( n\in \N_{{>}0}\) et \( A\in \M_n(\R)\) .
- \( (i)\) .
- Si \( A\) est inversible alors \( \det(A^{-1})=\dfrac{1}{\det(A)}\)
- \( (ii)\) .
- Si \( P\) est une matrice de passage alors \( \det(PAP^{-1})=\det(A)\)
Démonstration
- \( (i)\) .
- Puisque \( AA^{-1}=Id_n\) alors \( \det(A)\det(A^{-1})=\det(AA^{-1})=\det(Id_n)=1\)
- \( (ii)\) .
- \( \det(PAP^{-1})=\det(P)\det(A)\det(P^{-1})=\det(P)\det(A)\dfrac{1}{\det(P)}=\det(A)\)
Remarque
Ce dernier corollaire prouve en particulier que le déterminant d'une matrice ne dépend pas de la base dans laquelle cette matrice s'exprime. On peut donc noter \( \det(f)\) pour une application linéaire \( f\) , le déterminant se ramenant alors à un calcul sur une base choisi arbitrairement ... ou astucieusement.
1Les personnes sujettes à des crises d'épilepsie sont priées de ne pas lire la définition qui suit.