Section 2 Déterminant - cas général
Pour extrapoler aux matrices de taille supérieure, là où notre intuition géométrique ne peut pas nous aider, on va procéder par récurrence à partir des cas qu'on a déjà vu :
Definition 2.1.
On définit l'application déterminant \(\det: \mathcal M_n(\K)\rightarrow \K\) par récurrence sur \(n\) comme suit:
- Pour \(n=1\text{,}\) \(A=(a)\in\mathcal M_1(\K)\) et on pose \(\det(A)=a\text{.}\)
-
Pour \(n>1\text{,}\) pour \(i,j\in\{ 1,...,n\}\text{,}\) on note \(A_{ij}\in \mathcal M_{n-1}(\K)\) la matrice obtenue en supprimant la \(i\)-ème ligne et la \(j\)-ème colonne de \(A\text{.}\) De là, on définit
\begin{equation*} \det A = \sum_{k=1}^n (-1)^{k+1}a_{1k}\det A_{1k} \end{equation*}
Revenons uax petites matrices pour vérifier que cette formule nous redonne le "bon" résultat pour les matrices \(2\times 2\) et \(3\times 3\text{.}\)
\({\color{blue}{\triangleright}}\) Soit \(A=\begin{pmatrix}a\amp b\\c\amp d\end{pmatrix} \in \mathcal M_2(\R)\text{.}\) Alors
On retrouve donc bien la définition donnée plus tôt pour les déterminants \(2\times 2\text{.}\)
Checkpoint 2.2.
En utilisant la formule de récurrence, en déduire la formule des déterminants \(3\times 3\) et vérifier qu'on retombe bien sur notre définition.
Considérons une matrice \(A=(a_{ij})\in \mathcal M_3(\K)\text{.}\) Calculons \(\det(A)\) par la deuxième définition, et vérifions qu'on retombe sur la première formule. On a donc
Intéressons-nous maintenant aux propriétés du déterminants, qui permettront d'obtenir leurs applications pratiques.
On commence par étendre notre notion de déterminants aux familles de vecteurs:
Definition 2.3.
Soit \((v_1,\ldots,v_n)\) une famille de \(n\) vecteurs de \(\K^n\text{.}\)
On note \(\det(v_1,\ldots,v_n)\) le déterminant de la matrice de \(\mathcal M_n(\K)\) dont la \(j\)-ième colonne est \(v_j\text{.}\)
Proposition 2.4.
\(\displaystyle \det(I_n)=1\)
-
Le déterminant est linéaire par rapport à chaque colonne:
\begin{align*} \det(v_1,\ldots,v_k+v'_k,\ldots,v_n)=\amp \det(v_1,\ldots,v_k,\ldots,v_n)\\ \amp +\det(v_1,\ldots,v'_k,\ldots,v_n) \end{align*}et \(\det(v_1,\ldots,\lambda v_k,\ldots,v_n)=\lambda \det(v_1,\ldots,v_k,\ldots,v_n)\text{.}\)
S'il existe \(i\neq j\) tels que \(v_i=v_j\) alors \(\det(v_1,\ldots,v_n)=0\text{.}\)
Preuve:✑ On procède par récurrence. Ce n'est pas difficile, mais un peu technique !
Remark 2.5.
-
La propriété 2. dit que l'application
\begin{equation*} v\in\K^n \mapsto \det(v_1,\ldots, v,\ldots,v_n)\in \K \end{equation*}est linéaire. On dit que le déterminant est multilinéaire.
En particulier, si une des colonnes de \(A\) est nulle, alors \(\det(A)=0\text{.}\)
- Les applications multilinéaires qui vérifient 3. sont dites alternées.
- On peut montrer que \(\det: \mathcal M_n(\K)\rightarrow\K\) est la seule application qui vérifie ces trois propriétés. C'est parfois comme cela qu'on le définit.
Proposition 2.6.
Soit \((v_1,\ldots,v_n)\) une famille de \(n\) vecteurs de \(\K^n\text{.}\)
Si on échange deux colonnes \(v_k\) et \(v_l\text{,}\) le déterminant \(\det(v_1,\ldots,v_n)\) change de signe.
Proof.
Calculons
Puisque cette matrice a deux colonnes égales (à \(v_k+v_l\)), on a
d'où \(\det(v_1,\ldots,v_k,\ldots,v_l, \ldots, v_n )=-\det(v_1,\ldots,v_l,\ldots,v_k, \ldots, v_n )\text{.}\)
Subsection 2.1 Déterminants et bases
Proposition 2.7.
Soit \((v_1,\ldots,v_n)\) une famille de \(n\) vecteurs de \(\K^n\text{.}\)
Alors \(\det(v_1,\ldots,v_n)\neq0\) ssi \((v_1,\ldots,v_n)\) est une base.
Proof.
On procède par double implication:
\({\color{blue}{\boxed{\Leftarrow}}}\) Supposons que \((v_1,\ldots,v_n)\) est une base.
On va procéder par l'absurde: supposons que \(\det(v_1,\ldots,v_n)=0\text{.}\)
Soit \((e_1,\ldots,e_n)\) la base canonique de \(\K^n\text{.}\) Puisque \((v_1,\ldots,v_n)\) est une base, pour chaque \(j\in\{ 1,...,n \}\text{,}\) il existe des scalaires \((a_{1j},\ldots,a_{nj})\) tels que \(e_j=\sum_{i=1}^n a_{ij}v_i\text{.}\)
Mais alors:
- D'une part, \(\det(e_1,\ldots,e_n)=\det(I_n)=1\text{;}\)
-
D'autre part,
\begin{equation*} \det(e_1,\ldots,e_n)=\det(\sum_{i=1}^n a_{i1}v_i,\ldots,\sum_{i=1}^n a_{in}v_i) \end{equation*}En utilisant successivement la linéarité par rapport à chaque colonne, on obtient que \(\det(e_1,\ldots,e_n)\) est une somme de termes du type \((-1)^ka_{i_1 1}\ldots a_{i_n n}\det(v_1,\ldots,v_n)=0\text{,}\) donc \(\det(e_1,\ldots,e_n)=0\text{.}\)
\(\leadsto\) Contradiction.
On adonc montré que si \((v_1,\ldots,v_n)\) est une base, alors \(\det(v_1,\ldots,v_n)\neq0.\)
\({\color{blue}{\boxed{\Rightarrow}}}\) Il nous reste à montrer que si \((v_1,\ldots,v_n)\) n'est pas une base, alors \(\det(v_1,\ldots,v_n)=0\text{.}\)
Supposons donc que \((v_1,\ldots,v_n)\) n'est pas une base. C'est donc une famille liée (sinon, ce serait une famille libre à \(n\) vecteurs de \(\K^n\text{,}\) donc une base).
L'un des \(v_k\text{,}\) disons \(v_n\text{,}\) est donc combinaison linéaire des autres: il existe \(\lambda_1,\ldots,\lambda_{n-1}\) tels que
En utilisant la linéarité du déterminant par rapport à la dernière colonne, on en déduit
Or chacun des termes est un déterminant dont deux colonnes sont égales, donc vaut zéro. On a donc bien \(\det(v_1,\ldots,v_n)=0\text{.}\)
Subsection 2.2 Déterminants et matrices inversibles
De ce résultat sur les familles de vecteurs, on déduit:
Corollary 2.8.
Soit \(A\in \mathcal M_n(\R)\text{.}\)
Alors \(A\) est inversible ssi \(\det(A)\neq 0\text{.}\)
Proof.
-
Si \(A\) est inversible, alors d'après
[provisional cross-reference: lien vers la prop appropriée]
l'application linéaire associée\begin{equation*} \Phi_A: X\in\K^n \mapsto AX\in \K^n \end{equation*}est bijective. Notons \((e_i)_{i=1,\ldots n}\) la base canonique de \(\K^n\text{.}\) Alors la famille \((\Phi_A(e_i))_{i=1,\ldots n}\) est une base de \(\K^n\text{.}\)
Or, pour tout \(i\text{,}\) \(\Phi_A(e_i)\) est la \(i\)-ième colonne de \(A\text{.}\)
Les colonnes de \(A\) forment donc une base de \(\K^n\text{,}\) donc par la proposition précédentes, \(\det(A)\neq 0\text{.}\)
-
Si \(A\) n'est pas inversible, alors \(\Phi_A\) n'est pas bijective, donc \(\Ker \Phi_A \neq \{0_{\K^n}\}\text{.}\) Donc:
\begin{equation*} \exists X= \begin{pmatrix} x_1\\\vdots\\x_n \end{pmatrix}\neq 0_{\K^n}, AX=0_{\K^n} \end{equation*}Notons \(v_1,\ldots,v_n\in \K^n\) les colonnes de \(A\text{,}\) alors \(AX=0_{\K^n}\) se réécrit
\begin{equation*} x_1v_1+\ldots+x_nv_n=0_{\K^n} \end{equation*}et les \(x_i\) ne sont pas tous nuls.
Donc \((v_1,\ldots,v_n)\) est une famille liée, donc \(\det(A)=\det(v_1,\ldots,v_n)=0\text{.}\)
Subsection 2.3 Déterminant d'un produit
Theorem 2.9.
Soient \(A,B\in \mathcal M_n(\K)\text{.}\) Alors \(\boxed{\det(AB)=\det(A)\det(B)}\text{.}\)
Proof.
Admis.
Corollary 2.10.
Si \(A\) est inversible, \(\boxed{\det(A^{-1})=\frac1{\det(A)}}\text{.}\)
✑ Pourquoi est-ce vrai ?
Proof.
On a vu que dans ce cas, \(\det(A)\neq 0\text{.}\) De plus, on a \(AA^{-1}=I_n\) donc
donc on a bien \(\det(A^{-1})=\frac1{\det(A)}\text{.}\)
Une application de ce dernier résultat est le suivant: deux matrices semblables ont le même déterminant. En effet, si \(B=P^{-1}AP\text{,}\) on a
En particulier, si \(E\) est un \(\K\)-e.v. de dimension finie, \(f\in\mathcal L(E)\) et \(\mathscr B\) et \(\mathscr B'\) sont deux bases de \(E\text{,}\) alors
On peut donc définir le déterminant d'un endormorphisme:
Definition 2.11.
Soit \(f\in\mathcal L(E)\) un endomorphisme de \(E\) de dimension finie. On définit le déterminant de \(f\) par
pour une base \(\mathscr B\) quelconque de \(E\text{.}\)