Skip to main content

Section 11.2 Cas 1: Si \(L\) est inversible, et que \(B\) est un cube (on peut rêver)

Pour ce premier cas, on suppose donc que \(L\) est un isomorphisme de \(\R^n\text{,}\) et donc sa matrice dans la base canonique, \(\rbb L\lbb _{\mathcal B_0}\text{,}\) est une matrice inversible.

Avant de s'attaquer à un isomorphisme quelconque, on va s'intéresser à quelques cas particuliers, les isomorphismes (ou matrices) élémentaires.

\(\leadsto\) L'avantage, c'est que dans ces cas particuliers, on peut expliciter \(L(C_0^n)\text{.}\)

Exercice 11.2.1 Elementaire-mon-cher-Watson 1: Echange de deux variables

On commence par considérer l'application \(\varphi:\R^n \rightarrow \R^n\) définie par

\begin{equation*} \varphi_{ij}:(x_1,...,x_i,...,x_j,...x_n) \in\R^n \mapsto (x_1,...,x_j,...,x_i,...x_n) \in\R^n \end{equation*}

(avec \(i\neq j\text{,}\) sinon ce n'est pas une application très intéressante)

1.

Déterminer la matrice de \(\varphi_{ij}\) dans la base canonique.

2.

En déduire

\(\det(\varphi_{ij})=\)

3.

Déterminer \(\varphi_{ij}(C_0^n)\text{.}\) En déduire \(\mu_n(\varphi_{ij}(C_0^n))\text{.}\)

Conclure allègrement.

Exercice 11.2.2 Elementaire-mon-cher-Watson 2: Multiplier une variable par un scalaire

On pose cette fois \(\alpha\neq 0\) et on s'intéresse à

\begin{equation*} \psi_{i,\alpha}:(x_1,...,x_i,...,x_n) \in\R^n \mapsto (x_1,...,\alpha x_i,...,x_n) \in\R^n \end{equation*}

1.

Déterminer la matrice de \(\psi_{i,\alpha}\) dans la base canonique.

2.

En déduire

\(\det(\psi_{i,\alpha})=\)

3.

Déterminer \(\psi_{i,\alpha}(C_0^n)\text{.}\) En déduire \(\mu_n(\psi_{i,\alpha}(C_0^n))\text{.}\)

Conclure allègrement.

Exercice 11.2.3 Un-chouïa-moins-élementaire-mon-cher-Watson: Sommer deux variables

Enfin, on regarde

\begin{equation*} \sigma_{ij}:(x_1,...,x_i,...,x_j,...x_n) \in\R^n \mapsto (x_1,...,x_i+x_j,...,x_j,...x_n) \in\R^n \end{equation*}

1.

Déterminer la matrice de \(\sigma\) dans la base canonique.

2.

En déduire

\(\det(\sigma_{ij})=\)

3.

Montrer que, si \(u\in\Vect(e_i,e_j)\text{,}\) alors \(\sigma_{ij}(u)\in \Vect(e_i,e_j)\text{.}\)

4.

On peut donc regarder la restriction de\(\sigma_{ij}\) à \(\Vect(e_i,e_j)\text{,}\) ce qui nous donne un isomorphisme sur un e.v. de dimension 2

\begin{equation*} \sigma_{ij|\Vect(e_i,e_j)} :\alpha e_i + \beta e_j \in \Vect(e_i,e_j) \rightarrow (\alpha + \beta)e_i + \beta e_j \Vect(e_i,e_j) \end{equation*}

Etudier \(\sigma_{ij|\Vect(e_i,e_j)}\) revient donc à regarder l'application linéaire quivante sur \(\R^2\text{:}\)

\begin{equation*} \sigma:(\alpha,\beta) \in \R^2 \mapsto (\alpha + \beta, \beta )\in\R^2 \end{equation*}

ce qu'on va donc faire.

Montrer que \(\sigma(\rbb 0,1\rbb \times \rbb 0,1\rbb)\) est le parallélogramme \(P\) de sommets \((0,0),(1,1),(2,1),(1,0)\text{:}\)

5.

On va calculer \(\mu_2(P)\text{.}\) Si le monde est bien fait, ça devrait nous donner l'aire de \(P\) (au sens géométrique habituel), c'est à dire:

Aire(P) =

6.

Cela dit, à part que ça a l'air vrai pour les carrés, on n'a pas montré que la mesure de Borel \(\mu_2\) donne bien l'aire géométrique.

On va donc faire une démontration basée sur la définition de \(\mu_2\text{:}\) en utilisant les rectangles \(\rbb a_1,b_1\rbb \times \rbb a_2 , b_2 \rbb\) pour lesquels on connaît le résultat, et trouver une "suite de rectangles" qui "encadre" \(P\text{.}\)

Soit \(n\in\N^*\text{.}\) Montrer que, d'une part

\begin{equation*} P\subset \bigcup_{k=0}^{n-1} \, \underbrace{\left], \,\frac{k}{n}, 1 + \frac{k+1}{n} \right[, \, \times \, \left[, \,\frac{k}{n}, \frac{k+1}{n} \right[, \,}_{C_{k,n}^1} \end{equation*}

et d'autre part, que

\begin{equation*} P\supset \bigcup_{k=0}^{n-1} \, \underbrace{\left], \,\frac{k+1}{n}, 1 + \frac{k}{n} \right[, \, \times \, \left[, \,\frac{k}{n}, \frac{k+1}{n} \right[, \,}_{C_{k,n}^2} \end{equation*}

7.

En déduire que \(\mu_2(P)=1\text{.}\)

8.

En utilisant l'Exercice 11.2.1, on pose

\begin{equation*} \tilde L = \begin{cases} L \text{ si } i=1,j=2 \\ \varphi_{i1}\circ L \text{ si } i\neq 1,j=2 \\ \varphi_{j2}\circ L \text{ si } i= 1,j\neq 2 \\ \varphi_{j2}\circ \varphi_{i1}\circ L \text{ si } i\neq 1,j\neq 2 \end{cases} \end{equation*}

Montrer que \(\tilde L(C_0^n) = P \times C_0^{n-2}\text{.}\) En déduire \(\mu_n(\tilde L (C_0^n))\text{,}\) puis \(\mu_n(L(C_0^n))\text{.}\)

9.

Conclure avec soulagement.

La bonne nouvelle, c'est que, si on sait gérer ces trois catégories, eh bien, on peut en déduire tous les autres.

Subsection 11.2.4 Quelques rappels d'algèbre linéaire

Si vous avez déjà fait de l'algèbre linéaire en dimension finie, vous avez dû remarquer que la plupart des questions qu'on se pose dans ce contexte  2  peuvent se reformuler en termes de résolution d'un système linéaire.

Et pour résoudre un système linéaire, on dispose de l'arme nucléaire: l'algorithme du pivot de Gauss 3 ,

Un algorithme pour les résoudre tous,
Un algorithme pour les échelonner,
Un algorithme pour les amener tous
Et leur ensemble de solutions trouver.
Maître Yoda

qui permet de résoudre n'importe quel système linéaire en utilisant seulement trois opérations élémentaires:

  • l'échange de deux lignes

  • la multiplication d'une ligne par un scalaire non nul

  • l'ajout d'une ligne à autre ligne

qui suffisent pour ramener n'importe quel système linéaire à un système échelonné

\begin{equation*} (SE) \begin{cases} a_{11}x_1+a_{12} x_2+\dots +\phantom{a_{33}x_3 }+ a_{1p}x_p\amp =b_1\\ \phantom{a_{11}x_1+}a_{2j_2} x_{j_2}+\dots +\phantom{a_{33}x_3 } + a_{2p}x_p\amp =b_2\\ \amp \vdots\\ \phantom{a_{11}x_1+a_{2j_2} x_{j_2}}a_{rj_r}x_{j_r}+\dots+a_{rp}x_p \amp = b_r\\ \phantom{a_{11}x_1+a_{2j_2 x_{j_2}}a_{rj_r}x_{j_r}+\dots+a_{rp}}0\amp = b_{r+1}\\ \amp \vdots\\ \phantom{a_{11}x_1+a_{2j_2 x_{j_2}}a_{rj_r}x_{j_r}+\dots+a_{rp}}0\amp =b_n \end{cases} \end{equation*}

Si le système a autant d'inconnues que d'équations et admet une unique solution, alors on peut utiliser les mêmes opérations pour "remonter" à partir de la dernière ligne, ce qui nous donne la solution

\begin{equation*} \begin{cases} x_1\amp = s_1\\ \vdots\\ x_n\amp = s_n \end{cases} \end{equation*}

Vous pensez peut-être que tout ça n'a pas pas grand chose à voir avec les mesures et les boréliens. Mais on y vient !

Ce qui va nous servir ici, c'est la traduction matricielle de tout ça.

N'importe quel système linéaire à \(n\) équations et \(n\) inconnues peut se reformuler sous la forme d'une égalité matricielle

\begin{equation*} (S) \begin{cases} a_{11}x_1+a_{12} x_2\dots + a_{1n}x_p=b_1\\ \vdots\\ a_{n1}x_1+a_{n2} x_2\dots+a_{nn}x_n = b_n \end{cases} \Leftrightarrow \underbrace{ \begin{pmatrix} a_{11}\amp a_{12} \amp \dots \amp a_{1n}\\ \vdots\amp \amp \amp \vdots\\ a_{n1}\amp a_{n2} \amp \dots\amp a_{nn} \end{pmatrix} }_{=A \in \mathcal M_n(\R)} \underbrace{ \begin{pmatrix} x_1\\ \vdots \\ x_n \end{pmatrix} }_{=X \in \R^n} = \underbrace{ \begin{pmatrix} b_1\\ \vdots \\ b_n \end{pmatrix} }_{=B \in \R^n} \end{equation*}

et les opérations élémentaires du pivot de Gauss sont représentées par des produits matriciels de la matrice des coefficients \(A\) avec certaines matrices, qu'on appelle, sans grande originalité, les matrices élémentaires.

Echange de lignes: On va noter \(E_{ij}\) la matrice obtenue en échangeant les \(i\)-ème et \(j\)-ème lignes de la matrice identité \(I_n\text{.}\)

Par exemple, pour \(n= 4\text{,}\)

\begin{equation*} E_{12} = \begin{pmatrix} 0\amp 1\amp 0\amp 0\\ 1\amp 0\amp 0\amp 0\\ 0\amp 0\amp 1\amp 0\\ 0\amp 0\amp 0\amp 1 \end{pmatrix},\quad E_{24} = \begin{pmatrix} 1\amp 0\amp 0\amp 0\\ 0\amp 0\amp 0\amp 1\\ 0\amp 0\amp 1\amp 0\\ 0\amp 1\amp 0\amp 0 \end{pmatrix} \end{equation*}

Plus généralement, les coefficients de \(E_{ij}\) sont donnés par

\begin{equation*} (E_{ij})_{kl}= \begin{cases} 1 \text{ si } (k,l)= (i,j) \text{ ou } (k,l)=(j,i)\\ 1 \text{ si } k =l \text{ et } k\neq i,j\\ 0 \text{ sinon.} \end{cases} \end{equation*}

La matrice \(E_{ij}\) est inversible, d'inverse elle-même: \(E_{ij}^{-1}=E_{ij}\text{,}\) et vérifie \(E_{ij}=E_{ji}\text{.}\)

\(\leadsto\) La matrice \(E_{ij}\) permet de réaliser l'opération élémentaire d'échange de lignes: \(E_{ij}A\) est la matrice obtenue en échangeant les lignes \(L_i\) et \(L_j\) de \(A\text{.}\)

Notons \(\tilde A = E_{ij}A\text{,}\) alors les coefficients de \(\tilde A\) sur la \(i\)-ème ligne sont

\begin{equation*} \tilde a_{il} = \sum_{p=1}^n (E_{ij})_{ip}a_{pl} = a_{jl} \end{equation*}

puisque \((E_{ij})_{pi}=1\) si \(p=j\text{,}\) \(0\) sinon.

\(\leadsto\) Les coefficients de la \(i\)-ème ligne de \(\tilde A\) sont donc ceux de la \(j\)-ème ligne de \(A\text{.}\)

De même, les coefficients sur la \(j\)-ème ligne sont

\begin{equation*} \tilde a_{jl} = \sum_{p=1}^n (E_{ij})_{jp}a_{pl} = a_{il}: \end{equation*}

\(\leadsto\) ce sont ceux de la \(i\)-ème ligne de \(A\text{.}\)

Et pour les autres lignes, avec \(k\neq i,j\text{,}\)

\begin{equation*} \tilde a_{kl} = \sum_{p=1}^n (E_{ij})_{kp}a_{pl} = a_{kl} \end{equation*}

\(\leadsto\) Autrement dit les autres lignes ne changent pas.

Regardons ce que ça donne pour une matrice 2x2

\begin{equation*} A = \begin{pmatrix}a\amp b\\c\amp d\end{pmatrix}, E_{12}=\begin{pmatrix}0\amp 1\1\amp 0\end{pmatrix} \leadsto E_{12}A= \begin{pmatrix}c\amp d\\a\amp b\end{pmatrix} \end{equation*}

Voyons ce que ça donne pour une matrice 3x3 quelconque

\begin{equation*} A = \begin{pmatrix}a_1\amp b_1\amp c_1\\a_2\amp b_2\amp c_2\\a_3 \amp b_3 \amp c_3\end{pmatrix},\quad E_{23}= \begin{pmatrix}1\amp 0\amp 0\\0\amp 0\amp 1\\0 \amp 1 \amp 0\end{pmatrix}\leadsto E_{23}A = \begin{pmatrix}a_1\amp b_1\amp c_1\\a_3 \amp b_3 \amp c_3\\a_2\amp b_2\amp c_2\end{pmatrix}. \end{equation*}

Multiplication d'une ligne par \(\alpha\neq 0\text{:}\) Notons \(D_i(\alpha)\) la matrice obtenue en multipliant la \(i\)-ème ligne de la matrice identité \(I_n\) par \(\alpha\text{.}\)

Par exemple, pour \(n= 4\text{,}\)

\begin{equation*} D_2(\alpha) = \begin{pmatrix} 1\amp 0\amp 0\amp 0\\ 0\amp \alpha\amp 0\amp 0\\ 0\amp 0\amp 1\amp 0\\ 0\amp 0\amp 0\amp 1 \end{pmatrix} \end{equation*}

Et plus généralement, les coefficients de \(E_{ij}\) sont donnés par

\begin{equation*} (D_{i}(\alpha))_{kl}= \begin{cases} 1 \text{ si } k=l \text{ et } k\neq i\\ \alpha \text{ si } (k,l)=(i,i)\\ 0 \text{ sinon.} \end{cases} \end{equation*}

Pour \(\alpha\neq 0\text{,}\) la matrice \(D_i(\alpha)\) est inversible, d'inverse \(D_{i}(\alpha)^{-1}=D_{i}(\frac1 \alpha)\text{.}\)

La matrice \(D_{i}(\alpha)\) permet de réaliser l'opération élémentaire de multiplication d'une ligne par \(\alpha\text{:}\) \(D_{i}(\alpha)A\) est la matrice obtenue en multipliant la ligne \(L_i\) de \(A\) par \(\alpha\text{.}\)

Soit \(\tilde A = D_{i}(\alpha)A\text{,}\) alors les coefficients de \(\tilde A\) sur la \(i\)-ème ligne sont

\begin{equation*} \tilde a_{il} = \sum_{p=1}^n (D_{i}(\alpha))_{ip}a_{pl}= \alpha a_{pl} \end{equation*}

Ce sont donc ceux de la \(i\)-ème ligne de \(A\text{,}\) multipliés par \(\alpha\text{.}\)

Pour les autres lignes, avec \(k\neq i\text{,}\)

\begin{equation*} \tilde a_{kl} = \sum_{p=1}^n (D_{i}(\alpha))_{kp}a_{pl} = a_{kl} \end{equation*}

autrement dit les autres lignes ne changent pas.

Ajout d'une ligne à une autre: Notons \(T_{ij}\) la matrice obtenue en ajoutant \(1\) en position \((i,j)\) à la matrice identité (pour \(i\neq j\)).

Autrement dit, on obtient \(T_{ij}\) en ajoutant la \(i\)-ème ligne de \(I_n\) à la \(j\)-ème.

Par exemple, pour \(n= 4\text{,}\)

\begin{equation*} T_{34} = \begin{pmatrix} 1\amp 0\amp 0\amp 0\\ 0\amp 1\amp 0\amp 0\\ 0\amp 0\amp 1\amp 1\\ 0\amp 0\amp 0\amp 1 \end{pmatrix}, \quad T_{13} = \begin{pmatrix} 1\amp 0\amp 1\amp 0\\ 0\amp 1\amp 0\amp 0\\ 0\amp 0\amp 1\amp 0\\ 0\amp 0\amp 0\amp 1 \end{pmatrix} \end{equation*}

Et plus généralement, les coefficients de \(T_{ij}\) sont donnés par

\begin{equation*} (T_{ij})_{kl}= \begin{cases} 1 \text{ si } k=l\\ 1 \text{ si } (k,l)=(i,j)\\ 0 \text{ sinon.} \end{cases} \end{equation*}

La matrice \(T_{ij}\) est inversible, et son inverse s'obtient en ajoutant à \(I_n\) un \(-1\) en position \((i,j)\text{.}\)

Et, ce qui nous intéresse, c'est que la matrice \(T_{ij}\) permet de réaliser l'opération élémentaire d'ajout d'une ligne à une autre : \(T_{ij}A\) est la matrice obtenue en ajoutant \(C_j\) à la ligne \(C_i\text{.}\)

Soit \(\tilde A = T_{ij}A\text{,}\) alors les coefficients de \(\tilde A\) sur la \(i\)-ème ligne sont

\begin{equation*} \tilde a_{il} = \sum_{p=1}^n (T_{ij})_{ip}a_{pl} = a_{il} + a_{jl} \end{equation*}

\(\leadsto\) Ce sont donc ceux de la \(i\)-ème ligne de \(A\text{,}\) plus ceux de la \(j\)-ème.

Et pour les autres lignes, avec \(k\neq i\text{,}\)

\begin{equation*} \tilde a_{kl} = \sum_{p=1}^n (T_{ij})_{kp}a_{pl} = a_{kl} \end{equation*}

Autrement dit, les autres lignes ne changent pas.

\begin{equation*} A = \begin{pmatrix}a\amp b\\c\amp d\end{pmatrix}, T_{12}=\begin{pmatrix}1\amp \lambda\\0\amp 1\end{pmatrix} \leadsto T_{12}A= \begin{pmatrix} a+c\amp b+d\\c\amp d \end{pmatrix} \end{equation*}

Et pour des matrices de taille 3:

\begin{equation*} A = \begin{pmatrix}a_1\amp b_1\amp c_1\\a_2\amp b_2\amp c_2\\a_3 \amp b_3 \amp c_3\end{pmatrix},\quad T_{12}= \begin{pmatrix}1\amp 1\amp 0\\0\amp 1\amp 0\\0 \amp 0 \amp 1\end{pmatrix} \leadsto T_{12}A = \begin{pmatrix}a_1 + a_2\amp b_1+b_2\amp c_1+c_2\\ a_2\amp b_2\amp c_2 \\a_3 \amp b_3 \amp c_3 \end{pmatrix}. \end{equation*}

Mais du coup, si on met tout ensemble:

  • Un système à \(n\) équations et inconnues a une unique solution ssi il est représenté par

    \begin{equation*} AX=B \end{equation*}

    avec \(A\in\mathcal M_n(\R)\) inversible.

  • D'un autre côté, un système à \(n\) équations et inconnues a une unique solution ssi, via des opérations élémentaires, on peut le ramener à

    \begin{equation*} \begin{cases} x_1\amp = s_1\\ \vdots\\ x_n\amp = s_n \end{cases} \Leftrightarrow I_n X = S = A^{-1}B \end{equation*}
  • Enfin, appliquer des opérations élémentaires à un système, ça revient à multiplier la matrice des coefficients \(A\) par des matrices élémentaires \(D_{ij}(\alpha),E_{ij},T_{ij}\text{.}\)

\(\leadsto\) Donc, si \(A\) est inversible, il doit y avoir une suite finie de matrices élémentaires \(M_1,\ldots,M_k\) telles que

\begin{equation*} M_1M_2\ldots M_kA = I_n \end{equation*}

Autrement dit, \(A^{-1}= M_1M_2\ldots M_k\) est un produit de matrices élémentaires, et du coup \(A=M_k^{-1}...M_1^{-1}\) aussi.

La conclusion de tout ça, c'est que toute matrice inversible \(A\) peut se décomposer en un produit de matrices élémentaires.

Exercice Exercice

1.

On considère l'endomorphisme

\begin{equation*} L:(x,y,z)\in\R^3 \mapsto (x+y-z,-y+z,-x+z) \in \R^3 \end{equation*}

Montrer que c'est un isomorphisme.

2.

Déterminer la matrice \(\rbb L\lbb _{\mathcal B_0}\) de \(L\) dans la base canonique.

En déduire \(\det(L)\text{.}\)

3.

Trouver des matrices élémentaires \(A_1,\ldots,A_k\) telles que

\begin{equation*} \rbb L\lbb _{\mathcal B_0} = A_1....A_k \end{equation*}

Subsection 11.2.5 \(L\) inversible, cas général

Ceci nous permet de conclure pour le cas de \(C_0^n\) : soit \(L\) est un isomorphisme de \(\R^n\text{,}\) alors sa matrice dans la base canonique \(\rbb L\lbb _{\mathcal B_0}\) est une matrice inversible.

Et donc, comme à l'exemple précédent, il existe des matrices élémentaires \(A_1,\ldots,A_k\) telles que

\begin{equation*} \rbb L\lbb _{\mathcal B_0} = A_1....A_k \end{equation*}

Exercice Exercice

1.

Montrer que

\begin{equation*} \mu_n(L(C_0^n)) = \det(A_1)\det(A_2)....\det(A_k) \end{equation*}
2.

En déduire que

\begin{equation*} \mu_n(L(C_0^n)) = |\det(C_0^n)| \mu_n(C_0^n) \end{equation*}
fr.wikipedia.org/wiki/Parall%C3%A9logramme#Aire
Est-ce qu'une famille de vecteurs est libre ou génératrice, est-ce qu'une application linéaire est injective, ou surjective, est-ce qu'un scalaire \(\lambda\) est valeur propre d'un endomorphisme \(f\text{,}\) quels sont les vecteurs propres associés, quelle est la base duale associée à une base donnée, quel est le prix d'une pastèque et quel est l'âge du capitaine, etc.
carolinevernier.website/Poly-pretext-systeme/syst_lin.html