Section 11.2 Cas 1: Si \(L\) est inversible, et que \(B\) est un cube (on peut rêver)
Pour ce premier cas, on suppose donc que \(L\) est un isomorphisme de \(\R^n\text{,}\) et donc sa matrice dans la base canonique, \(\rbb L\lbb _{\mathcal B_0}\text{,}\) est une matrice inversible.
Avant de s'attaquer à un isomorphisme quelconque, on va s'intéresser à quelques cas particuliers, les isomorphismes (ou matrices) élémentaires.
\(\leadsto\) L'avantage, c'est que dans ces cas particuliers, on peut expliciter \(L(C_0^n)\text{.}\)
Exercice 11.2.1 Elementaire-mon-cher-Watson 1: Echange de deux variables
On commence par considérer l'application \(\varphi:\R^n \rightarrow \R^n\) définie par
(avec \(i\neq j\text{,}\) sinon ce n'est pas une application très intéressante)
1.
Déterminer la matrice de \(\varphi_{ij}\) dans la base canonique.
2.
En déduire
\(\det(\varphi_{ij})=\)
3.
Déterminer \(\varphi_{ij}(C_0^n)\text{.}\) En déduire \(\mu_n(\varphi_{ij}(C_0^n))\text{.}\)
Conclure allègrement.
Exercice 11.2.2 Elementaire-mon-cher-Watson 2: Multiplier une variable par un scalaire
On pose cette fois \(\alpha\neq 0\) et on s'intéresse à
1.
Déterminer la matrice de \(\psi_{i,\alpha}\) dans la base canonique.
2.
En déduire
\(\det(\psi_{i,\alpha})=\)
3.
Déterminer \(\psi_{i,\alpha}(C_0^n)\text{.}\) En déduire \(\mu_n(\psi_{i,\alpha}(C_0^n))\text{.}\)
Conclure allègrement.
Exercice 11.2.3 Un-chouïa-moins-élementaire-mon-cher-Watson: Sommer deux variables
Enfin, on regarde
1.
Déterminer la matrice de \(\sigma\) dans la base canonique.
2.
En déduire
\(\det(\sigma_{ij})=\)
3.
Montrer que, si \(u\in\Vect(e_i,e_j)\text{,}\) alors \(\sigma_{ij}(u)\in \Vect(e_i,e_j)\text{.}\)
4.
On peut donc regarder la restriction de\(\sigma_{ij}\) à \(\Vect(e_i,e_j)\text{,}\) ce qui nous donne un isomorphisme sur un e.v. de dimension 2
Etudier \(\sigma_{ij|\Vect(e_i,e_j)}\) revient donc à regarder l'application linéaire quivante sur \(\R^2\text{:}\)
ce qu'on va donc faire.
Montrer que \(\sigma(\rbb 0,1\rbb \times \rbb 0,1\rbb)\) est le parallélogramme \(P\) de sommets \((0,0),(1,1),(2,1),(1,0)\text{:}\)
5.
On va calculer \(\mu_2(P)\text{.}\) Si le monde est bien fait, ça devrait nous donner l'aire de \(P\) (au sens géométrique habituel), c'est à dire:
Aire(P) =
6.
Cela dit, à part que ça a l'air vrai pour les carrés, on n'a pas montré que la mesure de Borel \(\mu_2\) donne bien l'aire géométrique.
On va donc faire une démontration basée sur la définition de \(\mu_2\text{:}\) en utilisant les rectangles \(\rbb a_1,b_1\rbb \times \rbb a_2 , b_2 \rbb\) pour lesquels on connaît le résultat, et trouver une "suite de rectangles" qui "encadre" \(P\text{.}\)
Soit \(n\in\N^*\text{.}\) Montrer que, d'une part
et d'autre part, que
7.
En déduire que \(\mu_2(P)=1\text{.}\)
8.
En utilisant l'Exercice 11.2.1, on pose
Montrer que \(\tilde L(C_0^n) = P \times C_0^{n-2}\text{.}\) En déduire \(\mu_n(\tilde L (C_0^n))\text{,}\) puis \(\mu_n(L(C_0^n))\text{.}\)
9.
Conclure avec soulagement.
La bonne nouvelle, c'est que, si on sait gérer ces trois catégories, eh bien, on peut en déduire tous les autres.
Subsection 11.2.4 Quelques rappels d'algèbre linéaire
Si vous avez déjà fait de l'algèbre linéaire en dimension finie, vous avez dû remarquer que la plupart des questions qu'on se pose dans ce contexte 2 peuvent se reformuler en termes de résolution d'un système linéaire.
Et pour résoudre un système linéaire, on dispose de l'arme nucléaire: l'algorithme du pivot de Gauss 3 ,
qui permet de résoudre n'importe quel système linéaire en utilisant seulement trois opérations élémentaires:
l'échange de deux lignes
la multiplication d'une ligne par un scalaire non nul
l'ajout d'une ligne à autre ligne
qui suffisent pour ramener n'importe quel système linéaire à un système échelonné
Si le système a autant d'inconnues que d'équations et admet une unique solution, alors on peut utiliser les mêmes opérations pour "remonter" à partir de la dernière ligne, ce qui nous donne la solution
Vous pensez peut-être que tout ça n'a pas pas grand chose à voir avec les mesures et les boréliens. Mais on y vient !
Ce qui va nous servir ici, c'est la traduction matricielle de tout ça.
N'importe quel système linéaire à \(n\) équations et \(n\) inconnues peut se reformuler sous la forme d'une égalité matricielle
et les opérations élémentaires du pivot de Gauss sont représentées par des produits matriciels de la matrice des coefficients \(A\) avec certaines matrices, qu'on appelle, sans grande originalité, les matrices élémentaires.
Echange de lignes: On va noter \(E_{ij}\) la matrice obtenue en échangeant les \(i\)-ème et \(j\)-ème lignes de la matrice identité \(I_n\text{.}\)
Par exemple, pour \(n= 4\text{,}\)
Plus généralement, les coefficients de \(E_{ij}\) sont donnés par
La matrice \(E_{ij}\) est inversible, d'inverse elle-même: \(E_{ij}^{-1}=E_{ij}\text{,}\) et vérifie \(E_{ij}=E_{ji}\text{.}\)
\(\leadsto\) La matrice \(E_{ij}\) permet de réaliser l'opération élémentaire d'échange de lignes: \(E_{ij}A\) est la matrice obtenue en échangeant les lignes \(L_i\) et \(L_j\) de \(A\text{.}\)
Preuve.
Notons \(\tilde A = E_{ij}A\text{,}\) alors les coefficients de \(\tilde A\) sur la \(i\)-ème ligne sont
puisque \((E_{ij})_{pi}=1\) si \(p=j\text{,}\) \(0\) sinon.
\(\leadsto\) Les coefficients de la \(i\)-ème ligne de \(\tilde A\) sont donc ceux de la \(j\)-ème ligne de \(A\text{.}\)
De même, les coefficients sur la \(j\)-ème ligne sont
\(\leadsto\) ce sont ceux de la \(i\)-ème ligne de \(A\text{.}\)
Et pour les autres lignes, avec \(k\neq i,j\text{,}\)
\(\leadsto\) Autrement dit les autres lignes ne changent pas.
Exemple 11.2.1.
Regardons ce que ça donne pour une matrice 2x2
Voyons ce que ça donne pour une matrice 3x3 quelconque
Multiplication d'une ligne par \(\alpha\neq 0\text{:}\) Notons \(D_i(\alpha)\) la matrice obtenue en multipliant la \(i\)-ème ligne de la matrice identité \(I_n\) par \(\alpha\text{.}\)
Par exemple, pour \(n= 4\text{,}\)
Et plus généralement, les coefficients de \(E_{ij}\) sont donnés par
Pour \(\alpha\neq 0\text{,}\) la matrice \(D_i(\alpha)\) est inversible, d'inverse \(D_{i}(\alpha)^{-1}=D_{i}(\frac1 \alpha)\text{.}\)
La matrice \(D_{i}(\alpha)\) permet de réaliser l'opération élémentaire de multiplication d'une ligne par \(\alpha\text{:}\) \(D_{i}(\alpha)A\) est la matrice obtenue en multipliant la ligne \(L_i\) de \(A\) par \(\alpha\text{.}\)
Preuve.
Soit \(\tilde A = D_{i}(\alpha)A\text{,}\) alors les coefficients de \(\tilde A\) sur la \(i\)-ème ligne sont
Ce sont donc ceux de la \(i\)-ème ligne de \(A\text{,}\) multipliés par \(\alpha\text{.}\)
Pour les autres lignes, avec \(k\neq i\text{,}\)
autrement dit les autres lignes ne changent pas.
Ajout d'une ligne à une autre: Notons \(T_{ij}\) la matrice obtenue en ajoutant \(1\) en position \((i,j)\) à la matrice identité (pour \(i\neq j\)).
Autrement dit, on obtient \(T_{ij}\) en ajoutant la \(i\)-ème ligne de \(I_n\) à la \(j\)-ème.
Par exemple, pour \(n= 4\text{,}\)
Et plus généralement, les coefficients de \(T_{ij}\) sont donnés par
La matrice \(T_{ij}\) est inversible, et son inverse s'obtient en ajoutant à \(I_n\) un \(-1\) en position \((i,j)\text{.}\)
Et, ce qui nous intéresse, c'est que la matrice \(T_{ij}\) permet de réaliser l'opération élémentaire d'ajout d'une ligne à une autre : \(T_{ij}A\) est la matrice obtenue en ajoutant \(C_j\) à la ligne \(C_i\text{.}\)
Preuve.
Soit \(\tilde A = T_{ij}A\text{,}\) alors les coefficients de \(\tilde A\) sur la \(i\)-ème ligne sont
\(\leadsto\) Ce sont donc ceux de la \(i\)-ème ligne de \(A\text{,}\) plus ceux de la \(j\)-ème.
Et pour les autres lignes, avec \(k\neq i\text{,}\)
Autrement dit, les autres lignes ne changent pas.
Exemple 11.2.2.
Et pour des matrices de taille 3:
Mais du coup, si on met tout ensemble:
-
Un système à \(n\) équations et inconnues a une unique solution ssi il est représenté par
\begin{equation*} AX=B \end{equation*}avec \(A\in\mathcal M_n(\R)\) inversible.
-
D'un autre côté, un système à \(n\) équations et inconnues a une unique solution ssi, via des opérations élémentaires, on peut le ramener à
\begin{equation*} \begin{cases} x_1\amp = s_1\\ \vdots\\ x_n\amp = s_n \end{cases} \Leftrightarrow I_n X = S = A^{-1}B \end{equation*} Enfin, appliquer des opérations élémentaires à un système, ça revient à multiplier la matrice des coefficients \(A\) par des matrices élémentaires \(D_{ij}(\alpha),E_{ij},T_{ij}\text{.}\)
\(\leadsto\) Donc, si \(A\) est inversible, il doit y avoir une suite finie de matrices élémentaires \(M_1,\ldots,M_k\) telles que
Autrement dit, \(A^{-1}= M_1M_2\ldots M_k\) est un produit de matrices élémentaires, et du coup \(A=M_k^{-1}...M_1^{-1}\) aussi.
La conclusion de tout ça, c'est que toute matrice inversible \(A\) peut se décomposer en un produit de matrices élémentaires.
Exercice Exercice
1.
On considère l'endomorphisme
Montrer que c'est un isomorphisme.
2.
Déterminer la matrice \(\rbb L\lbb _{\mathcal B_0}\) de \(L\) dans la base canonique.
En déduire \(\det(L)\text{.}\)
3.
Trouver des matrices élémentaires \(A_1,\ldots,A_k\) telles que
Subsection 11.2.5 \(L\) inversible, cas général
Ceci nous permet de conclure pour le cas de \(C_0^n\) : soit \(L\) est un isomorphisme de \(\R^n\text{,}\) alors sa matrice dans la base canonique \(\rbb L\lbb _{\mathcal B_0}\) est une matrice inversible.
Et donc, comme à l'exemple précédent, il existe des matrices élémentaires \(A_1,\ldots,A_k\) telles que
Exercice Exercice
1.
Montrer que
2.
En déduire que
fr.wikipedia.org/wiki/Parall%C3%A9logramme#Aire
carolinevernier.website/Poly-pretext-systeme/syst_lin.html