Skip to main content

Section 2 Safari dans le milieu naturel des nombres imaginaires

Subsection 2.1 Une première tentative: les triangles trop courts de Wallis

Parmi les premiers à tenter, malgré tout, de trouver un sens concret, géométrique, aux solutions "impossibles" d'équations quadratiques, on trouve John Wallis. Son approche échoua, mais ce fut un échec intéressant.

Wallis, en 1673, propose une construction pour situer les solutions d'une équation quadratique \(x^2+2bx+c^2=0\) sur la droite des nombres. On sait que cette équation a des solutions réelles si \(b \geq c\text{,}\) et dans ce cas les solutions sont \(-b + \sqrt{b^2-c^2}\) et \(-b - \sqrt{b^2-c^2}\text{.}\) Pour les représenter, on peut se placer au point \(-b\) sur l'axe, et dresser un segment horizontal de longueur \(c\text{.}\) Ensuite, on trace le cercle dont le centre est au sommet du segment vertical, avec un rayon \(b\text{,}\) et on note \(P_1\) et \(P_2\) les points d'intersection avec l'axe horizontal.

Dans cette configuration, le théorème de Pythagore nous apprend que le carré de la distance entre le point \(-b\) et \(P_1\) est \(b^2 - c^2\text{,}\) même chose pour la distance entre le point \(-b\) et \(P_2\text{.}\) Du coup, les points \(P_1\) et \(P_2\) sont aux abcisses \(-b+\sqrt{b^2-c^2}\) et \(-b-\sqrt{b 2-c^2}\text{,}\) et donnent donc les solutions de l'équation \(x^2 +2bx+c^2=0\text{.}\)

Maintenant, que se passe-t-il si \(b \lt c \) ?

Dans ce cas, notre construction nous donne des points \(P_1\) et \(P_2\) qui flottent au-dessus de l'axe sans pouvoir l'atteindre:

Revenons à Euler, qui se plaignait qu'on ne peut placer ces solutions imaginaires ni à gauche, ni à droite de zéro, démontrant leur impossibilité. Ce qui commence à apparaître dans la construction de Wallis, c'est qu'en effet, les quantités imaginaires n'ont pas leur place sur l'axe des nombres réels: pour les placer quelque part, il va falloir les mettre au-dessus.

Cela dit, la construction de Wallis n'est pas très satisfaisante: déjà, on ne sait pas très bien où sont les points \(P_1\) et \(P_2\) (puisque le cercle n'atteint pas l'axe horizontal, on pourrait les mettre un peu n'importe où sur ce cercle). Mais surtout, si on essaie de localiser ce fameux \(i=\sqrt{-1}\text{,}\) en prenant \(c=1\) et en rapprochant \(b\) de 0, on voit que les points \(P_1\) et \(P_2\) finissent par se confondre en haut du segment vertical, ce qui nous fait conclure, à tort, que \(i = - i\text{.}\)

 1 

Mais aussi, cela nous fait conclure, à raison, que c'est dans la direction verticale qu'il faut chercher nos nombres imaginaires.

Subsection 2.2 Eloge du pas de côté

Avant de parler de racines de nombres négatifs, discutons déjà de nombres négatifs, et notamment de leur multiplication. Que signifie \((-17)\cdot(-3\pi)\text{,}\) et pourquoi le résultat devrait-il être positif ?

Prenons un nombre \(a\) et considérons l'opération "multiplier par \(a\)". Que fait cette opération ?

Si \(a\) est positif, l'opération "multiplier par \(a\)" prend un nombre \(x\) et modifie la distance de \(x\) avec 0: elle le rapproche de \(0\) si \(a \lt 1\text{,}\) et elle l'éloigne si \(a \gt 1\text{.}\) Et si \(a=1\text{,}\) l'opération ne fait rien du tout.

Si \(a\) est négatif, l'opération "multiplier par \(a\)", non seulement modifie la distance de \(x\) à 0, mais aussi lui fait faire un demi-tour. En particulier, si \(a=-1\text{,}\) l'opération "multiplier par \(-1\)" est donc une rotation de 180°.

Remarquons aussi que multiplier \(x\) par \(a^2\) revient à multiplier \(x\) par \(a\text{,}\) puis à recommencer. Et donc, si on multiplie par \((-1)\) deux fois de suite, on fait deux rotations de 180°, donc un tour complet : c'est comme si on n'avait rien fait. Et donc, multiplier par \((-1)^2\text{,}\) c'est pareil que multiplier par \(1\text{:}\) autrement dit, \((-1)^2=1\text{.}\)

Mais du coup, "multiplier par \(\sqrt{a}\)", c'est l'opération qu'on doit faire deux fois de suite pour multiplier par \(a\text{.}\) Et donc, "multiplier par \(\sqrt{-1}\)", c'est l'opération qu'on doit faire deux fois de suite pour faire demi-tour: c'est donc un quart de tour, ou pour le dire élégamment, une rotation de 90°.

C'est ce que Wessel, Argand 2  ,et Gauss comprirent, plus ou moins indépendamment, à la toute fin du XVIIIème siècle: pour représenter les nombres complexes, une ligne ne suffira pas: il nous faut un plan. L'unité "imaginaire", \(i\) n'est ni à gauche, ni à droite de zéro: il est au-dessus.

Maintenant, si on interprète géométriquement l'opération "ajouter \(a\)", on s'aperçoit qu'elle correspond à une translation: un pas de longueur \(|a|\) , en avant si \(a\) est positif, en arrière si \(a\) est négatif.

Et pour ajouter un de ces nouveaux nombres verticaux ? Un pas vers le haut.

Un nombre complexe, c'est donc un nombre \(z\) de la forme \(a+ib\text{,}\) et il correspond au point du plan cartésien de coordonnées \((a,b)\text{:}\)

On dit que \(a\) est la partie réelle de \(z=a+ib\text{,}\) et que \(b\) est sa partie imaginaire.

Maintenant, les nombres "imaginaires" deviennent légitimes. Non seulement ils ont une existence géométrique bien réelle dans le plan complexe \(\C\text{,}\) mais en plus les opérations de somme et de multiplication de nombres complexes aussi : il suffit d'utiliser l'interprétation de la somme comme translation, et de la multiplication comme rotation/amplification qu'on vient de voir.

Somme

Ainsi, la somme de deux nombres complexes suit la "loi du parallélogramme" de l'addition de vecteurs: si \(a=a+ib,w=c+id\) sont deux nombres complexes,

\begin{gather*} z+w=(a+ib)+(c+id) = a+c+ib+id\\ \leadsto \boxed{z+w=(a+c)+i(b+d)} \end{gather*}

La multiplication par \(i\) est toujours une rotation à angle droit dans le sens antihoraire:

\begin{equation*} iz=i(a+ib) = ia + i^2b = ia-b =-b + ia \end{equation*}

 3 

Et la mutliplication de deux complexes ?

\(\leadsto\) On va utiliser la propriété de distribution de la multiplication classique:

\begin{equation*} wz = (c+id)z = cz + i dz \end{equation*}

On pourrait alors s'inquiéter: on a calculé \(wz\) en utilisant \(w\) pour transformer \(z\text{,}\) mais est-ce que \(zw=wz\text{,}\) autrement dit est-ce que si on utilise \(z\) pour transformer \(w\text{,}\) on obtient la même chose ?

Un calcul rapide permet de se rassurer :

\begin{align*} wz \amp = cz + i dz = c(a+ib)+id(a+ib)\\ \amp=ca + icb + ida +i^2db = ca - db + i(cb+da)\\ \ \\ zw \amp = aw + i bw = a(c+id)+ib(c+id)\\ \amp=ac + iad + ibc +i^2bd = ac - bd + i(bc+ad)\\ \ \\ \leadsto \amp \boxed{zw=wz=(ac-bc) + i(ad+bc)} \end{align*}

Mais il y a une façon plus géométrique de comprendre le produit de deux nombres complexes, en suivant une idée de Wessel: il a remarqué que, quand on prend deux nombres réels \(x\) et \(y\text{,}\) on a

\begin{equation*} \dfrac{xy}{x} = y = \dfrac{y}{1}, \frac{xy}{y} = x = \dfrac{x}{1} \end{equation*}

Rien de sidérant, me direz-vous. Ce qu'on observe, c'est donc que la "relation" entre le produit \(xy\) et l'un des facteurs (\(x\) ou \(y\)), est la même que la "relation" entre l'autre facteur et 1.

Pour généraliser ça à des nombres complexes, dans le plan complexe, on va représenter 1 par le "segment unité" entre \((0,0)=0+0i=0\) et \((1,0)=1+0i =1\text{.}\) Si on a deux nombres complexes \(z_1\) et \(z_2\text{,}\) on peut transformer ce segment unité en \(z_2\) en lui faisant subir une rotation et une dilatation :

 4 

Et donc, si on veut que "la relation entre \(z_1z_2\) et \(z_1\) soit la même qu'entre \(z_2\) facteur et 1", on va trouver \(z_1z_2\) en appliquant à \(z_1\) la même rotation et la même dilatation:

 5 

Pour décrire ces rotations et dilatations, les coordonnées polaires semblent plus indiquées.

Il s'agit de repérer un point \(A\) du plan dont les coordonnées cartésiennes sont \((x,y)\) en utilisant la distance \(r\) entre \(A\) et l'origine \(O\) et l'angle \(\theta\) entre la droite \((OA)\) et l'axe horizontal: \((r,\theta)\) sont alors les coordonnées polaires de \(A\text{.}\)

Quand \((x,y)\) représente le nombre compleze \(z=x+iy\text{,}\) on dit que \(r\) est le module de \(z\text{,}\) et que \(\theta\) est son argument.

Avec un peu de bonne vieille géométrie, on trouve que

\begin{align*} r\amp = \sqrt{x^2+y^2}\\ x\amp = r\cos(\theta) \\ y\amp = r\sin(\theta) \end{align*}

et donc

\begin{equation*} z=x+iy = r\cos(\theta) + i r\sin(\theta) \end{equation*}

Donc, si on fait le produit de deux nombres complexes

\begin{equation*} z_1 = r_1(\cos(\theta_1) + i \sin(\theta_1)), \ z_2=r_2(\cos(\theta_2) + i \sin(\theta_2)), \end{equation*}

le produit \(z_1z_2\) fait un angle \(\theta_1+\theta_2\) avec l'horizontale, et est à une distance \(r_1r_2\) de l'origine:

\begin{equation*} z_1z_2 = r_1r_2 (\cos(\theta_1+\theta_2) + i r\sin(\theta_1+\theta_2)) \end{equation*}

Vérifier que ce résultat est compatible avec la formule qu'on a obtenu avant pour le produit de deux nombres complexes \(z\) et \(w\text{.}\)

Remarque 2.2.

En particulier, \(i\) a pour coordonnées polaires \(r=1\) et \(\theta=\dfrac{\pi}2\text{,}\) donc multiplier par \(i\) revient à ajouter un angle droit sans modifier la longueur : c'est bien une rotation d'angle \(\dfrac{\pi}{2}\text{.}\)

A partir de là, si on multiplie un nombre complexe \(z=r(\cos(\theta)+i\sin(\theta))\) par lui-même, on obtient le nombre complexe \(z^2\text{,}\) dont la longueur à \(0\) est \(r^2\) et l'angle est \(2\theta\text{.}\)

Et si on re-multiplie \(z^2\) par \(z\text{,}\) on trouve \(z^3=r^3(\cos(3\theta)+i\sin(3\theta))\text{,}\) et ainsi de suite:

\begin{equation*} z^m=r^m(\cos(m\theta)+i\sin(m\theta)) \end{equation*}

En particulier, si \(r=1\text{,}\) on tombe sur

\begin{equation*} z^m = \cos(m\theta)+i\sin(m\theta) \end{equation*}

Autrement dit

\begin{equation*} \boxed{(\cos(\theta)+i\sin(\theta))^m= \cos(m\theta)+i\sin(m\theta)} \end{equation*}

Inverse d'un nombre complexe

On a trouvé \(zw\) en notant que le "rapport" entre \(w\) et \(zw\) est le même que le "rapport" entre \(1\) et \(z\text{,}\) et ce qu'on appelle le "rapport", c'est la transformation géométrique qu'il faut appliquer pour passer du premier au deuxième.

On peut appliquer la même méthode pour trouver \(\dfrac1{z}\text{:}\) \(z\cdot \frac1{z}= 1\text{,}\) donc le "rapport" entre \(\dfrac1{z}\) et \(1\) est le même que le rapport entre \(1\) et \(z\text{.}\)

Notons déjà que si \(z=0\text{,}\) pour transformer 1 en \(z\text{,}\) il faut écraser tout le segment unité sur le point \((0,0)\) en multipliant sa longueur par 0. Mais du coup, \(\frac1{z}\) serait au bout d'un segment, qui, une fois sa longueur multipliée par 0, donnerait 1....et ça, ça va être compliqué.

Donc, dans \(\C\text{,}\) on peut prendre la racine carrée de \(-1\text{,}\) mais toujours pas diviser par 0 !

Si \(z=r(\cos(\theta)+i\sin(\theta))\neq 0\) alors, comme on a vu, pour transformer \(1\) en \(z\text{,}\) on fait tourner le segment unité d'un angle \(\theta\) dans le sens trigonométrique, et on dilate sa longueur de \(r\text{.}\) Donc, pour transformer \(\dfrac1{z}\) en \(1\text{,}\) on fait la même chose:

Et donc, \(\dfrac{1}{z}=\dfrac1{r}(\cos(-\theta)+i\sin(-\theta))\text{.}\) Compte tenu des parités des fonctions de \(\cos\) et \(\sin\text{,}\) ceci donne

\begin{equation*} \boxed{\dfrac{1}{z}=\dfrac1{r}(\cos(\theta)-i\sin(\theta))} \end{equation*}

Et avec les coordonnées "normales" cartésiennes, qu'est-ce que ça donne ? Comment calculer \(\frac1{z}=\frac1{a+ib}\) ?

D'après la formule qu'on vient d'obtenir, puisque \(a=r\cos(\theta), b=r\sin(\theta)\) et \(r=\sqrt{a^2+b^2}\text{,}\) on a

\begin{align*} \dfrac{1}{z}=\frac1{a+ib}\amp=\dfrac1{r}(\cos(\theta)-i\sin(\theta))\\ \amp =\dfrac1{r}\left(\dfrac{a}{r}-i\dfrac{b}{r}\right)=\dfrac1{r^2}(a-ib)\\ \amp =\dfrac{1}{a^2+b^2}(a-ib) \end{align*}

En fin de compte, si \(z=a+ib\neq 0\text{,}\)

\begin{equation*} \boxed{\dfrac{1}{a+ib}=\dfrac{a-ib}{a^2+b^2}} \end{equation*}

Dans la foulée, du coup, on trouve que, quel que soit \(z=a+ib\text{,}\)

\begin{equation*} (a+ib)(a-ib)=a^2+b^2 \end{equation*}

\(\leadsto\) En fait, c'est un cas particulier de la fameuse identité remarquable \((c+d)(c-d)=c^2-d^2\text{:}\)

\begin{equation*} (a+ib)(a-ib)=a^2-(ib)^2=a^2-i^2b^2=a^2-(-1)b^2 = a^2+b^2 \end{equation*}

C'est non seulement très joli, mais en plus c'est utile: ça nous dit comment repasser d'un complexe \(z=a+ib\) à un réel (\(a^2+b^2\)). On va donc donner un nom à \(a-ib\) : on l'appellera le conjugué de \(z\text{,}\) et on le notera \(\overline{z}\text{:}\)

\begin{equation*} z=a+ib\leadsto \boxed{\overline{z}=a-ib} \end{equation*}

En coordonnées polaires,

\begin{equation*} z= r\cos(\theta)+ir \sin(\theta) \leadsto \overline{z}=r\cos(\theta)-ir\sin(\theta) = r\cos(-\theta)+i r \sin(-\theta) \end{equation*}

Le conjugué de \(z\) a la même distance à 0 et l'angle opposé par rapport à l'axe horizontal: c'est le symétrique de \(z\) par rapport à cet axe.

et on a trouvé que \(\boxed{z\overline z = a^2+b^2 = r^2}\text{.}\)

Division

Là, pour le coup, le travail est déjà fait: on sait calculer l'inverse \(\dfrac1{z_2}\text{,}\) et on sait multiplier, donc on peut calculer \(\dfrac{z_1}{z_2} = \dfrac{1}{z_1}\cdot z_2\text{:}\)

  • En coordonnées cartésiennes: Si on prend \(z_1=a_1+ib_1,z_2=a_2+ib_2\)

    \begin{gather*} \dfrac{z_1}{z_2}=\dfrac{1}{a_2+ib_2}\cdot(a_1+ib_1) = \dfrac{(a_2-ib_2)(a_1+ib_1)}{a_2^2+b_2^2}\\ \leadsto \ \boxed{\dfrac{z_1}{z_2}=\dfrac{a_1a_2+b_1b_2}{a_2^2+b_2^2}+i\dfrac{a_2b_1-a_1b_2}{a_2^2+b_2^2}} \end{gather*}
  • En coordonnées cartésiennes: Si on prend \(z_1=r_1(\cos(\theta_1)+i\sin(\theta_1)), z_2=r_2(\cos(\theta_2)+i\sin(\theta_2))\text{,}\)

    \begin{gather*} \dfrac{z_1}{z_2}=\dfrac1{r_2}(\cos(\theta_2)-i\sin(\theta_2))\cdot r_1(\cos(\theta_1)+i\sin(\theta_1))\\ \leadsto \ \boxed{\dfrac{z_1}{z_2}=\dfrac{r_1}{r_2}(\cos(\theta_1-\theta_2)+i\sin(\theta_1-\theta_2))} \end{gather*}

     6 

  • Géométriquement: Pour obtenir \(\dfrac{z_1}{z_2}\text{,}\) on fait subir à \(z_1\) une rotation de \(-\theta_2\) (donc, une rotation d'angle \(\theta_2\) dans le sens horaire), et on contracte sa longueur de \(\dfrac1{r_2}\text{:}\)

Une observation:

En termes des distances à \(0\text{,}\) la multiplication et la division se comportent "normalement": le produit \(zw\) correspond au produit des distances \(r_1r_2\text{,}\) et la division \(\dfrac{z}{w}\) correspond à la division des distances \(\dfrac{r_1}{r_2}\text{.}\)

Ce que les nombres complexes apportent de nouveau, c'est l'angle qu'ils font avec la droite des réels. Et là-dessus, on a vu que le produit de deux nombres complexes correspond à une addition de leurs angles, et que la division correspond à la soustraction des angles.

Or, on connaît une fonction qui transforme les sommes en produits et les soustractions en divisions: la fonction exponentielle.

Subsection 2.3 La formule d'Euler

...est le nom qu'on donne à la formule, quelque peu miraculeuse:

\begin{equation*} e^{i\pi} = -1 \end{equation*}

et plus généralement,

\begin{equation*} \boxed{e^{i\theta} = \cos(\theta)+i\sin(\theta)} \end{equation*}

Exercice 2.1. Comment ? Pourquoi ?

Qu'est-ce que ça veut dire, l'exponentielle d'un nombre imaginaire ?

Alors, pour commencer, c'est quoi, déjà, l'exponentielle d'un nombre réel ?

\(\leadsto\) La fonction \(\exp\text{,}\) c'est la fonction égale à sa dérivée:

\begin{equation*} f'(t)=f(t), f(0)=1 \leftrightsquigarrow f(t)=e^t \end{equation*}

et, plus généralement, si \(a\) est n'importe quel brave réel

\begin{equation*} f'(t)=af(t), f(0)=1 \leftrightsquigarrow f(t)=e^{at} \end{equation*}

Si on veut que les nombres complexes soient les plus réels possibles, la fonction \(f(t)=\exp(it)\) devrait être la fonction telle que

\begin{equation*} f'(t)=if(t),f(0)=1 \end{equation*}

D'un autre côté, comme on a mis un nombre complexe dans l'exponentielle, on peut s'attendre à ce que le résultat soit aussi un nombre complexe. Il est probable que \(f(t)=\exp(it)\) ait une partie réelle et une partie imaginaire:

\begin{equation*} e^{it}=f(t)=x(t)+iy(t) \end{equation*}

Pour montrer la formule d'Euler, il faut donc qu'on montre que \(x(t)=\cos(t)\) et \(y(t)=\sin(t)\text{.}\)

(a)

Voyons ça géométriquement: considérons les points du plan \(A(t)=(x(t),y(t))\) qui correspond à \(f(t)\) et \(B(t)=(x'(t),y'(t)\) qui correspond à \(f'(t)\text{.}\)

Montrer que les vecteurs \(OA(t)\) et \(OB(t)\) sont à angle droit.

Spoiler.

Comme \(f'(t)=if(t)\text{,}\) le point \((x'(t),y'(t))\) est obtenu en faisant une rotation à angle droit de \((x(t),y(t))\text{:}\)

(b)

En déduire que la fonction

\begin{equation*} x^2(t)+y^2(t) \end{equation*}

est constante et égale à \(1\text{,}\) quel que soit \(t\text{.}\)

Spoiler.

Les vecteurs \(OA(t)=(x(t),y(t))\) et \(OB(t)=(x'(t),y'(t))\) sont orthogonaux, donc leur produit scalaire est nul:

\begin{equation*} \langle (x(t),y(t)) , (x'(t),y'(t)) \rangle = x(t)x'(t)+y(t)y'(t) = 0 \end{equation*}

Or, \(2x(t)x'(t)\text{,}\) c'est la dérivée de la fonction \((x(t))^2\text{,}\) donc \(x(t)x'(t)\) est la dérivée de \(\frac12 x(t)^2\text{.}\) De même, \(y(t)y'(t)\) est la dérivée de \(\frac12 y(t)^2\text{,}\) et donc \(x(t)x'(t)+y(t)y'(t)\) est la dérivée de \(\frac12(x^2(t)+y^2(t))\text{.}\)

Et cette dérivée est nulle quelle que soit \(t\text{,}\) donc la fonction \(\frac12(x^2(t)+y^2(t))\) est constante:

\begin{equation*} \text{Pour tout } t \in \R, \frac12(x^2(t)+y^2(t)) = c \end{equation*}

De plus, on sait que \(f(0)\) doit donner 1, donc \(x(0)=1\) et y(0)=0, donc

\begin{equation*} \frac12(x(0)^2+y(0)^2) = \frac12 = c \end{equation*}

Ce qui nous donne

\begin{equation*} \text{Pour tout } t \in \R, x^2(t)+y^2(t) = 1 \end{equation*}
(c)

En déduire que

\begin{equation*} x(t)=\cos(\alpha(t)),\ y(t)=\sin(\alpha(t)) \end{equation*}

pour une certaine fonction \(\alpha(t)\text{.}\)

Spoiler.

Puisque pour tout \(t\text{,}\) \(x^2(t)+y^2(t) = 1\text{,}\) la distance \(\sqrt{x^2(t)+y^2(t)}\) entre \((x(t),y(t))\) et l'origine est aussi constante égale à 1. Autrement dit, quel que soit \(t\text{,}\) \((x(t),y(t))\) est un point du cercle de centre \((0,0)\) et de rayon 1:

Mais du coup, si on note \(\alpha(t)\) l'angle entre \((x(t),y(t))\) et l'axe horizontal, on doit avoir

\begin{equation*} x(t)=\cos(\alpha(t)),\ y(t)=\sin(\alpha(t)) \end{equation*}
(d)

Montrer que \(\alpha'(t)=1\text{;}\) et en déduire que \(\alpha(t)=t+2k\pi\text{.}\)

Spoiler.

On a donc

\begin{equation*} x'(t)=-\alpha'(t)\sin(\alpha(t)),\ y'(t)=\alpha'(t)\cos(\alpha(t)) \end{equation*}

Or, on sait aussi que \(f'(t)=if(t)\text{,}\) donc

\begin{equation*} x'(t)+iy'(t)=i(x(t)+iy(t))=-y(t)+ ix(t) \end{equation*}

Et deux nombres complexes égaux doivent avoir la même partie réelle et la même partie imaginaire (ils correspondent au même point du plan). Du coup,

\begin{equation*} \begin{cases} x'(t) \amp=-y(t) \\ y'(t)\amp=x'(t) \end{cases}\leadsto \begin{cases} \alpha'(t) \sin(\alpha(t)) \amp=\sin(\alpha(t)) \\ \alpha'(t) \cos(\alpha(t)) \amp=\cos(\alpha(t)) \\\end{cases} \end{equation*}

ce qui donne

\begin{equation*} \alpha'(t) =1 \end{equation*}

et donc, en prenant la primitive,

\begin{equation*} \alpha(t)=t+c \end{equation*}

Enfin, comme \(f(0)=\cos(\alpha(0))+i\sin(\alpha(0))=1\text{,}\) on doit avoir

\begin{equation*} \cos(c)=1,\sin(c)=0 \end{equation*}

donc \(c\) est un multiple de \(2\pi\text{.}\) Et donc, en fin de compte,

\begin{equation*} \alpha(t)=t+2k\pi \end{equation*}
(e)

Conclure triomphalement.

Spoiler.

Du coup, on a trouvé que

\begin{gather*} x(t)=\cos(\alpha(t)) = \cos(t+2k\pi)=\cos(t)\\ y(t)=\sin(\alpha(t)) = \sin(t+2k\pi)=\sin(t) \end{gather*}

donc

\begin{equation*} f(t)=x(t)+iy(t) \leadsto \boxed{e^{it}=\cos(t)+i\sin(t)} \end{equation*}

Exercice 2.2. Sinus, cosinus, exponentielle.

En déduire que

\begin{gather*} \cos(\theta)= \dfrac{e^{i\theta}+e^{-i\theta}}{2}\\ \sin(\theta)= \dfrac{e^{i\theta}-e^{-i\theta}}{2i} \end{gather*}

Et alors, qu'est-ce qu'elle a de si magique, cette formule ?

Elle nous donne une nouvelle façon de présenter les nombres complexes: la forme exponentielle

\begin{equation*} z=r\exp(i\theta) \end{equation*}

et rend particulièrement naturelle la multiplication et la division complexe, ainsi que le calcul de puissances:

\begin{align*} z = r e^{i\theta},\ w=r' e^{i\theta'}\amp \leadsto zw = rr'e^{i(\theta+\theta')}\\ \amp\leadsto \dfrac{z}{w} = \dfrac{r}{r'}e^{i(\theta-\theta')}\\ \amp\leadsto z^m = r^me^{im\theta}, m\in \mathbb{Z} \end{align*}

L'expression de \(\cos\) et \(\sin\) en termes d'exponentielle complexe nous accès à toutes sortes d'identités trigonométriques:

Exercice 2.3. Trigo magique.

(a)

Calculer \(\cos(3\theta)\) en fonction de puissances de \(\cos(\theta)\) et de \(\sin(\theta)\text{.}\)

(b)

Calculer \(\cos(\theta)^4\) en fonction de termes de la forme \(\cos(k\theta)\text{,}\) \(k\in\N\text{.}\)

Et Euler, comment a-t-il trouvé ça ?

Au XVIIIème siècle, malgré la méfiance qu'ils continuent d'inspirer, les nombres complexes prolifèrent dans tous les domaines, et surtout la géométrie, où ils simplifient grandement les calculs, et donc la vie, des mathématiciens. Par exemple, en 1702, Johann Bernoulli découvrit une formule imaginaire donnant l'aire d'un secteur de disque:

Pour arriver là, il avait noté que l'angle \(\theta\) était donné par

\begin{equation*} \tan(\theta) = \dfrac{y}{x} \leadsto \theta = \arctan\left(\dfrac{y}{x}\right) \end{equation*}

Or, les nombres complexes permettent d'exprimer l'arctangente: en remarquant que

\begin{equation*} \dfrac{1}{1+t^2} = \dfrac{1}{2(1+ti)} + \dfrac{1}{2(1-ti)} \end{equation*}

on trouve, en prenant la primitive

\begin{equation*} \arctan(t)= \frac1{2i}\ln(1+ti) - \frac1{2i}\ln(1-ti) = \frac1{2i}\ln\left(\frac{1+ti}{1-ti}\right) \end{equation*}

et donc

\begin{equation*} \theta = \arctan\left(\dfrac{y}{x}\right) = \frac1{2i}\ln\left(\frac{1+(y/x)i}{1-(y/x)i}\right) = \frac1{2i}\ln\left(\frac{x+yi}{x-yi}\right) \end{equation*}

Or, un secteur de cercle de rayon \(a\) et d'angle \(\theta\) a une aire de \(\frac{\theta}{2\pi}\pi a^2\) (proportion \(\frac{\theta}{2\pi}\) de l'aire totale \(\pi a^2\)), ce qui donne

\begin{equation*} \frac{\theta}{2\pi}\pi a^2 = \frac{a^2}{2}\theta = \frac{a^2}{4i}\ln\left(\frac{x+yi}{x-yi}\right) \end{equation*}

...si on ne se pose pas trop de questions sur les logarithmes de nombres complexes.

25 ans plus tard, Bernoulli entra dans un débat enflammé avec son élève, Leonhard Euler, au sujet de la nature des logarithmes de nombres négatifs. Selon Bernouilli, \(\ln(-1)\) devrait faire 0, puisque

\begin{equation*} 0=\ln(1)=\ln((-1)\cdot(-1)) = 2 \ln(-1). \end{equation*}

Mais Euler retourna ses propres armes contre Bernoulli: d'après sa formule sur l'aire du secteur de disque, si on prend \(x=0\text{,}\) on obtient que l'aire d'un quart de disque est

\begin{equation*} \frac{a^2}{4i}\ln\left(\frac{yi}{-yi}\right) = \frac{a^2}{4i}\ln(-1) \end{equation*}

et l'aire d'un quart de cercle ne fait pas zéro !

Bernoulli ne fut pas convaincu et Euler n'alla pas plus loin dans cette voie. S'il l'avait fait, il aurait pu continuer en disant que l'aire d'un quart de disque, non seulement ne fait pas zéro, mais plus précisément donne \(\dfrac14\pi a^2\text{,}\) et donc

\begin{align*} \frac{a^2}{4i}\ln(-1) \amp = \dfrac14\pi a^2\\ \text{donc } \ln(-1)\amp= i\pi\\ \text{et donc } -1\amp= e^{i\pi} \end{align*}

...mais il ne le fit pas. En 1729, au moins trois personnes (Bernoulli, Cotes et Euler) avaient mis le doigt sur cette formule, mais sans reconnaître son importance.

Beaucoup plus tard, dans les année 1740, Euler revient sur la formule de De Moivre et en tira

\begin{gather*} \cos(v)=\dfrac{(\cos\frac vn)+ i \sin\frac vn)^n + (\cos\frac vn - i \sin\frac vn)^n}{2}\\ \sin(v)=\dfrac{(\cos\frac vn + i \sin\frac vn)^n - (\cos\frac vn - i \sin\frac vn)^n}{2i} \end{gather*}

Puis, pour \(n\) très grand, il approxime \(\cos(\frac vn)\) par 1, \(\sin(\frac vn)\) par \(\frac vn\text{,}\) ce qui lui donne

\begin{gather*} \cos(v)=\dfrac{(1 + i \frac vn)^n + (1 - i \frac vn)^n}{2}\\ \sin(v)=\dfrac{(1 + i \frac vn)^n - (1 - i \frac vn)^n}{2i} \end{gather*}

Or, \(\lim_{n\rightarrow \infty }(1 + i \frac vn)^n = e^v\text{,}\) donc

\begin{equation*} \cos(v)=\dfrac{e^{iv} + e^{-iv}}{2} \text{ et } \sin(v)=\dfrac{e^{iv} - e^{-iv}}{2i} \end{equation*}

Et donc, enfin,

Figure 2.4. \(e^{iv}= \cos(v)+i\sin(v)\)

Subsection 2.4 Applications des nombres complexes géométriques

Exercice 2.4. Le Théorème Fondamental de l'Algèbre.

....est un titre impressionnant, pour un théorème qui ne vous sidèrera peut-être pas:

Tout polynôme \(P(z)=z^n +a_{n-1}z^{n-1}+...+a_1z+a_0\) (à coefficients réels ou complexes) peut se factoriser en

\begin{equation*} P(z)=(z-c_1)(z-c_2)...(z-c_n) \end{equation*}

où les \(c_i\) sont des nombres complexes (pas nécessairement tous différents).

Avant le milieu du XVIIIème siècle, des versions de ce théorème apparaissent, sans démonstrations, dans divers traités d'algèbre (notamment celui de Girard), tandis que d'autres mathématiciens n'y croient pas. Par exemple, Leibniz pensait qu'il était impossible de factoriser \(x^4+1\text{,}\) et Nikolaus Bernoulli affirma la même chose sur \(x^4 - 4x^3 + 2x^2 + 4x + 4\text{.}\) Euler montra le contraire en factorisant les deux en 1742, mais sans montrer le théorème général.

C'est Jean Le Rond d'Alembert, qui, entre deux articles de l'Encyclopédie, fit une première tentative: sa preuve était incomplète (comme le souligna Gauss avec insistance), car il lui manquait un résultat crucial. Argand, à qui on doit une des géométrisation des nombres complexes, reprit et améliora sa preuve, et c'est une version de cette preuve améliorée et géométrique qu'on va suivre ici.

Notons que, dans la forme factorisée du polynôme \(P\text{,}\) les \(c_i\) sont des racines du polynôme: on va donc commencer par montrer que tout polynôme complexe admet au moins une racine \(c\text{.}\) Puis on verra que dans ce cas, on peut factoriser \(P\) par \((z-c)\text{.}\) De là, une petite récurrence suffira pour terminer.

(a)

Prenons un polynôme de degré \(n\geq 1\text{,}\) avec des coefficients complexes \(a_0,a_1,...,a_{n-1}\) et défini pour \(z\in\C\) par

\begin{equation*} P(z) = z^n+a_{n-1}z^{n-1}+...+a_1z+a_0 \end{equation*}

Soit \(z_0\) un point de \(\C\) tel que \(P(z_0) \neq 0\text{.}\)

On va commencer, comme Jean Le Rond, par montrer un premier résultat:

Si \(P\) est un polynôme complexe non constant et \(z_0\in \C\) un point tel que \(P(z_0)\neq 0\text{,}\) alors on peut trouver, aussi près qu'on veut de \(z_0\text{,}\) un point \(z_1\in\C\) tel que \(|P(z_1)| \lt |P(z_0)|\text{.}\)

On cherche donc un petit \(\Delta z\) tel que \(|P(z_0+\Delta z)| \lt |P(z_0)|\text{.}\)

Montrer que, pour n'importe quel \(\Delta z\text{,}\) on a

\begin{equation*} P(z_0+\Delta z) = P(z_0) + A_1 \Delta_z +...+ A_{n-1} (\Delta_z)^2+...+A_n(\Delta z)^n \end{equation*}

avec des coefficients \(A_1,...,A_n \in \C\) à déterminer.

(b)

Justifier que les \(A_i\) ne peuvent pas être tous nuls.

On note \(i_0\) le plus petit \(i\in\{1,...,n\}\) tel que \(A_{i_0}\neq 0\text{.}\) On a donc

\begin{equation*} P(z_0+\Delta z) = P(z_0) + A_{i_0}(\Delta_z)^{i_0} + \varepsilon(\Delta z) \end{equation*}

\(\varepsilon(\Delta z) = \sum_{i= i_0+1}^n A_i (\Delta z)^i\text{.}\)

(c)

On note \(\Theta\) l'angle de \(P(z_0)\text{,}\) \(\phi_i\) l'angle de \(A_i\) et \(\theta\) l'angle de \(\Delta_z\text{.}\)

Montrer qu'on peut choisir \(\theta\) pour que

\begin{equation*} |P(z_0)+A_{i_0}(\Delta_z)^{i_0}| = |P(z_0)|-|A_{i_0}||\Delta z|^{i_0} \end{equation*}
(d)

On note maintenant \(\delta = |\Delta z|\text{.}\) Déterminer un réel \(r \gt 0\) tel que

\begin{equation*} \text{Si } \delta \lt r, \text{ alors } |\varepsilon(\Delta z)| \lt |A_{i_0}||\Delta z|^{i_0} \end{equation*}
(e)

En déduire qu'on peut choisir \(\Delta z\) aussi petit qu'on veut et tel que \(|P(z_0+\Delta z)| \lt |P(z_0)|\text{.}\)

Ce qui termine la preuve de la première affirmation de Jean Le Rond.

(f)

Aller prendre l'air et se faire un thé pour fêter cette première étape

(g)

Montrer que \(|P(z)| \xrightarrow[|z|\rightarrow \infty]{}+\infty\text{.}\)

En déduire que, si on prend \(z_1\) un nombre complexe tel que \(|P(z_1)|\gt 0\text{.}\) Montrer qu'il existe \(R\gt 0\) tel que

\begin{equation*} text{Si } |z| \gt R , \text{ alors } |P(z)| \gt |P(z_1)| \end{equation*}
(h)

En déduire que, pour trouver une racine de \(P\text{,}\) mieux vaut chercher dans la région où \(|z| \leq R\text{.}\)

(i)

Pour conclure, on va utiliser un théorème de Weierstrass sur les fonctions continues, qui généralise un théorème connu:

Si \(f:D(r) \subset \R^2 \rightarrow \R\) est une fonction continue définie sur le disque \(D(r)=\{(x,y)\in\R^2, \sqrt{x^2+y^2}\leq r\}\text{,}\) alors \(f\) admet un point de minimum et un point de maximum dans \(D(r)\text{.}\)

Autrement dit, il existe deux points \((x_{min},y_{min})\) et \((x_{max},y_{max})\) dans \(D(r)\) tels que, pour tout autre point \((x,y)\) dans \(D(r)\text{,}\)

\begin{equation*} f(x_{min},y_{min})\leq f(x,y) \leq f(x_{max},y_{max}) \end{equation*}

En déduire qu'il existe un nombre complexe \(z_0\) tel que \(|z_0|\leq r\text{,}\) pour tout \(z\in \C\text{,}\) \(|P(z_0)|\leq |P(z)|\text{.}\)

(j)

A l'aide de la première affirmation de Jean Le Rond, montrer que dans ce cas, forcément, \(P(z_0)=0\text{.}\)

(k)

A ce stade, on a donc montré que tout polynôme complexe non constant admet au moins une racine (complexe).

Reste à utiliser ça pour factoriser le polynôme: et pour ça, on va revenir à un résultat que René Descartes a obtenu en 1637: le lemme de factorisation:

Si \(P\) est un polynôme et \(c\) est une racine de \(P\text{,}\) alors il existe un polynôme \(Q\) tel que

\begin{equation*} P(z)=(z-c)Q(z) \end{equation*}

Commençons par un cas particulier: le polynôme \(P_m(z)=z^m-c^m\text{,}\)\(c\) est un nombre complexe quelconque, \(m\) un entier quelconque.

On pose

\begin{equation*} G_{m-1}(z)=z^{m-1}+cz^{m-2}+...+c^{m-2}z+c^{m-1} \end{equation*}

Calculer \(z G_{m-1}(z)\text{,}\) \(c G_{m-1}(z)\text{,}\) et en déduire un polynôme \(Q\) tel que \(z^m-c^m=(z-c)Q(z)\text{.}\)

(l)

Prenons un polynôme de degré \(n\geq 1\text{,}\) avec des coefficients complexes \(a_0,a_1,...,a_{n-1}\) et défini pour \(z\in\C\) par

\begin{equation*} P(z) = z^n+a_{n-1}z^{n-1}+...+a_1z+a_0 \end{equation*}

Soit \(c\) un complexe quelconque. Trouver un polynôme \(Q\) tel que

\begin{equation*} P(z)-P(c)=(z-c)Q(z) \end{equation*}

En déduire que si \(c\) est une racine de \(P\text{,}\) alors on peut factoriser \(P\) par \(z-c\text{.}\)

(m)

Conclure, par récurrence, que si \(P\) est un polynôme complexe de degré \(n\text{,}\) alors

\begin{equation*} P(z)=(z-c_1)(z-c_2)...(c-c_n) \end{equation*}

(où les \(c_i\) ne sont pas nécessairement tous différents)

C'est une confusion qui, d'un autre côté, est dans l'air du temps: les nombres négatifs sont toujours considérés comme suspects. Par exemple, le sens correct à donner à \((-2)\cdot(-3)\text{,}\) et la signification de cette opération, ne sont pas encore vraiment éclaircis.

Wallis lui-même, par exemple, avança en 1656 que la division d'un nombre positif par un nombre négatif donne un résultat "plus grand que l'infini", puisque quand on fait \(\dfrac{a}{b}\text{,}\) avec \(a\) et \(b\) positifs, et qu'on rapproche \(b\) de 0, le résultat tend vers l'infini; donc, quand \(b=0\text{,}\) le résultat est infini, et si on continue, le résultat est plus grand que l'infini.

Et c'est encore pire avec les racines de nombres négatifs: Euler, pourtant pas le plus incompétent, calcule ainsi

\begin{equation*} \sqrt{-2}\sqrt{-3}= \sqrt{(-2)\cdot (-3)} = \sqrt{6} \end{equation*}

au lieu de

\begin{equation*} \sqrt{-2}\sqrt{-3}= i\sqrt{2}\cdot i\sqrt{-3} = i^2\sqrt{6} = -\sqrt{6} \end{equation*}

On trouve sur BibNum un excellent résumé des travaux d'Argand:

https://journals.openedition.org/bibnum/633#bodyftn4

Remarque: \(iz\) correspond donc au point \((-b,a)\) du plan cartésien. Or, les vecteurs \((a,b)\) et \((-b,a)\) sont orthogonaux dans \(\R^2\text{:}\)

\begin{equation*} \begin{pmatrix}a\\b\end{pmatrix} \cdot \begin{pmatrix}-b\\a\end{pmatrix} = a(-b)+ba = 0 \end{equation*}

et forment donc bien un angle droit.

Dans n'importe quel ordre:

Là aussi, peu importe l'ordre des opérations:

Pour les angles, on a utilisé notre observation précédente: le produit de deux complexes additionne leurs angles, donc en multipliant \(z_1\) par \(\dfrac{1}{z_2}\) on obtient \(\theta_1+(-\theta_2)\text{.}\)