Skip to main content

Section 2 Intégrales à paramètre

Subsection 2.1 ... C'est-à-dire ?

Jusque là, on s'est intéressés à des suites de fonctions \((f_n)_n\text{:}\) pour chaque \(n\in \N\text{,}\) on a une fonction \(f_n\) sur un intervalle \(I\text{.}\)

Mais pourquoi se restreindre à des paramètres entiers ?

Soit \(J\) un autre intervalle, on peut aussi considérer des fonctions \(f_x\) dépendant d'un paramètre \(x\in J\text{.}\)

\(\leadsto\) Pour chaque \(x\in J\text{,}\) on a une fonction \(f_x\) sur \(I\text{.}\)

Remarque 2.1.

Ceci équivaut à considérer une fonction à deux variables

\begin{equation*} f: (t,x)\in I\times J \mapsto f(t,x)=f_x(t)\in\R \end{equation*}

Par exemple, pour chaque \(x \gt 0\text{,}\) on peut définir la fonction

\begin{equation*} f_x(t)= \frac{1}{x\sqrt{2\pi}}e^{-\frac{t^2}{2x^2}}. \end{equation*}
Figure 2.2. Graphe des \(f_x\)

Soient donc \(I,J\) deux intervalles et \((f_x)_{x\in J}\) une famille de fonctions paramétrées par \(x\in J\text{.}\)

Fixons un \(x_0\in J\text{.}\) Si la fonction \(t\in I \mapsto f_{x_0}(t)\) est intégrable sur \(I\text{,}\) on peut définir

\begin{equation*} \int_I f_{x_0}(t)dt \in\R \end{equation*}

Remarque 2.3.

Donc, si \(I=[a,b]\text{,}\) c'est une intégrale de Riemann; sinon, c'est une intégrale généralisée.

\(\leadsto\) Si c'est le cas pour chaque \(x\in J\text{,}\) on peut définir ainsi une fonction

\begin{equation*} F:x\in J \mapsto \int_I f(t,x)dt \end{equation*}

\(\leadsto\) Ce type de fonctions est appelé intégrale à paramètre.

Exercice 2.1. La fonction \(\Gamma\).

(a)
Figure 2.5. Graphe des \(f_x\)

Pour \(x\in ]0,+\infty[\text{,}\) posons \(f_x(t)=e^{-t}t^{x-1}\text{.}\)

On s'intéresse à l'intégrale généralisée

\begin{equation*} \Gamma: x \mapsto \int_0^{+\infty} e^{-t}t^{x-1}dt \end{equation*}

Montrer que \(\Gamma\) est définie sur \(]0,+\infty[\text{.}\)

Indice.

C'est une intégrale généralisée, avec un "problème" en \(+\infty\) et, éventuellement, un problème en \(0\text{.}\)

On étudie séparément

\begin{equation*} I_1=\int_0^1 e^{-t}t^{x-1} dt \text{ et } I_2=\int_1^{+\infty} e^{-t}t^{x-1} dt \end{equation*}
  • Pour \(I_1\text{,}\) comparer avec une intégrale de type \(\int_0^1 \frac 1{t^\alpha}\)

  • Pour \(I_2\text{,}\) c'est l'exponentielle qui va nous sauver: on peut le voir avec la règmle en \(t^\alpha\) par exemple, ou avec un petit o

Spoiler.

Fixons \(x \gt 0\text{.}\) La fonction \(t\mapsto f(t,x)\) est continue, donc localement intégrable sur \(]0,+\infty[\text{.}\)

On doit montrer d'une part la convergence de \(I_1=\displaystyle \int_0^1 e^{-t}t^{x-1} dt\text{,}\) et d'autre part celle de \(I_2=\displaystyle\int_1^{+\infty} e^{-t}t^{x-1} dt\text{.}\)

  • Pour \(I_1\text{:}\) Remarquons que

    \begin{equation*} 0 \leq e^{-t}t^{x-1}=\dfrac{e^{-t}}{t^{1-x}}\sim_{t\rightarrow 0^+}\dfrac1{t^{1-x}} \end{equation*}

    Donc \(\displaystyle \int_0^1 \frac1{t^{1-x}}dt\) converge ssi \(x \gt 0\) donc \(I_1\) converge bien pour tout \(x \gt 0\text{.}\)

  • Pour \(I_2\text{:}\) On a:

    \begin{equation*} t^2 f(t,x) = t^{x+1}e^{-t} \xrightarrow[t\rightarrow \infty]{} 0, \end{equation*}

    donc par le critère en \(t^\alpha\text{,}\) \(\int_1^{+\infty} e^{-t}t^{x-1} dt\) converge pour \(x \gt 0\text{.}\)

\(\leadsto\) La fonction \(\Gamma\) est bien définie sur \(]0,+\infty[\text{.}\)

(b)

Montrer que, pour tout entier \(n\text{,}\) \(\Gamma(n+1)=n!\text{.}\)

Indice.

Récurrence et IPP !

Spoiler.

On va procéder par récurrence.

\(\boxed{n=0}\) On commence donc par calculer \(\Gamma(1)\text{,}\) dans l'espoir que ça fasse \(0!=1\text{.}\) On a

\begin{equation*} \Gamma(1)=\int_0^\infty e^{-t} dt = [-e^{-t}]_0^{+\infty}= 1 \end{equation*}

Bien.

\(\boxed{n \leadsto n+1}\) Supposons que \(\Gamma(n+1)= n!\) et montrons que \(\Gamma(n+2)=(n+1)!\text{.}\)

On calcule donc

\begin{align*} \Gamma(n+2) \amp = \int_0p {+\infty} e^{-t}t^{n+1}dt\\ \amp=\underbrace{[-t^{n+1}e^{-t}]_0^{+\infty}}_{=0} + (n+1)\int_0^{+\infty} t^ne^{-t}dt \\ \amp = (n+1)\Gamma(n) = (n+1)\cdot n!\\ \amp = (n+1)! \end{align*}

\(\Gamma\) est donc une fonction qui "généralise" la factorielle pour les entiers.

Subsection 2.2 Continuité et dérivabilité si \(I=[a,b]\)

Maintenant qu'on a défini tout un nouveau zoo de fonctions, on peut se poser à leur sujet les questions habituelles sur les fonctions: sont elles continues ? dérivables ?

Comme souvent quand des intégrales sont en jeu, on va d'abord traiter le cas où on intègre sur un segment \(I=[a,b]\text{.}\) On va voir que dans ce cas, ça se passe bien:

Posons \(f:(t,x)\in[0,1]\times \R \mapsto xt+x^2 \in \R\text{.}\) On a par exemple

\begin{equation*} f(t,2)= 2t+4,\quad f(t,-3)= -3t+9,\quad f(t,t)= 2t^2 \end{equation*}

\(\leadsto\) \(f\) est polynomiale, donc continue, sur \([0,1]\times \R\text{.}\) Donc la fonction

\begin{equation*} F(x)=\int_0^1 xt+x^2 dt \end{equation*}

est continue sur \(\R\text{.}\)

Ce que l'on peut vérifier directement:

\begin{equation*} F(x)=\int_0^1 xt+x^2dt = \frac{x}2+x^2 \end{equation*}

est bien continue sur \(\R\text{.}\)

Supposons maintenant que \(J\) est un intervalle ouvert, et intéressons-nous à la dérivabilité de l'intégrale à paramère \(F(x)=\int_a^b f(t,x)dt\) sur \(J\text{.}\)

\(\leadsto\) On va avoir besoin d'une notion de dérivabilité pour la fonction à deux variables \(f\text{:}\) c'est la notion de dérivée partielle qui va nous aider 3 .

Définition 2.8.

Soit \(f\) une fonction sur \([a,b]\times J\text{.}\) Fixons un \(t_0 \in [a,b]\text{.}\)

On appelle dérivée partielle par rapport à \(x\) en \((t_0,x_0)\text{,}\) notée \(\displaystyle \frac{\partial f}{\partial x}(t_0,x_0)\text{,}\) la dérivée en \(x_0\) de la fonction \(x \in J\mapsto f(t_0,x)\text{.}\)

Si la dérivée existe pour tout \(t_0\in I,x_0\in J\text{,}\) on obtient une fonction à deux variables

\begin{equation*} \frac{\partial f}{\partial x}: (t,x) \in I\times J \mapsto \frac{\partial f}{\partial x}(t,x) \end{equation*}

Exercice Exercice

Reprenons \(f(t,x)=xt+x^2\) sur \([0,1]\times\R\text{.}\)

1.

Dérivée partielle de \(f\) par rapport à \(x\) en \((0,1)\) ?

Spoiler.

On fixe \(t=0\) et on s'intéresse donc à la fonction \(f(0,x)=x^2\text{.}\)

Elle est dérivable en \(x=1\) et sa dérivée en 1 vaut 2, donc \(\boxed{\displaystyle \frac{\partial f}{\partial x}(0,1)=2}\)

2.

Dérivée partielle de \(f\) par rapport à \(x\) en \((1,2)\) ?

Spoiler.

On fixe \(t=1\) et on s'intéresse donc à la fonction \(f(1,x)=x+x^2\text{.}\)

Cette fonction est dérivable en \(x=2\) et sa dérivée en 2 vaut 5, donc \(\boxed{\displaystyle \frac{\partial f}{\partial x}(2,1)=5}\)

3.

Dérivée partielle de \(f\) par rapport à \(x\) sur \([0,1]\times \R\) ?

Spoiler.

On fixe un \(t\in[0,1]\) et on s'intéresse à la fonction \(f(t,x)=tx+x^2\text{.}\)

Cette fonction est dérivable en \(x\text{,}\) quel que soit \(x\in\R\) et sa dérivée est donnée par \(\boxed{\displaystyle \frac{\partial f}{\partial x}(t,x)=t+2x}\)

Remarque: On retrouve bien les résultats précédents: \(\frac{\partial f}{\partial x}(0,1)=2\) et \(\frac{\partial f}{\partial x}(1,2)=5\text{.}\) Ce qui est rassurant.

De là, on obtient:

Exercice Exercice

Reprenons \(f(t,x)=xt+x^2\) sur \([0,1]\times\R\text{.}\) On a vu que la fonction

\begin{equation*} F(x)=\int_0^1 f(t,x)dt \end{equation*}

est bien définie et continue sur \(\R\text{.}\)

1.

\(F\) est-elle dérivable sur \(\R\) ? Si oui, quelle est sa dérivée ?

Spoiler.

Etant polynomiale, \(f\) admet des dérivées partielles continues:

\begin{equation*} \frac{\partial f}{\partial x}(t,x)=t+2x \end{equation*}

donc

\begin{equation*} F'(x)=\int_0^1 t+2xdt=\frac12+2x \end{equation*}
2.

Est-ce que ça correspond au calcul explicite de \(F\) ?

Spoiler.

Par ailleurs, on avait calculé \(F(x)=\frac{x}2+x^2\text{,}\) donc on a bien \(F'(x)=\frac12+2x\text{.}\)

Un exemple un peu plus intéressant:

Exercice 2.2. Un calcul indirect d'intégrale.

On considère l'intégrale à paramètres

\begin{equation*} F(x)=\int_0^1 \frac1{x^2+t^2} dt \end{equation*}
(a)

Pour quels \(x\in \R\) cette intégrale est-elle définie ?

(b)

Etudier la continuité de \(F\) sur \(]0, +\infty[\text{.}\)

(c)

Retrouver ce résultat en calculant \(F(x)\text{.}\)

(d)

Justifier que \(F\) est dérivable sur \(]0,+\infty[\) et donner sa dérivée.

(e)

En déduire la valeur de

\begin{equation*} \int_0^1 \frac{x}{(x^2+t^2)^2}dt \end{equation*}

Encore plus intéressant:

Exercice 2.3. Calcul de l'intégrale de Gauss.

Posons, pour \(x\in \R\text{,}\)

\begin{equation*} A(x)=\int_0^1\frac{e^{-x^2(t^2+1)}}{t^2+1}dt,\ B(x)=\left(\int_0^x e^{-t^2}dt\right)^2 \end{equation*}
(a)

Justifier que \(A\) est dérivable sur \(\R\) et calculer \(A'\text{.}\)

(b)

Justifier que \(B\) est dérivable, et calculer \(B'\text{.}\)

Indice.

Notons \(C(x)=\int_0^x e^{-t^2}dt\text{:}\) \(C\) est donc la primitive de \(x\mapsto e^{-x^2}\) qui s'annule en 0.

Du coup, qui est \(C'\) ? Et \(B'\) ?

Spoiler.
(c)

Montrer que \(A+B\) est constante, et plus précisément, pour tout \(x\in\R\text{,}\) \(A(x)+B(x)=\frac{\pi}{4}\text{.}\)

Indice.

Que vaut \((A+B)'\) d'après nos calculs précédents ? et que vaut \(A(0)+B(0)\) ?

Spoiler.
(d)

Soit \((x_n)_n\) une suite telle que \(x_n\rightarrow \infty\text{.}\) Montrer que \(A(x_n)\xrightarrow[n\rightarrow\infty]{}0\text{.}\)

Indice.

Notons

\begin{equation*} f_n(t)=\frac{e^{-(x_n)^2(t^2+1)}}{t^2+1} \end{equation*}

Il s'agit donc de calculer

\begin{equation*} \lim_{n\rightarrow\infty} \int_0^1 f_n(t)dt \end{equation*}

On n'a pas un théorème, pour ce genre de problème ?

Spoiler.
(e)

En déduire que \(\lim_{x\rightarrow \infty}A(x)=0\text{,}\) puis que

\begin{equation*} \boxed{\int_0^{+\infty} e^{-t^2}dt = \frac{\sqrt{\pi}}2} \end{equation*}

Subsection 2.3 Continuité et dérivabilité pour les intégrales généralisées

Intéressons-nous maintenant au cas où \(I\) est un intervalle quelconque. Est-ce que ça fonctionne toujours ?

...Evidemment pas. Où serait le fun ?

Exercice 2.4. Naufrage de la continuité.

Considérons

\begin{equation*} f(t,x)\in \R^+ \times \R^+ \rightarrow xe^{-xt} \end{equation*}

\(f\) est continue sur \(\R^+ \times \R^+\) et pour tout \(x\geq 0\text{,}\) \(t\mapsto f(t,x)\) est intégrable sur \(\R^+\text{.}\) On peut donc définir

\begin{equation*} F(x)=\int_0^{+\infty} f(t,x)dt. \end{equation*}
(a)

Calculer \(F(0)\text{.}\)

Spoiler.
\begin{equation*} F(0)=\int_0^{+\infty} f(t,0)=0 \end{equation*}
(b)

Calculer \(F(x)\) pour \(x\neq 0\text{,}\) et en déduire \(\lim_{x\rightarrow 0} F(x)\text{.}\)

Spoiler.

Soit \(x \neq 0\text{.}\)

\begin{equation*} F(x)=\int_0^{+\infty} f(t,x)=[-e^{-xt}]_0^{+\infty}= 1 \end{equation*}

donc

\begin{equation*} \lim_{x\rightarrow 0} F(x) =1 \end{equation*}
(c)

Enfonçons le clou: \(F\) est-elle continue en 0 ?

Spoiler.

On a donc

\begin{equation*} \lim_{x\rightarrow 0} F(x) =1 \neq 0 = F(0) \end{equation*}

donc non, \(F\) n'est pas continue en 0.

Et pour la dérivabilité ?

Exercice 2.5. Ruine de la dérivabilité.

Considérons la fonction

\begin{equation*} f:(t,x)\in \R^+ \times \R \mapsto x^2e^{-t|x|} \end{equation*}
(a)

Soit \(t\geq 0\) fixé. Montrer que, quel que soit \(x\in \R\text{,}\) la dérivée partielle \(\frac{\partial f}{\partial x}(t,x)\) existe.

Indice.

Séparer les cas \(x\lt 0\text{,}\) \(x=0\) et \(x \gt 0\text{.}\)

Pour le cas \(x=0\text{,}\) revenir au bon vieux taux d'accroissement.

Spoiler.

On fixe \(t\in \R^+\text{.}\)

  • Soit \(x_0 \gt 0\text{.}\) Alors au voisinage de \(x_0\text{,}\) \(f(x,t)=x^2e^{-tx}\text{.}\)

    \(\leadsto\) \(f\) admet une dérivée partielle par rapport à \(x\) en \((t,x_0)\) donnée par

    \begin{equation*} \frac{\partial f}{\partial x}(t,x_0) = 2x_0 e^{-tx_0 }-tx_0 ^2e^{-tx_0 }=x_0 (2-tx_0 )e^{-x_0 t} \end{equation*}
  • Soit \(x_0 \lt 0\text{.}\) On obtient de la même façon que \(f\) admet une dérivée par rapport à \(x\) en \((t,x_0)\) donnée par

    \begin{equation*} \frac{\partial f}{\partial x_0}(t,x_0) = 2x_0e^{tx_0}+tx_0^2e^{tx_0}=x_0(2+tx_0)e^{x_0t} \end{equation*}
  • Enfin, en \(x_0=0\text{,}\) on calcule le taux d'accroissement: soit \(h\neq 0\text{:}\)

    \begin{equation*} \lim_{h\rightarrow 0} \frac{f(t,h)-f(t,0)}{h-0} = \lim_{h\rightarrow 0} he^{-t|h|} =0 \end{equation*}

    donc \(f\) admet une dérivée partielle par rapport à \(x\) en \((t,0)\) donnée par

    \begin{equation*} \frac{\partial f}{\partial x}(t,0)=0 \end{equation*}

En fin de compte, on obtient que \(\frac{\partial f}{\partial x}(t,x)\) existe pour tout \((t,x)\in \R^+ \times \R\text{.}\)

(b)

Est-ce que \(\displaystyle\frac{\partial f}{\partial x}(t,x)\) est continue sur \(\R\) ?

Spoiler.

On a calculé

\begin{equation*} \frac{\partial f}{\partial x}(t,x) = \begin{cases} x (2-tx )e^{-x t} \text{ si } x \gt 0 \\ 0 \text{ si } x = 0 \\ x (2+tx )e^{x t} \text{ si } x \lt 0 \\ \end{cases} = (2-t|x|)xe^{-t|x|} \end{equation*}

\(\leadsto\) \(\displaystyle\frac{\partial f}{\partial x}(t,x)\) est continue sur \(\R^+ \times \R\text{.}\)

(c)

Calculer \(F\) explicitement. Est-ce une fonction dérivable ?

Spoiler.

Soit \(x\neq 0\text{,}\) on calcule

\begin{align*} F(x)\amp =\int_0^{+\infty}x^2e^{-t|x|}dt=x^2\int_0^{+\infty} e^{-t|x|}dt\\ \amp = x^2\left[-\dfrac1{|x|}e^{-t|x|}\right]_0^{+\infty}\\ \amp =|x| \end{align*}

et en \(x=0\) on a aussi \(F(0)=0\text{,}\) donc pour tout \(x\text{,}\) \(F(x)=|x|\text{.}\) Une fonction notoirement non dérivable en 0.

(d)

Calculer \(\displaystyle\int_0^{+\infty}\frac{\partial f}{\partial x}(t,x) dt\) quand même.

Indice.
IPP
Spoiler.

On a obtenu:

\begin{equation*} \frac{\partial f}{\partial x}(t,x)= (2-t|x|)xe^{-t|x|} \end{equation*}

Donc, pour \(x=0\text{,}\) on a

\begin{equation*} \int_0^{+\infty}\frac{\partial f}{\partial x}(t,0) dt=0 \end{equation*}

Pour \(x \gt 0\text{,}\) en faisant une IPP, on trouve

\begin{align*} \int_0^{+\infty}\frac{\partial f}{\partial x}(t,x) dt \amp =\int_0^{+\infty} (2-tx )xe^{-x t} dt\\ \amp = \underbrace{[-(2-tx)e^{-xt}]_0^{+\infty}}_{=2} + \int_0^{+\infty} -xe^{-xt} dt\\ \amp = 2 + \underbrace{[e^{-xt}]_0^{+\infty}}_{=-1}\\ \amp =1 \end{align*}

Pour \(x \lt 0\text{,}\) on trouve de la même façon

\begin{align*} \int_0^{+\infty}\frac{\partial f}{\partial x}(t,x) dt \amp =\int_0^{+\infty} (2+tx )xe^{x t} dt\\ \amp = \underbrace{[(2+tx)e^{xt}]_0^{+\infty}}_{=-2} + \int_0^{+\infty} xe^{xt} dt\\ \amp = -2 + \underbrace{[e^{xt}]_0^{+\infty}}_{=1}\\ \amp =-1 \end{align*}

Mais il doit bien y avoir des intégrales généralisées à paramètres qui sont continues !

Oui, et pour les repérer, on va devoir ajouter des hypothèses similaires à celles du théorème de convergence dominée.

Exercice 2.6. Preuve du théorème de continuité.

Vu la similarité des hypothèses, on sent qu'il doit y avoir un lien avec le théorème de convergence dominée. Et on a bien raison !

Le lien va venir de la caractérisation séquentielle de la limite d'une fonction.

Mais d'abord, vérifions que notre fonction \(F\) est bien définie.

(a)

Considérons notre intégrale à paramètre

\begin{equation*} F(x)=\int_I f(t,x)dt \end{equation*}

Vérifier que, pour tout \(x\in J\text{,}\) \(\int_I f(t,x)dt\) est convergente.

Spoiler.

Fixons \(x_0\in J\text{.}\) Alors \(0\leq |f_(t,x_0)|\leq g(t)\) et, par hypothèse, \(\displaystyle\int_I g(t)dt\) converge.

\(\leadsto\) Par le critère de comparaison, l'intégrale \(\displaystyle\int_I |f(t,x_0)|dt\) converge aussi, autrement dit \(\displaystyle\int_I f(t,x_0)dt\) converge absolument, donc converge.

Ceci étant vrai pour tout \(x_0\in J\text{,}\) on en déduit que la fonction \(F\) est bien définie sur \(J\text{.}\)

(b)

Revenons un peu sur la caractérisation séquentielle des limites de fonctions.

Soit \(\varphi: J\rightarrow \R\) une fonction réelle, et \(x_0 \in J\text{.}\) On suppose que

\begin{equation*} \varphi(x)\xrightarrow[x\rightarrow x_0]{} \ell \end{equation*}

Soit \((x_n)_n\in J^{\N}\) une suite à valeurs dans \(J\text{,}\) telle que \(x_n\xrightarrow[n\rightarrow \infty]{}x_0\text{.}\) Montrer que la suite \((y_n)_n\) définie pour tout \(n\) par \(y_n=\varphi(x_n)\) converge vers \(\ell\text{.}\)

Indice.

Il va falloir dégainer les quantificateurs pour faire ça proprement, je le crains...

Spoiler.

Donc, ce qu'on sait, c'est que \(\varphi(x)\xrightarrow[x\rightarrow x_0]{} \ell\text{,}\) autrement dit

\begin{equation*} \forall \varepsilon \gt0, \exists \eta \gt 0, \forall x\in J, |x-x_0|\lt \eta \Rightarrow |\varphi(x)-\ell| \lt \varepsilon \end{equation*}

et que \(x_n\xrightarrow[n\rightarrow \infty]{}x_0\text{,}\) autrement dit:

\begin{equation*} \forall \varepsilon\gt0,\ \exists n_0\in\N, \forall n\geq n_0, |x_n-x_0|= \lt \varepsilon \end{equation*}

Et ce qu'on veut montrer, c'est que

\begin{equation*} \forall \varepsilon\gt0,\ \exists n_0\in\N, \forall n\geq n_0, |y_n-\ell|=|\varphi(x_n)-\ell| \lt \varepsilon \end{equation*}

OK, plus qu'à mettre tout ça ensemble.

Soit donc \(\varepsilon\gt0\text{.}\) On cherche un entier \(n_0\) tel que, à partir de \(n_0\text{,}\) \(|\varphi(x_n)-\ell| \lt \varepsilon\text{.}\)

Puisque \(\varphi(x)\xrightarrow[x\rightarrow x_0]{} \ell\text{,}\) on sait qu'il existe \(\eta \gt 0\) tel que

\begin{equation*} \forall x\in J, |x-x_0|\lt \eta \Rightarrow |\varphi(x)-\ell| \lt \varepsilon \end{equation*}

En particulier, si \(|x_n-x_0|\lt \eta\) alors on a \(|\varphi(x_n)-\ell| \lt \varepsilon\text{.}\)

Mais justement, puisque \(x_n\xrightarrow[n\rightarrow \infty]{}x_0\text{,}\) on sait aussi qu'il existe \(n_0\in\N\) tel que pour tout \(n\geq n_0\text{,}\)

\(|x_n-x_0|\lt \eta\)

Donc, en recollant les morceaux:

\begin{align*} n\geq n_0 \amp \Rightarrow |x_n-x_0|\lt \eta\\ \amp \Rightarrow |\varphi(x_n)-\ell| \lt \varepsilon\\ \amp \text{i.e. } |y_n - \ell|\lt \varepsilon \end{align*}

Autrement dit, \((y_n)_n\) converge vers \(\ell\text{,}\) comme souhaité.

(c)

Supposons, réciproquement, que pour toute suite \((x_n)_n\in J^\N\) telle que \(x_n\xrightarrow[n\rightarrow \infty]{}x_0\text{,}\) on a \(y_n=\varphi(x_n)\xrightarrow[n\rightarrow \infty]{} \ell\text{.}\)

Montrer qu'alors \(\varphi(x)\xrightarrow[x\rightarrow x_0]{} \ell\text{.}\)

Indice.

La contraposée est peut-être plus simple à montrer: supposer que \(\varphi(x)\) ne tend pas vers \(\ell\) en \(x_0\text{,}\) ce qui s'écrit:

\begin{equation*} \exists \varepsilon \gt 0,\, \forall \eta \gt 0,\, \exists\, x\in J \text{ t.q. } |x-x_0| \lt \eta \text{ et } |\varphi(x)-\ell| \geq\varepsilon \end{equation*}

En utilisant ça avec \(\eta=\frac1n\text{,}\) pour chaque \(n\in\N^*\text{,}\) construire une suite de \(J\) qui tend vers \(x_0\) mais telle que \(\varphi(x_n)\) ne tend pas vers \(\ell\text{.}\)

Spoiler.

On va montrer la contraposée de cette implication: supposons donc que \(\varphi\) ne tend pas vers \(\ell\) en \(x_0\text{,}\) c'est-à-dire

\begin{equation} \exists \varepsilon_0 \gt 0,\, \forall \eta \gt 0,\, \exists\, x_{\eta}\in J \text{ t.q. } |x_{\eta}-x_0| \lt \eta \text{ et } |\varphi(x_{\eta})-\ell| \geq\varepsilon_0\tag{2.1} \end{equation}

et ce qu'on veut trouver, c'est une suite de \(J\) qui tend vers \(x_0\) mais dont l'image par \(\varphi\) ne tend pas vers \(\ell.\)

Pour ça, on prend \(n\in\N^*\) et on utilise l'équation (2.1) avec \(\eta = \frac1n\text{:}\) ce que nous dit l'équation, c'est qu'il existe un \(x_n\in J\) tel que

\begin{equation*} |x_n-x_0| \lt \frac1n \end{equation*}

mais

\begin{equation*} |\varphi(x_{n})-\ell| \geq\varepsilon_0 \end{equation*}

On obtient comme ça une suite \((x_n)_n\) qui vérifie, pour chaque \(n\text{,}\) ces deux inégalités. Or,

  • La première inégalité nous dit que \((x_n)_n\) converge vers \(x_0\text{;}\)

  • La deuxième nous dit que, par contre, la distance entre \(y_n=\varphi(x_n)\) est minorée par une constante positive \(\varepsilon_0\text{,}\) et donc ne devient pas plus petite quand \(n\) devient grand: autrement dit, \((y_n)_n\) ne tend pas vers \(\ell\text{.}\)

Donc, pour étudier la limite d'une fonction en un point, par exemple pour vérifier qu'elle est continue, on peut se raméner à l'étude de limites de suites: c'est ce qui va nous permettre d'utiliser la convergence dominée.

(d)

Revenons à notre intégrale à paramètre

\begin{equation*} F(x)=\int_I f(t,x)dt \end{equation*}

Soit \(x_0 \in J\text{.}\) Montrer que, pour toute suite \((x_n)_n\in J^\N\) telle que \(x_n\xrightarrow[n\rightarrow \infty]{}x_0\text{,}\)

\begin{equation*} F(x_n) \xrightarrow[n\rightarrow \infty]{} F(x_0) \end{equation*}
Indice.

On peut utiliser \((x_n)_n\) pour introduire une suite de fonctions \((f_n)_n\) définies sur \(I\text{,}\) et étudier la convergence simple de cette suite \((f_n)_n\) en utilisant la continuité de \(f\text{.}\)

Et voir si, par hasard, on n'aurait pas

\begin{equation*} \lim_{n\rightarrow\infty} \int_I f_n(t) dt =\int_I \lim_{n\rightarrow\infty} f_n(t) dt \end{equation*}
Spoiler.

Soit donc \((x_n)_n\in J^\N\) une suite de \(J\) telle \(x_n\xrightarrow[n\rightarrow \infty]{}x_0\text{.}\)

Posons, pour tout \(n\in\N\) et pour tout \(t\in I\text{,}\)

\begin{equation*} f_n(t)=f(t,x_n) \end{equation*}

\(\leadsto\) C'est une suite de fonctions sur \(I\text{,}\) qui vérifie:

  • Par continuité de la fonction à deux variables \(f\text{,}\) on a pour chaque \(t\in I\)

    \begin{equation*} f_n(t)=f(t,x_n) \xrightarrow[n\rightarrow\infty]{} f(t,x_0) \end{equation*}

    donc \((f_n)_n\) converge simplement sur \(I\) vers \(t\in\I \mapsto f(t,x)\text{;}\)

  • Par l'hypothèse de domination, pour tout \(n\in \N\) et pour tout \(t\in I\text{,}\)

    \begin{equation*} |f_n(t)|= |f(t,x_n)| \leq g(t) \end{equation*}

    et \(g\) est intégrable sur \(I\text{.}\)

On peut donc appliquer le théorème de convergence dominée:

\begin{equation*} \int_I f(t,x_n)=\int_I f_n(t) dt \xrightarrow[n\rightarrow\infty]{} \int_I f(t,x_0) \end{equation*}

Autrement dit, \(F(x_n) \xrightarrow[n\rightarrow\infty]{} F(x_0)\text{.}\)

(e)
Conclure triomphalement.
Spoiler.

On a donc montré que pour n'importe quelle suite \((x_n)_n\) de \(J\) qui tend vers \(x\text{,}\) \(F(x_n)\rightarrow F(x_0)\text{.}\)

D'après la caractérisation séquentielle de la limite, on en déduit que

\begin{equation*} \lim_{x\rightarrow x_0} F(x)=F(x_0) \end{equation*}

ce qui est la définition de la contiuité de \(F\) en \(x_0\text{.}\)

Et il n'a rien de spécial, ce \(x_0\text{:}\) on peut faire ça avec n'importe quel élément de \(J\text{,}\) donc \(F\) est continue sur \(J\text{.}\)

Exercice 2.7. Une petite amélioration.

La continuité est une propriété dite locale: elle est définie en un point spécifique \(x_0\) et, pour les vérifier, on n'a besoin de savoir que ce qui se passe au voisinage de ce point.  4 

C'est ce qui va nous permettre, pour vérifier plus facilement l'hypothèse de domination, de se contenter d'une majoration "par morceaux".

(a)

Supposons que \(f:I\times J\rightarrow \R\) est continue sur \(I\times J\text{,}\) et supposons de plus que pour tout \(x\in J\text{,}\) il existe

  • \(V\subset J\) un voisinage de \(x\)

  • une fonction \(g_V\) définie et intégrable sur \(I\) tels que

    \begin{equation*} \text{Pour tout } (t,x)\in I\times V,\ |f(t,x)|\leq g_V(t) \end{equation*}

En déduire que \(F\) est continue sur \(J\text{.}\)

Spoiler.

Soit \(x_0\in J\text{.}\) Montrons que \(F\) est continue en \(x_0\text{.}\)

Par hypothèse, il existe \(V\subset J\) un voisinage de \(x_0\) et \(g_V\) définie et intégrable sur \(I\) tels que, pour tout \((t,x)\in I\times V,\ |f(t,x)|\leq g_V(t)\text{.}\)

Puisque \(V\) est un voisinage de \(x_0\text{,}\) il existe \(r\gt0\) tel que \(\,]\,x_0-r,x_0+r\,[\,\subset V\text{,}\) et on a donc, pour tout \((t,x)\in I \times \,]\,x_0-r,x_0+r\,[\,\text{,}\) \(|f(t,x)|\leq g_V(t)\text{.}\)

D'après le théorème de continuité des intégrales à paramètres, on en déduit que

\begin{equation*} x \in \,]\,x_0-r,x_0+r\,[\, \mapsto F(x)=\int_I f(t,x)dt \end{equation*}

est continue; en particulier, elle est continue en \(x_0\text{.}\)

Donc \(F\) est continue en \(x_0\text{.}\)

(b)

Appliquons ceci à la fonction Gamma:

Montrer que la fonction

\begin{equation*} \Gamma(x)=\int_0^{+\infty} t^{x-1}e^{-t}dt \end{equation*}

est continue sur \(]0,+\infty[\text{.}\)

Spoiler.

On pose comme précédemment \(f(t,x)= t^{x-1}e^{-t}\text{,}\) définie pour \(x \gt0, t\gt 0\text{.}\)

\(\leadsto\) La fonction à deux variables \(f\) est continue sur \(\,]\,0,+\infty\,[\,\times \,]\,0,+\infty\,[\,\text{.}\)

Soit \(x_0 \gt0\text{.}\) Montrons que \(\Gamma\) est continue en \(x_0\text{.}\)

Soient \(a \lt b\) deux réels strictement positifs tels que \(x_0\in[a,b]\text{.}\) On va chercher \(g_{a,b}: \,]\,0,+\infty\,[\, \rightarrow \R^+\text{,}\) intégrable sur \(\,]\,0,+\infty\,[\,\) et telle que, pour tout \((t,x)\in \,]\,0,+\infty\,[\,\times[a,b]\text{,}\) \(|f(t,x)|\leq g_{a,b}(t).\)

Remarquons que

  • Si \(0\lt t \leq 1\text{,}\) alors \(x\mapsto t^{x-1}=e^{(x-1)\ln(t)}\) est décroissante, donc pour tout \(x\in[a,b], t\in \,]\,0,1]\text{,}\)

    \begin{equation*} 0\lt t^{x-1} \leq t^{a-1} \end{equation*}
  • D'un autre côté si \(t \gt 1\) alors \(x\mapsto t^{x-1}=e^{(x-1)\ln(t)}\) est croissante, donc pour tout \(x\in[a,b], t\in \,]\,1,+\infty\,[\,\text{,}\)

    \begin{equation*} 0\lt t^{x-1} \leq t^{b-1} \end{equation*}

Posons donc

\begin{equation*} g_{a,b}(t)= \begin{cases} t^{a-1}e^{-t} \text{ si } 0\lt 1\\ t^{b-1}e^{-t} \text{ si } t\geq 1 \end{cases} \end{equation*}

Alors \(g_{a,b}\) est continue par morceaux, et, par les mêmes arguments qu'à l'Exercice 2.1, l'intégrale généralisée \(\displaystyle\int_0^{+\infty} g_{a,b}(t)dt\) converge.

\(\leadsto\) On en déduit que \(\Gamma\) est continue sur \([a,b]\) : en particulier, elle est continue en \(x_0\text{.}\)

Ceci étant vrai pour n'importe quel \(x_0 \gt 0\text{,}\) \(\Gamma\) est continue sur \(\,]\,0,+\infty\,[\,\text{.}\)

Pour la dérivabilité, on a un théorème similaire:

Exercice 2.8. Preuve du théorème de dérivabilité.

Il va à nouveau s'agir d'utiliser le théorème de convergence dominée. La question est: à quelle suite de fonctions, cette fois ?

(a)

Vérifions d'abord que ça a une chance de marcher: montrer que pour tout \(x\in J\text{,}\) l'intégrale généralisée

\begin{equation*} \int_I \frac{\partial f}{\partial x}(t,x)dt \end{equation*}

est convergente.

Spoiler.

Exactement comme pour le Théorème 2.10, on fixe un \(x_0\in J\text{.}\) Alors notr hypothèse donne, pour tout \(t\in I\text{,}\)

\begin{equation*} 0\leq\left|\frac{\partial f}{\partial x}(t,x_0)\right|\leq g(t) \end{equation*}

et, toujours par hypothèse, l'intégrale généralisée

\begin{equation*} \displaystyle\int_I g(t)dt \end{equation*}

converge. Donc, par le critère de comparaison, l'intégrale généralisée

\begin{equation*} \displaystyle\int_I \left|\frac{\partial f}{\partial x}(t,x_0)\right|dt \end{equation*}

converge aussi, autrement dit \(\displaystyle\int_I \frac{\partial f}{\partial x}(t,x_0)dt\) converge absolument, donc converge.

Ceci étant vrai pour tout \(x_0\in J\text{,}\) on en déduit que la fonction \(F\) est bien définie sur \(J\text{.}\)

(b)

Soit \(x_0\in J\text{.}\) Montrer que \(F\) est dérivable en \(x_0\) si, et seulement si, pour toute suite \((x_n)\in (J\setminus \{x_0\})^\N\) telle que \(x_n\xrightarrow[n\rightarrow \infty]{} x_0\text{,}\) il existe \(\ell \in\R\) tel que

\begin{equation*} \frac{F(x_n)-F(x_0)}{x_n-x_0} \xrightarrow[n\rightarrow \infty]{} \ell \end{equation*}
Spoiler.

En reprenant la bonne vieille définition de la dérivabilité des fonctions réelles, on retrouve qu'une fonction \(F:J\rightarrow \R\) est dérivable en un point \(x_0\) ssi le taux d'accroissement en ce point, défini par:

\begin{equation*} \frac{F(x)-F(x_0)}{x-x_0} \end{equation*}

a une limite quand \(x\rightarrow x_0\text{.}\)

Ce qui nous donne l'idée d'introduire une fonction taux d'accroissement

\begin{equation*} t:x\in J\setminus\{x_0\} \mapsto \frac{F(x)-F(x_0)}{x-x_0} \end{equation*}

On va donc s'intéresser, pour \(x\neq x_0\) à

\begin{equation*} t(x)=\frac{F(x)-F(x_0)}{x-x_0} = \frac1{x-x_0}\int_I f(x,t)-f(x_0,t)dt=\int_I \frac{f(x,t)-f(x_0,t)}{x-x_0}dt \end{equation*}

Mais comme on a vu dans la preuve du théorème de continuité, avec la caractérisation séquentielle de la limite:

\begin{equation*} \lim_{x\rightarrow x_0} t(x)= \ell \Leftrightarrow (\forall\, (x_n)_n \in (J\setminus \{x_0\})^\N,\ x_n\rightarrow x_0 \Rightarrow t(x_n)\rightarrow \ell) \end{equation*}

ce qui nous amène à regarder, pour une suite \((x_n)_n\in(J\setminus\{x_0\})^\N\) qui converge vers \(x_0\text{,}\) la suite

\begin{equation*} t(x_n)=\int_I \frac{f(x_n,t)-f(x_0,t)}{x_n-x_0}dt \end{equation*}

ce qu'on va faire dans la question suivante.

(c)

Soit \((x_n)\in (J\setminus\{x_0\})^\N\) telle que \(x_n\xrightarrow[n\rightarrow \infty]{} x_0\text{.}\) On introduit la suite de fonctions

\begin{equation*} h_n: t \in I \setminus{x_0} \mapsto \frac{f(x_n,t)-f(x_0,t)}{x_n-x_0} \end{equation*}

Montrer que \((h_n)_n\) converge simplement vers une fonction \(h\) à déterminer, et que

\begin{equation*} \lim_{n\rightarrow\infty} \int_I h_n(t) dt =\int_I \lim_{n\rightarrow\infty} h_n(t) dt \end{equation*}
Indice.

C'est là qu'il s'agit de dégainer la convergence dominée !

Spoiler.

Pour un \(t\in I\) donné, on sait que

\begin{equation*} \lim_{x\rightarrow x_0}\frac{f(x,t)-f(x_0,t)}{x-x_0} = \frac{\partial f}{\partial x}(t,x_0) \end{equation*}

Mais, d'après la caractérisation séquentielle de la limite, on peut en déduire que, pour notre suite \((x_n)_n\text{,}\)

\begin{equation*} >\lim_{n\rightarrow \infty}\frac{f(x_n,t)-f(x_0,t)}{x_n-x_0} = \frac{\partial f}{\partial x}(t,x_0) \end{equation*}

autrement dit, pour chaque \(t\in I\text{,}\)

\begin{equation*} \lim_{n\rightarrow \infty} h_n(t)=\frac{\partial f}{\partial x}(t,x_0) \end{equation*}

\(\leadsto\) La suite de fonctions \((h_n)_n\) converge simplement vers la fonction \(t\mapsto \dfrac{\partial f}{\partial x}(t,x_0)\text{.}\)

Par ailleurs, d'après le théorème des accroissements finis, si on fixe un \(t\in I\) et un \(n\in\N\text{,}\) on obtient qu'il existe \(y_n\in J\) tel que

\begin{equation*} |f(x_n,t)-f(x_0,t)|\leq \left|\frac{\partial f}{\partial x}(t,y_n)\right||x_n-x_0| \end{equation*}

donc

\begin{equation*} |h_n(t)|=\left|\frac{f(x_n,t)-f(x_0,t)}{x_n-x_0}\right| \leq \left|\frac{\partial f}{\partial x}(t,y_n)\right| \end{equation*}

De là, notre hypothèse de domination nous donne, pour tout \(n\in\N\) et pour tout \(t\in I\text{,}\)

\begin{equation*} |h_n(t)|\leq g(t) \end{equation*}

On peut donc utiliser le théorème de convergence dominée:

\begin{equation*} \lim_{n\rightarrow\infty} \int_I h_n(t) dt =\int_I \lim_{n\rightarrow\infty} h_n(t) dt \end{equation*}
(d)

Conclure triomphalement.

Spoiler.

On a d'une part

\begin{align*} \lim_{n\rightarrow\infty} \int_I h_n(t) dt \amp=\lim_{n\rightarrow\infty} \frac{f(x_n,t)-f(x_0,t)}{x_n-x_0} dt\\ \amp =\lim_{n\rightarrow\infty} \frac1{x_n-x_0}\left(\int_I f(x_n,t) dt-\int_I f(x_0,t)dt \right)\\ \amp = \lim_{n\rightarrow\infty}\frac{F(x_n)-F(x_0)}{x_n-x_0} \end{align*}

et d'autre part

\begin{equation*} \int_I \lim_{n\rightarrow\infty} h_n(t) dt = \int_I \frac{\partial f}{\partial x}(t,x_0) \end{equation*}

Et ces deux quantités sont égales, quelle que soit la suite \((x_n)_n\) (du moment qu'elle tend vers \(x_0\)). Donc au final, par la caractérisation séquentielle de la limite

\begin{equation*} \lim_{x\rightarrow x_0}\frac{F(x)-F(x_0)}{x-x_0} = \int_I \frac{\partial f}{\partial x}(t,x_0) \end{equation*}

ce qui revient à dire que \(F\) est dérivable en \(x_0\) et

\begin{equation*} F'(x_0) = \int_I \frac{\partial f}{\partial x}(t,x_0) \end{equation*}
(e)

Montrer que ça marche aussi si on remplace l'hypothèse (3) (hypothèse de domination) par

(3') Pour tout \(x\in J\text{,}\) il existe

  • \(V\subset J\) un voisinage de \(x\)

  • une fonction \(g_V\) définie et intégrable sur \(I\) tels que

    \begin{equation*} \text{Pour tout } (t,x)\in I\times V,\ \left|\frac{\partial f}{\partial x}(t,x)\right|\leq g_V(t) \end{equation*}
Spoiler.

Soit \(x_0\in J\text{,}\) alors (3') nous donne un voisinage \(V\) de \(x_0\) et une fonction \(g_V\)intégrable sur \(I\) tels que, pour tout \((t,x) \in I\times V\text{,}\)

\begin{equation*} \left|\frac{\partial f}{\partial x}(t,x)\right|\leq g_V(t) \end{equation*}

Alors, d'après le théorème qu'on vient de démontrer, la fonction \(F_{|V}\) est dérivable en \(x_0\text{.}\) Mais du coup, la fonction \(F\) elle-même est dérivable en \(x_0\text{.}\)

Et comme on peut faire ça pour chaque \(x_0\in J\text{,}\) on en déduit que \(F\) est dérivable sur \(J\) tout entier, et sa dérivée est bien

\begin{equation*} F'(x)=\int_I \frac{\partial f}{\partial x}(t,x) dt \end{equation*}
(f)

Utiliser ceci pour montrer que la fonction

\begin{equation*} \Gamma(x)=\int_0^{+\infty} t^{x-1}e^{-t}dt \end{equation*}

est dérivable sur \(]0,+\infty[\text{.}\)

Indice.

Recycler la majoration utilisée à l'Exercice 2.7 pour vérifier l'hypothèse de domination "locale" (3').

Spoiler.

Notons \(f:(t,x)\in \R_+^* \times \R_+^* \mapsto t^{x-1}e^{-t}= e^{(x-1)\ln(t)-t}\text{.}\) Alors, pour tout \(t\gt0\text{,}\) pour tout \(x\gt 0\text{,}\) la fonction \(x\mapsto f(t,x)\) est dérivable et on a

\begin{equation*} \frac{\partial d f}{\partial x}(t,x)=\ln(t)t^{x-1}e^{-t} \end{equation*}

\(\leadsto\) C'est cette fonction qu'il s'agit de majorer indépendamment de \(x\text{.}\)

On va faire ça localement: soient \(a,b\in \R^*_+\) tels que \(a \lt x\lt b\text{.}\) Exactement comme à l'Exercice 2.7, on a

  • Si \(0\lt t \leq 1\text{,}\) alors \(x\mapsto t^{x-1}=e^{(x-1)\ln(t)}\) est décroissante, donc pour tout \(x\in[a,b], t\in \,]\,0,1]\text{,}\)

    \begin{equation*} 0\lt t^{x-1} \leq t^{a-1} \end{equation*}
  • D'un autre côté si \(t \gt 1\) alors \(x\mapsto t^{x-1}=e^{(x-1)\ln(t)}\) est croissante, donc pour tout \(x\in[a,b], t\in \,]\,1,+\infty\,[\,\text{,}\)

    \begin{equation*} 0\lt t^{x-1} \leq t^{b-1} \end{equation*}

Du coup, si on pose,

\begin{equation*} g_{a,b}: t\in \mapsto\begin{cases} |\ln(t)|t^{a-1}e^{-t} \text{ si } t\lt 1\\ |\ln(t)|t^{b-1}e^{-t} \text{ si } t\geq 1 \end{cases} \end{equation*}

alors on a, pour tout \((t,x)\in\R_+^* \times [a,b]\text{,}\)

\begin{equation*} \left|\frac{\partial d f}{\partial x}(t,x)\right| \leq g_{a,b}(t) \end{equation*}

Pour vérifier l'hypothèse de domination locale (3'), il reste donc à vérifier que \(g_{a,b}\) est intégrable sur \(\lbb 0, +\infty \rbb\text{.}\) Pour ça, on doit montrer que les deux intégrales généralisées

\begin{equation*} I_1=\int_0^1 \frac{|\ln(t)|}{t^{a-1}}e^{-t} dt, \ I_2=\int_1^{+\infty} |\ln(t)|t^{b-1}e^{-t} dt \end{equation*}

sont convergentes. Or:

  • \(\boxed{I_1}\) On a pris \(a\gt 0\text{,}\) donc \(1-a \lt 1\text{.}\) On peut donc prendre un \(c\) tel que \(1-a \lt c \lt 1\) et on a alors

    \begin{equation*} t^cg(t) = t^{a+c-1}|\ln(t)|e^{-t} \xrightarrow[t\rightarrow 0]{}0 \end{equation*}

    par croissances comparées. On en déduit, par la règle en \(t^\alpha\text{,}\) que \(I_1\) converge.

  • \(\boxed{I_2}\) Pour tout \(t\geq 1\text{,}\) on a, par l'écrasant pouvoir de l'exponentielle 5 ,

    \begin{equation*} t^2g(t)=t^{1+b}|ln(t)|e^{-t} \leq t^{2+b}e^{-t} \xrightarrow[t\rightarrow +\infty]{}0 \end{equation*}

    Donc, toujours par la règle en \(t^\alpha\text{,}\) \(I_2\) converge.

Donc \(g_{a,b}\) est intégrable sur \(\lbb 0,+\infty \rbb\text{,}\) et on peut appliquer notre théorème de dérivation.

On a donc obtenu que \(\Gamma\) est dérivable sur \(\R^*_+\) et

\begin{equation*} \Gamma'(x)= \int_0^{+\infty} \ln(t)t^{x-1}e^{-t}dt \end{equation*}

Remarque: On montre de la même façon que \(\Gamma\) est en fait \(\mathcal C^\infty\) sur \(\R_+^*\) et, pour tout \(k\in\N\text{,}\)

\begin{equation*} \Gamma^{(k)}(x)= \int_0^{+\infty} \ln(t)^kt^{x-1}e^{-t}dt \end{equation*}

Exercice 2.9. Un autre exemple.

On s'intéresse à l'intégrale à paramètre définie pour \(x\in \R\) par

\begin{equation*} F(x)=\int_0^{+\infty}\cos(2xt)e^{-t^2}dt \end{equation*}
(a)
Montrer que \(F\) est continue sur \(\R\text{.}\)
Spoiler.

Ca tombe bien, on a un théorème pour ça !

On introduit la fonction

\begin{equation*} f:(t,x)\in\R_+ \times \R \mapsto \cos(2xt)e^{-t^2} \end{equation*}

\(\leadsto\) C'est une fonction à deux variables continue sur \(\R_+\times \R\) et on a la majoration

\begin{equation*} |f(t,x)|\leq e^{-t^2} \end{equation*}

pour tout \((t,x)\in\R_+ \times \R\text{.}\) Or, \(g:t\in\R^+ \mapsto e^{-t^2}\) est intégrable sur \(\R^+\) 6 .

D'après le théorème de continuité des intégrales généralisées, on en déduit que

\begin{equation*} F(x)=\int_0^{+\infty} f(t,x)dt \end{equation*}

est définie et continue sur \(\R\text{.}\)

(b)
Montrer que \(F\) est dérivable sur \(\R\) et donner sa dérivée.
Spoiler.

A nouveau, on a un théorème pour ça, utilisons-le allègrement.

Pour tout \(t\geq 0\text{,}\) la fonction \(x\mapsto f(t,x)=\cos(2xt)e^{-t^2}\) est dérivable sur \(\R\text{,}\) et on a, pour tout \(x\in\R\text{,}\)

\begin{equation*} \frac{\partial f}{\partial x}f(t,x)=-2t\sin(2xt)e^{-t^2} \end{equation*}

\(\leadsto\) La fonction \(\dfrac{\partial f}{\partial x}\) est continue sur \(\R_+\times \R\text{,}\) et vérifie la majoration

\begin{equation*} \forall(t,x)\in \R_+\times \R,\ \left|\frac{\partial f}{\partial x}f(t,x)\right| \leq 2te^{-t^2} \end{equation*}

Or la fonction \(h:t\in \R_+\mapsto 2te^{-t^2}\) est intégrable sur \(\R^+\) 7 .

Donc, d'après le théorème de dérivabilité des intégrales à paramètres, \(F\) est dérivable sur \(\R\) et

\begin{equation*} F'(x)=-2\int_0^{+\infty}t\sin(2xt)e^{-t^2} \end{equation*}
(c)
Exprimer \(F'(x)\) en fonction de \(F(x)\text{.}\)
Indice.
Intéressant mais Peu Profond.
Spoiler.

En appliquant la technique ancestrale de l'IPP, on calcule

\begin{align*} F'(x) \amp=\int_0^{+\infty}\sin(2xt)(-2te^{-t^2})dt \\ \amp= \underbrace{[\sin(2xt)e^{-t^2}]_0^{+\infty}}_{=0} - \int_0^{+\infty} 2x\cos(xt)e^{-t^2}dt\\ \amp = -2x\int_0^{+\infty} \cos(xt)e^{-t^2}dt\\ \leadsto\ F'(x)\amp = -2xF(x) \end{align*}

ce qui est tout à fait satisfaisant.

(d)
En déduire l'expression de \(F\text{.}\)
Spoiler.

Soit \(x\in\R\) tel que \(F(x)\neq 0\text{.}\) Puisque \(F\) est continue, il y alors un voisinage de \(x\)\(F\) ne s'annule pas, et sur ce voisinage, on a

\begin{align*} \frac{F'(x)}{F(x)} = -2x \amp \text{ donc } (\ln(|F(x)|))'=-2x\\ \amp \text{ donc } \ln(|F(x)|)= -x^2+c,\ c\in \R\\ \amp \text{ donc } |F(x)|= Ae^{-x^2},\ A\gt 0\\ \amp \text{ donc } F(x)= F(0)e^{-x^2},\ A\gt 0 \end{align*}

Or, d'après l'Exercice 2.3,

\begin{equation*} F(0)= \int_0^{+\infty}e^{-t^2}dt = \frac{\sqrt \pi}2 \end{equation*}

Donc pour tout \(x\) tel que \(F(x)\neq 0\text{,}\) \(F(x)=\dfrac{\sqrt \pi}2e^{-x^2}.\)

D'un autre côté, notons \(Z^-=\{x\lt 0, F(x)= 0\}\) et supposons que \(Z^-\neq \emptyset\text{.}\) On note alors \(\alpha = \sup Z^- \leq 0.\text{.}\) Prenons une suite \((z_n)_n\) de \(Z^-\) qui tend vers \(\alpha\text{.}\)

D'un autre côté, puisque \(F(0)\neq 0\text{,}\) l'ensemble \(\{x\in\ R, F(x)\neq 0\}\) n'est pas vide. Donc on doit pouvoir trouver une suite \((u_n)_n\) de réels tels que \(F(u_n)\neq 0\) et \(u_n \rightarrow \alpha\text{.}\) Mais du coup, vu que \(F\) est continue,

\begin{equation*} 0=\lim_{n\rightarrow\infty} F(z_n) = F(\alpha) = \lim_{n\rightarrow\infty} F(u_n) = \lim_{n\rightarrow\infty}\dfrac{\sqrt \pi}2e^{-u_n^2} = \dfrac{\sqrt \pi}2e^{-\alpha^2} \gt 0 \end{equation*}

...ce qui est un problème. On en déduit que \(Z^-=\emptyset\) et on montre de la même façon que \(F\) ne s'annule pas sur \(\R^+\text{.}\)

Du coup, pour tout \(x\in\R\text{,}\)

\begin{equation*} F(x)=\dfrac{\sqrt \pi}2e^{-x^2} \end{equation*}
www.bibmath.net/dico/index.php?action=affiche&quoi=./f/factorielle.html
commons.wikimedia.org/w/index.php?curid=10789117
Pour les fonctions à plusieurs variables, il y a plusieurs façons de dériver: les dérivées partielles, mais aussi les dérivées directionnelles et la différentielle. Mais ne me lancez pas là-dessus !
(Contrairement à l'intégrabilité)
pardon, "par croissances comparées"
Pourquoi, au fait ?
Tiens, pourquoi ?