Section 2 Intégrales à paramètre
Subsection 2.1 ... C'est-à-dire ?
Jusque là, on s'est intéressés à des suites de fonctions \((f_n)_n\text{:}\) pour chaque \(n\in \N\text{,}\) on a une fonction \(f_n\) sur un intervalle \(I\text{.}\)
Mais pourquoi se restreindre à des paramètres entiers ?
Soit \(J\) un autre intervalle, on peut aussi considérer des fonctions \(f_x\) dépendant d'un paramètre \(x\in J\text{.}\)
\(\leadsto\) Pour chaque \(x\in J\text{,}\) on a une fonction \(f_x\) sur \(I\text{.}\)
Remarque 2.1.
Ceci équivaut à considérer une fonction à deux variables
Par exemple, pour chaque \(x \gt 0\text{,}\) on peut définir la fonction
Soient donc \(I,J\) deux intervalles et \((f_x)_{x\in J}\) une famille de fonctions paramétrées par \(x\in J\text{.}\)
Fixons un \(x_0\in J\text{.}\) Si la fonction \(t\in I \mapsto f_{x_0}(t)\) est intégrable sur \(I\text{,}\) on peut définir
Remarque 2.3.
Donc, si \(I=[a,b]\text{,}\) c'est une intégrale de Riemann; sinon, c'est une intégrale généralisée.
\(\leadsto\) Si c'est le cas pour chaque \(x\in J\text{,}\) on peut définir ainsi une fonction
\(\leadsto\) Ce type de fonctions est appelé intégrale à paramètre.
Exercice 2.1. La fonction \(\Gamma\).
(a)
Pour \(x\in ]0,+\infty[\text{,}\) posons \(f_x(t)=e^{-t}t^{x-1}\text{.}\)
On s'intéresse à l'intégrale généralisée
Montrer que \(\Gamma\) est définie sur \(]0,+\infty[\text{.}\)
C'est une intégrale généralisée, avec un "problème" en \(+\infty\) et, éventuellement, un problème en \(0\text{.}\)
On étudie séparément
Pour \(I_1\text{,}\) comparer avec une intégrale de type \(\int_0^1 \frac 1{t^\alpha}\)
Pour \(I_2\text{,}\) c'est l'exponentielle qui va nous sauver: on peut le voir avec la règmle en \(t^\alpha\) par exemple, ou avec un petit o
Fixons \(x \gt 0\text{.}\) La fonction \(t\mapsto f(t,x)\) est continue, donc localement intégrable sur \(]0,+\infty[\text{.}\)
On doit montrer d'une part la convergence de \(I_1=\displaystyle \int_0^1 e^{-t}t^{x-1} dt\text{,}\) et d'autre part celle de \(I_2=\displaystyle\int_1^{+\infty} e^{-t}t^{x-1} dt\text{.}\)
-
Pour \(I_1\text{:}\) Remarquons que
\begin{equation*} 0 \leq e^{-t}t^{x-1}=\dfrac{e^{-t}}{t^{1-x}}\sim_{t\rightarrow 0^+}\dfrac1{t^{1-x}} \end{equation*}Donc \(\displaystyle \int_0^1 \frac1{t^{1-x}}dt\) converge ssi \(x \gt 0\) donc \(I_1\) converge bien pour tout \(x \gt 0\text{.}\)
-
Pour \(I_2\text{:}\) On a:
\begin{equation*} t^2 f(t,x) = t^{x+1}e^{-t} \xrightarrow[t\rightarrow \infty]{} 0, \end{equation*}donc par le critère en \(t^\alpha\text{,}\) \(\int_1^{+\infty} e^{-t}t^{x-1} dt\) converge pour \(x \gt 0\text{.}\)
\(\leadsto\) La fonction \(\Gamma\) est bien définie sur \(]0,+\infty[\text{.}\)
(b)
Montrer que, pour tout entier \(n\text{,}\) \(\Gamma(n+1)=n!\text{.}\)
Récurrence et IPP !
On va procéder par récurrence.
\(\boxed{n=0}\) On commence donc par calculer \(\Gamma(1)\text{,}\) dans l'espoir que ça fasse \(0!=1\text{.}\) On a
Bien.
\(\boxed{n \leadsto n+1}\) Supposons que \(\Gamma(n+1)= n!\) et montrons que \(\Gamma(n+2)=(n+1)!\text{.}\)
On calcule donc
\(\Gamma\) est donc une fonction qui "généralise" la factorielle pour les entiers.
Subsection 2.2 Continuité et dérivabilité si \(I=[a,b]\)
Maintenant qu'on a défini tout un nouveau zoo de fonctions, on peut se poser à leur sujet les questions habituelles sur les fonctions: sont elles continues ? dérivables ?
Comme souvent quand des intégrales sont en jeu, on va d'abord traiter le cas où on intègre sur un segment \(I=[a,b]\text{.}\) On va voir que dans ce cas, ça se passe bien:
Théorème 2.6. Continuité.
Si la fonction à deux variables \(f:[a,b]\times J \rightarrow \R\) est continue en tout point de \([a,b]\times J\text{,}\) alors la fonction
est continue sur \(J\text{.}\)
Exemple 2.7.
Posons \(f:(t,x)\in[0,1]\times \R \mapsto xt+x^2 \in \R\text{.}\) On a par exemple
\(\leadsto\) \(f\) est polynomiale, donc continue, sur \([0,1]\times \R\text{.}\) Donc la fonction
est continue sur \(\R\text{.}\)
Ce que l'on peut vérifier directement:
est bien continue sur \(\R\text{.}\)
Supposons maintenant que \(J\) est un intervalle ouvert, et intéressons-nous à la dérivabilité de l'intégrale à paramère \(F(x)=\int_a^b f(t,x)dt\) sur \(J\text{.}\)
\(\leadsto\) On va avoir besoin d'une notion de dérivabilité pour la fonction à deux variables \(f\text{:}\) c'est la notion de dérivée partielle qui va nous aider 3 .
Définition 2.8.
Soit \(f\) une fonction sur \([a,b]\times J\text{.}\) Fixons un \(t_0 \in [a,b]\text{.}\)
On appelle dérivée partielle par rapport à \(x\) en \((t_0,x_0)\text{,}\) notée \(\displaystyle \frac{\partial f}{\partial x}(t_0,x_0)\text{,}\) la dérivée en \(x_0\) de la fonction \(x \in J\mapsto f(t_0,x)\text{.}\)
Si la dérivée existe pour tout \(t_0\in I,x_0\in J\text{,}\) on obtient une fonction à deux variables
Exercice Exercice
Reprenons \(f(t,x)=xt+x^2\) sur \([0,1]\times\R\text{.}\)
1.
Dérivée partielle de \(f\) par rapport à \(x\) en \((0,1)\) ?
On fixe \(t=0\) et on s'intéresse donc à la fonction \(f(0,x)=x^2\text{.}\)
Elle est dérivable en \(x=1\) et sa dérivée en 1 vaut 2, donc \(\boxed{\displaystyle \frac{\partial f}{\partial x}(0,1)=2}\)
2.
Dérivée partielle de \(f\) par rapport à \(x\) en \((1,2)\) ?
On fixe \(t=1\) et on s'intéresse donc à la fonction \(f(1,x)=x+x^2\text{.}\)
Cette fonction est dérivable en \(x=2\) et sa dérivée en 2 vaut 5, donc \(\boxed{\displaystyle \frac{\partial f}{\partial x}(2,1)=5}\)
3.
Dérivée partielle de \(f\) par rapport à \(x\) sur \([0,1]\times \R\) ?
On fixe un \(t\in[0,1]\) et on s'intéresse à la fonction \(f(t,x)=tx+x^2\text{.}\)
Cette fonction est dérivable en \(x\text{,}\) quel que soit \(x\in\R\) et sa dérivée est donnée par \(\boxed{\displaystyle \frac{\partial f}{\partial x}(t,x)=t+2x}\)
Remarque: On retrouve bien les résultats précédents: \(\frac{\partial f}{\partial x}(0,1)=2\) et \(\frac{\partial f}{\partial x}(1,2)=5\text{.}\) Ce qui est rassurant.
De là, on obtient:
Théorème 2.9. Dérivation des intégrales à paramètres.
Si la fonction dérivée partielle \(\frac{\partial f}{\partial x}(t,x)\) existe et est continue sur \([a,b]\times J\text{,}\) alors l'intégrale à paramètre \(F\) est dérivable sur \(J\) et
Exercice Exercice
Reprenons \(f(t,x)=xt+x^2\) sur \([0,1]\times\R\text{.}\) On a vu que la fonction
est bien définie et continue sur \(\R\text{.}\)
1.
\(F\) est-elle dérivable sur \(\R\) ? Si oui, quelle est sa dérivée ?
Etant polynomiale, \(f\) admet des dérivées partielles continues:
donc
2.
Est-ce que ça correspond au calcul explicite de \(F\) ?
Par ailleurs, on avait calculé \(F(x)=\frac{x}2+x^2\text{,}\) donc on a bien \(F'(x)=\frac12+2x\text{.}\)
Un exemple un peu plus intéressant:
Exercice 2.2. Un calcul indirect d'intégrale.
On considère l'intégrale à paramètres
(a)
Pour quels \(x\in \R\) cette intégrale est-elle définie ?
(b)
Etudier la continuité de \(F\) sur \(]0, +\infty[\text{.}\)
(c)
Retrouver ce résultat en calculant \(F(x)\text{.}\)
(d)
Justifier que \(F\) est dérivable sur \(]0,+\infty[\) et donner sa dérivée.
(e)
En déduire la valeur de
Encore plus intéressant:
Exercice 2.3. Calcul de l'intégrale de Gauss.
Posons, pour \(x\in \R\text{,}\)
(a)
Justifier que \(A\) est dérivable sur \(\R\) et calculer \(A'\text{.}\)
(b)
Justifier que \(B\) est dérivable, et calculer \(B'\text{.}\)
(c)
Montrer que \(A+B\) est constante, et plus précisément, pour tout \(x\in\R\text{,}\) \(A(x)+B(x)=\frac{\pi}{4}\text{.}\)
(d)
Soit \((x_n)_n\) une suite telle que \(x_n\rightarrow \infty\text{.}\) Montrer que \(A(x_n)\xrightarrow[n\rightarrow\infty]{}0\text{.}\)
(e)
En déduire que \(\lim_{x\rightarrow \infty}A(x)=0\text{,}\) puis que
Subsection 2.3 Continuité et dérivabilité pour les intégrales généralisées
Intéressons-nous maintenant au cas où \(I\) est un intervalle quelconque. Est-ce que ça fonctionne toujours ?
...Evidemment pas. Où serait le fun ?
Exercice 2.4. Naufrage de la continuité.
Considérons
\(f\) est continue sur \(\R^+ \times \R^+\) et pour tout \(x\geq 0\text{,}\) \(t\mapsto f(t,x)\) est intégrable sur \(\R^+\text{.}\) On peut donc définir
(a)
Calculer \(F(0)\text{.}\)
(b)
Calculer \(F(x)\) pour \(x\neq 0\text{,}\) et en déduire \(\lim_{x\rightarrow 0} F(x)\text{.}\)
Soit \(x \neq 0\text{.}\)
donc
(c)
Enfonçons le clou: \(F\) est-elle continue en 0 ?
On a donc
donc non, \(F\) n'est pas continue en 0.
Et pour la dérivabilité ?
Exercice 2.5. Ruine de la dérivabilité.
Considérons la fonction
(a)
Soit \(t\geq 0\) fixé. Montrer que, quel que soit \(x\in \R\text{,}\) la dérivée partielle \(\frac{\partial f}{\partial x}(t,x)\) existe.
Séparer les cas \(x\lt 0\text{,}\) \(x=0\) et \(x \gt 0\text{.}\)
Pour le cas \(x=0\text{,}\) revenir au bon vieux taux d'accroissement.
On fixe \(t\in \R^+\text{.}\)
-
Soit \(x_0 \gt 0\text{.}\) Alors au voisinage de \(x_0\text{,}\) \(f(x,t)=x^2e^{-tx}\text{.}\)
\(\leadsto\) \(f\) admet une dérivée partielle par rapport à \(x\) en \((t,x_0)\) donnée par
\begin{equation*} \frac{\partial f}{\partial x}(t,x_0) = 2x_0 e^{-tx_0 }-tx_0 ^2e^{-tx_0 }=x_0 (2-tx_0 )e^{-x_0 t} \end{equation*} -
Soit \(x_0 \lt 0\text{.}\) On obtient de la même façon que \(f\) admet une dérivée par rapport à \(x\) en \((t,x_0)\) donnée par
\begin{equation*} \frac{\partial f}{\partial x_0}(t,x_0) = 2x_0e^{tx_0}+tx_0^2e^{tx_0}=x_0(2+tx_0)e^{x_0t} \end{equation*} -
Enfin, en \(x_0=0\text{,}\) on calcule le taux d'accroissement: soit \(h\neq 0\text{:}\)
\begin{equation*} \lim_{h\rightarrow 0} \frac{f(t,h)-f(t,0)}{h-0} = \lim_{h\rightarrow 0} he^{-t|h|} =0 \end{equation*}donc \(f\) admet une dérivée partielle par rapport à \(x\) en \((t,0)\) donnée par
\begin{equation*} \frac{\partial f}{\partial x}(t,0)=0 \end{equation*}
En fin de compte, on obtient que \(\frac{\partial f}{\partial x}(t,x)\) existe pour tout \((t,x)\in \R^+ \times \R\text{.}\)
(b)
Est-ce que \(\displaystyle\frac{\partial f}{\partial x}(t,x)\) est continue sur \(\R\) ?
On a calculé
\(\leadsto\) \(\displaystyle\frac{\partial f}{\partial x}(t,x)\) est continue sur \(\R^+ \times \R\text{.}\)
(c)
Calculer \(F\) explicitement. Est-ce une fonction dérivable ?
Soit \(x\neq 0\text{,}\) on calcule
et en \(x=0\) on a aussi \(F(0)=0\text{,}\) donc pour tout \(x\text{,}\) \(F(x)=|x|\text{.}\) Une fonction notoirement non dérivable en 0.
(d)
Calculer \(\displaystyle\int_0^{+\infty}\frac{\partial f}{\partial x}(t,x) dt\) quand même.
On a obtenu:
Donc, pour \(x=0\text{,}\) on a
Pour \(x \gt 0\text{,}\) en faisant une IPP, on trouve
Pour \(x \lt 0\text{,}\) on trouve de la même façon
Mais il doit bien y avoir des intégrales généralisées à paramètres qui sont continues !
Oui, et pour les repérer, on va devoir ajouter des hypothèses similaires à celles du théorème de convergence dominée.
Théorème 2.10. Continuité des intégrales généralisées.
Supposons que:
\(f:I\times J\rightarrow \R\) est continue sur \(I\times J\text{;}\)
Il existe \(g:I\rightarrow \R^+\) telle que \(|f(t,x)|\leq g(t)\) pour tous \((t,x)\in I\times J\)
L'intégrale \(\displaystyle\int_I g(t)dt\) est convergente.
Alors, pour tout \(x\in J\text{,}\) \(\displaystyle\int_I f(t,x)dt\) est convergente et la fonction
est continue sur \(J\text{.}\)
Exercice 2.6. Preuve du théorème de continuité.
Vu la similarité des hypothèses, on sent qu'il doit y avoir un lien avec le théorème de convergence dominée. Et on a bien raison !
Le lien va venir de la caractérisation séquentielle de la limite d'une fonction.
Mais d'abord, vérifions que notre fonction \(F\) est bien définie.
(a)
Considérons notre intégrale à paramètre
Vérifier que, pour tout \(x\in J\text{,}\) \(\int_I f(t,x)dt\) est convergente.
Fixons \(x_0\in J\text{.}\) Alors \(0\leq |f_(t,x_0)|\leq g(t)\) et, par hypothèse, \(\displaystyle\int_I g(t)dt\) converge.
\(\leadsto\) Par le critère de comparaison, l'intégrale \(\displaystyle\int_I |f(t,x_0)|dt\) converge aussi, autrement dit \(\displaystyle\int_I f(t,x_0)dt\) converge absolument, donc converge.
Ceci étant vrai pour tout \(x_0\in J\text{,}\) on en déduit que la fonction \(F\) est bien définie sur \(J\text{.}\)
(b)
Revenons un peu sur la caractérisation séquentielle des limites de fonctions.
Soit \(\varphi: J\rightarrow \R\) une fonction réelle, et \(x_0 \in J\text{.}\) On suppose que
Soit \((x_n)_n\in J^{\N}\) une suite à valeurs dans \(J\text{,}\) telle que \(x_n\xrightarrow[n\rightarrow \infty]{}x_0\text{.}\) Montrer que la suite \((y_n)_n\) définie pour tout \(n\) par \(y_n=\varphi(x_n)\) converge vers \(\ell\text{.}\)
Il va falloir dégainer les quantificateurs pour faire ça proprement, je le crains...
Donc, ce qu'on sait, c'est que \(\varphi(x)\xrightarrow[x\rightarrow x_0]{} \ell\text{,}\) autrement dit
et que \(x_n\xrightarrow[n\rightarrow \infty]{}x_0\text{,}\) autrement dit:
Et ce qu'on veut montrer, c'est que
OK, plus qu'à mettre tout ça ensemble.
Soit donc \(\varepsilon\gt0\text{.}\) On cherche un entier \(n_0\) tel que, à partir de \(n_0\text{,}\) \(|\varphi(x_n)-\ell| \lt \varepsilon\text{.}\)
Puisque \(\varphi(x)\xrightarrow[x\rightarrow x_0]{} \ell\text{,}\) on sait qu'il existe \(\eta \gt 0\) tel que
En particulier, si \(|x_n-x_0|\lt \eta\) alors on a \(|\varphi(x_n)-\ell| \lt \varepsilon\text{.}\)
Mais justement, puisque \(x_n\xrightarrow[n\rightarrow \infty]{}x_0\text{,}\) on sait aussi qu'il existe \(n_0\in\N\) tel que pour tout \(n\geq n_0\text{,}\)
\(|x_n-x_0|\lt \eta\)Donc, en recollant les morceaux:
Autrement dit, \((y_n)_n\) converge vers \(\ell\text{,}\) comme souhaité.
(c)
Supposons, réciproquement, que pour toute suite \((x_n)_n\in J^\N\) telle que \(x_n\xrightarrow[n\rightarrow \infty]{}x_0\text{,}\) on a \(y_n=\varphi(x_n)\xrightarrow[n\rightarrow \infty]{} \ell\text{.}\)
Montrer qu'alors \(\varphi(x)\xrightarrow[x\rightarrow x_0]{} \ell\text{.}\)
La contraposée est peut-être plus simple à montrer: supposer que \(\varphi(x)\) ne tend pas vers \(\ell\) en \(x_0\text{,}\) ce qui s'écrit:
En utilisant ça avec \(\eta=\frac1n\text{,}\) pour chaque \(n\in\N^*\text{,}\) construire une suite de \(J\) qui tend vers \(x_0\) mais telle que \(\varphi(x_n)\) ne tend pas vers \(\ell\text{.}\)
On va montrer la contraposée de cette implication: supposons donc que \(\varphi\) ne tend pas vers \(\ell\) en \(x_0\text{,}\) c'est-à-dire
et ce qu'on veut trouver, c'est une suite de \(J\) qui tend vers \(x_0\) mais dont l'image par \(\varphi\) ne tend pas vers \(\ell.\)
Pour ça, on prend \(n\in\N^*\) et on utilise l'équation (2.1) avec \(\eta = \frac1n\text{:}\) ce que nous dit l'équation, c'est qu'il existe un \(x_n\in J\) tel que
mais
On obtient comme ça une suite \((x_n)_n\) qui vérifie, pour chaque \(n\text{,}\) ces deux inégalités. Or,
La première inégalité nous dit que \((x_n)_n\) converge vers \(x_0\text{;}\)
La deuxième nous dit que, par contre, la distance entre \(y_n=\varphi(x_n)\) est minorée par une constante positive \(\varepsilon_0\text{,}\) et donc ne devient pas plus petite quand \(n\) devient grand: autrement dit, \((y_n)_n\) ne tend pas vers \(\ell\text{.}\)
Donc, pour étudier la limite d'une fonction en un point, par exemple pour vérifier qu'elle est continue, on peut se raméner à l'étude de limites de suites: c'est ce qui va nous permettre d'utiliser la convergence dominée.
(d)
Revenons à notre intégrale à paramètre
Soit \(x_0 \in J\text{.}\) Montrer que, pour toute suite \((x_n)_n\in J^\N\) telle que \(x_n\xrightarrow[n\rightarrow \infty]{}x_0\text{,}\)
On peut utiliser \((x_n)_n\) pour introduire une suite de fonctions \((f_n)_n\) définies sur \(I\text{,}\) et étudier la convergence simple de cette suite \((f_n)_n\) en utilisant la continuité de \(f\text{.}\)
Et voir si, par hasard, on n'aurait pas
Soit donc \((x_n)_n\in J^\N\) une suite de \(J\) telle \(x_n\xrightarrow[n\rightarrow \infty]{}x_0\text{.}\)
Posons, pour tout \(n\in\N\) et pour tout \(t\in I\text{,}\)
\(\leadsto\) C'est une suite de fonctions sur \(I\text{,}\) qui vérifie:
-
Par continuité de la fonction à deux variables \(f\text{,}\) on a pour chaque \(t\in I\)
\begin{equation*} f_n(t)=f(t,x_n) \xrightarrow[n\rightarrow\infty]{} f(t,x_0) \end{equation*}donc \((f_n)_n\) converge simplement sur \(I\) vers \(t\in\I \mapsto f(t,x)\text{;}\)
-
Par l'hypothèse de domination, pour tout \(n\in \N\) et pour tout \(t\in I\text{,}\)
\begin{equation*} |f_n(t)|= |f(t,x_n)| \leq g(t) \end{equation*}et \(g\) est intégrable sur \(I\text{.}\)
On peut donc appliquer le théorème de convergence dominée:
Autrement dit, \(F(x_n) \xrightarrow[n\rightarrow\infty]{} F(x_0)\text{.}\)
(e)
Conclure triomphalement.On a donc montré que pour n'importe quelle suite \((x_n)_n\) de \(J\) qui tend vers \(x\text{,}\) \(F(x_n)\rightarrow F(x_0)\text{.}\)
D'après la caractérisation séquentielle de la limite, on en déduit que
ce qui est la définition de la contiuité de \(F\) en \(x_0\text{.}\)
Et il n'a rien de spécial, ce \(x_0\text{:}\) on peut faire ça avec n'importe quel élément de \(J\text{,}\) donc \(F\) est continue sur \(J\text{.}\)

Exercice 2.7. Une petite amélioration.
La continuité est une propriété dite locale: elle est définie en un point spécifique \(x_0\) et, pour les vérifier, on n'a besoin de savoir que ce qui se passe au voisinage de ce point. 4
C'est ce qui va nous permettre, pour vérifier plus facilement l'hypothèse de domination, de se contenter d'une majoration "par morceaux".
(a)
Supposons que \(f:I\times J\rightarrow \R\) est continue sur \(I\times J\text{,}\) et supposons de plus que pour tout \(x\in J\text{,}\) il existe
\(V\subset J\) un voisinage de \(x\)
-
une fonction \(g_V\) définie et intégrable sur \(I\) tels que
\begin{equation*} \text{Pour tout } (t,x)\in I\times V,\ |f(t,x)|\leq g_V(t) \end{equation*}
En déduire que \(F\) est continue sur \(J\text{.}\)
Soit \(x_0\in J\text{.}\) Montrons que \(F\) est continue en \(x_0\text{.}\)
Par hypothèse, il existe \(V\subset J\) un voisinage de \(x_0\) et \(g_V\) définie et intégrable sur \(I\) tels que, pour tout \((t,x)\in I\times V,\ |f(t,x)|\leq g_V(t)\text{.}\)
Puisque \(V\) est un voisinage de \(x_0\text{,}\) il existe \(r\gt0\) tel que \(\,]\,x_0-r,x_0+r\,[\,\subset V\text{,}\) et on a donc, pour tout \((t,x)\in I \times \,]\,x_0-r,x_0+r\,[\,\text{,}\) \(|f(t,x)|\leq g_V(t)\text{.}\)
D'après le théorème de continuité des intégrales à paramètres, on en déduit que
est continue; en particulier, elle est continue en \(x_0\text{.}\)
Donc \(F\) est continue en \(x_0\text{.}\)
(b)
Appliquons ceci à la fonction Gamma:
Montrer que la fonction
est continue sur \(]0,+\infty[\text{.}\)
On pose comme précédemment \(f(t,x)= t^{x-1}e^{-t}\text{,}\) définie pour \(x \gt0, t\gt 0\text{.}\)
\(\leadsto\) La fonction à deux variables \(f\) est continue sur \(\,]\,0,+\infty\,[\,\times \,]\,0,+\infty\,[\,\text{.}\)
Soit \(x_0 \gt0\text{.}\) Montrons que \(\Gamma\) est continue en \(x_0\text{.}\)
Soient \(a \lt b\) deux réels strictement positifs tels que \(x_0\in[a,b]\text{.}\) On va chercher \(g_{a,b}: \,]\,0,+\infty\,[\, \rightarrow \R^+\text{,}\) intégrable sur \(\,]\,0,+\infty\,[\,\) et telle que, pour tout \((t,x)\in \,]\,0,+\infty\,[\,\times[a,b]\text{,}\) \(|f(t,x)|\leq g_{a,b}(t).\)
Remarquons que
-
Si \(0\lt t \leq 1\text{,}\) alors \(x\mapsto t^{x-1}=e^{(x-1)\ln(t)}\) est décroissante, donc pour tout \(x\in[a,b], t\in \,]\,0,1]\text{,}\)
\begin{equation*} 0\lt t^{x-1} \leq t^{a-1} \end{equation*} -
D'un autre côté si \(t \gt 1\) alors \(x\mapsto t^{x-1}=e^{(x-1)\ln(t)}\) est croissante, donc pour tout \(x\in[a,b], t\in \,]\,1,+\infty\,[\,\text{,}\)
\begin{equation*} 0\lt t^{x-1} \leq t^{b-1} \end{equation*}
Posons donc
Alors \(g_{a,b}\) est continue par morceaux, et, par les mêmes arguments qu'à l'Exercice 2.1, l'intégrale généralisée \(\displaystyle\int_0^{+\infty} g_{a,b}(t)dt\) converge.
\(\leadsto\) On en déduit que \(\Gamma\) est continue sur \([a,b]\) : en particulier, elle est continue en \(x_0\text{.}\)
Ceci étant vrai pour n'importe quel \(x_0 \gt 0\text{,}\) \(\Gamma\) est continue sur \(\,]\,0,+\infty\,[\,\text{.}\)
Pour la dérivabilité, on a un théorème similaire:
Théorème 2.11. Dérivabilité des intégrales généralisées.
Supposons que:
La dérivée partielle \(\frac{\partial f}{\partial x}(t,x)\) existe et est continue sur \(I\times J\text{;}\)
Il existe \(g:I\rightarrow \R^+\) telle que \(\left|\frac{\partial f}{\partial x}(t,x)\right|\leq g(t)\) pour tous \((t,x)\in I\times J\)
L'intégrale \(\int_I g(t)dt\) est convergente.
Alors pour tout \(x\in J\text{,}\) l'intégrale \(\displaystyle\int_I \frac{\partial f}{\partial x}(t,x)dt\) est convergente, la fonction \(F:x\in J \mapsto \displaystyle\int_I f(t,x)dt\) est de classe \(\mathcal C^1\) sur \(J\) et
Exercice 2.8. Preuve du théorème de dérivabilité.
Il va à nouveau s'agir d'utiliser le théorème de convergence dominée. La question est: à quelle suite de fonctions, cette fois ?
(a)
Vérifions d'abord que ça a une chance de marcher: montrer que pour tout \(x\in J\text{,}\) l'intégrale généralisée
est convergente.
Exactement comme pour le Théorème 2.10, on fixe un \(x_0\in J\text{.}\) Alors notr hypothèse donne, pour tout \(t\in I\text{,}\)
et, toujours par hypothèse, l'intégrale généralisée
converge. Donc, par le critère de comparaison, l'intégrale généralisée
converge aussi, autrement dit \(\displaystyle\int_I \frac{\partial f}{\partial x}(t,x_0)dt\) converge absolument, donc converge.
Ceci étant vrai pour tout \(x_0\in J\text{,}\) on en déduit que la fonction \(F\) est bien définie sur \(J\text{.}\)
(b)
Soit \(x_0\in J\text{.}\) Montrer que \(F\) est dérivable en \(x_0\) si, et seulement si, pour toute suite \((x_n)\in (J\setminus \{x_0\})^\N\) telle que \(x_n\xrightarrow[n\rightarrow \infty]{} x_0\text{,}\) il existe \(\ell \in\R\) tel que
En reprenant la bonne vieille définition de la dérivabilité des fonctions réelles, on retrouve qu'une fonction \(F:J\rightarrow \R\) est dérivable en un point \(x_0\) ssi le taux d'accroissement en ce point, défini par:
a une limite quand \(x\rightarrow x_0\text{.}\)
Ce qui nous donne l'idée d'introduire une fonction taux d'accroissement
On va donc s'intéresser, pour \(x\neq x_0\) à
Mais comme on a vu dans la preuve du théorème de continuité, avec la caractérisation séquentielle de la limite:
ce qui nous amène à regarder, pour une suite \((x_n)_n\in(J\setminus\{x_0\})^\N\) qui converge vers \(x_0\text{,}\) la suite
ce qu'on va faire dans la question suivante.
(c)
Soit \((x_n)\in (J\setminus\{x_0\})^\N\) telle que \(x_n\xrightarrow[n\rightarrow \infty]{} x_0\text{.}\) On introduit la suite de fonctions
Montrer que \((h_n)_n\) converge simplement vers une fonction \(h\) à déterminer, et que
C'est là qu'il s'agit de dégainer la convergence dominée !
Pour un \(t\in I\) donné, on sait que
Mais, d'après la caractérisation séquentielle de la limite, on peut en déduire que, pour notre suite \((x_n)_n\text{,}\)
autrement dit, pour chaque \(t\in I\text{,}\)
\(\leadsto\) La suite de fonctions \((h_n)_n\) converge simplement vers la fonction \(t\mapsto \dfrac{\partial f}{\partial x}(t,x_0)\text{.}\)
Par ailleurs, d'après le théorème des accroissements finis, si on fixe un \(t\in I\) et un \(n\in\N\text{,}\) on obtient qu'il existe \(y_n\in J\) tel que
donc
De là, notre hypothèse de domination nous donne, pour tout \(n\in\N\) et pour tout \(t\in I\text{,}\)
On peut donc utiliser le théorème de convergence dominée:
(d)
Conclure triomphalement.
On a d'une part
et d'autre part
Et ces deux quantités sont égales, quelle que soit la suite \((x_n)_n\) (du moment qu'elle tend vers \(x_0\)). Donc au final, par la caractérisation séquentielle de la limite
ce qui revient à dire que \(F\) est dérivable en \(x_0\) et

(e)
Montrer que ça marche aussi si on remplace l'hypothèse (3) (hypothèse de domination) par
(3') Pour tout \(x\in J\text{,}\) il existe
\(V\subset J\) un voisinage de \(x\)
-
une fonction \(g_V\) définie et intégrable sur \(I\) tels que
\begin{equation*} \text{Pour tout } (t,x)\in I\times V,\ \left|\frac{\partial f}{\partial x}(t,x)\right|\leq g_V(t) \end{equation*}
Soit \(x_0\in J\text{,}\) alors (3') nous donne un voisinage \(V\) de \(x_0\) et une fonction \(g_V\)intégrable sur \(I\) tels que, pour tout \((t,x) \in I\times V\text{,}\)
Alors, d'après le théorème qu'on vient de démontrer, la fonction \(F_{|V}\) est dérivable en \(x_0\text{.}\) Mais du coup, la fonction \(F\) elle-même est dérivable en \(x_0\text{.}\)
Et comme on peut faire ça pour chaque \(x_0\in J\text{,}\) on en déduit que \(F\) est dérivable sur \(J\) tout entier, et sa dérivée est bien
(f)
Utiliser ceci pour montrer que la fonction
est dérivable sur \(]0,+\infty[\text{.}\)
Recycler la majoration utilisée à l'Exercice 2.7 pour vérifier l'hypothèse de domination "locale" (3').
Notons \(f:(t,x)\in \R_+^* \times \R_+^* \mapsto t^{x-1}e^{-t}= e^{(x-1)\ln(t)-t}\text{.}\) Alors, pour tout \(t\gt0\text{,}\) pour tout \(x\gt 0\text{,}\) la fonction \(x\mapsto f(t,x)\) est dérivable et on a
\(\leadsto\) C'est cette fonction qu'il s'agit de majorer indépendamment de \(x\text{.}\)
On va faire ça localement: soient \(a,b\in \R^*_+\) tels que \(a \lt x\lt b\text{.}\) Exactement comme à l'Exercice 2.7, on a
-
Si \(0\lt t \leq 1\text{,}\) alors \(x\mapsto t^{x-1}=e^{(x-1)\ln(t)}\) est décroissante, donc pour tout \(x\in[a,b], t\in \,]\,0,1]\text{,}\)
\begin{equation*} 0\lt t^{x-1} \leq t^{a-1} \end{equation*} -
D'un autre côté si \(t \gt 1\) alors \(x\mapsto t^{x-1}=e^{(x-1)\ln(t)}\) est croissante, donc pour tout \(x\in[a,b], t\in \,]\,1,+\infty\,[\,\text{,}\)
\begin{equation*} 0\lt t^{x-1} \leq t^{b-1} \end{equation*}
Du coup, si on pose,
alors on a, pour tout \((t,x)\in\R_+^* \times [a,b]\text{,}\)
Pour vérifier l'hypothèse de domination locale (3'), il reste donc à vérifier que \(g_{a,b}\) est intégrable sur \(\lbb 0, +\infty \rbb\text{.}\) Pour ça, on doit montrer que les deux intégrales généralisées
sont convergentes. Or:
-
\(\boxed{I_1}\) On a pris \(a\gt 0\text{,}\) donc \(1-a \lt 1\text{.}\) On peut donc prendre un \(c\) tel que \(1-a \lt c \lt 1\) et on a alors
\begin{equation*} t^cg(t) = t^{a+c-1}|\ln(t)|e^{-t} \xrightarrow[t\rightarrow 0]{}0 \end{equation*}par croissances comparées. On en déduit, par la règle en \(t^\alpha\text{,}\) que \(I_1\) converge.
-
\(\boxed{I_2}\) Pour tout \(t\geq 1\text{,}\) on a, par l'écrasant pouvoir de l'exponentielle 5 ,
\begin{equation*} t^2g(t)=t^{1+b}|ln(t)|e^{-t} \leq t^{2+b}e^{-t} \xrightarrow[t\rightarrow +\infty]{}0 \end{equation*}Donc, toujours par la règle en \(t^\alpha\text{,}\) \(I_2\) converge.
Donc \(g_{a,b}\) est intégrable sur \(\lbb 0,+\infty \rbb\text{,}\) et on peut appliquer notre théorème de dérivation.
On a donc obtenu que \(\Gamma\) est dérivable sur \(\R^*_+\) et
Remarque: On montre de la même façon que \(\Gamma\) est en fait \(\mathcal C^\infty\) sur \(\R_+^*\) et, pour tout \(k\in\N\text{,}\)
Exercice 2.9. Un autre exemple.
On s'intéresse à l'intégrale à paramètre définie pour \(x\in \R\) par
(a)
Montrer que \(F\) est continue sur \(\R\text{.}\)Ca tombe bien, on a un théorème pour ça !
On introduit la fonction
\(\leadsto\) C'est une fonction à deux variables continue sur \(\R_+\times \R\) et on a la majoration
pour tout \((t,x)\in\R_+ \times \R\text{.}\) Or, \(g:t\in\R^+ \mapsto e^{-t^2}\) est intégrable sur \(\R^+\) 6 .
D'après le théorème de continuité des intégrales généralisées, on en déduit que
est définie et continue sur \(\R\text{.}\)
(b)
Montrer que \(F\) est dérivable sur \(\R\) et donner sa dérivée.A nouveau, on a un théorème pour ça, utilisons-le allègrement.
Pour tout \(t\geq 0\text{,}\) la fonction \(x\mapsto f(t,x)=\cos(2xt)e^{-t^2}\) est dérivable sur \(\R\text{,}\) et on a, pour tout \(x\in\R\text{,}\)
\(\leadsto\) La fonction \(\dfrac{\partial f}{\partial x}\) est continue sur \(\R_+\times \R\text{,}\) et vérifie la majoration
Or la fonction \(h:t\in \R_+\mapsto 2te^{-t^2}\) est intégrable sur \(\R^+\) 7 .
Donc, d'après le théorème de dérivabilité des intégrales à paramètres, \(F\) est dérivable sur \(\R\) et
(c)
Exprimer \(F'(x)\) en fonction de \(F(x)\text{.}\)En appliquant la technique ancestrale de l'IPP, on calcule
ce qui est tout à fait satisfaisant.
(d)
En déduire l'expression de \(F\text{.}\)Soit \(x\in\R\) tel que \(F(x)\neq 0\text{.}\) Puisque \(F\) est continue, il y alors un voisinage de \(x\) où \(F\) ne s'annule pas, et sur ce voisinage, on a
Or, d'après l'Exercice 2.3,
Donc pour tout \(x\) tel que \(F(x)\neq 0\text{,}\) \(F(x)=\dfrac{\sqrt \pi}2e^{-x^2}.\)
D'un autre côté, notons \(Z^-=\{x\lt 0, F(x)= 0\}\) et supposons que \(Z^-\neq \emptyset\text{.}\) On note alors \(\alpha = \sup Z^- \leq 0.\text{.}\) Prenons une suite \((z_n)_n\) de \(Z^-\) qui tend vers \(\alpha\text{.}\)
D'un autre côté, puisque \(F(0)\neq 0\text{,}\) l'ensemble \(\{x\in\ R, F(x)\neq 0\}\) n'est pas vide. Donc on doit pouvoir trouver une suite \((u_n)_n\) de réels tels que \(F(u_n)\neq 0\) et \(u_n \rightarrow \alpha\text{.}\) Mais du coup, vu que \(F\) est continue,
...ce qui est un problème. On en déduit que \(Z^-=\emptyset\) et on montre de la même façon que \(F\) ne s'annule pas sur \(\R^+\text{.}\)
Du coup, pour tout \(x\in\R\text{,}\)
www.bibmath.net/dico/index.php?action=affiche&quoi=./f/factorielle.html
commons.wikimedia.org/w/index.php?curid=10789117