Skip to main content

Section 1.1 Minute philosophique

Qu'est-ce que les probabilités, au fond ? 1 

Les probabilités, dit-on souvent, ce sont les lois du hasard. Ce qui semble complètement paradoxal: le hasard, c'est justement ce qui n'a pas de loi, non ?

La plupart du temps, quand on s'intéresse aux résultats possibles d'une expérience, même si les lois de la physique déterminent, en théorie, le résultat, on n'a pas toutes les informations nécessaires pour faire une prédiction exacte.

On se contente donc d'évaluer la "plausibilité" d'une hypothèse ou d'un résultat possible. Et pour ça, une façon de voir les choses est d'imaginer répéter la même expérience un grand nombre de fois, et considérer comme plus probables les résultats les plus fréquents. Dans ce sens, la probabilité d'un résultat, c'est la proportion de fois où ce résultat se produit si on répète l'expérience un très  2  grand nombre de fois.

C'est donc une façon d'attribuer un nombre à des évènements, en fonction de notre estimation des "chances de se produire" de cet évènement; en gros :

\begin{equation*} Proba : E \in \text{Evènements } \mapsto \text{Proba}\,(E)\in \rbb 0,1 \lbb \end{equation*}

Il va s'agir de mathématifier cette idée : à une extrémité, on a un nombre, ce qui est bon signe, mais à l'autre extrémité, on a des....évènements. Qui ne sont pas exactement des objets mathématiques.

Pas grave: dans un premier temps, on peut se dire que ce sont les éléments d'un certain ensemble \(\Omega\text{,}\) qu'on spécifiera plus tard 3 .

Commençons par un cas simple,où les évènements eux-mêmes correspondent naturellement à des nombres. Pour modéliser un lancer de dés, on utilise l'ensemble

\begin{equation*} \Omega = \{1,2,3,4,5,6\} \end{equation*}

et, à chaque élément \(\omega\in\Omega\text{,}\) on associe le nombre \(p(\omega)=\frac16\) (si on joue avec quelqu'un d'honnête !).

\(\leadsto\) \(\Omega\) est l'ensemble des résultats possibles, auxquels on associe la probabilité de se produire au cours d'une expérience aléatoire.

Mais maintenant, supposons qu'on tire un réel au hasard dans l'intervalle \(\Omega=\rbb 1,2 \lbb\text{.}\) Quelle est la probabilité de tomber précisément sur votre préféré ?

\(\leadsto\) Ne le prenez pas mal, chaque élément de \(\Omega\) est associé à une probabilité \(0\text{.}\) Attribuer une probabilité aux évènements de ce tirage semble compliqué...

D'un autre côté, il semble raisonnable d'évaluer à \(\frac1{4}\) la probabilité d'obtenir un réel entre \(1\) et \(\frac{5}{4}\text{.}\)

\(\leadsto\) Plutôt que d'associer un nombre à chaque élément de \(\Omega\text{,}\) on associe un nombre à chaque sous-ensemble de \(\Omega\text{:}\) pour tout \(A\subset \Omega\text{,}\) \(\mathbb{P}(A)\) est la probabilité de tomber sur un élément de \(A\text{.}\)

Et pour le lancer de dés ? C'était un malentendu: on associe la probabilité \(\frac16\text{,}\) non pas à l'élément \(\omega\text{,}\) mais au singleton \(\{\omega\}\text{.}\)

Ce qui nous permet de calculer les probabilités de résultats d'expériences plus généraux: par exemple, la probabilité \(\mathbb{P}(\{2,4,6\})\) d'avoir un résultat pair.

C'est donc plutôt les sous-ensembles de \(\Omega\) qu'on va appeler des évènements.

Résumons un peu:

  • Lors d'une expérience aléatoire, à chaque résultat possible, correspond un élément \(\omega\) d'un univers (des possibles) \(\Omega\text{.}\) Chaque \(\omega\) correspond en quelque sorte à un "univers parallèle" parmi tous ceux dans lesquels "on aurait pu se trouver": on les appelle parfois des "réalisations du hasard"..

  • Un sous-ensemble de \(\Omega\) est appelé un évènement.

  • A chaque évènement \(A\text{,}\) on associe un nombre \(\Proba(A)\) qui mesure la plausibilité qu'on attribue à l'hypothèse qu'une réalisation du hasard \(\omega\) "tombe" dans \(A\text{.}\)

Donc en somme, ce qu'on veut étudier, ce sont des applications du type

\begin{equation*} \Proba: \mathcal P(\Omega) \rightarrow \rbb 0,1 \lbb \end{equation*}

Vous avez déjà croisé un certain nombre de façons de s'y prendre:

  • Probabilités finies: Lorsque \(\Omega=\{\omega_1,\omega_2,...,\omega_n\}\) est un ensemble fini, on peut prendre ses éléments un par un et leur associer une probabilité \(p_\omega\) de façon à ce que

    \begin{equation*} \sum_{i=1}^n p_{\omega_i} =1 \end{equation*}

    et on définit alors

    \begin{equation*} \Proba: A\in \mathcal P(\Omega) \rightarrow \sum_{\omega \in A} p_\omega\rbb 0,1 \lbb \end{equation*}

    \(\leadsto\) Par exemple, en l'absence d'autre information, on peut prendre, pour tout \(\omega\in\Omega\text{,}\)

    p_\omega=\dfrac1{n}

    \(n=\Card \Omega\text{,}\) ce qui nous donne

    \begin{equation*} \mathbb P(A)= \frac{\Card(A)}{\Card(\Omega)}=\frac{\text{nb de cas favorables}}{\text{nb de cas possibles}} \end{equation*}

    C'est ce qu'on appelle la loi uniforme, mais ce n'est pas la seule façon de faire: on a aussi la loi binomiale, ou la loi hypergéométrique, qui modélise d'autres types de situations.

  • Probabilités discrètes: Si \(\Omega\) est un ensemble infini, mais dont on peut quand même "numéroter" les éléments avec des entiers (\(\Omega=\{\omega_1,\omega_2...\}\)) on peu procéder à peu près de la même façon: à chaque \(\omega\in\Omega\text{,}\) on attribue une probabilité \(p_\omega\text{,}\) et on veut que

    \begin{equation*} \sum_{i=1}^\infty p_{\omega_i} =1 \end{equation*}

    et on définit alors

    \begin{equation*} \Proba: A\in \mathcal P(\Omega) \rightarrow \sum_{\omega \in A} p_\omega\rbb 0,1 \lbb \end{equation*}

    C'est juste que l'équiprobabilité n'est plus une possibilité, ce qui ne nous empêche pas de dormir.

  • Probabilités continues: Cependant, il y a aussi des ensembles infinis dont on ne peut pas facilement numéroter les éléments: les intervalles, par exemple (si on s'intéresse, mettons, à la distribution des tailles ou des poids dans une population), ou plus généralement les patatoïdes de \(\R^2\) ou \(\R^3\text{.}\)

    Et là, on ne peut plus faire comme avant: si on essaie de spécifier une probabilité \(p_\omega\) pour chaque élément \(\omega\) de, mettons, \(\rbb 0,1 \rbb\) pour modéliser un tirage aléatoire uniforme, la seule probabilité raisonnable semble être 0, et pourtant, il semble raisonnable de dire que

    \begin{equation*} \P(\lbb \frac14, \frac 34\lbb) = \frac12 \neq \sum_{\omega\in \lbb \frac14, \frac 34\lbb} 0 = 0 \end{equation*}

    \(\leadsto\) Il semble plus intéressant de regarder la "longueur" de l'intervalle.

    Dans le même ordre d'idée, si on joue aux fléchettes avec une cible de rayon \(R\text{,}\) alors on peut modéliser l'expérience en prenant pour \(\Omega\) un disque de rayon \(R\) et il semble plutôt naturel de définir la probabilité d'un évènement \(A\subset \Omega\) par

    \begin{equation*} \Proba(A)=\frac{Aire(A)}{Aire(D)} \end{equation*}

Chacun de ces trois grands domaines semble définir la probabilité \(\Proba\) de façon complètement différente, mais il y a tout de même des points communs: dans tous les cas,

Ces propriétés semblent former le minimum syndical pour qu'on aie envie de parler de probabilité: ce sont les axiomes des probabilités.

Enfin, presque. Pour faire des probabilités sur des ensembles infinis, il nosu faut renforcer un peu le dernier axiome: on ne pourra pas se contenter d'union finies d'évènements incompatibles: il nous faudra parfois étudier des suites infinies d'évènements.

Supposons par exemple qu'on répète un jeu de pile ou face répété indéfiniment: l'univers des possibles est donc \(\Omega=\{P,F\}^{\N^*}\text{,}\) l'ensemble de toutes les suites infinies du genre

\begin{equation*} PFFPFPFPPFFFFPFPFPFP.... \end{equation*}

On note \(A_k\) l'évènement "le deuxième Pile a lieu \(k\)tirages après le premier".

Alors on peut remarquer que \(C_k\) est l'union disjointe des évènements

\(B_i(k)=\) "le premier Pile a lieu au \(i\)-ième tirage et le deuxième Pile a lieu au \(i+k\)-ième tirage"

et donc, pour calculer \(\Proba(A_k)\text{,}\) on veut pouvoir calculer

\begin{equation*} \Proba\left(\bigcup_{i\in\N^*}\Proba(B_i(k))\right) \end{equation*}

Ce qui nous amène à ajouter un axiome d'additivité renforcé: la \(\sigma\)-additivité.

c'. \(\Proba\) est \(\sigma\)-additive: si \((A_n)_n\in\T^\N\) est une suite d'évènements deux à deux incompatibles, c'est à dire que, pour tout \(p\neq q,A_p\capA_q=\emptyset\text{,}\) on a

\begin{equation*} \Proba\left(\bigcup_{n\in\N} A_n\right)=\sum_{n\in\N^*} \Proba(A_n) \end{equation*}

Remarque 1.1.3.

  1. Le préfixe \(\sigma\) marque souvent le passage du fini à l'infini "discret", et on le verra revenir régulièrement dans la suite.

  2. Dans l'axiome c', on se retrouve avec une somme infinie, mais la série correspondante converge: son terme général \(\P(A_n)\) est positif, donc il n'y a pas de risque qu'elle n'aie pas de valeur bien définie 7 : au pire, c'est \(+\infty\text{.}\)

    Et ici, toutes les sommes partielles sont majorées par 1 9 , donc la série est convergente.

Ces trois axiomes sont ceux fixés par Andrei Kolmogorov dans son petit livre Foundations of the Theory of Probability[1.4.1], généralement considéré comme la pierre fondatrice des probabilités modernes. Cette approche axiomatique a pris son essor aux XIX\textsuperscript{ème} et XX\textsuperscript{ème} siècles, et permet d'étudier d'un seul coup un grand nombre d'objets ayant en commun des propriétés simples: les axiomes.

Vous connaissez déjà ce fonctionnement en algèbre linéaire, par exemple: ici, on va l'exploiter pour unifier toutes les approches possibles des probabilités dans un seul domaine: celui qui étudie les fonctions qui associe des nombres positifs à des sous-ensembles.

Puisqu'il s'agit de mesurer des sous-ensembles (compter des ensembles finis, moyenner des ensembles discrets, mesurer des longueurs d'intervalles dans \(\R\) et des aires dans \(\R^2\)), on appelle ça la théorie de la mesure.

(Non, vraiment)
très très
Spoiler: ou pas !
On verra un peu plus tard qu'il n'as pas toujours possible d'attribuler une probabilité raisonnable à tous les sous-ensembles, si \(\Omega\) est un peu gros
On ne voit pas très bien ce que signifierait une probabilité de -18 !

Par exemple, pour un lancer de pièces, avec \(\Omega=\{P,F\}\text{,}\) l'évènement "la pièce retombe sur chat"

\begin{equation*} \{\omega \in \Omega, \omega \in \text{ félin domestique }\}=\emptyset \end{equation*}

A priori, \(\Omega\) est l'ensemble des futurs possibles, et il n'y a donc aucun réalisation du hasard qui aura cette propriété !

Ce qui peut arriver avec des sommes de termes à signe quelconque, comme par exemple \(\sum_{n\in\N} (-1)^n\text{.}\) Voir aussi ici 8  pour toujours plus de problèmes.
carolinevernier.website/conv_commutative/index.html
Tiens, pourquoi ?