Pourquoi une nouvelle loi ?
Exemple 1 : Taille d'une population
Exemple 2 : Temps de chargement d'une page web
On l'appelle souvent distribution gaussienne, en l'honneur de Carl Friedrich Gauss (1777-1855), un éminent mathématicien allemand qui a apporté d'importantes contributions à une meilleure compréhension de la distribution normale.
La courbe de cette distribution est appelée “courbe en cloche” parce que le graphique de sa fonction de densité de probabilité ressemble à la forme d'une cloche.
Une variable aléatoire suit une loi normale lorsque sa distribution est continue, symétrique et a la forme caractéristique d'une cloche.
Cette loi est entièrement déterminée par deux paramètres :
La moyenne $\mu$ est donc la valeur autour de laquelle les données sont centrées. Plus l’écart-type $\sigma$ est grand, plus la courbe est aplatie et étalée ; à l’inverse, un $\sigma$ plus petit rend la courbe plus resserrée autour de $\mu$.
Une propriété remarquable de la loi normale est que environ 68 % des valeurs d’une variable suivant cette loi se trouvent entre $\mu - \sigma$ et $\mu + \sigma$.
Une loi de probabilité continue ne donne pas la probabilité d'une valeur exacte, mais la probabilité que la variable prenne une valeur dans un intervalle.
Une variable aléatoire $X$ suit une loi normale de moyenne $\mu$ et d'écart-type $\sigma$ (avec $\sigma > 0$ ) si sa fonction de densité de probabilité est donnée par :
$$ f(x) = \frac{1}{\sigma \sqrt{2\pi}}\, \mathrm{e}^{-\frac{(x - \mu)^2}{2\sigma^2}}, \quad \text{pour tout } x \in \mathbb{R}. $$
On dit que $X$ suit une loi normale de moyenne $\mu$ et d'écart-type $\sigma$, et on note :
$$ X \hookrightarrow \mathcal{N}(\mu, \sigma) \quad \text{(avec $\sigma$ : écart-type).} $$ Attention : la notation formelle rigoureuse est $X \hookrightarrow \mathcal{N}(\mu, \sigma^2) \quad \text{(avec $\sigma^2$ : variance).}$
Mais je trouve plus clair et plus “pédagogique” d'utiliser la notation qui inclut l'écart-type (\(\sigma\)) plutôt que la variance (\(\sigma^2\)). En effet, l'écart-type est plus intuitif à comprendre et à interpréter, car il est exprimé dans les mêmes unités que les données originales.
Note : Pour une variable aléatoire continue, la fonction de distribution est souvent appelée fonction de densité de probabilité. Elle décrit la probabilité relative qu'une variable aléatoire prenne une valeur donnée.
La densité est symétrique et très concentrée autour de la moyenne (indiquée par la ligne verticale). Elle devient très petite en se déplaçant du centre vers la gauche ou vers la droite de la distribution. Cela signifie que plus une valeur est éloignée du centre de la distribution, moins il est probable d'observer cette valeur.
La fonction de répartition d'une variable aléatoire \( X \) donne la probabilité que \( X \) soit inférieure ou égale à une certaine valeur. Elle est définie pour tout nombre réel \( x \).
Comment calcule-t-on une probabilité comme :
$$ P(X \leqslant t) = \int_{-\infty}^{t} \frac{1}{\sigma \sqrt{2\pi}} \mathrm{e}^{-\frac{(x - \mu)^2}{2\sigma^2}} \, \mathrm{d}x $$
Remarques :
Exemples issus des graphiques :
La fonction $f(x) = \frac{1}{\sigma \sqrt{2\pi}} \mathrm{e}^{-\frac{(x - \mu)^2}{2\sigma^2}}$ n’est pas primitivable. Donc, il est impossible de trouver une formule exacte pour cette intégrale.
La fonction de Gauss est intégrable mais il est impossible de trouver une primitive de celle-ci au moyen des fonctions usuelles. Nous avons donc recours à une table de valeurs d'intégrales définies spécifiques calculées par des méthodes de calcul numérique approché.
Ce qu’on va faire ensuite :
Une variable aléatoire $Z$ suit une loi normale centrée réduite si elle suit une loi normale de moyenne $0$ et d'écart-type $1$. Sa densité de probabilité est alors :
$$ f(z) = \frac{1}{\sqrt{2\pi}}\, \mathrm{e}^{-\frac{z^2}{2}}, \quad \text{pour tout } z \in \mathbb{R}. $$
On note :
$$ Z \hookrightarrow \mathcal{N}(0, 1) $$
Cette loi est utilisée pour standardiser une variable aléatoire normale :
$$ Z = \frac{X - \mu}{\sigma} $$
où $X \hookrightarrow \mathcal{N}(\mu, \sigma)$.
Ainsi, $Z$ suit toujours une loi normale centrée réduite, quelle que soit la loi normale d’origine.
Objectif : Trouver $P(X \leq 2)$ pour une variable aléatoire $X \hookrightarrow \mathcal{N}(0, 1)$
On utilise ici la table de la loi normale centrée réduite, qui donne directement les probabilités $P(Z \leq z)$ pour des valeurs de $z$ positives ou nulles.
Dans cet exemple :
$$ P(X \leq 2,00) = 0,9772 $$
Cela signifie que la probabilité que $X$ prenne une valeur inférieure ou égale à 2 est d’environ 97,72 %. Graphiquement, cela correspond à l’aire sous la courbe à gauche de $z = 2$.
La table s'organise de manière à faciliter la lecture des probabilités pour une précision au centième :
Dans notre exemple :
$$P(Z > z) = 1 - P(Z \leq z)$$
$$P(Z \leq -z) = 1 - P(Z \leq z)$$
Vous pouvez donc utiliser une seule moitié de la table (valeurs positives) pour répondre à toutes les questions, en combinant avec ces propriétés.
Par symétrie de la courbe (moyenne $0$), on sait que $$P(X \leq 0) = 0,5000$$ pour obtenir la probabilité entre 0 et 2, on fait la différence :
$$ P(0 \leq X \leq 2) = P(X \leq 2) - P(X \leq 0) $$
$$ P(0 \leq X \leq 2) = 0,9772 - 0,5000 = 0,4772 $$
Cette valeur correspond à l’aire bleue visible sur le graphique ci-dessus
Si $X$ suit la loi normale de moyenne $\mu$ et d’écart-type $\sigma$, alors :
Exemple 1
Soit $X \hookrightarrow \mathcal{N}(20; 5)$. Déterminer la probabilité suivante :
$$ P(15 < X < 30) $$
On transforme cette probabilité en utilisant la variable centrée réduite $Z$ :
$$ Z = \dfrac{X - \mu}{\sigma} = \dfrac{X - 20}{5} $$
On a donc :
D’après la table :
Donc :
$$ P(15 < X < 30) = \pi(2) - \pi(-1) = 0,9772 - 0,1587 = 0,8185 $$
Il y a environ 81,85 % de chances que $X$ soit compris entre 15 et 30.
Exemple 2
Soit $X \hookrightarrow \mathcal{N}(24; 6,5)$. Déterminer :
$$ P(X > 27) $$
On calcule $\dfrac{27 - 24}{6,5} = 0,4615 \approx 0,46$
D’après la table, $\pi(0,46) \approx 0,6772$
Alors :
$$ P(X > 27) = 1 - \pi(0,46) = 1 - 0,6772 = 0,3228 $$
Il y a environ 32,28 % de chances que $X$ soit supérieur à 27.