Section : Variables aléatoires
Précédent : Variables aléatoires discrètes
Suivant : Fonction de répartition

Variables aléatoires continues.

Définition 3.6   Soit $ X$ une variable aléatoire à valeurs dans $ \mathbb{R}$ et $ f_X$ une densité de probabilité sur $ \mathbb{R}$. On dit que $ X$ est une variable aléatoire continue de densité $ f_X$ si pour tout intervalle $ A$ de $ \mathbb{R}$ on a :

$\displaystyle P[X\in A] = \int_A f_X(x)\,dx\;.
$

La loi de la variable aléatoire $ X$ est la loi continue sur $ \mathbb{R}$, de densité $ f_X$.

Pour déterminer la loi d'une variable aléatoire continue, il faut donc calculer sa densité. De manière équivalente, on détermine la loi d'une variable continue en donnant la probabilité qu'elle appartienne à un intervalle $ I$ quelconque. C'est ce que nous avions fait pour notre exemple de base, l'appel de Random, qui est une variable aléatoire continue, de densité 1$ _{[0,1]}(x)$.

Une variable aléatoire continue $ X$, de densité $ f_X$, tombe entre $ a$ et $ b$ avec une probabilité égale à :

$\displaystyle P[a<X < b]=\int_{a}^b\,f_X(x)\,dx\;.
$

Plus la densité $ f_X$ est élevée au-dessus d'un segment, plus les chances que $ X$ a d'atteindre ce segment sont élevées, ce qui justifie le terme " densité".

Comme nous l'avons déjà observé pour Random , la probabilité pour une variable aléatoire continue, de tomber sur un point quelconque est nulle.

$\displaystyle P[X=a] = \int_{\{a\}} f_X(x)\,dx = 0\;.
$

Par conséquent :

$\displaystyle P[\,X\in [a,b]\,]
=P[\,X\in [a,b[\,]=P[\,X\in ]a,b]\,]
=P[\,X\in ]a,b[\,]
\;.
$

Notons aussi que modifier une densité en un nombre fini ou dénombrable de points ne change pas la valeur des intégrales sur des segments, ni par conséquent la loi de probabilité continue correspondante. La valeur de la densité en un point particulier importe peu. Par exemple Random a pour densité aussi bien 1$ _{[0,1]}(x)$ que 1$ _{]0,1[}(x)$.


Comme dans le cas discret quelques exemples de base sont à connaître.


Loi uniforme. La loi uniforme sur un intervalle est la loi des "tirages au hasard" dans cet intervalle. Si $ a<b$ sont deux réels, la loi uniforme sur l'intervalle $ [a,b]$ est notée $ {\cal U}(a,b)$. Elle a pour densité  :

$\displaystyle \frac{1}{b-a}$1$\displaystyle _{[a,b]}(x)\;.
$

Random est une variable aléatoire de loi uniforme $ {\cal U}(0,1)$.


Loi exponentielle. Les lois exponentielles modélisent des durées aléatoires, comme des durées de vie de particules en physique. La loi exponentielle de paramètre $ \lambda>0$ est notée $ {\cal E}(\lambda )$. Elle a pour densité  :

$\displaystyle \lambda e^{-\lambda x}$1$\displaystyle _{\mathbb{R}^+}(x)\;.
$


Loi normale. La loi normale, loi de Gauss, ou de Laplace-Gauss, est la plus célèbre des lois de probabilité. Son succès, et son omniprésence dans les sciences de la vie, viennent du théorème central limite que nous étudierons plus loin. La loi normale de paramètres $ \mu\in \mathbb{R}$ et $ \sigma^2\in\mathbb{R}^+$ est notée $ {\cal N}(m,\sigma^2)$. Elle a pour densité  :

$\displaystyle \frac{1}{\sigma \sqrt{2\pi }}e^{-\frac{(x-m)^2}{2\sigma^2}}\;.
$


Les lois exponentielles et normales sont au centre des familles de lois classiques, qui sont les plus fréquemment rencontrées en statistiques.


Loi de Weibull. La loi de Weibull de paramètres $ a>0$ et $ \lambda>0$, notée $ {\cal W}(a,\lambda)$ a pour densité  :

$\displaystyle a\lambda x^{a-1} e^{-\lambda x^a}\,$1$\displaystyle _{\mathbb{R}^{+*}}(x)\;.
$

On l'utilise comme modèle pour des durées aléatoires, principalement en fiabilité (fonctionnement sans panne, réparations). La loi $ {\cal W}(1,\lambda)$ est la loi exponentielle $ {\cal E}(\lambda )$.


Loi gamma. La loi gamma de paramètres $ a>0$ et $ \lambda>0$, notée $ G(a,\lambda)$ a pour densité  :

$\displaystyle \frac{\lambda^a}{\Gamma(a)}x^{a-1} e^{-\lambda x}
\,$1$\displaystyle _{\mathbb{R}^{+*}}(x)\;,
$

$ \Gamma(a) = \int_0^{+\infty} e^{-x} x^{a-1}\,dx$ est la "fonction gamma".

Pour $ n$ entier, $ a=n/2$ et $ \lambda=1/2$, la loi $ G(n/2,1/2)$ est appelée loi de chi-deux à $ n$ degrés de liberté, et notée $ {\cal X}^2(n)$. C'est la loi de la somme des carrés de $ n$ variables aléatoires indépendantes de loi $ {\cal N}(0,1)$. On l'utilise pour les variances empiriques d'échantillons gaussiens. La loi $ G(1,\lambda)$ est la loi exponentielle $ {\cal E}(\lambda )$.


Loi béta. La loi béta de paramètres $ a>0$ et $ b>0$, notée $ {\cal B}(a,b)$ a pour densité :

$\displaystyle \frac{\Gamma(a+b)}{Gamma(a)\Gamma(b)}x^{a-1}(1-x)^{b-1}\,$1$\displaystyle _{]0,1[}(x)\;.
$

Cette famille fournit des modèles non uniformes pour des variables aléatoires bornées. Si des variables aléatoires indépendantes suivent la loi uniforme $ {\cal U}(0,1)$, leurs statistiques d'ordre (valeurs réordonnées) suivent des lois béta.


Loi log-normale. La loi log-normale $ {\cal LN}(\mu,\sigma^2)$ est la loi d'une variable aléatoire à valeurs positives, dont le logarithme suit la loi $ {\cal N}(\mu,\sigma^2)$. Elle a pour densité  :

$\displaystyle \frac{1}{x\sigma\sqrt{2\pi}} e^{-\frac{(\log(x)-\mu)^2}{2\sigma^2}}
\,$1$\displaystyle _{\mathbb{R}^{+*}}(x)\;.
$

En médecine, de nombreux paramètres physiologiques sont modélisés en utilisant des lois log-normales.


Loi de Student. La loi de Student à $ n$ degrés de liberté, $ {\cal T}(n)$ est la loi du rapport $ X/(\sqrt{Y/n})$, où les variables aléatoires $ X$ et $ Y$ sont indépendantes , $ X$ de loi $ {\cal N}(0,1)$, $ Y$ de loi $ {\cal X}^2(n)$. Elle a pour densité  :

$\displaystyle \frac{\Gamma\left(\frac{n+1}{2}\right)}{\sqrt{n\pi}
\Gamma\left(\frac{n}{2}\right)} \Big(1+\frac{x^2}{n}\Big)^{-\frac{n+1}{2}}\;.
$

On l'utilise pour étudier la moyenne empirique d'un échantillon gaussien.


Loi de Fisher. La loi de Fisher de paramètres $ n$ et $ m$ (entiers positifs), est la loi du rapport $ (X/n)/(Y/m)$, où $ X$ et $ Y$ sont deux variables aléatoires indépendantes, de lois respectives $ {\cal X}^2(n)$ et $ {\cal X}^2(m)$. Elle a pour densité  :

$\displaystyle n^{\frac{n}{2}} m^{\frac{m}{2}} \frac{\Gamma\left(\frac{n+m}{2}\r...
...x)^{-\frac{n+m}{2}}\,\mbox{\Large 1\hskip -0.353em 1}_{\mathbb{R}^{+*}}(x)\;.
$

On l'utilise pour comparer des variances d'échantillons gaussiens.



Section : Variables aléatoires
Précédent : Variables aléatoires discrètes
Suivant : Fonction de répartition