Soit $\Omega$ un univers, toute fonction $X$ définie sur $\Omega$ et à valeur dans $\mathbb{R}$, est appelée une variable aléatoire.
$X:\Omega\longmapsto\mathbb{R}$.
Soit $X$ une variable aléatoire définie sur l'univers $\Omega$, Notons $I$ l'ensemble des valeurs de $X$, $I=\{x_1;x_2;...;x_m\}$.
Considérons l'événement "\textbf{X prend la valeur} $x_i$", que l'on note $(X=x_i)$.
A chaque événement $(X=x_i)$ on associe le nombre $p(X=x_i)$, c'est à dire la probabilité que $X$ prenne la valeur $x_i$.
La loi de probabilité de $X$ est la suite des nombres:
$\mathcal{L}_X=\bigg\{p(X=x_1);p(X=x_2);...,p(X=x_m)\bigg\}$.
Définitions.
Soit $X$ une variable aléatoire définie sur l'univers $\Omega$ et $a$ un nombre réel.
On peut définir une variable aléatoire $Y$ telle que pour tout élément $\omega\in\Omega$, $Y(\omega)=a\times X(\omega)$. On note $Y=aX$.
Soient $X$ et $Y$ deux variables aléatoires définies sur un même univers $\Omega$.
On peut définir une variable aléatoire $Z$ sur $\Omega$ telle que, pour tout élément $\omega\in\Omega$, $Z(\omega)=X(\omega)+Y(\omega)$.
Cette variable aléatoire est appelée somme des variables aléatoires X et Y. On note Z=X+Y.
Définitions.
Soit $X$ une variable aléatoire définie sur un univers $\Omega$.
L'espérance Mathématique de $X$ est le nombre réel, noté $E(X)$ et
$E(X)=x_1\times p(X=x_1)+x_2\times P(X=x_2)+...+x_n\times p(X=x_n)$.
La variance de $X$ est le nombre réel, noté $V(X)$ et
$V(X)=(x_1-E(X))^2\times p(X=x_1)+(x_2-E(X))^2\times p(X=x_2)+...+(x_m-E(X))^2\times p(X=x_n)$.
L'écart type de $X$ est le nombre réel, noté $\sigma(X)$ et
$\sigma(X)=\sqrt{V(X)}$.
Proposition.
$V(X)=\Sigma_{i=1}^{i=n}p_ix_i^2-E(X)^2$.
On peut aussi noter cela, $V(X)=E(X^2)-(E(X))^2$.
$V(X)=(x_1-E(X))^2\times p(X=x_1)+(x_2-E(X))^2\times p(X=x_2)+...+(x_m-E(X))^2\times p(X=x_m)$
$=\sum_{j=1}^{n} (x_j-E(X))^2\times P(X=x_j)$ $=\sum_{j=1}^{n} (x_j^2-2x_jE(X)+E(X)^2)\times P(X=x_j)$
$=\sum_{j=1}^{n} (x_j^2-2x_jE(X)+E(X)^2)\times P(X=x_j)$
$=\sum_{j=1}^{n} x_j^2\times P(X=x_j)-2E(X)\times\bigg(\sum_{j=1}^{n} x_j\times P(X=x_j)\bigg)+E(X)^2\times\bigg(\sum_{j=1}^{n} P(X=x_j)\bigg)$. Or on sait que, $\sum_{j=1}^{n} P(X=x_j)=1$, donc nous avons:
$V(X)=\sum_{j=1}^{n} x_j^2\times P(X=x_j)-2E(X)\times E(X)+E(X)^2$ $=\sum_{j=1}^{n} x_j^2\times P(X=x_j)-E(X)^2$.
Le nombre $\sum_{j=1}^{n} x_j^2\times P(X=x_j)$ représente l'espérance mathématiques de la variables aléatoires $X^2$.
Nous pouvons donc écrire $\sum_{j=1}^{n} x_j^2\times P(X=x_j)=E(X^2)$. donc nous avons $V(X)=E(X^2)-(E(X))^2$.
Espérance et variance d'une somme de variables aléatoires.
Proposition.
Soient $X$ et $Y$ deux variables aléatoires définie sur le même univers $\Omega$, alors:
$E(X+Y)=E(X)+E(Y)$.
Soient $X$ et $Y$ deux variables aléatoires définie sur le même univers $\Omega=\bigg\{\omega_1;\omega_2;...;\omega_n\bigg\}$.
Soit la variable aléatoire $Z=X+Y$.
$E(X+Y)=E(Z)=\sum_{j=1}^n Z(\omega_j)\times P(\omega_j)$ $=\sum_{j=1}^n [X(\omega_j)+Y(\omega_j)]\times P(\omega_j)$
$=\sum_{j=1}^n X(\omega_j)\times P(\omega_j)+\sum_{j=1}^n Y(\omega_j)\times P(\omega_j)$
$=E(X)+E(Y)$.
Proposition.
Soient $X$ et $Y$ deux variables aléatoires définie sur un même univers $\Omega$ et $a$ un nombre réel, alors:
$E(aX)=aE(X)~~~~et~~~~E(aX+bY)=aE(X)+bE(Y)$.
Soit $X$ une variable aléatoire sur un univers $\Omega$, pour tout $a\in\mathbb{R}$ on a:
$V(aX)=a^2V(X)$.
Notons $x_1$;...;$x_n$, les valeurs prises par la variables aléatoire $X$, alors $aX$ prend les valeurs $ax_1$; $ax_2$;...; $ax_n$.
Nous avons $E(aX)=\sum_{j=1}^n (ax_j)\times P(aX=ax_j)$.
Or $aX=ax_i$ $\Leftrightarrow$ $X=x_i$ pour tout $i\in\{1;...;n\}$, donc nous avons $P(aX=ax_j)=P(X=x_j)$.
Donc nous avons $E(aX)=\sum_{j=1}^n (ax_j)\times P(aX=ax_j)$ $=a\times\bigg(\sum_{j=1}^n x_j\times P(X=x_j)\bigg)$ $=a\times E(X)$.
$E(aX+bY)=E(aX)+E(bY)=aE(X)+bE(Y)$.
Notons $x_1$;...;$x_n$, les valeurs prises par la variables aléatoire $X$, alors $aX$ prend les valeurs $ax_1$; $ax_2$;...; $ax_n$ et nous savons que
$P(aX=ax_j)=P(X=x_j)$.
$V(aX)=\sum_{j=1}^n (ax_j-E(aX))^2\times p(aX=ax_j)$ $=\sum_{j=1}^n [a(x_j-E(X))]^2\times p(X=x_j)$ $=\sum_{j=1}^n a^2(x_j-E(X))^2\times p(X=x_j)$
$=a^2\times\bigg(\sum_{j=1}^n (x_j-E(X))^2\times p(X=x_j)\bigg)$ $=a^2V(X)$.
Variances d'une somme de variables aléatoires indépendantes.
Définition.
Soient $X_1$, $X_2$,..., $X_n$, $n$ variables aléatoires à valeurs respectivement dans $E_1$, $E_2$,..., $E_n$.
On dit que $X_1$, $X_2$,..., $X_n$ sont indépendants lorsque, pour tous $x\in E_1$, $x\in E_2$,..., $x\in E_n$ nous avons:
$P\bigg((X_1=x_1)\cap (X_2=x_2)\cap...\cap(X_n=x_n)\bigg)$ $=P(X_1=x_1)\times P(X_2=x_2)\times...\times P(X_n=x_n).$
Propriété.
Soient $X$ et $Y$ deux variables aléatoires définie sur $\Omega$, alors:
$V(X+Y)=V(X)+V(Y)+2[E(XY)-E(X)E(Y)]$.
Soient $X$ et $Y$ deux variables aléatoires indépendantes définie sur $\Omega$, alors:
$V(X+Y)=V(X)+V(Y)$.
Montrons que Si $X$ et $Y$ sont deux variables indépendantes on a : $E(XY)=E(X)E(Y)$.
Voir sur le livre scolaire exercice 76 p 404.
Applications à la loi binomiale.
Proposition (Admise).
Toute variable aléatoire suivant une loi binomiale peut s'écrire comme une somme de variables aléatoires de Bernouilli indépendantes et identiquement distribuées.
Proposition.
Si la variable $X$ suit la loi binomiale de paramètres de $n$ et $p$, alors:
$E(X)=np$.
$V(X)=np(1-p)$.
$\sigma(X)=\sqrt{np(1-p)}$.
Soit $X$ une variable aléatoire suivant la loi binomiale de paramètres $n$ et $p$.
Alors, il existe $n$ variables aléatoires de Bernouilli de paramètre $p$ telles que: $X=X_1+...+X_n$.
Ainsi pour tout $k\in\{1;...;n\}$, on a $E(X_k)=p$ et $V(X_k)=p(1-p)$, or $E(X)=E(X_1+...+X_n)$ $=E(X_1)+...+E(X_n)$ $=n\times p$.
Les variables aléatoires $X_1$;...;$X_n$ sont indépendants, donc nous savons que:
$V(X)=V(X_1+...+X_n)$ $=V(X_1)+...+V(X_n)$ $=n\times p(1-p)$.
$\sigma(X)=\sqrt{V(X)}$ $=\sqrt{np(1-p)}$.
Echantillon de $n$ variables aléatoires identiques et indépendantes.
Considérons un entier naturel $n\leq 1$ et $X_1$;...;$X_n$, $n$ variables aléatoires définies sur $\Omega$ supposées indépendantes et identiquement distribuées.
On note $S_n=X_1+X_2+...+X_n$ la somme de ces $n$ variables aléatoires et $M_n=\dfrac{X_1+...+X_n}{n}$, la moyenne de ces $n$ variables aléatoires.
Proposition.
Pour tout $k\in\{1;...;n\}$, nous avons:
$E(S_n)=nE(X_k)$.
$V(S_n)=n\times V(X_k)$ et $\sigma(S_n)=\sqrt{n}\times\sigma(X_k)$.
Nous avons $E(S_n)=E(X_1+X_2+...+X_n)$ $=E(X_1)+E(X_2)+...+E(X_n)$. Or les variables $X_k$ pour tout $k\in\{1;...;n\}$ sont dentiquement distribuées.
Donc les variables $X_k$ ont la même espérance.
Nous avons, pour tout $k\in\{1;...;n\}$, $E(S_n)=nE(X_k)$.
Nous savons de plus que les variables $X_1$;...;$X_n$ sont indépendantes.
Donc, $V(S_n)=V(X_1$;...;$X_n)$ $=V(X_1)+...+V(X_n)$. Or les variables $X_k$ pour tout $k\in\{1;...;n\}$ sont dentiquement distribuées.
Donc les variables $X_k$ ont la même variance.
Nous avons, pour tout $k\in\{1;...;n\}$, $V(S_n)=nV(X_k)$.
$V(M_n)=\dfrac{V(X_k)}{n}$ et $\sigma(M_n)=\dfrac{\sigma(X_k)}{\sqrt{n}}$.
$E(M_n)=E\bigg(\dfrac{X_1+...+X_n}{n}\bigg)$ $=\dfrac{E(X_1+X_2+...+X_n)}{n}=\dfrac{E(S_n)}{n}$ $=\dfrac{n\times E(X_k)}{n}=E(X_k)$ $~~~~$ pour tout $k\in\{1;...;n\}$.
$V(M_n)=V\bigg(\dfrac{X_1+...+X_n}{n}\bigg)$ $=\dfrac{V(S_n)}{n^2}$ $=\dfrac{n\times V(X_k)}{n^2}$ $=\dfrac{V(X_k)}{n}$ $~~~~$ pour tout $k\in\{1;...;n\}$.
$\sigma(M_n)=\sqrt{M_n)}$ $=\sqrt{\dfrac{V(X_k)}{n}}=\dfrac{\sqrt{V(X_k)}}{\sqrt{n}}$ $=\dfrac{\sigma(X_k)}{\sqrt{n}}$ $~~~~$ pour tout $k\in\{1;...;n\}$.