\( %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Mes commandes %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \newcommand{\multirows}[3]{\multirow{#1}{#2}{$#3$}}%pour rester en mode math \renewcommand{\arraystretch}{1.3}%pour augmenter la taille des case \newcommand{\point}[1]{\marginnote{\small\vspace*{-1em} #1}}%pour indiquer les points ou le temps \newcommand{\dpl}[1]{\displaystyle{#1}}%megamode \newcommand{\A}{\mathscr{A}} \newcommand{\LN}{\mathscr{N}} \newcommand{\LL}{\mathscr{L}} \newcommand{\K}{\mathbb{K}} \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\M}{\mathcal{M}} \newcommand{\D}{\mathbb{D}} \newcommand{\E}{\mathcal{E}} \renewcommand{\P}{\mathcal{P}} \newcommand{\G}{\mathcal{G}} \newcommand{\Kk}{\mathcal{K}} \newcommand{\Cc}{\mathcal{C}} \newcommand{\Zz}{\mathcal{Z}} \newcommand{\Ss}{\mathcal{S}} \newcommand{\B}{\mathbb{B}} \newcommand{\inde}{\bot\!\!\!\bot} \newcommand{\Proba}{\mathbb{P}} \newcommand{\Esp}[1]{\dpl{\mathbb{E}\left(#1\right)}} \newcommand{\Var}[1]{\dpl{\mathbb{V}\left(#1\right)}} \newcommand{\Cov}[1]{\dpl{Cov\left(#1\right)}} \newcommand{\base}{\mathcal{B}} \newcommand{\Som}{\textbf{Som}} \newcommand{\Chain}{\textbf{Chain}} \newcommand{\Ar}{\textbf{Ar}} \newcommand{\Arc}{\textbf{Arc}} \newcommand{\Min}{\text{Min}} \newcommand{\Max}{\text{Max}} \newcommand{\Ker}{\text{Ker}} \renewcommand{\Im}{\text{Im}} \newcommand{\Sup}{\text{Sup}} \newcommand{\Inf}{\text{Inf}} \renewcommand{\det}{\texttt{det}} \newcommand{\GL}{\text{GL}} \newcommand{\crossmark}{\text{\ding{55}}} \renewcommand{\checkmark}{\text{\ding{51}}} \newcommand{\Card}{\sharp} \newcommand{\Surligne}[2]{\text{\colorbox{#1}{ #2 }}} \newcommand{\SurligneMM}[2]{\text{\colorbox{#1}{ #2 }}} \newcommand{\norm}[1]{\left\lVert#1\right\rVert} \renewcommand{\lim}[1]{\underset{#1}{lim}\,} \newcommand{\nonor}[1]{\left|#1\right|} \newcommand{\Un}{1\!\!1} \newcommand{\sepon}{\setlength{\columnseprule}{0.5pt}} \newcommand{\sepoff}{\setlength{\columnseprule}{0pt}} \newcommand{\flux}{Flux} \newcommand{\Cpp}{\texttt{C++\ }} \newcommand{\Python}{\texttt{Python\ }} %\newcommand{\comb}[2]{\begin{pmatrix} #1\\ #2\end{pmatrix}} \newcommand{\comb}[2]{C_{#1}^{#2}} \newcommand{\arrang}[2]{A_{#1}^{#2}} \newcommand{\supp}[1]{Supp\left(#1\right)} \newcommand{\BB}{\mathcal{B}} \newcommand{\arc}[1]{\overset{\rotatebox{90}{)}}{#1}} \newcommand{\modpi}{\equiv_{2\pi}} \renewcommand{\Re}{Re} \renewcommand{\Im}{Im} \renewcommand{\bar}[1]{\overline{#1}} \newcommand{\mat}{\mathcal{M}} \newcommand{\und}[1]{{\mathbf{\color{red}\underline{#1}}}} \newcommand{\rdots}{\text{\reflectbox{$\ddots$}}} \newcommand{\Compa}{Compa} \newcommand{\dint}{\dpl{\int}} \newcommand{\intEFF}[2]{\left[\!\left[#1 ; #2\right]\!\right]} \newcommand{\intEFO}[2]{\left[\!\left[#1 ; #2\right[\!\right[} \newcommand{\intEOF}[2]{\left]\!\left]#1 ; #2\right]\!\right]} \newcommand{\intEOO}[2]{\left]\!\left]#1 ; #2\right[\!\right[} \newcommand{\ou}{\vee} \newcommand{\et}{\wedge} \newcommand{\non}{\neg} \newcommand{\implique}{\Rightarrow} \newcommand{\equivalent}{\Leftrightarrow} \newcommand{\Ab}{\overline{A}} \newcommand{\Bb}{\overline{B}} \newcommand{\Cb}{\overline{C}} \newcommand{\Cl}{\texttt{Cl}} \newcommand{\ab}{\overline{a}} \newcommand{\bb}{\overline{b}} \newcommand{\cb}{\overline{c}} \newcommand{\Rel}{\mathcal{R}} \newcommand{\superepsilon}{\varepsilon\!\!\varepsilon} \newcommand{\supere}{e\!\!e} \makeatletter \newenvironment{console}{\noindent\color{white}\begin{lrbox}{\@tempboxa}\begin{minipage}{\columnwidth} \ttfamily \bfseries\vspace*{0.5cm}} {\vspace*{0.5cm}\end{minipage}\end{lrbox}\colorbox{black}{\usebox{\@tempboxa}} } \makeatother \def\ie{\textit{i.e. }} \def\cf{\textit{c.f. }} \def\vide{ { $ {\text{ }} $ } } %Commande pour les vecteurs \newcommand{\grad}{\overrightarrow{Grad}} \newcommand{\Vv}{\overrightarrow{v}} \newcommand{\Vu}{\overrightarrow{u}} \newcommand{\Vw}{\overrightarrow{w}} \newcommand{\Vup}{\overrightarrow{u'}} \newcommand{\Zero}{\overrightarrow{0}} \newcommand{\Vx}{\overrightarrow{x}} \newcommand{\Vy}{\overrightarrow{y}} \newcommand{\Vz}{\overrightarrow{z}} \newcommand{\Vt}{\overrightarrow{t}} \newcommand{\Va}{\overrightarrow{a}} \newcommand{\Vb}{\overrightarrow{b}} \newcommand{\Vc}{\overrightarrow{c}} \newcommand{\Vd}{\overrightarrow{d}} \newcommand{\Ve}[1]{\overrightarrow{e_{#1}}} \newcommand{\Vf}[1]{\overrightarrow{f_{#1}}} \newcommand{\Vn}{\overrightarrow{0}} \newcommand{\Mat}{Mat} \newcommand{\Pass}{Pass} \newcommand{\mkF}{\mathfrak{F}} \renewcommand{\sp}{Sp} \newcommand{\Co}{Co} \newcommand{\vect}[1]{\texttt{Vect}\dpl{\left( #1\right)}} \newcommand{\prodscal}[2]{\dpl{\left\langle #1\left|\vphantom{#1 #2}\right. #2\right\rangle}} \newcommand{\trans}[1]{{\vphantom{#1}}^{t}{#1}} \newcommand{\ortho}[1]{{#1}^{\bot}} \newcommand{\oplusbot}{\overset{\bot}{\oplus}} \SelectTips{cm}{12}%Change le bout des flèches dans un xymatrix \newcommand{\pourDES}[8]{ \begin{itemize} \item Pour la ligne : le premier et dernier caractère forment $#1#2$ soit $#4$ en base 10. \item Pour la colonne : les autres caractères du bloc forment $#3$ soit $#5$ en base 10. \item A l'intersection de la ligne $#4+1$ et de la colonne $#5+1$ de $S_{#8}$ se trouve l'entier $#6$ qui, codé sur $4$ bits, est \textbf{\texttt{$#7$}}. \end{itemize} } \)

Variables aléatoires discrètes

Variables aléatoires

Nous commençons ce nouveau chapitre avec la définition ce ce qu'est une variable aléatoire. En préambule de cette définition, rappelons-nous les quelques mots marquant l'entrée des enfer de Dante : "vous qui entrez ici, abandonner tout espoir".

Définition


Soit \( \Omega\) l'univers des possibilités d'une expérience aléatoire. Une variable aléatoire réelle sur \( \Omega\) est la donnée d'une fonction \( X:\Omega\to \R\) .
Voila ! Comment ça va vous ? Alors oui ça pique. Comme nous l'avons légèrement survolé dans l'introduction du chapitre sur les probabilités, les concepts théoriques de cette branche des mathématiques que sont les probabilités sont très lourd mais très puissants. La définition de variable aléatoire présentée ici est aussi une de ces lourdeurs. Dans la pratique on n'utilise jamais (oh grand jamais) un tel concept fonctionnelle. On se rappel une formulation beaucoup plus simple de variable aléatoire : c'est une autre manière de regarder l'univers. C'est ce qu'est une fonction dans le fond ! Une fonction transforme l'espace de départ en l'espace d'arrivé. C'est ce que fait une variable aléatoire : comprendre, interpréter une expérience aléatoire d'une autre manière. Prenons un exemple fameux : on lance deux dès non truqués. Alors l'univers des possibilités de cet expérience est l'ensemble des couples avec les nombres entiers de \( 1\) à \( 6\) que l'on peut énumérer : \[ \begin{array}{*{6}{c}} 11&12&13&14&15&16\\ 21&22&23&24&25&26\\ 31&32&33&34&35&36\\ 41&42&43&44&45&46\\ 51&52&53&54&55&56\\ 61&62&63&64&65&66 \end{array} \] On va considérer la variable aléatoire \( X(a, b)=a+b\) ... oups pardon, j'ai dit qu'on n'utilise presque jamais la considération fonctionnelle des variables aléatoires. On considère donc la variable aléatoire où l'on fait la somme des valeurs obtenue par les dés. Voila c'est tout. C'est pas plus compliqué : on ne regarde pas le résultat de l'expérience aléatoire en tant que tel mais modifié par une considération plus intéressante. On mélange ensuite ce concept aux calculs des probabilités classiques en se demandant par exemple quel est la probabilité d'obtenir \( 3\) à cette somme dont la formulation devient maintenant : que vaut \( P(X=3)\) ? Allez, faisons nous peur encore une fois.

Définition


Soit \( X\) une variable aléatoire réelle sur un univers de possibilités \( \Omega\) d'une expérience aléatoire. Pour \( x\in \R\) , on pose \[P(X=x)=P\left(\left\{\omega\in\Omega | X(\omega)=x\right\}\right)\]
Bon pour être honnête cette définition n'est donnée que pour vos faire peur ! Oubliez là immédiatement (à moins que...). Retenons simplement que déterminer \( P(X=x)\) reviens à déterminer quelles sont les évènements de \( \Omega\) qui amène à \( x\) . Dans notre exemple, quelles sont les les évènements de \( \Omega\) dont la sommes fait \( 3\) . Un bref raisonnement nous permet de voir que deux cas sont favorables à un tel résultat \( 12\) et \( 21\) . Deux cas favorables sur \( 36\) cas possible, on en déduit que \( P(X=3)=\dfrac{2}{36}\) . Toujours avec le même exemple que vaut \( P(X=1)\) ? Deux dès sont lancés, et donne au moins 1 chacun donc la somme est au moins 2. La c'est facile : \( P(X=1)=0\) (cela n'arrive jamais). De la même manière \( P(X=-1)=0\) , \( P(X=ln(2))=0\) etc... Toutes les valeurs réelles ne sont pas intéressantes à étudier pour \( X\) . Bim définition !

Définition


Soit \( X\) une variable aléatoire réelle sur un univers de possibilités \( \Omega\) d'une expérience aléatoire. On défini le support de \( X\) comme l'ensemble des valeurs de probabilité non nulle. On le note \( \supp{X}\) : \[\supp{X}=\left\{x\in\R\ \Big|\ P(X=x)\neq0\right\}\]
Dans notre exemple on trouve que \( \supp{X}=\{2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12\}\) .

Définition


La loi d'une variable aléatoire réelle \( X\) est la donnée de \( P(X=x)\) pour tout \( x\in \supp{X}\) .
Dans la pratique, quand le support n'est pas trop grand, on synthétise la loi dans un tableau : \[ \begin{array}{r|*{11}{|c}} x&2&3&4&5&6&7&8&9&10&11&12\\\hline P(X=x)&\dfrac{1}{36}&\dfrac{2}{36}&\dfrac{3}{36}&\dfrac{4}{36}&\dfrac{5}{36}&\dfrac{6}{36}&\dfrac{5}{36}&\dfrac{4}{36}&\dfrac{3}{36}&\dfrac{2}{36}&\dfrac{1}{36} \end{array} \] Comme nous pouvons l'observer dans l'exemple précédent la somme des probabilités fait toujours 1.

Proposition


\[\sum_{x\in\supp{X}}P(X=x)=1\]

Espérance

La notion d'espérance correspond, dans le cadre déterministe des statistiques, à la notion de moyenne.

Définition


Soit \( X\) une variable aléatoire réelle. On note \( E(X)\) l'espérance de la variable \( X\) , défini par \[E(X)=\sum_{x\in \supp{X}}xP(X=x)\]
L'espérance de \( X\) représente la valeur moyenne de \( X\) . Dans notre exemple de lancé de deux dé, l'espérance représente la moyenne des résultat possible. Voici les résultats de \( 200\) lancés (de la somme) que nous analysons comme une donnée statistique discrète : \[\begin{array}{*{25}{c}} 8& 2& 7& 7& 9& 9& 7& 9& 9& 9& 7& 8& 7& 11& 8& 12& 8& 6& 2& 7& 6& 10& 12& 8& 8 \\ 6& 4& 10& 7& 10& 7& 7& 6& 6& 7& 5& 6& 8& 11& 8& 7& 12& 3& 9& 6& 10& 9& 10& 5& 3 \\ 7& 9& 9& 3& 8& 7& 4& 8& 7& 5& 4& 5& 11& 6& 12& 7& 6& 11& 9& 7& 8& 6& 8& 7& 5 \\ 9& 7& 8& 9& 7& 11& 3& 11& 9& 2& 2& 10& 9& 2& 8& 6& 4& 7& 7& 2& 6& 8& 6& 8& 5 \\ 3& 3& 6& 4& 9& 7& 11& 8& 3& 7& 6& 3& 3& 11& 4& 10& 2& 8& 10& 11& 8& 5& 7& 9& 8 \\ 7& 9& 3& 11& 6& 7& 10& 7& 5& 6& 5& 5& 3& 8& 7& 9& 5& 7& 9& 6& 2& 11& 7& 6& 11 \\ 8& 6& 4& 4& 12& 6& 5& 7& 5& 6& 7& 11& 4& 8& 7& 8& 9& 7& 7& 8& 10& 4& 8& 3& 6 \\ 7& 7& 5& 3& 6& 11& 6& 3& 2& 6& 4& 11& 5& 6& 5& 7& 5& 8& 6& 7& 10& 10& 5& 5& 9 \\ \end{array}\] La valeur moyenne de cette série statistique est \( \dfrac{ 1390 }{ 200 }\simeq 6.95 \) . Déterminons la moyenne du coté probabiliste, c'est à dire l'espérance : \[ E(X)=2\times\dfrac{1}{36}+3\times\dfrac{2}{36}+4\times\dfrac{3}{36}+5\times\dfrac{4}{36}+6\times\dfrac{5}{36}+7\times\dfrac{6}{36}+8\times\dfrac{5}{36}+9\times\dfrac{4}{36}+10\times\dfrac{3}{36}+11\times\dfrac{2}{36}+12\times\dfrac{1}{36} = 7 \]

Variance et écart-type

La variance et l'écart-type en statistique ont elles aussi leurs équivalents dans l'univers non déterministe des probabilités.

Définition


La variance d'une variable aléatoire \( X\) , notée \( V(X)\) est défini par \[V(X)=E\left((X-E(X))^2\right)\] L'écart-type \( \sigma(X)\) est la racine carré de la variance. \[\sigma(X)=\sqrt{V(X)}\]
L'écart-type estime l'écart probable entre une possibilité et la moyenne. Reprenons les valeurs simulées au paragraphe précédent et déterminons la variance statistique de ce jeu de donnée. Un calcul passionnant donne que la variance est \( \dfrac{ 1235.5 }{ 200 }\simeq 6.1775 \) et donc l'écart-type vaut approximativement \( 2.5 \) . Nous avions trouvé une moyenne de \( 6.95\) que nous pouvons arrondir à \( 7\) . Alors il faut comprendre que la plupart des résultats de cette expérience aléatoire sont autour de \( 7\) à plus ou moins \( 2.5\) prés. En effet si on représente les données dans un diagramme en bâtons nous observons bien que plus de \( 60\%\) des simulations sont entre \( 4.5\) et \( 9.5\) . Les autres évènements ne sont pas improbables mais plus rare.
Dans la pratique on utilise la formule suivante pour calculer la variance.

Proposition [Formule de Köning-Huygens]


\[V(X)=E(X^2)-E(X)^2\]

Démonstration

\begin{eqnarray*} V(X) &=& E\left((X-E(X))^2\right)\\ &=& \sum_{x\in\supp{X}}(x-E(X))^2P(X=x)\\ &=& \sum_{x\in\supp{X}}(x^2-2xE(X)+E(X)^2)P(X=x)\\ &=& \sum_{x\in\supp{X}}x^2P(X=X)-\sum_{x\in\supp{X}}2xE(X)P(X=x)+\sum_{x\in\supp{X}}E(X)^2P(X=x)\\ &=& \sum_{x\in\supp{X}}x^2P(X=X)-2E(X)\sum_{x\in\supp{X}}xP(X=x)+E(X)^2\sum_{x\in\supp{X}}P(X=x)\\ &=& E(X^2)-2E(X)E(X)+E(X)^2\times 1\\ &=&E(X^2)-E(X)^2 \end{eqnarray*}
Déterminons à présent la valeur exacte et la variance et de l'écart-type de l'exemple que nous traitons. \[ E(X^2)=2^2\times\dfrac{1}{36}+3^2\times\dfrac{2}{36}+4^2\times\dfrac{3}{36}+5^2\times\dfrac{4}{36}+6^2\times\dfrac{5}{36}+7^2\times\dfrac{6}{36}+8^2\times\dfrac{5}{36}+9^2\times\dfrac{4}{36}+10^2\times\dfrac{3}{36}+11^2\times\dfrac{2}{36}+12^2\times\dfrac{1}{36} = \dfrac{329}{6} \] \[V(X)=E(X^2)-E(X)^2=\dfrac{329}{6}-49=\dfrac{35}{6}\] \[\sigma(X)=\sqrt{\dfrac{35}{6}}\simeq 2.4152294577 \]

Loi de Bernoulli

Définition


Soit \( p\in[0 ; 1]\) . On dira qu'une variable aléatoire réelle \( X\) suit une loi de Bernoulli, notée \[X\sim \BB(p)\] si le support de \( X\) est composée de deux valeurs, que l'on peut ramener à \( 0\) et \( 1\) tel que \( P(X=1)=p\) .
La loi de Bernoulli est appelé également la loi de succès-échec. Le paramètre \( p\) représentant la probabilité d'un succès. Puisque la somme des probabilités vaut toujours \( 1\) , on en déduit que \( P(X=0)=1-p\) . On obtient aussi facilement les caractéristiques suivantes :

Théorème


Soit \( X\sim\BB(p)\) .
  1. \( \supp{X}=\{0; 1\}\) .
  2. La loi est \( P(X=0)=1-p\) et \( P(X=1)=p\) .
  3. \( E(X)=p\) .
  4. \( V(X)=p(1-p)\) .
  5. \( \sigma(X)=\sqrt{p(1-p)}\) .
Voici un exemple. On joue au jeu suivant :
On lance un dé. Si on obtient un nombre impaire on a perdu. Si on obtient un nombre paire on relance le dé. Si, à ce second lancé, on obtient un 6 on gagne sinon on perd.
Jouer à ce jeu coûte \( 10\) €. Si on gagne, on gagne \( 100\) €. Quel est le gain moyen de ce jeu ? Nous somme dans le cas d'un succès-échec (gagner ou perdre). Déterminons la probabilité de gagner. Gagner c'est obtenir un nombre impaire au premier lancé, soit un chance sur 2, puis le 6 au second lancé soit une chance sur 6. Finalement la probabilité de gagner est \( \dfrac{1}{2}\times \dfrac{1}{6}=\dfrac{1}{12}\) et la probabilité de perdre et donc de \( \dfrac{11}{12}\) . Ainsi le nombre moyen de parti gagné est \( p=\dfrac{1}{12}\) . C'est à dire qu'on gagne \( 100\) € une fois sur 12. Pour être précis on gagne \( 90\) € car la partie à coûté \( 10\) €. Inversement \( 11\) fois sur \( 12\) on perd \( 10\) €. Si on fait la moyenne on arrive au gain moyen \( -10\times\dfrac{11}{12}+90\times\dfrac{1}{12}=-\dfrac{20}{12}=-\dfrac{5}{3}\) . En moyenne, on perd environ \( 2,33\) €. Cela signifie que si l'on joue \( 1000\) fois, parfois on va gagner, souvent on va perdre et en moyenne on va perdre \( 2.33\times 1000=2\ 330\) €. Si on reprend le même problème avec un gain de \( 150\) € en cas de victoire alors le gain moyen sera \( -10\times\dfrac{11}{12}+140\times\dfrac{1}{12}=\dfrac{30}{12}=\dfrac{5}{2}\) . Avec cette modalité, on va toujours perdre souvent mais les rare fois où l'on va gagner on va gagner suffisamment pour équilibrer notre porte feuille. Précisément si l'on joue \( 1000\) fois, on va en moyenne, gagner \( 2\ 500\) €. Dans les jeux de casino, ou les jeux à gratter de la française des jeux, cette même étude est mené pour déterminer le prix du jeu. Il est calculé de telle sorte que la banque a toujours un gain positif et donc le joueur est, en moyenne, toujours perdant !

Loi Binomiale

Définition


Soient \( n\) un entier strictement positif et \( p\in[0 ; 1]\) . On dira que \( X\) suit une loi binomiale, notée \[X\sim \BB(n,p)\] si son support se ramène aux entiers entre \( à\) et \( n\) et que pour tout \( k\in \{0, \dots, n\}\) , \[P(X=k)=\comb{n}{k}p^k(1-p)^{n-k}\]
La loi binomiale est appelée également la loi de \( n\) succès-échec.

Théorème


Soit \( X\sim\BB(n, p)\) .
  1. \( \supp{X}=\{0, 1, \dots, n\}\) .
  2. La loi est \( P(X=k)=\comb{n}{k}p^k(1-p)^{n-k}\) .
  3. \( E(X)=np\) .
  4. \( V(X)=np(1-p)\) .
  5. \( \sigma(X)=\sqrt{np(1-p)}\) .

Démonstration

Calculons l'espérance. \begin{eqnarray*} E(X) &=& \sum_{k=0}^n k P(X=k)\\ &=& \sum_{k=0}^n k \comb{n}{k}p^k(1-p)^{n-k}\\ &=& \sum_{k=0}^n k \dfrac{n!}{k!(n-k)!}p^k(1-p)^{n-k}\\ &=& \sum_{k=1}^n k \dfrac{n!}{k!(n-k)!}p^k(1-p)^{n-k}\qquad\text{pour \( k=0\) le terme vaut \( 0\) }\\ &=& \sum_{k=1}^n \dfrac{n!}{(k-1)!(n-k)!}p^k(1-p)^{n-k}\\ &=& \sum_{k=1}^n \dfrac{n(n-1)!}{(k-1)!((n-1)-(k-1))!}p^k(1-p)^{(n-1)-(k-1)}\\ &=& n\sum_{k=1}^n \dfrac{(n-1)!}{(k-1)!((n-1)-(k-1))!}p^k(1-p)^{(n-1)-(k-1)}\\ &=& n\sum_{k'=0}^{n-1} \dfrac{(n-1)!}{k'!((n-1)-k')!}p^{k'+1}(1-p)^{(n-1)-k'}\qquad\text{changement de variable : \( k'=k-1\) }\\ &=& n\sum_{k'=0}^{n-1} \comb{n-1}{k'}p^{k'+1}(1-p)^{(n-1)-k'}\\ &=& n\sum_{k'=0}^{n-1} \comb{n-1}{k'}pp^{k'}(1-p)^{(n-1)-k'}\\ &=& np\sum_{k'=0}^{n-1} \comb{n-1}{k'}p^{k'}(1-p)^{(n-1)-k'}\\ &=& np(p+1-p)^{n-1}\qquad\text{binôme de Newton}\\ &=&np \end{eqnarray*} Calculons l'espérance de \( X^2\) . \begin{eqnarray*} E(X^2) &=& \sum_{k=0}^n k^2 P(X=k)\\ &=& \sum_{k=0}^n k^2 \comb{n}{k}p^k(1-p)^{n-k}\\ &=& \sum_{k=0}^n k^2 \dfrac{n!}{k!(n-k)!}p^k(1-p)^{n-k}\\ &=& \sum_{k=1}^n k^2 \dfrac{n!}{k!(n-k)!}p^k(1-p)^{n-k}\\ &=& \sum_{k=1}^n k\dfrac{n!}{(k-1)!(n-k)!}p^k(1-p)^{n-k}\\ &=& \sum_{k=1}^n k\dfrac{n(n-1)!}{(k-1)!((n-1)-(k-1))!}p^k(1-p)^{(n-1)-(k-1)}\\ &=& n\sum_{k=1}^n k\dfrac{(n-1)!}{(k-1)!((n-1)-(k-1))!}p^k(1-p)^{(n-1)-(k-1)}\\ &=& n\sum_{k'=0}^{n-1} (k'+1)\dfrac{(n-1)!}{k'!((n-1)-k')!}p^{k'+1}(1-p)^{(n-1)-k'}\\ &=& n\left[ \sum_{k'=0}^{n-1} k'\dfrac{(n-1)!}{k'!((n-1)-k')!}p^{k'+1}(1-p)^{(n-1)-k'} + \sum_{k'=0}^{n-1}\dfrac{(n-1)!}{k'!((n-1)-k')!}p^{k'+1}(1-p)^{(n-1)-k'} \right]\\ &=& n\left[ \sum_{k'=1}^{n-1} k'\dfrac{(n-1)!}{k'!((n-1)-k')!}p^{k'+1}(1-p)^{(n-1)-k'} + \sum_{k'=0}^{n-1}\dfrac{(n-1)!}{k'!((n-1)-k')!}pp^{k'}(1-p)^{(n-1)-k'} \right]\\ &=& n\left[ \sum_{k'=1}^{n-1} \dfrac{(n-1)(n-2)!}{(k'-1)!((n-2)-(k'-1))!}p^{k'+1}(1-p)^{(n-2)-(k'-1)} + p\sum_{k'=0}^{n-1}\comb{n-1}{k'}p^{k'}(1-p)^{(n-1)-k'} \right]\\ &=& n\left[ (n-1)\sum_{k''=0}^{n-2} \dfrac{(n-2)!}{k''!((n-2)-k'')!}p^{k''+2}(1-p)^{(n-2)-k''} + p(p+1-p)^{n-1} \right]\\ &=& n\left[ (n-1)\sum_{k''=0}^{n-2} \comb{n-2}{k''}p^{k''+2}(1-p)^{(n-2)-k''} + p \right]\\ &=& n\left[ (n-1)\sum_{k''=0}^{n-2} \comb{n-2}{k''}p^2p^{k''}(1-p)^{(n-2)-k''} + p \right]\\ &=& n\left[ (n-1)p^2\sum_{k''=0}^{n-2} \comb{n-2}{k''}p^{k''}(1-p)^{(n-2)-k''} + p \right]\\ &=& n\left[ (n-1)p^2(p+1-p)^{n-2} + p \right]\\ &=& n\left[ (n-1)p^2 + p \right] \end{eqnarray*} En appliquant la formule de Köning-Huygens, on arrive à \begin{eqnarray*} V(X) &=&E(X^2)-E(X)^2\\ &=&\left(n(n-1)p^2+np\right)-(np)^2\\ &=&n^2p^2-np^2+np-n^2p^2\\ &=&-np^2+np\\ &=&np(-p+1)\\ &=&np(1-p) \end{eqnarray*}
Voici un exemple. Un questionnaire à choix multiple est composé de \( 8\) questions. Pour chacune d'elles \( 4\) réponses sont proposées et une seule est juste. Un étudiant répond au hasard à chacune des \( 8\) questions de ce QCM. Quelle est la probabilité qu'il ai exactement \( 4\) réponses correcte. On note \( X\) la variable aléatoire comptant le nombre de bonne réponse. Alors \( X\sim\BB\left(8 ; \dfrac{1}{4}\right)\) . En effet, il s'agit de \( 8\) succès ou échec (bonne réponse ou mauvaise réponse). Un succès étant une bonne réponse. Puisque l'étudiant répond au hasard parmi les 4 solutions proposées il a une chance sur \( 4\) d'avoir la réponse correcte. La question reviens alors à se demander que vaut \( P(X=4)\) . D'après la formule on a \[P(X=4) =\comb{8}{4}\left(\dfrac{1}{4}\right)^4\left(1-\dfrac{1}{4}\right)^{8-4} =70\dfrac{1}{4^4}\dfrac{3^4}{4^4} =\dfrac{70\times 3^4}{4^8} =\dfrac{5670}{65536} \simeq 0.087 \] Il y a donc environ \( 9\%\) de chance d'avoir la moyenne... pas très fameux. Combien de réponse seront juste en moyenne ? Il s'agit de calculer \( E(X)=8\times\dfrac{1}{4}=2\) . En répondant au hasard, on aura en moyenne deux bonnes réponses sur les \( 8\) . Il a donc de forte chance d'avoir, en répondant au hasard, d'avoir au moins une réponse juste. Déterminons cette probabilité. Avoir au moins une réponse juste reviens à calculer \( P(X\geqslant 1)\) . Passons par l'évènement contraire : \( P(X\geqslant 1)=1-P(X{<}1)\) mais puisque \( X\) ne prend que des valeurs entières strictement positives si \( X{<}1\) alors \( X=0\) . \[P(X\geqslant1)=1-P(X=0)=1-\comb{8}{0}\left(\dfrac{1}{4}\right)^0\left(1-\dfrac{1}{4}\right)^{8-0}=1-\left(\dfrac{3}{4}\right)^{8}=1-\dfrac{3^8}{4^8}=1-\dfrac{6561}{65536} \simeq0.899\] Il y environ \( 90\%\) de chance d'avoir au moins une réponse correcte mais moins de \( 10\%\) d'en avoir \( 4\) .

Loi Géométrique

Définition


Soit \( p\in[0 ; 1]\) . On dira que \( X\) suit une loi géométrique, notée \[X\sim \mathcal{G}(p)\] si son support est l'ensemble des entiers strictement positif et que pour tout \( k\in \N_{{{>}}0}\) , \[P(X=k)=p(1-p)^{k-1}\]
La loi géométrique est également appelé la loi du premier succès.

Théorème


Soit \( X\sim\mathcal{G}(p)\) .
  1. \( \supp{X}=\N_{{{>}}0}\) .
  2. La loi est \( P(X=k)=p(1-p)^{k-1}\) .
  3. \( E(X)=\dfrac{1}{p}\) .
  4. \( V(X)=\dfrac{1-p}{p^2}\) .
  5. \( \sigma(X)=\dfrac{\sqrt{1-p}}{p}\) .

Démonstration

Cette preuve fait appel à la notion de série convergente. Il est bien connue que \( \dfrac{1}{1-x}=\dpl{\sum_{k=0}^{+\infty}x^k}\) pour tout \( x\in]-1 ; 1[\) . En dérivant cette expression on arrive à la formule \[\dpl{\dfrac{1}{(1-x)^2}=\sum_{k=1}^{+\infty}kx^{k-1}}\] En dérivant une seconde fois \[\dpl{\dfrac{2}{(1-x)^3}=\sum_{k=2}^{+\infty}k(k-1)x^{k-2}}\] Déterminons à présent l'espérance : \begin{eqnarray*} E(X) &=& \sum_{k=1}^{+\infty} kP(X=k)\\ &=& \sum_{k=1}^{+\infty} kp(1-p)^{k-1}\\ &=& p\sum_{k=1}^{+\infty} k(1-p)^{k-1}\\ &=& p\dfrac{1}{(1-(1-p))^2}\\ &=& p\dfrac{1}{p^2}\\ &=& \dfrac{1}{p} \end{eqnarray*} Calculons également \( E(X^2)\) \begin{eqnarray*} E(X^2) &=& \sum_{k=1}^{+\infty} k^2P(X=k)\\ &=& \sum_{k=1}^{+\infty} k^2p(1-p)^{k-1}\\ &=& p\sum_{k=1}^{+\infty} k^2(1-p)^{k-1}\\ &=& p\left[\sum_{k=1}^{+\infty} k^2(1-p)^{k-1}-\sum_{k=1}^{+\infty} k(1-p)^{k-1}+\sum_{k=1}^{+\infty} k(1-p)^{k-1}\right]\\ &=& p\left[\sum_{k=1}^{+\infty} (k^2-k)(1-p)^{k-1}+\sum_{k=1}^{+\infty} k(1-p)^{k-1}\right]\\ &=& p\left[\sum_{k=1}^{+\infty} k(k-1)(1-p)^{k-1}+\sum_{k=1}^{+\infty} k(1-p)^{k-1}\right]\\ &=& p\left[\sum_{k=2}^{+\infty} k(k-1)(1-p)^{k-1}+\dfrac{1}{(1-(1-p))^2}\right]\\ &=& p\left[\sum_{k=2}^{+\infty} k(k-1)(1-p)(1-p)^{k-2}+\dfrac{1}{p^2}\right]\\ &=& p\left[(1-p)\sum_{k=2}^{+\infty} k(k-1)(1-p)^{k-2}+\dfrac{1}{p^2}\right]\\ &=& p\left[(1-p)\dfrac{2}{(1-(1-p))^3}+\dfrac{1}{p^2}\right]\\ &=& p\left[(1-p)\dfrac{2}{p^3}+\dfrac{1}{p^2}\right]\\ &=&(1-p)\dfrac{2}{p^2}+\dfrac{1}{p} \end{eqnarray*} Finalement \begin{eqnarray*} V(X) &=&E(X^2)-E(X)^2\\ &=&(1-p)\dfrac{2}{p^2}+\dfrac{1}{p}-\left(\dfrac{1}{p}\right)^2\\ &=&\dfrac{2}{p^2}-\dfrac{2}{p}+\dfrac{1}{p}-\dfrac{1}{p^2}\\ &=&\dfrac{1}{p^2}-\dfrac{1}{p}\\ &=&\dfrac{1-p}{p^2} \end{eqnarray*}
Prenons par exemple le problème de l'homme ivre : un homme ivre rentre chez lui. Son trousseau de clef comporte \( 10\) clefs mais une seule ouvre la porte de sa maison. L'homme essaye les clefs une par une pour ouvrir la porte de sa maison, mais l'ivresse est tel qu'il oublie s'il a déjà essayé une clef ou non.
Combien de clef va-t-il essayer en moyenne avant de pouvoir rentrer dans sa maison ?
Notons \( X\) la variable aléatoire qui compte le nombre de tentative avant de trouver la bonne clef. Il s'agit donc d'un expérience aléatoire "premier succès", c'est à dire que \( X\) est une loi géométrique. Pour déterminer son paramètre il faut connaitre la probabilité d'un succès, c'est à dire la probabilité de tirer la bonne clef dans son trousseau de \( 10\) clef. Comme le tirage de cette clef est aléatoire, il a une chance sur dix de tirer la bonne. Ainsi \( X\sim\mathcal{G}\left(\dfrac{1}{10}\right)\) . La question posée concerne la moyenne de cette variable qui est d'après le théorème précédent \( \dfrac{1}{p}\) , c'est à dire dans ce cas \( 10\) . En moyenne, il va essayer \( 10\) clefs avant de pouvoir rentrer chez lui.