\( %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Mes commandes %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \newcommand{\multirows}[3]{\multirow{#1}{#2}{$#3$}}%pour rester en mode math \renewcommand{\arraystretch}{1.3}%pour augmenter la taille des case \newcommand{\point}[1]{\marginnote{\small\vspace*{-1em} #1}}%pour indiquer les points ou le temps \newcommand{\dpl}[1]{\displaystyle{#1}}%megamode \newcommand{\A}{\mathscr{A}} \newcommand{\LN}{\mathscr{N}} \newcommand{\LL}{\mathscr{L}} \newcommand{\K}{\mathbb{K}} \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\M}{\mathcal{M}} \newcommand{\D}{\mathbb{D}} \newcommand{\E}{\mathcal{E}} \renewcommand{\P}{\mathcal{P}} \newcommand{\G}{\mathcal{G}} \newcommand{\Kk}{\mathcal{K}} \newcommand{\Cc}{\mathcal{C}} \newcommand{\Zz}{\mathcal{Z}} \newcommand{\Ss}{\mathcal{S}} \newcommand{\B}{\mathbb{B}} \newcommand{\inde}{\bot\!\!\!\bot} \newcommand{\Proba}{\mathbb{P}} \newcommand{\Esp}[1]{\dpl{\mathbb{E}\left(#1\right)}} \newcommand{\Var}[1]{\dpl{\mathbb{V}\left(#1\right)}} \newcommand{\Cov}[1]{\dpl{Cov\left(#1\right)}} \newcommand{\base}{\mathcal{B}} \newcommand{\Som}{\textbf{Som}} \newcommand{\Chain}{\textbf{Chain}} \newcommand{\Ar}{\textbf{Ar}} \newcommand{\Arc}{\textbf{Arc}} \newcommand{\Min}{\text{Min}} \newcommand{\Max}{\text{Max}} \newcommand{\Ker}{\text{Ker}} \renewcommand{\Im}{\text{Im}} \newcommand{\Sup}{\text{Sup}} \newcommand{\Inf}{\text{Inf}} \renewcommand{\det}{\texttt{det}} \newcommand{\GL}{\text{GL}} \newcommand{\crossmark}{\text{\ding{55}}} \renewcommand{\checkmark}{\text{\ding{51}}} \newcommand{\Card}{\sharp} \newcommand{\Surligne}[2]{\text{\colorbox{#1}{ #2 }}} \newcommand{\SurligneMM}[2]{\text{\colorbox{#1}{ #2 }}} \newcommand{\norm}[1]{\left\lVert#1\right\rVert} \renewcommand{\lim}[1]{\underset{#1}{lim}\,} \newcommand{\nonor}[1]{\left|#1\right|} \newcommand{\Un}{1\!\!1} \newcommand{\sepon}{\setlength{\columnseprule}{0.5pt}} \newcommand{\sepoff}{\setlength{\columnseprule}{0pt}} \newcommand{\flux}{Flux} \newcommand{\Cpp}{\texttt{C++\ }} \newcommand{\Python}{\texttt{Python\ }} %\newcommand{\comb}[2]{\begin{pmatrix} #1\\ #2\end{pmatrix}} \newcommand{\comb}[2]{C_{#1}^{#2}} \newcommand{\arrang}[2]{A_{#1}^{#2}} \newcommand{\supp}[1]{Supp\left(#1\right)} \newcommand{\BB}{\mathcal{B}} \newcommand{\arc}[1]{\overset{\rotatebox{90}{)}}{#1}} \newcommand{\modpi}{\equiv_{2\pi}} \renewcommand{\Re}{Re} \renewcommand{\Im}{Im} \renewcommand{\bar}[1]{\overline{#1}} \newcommand{\mat}{\mathcal{M}} \newcommand{\und}[1]{{\mathbf{\color{red}\underline{#1}}}} \newcommand{\rdots}{\text{\reflectbox{$\ddots$}}} \newcommand{\Compa}{Compa} \newcommand{\dint}{\dpl{\int}} \newcommand{\intEFF}[2]{\left[\!\left[#1 ; #2\right]\!\right]} \newcommand{\intEFO}[2]{\left[\!\left[#1 ; #2\right[\!\right[} \newcommand{\intEOF}[2]{\left]\!\left]#1 ; #2\right]\!\right]} \newcommand{\intEOO}[2]{\left]\!\left]#1 ; #2\right[\!\right[} \newcommand{\ou}{\vee} \newcommand{\et}{\wedge} \newcommand{\non}{\neg} \newcommand{\implique}{\Rightarrow} \newcommand{\equivalent}{\Leftrightarrow} \newcommand{\Ab}{\overline{A}} \newcommand{\Bb}{\overline{B}} \newcommand{\Cb}{\overline{C}} \newcommand{\Cl}{\texttt{Cl}} \newcommand{\ab}{\overline{a}} \newcommand{\bb}{\overline{b}} \newcommand{\cb}{\overline{c}} \newcommand{\Rel}{\mathcal{R}} \newcommand{\superepsilon}{\varepsilon\!\!\varepsilon} \newcommand{\supere}{e\!\!e} \makeatletter \newenvironment{console}{\noindent\color{white}\begin{lrbox}{\@tempboxa}\begin{minipage}{\columnwidth} \ttfamily \bfseries\vspace*{0.5cm}} {\vspace*{0.5cm}\end{minipage}\end{lrbox}\colorbox{black}{\usebox{\@tempboxa}} } \makeatother \def\ie{\textit{i.e. }} \def\cf{\textit{c.f. }} \def\vide{ { $ {\text{ }} $ } } %Commande pour les vecteurs \newcommand{\grad}{\overrightarrow{Grad}} \newcommand{\Vv}{\overrightarrow{v}} \newcommand{\Vu}{\overrightarrow{u}} \newcommand{\Vw}{\overrightarrow{w}} \newcommand{\Vup}{\overrightarrow{u'}} \newcommand{\Zero}{\overrightarrow{0}} \newcommand{\Vx}{\overrightarrow{x}} \newcommand{\Vy}{\overrightarrow{y}} \newcommand{\Vz}{\overrightarrow{z}} \newcommand{\Vt}{\overrightarrow{t}} \newcommand{\Va}{\overrightarrow{a}} \newcommand{\Vb}{\overrightarrow{b}} \newcommand{\Vc}{\overrightarrow{c}} \newcommand{\Vd}{\overrightarrow{d}} \newcommand{\Ve}[1]{\overrightarrow{e_{#1}}} \newcommand{\Vf}[1]{\overrightarrow{f_{#1}}} \newcommand{\Vn}{\overrightarrow{0}} \newcommand{\Mat}{Mat} \newcommand{\Pass}{Pass} \newcommand{\mkF}{\mathfrak{F}} \renewcommand{\sp}{Sp} \newcommand{\Co}{Co} \newcommand{\vect}[1]{\texttt{Vect}\dpl{\left( #1\right)}} \newcommand{\prodscal}[2]{\dpl{\left\langle #1\left|\vphantom{#1 #2}\right. #2\right\rangle}} \newcommand{\trans}[1]{{\vphantom{#1}}^{t}{#1}} \newcommand{\ortho}[1]{{#1}^{\bot}} \newcommand{\oplusbot}{\overset{\bot}{\oplus}} \SelectTips{cm}{12}%Change le bout des flèches dans un xymatrix \newcommand{\pourDES}[8]{ \begin{itemize} \item Pour la ligne : le premier et dernier caractère forment $#1#2$ soit $#4$ en base 10. \item Pour la colonne : les autres caractères du bloc forment $#3$ soit $#5$ en base 10. \item A l'intersection de la ligne $#4+1$ et de la colonne $#5+1$ de $S_{#8}$ se trouve l'entier $#6$ qui, codé sur $4$ bits, est \textbf{\texttt{$#7$}}. \end{itemize} } \)

Probabilités discrètes

Aléatoire, univers, probabilités

Définir l'aléatoire est très difficile. Tentons une approche (que vous pourrez oublier au prochain paragraphe). En réalisant une expérience il peut y avoir deux natures de production : Étudier les résultats d'une expérience déterministe, nous l'avons déjà fait. C'est la statistique ! Les probabilités sont quant à elles, la science des expériences aléatoires. Le calcul des probabilités commence toujours avec une expérience aléatoire comme par exemple

Définition


On appel univers des possibilités l'ensemble des issues possibles d'une expérience aléatoire. On le note en générale \( \Omega\) .
Bon... nous avons tenter une définition mais elle souffre un petit peu de cadrage. Prenons par exemple l'expérience aléatoire "On lance une pièce équilibrée". L'univers des possibilités est alors \( \Omega=\{Pile, Face\}\) . Mais on pourrait aussi dire \( \Omega=\{Pile, Face, \textit{Un condor passe au moment du lancé de pièce et l'emporte}\}\) sauf que ce dernier évènement bien que fort sympathique est improbable (dans des conditions normal de lancer de pièce dans une salle de classe par exemple et non dans une volière de condors ^_^). Dans l'univers des possibilités on ne considère que les possibilités c'est à dire ce qui a une probabilité de se produire. Qu'est-ce qu'une probabilité direz-vous. Oui c'est pas très propre de définir une notion avec une notion qu'on va définir après... d'un autre côté définir le hasard est difficile ! Bref, retenons que \( \Omega\) désigne l'univers de ce qui peut se passer de raisonnable lors d'une expérience aléatoire. Par exemple :

Définition


Soit \( \Omega\) l'univers des possibilités d'une expérience aléatoire. Un évènement est un sous-ensemble de \( \Omega\) .
Par exemple en lançant trois pièces de monnaies le sous-ensemble \( \{FFP, FPF, PFF\}\) correspond à l'évènement "obtenir exactement un pile". Univers, sous-ensemble etc sont le cadre très rigoureux des probabilités : c'est très pratique, très puissant et suffisamment propre mathématiquement pour faire l'objet de théorème impressionnant. MAIS, il y a toujours un MAIS, le bagage théorique pour arriver à ce niveau de confort est très lourd, bien trop lourd pour ce cours : tribut, mesure, boréliens... bien au delà de ce que nous attendons ici. Fort heureusement le calcul des probabilités est assez instinctif. Tout le monde comprend la phrase : "En lançant un dé, il y a une chance sur 6 d'obtenir un deux". Du coup, on peut présenter la probabilité de manière un peu moins rigoureuse mais beaucoup plus instinctive (en réalité ça s'appelle la loi des grands nombres).

Définition


Soit \( A\) un évènement relatif à une expérience aléatoire. On défini la probabilité de l'évènement \( A\) comme \[P(A)=\lim{\infty}\dfrac{\text{nombre de succès}}{\text{nombre de tentative}}\]
Nous avons lancer une pièce de monnaie équilibrée (c'est pour indiquer qu'elle n'est pas truquée). Nous considérons l'évènement \( E\) ="Obtenir un pile". Nous avons réalisé plusieurs fois cette expérience pour estimer \( P(E)\) . Voici les résultats
Sur 25 lancés :
16 piles, donc \( P(E)\simeq\dfrac{16}{25}=0.64\) \[\begin{array}{*{25}{c}} P & P & F & F & F & P & P & P & P & F & P & P & P & P & F & P & F & P & F & F & F & P & P & P & P \\ \end{array} \]

Sur 100 lancés :
49 piles, donc \( P(E)\simeq\dfrac{49}{100}=0.49\) \[ \begin{array}{*{25}{c}} F & P & F & P & F & P & F & F & F & P & P & F & P & F & P & F & P & P & P & F & F & F & F & F & P \\ P & F & F & P & P & F & P & F & P & P & P & F & P & F & F & F & P & P & F & F & F & F & F & P & P \\ F & F & P & P & F & P & P & F & P & P & F & F & F & P & P & P & P & F & F & P & F & F & P & F & P \\ F & F & F & F & P & F & F & P & F & F & P & P & P & P & P & F & F & P & P & P & P & F & F & P & P \\ \end{array} \]

Sur 200 lancés :
102 piles, donc \( P(E)\simeq\dfrac{102}{200}=0.51\) \[ \begin{array}{*{25}{c}} P & P & F & P & F & P & F & P & F & F & F & F & F & F & F & P & F & P & F & P & P & P & P & F & F \\ P & P & P & P & F & F & F & P & P & F & P & F & P & P & P & F & F & P & F & P & P & F & P & P & F \\ F & F & F & P & F & F & P & P & F & P & P & P & F & F & P & F & P & F & F & F & P & P & F & P & F \\ F & F & F & F & F & F & F & P & F & P & P & F & F & F & F & F & F & F & P & P & P & P & P & F & F \\ P & P & F & F & F & F & P & P & F & F & F & P & F & F & P & P & P & P & P & F & F & P & P & P & F \\ P & F & P & P & P & F & P & P & F & P & P & F & F & P & P & F & F & F & P & F & P & P & F & F & P \\ P & P & F & F & P & P & P & F & P & P & P & P & P & P & F & P & F & P & F & P & P & F & F & P & P \\ P & F & F & F & P & P & F & F & F & P & F & P & F & F & P & F & P & F & F & P & P & P & P & P & P \\ \end{array} \]
En continuant encore et encore cette expérience nous arriverons à montrer que \( P(E)=0.5\) que nous pouvons poétiquement traduire en "la probabilité d'obtenir pile en lançant une pièce de monnaie équilibrée est d'une chance sur deux". Dans la pratique on ne raisonne jamais avec cette définition par limite. On utilise de manière cachée les concepts ensemblistes. Par exemple en réalisant cette expérience, il y a deux issues possibles (pile ou face) et le seul résultat qui nous intéresse ne concerne qu'un de ces deux évènements (pile) on a donc un cas favorable sur deux cas possible : \( \dfrac{1}{2}\) . Autre exemple (autre expérience aléatoire) : on lance un dé équilibré et on s'intéresse à l'événement \( E\) ="on obtient un 3 ou un 6". Dans cette expérience il y a 6 issues possibles (1, 2, 3, 4, 5 ou 6) mais seulement deux qui sont favorables à \( E\) (à savoir 3 et 6). Deux cas sont alors favorables à l'évènement sur 6 cas possibles ; en conclusion : \( P(E)=\dfrac{2}{6}\) . On ramène le calcul des probabilités à un comptage de possibilités. Avant d'avancer, il nous faut donc nous armer d'outils de comptage... d'ailleurs on dit plutôt dénombrement que comptage.

Outils du dénombrement

Définition


Pour tout entier \( n\) strictement positif on définit factorielle de \( n\) notée \( n!\) comme le produit des \( n\) premiers entiers consécutifs.
Par exemple \( 3!=1\times 2\times 3=6\) , \( 5!=1\times 2\times 3\times 4\times 5=120\) . On conviens, pour le bien être de l'univers mathématique, que \( 0!=1\)

Proposition


Soit \( n\in\N\) alors \( (n+1)!=(n+1)\times n!\)

Démonstration

C'est une conséquence triviale de la définition.

Définition


Soient \( n\) et \( p\) des entiers tel que \( 0\leqslant p\leqslant n\) . On défini \( \arrang{n}{p}\) appelé l'arrangement de \( p\) parmi \( n\) le nombre \[\arrang{n}{p}=\dfrac{n!}{(n-p)!}\]
L'arrangement \( \arrang{n}{p}\) correspond au produit des \( p\) nombres partant \( n\) en décrémentant. Par exemple \( \arrang{7}{3}=7\times6\times 5=210\) .

Définition


Soient \( n\) et \( p\) des entiers tel que \( 0\leqslant p\leqslant n\) . On défini \( \comb{n}{p}\) appelé la combinaison de \( p\) parmi \( n\) le nombre \[\comb{n}{p}=\dfrac{n!}{p!(n-p)!}=\dfrac{\arrang{n}{p}}{p!}\]
Par exemple \( \comb{5}{2}=\dfrac{5!}{2!3!}=10\) .

Proposition [Triangle de Pascal]


Soient \( n\) et \( p\) des entiers tel que \( 0\leqslant p\leqslant n\) . \[\comb{n}{p}+\comb{n}{p+1}=\comb{n+1}{p+1}\]

Démonstration

\begin{eqnarray*} \comb{n}{p}+\comb{n}{p+1} &=&\dfrac{n!}{p!(n-p)!}+\dfrac{n!}{(p+1)!(n-(p+1))!}\\ &=&\dfrac{n!}{p!(n-p)!}+\dfrac{n!}{(p+1)!(n-p-1)!}\\ &=&\dfrac{n!\times{\color{red}{(p+1)}}}{p!(n-p)!\times{\color{red}{(p+1)}}}+\dfrac{n!\times{\color{red}{(n-p)}}}{(p+1)!(n-p-1)!\times{\color{red}{(n-p)}}}\\ &=&\dfrac{n!\times{\color{red}{(p+1)}}}{{\color{red}{(p+1)!}}(n-p)!}+\dfrac{n!\times{\color{red}{(n-p)}}}{(p+1)!{\color{red}{(n-p)!}}}\\ &=&\dfrac{n!(p+1)+n!(n-p)}{(p+1)!(n-p)!} \\ &=&\dfrac{n![(p+1)+(n-p)]}{(p+1)!(n-p)!} \\ &=&\dfrac{n![n+1]}{(p+1)!(n-p)!} \\ &=&\dfrac{(n+1)!}{(p+1)!(n-p)!} \\ &=&\dfrac{(n+1)!}{(p+1)!(n+1-p-1)!} \\ &=&\dfrac{(n+1)!}{(p+1)!((n+1)-(p+1))!} \\ &=&\comb{n+1}{p+1} \end{eqnarray*}
On parle du triangle de Pascal (du au mathématicien, physicien, philosophe etc Blaise Pascal) car ces nombres s'obtiennent de manière récurrentes en dessinant un tableau. Les lignes représentent le \( n\) et les colonnes le \( p\) . \[ \begin{array}{r||c|c|c|c|c} n/p&0&1&2&3&4\\\hline\hline 0 & & & & & \\\hline 1 & & & & & \\\hline 2 & & & & & \\\hline 3 & & & & & \\\hline 4 & & & & & \end{array} \] On initialise ce tableau en mettant des \( 1\) sur la diagonale et dans la première colonne ainsi que des \( 0\) au dessus de la diagonale \[ \begin{array}{r||c|c|c|c|c} n/p&0&1&2&3&4\\\hline\hline 0 &1&0&0&0&0\\\hline 1 &1&1&0&0&0\\\hline 2 &1& &1&0&0\\\hline 3 &1& & &1&0\\\hline 4 &1& & & &1 \end{array} \] La formule s'illustre alors en sommant deux termes consécutifs sur une ligne pour obtenir celui de la ligne suivante \[ \begin{array}{r||c|c|c|c|c} n/p&0&1&2&3&4\\\hline\hline 0 &1&0&0&0&0\\\hline 1 &\boxed{1}&\boxed{1}&0&0&0\\\hline 2 &1&{\color{red}2}&1&0&0\\\hline 3 &1& & &1&0\\\hline 4 &1& & & &1 \end{array} \] \[ \begin{array}{r||c|c|c|c|c} n/p&0&1&2&3&4\\\hline\hline 0 &1&0&0&0&0\\\hline 1 &1&1&0&0&0\\\hline 2 &1&\boxed{2}&\boxed{1}&0&0\\\hline 3 &1& &{\color{red}3}&1&0\\\hline 4 &1& & & &1 \end{array} \] etc

Calculs des probabilités

On considère une urne avec \( n\) boules numérotées de \( 1\) à \( n\) . On va tirer \( p\) boules dans cette urne de plusieurs manières différentes.
Premier cas : tirage avec remise.
Il y a \( n^p\) tirages différents.
Prenons par exemple \( n=4\) et \( p=2\) . On se demande combien de tirage différent sont possibles de \( 2\) boules dans une urne qui en contient \( 4\) . On commence par tirer une première boule, il y a \( 4\) possibilités différentes. Puisque cette boule tirée est remise dans l'urne (car c'est le cas que nous traitons ici) alors lors du second tirage nous avons encore \( 4\) possibilités. La liste de tous les cas possibles est \[ \begin{array}{cccc} 11&12&13&14\\ 21&22&23&24\\ 31&32&33&34\\ 41&42&43&44 \end{array} \]

Second cas : tirage sans remise.
Avec cette formulation on suppose que l'ordre compte.
Il y a \( \arrang{n}{p}\) tirages différents.
Prenons par exemple \( n=4\) et \( p=2\) . On se demande combien de tirage différent sont possibles de \( 2\) boules dans une urne qui en contient \( 4\) . On commence par tirer une première boule, il y a \( 4\) possibilités différentes. Puisque cette boule tirée n'est pas remise dans l'urne (car c'est le cas que nous traitons ici) alors lors du second tirage nous n'avons plus que \( 3\) possibilités. La liste de tous les cas possibles est \[ \begin{array}{cccc} &12&13&14\\ 21&&23&24\\ 31&32&&34\\ 41&42&43& \end{array} \]

Troisième cas : tirage simultané.
Le mot simultané est équivalent à sans remise et sans ordre.
Il y a \( \comb{n}{p}\) tirages différents.
Prenons par exemple \( n=4\) et \( p=2\) . On se demande combien de tirage différent sont possibles de \( 2\) boules dans une urne qui en contient \( 4\) . On sait que si l'ordre compte on en a \( \arrang{4}{2}\) . Mais dans ce dénombrement une différence a été faite entre \( 12\) et \( 21\) qui sont, dans le cas simultané le même tirage. Il faut donc diviser le nombre \( \arrang{4}{2}\) par \( 2=2!\) pour obtenir le résultat ce qui correspond exactement, par définition, à \( \comb{4}{2}\) . La liste de tous les cas possibles est \[ \begin{array}{ccc} 12&13&14\\ &23&24\\ &&34 \end{array} \]
Toutes les expériences aléatoires, comme presque tous les jeux combinatoires, peuvent s'identifier à un tirage de boule dans une urne. Par exemple combien de code a \( 4\) chiffres est-il possible de composer avec un clavier numérique classique ? Cela reviens à se demander, dans une urne avec 10 boules, combien de tirage de 4 boules avec remise peut-on faire ? La réponse est \( 10^4=10\ 000\) . Autre exemple. On tire deux cartes au hasards dans un jeu qui en contient \( 52\) (tirage simultané). Combien de jeu différent est-il possible d'obtenir ? Cela s'identifie à un tirage simultané de \( 2\) boules dans une urne qui en contient \( 52\) donc \( \comb{52}{2}=1\ 326\) . Pour le calcul des probabilités, on raisonne comme nous l'avons suggéré dans l'introduction. La probabilité d'un évènement correspond au ratio du nombre de cas favorable divisé par le nombre de cas possible. Toujours avec l'expérience aléatoire de tirer deux cartes dans un jeu de 52 (tirage simultané), considérons l'évènement \( E\) ="On obtient deux piques". Alors \( P(E)=\dfrac{\comb{13}{2}}{\comb{52}{2}}\) . En effet il y a en tout \( \comb{52}{2}\) tirage possibles (on prend 2 cartes parmi \( 52\) ), d'où le dénominateur. Mais il y a \( \comb{13}{2}\) manières d'avoir deux piques (sur les \( 52\) cartes il y a \( 13\) piques et on en souhaite \( 2\) ) d'où le numérateur. Considérons l'évènement \( F\) ="Obtenir au moins un cœur". Pour calculer \( P(F)\) utilisons quelques éléments théoriques.

Proposition


Soit \( \Omega\) l'univers des possibilités d'une expériences aléatoire. Notons \( A\) un évènement et \( \overline{A}\) son contraire.
  1. \( P(\Omega)=1\)
  2. \( P(\varnothing)=0\)
  3. \( P(A)+P(\overline{A})=1\)
  4. \( P(A\cup B)=P(A)+P(B)-P(A\cap B)\)
Pour déterminer la probabilité de l'évènement \( F\) nous allons passer par son contraire \( \overline{F}\) ="Obtenir aucun cœur". On a \( P(\overline{F})=\dfrac{\comb{39}{2}}{\comb{52}{2}}\) car \( 39\) cartes ne sont pas des cœurs. En conclusion \( P(F)=1-P(\overline{F})=1-\dfrac{\comb{39}{2}}{\comb{52}{2}}\) .

Un exemple

Considérons une urne avec 5 boules : deux boules rouges numérotées 1 et 2, deux boules bleues numérotées 1 et 2 et une boule verte avec le numéro 1. L'expérience aléatoire consiste à tirer avec remise trois boules dans l'urne.
Quel est la probabilité de l'évènement "on tire exactement une boule rouge ou exactement une boule numérotée d'un 1." ?
On considère les évènements suivants : Déterminons la probabilité de l'évènement \( A\) . Il y a \( 5^3\) tirages possible, il suffit de déterminer le nombre de tirage favorable à l'évènement \( A\) . Il faut donc compter combien donne exactement une boule rouge. Il y a trois cas :
  1. On tire une boule rouge au premier tirage donc nécessairement deux boules non rouge pour les autres tirage ; ce qui donne \( 2^1\times 3^2=18\) puisque dans l'urne deux boules sont rouges et 3 ne le sont pas (et qu'il s'agit d'un tirage avec remise).
  2. On tire une boule rouge au second tirage donc le premier et le troisième sont non rouge ; ce qui donne : \( 3^1\times2^1\times 3^1=18\) .
  3. On tire une boule rouge au troisième tirage ; ce qui donne \( 3^2\times 2^1=18\) .
Finalement \( P(A)=\dfrac{18+18+18}{5^3}=\dfrac{54}{125}=0.432\) . De la même manière pour l'évènement \( B\) : \( P(B)=\dfrac{3^1\times 2^2+2^1\times3^1\times 2^1+2^2\times 3^1}{5^3}=\dfrac{36}{125}=0.288\) . Déterminons à présent \( P(A\cap B)\) . L'évènement \( A\cap B\) est "On obtient exactement une boule rouge et une boule marquée de 1". On peut diviser cette évènement en deux partie : tirer trois boules dont le 1 rouge (et donc deux qui ne sont ni 1 ni rouge), on notera \( E_1\) cet évènement ou tirer trois boules avec un 1 et un rouge (et une ni 1 ni rouge) mais sans le 1 rouge que l'on notera \( E_2\) . Avec notre construction nous avons \( P(A\cap B)=P(E_1)+P(E_2)\) . Comme pour l'évènement \( A\) puisqu'il y a un seul 1 rouge et une seule boule qui n'est ni 1 ni rouge, on a \( P(E_1)=\dfrac{1^1\times 1^2+1^1\times 1^1\times 1^1+1^2\times 1^1}{5^3}=\dfrac{3}{125}=0.024\) . De la même manière : il y a une seule boule rouge qui n'est pas le 1 rouge, il y a deux boules numérotées 1 qui ne sont pas rouge et toujours une seule boule qui n'est ni rouge ni 1 ; de plus il y a 6 tirages différents possibles d'une boule rouge (qui n'est pas 1), d'un 1 (qui n'est pas rouge) et d'une boule qui n'est ni un rouge ni un 1 d'où \( P(E_1)=6\times \dfrac{1^1\times 2^1\times 1^1}{5^3}=\dfrac{12}{125}=0.096\) . Au final \( P(A\cap B)=0.024+0.096=0.12\) . Pour conclure la question de cet exercice, on utilise une formule introduite dans le précédent paragraphe : \begin{eqnarray*} P(A\cup B) &=&P(A)+P(B)-P(A\cap B)\\ &=&0.432+0.288-0.12\\ &=&0.72-0.12\\ &=&0.6 \end{eqnarray*}

Indépendance et conditionnement

Définition


On dira que deux évènements \( A\) et \( B\) sont indépendants si \[P(A\cap B)=P(A)\times P(B)\]
Dans l'exemple précédent les évènements \( A\) et \( B\) ne sont pas indépendants car d'une part \( P(A)\times P(B)=0.432\times 0.288=0.124416\) et d'autre part \( P(A\cap B)=0.12\) . Imaginons que nous lancions deux pièces de monnaies équilibrées. On note \( A\) l'évènement "la première pièce donne un pile" et \( B\) l'évènement "la seconde pièce donne face". Alors l'expérience s'identifie à tirer deux boules (la première pièce et la seconde pièce) dans une urne qui contient deux boules (pile et face). Le tirage est avec remise. Il y a donc \( 2^2\) cas possible que l'on peut facilement énumérer \( \Omega=\{PP, PF, FP, FF\}\) . On observe alors que deux cas sont favorables à \( A\) ; précisément \( PP\) et \( FP\) d'où \( P(A)=\dfrac{2}{4}\) et deux cas sont favorables à \( B\) (\( FF\) , \( PF\) ) d'où \( P(B)=\dfrac{2}{4}\) . L'évènement \( A\cap B\) correspond à "la première pièce donne pile et la seconde donne face" qui ne peut être que \( PF\) d'où \( P(A\cap B)=\dfrac{1}{4}\) . Alors \[P(A\cap B)=\dfrac{1}{4}=\dfrac{2}{4}\times\dfrac{2}{4}=P(A)\times P(B)\] et les évènements \( A\) et \( B\) sont indépendants.

Définition


Soient \( A\) et \( B\) deux évènements tel que \( P(B)\neq0\) . On définit la probabilité conditionnelle de \( A\) sachant \( B\) notée \( P_B(A)\) ou \( P(A|B)\) par la formule \[P(A|B)=\dfrac{P(A\cap B)}{P(B)}\]
Reprenons le dernier exemple avec le lancer des deux pièces. On a \( P(A|B)=\dfrac{P(A\cap B)}{P(B)}=\dfrac{\frac{1}{4}}{\frac{2}{4}}=\dfrac{1}{2}\) .

Proposition


Deux évènements \( A\) et \( B\) de probabilités non nuls sont indépendants si et seulement si \[P(A|B)=P(A)\]

Démonstration

Cela vient de la définition de conditionnement \( P(A|B)=\dfrac{P(A\cap B)}{P(B)}\) qui se réécrit \( P(A|B)\times P(B)=P(A\cap B)\) .
\( \bullet\)
Si \( A\) et \( B\) sont indépendants alors \( P(A|B)P(B)=P(A\cap B)=P(A)P(B)\) et en simplifiant par \( P(B)\) on trouve \( P(A|B)=P(A)\) .

\( \bullet\)
Si \( P(A|B)=P(A)\) alors \( P(A)P(B)=P(A|B)P(B)=P(A\cap B)\) .
Voici un outil de la théorie des ensembles nécessaire à la formulation de la probabilité totale. C'est conceptuellement assez technique. Pour l'illustrer ce principe considérons l'expérience aléatoire suivante :
On dispose de deux urnes. Un première \( U_1\) contenant une boule blanche et quatre boules noires et une seconde \( U_2\) avec trois boules blanche et deux boules noire. On lance un dé équilibré. Si il tombe sur un \( 6\) on tire au hasard une boule dans l'urne \( U_1\) sinon dans l'urne \( U_2\) .
Dans la suite du chapitre nous allons tenter de répondre à la question suivante : après avoir réalisé cette expérience nous avons tirer une boule noire. Quel est la probabilité d'avoir obtenu un \( 6\) lors du lancé de dé ?

Définition


Soit \( E\) un ensemble. Une partition de \( E\) est la donnée de sous-ensemble \( E_i\) tel que leur union donne \( E\) et ont deux à deux des intersections vide.
Les partitions permettent de diviser l'univers des possibilités en plusieurs parties parfois plus simple à comprendre et dont les calculs de probabilités sont plus triviaux. Dans notre exemple nous pouvons par exemple scinder l'univers des possibilités en deux (partitionner \( \Omega\) en deux sous-ensembles) : soit on a obtenu un \( 6\) lors du lancé de dé soit pas.

Théorème [Formule de la probabilité totale]


Soit \( A\) un évènement de \( (\Omega_i)_i\) une partition de l'univers des possibilités \( \Omega\) . \[P(A)=\sum_i P(A|\Omega_i)P(\Omega_i)\]
Mais oui que ça fait peur, que c'est incompréhensible, illisible ! Pas de panique nous allons tout de suite comprendre et voir comment, dans la pratique, une telle horreur s'utilise. Un outil très élégant de ce type de calcul est un arbre pondéré. C'est un petit dessin qui représente l'expérience. Toute les expériences ne peuvent pas toujours être vu sur un arbre mais quand on cherche a appliquer la formule de la probabilité totale c'est qu'un arbre ne doit pas être loin. Nous commençons l'expérience par lancer un dé dont l'issu est soit un \( 6\) soit pas un \( 6\) . \[ \xymatrix@R=0cm{ &&\\ &6&\\ \bullet\ar@{-}[ru]\ar@{-}[rd]&&\\ &\overline{6}&\\ && } \] On augmente cet arbre en mettant sur les branches les probabilités d'obtenir l'évènement visé. Il y a trivialement une chance sur \( 6\) d'obtenir un \( 6\) et donc \( 5\) chance sur \( 6\) de ne pas l'obtenir. \[ \xymatrix@R=0cm{ &&\\ &6&\\ \bullet\ar@{-}[ru]^{\frac{1}{6}}\ar@{-}[rd]_{\frac{5}{6}}&&\\ &\overline{6}&\\ && } \] Une fois fait on tire une boule dont l'issu est la couleur blanche (\( B\) ) ou noire (\( N\) ) : \[ \xymatrix@R=0cm{ &&B\\ &6\ar@{-}[ru]\ar@{-}[r]&N\\ \bullet\ar@{-}[ru]^{\frac{1}{6}}\ar@{-}[rd]_{\frac{5}{6}}&&\\ &\overline{6}\ar@{-}[r]\ar@{-}[rd]&B\\ &&N } \] On doit faire apparaître les probabilités sur les arêtes. Considérons l'arête entre le \( 6\) et le \( B\) . Par construction, la probabilité correspond à obtenir une boule blanche sachant que l'on a obtenu un \( 6\) au lancé de dé. Il s'agit de la probabilité conditionnelle de \( B\) sachant \( 6\) . Inutile ici de revenir à la définition puisque si l'on a obtenu un \( 6\) alors on a tiré au hasard une boule dans l'urne \( U_1\) , qui contient une seule boule blanche parmi les 5 d'où \[ \xymatrix@R=0cm{ &&B\\ &6\ar@{-}[ru]^{\frac{1}{5}}\ar@{-}[r]_{\frac{4}{5}}&N\\ \bullet\ar@{-}[ru]^{\frac{1}{6}}\ar@{-}[rd]_{\frac{5}{6}}&&\\ &\overline{6}\ar@{-}[r]\ar@{-}[rd]&B\\ &&N } \] De même pour les arêtes issues de \( \overline{6}\) . \[ \xymatrix@R=0cm{ &&B\\ &6\ar@{-}[ru]^{\frac{1}{5}}\ar@{-}[r]_{\frac{4}{5}}&N\\ \bullet\ar@{-}[ru]^{\frac{1}{6}}\ar@{-}[rd]_{\frac{5}{6}}&&\\ &\overline{6}\ar@{-}[r]^{\frac{3}{5}}\ar@{-}[rd]_{\frac{2}{5}}&B\\ &&N } \] La formule de probabilité totale permet alors de calculer \( P(N)\) en suivant tous les chemins menant à l'évènement \( N\) . On multiplie les branches consécutives et on additionne les chemins. Ici \[P(N)=\dfrac{1}{6}\times \dfrac{4}{5}+\dfrac{5}{6}\times \dfrac{2}{5}=\dfrac{14}{30}\] Répondons à présent à la question : nous avons tirer une boule noire. Quel est la probabilité d'avoir obtenu un \( 6\) lors du lancé de dé ? Cette question revient à calculer \( P(6|N)\) . \[P(6|N)=\dfrac{P(6\cap N)}{P(N)}=\dfrac{P(6)P(N|6)}{P(N)} =\dfrac{\frac{1}{6}\times \frac{4}{5}}{\frac{14}{30}} =\dfrac{\frac{4}{30}}{\frac{14}{30}} =\dfrac{4}{14} =\dfrac{2}{7} \simeq 0.286 \] Il y a environ \( 30\%\) de chance d'avoir obtenue un \( 6\) si à la fin de l'expérience on a tiré une boule noire.