\( %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Mes commandes %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \newcommand{\multirows}[3]{\multirow{#1}{#2}{$#3$}}%pour rester en mode math \renewcommand{\arraystretch}{1.3}%pour augmenter la taille des case \newcommand{\point}[1]{\marginnote{\small\vspace*{-1em} #1}}%pour indiquer les points ou le temps \newcommand{\dpl}[1]{\displaystyle{#1}}%megamode \newcommand{\A}{\mathscr{A}} \newcommand{\LN}{\mathscr{N}} \newcommand{\LL}{\mathscr{L}} \newcommand{\K}{\mathbb{K}} \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\M}{\mathcal{M}} \newcommand{\D}{\mathbb{D}} \newcommand{\E}{\mathcal{E}} \renewcommand{\P}{\mathcal{P}} \newcommand{\G}{\mathcal{G}} \newcommand{\Kk}{\mathcal{K}} \newcommand{\Cc}{\mathcal{C}} \newcommand{\Zz}{\mathcal{Z}} \newcommand{\Ss}{\mathcal{S}} \newcommand{\B}{\mathbb{B}} \newcommand{\inde}{\bot\!\!\!\bot} \newcommand{\Proba}{\mathbb{P}} \newcommand{\Esp}[1]{\dpl{\mathbb{E}\left(#1\right)}} \newcommand{\Var}[1]{\dpl{\mathbb{V}\left(#1\right)}} \newcommand{\Cov}[1]{\dpl{Cov\left(#1\right)}} \newcommand{\base}{\mathcal{B}} \newcommand{\Som}{\textbf{Som}} \newcommand{\Chain}{\textbf{Chain}} \newcommand{\Ar}{\textbf{Ar}} \newcommand{\Arc}{\textbf{Arc}} \newcommand{\Min}{\text{Min}} \newcommand{\Max}{\text{Max}} \newcommand{\Ker}{\text{Ker}} \renewcommand{\Im}{\text{Im}} \newcommand{\Sup}{\text{Sup}} \newcommand{\Inf}{\text{Inf}} \renewcommand{\det}{\texttt{det}} \newcommand{\GL}{\text{GL}} \newcommand{\crossmark}{\text{\ding{55}}} \renewcommand{\checkmark}{\text{\ding{51}}} \newcommand{\Card}{\sharp} \newcommand{\Surligne}[2]{\text{\colorbox{#1}{ #2 }}} \newcommand{\SurligneMM}[2]{\text{\colorbox{#1}{ #2 }}} \newcommand{\norm}[1]{\left\lVert#1\right\rVert} \renewcommand{\lim}[1]{\underset{#1}{lim}\,} \newcommand{\nonor}[1]{\left|#1\right|} \newcommand{\Un}{1\!\!1} \newcommand{\sepon}{\setlength{\columnseprule}{0.5pt}} \newcommand{\sepoff}{\setlength{\columnseprule}{0pt}} \newcommand{\flux}{Flux} \newcommand{\Cpp}{\texttt{C++\ }} \newcommand{\Python}{\texttt{Python\ }} %\newcommand{\comb}[2]{\begin{pmatrix} #1\\ #2\end{pmatrix}} \newcommand{\comb}[2]{C_{#1}^{#2}} \newcommand{\arrang}[2]{A_{#1}^{#2}} \newcommand{\supp}[1]{Supp\left(#1\right)} \newcommand{\BB}{\mathcal{B}} \newcommand{\arc}[1]{\overset{\rotatebox{90}{)}}{#1}} \newcommand{\modpi}{\equiv_{2\pi}} \renewcommand{\Re}{Re} \renewcommand{\Im}{Im} \renewcommand{\bar}[1]{\overline{#1}} \newcommand{\mat}{\mathcal{M}} \newcommand{\und}[1]{{\mathbf{\color{red}\underline{#1}}}} \newcommand{\rdots}{\text{\reflectbox{$\ddots$}}} \newcommand{\Compa}{Compa} \newcommand{\dint}{\dpl{\int}} \newcommand{\intEFF}[2]{\left[\!\left[#1 ; #2\right]\!\right]} \newcommand{\intEFO}[2]{\left[\!\left[#1 ; #2\right[\!\right[} \newcommand{\intEOF}[2]{\left]\!\left]#1 ; #2\right]\!\right]} \newcommand{\intEOO}[2]{\left]\!\left]#1 ; #2\right[\!\right[} \newcommand{\ou}{\vee} \newcommand{\et}{\wedge} \newcommand{\non}{\neg} \newcommand{\implique}{\Rightarrow} \newcommand{\equivalent}{\Leftrightarrow} \newcommand{\Ab}{\overline{A}} \newcommand{\Bb}{\overline{B}} \newcommand{\Cb}{\overline{C}} \newcommand{\Cl}{\texttt{Cl}} \newcommand{\ab}{\overline{a}} \newcommand{\bb}{\overline{b}} \newcommand{\cb}{\overline{c}} \newcommand{\Rel}{\mathcal{R}} \newcommand{\superepsilon}{\varepsilon\!\!\varepsilon} \newcommand{\supere}{e\!\!e} \makeatletter \newenvironment{console}{\noindent\color{white}\begin{lrbox}{\@tempboxa}\begin{minipage}{\columnwidth} \ttfamily \bfseries\vspace*{0.5cm}} {\vspace*{0.5cm}\end{minipage}\end{lrbox}\colorbox{black}{\usebox{\@tempboxa}} } \makeatother \def\ie{\textit{i.e. }} \def\cf{\textit{c.f. }} \def\vide{ { $ {\text{ }} $ } } %Commande pour les vecteurs \newcommand{\grad}{\overrightarrow{Grad}} \newcommand{\Vv}{\overrightarrow{v}} \newcommand{\Vu}{\overrightarrow{u}} \newcommand{\Vw}{\overrightarrow{w}} \newcommand{\Vup}{\overrightarrow{u'}} \newcommand{\Zero}{\overrightarrow{0}} \newcommand{\Vx}{\overrightarrow{x}} \newcommand{\Vy}{\overrightarrow{y}} \newcommand{\Vz}{\overrightarrow{z}} \newcommand{\Vt}{\overrightarrow{t}} \newcommand{\Va}{\overrightarrow{a}} \newcommand{\Vb}{\overrightarrow{b}} \newcommand{\Vc}{\overrightarrow{c}} \newcommand{\Vd}{\overrightarrow{d}} \newcommand{\Ve}[1]{\overrightarrow{e_{#1}}} \newcommand{\Vf}[1]{\overrightarrow{f_{#1}}} \newcommand{\Vn}{\overrightarrow{0}} \newcommand{\Mat}{Mat} \newcommand{\Pass}{Pass} \newcommand{\mkF}{\mathfrak{F}} \renewcommand{\sp}{Sp} \newcommand{\Co}{Co} \newcommand{\vect}[1]{\texttt{Vect}\dpl{\left( #1\right)}} \newcommand{\prodscal}[2]{\dpl{\left\langle #1\left|\vphantom{#1 #2}\right. #2\right\rangle}} \newcommand{\trans}[1]{{\vphantom{#1}}^{t}{#1}} \newcommand{\ortho}[1]{{#1}^{\bot}} \newcommand{\oplusbot}{\overset{\bot}{\oplus}} \SelectTips{cm}{12}%Change le bout des flèches dans un xymatrix \newcommand{\pourDES}[8]{ \begin{itemize} \item Pour la ligne : le premier et dernier caractère forment $#1#2$ soit $#4$ en base 10. \item Pour la colonne : les autres caractères du bloc forment $#3$ soit $#5$ en base 10. \item A l'intersection de la ligne $#4+1$ et de la colonne $#5+1$ de $S_{#8}$ se trouve l'entier $#6$ qui, codé sur $4$ bits, est \textbf{\texttt{$#7$}}. \end{itemize} } \)

Probabilités Continues

Introduction

Considérons l'expérience aléatoire : "On tire au hasard un nombre réelle entre \( 0\) et \( 1\) " et considérons l'évènement \( A\) : "Le nombre est \( 0.35498416\) ". Quel est la probabilité de \( A\) ? Si on applique le même procédé que celui des chapitres précédents, on dirait : il y a une infinité de valeur possible pour le nombre tiré (il y a une infinité de nombre réel entre \( 0\) et \( 1\) ) ou autrement dis la cardinalité \( \Card{[0 ; 1]}=\infty\) . D'autre part, il n'y a qu'une valeur qui vaut \( 0.35498416\) , donc \[P(A)=\dfrac{1}{\infty}\] et il on convient que cette fraction vaut \( 0\) parce que \( \lim{n\rightarrow+\infty}\dfrac{1}{n}=0\) par exemple. Autrement dis : il est impossible d'obtenir \( 0.35498416\) lorsqu'on prend un nombre au hasard dans l'intervalle \( [0, 1]\) . Bon... soit ! Considérons à présent l'évènement \( B\) : "le nombre tiré est entre \( 0.2\) et \( 0.7\) ". De la même manière, si l'on cherche à déterminer la probabilité de cet évènement, il faut compter combien d'éléments sont dans \( B\) . Mais il apparait claire, qu'il y a une infinité de nombre réel entre \( 0.2\) et \( 0.7\) (la cardinatlité \( \Card{[0.2 ; 0.7]}=\infty\) ). On écrirait donc \[P(B)=\dfrac{\Card{[0.2 ; 0.7]}}{\Card{[0 ; 1]}}=\dfrac{\infty}{\infty}\] Et là, c'est un problème ! C'est une forme indéterminée ! Il faut essayer autre chose. Voici une idée : l'intervalle \( [0 ; 1]\) est composé de \( 10\) morceaux de taille \( 0.1\) . Précisément : \[ [0 ; 0.1]\quad [0.1 ; 0.2]\quad [0.2 ; 0.3]\quad [0.3 ; 0.4]\quad [0.4 ; 0.5]\quad [0.5 ; 0.6]\quad [0.6 ; 0.7]\quad [0.7 ; 0.9]\quad [0.8 ; 0.9]\quad [0.9 ; 1]\quad \] Chacun de ces intervalles contient le même nombre de points, une infinité certes, mais la même taille d'infini. En d'autre terme \( \Card{[0.4 ; 0.5]}=\Card{[0.1 ; 0.2]}\) . Ou encore par une savante formule : \[\Card{[0 ; 1]}=10\Card{[0 ; 0.1]}\] De la même manière \( \Card{[0.2 ; 0.7]}=5\Card{[0 ; 0.1]}\) . Du coup on aurait envie d'écrire et de simplifier la fraction \[P(B)=\dfrac{\Card{[0.2 ; 0.7]}}{\Card{[0 ; 1]}}=\dfrac{5\Card{[0 ; 0.1]}}{10\Card{[0 ; 0.1]}}=\dfrac{5}{10}=\dfrac{1}{2}\] Tout cela est bien beau mais dans l'égalité précédente nous avons simplifier la fraction par \( \Card{[0 ; 0.1]}=\infty\) et ce n'est pas très propre, mais assez légitime. L'idée est de se débarrasser de ce dangereux infini1. Revenons aux bases. Qu'est-ce qu'une probabilité ? C'est une fonction qui va peser les ensembles ! Et la seule manière que nous avons de peser des ensembles c'est de passer par le calcul de leur cardinalité. Le poids d'un ensemble \( A\) (du point de vue la logique on parle donc d'évènement) est \( \dfrac{\Card{A}}{\Card{\Omega}}\) . C'est ici que nous allons changer de paradigme. Nous allons passer par une fonction qui va représenter le poids d'un ensemble. Dans le cadre de ce cours, nous allons nous intéresser uniquement à peser les domaines de \( \R\) . Reprenons l'exemple d'un dé équilibré. Représentons la fonction de poids
Par analogie avec ce graphique reprenons l'exemple précédent de nombre réel tiré au hasard. Nous avions divisé l'intervalle \( [0 ; 1]\) en \( 10\) morceaux de même poids. Ce poids est \( \Card{[0 ; 0.1]}\) qui vaut l'infini. L'infini ferais un dessin pas très élégant. Pour faire simple, notons \( x=\Card{[0 ; 0.1]}\) . Alors la fonction de poids se représente comme suit
La somme des probabilité devant être égale à \( 1\) nous serions tenter d'écrire \( 10x=1\) donc \( x=0.1\) mais cela dépend bien évidement de la manière dont nous avons coupé \( [0 ; 1]\) . Nous aurions pu également dire que \( \Card{[0 ; 1]}=100\Card{[0 ; 0.01]}\) ou \( \Card{[0 ; 1]}=1000\Card{[0 ; 0.001]}\) qui donnerait des valeurs de \( x\) différentes. Cela dépend donc de la taille du découpage, ou plutôt la taille de l'intervalle \( [0 ; 0.1]\) . La tentation n'est donc pas \( 10x=1\) mais \( \text{Nombre d'intervalle}\times \text{taille de l'intervalle} \times x = 1\) . Ainsi, peut importe la partition de \( [0 ; 1]\) , \( x=1\) . Et en fait \( \text{Nombre d'intervalle}\times \text{taille de l'intervalle}\) est la formule de l'aire d'un rectangle. Ca y est on l'a ! Notre nouveau paradigme pour peser des intervalles, c'est l'aire ; et l'aire c'est une intégrale !

Fonction de densité

Définition


Soit \( p:\R\longrightarrow\R\) une application. On dira que \( p\) est une fonction de densité si les trois conditions suivantes sont respectées :
  • \( \forall x\in \R,\ p(x)\geqslant 0\)
  • La fonction \( p\) est continue sauf sur un nombre dénombrable de points.
  • \( \dpl{\int_{\R}p(x)\ dx=1}\)
Détaillons cette définition.
\( \bullet\)
Pour commencer, cette fonction est en fait une application, c'est à dire qu'elle doit être définie sur \( \R\) , en particulier elle ne peut pas avoir de valeur interdite.

\( \bullet\)
La première condition "\( \forall x\in \R,\ p(x)\geqslant 0\) " ne traduit pas autre chose que l'application \( p\) est un poids ; elle ne peut pas être négative.

\( \bullet\)
La seconde condition est une hypothèse un peu technique pour garantir que nous pouvons calculer l'intégrale.

\( \bullet\)
La dernière condition est une reformulation de "la somme des probabilités vaut 1". En effet, lorsque nous étions en probabilité discrète, "la somme des probabilités vaut 1" s'écrivait \( \dpl{\sum_{k=0}^nP(X=k)=1}\) . Dans le cadre continue, la notion de sommation ne se traduit plus par \( \sum\) mais par \( \int\) (d'ailleurs historiquement, lorsque B. Riemann a inventé2 la notion de calcul d'aire il écrivait la lettre \( S\) pour somme ; la manipulation rapide et intensive de ce symbole l'a transformé au cour du temps en ce \( S\) déformé qu'est \( \int\) ).
En particulier cette dernière remarque laisse à penser que tous les outils, concepts et formules que nous avons établie dans le cas discret avec le symbole \( \sum\) ont leur pendant continue avec le symbole \( \int\) . Un petit outil.

Définition


Soit \( D\) un domaine de \( \R\) . On note \( \Un_D\) la fonction \begin{eqnarray*} \Un_D : \R&\longrightarrow&\R\\ x&\longmapsto&\left\{ \begin{array}{r l} 1 & \text{si \( x\in D\) }\\ 0 & \text{sinon} \end{array} \right. \end{eqnarray*}
Considérons la fonction \( p(x)=x\Un_{[0 ; 1]}(x)+(2-x)\Un_{[1 ;2]}\) et vérifions qu'il s'agit bien d'une fonction de densité.
Le graphique nous convainc sans peine que la fonction est continue et positive sur \( \R\) . Vérifions que "la somme des probabilités vaut 1" : \begin{eqnarray*} \int_\R p(x)\ dx &=& \int_{-\infty}^0 p(x)\ dx + \int_{0}^1 p(x)\ dx + \int_{1}^{2} p(x)\ dx + \int_{2}^{+\infty} p(x)\ dx \\ &=& \int_{-\infty}^0 0\ dx + \int_{0}^1 x\ dx + \int_{1}^{2} 2-x\ dx + \int_{2}^{+\infty} 0\ dx \\ &=& 0+ \left[\dfrac{x^2}{2}\right]_{0}^1 + \left[-\dfrac{(2-x)^2}{2}\right]_{1}^2 + 0\\ &=& 0+ \left(\dfrac{1^2}{2}-\dfrac{0^2}{2}\right) + \left(-\dfrac{(2-2)^2}{2}+\dfrac{(2-1)^2}{2}\right) + 0\\ &=& 1\qquad \text{CQFD} \end{eqnarray*}

Variables aléatoires continues

Définition


Soit \( \Omega\) l'univers des possibilités d'une expérience aléatoire dont les issues sont des nombres réelles, c'est à dire \( \Omega\subseteq \R\) . Une variable aléatoire \( X : \Omega\longrightarrow\R\) est la donnée d'une fonction de densité \( p\) . On note \[X\sim p\]
Une variable aléatoire réelle est donc la donnée d'une fonction de répartition. Mathématiquement pour tout \( \omega\in \Omega,\ X(\omega)=p(\omega)\) et \( X(\omega)=0\) pour les \( \omega\not\in\Omega\) . En imitant le cas discret nous avons les définitions suivantes.

Définition


Soit \( X\sim p\) .
  • Le support de \( X\) , noté \( Supp(X)\) est l'ensemble des valeurs non nulle de la fonction de densité. \[Supp(X)=\left\{x\in\R\Big| p(x)\neq 0\right\}\]
  • Soit \( A\) un évènement, c'est à dire \( A\subseteq \Omega\) . \[P(X\in A)=\int_Ap(x)\ dx\]
  • L'espérance de la variable \( X\) est \[E(X)=\int_\R xp(x)\ dx\]
  • La variance de la variable \( X\) est \[V(X)=\int_\R(x-E(X))^2 p(x)\ dx\]
  • L'écart-type de la variable \( X\) est \[\sigma(X)=\sqrt{V(X)}\]
Reprenons l'exemple de la fonction de densité \( p(x)=x\Un_{[0 ; 1]}(x)+(2-x)\Un_{[1 ;2]}\) et déterminons sa moyenne, variance et écart-type. \begin{eqnarray*} E(X) &=& \int_\R xp(x)\ dx \\ &=& \int_{-\infty}^0 xp(x)\ dx + \int_{0}^1 xp(x)\ dx + \int_{1}^{2} xp(x)\ dx + \int_{2}^{+\infty} xp(x)\ dx \\ &=& \int_{-\infty}^0 0\ dx + \int_{0}^1 x^2\ dx + \int_{1}^{2} x(2-x)\ dx + \int_{2}^{+\infty} 0\ dx \\ &=& 0+ \left[\dfrac{x^3}{3}\right]_{0}^1 + \left[x^2-\dfrac{x^3}{3}\right]_{1}^2 + 0\\ &=& \left[\dfrac{1^3}{3}-\dfrac{0^3}{3}\right]_{0}^1 + \left[\left(2^2-\dfrac{2^3}{3}\right)-\left(1^2-\dfrac{1^3}{3}\right)\right]_{1}^2 \\ &=& \left(\dfrac{1}{3}\right) + \left(\left(4-\dfrac{8}{3}\right)-\left(1-\dfrac{1}{3}\right)\right) \\ &=&1 \end{eqnarray*} Graphiquement, l'espérance représente le point d'équilibre de la fonction de densité, c'est à dire, la valeur de \( x\) sur laquelle il faut poser son doigt pour tenir la fonction en équilibre.
\begin{eqnarray*} V(X) &=& \int_\R (x-1)^2 p(x)\ dx \\ &=& \int_{-\infty}^{0} (x-1)^2 p(x)\ dx + \int_{0}^{1} (x-1)^2 p(x)\ dx + \int_{1}^{2} (x-1)^2 p(x)\ dx + \int_{2}^{+\infty} (x-1)^2 p(x)\ dx \\ &=& \int_{-\infty}^{0} 0\ dx + \int_{0}^{1} (x-1)^2 x\ dx + \int_{1}^{2} (x-1)^2 (2-x)\ dx + \int_{2}^{+\infty} 0\ dx \\ &=& 0+ \int_{0}^{1} x^3-2x^2+x \ dx + \int_{1}^{2} -x^3+4x^2-5x+2\ dx + 0 \\ &=& \left[\dfrac{x^4}{4}-2\dfrac{x^3}{3}+\dfrac{x^2}{2}\right]_0^1+ \left[-\dfrac{x^4}{4}+4\dfrac{x^3}{3}-5\dfrac{x^2}{2}+2x\right]_1^2 \\ &=& \left[\left(\dfrac{1^4}{4}-2\dfrac{1^3}{3}+\dfrac{1^2}{2}\right)-\left(\dfrac{0^4}{4}-2\dfrac{0^3}{3}+\dfrac{0^2}{2}\right)\right]+ \left[\left(-\dfrac{2^4}{4}+4\dfrac{2^3}{3}-5\dfrac{2^2}{2}+2\times2\right)-\left(-\dfrac{1^4}{4}+4\dfrac{1^3}{3}-5\dfrac{1^2}{2}+2\times 1\right)\right] \\ &=& \left(\dfrac{1}{4}-\dfrac{2}{3}+\dfrac{1}{2}\right)+ \left(\left(-\dfrac{16}{4}+\dfrac{32}{3}-\dfrac{20}{2}+4\right)-\left(-\dfrac{1}{4}+\dfrac{4}{3}-\dfrac{5}{2}+2\right)\right) \\ &=& \dfrac{1}{4}-\dfrac{2}{3}+\dfrac{1}{2}-4+\dfrac{32}{3}-10+4+\dfrac{1}{4}-\dfrac{4}{3}+\dfrac{5}{2}-2 \\ &=&\dfrac{1}{6} \end{eqnarray*} Et donc l'écart-type \( \sigma(X)=\dfrac{1}{\sqrt{6}}=\dfrac{\sqrt{6}}{6}\simeq0.408\) . L'écart-type permet de déterminer ou se trouve la partie avec le plus de poids. Dans notre exemple elle se trouve autour de la moyenne à plus ou moins \( \dfrac{\sqrt{6}}{6}\) , précisément sur l'intervalle \( I=\left[1-\dfrac{\sqrt{6}}{6} ; 1+\dfrac{\sqrt{6}}{6}\right]\) .
Pour s'en convaincre calculons la probabilité que \( X\) soit dans l'intervalle \( I\) . \begin{eqnarray*} p(X\in I) &=& \int_I p(x)\ dx \\ &=& 2\int_{1-\frac{\sqrt{6}}{6}}^1 p(x)\ dx\qquad\text{par symétrie} \\ &=& 2\int_{1-\frac{\sqrt{6}}{6}}^1 x\ dx \\ &=& 2\left[\dfrac{x^2}{2}\right]_{1-\frac{\sqrt{6}}{6}}^1 \\ &=& \left[x^2\right]_{1-\frac{\sqrt{6}}{6}}^1 \\ &=& 1^2-\left(1-\dfrac{\sqrt{6}}{6}\right)^2 \\ &=& 1-\left(1-2\dfrac{\sqrt{6}}{6}+\dfrac{6}{36}\right) \\ &=& 1-1+\dfrac{2\sqrt{6}}{6}-\dfrac{1}{6} \\ &=&\dfrac{2\sqrt{6}-1}{6} \\ &\simeq& 65\% \end{eqnarray*} Comme dans le cas discret nous aurons pu simplifier le calcul de la variance en appliquant la formule Köning-Huygens

Proposition [Formule de Köning-Huygens]


\[V(X)=E(X^2)-E(X)^2\]

Démonstration

Il suffit de reprendre la démonstration dans le cas discret et remplacer le symbole \( \sum\) par \( \int\) .
Nous laissons au lecteur le passionnant calcul de \( E(X^2)=\dpl{\int_\R x^2 p(x)\ dx}\) et de s'assurer que \( E(X^2)-E(X)^2\) donne bien \( \dfrac{1}{6}\) . L'inconvénient de ces calculs réside dans la détermination d'une primitive. Dériver une fonction est une opération moins compliqué que l'intégration. Du point de vu des probabilité on parle de fonction de répartition.

Fonctions de répartitions

Définition


Soit \( F:\R\longrightarrow\R\) une application. On dira que \( F\) est une fonction de répartition si les conditions suivantes sont vérifiées.
  • L'application \( F\) est continue sur tout \( \R\) et dérivable sauf sur un nombre dénombrable de point.
  • L'application \( F\) est croissante.
  • \( \lim{t\rightarrow-\infty}F(t)=0\) .
  • \( \lim{t\rightarrow+\infty}F(t)=1\) .
Vérifions que la fonction \( F\) suivante est une fonction de répartition. \begin{eqnarray*} F : \R&\longrightarrow &\R\\ t&\longmapsto & \left\{ \begin{array}{rl} 0 & \text{si \( t{<}0\) }\\ \dfrac{t^2}{2} & \text {si \( t\in[0 ; 1[\) }\\ 1-\dfrac{(2-t)^2}{2} & \text {si \( t\in[1 ; 2[\) }\\ 1 & \text {si \( t\geqslant 2\) } \end{array} \right. \end{eqnarray*} Nous aurions pu également écrire \[F(t)=\dfrac{t^2}{2}\Un_{[0 ; 1[}(t)+1-\dfrac{(2-t)^2}{2}\Un_{[1 ; 2[}(t)+\Un_{[2 ; +\infty[}(t)\] Clairement les conditions sur les limites sont vérifiées. La fonctions est constante partout sauf entre \( 0\) et \( 2\) . De plus sur \( [0 ; 1]\) c'est évidemment une parabole croissante. Une étude rapide permet de vérifier que sur \( [1 ; 2]\) la parabole \( 1-\dfrac{(2-t)^2}{2}\) est également croissante. En définitive, la fonction \( F\) est croissante sur \( \R\) . Il est également trivial que la fonction \( F\) est dérivable partout sauf éventuellement en \( 0\) , \( 1\) et \( 2\) . On observe que \( \lim{t\rightarrow0^-}F(t)=\lim{t\rightarrow0^-}0 = 0\) et d'autre par \( \lim{t\rightarrow0^+}F(t)=\lim{t\rightarrow0^+}\dfrac{t^2}{2}=0\) donc la fonction est continue en \( 0\) . De la même manière, on a \( \lim{t\rightarrow1^-}F(t)=\lim{t\rightarrow1^-}\dfrac{t^2}{2}=\dfrac{1}{2}\) et \( \lim{t\rightarrow1^+}F(t)=\lim{t\rightarrow1^+}1-\dfrac{(2-t)^2}{2}=\dfrac{1}{2}\) ce qui prouve que \( F\) est continue en \( 1\) . Finalement \( \lim{t\rightarrow2^-}F(t)=\lim{t\rightarrow2^-}1-\dfrac{(2-t)^2}{2}=1\) qui est bien la limite à droite de \( 2\) et donc la fonction \( F\) est bien continue en \( 2\) . Sans trop de peine on pourrait montrer que \( F\) est également dérivable sur tout \( \R\) mais cela n'a pas d'intérêt ici.
Voici le liens qui existe entre fonction de répartition et fonction de densité.

Théorème


Soit \( X\sim p\) . La fonction \[F_X(t)=P(X{{<}}t)=\int_{-\infty}^tp(x)\ dx\] est une fonction de répartition. En particulier \( F_X'(x)=p(x)\) pour les valeurs de \( x\) pour lesquelles \( F_X\) est dérivable.

Démonstration

La fonction de densité étant presque continue et l'opération d'intégration régularisante, la fonction \( F_X\) qui est une application puisque \( p\) l'est, est une fonction continue et dérivable sauf sur les points de discontinuité de \( p\) . De plus comme la densité \( p\) est toujours positive, la fonction \( F_X\) est croissante (on ajoute de l'aire positive quand le \( t\) augmente). La limite en \( -\infty\) est trivialement nulle (il n'y a plus d'aire) et la limite en \( +\infty\) , correspond à "la somme des probabilités vaut \( 1\) " et vaut donc \( 1\) .

Corollaire


Soit \( X\) une variable aléatoire continue réelle de fonction de répartition \( F_X\) alors \[P(X\in [a ; b])=F_X(b)-F_X(a)\]

Démonstration

Il s'agit de la reformulation du lien entre intégrale et primitive.
Par exemple, la fonction de répartition de la densité \( p(x)=x\Un_{[0 ; 1]}(x)+(2-x)\Un_{[1 ;2]}\) est la fonction \[F(t)=\dfrac{t^2}{2}\Un_{[0 ; 1[}(t)+\left(1-\dfrac{(2-t)^2}{2}\right)\Un_{[1 ; 2[}(t)+\Un_{[2 ; +\infty[}(t)\]

Lois classiques

Nous présentons ici un formulaire des lois classique en probabilités continue. Tous les résultats proposées se démontrent par des calculs plus ou moins savant qui sont laissés au lecteur3. Sur les graphiques, les densités sont en rouges et les répartitions en bleues.
Uniforme.
Soit \( a{{<}}b\) des nombres réels (finis)
Notation :
\( X\sim\mathcal{U}_{[a, b]}\)

Support :
\( Supp(X)=[a, b]\)

Densité :
\( p(x)=\dfrac{1}{b-a}\Un_{[a, b]}(x)\)

Répartition :
\( F_X(t)=\dfrac{t-a}{b-a}\Un_{[a, b]}(x)+\Un_{]b, +\infty[}(x)\)

Espérance :
\( E(X)=\dfrac{a+b}{2}\)

Variance :
\( V(X)=\dfrac{(b-a)^2}{12}\)

Exponentielle.
Soit \( \lambda{{>}}0\) .
Notation :
\( X\sim\mathcal{E}(\lambda)\)

Support :
\( Supp(X)=[0 ; +\infty[\)

Densité :
\( p(x)=\lambda e^{-\lambda x}\Un_{[0 ; +\infty]}(x)\)

Répartition :
\( F_X(t)=(1-e^{-\lambda t})\Un_{[0 ; +\infty]}(t)\)

Espérance :
\( E(X)=\dfrac{1}{\lambda}\)

Variance :
\( V(X)=\dfrac{1}{\lambda}\)

Cauchy.
Soient \( a{{>}}0\) et \( x_0\in \R\) .
Notation :
\( X\sim\mathcal{C}(x_0, a)\)

Support :
\( Supp(X)=\R\)

Densité :
\( p(x)=\dfrac{1}{\pi}\dfrac{a}{(x-x_0)^2+a^2}\)

Répartition :
\( F_X(t)=\dfrac{1}{\pi} Arctan\left(\dfrac{x-x_0}{a}\right)+\dfrac{1}{2}\)

Espérance :
\( E(X)\) n'existe pas (mais \( x_0\) est raccourci efficace).

Variance :
\( V(X)\) n'existe pas (mais \( a\) est un raccourci efficace).

Normale.
Soient \( \sigma{{>}}0\) et \( \mu\in \R\) .
Notation :
\( X\sim\mathcal{N}(\mu, \sigma)\)

Support :
\( Supp(X)=\R\)

Densité :
\( p(x)=\dfrac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2}\left(\dfrac{x-\mu}{\sigma}\right)^2}\)

Répartition :
Ne s'exprime avec des expressions algébrique simple.

Espérance :
\( E(X)=\mu\) .

Variance :
\( V(X)=\sigma^2\) .

Chi deux.
Soit \( n\) un entier strictement positif appelé le degré de liberté.
Notation :
\( X\sim\chi^2_n\)

Support :
\( Supp(X)=\R\)

Densité :
\( p(x)=\dfrac{1}{2^{\frac{n}{2}}\Gamma\left(\frac{n}{2}\right)}x^{\frac{n}{2}-1}e^{-\frac{x}{2}}\Un_{\R_+}(x)\)

Répartition :
Existe, mais de forme complexe.

Espérance :
\( E(X)=n\)

Variance :
\( V(X)=2n\)

Student.
Soit \( n\) un entier strictement positif appelé le degré de liberté.
Notation :
\( X\sim\mathcal{T}_n\)

Support.
\( Supp(X)=\R\)

Densité :
\( p(x)=\dfrac{1}{\sqrt{n\pi}}\dfrac{\Gamma\left(\frac{n+1}{2}\right)}{\Gamma\left(\frac{n}{2}\right)}\left(1+\dfrac{x^2}{n}\right)^{-\frac{n+1}{2}}\)

Répartition :
Existe, mais de forme complexe.

Espérance :
\( E(X)= \left\{ \begin{array}{rl} \text{indéterminée}&\text{si } n=1\\ 0&\text{si } n{>}1 \end{array} \right. \)

Variance :
\( V(X)= \left\{ \begin{array}{rl} \text{indéterminée}&\text{si } n=1\\ +\infty&\text{si } n=2\\ \dfrac{n}{n-2}&\text{si } n{>}2 \end{array} \right. \)




1Les amoureux des concepts mathématiques pourront aller voir ce que sont les ordinaux et ne plus craindre l'infini !
2... ou découvert
3C'est un piège, ne vous lancez pas dans ces calculs !