\( %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Mes commandes %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \newcommand{\multirows}[3]{\multirow{#1}{#2}{$#3$}}%pour rester en mode math \renewcommand{\arraystretch}{1.3}%pour augmenter la taille des case \newcommand{\point}[1]{\marginnote{\small\vspace*{-1em} #1}}%pour indiquer les points ou le temps \newcommand{\dpl}[1]{\displaystyle{#1}}%megamode \newcommand{\A}{\mathscr{A}} \newcommand{\LN}{\mathscr{N}} \newcommand{\LL}{\mathscr{L}} \newcommand{\K}{\mathbb{K}} \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\M}{\mathcal{M}} \newcommand{\D}{\mathbb{D}} \newcommand{\E}{\mathcal{E}} \renewcommand{\P}{\mathcal{P}} \newcommand{\G}{\mathcal{G}} \newcommand{\Kk}{\mathcal{K}} \newcommand{\Cc}{\mathcal{C}} \newcommand{\Zz}{\mathcal{Z}} \newcommand{\Ss}{\mathcal{S}} \newcommand{\B}{\mathbb{B}} \newcommand{\inde}{\bot\!\!\!\bot} \newcommand{\Proba}{\mathbb{P}} \newcommand{\Esp}[1]{\dpl{\mathbb{E}\left(#1\right)}} \newcommand{\Var}[1]{\dpl{\mathbb{V}\left(#1\right)}} \newcommand{\Cov}[1]{\dpl{Cov\left(#1\right)}} \newcommand{\base}{\mathcal{B}} \newcommand{\Som}{\textbf{Som}} \newcommand{\Chain}{\textbf{Chain}} \newcommand{\Ar}{\textbf{Ar}} \newcommand{\Arc}{\textbf{Arc}} \newcommand{\Min}{\text{Min}} \newcommand{\Max}{\text{Max}} \newcommand{\Ker}{\text{Ker}} \renewcommand{\Im}{\text{Im}} \newcommand{\Sup}{\text{Sup}} \newcommand{\Inf}{\text{Inf}} \renewcommand{\det}{\texttt{det}} \newcommand{\GL}{\text{GL}} \newcommand{\crossmark}{\text{\ding{55}}} \renewcommand{\checkmark}{\text{\ding{51}}} \newcommand{\Card}{\sharp} \newcommand{\Surligne}[2]{\text{\colorbox{#1}{ #2 }}} \newcommand{\SurligneMM}[2]{\text{\colorbox{#1}{ #2 }}} \newcommand{\norm}[1]{\left\lVert#1\right\rVert} \renewcommand{\lim}[1]{\underset{#1}{lim}\,} \newcommand{\nonor}[1]{\left|#1\right|} \newcommand{\Un}{1\!\!1} \newcommand{\sepon}{\setlength{\columnseprule}{0.5pt}} \newcommand{\sepoff}{\setlength{\columnseprule}{0pt}} \newcommand{\flux}{Flux} \newcommand{\Cpp}{\texttt{C++\ }} \newcommand{\Python}{\texttt{Python\ }} %\newcommand{\comb}[2]{\begin{pmatrix} #1\\ #2\end{pmatrix}} \newcommand{\comb}[2]{C_{#1}^{#2}} \newcommand{\arrang}[2]{A_{#1}^{#2}} \newcommand{\supp}[1]{Supp\left(#1\right)} \newcommand{\BB}{\mathcal{B}} \newcommand{\arc}[1]{\overset{\rotatebox{90}{)}}{#1}} \newcommand{\modpi}{\equiv_{2\pi}} \renewcommand{\Re}{Re} \renewcommand{\Im}{Im} \renewcommand{\bar}[1]{\overline{#1}} \newcommand{\mat}{\mathcal{M}} \newcommand{\und}[1]{{\mathbf{\color{red}\underline{#1}}}} \newcommand{\rdots}{\text{\reflectbox{$\ddots$}}} \newcommand{\Compa}{Compa} \newcommand{\dint}{\dpl{\int}} \newcommand{\intEFF}[2]{\left[\!\left[#1 ; #2\right]\!\right]} \newcommand{\intEFO}[2]{\left[\!\left[#1 ; #2\right[\!\right[} \newcommand{\intEOF}[2]{\left]\!\left]#1 ; #2\right]\!\right]} \newcommand{\intEOO}[2]{\left]\!\left]#1 ; #2\right[\!\right[} \newcommand{\ou}{\vee} \newcommand{\et}{\wedge} \newcommand{\non}{\neg} \newcommand{\implique}{\Rightarrow} \newcommand{\equivalent}{\Leftrightarrow} \newcommand{\Ab}{\overline{A}} \newcommand{\Bb}{\overline{B}} \newcommand{\Cb}{\overline{C}} \newcommand{\Cl}{\texttt{Cl}} \newcommand{\ab}{\overline{a}} \newcommand{\bb}{\overline{b}} \newcommand{\cb}{\overline{c}} \newcommand{\Rel}{\mathcal{R}} \newcommand{\superepsilon}{\varepsilon\!\!\varepsilon} \newcommand{\supere}{e\!\!e} \makeatletter \newenvironment{console}{\noindent\color{white}\begin{lrbox}{\@tempboxa}\begin{minipage}{\columnwidth} \ttfamily \bfseries\vspace*{0.5cm}} {\vspace*{0.5cm}\end{minipage}\end{lrbox}\colorbox{black}{\usebox{\@tempboxa}} } \makeatother \def\ie{\textit{i.e. }} \def\cf{\textit{c.f. }} \def\vide{ { $ {\text{ }} $ } } %Commande pour les vecteurs \newcommand{\grad}{\overrightarrow{Grad}} \newcommand{\Vv}{\overrightarrow{v}} \newcommand{\Vu}{\overrightarrow{u}} \newcommand{\Vw}{\overrightarrow{w}} \newcommand{\Vup}{\overrightarrow{u'}} \newcommand{\Zero}{\overrightarrow{0}} \newcommand{\Vx}{\overrightarrow{x}} \newcommand{\Vy}{\overrightarrow{y}} \newcommand{\Vz}{\overrightarrow{z}} \newcommand{\Vt}{\overrightarrow{t}} \newcommand{\Va}{\overrightarrow{a}} \newcommand{\Vb}{\overrightarrow{b}} \newcommand{\Vc}{\overrightarrow{c}} \newcommand{\Vd}{\overrightarrow{d}} \newcommand{\Ve}[1]{\overrightarrow{e_{#1}}} \newcommand{\Vf}[1]{\overrightarrow{f_{#1}}} \newcommand{\Vn}{\overrightarrow{0}} \newcommand{\Mat}{Mat} \newcommand{\Pass}{Pass} \newcommand{\mkF}{\mathfrak{F}} \renewcommand{\sp}{Sp} \newcommand{\Co}{Co} \newcommand{\vect}[1]{\texttt{Vect}\dpl{\left( #1\right)}} \newcommand{\prodscal}[2]{\dpl{\left\langle #1\left|\vphantom{#1 #2}\right. #2\right\rangle}} \newcommand{\trans}[1]{{\vphantom{#1}}^{t}{#1}} \newcommand{\ortho}[1]{{#1}^{\bot}} \newcommand{\oplusbot}{\overset{\bot}{\oplus}} \SelectTips{cm}{12}%Change le bout des flèches dans un xymatrix \newcommand{\pourDES}[8]{ \begin{itemize} \item Pour la ligne : le premier et dernier caractère forment $#1#2$ soit $#4$ en base 10. \item Pour la colonne : les autres caractères du bloc forment $#3$ soit $#5$ en base 10. \item A l'intersection de la ligne $#4+1$ et de la colonne $#5+1$ de $S_{#8}$ se trouve l'entier $#6$ qui, codé sur $4$ bits, est \textbf{\texttt{$#7$}}. \end{itemize} } \)

Définition


Soit \( E\) un espace vectoriel et \( p:E\rightarrow E\) une application linéaire. On dira que \( p\) est un projecteur si \( p\circ p=p\) .
En d'autre terme, pour tout \( \overrightarrow{x}\in E\) , \( p(p(x))=p(x)\) .

Exercice


Dans \( \R^2\) , vérifier que l'application défini par \( p\left(\begin{pmatrix} x\\y \end{pmatrix}\right)=\begin{pmatrix} x\\0 \end{pmatrix}\) est une application linéaire et un projecteur.

Lemme


Soit \( p\) un projecteur d'un espace vectoriel \( E\) et \( \overrightarrow{y}\in \Im(p)\) alors \( p(\overrightarrow{y})=\overrightarrow{y}\) .

Démonstration

Puisque \( \overrightarrow{y}\in\Im(p)\) , il existe \( \overrightarrow{x}\in E\) tel que \( \overrightarrow{y}=p(\overrightarrow{x})\) . Composons par \( p\) pour obtenir : \( p(\overrightarrow{y})=p(p(\overrightarrow{x}))\) mais puisque \( p\) est un projecteur \( p(p(\overrightarrow{x}))=p(\overrightarrow{x})=\overrightarrow{y}\) .

Théorème


Soient \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) un espace euclidien et \( p:E\rightarrow E\) un projecteur. Les conditions suivantes sont équivalentes.
\( (i)\) .
\( E=\Ker(p)\overset{\bot}{\oplus}\Im(p)\)

\( (ii)\) .
\( \forall \overrightarrow{x}_1, \overrightarrow{x}_2\in E, \ \left\langle p(\overrightarrow{x}_1) \left|\vphantom{p(\overrightarrow{x}_1) \overrightarrow{x}_2}\right. \overrightarrow{x}_2 \right\rangle=\left\langle \overrightarrow{x}_1 \left|\vphantom{\overrightarrow{x}_1 p(\overrightarrow{x}_2)}\right. p(\overrightarrow{x}_2) \right\rangle\)
Sous ces conditions on dit que \( p\) est une projection orthogonale.

Démonstration

\( (i)\Rightarrow(ii)\) .
Puisque \( E=\Ker(p)\overset{\bot}{\oplus}\Im(p)\) on a \( \overrightarrow{x}_i=\overrightarrow{e}_{i}+\overrightarrow{f}_{i}\) pour \( \overrightarrow{e}_{i}\in\Ker(p)\) et \( \overrightarrow{f}_{i}\in\Im(p)\) . Alors, en utilisant le lemme on a \( p(\overrightarrow{x}_i)=p(\overrightarrow{e}_{i}+\overrightarrow{f}_{i})=p(\overrightarrow{e}_{i})+p(\overrightarrow{f}_{i})\) par linéarité de \( p\) et \( p(\overrightarrow{e}_{i})=\overrightarrow{0}\) donc \( p(\overrightarrow{x}_i)=p(\overrightarrow{f}_{i})=\overrightarrow{f}_{i}\) d'après le lemme précédent. Alors puisque nous supposons que le noyau et l'image sont orthogonaux, on a d'une part \( \left\langle p(\overrightarrow{x}_1) \left|\vphantom{p(\overrightarrow{x}_1) \overrightarrow{x}_2}\right. \overrightarrow{x}_2 \right\rangle=\left\langle \overrightarrow{f}_{1} \left|\vphantom{\overrightarrow{f}_{1} \overrightarrow{e}_{2}+\overrightarrow{f}_{2}}\right. \overrightarrow{e}_{2}+\overrightarrow{f}_{2} \right\rangle=\left\langle \overrightarrow{f}_{1} \left|\vphantom{\overrightarrow{f}_{1} \overrightarrow{e}_{2}}\right. \overrightarrow{e}_{2} \right\rangle+\left\langle \overrightarrow{f}_{1} \left|\vphantom{\overrightarrow{f}_{1} \overrightarrow{f}_{2}}\right. \overrightarrow{f}_{2} \right\rangle=\left\langle \overrightarrow{f}_{1} \left|\vphantom{\overrightarrow{f}_{1} \overrightarrow{f}_{2}}\right. \overrightarrow{f}_{2} \right\rangle\) et d'autre part \( \left\langle \overrightarrow{x}_1 \left|\vphantom{\overrightarrow{x}_1 p(\overrightarrow{x}_2)}\right. p(\overrightarrow{x}_2) \right\rangle=\left\langle \overrightarrow{e}_{1}+\overrightarrow{f}_{1} \left|\vphantom{\overrightarrow{e}_{1}+\overrightarrow{f}_{1} \overrightarrow{f}_{2}}\right. \overrightarrow{f}_{2} \right\rangle=\left\langle \overrightarrow{e}_{1} \left|\vphantom{\overrightarrow{e}_{1} \overrightarrow{f}_{2}}\right. \overrightarrow{f}_{2} \right\rangle+\left\langle \overrightarrow{f}_{1} \left|\vphantom{\overrightarrow{f}_{1} \overrightarrow{f}_{2}}\right. \overrightarrow{f}_{2} \right\rangle=\left\langle \overrightarrow{f}_{1} \left|\vphantom{\overrightarrow{f}_{1} \overrightarrow{f}_{2}}\right. \overrightarrow{f}_{2} \right\rangle\) .

\( (ii)\Rightarrow(i)\) .
Soit \( \overrightarrow{e}_{}\in\Ker(p)\) et \( \overrightarrow{y}\in \Im(p)\) , Montrons que \( \left\langle \overrightarrow{e}_{} \left|\vphantom{\overrightarrow{e}_{} \overrightarrow{y}}\right. \overrightarrow{y} \right\rangle=0\) . Par définition de l'image, il existe \( \overrightarrow{x}\in E\) tel que \( \overrightarrow{y}=p(\overrightarrow{x})\) alors \[\left\langle \overrightarrow{e}_{} \left|\vphantom{\overrightarrow{e}_{} \overrightarrow{y}}\right. \overrightarrow{y} \right\rangle =\left\langle \overrightarrow{e}_{} \left|\vphantom{\overrightarrow{e}_{} p(\overrightarrow{x})}\right. p(\overrightarrow{x}) \right\rangle =\left\langle p(\overrightarrow{e}_{}) \left|\vphantom{p(\overrightarrow{e}_{}) \overrightarrow{x}}\right. \overrightarrow{x} \right\rangle =\left\langle \overrightarrow{0} \left|\vphantom{\overrightarrow{0} \overrightarrow{x}}\right. \overrightarrow{x} \right\rangle=0 \] Il suffit maintenant de vérifier que tout vecteur de \( E\) s'écrit comme la somme d'un vecteur de \( \Ker(p)\) et d'un vecteur de \( \Im(p)\) . On pose \( \overrightarrow{x}=(\overrightarrow{x}-p(\overrightarrow{x}))+p(\overrightarrow{x})\) . Naturellement \( p(\overrightarrow{x})\in Im(p)\) et on observe que \( p(\overrightarrow{x}-p(\overrightarrow{x}))=p(\overrightarrow{x})-p(p(\overrightarrow{x}))=p(\overrightarrow{x})-p(\overrightarrow{x})=\overrightarrow{0}\) . CQFD.

Exercice


On munit \( \R^2\) de sa structure euclidienne canonique. On considère l'application \( p\left(\begin{pmatrix} x\\y \end{pmatrix}\right)=\begin{pmatrix} \dfrac{x+y}{2}\\\dfrac{x+y}{2} \end{pmatrix}\) . S'agit-il d'une projection orthogonale ?

Corollaire


Soit \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) un espace euclidien et \( F\) un sous espace vectoriel de \( E\) . Il existe une unique projection orthogonale \( p_F\) tel que \( \Im(p_F)=F\) et \( \Ker(p_F)=F^{\bot}\) . En particulier, pour tout \( \overrightarrow{x}\in E\) , \( \overrightarrow{x}-p_F(\overrightarrow{x})\in F^{\bot}\)

Démonstration

Nous avons vu que \( E=F\overset{\bot}{\oplus} F^{\bot}\) , c'est à dire que pour tout vecteur \( \overrightarrow{x}\in E\) il existe une unique décomposition \( \overrightarrow{x}=\overrightarrow{f}_{}+\overrightarrow{e}_{}\) où \( \overrightarrow{f}_{}\in F\) et \( \overrightarrow{e}_{}\in F^{\bot}\) . On pose \( p_F(\overrightarrow{x})=\overrightarrow{f}_{}\) . Par construction et unicité de la décomposition, c'est clairement une application linéaire. C'est aussi trivialement un projecteur puisque si \( \overrightarrow{f}_{}\in F\) alors \( p_F(\overrightarrow{f}_{})=\overrightarrow{f}_{}\) . Par construction son image est \( F\) et d'après le théorème précédent, son noyau est \( \Ker(p_F)=\Im(p_F)^{\bot}=F^{\bot}\) .

Proposition


Soient \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) un espace euclidien et \( F\) un sous-espace vectoriel de dimension \( p\) . Soit \( \mathcal{B}=\left\{\overrightarrow{f}_{1}, \ldots, \overrightarrow{f}_{p}\right\}\) une base orthonormale de \( F\) . Alors \[\forall \overrightarrow{x}\in E, \ p_F(\overrightarrow{x})=\sum_{i=1}^p\left\langle \overrightarrow{x} \left|\vphantom{\overrightarrow{x} \overrightarrow{f}_{i}}\right. \overrightarrow{f}_{i} \right\rangle\overrightarrow{f}_{i}\]

Démonstration

On peut compléter la base \( \mathcal{B}\) en une base orthornormale \( \mathcal{B}'=\left\{\overrightarrow{f}_{1}, \ldots, \overrightarrow{f}_{p}, \overrightarrow{f}_{p+1}, \ldots, \overrightarrow{f}_{n}\right\}\) de \( E\) de sorte que \( {\texttt{Vect}}\left(\overrightarrow{f}_{p+1}, \ldots, \overrightarrow{f}_{n} \right)=F^{\bot}\) (conséquence de l'égalité \( E=F\overset{\bot}{\oplus} F^{\bot}\) et du procédé de Gram-Schmidt). Puisque \( p_F(\overrightarrow{f}_{i})=\overrightarrow{f}_{i}\) pour tout \( i\in [\![1 ; p]\!]\) et \( p_F(\overrightarrow{f}_{i})=\overrightarrow{0}\) pour tout \( i\in [\![p+1 ; n]\!]\) et puisque \( \dpl{\overrightarrow{x}=\sum_{i=1}^n\left\langle \overrightarrow{x} \left|\vphantom{\overrightarrow{x} \overrightarrow{f}_{i}}\right. \overrightarrow{f}_{i} \right\rangle\overrightarrow{f}_{i}}\) , la linéarité de \( p\) permet de conclure.
Cette proposition permet de déterminer l'expression de n'importe quelle projection orthogonale. Par exemple, considérons \( \R^3\) munit de sa structure euclidienne classique et considérons le plan \( P=\left\{\begin{pmatrix} x\\y\\z \end{pmatrix}\in \R^3\left|\vphantom{\begin{pmatrix} x\\y\\z \end{pmatrix}}\right. x+y=0 \right\}\) . On laisse le soin au lecteur de vérifier qu'il s'agit bien d'un sous-espace vectoriel de \( \R^3\) dont une base est \( {\texttt{Vect}}\left(\begin{pmatrix} 1\\-1\\0 \end{pmatrix} ,\begin{pmatrix} 0\\0\\1 \end{pmatrix} \right)\) . Appliquons à cette base le procédé de Gram-Schmidt. On pose \( \overrightarrow{e}_{1}=\begin{pmatrix} 1\\-1\\0 \end{pmatrix} \) et \( \overrightarrow{e}_{2}=\begin{pmatrix} 0\\0\\1 \end{pmatrix}-\dfrac{\left\langle \begin{pmatrix} 1\\-1\\0 \end{pmatrix} \left|\vphantom{\begin{pmatrix} 1\\-1\\0 \end{pmatrix} \begin{pmatrix} 0\\0\\1 \end{pmatrix}}\right. \begin{pmatrix} 0\\0\\1 \end{pmatrix} \right\rangle}{\norm{\begin{pmatrix} 1\\-1\\0 \end{pmatrix}}^2}=\begin{pmatrix} 0\\0\\1 \end{pmatrix} \) . Surprise, la base est déjà orthogonale. La base orthonormée est alors \( \overrightarrow{f}_{1}=\dfrac{1}{\sqrt{2}}\begin{pmatrix} 1\\-1\\0 \end{pmatrix}\) et \( \overrightarrow{f}_{2}=\begin{pmatrix} 0\\0\\1 \end{pmatrix}\) . D'après le théorème, on a \begin{eqnarray*} p_F\left(\begin{pmatrix} x\\y\\z \end{pmatrix}\right) &=&\left\langle \begin{pmatrix} x\\y\\z \end{pmatrix} \left|\vphantom{\begin{pmatrix} x\\y\\z \end{pmatrix} \dfrac{1}{\sqrt{2}}\begin{pmatrix} 1\\-1\\0 \end{pmatrix}}\right. \dfrac{1}{\sqrt{2}}\begin{pmatrix} 1\\-1\\0 \end{pmatrix} \right\rangle\dfrac{1}{\sqrt{2}}\begin{pmatrix} 1\\-1\\0 \end{pmatrix}+ \left\langle \begin{pmatrix} x\\y\\z \end{pmatrix} \left|\vphantom{\begin{pmatrix} x\\y\\z \end{pmatrix} \begin{pmatrix} 0\\0\\1 \end{pmatrix}}\right. \begin{pmatrix} 0\\0\\1 \end{pmatrix} \right\rangle\begin{pmatrix} 0\\0\\1 \end{pmatrix}\\ &=&\dfrac{x-y}{2}\begin{pmatrix} 1\\-1\\0 \end{pmatrix}+ z\begin{pmatrix} 0\\0\\1 \end{pmatrix}\\ &=&\begin{pmatrix} \dfrac{x-y}{2}\\ -\dfrac{x-y}{2}\\ z \end{pmatrix} \end{eqnarray*}

Exercice


On se place dans \( \R^2\) munit de sa structure euclidienne classique. Soit \( \overrightarrow{u}=\begin{pmatrix} 2\\3 \end{pmatrix}\) et \( \overrightarrow{v}=\begin{pmatrix} 1\\-2 \end{pmatrix}\) . On pose \( U={\texttt{Vect}}\left(\overrightarrow{u} \right)\) et \( V={\texttt{Vect}}\left(\overrightarrow{v} \right)\)
  1. Déterminer l'expression de \( p_U\) et le projeté de \( \overrightarrow{v}\) sur \( U\) .
  2. Déterminer l'expression de \( p_V\) et le projeté de \( \overrightarrow{u}\) sur \( V\) .
  3. Illustrer la situation dans le plan.

Exercice


Soit \( \R^3\) munit de sa structure euclidienne canonique. On considère \( P=\left\{\begin{pmatrix} x\\y\\z \end{pmatrix}\in \R^3\left|\vphantom{\begin{pmatrix} x\\y\\z \end{pmatrix}}\right. x+y=0 \right\}\) .
  1. Montrer que \( P\) est un sous-espace vectoriel de \( \R^3\) .
  2. Déterminer \( P^{\bot}\) ainsi qu'une base.
  3. Donner l'expression de \( p_{P^{\bot}}\) .

Exercice


Soit \( \R^3\) munit de sa structure euclidienne canonique. Soient \( \overrightarrow{u}=\begin{pmatrix} 1\\1\\-1 \end{pmatrix}\) , \( \overrightarrow{v}=\begin{pmatrix} 1\\0\\2 \end{pmatrix}\) et \( \overrightarrow{w}=\begin{pmatrix} 0\\0\\1 \end{pmatrix}\) .
  1. Montrer que \( \{\overrightarrow{u}, \overrightarrow{v}\}\) est une famille libre de \( \R^3\) .
  2. Donner une base orthonormale de \( F={\texttt{Vect}}\left(\overrightarrow{u}, \overrightarrow{v} \right)\) .
  3. Donner l'expression de \( p_F\) et l'image \( p_F(\overrightarrow{w})\)
§ Il peut être plus commode de considérer le procédé d'orthonormalisation de Gram-Schmidt à l'aide de projections orthogonales. Soit \( \mathcal{B}=\left\{\overrightarrow{e}_{1}, \ldots, \overrightarrow{e}_{n}\right\}\) une base de \( E\) . L'algorithme s'exprime alors comme :
\( \bullet\)
On pose \( \overrightarrow{f}_{1}=\dfrac{\overrightarrow{e}_{1}}{\norm{\overrightarrow{e}_{1}}}\) et \( F_1={\texttt{Vect}}\left(\overrightarrow{f}_{1} \right)\) .

\( \bullet\)
On pose \( \overrightarrow{f}_{2}'=\overrightarrow{e}_{2}-p_{F_1}(\overrightarrow{e}_{2})\) , \( \overrightarrow{f}_{2}=\dfrac{\overrightarrow{f}_{2}'}{\norm{\overrightarrow{f}_{2}'}}\) et \( F_2={\texttt{Vect}}\left(\overrightarrow{f}_{1}, \overrightarrow{f}_{2} \right)\)

\( \bullet\)
On pose \( \overrightarrow{f}_{3}'=\overrightarrow{e}_{3}-p_{F_2}(\overrightarrow{e}_{3})\) , \( \overrightarrow{f}_{3}=\dfrac{\overrightarrow{f}_{3}'}{\norm{\overrightarrow{f}_{3}'}}\) et \( F_3={\texttt{Vect}}\left(\overrightarrow{f}_{1}, \overrightarrow{f}_{2}, \overrightarrow{f}_{3} \right)\) .

\( \bullet\)
\( \cdots\)

\( \bullet\)
On pose \( \overrightarrow{f}_{k}'=\overrightarrow{e}_{k}-p_{F_{k-1}}(\overrightarrow{e}_{k})\) , \( \overrightarrow{f}_{k}=\dfrac{\overrightarrow{f}_{k}'}{\norm{\overrightarrow{f}_{k}'}}\) et \( F_k={\texttt{Vect}}\left(\overrightarrow{f}_{1}, \ldots, \overrightarrow{f}_{k} \right)\) .

\( \bullet\)
\( \cdots\)

Définition


Soient \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) un espace euclidien de norme associée \( \norm{\bullet}\) , \( \overrightarrow{v}\in E\) et \( F\) un sous-espace vectoriel de \( E\) . On note \[d(\overrightarrow{v}, F) = \underset{\overrightarrow{f}_{}\in F}{Inf}\left(\norm{\overrightarrow{v}-\overrightarrow{f}_{}}\right)\]
Ainsi \( d(\overrightarrow{v}, F)\) représente la plus courte distance entre le vecteur \( \overrightarrow{v}\) et l'espace \( F\) .

Théorème [Meilleure approximation]


Soient \( (E, \left\langle \bullet \left|\vphantom{\bullet \bullet}\right. \bullet \right\rangle)\) un espace euclidien de norme associée \( \norm{\bullet}\) , \( F\) un sous-espace vectoriel de \( E\) , \( p_F\) la projection orthogonale sur \( F\) et \( \overrightarrow{v}\in E\) . \[\forall \overrightarrow{f}_{}\in F, \ \norm{\overrightarrow{v}-\overrightarrow{f}_{}}\geqslant\norm{\overrightarrow{v}-p_F(\overrightarrow{v})}\] En particulier \( d(\overrightarrow{v}, F)=\norm{\overrightarrow{v}-p_F(\overrightarrow{v})}\) .

Démonstration

On sait que \( F\) et \( F^{\bot}\) sont orthogonaux, de plus on sait que \( \overrightarrow{v}-p_F(\overrightarrow{v})\in F^{\bot}\) , enfin on sait que \( \overrightarrow{f}_{}-p_F(\overrightarrow{v})\in F\) . En conclusion \( \overrightarrow{v}-p_F(\overrightarrow{v})\) et \( \overrightarrow{f}_{}-p_F(\overrightarrow{v})\) sont deux vecteur orthogonaux. D'après le théorème de Pythagore \[\norm{\overrightarrow{v}-\overrightarrow{f}_{}}^2=\norm{\left(\overrightarrow{v}-p_F(\overrightarrow{v})\right)+\left(p_F(\overrightarrow{v})-\overrightarrow{f}_{}\right)}^2=\norm{\overrightarrow{v}-p_F(\overrightarrow{v})}^2+\norm{p_F(\overrightarrow{v})-\overrightarrow{f}_{}}^2\geqslant \norm{\overrightarrow{v}-p_F(\overrightarrow{v})}^2 \]