Retour

Source de analhilb.tex

Fichier TeX
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\chapter{Analyse hilbertienne}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

\minitoc
\newpage

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


Le but de chapitre est de généraliser l'espace ordinaire et son
produit scalaire

\begin{itemize}
        \item à la dimension $n$ : espace euclidien;
        \item à la dimension infinie : espace préhilbertien réel;
        \item aux nombres complexes : espace préhilbertien complexe, espace hermitien.
\end{itemize}

        La généralisation portera essentiellement sur les notions
d'orthogonalité et de projection orthogonale.

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Produit scalaire sur un espace vectoriel réel}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

        Dans cette section, $E$ désigne un $\R$-espace vectoriel de
dimension finie ou infinie, sauf avis contraire.

                Rappelons qu'un produit scalaire sur $E$ est une forme bilinéaire symétrique
définie positive.

\begin{Exs}\alaligne

        Rappelons les produits scalaires naturels (canoniques) sur $\R^n$ et
$\Mnp[n,1]{\R}$ 
\begin{gather}
\qqs\vc x=\nuple x,\ \qqs\vc y=\nuple y,\quad
        \Scal xy=\sum_{k=1}^n x_k y_k                                                           \\
\qqs(X,Y)\in\bigl(\Mnp[n,1]{\R}\bigr)^2,\quad
        \scal XY=\trans XY=\sum_{k=1}^nx_k y_k
\end{gather}

        En plus des exemples déjà étudiés, en voici trois autres :
\begin{prop}

        \item le produit scalaire sur l'espace des fonctions à valeurs réelles, continues et
de carré intégrable sur l'intervalle $I$ :
$$
\qqs(f,g)\in\bigl(\mcal{L}^2(I,\R)\bigr)^2,\quad
\scal fg=\int_I f(t)g(t)\,\dt 
$$

        \item les produits scalaires sur l'espace des polynômes à
coefficients réels; si $I$ est un intervalle et $w$ une fonction
continue sur $I$ et à valeurs réelles (strictement) positives,
telle que, pour tout entier $n$, $t\mapsto t^n
w(t)$ soit intégrable sur $I$, l'application
$$
(P,Q)\in\bigl(\R[X]\bigr)^2\mapsto\scal PQ=\int_I P(t) Q(t)w(t)\,\dt
$$
est un produit scalaire. Les cas classiques sont
\begin{gather*}
I=\intf{-1}1,\ w(t)=1\et\scal PQ=\int_{-1}^1 P(t) Q(t)\,\dt                                             \\
I=\into{-1}1,\ w(t)=\ra1{\sqrt{1-t^2}}\et
        \scal PQ=\int_{-1}^1 P(t) Q(t)\,\ra{\dt}{\sqrt{1-t^2}}                                                          \\
I=\intfo0{+\infty},\ w(t)=\ee^{-t}\et
        \scal PQ=\int_0^{+\infty} P(t) Q(t)\ee^{-t}\,\dt                                                                                                \\
I=\into{-\infty}{+\infty},\ w(t)=\ee^{-t^2}\et
        \scal PQ=\int_{-\infty}^{+\infty} P(t) Q(t)\ee^{-t^2}\,\dt
\end{gather*}

        \item le produit scalaire sur l'espace des suites réelles de carré
sommable $\ell^2_\N(\R)$, \ie{} les suites réelles $\suite a$
telles que la série $\sum_n a_n^2$ soit convergente.
$$
\qqs(\vc a,\vc b)\in\bigl(\ell^2_\N(\R)\bigr)^2,\quad
\Scal ab=\sum_{k=0}^{\infty} a_k b_k
$$
\end{prop}
\end{Exs}


        La norme associée au produit scalaire $\scal{\ }{\ }$ est
définie par :
$$
\qqs\vc x\in E,\quad\norme{\vc x}=\sqrt{\Scal xx}
$$
et la distance associée par :
$$
\qqs(\vc x,\vc y)\in E^2,\quad
\dist(\vc x,\vc y)=\norme{\vc y-\vc x}
        =\sqrt{\scal{(\vc y-\vc x)}{(\vc y-\vc x)}}
$$
Des relations lient la norme euclidienne et le produit scalaire associé; pour
$\vc x$ et $\vc y$ éléments de $E$, on a :
\begin{prop}
        \item ${\norme{\vc x+\vc y}}^2={\norme{\vc x}}^2+2\Scal
xy+{\norme{\vc y}}^2$;

        \item ${\norme{\vc x+\vc y}}^2+{\norme{\vc x-\vc y}}^2=
2{\norme{\vc x}}^2+2{\norme{\vc y}}^2$ \hfill
égalité du parallélogramme;

        \item $\Scal xy
=\ra12\bigl({\norme{\vc x+\vc y}}^2-{\norme{\vc x}}^2-{\norme{\vc y}}^2\bigr)
=\ra14\bigl({\norme{\vc x+\vc y}}^2-{\norme{\vc x-\vc y}}^2\bigr)$\\
\mbox{}\hfill expression du produit scalaire réel à l'aide de la norme.
\end{prop}

        L'inégalité dite de Cauchy-Schwarz est un outil important :
$$
\qqs(\vc x,\vc y)\in E^2,\ \abs{\Scal xy}\leq\norme{\vc x}\,\norme{\vc y}
$$

\begin{Exs}
        Voici quelques exemples d'application de l'inégalité de Cauchy-Schwarz :
        
\begin{prop}

        \item cas de $\R^n$ :
$$
\abs{\Scal xy}=\abs[\Big]{\sum_{k=1}^n x_k y_k}
\leq\norme{\vc x}\,\norme{\vc y}=\Bigl(\sum_{k=1}^n x_k^2\Bigr)^{\ra12}
\Bigl(\sum_{k=1}^n y_k^2\Bigr)^{\ra12}
$$

        \item cas de  $\Mnp[n,1]{\R}$ : 
$$
\abs{\scal XY}=\abs{\trans XY}=\abs[\Big]{\sum_{k=1}^n x_k y_k}\leq
\bigl(\trans XX\bigr)^{\ra12}\bigl(\trans YY\bigr)^{\ra12}
=\Bigl(\sum_{k=1}^n x_k^2\Bigr)^{\ra12}\Bigl(\sum_{k=1}^n y_k^2\Bigr)^{\ra12}
$$

        \item cas de $\mcal{L}^2(I,\R)$ :
$$
\abs{\scal fg}=\Bigl|\int_I f(t)g(t)\,\dt\Bigr|
\leq \Bigl(\int_I \bigl(f(t)\bigr)^2\,\dt\Bigr)^{\ra12}
\Bigl(\int_I \bigl(g(t)\bigr)^2\,\dt\Bigr)^{\ra12}
$$

        \item cas de $\R[X]$ :
$$
\abs{\scal PQ}=\Bigr|\int_I P(t) Q(t)w(t)\,\dt\Bigl|
\leq
\Bigl(\int_I \bigl(P(t)\bigr)^2w(t)\,\dt\Bigr)^{\ra12}
\Bigl(\int_I \bigl(Q(t)\bigr)^2w(t)\,\dt\Bigr)^{\ra12}
$$
Par exemple :
$$
\Bigl|\int_{-\infty}^{+\infty} P(t) Q(t)\ee^{-t^2}\,\dt\Bigr|
\leq
\Bigl(\int_{-\infty}^{+\infty} \bigl(P(t)\bigr)^2\ee^{-t^2}\,\dt\Bigr)^{\ra12}
\Bigl(\int_{-\infty}^{+\infty} \bigl(Q(t)\bigr)^2\ee^{-t^2}\,\dt\Bigr)^{\ra12}
$$

        \item cas de $\ell^2_\N(\R)$ :
$$
\abs{\Scal ab}=\Bigl|\sum_{k=0}^{\infty} a_k b_k\Bigr|
\leq\Bigl(\sum_{k=0}^{\infty} a_k^2 \Bigr)^{\ra12}
\Bigl(\sum_{k=0}^{\infty} b_k^2 \Bigr)^{\ra12}
$$

\end{prop}
\end{Exs}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Produit scalaire sur un espace vectoriel complexe}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


        Dans cette section, $E$ désigne un $\C$-espace vectoriel de
dimension finie ou infinie, sauf avis contraire.

                Rappelons qu'un produit scalaire complexe ou hermitien sur $E$ est une forme linéaire
à droite, à symétrie hermitienne et définie positive.

\begin{Exs}\alaligne

        Rappelons les produits scalaires naturels (canoniques) sur $\C^n$ et
$\Mnp[n,1]{\C}$ 
\begin{gather}
\qqs\vc x=\nuple x,\ \qqs\vc y=\nuple y,\quad
        \Scal xy=\sum_{k=1}^n \conjug{x_k} y_k                                                          \\
\qqs(X,Y)\in\bigl(\Mnp[n,1]{\R}\bigr)^2,\quad
        \scal XY=\trans\conjug{X}Y=\sum_{k=1}^n\conjug{x_k} y_k
\end{gather}

        En plus des exemples déjà étudiés, en voici trois autres :
\begin{prop}

        \item le produit scalaire sur l'espace des fonctions à valeurs complexes, continues et
de carré intégrable sur l'intervalle $I$ :
$$
\qqs(f,g)\in\bigl(\mcal{L}^2(I,\C)\bigr)^2,\quad
\scal fg=\int_I \conjug{f(t)}g(t)\,\dt 
$$

        \item les produits scalaires sur l'espace des polynômes à
coefficients complexes ; si $I$ est un intervalle et $w$ une fonction
continue sur $I$ et à valeurs réelles (strictement) positives,
telle que, pour tout entier $n$, $t\mapsto t^n
w(t)$ soit intégrable sur $I$, l'application
$$
(P,Q)\in\bigl(\C[X]\bigr)^2\mapsto\scal PQ=\int_I \conjug{P(t)} Q(t)w(t)\,\dt
$$
est un produit scalaire. Les cas classiques sont
\begin{gather*}
I=\intf{-1}1,\ w(t)=1\et\scal PQ=\int_{-1}^1 \conjug{P(t)} Q(t)\,\dt                                            \\
I=\into{-1}1,\ w(t)=\ra1{\sqrt{1-t^2}}\et
        \scal PQ=\int_{-1}^1 \conjug{P(t)} Q(t)\,\ra{\dt}{\sqrt{1-t^2}}                                                         \\
I=\intfo0{+\infty},\ w(t)=\ee^{-t}\et
        \scal PQ=\int_0^{+\infty} \conjug{P(t)} Q(t)\ee^{-t}\,\dt                                                                                               \\
I=\into{-\infty}{+\infty},\ w(t)=\ee^{-t^2}\et
        \scal PQ=\int_{-\infty}^{+\infty} \conjug{P(t)} Q(t)\ee^{-t^2}\,\dt
\end{gather*}

        \item le produit scalaire sur l'espace des suites complexes de carré
sommable $\ell^2_\N(\C)$, \ie{} les suites complexes $\suite a$
telles que la série $\sum_n \abs{a_n}^2$ soit convergente.
$$
\qqs(\vc a,\vc b)\in\bigl(\ell^2_\N(\C)\bigr)^2,\quad
\Scal ab=\sum_{k=0}^{\infty} \conjug{a_k} b_k
$$
\end{prop}
\end{Exs}


        La norme associée au produit scalaire $\scal{\ }{\ }$ est
définie par :
$$
\qqs\vc x\in E,\quad\norme{\vc x}=\sqrt{\Scal xx}
$$
et la distance associée par :
$$
\qqs(\vc x,\vc y)\in E^2,\quad
\dist(\vc x,\vc y)=\norme{\vc y-\vc x}
        =\sqrt{\scal{(\vc y-\vc x)}{(\vc y-\vc x)}}
$$
Des relations lient la norme euclidienne et le produit scalaire associé; pour
$\vc x$ et $\vc y$ éléments de $E$, on a :
\begin{prop}
        \item ${\norme{\vc x+\vc y}}^2
={\norme{\vc x}}^2+2\RE\Scal xy+{\norme{\vc y}}^2$;

        \item ${\norme{\vc x+\vc y}}^2+{\norme{\vc x-\vc y}}^2=
2{\norme{\vc x}}^2+2{\norme{\vc y}}^2$ \hfill
égalité du parallélogramme;

        \item
$\RE\Scal xy
=\ra12\bigl({\norme{\vc x+\vc y}}^2-{\norme{\vc x}}^2-{\norme{\vc y}}^2\bigr)
=\ra14\bigl({\norme{\vc x+\vc y}}^2-{\norme{\vc x-\vc y}}^2\bigr)$                                      \\
$\IM\Scal xy
=\ra12\bigl({\norme{\vc x-\ii\vc y}}^2-{\norme{\vc x}}^2-{\norme{\vc y}}^2\bigr)
=\ra14\bigl({\norme{\vc x-\ii\vc y}}^2-{\norme{\vc x+\ii\vc y}}^2\bigr)$                                        \\
et
$\Scal xy=\ra14\bigl({\norme{\vc x+\vc y}}^2-{\norme{\vc x-\vc y}}^2\bigr)
+\ra \ii4\bigl({\norme{\vc x-\ii\vc y}}^2-{\norme{\vc x+\ii\vc y}}^2\bigr)$\\
\mbox{}\hfill expression du produit scalaire complexe à l'aide de la norme.
\end{prop}

        L'inégalité dite de Cauchy-Schwarz est un outil important :
$$
\qqs(\vc x,\vc y)\in E^2,\ \abs{\Scal xy}\leq\norme{\vc x}\,\norme{\vc y}
$$

\begin{Exs}
        Voici quelques exemples d'application de l'inégalité de Schwarz :

\begin{prop}

        \item cas de $\C^n$ :
$$
\abs{\Scal xy}=\abs[\Big]{\sum_{k=1}^n \conjug{x_k} y_k}
\leq\norme{\vc x}\,\norme{\vc y}=\Bigl(\sum_{k=1}^n \abs{x_k}^2\Bigr)^{\ra12}
\Bigl(\sum_{k=1}^n \abs{y_k}^2\Bigr)^{\ra12}
$$

        \item cas de  $\Mnp[n,1]{\C}$ : 
$$
\abs{\scal XY}=\abs{\tc XY}=\abs[\Big]{\sum_{k=1}^n \conjug{x_k} y_k}\leq
\bigl(\tc{X} X\bigr)^{\ra12}\bigl(\tc{Y}Y\bigr)^{\ra12}
=\Bigl(\sum_{k=1}^n \abs{x_k}^2\Bigr)^{\ra12}
        \Bigl(\sum_{k=1}^n \abs{y_k}^2\Bigr)^{\ra12}
$$

        \item cas de $\mcal{L}^2(I)$ :
$$
\abs{\scal fg}=\Bigl|\int_I \conjug{f(t)}g(t)\,\dt\Bigr|
\leq 
\Bigl(\int_I \bigl|f(t)\bigr|^2\,\dt\Bigr)^{\ra12}
\Bigl(\int_I \bigl|g(t)\bigr|^2\,\dt\Bigr)^{\ra12}
$$

        \item cas de $\C[X]$ :
$$
\abs{\scal PQ}=\Bigr|\int_I \conjug{P(t)} Q(t)w(t)\,dt\Bigl|
\leq
\Bigl(\int_I \bigl|P(t)\bigr|^2w(t)\,\dt\Bigr)^{\ra12}
\Bigl(\int_I \bigl|Q(t)\bigr|^2w(t)\,\dt\Bigr)^{\ra12}
$$
Par exemple :
$$
\Bigl|\int_{-1}^1 \conjug{P(t)} Q(t)\,\ra{\dt}{\sqrt{1-t^2}}\Bigr|
\leq
\Bigl(\int_{-1}^1 \bigl|P(t)\bigr|^2\,
        \ra{\dt}{\sqrt{1-t^2}}\Bigr)^{\ra12}
\Bigl(\int_{-1}^1 \bigl|Q(t)\bigr|^2\,
        \ra{\dt}{\sqrt{1-t^2}}\Bigr)^{\ra12}
$$

        \item cas de $\ell^2_\N(\C)$ :
$$
\abs{\Scal ab}=\Bigl|\sum_{k=0}^{\infty} \conjug{a_k} b_k\Bigr|
\leq\Bigl(\sum_{k=0}^{\infty} \abs{a_k}^2 \Bigr)^{\ra12}
\Bigl(\sum_{k=0}^{\infty} \abs{b_k}^2 \Bigr)^{\ra12}
$$

\end{prop}
\end{Exs}


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Orthogonalité}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

        $E$ désigne un espace préhilbertien réel ou complexe dont le
produit scalaire est noté $\scal{\ }{\ }$.

\begin{Df}[Vecteur unitaire]\alaligne

        Un vecteur \emph{unitaire} est un vecteur $\vc x$ de norme $1$, \ie{}
vérifiant $\Scal xx=1$.
\end{Df}

\begin{Df}[Orthogonalité]\alaligne

        Deux vecteurs sont \emph{orthogonaux} si leur produit scalaire
est nul; la relation d'orthogonalité est notée $\bot$.
\Reponse{$
\vc x\bot\vc y\iff\Scal xy=0
$}
\end{Df}

\begin{Df}[Famille orthogonale]\alaligne

        Une famille de vecteurs $(\vc x_k)_{k\in\Lambda}$ est une
\emph{famille orthogonale} si les vecteurs de cette famille sont
orthogonaux deux à deux, \ie
\begin{equation}
\qqs(k,l)\in\Lambda^2,\quad k\neq l\implique
\scal{\vc x_k}{\vc x_l}=0 
\end{equation}
\end{Df}

\begin{Df}[Famille orthonormale]\alaligne

        Une famille orthogonale de vecteurs unitaires est appelée une famille
\emph{orthonormale}, \ie
\begin{equation}
\qqs(k,l)\in\Lambda^2,\quad \scal{\vc x_k}{\vc x_l}=\delta_{k,l}=
\begin{cases}
        0       &       \text{si $k\neq l$}     \\
        1       &       \text{si $k=l$}
\end{cases}
\end{equation}
\end{Df}

\begin{NB}
        Si $(\vc v_k)_k$ est une famille orthogonale de vecteurs
\emph{non nuls}, la famille $(\ra1{\norme{\vc v_k}}\vc v_k)_k$ est
orthonormale.
\end{NB}

\begin{Exs}\alaligne

\begin{prop}
        \item Les bases naturelles (canoniques) de $\R^n$, $\C^n$, $\Mnp[n,1]{\R}$,
$\Mnp[n,1]{\C}$, $\Mnp{\R}$ et $\Mnp{\C}$ sont des familles orthonormales pour
le produit scalaire naturel (canonique) des espaces considérés.

        \item La famille $\ens{e_k : t\mapsto \exp(\ii kt)}{k\in\Z}$ est
une famille orthonormale de~$\mcal{C}_{2\pi}$.

        La famille $\{1\}\cup\ens{t\mapsto \cos kt}{k\in\N^*}\cup
\ens{t\mapsto\sin kt}{k\in\N^*}$ est une famille orthogonale de
$\mcal{C}_{2\pi}$; la famille orthonormale associée est
$\{1\}\cup\ens{t\mapsto \sqrt2\cos kt}{k\in\N^*}\cup
\ens{t\mapsto\sqrt2\sin kt}{k\in\N^*}$.

        \item Les divers produits scalaires sur $\R[X]$ et $\C[X]$
donnent des familles orthogonales de polynômes, encore appelées
familles de polynômes orthogonaux :

\begin{itemize}

        \item les polynômes de Legendre
$\dps P_n(t)=\ra{\mathrm{d}^n}{\dt^n}\bigl((t^2-1)^n\bigr)$
constituent une famille de polynômes
orthogonaux pour le produit scalaire 
$\dps\scal PQ=\int_{-1}^1\conjug{P(t)}Q(t)\,\dt$.

        \item les polynômes de Chebychev
$\dps T_n(t)=\cos(n\arccos t)$
constituent une famille de polynômes
orthogonaux pour le produit scalaire 
$\dps\scal PQ=\int_{-1}^1\conjug{P(t)}Q(t)\,\ra{\dt}{\sqrt{1-t^2}}$.
        
        \item les polynômes de Laguerre
$\dps L_n(t)=\ee^t\ra{\mathrm{d}^n}{\dt^n}(t^n \ee^{-t})$
constituent une famille de polynômes
orthogonaux pour le produit scalaire 
$\dps \scal PQ=\int_0^{+\infty}\conjug{P(t)}Q(t)\,\ee^{-t}\,\dt$.

        \item les polynômes d'Hermite
$\dps H_n(t)=\ee^{t^2}\ra{\mathrm{d}^n}{\dt^n}(\ee^{-t^2})$
constituent une famille de polynômes
orthogonaux pour le produit scalaire 
$\dps \scal PQ=\int_{-\infty}^{+\infty} \conjug{P(t)}Q(t)\,\ee^{-t^2}\,\dt$.
\end{itemize}
\end{prop}
\end{Exs}


%---------------------------------------------------------------------
\subsection{Relation de Pythagore}
%---------------------------------------------------------------------

        Voici tout d'abord, deux règles de calcul :
\begin{Lem}[]\mbox{}\alaligne

\begin{prop}
        \item $\dps\scal{\sum_{k=1}^p \la_k\vc x_k}{\sum_{l=1}^q\mu_l\vc y_l}
=\sum_{k=1}^p\sum_{l=1}^q\conjug{\la_k}\mu_l\scal{\vc x_k}{\vc y_l}$
%\vspace*{3pt}

        \item $\dps\norme[\Big]{\sum_{k=1}^p \la_k\vc x_k}^2
=\sum_{k=1}^p\sum_{l=1}^p       \conjug{\la_k}\la_l\scal{\vc x_k}{\vc x_l}$
\end{prop}
\end{Lem}

\begin{proof}
        Yak a développer en utilisant la linéarité à droite et la
semi-linéarité à gauche du produit scalaire.
\begin{demprop}
        \monitem
$\dps\scal{\sum_{k=1}^p \la_k\vc x_k}{\sum_{l=1}^q\mu_l\vc y_l}
=\sum_{k=1}^p \conjug{\la_k}\scal{\vc x_k}{\sum_{l=1}^q\mu_l\vc y_l}
=\sum_{k=1}^p\sum_{l=1}^q \conjug{\la_k}\mu_l\scal{\vc x_k}{\vc y_l}$
\vspace*{3pt}

        \monitem Attention de ne pas oublier d'utiliser deux indices!
$$
\norme[\Big]{\sum_{k=1}^p \la_k\vc x_k}^2
=\scal{\sum_{k=1}^p\la_k\vc x_k}{\sum_{l=1}^p\la_l\vc x_l}
=\sum_{k=1}^p\sum_{l=1}^p
        \conjug{\la_k}\la_l\scal{\vc x_k}{\vc x_l}
$$
\end{demprop}
\end{proof}
%--------------------------------------------------

\begin{NB}
        En particulier, dans un espace préhilbertien réel :
$$
\norme{\vc x+\vc y+\vc z}^2=
\norme{\vc x}^2+\norme{\vc y}^2+\norme{\vc z}^2+
2\Scal xy+2\Scal yz+2\Scal zx
$$
\end{NB}

\begin{Th}[de Pythagore]\alaligne

\begin{prop}
        \item Si $\vc u$ et $\vc v$ sont deux vecteurs
\emph{orthogonaux}, on a
\begin{equation}
        \norme{\vc u+\vc v}^2=\norme{\vc u}^2+\norme{\vc v}^2
\end{equation}
%
La réciproque est vraie dans un espace préhilbertien réel.

        \item Si la famille $(\vc v_k)_{1\leq k\leq p}$ est une famille
\emph{orthogonale}, alors
\begin{equation}
        \bigl\|\sum_{k=1}^p \vc v_k\bigr\|^2=\sum_{k=1}^p\norme{\vc v_k}^2
\end{equation}
\end{prop}
\end{Th}

\begin{proof}\alaligne

\begin{demprop}
        \monitem Cas réel :
$\norme{\vc u+\vc v}^2
=\norme{\vc u}^2+2\Scal uv+\norme{\vc v}^2
=\norme{\vc u}^2+\norme{\vc v}^2$ si, et seulement si, $\Scal uv=0$.\\
Cas complexe :
$\norme{\vc u+\vc v}^2=\norme{\vc u}^2+2\RE\Scal uv+\norme{\vc v}^2$
et $\Scal uv=0$ implique
$\norme{\vc u+\vc v}^2=\norme{\vc u}^2+\norme{\vc v}^2$.

        \monitem Puisque les vecteurs sont orthogonaux deux à deux,
$\scal{\vc v_k}{\vc v_l}=0$ pour $k\neq l$ et
$$
\norme[\Big]{\sum_{k=1}^p\vc v_k}^2
=\sum_{k,l}\scal{\vc v_k}{\vc v_l}
=\sum_{k=1}^p\norme{\vc v_k}^2
        +\sum_{\substack{k,l=1\\k\neq l}}^p\scal{\vc v_k}{\vc v_l}
=\sum_{k=1}^p\norme{\vc v_k}^2
$$
\end{demprop}
\end{proof}
%--------------------------------------------------

\begin{Th}[Famille orthogonale et famille libre]\alaligne

        Toute famille orthogonale de vecteurs non nuls est une
famille libre.
\end{Th}

\begin{proof}
        Soit $(\vc v_k)_k$ une famille orthogonale de vecteurs non
nuls; pour toute combinaison linéaire nulle
$\sum_{k=1}^p\la_k\vc v_k=\vc 0$, on a, en utilisant la
formule de Pythagore,
$$
0=\norme[\Big]{\sum_{k=1}^p \la_k \vc v_k}^2
=\sum_{k=1}^p\norme{\la_k\vc v_k}^2
=\sum_{k=1}^p\abs{\la_k}^2\norme{\vc v_k}^2
$$
ce qui montre que $\abs{\la_k}^2\norme{\vc v_k}^2=0$ pour tout
$k\in\Intf1p$, et $\la_k=0$ puisque les vecteurs $\vc v_k$
sont tous non nuls.
\end{proof}
%--------------------------------------------------

\begin{Cor}
        Toute famille orthonormale est une famille libre.
\end{Cor}

%---------------------------------------------------------------------
\subsection{Procédé d'orthonormalisation de Schmidt}\alaligne
%---------------------------------------------------------------------

        Comment construire une famille orthonormale à partir d'une
famille libre? C'est l'objet du procédé d'orthonormalisation 
d'Erhard Schmidt.

\begin{Th}[]\mbox{}
        Si $(\vc f_k)_{k\geq1}$ est une suite libre d'un espace
préhilbertien réel ou complexe, il existe une unique suite
\emph{orthonormale} $(\vc u_k)_{k\geq1}$ telle que, pour tout entier
$p\geq1$,
\begin{prop}
        \item les espaces engendrés par les familles $(\vc f_1, \dots, \vc f_p)$ et
$(\vc u_1, \dots, \vc u_p)$ sont identiques;

        \item $\scal{\vc f_p}{\vc u_p}>0$.
\end{prop}
\end{Th}

\begin{proof} Par récurrence sur $p$.

        La propriété est vraie pour $p=1$.
  Posons $\vc u_1=\la\vc f_1$;
puisque $0<\scal{\vc f_1}{\vc u_1}=\la\scal{\vc f_1}{\vc
f_1}$, le scalaire $\la$ est $>0$, $1=\norme{\vc u_1}=\la\norme{\vc f_1}$ ce
qui détermine $\la$. Ainsi $\vc u_1=\ra1{\norme{\vc f_1}}\vc f_1$.

        La propriété est héréditaire.

        Commençons par analyser la
situation. Puisque les sous-espaces engendrés par $(\vc
f_1,\dots,\vc f_p)$ et $(\vc u_1,\dots,\vc u_p)$ sont identiques,
on peut poser
\begin{equation}
        \vc u_{p+1}=\la\vc f_{p+1}+\sum_{k=1}^p \alpha_k\vc u_k
\end{equation}
L'orthogonalité de $\vc u_k$ avec $\vc u_{p+1}$ pour tout
$k\in\Intf1p$ montre que
\begin{multline}
0=\scal{\vc u_k}{\vc u_{p+1}}
        =\la\scal{\vc u_k}{\vc f_{p+1}}
                +\sum_{j=1}^p\alpha_j \scal{\vc u_k}{\vc u_j}                                                                                   \\
=\la\scal{\vc u_k}{\vc f_{p+1}}+\sum_{j=1}^p\alpha_j\delta_{k,j}
        =\la\scal{\vc u_k}{\vc f_{p+1}}+\alpha_k
\end{multline}
ce qui détermine $\alpha_k$ : 
$\alpha_k =-\la\scal{\vc u_k}{\vc f_{p+1}}$ et
$$
\vc u_{p+1}=\la\vc f_{p+1}
-\sum_{k=1}^p \la\scal{\vc u_k}{\vc f_{p+1}}\vc u_k=\la\vc v_{p+1}
$$$\vc v_{p+1}=\vc f_{p+1}
-\sum_{k=1}^p\scal{\vc u_k}{\vc f_{p+1}}\vc u_k$. D'autre part,
$$
0<\scal{\vc f_{p+1}}{\vc u_{p+1}}
=\scal{\vc v_{p+1}+\sum_{k=1}^p\scal{\vc u_k}{\vc f_{p+1}}\vc u_k}
                {\vc u_{p+1}}
=\scal{\vc v_{p+1}}{\vc u_{p+1}}=\la\norme{\vc v_{p+1}}^2
$$
Ainsi le scalaire $\la$ est $>0$, $\la=\ra1{\norme{\vc v_{p+1}}}$
puisque $\vc u_{p+1}$ est unitaire, et le vecteur $\vc u_{p+1}$ est unique.

        Reste à montrer, et c'est la synthèse, que ce vecteur 
convient. En effet, le vecteur $\vc v_{p+1}=\vc f_{p+1}-\sum_{k=1}^p\scal{\vc
u_k}{\vc f_{p+1}}\vc u_k$ n'est pas nul, puisque la famille $(\vc
u_1,\dots,\vc u_p,\vc f_{p+1})$ est libre, et est orthogonal, par
construction, à $\vc u_1$,\dots, $\vc u_p$.
\end{proof}
%--------------------------------------------------

%----------------------------------------------------------------------
\subsubsection*{Algorithme de calcul de l'orthonormalisée}
%----------------------------------------------------------------------

        Le calcul effectif de l'orthonormalisée $(\vc u_k)_k$ d'une suite
libre $(\vc f_k)_k$ s'effectue à l'aide de l'algorithme suivant :
\begin{gather*}
\vc u_1=\ra1{\norme{\vc f_1}}\vc f_1                                                                                                                            \\
\qqs p\geq1,\quad
        \vc v_{p+1}=\vc f_{p+1}
                -\sum_{k=1}^p\scal{\vc u_k}{\vc f_{p+1}}\vc u_k\et
\vc u_{p+1}=\ra1{\norme{\vc v_{p+1}}}\vc v_{p+1}
\end{gather*}
ou bien à l'aide de celui-ci, qui permet, en général, des calculs
plus simples :
\begin{prop}
        \item calcul de la suite orthogonale $(\vc v_k)_k$ :
$$
\vc v_1=\vc f_1\et\qqs p\geq1,\quad
\vc v_{p+1}=\vc f_{p+1}
-\sum_{k=1}^p
        \ra{\scal{\vc v_k}{\vc f_{p+1}}}{\norme{\vc v_k}^2}\vc v_k
$$

\item orthonormalisation de la suite $(\vc v_k)_k$ :
$$
\qqs k\geq1,\quad \vc u_k=\ra1{\norme{\vc v_k}}\vc v_k
$$
\end{prop}



%---------------------------------------------------------------------
\subsection{Base orthonormale d'un sous-espace vectoriel de
dimension finie}
%---------------------------------------------------------------------

\begin{Th}[Existence de base orthonormale]\alaligne

        Tout sous-espace vectoriel de dimension finie d'un espace
préhilbertien réel ou complexe, admet une base orthonormale.
\end{Th}

\begin{proof}
        L'orthonormalisée d'une base de $F$ répond à la question.
\end{proof}
%--------------------------------------------------

\begin{Cor}
        Les espaces euclidien et hermitien admettent des bases
orthonormales.
\end{Cor}

        Dans un espace vectoriel de dimension finie rapporté à une
base orthonormale $(\vc u_1,\dots,\vc u_p)$, les expressions des
coordonnées d'un vecteur,
de sa norme, du produit scalaire et de la distance de deux
vecteurs, sont particulièrement simples :

\begin{prop}
        \item expression des coordonnées de $\vc x$ :
$\dps \vc x=\sum_{k=1}^p\scal{\vc u_k}{\vc x}\vc u_k
=\sum_{k=1}^px_k\vc u_k$

        \item expression de la norme :
$\dps\norme{\vc x}^2=\sum_{k=1}^p\abs{x_k}^2
=\sum_{k=1}^p\abs{\scal{\vc u_k}{\vc x}}^2$

        \item expression du produit scalaire :
$\dps\Scal xy=\sum_{k=1}^p\conjug{x_k}y_k
=\sum_{k=1}^p\conjug{\scal{\vc u_k}{\vc x}}\scal{\vc u_k}{\vc y}$

        \item expression de la distance :
$\dsp
\dist(\vc x,\vc y)^2=\sum_{k=1}^p \abs{y_k-x_k}^2$
\end{prop}
%--------------------------------------------------


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Projection orthogonale}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

        $E$ désigne encore et toujours un espace préhilbertien réel ou
complexe muni d'un produit scalaire noté $\scal{\ }{\ }$; le corps
des scalaires est noté $\K$.

%---------------------------------------------------------------------
\subsection{Orthogonal d'une partie}
%---------------------------------------------------------------------

\begin{Df}[Orthogonal d'une partie]\alaligne

        L'\emph{orthogonal} d'une partie non vide $A$ de $E$ est
l'ensemble des vecteurs de $E$ qui sont orthogonaux à tous les
vecteurs de $A$: on le note $A^{\perp}$.
\Reponse{$
A^{\perp}=\ens{\vc x\in E}{\qqs \vc a\in A,\ \Scal ax=0}
$}
\end{Df}

\begin{Prop}[Propriétés de l'orthogonal]\alaligne

        L'orthogonal d'une partie possède les propriétés suivantes :
\begin{prop}
        \item l'orthogonal de $\vc 0_E$ est $E$ et l'orthogonal de $E$
est $\{\vc0_E\}$;

        \item   si $\vc a$ est un
vecteur non nul, l'orthogonal de $\vc a$ est un hyperplan de $E$;

        \item   pour toute partie $A$ non vide, $A^\perp$ est un sous-espace
vectoriel de $E$;

        \item si $F$ est un sous-espace de $E$, $F\cap F^\perp$ est
réduit à $\{\vc0\}$;

        \item si $F$ est un sous-espace vectoriel engendré par la
famille $(\vc f_1, \dots, \vc f_p)$, l'orthogonal de $F$ est
caractérisé par :
\begin{equation}
        \vc x\in F^\perp\iff\qqs k\in\Intf1p,\quad\scal{\vc f_k}{\vc x}=0
\iff\vc x\in\Inter_{k=1}^p\{\vc f_k\}^\perp
\end{equation}
\end{prop}
\end{Prop}

\begin{proof}\alaligne

\begin{demprop}
        \monitem Pour tout $\vc x$ de $E$, $\Scal x0=0$, soit
$\vc x\perp\vc 0$. Ainsi $E\subset \{\vc 0\}^\perp$ et
$E=\{\vc 0\}^\perp$.                                                                                                                                                                                                    \\
        Si $\vc x$ est orthogonal à $E$, $\vc x$ est, en particulier,
orthogonal à lui-même; $\vc x$ est donc nul. Ainsi
$E^\perp\subset \{\vc 0\}$ et $E^\perp=\{\vc 0\}$.

        \monitem        Si $\vc a$ n'est pas nul,
$\{\vc a\}^\perp=\ens{\vc x}{\Scal ax=0}=\ker\{\vc x\mapsto\Scal ax\}$
est le noyau d'une forme linéaire non nulle; c'est donc un hyperplan.

        \monitem        $A^\perp$ est l'intersection de tous les hyperplans $\{\vc
a\}^\perp$$\vc a$ décrit $A$, c'est donc un sous-espace vectoriel.

        \monitem $\vc x\in F\cap F^\perp\implique \Scal xx=0$, soit
$\vc x=\vc 0$.

        \monitem Les éléments de $F$ sont des combinaisons linéaires
des vecteurs $\vc f_k$, et
\begin{align*}
\vc x\in F^\perp
        &       \iff    \qqs\puple\la\in\K^p,\quad
                        0=\scal{\vc x}{\sum_{k=1}^p\la_k\vc f_k}
                                =\sum_{k=1}^p \la_k \scal{\vc x}{\vc f_k}                                                                                                               \\
        &       \iff    \qqs k\in\Intf1p,\quad \scal{\vc x}{\vc f_k}=0
                        \iff    \vc x\in\Inter_{k=1}^p\{\vc f_k\}^\perp
\end{align*}
\end{demprop}

\end{proof}
%--------------------------------------------------


%---------------------------------------------------------------------
\subsection{Supplémentaires orthogonaux, projecteurs orthogonaux}
%---------------------------------------------------------------------

\begin{Df}[Sous-espaces orthogonaux]\alaligne

        Deux sous-espaces vectoriels $F$ et $G$ sont \emph{orthogonaux} si tous
les vecteurs de $F$ sont orthogonaux à tous les vecteurs de $G$,
\ie{} si $F\subset G^\perp$ ou bien si tous les vecteurs de $G$ sont orthogonaux
à tous les vecteurs de $F$, \ie{} $G\subset F^\perp$.
\end{Df}

\begin{Th}[Caractérisation des supplémentaires orthogonaux]\alaligne

        Si $F$ et $G$ sont deux sous-espaces vectoriels
\emph{supplémentaires} dans $E$, les propositions suivantes sont
équivalentes :
\begin{prop}
        \item $F$ et $G$ sont orthogonaux;

        \item $F^\perp=G$;
        \item $G^\perp=F$.
\end{prop}
\end{Th}

\begin{proof}
        ($ii$) et ($iii$) donnent ($i$).
        
        Tout vecteur $\vc x$ de $F^\perp$ se décompose suivant $F\oplus
G$ en $\vc x=\vc y+\vc z$; or $\Scal xy=0$ ($\vc x\in F^\perp$ et
$\vc y\in F$) et $\Scal zy=0$ ($\vc z\in G\subset F^\perp$ et $\vc
y\in F$), ce qui impose $\Scal yy=0$ donc $\vc y=\vc 0$, et $\vc
x=\vc z\in G$. Chère lectrice, cher lecteur, vous venez de
démontrer que ($i$) implique ($ii$).

        Vous démontrerez de même que ($i$) implique ($iii$).
\end{proof}
%--------------------------------------------------

        Dans ce cas, on dira que $F$ et $G$ sont \emph{supplémentaires
orthogonaux} dans $E$, et les projecteurs associés sont
qualifiés de \emph{projecteurs orthogonaux}.

\begin{Exs}\alaligne

        L'hyperplan $\mcal{H}$ d'équation $x_1+x_2+x_3+x_4=0$ et la
droite vectorielle dirigée par $(1,1,1,1)$ sont supplémentaires
orthogonaux dans $\R^4$ muni du produit scalaire canonique.

        Plus généralement, l'hyperplan $\mcal{H}$ d'équation $\sum_{j=1}^n
a_j x_j=0$ et la droite $\mcal{D}=\R\,\nuple a$ sont supplémentaires orthogonaux
dans $\R^n$ muni de son produit scalaire naturel (canonique).

        Dans l'espace hermitien $\C^n$ muni de son produit scalaire
naturel (canonique), l'hyperplan $\mcal{H}$ d'équation $\sum_{j=1}^n
a_j x_j=0$ et la droite
$\mcal{D}=\C\,(\conjug{a_1},\dots,\conjug{a_n})$ sont supplémentaires
orthogonaux.
        
\end{Exs}

\begin{Gen}
        Si $E=F_1\oplus\cdots\oplus F_p$ et si les sous-espaces $F_k$
sont orthogonaux deux à deux, la somme des sous-espaces $F_k$ est
une \emph{somme directe orthogonale} de $E$.
\end{Gen}
        
%---------------------------------------------------------------------
\subsection{Projection orthogonale sur un sous-espace vectoriel
de dimension finie}
%---------------------------------------------------------------------

\begin{Th}[Théorème de la projection]\alaligne

        Si $F$ est un sous-espace vectoriel de dimension finie $p$ d'un
espace préhilbertien réel ou complexe $E$, alors
\begin{prop}
        \item pour tout vecteur $\vc x$ de $ E$, il existe un unique
vecteur de $F$ noté $p_F(\vc x)$ tel que $\vc x-p_F(\vc x)$ soit
orthogonal à $F$;

        \item si $\puple{\vc u}$ est une base \emph{orthonormale} de
$F$, on a
\begin{equation}
        p_F(\vc x)=\sum_{k=1}^p\scal{\vc u_k}{\vc x}\vc u_k
\end{equation}

        \item $E$ est somme directe orthogonale de $F$ et $F^\perp$, et
$p_F$ est le projecteur orthogonal d'image $F$, \ie{} le
projecteur sur $F$ parallèlement à $F^\perp$.
\end{prop}
\end{Th}

\begin{proof}

\begin{demprop}\alaligne

        \monitem        \addtocounter{numdemprop}{1} et (\textit{\roman{numdemprop}). }
        Appelons $(\vc u_1,\dots,\vc u_p)$ une base orthonormale de $F$ et considérons
un vecteur $\vc y=\sum_{k=1}^p y_k\vc u_k$ de $F$. Alors
\begin{align*}
\vc x
        &       -\vc y \in F^\perp = (\K\vc u_1\oplus\cdots\oplus\K\vc u_p)^\perp
                        \iff\qqs j\in\Intf1p,\ (\vc x-\vc y)\perp\vc u_j                                                                        \\
        &       \iff\qqs j,\ 0=\scal{\vc u_j}{\vc x-\vc y}
                =\scal{\vc u_j}{\vc x-\sum_{k=1}^py_k\vc u_k}
                =\scal{\vc u_j}{\vc x}-\sum_{k=1}^p y_k\delta_{k,j}
                =\scal{\vc u_j}{\vc x}-y_j                                                                                                                                                                      \\
        &       \iff \vc y=\sum_{k=1}^p\scal{\vc u_k}{\vc x}\vc u_k=p_F(\vc x)
\end{align*}

        \monitem Tout vecteur $\vc x$ de $E$ se décompose, de manière
unique, en un élément $p_F(\vc x)$ de $F$ et un élément $\vc x-p_F(\vc x)$ de 
$F^\perp$; ainsi $E=F\oplus F^\perp$.\\
        $p_F$ est le projecteur sur $F$, parallèlement à $F^\perp$;
c'est donc le projecteur orthogonal de $E$ sur $F$.
\end{demprop}
\end{proof}
%--------------------------------------------------

\begin{NB}
        Avec les mêmes notations, $\vc x-p_F(\vc x)$ est le projeté
orthogonal de $\vc x$ sur $F^\perp$, et $p_{F^\perp}=I_E-p_F$.
\end{NB}

\begin{Cor}[Existence de supplémentaire orthogonal]\alaligne

        Tout sous-espace vectoriel de dimension finie de $E$ admet un
supplémentaire orthogonal dans~$E$.
\end{Cor}
%--------------------------------------------------

\begin{NB}
        Si $F$ n'est pas de dimension finie, la somme directe $F\oplus
F^\perp$ peut être différente de $E$.
\end{NB}

\subsubsection{Projection orthogonale sur une droite, sur un hyperplan}

        La projection orthogonale sur la droite (vectorielle) $\mcal{D}$ dirigée
par $\vc a$, est donnée par :
\begin{equation}
        p_{\mcal{D}} : \vc x\in E\mapsto\ra{\Scal ax}{\norme{\vc a}^2}\vc a
\end{equation}

        La projection orthogonale sur l'hyperplan $\mcal{H}$ orthogonal à $\vc
a$, est donnée par :
\begin{equation}
        p_{\mcal{H}}=I_E-p_{\mcal{D}} : \vc x\in E\mapsto
                \vc x-\ra{\Scal ax}{\norme{\vc a}^2}\vc a
\end{equation}

        La réflexion (ou symétrie orthogonale) $r_{\mcal{H}}$ par rapport à l'hyperplan
$\mcal{H}$, est donnée par
\begin{equation}
        r_{\mcal{H}}=2p_{\mcal{H}}-I_E=I_E-2p_{\mathcal{D}} : \vc x\in E\mapsto
\vc x-2\ra{\Scal ax}{\norme{\vc a}^2}\vc a
\end{equation}

\subsubsection{Interprétation géométrique de l'orthonormalisation
de Schmidt}

En notant $F_p$ le sous-espace engendré par la famille $(\vc f_1, \dots,
\vc f_p)$, ou engendré par la famille orthonormale
$(\vc u_1,\dots, \vc u_p)$, on peut écrire
\begin{equation}
\vc v_{p+1}=\vc f_{p+1}-\sum_{k=1}^p\scal{\vc u_k}{\vc
f_{p+1}}\vc u_k=\vc f_{p+1}-p_{F_p}(\vc f_{p+1})
=p_{F_p^\perp}(\vc f_{p+1})     
\end{equation}
et $\vc v_{p+1}$ s'interprète comme la projection orthogonale de
$\vc f_{p+1}$ sur $F_p^\perp$.




%---------------------------------------------------------------------
\subsection{Distance d'un vecteur à un sous-espace de dimension finie}
%---------------------------------------------------------------------

\begin{Df}[Distance à un sous-espace]\alaligne

        Si $F$ est un sous-espace vectoriel de $E$ et $\vc x$ un
vecteur de $E$, on pose :
\begin{equation}
        \dist(\vc x,F)=\inf_{\vc y\in F}\dist(\vc x,\vc y)
=\inf_{\vc y\in F}\norme{\vc y-\vc x}
\end{equation}
        Ce nombre existe puisqu'il est la borne inférieure d'une partie non vide
de $\intfo0{+\infty}$; il est appelé \emph{distance de $\vc x$ à $F$}.
\end{Df}


\begin{Th}[Expression de la distance à un sous-espace]\alaligne

        Si $F$ est un sous-espace vectoriel de dimension \emph{finie}
de~$E$,
\begin{prop}
        \item l'application $\vc y\mapsto\dist(\vc x,\vc y)=\norme{\vc
y-\vc x}$ admet un minimum global strict sur~$F$, atteint
en~$p_F(\vc x)$; 

        \item $\dist(\vc x,F)=\dist\bigl(\vc x,p_F(\vc x)\bigr)\et
\dist^2(\vc x,F)=\norme{\vc x}^2-\norme{p_V(\vc x)}^2
=\scal{\vc x-p_F(\vc x)}{\vc x}$.
\end{prop}
\end{Th}

\begin{proof}\alaligne

\begin{demprop}
        \monitem Considérons un vecteur $\vc y$ de $F$ distinct de
$p_F(\vc x)$; $\vc x-p_F(\vc x)$ est orthogonal à $F$, donc en
particulier à $\vc y-p_F(\vc x)$ et le théorème de Pythagore donne
\begin{equation}
\dist^2(\vc x,\vc y)
        =\dist^2(\vc x,p_F(\vc x))+\dist^2(p_F(\vc x),\vc y)
                >\dist^2(\vc x,p_F(\vc x))
\end{equation}

        \monitem La question précédente montre que
$\ens{\dist(\vc x,\vc y)}{\vc y\in F}$ possède un unique plus petit
élément à savoir $\dist(\vc x,p_F(\vc x))$; on peut écrire :
\begin{align*}
\dist^2(\vc x,F)
        &       =       \norme{\vc x-p_F(\vc x)}^2=\norme{\vc x}^2-\norme{p_F(\vc x)}^2
                                \hfill                  \text{ relation de Pythagore}                                                                                                   \\
        &       =       \scal{\vc x-p_F(\vc x)}{\vc x-p_F(\vc x)}
                =\scal{\vc x-p_F(\vc x)}{\vc x}
                                \hfill                  \text{ car $p_F(\vc x)\perp(\vc x-p_F(\vc x))$}
\end{align*}
\end{demprop}
\end{proof}
%--------------------------------------------------

\begin{Th}[Projection et application lipschitzienne]\alaligne

        $p_F$ est une application lipschitzienne de rapport $1$, \ie
\begin{equation}
        \qqs(\vc x,\vc y)\in E^2,\quad
\norme{p_F(\vc y)-p_F(\vc x)}\leq\norme{\vc y-\vc x}
\end{equation}
\end{Th}

\begin{proof}
        $\norme{p_F(\vc x)}^2=\norme{\vc x}^2-\dist^2(\vc x,F)
\leq\norme{\vc x}^2$ et la linéarité de $p_F$ donne le résultat.
\end{proof}
%--------------------------------------------------

\begin{NB}
        Les propriétés de ce paragraphe se généralisent à un sous-espace vectoriel
$F$ qui admet un supplémentaire orthogonal dans $E$.
\end{NB}

%---------------------------------------------------------------------
\subsection{Inégalité de Bessel}
%---------------------------------------------------------------------

\begin{Th}[Inégalité de Bessel]\alaligne

        Si $(u_1, \dots, u_p)$ est une famille \emph{orthonormale} de
$E$ et $\vc x$~un vecteur de $E$, alors :
\begin{equation}
\sum_{k=1}^p\abs{\scal{\vc u_k}{\vc x}}^2\leq\norme{\vc x}^2
\end{equation}
%
        Si $(\vc u_k)_{k\in\N}$ est une suite libre de $E$ et $\vc x$
un vecteur de $E$, alors :
\begin{equation}
\bigl(\scal{\vc u_k}{\vc x}\bigr)_k\in\ell^2_{\N}(\C)\quad\et\quad
\sum_{k=0}^{+\infty}\abs{\scal{\vc u_k}{\vc x}}^2\leq\norme{\vc x}^2
\end{equation}
\end{Th}

\begin{proof}
        Notons $F_p$ le sous-espace vectoriel engendré par $\puple{\vc u}$;
la~projection de $\vc x$ sur $F_p$ donne
$$
\norme{p_{F_p}(\vc x)}^2
=\norme[\Big]{\sum_{k=1}^p\scal{\vc u_k}{\vc x}\,\vc u_k}^2
=\sum_{k=1}^p\abs{\scal{\vc u_k}{\vc x}}^2\leq\norme{\vc x}^2
$$

        L'inégalité précédente montre que les sommes partielles de la
série de terme général 
$\sum\abs{\scal{\vc u_k}{\vc x}}^2$ sont majorées par
$\norme{\vc x}^2$; la série est donc convergente (elle est à
termes positifs) et sa somme est majorée par $\norme{\vc x}^2$.
\end{proof}
%--------------------------------------------------

%---------------------------------------------------------------------
\subsection{Séries de Fourier, le retour}
%---------------------------------------------------------------------

        La famille $(e_k : t\mapsto \ee^{\ii kt})_{k\in\Z}$ est une famille
orthonormale pour le produit scalaire hermitien de l'espace $\mcal{C}_{2\pi}$
des fonctions continues $2\pi$-périodiques
$\scal fg=\ra1{2\pi}\int_{-\pi}^{\pi}\conjug{f(t)}g(t)\,\dt$

        Les coefficients exponentiels de Fourier $c_k(f)$ sont donnés
par $c_k(f)=\scal{e_k}f$.

        L'espace $\mcal{T}_n$ des polynômes trigonométriques de degré au
plus $n$ admet la famille des $e_k$ pour $k\in\Intf{-n}n$ pour
base orthonormale.

        La somme partielle de Fourier $S_n(f)=\sum_{k=-n}^n c_k(f)e_k
=\sum_{k=-n}^n\scal{e_k}f e_k$ s'interprète comme la projection
orthogonale de $f$ sur $\mcal{T}_n$; $S_n(f)$ est donc le
polynôme trigonométrique de degré au plus $n$ de meilleure
approximation, et
\begin{prop}
        \item   $\dps
\norme[\big]{S_n(f)}^2=\norme[\Big]{\sum_{k=-n}^nc_k(f) e_k}^2
=\sum_{k=-n}^n\abs{c_k(f)}^2
        \hfill  \text{relation de Pythagore;}$
        \item   $\dps
\norme[\big]{f-S_n(f)}^2=\norme[\big]{f}^2-\norme[\big]{S_n(f)}^2
        \hfill  \text{relation de Pythagore;}$
        \item   $\dps
\norme[\big]{S_n(f)}^2=\sum_{k=-n}^n\abs{c_k}^2
        \leq\norme[\big]{f}^2=\ra1{2\pi}\int_{-\pi}^{\pi}\abs{f}^2
        \hfill  \text{inégalité de Bessel.}$
\end{prop}

        Puisque $(S_n(f))_n$ tend vers $f$ pour la norme de la convergence
en moyenne quadratique, la suite $(\norme[\big]{f-S_n(f)}^2)_n$, tend vers 0,
soit
$$
\norme[\big]{f-S_n(f)}^2=\norme[\big]{f}^2-\norme[\big]{S_n(f)}^2\tend0
$$
ce qui donne l'égalité de Bessel-Parseval :
$$
\lim_n\,\norme[\big]{S_n(f)}^2=\norme[\big]{f}^2
\text{, soit : }
\abs{c_0}^2+\sum_{k=1}^{\infty}(\abs{c_k}^2+\abs{c_{-k}}^2)
=\ra1{2\pi}\int_{-\pi}^{\pi}\abs{f}^2
$$