\chapter{Analyse hilbertienne}
\minitoc
\newpage
Le but de chapitre est de généraliser l'espace ordinaire et son
produit scalaire
\begin{itemize}
\item à la dimension $n$ : espace euclidien;
\item à la dimension infinie : espace préhilbertien réel;
\item aux nombres complexes : espace préhilbertien complexe, espace hermitien.
\end{itemize}
La généralisation portera essentiellement sur les notions
d'orthogonalité et de projection orthogonale.
\section{Produit scalaire sur un espace vectoriel réel}
Dans cette section, $E$ désigne un $\R$-espace vectoriel de
dimension finie ou infinie, sauf avis contraire.
Rappelons qu'un produit scalaire sur $E$ est une forme bilinéaire symétrique
définie positive.
\begin{Exs}\alaligne
Rappelons les produits scalaires naturels (canoniques) sur $\R^n$ et
$\Mnp[n,1]{\R}$
\begin{gather}
\qqs\vc x=\nuple x,\ \qqs\vc y=\nuple y,\quad
\Scal xy=\sum_{k=1}^n x_k y_k \\
\qqs(X,Y)\in\bigl(\Mnp[n,1]{\R}\bigr)^2,\quad
\scal XY=\trans XY=\sum_{k=1}^nx_k y_k
\end{gather}
En plus des exemples déjà étudiés, en voici trois autres :
\begin{prop}
\item le produit scalaire sur l'espace des fonctions à valeurs réelles, continues et
de carré intégrable sur l'intervalle $I$ :
$$
\qqs(f,g)\in\bigl(\mcal{L}^2(I,\R)\bigr)^2,\quad
\scal fg=\int_I f(t)g(t)\,\dt
$$
\item les produits scalaires sur l'espace des polynômes à
coefficients réels; si $I$ est un intervalle et $w$ une fonction
continue sur $I$ et à valeurs réelles (strictement) positives,
telle que, pour tout entier $n$, $t\mapsto t^n
w(t)$ soit intégrable sur $I$, l'application
$$
(P,Q)\in\bigl(\R[X]\bigr)^2\mapsto\scal PQ=\int_I P(t) Q(t)w(t)\,\dt
$$
est un produit scalaire. Les cas classiques sont
\begin{gather*}
I=\intf{-1}1,\ w(t)=1\et\scal PQ=\int_{-1}^1 P(t) Q(t)\,\dt \\
I=\into{-1}1,\ w(t)=\ra1{\sqrt{1-t^2}}\et
\scal PQ=\int_{-1}^1 P(t) Q(t)\,\ra{\dt}{\sqrt{1-t^2}} \\
I=\intfo0{+\infty},\ w(t)=\ee^{-t}\et
\scal PQ=\int_0^{+\infty} P(t) Q(t)\ee^{-t}\,\dt \\
I=\into{-\infty}{+\infty},\ w(t)=\ee^{-t^2}\et
\scal PQ=\int_{-\infty}^{+\infty} P(t) Q(t)\ee^{-t^2}\,\dt
\end{gather*}
\item le produit scalaire sur l'espace des suites réelles de carré
sommable $\ell^2_\N(\R)$, \ie{} les suites réelles $\suite a$
telles que la série $\sum_n a_n^2$ soit convergente.
$$
\qqs(\vc a,\vc b)\in\bigl(\ell^2_\N(\R)\bigr)^2,\quad
\Scal ab=\sum_{k=0}^{\infty} a_k b_k
$$
\end{prop}
\end{Exs}
La norme associée au produit scalaire $\scal{\ }{\ }$ est
définie par :
$$
\qqs\vc x\in E,\quad\norme{\vc x}=\sqrt{\Scal xx}
$$
et la distance associée par :
$$
\qqs(\vc x,\vc y)\in E^2,\quad
\dist(\vc x,\vc y)=\norme{\vc y-\vc x}
=\sqrt{\scal{(\vc y-\vc x)}{(\vc y-\vc x)}}
$$
Des relations lient la norme euclidienne et le produit scalaire associé; pour
$\vc x$ et $\vc y$ éléments de $E$, on a :
\begin{prop}
\item ${\norme{\vc x+\vc y}}^2={\norme{\vc x}}^2+2\Scal
xy+{\norme{\vc y}}^2$;
\item ${\norme{\vc x+\vc y}}^2+{\norme{\vc x-\vc y}}^2=
2{\norme{\vc x}}^2+2{\norme{\vc y}}^2$ \hfill
égalité du parallélogramme;
\item $\Scal xy
=\ra12\bigl({\norme{\vc x+\vc y}}^2-{\norme{\vc x}}^2-{\norme{\vc y}}^2\bigr)
=\ra14\bigl({\norme{\vc x+\vc y}}^2-{\norme{\vc x-\vc y}}^2\bigr)$\\
\mbox{}\hfill expression du produit scalaire réel à l'aide de la norme.
\end{prop}
L'inégalité dite de Cauchy-Schwarz est un outil important :
$$
\qqs(\vc x,\vc y)\in E^2,\ \abs{\Scal xy}\leq\norme{\vc x}\,\norme{\vc y}
$$
\begin{Exs}
Voici quelques exemples d'application de l'inégalité de Cauchy-Schwarz :
\begin{prop}
\item cas de $\R^n$ :
$$
\abs{\Scal xy}=\abs[\Big]{\sum_{k=1}^n x_k y_k}
\leq\norme{\vc x}\,\norme{\vc y}=\Bigl(\sum_{k=1}^n x_k^2\Bigr)^{\ra12}
\Bigl(\sum_{k=1}^n y_k^2\Bigr)^{\ra12}
$$
\item cas de $\Mnp[n,1]{\R}$ :
$$
\abs{\scal XY}=\abs{\trans XY}=\abs[\Big]{\sum_{k=1}^n x_k y_k}\leq
\bigl(\trans XX\bigr)^{\ra12}\bigl(\trans YY\bigr)^{\ra12}
=\Bigl(\sum_{k=1}^n x_k^2\Bigr)^{\ra12}\Bigl(\sum_{k=1}^n y_k^2\Bigr)^{\ra12}
$$
\item cas de $\mcal{L}^2(I,\R)$ :
$$
\abs{\scal fg}=\Bigl|\int_I f(t)g(t)\,\dt\Bigr|
\leq \Bigl(\int_I \bigl(f(t)\bigr)^2\,\dt\Bigr)^{\ra12}
\Bigl(\int_I \bigl(g(t)\bigr)^2\,\dt\Bigr)^{\ra12}
$$
\item cas de $\R[X]$ :
$$
\abs{\scal PQ}=\Bigr|\int_I P(t) Q(t)w(t)\,\dt\Bigl|
\leq
\Bigl(\int_I \bigl(P(t)\bigr)^2w(t)\,\dt\Bigr)^{\ra12}
\Bigl(\int_I \bigl(Q(t)\bigr)^2w(t)\,\dt\Bigr)^{\ra12}
$$
Par exemple :
$$
\Bigl|\int_{-\infty}^{+\infty} P(t) Q(t)\ee^{-t^2}\,\dt\Bigr|
\leq
\Bigl(\int_{-\infty}^{+\infty} \bigl(P(t)\bigr)^2\ee^{-t^2}\,\dt\Bigr)^{\ra12}
\Bigl(\int_{-\infty}^{+\infty} \bigl(Q(t)\bigr)^2\ee^{-t^2}\,\dt\Bigr)^{\ra12}
$$
\item cas de $\ell^2_\N(\R)$ :
$$
\abs{\Scal ab}=\Bigl|\sum_{k=0}^{\infty} a_k b_k\Bigr|
\leq\Bigl(\sum_{k=0}^{\infty} a_k^2 \Bigr)^{\ra12}
\Bigl(\sum_{k=0}^{\infty} b_k^2 \Bigr)^{\ra12}
$$
\end{prop}
\end{Exs}
\section{Produit scalaire sur un espace vectoriel complexe}
Dans cette section, $E$ désigne un $\C$-espace vectoriel de
dimension finie ou infinie, sauf avis contraire.
Rappelons qu'un produit scalaire complexe ou hermitien sur $E$ est une forme linéaire
à droite, à symétrie hermitienne et définie positive.
\begin{Exs}\alaligne
Rappelons les produits scalaires naturels (canoniques) sur $\C^n$ et
$\Mnp[n,1]{\C}$
\begin{gather}
\qqs\vc x=\nuple x,\ \qqs\vc y=\nuple y,\quad
\Scal xy=\sum_{k=1}^n \conjug{x_k} y_k \\
\qqs(X,Y)\in\bigl(\Mnp[n,1]{\R}\bigr)^2,\quad
\scal XY=\trans\conjug{X}Y=\sum_{k=1}^n\conjug{x_k} y_k
\end{gather}
En plus des exemples déjà étudiés, en voici trois autres :
\begin{prop}
\item le produit scalaire sur l'espace des fonctions à valeurs complexes, continues et
de carré intégrable sur l'intervalle $I$ :
$$
\qqs(f,g)\in\bigl(\mcal{L}^2(I,\C)\bigr)^2,\quad
\scal fg=\int_I \conjug{f(t)}g(t)\,\dt
$$
\item les produits scalaires sur l'espace des polynômes à
coefficients complexes ; si $I$ est un intervalle et $w$ une fonction
continue sur $I$ et à valeurs réelles (strictement) positives,
telle que, pour tout entier $n$, $t\mapsto t^n
w(t)$ soit intégrable sur $I$, l'application
$$
(P,Q)\in\bigl(\C[X]\bigr)^2\mapsto\scal PQ=\int_I \conjug{P(t)} Q(t)w(t)\,\dt
$$
est un produit scalaire. Les cas classiques sont
\begin{gather*}
I=\intf{-1}1,\ w(t)=1\et\scal PQ=\int_{-1}^1 \conjug{P(t)} Q(t)\,\dt \\
I=\into{-1}1,\ w(t)=\ra1{\sqrt{1-t^2}}\et
\scal PQ=\int_{-1}^1 \conjug{P(t)} Q(t)\,\ra{\dt}{\sqrt{1-t^2}} \\
I=\intfo0{+\infty},\ w(t)=\ee^{-t}\et
\scal PQ=\int_0^{+\infty} \conjug{P(t)} Q(t)\ee^{-t}\,\dt \\
I=\into{-\infty}{+\infty},\ w(t)=\ee^{-t^2}\et
\scal PQ=\int_{-\infty}^{+\infty} \conjug{P(t)} Q(t)\ee^{-t^2}\,\dt
\end{gather*}
\item le produit scalaire sur l'espace des suites complexes de carré
sommable $\ell^2_\N(\C)$, \ie{} les suites complexes $\suite a$
telles que la série $\sum_n \abs{a_n}^2$ soit convergente.
$$
\qqs(\vc a,\vc b)\in\bigl(\ell^2_\N(\C)\bigr)^2,\quad
\Scal ab=\sum_{k=0}^{\infty} \conjug{a_k} b_k
$$
\end{prop}
\end{Exs}
La norme associée au produit scalaire $\scal{\ }{\ }$ est
définie par :
$$
\qqs\vc x\in E,\quad\norme{\vc x}=\sqrt{\Scal xx}
$$
et la distance associée par :
$$
\qqs(\vc x,\vc y)\in E^2,\quad
\dist(\vc x,\vc y)=\norme{\vc y-\vc x}
=\sqrt{\scal{(\vc y-\vc x)}{(\vc y-\vc x)}}
$$
Des relations lient la norme euclidienne et le produit scalaire associé; pour
$\vc x$ et $\vc y$ éléments de $E$, on a :
\begin{prop}
\item ${\norme{\vc x+\vc y}}^2
={\norme{\vc x}}^2+2\RE\Scal xy+{\norme{\vc y}}^2$;
\item ${\norme{\vc x+\vc y}}^2+{\norme{\vc x-\vc y}}^2=
2{\norme{\vc x}}^2+2{\norme{\vc y}}^2$ \hfill
égalité du parallélogramme;
\item
$\RE\Scal xy
=\ra12\bigl({\norme{\vc x+\vc y}}^2-{\norme{\vc x}}^2-{\norme{\vc y}}^2\bigr)
=\ra14\bigl({\norme{\vc x+\vc y}}^2-{\norme{\vc x-\vc y}}^2\bigr)$ \\
$\IM\Scal xy
=\ra12\bigl({\norme{\vc x-\ii\vc y}}^2-{\norme{\vc x}}^2-{\norme{\vc y}}^2\bigr)
=\ra14\bigl({\norme{\vc x-\ii\vc y}}^2-{\norme{\vc x+\ii\vc y}}^2\bigr)$ \\
et
$\Scal xy=\ra14\bigl({\norme{\vc x+\vc y}}^2-{\norme{\vc x-\vc y}}^2\bigr)
+\ra \ii4\bigl({\norme{\vc x-\ii\vc y}}^2-{\norme{\vc x+\ii\vc y}}^2\bigr)$\\
\mbox{}\hfill expression du produit scalaire complexe à l'aide de la norme.
\end{prop}
L'inégalité dite de Cauchy-Schwarz est un outil important :
$$
\qqs(\vc x,\vc y)\in E^2,\ \abs{\Scal xy}\leq\norme{\vc x}\,\norme{\vc y}
$$
\begin{Exs}
Voici quelques exemples d'application de l'inégalité de Schwarz :
\begin{prop}
\item cas de $\C^n$ :
$$
\abs{\Scal xy}=\abs[\Big]{\sum_{k=1}^n \conjug{x_k} y_k}
\leq\norme{\vc x}\,\norme{\vc y}=\Bigl(\sum_{k=1}^n \abs{x_k}^2\Bigr)^{\ra12}
\Bigl(\sum_{k=1}^n \abs{y_k}^2\Bigr)^{\ra12}
$$
\item cas de $\Mnp[n,1]{\C}$ :
$$
\abs{\scal XY}=\abs{\tc XY}=\abs[\Big]{\sum_{k=1}^n \conjug{x_k} y_k}\leq
\bigl(\tc{X} X\bigr)^{\ra12}\bigl(\tc{Y}Y\bigr)^{\ra12}
=\Bigl(\sum_{k=1}^n \abs{x_k}^2\Bigr)^{\ra12}
\Bigl(\sum_{k=1}^n \abs{y_k}^2\Bigr)^{\ra12}
$$
\item cas de $\mcal{L}^2(I)$ :
$$
\abs{\scal fg}=\Bigl|\int_I \conjug{f(t)}g(t)\,\dt\Bigr|
\leq
\Bigl(\int_I \bigl|f(t)\bigr|^2\,\dt\Bigr)^{\ra12}
\Bigl(\int_I \bigl|g(t)\bigr|^2\,\dt\Bigr)^{\ra12}
$$
\item cas de $\C[X]$ :
$$
\abs{\scal PQ}=\Bigr|\int_I \conjug{P(t)} Q(t)w(t)\,dt\Bigl|
\leq
\Bigl(\int_I \bigl|P(t)\bigr|^2w(t)\,\dt\Bigr)^{\ra12}
\Bigl(\int_I \bigl|Q(t)\bigr|^2w(t)\,\dt\Bigr)^{\ra12}
$$
Par exemple :
$$
\Bigl|\int_{-1}^1 \conjug{P(t)} Q(t)\,\ra{\dt}{\sqrt{1-t^2}}\Bigr|
\leq
\Bigl(\int_{-1}^1 \bigl|P(t)\bigr|^2\,
\ra{\dt}{\sqrt{1-t^2}}\Bigr)^{\ra12}
\Bigl(\int_{-1}^1 \bigl|Q(t)\bigr|^2\,
\ra{\dt}{\sqrt{1-t^2}}\Bigr)^{\ra12}
$$
\item cas de $\ell^2_\N(\C)$ :
$$
\abs{\Scal ab}=\Bigl|\sum_{k=0}^{\infty} \conjug{a_k} b_k\Bigr|
\leq\Bigl(\sum_{k=0}^{\infty} \abs{a_k}^2 \Bigr)^{\ra12}
\Bigl(\sum_{k=0}^{\infty} \abs{b_k}^2 \Bigr)^{\ra12}
$$
\end{prop}
\end{Exs}
\section{Orthogonalité}
$E$ désigne un espace préhilbertien réel ou complexe dont le
produit scalaire est noté $\scal{\ }{\ }$.
\begin{Df}[Vecteur unitaire]\alaligne
Un vecteur \emph{unitaire} est un vecteur $\vc x$ de norme $1$, \ie{}
vérifiant $\Scal xx=1$.
\end{Df}
\begin{Df}[Orthogonalité]\alaligne
Deux vecteurs sont \emph{orthogonaux} si leur produit scalaire
est nul; la relation d'orthogonalité est notée $\bot$.
\Reponse{$
\vc x\bot\vc y\iff\Scal xy=0
$}
\end{Df}
\begin{Df}[Famille orthogonale]\alaligne
Une famille de vecteurs $(\vc x_k)_{k\in\Lambda}$ est une
\emph{famille orthogonale} si les vecteurs de cette famille sont
orthogonaux deux à deux, \ie
\begin{equation}
\qqs(k,l)\in\Lambda^2,\quad k\neq l\implique
\scal{\vc x_k}{\vc x_l}=0
\end{equation}
\end{Df}
\begin{Df}[Famille orthonormale]\alaligne
Une famille orthogonale de vecteurs unitaires est appelée une famille
\emph{orthonormale}, \ie
\begin{equation}
\qqs(k,l)\in\Lambda^2,\quad \scal{\vc x_k}{\vc x_l}=\delta_{k,l}=
\begin{cases}
0 & \text{si $k\neq l$} \\
1 & \text{si $k=l$}
\end{cases}
\end{equation}
\end{Df}
\begin{NB}
Si $(\vc v_k)_k$ est une famille orthogonale de vecteurs
\emph{non nuls}, la famille $(\ra1{\norme{\vc v_k}}\vc v_k)_k$ est
orthonormale.
\end{NB}
\begin{Exs}\alaligne
\begin{prop}
\item Les bases naturelles (canoniques) de $\R^n$, $\C^n$, $\Mnp[n,1]{\R}$,
$\Mnp[n,1]{\C}$, $\Mnp{\R}$ et $\Mnp{\C}$ sont des familles orthonormales pour
le produit scalaire naturel (canonique) des espaces considérés.
\item La famille $\ens{e_k : t\mapsto \exp(\ii kt)}{k\in\Z}$ est
une famille orthonormale de~$\mcal{C}_{2\pi}$.
La famille $\{1\}\cup\ens{t\mapsto \cos kt}{k\in\N^*}\cup
\ens{t\mapsto\sin kt}{k\in\N^*}$ est une famille orthogonale de
$\mcal{C}_{2\pi}$; la famille orthonormale associée est
$\{1\}\cup\ens{t\mapsto \sqrt2\cos kt}{k\in\N^*}\cup
\ens{t\mapsto\sqrt2\sin kt}{k\in\N^*}$.
\item Les divers produits scalaires sur $\R[X]$ et $\C[X]$
donnent des familles orthogonales de polynômes, encore appelées
familles de polynômes orthogonaux :
\begin{itemize}
\item les polynômes de Legendre
$\dps P_n(t)=\ra{\mathrm{d}^n}{\dt^n}\bigl((t^2-1)^n\bigr)$
constituent une famille de polynômes
orthogonaux pour le produit scalaire
$\dps\scal PQ=\int_{-1}^1\conjug{P(t)}Q(t)\,\dt$.
\item les polynômes de Chebychev
$\dps T_n(t)=\cos(n\arccos t)$
constituent une famille de polynômes
orthogonaux pour le produit scalaire
$\dps\scal PQ=\int_{-1}^1\conjug{P(t)}Q(t)\,\ra{\dt}{\sqrt{1-t^2}}$.
\item les polynômes de Laguerre
$\dps L_n(t)=\ee^t\ra{\mathrm{d}^n}{\dt^n}(t^n \ee^{-t})$
constituent une famille de polynômes
orthogonaux pour le produit scalaire
$\dps \scal PQ=\int_0^{+\infty}\conjug{P(t)}Q(t)\,\ee^{-t}\,\dt$.
\item les polynômes d'Hermite
$\dps H_n(t)=\ee^{t^2}\ra{\mathrm{d}^n}{\dt^n}(\ee^{-t^2})$
constituent une famille de polynômes
orthogonaux pour le produit scalaire
$\dps \scal PQ=\int_{-\infty}^{+\infty} \conjug{P(t)}Q(t)\,\ee^{-t^2}\,\dt$.
\end{itemize}
\end{prop}
\end{Exs}
\subsection{Relation de Pythagore}
Voici tout d'abord, deux règles de calcul :
\begin{Lem}[]\mbox{}\alaligne
\begin{prop}
\item $\dps\scal{\sum_{k=1}^p \la_k\vc x_k}{\sum_{l=1}^q\mu_l\vc y_l}
=\sum_{k=1}^p\sum_{l=1}^q\conjug{\la_k}\mu_l\scal{\vc x_k}{\vc y_l}$
\item $\dps\norme[\Big]{\sum_{k=1}^p \la_k\vc x_k}^2
=\sum_{k=1}^p\sum_{l=1}^p \conjug{\la_k}\la_l\scal{\vc x_k}{\vc x_l}$
\end{prop}
\end{Lem}
\begin{proof}
Yak a développer en utilisant la linéarité à droite et la
semi-linéarité à gauche du produit scalaire.
\begin{demprop}
\monitem
$\dps\scal{\sum_{k=1}^p \la_k\vc x_k}{\sum_{l=1}^q\mu_l\vc y_l}
=\sum_{k=1}^p \conjug{\la_k}\scal{\vc x_k}{\sum_{l=1}^q\mu_l\vc y_l}
=\sum_{k=1}^p\sum_{l=1}^q \conjug{\la_k}\mu_l\scal{\vc x_k}{\vc y_l}$
\vspace*{3pt}
\monitem Attention de ne pas oublier d'utiliser deux indices!
$$
\norme[\Big]{\sum_{k=1}^p \la_k\vc x_k}^2
=\scal{\sum_{k=1}^p\la_k\vc x_k}{\sum_{l=1}^p\la_l\vc x_l}
=\sum_{k=1}^p\sum_{l=1}^p
\conjug{\la_k}\la_l\scal{\vc x_k}{\vc x_l}
$$
\end{demprop}
\end{proof}
\begin{NB}
En particulier, dans un espace préhilbertien réel :
$$
\norme{\vc x+\vc y+\vc z}^2=
\norme{\vc x}^2+\norme{\vc y}^2+\norme{\vc z}^2+
2\Scal xy+2\Scal yz+2\Scal zx
$$
\end{NB}
\begin{Th}[de Pythagore]\alaligne
\begin{prop}
\item Si $\vc u$ et $\vc v$ sont deux vecteurs
\emph{orthogonaux}, on a
\begin{equation}
\norme{\vc u+\vc v}^2=\norme{\vc u}^2+\norme{\vc v}^2
\end{equation}
La réciproque est vraie dans un espace préhilbertien réel.
\item Si la famille $(\vc v_k)_{1\leq k\leq p}$ est une famille
\emph{orthogonale}, alors
\begin{equation}
\bigl\|\sum_{k=1}^p \vc v_k\bigr\|^2=\sum_{k=1}^p\norme{\vc v_k}^2
\end{equation}
\end{prop}
\end{Th}
\begin{proof}\alaligne
\begin{demprop}
\monitem Cas réel :
$\norme{\vc u+\vc v}^2
=\norme{\vc u}^2+2\Scal uv+\norme{\vc v}^2
=\norme{\vc u}^2+\norme{\vc v}^2$ si, et seulement si, $\Scal uv=0$.\\
Cas complexe :
$\norme{\vc u+\vc v}^2=\norme{\vc u}^2+2\RE\Scal uv+\norme{\vc v}^2$
et $\Scal uv=0$ implique
$\norme{\vc u+\vc v}^2=\norme{\vc u}^2+\norme{\vc v}^2$.
\monitem Puisque les vecteurs sont orthogonaux deux à deux,
$\scal{\vc v_k}{\vc v_l}=0$ pour $k\neq l$ et
$$
\norme[\Big]{\sum_{k=1}^p\vc v_k}^2
=\sum_{k,l}\scal{\vc v_k}{\vc v_l}
=\sum_{k=1}^p\norme{\vc v_k}^2
+\sum_{\substack{k,l=1\\k\neq l}}^p\scal{\vc v_k}{\vc v_l}
=\sum_{k=1}^p\norme{\vc v_k}^2
$$
\end{demprop}
\end{proof}
\begin{Th}[Famille orthogonale et famille libre]\alaligne
Toute famille orthogonale de vecteurs non nuls est une
famille libre.
\end{Th}
\begin{proof}
Soit $(\vc v_k)_k$ une famille orthogonale de vecteurs non
nuls; pour toute combinaison linéaire nulle
$\sum_{k=1}^p\la_k\vc v_k=\vc 0$, on a, en utilisant la
formule de Pythagore,
$$
0=\norme[\Big]{\sum_{k=1}^p \la_k \vc v_k}^2
=\sum_{k=1}^p\norme{\la_k\vc v_k}^2
=\sum_{k=1}^p\abs{\la_k}^2\norme{\vc v_k}^2
$$
ce qui montre que $\abs{\la_k}^2\norme{\vc v_k}^2=0$ pour tout
$k\in\Intf1p$, et $\la_k=0$ puisque les vecteurs $\vc v_k$
sont tous non nuls.
\end{proof}
\begin{Cor}
Toute famille orthonormale est une famille libre.
\end{Cor}
\subsection{Procédé d'orthonormalisation de Schmidt}\alaligne
Comment construire une famille orthonormale à partir d'une
famille libre? C'est l'objet du procédé d'orthonormalisation
d'Erhard Schmidt.
\begin{Th}[]\mbox{}
Si $(\vc f_k)_{k\geq1}$ est une suite libre d'un espace
préhilbertien réel ou complexe, il existe une unique suite
\emph{orthonormale} $(\vc u_k)_{k\geq1}$ telle que, pour tout entier
$p\geq1$,
\begin{prop}
\item les espaces engendrés par les familles $(\vc f_1, \dots, \vc f_p)$ et
$(\vc u_1, \dots, \vc u_p)$ sont identiques;
\item $\scal{\vc f_p}{\vc u_p}>0$.
\end{prop}
\end{Th}
\begin{proof} Par récurrence sur $p$.
La propriété est vraie pour $p=1$.
Posons $\vc u_1=\la\vc f_1$;
puisque $0<\scal{\vc f_1}{\vc u_1}=\la\scal{\vc f_1}{\vc
f_1}$, le scalaire $\la$ est $>0$, $1=\norme{\vc u_1}=\la\norme{\vc f_1}$ ce
qui détermine $\la$. Ainsi $\vc u_1=\ra1{\norme{\vc f_1}}\vc f_1$.
La propriété est héréditaire.
Commençons par analyser la
situation. Puisque les sous-espaces engendrés par $(\vc
f_1,\dots,\vc f_p)$ et $(\vc u_1,\dots,\vc u_p)$ sont identiques,
on peut poser
\begin{equation}
\vc u_{p+1}=\la\vc f_{p+1}+\sum_{k=1}^p \alpha_k\vc u_k
\end{equation}
L'orthogonalité de $\vc u_k$ avec $\vc u_{p+1}$ pour tout
$k\in\Intf1p$ montre que
\begin{multline}
0=\scal{\vc u_k}{\vc u_{p+1}}
=\la\scal{\vc u_k}{\vc f_{p+1}}
+\sum_{j=1}^p\alpha_j \scal{\vc u_k}{\vc u_j} \\
=\la\scal{\vc u_k}{\vc f_{p+1}}+\sum_{j=1}^p\alpha_j\delta_{k,j}
=\la\scal{\vc u_k}{\vc f_{p+1}}+\alpha_k
\end{multline}
ce qui détermine $\alpha_k$ :
$\alpha_k =-\la\scal{\vc u_k}{\vc f_{p+1}}$ et
$$
\vc u_{p+1}=\la\vc f_{p+1}
-\sum_{k=1}^p \la\scal{\vc u_k}{\vc f_{p+1}}\vc u_k=\la\vc v_{p+1}
$$
où $\vc v_{p+1}=\vc f_{p+1}
-\sum_{k=1}^p\scal{\vc u_k}{\vc f_{p+1}}\vc u_k$. D'autre part,
$$
0<\scal{\vc f_{p+1}}{\vc u_{p+1}}
=\scal{\vc v_{p+1}+\sum_{k=1}^p\scal{\vc u_k}{\vc f_{p+1}}\vc u_k}
{\vc u_{p+1}}
=\scal{\vc v_{p+1}}{\vc u_{p+1}}=\la\norme{\vc v_{p+1}}^2
$$
Ainsi le scalaire $\la$ est $>0$, $\la=\ra1{\norme{\vc v_{p+1}}}$
puisque $\vc u_{p+1}$ est unitaire, et le vecteur $\vc u_{p+1}$ est unique.
Reste à montrer, et c'est la synthèse, que ce vecteur
convient. En effet, le vecteur $\vc v_{p+1}=\vc f_{p+1}-\sum_{k=1}^p\scal{\vc
u_k}{\vc f_{p+1}}\vc u_k$ n'est pas nul, puisque la famille $(\vc
u_1,\dots,\vc u_p,\vc f_{p+1})$ est libre, et est orthogonal, par
construction, à $\vc u_1$,\dots, $\vc u_p$.
\end{proof}
\subsubsection*{Algorithme de calcul de l'orthonormalisée}
Le calcul effectif de l'orthonormalisée $(\vc u_k)_k$ d'une suite
libre $(\vc f_k)_k$ s'effectue à l'aide de l'algorithme suivant :
\begin{gather*}
\vc u_1=\ra1{\norme{\vc f_1}}\vc f_1 \\
\qqs p\geq1,\quad
\vc v_{p+1}=\vc f_{p+1}
-\sum_{k=1}^p\scal{\vc u_k}{\vc f_{p+1}}\vc u_k\et
\vc u_{p+1}=\ra1{\norme{\vc v_{p+1}}}\vc v_{p+1}
\end{gather*}
ou bien à l'aide de celui-ci, qui permet, en général, des calculs
plus simples :
\begin{prop}
\item calcul de la suite orthogonale $(\vc v_k)_k$ :
$$
\vc v_1=\vc f_1\et\qqs p\geq1,\quad
\vc v_{p+1}=\vc f_{p+1}
-\sum_{k=1}^p
\ra{\scal{\vc v_k}{\vc f_{p+1}}}{\norme{\vc v_k}^2}\vc v_k
$$
\item orthonormalisation de la suite $(\vc v_k)_k$ :
$$
\qqs k\geq1,\quad \vc u_k=\ra1{\norme{\vc v_k}}\vc v_k
$$
\end{prop}
\subsection{Base orthonormale d'un sous-espace vectoriel de
dimension finie}
\begin{Th}[Existence de base orthonormale]\alaligne
Tout sous-espace vectoriel de dimension finie d'un espace
préhilbertien réel ou complexe, admet une base orthonormale.
\end{Th}
\begin{proof}
L'orthonormalisée d'une base de $F$ répond à la question.
\end{proof}
\begin{Cor}
Les espaces euclidien et hermitien admettent des bases
orthonormales.
\end{Cor}
Dans un espace vectoriel de dimension finie rapporté à une
base orthonormale $(\vc u_1,\dots,\vc u_p)$, les expressions des
coordonnées d'un vecteur,
de sa norme, du produit scalaire et de la distance de deux
vecteurs, sont particulièrement simples :
\begin{prop}
\item expression des coordonnées de $\vc x$ :
$\dps \vc x=\sum_{k=1}^p\scal{\vc u_k}{\vc x}\vc u_k
=\sum_{k=1}^px_k\vc u_k$
\item expression de la norme :
$\dps\norme{\vc x}^2=\sum_{k=1}^p\abs{x_k}^2
=\sum_{k=1}^p\abs{\scal{\vc u_k}{\vc x}}^2$
\item expression du produit scalaire :
$\dps\Scal xy=\sum_{k=1}^p\conjug{x_k}y_k
=\sum_{k=1}^p\conjug{\scal{\vc u_k}{\vc x}}\scal{\vc u_k}{\vc y}$
\item expression de la distance :
$\dsp
\dist(\vc x,\vc y)^2=\sum_{k=1}^p \abs{y_k-x_k}^2$
\end{prop}
\section{Projection orthogonale}
$E$ désigne encore et toujours un espace préhilbertien réel ou
complexe muni d'un produit scalaire noté $\scal{\ }{\ }$; le corps
des scalaires est noté $\K$.
\subsection{Orthogonal d'une partie}
\begin{Df}[Orthogonal d'une partie]\alaligne
L'\emph{orthogonal} d'une partie non vide $A$ de $E$ est
l'ensemble des vecteurs de $E$ qui sont orthogonaux à tous les
vecteurs de $A$: on le note $A^{\perp}$.
\Reponse{$
A^{\perp}=\ens{\vc x\in E}{\qqs \vc a\in A,\ \Scal ax=0}
$}
\end{Df}
\begin{Prop}[Propriétés de l'orthogonal]\alaligne
L'orthogonal d'une partie possède les propriétés suivantes :
\begin{prop}
\item l'orthogonal de $\vc 0_E$ est $E$ et l'orthogonal de $E$
est $\{\vc0_E\}$;
\item si $\vc a$ est un
vecteur non nul, l'orthogonal de $\vc a$ est un hyperplan de $E$;
\item pour toute partie $A$ non vide, $A^\perp$ est un sous-espace
vectoriel de $E$;
\item si $F$ est un sous-espace de $E$, $F\cap F^\perp$ est
réduit à $\{\vc0\}$;
\item si $F$ est un sous-espace vectoriel engendré par la
famille $(\vc f_1, \dots, \vc f_p)$, l'orthogonal de $F$ est
caractérisé par :
\begin{equation}
\vc x\in F^\perp\iff\qqs k\in\Intf1p,\quad\scal{\vc f_k}{\vc x}=0
\iff\vc x\in\Inter_{k=1}^p\{\vc f_k\}^\perp
\end{equation}
\end{prop}
\end{Prop}
\begin{proof}\alaligne
\begin{demprop}
\monitem Pour tout $\vc x$ de $E$, $\Scal x0=0$, soit
$\vc x\perp\vc 0$. Ainsi $E\subset \{\vc 0\}^\perp$ et
$E=\{\vc 0\}^\perp$. \\
Si $\vc x$ est orthogonal à $E$, $\vc x$ est, en particulier,
orthogonal à lui-même; $\vc x$ est donc nul. Ainsi
$E^\perp\subset \{\vc 0\}$ et $E^\perp=\{\vc 0\}$.
\monitem Si $\vc a$ n'est pas nul,
$\{\vc a\}^\perp=\ens{\vc x}{\Scal ax=0}=\ker\{\vc x\mapsto\Scal ax\}$
est le noyau d'une forme linéaire non nulle; c'est donc un hyperplan.
\monitem $A^\perp$ est l'intersection de tous les hyperplans $\{\vc
a\}^\perp$ où $\vc a$ décrit $A$, c'est donc un sous-espace vectoriel.
\monitem $\vc x\in F\cap F^\perp\implique \Scal xx=0$, soit
$\vc x=\vc 0$.
\monitem Les éléments de $F$ sont des combinaisons linéaires
des vecteurs $\vc f_k$, et
\begin{align*}
\vc x\in F^\perp
& \iff \qqs\puple\la\in\K^p,\quad
0=\scal{\vc x}{\sum_{k=1}^p\la_k\vc f_k}
=\sum_{k=1}^p \la_k \scal{\vc x}{\vc f_k} \\
& \iff \qqs k\in\Intf1p,\quad \scal{\vc x}{\vc f_k}=0
\iff \vc x\in\Inter_{k=1}^p\{\vc f_k\}^\perp
\end{align*}
\end{demprop}
\end{proof}
\subsection{Supplémentaires orthogonaux, projecteurs orthogonaux}
\begin{Df}[Sous-espaces orthogonaux]\alaligne
Deux sous-espaces vectoriels $F$ et $G$ sont \emph{orthogonaux} si tous
les vecteurs de $F$ sont orthogonaux à tous les vecteurs de $G$,
\ie{} si $F\subset G^\perp$ ou bien si tous les vecteurs de $G$ sont orthogonaux
à tous les vecteurs de $F$, \ie{} $G\subset F^\perp$.
\end{Df}
\begin{Th}[Caractérisation des supplémentaires orthogonaux]\alaligne
Si $F$ et $G$ sont deux sous-espaces vectoriels
\emph{supplémentaires} dans $E$, les propositions suivantes sont
équivalentes :
\begin{prop}
\item $F$ et $G$ sont orthogonaux;
\item $F^\perp=G$;
\item $G^\perp=F$.
\end{prop}
\end{Th}
\begin{proof}
($ii$) et ($iii$) donnent ($i$).
Tout vecteur $\vc x$ de $F^\perp$ se décompose suivant $F\oplus
G$ en $\vc x=\vc y+\vc z$; or $\Scal xy=0$ ($\vc x\in F^\perp$ et
$\vc y\in F$) et $\Scal zy=0$ ($\vc z\in G\subset F^\perp$ et $\vc
y\in F$), ce qui impose $\Scal yy=0$ donc $\vc y=\vc 0$, et $\vc
x=\vc z\in G$. Chère lectrice, cher lecteur, vous venez de
démontrer que ($i$) implique ($ii$).
Vous démontrerez de même que ($i$) implique ($iii$).
\end{proof}
Dans ce cas, on dira que $F$ et $G$ sont \emph{supplémentaires
orthogonaux} dans $E$, et les projecteurs associés sont
qualifiés de \emph{projecteurs orthogonaux}.
\begin{Exs}\alaligne
L'hyperplan $\mcal{H}$ d'équation $x_1+x_2+x_3+x_4=0$ et la
droite vectorielle dirigée par $(1,1,1,1)$ sont supplémentaires
orthogonaux dans $\R^4$ muni du produit scalaire canonique.
Plus généralement, l'hyperplan $\mcal{H}$ d'équation $\sum_{j=1}^n
a_j x_j=0$ et la droite $\mcal{D}=\R\,\nuple a$ sont supplémentaires orthogonaux
dans $\R^n$ muni de son produit scalaire naturel (canonique).
Dans l'espace hermitien $\C^n$ muni de son produit scalaire
naturel (canonique), l'hyperplan $\mcal{H}$ d'équation $\sum_{j=1}^n
a_j x_j=0$ et la droite
$\mcal{D}=\C\,(\conjug{a_1},\dots,\conjug{a_n})$ sont supplémentaires
orthogonaux.
\end{Exs}
\begin{Gen}
Si $E=F_1\oplus\cdots\oplus F_p$ et si les sous-espaces $F_k$
sont orthogonaux deux à deux, la somme des sous-espaces $F_k$ est
une \emph{somme directe orthogonale} de $E$.
\end{Gen}
\subsection{Projection orthogonale sur un sous-espace vectoriel
de dimension finie}
\begin{Th}[Théorème de la projection]\alaligne
Si $F$ est un sous-espace vectoriel de dimension finie $p$ d'un
espace préhilbertien réel ou complexe $E$, alors
\begin{prop}
\item pour tout vecteur $\vc x$ de $ E$, il existe un unique
vecteur de $F$ noté $p_F(\vc x)$ tel que $\vc x-p_F(\vc x)$ soit
orthogonal à $F$;
\item si $\puple{\vc u}$ est une base \emph{orthonormale} de
$F$, on a
\begin{equation}
p_F(\vc x)=\sum_{k=1}^p\scal{\vc u_k}{\vc x}\vc u_k
\end{equation}
\item $E$ est somme directe orthogonale de $F$ et $F^\perp$, et
$p_F$ est le projecteur orthogonal d'image $F$, \ie{} le
projecteur sur $F$ parallèlement à $F^\perp$.
\end{prop}
\end{Th}
\begin{proof}
\begin{demprop}\alaligne
\monitem \addtocounter{numdemprop}{1} et (\textit{\roman{numdemprop}). }
Appelons $(\vc u_1,\dots,\vc u_p)$ une base orthonormale de $F$ et considérons
un vecteur $\vc y=\sum_{k=1}^p y_k\vc u_k$ de $F$. Alors
\begin{align*}
\vc x
& -\vc y \in F^\perp = (\K\vc u_1\oplus\cdots\oplus\K\vc u_p)^\perp
\iff\qqs j\in\Intf1p,\ (\vc x-\vc y)\perp\vc u_j \\
& \iff\qqs j,\ 0=\scal{\vc u_j}{\vc x-\vc y}
=\scal{\vc u_j}{\vc x-\sum_{k=1}^py_k\vc u_k}
=\scal{\vc u_j}{\vc x}-\sum_{k=1}^p y_k\delta_{k,j}
=\scal{\vc u_j}{\vc x}-y_j \\
& \iff \vc y=\sum_{k=1}^p\scal{\vc u_k}{\vc x}\vc u_k=p_F(\vc x)
\end{align*}
\monitem Tout vecteur $\vc x$ de $E$ se décompose, de manière
unique, en un élément $p_F(\vc x)$ de $F$ et un élément $\vc x-p_F(\vc x)$ de
$F^\perp$; ainsi $E=F\oplus F^\perp$.\\
$p_F$ est le projecteur sur $F$, parallèlement à $F^\perp$;
c'est donc le projecteur orthogonal de $E$ sur $F$.
\end{demprop}
\end{proof}
\begin{NB}
Avec les mêmes notations, $\vc x-p_F(\vc x)$ est le projeté
orthogonal de $\vc x$ sur $F^\perp$, et $p_{F^\perp}=I_E-p_F$.
\end{NB}
\begin{Cor}[Existence de supplémentaire orthogonal]\alaligne
Tout sous-espace vectoriel de dimension finie de $E$ admet un
supplémentaire orthogonal dans~$E$.
\end{Cor}
\begin{NB}
Si $F$ n'est pas de dimension finie, la somme directe $F\oplus
F^\perp$ peut être différente de $E$.
\end{NB}
\subsubsection{Projection orthogonale sur une droite, sur un hyperplan}
La projection orthogonale sur la droite (vectorielle) $\mcal{D}$ dirigée
par $\vc a$, est donnée par :
\begin{equation}
p_{\mcal{D}} : \vc x\in E\mapsto\ra{\Scal ax}{\norme{\vc a}^2}\vc a
\end{equation}
La projection orthogonale sur l'hyperplan $\mcal{H}$ orthogonal à $\vc
a$, est donnée par :
\begin{equation}
p_{\mcal{H}}=I_E-p_{\mcal{D}} : \vc x\in E\mapsto
\vc x-\ra{\Scal ax}{\norme{\vc a}^2}\vc a
\end{equation}
La réflexion (ou symétrie orthogonale) $r_{\mcal{H}}$ par rapport à l'hyperplan
$\mcal{H}$, est donnée par
\begin{equation}
r_{\mcal{H}}=2p_{\mcal{H}}-I_E=I_E-2p_{\mathcal{D}} : \vc x\in E\mapsto
\vc x-2\ra{\Scal ax}{\norme{\vc a}^2}\vc a
\end{equation}
\subsubsection{Interprétation géométrique de l'orthonormalisation
de Schmidt}
En notant $F_p$ le sous-espace engendré par la famille $(\vc f_1, \dots,
\vc f_p)$, ou engendré par la famille orthonormale
$(\vc u_1,\dots, \vc u_p)$, on peut écrire
\begin{equation}
\vc v_{p+1}=\vc f_{p+1}-\sum_{k=1}^p\scal{\vc u_k}{\vc
f_{p+1}}\vc u_k=\vc f_{p+1}-p_{F_p}(\vc f_{p+1})
=p_{F_p^\perp}(\vc f_{p+1})
\end{equation}
et $\vc v_{p+1}$ s'interprète comme la projection orthogonale de
$\vc f_{p+1}$ sur $F_p^\perp$.
\subsection{Distance d'un vecteur à un sous-espace de dimension finie}
\begin{Df}[Distance à un sous-espace]\alaligne
Si $F$ est un sous-espace vectoriel de $E$ et $\vc x$ un
vecteur de $E$, on pose :
\begin{equation}
\dist(\vc x,F)=\inf_{\vc y\in F}\dist(\vc x,\vc y)
=\inf_{\vc y\in F}\norme{\vc y-\vc x}
\end{equation}
Ce nombre existe puisqu'il est la borne inférieure d'une partie non vide
de $\intfo0{+\infty}$; il est appelé \emph{distance de $\vc x$ à $F$}.
\end{Df}
\begin{Th}[Expression de la distance à un sous-espace]\alaligne
Si $F$ est un sous-espace vectoriel de dimension \emph{finie}
de~$E$,
\begin{prop}
\item l'application $\vc y\mapsto\dist(\vc x,\vc y)=\norme{\vc
y-\vc x}$ admet un minimum global strict sur~$F$, atteint
en~$p_F(\vc x)$;
\item $\dist(\vc x,F)=\dist\bigl(\vc x,p_F(\vc x)\bigr)\et
\dist^2(\vc x,F)=\norme{\vc x}^2-\norme{p_V(\vc x)}^2
=\scal{\vc x-p_F(\vc x)}{\vc x}$.
\end{prop}
\end{Th}
\begin{proof}\alaligne
\begin{demprop}
\monitem Considérons un vecteur $\vc y$ de $F$ distinct de
$p_F(\vc x)$; $\vc x-p_F(\vc x)$ est orthogonal à $F$, donc en
particulier à $\vc y-p_F(\vc x)$ et le théorème de Pythagore donne
\begin{equation}
\dist^2(\vc x,\vc y)
=\dist^2(\vc x,p_F(\vc x))+\dist^2(p_F(\vc x),\vc y)
>\dist^2(\vc x,p_F(\vc x))
\end{equation}
\monitem La question précédente montre que
$\ens{\dist(\vc x,\vc y)}{\vc y\in F}$ possède un unique plus petit
élément à savoir $\dist(\vc x,p_F(\vc x))$; on peut écrire :
\begin{align*}
\dist^2(\vc x,F)
& = \norme{\vc x-p_F(\vc x)}^2=\norme{\vc x}^2-\norme{p_F(\vc x)}^2
\hfill \text{ relation de Pythagore} \\
& = \scal{\vc x-p_F(\vc x)}{\vc x-p_F(\vc x)}
=\scal{\vc x-p_F(\vc x)}{\vc x}
\hfill \text{ car $p_F(\vc x)\perp(\vc x-p_F(\vc x))$}
\end{align*}
\end{demprop}
\end{proof}
\begin{Th}[Projection et application lipschitzienne]\alaligne
$p_F$ est une application lipschitzienne de rapport $1$, \ie
\begin{equation}
\qqs(\vc x,\vc y)\in E^2,\quad
\norme{p_F(\vc y)-p_F(\vc x)}\leq\norme{\vc y-\vc x}
\end{equation}
\end{Th}
\begin{proof}
$\norme{p_F(\vc x)}^2=\norme{\vc x}^2-\dist^2(\vc x,F)
\leq\norme{\vc x}^2$ et la linéarité de $p_F$ donne le résultat.
\end{proof}
\begin{NB}
Les propriétés de ce paragraphe se généralisent à un sous-espace vectoriel
$F$ qui admet un supplémentaire orthogonal dans $E$.
\end{NB}
\subsection{Inégalité de Bessel}
\begin{Th}[Inégalité de Bessel]\alaligne
Si $(u_1, \dots, u_p)$ est une famille \emph{orthonormale} de
$E$ et $\vc x$~un vecteur de $E$, alors :
\begin{equation}
\sum_{k=1}^p\abs{\scal{\vc u_k}{\vc x}}^2\leq\norme{\vc x}^2
\end{equation}
Si $(\vc u_k)_{k\in\N}$ est une suite libre de $E$ et $\vc x$
un vecteur de $E$, alors :
\begin{equation}
\bigl(\scal{\vc u_k}{\vc x}\bigr)_k\in\ell^2_{\N}(\C)\quad\et\quad
\sum_{k=0}^{+\infty}\abs{\scal{\vc u_k}{\vc x}}^2\leq\norme{\vc x}^2
\end{equation}
\end{Th}
\begin{proof}
Notons $F_p$ le sous-espace vectoriel engendré par $\puple{\vc u}$;
la~projection de $\vc x$ sur $F_p$ donne
$$
\norme{p_{F_p}(\vc x)}^2
=\norme[\Big]{\sum_{k=1}^p\scal{\vc u_k}{\vc x}\,\vc u_k}^2
=\sum_{k=1}^p\abs{\scal{\vc u_k}{\vc x}}^2\leq\norme{\vc x}^2
$$
L'inégalité précédente montre que les sommes partielles de la
série de terme général
$\sum\abs{\scal{\vc u_k}{\vc x}}^2$ sont majorées par
$\norme{\vc x}^2$; la série est donc convergente (elle est à
termes positifs) et sa somme est majorée par $\norme{\vc x}^2$.
\end{proof}
\subsection{Séries de Fourier, le retour}
La famille $(e_k : t\mapsto \ee^{\ii kt})_{k\in\Z}$ est une famille
orthonormale pour le produit scalaire hermitien de l'espace $\mcal{C}_{2\pi}$
des fonctions continues $2\pi$-périodiques
$\scal fg=\ra1{2\pi}\int_{-\pi}^{\pi}\conjug{f(t)}g(t)\,\dt$
Les coefficients exponentiels de Fourier $c_k(f)$ sont donnés
par $c_k(f)=\scal{e_k}f$.
L'espace $\mcal{T}_n$ des polynômes trigonométriques de degré au
plus $n$ admet la famille des $e_k$ pour $k\in\Intf{-n}n$ pour
base orthonormale.
La somme partielle de Fourier $S_n(f)=\sum_{k=-n}^n c_k(f)e_k
=\sum_{k=-n}^n\scal{e_k}f e_k$ s'interprète comme la projection
orthogonale de $f$ sur $\mcal{T}_n$; $S_n(f)$ est donc le
polynôme trigonométrique de degré au plus $n$ de meilleure
approximation, et
\begin{prop}
\item $\dps
\norme[\big]{S_n(f)}^2=\norme[\Big]{\sum_{k=-n}^nc_k(f) e_k}^2
=\sum_{k=-n}^n\abs{c_k(f)}^2
\hfill \text{relation de Pythagore;}$
\item $\dps
\norme[\big]{f-S_n(f)}^2=\norme[\big]{f}^2-\norme[\big]{S_n(f)}^2
\hfill \text{relation de Pythagore;}$
\item $\dps
\norme[\big]{S_n(f)}^2=\sum_{k=-n}^n\abs{c_k}^2
\leq\norme[\big]{f}^2=\ra1{2\pi}\int_{-\pi}^{\pi}\abs{f}^2
\hfill \text{inégalité de Bessel.}$
\end{prop}
Puisque $(S_n(f))_n$ tend vers $f$ pour la norme de la convergence
en moyenne quadratique, la suite $(\norme[\big]{f-S_n(f)}^2)_n$, tend vers 0,
soit
$$
\norme[\big]{f-S_n(f)}^2=\norme[\big]{f}^2-\norme[\big]{S_n(f)}^2\tend0
$$
ce qui donne l'égalité de Bessel-Parseval :
$$
\lim_n\,\norme[\big]{S_n(f)}^2=\norme[\big]{f}^2
\text{, soit : }
\abs{c_0}^2+\sum_{k=1}^{\infty}(\abs{c_k}^2+\abs{c_{-k}}^2)
=\ra1{2\pi}\int_{-\pi}^{\pi}\abs{f}^2
$$