Retour

Source de eucldien.tex

Fichier TeX
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\chapter{Espace euclidien}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

\minitoc
\newpage

 On note $E$ un $\R$-espace vectoriel de \emph{dimension finie} $n$, muni d'un
produit scalaire (réel) qui est noté $\scal{\ }{\ }$. Rappelons qu'un $\C$-espace
vectoriel de dimension finie et muni d'un produit scalaire (complexe), est appelé
espace hermitien.

%----------------------------------------------------------------------
\section{Résumé des épisodes précédents}
%----------------------------------------------------------------------

%----------------------------------------------------------------------
\subsection{Produit scalaire}
%----------------------------------------------------------------------
%----------------------------------------------------------------------
\subsubsection{Son expression dans une base quelconque}
%----------------------------------------------------------------------

 Soit $\mcal{B}=(\vc e_1,\dots,\vc e_n)$ une base \emph{quelconque} de $E$. On
note $\nuple{x}$ (resp. $\nuple{y}$) les composantes de $\vc x$ (resp.
$\vc y$) relativement à la base $\mcal{B}$. Ainsi,
\begin{equation}
 \vc x=\sum_{j=1}^n x_j\,\vc e_j \et \vc y=\sum_{j=1}^n y_j\,\vc e_j
\end{equation}
ce qui donne
\begin{equation}
\Scal xy=\scal{\sum_{i=1}^n x_i\vc e_i}{\sum_{j=1}^n x_j\vc e_j}
=\sum_{i=1}^n\sum_{j=1}^n x_i y_j\scal{\vc e_i}{\vc e_j}
=\sum_{i,j} g_{i,j}\,x_i y_j
\end{equation}
avec $g_{i,j}=\scal{\vc e_i}{\vc e_j}$. Dans le cas complexe, on a
$$
\Scal xy=\sum_{i=1}^n\sum_{j=1}^n \conjug{x_i} y_j\scal{\vc e_i}{\vc e_j}
=\sum_{i,j} g_{i,j}\,\conjug{x_i} y_j
$$

%----------------------------------------------------------------------
\subsubsection{Expression matricielle du produit scalaire}
%----------------------------------------------------------------------

 Appelons $G$ la matrice de terme général $g_{i,j}=\scal{\vc e_i}{\vc e_j}$;
$G$ est une matrice carrée d'ordre $n$, à coefficients réels et symétrique.
L'expression du produit scalaire s'écrit à l'aide de $G$ :
\begin{equation}
\scal{\vc x}{\vc y}=\sum_{i,j} g_{i,j}\,x_i y_j
 =\trans X G Y 
\end{equation}
où $X=\mat(\vc x)$ (resp. $Y=\mat(\vc y)$) est la matrice-colonne des composantes
de $\vc x$ (resp. $\vc y$) relativement à $\mcal{B}$.

%----------------------------------------------------------------------
\subsubsection{Effet d'un changement de base}
%----------------------------------------------------------------------

 Soient $\mcal{B}'=(\vc e'_1,\dots,\vc e'_n)$ une autre base de $E$ et $P$ la
matrice de passage de la base $\mcal{B}$ à la base $\mcal{B}'$, \ie{} la matrice
$P=\mat(\mcal{B}')$ dont la $j$\fup{e} colonne est la colonne des composantes
du vecteur $\vc e'_j$ relativement à $\mcal{B}$. Ainsi,
$$
\mat(\vc x)=\mat(\mcal{B}')\mat[B'](\vc x)
\text{, soit } X=P\,X'
$$
et le produit scalaire devient :
\begin{equation}
\Scal xy=\trans XPY=\trans(PX')G(PY)
=\trans X'(\trans PGP)Y'=\trans X'G'Y'
\end{equation}
La matrice $G'$ du produit scalaire relativement à la base $\mcal{B}'$ s'écrit :
$$
G'=\trans{P}GP
$$

%----------------------------------------------------------------------
\subsubsection{Cas d'une base orthonormale}
%----------------------------------------------------------------------

 Si $\mcal{U}=\nuple{u}$ est une base \emph{orthonormale} de $E$, alors
$\scal{\vc u_i}{\vc u_j}=\delta_{i,j}$ et la matrice du produit scalaire
relativement à la base \emph{orthonormale} $\mcal{U}$ est la matrice unité $I_n$.

 Si $\mcal{V}=\nuple{v}$ est une base \emph{orthogonale} de $E$, alors
$\scal{\vc v_i}{\vc v_j}=\delta_{i,j}\norme{\vc v_i}^2$; la matrice du produit scalaire
relativement à la base \emph{orthogonale} $\mcal{V}$ est la matrice diagonale
$\mathrm{Diag}(\norme{\vc v_1}^2,\dots,\norme{\vc v_n}^2)$.



%----------------------------------------------------------------------
\subsection{Base orthonormale}
%----------------------------------------------------------------------
%----------------------------------------------------------------------
\subsubsection{Leur existence}
%----------------------------------------------------------------------

 Tout espace euclidien (resp. hermitien) possède, au moins, une base
orthonormale : l'orthonormalisation d'une base (quelconque) de $E$ donne le
résultat.

%----------------------------------------------------------------------
\subsubsection{Diverses expressions dans une base orthonormale}
%----------------------------------------------------------------------

 Considérons une base orthonormale $\mcal{U}=\nuple{\beps}$ de $E$.
La composante $x_j$ de $\vc x$ suivant $\beps_j$ est
$x_j=\scal{\beps_j}{\vc x}=\scal{\vc x}{\beps_j}$ et
\begin{gather*}
\vc x=\sum_{j=1}^n x_j\beps_j=\sum_{j=1}^n \scal{\beps_j}{\vc x}\beps_j     \\
\Scal xy=\sum_{j,k=1}^n x_j y_k\scal{\beps_j}{\beps_k}
 =\sum_{j,k=1}^n x_j y_k\delta_{j,k}=\sum_{k=1}^n x_k y_k           \\
\norme{\vc x}^2=\Scal xx=\sum_{k=1}^n x_k^2                   \\
\dist^2(\vc x,\vc y)=\norme{\vc y-\vc x}^2=\sum_{k=1}^n(y_k-x_k)^2
\end{gather*}

 Dans le cas complexe, le lecteur mettra les barres de module et de conjugaison
là où il faut !

%----------------------------------------------------------------------
\subsubsection{Isomorphisme de $E$ sur $\Mnp[n,1]{\R}$}
%----------------------------------------------------------------------

 La donnée d'une base orthonormale $\mcal{U}=\nuple{\beps}$ de $E$ permet de
construire un isomorphisme de sur $\Mnp[n,1]{\R}$ muni de son produit scalaire
naturel (canonique) :
$$
\vc x\mapsto\mat[U](\vc x)=\trans\nuple{x}=X
$$

%----------------------------------------------------------------------
\subsubsection{Matrice d'un endomorphisme relativement à une base orthonormale}
%----------------------------------------------------------------------

 Soient $u$ un endomorphisme de $E$ et $A=[a_{i,j}]=\mat[U](u)$ sa matrice
relativement à une base orthonormale $\mcal{U}$ de $E$; le terme $a_{i,j}$, $i$\fup{e}
composante du vecteur $u(\beps_j)$ relativement à la base $\mcal{U}$, se calcule
par :
$$
a_{i,j}=\scal{\beps_i}{u(\beps_j)}
$$

%----------------------------------------------------------------------
\subsubsection{Caractérisation de la matrice d'un produit scalaire (réel)}
%----------------------------------------------------------------------

\begin{Th}
 Soient $E$ un espace euclidien de dimension $n$, $\mcal{B}=\nuple{\vc e}$ une
base (quelconque) de $E$ et $G$ une matrice symétrique réelle d'ordre $n$; alors
$\Scal xy=\trans XGY$ définit un produit scalaire sur $E$ si, et seulement si,
il existe une matrice inversible $P\in\GLn{\R}$ telle que $G=\trans PP$
\end{Th}

\begin{proof}\alaligne

 \CN
 $G$ est la matrice du produit scalaire $\scal{\ }{\ }$ relativement à
$\mcal{B}$. Si $\mcal{U}$ est une base orthonormale de $E$, et si
$P=\mat(\mcal{U})$ est la matrice de passage de $\mcal{B}$ à $\mcal{U}$,
$G'=\trans PGP$ est la matrice du produit scalaire relativement à $\mcal{U}$,
donc $G'=I_n$ et $G=\trans P^{-1}P^{-1}$.

 \CS
 $(\vc x,\vc y)\mapsto \trans X\,\trans PP\,Y=\trans(PX)\,PY$ est une forme
bilinéaire symétrique définie positive sur $E$, démonstration à rédiger.
\end{proof}
%----------------------------------------------------------------------


%----------------------------------------------------------------------
\subsection{Supplémentaires orthogonaux}
%----------------------------------------------------------------------
%----------------------------------------------------------------------
\subsubsection{Leur existence}
%----------------------------------------------------------------------

 Tout sous-espace vectoriel $F$ de $E$ admet un supplémentaire orthogonal
$F^\perp$, puisque $F$ est de dimension finie. D'autre part
$\bigl(F^\perp\bigr)^\perp=F$.

%----------------------------------------------------------------------
\subsubsection{Leur dimension}
%----------------------------------------------------------------------
$\dim F^\perp=\dim E-\dim F$

%----------------------------------------------------------------------
\subsubsection{Leurs équations}
%----------------------------------------------------------------------

Si $\puple{\vc f}$ est une base de $F$, ou plus généralement une famille
génératrice de $F$, alors
\begin{equation}
\vc x\in F^\perp=\mcal{V}\mathrm{ect}\{\vc f_1,\dots,\vc f_p\}^\perp
\iff
\qqs j\in\Intf1p,\ \Scal{f_j}x=0
\end{equation}

%----------------------------------------------------------------------
\subsubsection{Base orthonormale adaptée à un sous-espace vectoriel}
%----------------------------------------------------------------------

 Puisque $E=F\Somdir F^\perp$, on peut construire une base orthonormale de $E$,
en réunissant une base orthonormale de $F$ et une base orthonormale de
$F^\perp$; une telle base est appelée \emph{base orthonormale adaptée} à $F$.

\begin{Th}[de la base orthonormale incomplète]\alaligne

 Toute famille orthonormale $\puple{\vc u}$ de $E$ peut être complétée en une
base orthonormale $(\vc u_1,\dots,\vc u_p$, $\vc u_{p+1},\dots,\vc u_n)$ de $E$.
\end{Th}

\begin{proof}
 Il suffit d'appliquer la remarque précédente au sous-espace vectoriel $F$
engendré par $\puple{\vc u}$.
\end{proof}
%----------------------------------------------------------------------

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Adjoint d'un endomorphisme}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%----------------------------------------------------------------------
\subsection{Isomorphisme naturel (canonique) de $E$ sur son dual}
%----------------------------------------------------------------------

\begin{Th}[Isomorphisme naturel de $E$ sur son dual]\alaligne

 L'application $\Phi : \vc x\in E\mapsto\scal{\vc x}{\cdot}$ réalise un
isomorphisme de $E$ sur son dual $E^*$; on le qualifie de \emph{naturel} ou de
\emph{canonique}.
\end{Th}

\begin{proof}\alaligne

 Pour tout $\vc x\in E$, $\Phi(\vc x)=\scal{\vc x}{\cdot} : \vc y\mapsto\Scal xy$ 
est une application linéaire de $E$ vers $\R$, \ie{} une forme linéaire sur $E$,
\ie{} un élément de $E^*$.

 $\Phi$ est une application linéaire car, pour tout $\vc x_1$ et $\vc x_2$ dans
$E$, pour tout $\la_1$ et $\la_2$ dans $\R$, on a l'égalité des applications
$\scal{\la_1\vc x_1+\la_2\vc x_2}{\cdot}$ et $\la_1\scal{\vc x_1}{\cdot}+
\la_2\scal{\vc x_2}{\cdot}$. En effet, pour tout $\vc y$ dans $E$,
$$
\scal{\la_1\vc x_1+\la\vc x_2}{\vc y}
= \la_1\scal{\vc x_1}{\vc y}+\la_2\scal{\vc x_2}{\vc y}
= \bigl[\Phi(\la_1\vc x_1+\la_2\vc x_2)\bigr](\vc y)
$$


 $\vc z\in\ker\bigl(\vc x\mapsto\scal{\vc x}{\cdot}\bigr)$ si, et seulement si,
$\scal{\vc z}{\cdot}$ est la forme linéaire nulle, \ie{} $\qqs \vc y\in E$,
$\Scal zy=0$, soit $\vc z=\vc 0$. L'application linéaire $\Phi$ est donc
injective.

 $E$ et $E^*$ sont deux espaces vectoriels de même dimension finie;
l'application linéaire injective $\Phi$ est donc un isomorphisme de $E$ sur $E^*$.
\end{proof}
%----------------------------------------------------------------------

\begin{Th}[de représentation de Riesz]\alaligne

 À toute forme linéaire $\vphi$ sur $E$ correspond un unique vecteur $\vc a$ de
$E$ tel que
$$
\qqs\vc y\in E,\ \vphi(\vc y)=\Scal ay
$$
\end{Th}

\begin{proof}
 Utilisons l'isomorphisme naturel $\Phi$ et posons $\vc a=\Phi^{-1}(\vphi)$.
Ainsi $\vphi=\Phi(\vc a)=\scal{\vc a}{\cdot}$.
\end{proof}
%----------------------------------------------------------------------

\begin{Ex}\alaligne

 À toute forme linéaire $\vphi$ sur $\Mnp{\R}$ correspond une une unique matrice
$A\in\Mnp{\R}$ qui \og représent\fg{} $\vphi$ pour le produit scalaire naturel
(canonique) de $\Mnp{\R}$, soit
$$
\qqs M\in\Mnp{\R},\ \vphi(M)=\tr(\trans AM)
$$
\end{Ex}

%----------------------------------------------------------------------
\subsubsection*{Produit vectoriel en dimension 3}
%----------------------------------------------------------------------

 Soit $E$ un espace vectoriel euclidien de dimension 3, orienté par la donnée
d'une base orthonormale $\mcal{B}=(\vc i,\vc j,\vc k)$. Le produit mixte
$$
[\vc x,\vc y,\vc z]=\det(\vc x,\vc y,\vc z)
$$
est indépendant de la base orthonormale directe $\mcal{B}$ choisie. Pour $\vc x$
et $\vc y$ fixés dans $E$, l'application $\vc z\mapsto[\vc x,\vc y,\vc z]$ est
une forme linéaire que l'on peut représenter à l'aide d'un vecteur $\vc w$que
l'on note $\vc x\wedge\vc y$, et l'on a :
$$
\qqs\vc z\in E,\ \scal{\vc x\wedge\vc y}{\vc z}=[\vc x,\vc y,\vc z]=
\det(\vc x,\vc y,\vc z)
$$
À l'aide de cette définition, on retrouve les propriétés habituelles du produit
vectoriel. Pouvez-vous les démontrer?

%----------------------------------------------------------------------
\subsection{Endomorphisme associé à une forme bilinéaire}
%----------------------------------------------------------------------

\begin{Th}
 À toute forme bilinéaire $\Psi$ sur $E$ est associée un unique endomorphisme
$u$ de $E$ tel que
$$
\qqs(\vc x,\vc y)\in E,\ \Psi(\vc x,\vc y)=\scal{u(\vc x)}{\vc y}
$$
$u$ est appelé \emph{endomorphisme naturel} (canonique) \emph{associé à la forme
bilinéaire} $\Psi$.
\end{Th}

\begin{proof}\alaligne

 $\vc y\mapsto\Psi(\vc x,\vc y)$ est une forme linéaire sur $E$. Le théorème de
représentation de Riesz montre l'existence d'un unique vecteur de $E$, que l'on
note $u(\vc x)$, tel que
\begin{equation}
\qqs\vc y\in E,\ \Psi(\vc x,\vc y)=\scal{u(\vc x)}{\vc y}
\end{equation}

 L'application $u$ est linéaire, car pour tout vecteur $\vc x_1$, $\vc x_2$ et
$\vc y$, pour tout réel $\la_1$ et $\la_2$, on a
\begin{align*}
\scal{u(\la_1\vc x_1+\la_2\vc x_2)}{\vc y}
&= \Psi(\la_1\vc x_1+\la_2\vc x_2,\vc y)=\la_1\Psi(\vc x_1,\vc y) +
   \la_2\Psi(\vc x_2,\vc y)                    \\
&= \la_1\scal{u(\vc x_1)}{\vc y} + \la_2\scal{u(\vc x_2)}{\vc y}   \\
&= \scal{\la_1u(\vc x_1)+\la_2u(\vc x_2)}{\vc y}
\end{align*}
L'unicité de la représentation de Riesz montre l'égalité entre $u(\la_1\vc
x_1+\la_2\vc x_2)$ et $\la_1 u(\vc x_1)+\la_2 u(\vc x_2)$.

\end{proof}
%----------------------------------------------------------------------


%----------------------------------------------------------------------
\subsection{Adjoint d'un endomorphisme}
%----------------------------------------------------------------------

\begin{Th}[Existence et unicité de l'adjoint]\alaligne

 À tout endomorphisme $u$ de $E$ est associé un unique endomomorphisme de $E$
noté $u^*$ tel que
\Reponse{$\dps
\qqs(\vc x,\vc y)\in E^2,\ \scal{u^*(\vc x)}{\vc y}=\scal{\vc x}{u(\vc y)}
$}
L'endomorphisme $u^*$ est appelé \emph{l'adjoint de} $u$.
\end{Th}

\begin{proof} $u^*$ est l'endomorphisme naturel (canonique) associé à la forme
bilinéaire symétrique
\begin{equation}
\Psi : \vc x\in E\mapsto\scal{\vc x}{u(\vc y)}
\end{equation}
Cher lecteur, la vérification de la bilinéarité de $\Psi$ est laissée à votre
initiative.
\end{proof}
%----------------------------------------------------------------------

\begin{Th}[Matrice de l'adjoint dans une base orthonormale]\alaligne

 Si $\mcal{B}$ est une base \textbf{orthonormale} de $E$, alors
$$
\mat(u^*)=\trans\mat(u)
$$
\end{Th}

\begin{proof}
 Appelons $\nuple{\vc e}$ les vecteurs de la base orthonormale
$\mcal{B}$ de $E$; alors
$$
\bigl(\mat(u^*)\bigr)_{i,j}=\scal{\vc e_i}{u^*(\vc e_j)}
=\scal{e_j}{u(\vc e_i)}=\bigl(\mat(u)\bigr)_{j,i}
$$
ce qui donne l'égalité annoncée.
\end{proof}
%----------------------------------------------------------------------

\begin{Prop}[Règles de calcul]\alaligne

 Si $u$ et $v$ sont des endomorphismes de $E$ et $\la$ un réel, alors
\begin{prop}
 \item $(u+v)^*=u^*+v^*$; $(\la u)^*=\la\,u^*$; $(u^*)^*=u$; ainsi $u\mapsto
u^*$ est un automorphisme involutif de $\LE$;
 \item $(u\circ v)^*=v^*\circ u^*$; $(I_E)^*=I_E$;
 \item $u\in\GLE\iff u^*\in\GLE$ et, dans ce cas, $(u^*)^{-1}=(u^{-1})^*$;
 \item $\tr(u^*)=\tr u$ et $\det(u^*)=\det u$.
\end{prop}
\end{Prop}

\begin{proof}
 Si $\vc x$ et $\vc y$ sont des vecteurs de $E$, alors
\begin{demprop}
 \monitem
$\scal{(u+v)^*(\vc x)}{\vc y}=\scal{\vc x}{(u+v)(\vc y)}
=\scal{\vc x}{u(\vc y)}+\scal{\vc x}{v(\vc y)}
=\scal{u^*(\vc x)}{\vc y}+\scal{v^*(\vc x)}{\vc y}
=\scal{u^*(\vc x)+v^*(\vc x)}{\vc y} = \scal{(u^*+v^*)(\vc x)}{\vc y}$;
l'unicité de la représentation de Riesz montre l'égalité entre $(u+v)^*(\vc x)$
et $(u^*+v^*)(\vc x)$, ceci pour tout $\vc x$, donc l'égalité des applications
$(u+v)^*$ et $u^*+v^*$.                        \\
%
$\scal{(\la u)^*(\vc x)}{\vc y}=\scal{\vc x}{\bigl(\la u\bigr)(\vc y)}
=\la\scal{\vc x}{u(\vc y)}=\la\scal{u^*(\vc x)}{\vc y}
=\scal{\la u^*(\vc x)}{\vc y}$;
l'unicité de la représentation de Riesz montre l'égalité entre $(\la u)^*(\vc x)$
et $\la u^*(\vc x)$, ceci pour tout $\vc x$, donc l'égalité des applications
$(\la u)^*$ et $\la u^*$.                        \\
%
$\scal{(u^*)^*(\vc x)}{\vc y}=\scal{\vc x}{u^*(\vc y)}
=\scal{u(\vc x)}{\vc y}$; et, d'après l'unicité de la repré\dots, l'égalité des
applications $(u^*)^*$ et $u$ est démontrée.

 Ainsi, $u\mapsto u^*$ est une application linéaire qui est son propre inverse;
$u\mapsto u^*$ est une involution.

 \monitem
$\scal{\bigl(u\circ v\bigr)^*(\vc x)}{\vc y}=\scal{\vc x}{u\bigl(v(\vc y)\bigr)}
=\scal{u^*(\vc x)}{v(\vc y)}=\scal{v^*\circ u^*(\vc x)}{\vc y}$; d'où l'égalité
des applications $(u\circ v)^*$ et $v^*\circ u^*$.          \\
%
$\scal{\bigl(I_E^*\bigr)(\vc x)}{\vc y}=\scal{\vc x}{I_E(\vc y)}
=\scal{\vc x}{\vc y}=\scal{I_E(\vc x)}{\vc y}$ et $(I_E)^*=I_E$.

 \monitem
$u\circ v=v\circ u=I_E\implique v^*\circ u^*=u^*\circ v^*=(I_E)^*=I_E$; ceci
montre l'implication $u\in\GLE\implique u^*\in\GLE$ et l'égalité de
$v^*=(u^{-1})^*$ avec $(u^*)^{-1}$. L'égalité $(u^*)^*=u$ montre la réciproque.

 \monitem Si $\mcal{B}$ est une base \emph{orthonormale} de $E$, la matrice de
$u^*$ relativement à $\mcal{B}$ est la transposée de la matrice de $u$
relativement à la même base; ces matrices ont la même trace et le même
déterminant; $u$ et $u^*$ ont donc même trace et même déterminant.
\end{demprop} 
\end{proof}
%----------------------------------------------------------------------


%----------------------------------------------------------------------
\subsection{Adjoint et stabilité}
%----------------------------------------------------------------------

\begin{Th}
 Si $u$ est un endomorphisme de $E$, alors,
\begin{prop}
 \item $\ker u^*=\bigl(\im u\bigr)^\perp$, $\im u^*=\bigl(\ker u\bigr)^\perp$
et $\rg u^*=\rg u$;
 \item soit $F$ un sous-espace vectoriel de $E$; $F$ est stable par $u$ si, et
seulement si, $F^\perp$ est stable par $u^*$.
\end{prop}
\end{Th}

\begin{proof}\alaligne

\begin{demprop}
 \monitem $\vc x\in\ker u^*\iff u^*(\vc x)=\vc 0
\iff\qqs\vc y\in E,\ 0=\scal{u^*(\vc x)}{\vc y}=\scal{\vc x}{u(\vc y)}
\iff\vc x\in\bigl(\im u\bigr)^\perp$

 On applique l'égalité précédente à $u^*$ et on trouve :
$\bigl(\im u^*\bigr)^\perp=\ker(u^*)^*=\ker u$; en prenant les orthogonaux, on
obtient l'égalité annocée.      \\
%
$\rg u^*=\dim\bigl(\im u^*\bigr)=\dim\bigl(\ker u^\perp\bigr)
=\dim E-\dim(\ker u)=\rg u$;

 \monitem si $F$ est stable par $u$, alors, pour tout $\vc y\in F$,
$u(\vc y)\in F$. Si $\vc x\in F^\perp$, alors, pour tout $\vc y\in F$,
$0=\scal{\vc x}{u(\vc y)}=\scal{u^*(\vc x)}{\vc y}$, ce qui montre que
$u^*(\vc x)\in F^\perp$; ainsi, $F^\perp$ est stable par $u^*$.

 Si $F^\perp$ est stable par $u^*$, $(F^\perp)^\perp=F$ est stable par
$(u^*)^*=u$.
\end{demprop}

\end{proof}
%----------------------------------------------------------------------


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Endomorphisme auto-adjoint}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%----------------------------------------------------------------------
\subsection{Généralités}
%----------------------------------------------------------------------

\begin{Dfs}[Endomorphisme auto-adjoint ou symétrique, anti-symétrique]\alaligne

 Si $u$ est un endomorphisme d'un espace euclidien $E$, $u$ est dit
\emph{auto-adjoint} ou \emph{symétrique} si
$$
\qqs(\vc x,\vc y)\in E^2,\ \scal{u(\vc x)}{\vc y}=\scal{\vc x}{u(\vc y)}
$$
$u$ est dit \emph{anti-symétrique} si
$$
\qqs(\vc x,\vc y)\in E^2,\ \scal{u(\vc x)}{\vc y}=-\scal{\vc x}{u(\vc y)}
$$
On note $\SE$ l'ensemble des endomorphismes auto-adjoints ou symétriques et
$\ASE$ l'ensemble des endomorphismes antisymétriques.
\end{Dfs}

\begin{Th}[Caractérisation des endomorphismes auto-adjoints]\alaligne

 Si $u$ est un endomorphisme d'un espace euclidien $E$, les assertions
suivantes sont équivalentes :
\begin{prop}
 \item $u$ est auto-adjoint;
 \item $u=u^*$;
 \item pour toute base \emph{orthonormale} $\mcal{B}$ de $E$, la matrice de $u$
relative à $\mcal{B}$ est symétrique;
 \item il existe une base \emph{orthonormale} $\mcal{B}$ de $E$  telle que la
matrice de $u$ relative à $\mcal{B}$ soit symétrique;
\end{prop}
\end{Th}

\begin{proof}
 $u\text{ est auto-adjoint }\iff\qqs(\vc x,\vc y)\in E^2,\
\scal{u(\vc x)}{\vc y}=\scal{\vc x}{u(\vc y)}=\scal{u^*(\vc x)}{\vc y}
\iff u=u^*$, ce qui montre l'équivalence des deux premières assertions.

 \Implique23
 Les matrices de $u$ et $u^*$, relatives à $\mcal{B}$, sont égales puisque
$u=u^*$; d'autre part, $\mat(u^*)=\trans\mat(u)$ puisque $\mcal{B}$ est une base
orthonormale.  

 \Implique34
 Qui peut le plus, peut le moins.

 \Implique42
 Les égalités $\mat(u)=\trans\mat(u)=\mat(u^*)$ montrent que $u=u^*$.
\end{proof}
%----------------------------------------------------------------------

%----------------------------------------------------------------------
\subsubsection*{Endomorphisme symétrique et matrice symétrique réelle}
%----------------------------------------------------------------------

 Si $S$ est une matrice symétrique réelle d'ordre $n$, l'endomorphisme $u_S$
associé à $S$, est un endomorphisme auto-adjoint (symétrique) de $\Mnp[n,1]{\R}$
muni de son produit scalaire naturel (canonique). En effet :
\begin{equation}
\scal{u_S(X)}{Y}=\trans(SX)Y=\trans X\trans SY=\trans XSY
=\scal{X}{SY}=\scal{X}{u_S(Y)}
\end{equation}

 Soient $E$ un espace euclidien et $\mcal{B}$ une base orthonormale de $E$; à
toute matrice symétrique réelle d'ordre $n$, on associe l'endomorphisme $u_S$ de
$E$, de matrice $S$ relativement à $\mcal{B}$; $u_S$ est un endomorphisme
auto-adjoint (symétrique) de $E$ car
\begin{equation}
\scal{u_S(\vc x)}{\vc y}=\trans(SX)Y=\trans XSY
=\scal{\vc x}{u_S(\vc y)}
\end{equation}
Tout ceci donne la

\begin{Prop}
 Si $\mcal{B}$ est une base orthonormale d'un espace euclidien $E$,
l'application $u\mapsto\mat(u)$ réalise un isomorphisme du $\R$-espace vectoriel $\SE$
des endomorphismes auto-adjoints (symétriques), sur le
$\R$-espace vectoriel $\SnR$ des matrices symétriques réelles d'ordre $n$, et
$$
\dim\SE=\dim\SnR=\ra{n(n+1)}2
$$
\end{Prop}
%----------------------------------------------------------------------

\begin{Th}[Caractérisation des endomorphismes antisymétriques]\alaligne

 Si $u$ est un endomorphisme d'un espace euclidien $E$, les assertions
suivantes sont équivalentes :
\begin{prop}
 \item $u$ est antisymétrique;
 \item $u^*=-u$;
 \item pour toute base \emph{orthonormale} $\mcal{B}$ de $E$, la matrice de $u$
relative à $\mcal{B}$ est antisymétrique;
 \item il existe une base \emph{orthonormale} $\mcal{B}$ de $E$  telle que la
matrice de $u$ relative à $\mcal{B}$ soit antisymétrique;
\end{prop}
\end{Th}

\begin{proof}
 La démonstration ressemble comme une goutte d'eau à la démonstration
précédente; elle est laissée aux soins de la lectrice ou du lecteur.
\end{proof}
%----------------------------------------------------------------------

\begin{Prop}
 Si $\mcal{B}$ est une base orthonormale d'un espace euclidien $E$,
l'application $u\mapsto\mat(u)$ réalise un isomorphisme du $\R$-espace vectoriel $\ASE$
des endomorphismes antisymétriques, sur le
$\R$-espace vectoriel $\AnR$ des matrices antisymétriques réelles d'ordre $n$, et
$$
\dim\ASE=\dim\AnR=\ra{n(n-1)}2
$$
\end{Prop}
%----------------------------------------------------------------------

%----------------------------------------------------------------------
\subsection{Projecteur orthogonal}
%----------------------------------------------------------------------

\begin{Df}[Projecteur orthogonal]\alaligne

 Si $F$ est un sous-espace vectoriel d'un espace euclidien $E$, le projecteur
$p_F$ d'image $F$, parallèlement à $F^\perp$, est appelé \emph{projecteur
orthogonal} de $E$ sur $F$. 
\end{Df}

\begin{Prop}[Expression analytique d'un projecteur orthogonal]\alaligne

 Si $\Nuple{\vc u}{r}$ est une base \emph{orthonormale} de $F$, on a
$$
\qqs\vc x\in E,\ p_F(\vc x)=\sum_{j=1}^r\scal{\vc u_j}{\vc x}\,\vc u_j
$$
Cas d'une droite $\mcal{D}=\R\vc a$ :
$\dps p_{\mcal{D}} : \vc x\mapsto\ra{\Scal ax}{\norme{\vc a}^2}\vc a$
\\
Cas d'un hyperplan $\mcal{H}=\{\vc a\}^\perp$ :
$\dps p_{\mcal{H}}=I_E-p_{\mcal{D}} :
 \vc x\mapsto\vc x - \ra{\Scal ax}{\norme{\vc a}^2}\vc a$
\end{Prop}
%----------------------------------------------------------------------

\begin{Prop}[Expression matricielle d'un projecteur orthogonal]\alaligne

 Si $\mcal{B}$ est une base orthonormale de $E$, si $\Nuple{\vc u}{r}$ est une
base \emph{orthonormale} de $F$ et si $U_j=\mat(\vc u_j)$ est le vecteur-colonne
des composantes de $\vc u_j$ relativement à $\mcal{B}$, alors
$$
\mat(p_F)=\sum_{j=1}^r U_j\trans U_j 
$$
\end{Prop}

\begin{proof}
 Appelons $P_F=\mat(p_F)$ la matrice de $p_F$ relative à $\mcal{B}$.
L'égalité $p_F(\vc x)=\sum_{j=1}^r\scal{\vc u_j}{\vc x}\,\vc u_j$ s'écrit
matriciellement $P_FX=\sum_{j=1}^r\bigl(\trans U_j X\bigr)U_j$. Or, $\trans U_j
X$ est un nombre réel ou plutôt une matrice de taille $1\times1$ qui commute avec
toute matrice. Ainsi
$$
PX=\sum_{j=1}^r U_j\bigl(\trans U_j X\bigr)
=\sum_{j=1}^r \bigl(U_j\trans U_j \bigr) X
=\Bigl(\sum_{j=1}^r U_j\trans U_j \Bigr) X
$$
\end{proof}
%----------------------------------------------------------------------

\begin{Th}[Caractérisation des projecteurs orthogonaux parmi les
projecteurs]\alaligne 

 Si $p$ est un projecteur d'un espace euclidien $E$, $p$ est un
projecteur orthogonal si, et seulement si, $p$ est auto-adjoint (symétrique).
\end{Th}

\begin{proof}
 Tout projecteur $p$ est la projection de $E$ sur $\im p$, parallèlement à
$\ker p$.

 \CN
 Soit $p$ le projecteur orthogonal sur $\im p$ parallèlement à $(\im p)^\perp$;
dans une base orthonormale $\mcal{B}$ adaptée à la somme directe
orthogonale $E=\im p\somdir (\im p)^\perp$, la matrice de $p$ relative à
$\mcal{B}$ est la matrice diagonale par blocs $\mathrm{Diag}(I_r,0_{n-r})$$r$
est le rang de $p$. Cette matrice est symétrique réelle, donc $p$ est auto-adjoint.

 \CS Si $p$ est auto-adjoint, $\ker p=\ker p^*=(\im p)^\perp$ et $p$ est le
projecteur de $E$ sur $\im p$ et parallèlement à $(\im p)^\perp$; $p$ est un
projecteur orthogonal.
\end{proof}
%----------------------------------------------------------------------

\begin{Prop}[Interprétation matricielle]\alaligne

 Soient $p$ un endomorphisme d'un espace euclidien $E$, $\mcal{B}$ une base
\emph{orthonormale} de $E$ et $M=\mat(p)$ la matrice de $p$ relative à
$\mcal{B}$; alors, $p$ est un projecteur orthogonal si, et seulement si,
$M\in\SnR$ et $M^2=M$.
\end{Prop}
%----------------------------------------------------------------------


%----------------------------------------------------------------------
\subsection{Symétrie orthogonale}
%----------------------------------------------------------------------

\begin{Df}[Symétrie orthogonale]\alaligne

 Si $F$ est un sous-espace vectoriel d'un espace euclidien $E$, la symétrie
par rapport à $F$ et parallèlement à $F^\perp$ est appelée \emph{symétrie
orthogonale} par rapport à $F$.
\end{Df}
%----------------------------------------------------------------------

\begin{Prop}[Symétrie et projecteur orthogonaux]\alaligne

 Soient $F$ un sous-espace vectoriel d'un espace euclidien, $s_F$ la symétrie
orthogonale par rapport à $F$ et $p_F$ le projecteur orthogonal d'image $F$;
alors :
$$
s_F+I_E=2p_F
$$
Cas d'une droite $\mcal{D}=\R\vc a$ :
$\dps s_{\mcal{D}}=2p_{\mcal{D}}-I_E :
 \vc x\mapsto2\ra{\Scal ax}{\norme{\vc a}^2}\vc a-\vc x$
\\
Cas d'un hyperplan ${\mcal{H}}=\{\vc a\}^\perp$ :
$\dps s_{\mcal{H}}=2p_{\mcal{H}}-I_E=-s_{\mcal{D}} :
 \vc x\mapsto\vc x - 2\ra{\Scal ax}{\norme{\vc a}^2}\vc a$
\end{Prop}

\begin{proof}
 Faire un dessin et se rappeler des propriétés de la diagonale d'un
parallélogramme, qui est un losange dans notre cas.
\end{proof}
%----------------------------------------------------------------------

\begin{Th}[Caractérisation des syméties orthogonales parmi les
symétries]\alaligne 

 Si $s$ est une symétrie d'un espace euclidien $E$, $s$ est une
symétrie orthogonale si, et seulement si, $s$ est auto-adjoint (symétrique).
\end{Th}

\begin{proof}
 Toue symétrie, \ie{} tout endomorphisme $s$ de $E$ vérifiant $s\circ s=I_E$,
est la symétrie par rapport à $\ker(s-I_E)$ (espace des invariants)
parallèlement à $\ker(s+I_E)$ qui est identique à $\im(s-I_E)$ dans ce cas.

 \CN
 Soit $s$ la symétrie orthogonale par rapport à $F$;
dans une base orthonormale $\mcal{B}$ adaptée à la somme directe
orthogonale $E=F\somdir F^\perp$, la matrice de $s$ relative à
$\mcal{B}$ est la matrice diagonale par blocs $\mathrm{Diag}(I_r,-I_{n-r})$$r$
est la dimension de $F$. Cette matrice est symétrique réelle, donc $s$ est auto-adjoint.

 \CS Si $s$ est auto-adjoint, alors
$\ker(s+I_E)=\ker(s^*+I_E)=\ker(s+I_E)^*=\bigl(\im(s+I_E)\bigr)^\perp
=\bigl(\ker(s-I_E)\bigr)^\perp$; $s$ est la symétrie orthogonale par rapport à
$\ker(s-I_E)$.
\end{proof}
%----------------------------------------------------------------------



%----------------------------------------------------------------------
\subsection{Endomorphisme symétrique positif, défini positif}
%----------------------------------------------------------------------

\begin{Df}[Endomorphisme symétrique positif, défini positif]\alaligne

 Soit $u$ un endomorphisme auto-adjoint (symétrique) d'un espace euclidien $E$;
$u$ est dit \emph{positif}~si
$$
\qqs\vc x\in E,\ \scal{u(\vc x)}{\vc x}\geq 0
$$
$u$ est dit \emph{ défini positif} si
$$
\qqs\vc x\in E\setminus\{\vc 0\},\ \scal{u(\vc x)}{\vc x}>0
$$
\end{Df}

\begin{Prop}[Endomorphisme symétrique défini positif et automorphisme]\alaligne 

 Tout endomorphisme symétrique défini positif est un automorphisme de $E$.
\end{Prop}

\begin{proof}
 Le noyau d'un endomorphisme $u$ symétrique défini positif est réduit à $\{\vc 0\}$
car $\vc x\neq\vc 0\implique\scal{u(\vc x)}{\vc x}>0$, donc $u(\vc x)\neq\vc 0$.
En dimension finie, ceci montre que $u$ est application linéaire inversible, \ie{}
un automorphisme.
\end{proof}
%----------------------------------------------------------------------

\begin{Df}[Matrice symétrique positive, définie positive]\alaligne

 Soit $A\in\SnR$ une matrice symétrique réelle d'ordre $n$;
\\
$A$ est dite \emph{positive} si
$$
\qqs X\in\Mnp[n,1]{\R},\ \trans XAX\geq 0
$$
$A$ est dite \emph{définie positive} si
$$
\qqs X\in\Mnp[n,1]{\R}\setminus\{0\},\ \trans XAX>0
$$
\end{Df}

\begin{Prop}[Matrice symétrique positive et endomorphisme associé]\alaligne

 Si $A\in\SnR$ est une matrice symétrique et $u_A : X\mapsto AX$ l'endomrphisme
auto-adjoint (symétrique) de $\Mnp[n,1]{\R}$ muni de son produit scalaire
naturel, alors
\begin{prop}
 \item $A\text{ est positive }\iff u_A\text{ est positif;}$
 \item $A\text{ est définie positive }\iff u_A\text{ est défini positif.}$
\end{prop}
\end{Prop}

\begin{proof}
 Remarquons que $\scal{u_A(X)}{X}=\trans(XA)X=\trans XAX$, puisque $A$ est
symétrique.
\end{proof}
%----------------------------------------------------------------------

\begin{Prop}[Cas des matrices diagonales]\alaligne

 Si $D=\diag{\la}$ est une matrice diagonale à coefficients réels, alors
\begin{prop}
 \item $D\text{ est positive }\iff\qqs i\in\Intf1n,\ \la_i\geq0$
 \item $D\text{ est définie positive }\iff\qqs i\in\Intf1n,\ \la_i>0$
\end{prop}
\end{Prop}

\begin{proof}
 Soit $X=\trans\nuple{x}$; alors $\trans XDX=\sum_{i=1}^n \la_i x_i^2$ et
\begin{gather*}
\qqs X\in\Mnp[n,1]{\R},\ \trans XDX=\sum_{i=1}^n \la_i x_i^2\geq0
 \iff\qqs i\in\Intf1n,\ \la_i\geq0                   \\
\qqs X\in\Mnp[n,1]{\R}\setminus\{0\},\ \trans XDX=\sum_{i=1}^n \la_i x_i^2>0
 \iff\qqs i\in\Intf1n,\ \la_i>0                   \\
\end{gather*}
\end{proof}
%----------------------------------------------------------------------

\begin{Prop}[Cas des adjoints]\alaligne

 Si $u$ est un endomorphisme d'un espace euclidien $E$, alors
\begin{prop}
 \item $u^*\circ u$ et $u\circ u^*$ sont des endomorphismes symétriques
positifs, $\ker(u^*\circ u)=\ker u$ et $\ker(u\rond u^*)=\ker u^*$;
 \item $u\rond u^*$ (resp. $u^*\rond u$) est défini positif si, et seulement si,
$u$ est inversible.
\end{prop}
\end{Prop}

\begin{proof}\alaligne

\begin{demprop}
 \monitem
$\qqs\vc x\in E$, $\scal{u^*\rond u(\vc x)}{\vc x}=\scal{u(\vc x)}{u(\vc x)}
=\norme{u(\vc x)}^2\geq 0$ et
$\scal{u\rond u^*(\vc x)}{\vc x}=\scal{u^*(\vc x)}{u^*(\vc x)}
=\norme{u^*(\vc x)}^2\geq 0$; ainsi, $u^*\rond u$ et $u\rond u^*$ sont positifs.
\\
$\vc x\in\ker(u\rond u^*)\iff u^*\rond u(\vc x)=\vc 0\implique
0=\scal{u^*\rond u(\vc x)}{\vc x}=\norme{u(\vc x)}^2\iff u(\vc x)=\vc 0
\iff\vc x\in\ker u$, ce qui montre l'inclusion $\ker (u^*\rond u)\subset\ker u$;
puisque $\ker u\subset\ker(u^*\rond u)$, l'égalité annoncée est démontrée par
double inclusion.
\\
Changeons $u$ en $u^*$ dans l'égalité précédente :
$\ker u^*=\ker\bigl((u^*)^*\rond u^*\bigr)=\ker(u\rond u^*)$.

 \monitem Si $u^*\rond u$ est défini positif, $u^*\rond u$ est inversible et
$\{\vc 0\}=\ker(u^*\rond u)=\ker u$, ce qui montre que $u$ est inversible.
\\
 Réciproquement, si $u$ est inversible, $u^*$ est inversible, et, par composition, $u^*\rond u$
aussi.

 La démonstration est identique dans l'autre cas.
\end{demprop}
\end{proof}
%----------------------------------------------------------------------

\begin{Prop}[Traduction matricielle]\alaligne

 Si $A\in\Mn{\R}$ est une matrice carrée, à coefficients réels et d'ordre $n$,
alors 
\begin{prop}
 \item $\trans AA$ et $A\trans A$ sont des matrices symétriques positives,
$\ker(\trans AA)=\ker A$ et $\ker(A\trans A)=\ker\trans A$;
 \item $\trans AA$ (resp. $A\trans A$) est définie positive si, et seulement
si $\det A\neq0$.
\end{prop}
\end{Prop}

\begin{proof}
 Appliquons la proposition précédente à l'endomormorphisme $u_A$ de
$\Mnp[n,1]{\R}$ associé à $A$, en utilisant les relations
$(u_A)^*=u_{\trans A}$, $(u_A)^*\rond u_A=u_{\trans A}\rond u_A=u_{\trans AA}$,
\dots 
\end{proof}
%----------------------------------------------------------------------


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Automorphismes orthogonaux}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

 $E$ est soit un espace préhilbertien réel, soit un espace euclidien de
dimension $n$; son produit scalaire est noté $\scal{\ }{\ }$.

%----------------------------------------------------------------------
\subsection{Généralités}
%----------------------------------------------------------------------

\begin{Lem}[Conservation de la norme, conservation du produit scalaire]\alaligne 

 Si $E$ est un espace préhibertien réel et $u$ une application de $E$ vers $E$,
les propriétés suivantes sont équivalentes :
\begin{prop}
 \item l'application $u$ est linéaire et conseve la norme, \ie{} $\qqs\vc x\in
E$, $\norme{u(\vc x)}=\norme{\vc x}$;
 \item l'application $u$ conserve le produit scalaire, \ie{} $\qqs(\vc x,\vc
y)\in E$, $\scal{u(\vc x)}{u(\vc y)}=\Scal xy$.
\end{prop}
\end{Lem}

\begin{proof}\alaligne

 \Implique12
 De l'identité $4\Scal uv=\norme{\vc u+\vc v}^2-\norme{\vc u-\vc v}^2$, on tire
que :
\begin{align*}
4\scal{u(\vc x)}{u(\vc y)}
&= \norme{u(\vc x)+u(\vc y)}^2-\norme{u(\vc x)-u(\vc y)}^2      \\
&= \norme{u(\vc x+\vc y)}^2-\norme{u(\vc x-\vc y)}^2
   \qquad\text{$u$ est linéaire}                  \\
&= \norme{\vc x+\vc y}^2-\norme{\vc x-\vc y}^2
   \qquad\text{$u$ conserve la norme}               \\
&= 4\Scal xy
\end{align*}

 \Implique21
 Si $u$ conserve le produit scalaire, $u$ conserve la norme : faire $\vc y=\vc x$.
 
 Montrer la linéarité de $u$, c'est montrer que $\qqs(\vc x,\vc y,\la)\in E^2\times\R$,
le vecteur $u(\la\vc x+\vc y)-\la u(\vc x)-u(\vc y)$ est le vecteur nul, \ie{}
de norme nulle. De l'identité
$$
\norme{\vc u+\vc v+\vc w}^2=
\norme{\vc u}^2+\norme{\vc v}^2+\norme{\vc w}^2+2\Scal uv+2\Scal vw+2\Scal wu
$$
on tire :
\begin{align*}
\norme{u(\la\vc x+
&\vc y)-\la u(\vc x)-u(\vc y)}^2
 = \norme{u(\la\vc x+\vc y)}^2+\la^2\norme{u(\vc x)}+\norme{u(\vc y)}^2 \\
&\phantom{u(\la\vc x}
   -2\la\scal{u(\la\vc x+\vc y)}{u(\vc x)}+2\la\scal{u(\vc x)}{u(\vc y)}
   -2\scal{u(\vc y)}{u(\la\vc x+\vc y)}                \\
&= \norme{\la\vc x+\vc y}^2+\la^2\norme{\vc x}+\norme{\vc y}^2
   -2\la\scal{\la\vc x+\vc y}{\vc x}+2\la\scal{\vc x}{\vc y}
   -2\scal{\vc y}{\la\vc x+\vc y}                   \\
&= \norme{\la\vc x+\vc y}^2+\norme{\la\vc x}+\norme{\vc y}^2
   -2\scal{\la\vc x+\vc y}{\la\vc x}+2\scal{\la\vc x}{\vc y}
   -2\scal{\vc y}{\la\vc x+\vc y}                   \\
&= \norme{(\la\vc x+\vc y)-\la\vc x-\vc y}^2=0
\end{align*}
\end{proof}
%----------------------------------------------------------------------

\begin{Lem}[Conservation de la norme et injectivité]\alaligne

 Soit $u$ un endomorphisme d'un espace préhilbertien réel $E$; si $u$ conserve
la norme, alors $u$ est une injection.
\end{Lem}

\begin{proof}
 Il suffit de montrer que le noyau de $u$ est réduit à $\{\vc 0\}$ :
$u(\vc x)=\vc 0\iff\norme{u(\vc x)}=0\iff\norme{\vc x}=0\text{ ($u$ conserve la
norme)}\iff\vc x=\vc 0$.
\end{proof}
%----------------------------------------------------------------------

\begin{Cor}
 Soit $u$ un endomorphisme d'un espace euclidien $E$; si $u$ conserve
la norme, alors $u$ est une bijection.
\end{Cor}

\begin{proof}
 Tout endomorphisme injectif dans un espace vectoriel de dimension finie est
bijectif, donc un automorphisme.
\end{proof}
%----------------------------------------------------------------------

\begin{Dfs}[Automorphisme orthogonal]\alaligne

 Soit $u$ un endomorphisme d'un espace euclidien $E$; on dit que $u$ est un
\emph{automorphisme orthogonal} si $u$ conserve la norme.

 L'ensemble des automorphismes orthogonaux de $E$ est noté $\OrE$.
$\OrE[\R^n]=\OnR{\R}$ désigne l'ensemble des automorphismes orthogonaux de $\R^n$
muni de son produit scalaire naturel (canonique).
\Reponse{$
u\in\OrE\iff u\in\LE \et \qqs\vc x\in E,\ \norme{u(\vc x)}=\norme{\vc x}
$}
\end{Dfs}

\begin{NBs}\alaligne

 Le lemme précédent montre que les endomorphismes d'un espace euclidien qui
conservent la norme sont des automorphismes.

 Si $u$ conserve le produit scalaire d'un espace euclidien, $u$ est
nécessairement linéaire et conserve la norme; $u$ est donc un automorphisme
orthogonal. 
\end{NBs}

\begin{Th}[Caractérisation des automorphismes orthogonaux]\alaligne

 Si $u$ est un endomorphisme d'un espace euclidien $E$, les assertions
suivantes sont équivalentes :
\begin{prop}
 \item $u\in\OrE$;
 \item $u$ conserve le produit scalaire et donc l'orthogonalité et les angles;
 \item $u^*\rond u=I_E$;
 \item $u\rond u^*=I_E$;
 \item $u\in\GLE$ et $u^{-1}=u^*$;
 \item l'image par $u$ de toute base orthonormale de $E$ est une base
orthonormale de $E$;
 \item l'image par $u$ d'une base orthonormale de $E$ est une base orthonormale
de $E$.
\end{prop}
\end{Th}

\begin{proof}\alaligne

 \Implique12
 Le lemme 1 montre la conservation de la norme;
\\
$\vc x\perp\vc y\iff\Scal xy=0\implique\scal{u(\vc x)}{u(\vc y)}=\Scal xy=0$,
puisque $u$ conserve le produit scalaire
$\iff u(\vc x)\perp u(\vc y)$
\\
$\dps\cos\bigl(u(\vc x),u(\vc y)\bigr)
=\ra{\scal{u(\vc x)}{u(\vc y)}}{\norme{u(\vc x)}\,\norme{\vc y}}
=\ra{\Scal xy}{\norme{\vc x}\,\norme{\vc y}}=\cos(\vc x,\vc y)$

 \Iff23
$\qqs(\vc x,\vc y)\in E^2,\
\scal{u^*\rond u(\vc x)}{\vc y}=\scal{u(\vc x)}{u(\vc y)}=\Scal xy
\iff u^*\rond u=I_E$

 \Iff35
$I_E=u^*\rond u\implique 1=\det I_E=\det u^*\det u$; ainsi $\det u\neq0$, $u$
est inversible et $u^{-1}=u^*$. La réciproque est évidente.

 \Iff45 Même démonstration.

 \Implique26
Si $\mcal{B}=(\vc e_1,\dots,\vc e_n)$ est une base orthonormale de $E$, alors,
puisque $u$ conserve le produit scalaire, 
$\scal{u(\vc e_i)}{u(\vc e_j)}=\scal{e_i}{e_j}=\delta{i,j}$. La famille
$\bigl(u(e_1),\dots,u(e_n)\bigr)$ est une famille orthonormale de $E$, maximale,
donc une base orthonormale de $E$.

 \Implique67
Un espace euclidien admet une base orthonormale.

 \Implique71
Appelons $\mcal{B}=(\vc e_1,\dots,\vc e_n)$ est une base orthonormale de $E$. Si
$\vc x=\sum_{j=1}^n x_j\vc e_j$ est un vecteur de $E$, alors
$u(\vc x)=\sum_{j=1}^n x_j u(\vc e_j)$ et
\begin{gather*}
\norme{\vc x}^2=\scal{\sum_{j=1}^n x_j\vc e_j}{\sum_{k=1}^n x_k\vc e_k}
=\sum_{j,k} x_j x_k\scal{\vc e_j}{\vc e_k}=\sum_{j=1}^n x_j^2   \\
\norme{u(\vc x)}^2=\scal{\sum_{j=1}^n x_j u(\vc e_j)}{\sum_{k=1}^n x_k u(\vc e_k)}
=\sum_{j,k} x_j x_k\scal{u(\vc e_j)}{u(\vc e_k)}=\sum_{j=1}^n x_j^2
\end{gather*}
puisque $\mcal{B}$ et $u(\mcal{B})$ sont deux bases orthonormales; ainsi $u$
conserve la norme.
\end{proof}
%----------------------------------------------------------------------

\begin{Th}[Traduction matricielle]\alaligne

 Soient $E$ un espace euclidien, $\mcal{B}$ une base orthonormale de $E$, $u$
un endomorphisme de $E$ et $A$ la matrice de $u$ relative à $\mcal{B}$; Les
assertions suivantes sont équivalentes :
\begin{prop}
 \item $u\in\OrE$;
 \item $\trans AA=I_n$;
 \item $A\trans A=I_n$;
 \item $A\in\GLn{\R}$ et $A^{-1}=\trans A$.
\end{prop}
\end{Th}

\begin{proof}
 La traduction matricielle de $u^*\rond u=I_E$ est $\mat(u^*\rond
u)=\mat(I_E)$, ce qui devient $\trans AA=I_n$; ainsi $i.\iff ii.$. Les autres
équivalences traduisent \og$u\rond u^*=I_E$\fg{} et \og$u\in\GLE,u^{-1}=u^*$\fg.
\end{proof}
%----------------------------------------------------------------------


%----------------------------------------------------------------------
\subsection{Exemples}
%----------------------------------------------------------------------

%--------------------------------------------------
\subsubsection{Symétrie orthogonale}
%--------------------------------------------------

Rappelons que $s$ est une symétrie orthogonale si, et seulement si, $s\rond
s=I_E$ et $s=s^*$; ainsi $s=s^{-1}=s^*$ et toute symétrie orthogonale est un
automorphisme orthogonal. Un autre argument aurait pu être employé : les
symétries orthogonales conservent la norme.

%--------------------------------------------------
\subsubsection{Réflexion}
%--------------------------------------------------

\begin{Lem}
 Si $\vc a$ et $\vc b$ sont deux vecteurs d'un espace préhilbertien $E$, alors
$\vc a+\vc b$ et $\vc a-\vc b$ sont orthognaux si, et seulement si, $\vc a$ et
$\vc b$ ont même longueur.
\end{Lem}

\begin{proof}
 L'égalité $\scal{\vc a+\vc b}{\vc a-\vc b}=\norme{\vc a}^2-\norme{\vc b}^2$
donne l'équivalence.
\end{proof}
%----------------------------------------------------------------------

\begin{Cor}[Parallélogamme et losange]\alaligne

 Les diagonales d'un parallélogramme sont orthogonales si, et seulement si, ce
parallélogramme est un losange.
\end{Cor}
%----------------------------------------------------------------------

\begin{Cor}[Bissectrice(s) de deux vecteurs]\alaligne

 Si $\vc a$ et $\vc b$ ne sont pas deux vecteurs colinéaires de même sens,
$\vc a+\vc b$ dirige la bissectrice des vecteurs $\vc a$ et $\vc b$ si, et
seulement si, $\vc a$ et $\vc b$ sont de même longueur.
\end{Cor}

\begin{proof}
 Si $\vc a$ et $\vc b$ ne sont pas des vecteurs colinéaires de même sens, la
quantité $\norme{\vc a}\,\norme{\vc b}-\Scal ab$ est stictement positive et
$$
\cos(\vc a+\vc b,\vc a)-\cos(\vc a+\vc b,\vc b)
=\ra{\scal{\vc a+\vc b}{\vc a}}{\norme{\vc a+\vc b}\,\norme{\vc a}}
-\ra{\scal{\vc a+\vc b}{\vc b}}{\norme{\vc a+\vc b}\,\norme{\vc b}}
=\ra{\bigl(\norme{\vc a}\,\norme{\vc b}-\Scal ab\bigr)\bigl(\norme{\vc a}-\norme{\vc b}\bigr)}
  {\norme{\vc a+\vc b}\,\norme{\vc a}\,\norme{\vc b}}
$$
Les angles$(\vc a+\vc b,vc a)$ et $(\vc a+\vc b,\vc b)$ ont le même cosinus si,
et seulement si, les vecteurs $\vc a$ et $\vc b$ sont de même longueur.
\end{proof}
%----------------------------------------------------------------------

\begin{Df}[Réflexion]\alaligne

 \'Etant donnée deux vecteurs $\vc a$ et $\vc b$ de \emph{même norme}, on
appelle \emph{réflexion} de $\vc a$ sur $\vc b$, la symétrie orthogonale par
rapport à l'hyperplan médiateur de $\vc a$ et $\vc b$, \ie{} l'hyperplan
orthogonal à $\vc e=\vc a-\vc b$.

 Cette réflexion est notée $s_{\vc a,\vc b}$ et
$$
s_{\vc a,\vc b} : \vc x\in E\mapsto
\vc x-2\ra{\Scal ex}{\norme{\vc e}^2}\vc e\qquad
\text{avec $\vc e=\vc a-\vc b$}
$$
\end{Df}

\begin{NBs}\alaligne

 Dauns une base orthogonale adaptée à la decomposition $E=\R\vc e\somdir\{\vc
e\}^\perp$, la matrice de $s_{\vc a,\vc b}$ est par blocs
$\mathrm{Diag}(-1,I_{n-1})$ et donc $\det s_{\vc a,\vc b}=-1$.

 $s_{\vc a,\vc b}$ et $s_{\vc a,-\vc b}$ sont deux réflexions qui envoient la
droite $\R\vc a$ sur la droite $\R\vc b$. 
\end{NBs}


%----------------------------------------------------------------------
\subsection{Groupe orthogonal}
%----------------------------------------------------------------------

\begin{Th}[Groupes orthogonal et spécial orthogonal de $E$]\alaligne

 Si $E$ est un espace euclidien, alors :
\begin{prop}
 \item $\OrE$ est un sous-groupe de $\GLE$ appelé \emph{groupe orthogonal} de
$E$; 
 \item si $u\in\OrE$, alors $\det u\in\{-1,1\}$; la réciproque est
\emph{fausse};
 \item $\SOE=\ens{u\in\OrE}{\det u=1}$ est un sous-groupe de $\OrE$ appelé
\emph{groupe spécial orthogonal} de $E$, ou encore \emph{groupe des rotations
vectorielles} de $E$; il est encore noté $\OpE$;
 \item  $\OmE=\OrE\prive\SOE=\ens{u\in\OrE}{\det u=-1}$ n'est pas un groupe.
\end{prop}
\end{Th}

\begin{proof}\alaligne

\begin{demprop}
 \monitem $\OrE\subset\GLE$ et $I_E\in\OrE$;
\\
stabilité de la composition : si $u$ et $v$ appartiennent à $\OrE$, alors
$\qqs\vc x\in E$, $\norme{v\bigl(u(\vc x)\bigr)}=\norme{u(\vc x)}=\norme{\vc x}$;
\\
stabilité de la prise d'inverse : si $u\in\OrE$, $\norme{u^{-1}(\vc x)}
=\norme{u\bigl(u^{-1}(\vc x)\bigr)}=\norme{\vc x}$ et $u^{-1}\in\OrE$.
\\
Ainsi, $\OrE$ est un sous-groupe de $\GLE$ muni de la composition des
applications.

 \monitem $u\in\OrE\iff u^*\rond u=I_E \boxed{\implique}
\det(u^*\rond u)\det I_E=1=\det u^*\det u=(\det u)^2$ et donc $\det u=\pm 1$
\\
Si $A=\bigl(\begin{smallmatrix}
 1&0 \\ 1&1
\end{smallmatrix}\bigr)$,
alors $\trans AA=\bigl(\begin{smallmatrix}
 1&1& \\1&2
\end{smallmatrix}\bigr)\neq I_2$, ce qui montre que la réciproque est fausse.

 \monitem $u\mapsto\det u$ est un morphisme du groupe $\bigl(\OrE,\rond\bigr)$
sur le groupe $\bigl(\{-1,1\},\times\bigr)$; le noyau $\SOE$ de ce morphisme est
un sous-groupe de $\OrE$;

 \monitem $\OmE$ ne peut être un groupe, car la composition des applications
n'est pas \emph{stable}. Si $s$ est une réflexion de $E$, $u\mapsto u\rond s$
est une bijection de $\OrE$ (c'est une involution) qui envoie $\OmE$ sur
$\OpE=\SOE$.
\end{demprop}
\end{proof}
%----------------------------------------------------------------------


\begin{Th}[\'Eléments propres d'un automorphisme orthogonal]\alaligne

 Si $u$ est un automorphisme orthogonal d'un espace euclidien, alors
\begin{prop}
 \item $\sp u\subset\{-1,1\}$, les sous-espaces vectoriels propres sont
orthogonaux;
 \item $u$ est diagonalisable si, et seulement si, $u$ est une symétrie
(vectorielle) orthogonale;
 \item si $F$ est un sous-espace vectoriel stable pour $u$, alors $F^\perp$ est
aussi un sous-espace vectoriel stable pour $u$; $u$ induit sur $F$ et $F^\perp$
des automorphismes orthogonaux; en particulier, $u(F)=F$ et $u(F^\perp)=F^\perp$;
 \item $\bigl(\ker(u-I_E)\bigr)^\perp=\im(u-I_E)$ et
$\bigl(\ker(u+I_E)\bigr)^\perp=\im(u+I_E)$.
\end{prop}
\end{Th}

\begin{proof}\alaligne

\begin{demprop}
 \monitem Si $\la$ est une valeur propre de $u$ et $\vc x$ un vecteur propre
associé, alors $u(\vc x)=\la\vc x$ et, puisque $u$ conserve la norme,
$\norme{\vc x}=\norme{u(\vc x)}=\abs{\la}\,\norme{\vc x}$; ainsi $\abs{\la}=1$.
\\
Si $\vc x$ est un vecteur propre associé à la valeur propre 1 (vecteur
invariant) et $\vc y$ un vecteur propre associé à la valeur propre $-1$, alors,
puisque $u$ conserve le produit scalaire, $\Scal xy=\scal{u(\vc x)}{u(\vc y)}
=\scal{\vc x}{-\vc y}=-\Scal xy$, ce qui montre que $\Scal xy=0$. Ainsi
$E_1(u)\perp E_{-1}(u)$.
 
 \monitem $u$ est diagonalisable si, et seulement si, $E=E_1(u)\somdir
E_{-1}(u)$, \ie{} si, et seulement si, $u$ est la symétrie par rapport à
$E_1(u)$ parallèlement à $E_{-1}(u)$, soit la symétrie orthogonale par rapport à
$E_1(u)$
 
 \monitem L'endomorphisme $u\restr{F}$ induit par $u$ sur le sous-espace
vectoriel stable $F$, conserve la norme; c'est donc un automorphisme orthogonal
de $F$, en particulier une bijection et $u(F)=F$.

 Soit $\vc x\in F^\perp$; poour tout $\vc y\in F$, il existe $\vc y'\in F$ tel
que $\vc y=u(\vc y')$; alors
\begin{align*}
\scal{u(\vc x)}{\vc y}
&= \scal{u(\vc x)}{u(\vc y')}              \\
&= \scal{\vc x}{\vc y'} \hspace{3cm}\text{$u$ conserve le produit scalaire} \\
&= 0   \hspace{4cm}\text{$\vc x\in F^\perp$ et $\vc y'\in F$}
\end{align*}
ce qui montre que $u(\vc x)\in F^\perp$, \ie{} la stabilité de $F^\perp$. $u$
induit donc sur $F^\perp$ un automorphisme orthogonal et $u(F^\perp)=F^\perp$.

 \monitem Deux temps pour la démonstration : d'abord l'inclusion
$\im(u-I_E)\subset\bigl(\ker(u-I_E)\bigr)^\perp$, puis l'égalité des dimensions.
\\
$\vc x\in\im(u-I_E)\iff\exists\vc x'\in E,\
\vc x=(u-I_E)(\vc x')=u(\vc x')-\vc x'$ et
$\vc y\in\ker(u-I_E)\iff u(\vc y)=\vc y$ et
\begin{align*}
\Scal xy
&= \scal{u(\vc x')-\vc x'}{\vc y}=\scal{u(\vc x')}{\vc y}-\scal{\vc x'}{\vc y} \\
&= \scal{u(\vc x')}{u(\vc y)}-\scal{\vc x'}{\vc y}
   \hspace{3cm}\text{car $\vc y=u(\vc y)$}                  \\
&= 0 \hspace{5cm}\text{$u$ conserve le produit scalaire}
\end{align*}
Ainsi $\qqs\vc x\in\im(u-I_E)$, $\qqs\vc x\in\ker(u-I_E)$, $\vc x\perp\vc y$,
\ie{} les sous-espaces $\im(u-I_E)$ et $\ker(u-I_E)$ sont orthogonaux et
$\im(u-I_E)\subset\ker(u-I_E)$.

 Les dimensions sont égales car :
$$
\dim\im(u-I_E)=\dim E-\dim\ker(u-I_E)=\dim\bigl(\ker(u-I_E)\bigr)^\perp
$$

 La démonstration est identique pour l'égalité de $\im(u+I_E)$ avec
$\bigl(\ker(u+I_E)\bigr)^\perp$.

 Ainsi, $\ker(u-I_E)$ et $\im(u-I_E)$  sont supplémentaires orthogonaux, ainsi que
$\ker(u+I_E)$ et $\im(u+I_E)$.
\end{demprop}
\end{proof}
%----------------------------------------------------------------------

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Matrices orthogonales}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%----------------------------------------------------------------------
\subsection{Généralités}
%----------------------------------------------------------------------

\begin{Df}[Matrice orthogonale]\alaligne

 Une matrice $A$ carrée d'ordre $n$ à coefficients réels est dite
\emph{orthogonale} si $\trans AA=I_n$.

 L'ensemble des matrices orthogonales est notée $\On$.
\end{Df}

\begin{Ex}
 Les matrices de pemutation sont des matrices orthogonales.
\end{Ex}

\begin{Th}[Caractérisation des matrices orthogonales]\alaligne

 Si $E$ est un espace euclidien de dimension $n$ et $A\in\Mn{\R}$, alors les
propriétés suivantes sont équivalentes :
\begin{prop}
 \item $A\in\On$;
 \item $\trans AA=I_n$;
 \item $A\trans A=I_n$;
 \item $A\in\GLn{\R}$ et $A^{-1}=\trans A$;
 \item $A$ est la matrice relative à une base \emph{orthonormale} d'un
automorphisme orthogonal de $E$;
 \item les colonnes de $A$ constituent une base orthonormale de $\R^n$ pour le
produit scalaire naturel;
 \item les lignes de $A$ constituent une base orthonormale de $\R^n$ pour le
produit scalaire naturel;
 \item $A$ est la matrice de passage d'une base \emph{orthonormale} de $E$ à
une base \emph{orthonormale} de $E$.
\end{prop}
\end{Th}

\begin{proof}\alaligne

 L'égalité $BA=I_n$ implique $\det B\det A=1$; ainsi $\det A\neq 0$, $A$ est
inversible et $A^{-1}=B$. Cette remarque montre l'équivalence de ($ii$) et de
($iii$) avec ($iv$).

 \Iff25 Déjà vu lors de la caractérisation des automorphismes orthogonaux.

 \Iff26 Notons $\nuple{C}$ les colonnes de $A$ et remarquons que
$\bigl(I_n\bigr)_{i,j}=\delta_{i,j}$. Ainsi
$$
\bigl(\trans A\,A\bigr)_{i,j}=
\left(\begin{pmatrix}
 &&&&              \\
 \trans C_i&\hdotsfor[.5]{4}   \\
 &&&&              \\
 &&&&
\end{pmatrix}
\begin{pmatrix}
 && C_j&       \\
 &&\vdots&      \\
 &&\vdots&      \\
\end{pmatrix}\right)_{i,j}
=\trans C_i\,C_j=\scal{C_i}{C_j}
$$
ce qui montre que
$$
\trans A\,A=I_n\iff\qqs(i,j)\in\Intf1n^2,\ \scal{C_i}{C_j}=\delta_{i,j}
$$

 \Iff37 Notons $\nuple{L}$ les colonnes de $A$. Ainsi
$$
\bigl(\trans A\,A\bigr)_{i,j}=
\left(\begin{pmatrix}
 &&&&           \\
 L_i&\hdotsfor[.5]{4}   \\
 &&&&           \\
 &&&&
\end{pmatrix}
\begin{pmatrix}
 && \trans L_j&   \\
 &&\vdots&      \\
 &&\vdots&      \\
\end{pmatrix}\right)_{i,j}
=L_i\trans L_j=\scal{L_i}{L_j}
$$
ce qui montre que
$$
\trans A\,A=I_n\iff\qqs(i,j)\in\Intf1n^2,\ \scal{L_i}{L_j}=\delta_{i,j}
$$

 \Iff28
Soient $\mcal{B}$ une base \emph{orthonomale} de $E$, $\mcal{B}'=(\vc
e'_1,\dots,\vc e'_n)$ une autre base, a priori quelconque, de $E$ et $A$ la matrice
de passage de la base $\mcal{B}$ à la base $\mcal{B}'$; ainsi la $j$\up{e}
colonne $C_j$ de $A$ est la matrice $\mat(\vc e'_j)$ de $\vc e'_j$ relative à
$\mcal{B}$. Puisque $\mcal{B}$ est une base orthonoormale, on a :
$$
\scal{\vc e'_i}{\vc e'_j}=\trans\mat(\vc e'_i)\,\mat(\vc e'_j)
=\trans A_i\,A_j=\bigl(\trans A\,A\bigr)_{i,j}
$$
ce qui donne l'équivalence.
\end{proof}
%----------------------------------------------------------------------


%----------------------------------------------------------------------
\subsection{Goupe orthogonal d'ordre $n$}
%----------------------------------------------------------------------

\begin{Th}[Groupe orthogonal et spécial orthogonal d'ordre $n$]\alaligne

\begin{prop}
 \item $\On$ est un sous-groupe de $\GLn{\R}$ appelé \emph{groupe orthogonal
d'ordre $n$};
 \item si $A\in\On$, alors $\det A\in\{-1,1\}$; la réciproque est fausse;
 \item $\SOn=\ens{A\in\On}{\det A=1}$ est un sous-groupe de $\On$ appelé
\emph{groupe spécial orthogonal d'ordre $n$}, ou encore \emph{groupe des rotations
vectorielles d'ordre $n$}; il est encore noté $\Opn$;
 \item  $\Omn=\On\prive\SOn=\ens{A\in\On}{\det u=-1}$ n'est pas un groupe.
\end{prop}
\end{Th}

\begin{proof}\alaligne

 C'est la traduction matricielle du théorème correspondant des propriétés du
groupe orthogonal $\OrE$, où $E$ est un espace euclidien de dimension $n$
rapporté à une base orthonormale.

 Pourtant, dans sa grande bonté, le scribe de service va en donner une
démonstration spécifique.
\begin{demprop}
 \monitem $\On\subset\GLn{\R}$ et $I_n\in\On$;
\\
stabilité de la multiplication : si $A$ et $B$ appartiennent à $\On$, alors
\\
$\trans(AB)AB=\trans B\trans A\,AB=\trans BI_nB=I_n$;
\\
stabilité de la prise d'inverse : si $A\in\On$, alors
\\
$I_n=(\trans A\,A)^{-1}=A^{-1}(\trans A)^{-1}=A^{-1}\,\trans A^{-1}$ et
$A^{-1}\in\On$.
\\
Ainsi $\On$ est un sous-groupe de $\GLn{\R}$ muni du produit des matrices.

 \monitem $\trans A\,A=I_n\implique
1=\det I_n=\det(\trans A\,A)=\det\trans A\,\det A=(\det A)^2$, et donc
$\det A\in\{-1,1\}$.

 \monitem $A\mapsto\det A$ est un morphisme du groupe $\bigl(\On,\times\bigr)$
sur le groupe $\bigl(\{-1,1\},\times\bigr)$; le noyau $\SOn$ de ce morphisme est
un sous-groupe de $\On$;

 \monitem $\Omn$ ne peut être un groupe car la multiplication n'est pas stable
: le produit de deux matrices orthogonales de déterminant $-1$ est une matrice
orthogonale de déterminant $+1$. Si $S=\mathrm{Diag}(-1,I_{n-1})$ (matrice
diagonale par blocs), $A\mapsto SA$ est une bijection de $\On$ (c'est une
involution) qui envoie $\Omn$ sur $\Opn=\SOn$.
\end{demprop}
\end{proof}
%----------------------------------------------------------------------

\begin{Th}[\'Eléments propres d'une matrice orthogonale]\alaligne

\begin{prop}
 \item Toute propriété vraie pour les automorphismes orthogonaux, est encore
vraie pour les matrices orthogonales; en particulier, le spectre d'une matrice
orthogonale est inclus dans $\{-1,1\}$; 

 \item si $A\in\On\inter\SOn$, $A$ est la matrice d'une symétrie orthogonale
relativement à une base orthonormale;

 \item si $n$ est \emph{impair} et $A\in\SOn=\Opn$, alors 1 est valeur propre de $A$;
 
 \item si $A\in\Omn$, alors $-1$ est valeur propre de $A$;
\end{prop}
\end{Th}

\begin{proof}\alaligne

\begin{demprop}

 \monitem Toute matrice orthogonale est la matrice d'un automorphisme
orthogonal relativement à une base orthonormale. Toute les propriétés vraies
pour les automorphismes orthogonaux,
sont donc vraies pour les matrices orthogonales; en particulier le spectre d'une
matrice orthogonale est inclus dans $\{-1,1\}$.

 Voici une démonstration directe de cette propriété. Si $\la$ est une valeur propre
de $A$ et $X$ un vecteur propre associé, $AX=\la X$ et
$$
\la^2\norme{X}^2=\norme{AX}^2=\trans(AX)AX=\trans X\trans AAX=\trans XX=\norme{X}^2
$$
et $\la^2=1$.

 \monitem Considérons l'endomorphisme $u$ de $E$ de matrice $A$ relativement à
une base orthonormale $\mcal{B}$; alors :
\begin{gather*}
\trans A\,A=I_n\iff u^*\rond u=I_E\iff\text{ $u$ est un automorphisme orthogonal;} \\
\trans A=A\iff u^*=u\iff\text{ $u$ est auto-adjoint;}
\end{gather*}
Puisque qu'une symétrie (vectorielle) orthogonale est un automorphisme
orthogonal et auto-adjoint, le résultat annoncée est démontré.

 \monitem Montrer que 1 est valeur propre de $A$, c'est montrer la nullité de
$\det(A-I_n)$. Puisque $A\in\SOn$, $A-I_n=A-\trans A\,A=A(I_n-\trans A)$ et
$\det A=1$. Ainsi,
$$
\det(A-I_n)=\det A\,\det(I_n-\trans A)=1\times\det\bigl(\trans(I_n-A)\bigr)
=\det(I_n-A)=(-1)^n\det(A-I_n)
$$
Puisque $n$ est impair, $\det(A-I_n)=-\det(A-I_n)$ et $\det(A-I_n)=0$.

 \monitem Si $A\in\Omn$, en utilisant la même transformation que ci-dessus, on
obtient :
$$
\det(A+I_n)=\det(A+A\trans A)=\det A\,\det(I_n+\trans A)=
-1\times\det\bigl(\trans(I_n+A)\bigr)=-\det(A+I_n)
$$
Ainsi, $\det(A+I_n)=0$ et $-1$ est valeur propre de $A$.

\end{demprop}
\end{proof}
%----------------------------------------------------------------------

%----------------------------------------------------------------------
\subsection{Le groupe orthogonal d'ordre 1}
%----------------------------------------------------------------------
\noindent
$\On[1]=\{1,-1\}$, $\SOn[1]=\Opn[1]=\{1\}$ et $\Omn[1]=\{-1\}$.
\\
Notons $\mcal{D}$ un espace euclidien de dimension 1, \ie{} une droite
vectorielle euclidienne; alors
\\
$\OrE[\mcal{D}]=\{I_{\mcal{D}},-I_{\mcal{D}}\}$,
$\SOE[\mcal{D}]=\OpE[\mcal{D}]=\{I_{\mcal{D}}\}$
et $\OmE[\mcal{D}]=\{-I_{\mcal{D}}\}$.

%----------------------------------------------------------------------
\subsection{Le groupe orthogonal d'ordre 2}
%----------------------------------------------------------------------
\noindent
$\dps\SOn[2]=\Opn[2]=
\left\{
\begin{pmatrix}
 \cos\theta & -\sin\theta  \\
 \sin\theta & \cos\theta
\end{pmatrix},\ \theta\in\R
\right\}$
\\
$\dps\Omn[2]=
\left\{
\begin{pmatrix}
 \cos\theta & \sin\theta  \\
 \sin\theta & -\cos\theta
\end{pmatrix},\ \theta\in\R
\right\}$
\\
Notons $\mcal{P}$ un espace euclidien de dimension 2, \ie{} un plan
vectoriel euclidien; alors
\\
$\SOE[\mcal{P}]=\OpE[\mcal{P}]=\{\text{ rotations vectorielles planes }\}$ et
\\
$\OmE[\mcal{P}]=\{ \text{ symétries vectorielles planes et orthogonales } \}
\\
\phantom{\OmE[\mcal{P}]}
=\{ \text{ réflexions de $\vc i=(1,0)$ sur
  $\vc u_\theta=(\cos\theta,\sin\theta)$, $\theta\in\R$ } \}$.
  

%----------------------------------------------------------------------
\subsection{Le groupe orthogonal d'ordre 3}
%----------------------------------------------------------------------

 $A\in\SOn[3]=\Opn[3]$ si, et seulement si, $A$ est une matrice orthogonale
dont la troisième colonne est le produit vectoriel de ses deux premières, si, et
seulement si, il existe $P\in\Opn[3]$, matrice de passage de la base canonique
de $\Mnp[3,1]{\R}$ (identifié à $\R^3$) à une base orthonormale \emph{directe},
et $\theta\in\R$ tel que
$$
P^{-1}AP=\trans PAP=
\begin{pmatrix}
 \cos\theta & -\sin\theta & 0  \\
 \sin\theta & \cos\theta & 0  \\
 0      & 0      & 1  \\
\end{pmatrix}
$$

 $A\in\Omn[3]$ si et seulement si $-A\in\Opn[3]$, si, et seulement si, $A$ est
une matrice orthogonale
dont la troisième colonne est l'opposé du produit vectoriel de ses deux premières, si, et
seulement si, il existe $P\in\Opn[3]$, matrice de passage de la base canonique
de $\Mnp[3,1]{\R}$ (identifié à $\R^3$) à une base orthonormale \emph{directe},
et $\theta\in\R$ tel que
$$
P^{-1}AP=\trans PAP=
\begin{pmatrix}
 \cos\theta & -\sin\theta & 0  \\
 \sin\theta & \cos\theta & 0  \\
 0      & 0      & -1 \\
\end{pmatrix}
$$

 Notons $\mcal{E}$ un espace euclidien de dimension 3, \ie{} l'espace
vectoriel euclidien habituel de la physique (newtonienne) et $u$ un
automorphisme orthogonal de $\mcal{E}$ distinct de $\pm I_{\mcal{E}}$.

 $u\in\SOE[\mcal{E}]=\OpE[\mcal{E}]$ si, et seulement si,
$\mcal{E}=\ker(u-I_{\mcal{E}})\somdir\bigl(\ker(u-I_{\mcal{E}})\bigr)^\perp
=\R\vc w\somdir\mcal{P}$ avec $u\restr{\R\vc w}=I_{\R\vc w}$ et
$u\restr{\mcal{P}}$ une rotation vectorielle du plan $\mcal{P}$;
ainsi, $u$ est une rotation axiale.

 $u\in\OmE[\mcal{E}]$ si, et seulement si,
$\mcal{E}=\ker(u+I_{\mcal{E}})\somdir\bigl(\ker(u+I_{\mcal{E}})\bigr)^\perp
=\R\vc w\somdir\mcal{P}$ avec $u\restr{\R\vc w}=-I_{\R\vc w}$ et
$u\restr{\mcal{P}}$ une rotation vectorielle du plan $\mcal{P}$;
ainsi, $u$ est le composé (commutatif) d'une rotation axiale et d'une
symétrie orthogonale par rapport au plan orthogonal à l'axe de la rotation,
\ie{} d'une réflexion qui laisse globalement invariant l'axe de la rotation.

\begin{NBs}[]\alaligne

 Si $u\in\SOE[\mcal{E}]=\OpE[\mcal{E}]$, $\tr u=1+2\cos\theta$, ce qui
détermine $\cos\theta$ (exactement) et $\sin\theta$ (au signe près); si $\vc u$
est un vecteur orthogonal à l'axe $\R\vc w$ de la rotation $u$, l'égalité
$\vc u\wedge u(\vc u)=\sin\theta\vc w$ donne le signe de $\theta$.

 Si $u\in\OmE[\mcal{E}]$, $\tr u=-1+2\cos\theta$, ce qui
détermine $\cos\theta$ (exactement) et $\sin\theta$ (au signe près); si $\vc u$
est un vecteur orthogonal à l'axe $\R\vc w$ de l'anti-rotation $u$, l'égalité
$\vc u\wedge u(\vc u)=\sin\theta\vc w$ donne le signe de $\theta$.

 Si $\vc u$ est un vecteur \emph{unitaire} et $\theta$ un nombre réel, la
rotation $r_{\vc u,\theta}$ d'axe $\R\vc u$ et d'angle $\theta$ est donnée par
la formule due à Euler :
\begin{equation}
r_{\vc u,\theta} : \vc x\mapsto
 \cos\theta\,\vc x+(1-\cos\theta)\Scal ux\vc u+\sin\theta(\vc u\wedge\vc x)
\end{equation}

\end{NBs} 


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Réduction des endomorphismes auto-adjoints}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

 $E$ est un espace euclidien de dimension $n$.

%----------------------------------------------------------------------
\subsection{Réalité des valeurs propres et orthogonalité des sous-espaces
vectoriels propres d'un endomorphisme auto-adjoint (symétrique)}
%----------------------------------------------------------------------

\begin{Th}[]\alaligne
 Si $u$ est un endomorphisme auto-adjoint (symétrique) d'un espace euclidien
$E$, alors
\begin{prop}
 \item le polynôme caractéristique de $u$ est scindé sur $\R$;
 \item les sous-espaces vectoriels propres de $u$ associés à des valeurs
propres distinctes sont orthogonaux.
\end{prop}
\end{Th}

\begin{proof}\alaligne

\begin{demprop}
 \monitem Soient $\mcal{B}$ une base orthonormale de $E$ et $A=\mat(u)$ la
matrice de $u$ relative à $\mcal{B}$. Puisque $u$ est auto-adjoint, $A$ est une
matrice symétrique réelle et $\chi_A=\chi_u$.

 $\chi_A$, polynôme réel, est scindé sur $\C$; si $\la\in\sp_{\C}(A)$ est une
valeur propre complexe de $A$ et $X\in\Mnp[n,1]{\C}$ un vecteur propre associé,
$\conjug{\la}\in\sp_{\C}(A)$ est une valeur propre complexe de $A$ et
$\conjug{X}\in\Mnp[n,1]{\C}$ un vecteur propre associé, car
\begin{align*}
AX=\la X\implique
\conjug{AX}
&= \conjug{\la X}=\conjug{\la}\,\conjug{X}        \\
&= \conjug{A}\,\conjug{X}=A\conjug{X}
\end{align*}
Ainsi
\begin{align*}
\tc{X}AX
&= \tc{X}(AX)=\tc{X}(\la X)=\la\tc{X}X=\la\norme{X}^2        \\
&= (\tc{X}A)X=\trans(\trans A\conjug{X})X=\trans(A\conjug{X})X
   =\trans(\conjug{\la}\,\conjug{X})X=\conjug{\la}\tc XX
   =\conjug{\la}\norme{X}^2
\end{align*}
et, puisque $X\neq0$, $\norme{X}>0$ et $\la=\conjug{\la}$, ce qui montre que
toutes les valeurs propres complexes de $A$, donc de $u$, sont en fait réelles
et $\chi_A=\chi_u$ est un poynôme scindé sur $\R$.

 \monitem Si $\la$ et $\mu$ sont deux valeurs propres distinctes de $u$, et
$\vc x$ et $\vc y$ deux vecteurs propres associés, alors
\begin{align*}
&\scal{\vc x}{u(\vc y)}=\scal{\vc x}{\mu\vc y}=\mu\Scal xy       \\
&\qquad=                                   \\
&\scal{u(\vc x)}{\vc y}=\scal{\la\vc x}{\vc y}=\la\Scal xy
\end{align*}
Puisque $\la\neq\mu$, $\Scal xy=0$ et donc :
$$
\la\neq\mu\implique
\qqs(\vc x,\vc y)\in E_\la(u)\times E_\mu(u),\ \vc x\perp\vc y
\iff E_\la(u)\perp E_\mu(u)
$$
\end{demprop}
\end{proof}
%----------------------------------------------------------------------
%----------------------------------------------------------------------
\subsection{Diagonalisation des endomorphismes auto-adjoints (symétriques)}
%----------------------------------------------------------------------

\begin{Th}[fondamental]\alaligne

Tout endomorphisme auto-adjoint $u$ d'un espace euclidien $E$ est
diagonalisable; plus précisément, $E$ admet une base orthonormale constituée de
vecteurs propres de $u$.
\end{Th}

\begin{proof}
 Par récurrence sur la dimension $n$ de $E$.

 Initalisation : $n=1$. Dans ce cas $E$ est une droite vectorielle et $u$ est
une homothétie; si $\vc a$ est un vecteur non nul de $E$, $\norme{\vc a}^{-1}\vc
a$ est une base orthonormale qui convient.

 Hérédité : $ n\implique n+1$. Supposons l'existence d'une base
orthonormale constituée de vecteurs propres pour tout endomorphisme auto-adjoint
d'un espace euclidien de dimension $n$. Soient $E$ un espace euclidien de
dimension $n+1$ et $u$ un endomorphisme auto-adjoint de $E$. Puisque $u$ est
scindé sur $\R$, prenons $\la$ une valeur propre (réelle) de $u$ et $\vc a$ un
vecteur propre (non nul) associé. La droite $\mcal{D}=\R\vc a$ est stable par
$u$; l'hyperplan $\mcal{H}=\mcal{D}^\perp$ est stable par $u^*=u$. Ainsi, $u$
induit sur $\mcal{H}$ un endomorphisme auto-adjoint et, puisque $\mcal{H}$ est
un $\R$-espace vectoriel de dimension $n$, l'hypothèse de récurrence montre
l'existence d'une base orthonormale de $\mcal{H}$ constituée de vecteurs propres
de $u$. En complétant cette base par $\norme{\vc a}^{-1}\vc a$, on obtient le
résultat.
\end{proof}
%----------------------------------------------------------------------

\begin{Th}[Traduction matricielle]\alaligne

 Toute matrice symétrique réelle $A$ est diagonalisable (sur $\R$); plus
précisément, il existe une matrice orthogonale $P\in\On$ et une matrice
diagonale $D$ telles que :
$$
D=P^{-1}AP=\trans PAP=\diag{\la}
$$
Les colonnes de $P$ constituent une base orthonormale de vecteurs propres de
$A$ et $\la_j$ est la valeur propre associé à la $j$\fup{e} colonne.
\end{Th}

\begin{proof}
 L'endomorphisme $u_A : X\mapsto AX$ associé à $A$ est un endomorphisme
auto-adjoint de $\Mnp[n,1]{\R}$ muni de son produit scalaire naturel; il existe
donc une base orthonormale $\mcal{B}$ de $\Mnp[n,1]{\R}$, constituée de vecteurs propres de
$u_A$, \ie{} de vecteurs propres de $A$. La matrice de passage $P$ de la base
canonique, qui est orthonormale, à $\mcal{B}$ est une matrice orthogonale et
donne le résultat.
\end{proof}
%----------------------------------------------------------------------

%----------------------------------------------------------------------
\subsection{Applications}
%----------------------------------------------------------------------

\begin{Prop}[Spectre d'un endomorphisme positif, défini positif]\alaligne

 Soit $u$ un endomorphisme auto-adjoint d'un espace euclidien $E$; alors
\begin{prop}
 \item $\text{$u$ est positif, \ie{} }\qqs\vc x\in E,\
\scal{u(\vc x)}{\vc x}\geq 0
\iff\sp u\subset\R_+=\intfo0{+\infty}$;
 \item $\text{$u$ est défini positif, \ie{} }\qqs\vc x\in E\prive\{\vc 0\},\
\scal{u(\vc x)}{\vc x}>0
\iff\sp u\subset\R^*_+=\into0{+\infty}$;
\end{prop}
\end{Prop}

\begin{proof}
 Soit $\mcal{B}=\nuple{\vc e}$ une base orthonormale de $E$ constituée de
vecteurs propres de $E$; on appelle $\la_j$ la valeur propre associée au vecteur
propre $\vc e_j$ et $\nuple{x}$ les composantes de $\vc x$ relatives à
$\mcal{B}$. Ainsi, pour tout $\vc x\in E$, 
$$
u(\vc x)=u\Bigl(\sum_{j=1}^n x_j\vc e_j\Bigr)
=\sum_{j=1}^n x_j u(\vc e_j)=\sum_{j=1}^n x_j\la_j\vc e_j
$$
et
$$
\scal{u(\vc x)}{\vc x}
=\scal{\sum_{j=1}^n x_j\la_j\vc e_j}{\sum_{k=1}^n x_k\vc e_k}
=\sum_{j,k}\la_j x_j x_k\scal{\vc e_j}{\vc e_k}=\sum_{j=1}^n\la_j x_j^2
$$
On obtient donc
\begin{gather*}
\qqs\vc x\in E,\ 0\leq\scal{u(\vc x)}{\vc x}=\sum_{j=1}^n \la_j x_j^2
 \iff\qqs j\in\Intf1n,\ \la_j\geq0
 \iff\sp u\subset\R_+                        \\
\qqs\vc x\in E\prive\{\vc 0\},\
 0<\scal{u(\vc x)}{\vc x}=\sum_{j=1}^n \la_j x_j^2
 \iff\qqs j\in\Intf1n,\ \la_j>0
 \iff\sp u\subset\R_+^*
\end{gather*}
\end{proof}
%----------------------------------------------------------------------

\begin{Prop}[Spectre de $\trans A\,A$]\alaligne

 Si $A\in\Mnp[p,n]{\R}$, alors $\trans A\,A\in\SnR$ et $\sp(\trans AA)\subset\R_+$.
\end{Prop}

\begin{proof}
 $\trans A\,A$ est une matrice carrée d'ordre $n$, symétrique réelle;
l'endomorphisme de $\Mnp[n,1]{\R}$ associé est positif, car
$$
\qqs X\in\Mnp[n,1]{\R},\
\scal{u_A(X)}{X}=\trans X(\trans A\,A)X=\trans(AX)AX=\norme{AX}^2\geq0
$$
\end{proof}
%----------------------------------------------------------------------

\begin{Prop}[Caractérisation de la matrice d'un produit scalaire]\alaligne

 Soient $\vphi$ une forme bilinéaire symétrique sur un espace euclidien $E$ et
$G=[\vphi(\vc e_i,\vc e_j)]$ la matrice de $\vphi$ dans une base (quelconque) de
$E$; alors
$$
\text{$\vphi$ est un produit scalaire sur $E$}
\iff\sp G\subset\R^*_+=\into0{+\infty} 
$$
\end{Prop}

\begin{proof}
\begin{align*}
\vphi
\text{ est un produit scalaire sur $E$}
&\iff \qqs\vc x\in E\prive\{\vc 0\},\ \vphi(\vc x,\vc x)>0      \\
&\iff \qqs X\in\Mnp[n,1]{\R}\prive\{0\},\ \trans XGX>0        \\
&\iff \text{l'endomorphisme $u_G$ associé à $G$ est défini positif}  \\
&\iff \sp u_G=\sp G\subset\R^*_+=\into0{+\infty}           \\
\end{align*}
\end{proof}
%----------------------------------------------------------------------

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Réduction des formes bilinéaires symétriques}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%----------------------------------------------------------------------
\subsection{Réduction des formes bilinéaires symétriques}
%----------------------------------------------------------------------

 Soient $E$ un espace euclidien de dimension $n$, $\mcal{B}=\nuple{\vc e}$ une
base orthonormale de $E$ (la base de référence), $\vphi$ une forme bilinéaire
symétrique sur $E$ et $u_\vphi$ l'endomorphisme auto-adjoint de $E$ associé :
$$
\qqs(\vc x,\vc y)\in E^2,\
\vphi(\vc x,\vc y)=\scal{u_\vphi(\vc x)}{\vc y}=\scal{\vc x}{u_\vphi(\vc y)}
$$

 Notons $A=[a_{i,j}]=[\vphi(\vc e_i,\vc e_j)]$ la matrice de $\vphi$ relative à
$\mcal{B}$, $X=\trans\nuple{x}=\mat(\vc x)$ et $Y=\trans\nuple{y}=\mat(\vc y)$;
ainsi
$$
\qqs(\vc x,\vc y)\in E^2,\
\vphi(\vc x,\vc y)=\trans XAY=\sum_{i,j=1}^n a_{i,j}x_i y_j
$$
Puisque $\mcal{B}$ est une base orthonormale, les égalités
$$
a_{i,j}=\vphi(\vc e_i,\vc e_j)=\scal{u_\vphi(\vc e_i)}{\vc e_j}
$$
montrent que $a_{i,j}$ est la composante suivant $\vc e_j$ de $u_\vphi(\vc
e_i)$; ainsi $A$ est aussi la matrice de $u_\vphi$ relative à $\mcal{B}$.

 Relativement à une base orthonormale $\mcal{B}'$ constituée de vecteurs
propres de $u_\vphi$, la matrice de $u_\vphi$ relative à $\mcal{B}'$ est
diagonale; en notant $P$ la matrice (orthogonale) de passage de $\mcal{B}$ à
$\mcal{B}'$, on a :
$$
\mat[B'](u_\vphi)=\diag{\la}=P^{-1}AP=\trans PAP
$$
En posant $X=PX'$ et $Y=PY'$, il vient
$$
\vphi(\vc x,\vc y)=\trans(PX')A(PY')=\trans X'(\trans PAP)Y'
=\trans X'DY'=\sum_{j=i}^n \la_j x'_j y'_j
$$
Nous venons de \emph{réduire} la forme bilinéaire symétrique $\vphi$ dans une
base orthonormale de $E$ et
$$
\vphi(\vc x,\vc x)=\sum_{j=1}^n \la_j{x'_j}^2
\qquad\text{ avec }X'=\trans\nuple{x'}=\mat[B'](\vc x)
$$




%----------------------------------------------------------------------
\subsection{Réduction des formes quadratiques sur $\R^n$}
%----------------------------------------------------------------------

\begin{Df}[Forme quadratique à $n$ variables]\alaligne

 Une \emph{forme quadratique} $q$ à $n$ variables, ou sur $\R^n$, est un
polynôme homogène de degré 2 de ces $n$ variables; cette forme quadratique
s'écrit :
$$
q(x_1,x_2,\dots,x_n)=\sum_{i,j=1}^n a_{i,j} x_i,x_j
=\sum_{i=1}^n a_{i,i}\,{x_i}^2+2\sum_{1\leq i<j\leq n} a_{i,j}\,x_i x_j
$$
en prenant la convention $a_{j,i}=a_{i,j}$.
\end{Df}

%--------------------------------------------------
\subsubsection*{Écriture matricielle d'une forme quadratique}
%--------------------------------------------------

 La matrice $A=[a_{i,j}]$, symétrique, réelle, d'ordre $n$, est dite associée à la
forme quadratique $q$ et on a :
$$
q(x_1,x_2,\dots,x_n)=\sum_{i,j=1}^n a_{i,j}\,x_i x_j=\trans XAX
$$

%--------------------------------------------------
\subsubsection*{Forme bilinéaire symétrique associée}
%--------------------------------------------------

 Puisque $A$ est une matrice symétrique réelle, il existe une matrice
orthogonale $P\in\On$ telle que $P^{-1}AP=\trans PAP=\diag{\la}$. En posant
$X=PX'$, il vient :
$$
q\nuple{x}=\trans(PX')A(PX')=\trans X'(\trans PAP)X'
=\trans X'\diag{\la}X'=\sum_{j=i}^n \la_j {x'_j}^2
$$
Nous venons de \emph{réduire} la forme quadratique $q$ en \emph{somme de carrés}
dans une base orhononormale de $\Mnp[n,1]{\R}$ (que l'on peut identifier à
$\R^n$), base orthonormale constituée de vecteurs propres de~$A$.