%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \chapter{Espace euclidien} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \minitoc \newpage On note $E$ un $\R$-espace vectoriel de \emph{dimension finie} $n$, muni d'un produit scalaire (réel) qui est noté $\scal{\ }{\ }$. Rappelons qu'un $\C$-espace vectoriel de dimension finie et muni d'un produit scalaire (complexe), est appelé espace hermitien. %---------------------------------------------------------------------- \section{Résumé des épisodes précédents} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsection{Produit scalaire} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsubsection{Son expression dans une base quelconque} %---------------------------------------------------------------------- Soit $\mcal{B}=(\vc e_1,\dots,\vc e_n)$ une base \emph{quelconque} de $E$. On note $\nuple{x}$ (resp. $\nuple{y}$) les composantes de $\vc x$ (resp. $\vc y$) relativement à la base $\mcal{B}$. Ainsi, \begin{equation} \vc x=\sum_{j=1}^n x_j\,\vc e_j \et \vc y=\sum_{j=1}^n y_j\,\vc e_j \end{equation} ce qui donne \begin{equation} \Scal xy=\scal{\sum_{i=1}^n x_i\vc e_i}{\sum_{j=1}^n x_j\vc e_j} =\sum_{i=1}^n\sum_{j=1}^n x_i y_j\scal{\vc e_i}{\vc e_j} =\sum_{i,j} g_{i,j}\,x_i y_j \end{equation} avec $g_{i,j}=\scal{\vc e_i}{\vc e_j}$. Dans le cas complexe, on a $$ \Scal xy=\sum_{i=1}^n\sum_{j=1}^n \conjug{x_i} y_j\scal{\vc e_i}{\vc e_j} =\sum_{i,j} g_{i,j}\,\conjug{x_i} y_j $$ %---------------------------------------------------------------------- \subsubsection{Expression matricielle du produit scalaire} %---------------------------------------------------------------------- Appelons $G$ la matrice de terme général $g_{i,j}=\scal{\vc e_i}{\vc e_j}$; $G$ est une matrice carrée d'ordre $n$, à coefficients réels et symétrique. L'expression du produit scalaire s'écrit à l'aide de $G$ : \begin{equation} \scal{\vc x}{\vc y}=\sum_{i,j} g_{i,j}\,x_i y_j =\trans X G Y \end{equation} où $X=\mat(\vc x)$ (resp. $Y=\mat(\vc y)$) est la matrice-colonne des composantes de $\vc x$ (resp. $\vc y$) relativement à $\mcal{B}$. %---------------------------------------------------------------------- \subsubsection{Effet d'un changement de base} %---------------------------------------------------------------------- Soient $\mcal{B}'=(\vc e'_1,\dots,\vc e'_n)$ une autre base de $E$ et $P$ la matrice de passage de la base $\mcal{B}$ à la base $\mcal{B}'$, \ie{} la matrice $P=\mat(\mcal{B}')$ dont la $j$\fup{e} colonne est la colonne des composantes du vecteur $\vc e'_j$ relativement à $\mcal{B}$. Ainsi, $$ \mat(\vc x)=\mat(\mcal{B}')\mat[B'](\vc x) \text{, soit } X=P\,X' $$ et le produit scalaire devient : \begin{equation} \Scal xy=\trans XPY=\trans(PX')G(PY) =\trans X'(\trans PGP)Y'=\trans X'G'Y' \end{equation} La matrice $G'$ du produit scalaire relativement à la base $\mcal{B}'$ s'écrit : $$ G'=\trans{P}GP $$ %---------------------------------------------------------------------- \subsubsection{Cas d'une base orthonormale} %---------------------------------------------------------------------- Si $\mcal{U}=\nuple{u}$ est une base \emph{orthonormale} de $E$, alors $\scal{\vc u_i}{\vc u_j}=\delta_{i,j}$ et la matrice du produit scalaire relativement à la base \emph{orthonormale} $\mcal{U}$ est la matrice unité $I_n$. Si $\mcal{V}=\nuple{v}$ est une base \emph{orthogonale} de $E$, alors $\scal{\vc v_i}{\vc v_j}=\delta_{i,j}\norme{\vc v_i}^2$; la matrice du produit scalaire relativement à la base \emph{orthogonale} $\mcal{V}$ est la matrice diagonale $\mathrm{Diag}(\norme{\vc v_1}^2,\dots,\norme{\vc v_n}^2)$. %---------------------------------------------------------------------- \subsection{Base orthonormale} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsubsection{Leur existence} %---------------------------------------------------------------------- Tout espace euclidien (resp. hermitien) possède, au moins, une base orthonormale : l'orthonormalisation d'une base (quelconque) de $E$ donne le résultat. %---------------------------------------------------------------------- \subsubsection{Diverses expressions dans une base orthonormale} %---------------------------------------------------------------------- Considérons une base orthonormale $\mcal{U}=\nuple{\beps}$ de $E$. La composante $x_j$ de $\vc x$ suivant $\beps_j$ est $x_j=\scal{\beps_j}{\vc x}=\scal{\vc x}{\beps_j}$ et \begin{gather*} \vc x=\sum_{j=1}^n x_j\beps_j=\sum_{j=1}^n \scal{\beps_j}{\vc x}\beps_j \\ \Scal xy=\sum_{j,k=1}^n x_j y_k\scal{\beps_j}{\beps_k} =\sum_{j,k=1}^n x_j y_k\delta_{j,k}=\sum_{k=1}^n x_k y_k \\ \norme{\vc x}^2=\Scal xx=\sum_{k=1}^n x_k^2 \\ \dist^2(\vc x,\vc y)=\norme{\vc y-\vc x}^2=\sum_{k=1}^n(y_k-x_k)^2 \end{gather*} Dans le cas complexe, le lecteur mettra les barres de module et de conjugaison là où il faut ! %---------------------------------------------------------------------- \subsubsection{Isomorphisme de $E$ sur $\Mnp[n,1]{\R}$} %---------------------------------------------------------------------- La donnée d'une base orthonormale $\mcal{U}=\nuple{\beps}$ de $E$ permet de construire un isomorphisme de sur $\Mnp[n,1]{\R}$ muni de son produit scalaire naturel (canonique) : $$ \vc x\mapsto\mat[U](\vc x)=\trans\nuple{x}=X $$ %---------------------------------------------------------------------- \subsubsection{Matrice d'un endomorphisme relativement à une base orthonormale} %---------------------------------------------------------------------- Soient $u$ un endomorphisme de $E$ et $A=[a_{i,j}]=\mat[U](u)$ sa matrice relativement à une base orthonormale $\mcal{U}$ de $E$; le terme $a_{i,j}$, $i$\fup{e} composante du vecteur $u(\beps_j)$ relativement à la base $\mcal{U}$, se calcule par : $$ a_{i,j}=\scal{\beps_i}{u(\beps_j)} $$ %---------------------------------------------------------------------- \subsubsection{Caractérisation de la matrice d'un produit scalaire (réel)} %---------------------------------------------------------------------- \begin{Th} Soient $E$ un espace euclidien de dimension $n$, $\mcal{B}=\nuple{\vc e}$ une base (quelconque) de $E$ et $G$ une matrice symétrique réelle d'ordre $n$; alors $\Scal xy=\trans XGY$ définit un produit scalaire sur $E$ si, et seulement si, il existe une matrice inversible $P\in\GLn{\R}$ telle que $G=\trans PP$ \end{Th} \begin{proof}\alaligne \CN $G$ est la matrice du produit scalaire $\scal{\ }{\ }$ relativement à $\mcal{B}$. Si $\mcal{U}$ est une base orthonormale de $E$, et si $P=\mat(\mcal{U})$ est la matrice de passage de $\mcal{B}$ à $\mcal{U}$, $G'=\trans PGP$ est la matrice du produit scalaire relativement à $\mcal{U}$, donc $G'=I_n$ et $G=\trans P^{-1}P^{-1}$. \CS $(\vc x,\vc y)\mapsto \trans X\,\trans PP\,Y=\trans(PX)\,PY$ est une forme bilinéaire symétrique définie positive sur $E$, démonstration à rédiger. \end{proof} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsection{Supplémentaires orthogonaux} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsubsection{Leur existence} %---------------------------------------------------------------------- Tout sous-espace vectoriel $F$ de $E$ admet un supplémentaire orthogonal $F^\perp$, puisque $F$ est de dimension finie. D'autre part $\bigl(F^\perp\bigr)^\perp=F$. %---------------------------------------------------------------------- \subsubsection{Leur dimension} %---------------------------------------------------------------------- $\dim F^\perp=\dim E-\dim F$ %---------------------------------------------------------------------- \subsubsection{Leurs équations} %---------------------------------------------------------------------- Si $\puple{\vc f}$ est une base de $F$, ou plus généralement une famille génératrice de $F$, alors \begin{equation} \vc x\in F^\perp=\mcal{V}\mathrm{ect}\{\vc f_1,\dots,\vc f_p\}^\perp \iff \qqs j\in\Intf1p,\ \Scal{f_j}x=0 \end{equation} %---------------------------------------------------------------------- \subsubsection{Base orthonormale adaptée à un sous-espace vectoriel} %---------------------------------------------------------------------- Puisque $E=F\Somdir F^\perp$, on peut construire une base orthonormale de $E$, en réunissant une base orthonormale de $F$ et une base orthonormale de $F^\perp$; une telle base est appelée \emph{base orthonormale adaptée} à $F$. \begin{Th}[de la base orthonormale incomplète]\alaligne Toute famille orthonormale $\puple{\vc u}$ de $E$ peut être complétée en une base orthonormale $(\vc u_1,\dots,\vc u_p$, $\vc u_{p+1},\dots,\vc u_n)$ de $E$. \end{Th} \begin{proof} Il suffit d'appliquer la remarque précédente au sous-espace vectoriel $F$ engendré par $\puple{\vc u}$. \end{proof} %---------------------------------------------------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Adjoint d'un endomorphisme} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %---------------------------------------------------------------------- \subsection{Isomorphisme naturel (canonique) de $E$ sur son dual} %---------------------------------------------------------------------- \begin{Th}[Isomorphisme naturel de $E$ sur son dual]\alaligne L'application $\Phi : \vc x\in E\mapsto\scal{\vc x}{\cdot}$ réalise un isomorphisme de $E$ sur son dual $E^*$; on le qualifie de \emph{naturel} ou de \emph{canonique}. \end{Th} \begin{proof}\alaligne Pour tout $\vc x\in E$, $\Phi(\vc x)=\scal{\vc x}{\cdot} : \vc y\mapsto\Scal xy$ est une application linéaire de $E$ vers $\R$, \ie{} une forme linéaire sur $E$, \ie{} un élément de $E^*$. $\Phi$ est une application linéaire car, pour tout $\vc x_1$ et $\vc x_2$ dans $E$, pour tout $\la_1$ et $\la_2$ dans $\R$, on a l'égalité des applications $\scal{\la_1\vc x_1+\la_2\vc x_2}{\cdot}$ et $\la_1\scal{\vc x_1}{\cdot}+ \la_2\scal{\vc x_2}{\cdot}$. En effet, pour tout $\vc y$ dans $E$, $$ \scal{\la_1\vc x_1+\la\vc x_2}{\vc y} = \la_1\scal{\vc x_1}{\vc y}+\la_2\scal{\vc x_2}{\vc y} = \bigl[\Phi(\la_1\vc x_1+\la_2\vc x_2)\bigr](\vc y) $$ $\vc z\in\ker\bigl(\vc x\mapsto\scal{\vc x}{\cdot}\bigr)$ si, et seulement si, $\scal{\vc z}{\cdot}$ est la forme linéaire nulle, \ie{} $\qqs \vc y\in E$, $\Scal zy=0$, soit $\vc z=\vc 0$. L'application linéaire $\Phi$ est donc injective. $E$ et $E^*$ sont deux espaces vectoriels de même dimension finie; l'application linéaire injective $\Phi$ est donc un isomorphisme de $E$ sur $E^*$. \end{proof} %---------------------------------------------------------------------- \begin{Th}[de représentation de Riesz]\alaligne À toute forme linéaire $\vphi$ sur $E$ correspond un unique vecteur $\vc a$ de $E$ tel que $$ \qqs\vc y\in E,\ \vphi(\vc y)=\Scal ay $$ \end{Th} \begin{proof} Utilisons l'isomorphisme naturel $\Phi$ et posons $\vc a=\Phi^{-1}(\vphi)$. Ainsi $\vphi=\Phi(\vc a)=\scal{\vc a}{\cdot}$. \end{proof} %---------------------------------------------------------------------- \begin{Ex}\alaligne À toute forme linéaire $\vphi$ sur $\Mnp{\R}$ correspond une une unique matrice $A\in\Mnp{\R}$ qui \og représent\fg{} $\vphi$ pour le produit scalaire naturel (canonique) de $\Mnp{\R}$, soit $$ \qqs M\in\Mnp{\R},\ \vphi(M)=\tr(\trans AM) $$ \end{Ex} %---------------------------------------------------------------------- \subsubsection*{Produit vectoriel en dimension 3} %---------------------------------------------------------------------- Soit $E$ un espace vectoriel euclidien de dimension 3, orienté par la donnée d'une base orthonormale $\mcal{B}=(\vc i,\vc j,\vc k)$. Le produit mixte $$ [\vc x,\vc y,\vc z]=\det(\vc x,\vc y,\vc z) $$ est indépendant de la base orthonormale directe $\mcal{B}$ choisie. Pour $\vc x$ et $\vc y$ fixés dans $E$, l'application $\vc z\mapsto[\vc x,\vc y,\vc z]$ est une forme linéaire que l'on peut représenter à l'aide d'un vecteur $\vc w$que l'on note $\vc x\wedge\vc y$, et l'on a : $$ \qqs\vc z\in E,\ \scal{\vc x\wedge\vc y}{\vc z}=[\vc x,\vc y,\vc z]= \det(\vc x,\vc y,\vc z) $$ À l'aide de cette définition, on retrouve les propriétés habituelles du produit vectoriel. Pouvez-vous les démontrer? %---------------------------------------------------------------------- \subsection{Endomorphisme associé à une forme bilinéaire} %---------------------------------------------------------------------- \begin{Th} À toute forme bilinéaire $\Psi$ sur $E$ est associée un unique endomorphisme $u$ de $E$ tel que $$ \qqs(\vc x,\vc y)\in E,\ \Psi(\vc x,\vc y)=\scal{u(\vc x)}{\vc y} $$ $u$ est appelé \emph{endomorphisme naturel} (canonique) \emph{associé à la forme bilinéaire} $\Psi$. \end{Th} \begin{proof}\alaligne $\vc y\mapsto\Psi(\vc x,\vc y)$ est une forme linéaire sur $E$. Le théorème de représentation de Riesz montre l'existence d'un unique vecteur de $E$, que l'on note $u(\vc x)$, tel que \begin{equation} \qqs\vc y\in E,\ \Psi(\vc x,\vc y)=\scal{u(\vc x)}{\vc y} \end{equation} L'application $u$ est linéaire, car pour tout vecteur $\vc x_1$, $\vc x_2$ et $\vc y$, pour tout réel $\la_1$ et $\la_2$, on a \begin{align*} \scal{u(\la_1\vc x_1+\la_2\vc x_2)}{\vc y} &= \Psi(\la_1\vc x_1+\la_2\vc x_2,\vc y)=\la_1\Psi(\vc x_1,\vc y) + \la_2\Psi(\vc x_2,\vc y) \\ &= \la_1\scal{u(\vc x_1)}{\vc y} + \la_2\scal{u(\vc x_2)}{\vc y} \\ &= \scal{\la_1u(\vc x_1)+\la_2u(\vc x_2)}{\vc y} \end{align*} L'unicité de la représentation de Riesz montre l'égalité entre $u(\la_1\vc x_1+\la_2\vc x_2)$ et $\la_1 u(\vc x_1)+\la_2 u(\vc x_2)$. \end{proof} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsection{Adjoint d'un endomorphisme} %---------------------------------------------------------------------- \begin{Th}[Existence et unicité de l'adjoint]\alaligne À tout endomorphisme $u$ de $E$ est associé un unique endomomorphisme de $E$ noté $u^*$ tel que \Reponse{$\dps \qqs(\vc x,\vc y)\in E^2,\ \scal{u^*(\vc x)}{\vc y}=\scal{\vc x}{u(\vc y)} $} L'endomorphisme $u^*$ est appelé \emph{l'adjoint de} $u$. \end{Th} \begin{proof} $u^*$ est l'endomorphisme naturel (canonique) associé à la forme bilinéaire symétrique \begin{equation} \Psi : \vc x\in E\mapsto\scal{\vc x}{u(\vc y)} \end{equation} Cher lecteur, la vérification de la bilinéarité de $\Psi$ est laissée à votre initiative. \end{proof} %---------------------------------------------------------------------- \begin{Th}[Matrice de l'adjoint dans une base orthonormale]\alaligne Si $\mcal{B}$ est une base \textbf{orthonormale} de $E$, alors $$ \mat(u^*)=\trans\mat(u) $$ \end{Th} \begin{proof} Appelons $\nuple{\vc e}$ les vecteurs de la base orthonormale $\mcal{B}$ de $E$; alors $$ \bigl(\mat(u^*)\bigr)_{i,j}=\scal{\vc e_i}{u^*(\vc e_j)} =\scal{e_j}{u(\vc e_i)}=\bigl(\mat(u)\bigr)_{j,i} $$ ce qui donne l'égalité annoncée. \end{proof} %---------------------------------------------------------------------- \begin{Prop}[Règles de calcul]\alaligne Si $u$ et $v$ sont des endomorphismes de $E$ et $\la$ un réel, alors \begin{prop} \item $(u+v)^*=u^*+v^*$; $(\la u)^*=\la\,u^*$; $(u^*)^*=u$; ainsi $u\mapsto u^*$ est un automorphisme involutif de $\LE$; \item $(u\circ v)^*=v^*\circ u^*$; $(I_E)^*=I_E$; \item $u\in\GLE\iff u^*\in\GLE$ et, dans ce cas, $(u^*)^{-1}=(u^{-1})^*$; \item $\tr(u^*)=\tr u$ et $\det(u^*)=\det u$. \end{prop} \end{Prop} \begin{proof} Si $\vc x$ et $\vc y$ sont des vecteurs de $E$, alors \begin{demprop} \monitem $\scal{(u+v)^*(\vc x)}{\vc y}=\scal{\vc x}{(u+v)(\vc y)} =\scal{\vc x}{u(\vc y)}+\scal{\vc x}{v(\vc y)} =\scal{u^*(\vc x)}{\vc y}+\scal{v^*(\vc x)}{\vc y} =\scal{u^*(\vc x)+v^*(\vc x)}{\vc y} = \scal{(u^*+v^*)(\vc x)}{\vc y}$; l'unicité de la représentation de Riesz montre l'égalité entre $(u+v)^*(\vc x)$ et $(u^*+v^*)(\vc x)$, ceci pour tout $\vc x$, donc l'égalité des applications $(u+v)^*$ et $u^*+v^*$. \\ % $\scal{(\la u)^*(\vc x)}{\vc y}=\scal{\vc x}{\bigl(\la u\bigr)(\vc y)} =\la\scal{\vc x}{u(\vc y)}=\la\scal{u^*(\vc x)}{\vc y} =\scal{\la u^*(\vc x)}{\vc y}$; l'unicité de la représentation de Riesz montre l'égalité entre $(\la u)^*(\vc x)$ et $\la u^*(\vc x)$, ceci pour tout $\vc x$, donc l'égalité des applications $(\la u)^*$ et $\la u^*$. \\ % $\scal{(u^*)^*(\vc x)}{\vc y}=\scal{\vc x}{u^*(\vc y)} =\scal{u(\vc x)}{\vc y}$; et, d'après l'unicité de la repré\dots, l'égalité des applications $(u^*)^*$ et $u$ est démontrée. Ainsi, $u\mapsto u^*$ est une application linéaire qui est son propre inverse; $u\mapsto u^*$ est une involution. \monitem $\scal{\bigl(u\circ v\bigr)^*(\vc x)}{\vc y}=\scal{\vc x}{u\bigl(v(\vc y)\bigr)} =\scal{u^*(\vc x)}{v(\vc y)}=\scal{v^*\circ u^*(\vc x)}{\vc y}$; d'où l'égalité des applications $(u\circ v)^*$ et $v^*\circ u^*$. \\ % $\scal{\bigl(I_E^*\bigr)(\vc x)}{\vc y}=\scal{\vc x}{I_E(\vc y)} =\scal{\vc x}{\vc y}=\scal{I_E(\vc x)}{\vc y}$ et $(I_E)^*=I_E$. \monitem $u\circ v=v\circ u=I_E\implique v^*\circ u^*=u^*\circ v^*=(I_E)^*=I_E$; ceci montre l'implication $u\in\GLE\implique u^*\in\GLE$ et l'égalité de $v^*=(u^{-1})^*$ avec $(u^*)^{-1}$. L'égalité $(u^*)^*=u$ montre la réciproque. \monitem Si $\mcal{B}$ est une base \emph{orthonormale} de $E$, la matrice de $u^*$ relativement à $\mcal{B}$ est la transposée de la matrice de $u$ relativement à la même base; ces matrices ont la même trace et le même déterminant; $u$ et $u^*$ ont donc même trace et même déterminant. \end{demprop} \end{proof} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsection{Adjoint et stabilité} %---------------------------------------------------------------------- \begin{Th} Si $u$ est un endomorphisme de $E$, alors, \begin{prop} \item $\ker u^*=\bigl(\im u\bigr)^\perp$, $\im u^*=\bigl(\ker u\bigr)^\perp$ et $\rg u^*=\rg u$; \item soit $F$ un sous-espace vectoriel de $E$; $F$ est stable par $u$ si, et seulement si, $F^\perp$ est stable par $u^*$. \end{prop} \end{Th} \begin{proof}\alaligne \begin{demprop} \monitem $\vc x\in\ker u^*\iff u^*(\vc x)=\vc 0 \iff\qqs\vc y\in E,\ 0=\scal{u^*(\vc x)}{\vc y}=\scal{\vc x}{u(\vc y)} \iff\vc x\in\bigl(\im u\bigr)^\perp$ On applique l'égalité précédente à $u^*$ et on trouve : $\bigl(\im u^*\bigr)^\perp=\ker(u^*)^*=\ker u$; en prenant les orthogonaux, on obtient l'égalité annocée. \\ % $\rg u^*=\dim\bigl(\im u^*\bigr)=\dim\bigl(\ker u^\perp\bigr) =\dim E-\dim(\ker u)=\rg u$; \monitem si $F$ est stable par $u$, alors, pour tout $\vc y\in F$, $u(\vc y)\in F$. Si $\vc x\in F^\perp$, alors, pour tout $\vc y\in F$, $0=\scal{\vc x}{u(\vc y)}=\scal{u^*(\vc x)}{\vc y}$, ce qui montre que $u^*(\vc x)\in F^\perp$; ainsi, $F^\perp$ est stable par $u^*$. Si $F^\perp$ est stable par $u^*$, $(F^\perp)^\perp=F$ est stable par $(u^*)^*=u$. \end{demprop} \end{proof} %---------------------------------------------------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Endomorphisme auto-adjoint} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %---------------------------------------------------------------------- \subsection{Généralités} %---------------------------------------------------------------------- \begin{Dfs}[Endomorphisme auto-adjoint ou symétrique, anti-symétrique]\alaligne Si $u$ est un endomorphisme d'un espace euclidien $E$, $u$ est dit \emph{auto-adjoint} ou \emph{symétrique} si $$ \qqs(\vc x,\vc y)\in E^2,\ \scal{u(\vc x)}{\vc y}=\scal{\vc x}{u(\vc y)} $$ $u$ est dit \emph{anti-symétrique} si $$ \qqs(\vc x,\vc y)\in E^2,\ \scal{u(\vc x)}{\vc y}=-\scal{\vc x}{u(\vc y)} $$ On note $\SE$ l'ensemble des endomorphismes auto-adjoints ou symétriques et $\ASE$ l'ensemble des endomorphismes antisymétriques. \end{Dfs} \begin{Th}[Caractérisation des endomorphismes auto-adjoints]\alaligne Si $u$ est un endomorphisme d'un espace euclidien $E$, les assertions suivantes sont équivalentes : \begin{prop} \item $u$ est auto-adjoint; \item $u=u^*$; \item pour toute base \emph{orthonormale} $\mcal{B}$ de $E$, la matrice de $u$ relative à $\mcal{B}$ est symétrique; \item il existe une base \emph{orthonormale} $\mcal{B}$ de $E$ telle que la matrice de $u$ relative à $\mcal{B}$ soit symétrique; \end{prop} \end{Th} \begin{proof} $u\text{ est auto-adjoint }\iff\qqs(\vc x,\vc y)\in E^2,\ \scal{u(\vc x)}{\vc y}=\scal{\vc x}{u(\vc y)}=\scal{u^*(\vc x)}{\vc y} \iff u=u^*$, ce qui montre l'équivalence des deux premières assertions. \Implique23 Les matrices de $u$ et $u^*$, relatives à $\mcal{B}$, sont égales puisque $u=u^*$; d'autre part, $\mat(u^*)=\trans\mat(u)$ puisque $\mcal{B}$ est une base orthonormale. \Implique34 Qui peut le plus, peut le moins. \Implique42 Les égalités $\mat(u)=\trans\mat(u)=\mat(u^*)$ montrent que $u=u^*$. \end{proof} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsubsection*{Endomorphisme symétrique et matrice symétrique réelle} %---------------------------------------------------------------------- Si $S$ est une matrice symétrique réelle d'ordre $n$, l'endomorphisme $u_S$ associé à $S$, est un endomorphisme auto-adjoint (symétrique) de $\Mnp[n,1]{\R}$ muni de son produit scalaire naturel (canonique). En effet : \begin{equation} \scal{u_S(X)}{Y}=\trans(SX)Y=\trans X\trans SY=\trans XSY =\scal{X}{SY}=\scal{X}{u_S(Y)} \end{equation} Soient $E$ un espace euclidien et $\mcal{B}$ une base orthonormale de $E$; à toute matrice symétrique réelle d'ordre $n$, on associe l'endomorphisme $u_S$ de $E$, de matrice $S$ relativement à $\mcal{B}$; $u_S$ est un endomorphisme auto-adjoint (symétrique) de $E$ car \begin{equation} \scal{u_S(\vc x)}{\vc y}=\trans(SX)Y=\trans XSY =\scal{\vc x}{u_S(\vc y)} \end{equation} Tout ceci donne la \begin{Prop} Si $\mcal{B}$ est une base orthonormale d'un espace euclidien $E$, l'application $u\mapsto\mat(u)$ réalise un isomorphisme du $\R$-espace vectoriel $\SE$ des endomorphismes auto-adjoints (symétriques), sur le $\R$-espace vectoriel $\SnR$ des matrices symétriques réelles d'ordre $n$, et $$ \dim\SE=\dim\SnR=\ra{n(n+1)}2 $$ \end{Prop} %---------------------------------------------------------------------- \begin{Th}[Caractérisation des endomorphismes antisymétriques]\alaligne Si $u$ est un endomorphisme d'un espace euclidien $E$, les assertions suivantes sont équivalentes : \begin{prop} \item $u$ est antisymétrique; \item $u^*=-u$; \item pour toute base \emph{orthonormale} $\mcal{B}$ de $E$, la matrice de $u$ relative à $\mcal{B}$ est antisymétrique; \item il existe une base \emph{orthonormale} $\mcal{B}$ de $E$ telle que la matrice de $u$ relative à $\mcal{B}$ soit antisymétrique; \end{prop} \end{Th} \begin{proof} La démonstration ressemble comme une goutte d'eau à la démonstration précédente; elle est laissée aux soins de la lectrice ou du lecteur. \end{proof} %---------------------------------------------------------------------- \begin{Prop} Si $\mcal{B}$ est une base orthonormale d'un espace euclidien $E$, l'application $u\mapsto\mat(u)$ réalise un isomorphisme du $\R$-espace vectoriel $\ASE$ des endomorphismes antisymétriques, sur le $\R$-espace vectoriel $\AnR$ des matrices antisymétriques réelles d'ordre $n$, et $$ \dim\ASE=\dim\AnR=\ra{n(n-1)}2 $$ \end{Prop} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsection{Projecteur orthogonal} %---------------------------------------------------------------------- \begin{Df}[Projecteur orthogonal]\alaligne Si $F$ est un sous-espace vectoriel d'un espace euclidien $E$, le projecteur $p_F$ d'image $F$, parallèlement à $F^\perp$, est appelé \emph{projecteur orthogonal} de $E$ sur $F$. \end{Df} \begin{Prop}[Expression analytique d'un projecteur orthogonal]\alaligne Si $\Nuple{\vc u}{r}$ est une base \emph{orthonormale} de $F$, on a $$ \qqs\vc x\in E,\ p_F(\vc x)=\sum_{j=1}^r\scal{\vc u_j}{\vc x}\,\vc u_j $$ Cas d'une droite $\mcal{D}=\R\vc a$ : $\dps p_{\mcal{D}} : \vc x\mapsto\ra{\Scal ax}{\norme{\vc a}^2}\vc a$ \\ Cas d'un hyperplan $\mcal{H}=\{\vc a\}^\perp$ : $\dps p_{\mcal{H}}=I_E-p_{\mcal{D}} : \vc x\mapsto\vc x - \ra{\Scal ax}{\norme{\vc a}^2}\vc a$ \end{Prop} %---------------------------------------------------------------------- \begin{Prop}[Expression matricielle d'un projecteur orthogonal]\alaligne Si $\mcal{B}$ est une base orthonormale de $E$, si $\Nuple{\vc u}{r}$ est une base \emph{orthonormale} de $F$ et si $U_j=\mat(\vc u_j)$ est le vecteur-colonne des composantes de $\vc u_j$ relativement à $\mcal{B}$, alors $$ \mat(p_F)=\sum_{j=1}^r U_j\trans U_j $$ \end{Prop} \begin{proof} Appelons $P_F=\mat(p_F)$ la matrice de $p_F$ relative à $\mcal{B}$. L'égalité $p_F(\vc x)=\sum_{j=1}^r\scal{\vc u_j}{\vc x}\,\vc u_j$ s'écrit matriciellement $P_FX=\sum_{j=1}^r\bigl(\trans U_j X\bigr)U_j$. Or, $\trans U_j X$ est un nombre réel ou plutôt une matrice de taille $1\times1$ qui commute avec toute matrice. Ainsi $$ PX=\sum_{j=1}^r U_j\bigl(\trans U_j X\bigr) =\sum_{j=1}^r \bigl(U_j\trans U_j \bigr) X =\Bigl(\sum_{j=1}^r U_j\trans U_j \Bigr) X $$ \end{proof} %---------------------------------------------------------------------- \begin{Th}[Caractérisation des projecteurs orthogonaux parmi les projecteurs]\alaligne Si $p$ est un projecteur d'un espace euclidien $E$, $p$ est un projecteur orthogonal si, et seulement si, $p$ est auto-adjoint (symétrique). \end{Th} \begin{proof} Tout projecteur $p$ est la projection de $E$ sur $\im p$, parallèlement à $\ker p$. \CN Soit $p$ le projecteur orthogonal sur $\im p$ parallèlement à $(\im p)^\perp$; dans une base orthonormale $\mcal{B}$ adaptée à la somme directe orthogonale $E=\im p\somdir (\im p)^\perp$, la matrice de $p$ relative à $\mcal{B}$ est la matrice diagonale par blocs $\mathrm{Diag}(I_r,0_{n-r})$ où $r$ est le rang de $p$. Cette matrice est symétrique réelle, donc $p$ est auto-adjoint. \CS Si $p$ est auto-adjoint, $\ker p=\ker p^*=(\im p)^\perp$ et $p$ est le projecteur de $E$ sur $\im p$ et parallèlement à $(\im p)^\perp$; $p$ est un projecteur orthogonal. \end{proof} %---------------------------------------------------------------------- \begin{Prop}[Interprétation matricielle]\alaligne Soient $p$ un endomorphisme d'un espace euclidien $E$, $\mcal{B}$ une base \emph{orthonormale} de $E$ et $M=\mat(p)$ la matrice de $p$ relative à $\mcal{B}$; alors, $p$ est un projecteur orthogonal si, et seulement si, $M\in\SnR$ et $M^2=M$. \end{Prop} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsection{Symétrie orthogonale} %---------------------------------------------------------------------- \begin{Df}[Symétrie orthogonale]\alaligne Si $F$ est un sous-espace vectoriel d'un espace euclidien $E$, la symétrie par rapport à $F$ et parallèlement à $F^\perp$ est appelée \emph{symétrie orthogonale} par rapport à $F$. \end{Df} %---------------------------------------------------------------------- \begin{Prop}[Symétrie et projecteur orthogonaux]\alaligne Soient $F$ un sous-espace vectoriel d'un espace euclidien, $s_F$ la symétrie orthogonale par rapport à $F$ et $p_F$ le projecteur orthogonal d'image $F$; alors : $$ s_F+I_E=2p_F $$ Cas d'une droite $\mcal{D}=\R\vc a$ : $\dps s_{\mcal{D}}=2p_{\mcal{D}}-I_E : \vc x\mapsto2\ra{\Scal ax}{\norme{\vc a}^2}\vc a-\vc x$ \\ Cas d'un hyperplan ${\mcal{H}}=\{\vc a\}^\perp$ : $\dps s_{\mcal{H}}=2p_{\mcal{H}}-I_E=-s_{\mcal{D}} : \vc x\mapsto\vc x - 2\ra{\Scal ax}{\norme{\vc a}^2}\vc a$ \end{Prop} \begin{proof} Faire un dessin et se rappeler des propriétés de la diagonale d'un parallélogramme, qui est un losange dans notre cas. \end{proof} %---------------------------------------------------------------------- \begin{Th}[Caractérisation des syméties orthogonales parmi les symétries]\alaligne Si $s$ est une symétrie d'un espace euclidien $E$, $s$ est une symétrie orthogonale si, et seulement si, $s$ est auto-adjoint (symétrique). \end{Th} \begin{proof} Toue symétrie, \ie{} tout endomorphisme $s$ de $E$ vérifiant $s\circ s=I_E$, est la symétrie par rapport à $\ker(s-I_E)$ (espace des invariants) parallèlement à $\ker(s+I_E)$ qui est identique à $\im(s-I_E)$ dans ce cas. \CN Soit $s$ la symétrie orthogonale par rapport à $F$; dans une base orthonormale $\mcal{B}$ adaptée à la somme directe orthogonale $E=F\somdir F^\perp$, la matrice de $s$ relative à $\mcal{B}$ est la matrice diagonale par blocs $\mathrm{Diag}(I_r,-I_{n-r})$ où $r$ est la dimension de $F$. Cette matrice est symétrique réelle, donc $s$ est auto-adjoint. \CS Si $s$ est auto-adjoint, alors $\ker(s+I_E)=\ker(s^*+I_E)=\ker(s+I_E)^*=\bigl(\im(s+I_E)\bigr)^\perp =\bigl(\ker(s-I_E)\bigr)^\perp$; $s$ est la symétrie orthogonale par rapport à $\ker(s-I_E)$. \end{proof} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsection{Endomorphisme symétrique positif, défini positif} %---------------------------------------------------------------------- \begin{Df}[Endomorphisme symétrique positif, défini positif]\alaligne Soit $u$ un endomorphisme auto-adjoint (symétrique) d'un espace euclidien $E$; $u$ est dit \emph{positif}~si $$ \qqs\vc x\in E,\ \scal{u(\vc x)}{\vc x}\geq 0 $$ $u$ est dit \emph{ défini positif} si $$ \qqs\vc x\in E\setminus\{\vc 0\},\ \scal{u(\vc x)}{\vc x}>0 $$ \end{Df} \begin{Prop}[Endomorphisme symétrique défini positif et automorphisme]\alaligne Tout endomorphisme symétrique défini positif est un automorphisme de $E$. \end{Prop} \begin{proof} Le noyau d'un endomorphisme $u$ symétrique défini positif est réduit à $\{\vc 0\}$ car $\vc x\neq\vc 0\implique\scal{u(\vc x)}{\vc x}>0$, donc $u(\vc x)\neq\vc 0$. En dimension finie, ceci montre que $u$ est application linéaire inversible, \ie{} un automorphisme. \end{proof} %---------------------------------------------------------------------- \begin{Df}[Matrice symétrique positive, définie positive]\alaligne Soit $A\in\SnR$ une matrice symétrique réelle d'ordre $n$; \\ $A$ est dite \emph{positive} si $$ \qqs X\in\Mnp[n,1]{\R},\ \trans XAX\geq 0 $$ $A$ est dite \emph{définie positive} si $$ \qqs X\in\Mnp[n,1]{\R}\setminus\{0\},\ \trans XAX>0 $$ \end{Df} \begin{Prop}[Matrice symétrique positive et endomorphisme associé]\alaligne Si $A\in\SnR$ est une matrice symétrique et $u_A : X\mapsto AX$ l'endomrphisme auto-adjoint (symétrique) de $\Mnp[n,1]{\R}$ muni de son produit scalaire naturel, alors \begin{prop} \item $A\text{ est positive }\iff u_A\text{ est positif;}$ \item $A\text{ est définie positive }\iff u_A\text{ est défini positif.}$ \end{prop} \end{Prop} \begin{proof} Remarquons que $\scal{u_A(X)}{X}=\trans(XA)X=\trans XAX$, puisque $A$ est symétrique. \end{proof} %---------------------------------------------------------------------- \begin{Prop}[Cas des matrices diagonales]\alaligne Si $D=\diag{\la}$ est une matrice diagonale à coefficients réels, alors \begin{prop} \item $D\text{ est positive }\iff\qqs i\in\Intf1n,\ \la_i\geq0$ \item $D\text{ est définie positive }\iff\qqs i\in\Intf1n,\ \la_i>0$ \end{prop} \end{Prop} \begin{proof} Soit $X=\trans\nuple{x}$; alors $\trans XDX=\sum_{i=1}^n \la_i x_i^2$ et \begin{gather*} \qqs X\in\Mnp[n,1]{\R},\ \trans XDX=\sum_{i=1}^n \la_i x_i^2\geq0 \iff\qqs i\in\Intf1n,\ \la_i\geq0 \\ \qqs X\in\Mnp[n,1]{\R}\setminus\{0\},\ \trans XDX=\sum_{i=1}^n \la_i x_i^2>0 \iff\qqs i\in\Intf1n,\ \la_i>0 \\ \end{gather*} \end{proof} %---------------------------------------------------------------------- \begin{Prop}[Cas des adjoints]\alaligne Si $u$ est un endomorphisme d'un espace euclidien $E$, alors \begin{prop} \item $u^*\circ u$ et $u\circ u^*$ sont des endomorphismes symétriques positifs, $\ker(u^*\circ u)=\ker u$ et $\ker(u\rond u^*)=\ker u^*$; \item $u\rond u^*$ (resp. $u^*\rond u$) est défini positif si, et seulement si, $u$ est inversible. \end{prop} \end{Prop} \begin{proof}\alaligne \begin{demprop} \monitem $\qqs\vc x\in E$, $\scal{u^*\rond u(\vc x)}{\vc x}=\scal{u(\vc x)}{u(\vc x)} =\norme{u(\vc x)}^2\geq 0$ et $\scal{u\rond u^*(\vc x)}{\vc x}=\scal{u^*(\vc x)}{u^*(\vc x)} =\norme{u^*(\vc x)}^2\geq 0$; ainsi, $u^*\rond u$ et $u\rond u^*$ sont positifs. \\ $\vc x\in\ker(u\rond u^*)\iff u^*\rond u(\vc x)=\vc 0\implique 0=\scal{u^*\rond u(\vc x)}{\vc x}=\norme{u(\vc x)}^2\iff u(\vc x)=\vc 0 \iff\vc x\in\ker u$, ce qui montre l'inclusion $\ker (u^*\rond u)\subset\ker u$; puisque $\ker u\subset\ker(u^*\rond u)$, l'égalité annoncée est démontrée par double inclusion. \\ Changeons $u$ en $u^*$ dans l'égalité précédente : $\ker u^*=\ker\bigl((u^*)^*\rond u^*\bigr)=\ker(u\rond u^*)$. \monitem Si $u^*\rond u$ est défini positif, $u^*\rond u$ est inversible et $\{\vc 0\}=\ker(u^*\rond u)=\ker u$, ce qui montre que $u$ est inversible. \\ Réciproquement, si $u$ est inversible, $u^*$ est inversible, et, par composition, $u^*\rond u$ aussi. La démonstration est identique dans l'autre cas. \end{demprop} \end{proof} %---------------------------------------------------------------------- \begin{Prop}[Traduction matricielle]\alaligne Si $A\in\Mn{\R}$ est une matrice carrée, à coefficients réels et d'ordre $n$, alors \begin{prop} \item $\trans AA$ et $A\trans A$ sont des matrices symétriques positives, $\ker(\trans AA)=\ker A$ et $\ker(A\trans A)=\ker\trans A$; \item $\trans AA$ (resp. $A\trans A$) est définie positive si, et seulement si $\det A\neq0$. \end{prop} \end{Prop} \begin{proof} Appliquons la proposition précédente à l'endomormorphisme $u_A$ de $\Mnp[n,1]{\R}$ associé à $A$, en utilisant les relations $(u_A)^*=u_{\trans A}$, $(u_A)^*\rond u_A=u_{\trans A}\rond u_A=u_{\trans AA}$, \dots \end{proof} %---------------------------------------------------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Automorphismes orthogonaux} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% $E$ est soit un espace préhilbertien réel, soit un espace euclidien de dimension $n$; son produit scalaire est noté $\scal{\ }{\ }$. %---------------------------------------------------------------------- \subsection{Généralités} %---------------------------------------------------------------------- \begin{Lem}[Conservation de la norme, conservation du produit scalaire]\alaligne Si $E$ est un espace préhibertien réel et $u$ une application de $E$ vers $E$, les propriétés suivantes sont équivalentes : \begin{prop} \item l'application $u$ est linéaire et conseve la norme, \ie{} $\qqs\vc x\in E$, $\norme{u(\vc x)}=\norme{\vc x}$; \item l'application $u$ conserve le produit scalaire, \ie{} $\qqs(\vc x,\vc y)\in E$, $\scal{u(\vc x)}{u(\vc y)}=\Scal xy$. \end{prop} \end{Lem} \begin{proof}\alaligne \Implique12 De l'identité $4\Scal uv=\norme{\vc u+\vc v}^2-\norme{\vc u-\vc v}^2$, on tire que : \begin{align*} 4\scal{u(\vc x)}{u(\vc y)} &= \norme{u(\vc x)+u(\vc y)}^2-\norme{u(\vc x)-u(\vc y)}^2 \\ &= \norme{u(\vc x+\vc y)}^2-\norme{u(\vc x-\vc y)}^2 \qquad\text{$u$ est linéaire} \\ &= \norme{\vc x+\vc y}^2-\norme{\vc x-\vc y}^2 \qquad\text{$u$ conserve la norme} \\ &= 4\Scal xy \end{align*} \Implique21 Si $u$ conserve le produit scalaire, $u$ conserve la norme : faire $\vc y=\vc x$. Montrer la linéarité de $u$, c'est montrer que $\qqs(\vc x,\vc y,\la)\in E^2\times\R$, le vecteur $u(\la\vc x+\vc y)-\la u(\vc x)-u(\vc y)$ est le vecteur nul, \ie{} de norme nulle. De l'identité $$ \norme{\vc u+\vc v+\vc w}^2= \norme{\vc u}^2+\norme{\vc v}^2+\norme{\vc w}^2+2\Scal uv+2\Scal vw+2\Scal wu $$ on tire : \begin{align*} \norme{u(\la\vc x+ &\vc y)-\la u(\vc x)-u(\vc y)}^2 = \norme{u(\la\vc x+\vc y)}^2+\la^2\norme{u(\vc x)}+\norme{u(\vc y)}^2 \\ &\phantom{u(\la\vc x} -2\la\scal{u(\la\vc x+\vc y)}{u(\vc x)}+2\la\scal{u(\vc x)}{u(\vc y)} -2\scal{u(\vc y)}{u(\la\vc x+\vc y)} \\ &= \norme{\la\vc x+\vc y}^2+\la^2\norme{\vc x}+\norme{\vc y}^2 -2\la\scal{\la\vc x+\vc y}{\vc x}+2\la\scal{\vc x}{\vc y} -2\scal{\vc y}{\la\vc x+\vc y} \\ &= \norme{\la\vc x+\vc y}^2+\norme{\la\vc x}+\norme{\vc y}^2 -2\scal{\la\vc x+\vc y}{\la\vc x}+2\scal{\la\vc x}{\vc y} -2\scal{\vc y}{\la\vc x+\vc y} \\ &= \norme{(\la\vc x+\vc y)-\la\vc x-\vc y}^2=0 \end{align*} \end{proof} %---------------------------------------------------------------------- \begin{Lem}[Conservation de la norme et injectivité]\alaligne Soit $u$ un endomorphisme d'un espace préhilbertien réel $E$; si $u$ conserve la norme, alors $u$ est une injection. \end{Lem} \begin{proof} Il suffit de montrer que le noyau de $u$ est réduit à $\{\vc 0\}$ : $u(\vc x)=\vc 0\iff\norme{u(\vc x)}=0\iff\norme{\vc x}=0\text{ ($u$ conserve la norme)}\iff\vc x=\vc 0$. \end{proof} %---------------------------------------------------------------------- \begin{Cor} Soit $u$ un endomorphisme d'un espace euclidien $E$; si $u$ conserve la norme, alors $u$ est une bijection. \end{Cor} \begin{proof} Tout endomorphisme injectif dans un espace vectoriel de dimension finie est bijectif, donc un automorphisme. \end{proof} %---------------------------------------------------------------------- \begin{Dfs}[Automorphisme orthogonal]\alaligne Soit $u$ un endomorphisme d'un espace euclidien $E$; on dit que $u$ est un \emph{automorphisme orthogonal} si $u$ conserve la norme. L'ensemble des automorphismes orthogonaux de $E$ est noté $\OrE$. $\OrE[\R^n]=\OnR{\R}$ désigne l'ensemble des automorphismes orthogonaux de $\R^n$ muni de son produit scalaire naturel (canonique). \Reponse{$ u\in\OrE\iff u\in\LE \et \qqs\vc x\in E,\ \norme{u(\vc x)}=\norme{\vc x} $} \end{Dfs} \begin{NBs}\alaligne Le lemme précédent montre que les endomorphismes d'un espace euclidien qui conservent la norme sont des automorphismes. Si $u$ conserve le produit scalaire d'un espace euclidien, $u$ est nécessairement linéaire et conserve la norme; $u$ est donc un automorphisme orthogonal. \end{NBs} \begin{Th}[Caractérisation des automorphismes orthogonaux]\alaligne Si $u$ est un endomorphisme d'un espace euclidien $E$, les assertions suivantes sont équivalentes : \begin{prop} \item $u\in\OrE$; \item $u$ conserve le produit scalaire et donc l'orthogonalité et les angles; \item $u^*\rond u=I_E$; \item $u\rond u^*=I_E$; \item $u\in\GLE$ et $u^{-1}=u^*$; \item l'image par $u$ de toute base orthonormale de $E$ est une base orthonormale de $E$; \item l'image par $u$ d'une base orthonormale de $E$ est une base orthonormale de $E$. \end{prop} \end{Th} \begin{proof}\alaligne \Implique12 Le lemme 1 montre la conservation de la norme; \\ $\vc x\perp\vc y\iff\Scal xy=0\implique\scal{u(\vc x)}{u(\vc y)}=\Scal xy=0$, puisque $u$ conserve le produit scalaire $\iff u(\vc x)\perp u(\vc y)$ \\ $\dps\cos\bigl(u(\vc x),u(\vc y)\bigr) =\ra{\scal{u(\vc x)}{u(\vc y)}}{\norme{u(\vc x)}\,\norme{\vc y}} =\ra{\Scal xy}{\norme{\vc x}\,\norme{\vc y}}=\cos(\vc x,\vc y)$ \Iff23 $\qqs(\vc x,\vc y)\in E^2,\ \scal{u^*\rond u(\vc x)}{\vc y}=\scal{u(\vc x)}{u(\vc y)}=\Scal xy \iff u^*\rond u=I_E$ \Iff35 $I_E=u^*\rond u\implique 1=\det I_E=\det u^*\det u$; ainsi $\det u\neq0$, $u$ est inversible et $u^{-1}=u^*$. La réciproque est évidente. \Iff45 Même démonstration. \Implique26 Si $\mcal{B}=(\vc e_1,\dots,\vc e_n)$ est une base orthonormale de $E$, alors, puisque $u$ conserve le produit scalaire, $\scal{u(\vc e_i)}{u(\vc e_j)}=\scal{e_i}{e_j}=\delta{i,j}$. La famille $\bigl(u(e_1),\dots,u(e_n)\bigr)$ est une famille orthonormale de $E$, maximale, donc une base orthonormale de $E$. \Implique67 Un espace euclidien admet une base orthonormale. \Implique71 Appelons $\mcal{B}=(\vc e_1,\dots,\vc e_n)$ est une base orthonormale de $E$. Si $\vc x=\sum_{j=1}^n x_j\vc e_j$ est un vecteur de $E$, alors $u(\vc x)=\sum_{j=1}^n x_j u(\vc e_j)$ et \begin{gather*} \norme{\vc x}^2=\scal{\sum_{j=1}^n x_j\vc e_j}{\sum_{k=1}^n x_k\vc e_k} =\sum_{j,k} x_j x_k\scal{\vc e_j}{\vc e_k}=\sum_{j=1}^n x_j^2 \\ \norme{u(\vc x)}^2=\scal{\sum_{j=1}^n x_j u(\vc e_j)}{\sum_{k=1}^n x_k u(\vc e_k)} =\sum_{j,k} x_j x_k\scal{u(\vc e_j)}{u(\vc e_k)}=\sum_{j=1}^n x_j^2 \end{gather*} puisque $\mcal{B}$ et $u(\mcal{B})$ sont deux bases orthonormales; ainsi $u$ conserve la norme. \end{proof} %---------------------------------------------------------------------- \begin{Th}[Traduction matricielle]\alaligne Soient $E$ un espace euclidien, $\mcal{B}$ une base orthonormale de $E$, $u$ un endomorphisme de $E$ et $A$ la matrice de $u$ relative à $\mcal{B}$; Les assertions suivantes sont équivalentes : \begin{prop} \item $u\in\OrE$; \item $\trans AA=I_n$; \item $A\trans A=I_n$; \item $A\in\GLn{\R}$ et $A^{-1}=\trans A$. \end{prop} \end{Th} \begin{proof} La traduction matricielle de $u^*\rond u=I_E$ est $\mat(u^*\rond u)=\mat(I_E)$, ce qui devient $\trans AA=I_n$; ainsi $i.\iff ii.$. Les autres équivalences traduisent \og$u\rond u^*=I_E$\fg{} et \og$u\in\GLE,u^{-1}=u^*$\fg. \end{proof} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsection{Exemples} %---------------------------------------------------------------------- %-------------------------------------------------- \subsubsection{Symétrie orthogonale} %-------------------------------------------------- Rappelons que $s$ est une symétrie orthogonale si, et seulement si, $s\rond s=I_E$ et $s=s^*$; ainsi $s=s^{-1}=s^*$ et toute symétrie orthogonale est un automorphisme orthogonal. Un autre argument aurait pu être employé : les symétries orthogonales conservent la norme. %-------------------------------------------------- \subsubsection{Réflexion} %-------------------------------------------------- \begin{Lem} Si $\vc a$ et $\vc b$ sont deux vecteurs d'un espace préhilbertien $E$, alors $\vc a+\vc b$ et $\vc a-\vc b$ sont orthognaux si, et seulement si, $\vc a$ et $\vc b$ ont même longueur. \end{Lem} \begin{proof} L'égalité $\scal{\vc a+\vc b}{\vc a-\vc b}=\norme{\vc a}^2-\norme{\vc b}^2$ donne l'équivalence. \end{proof} %---------------------------------------------------------------------- \begin{Cor}[Parallélogamme et losange]\alaligne Les diagonales d'un parallélogramme sont orthogonales si, et seulement si, ce parallélogramme est un losange. \end{Cor} %---------------------------------------------------------------------- \begin{Cor}[Bissectrice(s) de deux vecteurs]\alaligne Si $\vc a$ et $\vc b$ ne sont pas deux vecteurs colinéaires de même sens, $\vc a+\vc b$ dirige la bissectrice des vecteurs $\vc a$ et $\vc b$ si, et seulement si, $\vc a$ et $\vc b$ sont de même longueur. \end{Cor} \begin{proof} Si $\vc a$ et $\vc b$ ne sont pas des vecteurs colinéaires de même sens, la quantité $\norme{\vc a}\,\norme{\vc b}-\Scal ab$ est stictement positive et $$ \cos(\vc a+\vc b,\vc a)-\cos(\vc a+\vc b,\vc b) =\ra{\scal{\vc a+\vc b}{\vc a}}{\norme{\vc a+\vc b}\,\norme{\vc a}} -\ra{\scal{\vc a+\vc b}{\vc b}}{\norme{\vc a+\vc b}\,\norme{\vc b}} =\ra{\bigl(\norme{\vc a}\,\norme{\vc b}-\Scal ab\bigr)\bigl(\norme{\vc a}-\norme{\vc b}\bigr)} {\norme{\vc a+\vc b}\,\norme{\vc a}\,\norme{\vc b}} $$ Les angles$(\vc a+\vc b,vc a)$ et $(\vc a+\vc b,\vc b)$ ont le même cosinus si, et seulement si, les vecteurs $\vc a$ et $\vc b$ sont de même longueur. \end{proof} %---------------------------------------------------------------------- \begin{Df}[Réflexion]\alaligne \'Etant donnée deux vecteurs $\vc a$ et $\vc b$ de \emph{même norme}, on appelle \emph{réflexion} de $\vc a$ sur $\vc b$, la symétrie orthogonale par rapport à l'hyperplan médiateur de $\vc a$ et $\vc b$, \ie{} l'hyperplan orthogonal à $\vc e=\vc a-\vc b$. Cette réflexion est notée $s_{\vc a,\vc b}$ et $$ s_{\vc a,\vc b} : \vc x\in E\mapsto \vc x-2\ra{\Scal ex}{\norme{\vc e}^2}\vc e\qquad \text{avec $\vc e=\vc a-\vc b$} $$ \end{Df} \begin{NBs}\alaligne Dauns une base orthogonale adaptée à la decomposition $E=\R\vc e\somdir\{\vc e\}^\perp$, la matrice de $s_{\vc a,\vc b}$ est par blocs $\mathrm{Diag}(-1,I_{n-1})$ et donc $\det s_{\vc a,\vc b}=-1$. $s_{\vc a,\vc b}$ et $s_{\vc a,-\vc b}$ sont deux réflexions qui envoient la droite $\R\vc a$ sur la droite $\R\vc b$. \end{NBs} %---------------------------------------------------------------------- \subsection{Groupe orthogonal} %---------------------------------------------------------------------- \begin{Th}[Groupes orthogonal et spécial orthogonal de $E$]\alaligne Si $E$ est un espace euclidien, alors : \begin{prop} \item $\OrE$ est un sous-groupe de $\GLE$ appelé \emph{groupe orthogonal} de $E$; \item si $u\in\OrE$, alors $\det u\in\{-1,1\}$; la réciproque est \emph{fausse}; \item $\SOE=\ens{u\in\OrE}{\det u=1}$ est un sous-groupe de $\OrE$ appelé \emph{groupe spécial orthogonal} de $E$, ou encore \emph{groupe des rotations vectorielles} de $E$; il est encore noté $\OpE$; \item $\OmE=\OrE\prive\SOE=\ens{u\in\OrE}{\det u=-1}$ n'est pas un groupe. \end{prop} \end{Th} \begin{proof}\alaligne \begin{demprop} \monitem $\OrE\subset\GLE$ et $I_E\in\OrE$; \\ stabilité de la composition : si $u$ et $v$ appartiennent à $\OrE$, alors $\qqs\vc x\in E$, $\norme{v\bigl(u(\vc x)\bigr)}=\norme{u(\vc x)}=\norme{\vc x}$; \\ stabilité de la prise d'inverse : si $u\in\OrE$, $\norme{u^{-1}(\vc x)} =\norme{u\bigl(u^{-1}(\vc x)\bigr)}=\norme{\vc x}$ et $u^{-1}\in\OrE$. \\ Ainsi, $\OrE$ est un sous-groupe de $\GLE$ muni de la composition des applications. \monitem $u\in\OrE\iff u^*\rond u=I_E \boxed{\implique} \det(u^*\rond u)\det I_E=1=\det u^*\det u=(\det u)^2$ et donc $\det u=\pm 1$ \\ Si $A=\bigl(\begin{smallmatrix} 1&0 \\ 1&1 \end{smallmatrix}\bigr)$, alors $\trans AA=\bigl(\begin{smallmatrix} 1&1& \\1&2 \end{smallmatrix}\bigr)\neq I_2$, ce qui montre que la réciproque est fausse. \monitem $u\mapsto\det u$ est un morphisme du groupe $\bigl(\OrE,\rond\bigr)$ sur le groupe $\bigl(\{-1,1\},\times\bigr)$; le noyau $\SOE$ de ce morphisme est un sous-groupe de $\OrE$; \monitem $\OmE$ ne peut être un groupe, car la composition des applications n'est pas \emph{stable}. Si $s$ est une réflexion de $E$, $u\mapsto u\rond s$ est une bijection de $\OrE$ (c'est une involution) qui envoie $\OmE$ sur $\OpE=\SOE$. \end{demprop} \end{proof} %---------------------------------------------------------------------- \begin{Th}[\'Eléments propres d'un automorphisme orthogonal]\alaligne Si $u$ est un automorphisme orthogonal d'un espace euclidien, alors \begin{prop} \item $\sp u\subset\{-1,1\}$, les sous-espaces vectoriels propres sont orthogonaux; \item $u$ est diagonalisable si, et seulement si, $u$ est une symétrie (vectorielle) orthogonale; \item si $F$ est un sous-espace vectoriel stable pour $u$, alors $F^\perp$ est aussi un sous-espace vectoriel stable pour $u$; $u$ induit sur $F$ et $F^\perp$ des automorphismes orthogonaux; en particulier, $u(F)=F$ et $u(F^\perp)=F^\perp$; \item $\bigl(\ker(u-I_E)\bigr)^\perp=\im(u-I_E)$ et $\bigl(\ker(u+I_E)\bigr)^\perp=\im(u+I_E)$. \end{prop} \end{Th} \begin{proof}\alaligne \begin{demprop} \monitem Si $\la$ est une valeur propre de $u$ et $\vc x$ un vecteur propre associé, alors $u(\vc x)=\la\vc x$ et, puisque $u$ conserve la norme, $\norme{\vc x}=\norme{u(\vc x)}=\abs{\la}\,\norme{\vc x}$; ainsi $\abs{\la}=1$. \\ Si $\vc x$ est un vecteur propre associé à la valeur propre 1 (vecteur invariant) et $\vc y$ un vecteur propre associé à la valeur propre $-1$, alors, puisque $u$ conserve le produit scalaire, $\Scal xy=\scal{u(\vc x)}{u(\vc y)} =\scal{\vc x}{-\vc y}=-\Scal xy$, ce qui montre que $\Scal xy=0$. Ainsi $E_1(u)\perp E_{-1}(u)$. \monitem $u$ est diagonalisable si, et seulement si, $E=E_1(u)\somdir E_{-1}(u)$, \ie{} si, et seulement si, $u$ est la symétrie par rapport à $E_1(u)$ parallèlement à $E_{-1}(u)$, soit la symétrie orthogonale par rapport à $E_1(u)$ \monitem L'endomorphisme $u\restr{F}$ induit par $u$ sur le sous-espace vectoriel stable $F$, conserve la norme; c'est donc un automorphisme orthogonal de $F$, en particulier une bijection et $u(F)=F$. Soit $\vc x\in F^\perp$; poour tout $\vc y\in F$, il existe $\vc y'\in F$ tel que $\vc y=u(\vc y')$; alors \begin{align*} \scal{u(\vc x)}{\vc y} &= \scal{u(\vc x)}{u(\vc y')} \\ &= \scal{\vc x}{\vc y'} \hspace{3cm}\text{$u$ conserve le produit scalaire} \\ &= 0 \hspace{4cm}\text{$\vc x\in F^\perp$ et $\vc y'\in F$} \end{align*} ce qui montre que $u(\vc x)\in F^\perp$, \ie{} la stabilité de $F^\perp$. $u$ induit donc sur $F^\perp$ un automorphisme orthogonal et $u(F^\perp)=F^\perp$. \monitem Deux temps pour la démonstration : d'abord l'inclusion $\im(u-I_E)\subset\bigl(\ker(u-I_E)\bigr)^\perp$, puis l'égalité des dimensions. \\ $\vc x\in\im(u-I_E)\iff\exists\vc x'\in E,\ \vc x=(u-I_E)(\vc x')=u(\vc x')-\vc x'$ et $\vc y\in\ker(u-I_E)\iff u(\vc y)=\vc y$ et \begin{align*} \Scal xy &= \scal{u(\vc x')-\vc x'}{\vc y}=\scal{u(\vc x')}{\vc y}-\scal{\vc x'}{\vc y} \\ &= \scal{u(\vc x')}{u(\vc y)}-\scal{\vc x'}{\vc y} \hspace{3cm}\text{car $\vc y=u(\vc y)$} \\ &= 0 \hspace{5cm}\text{$u$ conserve le produit scalaire} \end{align*} Ainsi $\qqs\vc x\in\im(u-I_E)$, $\qqs\vc x\in\ker(u-I_E)$, $\vc x\perp\vc y$, \ie{} les sous-espaces $\im(u-I_E)$ et $\ker(u-I_E)$ sont orthogonaux et $\im(u-I_E)\subset\ker(u-I_E)$. Les dimensions sont égales car : $$ \dim\im(u-I_E)=\dim E-\dim\ker(u-I_E)=\dim\bigl(\ker(u-I_E)\bigr)^\perp $$ La démonstration est identique pour l'égalité de $\im(u+I_E)$ avec $\bigl(\ker(u+I_E)\bigr)^\perp$. Ainsi, $\ker(u-I_E)$ et $\im(u-I_E)$ sont supplémentaires orthogonaux, ainsi que $\ker(u+I_E)$ et $\im(u+I_E)$. \end{demprop} \end{proof} %---------------------------------------------------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Matrices orthogonales} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %---------------------------------------------------------------------- \subsection{Généralités} %---------------------------------------------------------------------- \begin{Df}[Matrice orthogonale]\alaligne Une matrice $A$ carrée d'ordre $n$ à coefficients réels est dite \emph{orthogonale} si $\trans AA=I_n$. L'ensemble des matrices orthogonales est notée $\On$. \end{Df} \begin{Ex} Les matrices de pemutation sont des matrices orthogonales. \end{Ex} \begin{Th}[Caractérisation des matrices orthogonales]\alaligne Si $E$ est un espace euclidien de dimension $n$ et $A\in\Mn{\R}$, alors les propriétés suivantes sont équivalentes : \begin{prop} \item $A\in\On$; \item $\trans AA=I_n$; \item $A\trans A=I_n$; \item $A\in\GLn{\R}$ et $A^{-1}=\trans A$; \item $A$ est la matrice relative à une base \emph{orthonormale} d'un automorphisme orthogonal de $E$; \item les colonnes de $A$ constituent une base orthonormale de $\R^n$ pour le produit scalaire naturel; \item les lignes de $A$ constituent une base orthonormale de $\R^n$ pour le produit scalaire naturel; \item $A$ est la matrice de passage d'une base \emph{orthonormale} de $E$ à une base \emph{orthonormale} de $E$. \end{prop} \end{Th} \begin{proof}\alaligne L'égalité $BA=I_n$ implique $\det B\det A=1$; ainsi $\det A\neq 0$, $A$ est inversible et $A^{-1}=B$. Cette remarque montre l'équivalence de ($ii$) et de ($iii$) avec ($iv$). \Iff25 Déjà vu lors de la caractérisation des automorphismes orthogonaux. \Iff26 Notons $\nuple{C}$ les colonnes de $A$ et remarquons que $\bigl(I_n\bigr)_{i,j}=\delta_{i,j}$. Ainsi $$ \bigl(\trans A\,A\bigr)_{i,j}= \left(\begin{pmatrix} &&&& \\ \trans C_i&\hdotsfor[.5]{4} \\ &&&& \\ &&&& \end{pmatrix} \begin{pmatrix} && C_j& \\ &&\vdots& \\ &&\vdots& \\ \end{pmatrix}\right)_{i,j} =\trans C_i\,C_j=\scal{C_i}{C_j} $$ ce qui montre que $$ \trans A\,A=I_n\iff\qqs(i,j)\in\Intf1n^2,\ \scal{C_i}{C_j}=\delta_{i,j} $$ \Iff37 Notons $\nuple{L}$ les colonnes de $A$. Ainsi $$ \bigl(\trans A\,A\bigr)_{i,j}= \left(\begin{pmatrix} &&&& \\ L_i&\hdotsfor[.5]{4} \\ &&&& \\ &&&& \end{pmatrix} \begin{pmatrix} && \trans L_j& \\ &&\vdots& \\ &&\vdots& \\ \end{pmatrix}\right)_{i,j} =L_i\trans L_j=\scal{L_i}{L_j} $$ ce qui montre que $$ \trans A\,A=I_n\iff\qqs(i,j)\in\Intf1n^2,\ \scal{L_i}{L_j}=\delta_{i,j} $$ \Iff28 Soient $\mcal{B}$ une base \emph{orthonomale} de $E$, $\mcal{B}'=(\vc e'_1,\dots,\vc e'_n)$ une autre base, a priori quelconque, de $E$ et $A$ la matrice de passage de la base $\mcal{B}$ à la base $\mcal{B}'$; ainsi la $j$\up{e} colonne $C_j$ de $A$ est la matrice $\mat(\vc e'_j)$ de $\vc e'_j$ relative à $\mcal{B}$. Puisque $\mcal{B}$ est une base orthonoormale, on a : $$ \scal{\vc e'_i}{\vc e'_j}=\trans\mat(\vc e'_i)\,\mat(\vc e'_j) =\trans A_i\,A_j=\bigl(\trans A\,A\bigr)_{i,j} $$ ce qui donne l'équivalence. \end{proof} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsection{Goupe orthogonal d'ordre $n$} %---------------------------------------------------------------------- \begin{Th}[Groupe orthogonal et spécial orthogonal d'ordre $n$]\alaligne \begin{prop} \item $\On$ est un sous-groupe de $\GLn{\R}$ appelé \emph{groupe orthogonal d'ordre $n$}; \item si $A\in\On$, alors $\det A\in\{-1,1\}$; la réciproque est fausse; \item $\SOn=\ens{A\in\On}{\det A=1}$ est un sous-groupe de $\On$ appelé \emph{groupe spécial orthogonal d'ordre $n$}, ou encore \emph{groupe des rotations vectorielles d'ordre $n$}; il est encore noté $\Opn$; \item $\Omn=\On\prive\SOn=\ens{A\in\On}{\det u=-1}$ n'est pas un groupe. \end{prop} \end{Th} \begin{proof}\alaligne C'est la traduction matricielle du théorème correspondant des propriétés du groupe orthogonal $\OrE$, où $E$ est un espace euclidien de dimension $n$ rapporté à une base orthonormale. Pourtant, dans sa grande bonté, le scribe de service va en donner une démonstration spécifique. \begin{demprop} \monitem $\On\subset\GLn{\R}$ et $I_n\in\On$; \\ stabilité de la multiplication : si $A$ et $B$ appartiennent à $\On$, alors \\ $\trans(AB)AB=\trans B\trans A\,AB=\trans BI_nB=I_n$; \\ stabilité de la prise d'inverse : si $A\in\On$, alors \\ $I_n=(\trans A\,A)^{-1}=A^{-1}(\trans A)^{-1}=A^{-1}\,\trans A^{-1}$ et $A^{-1}\in\On$. \\ Ainsi $\On$ est un sous-groupe de $\GLn{\R}$ muni du produit des matrices. \monitem $\trans A\,A=I_n\implique 1=\det I_n=\det(\trans A\,A)=\det\trans A\,\det A=(\det A)^2$, et donc $\det A\in\{-1,1\}$. \monitem $A\mapsto\det A$ est un morphisme du groupe $\bigl(\On,\times\bigr)$ sur le groupe $\bigl(\{-1,1\},\times\bigr)$; le noyau $\SOn$ de ce morphisme est un sous-groupe de $\On$; \monitem $\Omn$ ne peut être un groupe car la multiplication n'est pas stable : le produit de deux matrices orthogonales de déterminant $-1$ est une matrice orthogonale de déterminant $+1$. Si $S=\mathrm{Diag}(-1,I_{n-1})$ (matrice diagonale par blocs), $A\mapsto SA$ est une bijection de $\On$ (c'est une involution) qui envoie $\Omn$ sur $\Opn=\SOn$. \end{demprop} \end{proof} %---------------------------------------------------------------------- \begin{Th}[\'Eléments propres d'une matrice orthogonale]\alaligne \begin{prop} \item Toute propriété vraie pour les automorphismes orthogonaux, est encore vraie pour les matrices orthogonales; en particulier, le spectre d'une matrice orthogonale est inclus dans $\{-1,1\}$; \item si $A\in\On\inter\SOn$, $A$ est la matrice d'une symétrie orthogonale relativement à une base orthonormale; \item si $n$ est \emph{impair} et $A\in\SOn=\Opn$, alors 1 est valeur propre de $A$; \item si $A\in\Omn$, alors $-1$ est valeur propre de $A$; \end{prop} \end{Th} \begin{proof}\alaligne \begin{demprop} \monitem Toute matrice orthogonale est la matrice d'un automorphisme orthogonal relativement à une base orthonormale. Toute les propriétés vraies pour les automorphismes orthogonaux, sont donc vraies pour les matrices orthogonales; en particulier le spectre d'une matrice orthogonale est inclus dans $\{-1,1\}$. Voici une démonstration directe de cette propriété. Si $\la$ est une valeur propre de $A$ et $X$ un vecteur propre associé, $AX=\la X$ et $$ \la^2\norme{X}^2=\norme{AX}^2=\trans(AX)AX=\trans X\trans AAX=\trans XX=\norme{X}^2 $$ et $\la^2=1$. \monitem Considérons l'endomorphisme $u$ de $E$ de matrice $A$ relativement à une base orthonormale $\mcal{B}$; alors : \begin{gather*} \trans A\,A=I_n\iff u^*\rond u=I_E\iff\text{ $u$ est un automorphisme orthogonal;} \\ \trans A=A\iff u^*=u\iff\text{ $u$ est auto-adjoint;} \end{gather*} Puisque qu'une symétrie (vectorielle) orthogonale est un automorphisme orthogonal et auto-adjoint, le résultat annoncée est démontré. \monitem Montrer que 1 est valeur propre de $A$, c'est montrer la nullité de $\det(A-I_n)$. Puisque $A\in\SOn$, $A-I_n=A-\trans A\,A=A(I_n-\trans A)$ et $\det A=1$. Ainsi, $$ \det(A-I_n)=\det A\,\det(I_n-\trans A)=1\times\det\bigl(\trans(I_n-A)\bigr) =\det(I_n-A)=(-1)^n\det(A-I_n) $$ Puisque $n$ est impair, $\det(A-I_n)=-\det(A-I_n)$ et $\det(A-I_n)=0$. \monitem Si $A\in\Omn$, en utilisant la même transformation que ci-dessus, on obtient : $$ \det(A+I_n)=\det(A+A\trans A)=\det A\,\det(I_n+\trans A)= -1\times\det\bigl(\trans(I_n+A)\bigr)=-\det(A+I_n) $$ Ainsi, $\det(A+I_n)=0$ et $-1$ est valeur propre de $A$. \end{demprop} \end{proof} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsection{Le groupe orthogonal d'ordre 1} %---------------------------------------------------------------------- \noindent $\On[1]=\{1,-1\}$, $\SOn[1]=\Opn[1]=\{1\}$ et $\Omn[1]=\{-1\}$. \\ Notons $\mcal{D}$ un espace euclidien de dimension 1, \ie{} une droite vectorielle euclidienne; alors \\ $\OrE[\mcal{D}]=\{I_{\mcal{D}},-I_{\mcal{D}}\}$, $\SOE[\mcal{D}]=\OpE[\mcal{D}]=\{I_{\mcal{D}}\}$ et $\OmE[\mcal{D}]=\{-I_{\mcal{D}}\}$. %---------------------------------------------------------------------- \subsection{Le groupe orthogonal d'ordre 2} %---------------------------------------------------------------------- \noindent $\dps\SOn[2]=\Opn[2]= \left\{ \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix},\ \theta\in\R \right\}$ \\ $\dps\Omn[2]= \left\{ \begin{pmatrix} \cos\theta & \sin\theta \\ \sin\theta & -\cos\theta \end{pmatrix},\ \theta\in\R \right\}$ \\ Notons $\mcal{P}$ un espace euclidien de dimension 2, \ie{} un plan vectoriel euclidien; alors \\ $\SOE[\mcal{P}]=\OpE[\mcal{P}]=\{\text{ rotations vectorielles planes }\}$ et \\ $\OmE[\mcal{P}]=\{ \text{ symétries vectorielles planes et orthogonales } \} \\ \phantom{\OmE[\mcal{P}]} =\{ \text{ réflexions de $\vc i=(1,0)$ sur $\vc u_\theta=(\cos\theta,\sin\theta)$, $\theta\in\R$ } \}$. %---------------------------------------------------------------------- \subsection{Le groupe orthogonal d'ordre 3} %---------------------------------------------------------------------- $A\in\SOn[3]=\Opn[3]$ si, et seulement si, $A$ est une matrice orthogonale dont la troisième colonne est le produit vectoriel de ses deux premières, si, et seulement si, il existe $P\in\Opn[3]$, matrice de passage de la base canonique de $\Mnp[3,1]{\R}$ (identifié à $\R^3$) à une base orthonormale \emph{directe}, et $\theta\in\R$ tel que $$ P^{-1}AP=\trans PAP= \begin{pmatrix} \cos\theta & -\sin\theta & 0 \\ \sin\theta & \cos\theta & 0 \\ 0 & 0 & 1 \\ \end{pmatrix} $$ $A\in\Omn[3]$ si et seulement si $-A\in\Opn[3]$, si, et seulement si, $A$ est une matrice orthogonale dont la troisième colonne est l'opposé du produit vectoriel de ses deux premières, si, et seulement si, il existe $P\in\Opn[3]$, matrice de passage de la base canonique de $\Mnp[3,1]{\R}$ (identifié à $\R^3$) à une base orthonormale \emph{directe}, et $\theta\in\R$ tel que $$ P^{-1}AP=\trans PAP= \begin{pmatrix} \cos\theta & -\sin\theta & 0 \\ \sin\theta & \cos\theta & 0 \\ 0 & 0 & -1 \\ \end{pmatrix} $$ Notons $\mcal{E}$ un espace euclidien de dimension 3, \ie{} l'espace vectoriel euclidien habituel de la physique (newtonienne) et $u$ un automorphisme orthogonal de $\mcal{E}$ distinct de $\pm I_{\mcal{E}}$. $u\in\SOE[\mcal{E}]=\OpE[\mcal{E}]$ si, et seulement si, $\mcal{E}=\ker(u-I_{\mcal{E}})\somdir\bigl(\ker(u-I_{\mcal{E}})\bigr)^\perp =\R\vc w\somdir\mcal{P}$ avec $u\restr{\R\vc w}=I_{\R\vc w}$ et $u\restr{\mcal{P}}$ une rotation vectorielle du plan $\mcal{P}$; ainsi, $u$ est une rotation axiale. $u\in\OmE[\mcal{E}]$ si, et seulement si, $\mcal{E}=\ker(u+I_{\mcal{E}})\somdir\bigl(\ker(u+I_{\mcal{E}})\bigr)^\perp =\R\vc w\somdir\mcal{P}$ avec $u\restr{\R\vc w}=-I_{\R\vc w}$ et $u\restr{\mcal{P}}$ une rotation vectorielle du plan $\mcal{P}$; ainsi, $u$ est le composé (commutatif) d'une rotation axiale et d'une symétrie orthogonale par rapport au plan orthogonal à l'axe de la rotation, \ie{} d'une réflexion qui laisse globalement invariant l'axe de la rotation. \begin{NBs}[]\alaligne Si $u\in\SOE[\mcal{E}]=\OpE[\mcal{E}]$, $\tr u=1+2\cos\theta$, ce qui détermine $\cos\theta$ (exactement) et $\sin\theta$ (au signe près); si $\vc u$ est un vecteur orthogonal à l'axe $\R\vc w$ de la rotation $u$, l'égalité $\vc u\wedge u(\vc u)=\sin\theta\vc w$ donne le signe de $\theta$. Si $u\in\OmE[\mcal{E}]$, $\tr u=-1+2\cos\theta$, ce qui détermine $\cos\theta$ (exactement) et $\sin\theta$ (au signe près); si $\vc u$ est un vecteur orthogonal à l'axe $\R\vc w$ de l'anti-rotation $u$, l'égalité $\vc u\wedge u(\vc u)=\sin\theta\vc w$ donne le signe de $\theta$. Si $\vc u$ est un vecteur \emph{unitaire} et $\theta$ un nombre réel, la rotation $r_{\vc u,\theta}$ d'axe $\R\vc u$ et d'angle $\theta$ est donnée par la formule due à Euler : \begin{equation} r_{\vc u,\theta} : \vc x\mapsto \cos\theta\,\vc x+(1-\cos\theta)\Scal ux\vc u+\sin\theta(\vc u\wedge\vc x) \end{equation} \end{NBs} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Réduction des endomorphismes auto-adjoints} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% $E$ est un espace euclidien de dimension $n$. %---------------------------------------------------------------------- \subsection{Réalité des valeurs propres et orthogonalité des sous-espaces vectoriels propres d'un endomorphisme auto-adjoint (symétrique)} %---------------------------------------------------------------------- \begin{Th}[]\alaligne Si $u$ est un endomorphisme auto-adjoint (symétrique) d'un espace euclidien $E$, alors \begin{prop} \item le polynôme caractéristique de $u$ est scindé sur $\R$; \item les sous-espaces vectoriels propres de $u$ associés à des valeurs propres distinctes sont orthogonaux. \end{prop} \end{Th} \begin{proof}\alaligne \begin{demprop} \monitem Soient $\mcal{B}$ une base orthonormale de $E$ et $A=\mat(u)$ la matrice de $u$ relative à $\mcal{B}$. Puisque $u$ est auto-adjoint, $A$ est une matrice symétrique réelle et $\chi_A=\chi_u$. $\chi_A$, polynôme réel, est scindé sur $\C$; si $\la\in\sp_{\C}(A)$ est une valeur propre complexe de $A$ et $X\in\Mnp[n,1]{\C}$ un vecteur propre associé, $\conjug{\la}\in\sp_{\C}(A)$ est une valeur propre complexe de $A$ et $\conjug{X}\in\Mnp[n,1]{\C}$ un vecteur propre associé, car \begin{align*} AX=\la X\implique \conjug{AX} &= \conjug{\la X}=\conjug{\la}\,\conjug{X} \\ &= \conjug{A}\,\conjug{X}=A\conjug{X} \end{align*} Ainsi \begin{align*} \tc{X}AX &= \tc{X}(AX)=\tc{X}(\la X)=\la\tc{X}X=\la\norme{X}^2 \\ &= (\tc{X}A)X=\trans(\trans A\conjug{X})X=\trans(A\conjug{X})X =\trans(\conjug{\la}\,\conjug{X})X=\conjug{\la}\tc XX =\conjug{\la}\norme{X}^2 \end{align*} et, puisque $X\neq0$, $\norme{X}>0$ et $\la=\conjug{\la}$, ce qui montre que toutes les valeurs propres complexes de $A$, donc de $u$, sont en fait réelles et $\chi_A=\chi_u$ est un poynôme scindé sur $\R$. \monitem Si $\la$ et $\mu$ sont deux valeurs propres distinctes de $u$, et $\vc x$ et $\vc y$ deux vecteurs propres associés, alors \begin{align*} &\scal{\vc x}{u(\vc y)}=\scal{\vc x}{\mu\vc y}=\mu\Scal xy \\ &\qquad= \\ &\scal{u(\vc x)}{\vc y}=\scal{\la\vc x}{\vc y}=\la\Scal xy \end{align*} Puisque $\la\neq\mu$, $\Scal xy=0$ et donc : $$ \la\neq\mu\implique \qqs(\vc x,\vc y)\in E_\la(u)\times E_\mu(u),\ \vc x\perp\vc y \iff E_\la(u)\perp E_\mu(u) $$ \end{demprop} \end{proof} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsection{Diagonalisation des endomorphismes auto-adjoints (symétriques)} %---------------------------------------------------------------------- \begin{Th}[fondamental]\alaligne Tout endomorphisme auto-adjoint $u$ d'un espace euclidien $E$ est diagonalisable; plus précisément, $E$ admet une base orthonormale constituée de vecteurs propres de $u$. \end{Th} \begin{proof} Par récurrence sur la dimension $n$ de $E$. Initalisation : $n=1$. Dans ce cas $E$ est une droite vectorielle et $u$ est une homothétie; si $\vc a$ est un vecteur non nul de $E$, $\norme{\vc a}^{-1}\vc a$ est une base orthonormale qui convient. Hérédité : $ n\implique n+1$. Supposons l'existence d'une base orthonormale constituée de vecteurs propres pour tout endomorphisme auto-adjoint d'un espace euclidien de dimension $n$. Soient $E$ un espace euclidien de dimension $n+1$ et $u$ un endomorphisme auto-adjoint de $E$. Puisque $u$ est scindé sur $\R$, prenons $\la$ une valeur propre (réelle) de $u$ et $\vc a$ un vecteur propre (non nul) associé. La droite $\mcal{D}=\R\vc a$ est stable par $u$; l'hyperplan $\mcal{H}=\mcal{D}^\perp$ est stable par $u^*=u$. Ainsi, $u$ induit sur $\mcal{H}$ un endomorphisme auto-adjoint et, puisque $\mcal{H}$ est un $\R$-espace vectoriel de dimension $n$, l'hypothèse de récurrence montre l'existence d'une base orthonormale de $\mcal{H}$ constituée de vecteurs propres de $u$. En complétant cette base par $\norme{\vc a}^{-1}\vc a$, on obtient le résultat. \end{proof} %---------------------------------------------------------------------- \begin{Th}[Traduction matricielle]\alaligne Toute matrice symétrique réelle $A$ est diagonalisable (sur $\R$); plus précisément, il existe une matrice orthogonale $P\in\On$ et une matrice diagonale $D$ telles que : $$ D=P^{-1}AP=\trans PAP=\diag{\la} $$ Les colonnes de $P$ constituent une base orthonormale de vecteurs propres de $A$ et $\la_j$ est la valeur propre associé à la $j$\fup{e} colonne. \end{Th} \begin{proof} L'endomorphisme $u_A : X\mapsto AX$ associé à $A$ est un endomorphisme auto-adjoint de $\Mnp[n,1]{\R}$ muni de son produit scalaire naturel; il existe donc une base orthonormale $\mcal{B}$ de $\Mnp[n,1]{\R}$, constituée de vecteurs propres de $u_A$, \ie{} de vecteurs propres de $A$. La matrice de passage $P$ de la base canonique, qui est orthonormale, à $\mcal{B}$ est une matrice orthogonale et donne le résultat. \end{proof} %---------------------------------------------------------------------- %---------------------------------------------------------------------- \subsection{Applications} %---------------------------------------------------------------------- \begin{Prop}[Spectre d'un endomorphisme positif, défini positif]\alaligne Soit $u$ un endomorphisme auto-adjoint d'un espace euclidien $E$; alors \begin{prop} \item $\text{$u$ est positif, \ie{} }\qqs\vc x\in E,\ \scal{u(\vc x)}{\vc x}\geq 0 \iff\sp u\subset\R_+=\intfo0{+\infty}$; \item $\text{$u$ est défini positif, \ie{} }\qqs\vc x\in E\prive\{\vc 0\},\ \scal{u(\vc x)}{\vc x}>0 \iff\sp u\subset\R^*_+=\into0{+\infty}$; \end{prop} \end{Prop} \begin{proof} Soit $\mcal{B}=\nuple{\vc e}$ une base orthonormale de $E$ constituée de vecteurs propres de $E$; on appelle $\la_j$ la valeur propre associée au vecteur propre $\vc e_j$ et $\nuple{x}$ les composantes de $\vc x$ relatives à $\mcal{B}$. Ainsi, pour tout $\vc x\in E$, $$ u(\vc x)=u\Bigl(\sum_{j=1}^n x_j\vc e_j\Bigr) =\sum_{j=1}^n x_j u(\vc e_j)=\sum_{j=1}^n x_j\la_j\vc e_j $$ et $$ \scal{u(\vc x)}{\vc x} =\scal{\sum_{j=1}^n x_j\la_j\vc e_j}{\sum_{k=1}^n x_k\vc e_k} =\sum_{j,k}\la_j x_j x_k\scal{\vc e_j}{\vc e_k}=\sum_{j=1}^n\la_j x_j^2 $$ On obtient donc \begin{gather*} \qqs\vc x\in E,\ 0\leq\scal{u(\vc x)}{\vc x}=\sum_{j=1}^n \la_j x_j^2 \iff\qqs j\in\Intf1n,\ \la_j\geq0 \iff\sp u\subset\R_+ \\ \qqs\vc x\in E\prive\{\vc 0\},\ 0<\scal{u(\vc x)}{\vc x}=\sum_{j=1}^n \la_j x_j^2 \iff\qqs j\in\Intf1n,\ \la_j>0 \iff\sp u\subset\R_+^* \end{gather*} \end{proof} %---------------------------------------------------------------------- \begin{Prop}[Spectre de $\trans A\,A$]\alaligne Si $A\in\Mnp[p,n]{\R}$, alors $\trans A\,A\in\SnR$ et $\sp(\trans AA)\subset\R_+$. \end{Prop} \begin{proof} $\trans A\,A$ est une matrice carrée d'ordre $n$, symétrique réelle; l'endomorphisme de $\Mnp[n,1]{\R}$ associé est positif, car $$ \qqs X\in\Mnp[n,1]{\R},\ \scal{u_A(X)}{X}=\trans X(\trans A\,A)X=\trans(AX)AX=\norme{AX}^2\geq0 $$ \end{proof} %---------------------------------------------------------------------- \begin{Prop}[Caractérisation de la matrice d'un produit scalaire]\alaligne Soient $\vphi$ une forme bilinéaire symétrique sur un espace euclidien $E$ et $G=[\vphi(\vc e_i,\vc e_j)]$ la matrice de $\vphi$ dans une base (quelconque) de $E$; alors $$ \text{$\vphi$ est un produit scalaire sur $E$} \iff\sp G\subset\R^*_+=\into0{+\infty} $$ \end{Prop} \begin{proof} \begin{align*} \vphi \text{ est un produit scalaire sur $E$} &\iff \qqs\vc x\in E\prive\{\vc 0\},\ \vphi(\vc x,\vc x)>0 \\ &\iff \qqs X\in\Mnp[n,1]{\R}\prive\{0\},\ \trans XGX>0 \\ &\iff \text{l'endomorphisme $u_G$ associé à $G$ est défini positif} \\ &\iff \sp u_G=\sp G\subset\R^*_+=\into0{+\infty} \\ \end{align*} \end{proof} %---------------------------------------------------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Réduction des formes bilinéaires symétriques} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %---------------------------------------------------------------------- \subsection{Réduction des formes bilinéaires symétriques} %---------------------------------------------------------------------- Soient $E$ un espace euclidien de dimension $n$, $\mcal{B}=\nuple{\vc e}$ une base orthonormale de $E$ (la base de référence), $\vphi$ une forme bilinéaire symétrique sur $E$ et $u_\vphi$ l'endomorphisme auto-adjoint de $E$ associé : $$ \qqs(\vc x,\vc y)\in E^2,\ \vphi(\vc x,\vc y)=\scal{u_\vphi(\vc x)}{\vc y}=\scal{\vc x}{u_\vphi(\vc y)} $$ Notons $A=[a_{i,j}]=[\vphi(\vc e_i,\vc e_j)]$ la matrice de $\vphi$ relative à $\mcal{B}$, $X=\trans\nuple{x}=\mat(\vc x)$ et $Y=\trans\nuple{y}=\mat(\vc y)$; ainsi $$ \qqs(\vc x,\vc y)\in E^2,\ \vphi(\vc x,\vc y)=\trans XAY=\sum_{i,j=1}^n a_{i,j}x_i y_j $$ Puisque $\mcal{B}$ est une base orthonormale, les égalités $$ a_{i,j}=\vphi(\vc e_i,\vc e_j)=\scal{u_\vphi(\vc e_i)}{\vc e_j} $$ montrent que $a_{i,j}$ est la composante suivant $\vc e_j$ de $u_\vphi(\vc e_i)$; ainsi $A$ est aussi la matrice de $u_\vphi$ relative à $\mcal{B}$. Relativement à une base orthonormale $\mcal{B}'$ constituée de vecteurs propres de $u_\vphi$, la matrice de $u_\vphi$ relative à $\mcal{B}'$ est diagonale; en notant $P$ la matrice (orthogonale) de passage de $\mcal{B}$ à $\mcal{B}'$, on a : $$ \mat[B'](u_\vphi)=\diag{\la}=P^{-1}AP=\trans PAP $$ En posant $X=PX'$ et $Y=PY'$, il vient $$ \vphi(\vc x,\vc y)=\trans(PX')A(PY')=\trans X'(\trans PAP)Y' =\trans X'DY'=\sum_{j=i}^n \la_j x'_j y'_j $$ Nous venons de \emph{réduire} la forme bilinéaire symétrique $\vphi$ dans une base orthonormale de $E$ et $$ \vphi(\vc x,\vc x)=\sum_{j=1}^n \la_j{x'_j}^2 \qquad\text{ avec }X'=\trans\nuple{x'}=\mat[B'](\vc x) $$ %---------------------------------------------------------------------- \subsection{Réduction des formes quadratiques sur $\R^n$} %---------------------------------------------------------------------- \begin{Df}[Forme quadratique à $n$ variables]\alaligne Une \emph{forme quadratique} $q$ à $n$ variables, ou sur $\R^n$, est un polynôme homogène de degré 2 de ces $n$ variables; cette forme quadratique s'écrit : $$ q(x_1,x_2,\dots,x_n)=\sum_{i,j=1}^n a_{i,j} x_i,x_j =\sum_{i=1}^n a_{i,i}\,{x_i}^2+2\sum_{1\leq i<j\leq n} a_{i,j}\,x_i x_j $$ en prenant la convention $a_{j,i}=a_{i,j}$. \end{Df} %-------------------------------------------------- \subsubsection*{Écriture matricielle d'une forme quadratique} %-------------------------------------------------- La matrice $A=[a_{i,j}]$, symétrique, réelle, d'ordre $n$, est dite associée à la forme quadratique $q$ et on a : $$ q(x_1,x_2,\dots,x_n)=\sum_{i,j=1}^n a_{i,j}\,x_i x_j=\trans XAX $$ %-------------------------------------------------- \subsubsection*{Forme bilinéaire symétrique associée} %-------------------------------------------------- Puisque $A$ est une matrice symétrique réelle, il existe une matrice orthogonale $P\in\On$ telle que $P^{-1}AP=\trans PAP=\diag{\la}$. En posant $X=PX'$, il vient : $$ q\nuple{x}=\trans(PX')A(PX')=\trans X'(\trans PAP)X' =\trans X'\diag{\la}X'=\sum_{j=i}^n \la_j {x'_j}^2 $$ Nous venons de \emph{réduire} la forme quadratique $q$ en \emph{somme de carrés} dans une base orhononormale de $\Mnp[n,1]{\R}$ (que l'on peut identifier à $\R^n$), base orthonormale constituée de vecteurs propres de~$A$.