%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\chapter{Espaces vectoriels, compléments}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

\minitoc
\newpage


$\K$ désigne l'un des corps $\R$ ou $\C$; $E$ et $F$ sont des
$\K$-espaces vectoriels;
on~note $I_E$ (resp. $I_F$) l'application identique de $E$ (resp.
de $F$).


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Somme directe}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

Dans ce paragraphe, $q$ est un entier au moins égal à 2, et $E_1$,
$E_2$, \dots, $E_q$ désignent des $\K$-sous-espaces vectoriels de $E$.

%---------------------------------------------------------------------
\subsection{Somme}
%---------------------------------------------------------------------
\begin{Df}[Somme de sous-espaces vectoriels]\alaligne

 On note $\dsp\sum_{i=1}^q E_i$ l'ensemble
$\dsp\ens[\Big]{\sum_{i=1}^q \vc x_i}{(\vc x_1,\dots,\vc
x_q)\in E_1\times\cdots\times E_q}$;\\
$\sum_{i=1}^q E_i$ est appelé \emph{somme} des
sous-espaces vectoriels $E_i$.
\end{Df}

\begin{NBs}\alaligne

 $\sum_{i=1}^q E_i$ est l'image de l'application linéaire $\Psi$
$$
\Psi : (\vc x_1,\dots,\vc x_q)\in E_1\times\cdots\times E_q \mapsto
\vc x_1+\cdots+\vc x_q
$$
  Ainsi, $\sum_{i=1}^q E_i$ est un $\K$-sous-espace vectoriel de $E$ et $\Psi :
E_1\times\cdots\times E_q \to\sum_{i=1}^q E_i =\im\Psi$ est une
application linéaire \emph{surjective}.

 Si $\mathcal{G}_i$ est une famille génératrice de $E_i$,
$\bigcup_{i=1}^q\mathcal{G}_i$ est une famille génératrice de $\sum_{i=1}^q E_i$.
\end{NBs}

%---------------------------------------------------------------------
\subsection{Somme directe}
%---------------------------------------------------------------------
\begin{Df}[Somme directe de sous-espaces vectoriels]\alaligne

 La somme $\sum_{i=1}^q E_i$ est une \emph{somme directe} si, et
seulement si, l'application linéaire $\Psi$
$$
\Psi : (\vc x_1,\dots,\vc x_q) \mapsto\vc x_1+\cdots+\vc x_q
$$
est un \emph{isomorphisme} d'espaces vectoriels entre $E_1\times\cdots\times
E_q$ et $\sum_{i=1}^q E_i$; dans ce cas, la somme est notée
$\dsp\bigoplus_{i=1}^q E_i$.
\end{Df}

\begin{Th}[Caractérisation d'une somme directe]\alaligne

Les propriétés suivantes sont équivalentes :
\begin{prop}
 \item la somme $\sum_{i=1}^q E_i$ est directe;
 \item la seule décomposition de $\vc0_E$ dans $\sum_{i=1}^q E_i$ est
$\vc 0_E=\sum_{i=1}^q\vc 0_{E_i}$;
 \item $\qqs\vc x\in\sum_{i=1} ^q E_i,\ \exists!(\vc x_1,\dots,\vc
x_q)\in E_1\times\cdots\times E_q,\ \vc x=\sum_{i=1}^q\vc x_i$
 \item $\qqs k\in\Intf1{q-1},\ \bigl(\sum_{i=1}^k E_i\bigr)\cap E_{k+1}
= \{\vc0_E\}$
\end{prop}
\end{Th}

\begin{proof}
Puisque $\Psi$ est une application linéaire surjective, $\Psi$ est un
isomorphisme si, et seulement si, $\Psi$ est injective.\\
%
$(ii)\iff \ker\Psi=\{\vc 0_E\}\iff\Psi\text{ est injective}\iff (i)$.\\[1ex]
%
$(iii)\iff\Psi\text{ est bijective}\iff (i)$.\\[1ex]
%
\hspace*{-3em}$(i)\Longrightarrow(\romannumeral4)$
Soient $k\in\Intf1{q-1}$ et $\vc x\in
\bigl(\sum_{i=1}^k E_i\bigr)\cap E_{k+1}$; il existe donc $(\vc
x_1,\dots,\vc x_k)\in E_1\times\cdots\times E_k$ tel que $\vc x=\vc
x_1+\cdots+\vc x_k$, {}\ie
$$
\Psi(\vc x_1,\dots,\vc x_k,\vc0_{E_{k+1}},\dots,\vc0_{E_q})=
\Psi(\vc0_{E_1},\dots,\vc0_{E_k},\vc x,\vc0_{E_{k+2}},\dots,\vc0_{E_q})
$$
et, puisque $\Psi$ est une application injective
$$
(\vc x_1,\dots,\vc x_k,\vc0_{E_{k+1}},\dots,\vc0_{E_q})=
(\vc0_{E_1},\dots,\vc0_{E_k},\vc x,\vc0_{E_{k+2}},\dots,\vc0_{E_q})
$$
ce qui montre que $\vc x=\vc0_E$.\\[1ex]
%
\hspace*{-3em}$(\romannumeral4)\Longrightarrow (i)$
Supposons l'application $\Psi$ non injective; il existe alors $(\vc
x_1,\dots,\vc x_q)\in\ker\Psi\setminus\{\vc0_E\}$, {}\ie{} $\vc
x_1+\cdots+\vc x_q=\vc 0_E$ avec $(\vc x_i)_{1\leq i\leq q}$ non tous
nuls. On pose $i_0=\max\ens{i}{\vc x_i\neq\vc 0}$; $i_0$ est un entier
au moins égal à 2 et
$$
\vc x_{i_0}=-(\vc x_1+\cdots+\vc x_{i_0-1})\in
E_{i_0}\cap\Bigl(\sum_{i=1}^{i_0-1} E_i\Bigr)
$$
ce qui est en contradiction avec l'hypothèse; ainsi $\ker\Psi$ est
réduit à $\{\vc0_E \}$
et $\Psi$~est une application injective.
\end{proof}
%--------------------------------------------------

%---------------------------------------------------------------------
\subsection{Supplémentaire}
%---------------------------------------------------------------------
\begin{Df}[Sous-espace supplémentaire]\alaligne

 Deux sous-espaces vectoriels $V$ et $W$ de $E$ sont dits \emph{supplémentaires}
si, et seulement si, $E$ est la somme directe de $V$ et $W$, soit
$$E=V\oplus W$$
\end{Df}

\begin{Th}[Caractérisation des supplémentaires]\alaligne

 Les propriétés suivantes sont équivalentes
\begin{prop}
 \item $V$ et $W$ sont supplémentaires (dans $E$);
 \item tout $\vc x$ de $E$ s'écrit de manière unique $\vc x=\vc v+\vc
w$ avec $(\vc v,\vc w)\in V\times W$;
 \item $V+W=E$ et $V\cap W=\{\vc 0_E\}$.
\end{prop}
\end{Th}

\begin{proof}
 C'est la démonstration précédente pour $q=2$ et $V+W=E$.
\end{proof}
%--------------------------------------------------

\begin{Ex}
 Si $P$ est un polynôme de $\K[X]$ de degré $n+1$, l'ensemble
$(P)=\ens{AP}{A\in\K[X]}$ des multiples de $P$ 
et l'ensemble $\K_n[X]$ des polynômes de degré au plus $n$, sont
supplémentaires dans $\K[X]$.
$$
\reponse{$\K[X]=(P)\oplus\K_n[X]\qquad\text{ avec $\deg P=n+1$}$}
$$
\end{Ex}

\begin{proof}
 $(P)$ et $\K_n[X]$ sont des sous-espaces vectoriels de $\K[X]$ et
la division euclidienne
des polynômes donne, pour tout $B\in\K[X]$, l'existence d'un couple
unique $(A,R)\in\K[X]\times\K_n[X]$ tel que $B=AQ+R$.
\end{proof}
%--------------------------------------------------

%---------------------------------------------------------------------
\subsection{Cas de la dimension finie}
%---------------------------------------------------------------------
\begin{Th}[Somme directe et dimension]\alaligne

 Si $E$ est un espace vectoriel de dimension finie, la somme $\sum_{i=1}^q E_i$ est
directe si, et seulement si,
$$
\dim\Bigl(\sum_{i=1}^q E_i\Bigr)=\sum_{i=1}^q\dim E_i
$$
\end{Th}

\begin{proof}
$\Psi : (\vc x_1,\dots,\vc x_q)\in E_1\times\cdots\times E_q \mapsto
\vc x_1+\cdots+\vc x_q\in\sum_{i=1}^q E_i$ est une application linéaire
et surjective; $\Psi$ est bijective si, et seulement~si les espaces
vectoriels $E_1\times\cdots\times E_q$ et $\sum_{i=1}^q E_i$ ont même
dimension; or
$\dim(E_1\times\cdots\times E_q)=\sum_{i=1}^q\dim E_i$, ce qui démontre
l'équivalence annoncée.
\end{proof}
%--------------------------------------------------


\begin{Cor}[Cas des supplémentaires]\alaligne

 Soient $E$ un espace vectoriel de dimension finie $n$ et $V$ un
sous-espace vectoriel de dimension $p$ $(p\leq n)$;
\begin{prop}
 \item tout supplémentaire de $V$ est de dimension $n-p$;
 \item soit $W$ un sous-espace vectoriel de dimension $n-p$;
  $W$ est un supplémentaire
  de $V$ si, et seulement~si, $V\cap W=\{\vc 0_E\}$, ou bien
si, et seulement~si, $V+W=E$.
\end{prop}
\end{Cor}

\begin{proof}\mbox{}
\begin{demprop}
 \monitem $E=V\oplus W\implique \dim E=\dim(V\oplus W)=\dim V+\dim W$;
 \monitem seule les réciproques méritent une démonstration. Si  $V\cap W=\{\vc 0_E\}$,
$\dim(V+W)=\dim V+\dim W=n=\dim E$, et donc $V+W=E$ et $V\oplus W=E$. Si $V+W=E$, 
$\dim(V+W)=\dim E=n=\dim V+\dim W$, ce qui montre que $V\oplus W=E$.
\end{demprop}
\end{proof}
%--------------------------------------------------

\begin{NB}
 La connaissance d'un renseignement sur la dimension permet de diviser
le travail par deux!
\end{NB}



%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Décomposition de $E$ en somme directe}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%---------------------------------------------------------------------
\subsection{Applications linéaires}
%---------------------------------------------------------------------
\begin{Th}[Contruction d'applications linéaires]\alaligne

Si $E=\bigoplus_{i=1}^q E_i$ et si, pour tout $i\in\Intf1q$,
$u_i\in\mathcal{L}(E_i,F)$, il existe une unique application
liné\-aire $u\in\LEF$ telle que
$$
\qqs i\in\Intf 1q,\quad\ u\rvert_{E_i}=u_i
$$
\end{Th}

\begin{proof}\alaligne

\hspace*{-3em}\emph{Analyse}. Si $\vc x=\vc x_1+\cdots+\vc x_q$
est la décomposition d'un vecteur  $\vc x\in E$ suivant les facteurs
$E_i$,
\begin{align}
 u(\vc x)& = u(\vc x_1)+\cdots+u(\vc x_q)    &\qquad&\text{ par linéarité}\\
     & = u_1(\vc x_1)+\cdots+u_q(\vc x_q)  &\qquad
      &\text{car $u\rvert_{E_i}=u_i$}\label{eq\DP applin}
\end{align}
ce qui montre l'unicité de $u$.

\hspace*{-3em}\emph{Synthèse}. Pour $\vc x\in E$, on pose $u(\vc
x)=u_1(\vc x_1)+\cdots+u_q(\vc x_q)$, ce qui définit $u$ puisque la
décomposition $\vc x=\vc x_1+\cdots+\vc x_q$ est unique.
 Par construction $u\rvert_{E_i}=u_i$ et 
 $u$ est une application linéaire car pour tout $(\lambda,\mu)\in\K^2$
$$
\vc x=\vc x_1+\cdots+\vc x_q,\ \vc y=\vc y_1+\cdots+\vc y_q
\implique
\lambda\vc x+\mu\vc y=
(\lambda\vc x_1+\mu\vc y_1)+\cdots+(\lambda\vc x_q+\mu\vc y_q) 
$$
et
\begin{align*}
 u(\lambda\vc x+\mu\vc y)
  &= u_1(\lambda\vc x_1+\mu\vc y_1)+\cdots+u_q(\lambda\vc x_q+\mu\vc y_q)\\
  &= \bigl(\lambda u_1(\vc x_1)+\mu u_1(\vc y_1)\bigr)+\cdots+
   \bigl(\lambda u_q(\vc x_q)+\mu u_q(\vc y_q)\bigr)         \\
  &=\lambda\bigl(u_1(\vc x_1)+\cdots+u_q(\vc x_q)\bigr)+
   \mu\bigl(u_1(\vc y_1)+\cdots+u_q(\vc y_q)\bigr)         \\
  &=\lambda u(\vc x)+\mu u(\vc y)
\end{align*}
\end{proof}
%--------------------------------------------------

%--------------------------------------------------
\subsubsection{Projecteur}
%--------------------------------------------------
Soient $E=V\oplus W$ et $\vc x=\vc v+\vc w$ la décomposition de $\vc x$
suivant $V$ et $W$; on pose
$$
p_V : \vc x\mapsto\vc v\quad\et\quad p_W : \vc x\mapsto\vc w
$$
On a alors les propriétés suivantes :
\begin{gather*}
 p_V\circ p_V=p_V,\quad p_V+p_W=I_E,\quad
  p_V\circ p_W=p_W\circ p_V=0_{\LE} \\
 \ker p_V=W,\quad \im p_V=\ker(I_E-p_V)=V,\quad p_V\rvert_V=I_V,\quad
  p_V\rvert_W=0_{\lin{V}}
\end{gather*}
Réciproquement, si $p$ est un endomorphisme de $E$ qui vérifie  $p\circ
p=p$, on a
\begin{prop}
 \item $\im p=\ker(I_E-p)$;
 \item $\im p$ et $\ker p$ sont supplémentaires (dans $E$);
 \item $p$ est le projecteur d'image $\im p=\ker(I_E-p)$
  parallèlement à $\ker p$, {\ie}
$$
p\rvert_{\im p}=I_{\im p}\quad\et\quad p\rvert_{\ker p}=0
$$
\end{prop} 

%--------------------------------------------------
\subsubsection{Symétrie vectorielle}
%--------------------------------------------------
 Si $E=V\oplus W$, la \emph{symétrie vectorielle par~rapport
à~$V$ et
parallèlement à~$W$} est l'automorphisme $s$ de $E$ tel que
$$
s(\vc x)=\vc v-\vc w\quad\text{\ie}\quad s=p_V-p_W=2p_V-I_E
$$$\vc x=\vc v+\vc w$ est la décomposition de $\vc x$ suivant $V\oplus
W$.\\
 On a les propriétés suivantes :
\begin{gather*}
s\rvert_V=I_V,\quad s\rvert_W=-I_W,\quad s=p_V-p_W,\quad I_E+s=2p_V   \\
s\circ s=I_E,\quad s^{-1}=s
\end{gather*}

 Réciproquement, tout endomorphisme $s$ de $E$ qui vérifie $s\circ
s=I_E$ est la~symétrie vectorielle par rapport à $\ker(s-I_E)$ et
parallèlement à $\ker(I_E+s)$.



%--------------------------------------------------
\subsubsection{Affinité vectorielle}
%--------------------------------------------------
Si $E=V\oplus W$, l'\emph{affinité vectorielle de direction $V$, de
rapport $\lambda\in\K^*$, parallèlement à $W$} est l'automorphisme $a$ de
$E$ tel que
$$
a(\vc x)=\lambda\vc v+\vc w
$$$\vc x=\vc v+\vc w$ est la décomposition de $\vc x$ suivant $V\oplus
W$; $a$ est caractérisé par $a\rvert_V=\lambda I_V$ et $a\rvert_W=I_W$
et on peut encore écrire $a=\lambda p_V+p_W$.



%--------------------------------------------------
\subsubsection{Projecteurs associés à une décomposition
 en somme directe}
%--------------------------------------------------
 Si $E=\bigoplus_{i=1}^q E_i$ et si $\vc x=\vc x_1+\cdots+\vc x_q$
est la
décomposition de $\vc x$ suivant les facteurs~$E_i$, on pose :
$$
p_i : \vc x\mapsto \vc x_i
$$
$p_i$ est le projecteur sur $E_i$ parallèlement à $\bigoplus_{j\neq i}
E_j$ et on a les propriétés suivantes
\begin{gather*}
p_i\circ p_i=p_i,\quad i\neq j\implique p_i\circ p_j=p_j\circ p_i=0,
 \quad\sum_{i=1}^q p_i=I_E,                      \\
\im p_i=E_i,\quad \ker p_i=\bigoplus_{\substack{j=1\\j\neq i}}^q E_j
\end{gather*}
L'application linéaire de  \eqref{eq:applin} s'écrit $u=u_1\circ
p_1+\cdots+u_q\circ p_q$.



%---------------------------------------------------------------------
\subsection{Cas de la dimension finie}
%---------------------------------------------------------------------
\begin{Df}[Base adaptée à une somme directe]\alaligne

Si $E=\bigoplus_{i=1}^q E_i$ et si $\mathcal{B}_i$ est une base de $E_i$,
la famille $\mathcal{B}=\bigcup_{i=1}^q\mathcal{B}_i$ est une~base de~$E$;
elle est dite \emph{adaptée à la décomposition en somme directe} de~$E$.
\end{Df}

\begin{proof}
$\#\mathcal{B}=\sum_i\dim E_i=\dim E$; il suffit de montrer que
$\mathcal{B}$ est une~famille génératrice, ce qui est le cas puisque
$\bigcup_i\mathcal{B}_i$ engendre $\sum_i E_i$.
\end{proof}
%--------------------------------------------------

\begin{Df}[Base adaptée à un sous-espace vectoriel]\alaligne

Si $F$ est un sous-espace vectoriel de $E$, toute base de $E$ dont les
premiers éléments constituent une base de $F$, est dite \emph{adaptée à $F$}.
\end{Df}

\begin{NBs}\mbox{}

 Les bases adaptées permettent de donner des matrices
\og simples\fg{} d'endomrphismes. Quelles sont les matrices des
projecteurs, des symétries et des affinités dans des bases adaptées?

 Si $\mathcal{B}$ est une base de $E$,
$\mathcal{B}_1$,\dots,$\mathcal{B}_q$ une partition de $\mathcal{B}$,
$E_i$ le sous-espace vectoriel engendré par $\mathcal{B}_i$, $E$ est la
somme directe des $E_i$ et $\mathcal{B}$ est une base adaptée à cette
décomposition.
\end{NBs}



%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Applications linéaires}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%---------------------------------------------------------------------
\subsection{Isomorphisme de tout supplémentaire du noyau avec l'image}
%---------------------------------------------------------------------
\begin{Th}[Théorème du noyau et de l'image]\alaligne

Si $u\in\LEF$ et $V$ est un supplémentaire de $\ker u$, l'application
$$
\bar{u} : \vc x\in V\mapsto u(\vc x)\in\im u
$$
définit un isomorphisme de $V$ sur $\im u$.
\end{Th}

\begin{proof}
$\bar{u}$ est une application linéaire et
$$
\ker \bar{u}=\ens{\vc x\in V}{u(\vc x)=\vc 0_F}=\ker u\cap V=\vc 0_E
$$
ce qui montre l'injectivité de $\bar{u}$.

 Pour tout $\vc y\in\im u$, il existe $\vc x\in E$ tel que $u(\vc x)=\vc
y$; puisque $E=V\oplus\ker u$, $\vc x$ se décompose en $\vc v+\vc w$ avec $(\vc v,\vc
w)\in V\times \ker u$, et
$$
\vc y=u(\vc x)=u(\vc v)+u(\vc w)=u(\vc v)=\bar{u}(\vc v)
$$
et montre la surjectivité de $\bar{u}$.
\end{proof}
%--------------------------------------------------

\begin{Cor}[Théorème du rang]%\alaligne

Si $E$ est de \emph{dimension finie}
$$
\reponse{$\dim E=\rg u+\dim(\ker u)$}
$$
\end{Cor}

\begin{proof}
$\bar{u}$ est un isomorphisme donc conserve la dimension et
$\dim V=\dim(\im u)=\rg u$; 
d'autre part, $V$ et $\ker u$ sont supplémentaires dans $E$, donc
$\dim E=\dim V+\dim(\ker u)$.
\end{proof}
%--------------------------------------------------

\begin{Cor}[Caractérisation des isomorphismes en dimension finie]\alaligne

Si $E$ et $F$ sont deux espaces vectoriels de \emph{même dimension
finie} $n$ et $u$ une application linéaire de $E$ vers $F$, alors
$$
\reponse{$
u\text{ est un isomorphisme }\iff u\text{ est injective }\iff\dim(\ker u)=0$\\
$\iff u\text{ est surjective }\iff\rg u=n
$}
$$
\end{Cor}

\begin{proof}
C'est une conséquence immédiate de $n=\dim E=\dim F=\rg u+\dim(\ker
u)$ et des équivalences
$$
u \text{ est injective}\iff\ker u=\{\vc 0_E\}\iff\dim(\ker u)=0
$$
ainsi que des équivalences
$$
u\text{ est surjective}\iff\im u=F\iff\dim(\im u)=\dim F
$$
\end{proof}
%--------------------------------------------------

\begin{Cor}[Caractérisation des automorphismes en dimension finie]\alaligne

 Si $E$ est un espace vectoriel de \emph{dimension finie} $n$ et $u$ un
endomorphisme de~$E$
$$\reponse{
$u\in\GLE\iff  u \text{ est injective} \iff u \text{ est surjective}
\iff \dim(\ker u)=0 \iff\rg u=n
$}$$
\end{Cor}



%---------------------------------------------------------------------
\subsection{Applications}
%---------------------------------------------------------------------
\subsubsection{Projection}
Si $V_1$ et $V_2$ sont deux supplémentaires dans $E$ du même sous-espace
vectoriel $W$, la projection $p_{V_1}$ de $E$ sur $V_1$ parallèlement à
$W$ induit un isomorphisme de $V_2$ sur $V_1$.

 C'est une application du théorème du noyau et de l'image : $p_{V_1}$ est
une~application linéaire d'image $V_1$ et de noyau $W$; elle
induit un isomorphisme de $V_2$, supplémentaire de $W$ sur son
image. En classe de
troisième, ce~théorème porte le nom de \og Théorème de Thalès\fg.


\subsubsection{Formule de Grassmann}
Si $V$ et $W$ sont deux sous-espaces vectoriels de dimension finie, on a
$$
\reponse{$
\dim(V\cap W)+\dim(V+W)=\dim V+\dim W
$}
$$
L'application $u : (\vc v,\vc w)\in V\times W\mapsto \vc v+\vc w\in V+W$
est linéaire et~surjective. Son noyau vérifie
$$
\ker u=\ens{(\vc v,\vc w)\in V\times W}{\vc v+\vc w=\vc 0}
=\ens{(\vc v,-\vc v)}{\vc v\in V\cap W}
$$
$\ker u$ est donc isomorphe à $V\cap W$, ce qui donne
$$
\dim(\ker u)=\dim(V\times W)-\rg u=\dim V+\dim W-\dim(V+W)
$$

\subsubsection{Polynômes d'interpolation de Lagrange}
 Comment déterminer les polynômes $P$ qui prennent des valeurs données
sur une famille $(a_i)_{i=0}^n$ %$(a_i)_{0\leq i\leq n}$
d'éléments de $K$ distincts deux à deux?
 En utilisant l'application linéaire
$$
u : P\in\K[X]\mapsto \bigl(P(a_0),\dots,P(a_n)\bigr)\in\K^{n+1}
$$

 Le noyau de $u$ est constitué des polynômes qui admettent pour
racines les scalaires $a_i$, $i\in\Intf0n$;
$\ker u$ est donc l'ensemble des multiples du polynôme
$N=\prod_{i=0}^n(X-a_i)$. Puisque $N$ est un polynôme de degré
$n+1$, $\K_n[X]$ est un
supplémentaire de $(N)=\ker u$, donc est isomorphe à $\im u$.
Ainsi $\im u$ est un sous-espace vectoriel de $\K^{n+1}$ de
dimension  $\dim \K_n[X]=n+1$, donc $\im u=\K^{n+1}$ et
$P\mapsto \bigl(P(a_0),\dots,P(a_n)\bigr)$
réalise un isomorphisme de $\K_n[X]$ sur $\K^{n+1}$.

 Pour $i\in\Intf0n$, on pose
$L_i=\prod_{j\in\Intf0n\setminus\{j\}}\ra{X-a_j}{a_i-a_j}$.
Les $L_i$ sont sont des polynômes de degré $n$ qui vérifient
$$
\qqs(i,j)\in\Intf0n^2,\ L_i(a_j)=\delta_{ij}
$$
Puisque $\sum_{i=0}^n \lambda_i
L_i(a_k)=\sum_{i=0}^n\lambda_i\delta_{ik}=\lambda_k$, la famille
$(L_0,\dots,L_n)$ est une famille libre et maximale, donc une base
de $\K_n[X]$ et
\begin{gather*}
 \qqs P\in\K_n[X],\ P=\sum_{i=0}^nP(a_i)L_i             \\
 \Bigl(u\rvert_{\K_n[X]}\Bigr)^{-1}(\lambda_0,\dots,\lambda_n)=
  \sum_{i=0}^n\lambda_i L_i                     \\
 u(P)=(\lambda_0,\dots,\lambda_n)\iff \exists A\in\K_n[X],\
  P=\sum_{i=0}^n \lambda_i L_i+AN
\end{gather*}
Si $\K_n[X]$ et $\K^{n+1}$ sont munies de leurs bases canoniques,
déterminer la matrice de $u\rvert_{\K_n[X]}$ et son inverse.


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Dualité}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

$E$ est un $\K$-espace vectoriel, que l'on supposera non réduit à $\{\vc
0_E\}$.

%---------------------------------------------------------------------
\subsection{Espace dual}
%---------------------------------------------------------------------
\begin{Df}[Forme linéaire]\alaligne

 Une \emph{forme linéaire sur $E$} est une application linéaire de $E$
vers le corps des scalaires $\K$.
\end{Df}

\begin{Df}[Espace dual ou dual]\alaligne

 Le \emph{dual de $E$} est l'ensemble des formes linéaires sur $E$; il
est noté $E^*$. Rappelons que $E^*=\Lin{E}{\K}$ est un $\K$-espace
vectoriel.
\end{Df}


\begin{NBs}\alaligne

 Toute forme linéaire non nulle sur $E$ est de rang 1, donc surjective.

 Si $E$ est de dimension finie, $E^*$ l'est aussi et
$$
\dim E^*=\dim \Lin{E}{\K}=\dim E
$$ 
\end{NBs}

\begin{Exs}\alaligne

 Les formes linéaires sur $\K^n$ sont du type
$$
\vphi : \nuple{x}\in\K^n\mapsto a_1x_1+\cdots+a_nx_n=\nuple a
\begin{pmatrix}
 x_1\\ \vdots \\ x_n
\end{pmatrix}
$$

 $\delta_a : f\mapsto f(a)$, $f\mapsto\int_a^b f$ et $\delta'_a : f\mapsto
f'(a)$ sont des formes linéaires sur, respectivement, $\CI[\R]$, $\Cab$
et $\CkIE[\R]{1}$.

 Si $E$ est de dimension finie $n$, si $\mathcal{B}=\nuple{\vc e}$
est une base
de $E$ et $\vc x=\sum_{j=1}^n x_j\vc e_j$ la décompo\-si\-tion de $\vc x$
suivant $\mathcal{B}$, les applications
$$
\vphi_j : \vc x\in E\mapsto x_j 
$$
qui au vecteur $\vc x$ associent sa composante suivant $\vc e_j$
relativement à $\mcal{B}$, sont
des formes linéaires sur $E$; on les appelle les \emph{ formes
linéaires coordonnées}.
\end{Exs}

%---------------------------------------------------------------------
\subsection{Hyperplan}
%---------------------------------------------------------------------
\begin{Df}[Hyperplan]\alaligne

 Un \emph{hyperplan} de $E$ est un sous-espace vectoriel qui admet une
droite (vectorielle) pour supplé\-men\-taire.
$$
\reponse{$
{\mcal{H}} \text{ est un hyperplan }\iff \exists\,\vc e\in E,\
E={\mcal{H}}\oplus {\mcal{D}}={\mcal{H}}\oplus\K\vc e
$}
$$
\end{Df}

\begin{NBs}\alaligne

 Tous les supplémentaires d'un hyperplan sont des droites
(vectorielles) puisqu'ils sont isomorphes.

 Si $E$ est de dimension finie $n$, les hyperplans de $E$ sont les
sous-espaces vectoriels de $E$ de dimension $n-1$.
\end{NBs}

%--------------------------------------------------
\subsubsection{Caractérisation à l'aide des formes linéaires}
%--------------------------------------------------
\begin{Prop}\mbox{}
${\mcal{H}}$ est un hyperplan si, et seulement si, ${\mcal{H}}$ est le noyau d'une
forme linéaire non nulle.
\end{Prop}

\begin{proof}\alaligne

\CN Soit $\vc e$ tel que ${\mcal{H}}\oplus\K\vc e=E$; ainsi
$
\qqs\vc x\in E,\ \exists!(\vc h,\lambda)\in {\mcal{H}}\times\K,\ \vc x=\vc
h+\lambda\vc e
$
et l'application
$
\vphi : \vc x\in E\mapsto\lambda\in\K
$
est une forme linéaire sur $E$ dont le noyau est ${\mcal{H}}$.

\CS Soient $\vphi\in E^*\setminus\{0_{E^*}\}$ et $\vc e\in E$ tel que
$\vphi(\vc e)\neq0$; pour tout $\vc x\in E$, on a
$$
\vc x -\lambda\vc e\in\ker\vphi\iff 0=\vphi(\vc x-\lambda\vc e)=\vphi(\vc
x)-\lambda\vphi(\vc e)\iff \lambda=\ra{\vphi(\vc x)}{\vphi(\vc e)}
$$
ce qui montre que
$
\exists!(\vc h,\lambda)=
\bigl(\vc x-\lambda\vc e,\ra{\vphi(\vc x)}{\vphi(\vc e)}\bigl)\in {\mcal{H}}\times\K 
$
et $E=\ker\vphi\oplus\K\vc e$, \ie{} $\ker\vphi$ est un hyperplan.
\end{proof}
%--------------------------------------------------

\begin{NB}
 Si ${\mcal{H}}$ est un hyperplan et $\vphi$ une forme linéaire sur $E$
de  noyau~${\mcal{H}}$, on a 
$$
E={\mcal{H}}\oplus\K\vc e\iff\vphi(\vc e)\neq 0\iff\vc e\notin {\mcal{H}}
$$
Ainsi, toute droite (vectorielle) ${\mcal{D}}$ non contenue dans l'hyperplan ${\mcal{H}}$
est un supplémentaire de ${\mcal{H}}$.
\end{NB}


%--------------------------------------------------
\subsubsection{Équation d'un hyperplan}
%--------------------------------------------------
\begin{Prop}
Si ${\mcal{H}}$ est un hyperplan noyau de la forme linéaire $\vphi$, toute autre
forme linéaire $\psi$ s'annule sur ${\mcal{H}}$ si, et seulement si,
$(\vphi,\psi)$ est liée.
\end{Prop}

\begin{proof}\alaligne

\CS Puisque la famille $(\vphi,\psi)$ est liée et $\vphi\neq 0$, il
existe $\lambda\in\K$ tel que
$\psi=\lambda\vphi$; ainsi $\ker\psi\supset\ker\vphi={\mcal{H}}$.

\CN Si $\psi$ est une forme linéaire dont le noyau contient ${\mcal{H}}=\ker\vphi$,
$\vphi\rvert_{\mcal{H}}=0=\psi\rvert_{\mcal{H}}$.
 Si $\vc e\notin {\mcal{H}}$; alors $\psi(\vc e)=\alpha\vphi(\vc e)$ en posant
$\alpha=\ra{\psi(\vc e)}{\vphi(\vc e)}$, ce qui montre que
$\psi\rvert_{\K\vc e}=\alpha\vphi\rvert_{\K\vc e}$.
 Par conséquent, $\psi=\alpha\vphi$ puisque cette égalité a lieu sur ${\mcal{H}}$
et $\K\vc e$ supplémentaires dans $E$.
\end{proof}
%--------------------------------------------------

\begin{NB}
 $\vphi$ est \emph{une équation} de ${\mcal{H}}$; cette équation est unique à un
\emph{coefficient multiplicatif non nul près}.
\end{NB}


%--------------------------------------------------
\subsubsection{Formes linéaires et vecteurs de $E$}
%--------------------------------------------------
\begin{Prop}
Si $\vc e$ est un vecteur non nul de $E$, il existe une forme linéaire
sur $E$ qui vaut 1 en $\vc e$.
\end{Prop}

\begin{proof}
Appelons ${\mcal{H}}$ un hyperplan supplémentaire de la droite $\K\vc e$ et
notons $\psi$ une équation de ${\mcal{H}}$; puisque $\vc e\notin {\mcal{H}}$, $\psi(\vc
e)\neq0$ et $\bigl(\psi(\vc e)\bigr)^{-1}\psi$ convient.
\end{proof}
%--------------------------------------------------

\begin{Cor}
 Le seul élément de $E$ qui annule toutes les formes linéaires sur $E$
est $\vc 0_E$, \ie
$$
\bigcap_{\vphi\in E^*}\ker \vphi=\{\vc0_E\}
$$
\end{Cor}


%---------------------------------------------------------------------
\subsection{Base duale}
%---------------------------------------------------------------------
 Dans ce paragraphe, $E$ désigne un $\K$-espace vectoriel de dimension
finie $n$ muni d'une base $\mathcal{B}=\nuple{\vc e}$; les
composantes relatives à $\mathcal{B}$ d'un vecteur $\vc x$ de $E$
sont notées $\nuple x$. Rappelons que
$E^*$ est  un espace vectoriel de même dimension  que $E$.

 Les formes linéaire coordonnées $\vphi_i : \vc x\mapsto x_i$
vérifient les relations d'orthogonalité de Kronecker
\begin{equation}
\qqs(i,j)\in\Intf1n^2,\ \vphi_i(\vc e_j)=\delta_{ij}\label{eq\DP BaseDuale}
\end{equation}
Elles constituent une base de $E^*$ car elles forment une famille maximale
et libre :
$$
\sum_{i=1}^n\lambda_i\vphi_i=0_{E^*}
\implique\qqs j\in\Intf1n,\
0=\Bigl(\sum_{i=1}^n \lambda_i\vphi_i\Bigr)(\vc e_j)
=\sum_{i=1}^n\lambda_i\vphi_i(\vc e_j)
=\sum_{i=1}^n\lambda_i\delta_{ij}=\lambda_j 
$$

\begin{Df}[Base duale]\alaligne

 La famille des formes linéaires coordonnées $(\vphi_i)_{1\leq i\leq
n}$ relatives à
une base $\mathcal{B}$ constitue une base de $E^*$; on la note
$\mathcal{B}^*$ et on l'appelle \emph{base duale de} $\mathcal{B}$.
\end{Df}



\begin{NBs}
Si $\vphi$ est une forme linéaire sur $E$, la coordonnée de $\vphi$
suivant $\vphi_j$ est $\vphi(\vc e_j)$ car
$$
\vphi=\sum_{i=1}^n \lambda_i\vphi_i\implique
\vphi(\vc e_j)=\sum_{i=1}^n \lambda_i\vphi_i(\vc e_j)
=\sum_{i=1}^n \lambda_i\delta_{ij}=\lambda_j
$$
Si $\mathcal{B}$ est une base de $E$, $\mathcal{B}^*$ est l'unique base
de $E^*$ qui vérifie les relations \ref{eq\DP BaseDuale}.
\end{NBs}


%---------------------------------------------------------------------
\subsection{Équation d'un hyperplan en dimension finie}\alaligne
%---------------------------------------------------------------------

On note $\nuple x$ les coordonnées d'un vecteur $\vc x$ de $E$ relatives
à la base $\mathcal{B}=\nuple{\vc e}$.

\begin{Th}[]\mbox{}
${\mcal{H}}$ est un hyperplan de $E$ si, et seulement si, il existe $\nuple
a\in\K^n\setminus\{\vc0\}$ tel que
$$
\vc x\in {\mcal{H}}\iff a_1x_1+\cdots+a_nx_n=0
$$
\end{Th}

\begin{proof}\alaligne

\CN Soit $\vphi$ une forme linéaire non nulle sur $E$ de noyau ${\mcal{H}}$; posons
$a_j=\vphi(\vc e_j)$ ce qui donne $\vphi=\sum_{i=1}^n a_i\vphi_i$ et :
$\vc x\in {\mcal{H}}=\ker\vphi\iff
0=\vphi(\vc x)=\sum_{i=1}^n a_i\vphi_i(\vc x)=\sum_{i=1}^n a_i x_i$

\CS Si $a_1x_1+\cdots+a_nx_n=0$ désigne une équation de ${\mcal{H}}$, posons
$\vphi=\sum_{i=1}^n a_i\vphi_i$; $\vphi$ est une forme linéaire non nulle
puisque les coefficients $a_i$ ne sont pas tous nuls et ${\mcal{H}}=\ker\vphi$.
\end{proof}
%--------------------------------------------------


\begin{NB}
L'équation $a_1x_1+\cdots+a_nx_n=0$ est une équation de ${\mcal{H}}$, et
toute autre équation $b_1x_1+\cdots+b_nx_n=0$ vérifie
$$
\exists\lambda\neq0,\ \nuple b=\lambda\nuple a
$$
 
\end{NB}


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Trace}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%---------------------------------------------------------------------
\subsection{Trace d'une matrice}
%---------------------------------------------------------------------
\begin{Df}[Trace d'une matrice]\alaligne

 Á toute matrice carrée $A=[a_{ij}]$ d'ordre $n$, on associe le nombre
$\sum_{i=1}^n a_{ii}$ que l'on nomme \emph{trace} de la matrice $A$.
$$
\reponse{$\dsp
\tr A=\sum_{i=1}^n a_{ii}
$}
$$
\end{Df}

\begin{Prop}[Trace d'une combinaison linéaire de matrices]\alaligne

$\tr$ est une forme linéaire non nulle sur $\MnK$.
\end{Prop}

\begin{proof}
Elle est laissée aux soins du lecteur.
\end{proof}
%--------------------------------------------------

\begin{NB}
 On note $E^{i,j}$ la matrice élémentaire de $\MnK$ dont tous les
éléments sont nuls excepté celui à l'intersection de la $i$\up{ème}
ligne et de la $j$\up{ème} colonne qui vaut $1$; la famille
$(E^{i,j})_{1\leq i,j\leq n}$ est une base de $\MnK$ (appelée base
canonique de $\MnK$). La base duale $\mathcal{B}^*=(\vphi^{i,j})_{1\leq
i,j\leq n}$ vérifie
$$
\tr =\sum_{i=1}^n\vphi^{i,i}
$$
ce qui montre que $\tr$ est une forme linéaire non nulle.
\end{NB}

\begin{Cor}[]\mbox{}
$\ker(\tr)$ est un hyperplan de $\MnK$ dont un supplémentaire est la
droite (vectorielle) des matrices scalaires, \ie{} la droite dirigée par $I_n$.
$$
\reponse{$
\MnK=\ker(\tr)\oplus\K I_n
$}
$$
\end{Cor}

\begin{proof}
Puisque $\tr$ est une forme linéaire non nulle, son noyau est un
hyperplan; puisque $\tr I_n=n\neq0$, la droite dirigée par $I_n$ est un
supplémentaire de $\ker(\tr)$.
\end{proof}
%--------------------------------------------------

\begin{Th}[Trace d'un produit de matrices]\alaligne

 Si $A$ et $B$ sont deux matrices, $A$ de  taille $n\times p$ et $B$
de taille $p\times n$, les traces de $AB$ et $BA$ sont égales.
$$
\reponse{$
\qqs(A,B)\in\MnpK\times\Mnp[p,n]{\K},\ \tr AB=\tr BA
$}
$$
\end{Th}

\begin{proof}
$AB$ (resp. $BA$) est une matrice carrée d'ordre $n$ (resp. $p$) et
\begin{gather*}
\tr AB=\sum_{i=1}^n(AB)_{ii}
 =\sum_{i=1}^n\Bigl(\sum_{s=1}^p a_{is}b_{si}\Bigr)
 =\sum_{s=1}^p \sum_{i=1}^n a_{is}b_{si}               \\
\tr BA=\sum_{j=1}^p(BA)_{jj}
 =\sum_{j=1}^p\Bigl(\sum_{r=1}^n b_{jr} a_{rj}\Bigr)
 =\sum_{j=1}^p \sum_{r=1}^n a_{jr}b_{rj}
\end{gather*}
\end{proof}
%--------------------------------------------------

%----------------------------------------------------------------------
\subsection{Matrices semblables}
%----------------------------------------------------------------------
\begin{Df}[Matrices semblables]\alaligne

 Deux matrices carrées d'ordre $n$ $A$ et $B$ sont \emph{semblables} s'il
existe une matrice carrée d'ordre $n$ et inversible $P$ telle que $B=P^{-1}AP$.
\begin{center}
\reponse{
$A\in\MnK$ et $B\in\MnK$ sont semblables $\iff\exists P\in\GLnK,\ B=P^{-1}AP$
}
\end{center}
\end{Df}

\begin{NBs}\alaligne

 La matrice unité d'ordre $n$ $I_n$ n'est semblable qu'à elle même.

 La relation \og{}être semblable à\fg{} est une relation d'équivalence.
\end{NBs}

\begin{Th}[Endomorphisme et matrices semblables]\alaligne

 Si $u$ est un endomorphisme d'un espace vectoriel $E$ de dimension
finie et si $\mathcal{B}$ et $\mathcal{B'}$ sont deux bases de $E$, les
matrices $\mat(u)$ et
$\mat[B'](u)$ sont semblables.
\end{Th}

\begin{proof}
 Notons $P$ la matrice de changement de bases de la base $\mathcal{B}$ à la
base $\mathcal{B'}$, matrice dont les colonnes sont les composantes des
vecteurs de $\mathcal{B'}$ relativement à $\mathcal{B}$, soit
$P=\mat(\mathcal{B'})$. Dans ce cas, on a :
\begin{equation}
\mat[B'](u)=
\mat[B'](\mathcal{B})
\mat(u)
\mat(\mathcal{B'})
=P^{-1}\mat(u)P
\end{equation}
\end{proof}
%----------------------------------------------------------------------

\begin{Cor}[Trace de deux matrices semblables]\alaligne

 Deux matrices semblables ont même trace.
$$
\reponse{$
\qqs(A,P)\in\MnK\times\GLnK,\ \tr(P^{-1}AP)=\tr A
$}
$$
\end{Cor}

\begin{proof}\alaligne

$\tr(P^{-1}AP)=\tr\bigl(P^{-1}(AP)\bigr)=\tr\bigl((AP)P^{-1}\bigr)=
\tr\bigl(A(PP^{-1})\bigr)=\tr A$
\end{proof}
%--------------------------------------------------

\begin{NB}
 $\tr(ABC)=\tr(BCA)$ mais $\tr(ABC)\neq\tr(BAC)$ en général. Voici un
contre-exemple :
\begin{align*}
 E^{1,2}E^{2,1}E^{1,1}=E^{1,1}E^{1,1}=E^{1,1}  &\implique
  \tr(E^{1,2}E^{2,1}E^{1,1})=\tr E^{1,1}=1             \\
 E^{2,1}E^{1,2}E^{1,1}=E^{2,2}E^{1,1}=0      &\implique
  \tr(E^{1,2}E^{2,1}E^{1,1})=0
\end{align*}
\end{NB}



%---------------------------------------------------------------------
\subsection{Trace d'un endomorphisme}
%---------------------------------------------------------------------
 Si $u$ est un endomorphisme d'un espace vectoriel $E$ de dimension
finie et $\mathcal{B}$ et $\mathcal{B'}$ deux bases de $E$, les
matrices $\mat(u)$ et
$\mat[B'](u)$ sont semblables et donc leurs
traces sont égales, ce qui permet la

\begin{Df}[Trace d'un endomorphisme]\alaligne

 On appelle \emph{trace d'un endomorphisme} la trace de l'une
quelconque de ses matrices.
$$
\reponse{$
\tr u=\tr\bigl(\mat(u)\bigr)
$}
$$
\end{Df}

\begin{NB}
 $\tr$ est une forme linéaire non nulle sur $\LE$ et
$\LE=\ker(\tr)\oplus\K I_E$
\end{NB}


\begin{Prop}[Trace d'un projecteur]\alaligne

 La trace d'un projecteur est égale à son rang.
\end{Prop}

\begin{proof}
Si $p$ est un projecteur et $\mathcal{B}$ une base adaptée à la
décomposition $E=\ker(I_E-p)\oplus\ker p$, la matrice de $p$ relativement
à cette base est
$$
\mat(p)=
\begin{pmatrix}
 I_r & \vdots & 0_{r,n-r} \\
 \hdotsfor{3}       \\
 0_{n-r,r} & \vdots & 0_{n-r,n-r} 
\end{pmatrix}
$$
ce qui montre que $\tr p=r=\rg p$.
\end{proof}
%--------------------------------------------------

 Cette proposition ne caractérise pas les projecteurs : $A=
\bigl( \begin{smallmatrix}
 0&1\\1&2
\end{smallmatrix}  \bigr)$
a une trace et un rang égaux à 2, mais ne
peut être un projecteur car tout projecteur de rang maximum est l'identité.