%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \chapter{Espaces vectoriels, compléments} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \minitoc \newpage $\K$ désigne l'un des corps $\R$ ou $\C$; $E$ et $F$ sont des $\K$-espaces vectoriels; on~note $I_E$ (resp. $I_F$) l'application identique de $E$ (resp. de $F$). %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Somme directe} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Dans ce paragraphe, $q$ est un entier au moins égal à 2, et $E_1$, $E_2$, \dots, $E_q$ désignent des $\K$-sous-espaces vectoriels de $E$. %--------------------------------------------------------------------- \subsection{Somme} %--------------------------------------------------------------------- \begin{Df}[Somme de sous-espaces vectoriels]\alaligne On note $\dsp\sum_{i=1}^q E_i$ l'ensemble $\dsp\ens[\Big]{\sum_{i=1}^q \vc x_i}{(\vc x_1,\dots,\vc x_q)\in E_1\times\cdots\times E_q}$;\\ $\sum_{i=1}^q E_i$ est appelé \emph{somme} des sous-espaces vectoriels $E_i$. \end{Df} \begin{NBs}\alaligne $\sum_{i=1}^q E_i$ est l'image de l'application linéaire $\Psi$ $$ \Psi : (\vc x_1,\dots,\vc x_q)\in E_1\times\cdots\times E_q \mapsto \vc x_1+\cdots+\vc x_q $$ Ainsi, $\sum_{i=1}^q E_i$ est un $\K$-sous-espace vectoriel de $E$ et $\Psi : E_1\times\cdots\times E_q \to\sum_{i=1}^q E_i =\im\Psi$ est une application linéaire \emph{surjective}. Si $\mathcal{G}_i$ est une famille génératrice de $E_i$, $\bigcup_{i=1}^q\mathcal{G}_i$ est une famille génératrice de $\sum_{i=1}^q E_i$. \end{NBs} %--------------------------------------------------------------------- \subsection{Somme directe} %--------------------------------------------------------------------- \begin{Df}[Somme directe de sous-espaces vectoriels]\alaligne La somme $\sum_{i=1}^q E_i$ est une \emph{somme directe} si, et seulement si, l'application linéaire $\Psi$ $$ \Psi : (\vc x_1,\dots,\vc x_q) \mapsto\vc x_1+\cdots+\vc x_q $$ est un \emph{isomorphisme} d'espaces vectoriels entre $E_1\times\cdots\times E_q$ et $\sum_{i=1}^q E_i$; dans ce cas, la somme est notée $\dsp\bigoplus_{i=1}^q E_i$. \end{Df} \begin{Th}[Caractérisation d'une somme directe]\alaligne Les propriétés suivantes sont équivalentes : \begin{prop} \item la somme $\sum_{i=1}^q E_i$ est directe; \item la seule décomposition de $\vc0_E$ dans $\sum_{i=1}^q E_i$ est $\vc 0_E=\sum_{i=1}^q\vc 0_{E_i}$; \item $\qqs\vc x\in\sum_{i=1} ^q E_i,\ \exists!(\vc x_1,\dots,\vc x_q)\in E_1\times\cdots\times E_q,\ \vc x=\sum_{i=1}^q\vc x_i$ \item $\qqs k\in\Intf1{q-1},\ \bigl(\sum_{i=1}^k E_i\bigr)\cap E_{k+1} = \{\vc0_E\}$ \end{prop} \end{Th} \begin{proof} Puisque $\Psi$ est une application linéaire surjective, $\Psi$ est un isomorphisme si, et seulement si, $\Psi$ est injective.\\ % $(ii)\iff \ker\Psi=\{\vc 0_E\}\iff\Psi\text{ est injective}\iff (i)$.\\[1ex] % $(iii)\iff\Psi\text{ est bijective}\iff (i)$.\\[1ex] % \hspace*{-3em}$(i)\Longrightarrow(\romannumeral4)$ Soient $k\in\Intf1{q-1}$ et $\vc x\in \bigl(\sum_{i=1}^k E_i\bigr)\cap E_{k+1}$; il existe donc $(\vc x_1,\dots,\vc x_k)\in E_1\times\cdots\times E_k$ tel que $\vc x=\vc x_1+\cdots+\vc x_k$, {}\ie $$ \Psi(\vc x_1,\dots,\vc x_k,\vc0_{E_{k+1}},\dots,\vc0_{E_q})= \Psi(\vc0_{E_1},\dots,\vc0_{E_k},\vc x,\vc0_{E_{k+2}},\dots,\vc0_{E_q}) $$ et, puisque $\Psi$ est une application injective $$ (\vc x_1,\dots,\vc x_k,\vc0_{E_{k+1}},\dots,\vc0_{E_q})= (\vc0_{E_1},\dots,\vc0_{E_k},\vc x,\vc0_{E_{k+2}},\dots,\vc0_{E_q}) $$ ce qui montre que $\vc x=\vc0_E$.\\[1ex] % \hspace*{-3em}$(\romannumeral4)\Longrightarrow (i)$ Supposons l'application $\Psi$ non injective; il existe alors $(\vc x_1,\dots,\vc x_q)\in\ker\Psi\setminus\{\vc0_E\}$, {}\ie{} $\vc x_1+\cdots+\vc x_q=\vc 0_E$ avec $(\vc x_i)_{1\leq i\leq q}$ non tous nuls. On pose $i_0=\max\ens{i}{\vc x_i\neq\vc 0}$; $i_0$ est un entier au moins égal à 2 et $$ \vc x_{i_0}=-(\vc x_1+\cdots+\vc x_{i_0-1})\in E_{i_0}\cap\Bigl(\sum_{i=1}^{i_0-1} E_i\Bigr) $$ ce qui est en contradiction avec l'hypothèse; ainsi $\ker\Psi$ est réduit à $\{\vc0_E \}$ et $\Psi$~est une application injective. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Supplémentaire} %--------------------------------------------------------------------- \begin{Df}[Sous-espace supplémentaire]\alaligne Deux sous-espaces vectoriels $V$ et $W$ de $E$ sont dits \emph{supplémentaires} si, et seulement si, $E$ est la somme directe de $V$ et $W$, soit $$E=V\oplus W$$ \end{Df} \begin{Th}[Caractérisation des supplémentaires]\alaligne Les propriétés suivantes sont équivalentes \begin{prop} \item $V$ et $W$ sont supplémentaires (dans $E$); \item tout $\vc x$ de $E$ s'écrit de manière unique $\vc x=\vc v+\vc w$ avec $(\vc v,\vc w)\in V\times W$; \item $V+W=E$ et $V\cap W=\{\vc 0_E\}$. \end{prop} \end{Th} \begin{proof} C'est la démonstration précédente pour $q=2$ et $V+W=E$. \end{proof} %-------------------------------------------------- \begin{Ex} Si $P$ est un polynôme de $\K[X]$ de degré $n+1$, l'ensemble $(P)=\ens{AP}{A\in\K[X]}$ des multiples de $P$ et l'ensemble $\K_n[X]$ des polynômes de degré au plus $n$, sont supplémentaires dans $\K[X]$. $$ \reponse{$\K[X]=(P)\oplus\K_n[X]\qquad\text{ avec $\deg P=n+1$}$} $$ \end{Ex} \begin{proof} $(P)$ et $\K_n[X]$ sont des sous-espaces vectoriels de $\K[X]$ et la division euclidienne des polynômes donne, pour tout $B\in\K[X]$, l'existence d'un couple unique $(A,R)\in\K[X]\times\K_n[X]$ tel que $B=AQ+R$. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Cas de la dimension finie} %--------------------------------------------------------------------- \begin{Th}[Somme directe et dimension]\alaligne Si $E$ est un espace vectoriel de dimension finie, la somme $\sum_{i=1}^q E_i$ est directe si, et seulement si, $$ \dim\Bigl(\sum_{i=1}^q E_i\Bigr)=\sum_{i=1}^q\dim E_i $$ \end{Th} \begin{proof} $\Psi : (\vc x_1,\dots,\vc x_q)\in E_1\times\cdots\times E_q \mapsto \vc x_1+\cdots+\vc x_q\in\sum_{i=1}^q E_i$ est une application linéaire et surjective; $\Psi$ est bijective si, et seulement~si les espaces vectoriels $E_1\times\cdots\times E_q$ et $\sum_{i=1}^q E_i$ ont même dimension; or $\dim(E_1\times\cdots\times E_q)=\sum_{i=1}^q\dim E_i$, ce qui démontre l'équivalence annoncée. \end{proof} %-------------------------------------------------- \begin{Cor}[Cas des supplémentaires]\alaligne Soient $E$ un espace vectoriel de dimension finie $n$ et $V$ un sous-espace vectoriel de dimension $p$ $(p\leq n)$; \begin{prop} \item tout supplémentaire de $V$ est de dimension $n-p$; \item soit $W$ un sous-espace vectoriel de dimension $n-p$; $W$ est un supplémentaire de $V$ si, et seulement~si, $V\cap W=\{\vc 0_E\}$, ou bien si, et seulement~si, $V+W=E$. \end{prop} \end{Cor} \begin{proof}\mbox{} \begin{demprop} \monitem $E=V\oplus W\implique \dim E=\dim(V\oplus W)=\dim V+\dim W$; \monitem seule les réciproques méritent une démonstration. Si $V\cap W=\{\vc 0_E\}$, $\dim(V+W)=\dim V+\dim W=n=\dim E$, et donc $V+W=E$ et $V\oplus W=E$. Si $V+W=E$, $\dim(V+W)=\dim E=n=\dim V+\dim W$, ce qui montre que $V\oplus W=E$. \end{demprop} \end{proof} %-------------------------------------------------- \begin{NB} La connaissance d'un renseignement sur la dimension permet de diviser le travail par deux! \end{NB} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Décomposition de $E$ en somme directe} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %--------------------------------------------------------------------- \subsection{Applications linéaires} %--------------------------------------------------------------------- \begin{Th}[Contruction d'applications linéaires]\alaligne Si $E=\bigoplus_{i=1}^q E_i$ et si, pour tout $i\in\Intf1q$, $u_i\in\mathcal{L}(E_i,F)$, il existe une unique application liné\-aire $u\in\LEF$ telle que $$ \qqs i\in\Intf 1q,\quad\ u\rvert_{E_i}=u_i $$ \end{Th} \begin{proof}\alaligne \hspace*{-3em}\emph{Analyse}. Si $\vc x=\vc x_1+\cdots+\vc x_q$ est la décomposition d'un vecteur $\vc x\in E$ suivant les facteurs $E_i$, \begin{align} u(\vc x)& = u(\vc x_1)+\cdots+u(\vc x_q) &\qquad&\text{ par linéarité}\\ & = u_1(\vc x_1)+\cdots+u_q(\vc x_q) &\qquad &\text{car $u\rvert_{E_i}=u_i$}\label{eq\DP applin} \end{align} ce qui montre l'unicité de $u$. \hspace*{-3em}\emph{Synthèse}. Pour $\vc x\in E$, on pose $u(\vc x)=u_1(\vc x_1)+\cdots+u_q(\vc x_q)$, ce qui définit $u$ puisque la décomposition $\vc x=\vc x_1+\cdots+\vc x_q$ est unique. Par construction $u\rvert_{E_i}=u_i$ et $u$ est une application linéaire car pour tout $(\lambda,\mu)\in\K^2$ $$ \vc x=\vc x_1+\cdots+\vc x_q,\ \vc y=\vc y_1+\cdots+\vc y_q \implique \lambda\vc x+\mu\vc y= (\lambda\vc x_1+\mu\vc y_1)+\cdots+(\lambda\vc x_q+\mu\vc y_q) $$ et \begin{align*} u(\lambda\vc x+\mu\vc y) &= u_1(\lambda\vc x_1+\mu\vc y_1)+\cdots+u_q(\lambda\vc x_q+\mu\vc y_q)\\ &= \bigl(\lambda u_1(\vc x_1)+\mu u_1(\vc y_1)\bigr)+\cdots+ \bigl(\lambda u_q(\vc x_q)+\mu u_q(\vc y_q)\bigr) \\ &=\lambda\bigl(u_1(\vc x_1)+\cdots+u_q(\vc x_q)\bigr)+ \mu\bigl(u_1(\vc y_1)+\cdots+u_q(\vc y_q)\bigr) \\ &=\lambda u(\vc x)+\mu u(\vc y) \end{align*} \end{proof} %-------------------------------------------------- %-------------------------------------------------- \subsubsection{Projecteur} %-------------------------------------------------- Soient $E=V\oplus W$ et $\vc x=\vc v+\vc w$ la décomposition de $\vc x$ suivant $V$ et $W$; on pose $$ p_V : \vc x\mapsto\vc v\quad\et\quad p_W : \vc x\mapsto\vc w $$ On a alors les propriétés suivantes : \begin{gather*} p_V\circ p_V=p_V,\quad p_V+p_W=I_E,\quad p_V\circ p_W=p_W\circ p_V=0_{\LE} \\ \ker p_V=W,\quad \im p_V=\ker(I_E-p_V)=V,\quad p_V\rvert_V=I_V,\quad p_V\rvert_W=0_{\lin{V}} \end{gather*} Réciproquement, si $p$ est un endomorphisme de $E$ qui vérifie $p\circ p=p$, on a \begin{prop} \item $\im p=\ker(I_E-p)$; \item $\im p$ et $\ker p$ sont supplémentaires (dans $E$); \item $p$ est le projecteur d'image $\im p=\ker(I_E-p)$ parallèlement à $\ker p$, {\ie} $$ p\rvert_{\im p}=I_{\im p}\quad\et\quad p\rvert_{\ker p}=0 $$ \end{prop} %-------------------------------------------------- \subsubsection{Symétrie vectorielle} %-------------------------------------------------- Si $E=V\oplus W$, la \emph{symétrie vectorielle par~rapport à~$V$ et parallèlement à~$W$} est l'automorphisme $s$ de $E$ tel que $$ s(\vc x)=\vc v-\vc w\quad\text{\ie}\quad s=p_V-p_W=2p_V-I_E $$ où $\vc x=\vc v+\vc w$ est la décomposition de $\vc x$ suivant $V\oplus W$.\\ On a les propriétés suivantes : \begin{gather*} s\rvert_V=I_V,\quad s\rvert_W=-I_W,\quad s=p_V-p_W,\quad I_E+s=2p_V \\ s\circ s=I_E,\quad s^{-1}=s \end{gather*} Réciproquement, tout endomorphisme $s$ de $E$ qui vérifie $s\circ s=I_E$ est la~symétrie vectorielle par rapport à $\ker(s-I_E)$ et parallèlement à $\ker(I_E+s)$. %-------------------------------------------------- \subsubsection{Affinité vectorielle} %-------------------------------------------------- Si $E=V\oplus W$, l'\emph{affinité vectorielle de direction $V$, de rapport $\lambda\in\K^*$, parallèlement à $W$} est l'automorphisme $a$ de $E$ tel que $$ a(\vc x)=\lambda\vc v+\vc w $$ où $\vc x=\vc v+\vc w$ est la décomposition de $\vc x$ suivant $V\oplus W$; $a$ est caractérisé par $a\rvert_V=\lambda I_V$ et $a\rvert_W=I_W$ et on peut encore écrire $a=\lambda p_V+p_W$. %-------------------------------------------------- \subsubsection{Projecteurs associés à une décomposition en somme directe} %-------------------------------------------------- Si $E=\bigoplus_{i=1}^q E_i$ et si $\vc x=\vc x_1+\cdots+\vc x_q$ est la décomposition de $\vc x$ suivant les facteurs~$E_i$, on pose : $$ p_i : \vc x\mapsto \vc x_i $$ $p_i$ est le projecteur sur $E_i$ parallèlement à $\bigoplus_{j\neq i} E_j$ et on a les propriétés suivantes \begin{gather*} p_i\circ p_i=p_i,\quad i\neq j\implique p_i\circ p_j=p_j\circ p_i=0, \quad\sum_{i=1}^q p_i=I_E, \\ \im p_i=E_i,\quad \ker p_i=\bigoplus_{\substack{j=1\\j\neq i}}^q E_j \end{gather*} L'application linéaire de \eqref{eq:applin} s'écrit $u=u_1\circ p_1+\cdots+u_q\circ p_q$. %--------------------------------------------------------------------- \subsection{Cas de la dimension finie} %--------------------------------------------------------------------- \begin{Df}[Base adaptée à une somme directe]\alaligne Si $E=\bigoplus_{i=1}^q E_i$ et si $\mathcal{B}_i$ est une base de $E_i$, la famille $\mathcal{B}=\bigcup_{i=1}^q\mathcal{B}_i$ est une~base de~$E$; elle est dite \emph{adaptée à la décomposition en somme directe} de~$E$. \end{Df} \begin{proof} $\#\mathcal{B}=\sum_i\dim E_i=\dim E$; il suffit de montrer que $\mathcal{B}$ est une~famille génératrice, ce qui est le cas puisque $\bigcup_i\mathcal{B}_i$ engendre $\sum_i E_i$. \end{proof} %-------------------------------------------------- \begin{Df}[Base adaptée à un sous-espace vectoriel]\alaligne Si $F$ est un sous-espace vectoriel de $E$, toute base de $E$ dont les premiers éléments constituent une base de $F$, est dite \emph{adaptée à $F$}. \end{Df} \begin{NBs}\mbox{} Les bases adaptées permettent de donner des matrices \og simples\fg{} d'endomrphismes. Quelles sont les matrices des projecteurs, des symétries et des affinités dans des bases adaptées? Si $\mathcal{B}$ est une base de $E$, $\mathcal{B}_1$,\dots,$\mathcal{B}_q$ une partition de $\mathcal{B}$, $E_i$ le sous-espace vectoriel engendré par $\mathcal{B}_i$, $E$ est la somme directe des $E_i$ et $\mathcal{B}$ est une base adaptée à cette décomposition. \end{NBs} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Applications linéaires} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %--------------------------------------------------------------------- \subsection{Isomorphisme de tout supplémentaire du noyau avec l'image} %--------------------------------------------------------------------- \begin{Th}[Théorème du noyau et de l'image]\alaligne Si $u\in\LEF$ et $V$ est un supplémentaire de $\ker u$, l'application $$ \bar{u} : \vc x\in V\mapsto u(\vc x)\in\im u $$ définit un isomorphisme de $V$ sur $\im u$. \end{Th} \begin{proof} $\bar{u}$ est une application linéaire et $$ \ker \bar{u}=\ens{\vc x\in V}{u(\vc x)=\vc 0_F}=\ker u\cap V=\vc 0_E $$ ce qui montre l'injectivité de $\bar{u}$. Pour tout $\vc y\in\im u$, il existe $\vc x\in E$ tel que $u(\vc x)=\vc y$; puisque $E=V\oplus\ker u$, $\vc x$ se décompose en $\vc v+\vc w$ avec $(\vc v,\vc w)\in V\times \ker u$, et $$ \vc y=u(\vc x)=u(\vc v)+u(\vc w)=u(\vc v)=\bar{u}(\vc v) $$ et montre la surjectivité de $\bar{u}$. \end{proof} %-------------------------------------------------- \begin{Cor}[Théorème du rang]%\alaligne Si $E$ est de \emph{dimension finie} $$ \reponse{$\dim E=\rg u+\dim(\ker u)$} $$ \end{Cor} \begin{proof} $\bar{u}$ est un isomorphisme donc conserve la dimension et $\dim V=\dim(\im u)=\rg u$; d'autre part, $V$ et $\ker u$ sont supplémentaires dans $E$, donc $\dim E=\dim V+\dim(\ker u)$. \end{proof} %-------------------------------------------------- \begin{Cor}[Caractérisation des isomorphismes en dimension finie]\alaligne Si $E$ et $F$ sont deux espaces vectoriels de \emph{même dimension finie} $n$ et $u$ une application linéaire de $E$ vers $F$, alors $$ \reponse{$ u\text{ est un isomorphisme }\iff u\text{ est injective }\iff\dim(\ker u)=0$\\ $\iff u\text{ est surjective }\iff\rg u=n $} $$ \end{Cor} \begin{proof} C'est une conséquence immédiate de $n=\dim E=\dim F=\rg u+\dim(\ker u)$ et des équivalences $$ u \text{ est injective}\iff\ker u=\{\vc 0_E\}\iff\dim(\ker u)=0 $$ ainsi que des équivalences $$ u\text{ est surjective}\iff\im u=F\iff\dim(\im u)=\dim F $$ \end{proof} %-------------------------------------------------- \begin{Cor}[Caractérisation des automorphismes en dimension finie]\alaligne Si $E$ est un espace vectoriel de \emph{dimension finie} $n$ et $u$ un endomorphisme de~$E$ $$\reponse{ $u\in\GLE\iff u \text{ est injective} \iff u \text{ est surjective} \iff \dim(\ker u)=0 \iff\rg u=n $}$$ \end{Cor} %--------------------------------------------------------------------- \subsection{Applications} %--------------------------------------------------------------------- \subsubsection{Projection} Si $V_1$ et $V_2$ sont deux supplémentaires dans $E$ du même sous-espace vectoriel $W$, la projection $p_{V_1}$ de $E$ sur $V_1$ parallèlement à $W$ induit un isomorphisme de $V_2$ sur $V_1$. C'est une application du théorème du noyau et de l'image : $p_{V_1}$ est une~application linéaire d'image $V_1$ et de noyau $W$; elle induit un isomorphisme de $V_2$, supplémentaire de $W$ sur son image. En classe de troisième, ce~théorème porte le nom de \og Théorème de Thalès\fg. \subsubsection{Formule de Grassmann} Si $V$ et $W$ sont deux sous-espaces vectoriels de dimension finie, on a $$ \reponse{$ \dim(V\cap W)+\dim(V+W)=\dim V+\dim W $} $$ L'application $u : (\vc v,\vc w)\in V\times W\mapsto \vc v+\vc w\in V+W$ est linéaire et~surjective. Son noyau vérifie $$ \ker u=\ens{(\vc v,\vc w)\in V\times W}{\vc v+\vc w=\vc 0} =\ens{(\vc v,-\vc v)}{\vc v\in V\cap W} $$ $\ker u$ est donc isomorphe à $V\cap W$, ce qui donne $$ \dim(\ker u)=\dim(V\times W)-\rg u=\dim V+\dim W-\dim(V+W) $$ \subsubsection{Polynômes d'interpolation de Lagrange} Comment déterminer les polynômes $P$ qui prennent des valeurs données sur une famille $(a_i)_{i=0}^n$ %$(a_i)_{0\leq i\leq n}$ d'éléments de $K$ distincts deux à deux? En utilisant l'application linéaire $$ u : P\in\K[X]\mapsto \bigl(P(a_0),\dots,P(a_n)\bigr)\in\K^{n+1} $$ Le noyau de $u$ est constitué des polynômes qui admettent pour racines les scalaires $a_i$, $i\in\Intf0n$; $\ker u$ est donc l'ensemble des multiples du polynôme $N=\prod_{i=0}^n(X-a_i)$. Puisque $N$ est un polynôme de degré $n+1$, $\K_n[X]$ est un supplémentaire de $(N)=\ker u$, donc est isomorphe à $\im u$. Ainsi $\im u$ est un sous-espace vectoriel de $\K^{n+1}$ de dimension $\dim \K_n[X]=n+1$, donc $\im u=\K^{n+1}$ et $P\mapsto \bigl(P(a_0),\dots,P(a_n)\bigr)$ réalise un isomorphisme de $\K_n[X]$ sur $\K^{n+1}$. Pour $i\in\Intf0n$, on pose $L_i=\prod_{j\in\Intf0n\setminus\{j\}}\ra{X-a_j}{a_i-a_j}$. Les $L_i$ sont sont des polynômes de degré $n$ qui vérifient $$ \qqs(i,j)\in\Intf0n^2,\ L_i(a_j)=\delta_{ij} $$ Puisque $\sum_{i=0}^n \lambda_i L_i(a_k)=\sum_{i=0}^n\lambda_i\delta_{ik}=\lambda_k$, la famille $(L_0,\dots,L_n)$ est une famille libre et maximale, donc une base de $\K_n[X]$ et \begin{gather*} \qqs P\in\K_n[X],\ P=\sum_{i=0}^nP(a_i)L_i \\ \Bigl(u\rvert_{\K_n[X]}\Bigr)^{-1}(\lambda_0,\dots,\lambda_n)= \sum_{i=0}^n\lambda_i L_i \\ u(P)=(\lambda_0,\dots,\lambda_n)\iff \exists A\in\K_n[X],\ P=\sum_{i=0}^n \lambda_i L_i+AN \end{gather*} Si $\K_n[X]$ et $\K^{n+1}$ sont munies de leurs bases canoniques, déterminer la matrice de $u\rvert_{\K_n[X]}$ et son inverse. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Dualité} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% $E$ est un $\K$-espace vectoriel, que l'on supposera non réduit à $\{\vc 0_E\}$. %--------------------------------------------------------------------- \subsection{Espace dual} %--------------------------------------------------------------------- \begin{Df}[Forme linéaire]\alaligne Une \emph{forme linéaire sur $E$} est une application linéaire de $E$ vers le corps des scalaires $\K$. \end{Df} \begin{Df}[Espace dual ou dual]\alaligne Le \emph{dual de $E$} est l'ensemble des formes linéaires sur $E$; il est noté $E^*$. Rappelons que $E^*=\Lin{E}{\K}$ est un $\K$-espace vectoriel. \end{Df} \begin{NBs}\alaligne Toute forme linéaire non nulle sur $E$ est de rang 1, donc surjective. Si $E$ est de dimension finie, $E^*$ l'est aussi et $$ \dim E^*=\dim \Lin{E}{\K}=\dim E $$ \end{NBs} \begin{Exs}\alaligne Les formes linéaires sur $\K^n$ sont du type $$ \vphi : \nuple{x}\in\K^n\mapsto a_1x_1+\cdots+a_nx_n=\nuple a \begin{pmatrix} x_1\\ \vdots \\ x_n \end{pmatrix} $$ $\delta_a : f\mapsto f(a)$, $f\mapsto\int_a^b f$ et $\delta'_a : f\mapsto f'(a)$ sont des formes linéaires sur, respectivement, $\CI[\R]$, $\Cab$ et $\CkIE[\R]{1}$. Si $E$ est de dimension finie $n$, si $\mathcal{B}=\nuple{\vc e}$ est une base de $E$ et $\vc x=\sum_{j=1}^n x_j\vc e_j$ la décompo\-si\-tion de $\vc x$ suivant $\mathcal{B}$, les applications $$ \vphi_j : \vc x\in E\mapsto x_j $$ qui au vecteur $\vc x$ associent sa composante suivant $\vc e_j$ relativement à $\mcal{B}$, sont des formes linéaires sur $E$; on les appelle les \emph{ formes linéaires coordonnées}. \end{Exs} %--------------------------------------------------------------------- \subsection{Hyperplan} %--------------------------------------------------------------------- \begin{Df}[Hyperplan]\alaligne Un \emph{hyperplan} de $E$ est un sous-espace vectoriel qui admet une droite (vectorielle) pour supplé\-men\-taire. $$ \reponse{$ {\mcal{H}} \text{ est un hyperplan }\iff \exists\,\vc e\in E,\ E={\mcal{H}}\oplus {\mcal{D}}={\mcal{H}}\oplus\K\vc e $} $$ \end{Df} \begin{NBs}\alaligne Tous les supplémentaires d'un hyperplan sont des droites (vectorielles) puisqu'ils sont isomorphes. Si $E$ est de dimension finie $n$, les hyperplans de $E$ sont les sous-espaces vectoriels de $E$ de dimension $n-1$. \end{NBs} %-------------------------------------------------- \subsubsection{Caractérisation à l'aide des formes linéaires} %-------------------------------------------------- \begin{Prop}\mbox{} ${\mcal{H}}$ est un hyperplan si, et seulement si, ${\mcal{H}}$ est le noyau d'une forme linéaire non nulle. \end{Prop} \begin{proof}\alaligne \CN Soit $\vc e$ tel que ${\mcal{H}}\oplus\K\vc e=E$; ainsi $ \qqs\vc x\in E,\ \exists!(\vc h,\lambda)\in {\mcal{H}}\times\K,\ \vc x=\vc h+\lambda\vc e $ et l'application $ \vphi : \vc x\in E\mapsto\lambda\in\K $ est une forme linéaire sur $E$ dont le noyau est ${\mcal{H}}$. \CS Soient $\vphi\in E^*\setminus\{0_{E^*}\}$ et $\vc e\in E$ tel que $\vphi(\vc e)\neq0$; pour tout $\vc x\in E$, on a $$ \vc x -\lambda\vc e\in\ker\vphi\iff 0=\vphi(\vc x-\lambda\vc e)=\vphi(\vc x)-\lambda\vphi(\vc e)\iff \lambda=\ra{\vphi(\vc x)}{\vphi(\vc e)} $$ ce qui montre que $ \exists!(\vc h,\lambda)= \bigl(\vc x-\lambda\vc e,\ra{\vphi(\vc x)}{\vphi(\vc e)}\bigl)\in {\mcal{H}}\times\K $ et $E=\ker\vphi\oplus\K\vc e$, \ie{} $\ker\vphi$ est un hyperplan. \end{proof} %-------------------------------------------------- \begin{NB} Si ${\mcal{H}}$ est un hyperplan et $\vphi$ une forme linéaire sur $E$ de noyau~${\mcal{H}}$, on a $$ E={\mcal{H}}\oplus\K\vc e\iff\vphi(\vc e)\neq 0\iff\vc e\notin {\mcal{H}} $$ Ainsi, toute droite (vectorielle) ${\mcal{D}}$ non contenue dans l'hyperplan ${\mcal{H}}$ est un supplémentaire de ${\mcal{H}}$. \end{NB} %-------------------------------------------------- \subsubsection{Équation d'un hyperplan} %-------------------------------------------------- \begin{Prop} Si ${\mcal{H}}$ est un hyperplan noyau de la forme linéaire $\vphi$, toute autre forme linéaire $\psi$ s'annule sur ${\mcal{H}}$ si, et seulement si, $(\vphi,\psi)$ est liée. \end{Prop} \begin{proof}\alaligne \CS Puisque la famille $(\vphi,\psi)$ est liée et $\vphi\neq 0$, il existe $\lambda\in\K$ tel que $\psi=\lambda\vphi$; ainsi $\ker\psi\supset\ker\vphi={\mcal{H}}$. \CN Si $\psi$ est une forme linéaire dont le noyau contient ${\mcal{H}}=\ker\vphi$, $\vphi\rvert_{\mcal{H}}=0=\psi\rvert_{\mcal{H}}$. Si $\vc e\notin {\mcal{H}}$; alors $\psi(\vc e)=\alpha\vphi(\vc e)$ en posant $\alpha=\ra{\psi(\vc e)}{\vphi(\vc e)}$, ce qui montre que $\psi\rvert_{\K\vc e}=\alpha\vphi\rvert_{\K\vc e}$. Par conséquent, $\psi=\alpha\vphi$ puisque cette égalité a lieu sur ${\mcal{H}}$ et $\K\vc e$ supplémentaires dans $E$. \end{proof} %-------------------------------------------------- \begin{NB} $\vphi$ est \emph{une équation} de ${\mcal{H}}$; cette équation est unique à un \emph{coefficient multiplicatif non nul près}. \end{NB} %-------------------------------------------------- \subsubsection{Formes linéaires et vecteurs de $E$} %-------------------------------------------------- \begin{Prop} Si $\vc e$ est un vecteur non nul de $E$, il existe une forme linéaire sur $E$ qui vaut 1 en $\vc e$. \end{Prop} \begin{proof} Appelons ${\mcal{H}}$ un hyperplan supplémentaire de la droite $\K\vc e$ et notons $\psi$ une équation de ${\mcal{H}}$; puisque $\vc e\notin {\mcal{H}}$, $\psi(\vc e)\neq0$ et $\bigl(\psi(\vc e)\bigr)^{-1}\psi$ convient. \end{proof} %-------------------------------------------------- \begin{Cor} Le seul élément de $E$ qui annule toutes les formes linéaires sur $E$ est $\vc 0_E$, \ie $$ \bigcap_{\vphi\in E^*}\ker \vphi=\{\vc0_E\} $$ \end{Cor} %--------------------------------------------------------------------- \subsection{Base duale} %--------------------------------------------------------------------- Dans ce paragraphe, $E$ désigne un $\K$-espace vectoriel de dimension finie $n$ muni d'une base $\mathcal{B}=\nuple{\vc e}$; les composantes relatives à $\mathcal{B}$ d'un vecteur $\vc x$ de $E$ sont notées $\nuple x$. Rappelons que $E^*$ est un espace vectoriel de même dimension que $E$. Les formes linéaire coordonnées $\vphi_i : \vc x\mapsto x_i$ vérifient les relations d'orthogonalité de Kronecker \begin{equation} \qqs(i,j)\in\Intf1n^2,\ \vphi_i(\vc e_j)=\delta_{ij}\label{eq\DP BaseDuale} \end{equation} Elles constituent une base de $E^*$ car elles forment une famille maximale et libre : $$ \sum_{i=1}^n\lambda_i\vphi_i=0_{E^*} \implique\qqs j\in\Intf1n,\ 0=\Bigl(\sum_{i=1}^n \lambda_i\vphi_i\Bigr)(\vc e_j) =\sum_{i=1}^n\lambda_i\vphi_i(\vc e_j) =\sum_{i=1}^n\lambda_i\delta_{ij}=\lambda_j $$ \begin{Df}[Base duale]\alaligne La famille des formes linéaires coordonnées $(\vphi_i)_{1\leq i\leq n}$ relatives à une base $\mathcal{B}$ constitue une base de $E^*$; on la note $\mathcal{B}^*$ et on l'appelle \emph{base duale de} $\mathcal{B}$. \end{Df} \begin{NBs} Si $\vphi$ est une forme linéaire sur $E$, la coordonnée de $\vphi$ suivant $\vphi_j$ est $\vphi(\vc e_j)$ car $$ \vphi=\sum_{i=1}^n \lambda_i\vphi_i\implique \vphi(\vc e_j)=\sum_{i=1}^n \lambda_i\vphi_i(\vc e_j) =\sum_{i=1}^n \lambda_i\delta_{ij}=\lambda_j $$ Si $\mathcal{B}$ est une base de $E$, $\mathcal{B}^*$ est l'unique base de $E^*$ qui vérifie les relations \ref{eq\DP BaseDuale}. \end{NBs} %--------------------------------------------------------------------- \subsection{Équation d'un hyperplan en dimension finie}\alaligne %--------------------------------------------------------------------- On note $\nuple x$ les coordonnées d'un vecteur $\vc x$ de $E$ relatives à la base $\mathcal{B}=\nuple{\vc e}$. \begin{Th}[]\mbox{} ${\mcal{H}}$ est un hyperplan de $E$ si, et seulement si, il existe $\nuple a\in\K^n\setminus\{\vc0\}$ tel que $$ \vc x\in {\mcal{H}}\iff a_1x_1+\cdots+a_nx_n=0 $$ \end{Th} \begin{proof}\alaligne \CN Soit $\vphi$ une forme linéaire non nulle sur $E$ de noyau ${\mcal{H}}$; posons $a_j=\vphi(\vc e_j)$ ce qui donne $\vphi=\sum_{i=1}^n a_i\vphi_i$ et : $\vc x\in {\mcal{H}}=\ker\vphi\iff 0=\vphi(\vc x)=\sum_{i=1}^n a_i\vphi_i(\vc x)=\sum_{i=1}^n a_i x_i$ \CS Si $a_1x_1+\cdots+a_nx_n=0$ désigne une équation de ${\mcal{H}}$, posons $\vphi=\sum_{i=1}^n a_i\vphi_i$; $\vphi$ est une forme linéaire non nulle puisque les coefficients $a_i$ ne sont pas tous nuls et ${\mcal{H}}=\ker\vphi$. \end{proof} %-------------------------------------------------- \begin{NB} L'équation $a_1x_1+\cdots+a_nx_n=0$ est une équation de ${\mcal{H}}$, et toute autre équation $b_1x_1+\cdots+b_nx_n=0$ vérifie $$ \exists\lambda\neq0,\ \nuple b=\lambda\nuple a $$ \end{NB} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Trace} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %--------------------------------------------------------------------- \subsection{Trace d'une matrice} %--------------------------------------------------------------------- \begin{Df}[Trace d'une matrice]\alaligne À toute matrice carrée $A=[a_{ij}]$ d'ordre $n$, on associe le nombre $\sum_{i=1}^n a_{ii}$ que l'on nomme \emph{trace} de la matrice $A$. $$ \reponse{$\dsp \tr A=\sum_{i=1}^n a_{ii} $} $$ \end{Df} \begin{Prop}[Trace d'une combinaison linéaire de matrices]\alaligne $\tr$ est une forme linéaire non nulle sur $\MnK$. \end{Prop} \begin{proof} Elle est laissée aux soins du lecteur. \end{proof} %-------------------------------------------------- \begin{NB} On note $E^{i,j}$ la matrice élémentaire de $\MnK$ dont tous les éléments sont nuls excepté celui à l'intersection de la $i$\up{ème} ligne et de la $j$\up{ème} colonne qui vaut $1$; la famille $(E^{i,j})_{1\leq i,j\leq n}$ est une base de $\MnK$ (appelée base canonique de $\MnK$). La base duale $\mathcal{B}^*=(\vphi^{i,j})_{1\leq i,j\leq n}$ vérifie $$ \tr =\sum_{i=1}^n\vphi^{i,i} $$ ce qui montre que $\tr$ est une forme linéaire non nulle. \end{NB} \begin{Cor}[]\mbox{} $\ker(\tr)$ est un hyperplan de $\MnK$ dont un supplémentaire est la droite (vectorielle) des matrices scalaires, \ie{} la droite dirigée par $I_n$. $$ \reponse{$ \MnK=\ker(\tr)\oplus\K I_n $} $$ \end{Cor} \begin{proof} Puisque $\tr$ est une forme linéaire non nulle, son noyau est un hyperplan; puisque $\tr I_n=n\neq0$, la droite dirigée par $I_n$ est un supplémentaire de $\ker(\tr)$. \end{proof} %-------------------------------------------------- \begin{Th}[Trace d'un produit de matrices]\alaligne Si $A$ et $B$ sont deux matrices, $A$ de taille $n\times p$ et $B$ de taille $p\times n$, les traces de $AB$ et $BA$ sont égales. $$ \reponse{$ \qqs(A,B)\in\MnpK\times\Mnp[p,n]{\K},\ \tr AB=\tr BA $} $$ \end{Th} \begin{proof} $AB$ (resp. $BA$) est une matrice carrée d'ordre $n$ (resp. $p$) et \begin{gather*} \tr AB=\sum_{i=1}^n(AB)_{ii} =\sum_{i=1}^n\Bigl(\sum_{s=1}^p a_{is}b_{si}\Bigr) =\sum_{s=1}^p \sum_{i=1}^n a_{is}b_{si} \\ \tr BA=\sum_{j=1}^p(BA)_{jj} =\sum_{j=1}^p\Bigl(\sum_{r=1}^n b_{jr} a_{rj}\Bigr) =\sum_{j=1}^p \sum_{r=1}^n a_{jr}b_{rj} \end{gather*} \end{proof} %-------------------------------------------------- %---------------------------------------------------------------------- \subsection{Matrices semblables} %---------------------------------------------------------------------- \begin{Df}[Matrices semblables]\alaligne Deux matrices carrées d'ordre $n$ $A$ et $B$ sont \emph{semblables} s'il existe une matrice carrée d'ordre $n$ et inversible $P$ telle que $B=P^{-1}AP$. \begin{center} \reponse{ $A\in\MnK$ et $B\in\MnK$ sont semblables $\iff\exists P\in\GLnK,\ B=P^{-1}AP$ } \end{center} \end{Df} \begin{NBs}\alaligne La matrice unité d'ordre $n$ $I_n$ n'est semblable qu'à elle même. La relation \og{}être semblable à\fg{} est une relation d'équivalence. \end{NBs} \begin{Th}[Endomorphisme et matrices semblables]\alaligne Si $u$ est un endomorphisme d'un espace vectoriel $E$ de dimension finie et si $\mathcal{B}$ et $\mathcal{B'}$ sont deux bases de $E$, les matrices $\mat(u)$ et $\mat[B'](u)$ sont semblables. \end{Th} \begin{proof} Notons $P$ la matrice de changement de bases de la base $\mathcal{B}$ à la base $\mathcal{B'}$, matrice dont les colonnes sont les composantes des vecteurs de $\mathcal{B'}$ relativement à $\mathcal{B}$, soit $P=\mat(\mathcal{B'})$. Dans ce cas, on a : \begin{equation} \mat[B'](u)= \mat[B'](\mathcal{B}) \mat(u) \mat(\mathcal{B'}) =P^{-1}\mat(u)P \end{equation} \end{proof} %---------------------------------------------------------------------- \begin{Cor}[Trace de deux matrices semblables]\alaligne Deux matrices semblables ont même trace. $$ \reponse{$ \qqs(A,P)\in\MnK\times\GLnK,\ \tr(P^{-1}AP)=\tr A $} $$ \end{Cor} \begin{proof}\alaligne $\tr(P^{-1}AP)=\tr\bigl(P^{-1}(AP)\bigr)=\tr\bigl((AP)P^{-1}\bigr)= \tr\bigl(A(PP^{-1})\bigr)=\tr A$ \end{proof} %-------------------------------------------------- \begin{NB} $\tr(ABC)=\tr(BCA)$ mais $\tr(ABC)\neq\tr(BAC)$ en général. Voici un contre-exemple : \begin{align*} E^{1,2}E^{2,1}E^{1,1}=E^{1,1}E^{1,1}=E^{1,1} &\implique \tr(E^{1,2}E^{2,1}E^{1,1})=\tr E^{1,1}=1 \\ E^{2,1}E^{1,2}E^{1,1}=E^{2,2}E^{1,1}=0 &\implique \tr(E^{1,2}E^{2,1}E^{1,1})=0 \end{align*} \end{NB} %--------------------------------------------------------------------- \subsection{Trace d'un endomorphisme} %--------------------------------------------------------------------- Si $u$ est un endomorphisme d'un espace vectoriel $E$ de dimension finie et $\mathcal{B}$ et $\mathcal{B'}$ deux bases de $E$, les matrices $\mat(u)$ et $\mat[B'](u)$ sont semblables et donc leurs traces sont égales, ce qui permet la \begin{Df}[Trace d'un endomorphisme]\alaligne On appelle \emph{trace d'un endomorphisme} la trace de l'une quelconque de ses matrices. $$ \reponse{$ \tr u=\tr\bigl(\mat(u)\bigr) $} $$ \end{Df} \begin{NB} $\tr$ est une forme linéaire non nulle sur $\LE$ et $\LE=\ker(\tr)\oplus\K I_E$ \end{NB} \begin{Prop}[Trace d'un projecteur]\alaligne La trace d'un projecteur est égale à son rang. \end{Prop} \begin{proof} Si $p$ est un projecteur et $\mathcal{B}$ une base adaptée à la décomposition $E=\ker(I_E-p)\oplus\ker p$, la matrice de $p$ relativement à cette base est $$ \mat(p)= \begin{pmatrix} I_r & \vdots & 0_{r,n-r} \\ \hdotsfor{3} \\ 0_{n-r,r} & \vdots & 0_{n-r,n-r} \end{pmatrix} $$ ce qui montre que $\tr p=r=\rg p$. \end{proof} %-------------------------------------------------- Cette proposition ne caractérise pas les projecteurs : $A= \bigl( \begin{smallmatrix} 0&1\\1&2 \end{smallmatrix} \bigr)$ a une trace et un rang égaux à 2, mais ne peut être un projecteur car tout projecteur de rang maximum est l'identité.