%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\chapter{Réduction des endomorphismes et des matrices}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\minitoc
\newpage

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Sous-espaces vectoriels stables}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%---------------------------------------------------------------------
\subsection{Généralités}
%---------------------------------------------------------------------

\begin{Df}[Sous-espace vectoriel stable]\alaligne

 Soient $E$ un $\K$-espace vectoriel et $u$ un endomorphisme de
$E$; un sous-espace vectoriel $F$ de $E$ est dit \emph{stable
pour $u$} si, et seulement si, $u(F)$ est inclus dans~$F$.
\Reponse{$
\text{$F$ est stable pour $u$}\iff\qqs \vc x,\ \vc x\in F\implique
u(\vc x)\in F  
$}
\end{Df}

\begin{Prop}[Stabilité et famille génératrice]\alaligne

 $F$ est un sous-espace vectoriel stable pour
$u$ si, et seulement si, l'image par $u$ d'une famille génératrice de
$F$ est contenue dans $F$.
\end{Prop}

\begin{proof}
 La condition nécessaire est évidente : les éléments d'une famille génératrice
de $F$ sont des éléments particuliers de $F$.

 Si $\puple{\vc f}$ engendre $F$, alors $(u(\vc f_1),\dots,u(\vc f_p)$ engendre
$u(F)$, grâce à la linéarité de $u$ :
$$
\vc x=\sum_{j=1}^p \la_j \vc f_j\in F\implique
u(\vc x)=\sum_{j=1}^p \la_j u(\vc f_j)\in u(F)
$$
ce qui donne la condition suffisante
\end{proof}
%----------------------------------------------------------------------


\begin{Prop}[Application induite sur un sous-espace vectoriel stable]\alaligne

 Si $u$ est un endomorphisme de $E$ et $F$ un sous-espace
vectoriel stable pour $u$, l'application $v : \vc x\in F\mapsto u(\vc x)$
induite par $u$ sur $F$, est un endomorphisme de $F$.
\end{Prop}

\begin{proof}
 L'application $v$ est à valeurs dans $F$ et est linéaire puisque $u$
l'est.
\end{proof}
%--------------------------------------------------

\begin{Th}[Stabilité de l'image et du noyau]\alaligne

 Si $u$ et $v$ sont deux endomorphismes de $E$ qui
\emph{commutent}, $\im u$ et $\ker u$ sont stables par $v$.
\end{Th}

\begin{proof}
 Soit $\vc y=u(\vc x)$ un vecteur quelconque de $\im u$, son
image par $v$, $v(\vc y)=v\bigl(u(\vc x)\bigr)=
u\bigl(v(\vc x)\bigr)$ reste dans $\im u$.

 Si $\vc x$ est élément de $\ker u$, alors $u\bigl(v(\vc
x)\bigr)=v\bigl(u(\vc x)\bigr)=v(\vc 0)=\vc 0$, et $v(\vc x)$ reste dans
$\ker u$. 
\end{proof}
%--------------------------------------------------

%---------------------------------------------------------------------
\subsection{Cas de la dimension finie}
%---------------------------------------------------------------------

$E$ est un $\K$-espace vectoriel de dimension finie $n$;
rappelons que si $F$ est un sous-espace vectoriel de dimension
$p$, toute base de $E$ dont les $p$ premiers vecteurs constituent
une base de $F$, est appelée \emph{base de $E$ adaptée} à $F$. Le
théorème de la base incomplète montre l'existence de telle base.

\begin{Th}[Caractérisation des sous-espaces vectoriels stables]\alaligne

 Soient $F$ est un sous-espace vectoriel de $E$, $\mcal{B}$ une
base de $E$ adaptée à $F$ et $u$ un endomorphisme de $E$; alors
$F$ est stable pour $u$ si, et seulement si, la matrice de $u$
relativement à $\mcal{B}$ est triangulaire supérieure par blocs, soit
$$
\mat(u)=
\begin{pmatrix}
A & \vdots & B \\ \hdotsfor{3} \\ 0 & \vdots & C
\end{pmatrix}
$$
\end{Th}

\begin{proof}
 Soit $\mcal{B}=(\vc e_i,\ldots,\vc e_p,\vc e_{p+1},\ldots,\vc
e_n)$ une base de $E$ telle que les $p$ premiers vecteurs $\puple{\vc
e}$ constituent une base
de $F$; $F$ est stable par $u$ si, et seulement si, pour tout
$j\in\Intf1p$, $u(\vc e_j)$ est dans $F$. Or, $u(\vc
e_j)=\sum_{i=1}^n a_{i,j}\vc e_i$ appartient à $F$ si, et
seulement si, $a_{i,j}=0$ pour $i>p$, \ie{} si, et seulement si, les $p$
premières colonnes de la matrice de $u$ ont des 0 à partir de la
ligne $(p+1)$. 
\end{proof}
%--------------------------------------------------


%---------------------------------------------------------------------
\subsection{Généralisation}
%---------------------------------------------------------------------
 Si $E=\Somdir_{i=1}^p F_i$, et si $\mcal{B}_j$ est une base de $F_j$,
$\mcal{B}=\Union_{j=1}^p\mcal{B}_j$ est une base de $E$
\emph{adaptée} à cette décomposition en somme directe.

\begin{Th}
 Soient $E$ est un $\K$-espace vectoriel de dimension finie,
$F_1$,\ldots, $F_p$ des sous-espaces vectoriels dont $E$
est la somme directe, $\mcal{B}$ une base de $E$ adaptée à cette
décomposition et $u$ un endomorphisme de $E$; alors $u$ stabilise
les sous-espaces $F_j$ si, et seulement si, la matrice de $u$
relativement à $\mcal{B}$ est diagonale par blocs, \ie
$$
\mat(u)=
\begin{pmatrix}
A_1 & \vdots & 0 & \vdots & \cdots & \vdots & 0 \\
0 & \vdots & A_2 & \vdots & \cdots & \vdots & 0 \\
\hdotsfor{7}                    \\
0 & \vdots & 0 & \vdots & \cdots & \vdots & A_p
\end{pmatrix}
$$
\end{Th}

 En appelant $u_j$ l'endomorphisme induit par $u$ sur le
sous-espace stable $F_j$, $A_j$ est la matrice de $u_j$
relativement à la base $\mcal{B_j}$ et
$$
\det u=\det A_1\times\cdots\times\det A_p=\det
u_1\times\cdots\times\det u_p
$$

 Si $\mcal{D}$ est une droite vectorielle, tout endomorphisme de $\mcal{D}$
est une homothétie; ainsi, si $\mcal{D}$ est une droite vectorielle de
$E$, stable pour $u$, l'endomorphisme de $\mcal{D}$ induit par $u$ est
une homothétie de $\mcal{D}$ ce qui donne le

\begin{Th}[Endomorphisme de matrice diagonale]\alaligne

 Soient $E$ un $\K$-espace vectoriel de dimension finie $n$,
$\mcal{B}=\nuple{\vc e}$ une base de $E$ et $u$ un endomorphisme
de $E$; alors, la matrice de $u$ dans $\mcal{B}$ est diagonale
si, et seulement si, pour tout $j\in\Intf1n$, la restriction
$u_j$ de $u$ à $\K\vc e_j$ est une homothétie.
\end{Th}

%--------------------------------------------------



%---------------------------------------------------------------------
\subsection{Drapeau}
%---------------------------------------------------------------------
\begin{Df}[Drapeau]\alaligne

 Si $E$ est un $\K$-espace vectoriel de dimension finie $n\geq1$,
un \emph{drapeau} est une suite $\nuple E$ de sous-espaces
vectoriels de $E$, croissante pour l'inclusion et telle que $\dim
E_k=k$.
\end{Df}
%--------------------------------------------------

 Soit $\mcal{B}=\nuple{\vc e}$ est une base de $E$; on définit
$E_k=\somdir_{i=1}^k\K\vc e_i$ le sous-espace vectoriel engendré
par les $k$ premiers vecteurs de $\mcal{B}$; la suite $\nuple E$
est un drapeau de $E$, c'est le \emph{drapeau associé} à $\mcal{B}$.

 Réciproquement, à tout drapeau $\nuple E$ de $E$, on associe une
base $\mcal{B}=\nuple{\vc e}$ de $E$ telle que
$E_k=\somdir_{i=1}^k\K\vc e_i$; c'est la \emph{base adaptée} au
drapeau $\nuple E$.

\begin{Th}[Endomorphisme de matrice triangulaire]\alaligne

 Soient $E$ un $\K$-espace vectoriel de dimension finie $n$,
$\nuple E$ un drapeau de $E$, $\mcal{B}$ une base adaptée à ce
drapeau et $u$ un endomorphisme de $E$; alors, $u$ stabilise les
$E_k$ si, et seulement si, la matrice de $u$ relativement à
$\mcal{B}$ est une matrice triangulaire supérieure.
\end{Th}
 
\begin{proof}
 Pour tout $k\in\Intf1n$, l'image de $E_k$ est contenue dans
$E_k$ si, et seulement si, $u(\vc e_k)$ est dans $E_k$. Si
$(a_{i,j})_i$ sont les composantes de $u(\vc e_j)$ dans~$\mcal{B}$,
$u(\vc e_k)$ appartient à $E_k$ si, et seulement si,
$a_{i,k}$ est nul pour $i>k$.
\end{proof}
%--------------------------------------------------



%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Polynômes d'un endomorphisme}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%---------------------------------------------------------------------
\subsection{Puissance d'un endomorphisme}
%---------------------------------------------------------------------
\begin{Df}[Puissance d'un endomorphisme]\alaligne

 Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$, on
définit, par récurrence sur $k\in\N$, les puissances $k$\fup{e}
$u^k$ de $u$ en posant
$$
u^0=I_E\et\qqs k\in\N,\ u^{k+1}=u^k\circ u
$$
\end{Df}

\begin{Prop}
 Pour tout entier naturel $p$ et $q$, on a $u^p\circ u^q=u^q\circ
u^p=u^{p+q}$.
\end{Prop}

\begin{proof}
 Montrons que $u^p\circ u^q=u^{p+q}$ en effectuant une récurrence sur
$q$. La formule est vraie pour $q=0$ et
$$
u^p\circ u^{q+1}=u^p\circ(u^q\circ u)=(u^p\circ u^q)\circ
u=u^{p+q}\circ u=u^{p+q+1}
$$
La seconde égalité se montre en échangeant le rôle de $p$ et $q$.
\end{proof}
%--------------------------------------------------

\begin{NB}
 Les endomorphismes $u^p$ et $u^q$ commutent pour tout entier naturel $p$ et $q$.
\end{NB}

\begin{Prop}[Noyaux itérés]\alaligne\\
 Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$,
\begin{prop}
 \item la suite $(\ker u^p)_p$ est croissante pour l'inclusion;
 \item si l'ensemble $\ens{p\in\N}{\ker u^p=\ker u^{p+1}}$ n'est pas vide,
  il possède un plus petit élément noté $i_u$, appelé
  \emph{indice} de $u$; dans ces conditions
  $$
  \qqs q\in\N,\ \ker u^{i_u+q}=\ker u^{i_u}\et
  \{\vc 0\}\varsubsetneq\ker u
   \varsubsetneq\cdots\varsubsetneq\ker u^{i_u}
  $$
 \item si $E$ est de dimension finie $n\geq1$, l'existence de $i_u$
  est assurée et $i_u\leq n$.
\end{prop}
\end{Prop}

\begin{proof}\alaligne

\begin{demprop}
 \monitem
 L'implication $u^p(\vc x)=\vc0\implique \vc 0=u\bigl(u^p(\vc x)\bigr)=u^{p+1}(\vc x)$
vraie pour tout $p\in\N$ et tout $\vc x\in E$, montre l'inclusion
$\ker u^p\subset\ker u^{p+1}$.

 \monitem
 Remarquons que $\ker u^p=\ker u^{p+1}\implique\ker u^{p+1}=\ker
u^{p+2}$; il suffit de démontrer l'inclusion $\ker u^{p+2}\subset\ker u^{p+1}$.
Or, $\vc x\in\ker u^{p+2}$ s'écrit $\vc 0=u^{p+2}(\vc x)=u^{p+1}\bigl(u(\vc
x)\bigr)$, soit $u(\vc x)\in\ker u^{p+1}$; comme $\ker u^{p+1}=\ker u^p$, on
obtient $\vc 0=u^p\bigl(u(\vc x)\bigr)=u^{p+1}(\vc x)$ et $\vc x\in\ker u^{p+1}$.
Par récurrence sur $q$, on montre que $\ker u^p=\ker u^{p+q}$.

 Si l'ensemble $\ens{p\in\N}{\ker u^p=\ker u^{p+1}}$ n'est pas vide, il
contient un plus petit élément noté $i_u$. L'égalité $\ker u^{i_u}=\ker
u^{i_u+1}$ montre que pour tout $q\in\N$, $\ker u^{i_u}=\ker u^{i_u+q}$, et
puisque $i_u$ est le premier entier qui vérifie l'égalité $\ker u^p=\ker
u^{p+1}$, la suite $(\ker u^p)_{p\in\Intf0{i_u}}$ est strictement croissante
pour l'inclusion.

 \monitem
 Si la suite $(\ker u^p)_p$ est strictement croissante pour l'inclusion, la
suite $(\dim\ker u^p)_p$ des dimensions est strictement croissante; comme ces
dimensions sont majorées par $n$, la dimension de $E$, il y a contradiction;
l'existence de $i_u$ est donc assurée et $i_u\leq n$.
\end{demprop}
\end{proof}
%--------------------------------------------------

\begin{NBs}\alaligne

 Un endomorphisme nilpotent $u$ possède un indice, il est donné par
$$
i_u=\inf\ens{p\in\N}{\ker u^p=E}=\inf\ens{p\in\N}{u^p=0}
$$

 La dérivation $\D$ de $\K[X]$ n'a pas d'indice; la suite des
noyaux itérés $(\ker \D^p)_p=(\K_{p-1}[X])_p$ n'est pas stationnaire.
\end{NBs}

%---------------------------------------------------------------------
\subsection{Polynômes d'un endomorphisme ou d'une matrice}
%---------------------------------------------------------------------

\begin{Df}[Polynôme d'un endomorphisme]\alaligne

 Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$ et
$P=a_0+a_1X+\cdots+a_pX^p$ un polynôme à coefficients dans $\K$, 
on pose
$$
P(u)=a_0I_E+a_1u+\cdots+a_pu^p
$$
$P(u)$ est un \emph{polynôme de l'endomorphisme} $u$.
\end{Df}
%----------------------------------------------------------------------

\begin{Df}[Polynôme d'une matrice]\alaligne

 De même, si $M$ est une matrice carrée d'ordre $n$, on pose
$$
P(M)=a_0I_n+a_1M+\cdots+a_p M^p
$$
$P(M)$ est un \emph{polynôme de la matrice} $M$.
\end{Df}

\begin{NB}
 Rappelons qu'un polynôme $P$ peut s'écrire $P=\sum_i a_iX^i$ où
la suite $(a_i)_i$ est nulle à partir d'un certain rang; dans ces
conditions, $P(u)=\sum_i a_i u^i$ et $P(M)=\sum_i a_i M^i$.
\end{NB}

\begin{Prop}[Règles de calcul, cas des endomorphismes]\alaligne

 L'application $\vphi_u : P\in\K[X]\mapsto P(u)\in\LE$ est un
morphisme d'algèbre; en particulier
$$
\qqs u\in\LE,\ \qqs(P,Q)\in\K[X]^2, \quad
\bigl(PQ\bigr)(u)=P(u)\circ Q(u)
$$
\end{Prop}

\begin{proof}\alaligne

\noindent
$\vphi_u(\lambda P+\mu Q)=\sum_i(\lambda a_i+\mu b_i)u^i
 =\lambda\sum_ia_iu^i+\mu\sum_ib_i u^i
 =\lambda\vphi_u(P)+\mu\vphi_u(Q)$\\
$\vphi_u(1)=I_E$\\
 Quant à l'égalité $\vphi_u(PQ)=\vphi_u(P)\circ\vphi_u(Q)$, on
commence par la démontrer pour $Q=X^k$ :
$$
\vphi_u(PX^k)=\sum_ia_i u^{i+k}=\bigl(\sum_i a_iu^i\bigr)\circ u^k
=\vphi_u(P)\circ \vphi_u(X^k)
$$
puis dans le cas général $Q=\sum_kb_kX^k$ en utilisant la linéarité de $\vphi_u$ :
\begin{align*}
\vphi_u(PQ)
&=\vphi_u\Bigl(\sum_k b_k PX^k\Bigr)
 =\sum_k b_k\vphi_u(PX^k)
 =\sum_k b_k\vphi_u(P)\circ\vphi_u(X^k)            \\
& =\vphi_u(P)\circ\bigl(\sum_k b_k\vphi_u(X^k)\bigr)
 =\vphi_u(P)\circ \vphi_u(Q)
\end{align*}
\end{proof}
%----------------------------------------------------------------------

\begin{Prop}[Règles de calcul, cas des matrices]\alaligne

 L'application $\vphi_M : P\in\K[X]\mapsto P(M)\in\MnK$ est un
morphisme d'algèbre; en particulier
$$
\qqs M\in\MnK,\ \qqs(P,Q)\in\K[X]^2, \quad
\bigl(PQ\bigr)(M)=P(M) Q(M)
$$
\end{Prop}

\begin{proof}
 Même démonstration que précédemment.
\end{proof}
%----------------------------------------------------------------------


Puisque $u^p$ commute avec $u^q$, les endomorphismes $u$ et
$P(u)$ commutent, ainsi que $P(u)$ et $Q(u)$, ce qui donne la

\begin{Prop}[$u$-stabilité de $\ker P(u)$ et de $\im P(u)$]\alaligne

 Pour tout polynôme $P$ à coefficients dans $\K$ et tout 
endomorphisme $u$ de $E$, $\im P(u)$ et $\ker P(u)$ sont stables par $u$.
\end{Prop}





%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Valeurs propres, vecteurs propres d'un endomorphisme}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

 $E$ est un $\K$-espace vectoriel de dimension finie ou non et
$u$ un endomorphisme de $E$.

%---------------------------------------------------------------------
\subsection{Droite stable par un endomorphisme}
%---------------------------------------------------------------------
 Si $u$ est un endomorphisme de $E$ et $\mcal{D}$ une droite
(vectorielle) stable pour $u$, $u\restr{\mcal{D}}$ est un
endomorphisme de $\mcal{D}$, donc une homothétie de $\mcal{D}$; il existe donc
un unique scalaire $\lambda$, dépendant de $\mcal{D}$,  tel que
$$
u\restr{\mcal{D}}=\lambda I_{\mcal{D}}\quad\text{\ie}\quad
\qqs\vc x\in \mcal{D},\ u(\vc x)=\lambda\vc x
$$

%---------------------------------------------------------------------
\subsection{Vecteur propre}
%---------------------------------------------------------------------
\begin{Dfs}[Vecteur propre, valeur propre associée]\alaligne

 Si $u$ est un endomorphisme de $E$, tout vecteur $\vc e$ non
nul qui dirige une droite vectorielle stable pour $u$ est appelé un
\emph{vecteur propre} de $u$.

 Le rapport de l'homothétie induite
par $u$ sur $\mcal{D}=\K\vc e$ est appelé \emph{valeur propre} associée
au vecteur propre $\vc e$.
\Reponse{$
\text{$\vc e\neq\vc 0$ est un vecteur propre pour $u$}
\iff\mcal{D}=\K\vc e\text{ est stable par $u$}
\iff\exists!\lambda\in\K,\ u(\vc e)=\lambda\vc e
$}
\end{Dfs}
%--------------------------------------------------

\begin{NBs}\alaligne

 La valeur propre associée à un vecteur propre est unique.

 Un vecteur non nul $\vc e$ est un vecteur propre si, et
seulement si, la famille $\bigl(\vc e,u(\vc e)\bigr)$ est une
famille liée.

 Si $\vc e$ est un vecteur propre pour $u$, tous les vecteurs non
nuls de la droite stable $\K\vc e$ sont des vecteurs propres pour
$u$ et sont associés à la même valeur propre. Remarquons donc que, si $\vc e$
est un vecteur propre de $u$ associé à la valeur propre $\la$, pour tout
$\alpha\in\K^*$, $\alpha\vc e$ est
encore un vecteur propre de $u$ associée à la même valeur propre $\la$.
\end{NBs}

\begin{Exs}\alaligne

 Tous les vecteurs non nuls de $E$ sont des vecteurs propres pour
$I_E$ associés à la valeur propre~1 (resp. des vecteures propres pour $0_{\LE}$,
associés à la valeur propre 0).

 Les rotations vectorielles planes d'angle non nul
\textit{modulo\/} $\pi$, n'admettent aucun vecteur propre. Les
vecteurs propres des rotations vectorielles de l'espace d'angle non nul
\textit{modulo\/} $\pi$, sont les vecteurs non nuls de leur axe et sont associés
à la valeur propre 1, ce sont des vecteurs invariants.
\end{Exs}


%---------------------------------------------------------------------
\subsection{Valeur propre}
%---------------------------------------------------------------------
\begin{Dfs}[Valeur propre, spectre]\alaligne

 Soit $u$ est un endomorphisme de $E$; on appelle \emph{valeur
propre} de $u$, tout scalaire $\lambda$ tel qu'il existe un
vecteur $\vc x$ non nul de $E$ vérifiant $u(\vc x)=\lambda\vc x$.

 L'ensemble des valeurs propres d'un endomorphisme $u$ est
appelé le \emph{spectre} de $u$ et noté $\sp u$.
\Reponse{$
\lambda\in\sp u\iff\exists\vc x\in E,\ \vc x\neq\vc 0_E\et
u(\vc x)=\lambda\vc x
$}
\end{Dfs}

\begin{NB}
 Le vecteur $\vc x$ de la définition précédente est un vecteur
propre de $u$; il est dit associé à la valeur propre $\lambda$.
\end{NB}

\begin{Exs}\alaligne

 $\sp I_E=\{1\}$ et $\sp 0_{\LE}=\{0\}$.
 
 Le spectre d'une rotation plane d'angle non nul \textit{modulo\/}
$\pi$ est vide; celui d'une rotation de l'espace d'angle non nul
\textit{modulo\/} $\pi$ est $\{1\}$.
\end{Exs}

\begin{Prop}[Caractérisation des valeurs propres]\alaligne

 Si $u$ un endomorphisme de $E$, alors
$$
\lambda\in\sp u\iff\ker(u-\lambda I_E)\neq\{\vc 0_E\}\iff
u-\lambda I_E\text{ non injective}
$$
En particulier,
$$
0\in\sp u\iff u\text{ non injective}
$$

 Si $u$ est un automorphisme de $E$,
$\sp (u^{-1})=\ens{\lambda^{-1}}{\lambda\in\sp u}$.
\end{Prop}

\begin{proof}
 Si $\la$ est une valeur propre de $u$, il existe un vecteur (propre) non nul
$\vc x\in E$ tel que $u(\vc x)=\la\vc x$, égalité que l'on peut encore écrire
$\vc 0=u(\vc x)-\la\vc x=(u-\la I_E)(\vc x)$; ceci donne les équivalences
annoncées.

 Si $u$ est un automorphisme de $E$, toutes ses valeurs propres sont non
nulles; pour toute valeur propre $\la$ et
tout vecteur propre $\vc x$ associé, on a :
\begin{equation}
u(\vc x)=\la\vc x\iff \vc x=u^{-1}(\la\vc x)=\la u^{-1}(\vc x)\iff
\ra1\la\vc x=u^{-1}(\vc x)
\end{equation}
Ainsi $\la$ est valeur propre de $u$ si, et seulement si, $\la^{-1}$ et valeur
propre de $u^{-1}$ et $\sp (u^{-1})=\ens{\lambda^{-1}}{\lambda\in\sp u}$.
\end{proof}
%--------------------------------------------------

\begin{Prop}[Caractérisation de valeurs propres en dimension finie]\alaligne

 Si $u$ est un endomorphisme d'un $\K$-espace vectoriel de
dimension \emph{finie} $n$, alors
\begin{gather*}
\lambda\in \sp u\iff u-\lambda I_E \text{ non injective}
 \iff u-\lambda I_E \text{ non surjective}              \\
\rg(u-\lambda I_E)\leq n-1\iff\det(u-\lambda I_E)=0
\end{gather*}
et aussi
$$
\lambda\notin\sp u\iff(u-\lambda I_E)\text{ est inversible}
$$
\end{Prop}

\begin{proof}
 C'est l'application des célèbres caractérisations des automorphismes d'un
$\K$-espace vectoriel de dimension \emph{finie} : si $v$ est un endomorphisme de
$E$, alors
$$
v\text{ est inversible}\iff v\text{ est injectif}\iff v\text{ est surjectif}
\iff\rg u=n\iff\det v\neq0
$$
Ces caractérisations sont appliquées à $v=u-\la I_E$.
\end{proof}
%--------------------------------------------------


%---------------------------------------------------------------------
\subsection{Sous-espace propre}
%---------------------------------------------------------------------
\begin{Df}[Sous-espace propre]\alaligne

 Si $u$ est un endomorphisme de $E$ et $\lambda$ une valeur
propre de $u$, le sous-espace vectoriel
\Reponse{$
E_\lambda(u)=\ker(u-\lambda I_E)=\ens{\vc x\in E}
{u(\vc x)=\lambda\vc x}
$}
est appelé \emph{sous-espace vectoriel propre} de $u$ associé à
$\lambda$.
\end{Df}

\begin{NBs}\alaligne

 $E_\lambda(u)$ est constitué de $\vc 0_E$ et des vecteurs
propres de $u$ associés à $\lambda$. Si $\vc e$ est un vecteur
propre de $u$ associé à $\lambda$, la droite $\K\vc e$ est
contenue dans $E_\lambda(u)$.

 $E_0(u)=\ker u$ est le noyau de $u$.

 $E_1(u)=\ker(u-I_E)=\ens{\vc x\in E}{u(\vc x)=\vc x}$ est le
sous-espace des vecteurs de $E$ invariants par~$u$.
\end{NBs}

\begin{Exs}
 Voici les éléments propres de quelques endomorphismes :

\begin{itemize}

 \item homothétie $h=\lambda I_E$ : $\sp h=\{\lambda\}$,
$E_\lambda(h)=E$;

 \item projecteur $p$ : $\sp p=\{0,1\}$, $E_0(p)=\ker p$ et
$E_1(p)=\im p$;

 \item symétrie $s$ : $\sp s=\{-1,1\}$, $E_{-1}(s)=F_1$ et
$E_1(s)=F_2$;

 \item affinité $a$ : $\sp a=\{1,\lambda\}$, $E_1(a)=F_1$ et
$E_\lambda(a)=F_2$. 
\end{itemize}
\end{Exs}

\begin{Prop}[Stabilité des sous-espaces vectoriels propres]\alaligne

 Si les endomorphismes $u$ et $v$ commutent, tout sous-espace
vectoriel propre relativement à $u$ est stable par $v$ et réciproquement.
\end{Prop}

\begin{proof}
 Puisque $u$ et $v$ commutent, $u-\lambda I_E$ et $v$ commutent,
et donc, $\ker(u-\lambda I_E)=E_\lambda(u)$ est stable par $v$. De même
$\ker(v-\lambda I_E)=E_\lambda(v)$ est stable par $u$.
\end{proof}
%--------------------------------------------------

\begin{Th}[Somme directe de sous-espaces propres]\alaligne

 La somme d'une famille finie de sous-espaces propres associés à
des valeurs propres distinctes deux à deux, est directe.
\end{Th}

\begin{proof}
 Démonstration par récurrence sur le nombre $k$ de sous-espaces vectoriels
propres.

 $E_{\la_1}(u)\inter E_{\la_2}(u)=\{\vc 0\}$ car à tout vecteur propre
est associé une seule valeur propre. La propriété est vraie pour $k=2$.

 Soient $(\la_1,\dots,\la_k,\la_{k+1})$ $(k+1)$ valeurs propres distinctes de
$u$ et montrons que $E_{\lambda_{k+1}}(u)\cap \sum_{i=1}^k E_{\lambda_i}(u)
=\{\vc 0_E\}$.
 Soit $\vc x_{k+1}=\sum_{i=1}^k\vc x_i
\in E_{\lambda_{k+1}}(u)\cap \sum_{i=1}^k E_{\lambda_i}(u)$; alors
\begin{align*}
u(\vc x_{k+1})
&= \lambda_{k+1}\vc x_{k+1}=\la_{k+1}\sum_{i=1}^k \vc x_i   \\
&= u\Bigl(\sum_{i=1}^k \vc x_i\Bigr)=\sum_{i=1}^k u(\vc x_i)
   =\sum_{i=1}^k \lambda_i\vc x_i              \\
\text{ donc } \vc 0
&=\sum_{i=1}^k(\lambda_{k+1}-\lambda_i)\vc x_i
\end{align*}
ce qui montre que $(\lambda_{k+1}-\lambda_i)\vc x_i=\vc 0$ puisque
la somme $\sum_{i=1}^k E_{\lambda_i}(u)$ est directe (la propriété est vraie au
rang $k$, puisque les valeurs propres sont distinctes deux à
deux) et $\vc x_i=\vc 0$ . Ainsi $\vc x_{k+1}=\vc 0$ et la propriété est vraie
au rang $k+1$.

 Le théorème de récurrence montre que la propriété est vraie
pour tout $k$.
\end{proof}
%--------------------------------------------------

\begin{Cor}[Liberté d'une famille de vecteurs propres]\alaligne

 Toute famille de vecteurs propres, associés à des valeurs
distinctes deux à deux, est une famille libre.
\end{Cor}


%---------------------------------------------------------------------
\subsection{Éléments propres et polynôme d'endomorphisme}
%---------------------------------------------------------------------

\begin{Th}[Éléments propres d'un polynôme d'endomorphisme]\alaligne

 Si $\vc x$ est un vecteur propre de $u$ associé à $\lambda$, pour
tout polynôme $P$, $\vc x$ est un vecteur propre de $P(u)$
associé à $P(\lambda)$.
\end{Th}

\begin{proof}
 $\vc x$ est non nul et
$$
u(\vc x)=\lambda\vc x\implique u^k(\vc x)=\lambda^k\vc x \text{
(par récurrence sur $k$)}
$$
Si $P=\sum_k a_k X^k$, on a :
$$
P(u)(\vc x)=\Bigl(\sum_k a_k u^k\Bigr)(\vc x)=\sum_k a_k u^k(\vc x)
=\sum_ka_k\lambda^k\vc x=P(\lambda)\vc x
$$
\end{proof}
%--------------------------------------------------

\begin{Cor}[Valeur propre et polynôme annulateur]\alaligne

 Si $P$ est un polynôme annulateur pour $u$, les valeurs propres
de $u$ sont \emph{des} racines de $P$.
\end{Cor}

\begin{proof}
 Si $\lambda$ est une valeur propre de $u$, $P(\lambda)$ est une
valeur propre de $P(u)=0_{\LE}$. Or, 0 est la seule valeur propre de
$0_{\LE}$, d'où $P(\la)=0$ et $\la$ est racine de $P$.
\end{proof}


%---------------------------------------------------------------------
\subsection{Éléments propres et automorphismes intérieurs}
%---------------------------------------------------------------------

\begin{Prop}[]\mbox{}
 Si $a\in\GLE$ est un automorphisme de $E$, l'application
$\vphi_a : u \mapsto aua^{-1}$
est un morphisme bijectif de l'algèbre $\LE$.
\end{Prop}

\begin{proof}
 La notation $\circ$ pour la composition des endomorphismes a
été remplacée par une notation multiplicative, \ie{} par une
absence de notation. Il nous faut vérifier un certain nombre de
propriétés :

\begin{itemize}
 \item $\vphi_a(u+v)=a(u+v)a^{-1}=aua^{-1}+ava^{-1}
  =\vphi_a(u)+\vphi_a(v)$;
 \item $\vphi_a(\lambda u)=a(\lambda u)a^{-1}=\lambda aua^{-1}
  =\lambda\vphi_a(u)$;
 \item $\vphi_a(u\circ v)=auva^{-1}=(aua^{-1})(ava^{-1})
  =\vphi_a(u)\circ\vphi_a(v)$;
 \item $\vphi_a(I_E)=aI_E\,a^{-1}=I_E$;
 \item $\vphi_a(u)=aua^{-1}=v\iff u=a^{-1}va=\vphi_{a^{-1}}(v)$,
  soit $(\vphi_a)^{-1}=\vphi_{a^{-1}}$.
\end{itemize}
\end{proof}
%--------------------------------------------------

\begin{Df}[Automorphismes intérieurs]\alaligne

 Les automorphismes de~$\LE$ de la forme $u\mapsto aua^{-1}$
sont appelés \emph{automorphismes intérieurs} de~$\LE$.
\end{Df}

\begin{Th}[]\mbox{}
 Si $u$ est un endomorphisme et $a$ un automorphisme de~$E$, alors
$$
\sp u=\sp(aua^{-1})\et E_\lambda(aua^{-1})=a\bigl(E_\lambda(u)\bigr)
$$
\end{Th}

\begin{proof}
 Considérons $\lambda$ une valeur propre de $u$ et $\vc x$ un
vecteur propre associé; posons $\vc y=a(\vc x)$, ce qui revient à
$\vc x=a^{-1}(\vc y)$. Ainsi
$$
u(\vc x)=\lambda\vc x\iff u\bigl(a^{-1}(\vc y)\bigr)
 =\lambda a^{-1}(\vc y)=a^{-1}(\lambda\vc y)
\iff aua^{-1}(\vc y)=\lambda\vc y
$$
ce qui montre que $\la$ est une valeur propre de $u$ et $\vc x$ un vecteur
propre associé, si, et seulement si, $\la$ est une valeur propre de $aua^{-1}$
et $\vc y=a(\vc x)$ un vecteur propre associé. Ainsi
$$
\sp u=\sp(aua^{-1})\quad\et\quad
a\bigl(E_\lambda(u)\bigr)=E_\lambda(aua^{-1}) 
$$
\end{proof}
%--------------------------------------------------


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Valeurs propres, vecteurs propres d'une matrice carrée}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

 Dans ce paragraphe, $M$ est une matrice carrée d'ordre
$n\geq1$, à coefficients dans $\K$.

%---------------------------------------------------------------------
\subsection{Éléments propres d'une matrice carrée}
%---------------------------------------------------------------------
\begin{Df}[Vecteur propre d'une matrice carrée]\alaligne

 Un élément non nul $X$ de $\Mnp[n,1]{\K}$ est appelé \emph{vecteur
propre} de $M$ s'il existe un scalaire $\lambda$ tel que
$MX=\lambda X$.\\
Ce scalaire est unique; on l'appelle valeur propre associée à $X$.
\end{Df}

\begin{Df}[Valeur propre d'une matrice carrée]\alaligne

 Un scalaire $\lambda$ est une
\emph{valeur propre} de $M$ si $M-\lambda I_n$ n'est pas
inversible; tout élément non nul de $\ker(M-\lambda I_n)$ est
appelé vecteur propre associé à $\lambda$.
\end{Df}

\begin{Df}[Sous-espace vectoriel propre d'une matrice carrée]\alaligne

 Si $\lambda$ est une valeur propre de $M$, le sous-espace
vectoriel $\ker(M-\lambda I_n)=\ens{X\in\Mnp[n,1]{\K}}{MX=\lambda X}$
est appelé \emph{sous-espace vectoriel propre} associé à
$\lambda$; il est noté $E_\lambda(M)$.
\end{Df}

\begin{Df}[Spectre d'une matrice carrée]\alaligne

 L'ensemble des valeurs propres de $M$ est le \emph{spectre} de
$M$; il est noté $\sp_\K M$ ou $\sp M$ si le corps n'est pas ambigu.
$$
\sp_\K M=\ens{\lambda\in\K}{M-\lambda I_n\notin\GLnK}
$$
\end{Df}

\begin{NB}
 Rappelons les équivalences pour une matrice carrée
\begin{gather*}
\lambda\in\sp_\K M\iff M-\lambda I_n\notin\GLnK
 \iff\det(M-\lambda I_n)=0                      \\
\iff\ker(M-\lambda I_n)\neq\{0\}\iff\rg(M-\lambda I_n)\leq n-1
\end{gather*}
\end{NB}

%---------------------------------------------------------------------
\subsection{Lien avec les endomorphismes}
%---------------------------------------------------------------------

 Á la matrice $M$, on associe l'endomorphisme $u_M$ de $\Mnp[n,1]{\K}$ par
la formule
$$
u_M : X\in\Mnp[n,1]{\K}\mapsto MX
$$
ce qui donne la

\begin{Prop}[Éléments propres d'une matrice et de son endomorphisme]\alaligne

 Les éléments propres de la matrice $M$ sont les élément propres de
l'endomorphisme $u_M$ associé.
\end{Prop}

 Soient $E$ un $\K$-espace vectoriel de dimension finie $n$,
$\mcal{B}$ une base de $E$, $u$ un endomorphisme de $E$ et $M$ sa
matrice relativement à $\mcal{B}$. Si $\vc x$, vecteur de $E$,
est de matrice $X$ relativement à $\mcal{B}$, $u(\vc x)$ est de
matrice $MX$ relativement à $\mcal{B}$; d'autre part, $\vc x$ et $X$ sont
simultanément nuls ou non, et
$$
u(\vc x)=\lambda \vc x\iff MX=\lambda X
$$
ce qui montre le 
\begin{Th}[Éléments propres d'un endomorphisme et de sa matrice]\alaligne

 Si $u$ est un endomorphisme de $E$ et $M=\mat(u)$ sa matrice relativement
à une base $\mcal{B}$, alors :
\begin{prop}
 \item $u$ et $M$ ont le même spectre;
 \item $\vc x$ est vecteur propre de $u$ associé à $\lambda$ si,
et seulement si, sa matrice $X=\mat(\vc x)$ relativement à $\mcal{B}$ est
vecteur propre de $M$ associé à $\lambda$.
\end{prop}
\end{Th}
%--------------------------------------------------

%---------------------------------------------------------------------
\subsection{Cas de deux matrices semblables}
%---------------------------------------------------------------------

 Soient $A$ et $B$ deux matrices semblables d'ordre $n$, et $P$ une
matrice inversible telle que $B=P^{-1}AP$; à~$A$ est associé
l'endomorphisme $u_A$ de $\Mnp[n,1]{\K}$. La matrice $P$ peut s'interpréter
comme la matrice de passage de la base naturelle (canonique) $\mcal{E}$ de
$\Mnp[n,1]{\K}$ à une base
$\mcal{B}$ constituée des vecteurs colonnes de $P$. Relativement
à cette base, la matrice de $u_A$ est $B$, d'où le

\begin{Th}[Matrices semblables et endomorphisme]\alaligne

 Deux matrices sont semblables si, et seulement si, elles
représentent le même endomorphisme (relativement à deux bases).
\end{Th}
%----------------------------------------------------------------------

\begin{Cor}[Spectre de deux matrices semblables]\alaligne

 Deux matrices semblables ont le même spectre.
\end{Cor}

\begin{proof}
 C'est le spectre de l'unique endomorphisme qu'elle représente.
\end{proof}
%----------------------------------------------------------------------


%---------------------------------------------------------------------
\subsection{Cas des matrices réelles}
%---------------------------------------------------------------------

 Une matrice à coefficients réels est aussi
une matrice à coefficients complexes. La notion de valeur
propre dépend du corps envisagé et on se gardera de  confondre
$\sp_\R M$ et $\sp_\C M$; mais on a le

\begin{Th}[Spectres réel et complexe d'une matrice réelle]\alaligne

 Si $M$ est une matrice à coefficients réels, $\sp_\R M$ est
contenue dans $\sp_\C M$; en général, les deux spectres sont
distincts.
\end{Th}

\begin{proof}
 Si $\lambda$ est un élément de $\sp_\R M$ et $X$ un vecteur propre
associé, alors $MX=\lambda X$, $X$ est non nul et appartient à
$\Mnp[1,n]{\R}$ donc à $\Mnp[1,n]{\C}$; ainsi $\lambda$ appartient à $\sp_\C M$.

 Considérons la rotation plane d'angle $\pi/2$; sa
matrice, dans une base orthonormale directe, est
$A=\bigl(\begin{smallmatrix}0&-1\\1&0\end{smallmatrix}\bigr)$ et
$\sp_\R A$ est vide puisque cette rotation n'admet aucune droite
stable. Par contre, $i$ est une valeur propre complexe de $A$,
puisque $A-iI_2=
\bigl(\begin{smallmatrix}-i&-1\\1&-i\end{smallmatrix}\bigr)$
n'est pas inversible.
\end{proof}
%--------------------------------------------------

\begin{Prop}[Valeur propre, vecteur propre, conjugaison]\alaligne

 Soit $M$ une matrice carrée d'ordre $n$ et à coefficients complexes;
si $X$ est un vecteur propre de $M$ associé à la valeur propre
$\lambda$, $\conjug X$ est un vecteur propre de $\conjug M$
associé à la valeur propre $\conjug\lambda$, et
$$
\sp_\C(\conjug M)=\ens{\conjug\lambda}{\lambda\in\sp M},\qquad
E_{\conjug\lambda}(\conjug M)=\ens{\conjug X}{X\in E_\lambda(M)}
$$
\end{Prop}

\begin{proof}
 Rappelons la relation $\conjug{A\,B}=\conjug A\;\conjug B$ pour
$A\in\Mnp{\C}$ et $B\in\Mnp[p,q]{\C}$. Ainsi on a l'équivalence
$$
MX=\lambda X\iff\conjug M\;\conjug X=\conjug\lambda\;\conjug X
$$
ce qui donne les résultats annoncés.
\end{proof}
%--------------------------------------------------

\begin{Prop}[Valeur propre complexe non réelle d'une matrice réelle]\alaligne

 Soit $M$ une matrice carrée d'ordre $n\geq 2$ et à coefficients
\emph{réels}; si $\lambda$ est une valeur propre complexe \emph{non
réelle} de $M$ et $X$ un vecteur propre à coefficients complexes associé à
$\lambda$, alors :

\begin{prop}

 \item $\conjug\lambda$ est une valeur propre de $M$ et $\conjug
X$ un vecteur propre associé à $\conjug\lambda$;
  
 \item le plan $(\mcal{P})$ orienté par $(\IM X,\RE X)$ est un
plan stable pour $M$, et $M$ induit sur $(\mcal{P})$ la
similitude de rapport $\abs\lambda$ et d'angle $\arg\lambda$.
\end{prop}
\end{Prop}

\begin{proof}\alaligne

\begin{demprop}
 \monitem $M$ est une matrice réelle, alors $\conjug M=M$, et
$$
MX=\lambda X\implique \conjug M\;\conjug X=M\conjug
X=\conjug\lambda\;\conjug X
$$
 
 \monitem Puisque $\lambda=a+ib$ n'est pas réel,
$\conjug\lambda\neq\lambda$ et la famille $\mcal{B}=(X,\conjug X)$ est libre
(vecteurs propres associés à deux valeurs propres distinctes).
Les formules
\begin{gather*}
\RE X=\ra12(X+\conjug X),\qquad\IM X=\ra1{2i}(X-\conjug X)       \\
X=\RE X +i\IM X,\qquad \conjug X=\RE X-i\IM X 
\end{gather*}
montrent que la famille $\mcal{C}=(\IM X,\RE X)$ est aussi une
famille libre (sur $\C$, donc sur $\R$). Séparant les parties
réelle et imaginaire, on obtient
\begin{align*}
MX & = M\RE X+iM\IM X                        \\
  & = \lambda X=(a+ib)(\RE X+i\IM X)                \\
  & = (a\RE X-b\IM X)+i(b\RE X+a\IM X)
\end{align*}
En appelant $s$ l'endomorphisme induit sur le plan $(\mcal{P})$
par $M$, $\mat[C](s)=\bigl(\begin{smallmatrix}a&-b\\b&a\end{smallmatrix}\bigr)$,
ce qui est la matrice de la similitude de rapport (complexe) $a+ib=\lambda$,
\ie{} le produit de l'homothétie de rapport $\abs{\la}$ et de la rotation
d'angle $\arg\la$.
\end{demprop}
\end{proof}
%--------------------------------------------------


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Polynôme caractéristique}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


%---------------------------------------------------------------------
\subsection{Définitions}
%---------------------------------------------------------------------

\subsubsection{Polynôme caractéristique d'une matrice carrée}

 Si $M$ est une matrice carrée d'ordre $n\geq1$ à coefficients dans
$\K$, $M-XI_n$ est une matrice à coefficients dans $\K[X]$ sous-anneau du corps
$\K(X)$ des fractions rationnelles. Le déterminant de $M-XI_n$ est 
polynomial en les coefficients de cette matrice, il est donc
élément de $\K[X]$, ce qui permet la

\begin{Df}[Polynôme caractéristique d'une matrice carrée]\alaligne

 Si $M=[a_{i,j}]$ est une matrice carrée d'ordre $n\geq1$, le
\emph{polynôme caractéristique} de $M$, que l'on note $\chi_M$,
est le déterminant
$$
\chi_M(X)=\det(M-XI_n)=
\begin{vmatrix}
a_{1,1}-X & a_{1,2} & \cdots & a_{1,n} \\
a_{2,1} & a_{2,2}-X & \cdots & a_{2,n} \\
\hdotsfor{4}               \\
a_{n,1} & a_{n,2} & \cdots & a_{n,n}-X
\end{vmatrix}
$$
\end{Df}

\begin{NB}
 $X$ est ici une indéterminée; en cas d'indigestion, remplacer $X$
par $x$; le polynôme devient une fonction polynôme; servir chaud.
\end{NB}

\begin{Exs}
Voici quelques polynômes caractéristiques de matrices :

\begin{itemize}
 \item matrice nulle : $\chi_0=(-X)^n$;
 
 \item matrice unité d'ordre $n$ : $\chi_{I_n}=(1-X)^n$;
 
 \item matrice diagonale $D=\diag\lambda$ :
$\chi_D=\prod_{i=1}^n(\lambda_i-X)$;

 \item matrice triangulaire $T=[t_{i,j}]$ :
$\chi_T=\prod_{i=1}^n(t_{i,i}-X)$. 
 
\end{itemize}
\end{Exs}

\begin{Prop}[Polynôme caractéristique et transposée]\alaligne

 Une matrice et sa transposée ont le même polynôme caractéristique.
\end{Prop}

\begin{proof}
 Rappelons qu'une matrice et sa transposée ont le même
déterminant; d'où
$$
\trans M-XI_n=\trans{(M-XI_n)}
\implique
\det(\trans M-XI_n)=\det\bigl(\trans{(M-XI_n)}\bigr)=\det(M-XI_n)
$$
ce qui donne le résultat.
\end{proof}
%--------------------------------------------------

\begin{Prop}[Polynôme caractéristique et matrices semblables]\alaligne

 Deux matrices semblables ont le même polynôme caractéristique.
\end{Prop}

\begin{proof}
 Rappelons que deux matrices semblables ont le même déterminant.
Si $A$ et $B$ sont deux matrices semblables, et $P$ une matrice
inversible telle que $B=P^{-1}AP$, alors
$$
B=P^{-1}AP\implique B-XI_n=P^{-1}AP-XI_n=P^{-1}(A-XI_n)P
$$
les matrices $B-XI_n$ et $A-XI_n$ sont semblables, d'où
$$
\det(B-XI_n)=\det\Bigl(P^{-1}(A-XI_n)P\Bigr)=\det(A-XI_n) 
$$
ce qui donne le résultat.
\end{proof}
%--------------------------------------------------


\subsubsection{Polynôme caractéristique d'un endomorphisme}

Soient $u$ un endomorphisme de $E$, $\mcal{B}$ et $\mcal{C}$ deux
bases de $E$; les matrices $\mat(u)$ et $\mat[C](u)$ sont des
matrices semblables; elles admettent donc le même polynôme
caractéristique, ce qui permet la

\begin{Df}[Polynôme caractéristique d'un endomorphisme]\alaligne

 Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$ de
dimension finie $n\geq1$, le polynôme caractéristique de la
matrice qui représente $u$ dans une base donnée $\mcal{B}$ de $E$,
est indépendant du choix de cette base; on l'appelle
\emph{polynôme caractéristique} de l'endomorphisme $u$; il est
noté $\chi_u$.
\Reponse{$
\chi_u=\det\bigl(\mat(u)-XI_n\bigr)\quad
\text{$\mcal{B}$ est une base de $E$}
$}
\end{Df}

\begin{Ex}
 Le polynôme caractéristique de l'application identique est
$\chi_{I_E}=\chi_{I_n}=(1-X)^n$ et celui de l'application nulle
$\chi_{0_{\mcal{L}(E)}}=\chi_{0_{\MnK}}=(-X)^n$.
\end{Ex}

 


%---------------------------------------------------------------------
\subsection{Propriétés du polynôme caractéristique}
%---------------------------------------------------------------------

 Nous indiquerons, dans ce paragraphe, les propriétés du
polynôme caractéristique d'une matrice; le lecteur, dans sa grande
bonté, effectuera lui-même les modifications qu'il jugera utiles
pour exprimer les propriétés du polynôme caractéristique d'un
endomorphisme.

Quelle est l'utilité du polynôme caractéristique? Déterminer les
valeurs propres d'une matrice, ou d'un endomorphisme.


\begin{Th}[Polynôme caractéristique et valeurs propres]\alaligne

 Les valeurs propres d'une matrice 
sont les racines sur $\K$ de son polynôme caractéristique.
\end{Th}

\begin{proof}
 Évidente, car
$\lambda\in\sp_\K M\iff M-\lambda I_,\notin\GLnK
\iff 0=\det(M-\lambda I_n)=\chi_M(\lambda)$ et $\lambda\in\K$.
\end{proof}
%--------------------------------------------------

\begin{Cor}[Spectre d'une matrice complexe]\alaligne

 Toute matrice à coefficients complexes admet, au
moins, une valeur propre (complexe).
\end{Cor}

\begin{proof}
 Tout polynôme à coefficients complexes admet une racine
complexe, c'est le théorème de D'Alembert.
\end{proof}
%--------------------------------------------------

\begin{Prop}[Coefficients du polynôme caractéristique]\alaligne

 $\chi_M$ est un polynôme de degré $n$ et
$$
\chi_M=(-X)^n+\tr M(-X)^{n-1}+\cdots+\tr(\com M)(-X)+\det M
$$
\end{Prop}

\begin{proof}
 L'égalité $\chi_M(0)=\det M$ donne le coefficient constant.

 Appelons $a_{i,j}$ le terme général de $M$ et $\tilde a_{i,j}$
celui de $M-XI_n$. Si $s$ est une permutation de $\sym$ distincte
de l'identité, $\prod_{i=1}^n\tilde a_{i,s(i)}$ est un polynôme
de degré au plus $(n-2)$, ce qui donne
\begin{align*}
\chi_M
&=\begin{vmatrix}
a_{1,1}-X & a_{1,2} & \cdots & a_{1,n} \\
a_{2,1} & a_{2,2}-X & \cdots & a_{2,n} \\
\hdotsfor{4}               \\
a_{n,1} & a_{n,2} & \cdots & a_{n,n}-X
\end{vmatrix}                             \\
&=\prod_{i=1}^n(a_{i,i}-X)
 +\underbrace{
  \sum_{s\in\sym,s\neq e}\eps(s)\prod_{i=1}^n \tilde a_{i,s(i)}
  }_{\text{polynôme de degré $\leq n-2$}}              \\
&=(-X)^n+\Bigl(\sum_{i=1}^n a_{i,i}\Bigr)(-X)^{n-1}
 +\underbrace{\cdots\quad+\quad\cdots\quad+\quad\cdots}_{\text{polynôme de degré
  $\leq n-2$}}                           \\
&=(-X)^n+\tr M(-X)^{n-1}
 +\underbrace{\cdots\quad+\quad\cdots\quad+\quad\cdots}_{\text{polynôme de
  degré $\leq n-2$}}
\end{align*}

 Quant au coefficient de $-X$, c'est une autre histoire\dots
\end{proof}
%--------------------------------------------------

\begin{NBs}
 Le calcul de $\chi_M$ est facile en petite dimension :
 \begin{itemize}
  \item pour $n=2$, $\chi_M=X^2-(\tr M) X+\det M$;
  \item pour $n=3$, $\chi_M=-X^3+(\tr M) X^2-\tr(\com M)X+\det M$.
 \end{itemize}
\end{NBs}

\begin{Cor}[Nombre de valeurs propres distinctes d'une matrice carrée]\alaligne

 Le nombre de valeurs propres d'une matrice carrée est au plus
égal à son ordre.
\end{Cor}

\begin{proof}
 Le nombre de valeurs propres distinctes d'une matrice carrée d'ordre $n$ est
égal au nombre de racines distinctes du polynôme caractéristique, \ie{} d'un
polynôme de degré $n$; ce nombre est compris entre 0 et $n$.
\end{proof}
%--------------------------------------------------

\begin{Cor}[Cas des polynômes caractéristiques scindés]\mbox{}\\
 Si le polynôme caractéristique de $M$ est scindé sur $\K$, avec
$\chi_M=\prod_{i=1}^n(\lambda_i-X)$, alors
$$
\sp M=\{\lambda_1,\ldots,\lambda_n\},\ \tr M=\sum_{i=1}^n \lambda_i,
\ \det M=\prod_{i=1}^n \lambda_i
$$
\end{Cor}

\begin{proof}
 Il suffit de développer $\prod_{i=1}^n(\lambda_i-X)$ et
d'identifier ce polynôme avec celui de la formule précédente.
\end{proof}
%--------------------------------------------------

\begin{Cor}[Cas des matrices réelles]\alaligne

 Tout matrice à coefficients réels et d'ordre impair admet, au
moins, une valeur propre réelle.
\end{Cor}

\begin{proof}
 Si $n$ est impair, $\chi_M$ est de degré impair et
$\chi_M(x)\equivalent[\pm\infty](-x)^n$; le théorème des valeurs
intermédiaires assure l'existence d'une racine réelle pour
$\chi_M$, et $\sp_\R M$ n'est pas vide.
\end{proof}
%--------------------------------------------------

\begin{Th}[Cas d'une matrice triangulaire par blocs]\alaligne

 Le polynôme caractéristique d'une matrice triangulaire par
blocs se calcule aisément :
$$
M=\begin{pmatrix}A&B\\0&C\end{pmatrix},\text{ avec
$A\in\mathcal{M}_p(\K)$ et $C\in\mathcal{M}_q(\K)$}
\implique \chi_M=\chi_A\chi_C
$$
\end{Th}

\begin{proof}
 $M-XI_n=\begin{pmatrix}A-XI_p&B\\0&C-XI_q\end{pmatrix}$ et le
calcul du déterminant d'une matrice triangulaire par blocs donne
le résultat.
\end{proof}
%--------------------------------------------------



%---------------------------------------------------------------------
\subsection{Multiplicité d'une valeur propre}
%---------------------------------------------------------------------

\begin{Df}[Multiplicité d'une valeur propre]\alaligne

 L'ordre de multiplicité d'une racine $\lambda$ de $\chi_M$ est
appelé \emph{multiplicité de la valeur propre} $\lambda$ de $M$;
elle est noté $m(\lambda)$.
\end{Df}

\begin{NB}
 Si $\chi_M$ est scindé et si $\lambda_1$,\ldots,$\lambda_p$
sont les valeurs propres deux à deux distinctes de $M$, le
polynôme caractéristique de $M$ s'écrit
$$
\chi_M=\prod_{j=1}^p(\lambda_j-X)^{m(\lambda_j)}
=\prod_{\lambda\in\sp M}(\lambda-X)^{m(\lambda)}
$$
et la somme des multiplicités des valeurs
propres de $M$ est égale à son ordre.
\end{NB}


\begin{Th}[Dimension d'un sous-espace vectoriel propre]\alaligne

 Soient $\lambda$ une valeur propre de $M$, $m(\lambda)$ sa
multiplicité et $q(\lambda)$ la dimension du sous-espace propre
associé; alors
\Reponse{$
1\leq q(\la)=\dim E_\la(M)=n-\rg(M-\la I_n)\leq m(\la)
$}
\end{Th}

\begin{proof}
 Appelons $u$ l'endomorphisme de $\Mnp[n,1]{\K}$ associé à $M$. Pour
$\lambda\in\sp u=\sp M$, on a
\begin{itemize}
 \item $E_u(\la)=\ker(u-\la I_E)\neq\{\vc 0\}$, donc
$q(\la)\geq1$;

 \item $\dim E_\la(u)=\dim\ker(u-\la I_E)=n-\rg(u-\la I_E)$;
 \item $E_\la(u)$ est un sous-espace stable par $u$; dans une
base adaptée, la matrice de $u$ est triangulaire (supérieure) par
blocs, soit
$$
N=\begin{pmatrix}\la I_{q(\la)}&B\\0&C\end{pmatrix}
$$
donc $\chi_N=\chi_u=\chi_M=(\la-X)^{p(\la)}\chi_C$; ceci montre que
$q(\la)\leq m(\la)$.
\end{itemize}
\end{proof}
%--------------------------------------------------


\begin{Cor}[Cas des valeurs propres simples]\alaligne

 Le sous-espace propre associé à une valeur propre simple est
une droite vectorielle.
\end{Cor}

\begin{proof}
 Les inégalités $1\leq q(\la)\leq m(\la)=1$ donnent le résultat.
\end{proof}


%---------------------------------------------------------------------
\subsection{Polynôme caractéristique et polynôme annulateur}
%---------------------------------------------------------------------
\begin{Th}[Cayley-Hamilton]\alaligne

 Le polynôme caractéristique d'un endomorphisme ou d'une matrice
est un polynôme annulateur de cet endomorphisme ou de cette matrice, soit :
$$
\chi_M(M)=0_{\MnK}\qquad\et\qquad \chi_u(u)=0_{\LE}
$$
\end{Th}

\begin{proof}
 Hors programme
\end{proof}
%--------------------------------------------------




%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Diagonalisation}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

On suppose ici que $E$ est un $\K$-espace vectoriel vectoriel de
dimension finie $n\geq1$ et $u$ un endomorphisme de $E$.

%---------------------------------------------------------------------
\subsection{Endomorphisme diagonalisable}
%---------------------------------------------------------------------
\begin{Df}
 Un endomorphisme de $E$ est dit \emph{diagonalisable} si $E$
est la somme directe de ses sous-espaces propres.
\Reponse{$\dsp
u\text{ est diagonalisable}\iff E=\Somdir_{\la\in\sp u}E_\la(u)
$}
\end{Df}

\begin{NB}
 La somme des sous-espaces propres de $E$ est \emph{toujours}
directe, mais pas nécessairement égale à $E$.
\end{NB}

\begin{Exs}
 Les homothéties, les projecteurs, les symétries et les
affinités sont diagonalisables.
\end{Exs}

%---------------------------------------------------------------------
\subsection{Caractérisation des endomorphismes diagonalisables}
%---------------------------------------------------------------------
\begin{Th}
 Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$ de
dimension finie, alors les propositions suivantes sont équivalentes :
\begin{prop}
 \item $u$ est diagonalisable;
 
 \item $E$ est la somme directe de sous-espaces stables sur
lesquels $u$ induit une homothétie;

 \item il existe une base de $E$ constituée de vecteurs propres de $u$;

 \item il existe une base de $E$ sur laquelle la matrice de $u$
est diagonale.
\end{prop}
\end{Th}

\begin{proof}\alaligne

 \Implique12
 Pour toute valeur propre $\la$ de $u$, $E_\la(u)$ est un sous-espace vectoriel
stable sur lequel $u$ induit une homothétie (de rapport $\la$).

 \Implique23
 Si $F$ est un sous-espace stable sur lequel $u$ induit une homothétie (de
rapport $k$), tous les vecteurs non nuls de $F$ sont des vecteurs propres de $u$
(associés à $k$). Une base de $E$ adaptée à la décomposition de $E$ en somme
directe est constituée de vecteurs propres de $u$.

 \Implique34
 Si $\mcal{B}=(\vc e_1,\dots,\vc e_n)$ est une base constituée de vecteurs
propres de $u$, la matrice de $u$ relativement à $\mcal{B}$ est diagonale
$\diag{\la}$ avec $\la_i$ valeur propre de $u$ associée au
vecteur propre $\vc e_i$ ($u(\vc e_i)=\la_i\vc e_i$).

 \Implique41
 Quitte à réordonner la base de $E$ sur laquelle la matrice de $u$ est
diagonale, on peut supposer que cette matrice est diagonale par blocs : 
$M=\mathrm{Diag}(\la_j I_{m(\la_j)})_{\la_j\in\Intf1p}$. Le polynôme
caractéristique de $u$ est
$\chi_u=\chi_M=\prod_{i=j}^p(\lambda_j-X)^{m(\lambda_j)}$, les $\la_j$ sont les
valeurs propres de $u$ et $E_{\la_j}(u)$ est de dimension $m(\la_j)$
de vecteures de la base de $E$; ainsi $E$ est somme directe des $E_{\la_j}(u)$
puisque $\sum_j\dim E_{\la_j}(u)=\sum_j m(\la_j)=n$.

\end{proof}
%--------------------------------------------------


%---------------------------------------------------------------------
\subsection{Endomorphisme diagonalisable, dimension des
sous-espaces propres}
%---------------------------------------------------------------------
\begin{Th}
 Soit $u$ un endomorphisme d'un $\K$-espace vectoriel de
dimension finie; les propositions suivantes sont équivalentes :
\begin{prop}
 \item $u$ est diagonalisable;

 \item la somme des dimensions des sous-espaces propres est égale
à la dimension de $E$;

 \item le polynôme caractéristique de $u$ est scindé, et, pour
toute valeur propre de $u$, la multiplicité est égale à la
dimension du sous-espace propre associé.
\end{prop}
\Reponse{$\dsp
u\text{ est diagonalisable}
\iff\sum_{\lambda\in\sp u}\dim E_\lambda(u)=n
$
\\
$\dsp
\iff\chi_u\text{ est scindé et }\qqs\lambda\in\sp u,\
m(\lambda)=\dim E_\lambda(u)
$}
\end{Th}

\begin{proof}\alaligne

 \Iff12
 La somme des sous-espaces vectoriels propres est directe; cette somme est
égale  à $E$ si, et seulement si, sa dimension est la dimension de $E$; ceci
donne le résultat, puisque la dimension d'une somme directe est égale à la somme
des dimensions de chacun des facteurs.

 \Implique13
 Puisque $u$ est diagonalisable, il existe une base de $E$ sur laquelle la
matrice de $u$ est diagonale $\diag{\la}$; ainsi $\chi_u=\prod_{i=1}^n(\la_i-X)$
est un polynôme scindé.

 On sait que pour toute valeur propre $\la$, $q(\la)=\dim E_\la(u)\leq m(\la)$;
d'autre part
$$
n=\sum_{\la\in\sp u}m(\la)=\sum_{\la\in\sp u}\dim E_\la(u)
$$
ce qui implique que $0=\sum_{\la\in\sp u}\bigl(m(\la)-q(\la)\bigr)$ et chacun
des termes de la somme est positif; tous les termes de cette somme sont donc
nuls.

 \Implique32
 Puisque $\chi_u$ est scindé, $\sum_{\la\in\sp u}m(\la)=n$; ceci implique que
$\sum_{\la\in\sp u}\dim E_\la(u)=n$ et $u$ est diagonalisable.

\end{proof}
%--------------------------------------------------

\begin{Th}[Cas des valeurs propres simples]\alaligne

 Tout endomorphisme d'un $\K$-espace vectoriel de
dimension finie dont le polynôme caractéristique est scindé et a
toutes ses racines \emph{simples}, est diagonalisable et ses
sous-espaces propres sont des droites vectorielles. 
\end{Th}

\begin{proof}
 Dans ce cas, $m(\la)=\dim E_\la(u)=1$ pour toute valeur propre $\la$ de $u$.
\end{proof}
%--------------------------------------------------
\begin{Cor}
 Tout endomorphisme d'un $\K$-espace vectoriel de
dimension finie $n$ dont le polynôme caractéristique admet $n$
racines distinctes est diagonalisable et ses sous-espaces propres
sont des droites vectorielles.
\end{Cor}

\begin{proof}
 Dans ce cas, les racines du polynôme caractéristique sont simples.
\end{proof}
%----------------------------------------------------------------------


%---------------------------------------------------------------------
\subsection{Endomorphisme diagonalisable et polynôme annulateur}
%---------------------------------------------------------------------
\begin{Th}
 Si $u$ est un endomorphisme d'un $\K$-espace vectoriel de
dimension finie, $u$ est diagonalisable si, et seulement si, $u$
annule un polynôme scindé dont toutes les racines sont simples.
\end{Th}

\begin{proof}\alaligne

\CN
 Appelons $\la_1$,\dots,$\la_p$ les valeurs propres deux à deux
\emph{distinctes} de $u$. Dans une base adaptée à la décomposition
$E=\somdir_{j=1}^p E_{\la_j}(u)$, la matrice de $u$ est diagonale par blocs
$M=\mathrm{Diag}(\la_j I_{m(\la_j)})_{j}$. Le polynôme
$P=\prod_{j=1}^p(X-\la_j)$ est annulateur de $M$, car, par blocs,
$$
P(M)=\mathrm{Diag}(P(\la_j) I_{m(\la_j)})_{j\in\Intf1p}=0
\qquad\text{ car $\la_j$ est racine de $P$ pour tout $j\in\Intf1p$}
$$
Ainsi le polynôme $P$ est scindé, à racines simples et annulateur de $u$.

\CS
 La démonstration est hors programme; elle est basée sur la propriété
suivante : si $\la$ et $\mu$ sont deux scalaires distincts, alors
$$
\ker\bigl((u-\la I_E)\circ(u-\mu I_E)\bigr)=\ker(u-\la I_E)\somdir\ker(u-\mu I_E)
$$
Un raisonnement par récurrence sur le nombre de racines de
$P=\prod_{j=1}^p(X-\la_j)$ montre que :
$$
\ker P(u)=\ker\prod_{j=1}^p(u-\la_j I_E)=\Somdir_{j=1}^p\ker(u-\la_j I_E)
$$
Si $P$ est annulateur de $u$, $\ker P(u)=E$ et $u$ est diagonalisable.
\end{proof}
%--------------------------------------------------




%---------------------------------------------------------------------
\subsection{Endomorphisme diagonalisable et sous-espace stable}
%---------------------------------------------------------------------
\begin{Th}
 Si $u$ est un endomorphisme diagonalisable de $E$ et $F$ un
sous-espace stable pour $u$, l'endomorphisme $v$, induit par $u$ sur
$F$, est diagonalisable.
\end{Th}

\begin{proof}
 Soit $P$ un polynôme annulateur de $u$, scindé et à racines simples.
La restriction de $P(u)$ à $F$ est $P(v)$, et donc,
$P$ est annulateur de $v$. Ainsi $v$ est diagonalisable.
\end{proof}
%--------------------------------------------------


%---------------------------------------------------------------------
\subsection{Cas des matrices}
%---------------------------------------------------------------------
\begin{Df}[Matrice diagonalisable]\alaligne

 Une matrice carrée d'ordre $n$ à coefficients dans $\K$ est
\emph{diagonalisable} si l'endomorphisme $u_M$ de $\Mnp[n,1]{\K}$ associé est
diagonalisable.
\end{Df}

\begin{Th}[Caractérisation des matrices diagonalisables]\alaligne

 Pour une matrice carrée $M$ d'ordre $n$ et à coefficients dans
$\K$, les propriétés suivantes sont équivalentes :

\begin{prop}
 \item $M$ est diagonalisable;

 \item $M$ est la matrice d'un endomorphisme diagonalisable;

 \item $M$ est semblable à une matrice diagonale;

 \item la somme des dimensions des sous-espaces propres de $M$
est $n$;

 \item $\chi_M$ est scindé sur $\K$, et, pour toute valeur propre
(de $\sp_\K M$), la multiplicité est égale à la dimension du
sous-espace propre associé;

 \item il existe une matrice inversible $P\in\GLnK$ telle que
$P^{-1}MP=\diag\la$ soit diagonale, $P$ étant la matrice de
changement de base, de la base canonique à une base constituée de
vecteurs propres de $M$, le $j$\fup{e} étant relatif à la
valeur propre $\lambda_j$.
\end{prop}
\end{Th}

\begin{proof}
 Les cinq premières assertions sont la traduction au cas de $u_M$ des théorèmes
qui caractérisent les endomorphismes diagonalisables.

 La sixième assertion est l'explication pratique : recherche d'une base de
$\Mnp[n,1]{\K}$ constituée de vecteurs propres de $M$ et utilisation de cette
base pour construire une matrice inversible $P$, la matrice de passage de la
base canonique à la base de vecteurs propres, qui diagonalise $M$.
\end{proof}
%--------------------------------------------------