%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \chapter{Réduction des endomorphismes et des matrices} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \minitoc \newpage %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Sous-espaces vectoriels stables} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %--------------------------------------------------------------------- \subsection{Généralités} %--------------------------------------------------------------------- \begin{Df}[Sous-espace vectoriel stable]\alaligne Soient $E$ un $\K$-espace vectoriel et $u$ un endomorphisme de $E$; un sous-espace vectoriel $F$ de $E$ est dit \emph{stable pour $u$} si, et seulement si, $u(F)$ est inclus dans~$F$. \Reponse{$ \text{$F$ est stable pour $u$}\iff\qqs \vc x,\ \vc x\in F\implique u(\vc x)\in F $} \end{Df} \begin{Prop}[Stabilité et famille génératrice]\alaligne $F$ est un sous-espace vectoriel stable pour $u$ si, et seulement si, l'image par $u$ d'une famille génératrice de $F$ est contenue dans $F$. \end{Prop} \begin{proof} La condition nécessaire est évidente : les éléments d'une famille génératrice de $F$ sont des éléments particuliers de $F$. Si $\puple{\vc f}$ engendre $F$, alors $(u(\vc f_1),\dots,u(\vc f_p)$ engendre $u(F)$, grâce à la linéarité de $u$ : $$ \vc x=\sum_{j=1}^p \la_j \vc f_j\in F\implique u(\vc x)=\sum_{j=1}^p \la_j u(\vc f_j)\in u(F) $$ ce qui donne la condition suffisante \end{proof} %---------------------------------------------------------------------- \begin{Prop}[Application induite sur un sous-espace vectoriel stable]\alaligne Si $u$ est un endomorphisme de $E$ et $F$ un sous-espace vectoriel stable pour $u$, l'application $v : \vc x\in F\mapsto u(\vc x)$ induite par $u$ sur $F$, est un endomorphisme de $F$. \end{Prop} \begin{proof} L'application $v$ est à valeurs dans $F$ et est linéaire puisque $u$ l'est. \end{proof} %-------------------------------------------------- \begin{Th}[Stabilité de l'image et du noyau]\alaligne Si $u$ et $v$ sont deux endomorphismes de $E$ qui \emph{commutent}, $\im u$ et $\ker u$ sont stables par $v$. \end{Th} \begin{proof} Soit $\vc y=u(\vc x)$ un vecteur quelconque de $\im u$, son image par $v$, $v(\vc y)=v\bigl(u(\vc x)\bigr)= u\bigl(v(\vc x)\bigr)$ reste dans $\im u$. Si $\vc x$ est élément de $\ker u$, alors $u\bigl(v(\vc x)\bigr)=v\bigl(u(\vc x)\bigr)=v(\vc 0)=\vc 0$, et $v(\vc x)$ reste dans $\ker u$. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Cas de la dimension finie} %--------------------------------------------------------------------- $E$ est un $\K$-espace vectoriel de dimension finie $n$; rappelons que si $F$ est un sous-espace vectoriel de dimension $p$, toute base de $E$ dont les $p$ premiers vecteurs constituent une base de $F$, est appelée \emph{base de $E$ adaptée} à $F$. Le théorème de la base incomplète montre l'existence de telle base. \begin{Th}[Caractérisation des sous-espaces vectoriels stables]\alaligne Soient $F$ est un sous-espace vectoriel de $E$, $\mcal{B}$ une base de $E$ adaptée à $F$ et $u$ un endomorphisme de $E$; alors $F$ est stable pour $u$ si, et seulement si, la matrice de $u$ relativement à $\mcal{B}$ est triangulaire supérieure par blocs, soit $$ \mat(u)= \begin{pmatrix} A & \vdots & B \\ \hdotsfor{3} \\ 0 & \vdots & C \end{pmatrix} $$ \end{Th} \begin{proof} Soit $\mcal{B}=(\vc e_i,\ldots,\vc e_p,\vc e_{p+1},\ldots,\vc e_n)$ une base de $E$ telle que les $p$ premiers vecteurs $\puple{\vc e}$ constituent une base de $F$; $F$ est stable par $u$ si, et seulement si, pour tout $j\in\Intf1p$, $u(\vc e_j)$ est dans $F$. Or, $u(\vc e_j)=\sum_{i=1}^n a_{i,j}\vc e_i$ appartient à $F$ si, et seulement si, $a_{i,j}=0$ pour $i>p$, \ie{} si, et seulement si, les $p$ premières colonnes de la matrice de $u$ ont des 0 à partir de la ligne $(p+1)$. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Généralisation} %--------------------------------------------------------------------- Si $E=\Somdir_{i=1}^p F_i$, et si $\mcal{B}_j$ est une base de $F_j$, $\mcal{B}=\Union_{j=1}^p\mcal{B}_j$ est une base de $E$ \emph{adaptée} à cette décomposition en somme directe. \begin{Th} Soient $E$ est un $\K$-espace vectoriel de dimension finie, $F_1$,\ldots, $F_p$ des sous-espaces vectoriels dont $E$ est la somme directe, $\mcal{B}$ une base de $E$ adaptée à cette décomposition et $u$ un endomorphisme de $E$; alors $u$ stabilise les sous-espaces $F_j$ si, et seulement si, la matrice de $u$ relativement à $\mcal{B}$ est diagonale par blocs, \ie $$ \mat(u)= \begin{pmatrix} A_1 & \vdots & 0 & \vdots & \cdots & \vdots & 0 \\ 0 & \vdots & A_2 & \vdots & \cdots & \vdots & 0 \\ \hdotsfor{7} \\ 0 & \vdots & 0 & \vdots & \cdots & \vdots & A_p \end{pmatrix} $$ \end{Th} En appelant $u_j$ l'endomorphisme induit par $u$ sur le sous-espace stable $F_j$, $A_j$ est la matrice de $u_j$ relativement à la base $\mcal{B_j}$ et $$ \det u=\det A_1\times\cdots\times\det A_p=\det u_1\times\cdots\times\det u_p $$ Si $\mcal{D}$ est une droite vectorielle, tout endomorphisme de $\mcal{D}$ est une homothétie; ainsi, si $\mcal{D}$ est une droite vectorielle de $E$, stable pour $u$, l'endomorphisme de $\mcal{D}$ induit par $u$ est une homothétie de $\mcal{D}$ ce qui donne le \begin{Th}[Endomorphisme de matrice diagonale]\alaligne Soient $E$ un $\K$-espace vectoriel de dimension finie $n$, $\mcal{B}=\nuple{\vc e}$ une base de $E$ et $u$ un endomorphisme de $E$; alors, la matrice de $u$ dans $\mcal{B}$ est diagonale si, et seulement si, pour tout $j\in\Intf1n$, la restriction $u_j$ de $u$ à $\K\vc e_j$ est une homothétie. \end{Th} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Drapeau} %--------------------------------------------------------------------- \begin{Df}[Drapeau]\alaligne Si $E$ est un $\K$-espace vectoriel de dimension finie $n\geq1$, un \emph{drapeau} est une suite $\nuple E$ de sous-espaces vectoriels de $E$, croissante pour l'inclusion et telle que $\dim E_k=k$. \end{Df} %-------------------------------------------------- Soit $\mcal{B}=\nuple{\vc e}$ est une base de $E$; on définit $E_k=\somdir_{i=1}^k\K\vc e_i$ le sous-espace vectoriel engendré par les $k$ premiers vecteurs de $\mcal{B}$; la suite $\nuple E$ est un drapeau de $E$, c'est le \emph{drapeau associé} à $\mcal{B}$. Réciproquement, à tout drapeau $\nuple E$ de $E$, on associe une base $\mcal{B}=\nuple{\vc e}$ de $E$ telle que $E_k=\somdir_{i=1}^k\K\vc e_i$; c'est la \emph{base adaptée} au drapeau $\nuple E$. \begin{Th}[Endomorphisme de matrice triangulaire]\alaligne Soient $E$ un $\K$-espace vectoriel de dimension finie $n$, $\nuple E$ un drapeau de $E$, $\mcal{B}$ une base adaptée à ce drapeau et $u$ un endomorphisme de $E$; alors, $u$ stabilise les $E_k$ si, et seulement si, la matrice de $u$ relativement à $\mcal{B}$ est une matrice triangulaire supérieure. \end{Th} \begin{proof} Pour tout $k\in\Intf1n$, l'image de $E_k$ est contenue dans $E_k$ si, et seulement si, $u(\vc e_k)$ est dans $E_k$. Si $(a_{i,j})_i$ sont les composantes de $u(\vc e_j)$ dans~$\mcal{B}$, $u(\vc e_k)$ appartient à $E_k$ si, et seulement si, $a_{i,k}$ est nul pour $i>k$. \end{proof} %-------------------------------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Polynômes d'un endomorphisme} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %--------------------------------------------------------------------- \subsection{Puissance d'un endomorphisme} %--------------------------------------------------------------------- \begin{Df}[Puissance d'un endomorphisme]\alaligne Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$, on définit, par récurrence sur $k\in\N$, les puissances $k$\fup{e} $u^k$ de $u$ en posant $$ u^0=I_E\et\qqs k\in\N,\ u^{k+1}=u^k\circ u $$ \end{Df} \begin{Prop} Pour tout entier naturel $p$ et $q$, on a $u^p\circ u^q=u^q\circ u^p=u^{p+q}$. \end{Prop} \begin{proof} Montrons que $u^p\circ u^q=u^{p+q}$ en effectuant une récurrence sur $q$. La formule est vraie pour $q=0$ et $$ u^p\circ u^{q+1}=u^p\circ(u^q\circ u)=(u^p\circ u^q)\circ u=u^{p+q}\circ u=u^{p+q+1} $$ La seconde égalité se montre en échangeant le rôle de $p$ et $q$. \end{proof} %-------------------------------------------------- \begin{NB} Les endomorphismes $u^p$ et $u^q$ commutent pour tout entier naturel $p$ et $q$. \end{NB} \begin{Prop}[Noyaux itérés]\alaligne\\ Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$, \begin{prop} \item la suite $(\ker u^p)_p$ est croissante pour l'inclusion; \item si l'ensemble $\ens{p\in\N}{\ker u^p=\ker u^{p+1}}$ n'est pas vide, il possède un plus petit élément noté $i_u$, appelé \emph{indice} de $u$; dans ces conditions $$ \qqs q\in\N,\ \ker u^{i_u+q}=\ker u^{i_u}\et \{\vc 0\}\varsubsetneq\ker u \varsubsetneq\cdots\varsubsetneq\ker u^{i_u} $$ \item si $E$ est de dimension finie $n\geq1$, l'existence de $i_u$ est assurée et $i_u\leq n$. \end{prop} \end{Prop} \begin{proof}\alaligne \begin{demprop} \monitem L'implication $u^p(\vc x)=\vc0\implique \vc 0=u\bigl(u^p(\vc x)\bigr)=u^{p+1}(\vc x)$ vraie pour tout $p\in\N$ et tout $\vc x\in E$, montre l'inclusion $\ker u^p\subset\ker u^{p+1}$. \monitem Remarquons que $\ker u^p=\ker u^{p+1}\implique\ker u^{p+1}=\ker u^{p+2}$; il suffit de démontrer l'inclusion $\ker u^{p+2}\subset\ker u^{p+1}$. Or, $\vc x\in\ker u^{p+2}$ s'écrit $\vc 0=u^{p+2}(\vc x)=u^{p+1}\bigl(u(\vc x)\bigr)$, soit $u(\vc x)\in\ker u^{p+1}$; comme $\ker u^{p+1}=\ker u^p$, on obtient $\vc 0=u^p\bigl(u(\vc x)\bigr)=u^{p+1}(\vc x)$ et $\vc x\in\ker u^{p+1}$. Par récurrence sur $q$, on montre que $\ker u^p=\ker u^{p+q}$. Si l'ensemble $\ens{p\in\N}{\ker u^p=\ker u^{p+1}}$ n'est pas vide, il contient un plus petit élément noté $i_u$. L'égalité $\ker u^{i_u}=\ker u^{i_u+1}$ montre que pour tout $q\in\N$, $\ker u^{i_u}=\ker u^{i_u+q}$, et puisque $i_u$ est le premier entier qui vérifie l'égalité $\ker u^p=\ker u^{p+1}$, la suite $(\ker u^p)_{p\in\Intf0{i_u}}$ est strictement croissante pour l'inclusion. \monitem Si la suite $(\ker u^p)_p$ est strictement croissante pour l'inclusion, la suite $(\dim\ker u^p)_p$ des dimensions est strictement croissante; comme ces dimensions sont majorées par $n$, la dimension de $E$, il y a contradiction; l'existence de $i_u$ est donc assurée et $i_u\leq n$. \end{demprop} \end{proof} %-------------------------------------------------- \begin{NBs}\alaligne Un endomorphisme nilpotent $u$ possède un indice, il est donné par $$ i_u=\inf\ens{p\in\N}{\ker u^p=E}=\inf\ens{p\in\N}{u^p=0} $$ La dérivation $\D$ de $\K[X]$ n'a pas d'indice; la suite des noyaux itérés $(\ker \D^p)_p=(\K_{p-1}[X])_p$ n'est pas stationnaire. \end{NBs} %--------------------------------------------------------------------- \subsection{Polynômes d'un endomorphisme ou d'une matrice} %--------------------------------------------------------------------- \begin{Df}[Polynôme d'un endomorphisme]\alaligne Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$ et $P=a_0+a_1X+\cdots+a_pX^p$ un polynôme à coefficients dans $\K$, on pose $$ P(u)=a_0I_E+a_1u+\cdots+a_pu^p $$ $P(u)$ est un \emph{polynôme de l'endomorphisme} $u$. \end{Df} %---------------------------------------------------------------------- \begin{Df}[Polynôme d'une matrice]\alaligne De même, si $M$ est une matrice carrée d'ordre $n$, on pose $$ P(M)=a_0I_n+a_1M+\cdots+a_p M^p $$ $P(M)$ est un \emph{polynôme de la matrice} $M$. \end{Df} \begin{NB} Rappelons qu'un polynôme $P$ peut s'écrire $P=\sum_i a_iX^i$ où la suite $(a_i)_i$ est nulle à partir d'un certain rang; dans ces conditions, $P(u)=\sum_i a_i u^i$ et $P(M)=\sum_i a_i M^i$. \end{NB} \begin{Prop}[Règles de calcul, cas des endomorphismes]\alaligne L'application $\vphi_u : P\in\K[X]\mapsto P(u)\in\LE$ est un morphisme d'algèbre; en particulier $$ \qqs u\in\LE,\ \qqs(P,Q)\in\K[X]^2, \quad \bigl(PQ\bigr)(u)=P(u)\circ Q(u) $$ \end{Prop} \begin{proof}\alaligne \noindent $\vphi_u(\lambda P+\mu Q)=\sum_i(\lambda a_i+\mu b_i)u^i =\lambda\sum_ia_iu^i+\mu\sum_ib_i u^i =\lambda\vphi_u(P)+\mu\vphi_u(Q)$\\ $\vphi_u(1)=I_E$\\ Quant à l'égalité $\vphi_u(PQ)=\vphi_u(P)\circ\vphi_u(Q)$, on commence par la démontrer pour $Q=X^k$ : $$ \vphi_u(PX^k)=\sum_ia_i u^{i+k}=\bigl(\sum_i a_iu^i\bigr)\circ u^k =\vphi_u(P)\circ \vphi_u(X^k) $$ puis dans le cas général $Q=\sum_kb_kX^k$ en utilisant la linéarité de $\vphi_u$ : \begin{align*} \vphi_u(PQ) &=\vphi_u\Bigl(\sum_k b_k PX^k\Bigr) =\sum_k b_k\vphi_u(PX^k) =\sum_k b_k\vphi_u(P)\circ\vphi_u(X^k) \\ & =\vphi_u(P)\circ\bigl(\sum_k b_k\vphi_u(X^k)\bigr) =\vphi_u(P)\circ \vphi_u(Q) \end{align*} \end{proof} %---------------------------------------------------------------------- \begin{Prop}[Règles de calcul, cas des matrices]\alaligne L'application $\vphi_M : P\in\K[X]\mapsto P(M)\in\MnK$ est un morphisme d'algèbre; en particulier $$ \qqs M\in\MnK,\ \qqs(P,Q)\in\K[X]^2, \quad \bigl(PQ\bigr)(M)=P(M) Q(M) $$ \end{Prop} \begin{proof} Même démonstration que précédemment. \end{proof} %---------------------------------------------------------------------- Puisque $u^p$ commute avec $u^q$, les endomorphismes $u$ et $P(u)$ commutent, ainsi que $P(u)$ et $Q(u)$, ce qui donne la \begin{Prop}[$u$-stabilité de $\ker P(u)$ et de $\im P(u)$]\alaligne Pour tout polynôme $P$ à coefficients dans $\K$ et tout endomorphisme $u$ de $E$, $\im P(u)$ et $\ker P(u)$ sont stables par $u$. \end{Prop} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Valeurs propres, vecteurs propres d'un endomorphisme} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% $E$ est un $\K$-espace vectoriel de dimension finie ou non et $u$ un endomorphisme de $E$. %--------------------------------------------------------------------- \subsection{Droite stable par un endomorphisme} %--------------------------------------------------------------------- Si $u$ est un endomorphisme de $E$ et $\mcal{D}$ une droite (vectorielle) stable pour $u$, $u\restr{\mcal{D}}$ est un endomorphisme de $\mcal{D}$, donc une homothétie de $\mcal{D}$; il existe donc un unique scalaire $\lambda$, dépendant de $\mcal{D}$, tel que $$ u\restr{\mcal{D}}=\lambda I_{\mcal{D}}\quad\text{\ie}\quad \qqs\vc x\in \mcal{D},\ u(\vc x)=\lambda\vc x $$ %--------------------------------------------------------------------- \subsection{Vecteur propre} %--------------------------------------------------------------------- \begin{Dfs}[Vecteur propre, valeur propre associée]\alaligne Si $u$ est un endomorphisme de $E$, tout vecteur $\vc e$ non nul qui dirige une droite vectorielle stable pour $u$ est appelé un \emph{vecteur propre} de $u$. Le rapport de l'homothétie induite par $u$ sur $\mcal{D}=\K\vc e$ est appelé \emph{valeur propre} associée au vecteur propre $\vc e$. \Reponse{$ \text{$\vc e\neq\vc 0$ est un vecteur propre pour $u$} \iff\mcal{D}=\K\vc e\text{ est stable par $u$} \iff\exists!\lambda\in\K,\ u(\vc e)=\lambda\vc e $} \end{Dfs} %-------------------------------------------------- \begin{NBs}\alaligne La valeur propre associée à un vecteur propre est unique. Un vecteur non nul $\vc e$ est un vecteur propre si, et seulement si, la famille $\bigl(\vc e,u(\vc e)\bigr)$ est une famille liée. Si $\vc e$ est un vecteur propre pour $u$, tous les vecteurs non nuls de la droite stable $\K\vc e$ sont des vecteurs propres pour $u$ et sont associés à la même valeur propre. Remarquons donc que, si $\vc e$ est un vecteur propre de $u$ associé à la valeur propre $\la$, pour tout $\alpha\in\K^*$, $\alpha\vc e$ est encore un vecteur propre de $u$ associée à la même valeur propre $\la$. \end{NBs} \begin{Exs}\alaligne Tous les vecteurs non nuls de $E$ sont des vecteurs propres pour $I_E$ associés à la valeur propre~1 (resp. des vecteures propres pour $0_{\LE}$, associés à la valeur propre 0). Les rotations vectorielles planes d'angle non nul \textit{modulo\/} $\pi$, n'admettent aucun vecteur propre. Les vecteurs propres des rotations vectorielles de l'espace d'angle non nul \textit{modulo\/} $\pi$, sont les vecteurs non nuls de leur axe et sont associés à la valeur propre 1, ce sont des vecteurs invariants. \end{Exs} %--------------------------------------------------------------------- \subsection{Valeur propre} %--------------------------------------------------------------------- \begin{Dfs}[Valeur propre, spectre]\alaligne Soit $u$ est un endomorphisme de $E$; on appelle \emph{valeur propre} de $u$, tout scalaire $\lambda$ tel qu'il existe un vecteur $\vc x$ non nul de $E$ vérifiant $u(\vc x)=\lambda\vc x$. L'ensemble des valeurs propres d'un endomorphisme $u$ est appelé le \emph{spectre} de $u$ et noté $\sp u$. \Reponse{$ \lambda\in\sp u\iff\exists\vc x\in E,\ \vc x\neq\vc 0_E\et u(\vc x)=\lambda\vc x $} \end{Dfs} \begin{NB} Le vecteur $\vc x$ de la définition précédente est un vecteur propre de $u$; il est dit associé à la valeur propre $\lambda$. \end{NB} \begin{Exs}\alaligne $\sp I_E=\{1\}$ et $\sp 0_{\LE}=\{0\}$. Le spectre d'une rotation plane d'angle non nul \textit{modulo\/} $\pi$ est vide; celui d'une rotation de l'espace d'angle non nul \textit{modulo\/} $\pi$ est $\{1\}$. \end{Exs} \begin{Prop}[Caractérisation des valeurs propres]\alaligne Si $u$ un endomorphisme de $E$, alors $$ \lambda\in\sp u\iff\ker(u-\lambda I_E)\neq\{\vc 0_E\}\iff u-\lambda I_E\text{ non injective} $$ En particulier, $$ 0\in\sp u\iff u\text{ non injective} $$ Si $u$ est un automorphisme de $E$, $\sp (u^{-1})=\ens{\lambda^{-1}}{\lambda\in\sp u}$. \end{Prop} \begin{proof} Si $\la$ est une valeur propre de $u$, il existe un vecteur (propre) non nul $\vc x\in E$ tel que $u(\vc x)=\la\vc x$, égalité que l'on peut encore écrire $\vc 0=u(\vc x)-\la\vc x=(u-\la I_E)(\vc x)$; ceci donne les équivalences annoncées. Si $u$ est un automorphisme de $E$, toutes ses valeurs propres sont non nulles; pour toute valeur propre $\la$ et tout vecteur propre $\vc x$ associé, on a : \begin{equation} u(\vc x)=\la\vc x\iff \vc x=u^{-1}(\la\vc x)=\la u^{-1}(\vc x)\iff \ra1\la\vc x=u^{-1}(\vc x) \end{equation} Ainsi $\la$ est valeur propre de $u$ si, et seulement si, $\la^{-1}$ et valeur propre de $u^{-1}$ et $\sp (u^{-1})=\ens{\lambda^{-1}}{\lambda\in\sp u}$. \end{proof} %-------------------------------------------------- \begin{Prop}[Caractérisation de valeurs propres en dimension finie]\alaligne Si $u$ est un endomorphisme d'un $\K$-espace vectoriel de dimension \emph{finie} $n$, alors \begin{gather*} \lambda\in \sp u\iff u-\lambda I_E \text{ non injective} \iff u-\lambda I_E \text{ non surjective} \\ \rg(u-\lambda I_E)\leq n-1\iff\det(u-\lambda I_E)=0 \end{gather*} et aussi $$ \lambda\notin\sp u\iff(u-\lambda I_E)\text{ est inversible} $$ \end{Prop} \begin{proof} C'est l'application des célèbres caractérisations des automorphismes d'un $\K$-espace vectoriel de dimension \emph{finie} : si $v$ est un endomorphisme de $E$, alors $$ v\text{ est inversible}\iff v\text{ est injectif}\iff v\text{ est surjectif} \iff\rg u=n\iff\det v\neq0 $$ Ces caractérisations sont appliquées à $v=u-\la I_E$. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Sous-espace propre} %--------------------------------------------------------------------- \begin{Df}[Sous-espace propre]\alaligne Si $u$ est un endomorphisme de $E$ et $\lambda$ une valeur propre de $u$, le sous-espace vectoriel \Reponse{$ E_\lambda(u)=\ker(u-\lambda I_E)=\ens{\vc x\in E} {u(\vc x)=\lambda\vc x} $} est appelé \emph{sous-espace vectoriel propre} de $u$ associé à $\lambda$. \end{Df} \begin{NBs}\alaligne $E_\lambda(u)$ est constitué de $\vc 0_E$ et des vecteurs propres de $u$ associés à $\lambda$. Si $\vc e$ est un vecteur propre de $u$ associé à $\lambda$, la droite $\K\vc e$ est contenue dans $E_\lambda(u)$. $E_0(u)=\ker u$ est le noyau de $u$. $E_1(u)=\ker(u-I_E)=\ens{\vc x\in E}{u(\vc x)=\vc x}$ est le sous-espace des vecteurs de $E$ invariants par~$u$. \end{NBs} \begin{Exs} Voici les éléments propres de quelques endomorphismes : \begin{itemize} \item homothétie $h=\lambda I_E$ : $\sp h=\{\lambda\}$, $E_\lambda(h)=E$; \item projecteur $p$ : $\sp p=\{0,1\}$, $E_0(p)=\ker p$ et $E_1(p)=\im p$; \item symétrie $s$ : $\sp s=\{-1,1\}$, $E_{-1}(s)=F_1$ et $E_1(s)=F_2$; \item affinité $a$ : $\sp a=\{1,\lambda\}$, $E_1(a)=F_1$ et $E_\lambda(a)=F_2$. \end{itemize} \end{Exs} \begin{Prop}[Stabilité des sous-espaces vectoriels propres]\alaligne Si les endomorphismes $u$ et $v$ commutent, tout sous-espace vectoriel propre relativement à $u$ est stable par $v$ et réciproquement. \end{Prop} \begin{proof} Puisque $u$ et $v$ commutent, $u-\lambda I_E$ et $v$ commutent, et donc, $\ker(u-\lambda I_E)=E_\lambda(u)$ est stable par $v$. De même $\ker(v-\lambda I_E)=E_\lambda(v)$ est stable par $u$. \end{proof} %-------------------------------------------------- \begin{Th}[Somme directe de sous-espaces propres]\alaligne La somme d'une famille finie de sous-espaces propres associés à des valeurs propres distinctes deux à deux, est directe. \end{Th} \begin{proof} Démonstration par récurrence sur le nombre $k$ de sous-espaces vectoriels propres. $E_{\la_1}(u)\inter E_{\la_2}(u)=\{\vc 0\}$ car à tout vecteur propre est associé une seule valeur propre. La propriété est vraie pour $k=2$. Soient $(\la_1,\dots,\la_k,\la_{k+1})$ $(k+1)$ valeurs propres distinctes de $u$ et montrons que $E_{\lambda_{k+1}}(u)\cap \sum_{i=1}^k E_{\lambda_i}(u) =\{\vc 0_E\}$. Soit $\vc x_{k+1}=\sum_{i=1}^k\vc x_i \in E_{\lambda_{k+1}}(u)\cap \sum_{i=1}^k E_{\lambda_i}(u)$; alors \begin{align*} u(\vc x_{k+1}) &= \lambda_{k+1}\vc x_{k+1}=\la_{k+1}\sum_{i=1}^k \vc x_i \\ &= u\Bigl(\sum_{i=1}^k \vc x_i\Bigr)=\sum_{i=1}^k u(\vc x_i) =\sum_{i=1}^k \lambda_i\vc x_i \\ \text{ donc } \vc 0 &=\sum_{i=1}^k(\lambda_{k+1}-\lambda_i)\vc x_i \end{align*} ce qui montre que $(\lambda_{k+1}-\lambda_i)\vc x_i=\vc 0$ puisque la somme $\sum_{i=1}^k E_{\lambda_i}(u)$ est directe (la propriété est vraie au rang $k$, puisque les valeurs propres sont distinctes deux à deux) et $\vc x_i=\vc 0$ . Ainsi $\vc x_{k+1}=\vc 0$ et la propriété est vraie au rang $k+1$. Le théorème de récurrence montre que la propriété est vraie pour tout $k$. \end{proof} %-------------------------------------------------- \begin{Cor}[Liberté d'une famille de vecteurs propres]\alaligne Toute famille de vecteurs propres, associés à des valeurs distinctes deux à deux, est une famille libre. \end{Cor} %--------------------------------------------------------------------- \subsection{Éléments propres et polynôme d'endomorphisme} %--------------------------------------------------------------------- \begin{Th}[Éléments propres d'un polynôme d'endomorphisme]\alaligne Si $\vc x$ est un vecteur propre de $u$ associé à $\lambda$, pour tout polynôme $P$, $\vc x$ est un vecteur propre de $P(u)$ associé à $P(\lambda)$. \end{Th} \begin{proof} $\vc x$ est non nul et $$ u(\vc x)=\lambda\vc x\implique u^k(\vc x)=\lambda^k\vc x \text{ (par récurrence sur $k$)} $$ Si $P=\sum_k a_k X^k$, on a : $$ P(u)(\vc x)=\Bigl(\sum_k a_k u^k\Bigr)(\vc x)=\sum_k a_k u^k(\vc x) =\sum_ka_k\lambda^k\vc x=P(\lambda)\vc x $$ \end{proof} %-------------------------------------------------- \begin{Cor}[Valeur propre et polynôme annulateur]\alaligne Si $P$ est un polynôme annulateur pour $u$, les valeurs propres de $u$ sont \emph{des} racines de $P$. \end{Cor} \begin{proof} Si $\lambda$ est une valeur propre de $u$, $P(\lambda)$ est une valeur propre de $P(u)=0_{\LE}$. Or, 0 est la seule valeur propre de $0_{\LE}$, d'où $P(\la)=0$ et $\la$ est racine de $P$. \end{proof} %--------------------------------------------------------------------- \subsection{Éléments propres et automorphismes intérieurs} %--------------------------------------------------------------------- \begin{Prop}[]\mbox{} Si $a\in\GLE$ est un automorphisme de $E$, l'application $\vphi_a : u \mapsto aua^{-1}$ est un morphisme bijectif de l'algèbre $\LE$. \end{Prop} \begin{proof} La notation $\circ$ pour la composition des endomorphismes a été remplacée par une notation multiplicative, \ie{} par une absence de notation. Il nous faut vérifier un certain nombre de propriétés : \begin{itemize} \item $\vphi_a(u+v)=a(u+v)a^{-1}=aua^{-1}+ava^{-1} =\vphi_a(u)+\vphi_a(v)$; \item $\vphi_a(\lambda u)=a(\lambda u)a^{-1}=\lambda aua^{-1} =\lambda\vphi_a(u)$; \item $\vphi_a(u\circ v)=auva^{-1}=(aua^{-1})(ava^{-1}) =\vphi_a(u)\circ\vphi_a(v)$; \item $\vphi_a(I_E)=aI_E\,a^{-1}=I_E$; \item $\vphi_a(u)=aua^{-1}=v\iff u=a^{-1}va=\vphi_{a^{-1}}(v)$, soit $(\vphi_a)^{-1}=\vphi_{a^{-1}}$. \end{itemize} \end{proof} %-------------------------------------------------- \begin{Df}[Automorphismes intérieurs]\alaligne Les automorphismes de~$\LE$ de la forme $u\mapsto aua^{-1}$ sont appelés \emph{automorphismes intérieurs} de~$\LE$. \end{Df} \begin{Th}[]\mbox{} Si $u$ est un endomorphisme et $a$ un automorphisme de~$E$, alors $$ \sp u=\sp(aua^{-1})\et E_\lambda(aua^{-1})=a\bigl(E_\lambda(u)\bigr) $$ \end{Th} \begin{proof} Considérons $\lambda$ une valeur propre de $u$ et $\vc x$ un vecteur propre associé; posons $\vc y=a(\vc x)$, ce qui revient à $\vc x=a^{-1}(\vc y)$. Ainsi $$ u(\vc x)=\lambda\vc x\iff u\bigl(a^{-1}(\vc y)\bigr) =\lambda a^{-1}(\vc y)=a^{-1}(\lambda\vc y) \iff aua^{-1}(\vc y)=\lambda\vc y $$ ce qui montre que $\la$ est une valeur propre de $u$ et $\vc x$ un vecteur propre associé, si, et seulement si, $\la$ est une valeur propre de $aua^{-1}$ et $\vc y=a(\vc x)$ un vecteur propre associé. Ainsi $$ \sp u=\sp(aua^{-1})\quad\et\quad a\bigl(E_\lambda(u)\bigr)=E_\lambda(aua^{-1}) $$ \end{proof} %-------------------------------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Valeurs propres, vecteurs propres d'une matrice carrée} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Dans ce paragraphe, $M$ est une matrice carrée d'ordre $n\geq1$, à coefficients dans $\K$. %--------------------------------------------------------------------- \subsection{Éléments propres d'une matrice carrée} %--------------------------------------------------------------------- \begin{Df}[Vecteur propre d'une matrice carrée]\alaligne Un élément non nul $X$ de $\Mnp[n,1]{\K}$ est appelé \emph{vecteur propre} de $M$ s'il existe un scalaire $\lambda$ tel que $MX=\lambda X$.\\ Ce scalaire est unique; on l'appelle valeur propre associée à $X$. \end{Df} \begin{Df}[Valeur propre d'une matrice carrée]\alaligne Un scalaire $\lambda$ est une \emph{valeur propre} de $M$ si $M-\lambda I_n$ n'est pas inversible; tout élément non nul de $\ker(M-\lambda I_n)$ est appelé vecteur propre associé à $\lambda$. \end{Df} \begin{Df}[Sous-espace vectoriel propre d'une matrice carrée]\alaligne Si $\lambda$ est une valeur propre de $M$, le sous-espace vectoriel $\ker(M-\lambda I_n)=\ens{X\in\Mnp[n,1]{\K}}{MX=\lambda X}$ est appelé \emph{sous-espace vectoriel propre} associé à $\lambda$; il est noté $E_\lambda(M)$. \end{Df} \begin{Df}[Spectre d'une matrice carrée]\alaligne L'ensemble des valeurs propres de $M$ est le \emph{spectre} de $M$; il est noté $\sp_\K M$ ou $\sp M$ si le corps n'est pas ambigu. $$ \sp_\K M=\ens{\lambda\in\K}{M-\lambda I_n\notin\GLnK} $$ \end{Df} \begin{NB} Rappelons les équivalences pour une matrice carrée \begin{gather*} \lambda\in\sp_\K M\iff M-\lambda I_n\notin\GLnK \iff\det(M-\lambda I_n)=0 \\ \iff\ker(M-\lambda I_n)\neq\{0\}\iff\rg(M-\lambda I_n)\leq n-1 \end{gather*} \end{NB} %--------------------------------------------------------------------- \subsection{Lien avec les endomorphismes} %--------------------------------------------------------------------- À la matrice $M$, on associe l'endomorphisme $u_M$ de $\Mnp[n,1]{\K}$ par la formule $$ u_M : X\in\Mnp[n,1]{\K}\mapsto MX $$ ce qui donne la \begin{Prop}[Éléments propres d'une matrice et de son endomorphisme]\alaligne Les éléments propres de la matrice $M$ sont les élément propres de l'endomorphisme $u_M$ associé. \end{Prop} Soient $E$ un $\K$-espace vectoriel de dimension finie $n$, $\mcal{B}$ une base de $E$, $u$ un endomorphisme de $E$ et $M$ sa matrice relativement à $\mcal{B}$. Si $\vc x$, vecteur de $E$, est de matrice $X$ relativement à $\mcal{B}$, $u(\vc x)$ est de matrice $MX$ relativement à $\mcal{B}$; d'autre part, $\vc x$ et $X$ sont simultanément nuls ou non, et $$ u(\vc x)=\lambda \vc x\iff MX=\lambda X $$ ce qui montre le \begin{Th}[Éléments propres d'un endomorphisme et de sa matrice]\alaligne Si $u$ est un endomorphisme de $E$ et $M=\mat(u)$ sa matrice relativement à une base $\mcal{B}$, alors : \begin{prop} \item $u$ et $M$ ont le même spectre; \item $\vc x$ est vecteur propre de $u$ associé à $\lambda$ si, et seulement si, sa matrice $X=\mat(\vc x)$ relativement à $\mcal{B}$ est vecteur propre de $M$ associé à $\lambda$. \end{prop} \end{Th} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Cas de deux matrices semblables} %--------------------------------------------------------------------- Soient $A$ et $B$ deux matrices semblables d'ordre $n$, et $P$ une matrice inversible telle que $B=P^{-1}AP$; à~$A$ est associé l'endomorphisme $u_A$ de $\Mnp[n,1]{\K}$. La matrice $P$ peut s'interpréter comme la matrice de passage de la base naturelle (canonique) $\mcal{E}$ de $\Mnp[n,1]{\K}$ à une base $\mcal{B}$ constituée des vecteurs colonnes de $P$. Relativement à cette base, la matrice de $u_A$ est $B$, d'où le \begin{Th}[Matrices semblables et endomorphisme]\alaligne Deux matrices sont semblables si, et seulement si, elles représentent le même endomorphisme (relativement à deux bases). \end{Th} %---------------------------------------------------------------------- \begin{Cor}[Spectre de deux matrices semblables]\alaligne Deux matrices semblables ont le même spectre. \end{Cor} \begin{proof} C'est le spectre de l'unique endomorphisme qu'elle représente. \end{proof} %---------------------------------------------------------------------- %--------------------------------------------------------------------- \subsection{Cas des matrices réelles} %--------------------------------------------------------------------- Une matrice à coefficients réels est aussi une matrice à coefficients complexes. La notion de valeur propre dépend du corps envisagé et on se gardera de confondre $\sp_\R M$ et $\sp_\C M$; mais on a le \begin{Th}[Spectres réel et complexe d'une matrice réelle]\alaligne Si $M$ est une matrice à coefficients réels, $\sp_\R M$ est contenue dans $\sp_\C M$; en général, les deux spectres sont distincts. \end{Th} \begin{proof} Si $\lambda$ est un élément de $\sp_\R M$ et $X$ un vecteur propre associé, alors $MX=\lambda X$, $X$ est non nul et appartient à $\Mnp[1,n]{\R}$ donc à $\Mnp[1,n]{\C}$; ainsi $\lambda$ appartient à $\sp_\C M$. Considérons la rotation plane d'angle $\pi/2$; sa matrice, dans une base orthonormale directe, est $A=\bigl(\begin{smallmatrix}0&-1\\1&0\end{smallmatrix}\bigr)$ et $\sp_\R A$ est vide puisque cette rotation n'admet aucune droite stable. Par contre, $i$ est une valeur propre complexe de $A$, puisque $A-iI_2= \bigl(\begin{smallmatrix}-i&-1\\1&-i\end{smallmatrix}\bigr)$ n'est pas inversible. \end{proof} %-------------------------------------------------- \begin{Prop}[Valeur propre, vecteur propre, conjugaison]\alaligne Soit $M$ une matrice carrée d'ordre $n$ et à coefficients complexes; si $X$ est un vecteur propre de $M$ associé à la valeur propre $\lambda$, $\conjug X$ est un vecteur propre de $\conjug M$ associé à la valeur propre $\conjug\lambda$, et $$ \sp_\C(\conjug M)=\ens{\conjug\lambda}{\lambda\in\sp M},\qquad E_{\conjug\lambda}(\conjug M)=\ens{\conjug X}{X\in E_\lambda(M)} $$ \end{Prop} \begin{proof} Rappelons la relation $\conjug{A\,B}=\conjug A\;\conjug B$ pour $A\in\Mnp{\C}$ et $B\in\Mnp[p,q]{\C}$. Ainsi on a l'équivalence $$ MX=\lambda X\iff\conjug M\;\conjug X=\conjug\lambda\;\conjug X $$ ce qui donne les résultats annoncés. \end{proof} %-------------------------------------------------- \begin{Prop}[Valeur propre complexe non réelle d'une matrice réelle]\alaligne Soit $M$ une matrice carrée d'ordre $n\geq 2$ et à coefficients \emph{réels}; si $\lambda$ est une valeur propre complexe \emph{non réelle} de $M$ et $X$ un vecteur propre à coefficients complexes associé à $\lambda$, alors : \begin{prop} \item $\conjug\lambda$ est une valeur propre de $M$ et $\conjug X$ un vecteur propre associé à $\conjug\lambda$; \item le plan $(\mcal{P})$ orienté par $(\IM X,\RE X)$ est un plan stable pour $M$, et $M$ induit sur $(\mcal{P})$ la similitude de rapport $\abs\lambda$ et d'angle $\arg\lambda$. \end{prop} \end{Prop} \begin{proof}\alaligne \begin{demprop} \monitem $M$ est une matrice réelle, alors $\conjug M=M$, et $$ MX=\lambda X\implique \conjug M\;\conjug X=M\conjug X=\conjug\lambda\;\conjug X $$ \monitem Puisque $\lambda=a+ib$ n'est pas réel, $\conjug\lambda\neq\lambda$ et la famille $\mcal{B}=(X,\conjug X)$ est libre (vecteurs propres associés à deux valeurs propres distinctes). Les formules \begin{gather*} \RE X=\ra12(X+\conjug X),\qquad\IM X=\ra1{2i}(X-\conjug X) \\ X=\RE X +i\IM X,\qquad \conjug X=\RE X-i\IM X \end{gather*} montrent que la famille $\mcal{C}=(\IM X,\RE X)$ est aussi une famille libre (sur $\C$, donc sur $\R$). Séparant les parties réelle et imaginaire, on obtient \begin{align*} MX & = M\RE X+iM\IM X \\ & = \lambda X=(a+ib)(\RE X+i\IM X) \\ & = (a\RE X-b\IM X)+i(b\RE X+a\IM X) \end{align*} En appelant $s$ l'endomorphisme induit sur le plan $(\mcal{P})$ par $M$, $\mat[C](s)=\bigl(\begin{smallmatrix}a&-b\\b&a\end{smallmatrix}\bigr)$, ce qui est la matrice de la similitude de rapport (complexe) $a+ib=\lambda$, \ie{} le produit de l'homothétie de rapport $\abs{\la}$ et de la rotation d'angle $\arg\la$. \end{demprop} \end{proof} %-------------------------------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Polynôme caractéristique} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %--------------------------------------------------------------------- \subsection{Définitions} %--------------------------------------------------------------------- \subsubsection{Polynôme caractéristique d'une matrice carrée} Si $M$ est une matrice carrée d'ordre $n\geq1$ à coefficients dans $\K$, $M-XI_n$ est une matrice à coefficients dans $\K[X]$ sous-anneau du corps $\K(X)$ des fractions rationnelles. Le déterminant de $M-XI_n$ est polynomial en les coefficients de cette matrice, il est donc élément de $\K[X]$, ce qui permet la \begin{Df}[Polynôme caractéristique d'une matrice carrée]\alaligne Si $M=[a_{i,j}]$ est une matrice carrée d'ordre $n\geq1$, le \emph{polynôme caractéristique} de $M$, que l'on note $\chi_M$, est le déterminant $$ \chi_M(X)=\det(M-XI_n)= \begin{vmatrix} a_{1,1}-X & a_{1,2} & \cdots & a_{1,n} \\ a_{2,1} & a_{2,2}-X & \cdots & a_{2,n} \\ \hdotsfor{4} \\ a_{n,1} & a_{n,2} & \cdots & a_{n,n}-X \end{vmatrix} $$ \end{Df} \begin{NB} $X$ est ici une indéterminée; en cas d'indigestion, remplacer $X$ par $x$; le polynôme devient une fonction polynôme; servir chaud. \end{NB} \begin{Exs} Voici quelques polynômes caractéristiques de matrices : \begin{itemize} \item matrice nulle : $\chi_0=(-X)^n$; \item matrice unité d'ordre $n$ : $\chi_{I_n}=(1-X)^n$; \item matrice diagonale $D=\diag\lambda$ : $\chi_D=\prod_{i=1}^n(\lambda_i-X)$; \item matrice triangulaire $T=[t_{i,j}]$ : $\chi_T=\prod_{i=1}^n(t_{i,i}-X)$. \end{itemize} \end{Exs} \begin{Prop}[Polynôme caractéristique et transposée]\alaligne Une matrice et sa transposée ont le même polynôme caractéristique. \end{Prop} \begin{proof} Rappelons qu'une matrice et sa transposée ont le même déterminant; d'où $$ \trans M-XI_n=\trans{(M-XI_n)} \implique \det(\trans M-XI_n)=\det\bigl(\trans{(M-XI_n)}\bigr)=\det(M-XI_n) $$ ce qui donne le résultat. \end{proof} %-------------------------------------------------- \begin{Prop}[Polynôme caractéristique et matrices semblables]\alaligne Deux matrices semblables ont le même polynôme caractéristique. \end{Prop} \begin{proof} Rappelons que deux matrices semblables ont le même déterminant. Si $A$ et $B$ sont deux matrices semblables, et $P$ une matrice inversible telle que $B=P^{-1}AP$, alors $$ B=P^{-1}AP\implique B-XI_n=P^{-1}AP-XI_n=P^{-1}(A-XI_n)P $$ les matrices $B-XI_n$ et $A-XI_n$ sont semblables, d'où $$ \det(B-XI_n)=\det\Bigl(P^{-1}(A-XI_n)P\Bigr)=\det(A-XI_n) $$ ce qui donne le résultat. \end{proof} %-------------------------------------------------- \subsubsection{Polynôme caractéristique d'un endomorphisme} Soient $u$ un endomorphisme de $E$, $\mcal{B}$ et $\mcal{C}$ deux bases de $E$; les matrices $\mat(u)$ et $\mat[C](u)$ sont des matrices semblables; elles admettent donc le même polynôme caractéristique, ce qui permet la \begin{Df}[Polynôme caractéristique d'un endomorphisme]\alaligne Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$ de dimension finie $n\geq1$, le polynôme caractéristique de la matrice qui représente $u$ dans une base donnée $\mcal{B}$ de $E$, est indépendant du choix de cette base; on l'appelle \emph{polynôme caractéristique} de l'endomorphisme $u$; il est noté $\chi_u$. \Reponse{$ \chi_u=\det\bigl(\mat(u)-XI_n\bigr)\quad \text{ où $\mcal{B}$ est une base de $E$} $} \end{Df} \begin{Ex} Le polynôme caractéristique de l'application identique est $\chi_{I_E}=\chi_{I_n}=(1-X)^n$ et celui de l'application nulle $\chi_{0_{\mcal{L}(E)}}=\chi_{0_{\MnK}}=(-X)^n$. \end{Ex} %--------------------------------------------------------------------- \subsection{Propriétés du polynôme caractéristique} %--------------------------------------------------------------------- Nous indiquerons, dans ce paragraphe, les propriétés du polynôme caractéristique d'une matrice; le lecteur, dans sa grande bonté, effectuera lui-même les modifications qu'il jugera utiles pour exprimer les propriétés du polynôme caractéristique d'un endomorphisme. Quelle est l'utilité du polynôme caractéristique? Déterminer les valeurs propres d'une matrice, ou d'un endomorphisme. \begin{Th}[Polynôme caractéristique et valeurs propres]\alaligne Les valeurs propres d'une matrice sont les racines sur $\K$ de son polynôme caractéristique. \end{Th} \begin{proof} Évidente, car $\lambda\in\sp_\K M\iff M-\lambda I_,\notin\GLnK \iff 0=\det(M-\lambda I_n)=\chi_M(\lambda)$ et $\lambda\in\K$. \end{proof} %-------------------------------------------------- \begin{Cor}[Spectre d'une matrice complexe]\alaligne Toute matrice à coefficients complexes admet, au moins, une valeur propre (complexe). \end{Cor} \begin{proof} Tout polynôme à coefficients complexes admet une racine complexe, c'est le théorème de D'Alembert. \end{proof} %-------------------------------------------------- \begin{Prop}[Coefficients du polynôme caractéristique]\alaligne $\chi_M$ est un polynôme de degré $n$ et $$ \chi_M=(-X)^n+\tr M(-X)^{n-1}+\cdots+\tr(\com M)(-X)+\det M $$ \end{Prop} \begin{proof} L'égalité $\chi_M(0)=\det M$ donne le coefficient constant. Appelons $a_{i,j}$ le terme général de $M$ et $\tilde a_{i,j}$ celui de $M-XI_n$. Si $s$ est une permutation de $\sym$ distincte de l'identité, $\prod_{i=1}^n\tilde a_{i,s(i)}$ est un polynôme de degré au plus $(n-2)$, ce qui donne \begin{align*} \chi_M &=\begin{vmatrix} a_{1,1}-X & a_{1,2} & \cdots & a_{1,n} \\ a_{2,1} & a_{2,2}-X & \cdots & a_{2,n} \\ \hdotsfor{4} \\ a_{n,1} & a_{n,2} & \cdots & a_{n,n}-X \end{vmatrix} \\ &=\prod_{i=1}^n(a_{i,i}-X) +\underbrace{ \sum_{s\in\sym,s\neq e}\eps(s)\prod_{i=1}^n \tilde a_{i,s(i)} }_{\text{polynôme de degré $\leq n-2$}} \\ &=(-X)^n+\Bigl(\sum_{i=1}^n a_{i,i}\Bigr)(-X)^{n-1} +\underbrace{\cdots\quad+\quad\cdots\quad+\quad\cdots}_{\text{polynôme de degré $\leq n-2$}} \\ &=(-X)^n+\tr M(-X)^{n-1} +\underbrace{\cdots\quad+\quad\cdots\quad+\quad\cdots}_{\text{polynôme de degré $\leq n-2$}} \end{align*} Quant au coefficient de $-X$, c'est une autre histoire\dots \end{proof} %-------------------------------------------------- \begin{NBs} Le calcul de $\chi_M$ est facile en petite dimension : \begin{itemize} \item pour $n=2$, $\chi_M=X^2-(\tr M) X+\det M$; \item pour $n=3$, $\chi_M=-X^3+(\tr M) X^2-\tr(\com M)X+\det M$. \end{itemize} \end{NBs} \begin{Cor}[Nombre de valeurs propres distinctes d'une matrice carrée]\alaligne Le nombre de valeurs propres d'une matrice carrée est au plus égal à son ordre. \end{Cor} \begin{proof} Le nombre de valeurs propres distinctes d'une matrice carrée d'ordre $n$ est égal au nombre de racines distinctes du polynôme caractéristique, \ie{} d'un polynôme de degré $n$; ce nombre est compris entre 0 et $n$. \end{proof} %-------------------------------------------------- \begin{Cor}[Cas des polynômes caractéristiques scindés]\mbox{}\\ Si le polynôme caractéristique de $M$ est scindé sur $\K$, avec $\chi_M=\prod_{i=1}^n(\lambda_i-X)$, alors $$ \sp M=\{\lambda_1,\ldots,\lambda_n\},\ \tr M=\sum_{i=1}^n \lambda_i, \ \det M=\prod_{i=1}^n \lambda_i $$ \end{Cor} \begin{proof} Il suffit de développer $\prod_{i=1}^n(\lambda_i-X)$ et d'identifier ce polynôme avec celui de la formule précédente. \end{proof} %-------------------------------------------------- \begin{Cor}[Cas des matrices réelles]\alaligne Tout matrice à coefficients réels et d'ordre impair admet, au moins, une valeur propre réelle. \end{Cor} \begin{proof} Si $n$ est impair, $\chi_M$ est de degré impair et $\chi_M(x)\equivalent[\pm\infty](-x)^n$; le théorème des valeurs intermédiaires assure l'existence d'une racine réelle pour $\chi_M$, et $\sp_\R M$ n'est pas vide. \end{proof} %-------------------------------------------------- \begin{Th}[Cas d'une matrice triangulaire par blocs]\alaligne Le polynôme caractéristique d'une matrice triangulaire par blocs se calcule aisément : $$ M=\begin{pmatrix}A&B\\0&C\end{pmatrix},\text{ avec $A\in\mathcal{M}_p(\K)$ et $C\in\mathcal{M}_q(\K)$} \implique \chi_M=\chi_A\chi_C $$ \end{Th} \begin{proof} $M-XI_n=\begin{pmatrix}A-XI_p&B\\0&C-XI_q\end{pmatrix}$ et le calcul du déterminant d'une matrice triangulaire par blocs donne le résultat. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Multiplicité d'une valeur propre} %--------------------------------------------------------------------- \begin{Df}[Multiplicité d'une valeur propre]\alaligne L'ordre de multiplicité d'une racine $\lambda$ de $\chi_M$ est appelé \emph{multiplicité de la valeur propre} $\lambda$ de $M$; elle est noté $m(\lambda)$. \end{Df} \begin{NB} Si $\chi_M$ est scindé et si $\lambda_1$,\ldots,$\lambda_p$ sont les valeurs propres deux à deux distinctes de $M$, le polynôme caractéristique de $M$ s'écrit $$ \chi_M=\prod_{j=1}^p(\lambda_j-X)^{m(\lambda_j)} =\prod_{\lambda\in\sp M}(\lambda-X)^{m(\lambda)} $$ et la somme des multiplicités des valeurs propres de $M$ est égale à son ordre. \end{NB} \begin{Th}[Dimension d'un sous-espace vectoriel propre]\alaligne Soient $\lambda$ une valeur propre de $M$, $m(\lambda)$ sa multiplicité et $q(\lambda)$ la dimension du sous-espace propre associé; alors \Reponse{$ 1\leq q(\la)=\dim E_\la(M)=n-\rg(M-\la I_n)\leq m(\la) $} \end{Th} \begin{proof} Appelons $u$ l'endomorphisme de $\Mnp[n,1]{\K}$ associé à $M$. Pour $\lambda\in\sp u=\sp M$, on a \begin{itemize} \item $E_u(\la)=\ker(u-\la I_E)\neq\{\vc 0\}$, donc $q(\la)\geq1$; \item $\dim E_\la(u)=\dim\ker(u-\la I_E)=n-\rg(u-\la I_E)$; \item $E_\la(u)$ est un sous-espace stable par $u$; dans une base adaptée, la matrice de $u$ est triangulaire (supérieure) par blocs, soit $$ N=\begin{pmatrix}\la I_{q(\la)}&B\\0&C\end{pmatrix} $$ donc $\chi_N=\chi_u=\chi_M=(\la-X)^{p(\la)}\chi_C$; ceci montre que $q(\la)\leq m(\la)$. \end{itemize} \end{proof} %-------------------------------------------------- \begin{Cor}[Cas des valeurs propres simples]\alaligne Le sous-espace propre associé à une valeur propre simple est une droite vectorielle. \end{Cor} \begin{proof} Les inégalités $1\leq q(\la)\leq m(\la)=1$ donnent le résultat. \end{proof} %--------------------------------------------------------------------- \subsection{Polynôme caractéristique et polynôme annulateur} %--------------------------------------------------------------------- \begin{Th}[Cayley-Hamilton]\alaligne Le polynôme caractéristique d'un endomorphisme ou d'une matrice est un polynôme annulateur de cet endomorphisme ou de cette matrice, soit : $$ \chi_M(M)=0_{\MnK}\qquad\et\qquad \chi_u(u)=0_{\LE} $$ \end{Th} \begin{proof} Hors programme \end{proof} %-------------------------------------------------- %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Diagonalisation} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% On suppose ici que $E$ est un $\K$-espace vectoriel vectoriel de dimension finie $n\geq1$ et $u$ un endomorphisme de $E$. %--------------------------------------------------------------------- \subsection{Endomorphisme diagonalisable} %--------------------------------------------------------------------- \begin{Df} Un endomorphisme de $E$ est dit \emph{diagonalisable} si $E$ est la somme directe de ses sous-espaces propres. \Reponse{$\dsp u\text{ est diagonalisable}\iff E=\Somdir_{\la\in\sp u}E_\la(u) $} \end{Df} \begin{NB} La somme des sous-espaces propres de $E$ est \emph{toujours} directe, mais pas nécessairement égale à $E$. \end{NB} \begin{Exs} Les homothéties, les projecteurs, les symétries et les affinités sont diagonalisables. \end{Exs} %--------------------------------------------------------------------- \subsection{Caractérisation des endomorphismes diagonalisables} %--------------------------------------------------------------------- \begin{Th} Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$ de dimension finie, alors les propositions suivantes sont équivalentes : \begin{prop} \item $u$ est diagonalisable; \item $E$ est la somme directe de sous-espaces stables sur lesquels $u$ induit une homothétie; \item il existe une base de $E$ constituée de vecteurs propres de $u$; \item il existe une base de $E$ sur laquelle la matrice de $u$ est diagonale. \end{prop} \end{Th} \begin{proof}\alaligne \Implique12 Pour toute valeur propre $\la$ de $u$, $E_\la(u)$ est un sous-espace vectoriel stable sur lequel $u$ induit une homothétie (de rapport $\la$). \Implique23 Si $F$ est un sous-espace stable sur lequel $u$ induit une homothétie (de rapport $k$), tous les vecteurs non nuls de $F$ sont des vecteurs propres de $u$ (associés à $k$). Une base de $E$ adaptée à la décomposition de $E$ en somme directe est constituée de vecteurs propres de $u$. \Implique34 Si $\mcal{B}=(\vc e_1,\dots,\vc e_n)$ est une base constituée de vecteurs propres de $u$, la matrice de $u$ relativement à $\mcal{B}$ est diagonale $\diag{\la}$ avec $\la_i$ valeur propre de $u$ associée au vecteur propre $\vc e_i$ ($u(\vc e_i)=\la_i\vc e_i$). \Implique41 Quitte à réordonner la base de $E$ sur laquelle la matrice de $u$ est diagonale, on peut supposer que cette matrice est diagonale par blocs : $M=\mathrm{Diag}(\la_j I_{m(\la_j)})_{\la_j\in\Intf1p}$. Le polynôme caractéristique de $u$ est $\chi_u=\chi_M=\prod_{i=j}^p(\lambda_j-X)^{m(\lambda_j)}$, les $\la_j$ sont les valeurs propres de $u$ et $E_{\la_j}(u)$ est de dimension $m(\la_j)$ de vecteures de la base de $E$; ainsi $E$ est somme directe des $E_{\la_j}(u)$ puisque $\sum_j\dim E_{\la_j}(u)=\sum_j m(\la_j)=n$. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Endomorphisme diagonalisable, dimension des sous-espaces propres} %--------------------------------------------------------------------- \begin{Th} Soit $u$ un endomorphisme d'un $\K$-espace vectoriel de dimension finie; les propositions suivantes sont équivalentes : \begin{prop} \item $u$ est diagonalisable; \item la somme des dimensions des sous-espaces propres est égale à la dimension de $E$; \item le polynôme caractéristique de $u$ est scindé, et, pour toute valeur propre de $u$, la multiplicité est égale à la dimension du sous-espace propre associé. \end{prop} \Reponse{$\dsp u\text{ est diagonalisable} \iff\sum_{\lambda\in\sp u}\dim E_\lambda(u)=n $ \\ $\dsp \iff\chi_u\text{ est scindé et }\qqs\lambda\in\sp u,\ m(\lambda)=\dim E_\lambda(u) $} \end{Th} \begin{proof}\alaligne \Iff12 La somme des sous-espaces vectoriels propres est directe; cette somme est égale à $E$ si, et seulement si, sa dimension est la dimension de $E$; ceci donne le résultat, puisque la dimension d'une somme directe est égale à la somme des dimensions de chacun des facteurs. \Implique13 Puisque $u$ est diagonalisable, il existe une base de $E$ sur laquelle la matrice de $u$ est diagonale $\diag{\la}$; ainsi $\chi_u=\prod_{i=1}^n(\la_i-X)$ est un polynôme scindé. On sait que pour toute valeur propre $\la$, $q(\la)=\dim E_\la(u)\leq m(\la)$; d'autre part $$ n=\sum_{\la\in\sp u}m(\la)=\sum_{\la\in\sp u}\dim E_\la(u) $$ ce qui implique que $0=\sum_{\la\in\sp u}\bigl(m(\la)-q(\la)\bigr)$ et chacun des termes de la somme est positif; tous les termes de cette somme sont donc nuls. \Implique32 Puisque $\chi_u$ est scindé, $\sum_{\la\in\sp u}m(\la)=n$; ceci implique que $\sum_{\la\in\sp u}\dim E_\la(u)=n$ et $u$ est diagonalisable. \end{proof} %-------------------------------------------------- \begin{Th}[Cas des valeurs propres simples]\alaligne Tout endomorphisme d'un $\K$-espace vectoriel de dimension finie dont le polynôme caractéristique est scindé et a toutes ses racines \emph{simples}, est diagonalisable et ses sous-espaces propres sont des droites vectorielles. \end{Th} \begin{proof} Dans ce cas, $m(\la)=\dim E_\la(u)=1$ pour toute valeur propre $\la$ de $u$. \end{proof} %-------------------------------------------------- \begin{Cor} Tout endomorphisme d'un $\K$-espace vectoriel de dimension finie $n$ dont le polynôme caractéristique admet $n$ racines distinctes est diagonalisable et ses sous-espaces propres sont des droites vectorielles. \end{Cor} \begin{proof} Dans ce cas, les racines du polynôme caractéristique sont simples. \end{proof} %---------------------------------------------------------------------- %--------------------------------------------------------------------- \subsection{Endomorphisme diagonalisable et polynôme annulateur} %--------------------------------------------------------------------- \begin{Th} Si $u$ est un endomorphisme d'un $\K$-espace vectoriel de dimension finie, $u$ est diagonalisable si, et seulement si, $u$ annule un polynôme scindé dont toutes les racines sont simples. \end{Th} \begin{proof}\alaligne \CN Appelons $\la_1$,\dots,$\la_p$ les valeurs propres deux à deux \emph{distinctes} de $u$. Dans une base adaptée à la décomposition $E=\somdir_{j=1}^p E_{\la_j}(u)$, la matrice de $u$ est diagonale par blocs $M=\mathrm{Diag}(\la_j I_{m(\la_j)})_{j}$. Le polynôme $P=\prod_{j=1}^p(X-\la_j)$ est annulateur de $M$, car, par blocs, $$ P(M)=\mathrm{Diag}(P(\la_j) I_{m(\la_j)})_{j\in\Intf1p}=0 \qquad\text{ car $\la_j$ est racine de $P$ pour tout $j\in\Intf1p$} $$ Ainsi le polynôme $P$ est scindé, à racines simples et annulateur de $u$. \CS La démonstration est hors programme; elle est basée sur la propriété suivante : si $\la$ et $\mu$ sont deux scalaires distincts, alors $$ \ker\bigl((u-\la I_E)\circ(u-\mu I_E)\bigr)=\ker(u-\la I_E)\somdir\ker(u-\mu I_E) $$ Un raisonnement par récurrence sur le nombre de racines de $P=\prod_{j=1}^p(X-\la_j)$ montre que : $$ \ker P(u)=\ker\prod_{j=1}^p(u-\la_j I_E)=\Somdir_{j=1}^p\ker(u-\la_j I_E) $$ Si $P$ est annulateur de $u$, $\ker P(u)=E$ et $u$ est diagonalisable. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Endomorphisme diagonalisable et sous-espace stable} %--------------------------------------------------------------------- \begin{Th} Si $u$ est un endomorphisme diagonalisable de $E$ et $F$ un sous-espace stable pour $u$, l'endomorphisme $v$, induit par $u$ sur $F$, est diagonalisable. \end{Th} \begin{proof} Soit $P$ un polynôme annulateur de $u$, scindé et à racines simples. La restriction de $P(u)$ à $F$ est $P(v)$, et donc, $P$ est annulateur de $v$. Ainsi $v$ est diagonalisable. \end{proof} %-------------------------------------------------- %--------------------------------------------------------------------- \subsection{Cas des matrices} %--------------------------------------------------------------------- \begin{Df}[Matrice diagonalisable]\alaligne Une matrice carrée d'ordre $n$ à coefficients dans $\K$ est \emph{diagonalisable} si l'endomorphisme $u_M$ de $\Mnp[n,1]{\K}$ associé est diagonalisable. \end{Df} \begin{Th}[Caractérisation des matrices diagonalisables]\alaligne Pour une matrice carrée $M$ d'ordre $n$ et à coefficients dans $\K$, les propriétés suivantes sont équivalentes : \begin{prop} \item $M$ est diagonalisable; \item $M$ est la matrice d'un endomorphisme diagonalisable; \item $M$ est semblable à une matrice diagonale; \item la somme des dimensions des sous-espaces propres de $M$ est $n$; \item $\chi_M$ est scindé sur $\K$, et, pour toute valeur propre (de $\sp_\K M$), la multiplicité est égale à la dimension du sous-espace propre associé; \item il existe une matrice inversible $P\in\GLnK$ telle que $P^{-1}MP=\diag\la$ soit diagonale, $P$ étant la matrice de changement de base, de la base canonique à une base constituée de vecteurs propres de $M$, le $j$\fup{e} étant relatif à la valeur propre $\lambda_j$. \end{prop} \end{Th} \begin{proof} Les cinq premières assertions sont la traduction au cas de $u_M$ des théorèmes qui caractérisent les endomorphismes diagonalisables. La sixième assertion est l'explication pratique : recherche d'une base de $\Mnp[n,1]{\K}$ constituée de vecteurs propres de $M$ et utilisation de cette base pour construire une matrice inversible $P$, la matrice de passage de la base canonique à la base de vecteurs propres, qui diagonalise $M$. \end{proof} %--------------------------------------------------