Retour

Source de determt.tex

Fichier TeX
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\chapter{Déterminant}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

\minitoc
\newpage


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Groupe symétrique}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
$n$ désigne un entier au moins égal à 2.

%---------------------------------------------------------------------
\subsection{Généralités}
%---------------------------------------------------------------------
\begin{Df}[Permutation]\alaligne

 Une \emph{permutation} d'un ensemble $X$ est une bijection de
$X$ sur lui-même.
\end{Df}

\begin{Df}[Groupe symétrique]\alaligne

 $\sym$ désigne l'ensemble des permutations de $\Intf1n$; on
l'appelle le \emph{groupe symétrique} d'ordre $n$. Une
permutation $s\in\sym$ est notée
$$
s=
\begin{pmatrix}
 1&2&\dots&n-1&n\\
 s(1)&s(2)&\dots&s(n-1)&s(n)
\end{pmatrix}
$$
\end{Df}

\begin{Df}[Transposition]\alaligne

 La permutation qui échange $i$ et $j$ et laisse  les autres
éléments invariants est appelée \emph{transposition} et est notée
$\tau_{i,j}$. 
\end{Df}

\begin{Df}[Cycle]\alaligne

 Un \emph{cycle de longueur} $q$ $(q\leq n)$ est une permutation $c$ telle
qu'il existe un sous-ensemble à $q$ éléments de $\{a_1,\cdots,a_q\}$ vérifiant
$$
c(a_1)=a_2,\ c(a_2)=a_3,\ \dots\ ,c(a_{q-1})=a_q,\ c(a_q)=a_1
$$
les autres éléments restant invariants.
\end{Df}

\begin{Exs}\alaligne

 $\sym[2]$ contient deux éléments : la permutation identique et la
transposition qui échange 1 et 2. 

 Les six éléments de $\sym[3]$ sont 
\begin{itemize}
 \item la permutation identique : $e=
\begin{pmatrix} 1&2&3\\1&2&3 \end{pmatrix}$;
 \item trois transpositions :
$\tau_1 = \begin{pmatrix} 1&2&3\\1&3&2 \end{pmatrix}$,
$\tau_2 = \begin{pmatrix} 1&2&3\\3&2&1 \end{pmatrix}$ et
$\tau_3 = \begin{pmatrix} 1&2&3\\2&1&3 \end{pmatrix}$;
 \item deux cycles de longueur 3 :
$c_1 = \begin{pmatrix} 1&2&3\\2&3&1 \end{pmatrix}$ et
$c_2 = \begin{pmatrix} 1&2&3\\3&1&2 \end{pmatrix}$.
 \end{itemize}
\end{Exs}

\begin{Th}[Structure de groupe pour $\sym$]\alaligne

 Muni de la composition des applications, $\sym$ est un groupe de
cardinal $n!$ et non commutatif pour $n\geq 3$.
\end{Th}

\begin{proof}
 Rappelons qu'une structure de groupe nécessite une loi de
composition interne, associative, possédant un élément neutre et
un symétrique pour tout élément.
\begin{itemize}
 \item $(s_1,s_2)\mapsto s_1\circ s_2$ est une loi de
composition interne : la composée de deux bijections est une
bijection;
 \item la composition des applications est associative;
 \item l'identité de $\Intf1n$, que l'on note $e$, est une
permutation; c'est l'élément neutre pour la composition;
 \item si $s$ est une permutation, $s^{-1}$ en est une.
\end{itemize}

 $(\sym,\circ)$ est donc un groupe.
\end{proof}
%--------------------------------------------------



\begin{NBs}
 $\sym$ contient exactement $\binom n2$ transpositions.
 Toute transposition est une involution : $\tau\circ\tau=e$; une
transposition est un cycle de longueur 2.
\end{NBs}


%---------------------------------------------------------------------
\subsection{Structure d'une permutation}
%---------------------------------------------------------------------
\begin{Th}[Décomposition d'une permutation]\alaligne
 
Toute permutation de $\sym$ est un produit d'au plus $n$ transpositions.
\end{Th}

\begin{proof}
 Effectuons une récurrence sur $n$.\\
%
 $\sym[2]$ est un groupe à 2 éléments $\tau$ et $e=\tau\circ\tau$; la propriété
est donc vraie pour $n=2$.\\
%
 On suppose la propriété vraie au rang $n$. Soit $s\in\sym[n+1]$;
\begin{itemize}
 \item si $s(n+1)=n+1$, on note $s'$ la permutation induite par la
restriction de $s$ à $\Intf1n$; $s'$ est une permutation de
$\Intf1n$ et grâce à l'hypothèse de récurrence,
$s'=\tau'_1\circ\cdots\circ\tau'_k$ avec $k\leq n$, où les $\tau'_j$ sont des
transpositions de $\sym$.
 On pose $\tau_j(i)=\tau'_j(i)$ si
$i\in\Intf1n$ et $\tau_j(n+1)=n+1$; les $\tau_j$ sont des
transpositions de $\sym[n+1]$ et $s=\tau_1\circ\cdots\circ\tau_k$;

 \item si $s(n+1)=p\in\Intf1n$, $\tau_{p,n+1}\circ s$ est une
permutation qui laisse $n+1$ invariant et on retrouve le cas
précédent; on peut écrire que 
$\tau_{p,n+1}\circ s=\tau_1\circ\cdots\circ\tau_k$ avec $k\leq n$, et
$s=\tau_{p,n+1}\circ\tau_1\circ\cdots\circ\tau_k$
\end{itemize}

 Ainsi toute permutation $s\in\sym[n+1]$ est un produit d'au plus $n+1$
transpositions.

 Le théorème de récurrence montre que la propriété est vraie pour
tout $n$.
\end{proof}
%--------------------------------------------------

\begin{NB}[]\alaligne

 La décomposition en produit de transpositions n'est pas unique;
par exemple
$$
s=\begin{pmatrix} 1&2&3&4\\3&1&4&2 \end{pmatrix}
=\tau_{2,4}\circ\tau_{1,2}\circ\tau_{1,3}
=\tau_{1,3}\circ\tau_{3,4}\circ\tau_{2,4}
$$
\end{NB}



%---------------------------------------------------------------------
\subsection{Signature d'une permutation}
%---------------------------------------------------------------------
\begin{Df}[Signature]\alaligne

 Soit $s\in\sym$; on dit que le couple $(i,j)$ avec $i<j$,
présente une \emph{inversion} pour $s$ si $s(i)>s(j)$.
On note $I(s)$ le nombre d'inversions de $s$ et on appelle
\emph{signature de la permutation} $s$ le nombre
$\eps(s)\in\{-1,1\}$ défini par
$$
\eps(s)=(-1)^{I(s)}
$$
\end{Df}
%
La signature de l'identité est 1 : $\eps(e)=1$.

\begin{Th}[Signature d'une transposition]\alaligne

 La signature d'une transposition est $-1$.
\end{Th}

\begin{proof}
Soit $\tau$ la transposition qui échange $k$ et $l$, avec  $k<l$ :
$$
\setcounter{MaxMatrixCols}{15}
\tau=
\begin{pmatrix}
 1&2&\dots&k-1&k&k+1&\dots&l-1&l&l+1&\dots&n\\
 1&2&\dots&k-1&l&k+1&\dots&l-1&k&l+1&\dots&n
\end{pmatrix}
\setcounter{MaxMatrixCols}{10}
$$
Comptons le nombre d'inversions de $\tau$ :
\begin{itemize}
 \item les couples $(i,j)$ avec $i\in\Intf1{k-1}\cup\Intf ln$ et $i<j$
  ne présentent pas d'inversion;
 \item le couple $(k,j)$ avec $k<j$ présente une inversion si, et
seulement si, $j$ appartient à $\Intf{k+1}l$, ce qui fait $l-k$ inversion(s);
 \item si $i\in\Intf{k+1}{l-1}$ et $i<j$, $(i,j)$ présente une
inversion si, et seulement si, $j=l$, ce qui fait $l-1-k$ inversion(s).
\end{itemize}
ce qui donne $I(\tau)=(l-k)+(l-1-k)=2(l-k-1)+1$;
ce nombre est impair et $\eps(\tau)=(-1)^{I(\tau)}=-1$.
\end{proof}
%--------------------------------------------------

Considérons maintenant le produit
$$
V_n=\prod_{1\leq i<j\leq n}(j-i)
=\bigl[(2-1)\bigr]\times\bigl[(3-1)(3-2)\bigr]\times\cdots\times
 \bigl[(n-1)(n-2)\dots\bigl(n-(n-1)\bigr)\bigr]
$$
%
Pour $s\in\sym$, posons $s\cdot V_n=\prod_{1\leq i<j\leq n}
\bigl(s(j)-s(i)\bigr)$. Puisque $s$ est une bijection, les $\binom
n2$ facteurs de $V_n$ se retrouvent, au signe près, une et une seule
fois dans $s\cdot
V_n$ et $s\cdot V_n=(-1)^{I(s)}V_n=\eps(s)V_n$. Ainsi :

\begin{Prop}[Expression de la signature]\alaligne

La signature d'une permutation $s\in\sym$ est donnée par :
$\dsp\eps(s)=\prod_{1\leq i<j\leq n}\ra{s(j)-s(i)}{j-i}$
\end{Prop}
%--------------------------------------------------

\begin{Th}[Signature d'un produit de permutations]\alaligne

 $\eps$ est un morphisme du groupe $(\sym,\circ)$ sur le groupe
$\{1,-1\}$ muni de la multiplication, \ie
$$
\qqs(s_1,s_2)\in\sym^2,\ \eps(s_1\circ s_2)=\eps(s_1)\times\eps(s_2)
$$
\end{Th}

\begin{proof}
On a : $(s_1\circ s_2)\cdot V_n=s_1\cdot(s_2\cdot V_n)=\eps(s_1)
(s_2\cdot V_n)=\eps(s_1)\eps(s_2)V_n$. Puisque $(s_1\circ
s_2)\cdot V_n=\eps(s_1\circ s_2)V_n$, la formule annoncée est démontrée.
\end{proof}
%--------------------------------------------------

\begin{Cor}
 La signature d'une permutation produit de $p$ transpositions
est $(-1)^p$.
\end{Cor}



%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Applications multilinéaires}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%---------------------------------------------------------------------
\subsection{Applications bilinéaires}
%---------------------------------------------------------------------
\begin{Df}[Bilinéarité]\mbox{}
 Soient $E_1$, $E_2$ et $F$ trois $\K$-espaces vectoriels; une
application $f$ de $E_1\times E_2$ à valeurs dans $F$ est
\emph{bilinéaire} si
\begin{prop}
 \item pour tout $\vc x\in E_1$, l'application $\vc y\mapsto
f(\vc x,\vc y)$ est linéaire;
 \item pour tout $\vc y\in E_2$, l'application $\vc x\mapsto
f(\vc x,\vc y)$ est linéaire.
\end{prop}
Si $F=\K$, on parle de \emph{forme bilinéaire}.
\end{Df}

\begin{Exs}\alaligne

 Le produit scalaire est une forme bilinéaire sur
$\R^3\times\R^3$; le produit vectoriel est une application
bilinéaire de $\R^3\times\R^3$ sur $\R^3$.

 Soit $\mathcal{A}$ une $\K$-algèbre 
(par exemple $\K$, $\K[X]$, $\MnK$, $\LE$); les applications
$$
f_1 : (x,y)\mapsto x.y,\quad
f_2 : (x,y)\mapsto x.y+y.x,\quad
f_1 : (x,y)\mapsto x.y-y.x
$$
sont des applications bilinéaires de
$\mathcal{A}\times\mathcal{A}$ vers $\mathcal{A}$ (le démontrer).\\
Si $\mathcal{A}=\K$ ou $\K[X]$, $f_2=2f_1$ et $f_3=0$.\\
Si $\mathcal{A}=\MnK$ ou $\LE$, $f_3$ n'est pas l'application nulle.

 $\vphi : (f,g)\mapsto\int_a^b f(t)g(t)\,dt$ est une
forme bilinéaire sur $\CabE{\K}\times\CabE{\K}$.

 $\psi : (A,B)\mapsto\tr({}^tAB)$ est une forme bilinéaire
sur $\MnK\times\MnK$. 
\end{Exs}

\begin{Df}[Symétrie, antisymétrie, alternance]\alaligne

 Soient $E$ et $F$ deux $\K$-espaces vectoriels et $f$ une application
bilinéaire de $E\times E$ à valeurs dans $F$; on dit que
\begin{prop}
 \item $f$ est \emph{symétrique} si
$\qqs(\vc x,\vc y)\in E^2,\ f(\vc x,\vc y)=f(\vc y,\vc x)$;
 \item $f$ est \emph{antisymétrique} si
$\qqs(\vc x,\vc y)\in E^2,\ f(\vc x,\vc y)=-f(\vc y,\vc x)$;
 \item $f$ est \emph{alternée} si
$\qqs\vc x\in E,\ f(\vc x,\vc x)=\vc 0_F$;
\end{prop}
\end{Df}

\begin{Exs}\alaligne

 Le produit scalaire est symétrique, le produit
vectoriel est antisymétrique.

 $f_2$ est symétrique, $f_3$ est antisymétrique et
$f_1$ est symétrique si, et seulement si, $\mathcal{A}$ est une
algèbre \emph{commutative}.

 $\vphi$ est symétrique.

 $\psi$ est symétrique.
\end{Exs}

\begin{Th}[Antisymétrie et alternance]\alaligne

 Si $f$ est une application bilinéaire de $E\times E$ dans $F$,
$f$~est antisymétrique si, et seulement si, $f$ est alternée.
\end{Th}

\begin{proof}\alaligne

 \CN Pour tout $\vc x\in E$, $f(\vc x,\vc x)=-f(\vc x,\vc x)$
puisque $f$ est antisymétrique, donc $f(\vc x,\vc x)=\vc 0_F$.
 
 \CS Pour tout $(\vc x,\vc y)\in E^2$, on peut écrire
\begin{align*}
f(\vc x+\vc y,\vc x+\vc y)
& =\vc 0_F &\quad &\text{ puisque $f$ est alternée}            \\
& =f(\vc x,\vc x+\vc y)+f(\vc y,\vc x+\vc y)&&              \\
& =f(\vc x,\vc x)+f(\vc x,\vc y)+f(\vc y,\vc x)+f(\vc y,\vc y) &\quad
 &\text{ puisque $f$ est bilinéaire}                   \\
& =f(\vc x,\vc y)+f(\vc y,\vc x) &\quad &\text{ puisque $f$ est alternée} 
\end{align*}
ce qui montre que $f(\vc x,\vc y)=-f(\vc y,\vc x)$.
\end{proof}
%--------------------------------------------------


%---------------------------------------------------------------------
\subsection{Applications $p$-linéaires}
%---------------------------------------------------------------------

$p$ désigne un entier au moins égal à 2.

\begin{Dfs}[Application et forme $p$-linéaires]\alaligne

 Soient $E$ et $F$ deux $\K$-espaces vectoriels; une application
$f$ de $E^p$ à valeurs dans $F$ est dite $p$-\emph{linéaire} si
elle est linéaire par rapport à chacune de ses variables, \ie{}
si pour tout $j\in\Intf1p$ et pour tout $\vc a_k\in E$,
$k\in\Intf 1p\setminus\{j\}$,  les applications
$$
\vc x\in E\mapsto f(\vc a_1,\dots,\vc a_{j-1},\vc x,\vc
a_{j+1},\dots,\vc a_p)\in F
$$
sont linéaires.

 L'ensemble des applications $p$-linéaires de $E$ dans $F$ est
noté $\LpEF$.

 Les applications $p$-linéaires de $E$ vers le corps des
scalaires $\K$ sont appelées \emph{formes $p$-linéaires} sur $E$.
\end{Dfs}

\begin{Exs}\alaligne

\begin{demprop}
 \monitem Si $\vphi_1$,\dots,$\vphi_p$ sont des formes linéaires sur $E$,
l'application
$$
f : \Nuple{\vc x}p\in E^p\mapsto
\vphi_1(\vc x_1)\times\cdots\times\vphi_p(\vc x_p)
$$
est une forme $p$-linéaire sur $E$.

 \monitem L'application déterminant
$$
(\vc x,\vc y)\in\K^2\times\K^2\mapsto
\begin{vmatrix}
 x_1&y_1 \\ x_2&y_2
\end{vmatrix}
=x_1y_2-x_2y_1
$$
est une forme 2-linéaire (ou bilinéaire) sur $\K^2$.

 \monitem L'application déterminant
\begin{multline*}
(\vc x,\vc y,\vc z)\in\K^3\times\K^3\times\K^3\mapsto
\begin{vmatrix}
 x_1&y_1&z_1 \\ x_2&y_2&z_2 \\ x_3&y_3&z_3
\end{vmatrix}                             \\
=(x_1y_2z_3+x_2y_3z_1+x_3y_1z_2)-(x_3y_2z_1+x_1y_3z_2+x_2y_1z_3)
\end{multline*}
est une forme 3-linéaire (ou trilinéaire) sur $\K^3$.
\end{demprop}
\end{Exs}

\begin{Prop}\alaligne

\begin{prop}
 \item L'application nulle de $E^p$ vers $F$ est à la fois
$p$-linéaire et linéaire.
 \item Si $f$ est une application $p$-linéaire de $E$ dans $F$,
et si l'un des vecteurs $\vc x_i$ est nul, le vecteur
$f(\vc x_1,\dots,\vc x_p)$ est nul.
 \item $\LpEF$ est un $\K$-espace vectoriel.
\end{prop}
\end{Prop}

\begin{proof}\alaligne

\begin{demprop}
\setcounter{numdemprop}{1}
 \monitem $f$ est une application linéaire par rapport à sa
$i$\fup{e} variable, et l'image de $\vc 0_E$ par une application
linéaire est $\vc 0_F$.
 \monitem $\LpEF$ est un sous-espace vectoriel de l'espace de
toutes les applications de~$E^p$ vers $F$.
\end{demprop}
\end{proof}
%--------------------------------------------------

\begin{Dfs}[Symétrie, antisymétrie et alternance]\alaligne

 Soient $E$ et $F$ deux $\K$-espaces vectoriels et $f$ une
application $p$-linéaire sur $E$ à valeurs dans $F$; on dit que
\begin{itemize}
 \item $f$ est \emph{symétrique} si
$\qqs(\vc x_1,\ldots,\vc x_p)\in E^p,\ \qqs(i,j)\in\Intf1p,$
$$
i<j\implique f(\ldots,\vc x_i,\ldots,\vc x_j,\ldots)=
 f(\ldots,\vc x_j,\ldots,\vc x_i,\ldots)
$$
 \item $f$ est \emph{antisymétrique} si
$\qqs(\vc x_1,\ldots,\vc x_p)\in E^p,\ \qqs(i,j)\in\Intf1p,$
$$
i<j\implique f(\ldots,\vc x_i,\ldots,\vc x_j,\ldots)=
 -f(\ldots,\vc x_j,\ldots,\vc x_i,\ldots)
$$
 \item $f$ est \emph{alternée} si
$\qqs(\vc x_1,\ldots,\vc x_p)\in E^p,\ \qqs(i,j)\in\Intf1p,$
$$
i<j\et \vc x_i=\vc x_j\implique
 f(\ldots,\vc x_i,\ldots,\vc x_j,\ldots)=\vc 0_F
$$
\end{itemize}
\end{Dfs}
%--------------------------------------------------

\begin{Exs} Reprenons les exemples précédents.
\begin{demprop}
 \monitem $f$ est symétrique
 \monitem et
\addtocounter{numdemprop}{1}{\textit{\roman{numdemprop}}.} Les
déterminants sont antisymétriques et alternés. Pourquoi?
\end{demprop}
\end{Exs}

\begin{Prop}[]\mbox{}
L'ensemble des applications $n$-linéaires symétriques et
l'ensemble des applications $n$-linéaires alternées de $E$ à
valeurs dans $F$ sont des
sous-espaces vectoriels de $\LpEF$.

\end{Prop}

\begin{proof}\alaligne

\begin{verse}
 Prenez vos ardoises et vos crayons.\\
 Écrivez-moi cette démonstration.
\end{verse}
\end{proof}
%--------------------------------------------------

\begin{Th}[Symétrie et permutation]\alaligne

 Soit $f$ une application $p$-linéaire  de $E$ vers $F$; les
propriétés suivantes sont équivalentes :
\begin{prop}
 \item $f$ est symétrique;
 \item pour toute permutation $s\in\sym[p]$ et tout
$(\vc x_1,\dots,\vc x_p)\in E^p$
$$
f(\vc x_{s(1)},\dots,\vc x_{s(p)})=f(\vc x_1,\dots,\vc x_p)
$$
\end{prop}
\end{Th}

\begin{proof}\alaligne

 \CS La transposition $\tau_{i,j}\in\sym[p]$ qui échange $i$ et $j$ donne
la symétrie.

 \CN La symétrie montre que la propriété est vraie pour toute
transposition, et, puisqu'une permutation est un produit de
transpositions, une récurrence sur le nombre de transpositions
montre le résultat.
\end{proof}
%--------------------------------------------------

\begin{Th}[Antisymétrie, alternance et permutation]\alaligne

 Soit $f$ une application $p$-linéaire  de $E$ vers $F$; les
propriétés suivantes sont équivalentes :
\begin{prop}
 \item $f$ est alternée;
 \item $f$ est antisymétrique;
 \item pour toute permutation $s\in\sym[p]$ et tout
$(\vc x_1,\dots,\vc x_p)\in E^p$
$$
f(\vc x_{s(1)},\dots,\vc x_{s(p)})=\eps(s)f(\vc x_1,\dots,\vc x_p)
$$
\end{prop}
\end{Th}

\begin{proof}\alaligne

 \makebox[1em][r]{\textit{i}.$\iff$\textit{ii}.}
Soient $1\leq i<j\leq p$ et l'application
$$
g_{i,j} : (\vc x_i,\vc x_j)\in E^2\mapsto
f(\dots,\vc x_i,\dots,\vc x_j,\dots)
$$
$g_{i,j}$ est bilinéaire puisque $f$ est $p$-linéaire; donc
$g_{i,j}$ est antisymétrique si, et seulement si, $g_{i,j}$ est
alternée, ce qui montre l'équivalence.

 \makebox[1em][r]{\textit{iii}.\ $\Longleftarrow$\ \textit{ii}.}
Il suffit de prendre une transposition et $f$ est antisymétrique
puisque la signature d'une transposition est $-1$.

 \makebox[1em][r]{\textit{ii}.\ $\Longrightarrow$\ \textit{iii}.}
La formule est vraie pour les transpositions. Puisque toute
permutation $s\in\sym[p]$ se décompose en un produit de transpositions
$s=\tau_1\circ\cdots\circ\tau_k$ et puisque la signature de $s$
vaut $(-1)^k$, une récurrence, sur le nombre $k$ de transpositions,
achève la démonstration. 
\end{proof}
%--------------------------------------------------

\begin{Th}[Règle de calcul]\alaligne

 On ne change pas la valeur prise par une application $p$-linéaire
alternée  sur un $p$-uple de $E^p$ en
ajoutant à l'un des vecteurs une combinaison linéaire des
\emph{autres vecteurs}.

 En particulier, toute application $p$-linéaire alternée prend
la valeur $\vc 0_F$ sur tout $p$-uple qui constitue une famille liée.
\end{Th}

\begin{proof}
 Soit $f$ une application $p$-linéaire alternée sur $E$.
 En ajoutant la combinaison linéaire $\sum_{j\neq k}\lambda_j
\vc x_j$ au vecteur $\vc x_k$, on obtient
\begin{align*}
f(\dots,\vc x_k+\sum_{j\neq k}\lambda_j\vc x_j,\dots)
 &=f(\dots,\vc x_k,\dots)
  +\sum_{j\neq k}\lambda_j f(\dots,\vc x_j,\dots,\vc x_j,\dots)          \\
 &=f(\dots,\vc x_k,\dots)\qquad\hfill\text{ car $f$ est alternée}
\end{align*}

 Si la famille $\Nuple{\vc x}p$ est liée, l'un des vecteurs, par
exemple $\vc x_k$, est combinaison des autres vecteurs, et
$$
f(\dots,\vc x_k,\dots)=f(\dots,\sum_{j\neq k}\lambda_j\vc x_j,\dots)
=\sum_{j\neq k}\lambda_j f(\dots,\vc x_j,\dots,\vc x_j,\dots)
=\vc0_F
$$
puisque $f$ est alternée.
\end{proof}
%--------------------------------------------------

\begin{NBs}\alaligne

 Si $E$ est un espace vectoriel de dimension finie, la seule
application $p$-linéaire alternée, avec $p>\dim E$, est
l'application nulle, car, dans ce cas, toute famille de $p$
vecteurs est liée. Les seuls cas intéressants sont ceux où
$p\leq\dim E$. Le programme nous demande d'étudier le cas où
$p=\dim E=n$.

 Soient $E$ un espace vectoriel de dimension 2,
$\mathcal{B}=(\vc e_1,\vc e_2)$ une base de $E$ et $f$ une
application bilinéaire alternée sur $E$. Décomposons $\vc
x=x_1\vc e_1+x_2\vc e_2$ et $\vc y=y_1\vc e_1+y_2\vc e_2$ sur la
base $\mathcal{B}$. On obtient :
\begin{align*}
f(\vc x,\vc y)
 &= x_1y_1 f(\vc e_1,\vc e_1) + x_1y_2 f(\vc e_1,\vc e_2)
  + x_2y_1 f(\vc e_2,\vc e_1) + x_2y_2 f(\vc e_2,\vc e_2)      \\
 &= (x_1y_2-x_2y_1)f(\vc e_1,\vc e_2)\quad\text{ car $f$ est alternée}\\
 &=\begin{vmatrix}x_1 & y_1 \\ x_2 & y_2 \end{vmatrix}
  f(\vc e_1,\vc e_2)
\end{align*}
et on retrouve le déterminant des deux vecteurs $\vc x$ et $\vc
y$ dans la base $\mathcal{B}$.

Envisageons le cas d'un espace vectoriel $E$ de dimension 3, muni
d'une base $\mathcal{B}=(\vc e_1,\vc e_2,\vc e_3)$. Si $f$ est une
application trilinéaire alternée  sur $E$,
on obtient, de manière analogue en ne notant que les termes non nuls :
\begin{align*}
f(\vc x&,\vc y,\vc z) = x_1y_2z_3 f(\vc e_1,\vc e_2,\vc e_3) +
  x_1y_3z_2 f(\vc e_3,\vc e_3\vc e_2)
   + x_2y_1z_3f(\vc e_2,\vc e_1,\vc e_3)              \\
 &\phantom{,\vc y,\vc z) =}
   + x_2y_3z_1 f(\vc e_2,\vc e_3,\vc e_1)
    + x_3y_1z_2 f(\vc e_3,\vc e_1,\vc e_2)
   + x_3y_2z_1 f(\vc e_3,\vc e_2,\vc e_1)              \\
 &=\bigl((x_1y_2z_3+x_2y_3z_1+x_3y_1z_2)-
     (x_3y_2z_1+x_1y_3z_2+x_2y_1z_3)\bigr)
  f(\vc e_1,\vc e_2,\vc e_3)                    \\
 &=\begin{vmatrix} x_1&y_1&z_1 \\ x_2&y_2&z_2 \\ x_3&y_3&z_3
  \end{vmatrix} f(\vc e_1,\vc e_2,\vc e_3)
\end{align*}
On retrouve le déterminant des trois vecteurs $\vc x$, $\vc y$
et $\vc z$ dans la base $\mathcal{B}$.
\end{NBs}


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Déterminant de $n$ vecteurs}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

Dans cette section, $E$ désigne un $\K$-espace vectoriel de
dimension finie~$n$, muni d'une base $\mathcal{B}=(\vc
e_1,\dots,\vc e_n)$; la base duale $\mcal{B}^*=\nuple{\vphi}$
est définie par $\vphi_i(\vc x)=x_i$ la coordonnée de rang $i$
relative à $\mcal{B}$. Nous étudions l'ensemble $\Lambda_n^*(E)$
des \emph{formes $n$-linéaires alternées} définies sur $E$ et $f$
désigne une telle forme.

%---------------------------------------------------------------------
\subsection{Déterminant de $n$ vecteurs dans la base
$\mathcal{B}$}
%---------------------------------------------------------------------

 Soit $\nuple{\vc x}\in E^n$; les composantes de $\vc x_j$ dans
$\mcal{B}$ sont notées $a_{i,j}$ et pour $f\in\Lambda_n^*(E)$, on écrit
\begin{align*}
f\nuple{\vc x}
 &=f\Bigl(\sum_{i_1=1}^n a_{i_1,1}\vc e_{i_1},\vc x_2,\dots,\vc x_n\Bigr)   \\
 &=\sum_{i_1=1}^n a_{i_1,1} f(\vc e_{i_1},\vc x_2,\dots,\vc x_n)
  \quad\text{ linéarité de $f$ par rapport à $\vc x_1$}       \\
 &=\sum_{1\leq i_1,\dots,i_n\leq n}a_{i_1,1}\dots a_{i_n,n}
  f(\vc e_{i_1},\dots,\vc e_{i_n})
  \quad\text{$n$-linéarité de $f$}
\end{align*}
Étant donnés $(i_1,\dots,i_n)\in\Intf1n^n$, on pose $s(k)=i_k$
pour $k\in\Intf1n$. Si $s$ n'est pas injective, deux vecteurs
$\vc e_{s(k)}$ sont égaux et, puisque que $f$ est alternée,
$$
f(\vc e_{i_1},\dots,\vc e_{i_n})=f(\vc e_{s(1)},\dots,\vc e_{s(n)})=0
$$ 
Sinon $s$ est bijective et appartient à $\sym$, et
$$
f(\vc e_{i_1},\ldots,\vc e_{i_n})=f(\vc e_{s(1)},\ldots,\vc e_{s(n)})=
\eps(s) f(\vc e_1,\ldots,\vc e_n)
$$
Ainsi
\begin{align*}
f\nuple{\vc x}
 &=\sum_{1\leq i_1,\dots,i_n\leq n}a_{i_1,1}\dots a_{i_n,n}
  f(\vc e_{i_1},\dots,\vc e_{i_n})                 \\
 &=\sum_{s\in\sym} a_{s(1),1}\dots a_{s(n),n}
  f(\vc e_{s(1)},\dots,\vc e_{s(n)})                \\
 &=\Bigl(\sum_{s\in\sym} \eps(s) a_{s(1),1}\dots a_{s(n),n}\Bigr)
  f(\vc e_1,\dots,\vc e_n)                     \\
 &=\Bigl(\sum_{s\in\sym}\eps(s)\prod_{j=1}^n a_{s(j),j}\Bigr)
  f(\vc e_1,\dots,\vc e_n)
\end{align*}
 Posons $i=s(j)$ soit $j=s^{-1}(i)$;
on obtient $\prod_{j=1}^n a_{s(j),j}=\prod_{i=1}^n
a_{i,s^{-1}(i)}$; comme l'application $s\to s^{-1}$ est une
bijection de $\sym$ (c'est même une involution) et
$\eps(s^{-1})=\eps(s)^{-1}=\eps(s)$, on peut écrire, en effectuant
le changement d'indice de sommation $\sigma=s^{-1}$
$$
\sum_{s\in\sym}\eps(s)\prod_{j=1}^n a_{s(j),j}
=\sum_{s\in\sym}\eps(s^{-1})\prod_{i=1}^n a_{i,s^{-1}(i)}
=\sum_{\sigma\in\sym}\eps(\sigma)\prod_{i=1}^n a_{i,\sigma(i)}
$$

\begin{Df}[Déterminant de $n$ vecteurs dans une base]\alaligne

Soient $E$ un $\K$-espace vectoriel de dimension finie $n$ et
$\mcal{B}=\nuple{\vc e}$ une base de $E$; on appelle
\emph{déterminant dans la base $\mcal{B}$} et l'on note $\Det$, l'unique
forme 
$n$-linéaire alternée sur $E$ qui prend la valeur 1 sur $\mcal{B}$.

Si pour tout $j\in\Intf1n$, $\vc x_j=\sum_{i=1}^n a_{i,j}\vc
e_i$, le scalaire $\det\nuple{\vc x}$, appelé \emph{déterminant
dans la base $\mcal{B}$ du $n$-uple $\nuple{\vc x}\in E^n$},
admet deux expressions
\begin{equation}\label{eq\DP det}
 \Det\nuple{\vc x}=\sum_{s\in\sym}\eps(s)\prod_{j=1}^n a_{s(j),j}
  =\sum_{s\in\sym}\eps(s)\prod_{i=1}^n a_{i,s(i)}
\end{equation}
\end{Df}

\begin{proof}
 L'essentiel a été vu avant l'énoncé du théorème; reste à prouver
l'existence de ce gros machin.

 En utilisant les éléments $\vphi_i$ de la base duale, on obtient
$$
\prod_{j=1}^n a_{s(j),j}=\prod_{j=1}^n \vphi_{s(j)}(\vc x_j)
=\vphi_{s(1)}(\vc x_1)\times\dots\times\vphi_{s(n)}(\vc x_n)
$$
ce qui montre la $n$-linéarité de ces produits par rapport à
$\nuple{\vc x}$ et la $n$-linéarité de $\det B$ par combinaison
linéaire.

 Soit $\tau$ une transposition de $\sym$; comme $s\to s\circ\tau$
est une bijection de $\sym$ (c'est même une involution) et puisque
$\eps(s\circ\tau)=\eps(s)\eps(\tau)=-\eps(s)$, on peut écrire
\begin{align*}
\Det(\vc x_{\tau(1)},\dots,\vc x_{\tau(n)})
& = \sum_{s\in\sym}\eps(s)\prod_{i=1}^n a_{i,s(\tau(i))}
  = \sum_{s\in\sym}-\eps(s\circ\tau)\prod_{i=1}^n a_{i,s(\tau(i))}  \\
& = -\sum_{\sigma\in\sym}\eps(\sigma)\prod_{i=1}^n a_{i,\sigma(i)}
\end{align*}
en utilisant le changement d'indice $\sigma=s\circ\tau$.
\end{proof}
%--------------------------------------------------

\begin{Th}[Dimension de $\Lambda_n^*(E)$]\alaligne

 L'espace vectoriel $\Lambda_n^*(E)$ des formes $n$-linéaires
alternées sur un espace vectoriel $E$ de dimension $n$ est de
dimension $1$; il admet
pour base $(\Det)$ et
\begin{equation}\label{eq\DP nLinAlt}
\qqs f\in\Lambda_n^*(E),\ f=f\nuple{\vc e}\Det=f(\mcal{B})\Det
\end{equation}
\end{Th}
%--------------------------------------------------

\begin{Th}[Déterminant d'un système triangulaire de vecteurs]\alaligne

 Si chaque vecteur $\vc x_j$ est combinaison linéaire des vecteurs
$\Nuple{\vc e}{j}$, autrement dit, si $a_{i,j}=0$ pour $i>j$,
\begin{equation}\label{eq\DP DetSysTri}
\Det\nuple{\vc x}=
\begin{vmatrix}
 a_{1,1} & a_{1,2} & \dots & a_{1,n} \\
 0    & a_{2,2} & \dots & a_{2,n} \\
 \hdotsfor[2]{4}           \\
 0    & 0    & \dots & a_{n,n}
\end{vmatrix}
=\prod_{i=1}^n a_{i,i} 
\end{equation}
\end{Th}

\begin{proof}
 Soit $s\in\sym$ telle qu'il existe $j_0$ avec $s(j_0)>j_0$;
alors  $a_{s(j_0),j_0}=0$ et $\prod_{j=1}^n a_{s(j),j}=0$.
Dans la somme qui définit $\det\nuple{\vc x}$, seuls les
permutations $s$
pour lesquelles $s(j)\leq j$ pour tout $j\in\Intf1n$ peuvent
données un produit non nul, ce qui impose à $s$ d'être la permutation
identique et donne le résultat.
\end{proof}
%--------------------------------------------------

%---------------------------------------------------------------------
\subsection{Caractérisation des bases}
%---------------------------------------------------------------------
\begin{Th}[Passage d'une base à une autre]\alaligne

Si $\mcal{B}$ et $\mcal{B}'$ sont deux bases de $E$ et
$\mcal{V}$ un $n$-uple de $E^n$, on a
\begin{gather}
\Det(\mcal{B}')\times\Det[B'](\mcal{B})=1    \\
\Det[B'](\mcal{V})=\Det[B'](\mcal{B})\times
\Det(\mcal{V})
\end{gather}
\end{Th}

\begin{proof}
$\Det[B']$ est une forme $n$-linéaire alternée à qui on
applique la formule \ref{eq\DP nLinAlt}, soit
$$
\Det[B']=\Det[B'](\mcal{B})\Det
$$
En prenant la valeur de ces expressions en $\mcal{B}'$ et en
$\mcal{V}$, on obtient les résultats.
\end{proof}
%--------------------------------------------------

\begin{Th}[Caractérisation des bases]\alaligne

Si $\mcal{V}=\nuple{\vc v}$ est une famille de $n$ vecteurs d'un
espace vectoriel de dimension $n$ et si $\mcal{B}$ est une base de $E$,
\Reponse{$
\mcal{V} \text{ est une base de $E$}\iff\Det(\mcal{V})\neq 0
$}
\end{Th}

\begin{proof}\alaligne

\CN
Si $\mcal{V}$ est une base de $E$, $\Det(\mcal{V})$ n'est pas
nul, car
$\Det(\mcal{V})\times\Det[V](\mcal{B})=1$.

\CS
Par contraposée; si $\mcal{V}$ n'est pas une base de $E$,
$\mcal{V}$ est une famille liée ($\mcal{V}$ est maximale) et donc
$\Det(\mcal{V})=0$ (image d'une famille liée par une forme
$n$-linéaire alternée).
\end{proof}
%--------------------------------------------------
\begin{Exs}\alaligne

\begin{demprop}
 \monitem $(1,j)$ est une base du $\R$-espace vectoriel $\C$.\\
On note $\mcal{B}=(1,i)$ la base canonique du $\R$-espace
vectoriel $\C$ et
$$
\Det(1,j)=
\begin{vmatrix} 1 & -\ra12 \\ 0 & \ra{\sqrt3}2 \end{vmatrix}
=\ra{\sqrt3}2\neq0
$$

 \monitem Toute famille de $(n+1)$ polynômes de $\K_n[X]$ et échelonnés
en degré est une base de $\K_n[X]$.\\
On note $\mcal{B}=(1,X,\dots,X^n)$ la base canonique de
$\K_n[X]$; si $P_k$ est un polynôme de degré $k\leq n$, on pose
$P_k=\sum_{i=0}^k a_{i,k}X^i$ avec $a_{k,k}\neq0$; la famille
$(P_0,P_1,\dots,P_n)$ est un système triangulaire de vecteurs et
la formule \eqref{eq\DP DetSysTri} donne
$$
\Det(P_0,P_1,\dots,P_n)=\prod_{k=0}^n a_{k,k}\neq0
$$
\end{demprop}

\end{Exs}


%---------------------------------------------------------------------
\subsection{Orientation d'un $\R$-espace vectoriel}
%---------------------------------------------------------------------
 Dans ce paragraphe, $E$ est un espace vectoriel réel; on
ne peut orienter que des espaces sur le corps des réels.

\begin{Df}[Orientation de deux bases]\alaligne

 Deux bases ordonnées $\mcal{B}$ et $\mcal{B'}$ du même
$\R$-espace vectoriel $E$ ont \emph{même orientation} si
$$
\Det(\mcal{B'})>0
$$
\end{Df}
%
 Cette propriété définit une relation d'équivalence sur les bases de
$E$ :

\begin{itemize}
 \item \emph{réflexivité} : $\Det(\mcal{B})=1>0$;
 \item \emph{symétrie} : $\Det(\mcal{B'})>0$
  implique $\Det[B'](\mcal{B})=
  \bigl(\Det(\mcal{B'})\bigr)^{-1}>0$
 \item \emph{transitivité} : $\Det(\mcal{B'})>0$
  et $\Det[B'](\mcal{B''})>0$ implique
  $\Det(\mcal{B''})=\Det(\mcal{B'})\times
  \Det[B'](\mcal{B''})>0$
\end{itemize}

 Une base $\mcal{C}$ de $E$ étant choisie, cette relation
d'équivalence définit une partition de l'ensembles des bases de
$E$ en deux classes : $\mcal{C}^+$ et $\mcal{C}^-$ :

\begin{itemize}
 \item $\mcal{C}^+$ est l'ensemble des bases $\mcal{B}$ de $E$ de même
orientation que $\mcal{C}$ : $\Det[C](\mcal{B})>0$;
 \item $\mcal{C}^-$ est l'ensemble des bases $\mcal{B}$ de $E$ ayant
l'orientation opposée à celle de $\mcal{C}$ :
$\Det[C](\mcal{B})<0$.
\end{itemize}

 Choisir une de ces classes, c'est, par définition, orienter
l'espace vectoriel réel $E$ : toutes les bases appartenant à
cette classe sont appelées \emph{directes} ou \emph{positivement
orientées}, les bases appartenant à l'autre classe sont appelées
\emph{indirectes}, \emph{rétrogrades} ou \emph{négativement orientées}.

 Dans $\R^2$, on décide que la base canonique $(\vc e_1,\vc
e_2)$ est directe et que la base $(\vc e_2,\vc e_1)$ est rétrograde.
 
 Dans $\R^3$, on décide que la base canonique $(\vc e_1,\vc
e_2,\vc e_3)$ est directe; les bases $(\vc e_2,\vc e_3,\vc e_1)$
et 
$(\vc e_3,\vc e_1,\vc e_2)$ sont directes; les bases $(\vc
e_1,\vc e_3,\vc e_2)$, $(\vc e_2,\vc e_1,\vc e_3)$ et $(-\vc
e_1,\vc e_2,\vc e_3)$ sont rétrogrades (utilisez un calcul de
déterminant ou un petit coup de tire-bouchon, technique bien
connue de tous les amateurs de physique,\dots{} et de bon vin).



%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Déterminant d'un endomorphisme}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

 Soient $E$ un $\K$-espace vectoriel de dimension finie $n>0$ muni
d'une base $\mcal{B}=(\vc e_1,\ldots,\vc e_n)$ et
$u$ un endomorphisme de $E$. À  toute 
forme $n$-linéaire alternée $f$ sur $E$, on associe l'application
$\vphi_u(f)$ définie par :
\begin{equation}
 \vphi_u(f) : \nuple{\vc x}\in E^n\mapsto
  f\bigl(u(\vc x_1),\ldots,u(\vc x_n)\bigr)\in\K 
\end{equation}
 L'application
$\vphi_u(f)$ est une forme $n$-linéaire, car $u$ est
linéaire et $f$ est $n$-linéaire alternée. D'autre
part, l'application $\vphi_u : f\mapsto\vphi_u(f)$ est linéaire;
$\vphi_u$ est donc un endomorphisme de la droite vectorielle
$\Lambda_n^*(E)$, donc une homothétie, ce qui donne le

\begin{Lem}
 Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$ de
dimension finie $n$, il existe un unique scalaire $\lambda$ tel que
\begin{equation}\label{eq\DP DetEndo}
\qqs f\in\Lambda_n^*(E),\ \qqs\nuple{\vc x},\
f\bigl(u(\vc x_1),\ldots,u(\vc x_n)\bigr)=\lambda
f\nuple{\vc x}
\end{equation}
\end{Lem}

\begin{Df}[Déterminant d'un endomorphisme]\alaligne 

 Ce scalaire est appelé \emph{déterminant} de $u$ et noté $\det u$.
\end{Df}

\begin{Cor}[Expression du déterminant d'un endomorphisme]\alaligne

Si $\mcal{B}$ est une base (quelconque) de $E$, le déterminant de
$u$ se calcule par
\Reponse{$
\det u=\Det\bigl(u(\vc e_1),\ldots,u(\vc e_n)\bigr)
$} 
\end{Cor}

\begin{proof}
On utilise $f=\Det$ et $\nuple{\vc x}=\nuple{\vc e}=\mcal{B}$
dans la formule \eqref{eq\DP DetEndo}. 
\end{proof}
%--------------------------------------------------

\begin{NB}
 L'expression du déterminant dans la formule précédente, est indépendante de la 
base $\mcal{B}$ choisie.
\end{NB}

\begin{Th}[Propriétés du déterminant d'un endomorphisme]\alaligne
\label{th\DP PropDetEndo}

 Si $E$ est un $\K$-espace vectoriel de dimension $n$, on a
\begin{prop}
 \item $\det I_E=1$;
 \item $\qqs u\in\LE,\ \qqs\lambda\in\K,\
  \det(\la u)=\la^n\det(u)$;
 \item $\qqs(u,v)\in\LE^2,\ \det(u\circ v)=\det u\times\det v$.
\end{prop}
\end{Th}

\begin{proof}
 Utilisons l'expression du déterminant d'un endomorphisme relativement à une
base;
\begin{demprop}
 \monitem $\det(I_E)=\Det(\mcal{B})=1$;
 \monitem $\det (\la u)=
  \Det\bigl(\la u(\vc e_1),\ldots,\la u(\vc e_n)\bigr)=
  \la^n\det\bigl(u(\vc e_1),\ldots,u(\vc e_n)\bigr)=
  \la^n\det u$;
 \monitem la formule \eqref{eq\DP DetEndo} appliquée à $f=\Det$ et
$\nuple{\vc x}=\bigl(v(\vc e_1),\ldots,v(\vc e_n)\bigr)$ donne
$$
\det(u\circ v)=
 \Det\Bigl(u\bigl(v(\vc e_1)\bigr),\ldots,u\bigl(v(\vc e_n)\bigr)\Bigr)
=\det u\,\Det\bigl(v(\vc e_1),\ldots,v(\vc e_n)\bigr)=
 \det u\,\det v
$$
\end{demprop}
\end{proof}
%--------------------------------------------------

\begin{NB}
 En général, $\det(u+v)$ est différent de $\det u+\det v$.
Donnons un exemple : si $n\geq 2$,
$\det(I_E+I_E)=\det(2I_E)=2^n\neq\det I_E+\det I_E=2$.
\end{NB}


\begin{Th}[Caractérisation des automorphismes]\alaligne
\label{th\DP DetAuto}

 Soit $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$ de dimension
finie $n>0$; $u$ est inversible si, et seulement si, son
déterminant n'est pas nul, et, dans ce cas, $\det u^{-1}=(\det u)^{-1}$.
\Reponse{$
u\in\GLE\iff\det u\neq0\text{ et, dans ce cas, }\det (u^{-1})=(\det u)^{-1}
$}
\end{Th}

\begin{proof}

 Soit $\mcal{B}=\nuple{\vc e}$ une base de $E$; $u$ est inversible
si, et seulement si, $n=\rg u=\rg\bigl(u(\vc e_1),\ldots,u(\vc e_n)\bigr)$, \ie{}
si, et seulement si,
$u(\mcal{B})$ est une base de $E$, soit si, et seulement si,
$0\neq\Det u(\mcal{B})=\det u$.

 Si $u$ est inversible, $u^{-1}\circ u=I_E$; on obtient
$1=\det I_E=\det (u\circ u^{-1})=\det (u^{-1})\,\det u$, ce qui montre que
$\det u^{-1}=(\det u)^{-1}$.
\end{proof}
%--------------------------------------------------

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Déterminant d'une matrice carrée}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

 Considérons une matrice carrée $M$ d'ordre $n\geq 1$ à
coefficients dans $\K$; on note $a_{i,j}$ le terme général de cette matrice et
$C_1$,\dots,$C_n$ ses vecteurs colonnes; on écrira
indifféremment : $M=[a_{i,j}]=(C_1,\ldots,C_n)$.

 Appelons $\mcal{E}=\nuple{E}$ la base canonique de $\Mnp[n,1]{\K}$;
le scalaire $a_{i,j}$ s'interprète comme la composante du vecteur
colonne $C_j$ suivant $E_i$ relativement à la base canonique
$\mcal{C}$, ce qui donne~la

\begin{Df}[Déterminant d'une matrice carrée]\alaligne

 On appelle \emph{déterminant} de la matrice carrée
$M=[a_{i,j}]$, et l'on note $\det M$, le déterminant $\Det[E]\nuple{C}$ de la
famille de ses vecteurs colonnes dans la base canonique de $\Mnp[n,1]{\K}$.
\end{Df}

\begin{Th}[Déterminant de la transposée d'une matrice]\alaligne

 Si $M=[a_{i,j}]\in\MnK$, on a
$$
\det M=\det \trans M=\sum_{s\in\sym}\eps(s)\prod_{j=1}^n a_{s(j),j}
  =\sum_{s\in\sym}\eps(s)\prod_{i=1}^n a_{i,s(i)}
$$
\end{Th}

\begin{proof}
 Le vecteur colonne $C_j$ a pour coordonnées
$(a_{1,j},\ldots,a_{n,j})$ dans la base canonique de $\Mnp[n,1]{\K}$.
 En changeant $M$ en $\trans M$, on passe de l'une des expressions
du déterminant à l'autre.
\end{proof}
%--------------------------------------------------


%---------------------------------------------------------------------
\subsection{Propriétés}
%---------------------------------------------------------------------
\begin{Th}[Déterminant d'une matrice triangulaire]\alaligne

 Le déterminant d'une matrice triangulaire est le produit des
éléments de sa diagonale principale.
\end{Th}

\begin{proof}
 Si $M$ est une matrice triangulaire supérieure, on utilise
l'expression \eqref{eq\DP DetSysTri} du déterminant d'un système
triangulaire de vecteurs.

 Si $M$ est une matrice triangulaire inférieure, $\trans M$ est une
matrice triangulaire supérieure; l'égalité $\det M=\det \trans M$
donne le résultat.
\end{proof}
%--------------------------------------------------

\begin{Th}[Déterminant de la matrice d'un endomorphisme]\alaligne

 Si $u$ est un endomorphisme d'un $\K$-espace vectoriel $E$ de
dimension finie $n\geq1$, le déterminant de $u$ est le déterminant de
la matrice de $u$ dans une base quelconque de $E$.
\Reponse{
Pour toute base $\mcal{B}$ de $E$,\quad
$\det u=\det \bigl(\mat(u)\bigr)
$}
\end{Th}

\begin{proof}
 Soit $\mcal{B}=\nuple{\vc e}$ une base de $E$; les
composantes du vecteur colonne $C_j$ de $\mat(u)$ sont les
composantes de $u(\vc e_j)$ dans $\mcal{B}$, ce qui donne
l'égalité
$\det\bigl(u(\vc e_1),\ldots,u(\vc e_n)\bigr)
=\Det[E]\nuple{C}
=\det \bigl(\mat(u)\bigr)$.
\end{proof}
%--------------------------------------------------

\begin{Th}%\label{th\DP PropDetEndo}
Si $n$ est un entier positif, on a
\begin{prop}
 \item $\det I_n=1$;
 \item $\qqs M\in\MnK,\ \qqs\lambda\in\K,\
  \det(\lambda M)=\lambda^n\det(M)$;
 \item $\qqs(M,N)\in\MnK^2,\ \det(MN)=\det M\times\det N$;
 \item $M\in\GLnK\iff\det M\neq 0$ et, dans ce cas,
$\det(M^{-1})=(\det M)^{-1}$.
\end{prop}
\end{Th}

\begin{proof}
 C'est la traduction matricielles des théorèmes \ref{th\DP
PropDetEndo}{} et \ref{th\DP DetAuto}{} consacrés aux déterminants
d'endomorphismes.
\end{proof}
%--------------------------------------------------

\begin{Prop}[Déterminant de matrices semblables]\alaligne

Deux matrices semblables ont même déterminant.
\end{Prop}

\begin{proof}
 Si $A$ et $B$ sont semblables, il existe une matrice inversible
$P$ telle que $B=P^{-1}AP$ et donc
$\det (P^{-1}AP)=\det (P^{-1})\det A\det P=\det A$.
\end{proof}
%--------------------------------------------------

\begin{NBs}\alaligne

 Si $M$ et $N$ sont deux matrices carrées d'ordre $n\geq 2$,
$\det(M+N)$ est (presque) toujours différent de $\det M+\det N$.

 L'application $\det $ est une application continue sur l'espace
vectoriel 
normé $\MnK$, car application polynomiale en les composantes des
matrices. On en déduit que $\GLnK$ est une partie ouverte de
$\MnK$ comme image réciproque de la partie ouverte
$\K\setminus\{0\}$ par l'application continue $\det$.
\end{NBs}


%---------------------------------------------------------------------
\subsection{Règles de calcul du déterminant d'une matrice}
%---------------------------------------------------------------------

 Le déterminant d'une matrice carrée est une application
$n$-linéaire alternée des \emph{vecteurs colonnes}, et donc

\begin{itemize}
 \item si on échange deux colonnes d'une matrice, le déterminant
se change en son opposé;
 \item le déterminant d'une matrice dépend linéairement de
chacun de ses vecteurs colonnes;
 \item on ne change pas la valeur du déterminant d'une matrice
en ajoutant à l'un de ses vecteurs colonnes, une combinaison
linéaire des \emph{autres} vecteurs colonnes;
 \item le déterminant d'une matrice est nul si l'un des vecteurs
colonnes est nul, ou si l'un des vecteurs colonnes est combinaison
linéaire des autres vecteurs colonnes.
\end{itemize}

 Puisque le déterminant d'une matrice est égal au déterminant de
sa transposée, on peut remplacer \og vecteur colonne\fg{} par \og
vecteur ligne\fg{} dans les propriétés précédentes.

%---------------------------------------------------------------------
\subsection{Déterminant d'une matrice triangulaire par blocs}
%---------------------------------------------------------------------

 Soient $\mcal{C}=(\beps_1,\ldots,\beps_n)$ est la base canonique
de $\K^n$, $E'$ le sous-espace vectoriel de $\K^n$ de base
$\mcal{C}'=(\beps_2,\ldots,\beps_n)$ et $E''$ le sous-espace
vectoriel de $\K^n$ de base
$\mcal{C}''=(\beps_1,\ldots,\beps_{n-1})$. L'application
\begin{equation*}
 f : (\vc x_1,\ldots,\vc x_{n-1})\mapsto \Det[C](\beps_1,\vc
x_1,\ldots,\vc x_{n-1})
\end{equation*}
est une forme $(n-1)$-linéaire alternée sur $E'$; elle est donc
proportionnelle à $\Det[C']$, et comme $f(\mcal{C}')=
\Det[C](\beps_1,\beps_2,\ldots,\beps_n)=1$, on a l'égalité
\begin{equation*}
 \qqs(\vc x_1,\ldots,\vc x_{n-1})\in E',\
 \Det[C](\beps_1,\vc x_1,\ldots,\vc x_{n-1})=
 \Det[C'](\vc x_1,\ldots,\vc x_{n-1})
\end{equation*}
De même, en utilisant la $(n-1)$-forme linéaire alternée sur $E''$
$$
g : (\vc x_1,\ldots,\vc x_{n-1})\mapsto\Det[C](\vc x_1,\ldots,\vc
x_{n-1},\beps_n)
$$
on obtient
\begin{equation*}
 \qqs(\vc x_1,\ldots,\vc x_{n-1})\in E'',\
 \Det[C]\alaligne(\vc x_1,\ldots,\vc x_{n-1},\beps_n)=
 \Det[C''](\vc x_1,\ldots,\vc x_{n-1}) 
\end{equation*}

 Nous venons de démontrer le
\begin{Lem}
 Si $A\in\Mn[n-1]{\K}$, alors
$$
\begin{vmatrix}
1 & \vdots & 0_{1,n-1} \\ \hdotsfor[]{3} \\ 0_{n-1,1} & \vdots & A
\end{vmatrix}
=\det A =
\begin{vmatrix}
A & \vdots & 0_{n-1,1} \\ \hdotsfor[]{3} \\ 0_{1,n-1} & \vdots & 1
\end{vmatrix}
$$
\end{Lem}

\begin{Lem}
 Si $A\in\Mn[n-1]{\K}$ et $B\in\Mn[n-1]{\K}$, alors
$$
\begin{vmatrix}
1 & \vdots & B \\ \hdotsfor[]{3} \\ 0_{n-1,1} & \vdots & A
\end{vmatrix}
=\det A
=
\begin{vmatrix}
A & \vdots & 0_{1,n-1} \\ \hdotsfor[]{3} \\ \trans B & \vdots & 1
\end{vmatrix}
$$
\end{Lem}

\begin{proof}
On pose $B=(b_2,\dots,b_n)$; on effectue les transformations $C_j\leftarrow
C_j-b_j C_1$ pour $j=2..n$; ces transformations laissent le déterminant
invariant et donnent :
$$
\begin{vmatrix}
1 & \vdots & B \\ \hdotsfor[]{3} \\ 0_{n-1,1} & \vdots & A
\end{vmatrix}
=
\begin{vmatrix}
1 & \vdots & 0_{1,n-1} \\ \hdotsfor[]{3} \\ 0_{n-1,1} & \vdots & A
\end{vmatrix}
=\det A
$$

 De même, en effectuant les transformations $C_j\leftarrow C_j-b_j C_n$ pour
$j=1..n-1$, on obtient :
$$
\begin{vmatrix}
A & \vdots & 0_{n-1,1} \\ \hdotsfor[]{3} \\ \trans B & \vdots & 1
\end{vmatrix}
=
\begin{vmatrix}
A & \vdots & 0_{n-1,1} \\ \hdotsfor[]{3} \\ 0_{1,n-1} & \vdots & 1
\end{vmatrix}
=\det A
$$
\end{proof}
%--------------------------------------------------

 En utilisant ce lemme et une démonstration par récurrence, on
retrouve le

\begin{Th}[Déterminant d'une matrice triangulaire]\alaligne

Le déterminant d'une matrice triangulaire est le produit des
éléments de sa diagonale principale.
\end{Th}

\begin{Lem}[]\mbox{}
 Soient $A\in\mcal{M}_{p}(\K)$, $B\in\mcal{M}_{p,q}(\K)$ et
$C\in\mcal{M}_{q,p}(\K)$; alors
$$
\begin{vmatrix}
I_p & \vdots & B \\ \hdotsfor[]{3} \\ 0 & \vdots & A
\end{vmatrix}
=\det A=
\begin{vmatrix}
A & \vdots & 0 \\ \hdotsfor[]{3} \\ C & \vdots & I_q
\end{vmatrix}
$$
\end{Lem}

\begin{proof}
 La démonstration s'effectue par récurrence sur $p$ (ou sur $q$)
en utilisant le lemme précédent.
\end{proof}
%--------------------------------------------------

\begin{Th}[Déterminant d'une matrice triangulaire par blocs]\alaligne

 Si $A\in\Mn[p]{\K}$, $B\in\Mn[q]{\K}$ et
$C\in\Mnp[p,q]{\K}$, on a
$$
\begin{vmatrix}
A & \vdots & C \\ \hdotsfor[]{3} \\ 0 & \vdots & B
\end{vmatrix}
=\det A\times\det B
$$
\end{Th}

\begin{proof}
 On écrit la matrice dont on veut calculer le déterminant, comme
un produit de deux matrices du type précédent, en utilisant le
produit matriciel par blocs
$$
M=
\begin{pmatrix}
A & \vdots & C \\ \hdotsfor[]{3} \\ 0 & \vdots & B
\end{pmatrix}
=
\begin{pmatrix}
I_p & \vdots & 0 \\ \hdotsfor[]{3} \\ 0 & \vdots & B
\end{pmatrix}
\,
\begin{pmatrix}
A & \vdots & C \\ \hdotsfor[]{3} \\ 0 & \vdots & I_q
\end{pmatrix}
=NR
$$
Le lemme précédent et $\det M=\det N\det R$ donnent le résultat.
\end{proof}
%--------------------------------------------------


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Développement d'un déterminant suivant une rangée}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%----------------------------------------------------------------------
\subsection{Mise en place}
%----------------------------------------------------------------------

 Soient $M=[a_{i,j}]=\nuple{C}$ une matrice carrée d'ordre $n\geq 2$,
$\mcal{E}=\nuple{E}$ la base canonique de $\Mnp[n,1]{\K}$; pour
$j\in\Intf1n$, $C_j=\sum_{i=1}^n a_{i,j}E_i$. Le déterminant
de $M$ se développe suivant son $j$\fup{e} argument en
utilisant la linéarité et l'on a
$$
\det M=\Det[E](C_1,\ldots,\sum_{k=1}^n a_{k,j}E_k,\ldots,C_n)
=\sum_{k=1}^n a_{k,j}\Det[E](C_1,\ldots,E_k,\ldots,C_n)
 =\sum_{k=1}^n a_{k,j}A_{k,j}
$$
où les déterminants $A_{k,j}$ s'exprime par
$$
A_{k,j}
=
\begin{vmatrix}
 a_{1,1} & \cdots & a_{1,j-1} & 0 & a_{1,j+1} & \cdots & a_{1,n}  \\
 \hdotsfor[]{7}                           \\
 a_{k-1,1} & \cdots & a_{k-1,j-1} & 0 & a_{k-1,j+1} & \cdots & a_{k-1,n}  \\
 a_{k,1} & \cdots & a_{k,j-1} & 1 & a_{k,j+1} & \cdots & a_{k,n}  \\
 a_{k+1,1} & \cdots & a_{k+1,j-1} & 0 & a_{k+1,j+1} & \cdots & a_{k+1,n}  \\
 \hdotsfor[]{7}                           \\
 a_{n,1} & \cdots & a_{n,j-1} & 0 & a_{n,j+1} & \cdots & a_{n,n}  \\ 
\end{vmatrix}
$$
soit
\begin{align*}
A_{k,j}
& =(-1)^{j-1}
\begin{vmatrix}
 0 & a_{1,1} & \cdots & a_{1,j-1} & a_{1,j+1} & \cdots & a_{1,n}  \\
 \hdotsfor[]{7}                           \\
 0 & a_{k-1,1} & \cdots & a_{k-1,j-1} & a_{k-1,j+1} & \cdots & a_{k-1,n}  \\
 1 & a_{k,1} & \cdots & a_{k,j-1} & a_{k,j+1} & \cdots & a_{k,n}  \\
 0 & a_{k+1,1} & \cdots & a_{k+1,j-1} & a_{k+1,j+1} & \cdots & a_{k+1,n}  \\
 \hdotsfor[]{7}                           \\
 0 & a_{n,1} & \cdots & a_{n,j-1} & a_{n,j+1} & \cdots & a_{n,n}  \\ 
\end{vmatrix}\\
&\qquad\qquad\text{ en effectuant $(j-1)$ transpositions de colonnes}
\end{align*}
ce qui donne
\begin{align*}
A_{k,j}
& =(-1)^{(j-1)+(k-1)}
\begin{vmatrix}
 1 & a_{k,1} & \cdots & a_{k,j-1} & a_{k,j+1} & \cdots & a_{k,n}  \\
 0 & a_{1,1} & \cdots & a_{1,j-1} & a_{1,j+1} & \cdots & a_{1,n}  \\
 \hdotsfor[]{7}                           \\
 0 & a_{k-1,1} & \cdots & a_{k-1,j-1} & a_{k-1,j+1} & \cdots & a_{k-1,n}  \\
 0 & a_{k+1,1} & \cdots & a_{k+1,j-1} & a_{k+1,j+1} & \cdots & a_{k+1,n}  \\
 \hdotsfor[]{7}                           \\
 0 & a_{n,1} & \cdots & a_{n,j-1} & a_{n,j+1} & \cdots & a_{n,n}  \\ 
\end{vmatrix}\\
&\qquad\qquad\text{ en effectuant $(k-1)$ transpositions de lignes}
\\
& =(-1)^{j+k}
\begin{vmatrix}
 a_{1,1} & \cdots & a_{1,j-1} & a_{1,j+1} & \cdots & a_{1,n}  \\
 \hdotsfor[]{6}                           \\
 a_{k-1,1} & \cdots & a_{k-1,j-1} & a_{k-1,j+1} & \cdots & a_{k-1,n}  \\
 a_{k+1,1} & \cdots & a_{k+1,j-1} & a_{k+1,j+1} & \cdots & a_{k+1,n}  \\
 \hdotsfor[]{6}                           \\
 a_{n,1} & \cdots & a_{n,j-1} & a_{n,j+1} & \cdots & a_{n,n}  \\ 
\end{vmatrix}
=(-1)^{j+k}\det M_{k,j}
\end{align*}
Ainsi $A_{k,j}=(-1)^{k+j}\det M_{k,j}$$M_{k,j}$ est la matrice
déduite de $M$ par suppression de la $k$\fup{e}  ligne  et de la
$j$\fup{e} colonne.

\begin{Dfs}[Mineur, cofacteur]\alaligne

 Si $M=[a_{i,j}]$ est une $\K$-matrice carrée d'ordre $n\geq 2$, on appelle

\begin{itemize}
 \item \emph{mineur} relatif à l'élément $a_{i,j}$, le
déterminant de la matrice carrée $M_{i,j}$ d'ordre $(n-1)$ et
déduite de $M$ par la suppression de la $i$\fup{e} ligne et de
la $j$\fup{e} colonne;
 \item \emph{cofacteur} de $a_{i,j}$, le scalaire
$(-1)^{i+j}\det M_{i,j}$.
\end{itemize}
\end{Dfs}

\begin{Th}[Développement du déterminant suivant une rangée]\alaligne

 Si $M=[a_{i,j}]$ est une $\K$-matrice carrée d'ordre $n\geq 2$ et
$A_{i,j}$ le cofacteur de $a_{i,j}$, alors, pour tout $i$ et tout
$j$ dans $\Intf1n$, on a
\begin{itemize}
 \item $\dps\det M=\sum_{k=1}^n a_{k,j}A_{k,j}$, développement
 du déterminant suivant la $j$\fup{e} colonne;
 \item $\dps\det M=\sum_{k=1}^n a_{i,k}A_{i,k}$, développement
 du déterminant suivant la $i$\fup{e} ligne.
\end{itemize}
\end{Th}

\begin{proof}
La première formule a été démontrée. Pour la seconde, on utilise
l'égalité du déterminant de $M$ et de sa transposée, et le
développement de $\det\trans M$ par rapport à la $i$\fup{e} colonne
de $\trans M$, \ie{} la $i$\fup{e} ligne de $M$.
\end{proof}
%--------------------------------------------------


%---------------------------------------------------------------------
\subsection{Matrice des cofacteurs}
%---------------------------------------------------------------------

\begin{Df}[Matrice des cofacteurs]\alaligne

 Si $M=[a_{i,j}]$ est une $\K$-matrice carrée d'ordre $n\geq 2$, on
appelle \emph{matrice des cofacteurs} ou \emph{comatrice} de $M$, et
on note $\com M$, la matrice de terme général $A_{i,j}$, le
cofacteur relatif à $a_{i,j}$.
\Reponse{$
\com M=[A_{i,j}]=\bigl[(-1)^{i+j}\det M_{i,j}\bigr]
$}
\end{Df}

\begin{Th}[]\mbox{}
 Pour toute $\K$-matrice carrée $M$ d'ordre $n\geq 2$, on a
\Reponse{$
M\,\trans (\com M)=\trans (\com M)\,M=(\det M)I_n
$}
\end{Th}

\begin{proof}
 Si, dans $M$, on remplace la $j$\fup{e} colonne $(a_{k,j})_k$
par $(b_k)_k$, le déterminant de cette nouvelle
matrice s'écrit $\sum_{k=1}^n b_k A_{k,j}$ : c'est le
développement du déterminant par rapport à sa $j$\fup{e} colonne.

 Si la nouvelle colonne $(b_k)_{1\leq k\leq n}$ est la
$i$\fup{e} colonne de $M$, le déterminant est
nul si $i\neq j$, et vaut $\det M$ si $i=j$,
ce qui s'écrit
$$
\qqs(i,j)\in\Intf1n^2,\qquad \sum_{k=1}^n a_{k,i}A_{k,j}=\delta_{j,i}(\det M)
$$
ou encore, puisque $(\trans (\com M)\,M)_{j,i}=\sum_{k=1}^n A_{k,j}a_{k,i}$,
$$
\trans (\com M)\,M=(\det M)I_n
$$

 Par une méthode analogue, que je vous encourage à rédiger, on
montre que
$$
\qqs(i,j)\in\Intf1n^2,\qquad \sum_{k=1}^n a_{i,k}A_{j,k}=\delta_{i,j}(\det M)
$$
ce qui revient à écrire
$$
M\,\trans (\com M)=(\det M) I_n
$$
\end{proof}
%--------------------------------------------------

\begin{NB}
 $M\mapsto\com M$ est une application continue de $\MnK$dans $\MnK$, car les
composantes de $\com M$ sont polynomiales en les coefficients de $M$.
\end{NB}
%----------------------------------------------------------------------

\begin{Cor}[Inverse d'une matrice carrée]\alaligne

 Si $M$ est une matrice carrée inversible d'ordre $n\geq 2$, on a
\Reponse{$\dsp
M\in\GLnK\implique M^{-1}=\ra1{\det M}\trans(\com M)
$}
\end{Cor}
%----------------------------------------------------------------------

\begin{NBs}
 Exceptés les cas $n=2$ et $n=3$,
cette formule ne peut servir au calcul numérique de l'inverse
car elle comporte trop d'opérations.
$$
M=\begin{pmatrix} a&c\\b&d\end{pmatrix}\in\mcal{GL}_2(\K)
\implique M^{-1}=\ra1{ad-bc}\begin{pmatrix}d&-c\\-b&a\end{pmatrix}
$$

 Par contre, elle est utile dans des questions théoriques; par
exemple, $M\mapsto M^{-1}$ est une bijection continue de $\GLnK$
(c'est même une involution) car produit de deux applications continues.
\end{NBs}
%----------------------------------------------------------------------




%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Exemple de calcul de déterminant}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%



%---------------------------------------------------------------------
\subsection{Déterminant de Vandermonde}
%---------------------------------------------------------------------

 \noindent
 Soient $n>1$ et $\nuple a\in\K^n$; alors
\Reponse{$\dsp
V\nuple{a}=
\begin{vmatrix}
1 & a_1 & \cdots & a_1^{n-1} \\
1 & a_2 & \cdots & a_2^{n-1} \\
\hdotsfor[]{4}        \\
1 & a_n & \cdots & a_n^{n-1} 
\end{vmatrix}
=\prod_{1\leq i<j\leq n}(a_j-a_i)
$}

\begin{proof}
 S'il existe $i<j$ avec $a_i=a_j$, le déterminant possède deux
lignes identiques; il est donc nul et la formule est vérifiée. On
envisage maintenant le cas où les $a_i$ sont distincts deux à
deux et on effectue une démonstration par récurrence sur $n$.

  Pour $n=2$, $V(a_1,a_2)=a_2-a_1$.

  En développant  $P(x)=V(a_1,\ldots,a_n,x)$ par rapport à la
dernière ligne, on remarque que $P$ est un polynôme de degré $n$
et de coefficient dominant $V(a_1,\ldots,a_n)$; on remarque aussi
que $P(a_i)=0$ (si $x=a_i$, le déterminant possède deux lignes identiques) et
$P$ admet $n$ racines distinctes. Ainsi,
$$
P(X)=V(a_1,\ldots,a_n)\prod_{k=1}^n(X-a_k)
$$
d'où le résultat en remplaçant $X$ par $a_{n+1}$.

 Le passage du rang $n$ au rang $n+1$ se démontre aussi en
manipulant les colonnes de la façon suivante :
$$
C_{k+1}\leftarrow C_{k+1}-a_1C_k\quad
\text{ pour $k$ variant de $n$ à 1}
$$
On a donc
\begin{align*}
V
&(a_1,\dots,a_n,a_{n+1})=
\\
&
\begin{vmatrix}
1 & a_1 & \cdots & a_1^{n-1} & a_1^n \\
1 & a_2 & \cdots & a_2^{n-1} & a_2^n \\
\hdotsfor[]{5}            \\
1 & a_{n+1} & \cdots & a_{n+1}^{n-1} & a_{n+1}^n 
\end{vmatrix}
=
\begin{vmatrix}
1 & 0 & 0 & 0 & 0 \\
1 & a_2-a_1 & \cdots & a_2^{n-1}-a_1a_2^{n-2} & a_2^n-a_1a_2^{n-1} \\
\hdotsfor[]{5}        \\
1 & a_{n+1}-a_1 & \cdots & a_{n+1}^{n-1}-a_1a_{n+1}^{n-2} & a_{n+1}^n-a_1a_{n+1}^{n-1} 
\end{vmatrix}
=
\\
&
\prod_{k=2}^n(a_k-a_1)
\begin{vmatrix}
1 & 0 & 0 & 0 & 0 \\
1 & 1 & a_2 & \cdots & a_2^{n-1} \\
\hdotsfor[]{5}        \\
1 & 1 & a_{n+1} & \cdots & a_{n+1}^{n-1} 
\end{vmatrix}
=\prod_{k=2}^n(a_k-a_1)\, V(a_2,\ldots,a_{n+1})
=\prod_{1\leq i<j\leq n+1}(a_j-a_i)
\end{align*}
\end{proof}


%---------------------------------------------------------------------
\subsection{Déterminant circulant (droit)}
%---------------------------------------------------------------------

 Soient $n>1$ et $\nuple a\in\K^n$; alors
\Reponse{$\dsp
C\nuple{a}=
\begin{vmatrix}
a_1 & a_2 & \cdots & a_{n}  \\
a_n & a_1 & \cdots & a_{n-1} \\
\hdotsfor[]{4}        \\
a_2 & a_3 & \cdots & a_1 
\end{vmatrix}
=\prod_{k=1}^n\Bigl(\sum_{s=1}^n a_s \zeta^{k(s-1)}\Bigr)
\text{ où $\zeta=\exp(\ra{2i\pi}n)$}
$}



%---------------------------------------------------------------------
\subsection{Déterminant de Cauchy}
%---------------------------------------------------------------------


 Soient $n>1$, $\nuple{a}\in\K^n$ et $\nuple{b}\in\K^n$ tels que,
pour tout $i$ et $j$ de $\Intf1n$, on ait $a_i+b_j\neq0$; alors
\Reponse{$\dsp
\begin{vmatrix}
(a_1+b_1)^{-1} & (a_1+b_2)^{-1} & \cdots & (a_1+b_n)^{-1} \\
(a_1+b_1)^{-1} & (a_1+b_2)^{-1} & \cdots & (a_1+b_n)^{-1} \\
\hdotsfor[]{4}                        \\
(a_n+b_1)^{-1} & (a_n+b_2)^{-1} & \cdots & (a_n+b_n)^{-1} 
\end{vmatrix}
=\ra{\dsp\prod_{1\leq i<j\leq n}(a_j-a_i)(b_j-b_i)}
 {\dsp\prod_{(i,j)\in\Intf1n^2}(a_i+b_j)}
$}

\noindent
Application au déterminant de la matrice de Hilbert
$H_n=\bigl[(i+j)^{-1}\bigr]$
\Reponse{$\dsp
\det H_n=\ra{\bigl[1!\times 2!\times\cdots\times(n-1)!\bigr]^3 n!}
{(n+1)!\times(n+2)!\times\cdots\times(2n)!}
$}


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Résolution des systèmes linéaires}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


%---------------------------------------------------------------------
\subsection{Quelques notations}
%---------------------------------------------------------------------

 Soient $n$ et $p$ deux entiers au moins égaux à~1, et $\mcal{E}=\nuple{E}$ la
base canonique de $\Mnp[n,1]{\K}$. À toute matrice
$M=[a_{i,j}]=\puple{C}\in\MnpK$, on associe l'application linéaire $u$ de $\K^p$
vers $\K^n$ telle que :
$$
\Mat BC(u)=M
$$
Pour $j\in\Intf1p$, on note $\vc c_j=(a_{1,j},\dots,a_{n,j})=\trans C_j\in\K^n$, 
$\vc b=\nuple b=\trans B\in\K^n$ et $\vc x=\puple x=\trans X\in\K^p$ divers vecteurs.

 Tout système linéaire $(\mcal{L})$ de $n$ équations à $p$
inconnues peut s'écrire de manière

\begin{itemize}
 \item analytique :
$
\left\{
\begin{matrix}
a_{1,1}x_1+\cdots+a_{1,p}x_p & = & b_1 \\
a_{2,1}x_1+\cdots+a_{2,p}x_p & = & b_2 \\
\hdotsfor[]{3}             \\
a_{n,1}x_1+\cdots+a_{n,p}x_p & = & b_n 
\end{matrix}
\right.
$
 \item vectorielle : $\dsp\sum_{j=1}^px_j\vc c_j=\vc b$ ou encore
$\dsp\sum_{j=1}^p x_j C_j=B$
 \item matricielle : $MX=B$;
 \item fonctionnelle : $u(\vc x)=\vc b$.
\end{itemize}

 Les rangs de $M$, de $u$, de la famille de vecteurs $\puple{\vc
b}$ ou de la famille $\puple C$ sont égaux; cet entier est noté $r$ et appelé
\emph{rang du système linéaire}  $(\mcal{L})$.
 
%---------------------------------------------------------------------
\subsection{Cas des systèmes de Cramer}
%---------------------------------------------------------------------



\begin{Df}[Systèmes de Cramer]\alaligne

 Un système linéaire $(\mcal{L})$ de $n$ équations à $n$
inconnues est appelé \emph{système de
Cramer} si, et seulement si, l'une des conditions équivalentes
suivantes est vérifiée
\begin{prop}
 \item $n=p=r$;
 \item $M\in\GLnK$;
 \item $u$ est inversible.
\end{prop}
\end{Df}

\begin{Th}[Formules de Cramer]\alaligne

 Avec les notations précédentes, l'unique solution d'un système
de Cramer est donnée par
$$
\qqs j\in\Intf1n,\ x_j=\ra{\det M_j}{\det M}
$$$M_j$ est la matrice déduite de $M$ en remplaçant le vecteur
colonne $C_j$ par le second membre $B$.
\end{Th}

\begin{proof}
 $X=\trans\puple x$ est solution de $(\mcal{L})$ si, et seulement si,
$\sum_{j=1}^p x_j C_j=B$. On a donc
\begin{align*}
\det M_j
& = \det(C_1,\ldots,C_{j-1},B,
   C_{j+1},\ldots,C_n)                   \\
& = \det(C_1,\ldots,C_{j-1},\sum_{k=1}^p x_k C_k,
   C_{j+1},\ldots,C_n)                   \\
& = \sum_{k=1}^p x_k\det(C_1,\ldots,C_{j-1},C_k,
   C_{j+1},\ldots,C_n)
  \qquad\text{ ($\det$ est $n$-linéaire)}             \\
& = x_j\det(C_1,\ldots,C_{j-1},C_j,
   C_{j+1},\ldots,C_n)
  \qquad\qquad\text{ ($\det$ est alterné)}                \\
& = x_j \det M
\end{align*}
Puisque $\det M\neq0$, on a le résultat annoncé.
\end{proof}
%--------------------------------------------------

%---------------------------------------------------------------------
\subsection{Cas des systèmes homogènes}
%---------------------------------------------------------------------
 Un système linéaire est dit \emph{homogène} si le second membre
$\vc b$ est nul; il admet toujours au moins une solution : la
solution nulle.

 L'ensemble des solutions d'un système linéaire homogène est un
sous-espace vectoriel de $\K^p$ de dimension $p-r$, c'est $\ker
u$; il suffit d'en exhiber une base.

%--------------------------------------------------
\subsubsection{Cas particulier : $p=n+1$, $r=n$}
%--------------------------------------------------

 Les solutions d'un système linéaire homogène de $n$ équations à
$n+1$ inconnues et de rang maximum $n$ constituent une droite
vectorielle; il suffit donc d'exhiber une solution non nulle.

 Appelons $M_j$ la matrice carrée d'ordre $n$ déduite de $M$
par suppression de la $j$\fup{e} colonne et 
$\tilde M$ la matrice carrée d'ordre $n+1$ obtenue en
ajoutant à $M$ la ligne $(b_1,\ldots,b_{n+1})$;
$\det M_j$ est le mineur de $\tilde M$ relatif à $b_j$ et le
développement de $\tilde M$ suivant sa dernière ligne donne
$$
\det\tilde M=\sum_{j=1}^{n+1} b_j (-1)^{n+1+j}\det M_j
$$
Au lieu de compléter $M$ par la ligne $(b_j)_j$, complétons-la
par sa $i$\fup{e} ligne $(a_{i,j})_j$; dans ce cas,
$\tilde M$ possède deux lignes identiques et l'égalité précédente
devient
$$
\qqs i\in\Intf1n,\
0=\sum_{j=1}^{n+1} a_{i,j} (-1)^{n+1+j}\det M_j
 =(-1)^{n+1}\sum_{j=1}^{n+1} a_{i,j} (-1)^{j}\det M_j
$$
ce qui signifie que $\bigl((-1)^j \det M_j\bigr)_j$ est une
solution du système, solution non nulle puisque $M$ est de rang
$n$.Cette solution constitue donc une base de la droite vectorielle des
solutions. 

%--------------------------------------------------
\subsubsection{Intersection de deux plans de $\K^3$}
%--------------------------------------------------
 Considérons le système homogène
$$
(\mcal{H}) :
\left\{
\begin{matrix}
(\mcal{P}_1) : u_1x+v_1y+w_1z=0 \\
(\mcal{P}_2) : u_2x+v_2y+w_2z=0
\end{matrix}
\right.
$$
avec $(u_i,v_i,w_i)\neq\vc 0$ pour $i=1$ et $i=2$. On pose
\begin{gather*}
d_1=\begin{vmatrix}v_1&w_1\\v_2&w_2\end{vmatrix},\ 
d_2=\begin{vmatrix}w_1&u_1\\w_2&u_2\end{vmatrix}=
-\begin{vmatrix}u_1&w_1\\u_2&w_2\end{vmatrix},\ 
d_3=\begin{vmatrix}u_1&v_1\\u_2&v_2\end{vmatrix},\\ 
\Delta_1=\begin{vmatrix}u_1&v_1&w_1\\u_2&v_2&w_2\\u_1&v_1&w_1
 \end{vmatrix},\ 
\Delta_2=\begin{vmatrix}u_1&v_1&w_1\\u_2&v_2&w_2\\u_2&v_2&w_2\end{vmatrix}  
\end{gather*}
En développant $\Delta_1$ et $\Delta_2$ suivant leur dernière ligne, on trouve
$\Delta_1=0=u_1d_1+v_1d_2+w_1d_3$ et
$\Delta_2=0=u_2d_1+v_2d_2+w_2d_3$.

 

 Si les deux plans $(\mcal{P}_1)$ et $(\mcal{P}_2)$  sont 
identiques, alors $(d_1,d_2,d_3)=\vc 0$. Sinon, $(d_1,d_2,d_2)$
dirige la droite $\mcal{P}_1\cap\mcal{P}_2$. Dans $\R^3$ euclidien,
le vecteur $(d_1,d_2,d_3)$ s'interprète comme le produit
vectoriel des vecteurs $(u_1,v_1,w_1)$ et $(u_2,v_2,w_2)$ normaux
respectivement à $(\mcal{P}_1)$ et $(\mcal{P}_2)$.

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Déterminant et rang}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

 Le rang d'une matrice $M=[a_{i,j}]=\puple C=\trans\nuple L\in\MnpK$ est le
rang de ses vecteurs colonnes $(C_j)_{j\in\Intf1p}$ ou celui de ses
vecteurs lignes $(L_i)_{i\in\Intf1n}$ car le rang d'une
matrice est égal à celui de sa transposée; on a donc :
$$
\rg M\leq\inf(n,p)
$$

\begin{Df}[Matrice extraite]\alaligne

 Si $I$ est une partie non vide de $\Intf1n$ et $J$ une partie
non vide de $\Intf1p$, on appelle \emph{matrice extraite de $M$
associée} à $I$ et $J$, la matrice $R=[a_{i,j}]$$i\in I$ et
$j\in J$.
\end{Df}

\begin{Lem}[]
Le rang d'une matrice extraite de $M$ est inférieur ou égal au
rang de $M$.
\end{Lem}

\begin{proof}
 Soit $R$ une matrice extraite de $M$ associée à $I$ et $J$.
Considérons la matrice $Q$ extraite de $M$ et associée à
$\Intf1n$ et  $J$; les vecteurs colonnes $(C_j)_{j\in J}$ de $Q$
constituent une sous-famille des vecteurs colonnes de $M$, donc $\rg Q\leq
\rg M$.

 De même, les vecteurs lignes $(L_i)_{i\in I}$ de $R$
constituent une sous-famille des vecteurs lignes de $Q$, d'où
$\rg R\leq\rg Q$, et le résultat.
\end{proof}
%--------------------------------------------------

\begin{Th}[Caractérisation du rang d'une matrice]\alaligne

 Le rang d'une matrice non nulle est l'ordre maximal des
matrices carrés inversibles extraites.
\end{Th}

\begin{proof}Soit $M\in\MnpK$ une matrice non nulle.

 L'ensemble des ordres des matrices carrées inversibles extraites
de $M$ n'est pas vide (il contient 1 puisque $M$ n'est pas la
matrice nulle), et est majoré par $\rg M$ d'après le lemme. On
note $r$ son plus grand élément; on a donc $1\leq r \leq\rg M$.

 De la famille $\puple{C}$ des vecteurs colonnes de $M$, on
peut extraire une sous-famille libre $(C_j)_{j\in J}$ de cardinal
$\rg M$; on note $Q$ la matrice extraite de $M$ associée à
$\Intf1n$ et $J$, et $rg M=\rg Q$.
 Des vecteurs lignes $\nuple{L}$ de $Q$, on
peut encore extraire une sous-famille libre $(L_i)_{i\in I}$
de cardinal $\rg Q$; on note $R$ la matrice extraite de $M$ et
associée à $I$ et $J$ et $\rg R=\rg Q$.

 $R$ est une matrice carrée de rang maximum
($\# I=\# J=\rg R=\rg Q=\rg M$), donc une matrice inversible.
 En conséquence, $r\geq \rg M$.

 Finalement $r$ est égal au rang de $M$.
\end{proof}
%--------------------------------------------------

\begin{Cor}[Caractérisation des familles libres]\alaligne

 Si $\mcal{F}=\puple{\vc c}$ est une famille de $p$ vecteurs
d'un $\K$-espace vectoriel $E$ de dimension finie~$n$, si
$M=\mat(\mcal{F})\in\MnpK$ est la matrice des composantes de
$\mcal{F}$ relatives à une base $\mcal{B}$ de~$E$, $\mcal{F}$ est une
famille libre si, et seulement si, il existe une matrice carrée
d'ordre $p$, extraite de~$M$ et de déterminant non~nul.
\end{Cor}