Eclats de vers : Matemat 06 : Vecteurs - 7

Index des Grimoires

Retour à l’accueil

Table des matières

\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)

1 Systèmes linéaires et inverses

1.1 Gauss-Jordan

Nous allons tenter de diagonaliser une matrice \(A \in \matrice(\corps,m,n)\) en une matrice diagonale aussi proche que possible de la matrice identité. Soit les \(\canonique_i\), vecteurs de la base canonique de \(\corps^m\) ou \(\corps^n\) suivant le contexte. Si \(A\) est non nulle, on peut trouver un \(i\) et un \(j\) tels que :

\[a = \composante_{ij} A \ne 0\]

On considère les matrices élémentaires de permutation \(P_0 = \matpermutation_{n,i,1}\) et \(Q_0 = \matpermutation_{n,j,1}\), et on évalue \(P_0 \cdot A \cdot Q_0\) pour inverser les lignes \(1\) et \(i\) et les colonnes \(1\) et \(j\) de \(A\). On se retrouve alors avec une matrice de la forme :

\[Q_0 \cdot A \cdot P_0 = [x \ c_2 \ ... \ c_n ]\]

où \(x\) est la première colonne et où \(x^\dual \cdot \canonique_1 = a \ne 0\). On utilise ensuite une première matrice élémentaire :

\[E_0 = I + \unsur{x^\dual \cdot x} \cdot (\canonique_1 - x) \cdot x^\dual\]

pour transformer la première colonne \(x\) en \(y = \canonique_1\). Partitionnant à part la première ligne et la première colonne du résultat, on a :

\( E0 ⋅ P0 ⋅ A ⋅ Q0 =

\begin{Matrix}{cc} 1 & z^\dual \\ 0 & \ddots \end{Matrix}

\)

Posons \(u^\dual = [1 \ z^\dual]\) pour la première ligne. On a \(\canonique_1^\dual \cdot u = 1 \ne 0\). On utilise une seconde matrice élémentaire :

\[F_0 = I + \unsur{u^\dual \cdot u} \cdot u \cdot (\canonique_1 - u)^\dual\]

pour transformer la première ligne \(u^\dual\) en \(v^\dual = \canonique_1^\dual\). Mais comme \((\canonique_1 - u)^\dual = [0 \ -z^\dual]\), on a :

\( u ⋅ (\canonique1 - u)^\dual =

\begin{Matrix}{c} 1 \\ z \end{Matrix}

\begin{Matrix}{cc} 0 & -z^\dual \end{Matrix}

=

\begin{Matrix}{cc} 0 & -z^\dual \\ 0 & -z \cdot z^\dual \end{Matrix}

\)

On voit aussi que \(u^\dual \cdot u = 1 + z^\dual \cdot z\). La matrice élémentaire \(F_0\) est donc de la forme :

\( F0 = I + \unsur{1 + z^\dual \cdot z} ⋅

\begin{Matrix}{cc} 0 & -z^\dual \\ 0 & -z \cdot z^\dual \end{Matrix}

\)

On obtient alors une matrice modifiée de la forme :

\( E0 ⋅ P0 ⋅ A ⋅ Q0 ⋅ F0 =

\begin{Matrix}{cc} 1 & z^\dual \\ 0 & \ddots \end{Matrix}
  • \unsur{1 + z^\dual \cdot z} ⋅
\begin{Matrix}{cc} 1 & z^\dual \\ 0 & \ddots \end{Matrix}

\begin{Matrix}{cc} 0 & -z^\dual \\ 0 & -z \cdot z^\dual \end{Matrix}

\)

et finalement :

\( E0 ⋅ P0 ⋅ A ⋅ Q0 ⋅ F0 =

\begin{Matrix}{cc} 1 & 0 \\ 0 & A^{(n - 1)} \end{Matrix}

\)

Recommençons le même procédé pour transformer, au moyen des matrices de permutation \(P^{(n-1)},Q^{(n-1)}\) et élémentaires \(E^{(n-1)},F^{(n-1)}\), la première colonne et la première ligne de \(A^{(n - 1)}\) en \(e_1\) et \(e_1^\dual\). Si on pose :

\( P1 =

\begin{Matrix}{cc} 1 & 0 \\ 0 & P^{(n - 1)} \end{Matrix}

=

\begin{Matrix}{cc} I_1 & 0 \\ 0 & P^{(n - 1)} \end{Matrix} \\ Q_1 = \begin{Matrix}{cc} 1 & 0 \\ 0 & Q^{(n - 1)} \end{Matrix}

=

\begin{Matrix}{cc} I_1 & 0 \\ 0 & Q^{(n - 1)} \end{Matrix} \\ E_1 = \begin{Matrix}{cc} 1 & 0 \\ 0 & E^{(n - 1)} \end{Matrix}

=

\begin{Matrix}{cc} I_1 & 0 \\ 0 & E^{(n - 1)} \end{Matrix} \\ F_1 = \begin{Matrix}{cc} 1 & 0 \\ 0 & F^{(n - 1)} \end{Matrix}

=

\begin{Matrix}{cc} I_1 & 0 \\ 0 & F^{(n - 1)} \end{Matrix}

\)

il vient :

\( E1 ⋅ P1 ⋅ E0 ⋅ P0 ⋅ A ⋅ Q0 ⋅ F0 ⋅ Q1 ⋅ F1 =

\begin{Matrix}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & A^{(n - 2)} \end{Matrix}

\)

Soit \(p = \min\{m, n\}\). On peut répéter le même processus \(r\) fois en utilisant à l'étape \(k\) :

\( Pk =

\begin{Matrix}{cc} I_k & 0 \\ 0 & P^{(n - k)} \end{Matrix} \\ Q_k = \begin{Matrix}{cc} I_k & 0 \\ 0 & Q^{(n - k)} \end{Matrix} \\ E_k = \begin{Matrix}{cc} I_k & 0 \\ 0 & E^{(n - k)} \end{Matrix} \\ F_k = \begin{Matrix}{cc} I_k & 0 \\ 0 & F^{(n - k)} \end{Matrix}

\)

jusqu'à ce que la matrice \(A^{(n - r)}\) soit nulle, ou jusqu'à ce qu'on ait atteint \(r = p\). Posons :

\begin{align} E &= E_r \cdot P_r \cdot ... \cdot E_0 \cdot P_0 \\ F &= Q_0 \cdot F_0 \cdot ... \cdot Q_r \cdot F_r \end{align}

On a alors schématiquement :

\[E \cdot A \cdot F = C\]

où :

\( C ∈ \left\{ Ip ,

\begin{Matrix}{c} I_n \\ 0 \end{Matrix} , \begin{Matrix}{cc} I_m & 0 \end{Matrix} , \begin{Matrix}{cc} I_r & 0 \\ 0 & 0 \end{Matrix}

\right\} \)

suivant que \(r = p = m = n\), \(r = p = n\), \(r = p = m\) ou \(r \strictinferieur p\).

1.1.1 Inverse

Les matrices élémentaires de permutation sont inversibles, d'inverse identique à elles-mêmes. On a donc \(P_i^{-1} = P_i\) et \(Q_i^{-1} = Q_i\). Les matrices élémentaires de transformation sont également inversibles. En effet, \(x^\dual \cdot y = x^\dual \cdot \canonique_1 = a \ne 0\). L'inverse de \(E_0\) existe donc et s'écrit :

\[E_0^{-1} = I - \unsur{a} \cdot (\canonique_1 - x) \cdot x^\dual\]

D'un autre coté \(v^\dual \cdot u = \canonique_1^\dual \cdot u = 1 \ne 0\). L'inverse de \(F_0\) existe aussi et s'écrit :

\[F_0^{-1} = I - u \cdot (\canonique_1 - u)^\dual\]

Comme on procède de même à chaque étape, l'inverse de chaque matrice élémentaire existe. En appliquant la formule d'inversion d'un produit, on obtient :

\begin{align} E^{-1} &= P_0 \cdot E_0^{-1} \cdot ... \cdot P_r \cdot E_r^{-1} \\ F^{-1} &= F_r^{-1} \cdot Q_r \cdot ... \cdot F_0^{-1} \cdot Q_0 \end{align}

Posons \(L = E^{-1}\) et \(R = F^{-1}\). En multipliant l'équation \(E \cdot A \cdot F = C\) à gauche par \(L\) et à droite par \(R\), on obtient :

\[A = L \cdot C \cdot R\]

Une telle décomposition est appelée décomposition de Gauss-Jordan et notée :

\[(L,C,R) = \gaussjordan(A)\]

1.1.2 Rang

Le \(r\) ainsi obtenu est appelé rang de la matrice \(A\). On le note :

\[r = \rang A\]

On a par construction \(r \le p\).

1.2 Systèmes linéaires

Nous allons à présent utiliser la décomposition de Gauss-Jordan pour analyser les espaces de solutions :

\[S(y) = \{ x \in \corps^n : A \cdot x = y \}\]

pour tout \(y \in \corps^m\). On a :

\[A \cdot x = L \cdot C \cdot R \cdot x = y\]

Multiplions cette équation par \(L^{-1}\). Il vient :

\[C \cdot R \cdot x = L^{-1} \cdot y\]

On pose :

\( z = R \cdot x \\ b = L^{-1} \cdot y \)

Le système linéaire s'écrit alors :

\[C \cdot z = b\]

1.2.1 Plein rang, matrice carrée

Si \(r = m = n\), on a :

\[A = L \cdot I \cdot R = L \cdot R\]

La matrice \(A\) est un produit de matrices inversibles. Elle est donc inversible et :

\[A^{-1} = R^{-1} \cdot L^{-1}\]

L'équation \(A \cdot x = y\) admet donc pour unique solution \(x \in S(y)\) le vecteur :

\[x = A^{-1} \cdot y = R^{-1} \cdot L^{-1} \cdot y\]

1.2.2 Plein rang, matrice haute

Si \(r = n \strictinferieur m\), on a :

\( C =

\begin{Matrix}{c} I_n \\ 0 \end{Matrix}

\)

Si on partitionne \(b = L^{-1} \cdot y\) en deux vecteurs \(b_1,b_2\) de tailles \((n,1)\) et \((m - n, 1)\), on a :

\(

\begin{Matrix}{c} I_n \\ 0 \end{Matrix}

⋅ z =

\begin{Matrix}{c} z \\ 0 \end{Matrix}

=

\begin{Matrix}{c} b_1 \\ b_2 \end{Matrix}

\)

Il y a donc deux conditions pour que \(x = R^{-1} \cdot z\) soit dans \(S(y)\) :

\( z = b_1 \\ 0 = b_2 \)

Si \(b_2 \ne 0\), il n'existe pas de solution. Si \(b_2 = 0\), il existe une unique solution \(x \in S(y)\), qui s'écrit :

\[x = R^{-1} \cdot z = R^{-1} \cdot b_1\]

Remarquons que l'on peut toujours trouver un \(y\) tel qu'il existe au moins une solution. En effet, il suffit de choisir :

\( y = L ⋅

\begin{Matrix}{c} b_1 \\ 0 \end{Matrix}

\)

D'un autre coté, il existe toujours un \(y\) tel qu'il n'existe pas de solution. En effet, il suffit de choisir :

\( y = L ⋅

\begin{Matrix}{c} b_1 \\ b_2 \end{Matrix}

\)

où \(b_2 \ne 0\).

1.2.3 Plein rang, matrice longue

Si \(r = m \strictinferieur n\), on se retrouve alors avec :

\( C =

\begin{Matrix}{cc} I_m & 0 \end{Matrix}

\)

Si on partitionne \(z\) en deux vecteurs \(z_1,z_2\) de tailles \((m,1)\) et \((n - m,1)\), on a :

\( C ⋅ z =

\begin{Matrix}{cc} I_m & 0 \end{Matrix}

\begin{Matrix}{c} z_1 \\ z_2 \end{Matrix}

= Im ⋅ z1 + 0 ⋅ z2 = z1 \)

La condition pour que \(x = R^{-1} \cdot z\) soit dans \(S(y)\) se résume à :

\[z_1 = b = L^{-1} \cdot y\]

Nous n'avons par contre aucune condition sur \(z_2 \in \matrice(\corps, n - m)\). Il y a donc une infinité de solutions \(x \in S(y)\), de la forme :

\( x =R-1 ⋅ z = R-1

\begin{Matrix}{c} L^{-1} \cdot y \\ z_2 \end{Matrix}

\)

1.2.4 Rang incomplet

Supposons que \(r \strictinferieur p\). On partitionne alors \(z\) en deux vecteurs \(z_1\) et \(z_2\) de tailles \((r,1)\) et \((n - r, 1)\) et \(b\) en deux vecteurs \(b_1\) et \(b_2\) de tailles \((r,1)\) et \((m - r,1)\). Avec ces notations, le produit \(C \cdot z\) s'écrit :

\( C ⋅ z =

\begin{Matrix}{cc} I_r & 0 \\ 0 & 0 \end{Matrix}

\begin{Matrix}{c} z_1 \\ z_2 \end{Matrix}

=

\begin{Matrix}{c} z_1 \\ 0 \end{Matrix}

\)

L'équation \(C \cdot z = b\) prend donc la forme :

\(

\begin{Matrix}{c} z_1 \\ 0 \end{Matrix}

=

\begin{Matrix}{c} b_1 \\ b_2 \end{Matrix}

\)

Les deux conditions pour que \(x = R^{-1} \cdot z\) soit dans \(S(y)\) sont donc que \(z_1 = b_1\) et que \(b_2 = 0\). Il n'y a aucune condition sur \(z_2\). Si \(b_2 \ne 0\) il n'y a pas de solution. Si \(b_2 = 0\), il existe une infinité de solutions \(x \in S(y)\) de la forme :

\( x = R-1

\begin{Matrix}{c} b_1 \\ z_2 \end{Matrix}

\)

Remarquons que l'on peut toujours trouver un \(y\) tel qu'il existe au moins une solution. En effet, il suffit de choisir :

\( y = L ⋅

\begin{Matrix}{c} b_1 \\ 0 \end{Matrix}

\)

Un choix particulier est par exemple \(y = b = 0\).

D'un autre coté, il existe toujours un \(y\) tel qu'il n'existe pas de solution. En effet, il suffit de choisir :

\( y = L ⋅

\begin{Matrix}{c} b_1 \\ b_2 \end{Matrix}

\)

où \(b_2 \ne 0\).

1.2.5 Rang et existence

On conclut de ce qui précède que si \(r \strictinferieur m\) ou \(r \strictinferieur p\), on peut toujours trouver un \(y\) tel qu'il n'existe pas de solution. Pour qu'il existe au moins une solution du système quel que soit \(y\), il faut donc avoir \(r = m = p\).

1.2.6 Rang et unicité

On conclut de ce qui précède que si \(r \strictinferieur n\) ou \(r \strictinferieur p\), on peut toujours trouver un \(y\) tel qu'il existe une infinité de solution, et même une infinité de solutions non nulles puisque \(z_2 \ne 0\) peut être quelconque.

Pour qu'il existe au maximum une solution du système quel que soit \(y\), il faut donc avoir \(r = n = p\).

1.3 Matrices hautes

Soit une matrice \(A \in \matrice(\corps,m,n)\) strictement haute (\(m \strictsuperieur n\)). Un inverse à droite \(R\) vérifiant \(A \cdot B = I\) ne peut pas exister, car sinon il suffirait de prendre \(x = B \cdot y\) pour avoir :

\[A \cdot x = A \cdot B \cdot y = I \cdot y = y\]

Le système \(A \cdot x = y\) admettrait toujours au moins une solution, ce qui contredit les résultats précédents.

1.4 Matrices longues

Soit une matrice \(A \in \matrice(\corps,m,n)\) strictement longue (\(n \strictsuperieur m\)). Un inverse à gauche \(B\) vérifiant \(B \cdot A = I\) ne peut pas exister, car sinon on aurait :

\[(B \cdot A)^\dual = A^\dual \cdot B^\dual = I^\dual = I\]

La matrice \(B^\dual\) serait donc un inverse à droite de la matrice \(A^\dual\). Or, \(A^\dual\) est de taille \((n,m)\), donc strictement haute, et ne peut pas admettre d'inverse à droite. On en conclut qu'une matrice strictement longue ne peut pas admettre d'inverse à gauche.

1.5 Matrices carrées

Supposons que \(m = n\) et considérons deux matrices carrées \(A,B \in \matrice(\corps,n,n)\) telles que :

\[A \cdot B = I\]

Il existe au moins une solution du système \(A \cdot x = y\) quel que soit \(y\), car il suffit de prendre \(x = B \cdot y\) pour avoir \(A \cdot x = A \cdot B \cdot y = y\). On a donc forcément \(r = m \le n\). Mais comme \(m = n\), cette solution est unique. On en déduit que l'application linéaire associée à \(A\) est inversible, donc \(A\) aussi et :

\[A \cdot (B - A^{-1}) = I - I = 0\]

En multipliant à gauche par \(A^{-1}\), il vient simplement \(B - A^{-1} = 0\), c'est-à-dire \(B = A^{-1}\). On a donc également :

\[B \cdot A = A^{-1} \cdot A = I\]

1.6 Complément de Schur

Soit le système suivant :

\(

\begin{Matrix}{cc} A & B \\ C & D \end{Matrix}

\begin{Matrix}{c} x & y \end{Matrix}

=

\begin{Matrix}{c} F \\ G \end{Matrix}

\)

où \(A,B,C,D,F,G\) et \(x,y\) sont respectivement des matrices et des vecteurs matriciels de tailles compatibles. On a :

\( A \cdot x + B \cdot y = F \\ C \cdot x + D \cdot y = G \)

Si \(A\) est carrée et inversible, la première relation nous permet d'éliminer \(x\) :

\[x = A^{-1} \cdot F - A^{-1} \cdot B \cdot y\]

On substitue alors dans la seconde relation, et on obtient :

\[C \cdot A^{-1} \cdot F - C \cdot A^{-1} \cdot B \cdot y + D \cdot y = G\]

En plaçant \(y\) en évidence, on obtient :

\[(D - C \cdot A^{-1} \cdot B) \cdot y = G - C \cdot A^{-1} \cdot F\]

Sous réserve d'inversibilité, il ne nous reste alors plus qu'à résoudre par rapport à \(y\) :

\[y = (D - C \cdot A^{-1} \cdot B)^{-1} \cdot (G - C \cdot A^{-1} \cdot F)\]

qui nous donne ensuite :

\[x = A^{-1} \cdot [ F - B \cdot (D - C \cdot A^{-1} \cdot B)^{-1} \cdot (G - C \cdot A^{-1} \cdot F) ]\]

Si \(A\) est facilement inversible, et si \(D - C \cdot A^{-1} \cdot B\) est de taille réduite comparativement à la taille de \(A\), il peut être avantageux de résoudre le système global en \((x,y)\) de cette façon.

1.7 Dimension

Soit un espace vectoriel \(E\) sur \(\corps\) possédant deux bases \((e_1,e_2,...,e_n)\) et \((f_1,f_2,...,f_m)\). Comme les \(f_i \in E\), on a :

\[f_i = \sum_{k = 1}^n a_{ik} \cdot e_k\]

pour certains \(a_{ij} \in \corps\). Comme les \(e_k \in E\), on a également :

\[e_k = \sum_{j = 1}^m b_{kj} \cdot f_j\]

pour certains \(b_{kj} \in \corps\). On en conclut que :

\[f_i = \sum_{j = 1}^m \sum_{k = 1}^n a_{ik} \cdot b_{kj} \cdot f_j\]

Par indépendance linéaire des \(f_i\), on doit donc avoir :

\[\sum_{k = 1}^m a_{ik} \cdot b_{kj} = \indicatrice_{ij}\]

Si nous introduisons les matrices \(A \in \matrice(\corps,m,n)\) et \(B \in \matrice(\corps,n,m)\) de composantes \(a_{ij}\) et \(b_{ij}\) respectivement, on a donc \(A \cdot B = I_m\). La matrice \(A\) admettant un inverse à droite, elle ne peut pas être strictement haute et on a \(m \le n\). Mais on a aussi :

\[e_k = \sum_{k = 1}^n \sum_{j = 1}^m b_{kj} \cdot a_{ji} \cdot e_i\]

d'où l'on conclut que \(B \cdot A = I_n\). La matrice \(A\) admettant un inverse à gauche, elle ne peut pas être strictement longue et on a également \(n \le m\). On conclut de ces deux inégalités que \(m = n\). Si on possède une base de \(E\) comptant \(n\) vecteurs, on peut-être sûr que toute autre base de \(E\) comptera également \(n\) vecteurs. On dit que \(m = n\) est la dimension de \(E\) et on le note :

\[\dim E = n\]

1.7.1 Corollaire

La base canonique de \(\corps^n\) comptant \(n\) éléments, on en déduit que \(\corps^n\) est de dimension \(n\).

1.8 Indépendance linéaire

Soit un espace vectoriel \(E\) de dimension \(m\) et une suite de vecteurs linéairement indépendants \((u_1,...,u_n)\) de \(E\). Si \((e_1,...,e_m)\) est une base de \(E\), on peut trouver des coordonnées \(a_{ki} \in \corps\) telles que :

\[u_i = \sum_{k = 1}^m a_{ki} \cdot e_k\]

Pour tout \(w \in E\), on sait aussi que l'on peut trouver des coordonnées \(y_k \in \corps\) telles que :

\[w = \sum_{k = 1}^m y_k \cdot e_k\]

Nous allons à présent examiner si on peut également trouver des coordonnées \(x_i \in \corps\) de \(w\) par rapport aux \(u_i\) :

\[w = \sum_{i = 1}^n x_i \cdot u_i\]

Si cette hypothèse est vérifiée, on doit avoir :

\[\sum_{k = 1}^m y_k \cdot e_k = w = \sum_{k = 1}^m \sum_{i = 1}^n a_{ki} \cdot x_i \cdot e_k\]

L'indépendance linéaire des \(e_k\) implique alors que :

\[y_k = \sum_{i = 1}^n a_{ki} \cdot x_i\]

Utilisant les vecteurs matriciels associés \(x = [x_1 \ ... \ x_n]^\dual\) et \(y = [y_1 \ ... \ y_m]^\dual\) ainsi que la matrice \(A = (a_{ki})_{k,i}\) de taille \((m,n)\), on se retrouve avec le système :

\[y = A \cdot x\]

Soit \(r\) le rang de \(A\). On sait déjà que \(r \le \min \{m,n\}\). Examinons les différents cas :

  • Si on avait \(r \strictinferieur n\), on pourrait trouver un \(y\) tel qu'il existe une infinité de solution en \(x\), ce qui contredit l'unicité des coordonnées de \(w\) par rapport à la suite de vecteurs linéairement indépendant \((u_1,...,u_n)\). On doit donc avoir \(r = n \le m\).
  • Dans le cas où \(r = n \strictinferieur m\), on peut trouver un \(y\) tel que la solution n'existe pas : la suite de \(u_i\) ne forme donc pas une base de \(E\).
  • Dans le cas où \(r = n = m\), il existe toujours une unique solution, la suite des \(u_i\) forme alors une base de \(E\). Il suffit donc de trouver une suite de \(m\) vecteurs indépendants dans un espace de dimension \(m\) pour former une base de cet espace.

Auteur: chimay

Created: 2019-10-01 mar 12:33

Validate