Eclats de vers : Matemat 06 : Vecteurs - 3

Index des Grimoires

Retour à l’accueil

Table des matières

\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)

1 Applications linéaires

1.1 Dépendances

  • Chapitre \ref{chap:fonction} : Les fonctions

1.2 Définition

Soit les espaces vectoriels \(E\) et \(F\) sur \(\corps\) et la fonction \(f : E \mapsto F\). On dit que \(f\) est linéaire si, pour tout \(x,y \in E\) et \(\alpha, \beta \in \corps\), on a :

\[f(\alpha \cdot x + \beta \cdot y) = \alpha \cdot f(x) + \beta \cdot f(y)\]

On note \(\lineaire(E,F)\) l'ensemble des fonctions linéaires de \(E\) vers \(F\).

1.3 Identité

L'application identité est clairement linéaire.

1.4 Inverse

Soit \(u = f(x)\) et \(v = f(y)\). Si l'application inverse existe, on a \(x = f^{-1}(u)\) et \(y = f^{-1}(v)\). En composant à gauche par \(f^{-1}\) la définition de la linéarité, on obtient :

\[\alpha \cdot f^{-1}(u) + \beta \cdot f^{-1}(v) = f^{-1}(\alpha \cdot u + \beta \cdot v)\]

ce qui montre que l'inverse est également linéaire.

1.5 Valeur au vecteur nul

Choisissons un \(x \in E\). on voit que :

\[f(0) = f(0 \cdot x) = 0 \cdot f(x) = 0\]

La valeur d'une application linéaire s'annule au vecteur nul.

1.6 Norme des applications linéaires

La norme d'une application linéaire est définie comme étant l'extension maximale qu'elle produit :

\[\norme{f} = \sup \left\{ \frac{ \norme{f(x)} }{ \norme{x} } : x \in E, \ x \ne 0 \right\}\]

On a donc :

\[\norme{f(x)} \le \norme{f} \cdot \norme{x}\]

pour tout \(x \in E \setminus \{ 0 \}\).

1.6.1 Vérification

Nous allons vérifier qu'il s'agit bien d'une norme. On a \(\norme{f} \ge 0\) par positivité de la norme sur \(E\) et \(F\). La condition \(\norme{f} = 0\) implique \(\norme{f(x)} = 0\) et donc \(f(x) = 0\) pour tout \(x \ne 0\). Comme \(f\) est linéaire, on a aussi \(f(0) = 0\) et \(f = 0\).

Si \(f,g\) sont linéaires, on a :

\[\norme{f(x) + g(x)} \le \norme{f(x)} + \norme{g(x)} \le \norme{f} \cdot \norme{x} + \norme{g} \cdot \norme{x} = (\norme{f} + \norme{g}) \cdot \norme{x}\]

pour tout \(x \ne 0\). En divisant par \(\norme{x}\) et en passant au supremum, on obtient :

\[\norme{f + g} \le \norme{f} + \norme{g}\]

Enfin, si \(\alpha \in \corps\), on a :

\[\frac{ \norme{\alpha \cdot f(x)} }{ \norme{x} } = \abs{\alpha} \cdot \frac{ \norme{f(x)} }{ \norme{x} }\]

En passant au supremum, on obtient :

\[\norme{\alpha \cdot f} = \abs{\alpha} \cdot \norme{f}\]

1.6.2 Notation

Lorsqu'il est nécessaire de différentier la norme au sens des applications linéaires d'autres types de normes utilisées, on note :

\[\norme{f}_\lineaire = \norme{f}\]

1.6.3 Définition alternative

Soit \(N \in \corps\), avec \(N \strictsuperieur 0\) et :

\[B = \{ u \in E : \norme{u} = N \}\]

Soit \(x \in E\) avec \(x \ne 0\) et :

\[\lambda = \frac{ \norme{x} }{N}\]

Définissons :

\[u = \frac{x}{\lambda}\]

On voit que :

\[\norme{u} = \norme{\unsur{\lambda} \cdot x} = \unsur{\lambda} \cdot \norme{x} = \frac{N}{ \norme{x} } \cdot \norme{x} = N\]

On a donc \(u \in B\). Le rapport des normes s'écrit :

\[\frac{ \norme{f(x)} }{ \norme{x} } = \frac{ \norme{f(x)} }{ N \cdot \lambda } = \unsur{N} \norme{ \frac{f(x)}{ \lambda } } = \unsur{ \norme{u} } \cdot \norme{ f\left( \frac{x}{ \lambda } \right) } = \frac{ \norme{f(u)} }{ \norme{u} }\]

On en conclut que :

\[\frac{ \norme{f(x)} }{ \norme{x} } = \frac{ \norme{f(u)} }{ \norme{u} } \le \sup \Big\{ \frac{ \norme{f(v)} }{ \norme{v} } : v \in B \Big\}\]

Comme ce doit être valable quelque soit \(x \ne 0\), on obtient :

\[\norme{f} \le \sup \Big\{ \frac{ \norme{f(v)} }{ \norme{v} } : v \in B \Big\}\]

en passant au supremum sur \(x\).

Choisissons à présent \(u \in B\). On a alors :

\[\frac{ \norme{f(u)} }{ \norme{u} } \le \norme{f}\]

En passant au supremum sur \(u\), on obtient :

\[\sup \Big\{ \frac{ \norme{f(v)} }{ \norme{v} } : v \in B \Big\} \le \norme{f}\]

On en conclut que les deux supremums sont égaux :

\[\sup \left\{ \frac{ \norme{f(v)} }{ \norme{v} } : v \in B \right\} = \norme{f}\]

1.6.4 Norme unitaire

Une conséquence importante du résultat ci-dessus est le cas particulier \(N = 1\). On a alors :

\[\norme{f} = \sup \left\{ \norme{f(v)} : v \in E, \ \norme{v} = 1 \right\}\]

1.7 Norme d'une composée

Soit \(f : E \mapsto F\) et \(g : F \mapsto G\) deux applications linéaires de normes finies. Si \(x \in E\) avec \(x \ne 0\) on a \(f(x) \in F\) et :

\[\norme{g \circ f(x)} \le \norme{g} \cdot \norme{f(x)} \le \norme{g} \cdot \norme{f} \cdot \norme{x}\]

En divisant par \(\norme{x} \ne 0\) :

\[\frac{ \norme{g \circ f(x)} }{ \norme{x} } \le \norme{g} \cdot \norme{f}\]

et en passant au supremum sur \(x \ne 0\), on en conclut que :

\[\norme{g \circ f} \le \norme{g} \cdot \norme{f}\]

1.8 Norme d'une puissance

On a clairement :

\[\norme{f^n} = \norme{f \circ ... \circ f} \le \norme{f}^n\]

1.9 Continuité

Nous allons montrer que, pour tout \(f \in \lineaire(A,B)\), on a l'équivalence entre l'hypothèse d'une norme de \(f\) finie et l'hypothèse de \(f\) continue.

Si la norme est finie, on a :

\[\norme{f(x) - f(a)} = \norme{f(x - a)} \le \norme{f} \cdot \norme{x-a}\]

qui tend bien vers \(0\) lorsque \(x\) tend vers \(a\). Inversément, si \(f\) est continue, on peut trouver un \(\delta \strictsuperieur 0\) tel que :

\[\norme{f(x) - f(0)} \le 1\]

pour tout \(x\) vérifiant \(\distance(x,0) = \norme{x} \le \delta\). Posons \(B = \{ x \in A : \norme{x} = \delta \}\). On a alors :

\[\sup_{x \in B} \frac{\norme{f(x)}}{\norme{x}} = \unsur{\delta} \sup_{x \in B} \norme{f(x) - f(0)} \le \unsur{\delta}\]

La norme est donc finie :

\[\norme{f} = \sup_{x \in B} \frac{\norme{f(x)}}{\norme{x}} \le \unsur{\delta} \strictinferieur +\infty\]

1.10 $n$-linéarité

On dit que la fonction \(f : E_1 \times ... \times E_n \mapsto F\) est $n$-linéaire si elle est linéaire par rapport à chacune des composantes de son argument, les autres composantes restant inchangées :

\[f(...,\alpha x + \beta y,...) = \alpha \cdot f(...,x,...) + \beta \cdot f(...,y,...)\]

pour tout \(\alpha,\beta \in \corps\) et \(x,y \in E\). On note \(\lineaire_n(E_1,...,E_n,F)\) l'ensemble des fonctions $n$-linéaires de \(E_1 \times ... \times E_n\) vers \(F\).

1.10.1 Norme

La norme est définie dans ce cas par :

\[\norme{f} = \sup \left\{ \frac{ \norme{f(x_1,...,x_n)} }{ \prod_{i = 1}^n \norme{x_i} } : (x_1,...,x_n) \in E_1 \times ... \times E_n \right\}\]

Si cette norme est finie, on a :

\[\norme{f(x_1,...,x_n)} \le \norme{f} \cdot \prod_{i = 1}^n \norme{x_i}\]

pour tout \((x_1,...,x_n) \in E_1 \times ... \times E_n\).

1.10.2 Bilinéarité

On dit aussi des fonctions $2$-linéaires qu'elles sont bilinéaires. La norme d'une fonction \(f : E_1 \times E_2 \mapsto F\) bilinéaire est définie par :

\[\norme{f} = \sup \left\{ \frac{ \norme{f(u,v)} }{ \norme{u} \cdot \norme{v} } : (u,v) \in E_1 \times E_2 \right\}\]

Si cette norme est finie, on a :

\[\norme{f(u,v)} \le \norme{f} \cdot \norme{u} \cdot \norme{v}\]

pour tout \((u,v) \in E_1 \times E_2\).

1.11 Représentation matricielle

Soit une application linéaire \(\mathcal{A} : E \to F\). Choisissons \(x \in E\) et posons :

\[y = \mathcal{A}(x)\]

Si on dispose d'une base \((e_1,...,e_n)\) de \(E\) et d'une base \((f_1,...,f_m)\) de \(F\), on a :

\( x = \sum_{i = 1}^n x_i \cdot e_i \\ y = \sum_{i = 1}^m y_i \cdot f_i \)

pour certains \(x_i,y_i \in \corps\). La linéarité de \(\mathcal{A}\) implique que :

\[y = \sum_{j = 1}^n \mathcal{A}(e_j) \cdot x_j\]

Si les \(a_{ij} \in \corps\) sont les coordonnées de \(\mathcal{A}(e_j)\) dans la base des \(f_i\), on a :

\[\mathcal{A}(e_j) = \sum_{i = 1}^m a_{ij} \cdot f_i\]

En substituant cette expression, on obtient :

\[y = \sum_{i = 1}^m f_i \sum_{j = 1}^n a_{ij} \cdot x_j\]

La \(i^{ème}\) coordonnée de \(y\) est donc donnée par :

\[y_i = \sum_{j = 1}^n a_{ij} \cdot x_j\]

On définit la matrice \(A \in \matrice(\corps,m,n)\) associée à \(\mathcal{A}\) en posant :

\[A = ( a_{ij} )_{i,j}\]

Nous définissons ensuite le produit d'une matrice avec le « vecteur » \(x\) équivalent de \(\corps^n\) :

\[A \cdot x = \left( \sum_j a_{ij} \cdot x_j \right)_i\]

de telle sorte que :

\[A \cdot x = \mathcal{A}(x)\]

1.11.1 Norme

La norme d'une matrice est la norme de l'application linéaire associée, c'est-à-dire :

\[\norme{A}_2 = \sup \left\{ \frac{ \norme{A \cdot x} }{ \norme{x} } : x \in \corps^n, \ x \ne 0 \right\}\]

Soit :

\[M = \max_{i,j} \abs{\composante_{ij} A}\]

On a alors :

\[\norme{A \cdot x} \le M \cdot m \cdot n \cdot \max_i x_i \le M \cdot m \cdot n \cdot \norme{x}\]

ce qui montre que :

\[\norme{A} \le M \cdot m \cdot n \strictinferieur \infty\]

La norme d'une matrice finie (\(m,n \strictinferieur \infty\)) existe toujours.

1.11.2 Image

L'image d'une matrice est l'image de l'application linéaire associée, c'est-à-dire :

\[\image A = \{ A \cdot x : x \in \corps^n \}\]

Si \(c_i = \colonne_i A\), on a :

\[A = [ c_1 \ c_2 \ ... \ c_n ]\]

On voit que :

\[A \cdot x = \sum_i c_i \cdot x_i\]

autrement dit l'image de \(A\) est l'espace vectoriel engendré par ses colonnes :

\[\image A = \combilin{c_1,c_2,...,c_n}\]

1.11.3 Noyau

Le noyau d'une matrice est le noyau de l'application linéaire associée, c'est-à-dire :

\[\noyau A = \{ x \in \corps^n : A \cdot x = 0 \}\]

1.12 Produit matriciel

Soit à présent les matrices \(A \in \matrice(\corps,m,n)\) et \(B \in \matrice(\corps,n,p)\) données par :

\( A = ( a_{ij} )_{i,j} \\ B = ( b_{ij} )_{i,j} \)

où les \(a_{ij},b_{ij} \in K\). Soit les applications linéaires \(\mathcal{B} : \corps^p \to \corps^n\) et \(\mathcal{A} : \corps^n \to \corps^m\) définies par :

\( \mathcal{B}(x) = B \cdot x \\ \mathcal{A}(y) = A \cdot y \)

pour tout \(x \in \corps^p\), \(y \in \corps^n\). Choisissons \(z \in \corps^m\) et relions \(x,y,z\) par :

\( y = \mathcal{B}(x) \\ z = \mathcal{A}(y) = \big( \mathcal{A} \circ \mathcal{B} \big)(x) \)

Examinons les composantes de \(z\) en fonction de celles de \(x\) :

\[z_i = \sum_k a_{ik} \cdot y_k = \sum_k a_{ik} \sum_j b_{kj} \cdot x_j = \sum_{k,j} a_{ik} \cdot b_{kj} \cdot x_j\]

On en déduit que la composée \(\mathcal{C} = \mathcal{A} \circ \mathcal{B}\) est représentée par la matrice \(C \in \matrice(\corps,m,p)\) de composantes :

\[\composante_{ij} C = c_{ij} = \sum_k a_{ik} \cdot b_{kj}\]

Il suffit donc de définir le produit matriciel \(A \cdot B\) par :

\[A \cdot B = \left(\sum_{k=1}^n a_{ik} \cdot b_{kj}\right)_{i,j}\]

pour avoir :

\[(A \cdot B) \cdot x = \big( \mathcal{A} \circ \mathcal{B} \big)(x)\]

Le produit matriciel représente donc une composée d'applications linéaires. Pour que ce produit soit bien défini, il est nécessaire que le nombre de colonnes \(n\) de \(A\) et le nombre de lignes de \(B\) soient identiques.

On voit également que le produit matrice - vecteur défini précédemment en est un cas particulier lorsque \(p = 1\).

1.12.1 Notation

En pratique, on laisse souvent tomber le ``\(\cdot\)'' et on note \(A B\) au lieu de \(A \cdot B\) lorsqu'il est évident que \(A\) et \(B\) sont deux matrices différentes.

1.12.2 Taille

Le produit d'une matrice de taille \((m,n)\) par une matrice de taille \((n,p)\) est une matrice de taille \((m,p)\).

1.12.3 Lignes et colonnes

Si \(x_i^T = \ligne_i(A)\) et \(y_j = \colonne_j(B)\), on voit que :

\[\composante_{ij} (A \cdot B) = x_i^T \cdot y_j\]

1.12.4 Associativité

Soit les matrices \(A \in \matrice(\corps,m,n)\), \(B \in \matrice(\corps,n,p)\) et \(C \in \matrice(\corps,p,q)\) données par :

\( A = ( a_{ij} )_{i,j} \\ B = ( b_{ij} )_{i,j} \\ C = ( c_{ij} )_{i,j} \)

où les \(a_{ij},b_{ij},c_{ij} \in K\). La relation :

\[A \cdot (B \cdot C) = \left( \sum_{k,l} a_{ik} \cdot b_{kl} \cdot c_{lj} \right)_{i,j} = (A \cdot B) \cdot C\]

nous montre que la multiplication entre matrices est associative. On définit :

\[A \cdot B \cdot C = A \cdot (B \cdot C) = (A \cdot B) \cdot C\]

1.12.5 Distributivité

On a aussi les propriétés de distribution :

\( A \cdot (B + C) = A \cdot B + A \cdot C \\ (B + C) \cdot D = B \cdot D + C \cdot D \)

où \(A \in \matrice(\corps,m,n)\), \(B,C \in \matrice(\corps,n,p)\) et \(D \in \matrice(\corps,p,q)\).

1.12.6 Non commutativité

Par contre, on peut trouver des matrices \(A\) et \(B\) telles que :

\[A \cdot B \ne B \cdot A\]

La multiplication matricielle n'est donc en général pas commutative. D'ailleurs, pour que ces deux produits existent simultanément, il faut que \(A\) et \(B\) soient toutes deux carrées, ce qui n'est pas forcément le cas.

1.12.7 Commutateur

La matrice associée au commutateur :

\[[\mathcal{A},\mathcal{B}] = \mathcal{A} \circ \mathcal{B} - \mathcal{B} \circ \mathcal{A}\]

est donnée par le commutateur équivalent :

\[[A,B] = A \cdot B - B \cdot A\]

1.12.8 Transposée

On vérifie que :

\[(A \cdot B)^T = B^T \cdot A^T\]

1.13 Blocs

En utilisant l'associativité de l'addition, on peut facilement vérifier que la formule de multiplication reste valable lorsqu'on considère des blocs de matrices au lieu des éléments, à condition de respecter l'ordre de multiplication. Un exemple fréquemment utilisé :

\(

\begin{Matrix}{cc} A_{11} & A_{12} \\ A_{21} & A_{22} \end{Matrix}

\begin{Matrix}{cc} B_{11} & B_{12} \\ B_{21} & B_{22} \end{Matrix}

=

\begin{Matrix}{cc} A_{11} \cdot B_{11} + A_{12} \cdot B_{21} & A_{11} \cdot B_{12} + A_{12} \cdot B_{22} \\ A_{21} \cdot B_{11} + A_{22} \cdot B_{21} & A_{21} \cdot B_{12} + A_{22} \cdot B_{22} \end{Matrix}

\)

1.13.1 Bloc-diagonale

Un cas particulier important :

\(

\begin{Matrix}{cc} A_1 & 0 \\ 0 & A_2 \end{Matrix}

\begin{Matrix}{cc} B_1 & 0 \\ 0 & B_2 \end{Matrix}

=

\begin{Matrix}{cc} A_1 \cdot B_1 & 0 \\ 0 & A_2 \cdot B_2 \end{Matrix}

\)

1.14 Matrice identité

La matrice identité \(I \in \matrice(\corps,n,n)\) correspond à la fonction \(\identité\). On a donc :

\[I \cdot x = x\]

pour tout \(x \in \corps^n\). Si \((\canonique_1,...\canonique_n)\) est la base canonique de \(\corps^n\), on a donc :

\[I \cdot \canonique_i = \canonique_i\]

ce qui entraîne directement :

\[I = ( \indicatrice_{ij} )_{i,j}\]

On remarque que :

\[I = [\canonique_1 \ \hdots \ \canonique_n]\]

1.14.1 Neutre

Comme la fonction identité est neutre pour la composition, la matrice unité correspondante \(I \in \matrice(\corps,m,n)\) doit être neutre pour la multiplication avec toutes les matrices de dimensions compatibles. Soit \(A \in \matrice(\corps,m,n)\) et \(B \in \matrice(\corps,n,p)\). On vérifie que l'on a bien :

\( A \cdot I = A \\ I \cdot B = B \)

1.14.2 Notation

On note aussi \(I_n\) pour préciser que \(I\) est de taille \((n,n)\).

1.15 Inverse

Lorsqu'elle existe, la matrice inverse de \(A\), notée \(A^{-1}\), reflète l'application linéaire inverse sous-jacente. Elle est donc l'unique matrice telle que :

\[A^{-1} \cdot A = A \cdot A^{-1} = I\]

1.16 Inverse d'un produit

Soit \(A\) et \(B\) deux matrices inversibles. Les relations \(C \cdot (A \cdot B) = I\) et \((A \cdot B) \cdot D = I\) nous donnent :

\[C = D = B^{-1} \cdot A^{-1}\]

et donc :

\[(A \cdot B)^{-1} = B^{-1} \cdot A^{-1}\]

1.16.1 Inverse à gauche et à droite

On dit que \(L\) est un inverse à gauche de \(A\) si \(L \cdot A = I\). On dit que \(R\) est un inverse à droite de \(A\) si \(A \cdot R = I\).

1.17 Puissance

Il est possible de multiplier une matrice carrée \(A\) avec elle-même. On peut donc définir l'exposant par :

\( A^0 = I \\ A^k = A \cdot A^{k-1} \)

1.17.1 Négative

Si l'inverse \(A^{-1}\) existe, on définit également :

\[A^{-k} = (A^{-1})^k\]

1.18 Polynômes matriciels

Ici, \(\corps\) n'est plus un corps mais l'anneau des matrices \(X\) de taille \((N,N)\). On dit que \(p : \matrice(\corps,N,N) \mapsto \matrice(\corps,N,N)\) est un polynôme matriciel si il existe \(a_0,...,a_n \in \corps\) tels que :

\[p(X) = \sum_{i = 0}^n a_i \cdot X^i\]

pour tout \(X \in \matrice(\corps,N,N)\).

2 Géométrie

2.1 Courbe

Une courbe sur un espace vectoriel \(E\) (par exemple \(\setR^n\)) est de la forme :

\( \Lambda = \{ \lambda(s) : s \in [\alpha,\beta] \} \)

où \(\lambda : [\alpha,\beta] \mapsto E\) est une fonction continue et où \(\alpha,\beta \in \setR\) vérifient \(\alpha \le \beta\).

2.2 Segment

Les segments sont une généralisation des intervalles. Un segment de \(u \in E\) vers \(v \in E\) est un cas particulier de courbe où \(\lambda : [0,1] \subseteq \setR \mapsto E\) est une fonction linéaire définie par :

\( \lambda(s) = u + s \cdot (v - u) \)

pour tout \(s \in [0,1] \subseteq \setR\). On voit que \(\lambda(0) = u\) et que \(\lambda(1) = v\). On note aussi :

\(\relax [u,v] = \lambda([0,1]) = \{ u + s \cdot (v - u) : s \in [0,1] \} \subseteq E \)

2.2.1 Alternative

On dispose aussi d'une définition alternative. On utilise :

\( L = \{ (s,t) \in \setR^2 : (s,t) \ge 0 \text{ et } s + t = 1 \} \)

et la fonction \(\sigma : L \mapsto E\) définie par :

\(\relax \sigma(s,t) = s \cdot u + t \cdot v \)

On a alors \([u,v] = \sigma(L)\). On voit aussi que \(\sigma(1,0) = u\) et \(\sigma(0,1) = v\).

2.3 Enveloppe convexe

Soit \(A \subseteq E\) et la collection des segments reliant deux points quelconques de \(A\) :

\( \mathcal{S} = \{ [u,v] : u,v \in A \} \)

L'enveloppe convexe de \(A\) est l'union de tous ces segments :

\( \convexe(A) = \bigcup \mathcal{S} \)

Pour tout \(u,v \in A\) et \((s,t) \in \setR^2\) tels que \(s,t \ge 0\) et \(s + t = 1\), on a donc :

\( s \cdot u + t \cdot v \in \convexe(A) \)

2.3.1 Inclusion

Il suffit de considérer le choix \((s,t) = (1,0)\) pour voir que tout \(u \in A\) appartient à \(\convexe(A)\). On a donc \(A \subseteq \convexe(A)\).

2.3.2 Ensemble convexe

On dit qu'un ensemble \(C \subseteq E\) est convexe si \(\convexe(C) = C\).

2.4 Surface

Une surface de \(E\) est de la forme :

\( \Phi = \{ \varphi(s,t) : (s,t) \in [a,b] \times [c,d] \} \)

où \(\varphi : [a,b] \times [c,d] \mapsto E\) est une fonction continue et où \(a,b,c,d \in \setR\) vérifient \(a \le b\) et \(c \le d\).

3 Formes linéaires

3.1 Dépendances

  • Chapitre \ref{chap:relation} : Les fonctions
  • Chapitre \ref{chap:lineaire} : Les fonctions linéaires

3.2 Définition

Soit un espace vectoriel \(E\) sur \(\corps\). Une forme linéaire est une fonction linéaire continue \(\varphi : E \mapsto \corps\).

3.3 Espace dual

L'espace dual \(E^\dual\) de \(E\) est l'ensemble des formes linéaires sur \(E\) , autrement dit l'ensemble des fonctions linéaires continues de \(E\) vers \(\corps\) :

\[E^\dual = \{ \varphi \in \lineaire(E,\corps) : \norme{\varphi}_\lineaire \strictinferieur +\infty \}\]

Il s'agit d'un espace vectoriel pour les opérations d'addition et de multiplication mixte définies sur les fonctions.

3.4 Notation

Pour toute forme \(\varphi \in E^\dual\) et tout vecteur \(v \in E\), on note :

\[\forme{\varphi}{v} = \varphi(v)\]

ce qui définit implicitement la fonction \(\forme{}{} : E^\dual \times E \mapsto \corps\).

3.5 Linéarité

Soit \(\varphi,\psi \in E^\dual\), \(u,v \in E\) et \(\alpha,\beta \in S\). Comme \(\varphi\) est linéaire, on a :

\[\forme{\varphi}{\alpha \cdot u + \beta \cdot v} = \alpha \cdot \forme{\varphi}{u} + \beta \cdot \forme{\varphi}{v}\]

Symétriquement, la définition des opérations sur les fonctions nous donne également :

\[\forme{\alpha \cdot \varphi + \beta \cdot \psi}{u} = \alpha \cdot \forme{\varphi}{u} + \beta \cdot \forme{\psi}{u}\]

L'application \(\forme{}{}\) est donc bilinéaire.

3.6 Biorthonormalité

On dit que les suites \((\Phi_1,...,\Phi_m)\) de \(E^\dual\) et \((e_1,...,e_n)\) de \(E\) sont biorthonormées si :

\[\forme{\Phi_i}{e_j} = \indicatrice_{ij}\]

pour tout \((i,j) \in \setZ(0,m) \times \setZ(0,n)\). De telles suites permettent d'évaluer facilement les coefficients des développements en série du type :

\[\varphi = \sum_{i = 1}^m \alpha_i \cdot \Phi_i\]

où \(\alpha_1,...,\alpha_m \in S\). En effet, il suffit d'évaluer :

\[\varphi(e_j) = \forme{\varphi}{e_j} = \sum_{i = 1}^m \alpha_i \cdot \forme{\Phi_i}{e_j} = \sum_{i = 1}^m \alpha_i \cdot \indicatrice_{ij} = \alpha_j\]

pour obtenir les valeurs des \(\alpha_j\).

Réciproquement, si :

\[u = \sum_{i = 1}^n \beta_i \cdot e_i\]

avec \(\beta_1,...,\beta_n \in S\), on a :

\[\Phi_j(u) = \forme{\Phi_j}{u} = \sum_{i = 1}^n \beta_i \cdot \forme{\Phi_j}{e_i} = \sum_{i = 1}^n \beta_i \cdot \indicatrice_{ij} = \beta_j\]

ce qui nous donne les valeurs des \(\beta_j\).

Forts de ces résultats, il est aisé d'évaluer :

\[\forme{\varphi}{u} = \sum_{i,j} \alpha_i \cdot \forme{\Phi_i}{u_j} \cdot \beta_j = \sum_{i,j} \alpha_i \cdot \indicatrice_{ij} \cdot \beta_j = \sum_i \alpha_i \cdot \beta_i\]

On a donc en définitive :

\[\forme{\varphi}{u} = \sum_i \forme{\varphi}{e_i} \cdot \forme{\Phi_i}{u}\]

3.7 Similitude

On dit que deux fonctions \(u,v \in E\) sont identique au sens des distributions si :

\[\forme{\varphi}{u} = \forme{\varphi}{v}\]

pour tout \(\varphi \in E^\dual\).

Symétriquement, les deux formes \(\varphi,\psi \in E^\dual\) sont identiques par définition si et seulement si :

\[\forme{\varphi}{u} = \forme{\psi}{u}\]

pour tout \(u \in E\).

3.8 Espace bidual

On définit l'espace bidual de \(E\), noté \(E^{\dual \dual}\), par :

\[E^{\dual \dual} = (E^\dual)^\dual\]

On associe à chaque élément \(u \in E\) un élément \(\hat{u} \in E^{\dual \dual}\) par la condition :

\[\hat{u}(\varphi) = \varphi(u)\]

qui doit être vérifiée pour tout \(\varphi \in E^\dual\). On a donc :

\[\forme{\hat{u}}{\varphi} = \forme{\varphi}{u}\]

3.9 Application duale

Soit les espaces vectoriels \(E\) et \(F\) sur \(\corps\) et une fonction \(A : E \mapsto F\). Le dual de \(A\) au sens des formes, s'il existe, est l'unique fonction \(A^\dual : F^\dual \mapsto E^\dual\) telle que :

\[\forme{ A^\dual(\varphi) }{u} = \forme{\varphi}{ A(u) }\]

pour tout \(u \in E\) et \(\varphi \in F^\dual\).

3.10 Formes bilinéaires

Soit les espaces vectoriels \(E\) et \(F\) sur \(\corps\). Une forme bilinéaire est une fonction bilinéaire continue \(\vartheta : F \times E \mapsto \corps\). On utilise une notation analogue à celle des formes :

\[\biforme{x}{\vartheta}{u} = \vartheta(x,u)\]

pour tout \(x \in F\) et \(u \in E\). On voit que :

\( \biforme{\alpha \cdot x + \beta \cdot y}{\vartheta}{u} = \alpha \cdot \biforme{x}{\vartheta}{u} + \beta \cdot \biforme{y}{\vartheta}{u} \\ \biforme{x}{\vartheta}{\alpha \cdot u + \beta \cdot v} = \alpha \cdot \biforme{x}{\vartheta}{u} + \beta \cdot \biforme{x}{\vartheta}{v} \)

pour tout \(\alpha,\beta \in \corps\), \(u,v \in E\) et \(x,y \in F\).

3.11 Formes quadratiques

Soit la forme bilinéaire $ ϑ : E × E \mapsto \corps$. Une forme quadratique \(\mathcal{Q} : E \mapsto \corps\) est une fonction de la forme :

\[\mathcal{Q}(x) = \biforme{x}{\vartheta}{x}\]

3.12 Représentation matricielle

On peut représenter toute forme linéaire \(\varphi \in \lineaire(\corps^n,\corps)\) par un vecteur matriciel \(\hat{\varphi} \in \corps^n\). Etant donné la base canonique \((e_1,...,e_n)\) de \(\corps^n\), il suffit de poser :

\[\hat{\varphi}_i = \forme{\varphi}{e_i}\]

pour avoir :

\[\forme{\varphi}{u} = \hat{\varphi}^T \cdot u\]

pour tout \(u \in \corps^n\).

3.12.1 Formes bilinéaires

On peut représenter toute forme bilinéaire \(\vartheta \in \lineaire(\corps^m \times \corps^n,\corps)\) par une matrice \(\Theta \in \matrice(K,m,n)\). Etant donné les bases canoniques \((f_1,...,f_m)\) de \(\corps^m\) et \((e_1,...,e_n)\) de \(\corps^n\), il suffit de poser :

\[\composante_{ij} \Theta = \biforme{f_i}{\vartheta}{e_j}\]

pour avoir :

\[\biforme{v}{\vartheta}{u} = v^T \cdot \Theta \cdot u\]

pour tout \(u \in \corps^n\) et tout \(v \in \corps^m\).

Auteur: chimay

Created: 2019-10-01 mar 12:32

Validate