Eclats de vers : Matemat 06 : Vecteurs - 5

Index des Grimoires

Retour à l’accueil

Table des matières

\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)

1. Applications adjointes

1.1. Dépendances

  • Chapitre \ref{chap:forme} : Les formes linéaires
  • Chapitre \ref{chap:ps} : Les produits scalaires

1.2. Adjoint au sens des formes linéaires

Soit les espaces vectoriels \(E\) et \(F\) sur \(\corps\) et l'application linéaire \(A : E \mapsto F\). Si \(A^\dual : F^\dual \mapsto E^\dual\) est l'unique fonction de \(E^F\) vérifiant :

\[\forme{\varphi}{A(u)} = \forme{A^\dual(\varphi)}{u}\]

pour tout \(\varphi \in F^\dual\) et \(u \in E\), on dit que \(A^\dual\) est l'application duale (ou adjointe) de \(A\) au sens des formes linéaires.

1.3. Adjoint au sens du produit scalaire

Soient \(E\) et \(F\) deux espaces vectoriels munis de produits scalaires et l'application linéaire \(A : E \mapsto F\). Si \(A^\dual : F \mapsto E\) est l'unique fonction de \(E^F\) vérifiant :

\[\scalaire{v}{A(u)} = \scalaire{A^\dual(v)}{u}\]

pour tout \((u,v) \in E \times F\), on dit que \(A^\dual\) est l'application duale (ou adjointe) de \(A\) au sens du produit scalaire. Nous supposons dans la suite que les applications rencontrées possèdent une application adjointe.

1.3.1. Applications auto-adjointes

Si \(E = F\) et \(A = A^\dual\), on dit que \(A\) est hermitienne ou auto-adjointe.

1.4. Identité

Comme :

\[\scalaire{v}{\identite(u)} = \scalaire{\identite(v)}{u} = \scalaire{v}{u}\]

on a bien évidemment \(\identite^\dual = \identite\).

1.5. Adjoint d'une combinaison linéaire

Soit deux applications linéaires \(A,B : E \mapsto F\) et \(\alpha,\beta \in \corps\). Si \((u,v) \in E \times F\), on a :

\begin{align} \scalaire{(\conjaccent{\alpha} \cdot A^\dual + \conjaccent{\beta} \cdot B^\dual)(v)}{u} &= \alpha \cdot \scalaire{A^\dual(v)}{u} + \beta \cdot \scalaire{B^\dual(v)}{u} \\ &= \alpha \cdot \scalaire{v}{A(u)} + \beta \cdot \scalaire{v}{A(u)} \\ &= \scalaire{v}{(\alpha \cdot A + \beta \cdot B)(u)} \end{align}

On en conclut que :

\[(\alpha \cdot A + \beta \cdot B)^\dual = \conjaccent{\alpha} \cdot A^\dual + \conjaccent{\beta} \cdot B^\dual\]

L'opérateur \(^\dual : A \mapsto A^\dual\) est antilinéaire.

1.6. Bidual

On remarque que :

\[\scalaire{u}{A^\dual(v)} = \conjaccent{\scalaire{A^\dual(v)}{u}} = \conjaccent{\scalaire{v}{A(u)}} = \scalaire{A(u)}{v}\]

pour tout \((u,v) \in E \times F\). On a donc :

\[\left( A^\dual \right)^\dual = A\]

1.7. Adjoint d'une composée

Soit un troisième espace vectoriel \(G\). Si les applications adjointes des applications linéaires \(A : E \mapsto F\) et \(B : F \mapsto G\) existent, on a :

\[\scalaire{v}{(A \circ B)(u)} = \scalaire{A^\dual(v)}{B(u)} = \scalaire{(B^\dual \circ A^\dual)(v)}{u}\]

pour tout \((u,v) \in E \times G\). On en conclut que :

\[(A \circ B)^\dual = B^\dual \circ A^\dual\]

1.8. Construction d'applications auto-adjointes

Nous allons voir que nous pouvons construire deux applications auto-adjointes à partir de n'importe quelle application linéaire \(A : E \mapsto F\) admettant une application duale \(A^\dual : F \mapsto E\).

  • L'application \(A^\dual \circ A : E \mapsto E\) vérifie :

\[\scalaire{A^\dual \circ A(v)}{u} = \scalaire{A(v)}{A(u)} = \scalaire{v}{A^\dual \circ A(u)}\]

pour tout \(u,v \in E\). On en déduit que :

\[(A^\dual \circ A)^\dual = A^\dual \circ A\]

  • L'application \(A \circ A^\dual : F \mapsto F\) vérifie :

\[\scalaire{A \circ A^\dual(x)}{y} =\scalaire{A^\dual(x)}{A^\dual(y)} = \scalaire{x}{A \circ A^\dual(y)}\]

pour tout \(x,y \in F\). On en déduit que :

\[(A \circ A^\dual)^\dual = A \circ A^\dual\]

1.9. Linéarité de l'adjoint

Soit \(u,v \in E\), \(x,y \in F\) et \(\alpha, \beta \in \corps\). On a :

\begin{align} \scalaire{A^\dual(\alpha \cdot x + \beta \cdot y)}{u} &= \scalaire{\alpha \cdot x + \beta \cdot y}{A(u)} \\ &= \conjaccent{\alpha} \cdot \scalaire{x}{A(u)} + \conjaccent{\beta} \cdot \scalaire{y}{A(u)} \\ &= \conjaccent{\alpha} \cdot \scalaire{A^\dual(x)}{u} + \conjaccent{\beta} \cdot \scalaire{A^\dual(y)}{u} \\ &=\scalaire{\alpha \cdot A^\dual(x) + \beta \cdot A^\dual(y)}{u} \end{align}

Comme ce doit être valable pour tout \(u \in E\), on en conclut que l'application adjointe est linéaire :

\[A^\dual(\alpha \cdot x + \beta \cdot y) = \alpha \cdot A^\dual(x) + \beta \cdot A^\dual(y)\]

1.10. Norme de l'adjoint

Soit une application linéaire \(A : E \mapsto F\) de norme finie. Si \(x \in F\) est un vecteur non nul, on a :

\( \norme{A^\dual(x)}^2 = \scalaire{A^\dual(x)}{A^\dual(x)} = \scalaire{A \circ A^\dual(x)}{x} \le \norme{A \circ A^\dual(x)} \cdot \norme{x} \)

et donc :

\[\norme{A^\dual(x)}^2 \le \norme{A} \cdot \norme{A^\dual(x)} \cdot \norme{x}\]

Si \(\norme{A^\dual(x)} \ne 0\), on peut diviser par \(\norme{A^\dual(x)}\). On obtient alors :

\[\norme{A^\dual(x)} \le \norme{A} \cdot \norme{x}\]

Par positivité des normes, on remarque que cette relation est également valable lorsque \(\norme{A^\dual(x)} = 0 \le \norme{A} \cdot \norme{x}\). En divisant par la norme de \(x\), on obtient :

\[\frac{ \norme{A^\dual(x)} }{ \norme{x} } \le \norme{A}\]

Il ne nous reste plus qu'à passer au supremum sur \(x\) pour en conclure que :

\[\norme{A^\dual} \le \norme{A}\]

Mais comme \((A^\dual)^\dual = A\), on a aussi :

\[\norme{A} = \norme{(A^\dual)^\dual} \le \norme{A^\dual}\]

Ces deux inégalités nous montrent que :

\[\norme{A^\dual} = \norme{A}\]

1.11. Inverse

Supposons que \(A\) soit inversible. On a :

\( \identite = \identite^\dual = (A^{-1} \circ A)^\dual = A^\dual \circ (A^{-1})^\dual \\ \identite = \identite^\dual = (A \circ A^{-1})^\dual = (A^{-1})^\dual \circ A^\dual \)

On en conclut que \(A^\dual\) est également inversible et que :

\[(A^\dual)^{-1} = (A^{-1})^\dual\]

1.12. Noyau et image

Soit l'application linéaire \(A : E \mapsto F\). Soit \(u \in \noyau A\) et \(v \in \image A^\dual\). On peut donc trouver un \(x \in F\) tel que \(v = A^\dual(x)\). On a :

\[\scalaire{u}{v} = \scalaire{u}{A^\dual(x)} = \scalaire{A(u)}{x} = \scalaire{0}{x} = 0\]

d'où \(u \in (\image A^\dual)^\orthogonal\) et \(\noyau A \subseteq (\image A^\dual)^\orthogonal\). Inversément, si \(u \in (\image A^\dual)^\orthogonal\), on a :

\[\scalaire{A(u)}{x} = \scalaire{u}{A^\dual(x)} = 0\]

pour tout \(x \in E\). On en conclut que \(A(u) = 0\), c'est-à-dire \(u \in \noyau A\). On a donc aussi \((\image A^\dual)^\orthogonal \subseteq \noyau A\). Ces deux inclusions nous montrent finalement que :

\[\noyau A = (\image A^\dual)^\orthogonal\]

Comme le bidual revient à l'application d'origine, on a aussi :

\[\noyau A^\dual = (\image A)^\orthogonal\]

1.13. Représentation matricielle

Soit \(\corps \in \{ \setR , \setC \}\) et la matrice \(A \in \matrice(\corps,m,n)\) représentant l'application linéaire \(\mathcal{A} : \corps^n \mapsto \corps^m\). Soit \(A^\dual \in \matrice(\corps,n,m)\) représentant \(\mathcal{A}^\dual\). On a :

\[\scalaire{y}{ \mathcal{A}(x) } = \conjaccent{y^T} \cdot A \cdot x\]

ainsi que :

\[\scalaire{\mathcal{A}^\dual(y)}{ x } = \big( \conjaccent{A^\dual} \cdot \conjaccent{y} \big)^T \cdot x = \conjaccent{y^T} \cdot \big( \conjaccent{A^\dual} \big)^T \cdot x\]

Les deux produits scalaires devant être égaux par définition de la dualité, on doit clairement avoir :

\[\big( \conjaccent{A^\dual} \big)^T = A\]

c'est-à-dire :

\[A^\dual = \conjaccent{A^T} = \conjugue A^T\]

Ce résultat prouve l'existence et l'unicité de l'adjoint dans le cas d'espaces de dimension finie.

1.13.1. Cas particulier

Dans le cas d'une matrice réelle, on a \(\conjaccent{A} = A\) et :

\[A^\dual = A^T\]

1.14. Adjoint d'un produit

On peut vérifier que :

\[(A \cdot B)^\dual = B^\dual \cdot A^\dual\]

pour toutes matrices \(A \in \matrice(\corps,m,n)\) et \(B \in \matrice(\corps,n,p)\) de dimensions compatibles pour la multiplication.

2. Tenseurs

2.1. Dépendances

  • Chapitre \ref{chap:vecteur} : Les vecteurs
  • Chapitre \ref{chap:lineaire} : Les fonctions linéaires
  • Chapitre \ref{chap:forme} : Les formes
  • Chapitre \ref{chap:ps} : Les produits scalaires

2.2. Introduction

Nous présentons deux variantes de la définition des tenseurs. La première, classique, est basée sur les formes linéaires. La seconde, basée sur les vecteurs et la généralisation des produits scalaires, a l'avantage de mettre en relief la structure particulière des tenseurs, ainsi que la multitude de fonctions que l'on peut leur associer.

2.3. Produit tensoriel de formes linéaires

Soit deux espaces vectoriels \(E\) et \(F\) sur \(\corps\), ainsi que les fonctions \(\varphi \in \lineaire(E,S)\) et \(\psi \in \lineaire(F,S)\). On définit le produit tensoriel de ces deux fonctions, noté \(\varphi \otimes \psi\), par :

\[(\varphi \otimes \psi)(a,b) = \varphi(a) \cdot \psi(b)\]

pour tout \(a \in E\) et \(b \in F\). La fonction \(\varphi \otimes \psi\) est donc une forme bilinéaire vérifiant :

\[\biforme{a}{\varphi \otimes \psi}{b} = \forme{\varphi}{a} \cdot \forme{\psi}{b}\]

2.3.1. Forme associée

On peut réécrire la définition comme :

\[(\varphi \otimes \psi)(a,b) = \forme{\psi(b) \cdot \varphi}{a} = (\psi(b) \cdot \varphi)(a)\]

Nous pouvons donc associer à chaque \(b \in F\) une forme linéaire \(\psi(b) \cdot \varphi\) que nous notons :

\[\forme{\varphi \otimes \psi}{b} = \varphi \cdot \psi(b)\]

2.3.2. Dualité

On voit en échangeant \(\varphi\) et \(\psi\) que :

\[(\psi \otimes \varphi)(b,a) = \psi(b) \cdot \varphi(a) = (\varphi \otimes \psi)(a,b)\]

2.3.3. Associativité

Le produit tensoriel étant associatif, on note :

\[\varphi \otimes \psi \otimes \omega = \varphi \otimes (\psi \otimes \omega) = (\varphi \otimes \psi) \otimes \omega\]

pour toutes formes linéaires \(\varphi,\psi,\omega\) définies sur les espaces vectoriels \(E,F,G\).

2.3.4. Notation

On convient également de la notation :

\[\big(\forme{\psi \otimes \varphi}{u}\big)(x) = \psi(x) \cdot \forme{\varphi}{u}\]

pour tout \(x \in F\). On a donc :

\[\forme{\psi \otimes \varphi}{u} = \psi \cdot \forme{\varphi}{u}\]

2.4. Tenseurs de formes linéaires

Soit les espaces vectoriels \(E_1,E_2,...,E_n\) sur \(\corps\). On nomme tenseur d'ordre \(n\) les formes $n$-linéaires de \(E_1 \times E_2 \times ... \times E_n\) vers \(\corps\).

2.5. Produit tensoriel de deux vecteurs

Soit les espaces vectoriels \(E\) et \(F\) sur \(\corps\). Choisissons \(a \in F\) et \(b \in E\). Le produit tensoriel \(a \otimes b\) est l'application linéaire de \(E\) vers \(F\) définie par :

\[(a \otimes b)(c) = a \cdot \scalaire{b}{c}\]

pour tout \(c \in E\). On vérifie aisément que ce produit est bilinéaire.

2.5.1. Associativité mixte

Il est clair d'après les définitions des opérations que :

\( (\alpha \cdot a) \otimes b = \alpha \cdot (a \otimes b) \\ a \otimes (b \cdot \alpha) = (a \otimes b) \cdot \alpha \)

pour tout \(\alpha \in \corps\).

2.5.2. Distributivité

On a :

\( (a + b) \otimes c = a \otimes c + b \otimes c \\ a \otimes (c + d) = a \otimes c + a \otimes d \)

pour tout \(a,b \in F\) et \(c,d \in E\).

2.6. Contractions

Soit les espaces vectoriels \(E,F,G\) sur \(\corps\). On étend la notion de « produit scalaire » par les relations :

\( \scalaire{a \otimes b}{c} = a \cdot \scalaire{b}{c} \\ \scalaire{b}{c \otimes d} = \scalaire{b}{c} \cdot d \\ \scalaire{a \otimes b}{c \otimes d} = \scalaire{b}{c} \cdot (a \otimes d) \)

valables pour tout \((a,b,c,d) \in G \times F \times F \times E\).

2.7. Contractions doubles

Soit \(b \in F\) et \(c \in E\). Afin de rester consistant avec le produit tensoriel des formes, nous définissons la forme associée à \(b \otimes c\) par :

\[\varphi(a,d) = \scalaire{a}{(b \otimes c)(d)} = \scalaire{a}{b} \cdot \scalaire{c}{d}\]

pour tout \(d \in E\) et \(a \in F\). On note en général cette forme au moyen de la double contraction :

\[\braket{a}{b \otimes c}{d} = \scalaire{a}{b} \cdot \scalaire{c}{d}\]

2.8. Dualité

Soit le scalaire \(\alpha \in \setC\) et les vecteurs \(a,u \in E_1\) et \(b,v \in E_2\). On a :

\[\scalaire{u}{\alpha \cdot (a \otimes b)(v)} = \alpha \cdot \scalaire{u}{a} \cdot \scalaire{b}{v}\]

et :

\begin{align} \scalaire{\conjaccent{\alpha} \cdot (b \otimes a)(u)}{v} &= \alpha \cdot \conjugue(\scalaire{a}{u}) \cdot \scalaire{b}{v} \\ &= \alpha \cdot \scalaire{u}{a} \cdot \scalaire{b}{v} \end{align}

On en déduit que :

\[(\alpha \cdot a \otimes b)^\dual = \conjaccent{\alpha} \cdot b \otimes a\]

2.9. Combinaison linéaire

Soit des vecteurs \(a_i,b_i,c_i,d_i\) et des scalaires \(\theta_{ij},\upsilon_{ij}\). On étend la définition des contractions à des combinaisons linéaires de la forme :

\( T = \sum_{i,j} \theta_{ij} \cdot a_i \otimes b_j \\ U = \sum_{i,j} \upsilon_{ij} \cdot c_i \otimes d_j \)

en imposant simplement la linéarité. On a donc par exemple :

\[\scalaire{T}{U} = \sum_{i,j,k,l} \theta_{ij} \cdot \upsilon_{kl} \cdot \scalaire{b_j}{c_k} \cdot (a_i \otimes d_l)\]

2.10. Tenseurs d'ordre deux

Soit \(a \in F\) et \(b \in E\). Un objet de la forme :

\[T = a \otimes b\]

est un cas particulier de « tenseur d'ordre deux ». Il est formellement défini comme une application linéaire de \(E\) vers \(F\), mais il est en fait bien plus riche puisqu'on peut associer différents types de fonctions et de formes à chaque contraction possible impliquant ce tenseur. Les notions de tenseur et de contraction sont en fait étroitement liées.

On note \(\tenseur_2(F,E)\) l'espace vectoriel généré par ce type de tenseurs d'ordre deux.

2.11. Tenseurs d'ordre un et zéro

La possibilité d'associer une forme linéaire à chaque vecteur \(a \in E\) par la contraction avec un autre vecteur, qui est dans ce cas un simple produit scalaire :

\[\varphi_a(b) = \scalaire{a}{b}\]

nous incite à considérer les vecteurs comme des « tenseurs d'ordre un ». Nommant \(\tenseur_1(E)\) l'ensemble des tenseurs d'ordre un, on a simplement \(\tenseur_1(E) = E\). Quant aux scalaires, ils seront considérés comme des « tenseurs d'ordre zéro ». On note \(\tenseur_0 = \corps\) l'ensemble des tenseurs d'ordre zéro.

2.12. Associativité

Soit \(a \in G\), \(b \in F\) et \(c \in E\). Comme \(\lineaire(E,F)\) est également un espace vectoriel, on a :

\[\Big[ a \otimes \big[ (b \otimes c)(u) \big] \Big](v) = \big[ a \otimes b \scalaire{c}{u} \big](v) = a \scalaire{c}{u} \scalaire{b}{v}\]

valable pour tout \(u \in E\) et tout \(v \in F\). Mais \(\lineaire(F,G)\) est aussi un espace vectoriel, et l'on a aussi :

\[\Big[ \big[ (a \otimes b)(v) \big] \otimes c \Big](u) = \Big[ \scalaire{b}{v} a \otimes c \Big](u) = \scalaire{b}{v} \scalaire{c}{u} a\]

Le résultat étant le même, le produit tensoriel est associatif, et nous notons :

\[a \otimes b \otimes c = a \otimes (b \otimes c) = (a \otimes b) \otimes c\]

l'application linéaire définie par :

\[(a \otimes b \otimes c)(u,v) = \scalaire{c}{u} \scalaire{b}{v} a\]

2.13. Tenseur d'ordre \(n\)

Considérons les espaces vectoriels \(E_1,...,E_n\), les séries de vecteurs \(a_k^1,a_k^2,...a_k^{N_k} \in E_k\) et les scalaires \(\theta_{ij...r} \in \corps\). Un tenseur d'ordre \(n\) est une combinaison linéaire de la forme :

\[T = \sum_{i,j,...,r} \theta_{ij...r} \cdot a_1^i \otimes a_2^j \otimes ... \otimes a_n^r\]

On note \(\tenseur_n(E_1,E_2,...,E_n)\) l'espace des tenseurs d'ordre \(n\).

Lorsque tous les espaces vectoriels sont égaux, soit \(E = E_1 = E_2 = ... = E_n\), on note \(\tenseur_n(E) = \tenseur_n(E,E,...,E)\).

2.13.1. Indices covariants et contravariants

Les indices inférieurs (le \(i\) des vecteurs \(a_i^j\) par exemple) des tenseurs sont appelés indices covariants.

Les indices supérieurs (le \(j\) des vecteurs \(a_i^j\) par exemple) des tenseurs sont appelés indices contravariants.

Ne pas confondre ces indices supérieurs contravariants , très utilisés en calcul tensoriel, avec les puissances ! Dans le contexte des tenseurs, une éventuelle puissance d'un scalaire \(\theta_i^j\) serait notée au besoin par :

\[\big( \theta_j^i \big)^m = \theta_j^i \cdot ... \cdot \theta_j^i\]

2.14. Dualité

Soit les séries de vecteurs \(a_k^i \in E_k\), les scalaires \(\theta_{ij...rs} \in \corps\), et le tenseur associé :

\[A = \sum_{i,j,...,r,s} \theta_{ij...rs} \cdot a_1^i \otimes a_2^j \otimes ... \otimes a_{n - 1}^r \otimes a_n^s\]

On vérifie que le dual s'obtient en inversant l'ordre des vecteurs et en conjuguant les coordonnées :

\[A^\dual = \sum_{i,j,...,r,s} \conjaccent{\theta}_{ij...rs} \cdot a_n^s \otimes a_{n - 1}^r \otimes ... \otimes a_2^j \otimes a_1^i\]

2.15. Réduction

Soit les séries de vecteurs \(a_k^i \in E_k\), les scalaires \(\theta_{ij...rs} \in \corps\), et le tenseur associé :

\[A = \sum_{i,j,...,r,s} \theta_{ij...rs} \cdot a_1^i \otimes a_2^j \otimes ... \otimes a_{n - 1}^r \otimes a_n^s\]

Les opérations de réduction consistent à construire des tenseurs d'ordre \(n - 1\), notés \(A_-(s)\) et \(A^-(i)\), en retirant les vecteurs \(a_n^s\) (réduction à droite) ou les vecteurs \(a_1^i\) (réduction à gauche) :

\( A_-(s) = \sum_{i,j,...,r} \theta_{ij...rs} \cdot a_1^i \otimes a_2^j \otimes ... \otimes a_{n - 1}^r \\ A^-(i) = \sum_{j,...,r,s} \theta_{ij...rs} \cdot a_2^j \otimes ... \otimes a_{n - 1}^r \otimes a_n^s \)

2.16. Contraction généralisée

Soit les séries de vecteurs \(a_k^i \in E_k\) et \(b_k^j \in F_k\), les scalaires \(\eta_{i...r}, \theta_{j...s} \in \corps\), et les tenseurs :

\( A = \sum_{i,...,r} \eta_{i...r} \cdot a_1^i \otimes ... \otimes a_m^r \\ B = \sum_{j,...,s} \theta_{j...s} \cdot b_1^j \otimes ... \otimes b_n^s \)

La contraction d'ordre \(0\) consiste simplement à juxtaposer les deux tenseurs au moyen du produit tensoriel :

\[\contraction{A}{0}{B} = \sum_{i,...,r,j,...,s} \eta_{i...r} \cdot \theta_{j...s} \cdot a_1^i \otimes ... \otimes a_m^r \otimes b_1^j \otimes ... \otimes b_n^s\]

Soit \(p \in \setN\) tel que \(0 \le p \le \min \{m,n\}\). Si :

\( E_m = F_1 \\ E_{m - 1} = F_2 \\ \vdots \\ E_{m - p + 1} = F_p \\ \)

on peut définir la contraction \(\contraction{}{p}{}\) d'ordre \(p\) de deux tenseurs par récurrence :

\[\contraction{A}{p}{B} = \sum_{r,j} \scalaire{a_m^r}{b_1^j} \cdot \contraction{A_-(r)}{p - 1}{B^-(j)}\]

2.16.1. Notation

Soit \(A\) un tenseur d'ordre \(m\) et \(B\) un tenseur d'ordre \(n\). Le produit tensoriel est bien évidemment identique à la contraction d'ordre \(0\). On le note :

\[A \otimes B = \contraction{A}{0}{B}\]

La contraction d'ordre \(1\) est notée comme un produit scalaire :

\[\scalaire{A}{B} = \contraction{A}{1}{B}\]

ou comme un produit lorsqu'il n'y a pas de confusion possible :

\[A \cdot B = \scalaire{A}{B}\]

Enfin, la contraction maximale d'ordre \(M = \min \{m,n\}\) est notée par :

\[A : B = \contraction{A}{M}{B}\]

2.16.2. Exemple

Considérons le cas :

\( A = a_1 \otimes ... \otimes a_m \\ B = b_1 \otimes ... \otimes b_n \)

En utilisant \(p\) fois la récurrence, on obtient :

\[\contraction{A}{p}{B} = \scalaire{a_m}{b_1} \cdot ... \cdot \scalaire{a_{m-p+1}}{b_p} \cdot a_1 \otimes ... \otimes a_{m-p} \otimes b_{p+1} \otimes ... \otimes b_n\]

soit un tenseur d'ordre \(m - p + n - p\).

2.17. Contraction double généralisée

On définit également la contraction double utilisant trois facteurs par :

\[\dblecont{Y}{m}{T}{n}{X} = \contraction{ Y }{m}{ \contraction{T}{n}{X} } = \contraction{ \contraction{Y}{m}{T} }{n}{ X }\]

2.17.1. Notation

On note :

\( \braket{y}{A}{x} = \dblecont{y}{1}{A}{1}{x} \\ y \cdot A \cdot x = \braket{y}{A}{x} \)

2.18. Coordonnées

Si chaque \(E_k\) dispose d'une base de vecteurs \((e_k^1,e_k^2,...e_k^{N_k})\), tout tenseur \(T \in \tenseur_n(E_1,E_2,...,E_n)\) peut être écrit sous la forme :

\[T = \sum_{i,...,r} \theta_{i...r} \cdot e_1^i \otimes ... \otimes e_n^r\]

On dit que les \(\theta_{i...r}\) sont les coordonnées de \(T\). L'indépendance linéaire des \(e_k^i\) nous garantit que ces coordonnées sont uniques.

Il y a donc :

\[N = \prod_i N_i\]

coordonnées déterminant un tenseur.

2.18.1. Bases orthonormées

Si les bases sont orthonormées :

\[\scalaire{e_k^i}{e_k^j} = \indicatrice_{ij}\]

les coordonnées s'obtiennent aisément au moyen des contractions. On évalue :

\( \contraction{e_n^s \otimes ... \otimes e_1^j}{n}{T} = \sum_{i,...,r} \theta_{i...r} \cdot \scalaire{e_1^j}{e_1^i} \cdot ... \cdot \scalaire{e_n^s}{e_n^r} \\ \contraction{e_n^s \otimes ... \otimes e_1^j}{n}{T} = \sum_{i,...,s} \theta_{i...r} \cdot \indicatrice_{ji} \cdot ... \cdot \indicatrice_{sr} \)

Le produit des deltas de Kronecker s'annulant partout sauf aux indices \((i,...,r) = (j,...,s)\), on a finalement :

\[\contraction{e_n^s \otimes ... \otimes e_1^j}{n}{T} = \theta_{j...s}\]

ce qui nous donne les valeurs des \(\theta_{j...s}\).

2.19. Norme

La norme d'un tenseur \(A\) est analogue aux normes dérivées d'un produit scalaire. On utilise ici la contraction maximale et le tenseur duel de \(A\), afin que les espaces des vecteurs soient compatibles :

\[\norm{A} = \sqrt{A^\dual : A}\]

2.19.1. Bases orthonormées

Supposons que \(A\) soit représenté par rapport aux bases orthonormées \((e_k^1,e_k^2,...e_k^{N_k})\) :

\[A = \sum_{i,...,r} \theta_{i...r} \cdot e_1^i \otimes ... \otimes e_n^r\]

pour certains \(\theta_{i...r} \in \corps\). La norme nous donne dans ce cas :

\[\norme{A} = \sqrt{A^\dual : A} = \sqrt{\sum_{i,...,r} \abs{\theta_{i...r}}^2\]

2.20. Tenseur identité

Le tenseur identité \(\tenseuridentite \in \tenseur_2(E)\) est défini par :

\[\tenseuridentite \cdot u = \contraction{\tenseuridentite}{1}{u} = u\]

pour tout \(u \in E\).

2.20.1. Base orthonormée

Soit \((e_1,...,e_n)\) une base orthonormée de \(E\). On a alors :

\[\tenseuridentite \cdot e_i = e_i\]

et :

\[\contraction{\tenseuridentite}{2}{e_j \otimes e_i} = \scalaire{\tenseuridentite \cdot e_i}{e_j} = \indicatrice_{ij}\]

On en conclut que :

\[\tenseuridentite = \sum_{i,j} \indicatrice_{ij} \cdot e_i \otimes e_j = \sum_i e_i \otimes e_i\]

2.21. Inverse

Soit un tenseur \(T \in \tenseur_2(E)\). Si il existe un tenseur \(T^{-1} \in \tenseur_2(E)\) dont les contractions d'ordre \(1\) avec \(T\) donnent le tenseur identité :

\[T \cdot T^{-1} = \contraction{T}{1}{T^{-1}} = T^{-1} \cdot T = \contraction{T^{-1}}{1}{T} = \tenseuridentite\]

on dit que \(T^{-1}\) est l'inverse de \(T\).

2.22. Trace

Soit \((e_1,...,e_n)\) est une base orthonormée de \(E\) et le tenseur \(T \in \tenseur_2(E)\) :

\[T = \sum_{i,j} \theta_{ij} \cdot e_i \otimes e_j\]

On définit sa trace par :

\[\trace T = T : \tenseuridentite = \sum_{i,j} \theta_{ij} \cdot \indicatrice_{ij} = \sum_i \theta_{ii}\]

2.23. Cadre

On dit que les vecteurs \(e_i \in E\) forment un cadre de \(E\) si :

\[\sum_i e_i \otimes e_i = \tenseuridentite\]

On a alors, pour tout vecteur \(u\) de \(E\) :

\[\sum_i \scalaire{e_i \otimes e_i}{u} = u\]

c'est-à-dire :

\[u = \sum_i \scalaire{e_i}{u} e_i\]

par définition de la contraction. Prenant le produit scalaire avec un autre vecteur \(v \in F\), on obtient :

\[\scalaire{v}{u} = \sum_i \scalaire{v}{e_i}\scalaire{e_i}{u}\]

2.24. Représentation matricielle

Soit les vecteurs \(u \in F = \matrice(K,m,1) \equiv \corps^m\) et \(v,w \in E = \matrice(K,n,1) \equiv \corps^n\). La matrice :

\( A = u ⋅ v^\dual =

\begin{Matrix}{cccc} u_1 \cdot \bar{v}_1 & u_1 \cdot \bar{v}_2 & \ldots & u_1 \cdot \bar{v}_n \\ u_21 \cdot \bar{v}_1 & u_2 \cdot \bar{v}_2 & \ldots & u_2 \cdot \bar{v}_n \\ \vdots & & \ddots & \vdots \\ u_m \cdot \bar{v}_1 & u_m \cdot \bar{v}_2 & \ldots & u_m \cdot \bar{v}_n \end{Matrix}

\)

représente une application linéaire de \(\corps^n\) vers \(\corps^m\). Comme le produit matriciel est associatif, cette fonction possède la propriété :

\[A \cdot w = (u \cdot v^\dual) \cdot w = u \cdot (v^\dual \cdot w) = u \cdot \scalaire{v}{w}\]

Ce résultat étant identique à la définition d'un tenseur d'ordre deux, on voit que les matrices sont équivalentes à des tenseurs d'ordre deux : \(\matrice(K,m,n) \equiv \tenseur_2(\corps^m,\corps^n)\). On parle donc de tenseurs matriciels pour désigner cette représentation. On définit par équivalence le produit tensoriel de deux vecteurs matriciels par :

\[u \otimes v = u \cdot v^\dual\]

2.25. Contraction d'ordre \(1\)

Soit les espaces vectoriels \(E_1,E_2,E_3\) sur \(\corps\) et les suites de vecteurs \((e_k^1,e_k^2,...e_k^{N_k})\) formant des bases orthonormées des \(E_k\). Soit les tenseurs :

\( \mathcal{A} = \sum_{i,k} a_{ik} \cdot e_1^i \otimes e_2^k \\ \mathcal{B} = \sum_{l,j} b_{lj} \cdot e_2^l \otimes e_3^j \)

où \(a_{ij},b_{ij} \in \corps\). Calculons leur contraction d'ordre \(1\) :

\( \mathcal{C} = \contraction{ \mathcal{A} }{1}{ \mathcal{B} } = \sum_{i,j,k,l} a_{ik} \cdot b_{lj} \cdot \scalaire{e_2^k}{e_2^l} \cdot e_1^i \otimes e_3^j \\ \mathcal{C} = \sum_{i,j,k,l} a_{ik} \cdot b_{lj} \cdot \indicatrice_{kl} \cdot e_1^i \otimes e_3^j \\ \mathcal{C} = \sum_{i,j,k} a_{ik} \cdot b_{kj} \cdot e_1^i \otimes e_3^j \)

On voit que les coordonnées obtenues :

\[c_{ij} = \sum_k a_{ik} \cdot b_{kj}\]

correspondent à une matrice \(C = ( c_{ij} )_{i,j}\) telle que :

\[C = A \cdot B\]

où les matrices \(A\) et \(B\) sont données par :

\( A = ( a_{ij} )_{i,j} \\ B = ( b_{ij} )_{i,j} \)

La contraction d'ordre \(1\) correspond donc au produit matriciel, qui correspond lui-même à la composition d'application linéaires.

2.26. Contraction maximale

Soit les espaces vectoriels \(E_1,E_2,E_3\) sur \(\corps\) et les suites de vecteurs \((e_k^1,e_k^2,...e_k^{N_k})\) formant des bases orthonormées des \(E_k\). Soit les tenseurs :

\( \mathcal{A} = \sum_{i,k} a_{ik} \cdot e_1^i \otimes e_2^k \\ \mathcal{B} = \sum_{l,j} b_{lj} \cdot e_2^l \otimes e_3^j \)

où \(a_{ij},b_{ij} \in \corps\). Calculons leur contraction maximale :

\( \alpha = \mathcal{A} : \mathcal{B} = \contraction{ \mathcal{A} }{2}{ \mathcal{B} } = \sum_{i,j,k,l} a_{ik} \cdot b_{lj} \cdot \indicatrice_{kl} \cdot \indicatrice_{ij} \\ \alpha = \sum_{i,k} a_{ik} \cdot b_{ki} \)

Ce résultat nous incite à définir l'opération équivalente sur les matrices associées \(A = ( a_{ij} )_{i,j}\) et \(B = ( b_{ij} )_{i,j}\) :

\[A : B = \sum_{i,j} a_{ij} \cdot b_{ji}\]

2.27. Base canonique

Soit \(\canonique_{m,i}\) les vecteurs de la base canonique de \(\corps^m\) et \(\canonique_{n,i}\) les vecteurs de la base canonique de \(\corps^n\). Si \(A = (a_{ij})_{i,j} \in \matrice(\corps,m,n)\), on a clairement :

\[A = \sum_{i = 1}^m \sum_{j = 1}^n a_{ij} \cdot \canonique_{m,i} \otimes \canonique_{n,j} = \sum_{i = 1}^m \sum_{j = 1}^n a_{ij} \cdot \canonique_{m,i} \cdot \canonique_{n,j}^\dual\]

2.27.1. Lignes

On a :

\[\canonique_{m,k}^\dual \cdot A = \sum_{k,i,j} a_{ij} \cdot \indicatrice_{ik} \cdot \canonique_{n,j}^\dual = \sum_j a_{kj} \cdot \canonique_{n,j}^\dual\]

La matrice de taille \((1,n)\) obtenue est donc la \(k^{eme}\) ligne de \(A\) :

\[\canonique_{m,k}^\dual \cdot A = \ligne_k A\]

2.27.2. Colonnes

On a :

\[A \cdot \canonique_{n,k} = \sum_{k,i,j} a_{ij} \cdot \canonique_{m,i} \cdot \indicatrice_{jk} = \sum_i a_{ik} \cdot \canonique_{m,i}\]

La matrice de taille \((m,1)\) obtenue est donc la \(k^{eme}\) colonne de \(A\) :

\[A \cdot \canonique_{n,k} = \colonne_k A\]

2.27.3. Identité

Dans le cas où \(m = n\), on a en particulier :

\[\sum_{i = 1}^n \canonique_{n,i} \otimes \canonique_{n,i} = \sum_{i = 1}^n \canonique_{n,i} \cdot \canonique_{n,i}^\dual = I\]

2.28. Normes matricielles

La norme de Frobenius d'une matrice \(A = ( a_{ij} )_{i,j}\) est la norme du tenseur associé. On a donc :

\[\norm{A}_F = \sqrt{A^\dual : A} = \sqrt{\sum_{i,j} \bar{a}_{ij} \cdot a_{ij} } = \sqrt{ \sum_{i,j} \abs{a_{ij}}^2 }\]

2.28.1. Trace

La trace d'une matrice \(A = (a_{ij})_{i,j} \in \matrice(K,m,n)\) est la trace du tenseur sous-jacent, et donc :

\[\trace(A) = \sum_{i \in I} a_{ii}\]

où \(I = \{1, 2, ..., \min \{ m , n \} \}\).

Auteur: chimay

Created: 2023-05-10 mer 16:44

Validate