Eclats de vers : Matemat 09 : Analyse - 3

Index des Grimoires

Retour à l’accueil

Table des matières

\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)

1. Symétrie

Soit la fonction \(f \in \continue^2(\setR^2,\setR)\). Posons \(\partial_x = \partial_1\) et \(\partial_y = \partial_2\). Nous allons tenter d'évaluer les dérivées secondes \(\partial_{xy} = \partial_{12}\) et \(\partial_{yx} = \partial_{21}\). On note :

\begin{align} \varphi_{11} &= \varphi(x,y) \\ \varphi_{21} &= \varphi(x + h, y) \\ \varphi_{12} &= \varphi(x, y + h) \\ \varphi_{22} &= \varphi(x + h, y + h) \end{align}

où \(\varphi = f\) ou une de ses dérivées. Comme \(\partial_{xy} = \partial_x \partial_y\) et \(\partial_{yx} = \partial_y \partial_x\), on a par définition :

\( \Delta_{xy} = \partial_y f_{21} - \partial_y f_{11} = \partial_{xy} f_{11} \cdot h + o(h) \\ \Delta_{yx} = \partial_x f_{12} - \partial_x f_{11} = \partial_{yx} f_{11} \cdot h + o(h) \)

Multiplié par \(h\), cela devient :

\( \Delta_{xy} \cdot h = \partial_{xy} f_{11} \cdot h^2 + o(h^2) \\ \Delta_{yx} \cdot h = \partial_{yx} f_{11} \cdot h^2 + o(h^2) \)

On dispose également des développements d'ordre deux :

\( f_{22} - f_{21} = \partial_y f_{21} \cdot h + \partial_{yy} f_{21} \cdot \frac{h^2}{2} + o(h^2) \\ f_{12} - f_{11} = \partial_y f_{11} \cdot h + \partial_{yy} f_{11} \cdot \frac{h^2}{2} + o(h^2) \\ f_{22} - f_{12} = \partial_x f_{12} \cdot h + \partial_{xx} f_{12} \cdot \frac{h^2}{2} + o(h^2) \\ f_{12} - f_{11} = \partial_x f_{11} \cdot h + \partial_{xx} f_{11} \cdot \frac{h^2}{2} + o(h^2) \)

On en conclut que :

\( \Delta_{xy} \cdot h = D + \Delta_{yy} + o(h^2) \\ \Delta_{yx} \cdot h = D + \Delta_{xx} + o(h^2) \)

où l'on a posé :

\( D = f_{22} - f_{21} - f_{12} + f_{11} \\ \Delta_{yy} = (\partial_{yy} f_{11} - \partial_{yy} f_{21}) \cdot h^2 \\ \Delta_{xx} = (\partial_{xx} f_{11} - \partial_{xx} f_{12}) \cdot h^2 \)

Par continuité de \(\partial_{xx} f\) et de \(\partial_{yy} f\), on a :

\( \lim_{h \to 0} \frac{\Delta_{yy}}{h^2} = \lim_{h \to 0} (\partial_{yy} f_{11} - \partial_{yy} f_{21}) = 0 \\ \lim_{h \to 0} \frac{\Delta_{xx}}{h^2} = \lim_{h \to 0} (\partial_{xx} f_{11} - \partial_{xx} f_{12}) = 0 \)

On en conclut que \(\Delta_{xx}, \Delta_{yy} \sim o(h^2)\). Comme la somme de deux erreurs en \(o(h^2)\) donne également une erreur en \(o(h^2)\), on a :

\( \Delta_{xy} \cdot h = D + o(h^2) + o(h^2) = D + o(h^2) \\ \Delta_{yx} \cdot h = D + o(h^2) + o(h^2) = D + o(h^2) \)

et :

\( \partial_{xy} f_{11} \cdot h^2 = D + o(h^2) \\ \partial_{yx} f_{11} \cdot h^2 = D + o(h^2) \)

On en conclut que la différence \(\partial_{xy} f_{11} - \partial_{yx} f_{11} \sim o(1)\) tend vers \(0\) avec \(h\), ce qui n'est possible que si :

\[\partial_{xy} f_{11} = \partial_{yx} f_{11}\]

Nous avons donc prouvé que :

\[\partial_{xy} f(x,y) = \partial_{yx} f(x,y)\]

1.0.1. Généralisation

On peut bien entendu généraliser à une fonction \(f \in \continue^2(\setR^n,\setR)\). On a alors :

\[\partial_{ij} f = \partial_{ji} f\]

où \(i,j \in \{1,2,...,n\}\). Si \(H = \partial^2 f\), on écrit aussi ce résultat sous la forme :

\[H^\dual = H\]

1.1. Dérivation par rapport à un paramètre

Nous allons a présent examiner ce qu'il se passe lorsque les bornes de l'intervalle d'intégration (\(a,b : \setR \mapsto \setR\)) et la fonction à intégrer (\(f : \setR \times \setR \mapsto \setR\)) varient par rapport à un paramètre. Soit la fonction \(I : \setR \mapsto \setR\) définie par :

\[I(t) = \int_{a(t)}^{b(t)} f(s,t) \ ds\]

Pour une valeur donnée de \(t\), posons :

\[\phi_t(s) = f(s,t)\]

L'intégrale de \(\phi_t\) peut s'évaluer si nous connaissons une primitive \(\psi_t\) telle que :

\[\OD{\psi_t}{s}(s) = \phi_t(s)\]

Mais cette expression consiste à évaluer la variation de \(\psi\) lorsque \(s\) varie, \(t\) étant fixé. Cela revient donc à une dérivée partielle par rapport à \(s\). Donc, si nous connaissons une fonction \(F\) telle que :

\[\deriveepartielle{F}{s}(s,t) = f(s,t)\]

nous pouvons réécrire l'intégrale :

\[\int_{a(t)}^{b(t)} f(s,t) \ ds = F(b(t),t) - F(a(t),t)\]

Il ne nous reste plus alors qu'à évaluer la dérivée de \(I\) par rapport à \(t\) en utilisant la règle des compositions de fonctions :

\[\OD{I}{t}(t) = \deriveepartielle{F}{s}(b(t),t) \cdot \OD{b}{t}(t) + \deriveepartielle{F}{t}(b(t),t) - \deriveepartielle{F}{s}(a(t),t) \cdot \OD{b}{t}(t) - \deriveepartielle{F}{t}(a(t),t)\]

Si \(F \in \continue^2(\setR^2,\setR)\), la symétrie des dérivées secondes nous permet d'écrire :

\[\deriveepartielle{F}{t} = \deriveepartielle{}{t} \left[ \deriveepartielle{f}{s} \right] = \deriveepartielle{}{s} \left[ \deriveepartielle{f}{t} \right]\]

La dérivée partielle de \(F\) par rapport à \(t\) est donc une primitive de la dérivée partielle de \(f\) par rapport à \(t\). On en déduit que :

\[\int_\alpha^\beta \deriveepartielle{f}{t}(s,t) \ ds = \deriveepartielle{F}{t}(\beta,t) - \deriveepartielle{F}{t}(\alpha,t)\]

pour tout \(\alpha,\beta \in \setR\). Pour un \(t\) fixé quelconque, on peut poser \(\alpha = a(t)\) et \(\beta = b(t)\). Il vient alors :

\[\OD{I}{t}(t) = \deriveepartielle{F}{s}(b(t),t) \cdot \OD{b}{t}(t) - \deriveepartielle{F}{s}(a(t),t) \cdot \OD{b}{t}(t) + \int_{a(t)}^{b(t)} \deriveepartielle{f}{t}(s,t) \ ds\]

1.2. Différences finies

Soit une fonction \(f : \setR^2 \mapsto \setR^m\) deux fois continument dérivable. Nous allons voir comment évaluer des approximations des dérivées premières et secondes de \(f\). On note \(\partial_x = \partial_1\) et \(\partial_y = \partial_2\). On choisit les réels \(x,y\) et la variation non nulle \(h \in \setR\).

1.2.1. Dérivées premières

Soustrayons les développements d'ordre deux :

\( f(x + h,y) \approx f(x,y) + h \cdot \partial_x f(x,y) + \frac{h^2}{2} \cdot \partial^2 f(x,y) \\ f(x - h,y) \approx f(x,y) - h \cdot \partial_x f(x,y) + \frac{h^2}{2} \cdot \partial^2 f(x,y) \)

On obtient :

\[f(x + h,y) - f(x - h,y) \approx 2 h \cdot \partial_x f(x,y)\]

et donc :

\[\partial_x f(x,y) \approx \frac{f(x + h, y) - f(x - h, y)}{2 h}\]

L'erreur est en \(o(h) = o(h^2)/h\). En procédant de même avec \(y\), on obtient :

\[\partial_y f(x,y) \approx \frac{f(x, y + h) - f(x, y - h)}{2 h}\]

1.2.2. Dérivées secondes

On additionne cette fois les mêmes développements et on obtient :

\[f(x + h,y) + f(x - h,y) \approx 2 f(x,y) + \frac{h^2}{2} \cdot \partial^2 f(x,y) + o(h^2)\]

et donc :

\[\partial_{xx}^2 f(x,y) \approx \frac{f(x + h, y) - 2 f(x,y) + f(x - h, y)}{h^2}\]

L'erreur est en \(o(1) = o(h^2)/h^2\), et donc aussi petite que l'on veut pourvu que \(h \ne 0\) soit suffisamment petit. En procédant de même avec \(y\), on obtient :

\[\partial_{yy}^2 f(x,y) \approx \frac{f(x, y + h) - 2 f(x,y) + f(x, y - h)}{h^2}\]

On vérifie également en évaluant les développements en \((x \pm h, y \pm h)\) que :

\[\partial_{xy}^2 f(x,y) \approx \frac{f(x + h, y + h) - f(x + h, y - h) - f(x - h, y + h) + f(x - h, y - h)}{h^2}\]

La dernière dérivée seconde s'évalue approximativement par \(\partial_{yx}^2 f(x,y) = \partial_{xy}^2 f(x,y)\).

1.2.3. Généralisation

Nous allons voir comment généraliser ces résultats aux dérivées \(\partial_{ij}\) d'une fonction \(F : \setR^n \mapsto \setR^m\). Soit \(u \in \setR^n\) et les vecteurs de la base canonique \(\canonique_i \in \setR^n\). On définit les fonctions \(f_{ij} : \setR^n \mapsto \setR^m\) par :

\[f_{ij}(x,y) = F(u + x \cdot \canonique_i + y \cdot \canonique_j)\]

On a clairement :

\begin{align} \partial_i F(u) &= \partial_x f_{ij}(0,0) \\ \partial_{ii} F(u) &= \partial_{xx} f_{ij}(0,0) \\ \partial_{ij} F(u) &= \partial_{xy} f_{ij}(0,0) \\ \partial_{jj} F(u) &= \partial_{yy} f_{ij}(0,0) \end{align}

Il suffit donc d'utiliser les méthodes d'approximations des dérivées de \(f_{ij}\) pour approximer les dérivées de \(F\).

2. Distributions

2.1. Dépendances

  • Chapitre \ref{chap:relation} : Les fonctions
  • Chapitre \ref{chap:lineaire} : Les fonctions linéaires

2.2. Formes et fonctions

On peut toujours associer une forme linéaire \(\varphi\) à une fonction intégrable quelconque \(\hat{\varphi}\) en définissant :

\[\forme{\varphi}{u} = \int_A u(x) \cdot \hat{\varphi}(x) \ dx\]

Inversément, on ne pourra pas toujours trouver une fonction \(\hat{\varphi}\) correspondant à une forme linéaire \(\varphi\) donnée. On définira malgré tout l'intégrale généralisée en notant :

\[\int_A u(x) \cdot \varphi(x) \ dx = \forme{\varphi}{u}\]

où il ne faut pas perdre de vue que \(\varphi\) n'est pas nécessairement une fonction.

2.3. Formes et mesures

Soit \(u : A \mapsto \setR\). A toute mesure \(\mu\), on peut associer une forme linéaire \(\hat{\mu}\) par :

\[\forme{ \hat{\mu} }{u} = \int_A u(x) \ d\mu(x)\]

Inversément, à toute forme linéaire \(\hat{\mu}\), on peut associer une fonction \(\mu : \sousens(\setR) \mapsto \setR\) par :

\[\mu(A) = \forme{ \hat{\mu} }{\indicatrice_A}\]

Toutefois, rien ne garantit que la fonction \(\mu\) ainsi définie est une mesure. En particulier, rien ne garantit qu'elle soit positive.

2.4. Fonction et forme bilinéaire

A toute fonction \(\hat{K} : A \times B \mapsto F\), on peut associer une forme bilinéaire \(K\) par :

\[\biforme{u}{K}{v} = \int_{A \times B} u(x) \cdot K(x,y) \cdot v(y) \ d\mu(x) \ d\nu(y)\]

pour toutes fonctions \(u,v : A \mapsto B\). Inversément, à toute forme bilinéaire \(K\), on peut associer une intégrale généralisée en notant :

\[\int_{A \times B} u(x) \cdot K(x,y) \cdot v(y) \ d\mu(x) \ d\nu(y) = \biforme{u}{K}{v}\]

2.5. Définition

Nous nous intéressons ici au cas où l'espace vectoriel \(E\) est un ensemble de fonctions intégrables : \(E = \mathcal{F} \subseteq \lebesgue^2(\setR,\setR)\). Les limites à l'infini doivent alors forcément s'annuler

\[\lim_{x \to +\infty} u(x) = \lim_{x \to -\infty} u(x) = 0\]

pour tout \(u \in \mathcal{F}\).

2.6. Delta de Dirac

La distribution \(\dirac \in F^\dual\) de Dirac est définie par :

\[\forme{\dirac}{u} = u(0)\]

pour tout \(u \in F\). Elle correspond bien sûr à l'intégrale :

\[\int_\setR \dirac(x) \cdot u(x) \ dx = u(0)\]

On remarque que :

\[\int_{A^2} \dirac(\xi - x) \cdot K(\xi,\eta) \cdot \dirac(\eta - y) \ d\mu(\xi) \ d\nu(\eta) = K(x,y)\]

2.7. Dérivée

En intégrant par parties, on a :

\( ∫\setR \OD{u}{x}(x) ⋅ v(x) \ dx = lima → +∞ \left[ u(a) \cdot v(a) - u(-a) \cdot v(-a) \right]

  • \setR u(x) ⋅ \OD{v}{x}(x) \ dx

\)

mais comme les limites à l'infini s'annulent, cette expression se réduit à :

\[\int_{\setR} \OD{u}{x}(x) \cdot v(x) \ dx = - \int_{\setR} u(x) \cdot \OD{v}{x}(x) \ dx\]

Par extension, on définit la dérivée \(\OD{u}{x}\) d'une distribution \(u\) par :

\[\forme{\OD{u}{x}}{v} = - \forme{u}{\OD{v}{x}}\]

pour tout \(v\in F\).

2.7.1. Échelon

Comme application, considérons la fonction échelon \(e_+\) :

\( e_+(x) = \indicatrice[0,+∞) =

\begin{cases} 1 & \mbox{si } t \ge 0 \\ 0 & \mbox{si } t < 0 \end{cases}

\)

Pour tout \(v\in F\), on a :

\begin{align} \forme{\OD{e_+}{x}}{v} &= - \forme{e_+}{\OD{v}{x}} \\ &= - \int_0^{+\infty} \OD{v}{x}(x) dx \end{align}

Appliquons à présent le théorème fondamental. Il vient :

\[\forme{\OD{e_+}{x}}{v} = - \left[\lim_{x \to +\infty} v(x) - v(0)\right] = v(0)\]

On en déduit que :

\[\OD{e_+}{x} = \dirac\]

au sens des distributions.

2.8. Dilatation

Soit \(d_a\) l'opérateur de dilatation :

\[d_a(u)(x) = u(a \cdot x)\]

où \(a > 0\) est un réel strictement positif.

Le changement de variable \(\xi = a \cdot x\) nous donne \(d\xi = a \ dx\) et donc :

\[\int_{\setR} \hat{u}(a \ x) \ v(x) \ dx = \unsur{a} \int_{\setR} \hat{u}(\xi) \ v\left( \xi/a \right) \ d\xi\]

On définit donc l'extension de cet opérateur aux distributions par :

\[\forme{d_a(u)}{v} = \unsur{a} \forme{u}{d_{1/a}(v)}\]

2.9. Réflexion

L'opérateur de réflexion \(r\) se définit par :

\[r(u)(x) = u(-x)\]

Le changement de variable \(\xi = -x\) nous donne \(d\xi = -dx\) et donc :

\begin{align} \int_{\setR} \hat{u}(-x) \ v(x) \ dx &= \lim_{a \to +\infty}\int_{-a}^a \hat{u}(-x) \ v(x) \ dx \\ &= \lim_{a \to +\infty} - \int_a^{-a} \hat{u}(\xi) \ v(-\xi) \ d\xi \\ &= \lim_{a \to +\infty} \int^{-a}_a \hat{u}(\xi) \ v(-\xi) \ d\xi \end{align}

On définit donc l'extension de cet opérateur aux distributions par :

\[\forme{r(u)}{v} = \forme{u}{r(v)}\]

2.10. Translation

L'opérateur de translation \(t_a\) est défini par :

\[t_a(u)(x) = u(x - a)\]

Le changement de variable \(\xi = x - a\) nous donne \(d\xi = dx\) et donc :

\[\int_{\setR} \hat{u}(x-a) v(x) dx = \int_{\setR} \hat{u}(\xi) v(\xi+a) d\xi\]

On définit donc les extensions de cet opérateur aux distributions par :

\[\forme{t_a(u)}{v} = \forme{u}{t_{-a}(v)}\]

2.11. Convolution

Les intégrales unidimensionnelles permettent de définir l'opérateur de convolution \(\convolution\). Soit deux fonctions \(u, v : \setR \mapsto \setR\), leur convolution est une fonction \(u \convolution v : \setR \mapsto \setR\) définie par :

\[(u \convolution v)(t) = \int_{-\infty}^{+\infty} u(t-s) \ v(s) \ ds\]

pour tout \(t \in \setR\).

2.11.1. Dirac

En utilisant les résultats ci-dessus, on arrive facilement à :

\[\int_{\setR} u(x) \ \dirac(x-a) \ dx = u(a)\]

Comme :

\[\int_{\setR} u(x) \ \dirac(-x) \ dx = \int_{\setR} u(-x) \ \dirac(x) \ dx = u(0)\]

on en déduit que \(\dirac(-x) = \dirac(x)\) et :

\[\int_{\setR} \dirac(x-y) \ u(y) \ dy = u(x)\]

c'est-à-dire :

\[\dirac \convolution u = u\]

La distribution de Dirac est neutre pour le produit de convolution. On peut montrer que ce neutre est unique.

2.12. Corrélation

Les intégrales unidimensionnelles permettent de définir l'opérateur de corrélation \(\correlation\). Soit deux fonctions \(u, v : \setR \mapsto \setR\), leur corrélation est une fonction \(u \correlation v : \setR \mapsto \setR\) définie par :

\[(u \correlation v)(t) = \int_{-\infty}^{+\infty} u(s+t) \ v(s) \ ds\]

pour tout \(t \in \setR\).

3. Formes différentielles

3.1. Dépendances

  • Chapitre \ref{chap:differ} : Les différentielles
  • Chapitre \ref{chap:integral} : Les intégrales

3.2. Intégrale d'un tenseur

Soit \((\canonique_1,\canonique_2,...,\canonique_n)\) la bace canonique de \(\setR^n\) et la fonction tensorielle \(T : A \mapsto \tenseur_m(\setR^n)\) qui, à chaque \(x \in A\) associe un tenseur \(T(x)\) de la forme :

\[T(x) = \sum_{i,j,...,p} t_{ij...p}(x) \cdot \canonique_i \otimes \canonique_j \otimes ... \otimes \canonique_p\]

L'intégrale de cette fonction est définie par :

\[\int_A T(x) \ d\mu(x) = \sum_{i,j,...,p} I_{ij...p} \cdot \canonique_i \otimes \canonique_j \otimes ... \otimes \canonique_p\]

où chaque coordonnée \(I_{ij...p}\) est l'intégrale de la coordonnée correspondante de \(T\) :

\[I_{ij...p} = \int_A t_{ij...p}(x) \ d\mu(x)\]

3.3. Produit extérieur

Soit \(d\mu = dx = dx_1 \ ... \ dx_n\) la mesure de Lebesgue sur \(\setR^n\). On sait que \(dx\) représente la mesure de l'élément de volume \([x_1,x_1 + dx_1] \times ... \times [x_n,x_n + dx_N]\). Etant donné que nous avons construit le produit extérieur pour représenter (au signe près) des mesures de surfaces et de volumes, il est tout à fait naturel de le faire intervenir dans une mesure de Lebesgue. Soit la base canonique \((e_1,e_2,...,e_n)\) de \(\setR^n\) et les vecteurs :

\[\delta_i = dx_i \cdot e_i\]

où les \(dx_i\) sont bien évidemment des scalaires. Si nous évaluons le produit extérieur des ces vecteurs, nous obtenons :

\[\delta_1 \wedge \delta_2 \wedge ... \wedge \delta_n = \sum_{i,j,...,k} \permutation_{ij...k} \cdot dx_1 \cdot \delta_{1i} \cdot dx_2 \cdot \delta_{2j} \hdots \cdot dx_n \cdot \delta_{nk}\]

Le seul terme ne s'annulant pas étant \(\permutation_{1,2,...,n} = 1\), on a finalement :

\[\delta_1 \wedge \delta_2 \wedge ... \wedge \delta_n = dx_1 \cdot dx_2 \cdot ... \cdot dx_n = dx\]

Cette constatation nous amène à définir une mesure plus générale. Considérons à présent des vecteurs infinitésimaux \(\upsilon_1,\upsilon_2,...,\upsilon_n \in \setR^n\), c'est à dire des vecteurs dont la norme tendra vers zéro dans l'intégrale. Afin de garantir la positivité de la mesure, nous définissons :

\[du = \abs{\upsilon_1 \wedge \upsilon_2 \wedge ... \wedge \upsilon_n}\]

3.4. Tenseur différentiel

Il est même possible de définir des tenseurs différentiels \(dU\) en choisissant \(m \le n\) et en posant :

\[dU = \upsilon_1 \wedge \upsilon_2 \wedge ... \wedge \upsilon_m\]

Il est clair que \(dU \in \tenseur_{n - m}(\setR^n)\). On nomme ce type de tenseur une forme différentielle.

3.5. Paramétrisation

Soit \(m,n \in \setN\) avec \(m \le n\) et la fonction \(\phi : U \subseteq \setR^m \mapsto \setR^n\), dérivable et inversible. Le but est de paramétrer \(x\) sur \(\phi(U)\) par la relation \(x = \phi(u)\) pour tout \(u \in U\). Nous utilisons la base canonique \((e_1,e_2,...,e_m)\) de \(\setR^m\) et nous posons :

\[\delta_i = \phi(u + du_i \ e_i) - \phi(u) = \partial_i \phi(u) \ du_i\]

Sur \(\phi(U)\), on utilise le tenseur différentiel :

\[dX = \delta_1 \wedge \delta_2 \wedge ... \wedge \delta_m\]

La linéarité du produit extérieur nous permet d'ecrire :

\begin{align} dX &= \partial_1 \phi(u) \wedge \partial_2 \phi(u) \wedge ... \wedge \partial_m \phi(u) \ du_1 \ du_2 \ ... \ du_m \\ &= \partial_1 \phi(u) \wedge \partial_2 \phi(u) \wedge ... \wedge \partial_m \phi(u) \ du \end{align}

On définit le tenseur \(W \in \tenseur_{n - m}(\setR^n)\) associé à \(dX\) par :

\[W(u) = \partial_1 \phi(u) \wedge \partial_2 \phi(u) \wedge ... \wedge \partial_m \phi(u)\]

Deux cas peuvent alors se présenter.

3.5.1. Fonction tensorielle

On peut évaluer l'intégrale d'une fonction tensorielle \(f : \setR^n \mapsto \tenseur_p(\setR^n)\) en utilisant la contraction maximale avec \(dX\). Comme on a l'équivalence \(x \in \phi(U) \leftrightarrow u \in U\), on a alors :

\[\int_{\phi(U)} f(x) : dX = \int_U (f\circ\phi)(u) : W(u) \ du\]

Dans le cas particulier où \(p = n - m\), on obtiendra un scalaire.

3.5.2. Fonction scalaire

On peut évaluer l'intégrale d'une fonction scalaire \(f : \setR^n \mapsto \setR\) en utilisant la norme de \(dX\). On a alors \(dx = \norme{dX}\) et :

\[\int_{\phi(U)} f(x) dx = \int_U (f\circ\phi)(u) \cdot \norme{W(u)} \ du\]

3.5.3. Pavé

Un cas particulier important est celui où \(U = [\alpha_1,\beta_1] \times .. \times [\alpha_m,\beta_m]\) pour certains \(\alpha_i,\beta_i \in \setR\). On a alors :

\[\int_{\phi(U)} \sim \int_{\alpha_1}^{\beta_1} du_1 \int_{\alpha_2}^{\beta_2} du_2 \ ... \int_{\alpha_m}^{\beta_m} du_m\]

3.6. Changement de variable

Nous considérons à présent le cas où \(m = n\). Nous utilisons la base canonique \((e_1,e_2,...,e_n)\) de \(\setR^n\) et nous posons de nouveau :

\[\delta_i = \phi(u + du_i \ e_i) - \phi(u) = \partial_i \phi(u) \ du_i\]

On utilise la mesure :

\[dx = \abs{\delta_1 \wedge \delta_2 \wedge ... \wedge \delta_n}\]

On a alors :

\begin{align} dx &= \abs{\partial_1 \phi(u) \wedge \partial_2 \phi(u) \wedge ... \wedge \partial_n \phi(u) \ du} \\ &= \abs{\sum_{i,j,...,k} \permutation_{ij...k} \cdot \partial_1 \phi_i(u) \cdot \partial_2 \phi_j(u) \cdot \ \hdots \ \cdot \partial_n \phi_k(u)} \ du \\ &= \abs{\det \partial \phi(u)} \ du \end{align}

On voit donc apparaître le déterminant de la Jacobienne de \(\phi\). Comme on a l'équivalence \(x \in A \leftrightarrow u \in \phi^{-1}(A)\), le changement de variable peut s'écrire :

\[\int_A f(x) \ dx = \int_{\phi^{-1}(A)} (f\circ\phi)(u) \cdot \abs{ \det \partial \phi(u) } \ du\]

3.6.1. Pavé

Un cas particulier important est celui où \(\phi^{-1}(A) = [\alpha_1,\beta_1] \times .. \times [\alpha_n,\beta_n]\) pour certains \(\alpha_i,\beta_i \in \setR\). On a alors :

\[\int_A \sim \int_{\alpha_1}^{\beta_1} du_1 \int_{\alpha_2}^{\beta_2} du_2 \ ... \int_{\alpha_n}^{\beta_n} du_n\]

3.7. Intégrales de ligne vectorielles

Soit une fonction continue \(\gamma : [a,b] \to \setR^n\) définissant la courbe \(\Lambda = \gamma([a,b])\). L'intégrale de ligne d'une fonction \(f : \setR^n \mapsto \setR^n\) sur cette courbe est l'intégrale de la contraction d'ordre \(1\) de \(f\) avec \(d\gamma\), qui revient ici au produit scalaire du vecteur \(f(x) \in \Lambda\) par le vecteur \(\partial \gamma(t)\). On a donc :

\[\int_\Lambda f\cdot d\Lambda = \int_a^b \scalaire{(f \circ \gamma)(t)}{\partial \gamma(t) } dt\]

3.8. Intégrales de ligne scalaires

Dans le cas d'une fonction \(g : \setR^n \mapsto \setR\), on utilise comme mesure la longueur \(\norme{\partial \gamma(t)}\) de chaque petit segment \(d\Lambda\). On a alors :

\[\int_\Lambda g \ d\Lambda = \int_a^b (g \circ \gamma)(t) \cdot \norme{\partial \gamma(t)} \ dt\]

3.9. Contour fermé

Si \(\gamma(a) = \gamma(b)\), on dit que le contour fermé, et on note en général :

\[\oint_\Lambda = \int_\Lambda\]

3.10. Intégrales de surface vectorielles

Soit \(f : \setR^n \mapsto \setR^n\), \(\sigma : A \subseteq \setR^{n - 1} \mapsto \setR^n\) et la surface \(\Theta = \sigma(A)\). On définit les vecteurs :

\[\delta_i = \deriveepartielle{\sigma}{u_i} du_i\]

pour \(i = 1, ..., n - 1\). L'intégrale de surface est simplement la contraction d'ordre \(1\) :

\[\int_\Theta f \cdot d\Theta = \int_A \scalaire{(f \circ \sigma)(u)}{ \delta_1 \wedge ... \wedge \delta_{n-1} }\]

qui nous donne un scalaire. Dans le cas particulier où \(n = 3\) et où \(A = [U_1,U_2] \times [V_1,V_2]\), on a :

\[\int_\Theta f \cdot d\Theta = \int_{U_1}^{U_2} du \ \int_{V_1}^{V_2} (f \circ \sigma)(u,v) \cdot \left( \deriveepartielle{\sigma}{u}(u,v) \wedge \deriveepartielle{\sigma}{v}(u,v) \right) \ dv\]

3.11. Intégrales de surface scalaires

Soit \(f : \setR^n \mapsto \setR^n\), \(\sigma : A \subseteq \setR^{n - 1} \mapsto \setR^n\) et la surface \(\Theta = \sigma(A)\). On définit les vecteurs :

\[\delta_i = \deriveepartielle{\sigma}{u_i} du_i\]

pour \(i = 1, ..., n - 1\). Utilisant comme mesure la norme du produit extérieur des \(\delta_i\), on obtient :

\[\int_\Theta f \ d\Theta = \int_A (f \circ \sigma)(u) \cdot \norme{ \delta_1 \wedge ... \wedge \delta_{n-1} }\]

Dans le cas particulier où \(n = 3\) et où \(A = [U_1,U_2] \times [V_1,V_2]\), on a :

\[\int_\Theta f \ d\Theta = \int_{U_1}^{U_2} du \ \int_{V_1}^{V_2} (f \circ \sigma)(u,v) \cdot \norme{ \deriveepartielle{\sigma}{u}(u,v) \wedge \deriveepartielle{\sigma}{v}(u,v) } \ dv\]

3.12. Intégrale de flux

Soit \(A \subseteq \setR^n\) et la fonction \(a : \setR^n \to \setR\) telle que :

\[A = \{ x \in \setR^n : a(x) \le 0 \}\]

On s'arrange de plus pour avoir \(a\) constante sur la frontière :

\[\partial A = \{ x \in \setR^n : a(x) = 0 \}\]

On introduit le vecteur normal :

\[n = \unsur{\norme{\deriveepartielle{a}{x}}} \cdot \deriveepartielle{a}{x}\]

L'intégrale du flux sortant de la fonction \(f : \setR^n \to \setR^n\) est alors donnée par :

\[\int_{\partial A} \scalaire{f}{n} \ d\mu\]

3.13. Différentielle

Soit une fonction \(f : \setR^n \mapsto \setR\), les vecteurs infinitésimaux \(\delta_1,...,\delta_{n - 1} \in \setR^n\) et la forme différentielle :

\[\omega = f \cdot \delta_1 \wedge \delta_2 \wedge ... \wedge \delta_{n-1}\]

Si \(f\) est différentiable, on définit la différentielle de \(\omega\) par :

\[d\omega = \sum_i \deriveepartielle{f}{x_i} \cdot \kappa_i \wedge \delta_1 \wedge \delta_2 \wedge ... \wedge \delta_{n-1}\]

où :

\[\kappa_i = dx_i \cdot e_i\]

On note aussi symboliquement :

\[d\omega = df \wedge dx_1 \wedge ... \wedge dx_{n-1}\]

On peut montrer sous certaines conditions que l'intégrale sur la frontière de \(A\) est alors donnée par :

\[\int_{\partial A} \omega = \int_A d\omega\]

3.14. Théorème de Stokes

Soit \(f,g : \setR^2 \mapsto \setR\) et les vecteurs infinitésimaux :

\( \delta x = e_1 \ dx \\ \delta y = e_2 \ dy \)

Considérons la forme différentielle :

\[\omega = f \delta x + g \delta y\]

Si les fonctions sont différentiables, on a alors :

\[d\omega = \deriveepartielle{f}{x} \delta x \wedge \delta x + \deriveepartielle{f}{y} \delta y \wedge \delta x + \deriveepartielle{g}{x} \delta x \wedge \delta y + \deriveepartielle{g}{y} \delta y \wedge \delta y\]

Mais comme :

\( \delta x \wedge \delta x = \delta y \wedge \delta y = 0 \\ \delta y \wedge \delta x = - \delta x \wedge \delta y \)

il vient :

\[d\omega = \left( \deriveepartielle{g}{x} - \deriveepartielle{f}{y} \right) \delta x \wedge \delta y\]

En intégrant, on obtient alors :

\[\int_{\partial A} (f \ \delta x + g \ \delta y) = \int_A \left( \deriveepartielle{g}{x} - \deriveepartielle{f}{y} \right) dx \wedge dy\]

Mais comme nous somme dans la base canonique, on a \(\delta x \wedge \delta y = dx \ dy\) et :

\[\int_{\partial A} (f \ \delta x + g \ \delta y) = \int_A \left( \deriveepartielle{g}{x} - \deriveepartielle{f}{y} \right) \ dx \ dy\]

Auteur: chimay

Created: 2023-05-10 mer 16:45

Validate