Eclats de vers : Matemat : Symétrie
Table des matières
\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\left] #1 , #2 \right[} \newcommand{\intervallesemiouvertgauche}[2]{ \left] #1 , #2 \right]} \newcommand{\intervallesemiouvertdroite}[2]{\left[ #1 , #2 \right[ } \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \DeclareMathOperator*{\strictinferieur}{\ < \ } \DeclareMathOperator*{\strictsuperieur}{\ > \ } \DeclareMathOperator*{\ensinferieur}{\eqslantless} \DeclareMathOperator*{\enssuperieur}{\eqslantgtr} \DeclareMathOperator*{\esssuperieur}{\gtrsim} \DeclareMathOperator*{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \DeclareMathOperator*{\pgcd}{pgcd} \DeclareMathOperator*{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \vert #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \vert #2 \vert #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \vert #3 \vert #5 \right\rangle_{#2,#4}} \DeclareMathOperator*{\major}{major} \DeclareMathOperator*{\minor}{minor} \DeclareMathOperator*{\maxim}{maxim} \DeclareMathOperator*{\minim}{minim} \DeclareMathOperator*{\argument}{arg} \DeclareMathOperator*{\argmin}{arg\ min} \DeclareMathOperator*{\argmax}{arg\ max} \DeclareMathOperator*{\supessentiel}{ess\ sup} \DeclareMathOperator*{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \DeclareMathOperator*{\adh}{adh} \DeclareMathOperator*{\interieur}{int} \newcommand{\frontiere}{\partial} \DeclareMathOperator*{\image}{im} \DeclareMathOperator*{\domaine}{dom} \DeclareMathOperator*{\noyau}{ker} \DeclareMathOperator*{\support}{supp} \DeclareMathOperator*{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \DeclareMathOperator*{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \DeclareMathOperator*{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\PD}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \DeclareMathOperator*{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \DeclareMathOperator*{\composante}{comp} \DeclareMathOperator*{\bloc}{bloc} \DeclareMathOperator*{\ligne}{ligne} \DeclareMathOperator*{\colonne}{colonne} \DeclareMathOperator*{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \DeclareMathOperator*{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \DeclareMathOperator*{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)
\( \newenvironment{Eqts} { \begin{equation*} \begin{gathered} } { \end{gathered} \end{equation*} } \newenvironment{Matrix} {\left[ \begin{array}} {\end{array} \right]} \)
1. Introduction
Soit la fonction \(f \in \continue^2(\setR^2,\setR)\). Posons \(\partial_x = \partial_1\) et \(\partial_y = \partial_2\). Nous allons tenter d'évaluer les dérivées secondes \(\partial_{xy} = \partial_{12}\) et \(\partial_{yx} = \partial_{21}\). On note :
\begin{align} \varphi_{11} &= \varphi(x,y) \) \( \varphi_{21} &= \varphi(x + h, y) \) \( \varphi_{12} &= \varphi(x, y + h) \) \( \varphi_{22} &= \varphi(x + h, y + h) \end{align}où \(\varphi = f\) ou une de ses dérivées. Comme \(\partial_{xy} = \partial_x \partial_y\) et \(\partial_{yx} = \partial_y \partial_x\), on a par définition :
\( \Delta_{xy} = \partial_y f_{21} - \partial_y f_{11} = \partial_{xy} f_{11} \cdot h + o(h) \)
\( \Delta_{yx} = \partial_x f_{12} - \partial_x f_{11} = \partial_{yx} f_{11} \cdot h + o(h) \)
Multiplié par \(h\), cela devient :
\( \Delta_{xy} \cdot h = \partial_{xy} f_{11} \cdot h^2 + o(h^2) \)
\( \Delta_{yx} \cdot h = \partial_{yx} f_{11} \cdot h^2 + o(h^2) \)
On dispose également des développements d'ordre deux :
\( f_{22} - f_{21} = \partial_y f_{21} \cdot h + \partial_{yy} f_{21} \cdot \frac{h^2}{2} + o(h^2) \)
\( f_{12} - f_{11} = \partial_y f_{11} \cdot h + \partial_{yy} f_{11} \cdot \frac{h^2}{2} + o(h^2) \)
\( f_{22} - f_{12} = \partial_x f_{12} \cdot h + \partial_{xx} f_{12} \cdot \frac{h^2}{2} + o(h^2) \)
\( f_{12} - f_{11} = \partial_x f_{11} \cdot h + \partial_{xx} f_{11} \cdot \frac{h^2}{2} + o(h^2) \)
On en conclut que :
\( \Delta_{xy} \cdot h = D + \Delta_{yy} + o(h^2) \)
\( \Delta_{yx} \cdot h = D + \Delta_{xx} + o(h^2) \)
où l'on a posé :
\( D = f_{22} - f_{21} - f_{12} + f_{11} \)
\( \Delta_{yy} = (\partial_{yy} f_{11} - \partial_{yy} f_{21}) \cdot h^2 \)
\( \Delta_{xx} = (\partial_{xx} f_{11} - \partial_{xx} f_{12}) \cdot h^2 \)
Par continuité de \(\partial_{xx} f\) et de \(\partial_{yy} f\), on a :
\( \lim_{h \to 0} \frac{\Delta_{yy}}{h^2} = \lim_{h \to 0} (\partial_{yy} f_{11} - \partial_{yy} f_{21}) = 0 \)
\( \lim_{h \to 0} \frac{\Delta_{xx}}{h^2} = \lim_{h \to 0} (\partial_{xx} f_{11} - \partial_{xx} f_{12}) = 0 \)
On en conclut que \(\Delta_{xx}, \Delta_{yy} \sim o(h^2)\). Comme la somme de deux erreurs en \(o(h^2)\) donne également une erreur en \(o(h^2)\), on a :
\( \Delta_{xy} \cdot h = D + o(h^2) + o(h^2) = D + o(h^2) \)
\( \Delta_{yx} \cdot h = D + o(h^2) + o(h^2) = D + o(h^2) \)
et :
\( \partial_{xy} f_{11} \cdot h^2 = D + o(h^2) \)
\( \partial_{yx} f_{11} \cdot h^2 = D + o(h^2) \)
On en conclut que la différence \(\partial_{xy} f_{11} - \partial_{yx} f_{11} \sim o(1)\) tend vers \(0\) avec \(h\), ce qui n'est possible que si :
\[\partial_{xy} f_{11} = \partial_{yx} f_{11}\]
Nous avons donc prouvé que :
\[\partial_{xy} f(x,y) = \partial_{yx} f(x,y)\]
1.1. Généralisation
On peut bien entendu généraliser à une fonction \(f \in \continue^2(\setR^n,\setR)\). On a alors :
\[\partial_{ij} f = \partial_{ji} f\]
où \(i,j \in \{1,2,...,n\}\). Si \(H = \partial^2 f\), on écrit aussi ce résultat sous la forme :
\[H^\dual = H\]
2. Dérivation par rapport à un paramètre
Nous allons a présent examiner ce qu'il se passe lorsque les bornes de l'intervalle d'intégration (\(a,b : \setR \mapsto \setR\)) et la fonction à intégrer (\(f : \setR \times \setR \mapsto \setR\)) varient par rapport à un paramètre. Soit la fonction \(I : \setR \mapsto \setR\) définie par :
\[I(t) = \int_{a(t)}^{b(t)} f(s,t) \ ds\]
Pour une valeur donnée de \(t\), posons :
\[\phi_t(s) = f(s,t)\]
L'intégrale de \(\phi_t\) peut s'évaluer si nous connaissons une primitive \(\psi_t\) telle que :
\[\OD{\psi_t}{s}(s) = \phi_t(s)\]
Mais cette expression consiste à évaluer la variation de \(\psi\) lorsque \(s\) varie, \(t\) étant fixé. Cela revient donc à une dérivée partielle par rapport à \(s\). Donc, si nous connaissons une fonction \(F\) telle que :
\[\deriveepartielle{F}{s}(s,t) = f(s,t)\]
nous pouvons réécrire l'intégrale :
\[\int_{a(t)}^{b(t)} f(s,t) \ ds = F(b(t),t) - F(a(t),t)\]
Il ne nous reste plus alors qu'à évaluer la dérivée de \(I\) par rapport à \(t\) en utilisant la règle des compositions de fonctions :
\[\OD{I}{t}(t) = \deriveepartielle{F}{s}(b(t),t) \cdot \OD{b}{t}(t) + \deriveepartielle{F}{t}(b(t),t) - \deriveepartielle{F}{s}(a(t),t) \cdot \OD{b}{t}(t) - \deriveepartielle{F}{t}(a(t),t)\]
Si \(F \in \continue^2(\setR^2,\setR)\), la symétrie des dérivées secondes nous permet d'écrire :
\[\deriveepartielle{F}{t} = \deriveepartielle{}{t} \left[ \deriveepartielle{f}{s} \right] = \deriveepartielle{}{s} \left[ \deriveepartielle{f}{t} \right]\]
La dérivée partielle de \(F\) par rapport à \(t\) est donc une primitive de la dérivée partielle de \(f\) par rapport à \(t\). On en déduit que :
\[\int_\alpha^\beta \deriveepartielle{f}{t}(s,t) \ ds = \deriveepartielle{F}{t}(\beta,t) - \deriveepartielle{F}{t}(\alpha,t)\]
pour tout \(\alpha,\beta \in \setR\). Pour un \(t\) fixé quelconque, on peut poser \(\alpha = a(t)\) et \(\beta = b(t)\). Il vient alors :
\[\OD{I}{t}(t) = \deriveepartielle{F}{s}(b(t),t) \cdot \OD{b}{t}(t) - \deriveepartielle{F}{s}(a(t),t) \cdot \OD{b}{t}(t) + \int_{a(t)}^{b(t)} \deriveepartielle{f}{t}(s,t) \ ds\]
3. Différences finies
Soit une fonction \(f : \setR^2 \mapsto \setR^m\) deux fois continument dérivable. Nous allons voir comment évaluer des approximations des dérivées premières et secondes de \(f\). On note \(\partial_x = \partial_1\) et \(\partial_y = \partial_2\). On choisit les réels \(x,y\) et la variation non nulle \(h \in \setR\).
3.1. Dérivées premières
Soustrayons les développements d'ordre deux :
\( f(x + h,y) \approx f(x,y) + h \cdot \partial_x f(x,y) + \frac{h^2}{2} \cdot \partial^2 f(x,y) \)
\( f(x - h,y) \approx f(x,y) - h \cdot \partial_x f(x,y) + \frac{h^2}{2} \cdot \partial^2 f(x,y) \)
On obtient :
\[f(x + h,y) - f(x - h,y) \approx 2 h \cdot \partial_x f(x,y)\]
et donc :
\[\partial_x f(x,y) \approx \frac{f(x + h, y) - f(x - h, y)}{2 h}\]
L'erreur est en \(o(h) = o(h^2)/h\). En procédant de même avec \(y\), on obtient :
\[\partial_y f(x,y) \approx \frac{f(x, y + h) - f(x, y - h)}{2 h}\]
3.2. Dérivées secondes
On additionne cette fois les mêmes développements et on obtient :
\[f(x + h,y) + f(x - h,y) \approx 2 f(x,y) + \frac{h^2}{2} \cdot \partial^2 f(x,y) + o(h^2)\]
et donc :
\[\partial_{xx}^2 f(x,y) \approx \frac{f(x + h, y) - 2 f(x,y) + f(x - h, y)}{h^2}\]
L'erreur est en \(o(1) = o(h^2)/h^2\), et donc aussi petite que l'on veut pourvu que \(h \ne 0\) soit suffisamment petit. En procédant de même avec \(y\), on obtient :
\[\partial_{yy}^2 f(x,y) \approx \frac{f(x, y + h) - 2 f(x,y) + f(x, y - h)}{h^2}\]
On vérifie également en évaluant les développements en \((x \pm h, y \pm h)\) que :
\[\partial_{xy}^2 f(x,y) \approx \frac{f(x + h, y + h) - f(x + h, y - h) - f(x - h, y + h) + f(x - h, y - h)}{h^2}\]
La dernière dérivée seconde s'évalue approximativement par \(\partial_{yx}^2 f(x,y) = \partial_{xy}^2 f(x,y)\).
3.3. Généralisation
Nous allons voir comment généraliser ces résultats aux dérivées \(\partial_{ij}\) d'une fonction \(F : \setR^n \mapsto \setR^m\). Soit \(u \in \setR^n\) et les vecteurs de la base canonique \(\canonique_i \in \setR^n\). On définit les fonctions \(f_{ij} : \setR^n \mapsto \setR^m\) par :
\[f_{ij}(x,y) = F(u + x \cdot \canonique_i + y \cdot \canonique_j)\]
On a clairement :
\begin{align} \partial_i F(u) &= \partial_x f_{ij}(0,0) \) \( \partial_{ii} F(u) &= \partial_{xx} f_{ij}(0,0) \) \( \partial_{ij} F(u) &= \partial_{xy} f_{ij}(0,0) \) \( \partial_{jj} F(u) &= \partial_{yy} f_{ij}(0,0) \end{align}Il suffit donc d'utiliser les méthodes d'approximations des dérivées de \(f_{ij}\) pour approximer les dérivées de \(F\).