Eclats de vers : Matemat 08 : Différentielles - 2

Index des Grimoires

Retour à l’accueil

Table des matières

\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)

1 Différentielles et polynômes

\label{chap:diffpoly}

1.1 Dépendances

  • Chapitre \ref{chap:differ} : Les différentielles

1.2 Polynômes

Soit \(n \in \setN\). Nous allons analyser la différentiabilité du monôme \(\mu : \setR \mapsto \setR\) défini par :

\[\mu : t \mapsto t^n\]

pour tout \(t \in \setR\). La formule de factorisation nous donne :

\[s^n - t^n = (s - t) \sum_{i = 0}^{n - 1} s^i \cdot t^{n - 1 - i}\]

On a donc :

\[\frac{s^n - t^n}{s - t} = \sum_{i = 0}^{n - 1} s^i \cdot t^{n - 1 - i}\]

Passant à la limite \(s \to t\), on obtient :

\[\lim_{ s \to t} \frac{s^n - t^n}{s - t} = \sum_{i = 0}^{n - 1} t^i \cdot t^{n - 1 - i} = \sum_{i = 0}^{n - 1} t^{n - 1} = n \cdot t^{n - 1}\]

On en conclut que la dérivée existe sur \(\setR\) et que :

\[\OD{}{t} (t^n) = \lim_{ s \to t} \frac{s^n - t^n}{s - t} = n \cdot t^{n - 1}\]

La dérivée d'une combinaison linéaire étant identique à la combinaison linéaire des dérivées (voir dérivée d'une somme et la multiplication par une constante), on en conclut que tous les polynômes sont dérivables sur \(\setR\).

1.2.1 Uniformité

Choisissons \(\alpha,\beta \in \setR\) avec \(\alpha \le \beta\) et analysons la différentiabilité sur l'intervalle \([\alpha,\beta]\). Posons :

\[e(s,t) = \frac{s^n - t^n}{s - t} - \OD{}{t}(t^n)\]

Si \(n = 1\), on a :

\[e(s,t) = \frac{s - t}{s - t} - 1 = 0\]

Le monôme de degré \(1\) est donc uniformément différentiable. Considérons à présent le cas où \(n \ge 2\). Le passage à la limite nous montre que :

\[\OD{}{t} (t^n) = \sum_{i = 0}^{n - 1} t^i \cdot t^{n - 1 - i}\]

En utilisant les propriétés des sommes, on obtient :

\begin{align} e(s,t) &= \sum_{i = 0}^{n - 1} s^i \ t^{n - 1 - i} - \sum_{i = 0}^{n - 1} t^i \ t^{n - 1 - i} \\ &= \sum_{i = 0}^{n - 1} (s^i - t^i) \ t^{n - 1 - i} \end{align}

En factorisant tous les \(s^i - t^i\), on a alors :

\[e(s,t) = \sum_{i = 0}^{n - 1} t^{n - 1 - i} \ (s - t) \ \sum_{k = 0}^{i - 1} s^k \ t^{i - 1 - k}\]

et comme \(s - t\) ne dépend pas de \(i\) :

\[e(s,t) = (s - t) \sum_{i = 0}^{n - 1} t^{n - 1 - i} \ \sum_{k = 0}^{i - 1} s^k \ t^{i - 1 - k}\]

Si on pose \(M = \max \{ \abs{\alpha} , \abs{\beta} \}\), on a clairement \(\abs{s}, \abs{t} \le M\). On peut alors trouver la borne supérieure :

\begin{align} \abs{e(s,t)} &\le \abs{s - t} \sum_{i = 0}^{n - 1} M^{n - 1 - i} \ \sum_{k = 0}^{i - 1} M^{i - 1} \\ &\le \abs{s - t} \sum_{i = 0}^{n - 1} M^{n - 1 - i} \ i \ M^{i - 1} \\ &\le \abs{s - t} \ M^{n - 2} \ \sum_{i = 0}^{n - 1} i \\ &\le \unsur{2} \ \abs{s - t} \ M^{n - 2} \ (n - 1) \ n \end{align}

Fixons à présent \(\epsilon \strictsuperieur 0\). Il suffit de prendre :

\[\abs{s - t} \le \delta \le \frac{ 2 \epsilon}{ M^{n - 2} \cdot (n - 1) \cdot n }\]

pour avoir :

\[\abs{e(s,t)} \le \frac{ M^{n - 2} \cdot (n - 1) \cdot n \cdot \delta }{2} \le \epsilon\]

Comme on a :

\[\mu(s) - \mu(t) - \partial \mu(t) = s^n - t^n - n \cdot t^{n - 1} = e(s,t) \cdot (s - t)\]

on dispose de la borne supérieure :

\[\abs{\mu(s) - \mu(t) - \partial \mu(t)} \le \abs{e(s,t)} \cdot \abs{s - t} \le \epsilon \cdot \abs{s - t}\]

Comme le choix de \(\delta\) ne dépend ni de \(s\) ni de \(t\), le monôme \(\mu\) est uniformément différentiable sur \([\alpha,\beta]\).

On généralise aisément à un polynôme quelconque :

\[p(x) = \sum_{i = 0}^n a_i \cdot x^i\]

en constatant que :

\[\abs{p(s) - p(t) - \partial p(t) \cdot (s - t)} \le \abs{s - t} \sum_{i = 0}^n \abs{a_i} \cdot \abs{e_i(s,t)}\]

où \(e_i\) est l'erreur obtenue avec le monôme de degré \(i\). Mais comme on peut trouver des \(\delta_k\) tels que :

\[\abs{e_i(s,t)} \le \frac{\epsilon}{\sum_j \abs{a_j}}\]

il suffit de choisir \(\delta = \min \{ \delta_0, \delta_1, ..., \delta_n \}\) pour avoir :

\[\abs{p(s) - p(t) - \partial p(t) \cdot (s - t)} \le \abs{s - t} \cdot \epsilon \cdot \frac{ \sum_i \abs{a_i} }{ \sum_j \abs{a_j} } = \abs{s - t} \cdot \epsilon\]

Tout polynôme est uniformément différentiable sur des intervalles de la forme \([\alpha,\beta]\). Cette généralisation montre aussi que toute combinaison linéaire de fonctions uniformément différentiables est uniformément différentiable.

2 Dérivées des puissances

2.1 Introduction

Nous allons évaluer les dérivées des fonctions \(f : x \mapsto x^\alpha\) où \(x,\alpha \in \setR\).

2.2 L'inverse multiplicatif

Commençons par :

\( x \cdot y = 1 \\ y = \unsur{x} = x^{-1} \)

On en déduit que :

\[x \cdot dy + y \cdot dx = d(1) = 0\]

ce qui nous donne :

\[\OD{}{x}\left( \unsur{x} \right) = \OD{y}{x} = -\frac{y}{x} = -\frac{1}{x^2}\]

2.3 Puissances négatives

Considérons la relation :

\[y = x^{-n}\]

où \(n\in\setN\). On définit la variable intermédiaire \(z\) telle que :

\( z = x^{-1} \\ y = z^n \)

On en déduit :

\begin{align} \OD{y}{x} = \OD{y}{z} \cdot \OD{z}{x} &= n \cdot z^{n - 1} \cdot \left( -\unsur{x^2} \right) \\ &= - n \cdot x^{1 - n} \cdot x^{-2} \\ &= (-n) \cdot x^{-n - 1} \end{align}

2.4 Racines

Toujours pour \(n \in \setN\), considérons la relation :

\[y = x^n \qquad \Leftrigfhtarrow\qquad x = y^{1/n}\]

Posons \(\alpha = 1/n\). On a :

\[\OD{y}{x} = n \cdot x^{n - 1} = n \cdot y \cdot y^{-\alpha}\]

Donc :

\[\OD{x}{y} = \alpha \cdot y^{\alpha-1}\]

2.5 Puissances fractionnaires

Choisissons à présent :

\[y = x^{m/n}\]

où \(m\in\setZ\) et \(n\in\setN\). Définissons la variable intermédiaire :

\[z = x^m\]

On a alors :

\[y = z^{1/n}\]

Posons \(\alpha = m/n\). La dérivée s'écrit :

\begin{align} \OD{y}{x} = \OD{y}{z} \cdot \OD{z}{x} &= \unsur{n} \cdot z^{\unsur{n} - 1} \cdot m \cdot x^{m - 1} \\ &= \alpha \cdot x^{\alpha - m} \cdot x^{m - 1} \\ &= \alpha \cdot x^{\alpha - 1} \end{align}

On a donc :

\[\OD{}{x}\left( x^\alpha \right) = \alpha \cdot x^{\alpha-1}\]

2.6 Puissances réelles

Par passage à la limite, on obtient :

\[\OD{}{x}\left( x^\alpha \right) = \alpha \cdot x^{\alpha-1}\]

pour tout \(\alpha \in \setR\).

3 Différentielles et matrices

3.1 Applications linéaires

Soit \(A \in \matrice(\setR,m,n)\). Considérons la fonction \(\mathcal{A} : \setR^m \times \setR^n \mapsto \setR\) définie par :

\[\mathcal{A}(x) = A \cdot x\]

En terme de composantes, on a :

\[\mathcal{A}_i(x) = \sum_j A_{ij} \cdot x_j\]

Les dérivées s'écrivent :

\[\deriveepartielle{\mathcal{A}_i}{x_k}(x) = A_{ik}\]

On a donc :

\[\deriveepartielle{}{x}(A \cdot x) = A\]

3.2 Formes linéaires

Soit \(u \in \setR^n\). Considérons la forme linéaire \(\varphi : \setR^n \mapsto \setR\) définie par :

\[\varphi(x) = x^\dual \cdot u\]

En terme de composantes, on a :

\[\varphi(x) = \sum_i x_i \cdot u_i\]

Les dérivées s'écrivent :

\[\deriveepartielle{\varphi}{x_k}(x) = u_i\]

On a donc :

\[\deriveepartielle{}{x}(x^\dual \cdot u) = u\]

Comme \(u^\dual \cdot x = x^\dual \cdot u\), on a aussi :

\[\deriveepartielle{}{x}(u^\dual \cdot x) = u\]

3.3 Formes bilinéaires

Soit à présent \(A \in \matrice(\setR,m,n)\). Considérons la forme bilinéaire \(\vartheta : \setR^m \times \setR^n \mapsto \setR\) définie par :

\[\vartheta(x,y) = x^\dual \cdot A \cdot y\]

En terme de composantes, on a :

\[\vartheta(x,y) = \sum_{i,j} x_i \cdot A_{ij} \cdot y_j\]

Les dérivées s'écrivent :

\( \deriveepartielle{\vartheta}{x_k}(x,y) = \sum_j A_{kj} \cdot y_j \\ \\ \deriveepartielle{\vartheta}{y_k}(x,y) = \sum_i x_i \cdot A_{ik} \)

On a donc :

\( \deriveepartielle{}{x}(x^\dual \cdot A \cdot y) = A \cdot y \\ \\ \deriveepartielle{}{y}(x^\dual \cdot A \cdot y) = A^\dual \cdot x \)

Les dérivées secondes s'en déduisent alors :

\( \dfdxdy{}{x}{x}(x^\dual \cdot A \cdot y) = 0 \\ \\ \dfdxdy{}{y}{y}(x^\dual \cdot A \cdot y) = 0 \\ \\ \dfdxdy{}{y}{x}(x^\dual \cdot A \cdot y) = A \)

3.4 Formes quadratiques

Soit à présent \(A \in \matrice(\setR,n,n)\). Considérons la forme quadratique \(\mathcal{Q} : \setR^m \times \setR^n \mapsto \setR\) définie par :

\[\mathcal{Q}(x) = x^\dual \cdot A \cdot x\]

En terme de composantes, on a :

\[\mathcal{Q}(x) = \sum_{i,j} x_i \cdot A_{ij} \cdot x_j\]

Les dérivées s'écrivent :

\begin{align} \deriveepartielle{\mathcal{Q}}{x_k}(x) &= \sum_j A_{kj} \cdot x_j + \sum_i x_i \cdot A_{ik} \\ &= \sum_i (A_{ki} + A_{ik}) \cdot x_i \end{align}

On a donc :

\[\deriveepartielle{}{x}(x^\dual \cdot A \cdot x) = (A + A^\dual) \cdot x\]

La dérivée seconde est alors immédiate :

\[\dfdxdy{}{x}{x}(x^\dual \cdot A \cdot x) = A + A^\dual\]

Un cas fréquent est celui d'une matrice \(H\) hermitienne (\(H^\dual = H\)). On a alors :

\[\deriveepartielle{}{x}(x^\dual \cdot H \cdot x) = 2 \cdot H \cdot x\]

et :

\[\dfdxdy{}{x}{x}(x^\dual \cdot H \cdot x) = 2 \cdot H\]

3.5 Produit matriciel

Soient les fonctions \(A : \setR \mapsto \matrice(\setR,m,n)\) et \(B : \setR \mapsto \matrice(\setR,n,p)\) qui, à chaque réel \(t\), associent des matrices de composantes réelles. Nous allons tenter de trouver une expression de la dérivée du produit matriciel \(A \cdot B\). Les propriétés des différentielles nous permettent d'écrire :

\[\partial \sum_{k = 1}^n A_{ik}(t) \cdot B_{kj}(t) = \sum_{k = 1}^n \partial A_{ik}(t) \cdot B_{kj}(t) + \sum_{k=1}^n A_{ik}(t) \cdot \partial B_{kj}(t)\]

On a donc :

\[\partial (A \cdot B) = \partial A \cdot B + A \cdot \partial B\]

ou, symboliquement :

\[d(A \cdot B) = dA \cdot B + A \cdot dB\]

3.6 Matrice inverse

Considérons le cas où \(A\) est carrée (\(m = n\)). En dérivant la relation \(A \cdot A^{-1} = I\), on obtient :

\[0 = dI = d(A \cdot A^{-1}) = dA \cdot A^{-1} + A \cdot dA^{-1}\]

et donc :

\[d(A^{-1}) = - A^{-1} \cdot dA \cdot A^{-1}\]

4 Résolution d'équations

4.1 Introduction

Soit une fonction \(F : \setR^n \mapsto \setR^n\) et l'espace des solutions :

\[S = \{ s \in \setR^n : F(s) = 0 \} = \noyau F\]

Nous allons tenter d'obtenir itérativement une estimation d'un \(s \in S\). 0n part d'un certain \(x_0 \in \setR^n\) et on essaie à chaque itération :

\[x_{k + 1} = I(x_k) = x_k + \Delta_k\]

d'améliorer la qualité de notre estimation, c'est à dire de rapprocher \(F(x_{k + 1})\) de zéro. On espère que pour \(K\) assez grand, on aura :

\[F(x_K) \approx \lim_{k \to \infty} F(x_k) = 0\]

A moins que l'on ait déjà une vague idée d'une région \(X \subseteq \setR^n\) contenant une solution \(s \in S\), on choisit en général \(x_0 = 0\).

4.2 Newton-Raphson

On demande à chaque étape que le développement du premier ordre autour de \(x_k\) s'annule en \(x_{k + 1} = x_k + \Delta_k\). On impose donc :

\[F(x_{k + 1}) \approx F(x_k) + \partial F(x_k) \cdot \Delta_k \approx 0\]

On est amenés à résoudre le système :

\[\partial F(x_k) \cdot \Delta_k = - F(x_k)\]

Si la matrice \(\partial F(x_k)\) est inversible, on a :

\[\Delta_k = - \left[\partial F(x_k)\right]^{-1} \cdot F(x_k)\]

et :

\[x_{k + 1} = x_k - \left[\partial F(x_k)\right]^{-1} \cdot F(x_k)\]

4.3 Banach

On voit que la condition \(F(s) = 0\) est équivalente à \(F(s) + s = s\). On définit donc la fonction \(f : \setR^n \to \setR^n\) par :

\[f(x) = F(x) + x\]

pour tout \(x \in \setR^n\), et on cherche un \(s\) tel que \(f(s) = F(s) + s = s\). Si \(f\) est contractante, on applique le théorème de Banach en itérant simplement par :

\[x_{k + 1} = f(x_k) = f^{k + 1}(x_0)\]

Pour \(K\) assez grand, on a alors :

\[x_K \approx \lim_{k \to \infty} x_k = s\]

4.4 Méthode hybride d'Aitken

Supposons à présent que \(F,f : \setR \to \setR\) avec \(f(x) = F(x) + x\) pour tout \(x \in \setR\). L'idée est d'utiliser simultanément les deux approches \(F(s) = 0\) et \(f(s) = F(s) + s = s\). Soit :

\[F'(x) = \OD{F}{x}(x)\]

Supposons qu'au bout de \(k\) itérations on ait obtenu \(x_k\) comme approximation de la solution \(s\). On commence par effectuer deux $f$-itérations en partant de \(x_k\) :

\begin{align} u_0 &= x_k \\ u_1 &= f(u_0) \\ u_2 &= f(u_1) \end{align}

Les valeurs de \(F\) s'écrivent alors :

\( F(u_0) = f(u_0) - u_0 = u_1 - u_0 \\ F(u_1) = f(u_1) - u_1 = u_2 - u_1 \)

On se sert ensuite du développement :

\[F(u_0) \approx F(u_1) + F'(u_1) \cdot (u_0 - u_1)\]

pour approximer \(F'\) :

\[F'(u_1) \approx \frac{F(u_0) - F(u_1)}{u_0 - u_1} = \frac{F(u_1) - F(u_0)}{u_1 - u_0}\]

On a donc :

\[F'(u_1) \approx \frac{(u_2 - u1) - (u_1 - u_0)}{u_1 - u_0} = \frac{(u_2 - 2 u_1 + u_0)}{u_1 - u_0}\]

On applique ensuite l'itération de Newton-Raphson :

\[x_{k + 1} = x_{k} - \frac{F(x_k)}{F'(x_k)}\]

en remplaçant la dérivée \(F'\) par son approximation :

\[x_{k+1} = x_k - \frac{(u_1 - u_0)^2}{u_2 - 2 u_1 + u_0}\]

On espère que la suite des \(x_k\) ainsi définie converge plus vite vers la solution \(s\) que la suite des \(f^k(x_0)\).

Auteur: chimay

Created: 2019-10-01 mar 12:33

Validate