Eclats de vers : Matemat 11 : Équations différentielles - 4

Index des Grimoires

Retour à l’accueil

Table des matières

\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)

1. Fonctions trigonométriques inverses

Les fonctions trigonométriques ne sont pas inversible. Soit \(y \in \setR\) et \(s \in \setR\) une solution du problème :

\[\sin(s) = y\]

alors, pour tout \(k \in \setN\), on a :

\[\sin(x + 2 \ k \ \pi) = \sin(x) = y\]

L'ensemble des solutions :

$$S(x) = \{ x ∈ \setR

De même pour la fonction \(\cos\). Par contre, elles sont localement inversible, et on peut définir les fonctions \(\arcsin\), \(\arccos\), \(\arctan\) par :

\( \arcsin(y) = x \\ \Leftrightarrow\\ y = \sin(x) \\ x \in [-\pi/2,\pi/2] \)

\( \arccos(y) = x \\ \Leftrightarrow\\ y = \cos(x) \\ x \in [0,\pi] \)

\( \arctan(y) = x \\ \Leftrightarrow\\ y = \tan(x) \\ x \in [-\pi/2,\pi/2] \)

2. Equations aux dérivées partielles

2.1. Courbes caractéristiques

Soit \(u \in F = \continue^1(\setR^2,\setR)\) et l'équation aux dérivées partielles à résoudre sur \(\Omega\subseteq\setR^2\) :

\[a(x,y,u) \ u_x(x,y) + b(x,y,u) \ u_y(x,y) = c(x,y,u)\]

où nous introduisons les notations :

\( u_x(x,y) = \deriveepartielle{u}{x}(x,y) \\ u_y(x,y) = \deriveepartielle{u}{y}(x,y) \)

Les coefficients \(a,b,c\) sont en général des fonctions de \(x,y,u\) mais ne peuvent pas dépendre de \(u_x\) ni de \(u_y\). Soit à présent la courbe \(\Gamma\) définie par :

\[\Gamma = \{ \left(w_x(t),w_y(t)\right) : t \in\setR \}\]

où \(w_x\) et \(w_y\) sont des fonctions dérivables. Définissons la restriction de \(u\) à \(\Gamma\) :

\[\varphi(t) = u\left(w_x(t),w_y(t)\right)\]

Si on s'arrange pour que :

\( \OD{w_x}{t}(t) = a(w_x(t),w_y(t),u(w_x(t),w_y(t))) \\ \OD{w_y}{t}(t) = b(w_x(t),w_y(t),u(w_x(t),w_y(t))) \)

On a alors :

\[\OD{\varphi}{t} = u_x \ a + u_y \ b = c\]

Définissons alors :

\[f : (t,u) \mapsto c\left(w_x(t),w_y(t),u\right)\]

On a :

\[\OD{\varphi}{t}(t) = f(t,u(t))\]

qui est une équation différentielle ordinaire en \(t\). On peut donc connaître \(\varphi\) et donc \(u\) sur \(\Gamma\) si on ajoute la condition initiale :

\[\varphi(0) = u_0\]

On dit alors que \(\Gamma\) est une courbe caractéristique de l'équation aux dérivées partielles.

2.2. Fonction de Green

Soit un espace fonctionnel \(F \subseteq \Leb^2(\setR^n,\setR)\) et une forme \(\forme{}{} : F^D \times F \mapsto \setR\) à laquelle on associe par abus de notation :

\[\int_A u(x) \cdot v(x) \ dx = \forme{u}{v}\]

où \(A \subseteq \setR^n\).

Soit un opérateur \(L : F \mapsto \Leb^2(\setR^n,\setR)\) qui vérifie :

\[\forme{u}{L(v)} = \forme{L(u)}{v}\]

pour tout \(u,v\in F\). On dit d'un tel opérateur qu'il est auto-adjoint.

Nous nous intéressons à l'équation différentielle :

\[L(u) = f\]

où \(f \in F\).

Introduisons la distribution \(\delta\) de Dirac :

\[\int_A \delta(x-a) \ f(x) \ dx = f(a)\]

et définissons la famille de solutions \(v_x\) telles que :

\[L(v_x)(y)=\delta(y-x)\]

On peut alors définir la fonction de Green \(G\) :

\[G(x,y)=v_x(y)\]

Mais les propriétés de \(L\) nous permettent d'écrire :

\[\forme{L(v_x)}{u} = \forme{v_x}{L(u)}\]

Si \(u\) est la solution de \(L(u) = f\), l'équation précédente peut se formeuler comme :

\[\int_A \delta(y-x) \ u(y) \ dy = \int_A v_x(y) \ f(y) \ dy\]

et finalement :

\[u(x) = \int_A G(x,y) \ f(y) \ dy\]

2.2.1. Exemple d'opérateur auto-adjoint

Comme exemple d'opérateur auto-adjoint, citons :

\[L : u \mapsto \lapl u = \sum_i \dfdxdx{u}{x_i}\]

3. Algorithmes de résolution d'EDO

\label{chap:algoedo}

3.1. Introduction

AFAIRE : ARRANGER LE CHAPITRE

Le but est de calculer une approximation de la solution \(y\) de

\( \OD{y}{x}(x) = f(x,y(x)) \\ y(0) = y_0 \)

Pour cela, on choisit \(n\) points \(x_i\), et on tente de progresser en évaluant les approximations successives \(y_{i+1} \approx y(x_{i+1})\) à partir de \(y_i\), pour $i=0,1,2,…$. On pose :

\[h_i = x_{i+1} - x_i\]

3.1.1. Euler

On se sert de la formulation intégrale correspondant à l'équation différentielle que l'on veut résoudre :

\[y_{i+1} = y_i + \int_{x_i}^{x_{i+1}} f(x,y(x)) \ dx\]

Si \(h_i\) est suffisamment petit, la fonction \(y\) sera plus ou moins constante sur l'intervalle \([x_i,x_{i+1}]\) et on peut approximer la formulation intégrale par :

\[y_{i+1} = y_i + h_i \cdot f(x_i,y_i)\]

Cette méthode se nomme Euler explicite.

\label{page:euler_expl}

3.1.2. Predicteur - Correcteur

On part de nouveau de :

\[y_{i+1} = y_i + \int_{x_i}^{x_{i+1}} f(x,y(x)) \ dx\]

On commence par calculer une première estimation de \(y(x_{i+1})\) en utilisant la méthode d'Euler explicite :

\[y_{i+1}^* = y_i + h_i \cdot f(x_i,y_i)\]

La valeur \(y_{i+1}^*\) ainsi obtenue est nommé prédicteur.

Une fois cette première estimation évaluée, on construit une meilleure approximation de l'intégrale en supposant que, pour \(t\in [0,1]\) :

\[f\left(x_i + t \cdot h_i,y(x_i + t h_i)\right) \approx f_i + t \cdot (f^*_{i+1} - f_i)\]

avec :

\( f_i = f(x_i,y_i) \\ f^*_{i+1} = f(x_{i+1},y^*_{i+1}) \)

On obtient :

\begin{align} \int_{x_i}^{x_{i+1}} f(x,y(x)) \ dx &\approx& h_i \int_0^1 \left[ f_i + t \cdot (f^*_{i+1} - f_i) \right] dt \\ &\approx& \frac{h_i}{2} \cdot \left( f_i + f^*_{i+1} \right) \end{align}

L'étape correctrice s'écrit donc :

\[y_{i+1} = y_i + \frac{h_i}{2} \cdot [f(x_i,y_i) + f(x_{i+1},y_{i+1}^*)]\]

3.1.3. Taylor

Partant des dérivées de la fonction \(y(x) = f(x,y(x))\) :

\begin{align} \OD{y}{x} &= f \\ \frac{d^2 y}{dx^2} &= \deriveepartielle{f}{x}+\deriveepartielle{f}{y}\OD{y}{x} = \deriveepartielle{f}{x}+\deriveepartielle{f}{y} f \\ \frac{d^3 y}{dx^3} &= ... \end{align}

on peut écrire le développement en série de Taylor de \(y\) autour de \(x_i\) :

\[y_{i+1} = y_i + f(x_i,h_i) \ h_i + \OD{f}{x}(x_i,y_i) \ \frac{h_i^2}{2} + ...\]

4. Algorithmes de résolution d'EDP

4.1. Résolution par les caractéristiques

AFAIRE : ARRANGER LE CHAPITRE

Soit une équation du premier ordre à résoudre :

\[a(x,y,u) \ u_x(x,y) + b(x,y,u) \ u_y(x,y) = c(x,y,u)\]

Supposons que l'on connaisse la valeur de la solution :

\[u_{i0} = u(x_{i0},y_{i0})\]

pour \(i = 1,2,...,n\). Les équations :

\[\OD{x}{t} = a \qquad \OD{y}{t} = b \qquad \OD{u}{t} = c\]

nous permettent de construire simultanément les courbes caractéristiques et la solution. Par exemple, si on utilise le schéma d'Euler explicite, on a :

\( x_{i,k+1} = x_{ik} + h_k \ a(x_{ik},y_{ik},u_{ik}) \\ y_{i,k+1} = y_{ik} + h_k \ b(x_{ik},y_{ik},u_{ik}) \\ u_{i,k+1} = u_{ik} + h_k \ c(x_{ik},y_{ik},u_{ik}) \)

4.2. Différences finies

On vérifie sur le développement de Taylor de \(u\) que :

\( u_x(x,y) \approx \frac{u(x+h,y) - u(x-h,y)}{2 h} \\ u_y(x,y) \approx \frac{u(x,y+h) - u(x,y-h)}{2 h} \)

pour les dérivées premières et :

\( u_{xx}(x,y) \approx \unsur{h^2} \ \left(u(x+h,y)-2 u(x,y) + u(x-h,y)\right) \\ u_{yy}(x,y) \approx \unsur{h^2} \ \left(u(x,y+h)-2 u(x,y) + u(x,y-h)\right) \\ u_{xy}(x,y) \approx \unsur{4h^2} \ \left(u(x+h,y+h) + u(x-h,y-h) \right\relax \\ \qquad\qquad \left\relax - u(x+h,y-h) - u(x-h,y+h)\right) \)

pour les dérivées secondes. L'erreur converge vers \(0\) aussi vite que \(h^2\). Posons :

\[U_{ij} = u(i h, j h)\]

Les dérivées approximatives s'écrivent :

\( u_x \approx \Delta_x U_{ij} = \unsur{2 h} \ (U_{i+1,j} - U_{i-1,j}) \\ u_y \approx \Delta_y U_{ij} = \unsur{2 h} \ (U_{i,j+1} - U_{i,j-1}) \)

et :

\( u_{xx} \approx \Delta_x^2 U_{ij} = \unsur{h^2} \ (U_{i+1,j} - 2 U_{ij} + U_{i-1,j}) \\ u_{yy} \approx \Delta_y^2 U_{ij} = \unsur{h^2} \ (U_{i,j+1} - 2 U_{ij} + U_{i,j-1}) \\ u_{xy} \approx \Delta_x\Delta_y U_{ij} = \unsur{4 h^2} \ (U_{i+1,j+1} - U_{i+1,j-1} - U_{i-1,j+1} + U_{i-1,j-1}) \)

On substitue alors ces expressions dans l'équation :

\[F(x,y,u,u_x,u_y,u_{xx},u_{xy},u_{yy}) = 0\]

et on obtient un système linéaire à résoudre en les \(U_{ij}\).

4.3. Eléments finis

\label{sec:elements_finis}

Soient des espaces fonctionnels \(F,H\subset\fonction(\Omega,\setR)\) et un opérateur linéaire :

\[L \in \lineaire(F,H)\]

Nous cherchons à résoudre de manière approchée l'équation différentielle associée :

\[L(u) = f\]

où \(f\) est une fonction de \(H\). La méthode des éléments finis consiste à imposer l'annulation de l'intégrale du résidu \(L(u)\), pondéré par des fonctions \(\psi_i\) :

\[\int_\Omega \left[L(u)(x)-f(x)] \ \psi_i(x) \ dx = 0\]

pour \(i = 1,2,...,n\). Afin de résoudre ce problème, on discrétise la solution approchée \(u\) :

\[u(x) = \sum_{i=1}^n U_i \ \varphi_i(x)\]

où les \(U_i\) sont des réels et les \(\varphi_i\) des fonctions de \(F\). On définit les grandeurs :

\( A_{ij} = \int_\Omega L(\varphi_i)(x) \ \psi_i(x) \ dx \\ F_i = \int_\Omega f(x) \ \psi_i(x) \ dx \)

et les matrices :

\( U = (U_i)_i \\ A = (A_{ij})_{i,j} \\ F = (F_i)_i \)

En utilisant la linéarité de \(L\), l'équation des résidus pondérés :

\[\int_\Omega L(u)(x) \ \psi_i(x) \ dx = \int_\Omega f(x) \ \psi_i(x) \ dx\]

devient :

\[A \ U = F\]

soit un système linéaire à résoudre en \(U\) :

\[U = A^{-1} \ F\]

ce qui nous donne une forme approchée \(u\) de la solution exacte.

Auteur: chimay

Created: 2023-05-10 mer 16:45

Validate