Eclats de vers : Matemat 11 : Équations différentielles
Table des matières
- 1. Equations différentielles ordinaires
- 2. Exponentielle
- 3. Logarithme
- 4. Fonctions hyperboliques
- 5. Exponentielle matricielle
- 6. Fonctions trigonométriques
- 7. Fonctions trigonométriques inverses
- 8. Equations aux dérivées partielles
- 9. Algorithmes de résolution d'EDO
- 10. Algorithmes de résolution d'EDP
\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)
1. Equations différentielles ordinaires
\label{chap:edo}
1.1. Fonctions Lipschitziennes
Les fonctions Lipschitziennes sont des fonctions à variations bornées :
\[\lipschitz(A,B) = \{ f \in \fonction(A,B) : \exists L \in \setR : \forall x,y \in A : \norme{f(x)-f(y)} \le L \norme{x-y} \}\]
1.2. Problème différentiel d'ordre un
Soit \(f\in\lipschitz( \setR \times \setR^n , \setR)\), et l'application \(A\) définie par :
\[A(u)(t) = u_0 + \int_0^t f(s, u(s)) \ ds\]
pour toute fonction \(u : U \subseteq \setR \mapsto \setR\).
On peut montrer que \(A\) est contractante pour la distance définie pour toutes fonctions \(u,v\) par :
\[\distance(u,v) = \sup_{a \le t \le b} \norme{u(t) - v(t)}\]
où \(\norme{.}\) est la norme usuelle sur \(\setR^n\) :
\[\norme{x} = \sqrt{ \sum_{i=1}^n x_i^2 }\]
Cette application admet donc un unique point fixe \(u\) tel que :
\[u = A(u)\]
En dérivant cette relation, on obtient :
\[\OD{u}{t}(t) = \OD{}{t} A(u)(t) = \OD{}{t} \int_0^t f(s, u(s)) \ ds\]
La dérivée de l'intégrale vaut \(f(t, u(t)\) et on a :
\[\OD{u}{t}(t) = f(t, u(t))\]
On a aussi :
\[u(0) = u_0 + \int_0^0 f(s, u(s)) \ ds = u_0\]
Notre point fixe \(u\) est donc solution du problème différentiel :
\begin{align} \OD{u}{t}(t) &= f(t,u(t)) \\ \\ u(0) &= u_0 \end{align}Inversément, en intégrant la première équation ci-dessous entre \(0\) et \(t\), on obtient la relation :
\[u(t) - u_0 = \int_0^t f(s, u(s)) \ ds\]
autrement dit :
\[u(t) = u_0 + \int_0^t f(s, u(s)) \ ds = A(u)\]
Toute solution du problème différentiel est donc point fixe de \(A\). Comme ce point fixe est unique, on en conclut que la solution du problème différentiel l'est aussi.
1.2.1. Convergence
La série des \(u^{(n)}\) définie par :
\[u^{(n)}(t) = A\big(u^{(n-1)}\big) = u_0 + \int_0^t f\big(s,u^{(n-1)}(s)\big) \ ds\]
converge au sens de la distance \(\sup\) définie ci-dessus vers la solution de ce problème différentiel :
\[\lim_{n \to +\infty} \sup_{a \le t \le b} \norme{u(t) - u^{(n)}(t)} = 0\]
1.2.2. Notation
Pour toute fonction :
\[u : \setR \mapsto \setR, \ t \mapsto u(t)\]
on note aussi :
\( \dot{u} = \OD{u}{t} \\ \ddot{u} = \OOD{u}{t} \)
ou :
\( u'(t) = \OD{u}{t}(t) \\ u''(t) = \OOD{u}{t}(t) \)
1.3. Problème différentiel d'ordre quelconque
Soit les fonctions :
\[a_0, a_1, ..., a_{n - 1} : \setR \mapsto \setR\]
et une solution \(u : \setR \mapsto \setR\) du problème différentiel d'ordre \(n\) :
\begin{align} a_0(t) \cdot u(t) + \sum_{i=1}^{n-1} a_i(t) \cdot \NOD{u}{t}{i}(t) &= 0 \\ \\ u(0) &= U_0 \\ \\ \NOD{u}{t}{i}(0) &= U_i \qquad (i=1,...,n - 1) \end{align}Ce problème peut se ramener à un problème différentiel d'ordre un. Pour cela on définit la fonction \(v : \setR \mapsto \setR^n\) par :
\( v(t) = \Big(v_i(t)\Big)_{i = 0, ..., n - 1} = \Big( \NOD{u}{t}{i}(t) \Big)_{i = 0, ..., n - 1} \)
pour tout \(t \in \setR\). On voit alors que :
\( \OD{v}{t} =
\begin{Matrix}{ccccc} 0 & 1 & 0 & \hdots & \\ 0 & 0 & 1 & 0 & \hots \\ \vdots & & & & \\ 0 & \hdots & \hdots & 0 & 1 \\ -a_0/a_n & -a_1/a_n & \hdots & \hdots & -a_{n-1}/a_n \end{Matrix}⋅ v \)
La condition initiale s'écrit :
\( v(0) = (U_i)_{i = 0, ..., n - 1} \)
Comme il existe une et une seule solution \(v\) au problème d'ordre un associé, le problème différentiel d'ordre \(n\) admet également une unique solution :
\[u : t \mapsto v_0(t)\]
1.4. Problème aux limites
Soit la fonctionnelle \(I : \continue^2([a,b],\setR) \mapsto \setR\). Nous allons tenter de minimiser \(I\) sur l'ensemble :
\[\mathcal{F} = \{ u \in \continue^2([a,b],\setR) : u(a) = U_1, \ u(b) = U_2 \}\]
On voit que les valeurs de toute fonction \(u \in \mathcal{F}\) sont contraintes aux extrémités du domaine de \(u\). On parle dans ce cas de problème aux limites.
Soit \(u \in \mathcal{F}\) et la fonction \(w\) appartenant à l'ensemble :
\[\mathcal{W} = \{ w \in \continue^2([a,b],\setR) : w(a) = w(b) = 0 \}\]
On a alors \(u + \epsilon \cdot w \in \mathcal{F}\) pour tout \(w \in \mathcal{W}\) et tout \(\epsilon \in \setR\), car :
\( u(a) + \epsilon \cdot w(a) = u(a) = U_1 \\ u(b) + \epsilon \cdot w(b) = u(b) = U_2 \)
On considère la famille de fonctions \(J_w : \setR \mapsto \setR\) définies par :
\[J_w(\epsilon) = I(u + \epsilon \cdot w)\]
pour tout \(w \in \mathcal{W}\) et tout \(\epsilon \in \setR\). Si \(u\) minimise \(I\) sur \(\mathcal{F}\), on a évidemment \(J_w(\epsilon) \ge J_w(0)\) pour tout \(w \in \mathcal{W}\) et pour tout \(\epsilon \in \setR\). Il est par conséquent nécessaire que la condition de stationarité :
\[\OD{J_w}{\epsilon}(0) = 0\]
soit satisfaite pour tout \(w\in\mathcal{W}\).
1.4.1. Équation d’Euler - Lagrange
Un exemple typique de fonctionnelle \(I\) est définie pour tout \(u \in \continue^2([a,b],\setR)\) par :
\[I(u) = \int_a^b f(t, u(t), u'(t)) \ dt\]
avec :
\[f\in \continue^2([a,b]\times\setR^2,\setR), \ (t,u,v) \mapsto f(t,u,v)\]
On a :
\[J_w(\epsilon) = \int_a^b f(t, u + \epsilon \cdot w, u' + \epsilon \cdot w') \ dt\]
Donc :
\[\OD{J_w}{\epsilon}(0) = \int_a^b \left( \deriveepartielle{f}{u}(t,u,u') \cdot w + \deriveepartielle{f}{v}(t,u,u') \cdot w' \right) dt = 0\]
Nous allons tenter d'intégrer par parties le deuxième terme de l’intégrale. On sait que :
\[\OD{}{t}\left[\deriveepartielle{f}{v} \ w \right] = \OD{}{t}\left[ \deriveepartielle{f}{v} \right] \ w + \deriveepartielle{f}{v} \ w'\]
En intégrant, nous obtenons :
\[\int_a^b \OD{}{t}\left[\deriveepartielle{f}{v} \ w \right] dt = \int_a^b \OD{}{t} \left[ \deriveepartielle{f}{v} \right] \ w \ dt + \int_a^b \deriveepartielle{f}{v} \ w' \ dt\]
En utilisant le théorème fondamental et les conditions sur \(w\), on arrive à :
\[\int_a^b \OD{}{t}\left[\deriveepartielle{f}{v} \ w \right] dt = \deriveepartielle{f}{v}(b,u(b),u'(b)) \ w(b) - \deriveepartielle{f}{v}(a,u(a),u'(a)) \ w(a) = 0\]
On en déduit que :
\[0 = \int_a^b \OD{}{t} \left[ \deriveepartielle{f}{v} \right] \ w \ dt + \int_a^b \deriveepartielle{f}{v} \ w' \ dt\]
et :
\[\int_a^b \deriveepartielle{f}{v} \ w' \ dt = - \int_a^b \OD{}{t} \left[ \deriveepartielle{f}{v} \right] \ w \ dt\]
La condition de stationarité sur \(J_w\) devient alors :
\[\int_a^b \left( \deriveepartielle{f}{u} - \OD{}{t} \deriveepartielle{f}{v} \right) \ w \ dt = 0\]
Comme cette équation est valable pour tout les \(w\) dans \(\mathcal{W}\), on en déduit que \(u\) vérifie l'équation différentielle d’Euler - Lagrange :
\[\deriveepartielle{f}{u} - \OD{}{t} \deriveepartielle{f}{v} = 0\]
où les dérivées de \(f\) sont bien entendu évaluées en \((t,u(t),u'(t))\).
Il es possible de détailler la dérivation temporelle du second terme :
\[\OD{}{t}\left[\deriveepartielle{f}{v} \right] = \dfdxdy{f}{t}{v} + \dfdxdy{f}{u}{v} \ u' + \dfdxdy{f}{v}{v} \ u''\]
L’équation d’Euler - Lagrange devient alors :
\[\deriveepartielle{f}{u} - \dfdxdy{f}{t}{v} - \dfdxdy{f}{u}{v} \ u' - \dfdxdy{f}{v}{v} \cdot u'' = 0\]
1.4.2. Euler-Lagrange avec contraintes
Nous tentons cette fois de minimiser :
\[I(u) = \int_a^b f(t, u(t), u'(t)) \ dt\]
mais en respectant les \(m\) contraintes :
\[g_i(t,u(t),u'(t)) = 0\]
pour tout \(i \in \{1, 2, ..., m\}\), où :
\[g_i\in \continue^1([a,b]\times\setR^2,\setR), \ (t,u,v) \mapsto g(t,u,v)\]
Nous devons donc minimiser \(u\) sur l’espace :
\[\mathcal{G} = \{ u \in \mathcal{F} : g_i(t,u(t),u'(t)) = 0 \ \ \ \forall i \in \{1,2,...,m\} \}\]
Comme la fonction \(g\) prend des valeurs nulles entre \(a\) et \(b\), son intégrale y est également nulle :
\[\int_a^b g_i(t,u(t),u'(t)) \ dt = 0\]
Nous pouvons même multiplier \(g_i\) par un multiplicateur de lagrange :
\[\lambda_i \in \continue([a,b]\times\setR^2,\setR), \ t \mapsto \lambda_i(t)\]
et obtenir le même résultat :
\[\int_a^b \lambda_i(t) \cdot g_i(t,u(t),u'(t)) \ dt = 0\]
Définissons la fonctionnelle étendue :
\[H(u) = \int_a^b \left( f(t, u(t), u'(t)) + \sum_{i=1}^m \lambda_i(t) \cdot g_i(t,u(t),u'(t)) \right) \ dt\]
Comme \(u\) doit respecter les contraintes \(g_i\), on a :
\[H(u) = I(u)\]
Soit :
\[\mathcal{X} = \{ u \in \mathcal{W} : g_i(t,u(t),u'(t)) = 0 \ \ \ \forall i \in \{1,2,...,m\} \}\]
et \(w \in \mathcal{X}\). On a :
\[J_w(\epsilon) = I(u + \epsilon \cdot w) = H(u + \epsilon \cdot w)\]
En développant, nous obtenons :
\[J_w(\epsilon) = \int_a^b \left( f(t, u + \epsilon \cdot w, u' + \epsilon \cdot w') + \sum_{i=1}^m \lambda_i(t) \cdot g_i(t, u + \epsilon \cdot w ,u' + \epsilon \cdot w') \right) \ dt\]
Donc :
\[\OD{J_w}{\epsilon}(0) = \int_a^b \left[ \deriveepartielle{f}{u}(t,u,u') \cdot w + \deriveepartielle{f}{v}(t,u,u') \cdot w' + \sum_{i=1}^m \lambda_i(t) \cdot \deriveepartielle{g_i}{u}(t,u,u') \cdot w + \sum_{i=1}^m \lambda_i(t) \cdot \deriveepartielle{g_i}{v}(t,u,u') \cdot w' + \right] dt = 0\]
En utilisons l’intégration par parties et les conditions sur \(w\), nous arrivons à :
\[\int_a^b \deriveepartielle{f}{v} \ w' \ dt = - \int_a^b \OD{}{t} \left[ \deriveepartielle{f}{v} \right] \ w \ dt\]
et :
\[\int_a^b \lambda_i \cdot \deriveepartielle{g_i}{v} \ w' \ dt = - \int_a^b \OD{}{t} \left[ \lambda_i \cdot \deriveepartielle{g_i}{v} \right] \ w \ dt\]
La condition de stationarité sur \(J_w\) devient alors :
\[\int_a^b \left( \deriveepartielle{f}{u} - \OD{}{t} \deriveepartielle{f}{v} + \sum_{i=1}^m \lambda_i \cdot \deriveepartielle{g_i}{u} - \sum_{i=1}^m \OD{}{t} \left[ \lambda_i \cdot \deriveepartielle{g_i}{v} \right] \right) \ w \ dt = 0\]
Comme cette équation est valable pour tout les \(w\) dans \(\mathcal{W}\), on en déduit que \(u\) vérifie l'équation différentielle d’Euler - Lagrange sous contrainte :
\[\deriveepartielle{f}{u} - \OD{}{t} \deriveepartielle{f}{v} + \sum_{i=1}^m \lambda_i \cdot \deriveepartielle{g_i}{u} - \sum_{i=1}^m \OD{}{t} \left[ \lambda_i \cdot \deriveepartielle{g_i}{v} \right] = 0\]
où les dérivées de \(f\) et des \(g_i\) sont bien entendu évaluées en \((t,u(t),u'(t))\).
1.5. Sturm-Liouville
Nous considérons à présent une application importante du théorème de Lax-milgram. Soit l'espace :
\[F = \{u \in \continue^2([a,b],\setR) : u(a) = u(b) = 0\}\]
et les fonctions :
\[p, q, f : \setR \mapsto \setR\]
Considérons la fonctionnelle \(\mathcal{L} : F \mapsto \Cont([a,b],\setR)\) définie par :
\[\mathcal{L}(u) = \OD{}{t}\left[p \cdot \OD{u}{t} \right] - q \cdot u + f \\\]
et le problème différentiel avec conditions aux limites associé :
\begin{align} \mathcal{L}(u) &= 0 \\ u(a) = u(b) &= 0 \end{align}Choisissons \(v\in F\) et intégrons l'équation :
\[\mathcal{L}(u) \cdot v = 0\]
sur \([a,b]\). On obtient :
\[- \int_a^b \OD{}{t} \Big[ p(t) \ \OD{u}{t}(t) \Big] \ v(t) \ dt + \int_a^b q(t) \ u(t) \ v(t) \ dt = \int_a^b f(t) \ v(t) \ dt\]
Nous allons tenter d'intégrer par parties. On a :
\[\OD{}{t} \Big[ p(t) \ \OD{u}{t}(t) \ v(t) \Big] = \OD{}{t} \Big[ p(t) \ \OD{u}{t}(t) \Big] \ v(t) + p(t) \ \OD{u}{t}(t) \ \OD{v}{t}(t)\]
En appliquant le théorème fondamental, on obtient :
\[\int_a^b \OD{}{t} \Big[ p(t) \ \OD{u}{t}(t) \ v(t) \Big] \ dt = p(b) \ \OD{u}{t}(b) \ v(b) - p(a) \ \OD{u}{t}(a) \ v(a) = 0\]
On en conclut que :
\[\int_a^b \OD{}{t} \Big[ p(t) \ \OD{u}{t}(t) \Big] \ v(t) \ dt = - \int_a^b p(t) \ \OD{u}{t}(t) \ \OD{v}{t}(t) \ dt\]
L'intégrale de \(\mathcal{L}(u) \cdot v = 0\) devient :
\[\int_a^b \Big[ p(t) \ \OD{u}{t}(t) \ \OD{v}{t}(t) + q(t) \ u(t) \ v(t) \Big] \ dt = \int_a^b f(t) \ v(t) \ dt\]
Donc, si on définit
\begin{align} a(u,v) &= \int_a^b \left[ p(t) \cdot \OD{u}{t}(t) \cdot \OD{v}{t}(t) + q(t) \cdot u(t) \cdot v(t) \right] \ dt \\ \\ b(v) &= \int_a^b f(t) \cdot v(t) \ dt \end{align}on a :
\[a(u,v) = b(v)\]
pour tout \(v \in F\). En appliquant le théorème de Lax-Milgram, on en déduit que la solution du probléme :
\begin{align} \mathcal{L}(u) &= 0 \\ u(a) = u(b) &= 0 \end{align}minimise sur \(F\) la fonctionnelle \(I\) définie pour toute fonction \(v \in \continue^2([a,b],\setR)\) par :
\[I(v) = \int_a^b \Big[ p(x) \ \left(\OD{v}{x}(x)\right)^2 + q(x) \ v(x)^2 \Big] \ dx - \int_a^b f(x) \ v(x) \ dx\]
1.6. Séparation des variables
Soit les fonctions :
\[a, b : \setR \mapsto \setR\]
et \(f : \setR^2 \mapsto \setR\) définie par :
\[f(t, u) = a(t) \cdot b(u)\]
Si \(f\) est lipschitzienne, le probléme différentiel :
\begin{align} \OD{u}{t}(t) &= f(t, u(t)) = a(t) \cdot b\big( u(t) \big) \\ \\ u(0) &= u_0 \end{align}admet une unique solution. En faisant passer \(u\) dans le premier membre et \(dt\) dans le second, la première équation peut se réécrire symboliquement :
\[\frac{du}{a(u)} = b(t) dt\]
En intégrant les deux membres, il vient :
\[\int_{u(0)}^{u(s)} \frac{du}{A(u)} = \int_0^s B(t) dt\]
1.7. Dérivées des fonctions usuelles
1.7.1. Arcsinus
AFAIRE : ARRANGER LA FIN DU CHAPITRE
Soit la relation :
\( y = \sin(x) \\ x = \arcsin(y) \)
Comme
\( \OD{y}{x} = \cos(x) \\ \sin(x)^2 + \cos(x)^2 = 1 \)
on a
\( \OD{y}{x} = \sqrt{1-y^2} \\ \OD{}{y}\arcsin(y) = \unsur{\sqrt{1-y^2}} \)
1.7.2. Table
\( \OD{\tan(x)}{x} = 1 + \tan(x)^2 \\ \OD{\arcsin(x)}{x} = \frac{1}{\sqrt{1-x^2}} \\ \OD{\arccos(x)}{x} = -\frac{1}{\sqrt{1-x^2}} \\ \OD{\arctan(x)}{x} = \frac{1}{1+x^2} \\ \)
% =================================================================
\( \cos(x) = \sum_{k=0}^{+\infty} \frac{(-1)^k}{(2k)!} x^{2k} \\ \sin(x) = \sum_{k=0}^{+\infty} \frac{(-1)^k}{(2k+1)!} x^{2k+1} \)
% =================================================================
1.7.3. Fonctions usuelles
Le théorème fondamental appliqué aux dérivées des fonctions usuelles du chapitre \ref{chap:differ} nous permet d'obtenir les résultats suivants :
\( \int_0^x {\frac{1}{\sqrt{1-\xi^2}}d\xi} = \arcsin(x) \\ \int_0^x {\frac{1}{1+\xi^2}d\xi} = \arctan(x) \)
2. Exponentielle
2.1. Dépendances
- Chapitre \ref{chap:edo} : Équations différentielles ordinaires
2.2. Introduction
L'exponentielle est définie comme l'unique solution \(\exp : \setR \mapsto \setR\) du problème différentiel :
\begin{align} \OD{\exp}{t}(t) &= \exp(t) \\ \\ \exp(0) &= 1 \end{align}2.3. Développement de Taylor
On a :
\[\OD{\exp}{t}(0) = \exp(0) = 1\]
On montre par récurrence que :
\[\NOD{\exp}{t}{k}(0) = \NOD{\exp}{t}{k - 1}(0) = 1\]
Le développement de Taylor autour de \(0\) s'écrit donc :
\[\exp(t) = \sum_{k = 0}^{+\infty} \frac{t^k}{k !}\]
2.4. Additivité
Soit \(t \in \setR\). On remarque que les applications \(f,g : \setR \mapsto \setR\) définies par :
\begin{align} f &:& s \mapsto \exp(s + t) \\ g &:& s \mapsto \exp(s) \cdot \exp(t) \end{align}pour tout \(s \in \setR\) vérifient :
\begin{align} \partial f(s) &= \exp(s + t) = f(s) \\ f(0) &= \exp(0 + t) = \exp(t) \end{align}et :
\begin{align} \partial g(s) &= \exp(s) \cdot \exp(t) = g(s) \\ g(0) &= \exp(0) \cdot \exp(t) = 1 \cdot \exp(t) = \exp(t) \end{align}Par unicité de la solution en \(u\) du problème différentiel :
\begin{align} \partial u(s) &= u(s) \\ u(0) &= \exp(t) \end{align}on en déduit que :
\[\exp(s + t) = \exp(s) \cdot \exp(t)\]
2.5. Miroir
On déduit de l'additivité que :
\[1 = \exp(0) = \exp(t - t) = \exp(t) \cdot \exp(-t)\]
pour tout \(t \in \setR\). On en conclut que :
\[\exp(-t) = \unsur{\exp(t)}\]
2.6. Limites
On a :
\[\lim_{t \to +\infty} \exp(t) = \lim_{t \to +\infty} (1 + t + \frac{t^2}{2} + ...) \ge \lim_{t \to +\infty} t = +\infty\]
La limite à l'infini positif est donc infinie :
\[\lim_{t \to +\infty} \exp(t) = +\infty\]
En utilisant le changement de variable \(t = -s\), on obtient la limite à l'infini négatif :
\[\lim_{s \to -\infty} \exp(s) = \lim_{t \to +\infty} \exp(-t) = \lim_{t \to +\infty} \unsur{\exp(t)} = 0\]
2.7. Image
Si \(t \ge 0\) il est clair que \(\exp(t) \strictsuperieur 0\) puisqu'il s'agit d'une somme infinie de termes strictement positifs. Si \(s \le 0\), on a \(t = - s \ge 0\) et :
\[\exp(s) = \exp(-t) = \unsur{\exp(t)} \strictsuperieur 0\]
On en conclut que :
\[\exp : \setR \mapsto \setR^+ \setminus \{0\}\]
Comme la fonction \(\exp\) est continue et croît avec \(t\) sur \(\setR\) de :
\[\lim_{t \to -\infty} \exp(t) = 0\]
jusqu'à :
\[\lim_{t \to +\infty} \exp(t) = +\infty\]
on a :
\[\exp(\setR) = \ ]0,+\infty[ \ = \setR^+ \setminus \{ 0 \}\]
2.7.1. Réels positifs
Comme la fonction \(\exp\) est continue et croît avec \(t\) sur \(\setR^+\) de :
\[\exp(0) = 1\]
jusqu'à :
\[\lim_{t \to +\infty} \exp(t) = +\infty\]
on a :
\[\exp(\setR^+) = [1,+\infty[\]
2.7.2. Réels négatifs
Comme la fonction \(\exp\) est continue et croît avec \(s\) sur \(\setR^-\) de :
\[\lim_{s \to -\infty} \exp(s) = 0\]
jusqu'à :
\[\exp(0) = 1\]
on a :
\[\exp(\setR^-) = \ ]0,1]\]
2.8. Intégrale
Comme la fonction \(\exp\) est une primitive d'elle-même, on a :
\[\int_a^b \exp(t) \ dt = \exp(b) - \exp(a)\]
En faisant tendre \(a\) vers \(-\infty\), on voit que :
\[\int_{-\infty}^b \exp(t) \ dt = \lim_{a \to -\infty} } \Big(\exp(b) - \exp(a)\Big) = \exp(b)\]
Les autres intégrales à bornes infinies sont infinies :
\[\int_{-\infty}^{+\infty} \exp(t) \ dt = \lim_{ \substack{ a \to -\infty \\ b \to +\infty } } \Big(\exp(b) - \exp(a)\Big) = +\infty\]
\[\int_a^{+\infty} \exp(t) \ dt = \lim_{b \to +\infty} \Big(\exp(b) - \exp(a)\Big) = +\infty\]
3. Logarithme
\label{chapter:log}
3.1. Introduction
La fonction \(\exp : \setR \mapsto \setR^+ \setminus \{ 0 \}\) étant strictement croissante et d'image égale à \(\setR^+ \setminus \{ 0 \}\), elle est inversible. On définit le logarithme :
\[\ln : \setR^+ \setminus \{ 0 \} \mapsto \setR\]
comme la fonction inverse de \(\exp\) :
\[\ln = \exp^{-1}\]
Pour tout \(x,y \in \setR\) tels que \(y = \exp(x) \strictsuperieur 0\), on a donc :
\[\ln(y) = x\]
3.2. Valeurs particulières
Le cas particulier \(x = 0\) et \(y = \exp(0) = 1\) nous montre que :
\[\ln(1) = 0\]
3.3. Dérivée
Soit les réels \(x,y\) tels que :
\[x = \ln(y)\]
On a alors par définition :
\[y = \exp(x)\]
La dérivée de cette relation s'écrit symboliquement :
\[\OD{y}{x} = \exp(x) = y\]
Comme la dérivée d'une fonction inverse est l'inverse de la dérivée, on a :
\[\OD{x}{y} = \unsur{y}\]
c'est-à-dire :
\[\OD{\ln}{y}(y) = \unsur{y}\]
3.4. Développement de Taylor
Soit la fonction \(u : \setR \mapsto \setR\) définie par :
\[u(t) = \ln(1 + t)\]
pour tout réel \(t\). On a :
\[u(0) = \ln(1 + 0) = \ln(1) = 0\]
La dérivée s'écrit :
\[\partial u(t) = \unsur{1 + t}\]
et en particulier :
\[\partial u(0) = \unsur{1 + 0} = 1\]
On procède de même pour la dérivée seconde :
\[\partial^2 u(t) = -\unsur{(1 + t)^2}\]
et en particulier :
\[\partial^2 u(0) = -\unsur{(1 + 0)^2} = -1\]
on procède de même pour la dérivée tierce :
\[\partial^3 u(t) = \frac{2}{(1 + t)^3}\]
et en particulier :
\[\partial^3 u(0) = \frac{2}{(1 + 0)^3} = 2\]
on procède de même pour la dérivée quarte :
\[\partial^4 u(t) = \frac{-6}{(1 + t)^4}\]
et en particulier :
\[\partial^4 u(0) = \frac{-6}{(1 + 0)^4} = -6\]
On voit que :
\[\partial^k u(0) = (-1)^{1+k} \cdot (k - 1) !\]
pour tout \(k \in \setN\) vérifiant \(k \ge 1\). Le développement de Taylor s'écrit donc :
\[\ln(1+t) = \sum_{k=1}^{+\infty} \frac{(-1)^{1+k} \cdot (k - 1) !}{k !} \ t^k\]
Comme \(k ! = k \cdot (k - 1) !\), on a :
\[\frac{(k - 1) !}{k !} = \unsur{k}\]
Le développement s'écrit donc finalement :
\[\ln(1+t) = \sum_{k=1}^{+\infty} \frac{(-1)^{1+k}}{k} \ t^k\]
En posant \(x = 1 + t\), on obtient la forme équivalente :
\[\ln(x) = \sum_{k=1}^{+\infty} \frac{(-1)^{1+k}}{k} \ (x - 1)^k\]
3.5. Additivité
Soit \(a, b \in \setR\). En utilisant l'additivité de l'exponentielle, on obtient :
\[\exp\Big[\ln(a \cdot b)\Big] = a \cdot b = \exp\big[\ln(a)\big] \cdot \exp\big[\ln(b)\big] = \exp\Big[\ln(a) + \ln(b)\Big]\]
En prenant le logarithme de cette égalité, on en déduit que :
\[\ln(a \cdot b) = \ln(a) + \ln(b)\]
3.6. Miroir
Soit \(a \in \setR\). On a :
\[\ln(a) + \ln\left(\unsur{a}\right) = \ln\left(a \cdot \unsur{a}\right) = \ln(1) = 0\]
On en conclut que :
\[\ln\left(\unsur{a}\right) = - \ln(a)\]
3.7. Soustraction
Soit les réels \(a, b\). On a :
\[\ln\left(\frac{a}{b}\right) = \ln(a) + \ln\left(\unsur{b}\right) = \ln(a) - \ln(b)\]
3.8. Intégrale de \(x \mapsto 1/x\)
Comme \(\ln\) est une primitive de la fonction :
\[u : \setR \setminus \{ 0 \}, \ x \mapsto 1/x\]
On a :
\[\int_a^b \unsur{x} \ dx = \ln(b) - \ln(a) = \ln\left[\frac{b}{a}\right]\]
3.9. Gaussienne
Soit les réels \(\gamma\) et \(u_0\). Nous cherchons la fonction \(u : \setR \mapsto \setR\) solution du problème différentiel :
\begin{align} \OD{u}{t} &= \gamma \cdot t \cdot u \\ \\ u(0) &= u_0 \end{align}en procédant par séparation de variables :
\[\frac{du}{u} = \gamma \cdot t \ dt\]
En intégrant :
\[\int_{u_0}^{u(s)} \frac{du}{u} = \int_0^s \gamma \cdot t \ dt\]
on obtient :
\[\ln(u(s))-\ln(u_0) = \gamma \cdot \frac{s^2}{2}\]
ou :
\[\ln\left(\frac{u(s)}{u_0}\right) = \gamma \cdot \frac{s^2}{2}\]
En prenant l'exponentielle, on arrive à la solution :
\[u(s) = u_0 \cdot \exp\left( \gamma \cdot \frac{s^2}{2} \right)\]
Une fonction de cette forme est appelée gaussienne.
4. Fonctions hyperboliques
4.1. Introduction
Le cosinus hyperbolique \(\cosh\) est défini comme étant la composante paire de l'exponentielle. On a donc :
\[\cosh(x) = \unsur{2} \ \Big[ \exp(x) + \exp(-x) \Big]\]
pour tout \(x \in \setR\). Le sinus hyperbolique \(\sinh\) est défini comme étant la composante impaire de l'exponentielle. On a donc :
\[\sinh(x) = \unsur{2} \ \Big[ \exp(x) - \exp(-x) \Big]\]
pour tout \(x \in \setR\).
4.1.1. Décomposition
On a :
\[\exp = \cosh + \sinh\]
avec :
\begin{align} \cosh(x) &= \cosh(-x) \\ \sinh(x) &= -\sinh(-x) \end{align}pour tout réel \(x\).
4.1.2. Valeurs particulières
On a :
\[\cosh(0) = \unsur{2} \Big[ \exp(0) + \exp(0) \Big] = \unsur{2} (1 + 1) = 1\]
et :
\[\sinh(0) = \unsur{2} \Big[ \exp(0) - \exp(0) \Big] = 0\]
4.2. Relation fondamentale
Soit un réel \(x\) et :
\( c = \cosh(x) \\ s = \sinh(x) \)
Le carré du cosinus hyperbolique se développe en :
\[c^2 = \unsur{4} \ \Big[ \exp(x)^2 + 2 \ \exp(x) \cdot \exp(-x) + \exp(-x)^2 \Big]\]
Comme \(\exp(x) \cdot \exp(-x) = 1\), le développement devient :
\[c^2 = \unsur{4} \ \Big[ \exp(x)^2 + \exp(-x)^2 + 2\Big]\]
Le carré du sinus hyperbolique se développe en :
\[s^2 = \unsur{4} \ \Big[ \exp(x)^2 - 2 \ \exp(x) \cdot \exp(-x) + \exp(-x)^2 \Big]\]
Comme \(\exp(x) \cdot \exp(-x) = 1\), le développement devient :
\[s^2 = \unsur{4} \ \Big[ \exp(x)^2 + \exp(-x)^2 - 2\Big]\]
En soustrayant ces deux équations, on obtient :
\begin{align} c^2 - s^2 &= \frac{\exp(x)^2 + \exp(-x)^2 + 2 - \exp(x)^2 - \exp(-x)^2 + 2}{4} \\ &= \frac{4}{4} = 1 \end{align}On a donc :
\[\cosh(x)^2 - \sinh(x)^2 = 1\]
4.3. Dérivées
Pour tout réel \(x\), on a :
\[\OD{\cosh}{x}(x) = \unsur{2} \Big[ \exp(x) - \exp(-x) \Big] = \sinh(x)\]
et :
\[\OD{\sinh}{x}(x) = \unsur{2} \Big[ \exp(x) + \exp(-x) \Big] = \cosh(x)\]
4.4. Intégrales
Comme \(\sinh\) est une primitive de \(\cosh\), on a :
\[\int_a^b \cosh(x) \ dx = \sinh(b) - \sinh(a)\]
Comme \(\cosh\) est une primitive de \(\sinh\), on a :
\[\int_a^b \sinh(x) \ dx = \cosh(b) - \cosh(a)\]
4.5. Tangente
La tangente hyperbolique \(\tanh\) est définie par :
\[\tanh(x) = \frac{\sinh x}{\cosh x}\]
pour tout \(x \in \setR\).
4.5.1. Dérivée
On a :
\[\OD{\tanh}{x}(x) = \frac{\cosh(x)}{\cosh(x)} - \frac{\sinh(x) \cdot \sinh(x)}{\cosh(x)^2} = 1 - \tanh(x)^2\]
4.5.2. Problème différentiel
Comme :
\[\tanh(0) = \frac{\sinh(0)}{\cosh(0)} = \frac{0}{1} = 0\]
la tangente hyperbolique est solution \(u : \setR \mapsto \setR\) du problème différentiel :
\begin{align} \partial u(t) &= 1 - u(t)^2 \\ u(0) &= 0 \end{align}vérifié pour tout \(t \in \setR\).
5. Exponentielle matricielle
\label{chap:expomat}
5.1. Introduction
Soit une matrice \(A\in\mathfrak{M}(\setR,n,n)\) et la fonction :
\[E_A : \setR \mapsto \in\mathfrak{M}(\setR,n,n)\]
définie comme étant l'unique solution de :
\( \OD{E_A}{t} = A \cdot E_A \\ \\ E_A(0) = I \)
On définit alors l'exponentielle matricielle par :
\[\exp(A) = E_A(1)\]
5.2. Matrice nulle
Dans le cas où \(A = 0\), on a :
\[\OD{E_0}{t} = 0 \cdot E_0 = 0\]
En intégrant, on voit que :
\[E_0(t) - E_0(0) = \int_0^t 0 \ dt = 0\]
La fonction \(E_0\) est donc constante et vaut \(E_0(t) = E_0(0) = I\) pour tout \(t \in \setR\). On en conclut que :
\[\exp(0) = I\]
5.3. Développement de Taylor
Soit la fonction :
\[u : \setR \mapsto \matrice(\setR, n, n), \ t \mapsto \exp(A \cdot t)\]
On a :
\[u(0) = \exp(A \cdot 0) = \exp(0) = I\]
et :
\[\OD{u}{t}(0) = A \cdot u(0) = A \cdot I = A\]
On montre par récurrence que :
\[\NOD{u}{t}{k}(0) = A \cdot \NOD{u}{t}{k - 1}(0) = A \cdot A^{k - 1} = A^k\]
En évaluant le développement de Taylor de \(u\) autour de \(t=0\) on obtient :
\[\exp(A \cdot t) = \sum_{k=0}^{+\infty} \frac{1}{k!} \cdot A^k \cdot t^k\]
Évaluons la dérivée de ce développement :
\begin{align} \OD{}{t} \exp(A \cdot t) &= \sum_{k=1}^{+\infty} \unsur{k!} \cdot A^k \cdot k \cdot t^{k - 1} \\ &= A \cdot \sum_{k=1}^{+\infty} \unsur{(k - 1) !} \cdot A^{k - 1} \cdot t^{k - 1} \\ &= A \cdot \sum_{k=0}^{+\infty} \unsur{k!} \cdot A^k \cdot k \cdot t^k \\ &= A \cdot \exp(A \cdot t) \end{align}On a aussi :
\[\exp(A \cdot 0) &= I + \sum_{k=1}^{+\infty} \unsur{k!} \cdot A^k \cdot 0^k = I\]
La fonction \(t \mapsto \exp(A \cdot t)\) est donc identique à la solution \(E\) :
\[E(t) = \exp(A \cdot t)\]
5.4. Développement en série de l'exponentielle
Le cas particulier \(t = 1\) nous donne le développement de l'exponentielle matricielle :
\[\exp(A) = \sum_{k=0}^{+\infty} \frac{1}{k!} \cdot A^k\]
5.4.0.1. Sur \(\setR\)
Quand \(n=1\) et \(A=1\), on retrouve le développement de l'exponentielle usuelle :
\[\exp(t) = \sum_{k=0}^{+\infty} \frac{t^k}{k!}\]
5.5. Additivité
Soit les fonctions \(f, g : \setR \mapsto \setR\) définies par :
\begin{align} f &:& s \mapsto \exp\Big(A \cdot (s + t) \Big) \\ g &:& s \mapsto \exp(A \cdot s) \cdot \exp(A \cdot t) \end{align}pour tout \(s \in \setR\). On a :
\begin{align} \partial f(s) &= A \cdot \exp\Big(A \cdot (s + t) \Big) = A \cdot f(s) \\ f(0) &= \exp\Big(A \cdot (0 + t) \Big) = \exp(A \cdot t) \end{align}et :
\begin{align} \partial g(s) &= A \cdot \exp(A \cdot s) \cdot \exp(t) = A \cdot g(s) \\ g(0) &= \exp(A \cdot 0) \cdot \exp(A \cdot t) = I \cdot \exp(A \cdot t) = \exp(A \cdot t) \end{align}Par unicité de la solution en \(u\) du problème différentiel :
\begin{align} \partial u(s) &= A \cdot u(s) \\ u(0) &= \exp(A \cdot t) \end{align}on en déduit que :
\[\exp\Big(A \cdot (s + t) \Big) = \exp(A \cdot s) \cdot \exp(A \cdot t)\]
5.6. Miroir
L'additivité nous dit que :
\[\exp(A \cdot (t - t)) = \exp(A \cdot t) \cdot \exp(A \cdot (-t)) = \exp(A \cdot t) \cdot \exp(- A \cdot t)\]
Mais la condition initiale nous dit que :
\[\exp(A \cdot (t - t)) = \exp(A \cdot 0) = I\]
On a donc :
\[\exp(A \cdot t) \cdot \exp(- A \cdot t) = I\]
Comme les matrices sont carrées, on en déduit que l'inverse matriciel de \(\exp(A \cdot t)\) existe et s'écrit :
\[\exp(A \cdot t)^{-1} = \exp(- A \cdot t)\]
Le cas particulier \(t = 1\) nous donne :
\[\exp(A)^{-1} = \exp(- A)\]
5.7. Solution vectorielle
Soit un vecteur \(x_0 \in \setR^n\) et la fonction \(x : \setR \mapsto \setR^n\) définie par :
\[x(t) = \exp(A \cdot t) \cdot x_0\]
pour tout \(t \in \setR\). On a :
\[\dot{x}(t) = A \cdot \exp(A \cdot t) \cdot x_0 = A \cdot x\]
et :
\[x(0) = \exp(A \cdot 0) \cdot x_0 = I \cdot x_0 = x_0\]
Notre fonction \(x\) est donc l'unique solution de l'équation différentielle :
\( \OD{x}{t} = A \cdot x \\ \\ x(0) = x_0 \)
5.7.0.1. Sur \(\setR\)
Dans le cas où \(n=1\), et \(A = 1\), on obtient l'exponentielle usuelle, qui est donc solution de :
\begin{align} \dot{u} &= u \\ u(0) &= 1 \end{align}5.8. Valeurs propres
Il existe un lien entre l'exponentielle d'une matrice hermitienne et ses valeurs propres. Soit la fonction \(X : \setR \mapsto \setR^n\) vérifiant l'équation différentielle :
\[\dot{X}(t) = A \cdot X(t)\]
où \(A\) est une matrice carrée hermitienne. Comme \(A = A^\dual\), on sait que la forme de Schur :
\[A = U \cdot \Lambda \cdot U^\dual\]
nous donne une matrice carrée unitaire \(U\) qui vérifie par conséquent :
\[U^\dual = U^{-1}\]
et une matrice diagonale :
\[\Lambda = (\lambda_i \cdot \delta_{ij})_{i,j}\]
où les \(\lambda_i\) sont les valeurs propres de \(A\). Si on effectue le changement de variable :
\[X = U \cdot Y \quad\Leftrightarrow\quad Y = U^\dual \cdot X\]
l'équation différentielle devient :
\[U \cdot \dot{Y} = A \cdot U \cdot Y \\\]
En multipliant à gauche par \(U^\dual\), on obtient :
\[\dot{Y} = U^\dual \cdot A \cdot U \cdot Y = \Lambda \cdot Y\]
Exprimée en terme de composantes \(Y = (y_i)_i\), cette dernière équation devient :
\[\dot{y}_i = \lambda_i \cdot y_i\]
dont la solution est :
\[y_i(t) = y_{i}(0) \cdot \exp(\lambda_i \cdot t)\]
Comme :
\[\sum_k \unsur{k !} \ \Lambda^k \cdot t^k = \Bigg( \sum_k \unsur{k !} \ \lambda_i^k \cdot t^k \cdot \indicatrice_{ij} \Bigg)_{i,j}\]
on voit que :
\[\exp(\Lambda \cdot t) = \Big( \exp(\lambda_i \cdot t) \cdot \indicatrice_{ij} \Big)_{i,j}\]
On en conclut que :
\[Y(t) = \exp(\Lambda \cdot t) \cdot Y(0)\]
La condition initiale sur \(Y\) est liée à celle sur \(X\) par :
\[Y(0) = U^\dual \cdot X(0)\]
On a donc :
\[Y(t) = \exp(\Lambda \cdot t) \cdot U^\dual \cdot X(0)\]
et :
\[X(t) = U \cdot Y(t) = U \cdot \exp(\Lambda \cdot t) \cdot U^\dual \cdot X(0)\]
Par définition de l'exponentielle matricielle, on a aussi :
\[X(t) = \exp(A \cdot t) \cdot X(0)\]
On en conclut que :
\[\exp(A \cdot t) \cdot X(0) = U \cdot \exp(\Lambda \cdot t) \cdot U^\dual \cdot X(0)\]
Au point \(t = 1\), on a :
\[\exp(A) \cdot X(0) = U \cdot \exp(\Lambda) \cdot U^\dual \cdot X(0)\]
Cette relation étant vérifiée quelque soit \(X(0) \in \setR^n\), on en conclut la relation liant l'exponentielle d'une matrice hermitienne à ses valeurs propres :
\[\exp(A) = U \cdot \exp(\Lambda) \cdot U^\dual\]
5.9. Dérivée
AFAIRE : dérivée de u(t) = exp( L(t) ), arranger la fin du chapitre
\[\OD{u}{t}(t) = \OD{L}{t}(t) \cdot u(t)\] ???????
5.10. Intégrale
Soit la fonction \(R\) :
\[R : \setR\mapsto\mathfrak{M}(\setR,n,n)\]
solution de :
\begin{align} \dot{R}(t) &= L(t) \cdot R(t) \\ R(0) &= I \end{align}On vérifie que :
\[R(t) = \exp\int_0^t L(s) ds\]
5.11. Systèmes linéaires
\label{sec:edo_sys_lin}
Considérons à présent le problème linéaire suivant :
\( \dot{u}(t) = L(t) \cdot u(t) + b(t) \\ \\ u(0) = u_0 \)
où on a :
\begin{align} L &:& \setR\mapsto\mathfrak{M}(\setR,n,n) \\ b &:& \setR\mapsto\mathfrak{M}(\setR,n,1) \equiv \setR^n \\ u &:& \setR\mapsto\mathfrak{M}(\setR,n,1) \equiv \setR^n \end{align}Nous allons effectuer un changement de variable afin de résoudre ce problème. Nous supposons par la suite que \(R(t)\) est inversible pour tout \(t\). Posons \(u = R \cdot x\). On constate tout de suite en utilisant \(R(0) = I\) que \(x(0) = u_0\). On obtient aussi, en dérivant \(u = R \cdot x\) :
\[\dot{u} = \dot{R} \cdot x + R \cdot \dot{x} = L \cdot R \cdot x + R \cdot \dot{x}\]
En comparant avec l'équation différentielle dont \(u\) est solution :
\[\dot{u} = L \cdot u + b = L \cdot R \cdot x + b\]
on obtient :
\( \dot{x} = R^{-1} \cdot b \\ x(0) = u_0 \)
On en déduit que :
\[x(t) = u_0 + \int_0^t \left[ R(s) \right]^{-1} \cdot b(s) ds\]
et :
\[u(t) = R(t) \cdot u_0 + \int_0^t R(t) \cdot [R(s)]^{-1} \cdot b(s) ds\]
Dans le cas où \(L(t) = L\) ne dépend pas de \(t\), on peut montrer que
\[R(s+t) = R(s) \cdot R(t)\]
en vérifiant que \(\varphi(s) = R(s+t)\) et \(\psi(s) = R(s) \cdot R(t)\) sont solutions en \(w\) de :
\( \OD{w}{s}(s) = L \cdot w(s) \\ \\ w(0) = R(t) \)
On a alors évidemment \(R(-s) = [R(s)]^{-1}\) et
\[u(t) = R(t) \cdot u_0 + \int_0^t R(t-s) \cdot b(s) ds\]
La solution est donc donnée par l'intégrale de convolution de \(R\) et \(b\).
5.12. Conditions initiales
Nous allons à présent étudier ce qu'il se passe lorsqu'on dérive la solution par rapport à la condition initiale \(u_0 = x\). Posons \(u(x,t)\) la solution de :
\( \deriveepartielle{u}{t}(x,t) = f(t,u(x,t)) \\ u(x,0) = x \)
Nous allons utiliser la notation
\[u_x(x,t) = \deriveepartielle{u}{x^T}(x,t)\]
En intervertissant l'ordre de dérivation, on arrive à
\( \deriveepartielle{u_x}{t}(x,t) = \deriveepartielle{}{x^T}\deriveepartielle{u}{t}(x,t) \\ \deriveepartielle{u_x}{t}(x,t) = \deriveepartielle{f}{u^T}(t,u(x,t)) \cdot u_x(x,t) \)
Par ailleurs, il est clair que :
\[u_x(x,0) = I\]
Utilisant les résultats de la section \ref{sec:edo_sys_lin} avec :
\( L(t) \mapsto \deriveepartielle{f}{u^T}(t,u(x,t)) \\ R(t) \mapsto u_x(x,t) \)
nous obtenons :
\[u_x(x,t) = \exp\int_0^t \deriveepartielle{f}{u^T}(s,u(x,s)) ds\]
6. Fonctions trigonométriques
- 6.1. Dépendances
- 6.2. Introduction
- 6.3. Angle nul
- 6.4. Produit scalaire
- 6.5. Différentielle
- 6.6. Additivité
- 6.7. Dérivées
- 6.8. Équations différentielles
- 6.9. Racines
- 6.10. Périodicité
- 6.11. Angle double
- 6.12. Intégrale
- 6.13. Tangente
- 6.14. Angle entre vecteurs
- 6.15. Angles entre espaces
- 6.16. Coordonnées polaires
6.1. Dépendances
- Chapitre \ref{chap:complexe} : Les complexes
6.2. Introduction
Les fonctions trigonométriques cosinus (\(\cos\)), sinus (\(\sin\)) et associées peuvent se définir à partir des rotations dans le plan \(\setR^2\). Pour cela, commençons par définir ce qu'est une rotation. Soit la fonction :
\[Q : \setR\mapsto \matrice(\setR, 2, 2), \qquad \theta \mapsto Q(\theta)\]
qui associe à chaque valeur de l'angle de rotation \(\theta \in \setR\) une matrice carrée réelle représentant une rotation dans le plan \(\setR^2\).
6.3. Angle nul
Il semble logique de demander qu'une rotation d'angle \(0\) d'un vecteur ne modifie pas ce vecteur, c'est-à-dire :
\[Q(0) = I\]
6.4. Produit scalaire
Une rotation doit conserver les angles entre les vecteurs, ainsi que leur norme. Autrement dit, le produit scalaire sur \(\setR^2\) :
\[\scalaire{x}{y} = x^\dual \cdot y\]
doit être conservé :
\[\scalaire{Q(\theta) \cdot x}{Q(\theta) \cdot y} = \scalaire{x}{y}\]
pour tout \(x,y\in\setR^2\), c'est-à-dire :
\[(Q(\theta) \cdot x)^\dual \cdot (Q(\theta) \cdot y) = x^\dual \cdot Q(\theta)^\dual \cdot Q(\theta) \cdot y = x^\dual \cdot y\]
On en déduit que :
\[Q(\theta)^\dual \cdot Q(\theta) = I\]
Comme \(Q(\theta)\) est carrée, on a :
\[Q(\theta)^\dual = Q(\theta)^{-1}\]
où le \(^{-1}\) désigne l'inverse matriciel. Quelques calculs suffisent à nous montrer que pour satisfaire cette condition, la forme de la matrice doit être l'une des deux solutions suivantes :
\(
\begin{Matrix}{cc} \cos(\theta) & -\sin(\theta) \\ \sin(\theta) & \cos(\theta) \end{Matrix}\qquad\mathrm{ou}\qquad
\begin{Matrix}{cc} \cos(\theta) & \sin(\theta) \\ \sin(\theta) & -\cos(\theta) \end{Matrix}\)
où \(\cos, \sin : \setR \mapsto \setR\) sont des fonctions à déterminer vérifiant la relation fondamentale :
\[\cos(\theta)^2 + \sin(\theta)^2 = 1\]
Mais comme \(Q(0)=I\), l'élément \((1,1)\) de la matrice doit être identique à l'élément \((2,2)\) et on a :
\( Q(θ) =
\begin{Matrix}{cc} \cos(\theta) & -\sin(\theta) \\ \sin(\theta) & \cos(\theta) \end{Matrix}\)
avec :
\( \cos(0) = 1 \\ \sin(0) = 0 \)
6.4.1. Relation fondamentale et bornes
Soit \(x \in \setR\). Comme les fonctions \(\cos\) et \(\sin\) sont à valeurs dans \(\setR\), on a :
\( \cos(x)^2 \ge 0 \\ \sin(x)^2 \ge 0 \)
On déduit de la relation fondamentale :
\[\cos(x)^2 + \sin(x)^2 = 1\]
les inégalités :
\begin{align} \cos(x)^2 = 1 - \sin(x)^2 \le 1 \\ \sin(x)^2 = 1 - \cos(x)^2 \le 1 \end{align}On en déduit les bornes :
\( -1 \le \cos \le 1 \\ -1 \le \sin \le 1 \)
6.5. Différentielle
Posons \(x = \cos(\theta)\) et \(y = \sin(\theta)\). En différentiant la condition :
\[x^2 + y^2 = 1\]
on obtient :
\[2 \ x \ dx + 2 \ y \ dy = 0\]
En particulier, si \((x,y) = (1,0)\), le vecteur \((dx,dy)\) doit être de la forme :
\( dx = 0 \\ dy = \delta \)
Une rotation infinitésimale doit donc modifier le vecteur \((1,0)\) en :
\[(1,0)+(dx,dy)=(1,\delta)\]
On en conclut que :
\( Q(δ) ⋅
\begin{Matrix}{c} 1 \\ 0 \end{Matrix} \approx \begin{Matrix}{c} 1 \\ \delta \end{Matrix}\)
Compte tenu des propriétés de symétrie de \(Q(\delta)\), on a donc :
\( Q(δ) ≈
\begin{Matrix}{cc} 1 & -\delta \\ \delta & 1 \end{Matrix}\)
lorsque \(\delta\) suffisamment proche de \(0\). Plus précisément, on a :
\( Q(δ) =
\begin{Matrix}{cc} 1 & -\delta \\ \delta & 1 \end{Matrix}\)
On impose que les valeurs absolues des composantes de l'erreur convergent plus vite vers zéro que \(\delta\) :
\[\lim_{\delta\to 0} \frac{\abs{E_{ij}(\delta)}}{\delta} = 0\]
D'après la forme des matrices, il est clair que :
\( E_{11} = E_{22} \\ E_{12} = -E_{21} \)
On en déduit qu'il suffit de vérifier la convergence des composantes \((1,1)\) et \((2,1)\). La première nous dit que :
\[\lim_{\delta\to 0} \frac{\cos(\delta) - 1}{\delta} = 0\]
et la seconde :
\[\lim_{\delta\to 0} \frac{\sin(\delta)-\delta}{\delta} = 0\]
ou :
\[\lim_{\delta\to 0} \frac{\sin(\delta)}{\delta} = 1\]
6.6. Additivité
Une rotation d'angle \(\theta_1\) suivie d'une rotation d'angle \(\theta_2\) doit donner le même résultat qu'une rotation directe d'angle \(\theta_1+\theta_2\), ce qui s'écrit :
\[Q(\theta_1+\theta_2) = Q(\theta_2) \cdot Q(\theta_1)\]
On en déduit directement que :
\[Q(\theta) \cdot Q(-\theta) = Q(\theta - \theta) = Q(0) = I\]
Comme \(Q(\theta)\) est carrée, on a :
\[Q(-\theta) = Q(\theta)^{-1} = Q(\theta)^\dual\]
Au niveau des composantes, la propriété d'additivité implique que :
\(
\begin{Matrix}{cc} \cos(\theta_2) & -\sin(\theta_2) \\ \sin(\theta_2) & \cos(\theta_2) \end{Matrix}⋅
\begin{Matrix}{cc} \cos(\theta_1) & -\sin(\theta_1) \\ \sin(\theta_1) & \cos(\theta_1) \end{Matrix}=
\begin{Matrix}{cc} \cos(\theta_1+\theta_2) & -\sin(\theta_1+\theta_2) \\ \sin(\theta_1+\theta_2) & \cos(\theta_1+\theta_2) \end{Matrix}\)
En effectuant le produit matriciel et en comparant composante par composante, on obtient les formules suivantes :
\( \cos(\theta_1+\theta_2) = \cos(\theta_1) \ \cos(\theta_2)-\sin(\theta_1) \ \sin(\theta_2) \\ \sin(\theta_1+\theta_2) = \sin(\theta_1) \ \cos(\theta_2)+\cos(\theta_1) \ \sin(\theta_2) \)
6.7. Dérivées
La dérivée de la fonction \(\cos\) s'écrit :
\[\OD{\cos}{\theta}(\theta) = \lim_{\delta\to 0} \frac{ \cos(\theta+\delta)-\cos(\theta) }{ \delta } \\\]
En appliquant les formules d'additivité ci-dessus avec \(\theta_1 = \theta\) et \(\theta_2 = \delta\), et en se rappelant les propriétés des fonctions \(\cos\) et \(\sin\) pour des angles \(\delta\to 0\), on obtient :
\begin{align} \OD{\cos}{\theta}(\theta) &= \lim_{\delta\to 0} \frac{ \cos(\theta) \ \cos(\delta) - \sin(\theta) \ \sin(\delta) - \cos(\theta) }{ \delta } \\ &= \lim_{\delta\to 0} \frac{ \cos(\theta) \ (\cos(\delta) - 1) - \sin(\theta) \ \sin(\delta) }{ \delta } \\ &= -\sin(\theta) \end{align}La dérivée de la fonction \(\sin\) s'écrit :
\[\OD{\sin}{\theta}(\theta) = \lim_{\delta\to 0} \frac{\sin(\theta+\delta)-\sin(\theta)}{\delta} \\\]
En procédant comme précédemment, on arrive à :
\begin{align} \OD{\sin}{\theta}(\theta) &= \lim_{\delta\to 0} \frac{\sin(\theta) \ \cos(\delta) + \cos(\theta) \ \sin(\delta) - \sin(\theta)}{\delta} \\ &= \lim_{\delta\to 0} \frac{\sin(\theta) \ (\cos(\delta) - 1) + \cos(\theta) \ \sin(\delta)}{\delta} \\ &= \cos(\theta) \end{align}On a donc :
\( \OD{\cos}{\theta}(\theta) = -\sin(\theta) \\ \\ \OD{\sin}{\theta}(\theta) = \cos(\theta) \)
6.8. Équations différentielles
La dérivée seconde de la fonction \(\cos\) s'écrit :
\[\OOD{\cos}{\theta}(\theta) = \OD{(-\sin)}{\theta}(\theta) = -\cos(\theta)\]
On a aussi \(\cos(0) = 1\) et :
\[\OD{\cos}{\theta}(0) = -\sin(0) = 0\]
La fonction \(\cos\) est donc l'unique solution \(u : \setR \mapsto \setR\) du problème différentiel :
\begin{align} \partial^2 u(t) &= -u(t) \\ u(0) &= 1 \\ \partial u(0) &= 0 \end{align}vérifié pour tout \(t \in \setR\). La dérivée seconde de la fonction \(\sin\) s'écrit :
\[\OOD{\sin}{\theta}(\theta) = \OD{\cos}{\theta}(\theta) = -\sin(\theta)\]
On a aussi \(\sin(0) = 0\) et :
\[\OD{\sin}{\theta}(0) = \cos(0) = 1\]
La fonction \(\sin\) est donc l'unique solution \(v : \setR \mapsto \setR\) du problème différentiel :
\begin{align} \partial^2 v(t) &= -v(t) \\ v(0) &= 0 \\ \partial v(0) &= 1 \end{align}vérifié pour tout \(t \in \setR\).
6.9. Racines
Nous allons maintenant nous occuper du problème des éventuelles racines des fonctions trigonométriques. Soit :
\( u(t) = \cos(t) \\ v(t) = \sin(t) \)
La fonction \(u\) vérifie :
\( u(0) = 1 \\ \partial u = -v \)
La fonction \(v\) vérifie :
\( v(0) = 0 \\ \partial v = u \)
Soit \(\varphi\) l'infimum des réels positifs donnant une valeur négative à la fonction \(u\) :
\[\varphi = \inf\{ x \in \setR : x \ge 0, \ u(x) < 0 \}\]
Nous allons montrer que \(\varphi\) est un réel, c'est-à-dire que \(\varphi < +\infty\). Le théorème fondamental du calcul différentiel et intégral nous dit que :
\( u(t) - u(0) = \int_0^t \OD{u}{t}(s) \ ds \\ v(t) - v(0) = \int_0^t \OD{v}{t}(s) \ ds \)
En tenant compte des propriétés de \(u, v\), ces relations se réécrivent :
\( u(t) - 1 = - \int_0^t v(s) ds \\ v(t) - 0 = \int_0^t u(s) ds \)
On a donc :
\( u(t) = 1 - \int_0^t v(s) ds \\ v(t) = \int_0^t u(s) ds \)
Comme \(u\) est dérivable, elle est continue et on peut trouver un \(\epsilon\in \intervalleouvert{0}{\varphi}\) tel que, pour tout \(t\in \intervalleouvert{0}{\epsilon}\) :
\[\abs{u(t)-u(0)} = \abs{u(t) - 1} \strictinferieur 1\]
On en déduit que :
\[1 - u(t) \strictinferieur 1\]
c'est-à-dire :
\[u(t) \strictsuperieur 0\]
La positivité de \(u\) entraîne celle de \(v\) :
\[v(t) = \int_0^t u(s) ds > 0\]
pour tout \(t \in \intervalleouvert{0}{\epsilon}\).
Pour \(t\in \intervalleouvert{\epsilon}{\varphi}\), la définition de \(\varphi\) nous dit que \(u \ge 0\) sur \(\intervalleouvert{0}{\varphi}\) et donc :
\begin{align} v(t) &= \int_0^t u(s) ds = \int_0^\epsilon u(s) ds + \int_\epsilon^t u(s) ds \\ &\ge \int_0^\epsilon u(s) ds > 0 \end{align}On pose :
\[\delta = \int_0^\epsilon u(s) ds\]
pour alléger les notations. Toujours avec \(t \in \intervalleouvert{\epsilon}{\varphi}\), il vient :
\begin{align} u(t) &= 1 - \int_0^t v(s) ds \le 1 - \int_\epsilon^t v(s) ds \\ &\le 1 - (t-\epsilon) \ \delta \end{align}On peut donc trouver \(t\) tel que \(u(t) \le 0\). En effet, l'égalité :
\[1 - (t-\epsilon) \ \delta = 0\]
est équivalente à :
\[t = \unsur{\delta} + \epsilon < +\infty\]
donc :
\[u\left(\unsur{\delta} + \epsilon\right) \le 0\]
Comme \(u\) est continue, elle ne peut pas devenir négative sans passer par \(0\) et il existe au moins un :
\[\psi \le \unsur{\delta} + \epsilon\]
tel que \(u(\psi) = 0\). Donc :
\[\varphi \le \unsur{\delta} + \epsilon < +\infty\]
6.10. Périodicité
Nous allons à présent montrer d'importantes propriétés de périodicité des fonctions trigonométriques. Considérons la plus petite racine positive de \(u\) :
\[\psi = \min\{ x \ge 0 : u(x) = 0 \}\]
Vu que \(u^2+v^2 = 1\), on doit avoir \(v(\psi)^2 = 1 - u(\psi)^2 = 1\). Donc \(v(\psi)=\pm 1\). Mais \(v \ge \delta > 0\) sur l'intervalle \((\epsilon,\psi)\) et par continuité :
\[v(\psi) = \lim_{x\to\psi} v(x) \ge 0\]
La seule solution acceptable est donc \(v(\psi) = 1\). Donc \(v\) est solution du problème :
\( \OOD{v}{t} = -v \\ v(\psi) = 1 \\ \OD{v}{t}(\psi) = 0 \)
Mais la fonction définie par \(f(t) = u(t-\psi)\) vérifie également ce problème. Par unicité, on en déduit :
\[u(t-\psi) = v(t)\]
En particulier, en \(t = 2 \psi\), on a :
\[v(2\psi) = u(\psi) = 0\]
Donc \(u(2\psi)^2 = 1 - v(2\psi)^2 = 1\). Quel est le signe de \(u(2\psi)\) ? Choisissons \(s\in [\psi,2\psi]\) et \(t = s-\psi \in [0,\psi]\). On a :
\[v(s) = u(t) \ge 0\]
par définition de \(\psi\) et continuité de \(u\) (la fonction de peut pas devenir négative avant de passer par \(0\)). Donc :
\[u(t) = -\int_\psi^t v(s) ds \le 0\]
et par continuité \(u(2\psi) = -1\). Par unicité de la solution de :
\( \OOD{}{t}(-u) = -(-u) \\ -u(0) = -1 \\ \OD{}{t}(-u)(0) = 0 \)
on a :
\[u(t-2\psi) = -u(t)\]
Répétant le même procédé, on obtient successivement :
\( u(0) = 1 \qquad v(0) = 0 \\ u(\psi) = 0 \qquad v(\psi) = 1 \\ u(2\psi) = -1 \qquad v(2\psi) = 0 \\ u(3\psi) = 0 \qquad v(3\psi) = -1 \\ u(4\psi) = 1 \qquad v(4\psi) = 0 \)
6.10.1. Extension
Donc \(u(4\psi) = u(0)\) et \(v(4\psi) = v(0)\). On en déduit que \(Q(4\psi)=Q(0)=I\). Mais, par additivité des rotations,
\[Q(t + 4\psi) = Q(t) \ Q(4\psi) = Q(t)\]
Et donc :
\( u(t+4\psi) = u(t) \\ v(t+4\psi) = v(t) \)
pour tout \(t\in\setR\). Définissant le nombre \(\pi\) par :
\[\pi = 2\psi\]
on peut écrire la périodicité des fonctions trigonométriques :
\( \cos(\theta+2\pi) = \cos(\theta) \\ \sin(\theta+2\pi) = \sin(\theta) \)
On en déduit directement que :
\( \cos(\theta+2 k\pi) = ... = \cos(\theta) \\ \sin(\theta+2 k\pi) = ... = \sin(\theta) \)
pour tout \(k\in\setZ\).
6.11. Angle double
L'additivité nous donne :
\[\cos(2 \ x) = \cos(x + x) = \cos(x) \cdot \cos(x) - \sin(x) \cdot \sin(x)\]
On a donc :
\[\cos(2 \ x) = \cos(x)^2 - \sin(x)^2\]
6.11.1. Alternative
En utilisant :
\[\cos(x)^2 + \sin(x)^2 = 1\]
on dispose des formulations alternatives :
\[\cos(2 \ x) = 2 \cos(x)^2 - 1\]
et :
\[\cos(2 \ x) = 1 - 2 \sin(x)^2\]
6.11.2. Relations inverses
Il est aisé d'inverser ces deux relations, on a :
\[\cos(x)^2 = \frac{\cos(2 \ x) + 1}{2}\]
et :
\[\sin(x)^2 = \frac{1 - \cos(2 \ x)}{2}\]
6.12. Intégrale
Comme \(\sin\) est une primitive de \(\cos\), on a :
\[\int_a^b \cos(t) \ dt = \sin(b) - \sin(a)\]
Comme \(\cos\) est une primitive de \(-\sin\), on a :
\[-\int_a^b \sin(t) \ dt = \cos(b) - \cos(a)\]
ou :
\[\int_a^b \sin(t) \ dt = \cos(a) - \cos(b)\]
6.13. Tangente
La tangente \(\tan\) est définie par :
\[\tan(x) = \frac{\sin(x)}{\cos(x)}\]
pour tout \(x \in \setR\).
6.13.1. Dérivée
On a :
\[\OD{\tan}{x}(x) = \frac{\cos(x)}{\cos(x)} - \frac{\sin(x) \cdot \big(-\sin(x)\big)}{\cos(x)^2} = 1 + \tan(x)^2\]
6.13.2. Problème différentiel
Comme :
\[\tan(0) = \frac{\sin(0)}{\cos(0)} = \frac{0}{1} = 0\]
la tangente est solution \(u : \setR \mapsto \setR\) du problème différentiel :
\begin{align} \partial u(t) &= 1 + u(t)^2 \\ u(0) &= 0 \end{align}vérifié pour tout \(t \in \setR\).
6.14. Angle entre vecteurs
Dans le cas où le produit scalaire est réel, on peut trouver un réel \(\theta\in [0,\pi]\) tel que :
\[-1 \le \cos(\theta) = \frac{ \scalaire{x}{y} }{ \norme{x}\ \norme{y} } \le 1\]
On dit alors que \(\theta\) est l'angle formé par les deux vecteurs \(x\) et \(y\).
6.15. Angles entre espaces
Autre application des valeurs singulières, les angles entres espaces vectoriels générés par les vecteurs colonnes orthonormés des matrices :
\( X \in \matrice(\setR, k, n) \\ Y \in \matrice(\setR, l, n) \)
On a donc :
\( X^\dual \cdot X = I_k \\ Y^\dual \cdot Y = I_l \)
Les valeurs singulières de la matrice des produits scalaires :
\[Y^\dual \cdot X\]
nous donne les cosinus de ces angles.
6.16. Coordonnées polaires
AFAIRE : CLARIFIER LA FIN DU CHAPITRE
Soit les vecteurs \((c_1,c_2)\) formant une base orthonormée de \(\setR^2\) :
\[\scalaire{c_i}{c_j} = \delta_{ij}\]
et ne dépendant pas de la position :
\[\deriveepartielle{c_i}{x_j} = 0\]
Soit le changement de variable vers \(y = (R,\theta)\), exprimé par :
\( x_1 = R \cdot \cos(\theta) \\ x_2 = R \cdot \sin(\theta) \)
\( r = x_1 \cdot c_1 + x_2 \cdot c_2 \\ dr = e_R \ dR + e_\theta \ d\theta \)
\( e_R = \deriveepartielle{r}{R} = \cos(\theta) \cdot c_1 + \sin(\theta) \cdot c_2 \\ e_\theta = \deriveepartielle{r}{\theta} = -R \cdot \sin(\theta) c_1 + R \cdot \cos(\theta) \cdot c_2 \)
\( \deriveepartielle{e_R}{R} = 0 \\ \deriveepartielle{e_R}{\theta} = -\sin(\theta) \cdot c_1 + \cos(\theta) \cdot c_2 = \unsur{R} \cdot e_\theta \\ \deriveepartielle{e_\theta}{R} = -\sin(\theta) \cdot c_1 + \cos(\theta) \cdot c_2 = \unsur{R} \cdot e_\theta \\ \deriveepartielle{e_\theta}{\theta} = -R \cdot \cos(\theta) \cdot c_1 - R \cdot \sin(\theta) \cdot c_2 = -R \cdot e_R \)
\( de_R = \deriveepartielle{e_R}{R} \ dR + \deriveepartielle{e_R}{\theta} \ d\theta = \unsur{R} \ d\theta \ e_\theta \\ de_\theta = \deriveepartielle{e_\theta}{R} \ dR + \deriveepartielle{e_\theta}{\theta} \ d\theta = \unsur{R} \ dR \ e\theta - R \ d\theta \)
\( a = a^R \cdot e_R + a^\theta \cdot e_\theta \\ da = \deriveepartielle{a^R}{R} \cdot e_R \ dR + \left( \deriveepartielle{a^R}{\theta} - R \cdot a^\theta \right) \cdot e_R \ d\theta + \\ \left( \deriveepartielle{a^\theta}{R} + \frac{a^\theta}{R} \right) \cdot e_\theta \ dR + \left( \deriveepartielle{a^\theta}{\theta} + \frac{a^R}{R} \right) \cdot e_\theta \ d\theta \)
7. Fonctions trigonométriques inverses
Les fonctions trigonométriques ne sont pas inversible. Soit \(y \in \setR\) et \(s \in \setR\) une solution du problème :
\[\sin(s) = y\]
alors, pour tout \(k \in \setN\), on a :
\[\sin(x + 2 \ k \ \pi) = \sin(x) = y\]
L'ensemble des solutions :
$$S(x) = \{ x ∈ \setR
De même pour la fonction \(\cos\). Par contre, elles sont localement inversible, et on peut définir les fonctions \(\arcsin\), \(\arccos\), \(\arctan\) par :
\( \arcsin(y) = x \\ \Leftrightarrow\\ y = \sin(x) \\ x \in [-\pi/2,\pi/2] \)
\( \arccos(y) = x \\ \Leftrightarrow\\ y = \cos(x) \\ x \in [0,\pi] \)
\( \arctan(y) = x \\ \Leftrightarrow\\ y = \tan(x) \\ x \in [-\pi/2,\pi/2] \)
8. Equations aux dérivées partielles
\label{chap:pde}
8.1. Courbes caractéristiques
Soit \(u \in F = \continue^1(\setR^2,\setR)\) et l'équation aux dérivées partielles à résoudre sur \(\Omega\subseteq\setR^2\) :
\[a(x,y,u) \ u_x(x,y) + b(x,y,u) \ u_y(x,y) = c(x,y,u)\]
où nous introduisons les notations :
\( u_x(x,y) = \deriveepartielle{u}{x}(x,y) \\ u_y(x,y) = \deriveepartielle{u}{y}(x,y) \)
Les coefficients \(a,b,c\) sont en général des fonctions de \(x,y,u\) mais ne peuvent pas dépendre de \(u_x\) ni de \(u_y\). Soit à présent la courbe \(\Gamma\) définie par :
\[\Gamma = \{ \left(w_x(t),w_y(t)\right) : t \in\setR \}\]
où \(w_x\) et \(w_y\) sont des fonctions dérivables. Définissons la restriction de \(u\) à \(\Gamma\) :
\[\varphi(t) = u\left(w_x(t),w_y(t)\right)\]
Si on s'arrange pour que :
\( \OD{w_x}{t}(t) = a(w_x(t),w_y(t),u(w_x(t),w_y(t))) \\ \OD{w_y}{t}(t) = b(w_x(t),w_y(t),u(w_x(t),w_y(t))) \)
On a alors :
\[\OD{\varphi}{t} = u_x \ a + u_y \ b = c\]
Définissons alors :
\[f : (t,u) \mapsto c\left(w_x(t),w_y(t),u\right)\]
On a :
\[\OD{\varphi}{t}(t) = f(t,u(t))\]
qui est une équation différentielle ordinaire en \(t\). On peut donc connaître \(\varphi\) et donc \(u\) sur \(\Gamma\) si on ajoute la condition initiale :
\[\varphi(0) = u_0\]
On dit alors que \(\Gamma\) est une courbe caractéristique de l'équation aux dérivées partielles.
8.2. Fonction de Green
Soit un espace fonctionnel \(F \subseteq \Leb^2(\setR^n,\setR)\) et une forme \(\forme{}{} : F^D \times F \mapsto \setR\) à laquelle on associe par abus de notation :
\[\int_A u(x) \cdot v(x) \ dx = \forme{u}{v}\]
où \(A \subseteq \setR^n\).
Soit un opérateur \(L : F \mapsto \Leb^2(\setR^n,\setR)\) qui vérifie :
\[\forme{u}{L(v)} = \forme{L(u)}{v}\]
pour tout \(u,v\in F\). On dit d'un tel opérateur qu'il est auto-adjoint.
Nous nous intéressons à l'équation différentielle :
\[L(u) = f\]
où \(f \in F\).
Introduisons la distribution \(\delta\) de Dirac :
\[\int_A \delta(x-a) \ f(x) \ dx = f(a)\]
et définissons la famille de solutions \(v_x\) telles que :
\[L(v_x)(y)=\delta(y-x)\]
On peut alors définir la fonction de Green \(G\) :
\[G(x,y)=v_x(y)\]
Mais les propriétés de \(L\) nous permettent d'écrire :
\[\forme{L(v_x)}{u} = \forme{v_x}{L(u)}\]
Si \(u\) est la solution de \(L(u) = f\), l'équation précédente peut se formeuler comme :
\[\int_A \delta(y-x) \ u(y) \ dy = \int_A v_x(y) \ f(y) \ dy\]
et finalement :
\[u(x) = \int_A G(x,y) \ f(y) \ dy\]
8.2.1. Exemple d'opérateur auto-adjoint
Comme exemple d'opérateur auto-adjoint, citons :
\[L : u \mapsto \lapl u = \sum_i \dfdxdx{u}{x_i}\]
9. Algorithmes de résolution d'EDO
\label{chap:algoedo}
9.1. Introduction
AFAIRE : ARRANGER LE CHAPITRE
Le but est de calculer une approximation de la solution \(y\) de
\( \OD{y}{x}(x) = f(x,y(x)) \\ y(0) = y_0 \)
Pour cela, on choisit \(n\) points \(x_i\), et on tente de progresser en évaluant les approximations successives \(y_{i+1} \approx y(x_{i+1})\) à partir de \(y_i\), pour $i=0,1,2,…$. On pose :
\[h_i = x_{i+1} - x_i\]
9.1.1. Euler
On se sert de la formulation intégrale correspondant à l'équation différentielle que l'on veut résoudre :
\[y_{i+1} = y_i + \int_{x_i}^{x_{i+1}} f(x,y(x)) \ dx\]
Si \(h_i\) est suffisamment petit, la fonction \(y\) sera plus ou moins constante sur l'intervalle \([x_i,x_{i+1}]\) et on peut approximer la formulation intégrale par :
\[y_{i+1} = y_i + h_i \cdot f(x_i,y_i)\]
Cette méthode se nomme Euler explicite.
\label{page:euler_expl}
9.1.2. Predicteur - Correcteur
On part de nouveau de :
\[y_{i+1} = y_i + \int_{x_i}^{x_{i+1}} f(x,y(x)) \ dx\]
On commence par calculer une première estimation de \(y(x_{i+1})\) en utilisant la méthode d'Euler explicite :
\[y_{i+1}^* = y_i + h_i \cdot f(x_i,y_i)\]
La valeur \(y_{i+1}^*\) ainsi obtenue est nommé prédicteur.
Une fois cette première estimation évaluée, on construit une meilleure approximation de l'intégrale en supposant que, pour \(t\in [0,1]\) :
\[f\left(x_i + t \cdot h_i,y(x_i + t h_i)\right) \approx f_i + t \cdot (f^*_{i+1} - f_i)\]
avec :
\( f_i = f(x_i,y_i) \\ f^*_{i+1} = f(x_{i+1},y^*_{i+1}) \)
On obtient :
\begin{align} \int_{x_i}^{x_{i+1}} f(x,y(x)) \ dx &\approx& h_i \int_0^1 \left[ f_i + t \cdot (f^*_{i+1} - f_i) \right] dt \\ &\approx& \frac{h_i}{2} \cdot \left( f_i + f^*_{i+1} \right) \end{align}L'étape correctrice s'écrit donc :
\[y_{i+1} = y_i + \frac{h_i}{2} \cdot [f(x_i,y_i) + f(x_{i+1},y_{i+1}^*)]\]
9.1.3. Taylor
Partant des dérivées de la fonction \(y(x) = f(x,y(x))\) :
\begin{align} \OD{y}{x} &= f \\ \frac{d^2 y}{dx^2} &= \deriveepartielle{f}{x}+\deriveepartielle{f}{y}\OD{y}{x} = \deriveepartielle{f}{x}+\deriveepartielle{f}{y} f \\ \frac{d^3 y}{dx^3} &= ... \end{align}on peut écrire le développement en série de Taylor de \(y\) autour de \(x_i\) :
\[y_{i+1} = y_i + f(x_i,h_i) \ h_i + \OD{f}{x}(x_i,y_i) \ \frac{h_i^2}{2} + ...\]
10. Algorithmes de résolution d'EDP
\label{chap:algoedp}
10.1. Résolution par les caractéristiques
AFAIRE : ARRANGER LE CHAPITRE
Soit une équation du premier ordre à résoudre :
\[a(x,y,u) \ u_x(x,y) + b(x,y,u) \ u_y(x,y) = c(x,y,u)\]
Supposons que l'on connaisse la valeur de la solution :
\[u_{i0} = u(x_{i0},y_{i0})\]
pour \(i = 1,2,...,n\). Les équations :
\[\OD{x}{t} = a \qquad \OD{y}{t} = b \qquad \OD{u}{t} = c\]
nous permettent de construire simultanément les courbes caractéristiques et la solution. Par exemple, si on utilise le schéma d'Euler explicite, on a :
\( x_{i,k+1} = x_{ik} + h_k \ a(x_{ik},y_{ik},u_{ik}) \\ y_{i,k+1} = y_{ik} + h_k \ b(x_{ik},y_{ik},u_{ik}) \\ u_{i,k+1} = u_{ik} + h_k \ c(x_{ik},y_{ik},u_{ik}) \)
10.2. Différences finies
On vérifie sur le développement de Taylor de \(u\) que :
\( u_x(x,y) \approx \frac{u(x+h,y) - u(x-h,y)}{2 h} \\ u_y(x,y) \approx \frac{u(x,y+h) - u(x,y-h)}{2 h} \)
pour les dérivées premières et :
\( u_{xx}(x,y) \approx \unsur{h^2} \ \left(u(x+h,y)-2 u(x,y) + u(x-h,y)\right) \\ u_{yy}(x,y) \approx \unsur{h^2} \ \left(u(x,y+h)-2 u(x,y) + u(x,y-h)\right) \\ u_{xy}(x,y) \approx \unsur{4h^2} \ \left(u(x+h,y+h) + u(x-h,y-h) \right\relax \\ \qquad\qquad \left\relax - u(x+h,y-h) - u(x-h,y+h)\right) \)
pour les dérivées secondes. L'erreur converge vers \(0\) aussi vite que \(h^2\). Posons :
\[U_{ij} = u(i h, j h)\]
Les dérivées approximatives s'écrivent :
\( u_x \approx \Delta_x U_{ij} = \unsur{2 h} \ (U_{i+1,j} - U_{i-1,j}) \\ u_y \approx \Delta_y U_{ij} = \unsur{2 h} \ (U_{i,j+1} - U_{i,j-1}) \)
et :
\( u_{xx} \approx \Delta_x^2 U_{ij} = \unsur{h^2} \ (U_{i+1,j} - 2 U_{ij} + U_{i-1,j}) \\ u_{yy} \approx \Delta_y^2 U_{ij} = \unsur{h^2} \ (U_{i,j+1} - 2 U_{ij} + U_{i,j-1}) \\ u_{xy} \approx \Delta_x\Delta_y U_{ij} = \unsur{4 h^2} \ (U_{i+1,j+1} - U_{i+1,j-1} - U_{i-1,j+1} + U_{i-1,j-1}) \)
On substitue alors ces expressions dans l'équation :
\[F(x,y,u,u_x,u_y,u_{xx},u_{xy},u_{yy}) = 0\]
et on obtient un système linéaire à résoudre en les \(U_{ij}\).
10.3. Eléments finis
\label{sec:elements_finis}
Soient des espaces fonctionnels \(F,H\subset\fonction(\Omega,\setR)\) et un opérateur linéaire :
\[L \in \lineaire(F,H)\]
Nous cherchons à résoudre de manière approchée l'équation différentielle associée :
\[L(u) = f\]
où \(f\) est une fonction de \(H\). La méthode des éléments finis consiste à imposer l'annulation de l'intégrale du résidu \(L(u)\), pondéré par des fonctions \(\psi_i\) :
\[\int_\Omega \left[L(u)(x)-f(x)] \ \psi_i(x) \ dx = 0\]
pour \(i = 1,2,...,n\). Afin de résoudre ce problème, on discrétise la solution approchée \(u\) :
\[u(x) = \sum_{i=1}^n U_i \ \varphi_i(x)\]
où les \(U_i\) sont des réels et les \(\varphi_i\) des fonctions de \(F\). On définit les grandeurs :
\( A_{ij} = \int_\Omega L(\varphi_i)(x) \ \psi_i(x) \ dx \\ F_i = \int_\Omega f(x) \ \psi_i(x) \ dx \)
et les matrices :
\( U = (U_i)_i \\ A = (A_{ij})_{i,j} \\ F = (F_i)_i \)
En utilisant la linéarité de \(L\), l'équation des résidus pondérés :
\[\int_\Omega L(u)(x) \ \psi_i(x) \ dx = \int_\Omega f(x) \ \psi_i(x) \ dx\]
devient :
\[A \ U = F\]
soit un système linéaire à résoudre en \(U\) :
\[U = A^{-1} \ F\]
ce qui nous donne une forme approchée \(u\) de la solution exacte.