Eclats de vers : Matemat 13 : Probabilité - 2
Table des matières
\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)
1. Statistiques
\label{chap:stat}
1.0.1. Indépendance
On dit que les variables aléatoires \(X_1\), \(X_2\), …, \(X_N\) sont indépendantes si :
\[\esperof{\prod_i X_i} = \prod_i \esperof{X_i}\]
On en déduit que :
\[\cov{X_i}{X_j} = \var{X_i} \ \indicatrice_{ij}\]
et donc :
\[\var{\sum_i X_i} = \sum_i \var{X_i}\]
1.1. Echantillons
Nous nous intéressons dans la suite de ce chapitre à des échantillons de \(N\) variables aléatoires indépendantes \(X_1,...,X_N\) telles que :
\( \esperof{X_i} = \mu \\ \cov{X_i}{X_j} = \sigma \ \indicatrice_{ij} \)
1.2. L'inégalité de Markov
Soit une variable aléatoire \(X\). On définit la variable associée :
\( Y = \begin{cases} a^2 & \mbox{ si } \abs{X-b} \ge a \\ 0 & \mbox{ si } \abs{X-b} < a \end{cases} \\ \)
Comme :
\[Y \le (X-b)^2\]
on a \(\esperof{Y} \le \esperof{(X-b)^2}\). D'un autre coté :
\[\esperof{Y} = a^2 \ \probaof{\abs{X-b} \ge a}\]
Rassemblant ces deux résultats, on obtient la propriété :
\[\probaof{\abs{X-b} \ge a} \le \unsur{a^2} \ \esperof{(X-b)^2}\]
connue sous le nom d'inégalité de Markov.
Le cas particulier \(b = \esperof{X}\) nous donne :
\[\probaof{\abs{X-\esperof{X}} \ge a} \le \unsur{a^2} \ \var{X}\]
1.3. La loi des grands nombres
Soit la moyenne :
\[M_N = \unsur{N} \sum_{i=1}^N X_i\]
On a :
\[\esperof{M_N} = \unsur{N} \ N \ \mu = \mu\]
L'indépendance entre les variables nous amène à :
\begin{align} \var{M_N} &= \unsur{N^2} \var{\sum_i X_i} \\ &= \unsur{N^2} \sum_i \var{X_i} \\ &= \unsur{N^2} \ N \ \sigma^2 \end{align}et donc :
\[\var{M_N} = \frac{\sigma^2}{N}\]
Soit \(a > 0\). L'inégalité de Markov nous dit que :
\[\probaof{\abs{M_N - \mu} \ge a} \le \frac{\sigma^2}{a^2 N}\]
Soit à présent \(\epsilon > 0\). Si on veut :
\[\probaof{\abs{M_N - \mu} \ge a} \le \frac{\sigma^2}{a^2 N} \strictinferieur \epsilon\]
il suffit de choisir :
\[N > \frac{\sigma^2}{a^2 \epsilon}\]
On en conclut que :
\[\lim_{N \to +\infty} \probaof{M_N = \mu} = 1\]
1.4. Fréquence et probabilité
Appliquons la loi des grands nombres à la fonction indicatrice \(\indicatrice_A\). On a alors \(X_i = 1\) lorsque \(\omega \in A\) et \(X_i = 0\) lorsque \(\omega \notin A\). La moyenne s'écrit donc :
\[M_N = \frac{n(A)}{N}\]
où \(n(A)\) est le nombre de \(X_i\) valant 1, autrement dit le nombre d'événements \(\omega\) appartenant à \(A\). Comme :
\[\mu = \esperof{\indicatrice_A} = \probaof{A}\]
on en déduit que la fréquence \(n(A) / N\) converge vers la probabilité de \(A\) :
\[\lim_{N \to +\infty} \probaof{\frac{n(A)}{N} = \probaof{A}} = 1\]
1.5. Estimateurs non biaisés
Soit une fonction \(G : \setR^n \mapsto \setR\) :
\[G : (X_1,...,X_N) \mapsto G(X_1,...,X_N)\]
On dit que \(\hat{G} : \setR^n \mapsto \setR\) est un estimateur non biaisé de \(G\) si :
\[\esperof{\hat{G}} = \esperof{G}\]
1.6. Estimation des espérance et des variances
Soit :
\[M_N(X_1,...,X_N) = \unsur{N} \sum_{i=1}^N X_i\]
La loi des grands nombres nous dit que :
\[\esperof{M_N} = \mu\]
La moyenne \(M_N\) est donc un estimateur non biaisé de l'espérance \(\mu\).
Soit les variables à espérances nulles :
\( X_i^* = X_i - \mu \\ M_N^* = M_N - \mu \)
On obtient directement :
\[M_N^* = \unsur{N} \sum_i X_i^*\]
On voit également que :
\[X_i - M_N = X_i - \mu + \mu - M_N = X_i^* - M_N^*\]
Donc :
\[\esperof{\sum_i (X_i - M_N)^2} = \esperof{\sum_i \left( X_i^* - M_N^* \right)^2}\]
En développant, on obtient successivement :
\begin{align} \esperof{\sum_i (X_i - M_N)^2} &= \esperof{ \sum_i \left( X_i^* \right)^2 } - 2 \ \esperof{M_N^* \sum_i X_i^*} + \esperof{ \left( M_N^* \right)^2 } \\ &= \sum_i \esperof{ \left( X_i^* \right)^2 } - 2 \ N \ \esperof{ \left( M_N^* \right)^2 } + \esperof{ \left( M_N^* \right)^2 } \end{align}Mais comme :
\( \var{M_N^*} = \esperof{ \left( M_N^* \right)^2 } = \frac{\sigma^2}{N} \\ \esperof{ \left( X_i^* \right)^2 } = \var{X_i} = \sigma^2 \)
l'expression devient :
\[\esperof{\sum_i (X_i - M_N)^2} = (N - 2 + 1) \ \sigma^2 = (N-1) \ \sigma^2\]
On en conclut que :
\[S^2 = \unsur{N-1} \sum_{i=1}^{N} (X_i - M_N)^2\]
est un estimateur non biaisé de la variance :
\[\esperof{S^2} = \sigma^2\]
1.7. Maximum de vraisemblance
Il s'agit de trouver les paramètres \(\hat{\theta}\) (espérance, variance, …) qui maximisent la vraisemblance :
\[V(\hat{\theta}) = \prod_i \probaof{ \{\omega : X_i(\omega) = x_i \} | \theta = \hat{\theta} }\]
Notons que cela revient à maximiser :
\[\ln\prod_{i=1}^N \probaof{ \{\omega : X_i(\omega) = x_i \} | \theta = \hat{\theta} } = \sum_{i=1}^N \ln\probaof{ \{\omega : X_i(\omega) = x_i \} | \theta = \hat{\theta} }\]
ce qui est souvent plus facile.
En pratique, lorsque la fonction de densité \(f_\theta\) est connue, on maximise :
\[\phi(\theta) = \sum_i \ln f_\theta(x_i)\]
en imposant :
\[\deriveepartielle{\phi}{\theta}(\hat{\theta}) = 0\]
1.8. Echantillon de densité donnée
Il s'agit d'un algorithme permettant de générer \(N\) nombres aléatoires :
\[\{ x_1, ..., x_N \}\]
suivant la densité \(f\). Soit \(\epsilon \ge 0\) une erreur maximale et \([a,b]\) tel que :
\[\int_a^b f(x) \ dx = 1 - \epsilon\]
Soit :
\[M = \sup_{x \in [a,b]} f(x)\]
et la génératrice :
\[\rand(a,b)\]
qui renvoie des variables aléatoires de densité uniforme sur \([a,b]\).
On part de \(A_0 = \emptyset\). A chaque itération, on génére deux nombres de densités uniformes :
\( x = \rand(a,b) \\ y = \rand(0,M) \)
Afin de modifier cette densité, on n'ajoute \(x\) à la liste déjà obtenue :
\[A_i = A_{i-1} \cup \{ x \}\]
que si \(y < f(x)\). Autrement, on ne fait rien et on passe à l'itération suivante.
La comparaison de \(y\) et de \(f(x)\) sert donc de filtre à l'algorithme.
2. Calcul stochastique
\label{chap:stocha}
2.1. Processus stochastique
Un processus stochastique est une fonction :
\[X : [0,+\infty) \times \Omega \mapsto \setR, \quad (t,\omega) \mapsto X(t,\omega)\]
On sous-entend souvent l'événement \(\omega\), et on note \(X(t)=X(t,\omega)\).
2.2. Intégrale d'Ito
Il s'agit d'une intégrale utilisant un processus stochastique \(X\) comme mesure :
\[I(t) = \int_0^t f(s) \ dX(s) = \lim_{\delta \to 0} \sum_k f(t_k) (X(t_{k+1}) - X(t_k))\]
2.3. Variation quadratique
Soit \(\delta \strictsuperieur 0\) et les \(N\) temps \(t_k = k \cdot \delta\) où \(k = 0,...,\arrondisup{\frac{T}{\delta}}\). On définit la variation quadratique d'une fonction \(f\) :
\[\variation{f}(T) = \lim_{\delta \to 0} \sum_k (f(t_{k+1}) - f(t_k))^2\]
Si la dérivée de \(f\) existe, la variation quadratique s'annule car :
\[(f(t_{k+1}) - f(t_k))^2 \to \delta^2 \ \OD{f}{t}(t_k)^2\]
Comme \(\delta^2 \to \delta \ ds\), on a :
\[\variation{f}(T) = \lim_{\delta \to 0} \delta \int_0^T \left(\OD{f}{t}(s)\right)^2 ds = 0\]
2.4. Variation conjointe
Considérons maintenant deux processus stochastiques \(X,Y\). Nous définissons la variation conjointe \(\variation{X,Y}\) :
\[\variation{X,Y}(T) = \lim_{\delta \to 0} \sum_k (X(t_{k+1}) - X(t_k)) \ (Y(t_{k+1}) - Y(t_k))\]
Dans le cas où les dérivées de \(X\) et de \(Y\) existent, on a évidemment : \(\variation{X,Y} = 0\).
Pour une fonction \(f : \setR^2 \mapsto \setR\) quelconque, nous avons :
\[df(X,Y) = f(X + \ dX,Y + dY) - f(X,Y)\]
Dans le cas particulier où \(f(X,Y)=X \cdot Y\), cette expression se réduit à :
\begin{align} d(X \cdot Y) &= (X + \ dX) \cdot (Y + dY) - X \cdot Y \\ &= \ dX \cdot Y + X \cdot dY + \ dX \cdot dY \end{align}Mais comme :
\[\variation{X,Y}(t) = \int_0^t \ dX \cdot dY\]
on a en définitive :
\begin{align} X(t) Y(t) - X(0) Y(0) &= \int_0^t d(X Y)(s) \\ &= \int_0^t X(s) \ dY(s) + \int_0^t Y(s) \ dX(s) + \variation{X,Y}(t) \end{align}2.5. Relations variations quadratiques - conjointes
La définition nous donne directement :
\[\variation{X} = \variation{X,X}\]
On peut aussi vérifier que :
\[(X + Y)^2 - (X - Y)^2 = 4 \ X \ Y\]
d'où l'on déduit :
\[\variation{X,Y} = \unsur{4} ( \variation{X + Y} - \variation{X - Y} )\]
2.6. Variation d'ordre quelconque
Soit \(\delta \strictsuperieur 0\) et les temps \(t_k = k \delta\) où \(k = 0,...,\arrondisup{\frac{T}{\delta}}\). On définit la variation d'ordre \(n\) d'une fonction \(f\) :
\[\variation{f}^n(T) = \lim_{\delta \to 0} \sum_k (f(t_{k+1}) - f(t_k))^n\]
2.7. Calcul d'Ito
Soit une fonction \(F : \setR^n \mapsto \setR\) et \(N\) processus stochastiques \(X_i\) dont les variations d'ordre \(n \ge 3\) s'annulent. Soit \(X=(X_1,...,X_N)\). On peut écrire le développement en série de Taylor d'ordre 2 :
\[F(X + \Delta) - F(X) \approx \deriveepartielle{F}{X}(X) \Delta + \unsur{2} \Delta^T \dblederiveepartielle{F}{X}(X) \Delta\]
En faisant tendre \(\Delta \to 0\), on obtient :
\[dF = \deriveepartielle{F}{X} \ dX + \unsur{2} \ dX^T \dblederiveepartielle{F}{X} \ dX\]
On a donc la formule de Ito pour une fonction $f : \setRn \mapsto \setR $ :
\[dF = \sum_i \deriveepartielle{F}{X_i} \ dX_i + \unsur{2} \sum_{i,j} \dfdxdy{F}{X_i}{X_j} \ dX_i \ dX_j\]
Ce qui nous permet d'évaluer une variation de \(F\) :
\( F(X(t)) - F(X(0)) = \sum_i \int_0^t \deriveepartielle{F}{X_i}(X(s)) \ dX_i(s) + \\ \unsur{2} \sum_{i,j} \int_0^t \dfdxdy{F}{X_i}{X_j}(X(s)) \ d\variation{X_i,X_j}(s) \)
2.7.1. Dérivées ordinaires
Dans le cas d'une seule variable, on a :
\[dF = \sum_i \OD{F}{X} \ dX + \unsur{2} \OOD{F}{X} \ dX \ dX\]
Ce qui nous permet d'évaluer une variation de \(F\) :
\( F(X(t)) - F(X(0)) = \sum_i \int_0^t \OD{F}{X}(X(s)) \ dX(s) + \\ \unsur{2} \int_0^t \OOD{F}{X}(X(s)) d\variation{X}(s) \)
2.8. Mouvement Brownien
Un mouvement brownien est un processus stochastique :
\[B : [0,+\infty) \times \Omega \mapsto \setR, \quad (t,\omega) \mapsto B(t,\omega)\]
continu par rapport à \(t\) :
\[B_\omega : t \mapsto B(t,\omega) \in \Cont([0,+\infty))\]
De plus, si on définit :
\[\mathcal{B}_t : \omega \mapsto B(t,\omega)\]
on a la propriété d'indépendance des variations temporelles :
\[\cov{\mathcal{B}_u - \mathcal{B}_t}{\mathcal{B}_t - \mathcal{B}_s} = 0\]
pour tout \(s \strictinferieur t \strictinferieur u\) positifs. On demande aussi qu'une variation \(\mathcal{B}_t - \mathcal{B}_s\) suive une loi normale d'espérance nulle et de variance \(t-s\) :
\( \esperof{\mathcal{B}_t - \mathcal{B}_s}=0 \\ \var{\mathcal{B}_t - \mathcal{B}_s} = t - s \)
2.8.1. Variation quadratique
Si les mouvements browniens sont continus, ils ne sont pas dérivables. Comme les variations sont normalement distribuées avec une moyenne nulle et une variance \(t - s\), on en déduit (en utilisant par exemple le moment générateur des densités normales) :
\( \esperof{(\mathcal{B}_t - \mathcal{B}_s)^2} = t - s \\ \var{(\mathcal{B}_t - \mathcal{B}_s)^2} = 2 \ (t - s)^2 \)
La variation quadratique des mouvement browniens peut s'écrire :
\[\variation{B_\omega}(T) = \lim_{\delta \to 0} \sum_k (B_\omega(t_{k+1}) - B_\omega(t_k))^2\]
Lorsque \(\delta \to 0\), on a \(N \to +\infty\) et la loi des grands nombres nous dit que chaque terme de la somme de droite converge vers la variance \(\delta\). Comme on a \(N\) termes, on obtient :
\[\sum_k B_\omega(t_{k+1}) - B_\omega(t_k) \to N \delta = T\]
On a donc :
\[\variation{\mathcal{B}_\omega}(T) = T\]
Ce que l'on note symboliquement sous forme différentielle par :
\[dB(t) \cdot dB(t) = dt\]
2.8.2. Variations d'ordre quelconque
Les variations \(\variation{B}^n\) d'un mouvement brownien s'annulent pour \(n \ge 3\).
2.8.3. Multidimensionnel
Nous définissons un mouvement Brownien de dimension \(n\) comme une collection de \(n\) mouvements Browniens \(B_i\) indépendants et vérifiant :
\[\variation{B_i,B_j}(t) = \indicatrice_{ij} \cdot t\]
2.8.4. Calul d'Ito
Dans le cas de \(N\) mouvement browniens \(B_i\), les équations d'Ito deviennent :
\[dF = \sum_i \deriveepartielle{F}{X_i} dB_i + \unsur{2} \sum_{i,j} \dfdxdy{F}{X_i}{X_j} \ dB_i \ dB_j\]
Mais comme \(dB_i dB_j = d\variation{B_i,B_j} = \indicatrice_{ij} \ dt\), on a :
\[dF = \sum_i \deriveepartielle{F}{X_i} \ dB_i + \unsur{2} \sum_i \dfdxdy{F}{X_i}{X_i} \ dt\]
Ce qui nous permet d'évaluer une variation de \(F\) :
\( F(X(t)) - F(X(0)) = \sum_i \int_0^t \deriveepartielle{F}{X_i}(X(s)) \ dX_i(s) + \\ \unsur{2} \sum_i \int_0^t \dfdxdy{F}{X_i}{X_i}(X(s)) \ ds \)
2.8.5. Dérivée ordinaire
Le cas particulier unidimensionnel nous donne :
\[dF(B) = \OD{F}{X}(B) \ dB + \unsur{2}\OOD{F}{X}(B) \ dB \cdot dB\]
Mais comme :
\[d\variation{B} = dB \cdot dB = dt\]
on a :
\[dF(B) = \OD{F}{X}(B) \ dB + \unsur{2}\OOD{F}{X}(B) \ dt\]
et :
\[F(B(t))-F(B(0)) = \int_0^t \OD{F}{X}(B(s)) \ dB(s) + \unsur{2} \int_0^t \OOD{F}{X}(B(s)) \ ds\]
AFAIRE : PROCESSUS DE POISSON