Eclats de vers : Matemat 04 : Suites - 2
Table des matières
\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)
1. Suites
\label{chap:suites}
1.1. Dépendances
- Chapitre \ref{chap:limites} : Les limites
1.2. Définition
Une suite est une fonction \(s : \setN \mapsto \Omega\) définie par :
\[s : n \mapsto s_n = s(n)\]
pour tout \(n \in \setN\). On note \(\suitek(\Omega)\) l'ensemble des suites \(s \subseteq \Omega\).
1.3. Limite
On dit qu'une suite \(s : n \mapsto s_n \in \Omega\) converge vers \(L \in \Omega\) au sens de la distance \(\distance\), ou que \(L\) est sa limite à l'infini :
\[L = \lim_{n \to \infty} s_n\]
si, pour toute précision \(\epsilon > 0\) aussi petite que l'on veut, on peut trouver un naturel \(K(\epsilon)\) à partir duquel l'erreur sera au moins aussi faible que demandée. On a donc :
\[\distance(L,s_n) \le \epsilon\]
pour tout \(n \ge K(\epsilon)\).
1.3.1. Notation
Comme la limite d'une suite est toujours sous-entendue vers l'infini, on note :
\[\lim_n s_n = \lim_{n \to \infty} s_n\]
1.4. Limites extrémales
On définit :
\[\limsup_{n \to \infty} s_n = \lim_{n \to \infty} \sup \{ s_m : m \in \setN, \ m \ge n \}\]
\[\liminf_{n \to \infty} s_n = \lim_{n \to \infty} \inf \{ s_m : m \in \setN, \ m \ge n \}\]
1.4.1. Notation
On note aussi :
\[\limsup_n s_n = \limsup_{n \to \infty} s_n\]
\[\liminf_n s_n = \liminf_{n \to \infty} s_n\]
1.5. Équivalence
Soit les suites :
\[s : n \mapsto s_n \in \Omega\]
et :
\[t : n \mapsto t_n \in \Omega\]
On dit que \(s\) est équivalente à \(t\), et on le note :
\[s \equiv t\]
si et seulement si la limite de la distance entre les deux suites converge vers zéro :
\[\lim_{n \to \infty} \distance(s_n,t_n) = 0\]
Quelque soit \(\epsilon \strictsuperieur 0\), on peut donc trouver un naturel \(K(\epsilon)\) tel que :
\[\distance(s_n,t_n) \le \epsilon\]
pour tout \(n \ge K(\epsilon)\).
1.5.1. Remarque
L'équivalence entre \(s\) et \(t\) n'implique nullement que la limite de \(s\) ou de \(t\) existe.
1.5.2. Existence des limites
Suppons que \(s \equiv t\) et que la limite :
\[\sigma = \lim_{n \to \infty} s_n\]
existe. On a :
\[\distance(\sigma,t_n) \le \distance(\sigma,s_n) + \distance(s_n,t_n)\]
Soit \(\epsilon \strictsuperieur 0\). En choisissant \(K_1\) tel que :
\[\distance(\sigma,s_n) \le \frac{\epsilon}{2}\]
pour tout \(n \ge K_1\) et \(K_2\) tel que :
\[\distance(s_n,t_n) \le \frac{\epsilon}{2}\]
pour tout \(n \ge K_2\), on voit que :
\[\distance(\sigma,t_n) \le \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon\]
Cette relation étant valable quel que soit \(\epsilon \strictsuperieur 0\), on en déduit que la limite des \(t_n\) existe et que :
\[\lim_{n \to \infty} t_n = \sigma = \lim_{n \to \infty} s_n\]
Les limites de suites équivalentes sont identiques.
1.6. Ordre
Soit les suites :
\[s : n \mapsto s_n \in \Omega\]
et :
\[t : n \mapsto t_n \in \Omega\]
Si un ordre est défini sur \(\Omega\), on dit que \(s\) est inférieure à \(t\) :
\[s \le t\]
si et seulement si les éléments de \(s\) sont inférieurs aux éléments de \(t\) :
\[s_n \le t_n\]
pour tout \(n \in \setN\).
1.7. Monotonie
1.7.1. Croissance
On dit qu'une suite :
\[s : n \mapsto s_n \in \Omega\]
est croissante si :
\[s_i \ge s_j\]
pour tout \(i,j \in \setN\) tels que \(i \ge j\).
1.7.2. Décroissance
On dit qu'une suite :
\[s : n \mapsto s_n \in \Omega\]
est décroissante si :
\[s_i \le s_j\]
pour tout \(i,j \in \setN\) tels que \(i \ge j\).
1.8. Opérations
Soit les suites :
\[s : n \mapsto s_n \in \Omega\]
et :
\[t : n \mapsto t_n \in \Omega\]
Pour toute opération \(\opera\) définie sur \(\Omega\), on définit l'opération induite \(\opera : \suitek(\Omega) \times \suitek(\Omega) \mapsto \suitek(\Omega)\) par :
\[(s \opera t)(n) = s_n \opera t_n\]
pour tout \(n \in \setN\). On note aussi :
\[(s \opera t)_n = (s \opera t)(n)\]
1.8.1. Usuelles
Sur les ensembles où sont définies les opérations usuelles, on aura l'addition :
\[(s + t)_n = s_n + t_n\]
la multiplication :
\[(s - t)_n = s_n - t_n\]
la soustraction :
\[(s \cdot t)_n = s_n \cdot t_n\]
la division :
\[\left[\frac{s}{t}\right]_n = \frac{s_n}{t_n}\]
pour tout \(n \in \setN\).
1.9. Cauchy
On dit qu'une suite :
\[s : n \mapsto s_n \in \Omega\]
est de Cauchy si, pour toute précision \(\epsilon > 0\) aussi petite que l'on veut, on peut trouver un naturel \(K(\epsilon)\) à partir duquel la distance entre deux éléments de la suite \(s_m, s_n\) sera aussi petite que demandée. On a donc :
\[\distance(s_m,s_n) \le \epsilon\]
pour tout \(m,n \ge K(\epsilon)\).
1.9.1. Suite convergente
Toute suite convergente vers une limite :
\[L = \lim_{n \to \infty} s_n \in \Omega\]
est de Cauchy. En effet, soit \(\epsilon \strictsuperieur 0\). Si on choisit \(K\) tel que :
\[\distance(L,s_n) \le \epsilon / 2\]
pour tout \(n \ge K\), on a :
\[\distance(s_m,s_n) \le \distance(s_m,L) + \distance(L,s_n) = \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon\]
pour tout \(m,n \ge K\).
1.10. Ensemble complet
On dit qu'un ensemble \(X\) est complet si toute suite de Cauchy inclue dans \(X\) converge vers une limite \(L \in X\).
1.10.1. Complétion
On peut compléter tout ensemble \(A\) incomplet en créant un ensemble \(X\) tel que tout \(x \in X\) soit associé à une suite de Cauchy :
\[s : n \mapsto s_n \in A\]
On note alors symboliquement :
\[x = \lim_{n \to \infty} s_n\]
2. Sommes abstraites
\label{chap:sommesAbstraites}
2.1. Dépendances
- Chapitre \ref{chap:algebre} : Algèbre
2.2. Introduction
Soit le corps commutatif \(\corps\), un ensemble \(\Omega\) et la fonction \(f : \Omega \mapsto \corps\). On note la somme de \(f\) sur \(X\) par :
\[\sum_{x \in X} f(x)\]
pour tout sous-ensemble \(X \subseteq \Omega\). Il s'agit intuitivement de la somme des \(f(x) \in \corps\) lorsque \(x\) parcourt \(X\). Nous allons voir comment la formaliser.
2.2.1. Notation
Lorsque l'ensemble \(X\) est évident d'après le contexte, on convient que :
\[\sum_x f(x) = \sum_{x \in X} f(x)\]
2.3. Additivité
Si deux ensembles \(X,Y \subseteq \Omega\) ne se chevauchent pas :
\[X \cap Y = \emptyset\]
la somme sur l'union des deux est intuitivement l'addition des sommes sur chacun d'entre-eux :
\[\sum_{z \in X \cup Y} f(z) = \sum_{z \in X} f(z) + \sum_{z \in Y} f(z)\]
2.4. Ensemble vide
Comme \(X = X \cup \emptyset\) et \(X \cap \emptyset = \emptyset\), on en déduit que :
\[\sum_{x \in X} f(x) = \sum_{x \in X \cup \emptyset} f(x) = \sum_{x \in X} f(x) + \sum_{x \in \emptyset} f(x)\]
La somme sur l'ensemble vide doit donc être le neutre pour l'addition :
\[\sum_{x \in \emptyset} f(x) = 0\]
2.5. Singleton
Il semble également logique d'imposer que la somme sur un ensemble contenant un seul élément \(a \in X\) soit égal à \(f(a)\) :
\[\sum_{ x \in \{ a \} } f(x) = f(a)\]
Voilà qui complète les caractéristiques génériques des sommes.
2.6. Somme des éléments d'un ensemble
Pour tout \(A \subseteq \corps\), on note :
\[\sum_{x \in A} x = \sum_{x \in A} \identite(x)\]
la somme des éléments de \(A\).
2.7. Algorithme
Soit l'ensemble \(X\) non vide, ensemble dont nous voulons évaluer la somme. Choisissons un élément \(a \in A\) et considérons la décomposition :
\[X = \{ a \} \cup ( X \setminus \{ a \} )\]
Comme l'intersection des deux ensembles du membre de droite est vide :
\[\{ a \} \cap ( X \setminus \{ a \} ) = \emptyset\]
on peut écrire :
\[\sum_{x \in X} f(x) = \sum_{ x \in \{ a \} } f(x) + \sum_{x \in X \setminus \{ a \} } f(x)\]
c'est-à-dire :
\[\sum_{x \in X} f(x) = f(a) + \sum_{x \in X \setminus \{ a \} } f(x)\]
On en déduit un algorithme itératif permettant d'estimer la somme :
\[S \approx \sum_{x \in X} f(x)\]
Nous partons de :
\( S_0 = 0 \\ X_0 = X \)
A chaque étape \(k \in \setN\), nous choisissons \(a_k \in X_k\) et nous adaptons notre estimation par :
\[S_{k + 1} = f(a_k) + S_k\]
On retire ensuite \(a_k\) de \(X_k\) pour éviter de le compter plus d'une fois, ce qui nous donne l'ensemble suivant :
\[X_{k + 1} = X_k \setminus \{ a_k \}\]
Cet algorithme va nous permettre de formaliser la définition des sommes.
2.8. Ensemble fini
Soit l'ensemble \(X\) contenant un nombre fini \(N \in \setN\) d'éléments :
\[X = \{ a_1, a_2, ..., a_N \}\]
En appliquant l'algorithme d'évaluation d'une somme, on finit par arriver à l'itération \(N\) avec :
\[X_N = \emptyset\]
On a simplement :
\[\sum_{x \in X} f(x) = S_N + \sum_{x \in \emptyset} f(x) = S_N + 0 = S_N\]
Comme :
\[S_N = f(a_1) + f(a_2) + ... + f(a_N)\]
on a simplement :
\[\sum_{x \in X} f(x) = f(a_1) + f(a_2) + ... + f(a_N)\]
On note :
\[\sum_{k = 1}^N f(a_k) = f(a_1) + f(a_2) + ... + f(a_N)\]
2.8.1. Numérotation
Les éléments de \(X\) peuvent être numérotés différemment. Soit \(m, n \in \setZ\) et :
\[X = \{ a_m, a_{m + 1}, ..., a_{n - 1}, a_n \}\]
On a alors :
\[\sum_{x \in X} f(x) = f(a_m) + f(a_{m+1}) + ... + f(a_{n-1}) + f(a_n)\]
On note :
\[\sum_{k = m}^n f(a_k) = f(a_m) + f(a_{m+1}) + ... + f(a_{n-1}) + f(a_n)\]
2.8.2. Extension
Soit un ensemble \(X\) dont on peut extraire un sous-ensemble fini de la forme :
\[F = \{ a_m, a_{m + 1}, ..., a_{n - 1}, a_n \} \subseteq X\]
tel que :
\[f(x) = 0\]
pour tout \(x \in X \setminus F\). La somme s'écrit alors :
\[\sum_{x \in X} f(x) = \sum_{x \in F} f(x) = \sum_{k = m}^n f(a_k)\]
2.9. Ensemble dénombrable
2.9.1. Naturels
Soit :
\[X = \{ a_0, a_1, a_2,... \} = \{ a_k : k \in \setN \}\]
Si la suite \(n \mapsto S_n\) définie par :
\[S_n = \sum_{k = 0}^n f(a_k) = f(a_0) + f(a_1) + ... + f(a_n)\]
pour tout \(n \in \setN\) converge vers un certain \(S \in \corps\), on définit :
\[\sum_{x \in X} f(x) = \lim_{n \to \infty} S_n = S\]
c'est-à-dire :
\[\sum_{x \in X} f(x) = \lim_{n \to \infty} \sum_{k = 0}^n f(a_k)\]
On introduit la notation :
\[\sum_{k = 0}^{+\infty} f(a_k) = \lim_{n \to \infty} \sum_{k = 0}^n f(a_k)\]
2.9.2. Entiers
Soit :
\[X = \{ ...,a_{-2},a_{-1},a_0, a_1, a_2,... \} = \{ a_k : k \in \setZ \}\]
Si la suite des \(n \mapsto S_n\) définie par :
\[S_n = \sum_{k = -n}^n f(a_k) = f(a_{-n}) + f(a_{-n+1}) + ... + f(a_{n-1}) + f(a_n)\]
pour tout \(n \in \setN\) converge vers un certain \(S \in \corps\), on définit :
\[\sum_{x \in X} f(x) = \lim_{n \to \infty} S_n = S\]
On introduit la notation :
\[\sum_{k = -\infty}^{+\infty} f(a_k) = \lim_{n \to \infty} \sum_{k = -n}^{n} f(a_k)\]
2.9.3. Extension
Soit un ensemble \(X\) dont on peut extraire un sous-ensemble \(D\) de la forme :
\[D = \{a_k : k \in \setN\} \subseteq X\]
ou :
\[D = \{a_k : k \in \setZ\} \subseteq X\]
tel que :
\[f(x) = 0\]
pour tout \(x \in X \setminus D\). La somme s'écrit alors :
\[\sum_{x \in X} f(x) = \sum_{x \in D} f(x)\]
2.10. Linéarité
Soit les fonctions \(f,g : \Omega \mapsto \corps\) et l'ensemble fini \(X \subseteq \Omega\). On a clairement :
\[\sum_{x \in X} \Big[ f(x) + g(x) \Big] = \sum_{x \in X} f(x) + \sum_{x \in X} g(x)\]
Comme le produit se distribue sur l'addition, on a également :
\[\sum_{x \in X} \Big[ c \cdot f(x)\Big] = c \cdot \sum_{x \in X} f(x)\]
pour tout \(c \in \corps\). La somme sur un ensemble fini est linéaire.
2.11. Additivité
Si les ensembles finis \(X\) et \(Y\) vérifient \(X \cap Y = \emptyset\), la commutativité et l'associativité de l'addition nous donnent la propriété d'additivité :
\[\sum_{x \in X \cup Y} f(x) = \sum_{x \in X} f(x) + \sum_{x \in Y} f(x)\]
2.12. Additivité généralisée
Soit les ensembles \(\Omega\) et \(\Lambda\) comportant un nombre fini d'éléments, la fonction \(f : \Omega \mapsto \corps\) et la collection d'ensembles :
\[\Theta = \{ X(\lambda) \subseteq \Omega : \lambda \in \Lambda \}\]
où \(X : \Lambda \mapsto \sousens(\Omega)\). On définit la fonction \(S : \Lambda \mapsto \corps\) représentant les sommes associées par :
\[S(\lambda) = \sum_{x \in X(\lambda)} f(x)\]
On suppose que \(\Theta\) forme une partition de \(\Omega\). On a alors :
\[X(\lambda) \cap X(\mu) = \emptyset\]
pour tout \(\lambda,\mu \in \Lambda\) tels que \(\lambda \ne \mu\) et :
\[\Omega = \bigcup_{\lambda \in \Lambda} X(\lambda)\]
Alors, l'associativité et la commutativité de l'addition nous permettent de regrouper les termes de \(\Omega\) par sous-ensembles \(X(\lambda)\), et on a :
\[\sum_{x \in \Omega} f(x) = \sum_{\lambda \in \Lambda} S(\lambda) = \sum_{\lambda \in \Lambda} \left[ \sum_{x \in X(\lambda)} f(x) \right]\]
2.12.1. Notation
On note aussi :
\[\sum_{\lambda \in \Lambda} \sum_{x \in X(\lambda)} f(x) = \sum_{\lambda \in \Lambda} \left[ \sum_{x \in X(\lambda)} f(x) \right]\]
2.13. Produit cartésien
Soit les sous-ensembles \(X,Y \subseteq \Omega\) comportant un nombre fini d'éléments et la fonction \(f : X \times Y \mapsto \corps\). On définit la fonction \(A : X \mapsto \sousens(X \times Y)\) par :
\[A(x) = \{ (x,y) : y \in Y \}\]
pour tout \(x \in X\). Les sommes associées s'écrivent :
\[S(x) = \sum_{(\lambda,y) \in A(x)} f(\lambda,y)\]
Comme les éléments de \(A(x)\) sont de la forme \((x,y)\), on a forcément \(\lambda = x\). Par conséquent, parcourir \(A(x)\) revient à parcourir les \(y \in Y\) en gardant \(\lambda = x\) fixé et on a :
\[S(x) = \sum_{y \in Y} f(x,y)\]
On se rend compte que les ensembles de cette collection ne se chevauchent pas :
\[A(\lambda) \cap A(\mu) = \emptyset\]
pour tout \(\lambda, \mu \in X\) tels que \(\lambda \ne \mu\). On a aussi :
\[X \times Y = \bigcup_{\lambda \in X} A(\lambda)\]
Nous pouvons par conséquent utiliser l'additivité généralisée, ce qui nous donne :
\[\sum_{(x,y) \in X \times Y} f(x,y) = \sum_{x \in X} S(x)\]
soit, en tenant compte de l'expression de \(S(x)\) :
\[\sum_{(x,y) \in X \times Y} f(x,y) = \sum_{x \in X} \sum_{y \in Y} f(x,y)\]
On montre également que :
\[\sum_{(x,y) \in X \times Y} f(x,y) = \sum_{y \in Y} \sum_{x \in X} f(x,y)\]
2.14. Somme d'un produit
Soit les fonctions \(f,g : \Omega \mapsto \corps\) et les sous-ensembles \(X,Y \subseteq \Omega\) comportant un nombre fini d'éléments. On a :
\[\sum_{(x,y) \in X \times Y} f(x) \cdot g(y) = \sum_{x \in X} \sum_{y \in Y} f(x) \cdot g(y)\]
Mais comme la valeur de \(f(x)\) ne dépend pas de \(y\), on peut appliquer la distributivité du produit sur l'addition pour faire sortir les valeurs de \(f\) de la somme sur \(y\) et :
\[\sum_{(x,y) \in X \times Y} f(x) \cdot g(y) = \sum_{x \in X} \left[ f(x) \cdot \sum_{y \in Y} g(y) \right]\]
A nouveau, comme la somme de \(g\) sur \(Y\) ne dépend pas de \(x\), on peut la faire sortir et :
\[\sum_{(x,y) \in X \times Y} f(x) \cdot g(y) = \left[ \sum_{y \in Y} g(y) \right] \cdot \left[ \sum_{x \in X} f(x) \right]\]
La multiplication étant commutative, on a également :
\[\sum_{(x,y) \in X \times Y} f(x) \cdot g(y) = \left[ \sum_{x \in X} f(x) \right] \cdot \left[ \sum_{y \in Y} g(y) \right]\]
3. Sommes indicées
\label{chap:sommesIndicees}
3.1. Définition
Soit un corps commutatif \(\corps\) et l'ensemble d'indices \(\mathcal{Z}\). Supposons que l'on puisse écrire l'ensemble \(A \subseteq \corps\) sous la forme :
\[A = \{ a_k : k \in \mathcal{Z} \}\]
On associe à \(A\) la fonction \(\varphi : \mathcal{Z} \mapsto A\) définie par :
\[\varphi(k) = a_k\]
pour tout \(k \in \mathcal{Z}\). Pour tout sous-ensemble \(I \subseteq \mathcal{Z}\), on définit alors :
\[\sum_{k \in I} a_k = \sum_{k \in I} \varphi(k)\]
sous réserve d'existence de la somme.
3.1.1. Fonction
Soit \(f : A \mapsto \corps\). On définit :
\[\sum_{k \in I} f(a_k) = \sum_{k \in I} (f \circ \varphi)(k)\]
3.2. Intervalles discrets
Soit \(m,n \in \setZ\). Nous définissons l'intervalle discret :
\[\setZ[m,n] = \{ z \in \setZ : m \le z \le n \}\]
Si \(\setZ[m,n] \subseteq \mathcal{Z}\), on a simplement :
\[\sum_{k \in \setZ[m,n]} a_k = a_m + a_{m+1} + ... + a_{n-1} + a_n\]
On note aussi :
\[\sum_{k = m}^n a_k = \sum_{k = n}^m a_k = \sum_{k \in \setZ[m,n] } a_k\]
3.3. Linéarité
Soit les ensembles :
\[A = \{ a_k : k \in \mathcal{Z} \} \subseteq \corps\] \[B = \{ b_k : k \in \mathcal{Z} \} \subseteq \corps\]
et \(\alpha, \beta \in \corps\). Si \(I \subseteq \mathcal{Z}\) compte un nombre fini d'éléments, on a clairement :
\[\sum_{k \in I} (\alpha \cdot a_{k} + \beta \cdot b_k) = \alpha \cdot \sum_{k \in I} a_k + \beta \cdot \sum_{k \in I} b_k\]
3.4. Produit cartésien
Soit les sous-ensembles \(I,J \subseteq \setZ\) comportant un nombre fini d'éléments, et :
\[A = \{ a_{ij} \in E : (i,j) \in I \times J \}\]
Il découle directement de la formule des sommes sur les produits cartésiens que :
\[\sum_{(i,j) \in I \times J} a_{ij} = \sum_{i \in I} \sum_{j \in J} a_{ij} = \sum_{j \in J} \sum_{i \in I} a_{ij}\]
3.4.1. Notation
On note :
\[\sum_{i,j = m}^n a_{ij} = \sum_{i = m}^n \sum_{j = m}^n a_{ij}\]
3.5. Somme d'un produit
Soit les ensembles :
\[A = \{ a_k : k \in \mathcal{Z} \} \subseteq \corps\] \[B = \{ b_k : k \in \mathcal{Z} \} \subseteq \corps\]
et les ensembles \(I,J \subseteq \mathcal{Z}\) comportant un nombre fini d'éléments. La somme du produit se déduit du résultat analogue des sommes génériques :
\[\sum_{(i,j) \in I \times J} a_i \cdot b_j = \left[ \sum_{i \in I} a_i \right] \cdot \left[ \sum_{j \in J} b_j \right]\]
3.6. Lemme du triangle
Soit le triangle discret :
\[\Delta = \{ (i,j) \in \setZ[0,N] \times \setZ[0,N] : \ j \le i \}\]
et un ensemble :
\[A = \{ a_{ij} : (i,j) \in \Delta \}\]
Le triangle \(\Delta\) peut être aussi défini par :
\[\Delta = \{ (i,j) \in \setZ^2 : 0 \le i \le N, \quad 0 \le j \le i\}\]
La somme sur \(\Delta\) peut donc se réécrire :
\[\sum_{(i,j) \in \Delta} a_{ij} = \sum_{i=0}^N \sum_{j=0}^i a_{ij}\]
Une autre définition alternative de \(\Delta\) nous donne :
\[\Delta = \{(i,j) \in \setZ^2 : 0 \le j \le N, \quad j \le i \le N\}\]
On a donc également :
\[\sum_{(i,j)\in\Delta} a_{ij} = \sum_{j=0}^N \sum_{i=j}^N a_{ij}\]
On en déduit une relation permettant d'inverser les sommes :
\[\sum_{i=0}^N \sum_{j=0}^i a_{ij} = \sum_{j=0}^N \sum_{i=j}^N a_{ij} = \sum_{(i,j)\in\Delta} a_{ij}\]