Eclats de vers : Matemat 04 : Suites
Table des matières
- 1. Distances
- 2. Limites
- 3. Limites doubles
- 4. Suites
- 5. Sommes abstraites
- 6. Sommes indicées
- 7. Produits
- 8. Progressions
- 9. Différences
- 10. Suites de rationnels
- 11. Problème de la racine
- 12. Réels
- 13. Extrema réels
- 14. Opérations sur les limites
- 15. Limites réelles
- 16. Suites de réels
- 17. Sommes réelles
\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)
1. Distances
\label{chap:distances}
1.1. Dépendances
- Chapitre \ref{chap:algebre} : Les structures algébriques
- Chapitre \ref{chap:ordres} : Les ordres
- Chapitre \ref{chap:topologies} : Les topologies
1.2. Définition
Afin de généraliser le plus possible la notion de distance au sens usuel, nous allons nous poser la question : quelles sont les caractéristiques fondamentales d'une distance ? Nous en déduirons les propriétés que doit respecter une distance générique.
Soit l'ensemble \(\Omega\), un corps \(\corps\) et une fonction \(\distance : \Omega \times \Omega \to \corps\) représentant une distance entre deux éléments de l'ensemble \(\Omega\). Choisissons des éléments quelconques \(x,y,z \in \Omega\). Au sens usuel, une distance entre deux objets est clairement positive :
\[\distance(x,y) \ge 0\]
Elle est également symétrique puisqu'on obtient la même distance lorsqu'on intervertit les objets :
\[\distance(x,y) = \distance(y,x)\]
Par ailleurs , la distance entre deux objets identiques doit évidemment être nulle :
\[\distance(x,x) = 0\]
On impose également que le seul élément \(y\) qui puisse être à distance nulle de \(x\) soit l'élément \(x\) lui-même :
\[\distance(x,y) = 0 \ \Rightarrow \ x = y\]
Enfin, il est toujours plus court d'aller directement de \(x\) à \(z\) plutôt que de passer par une étape \(y\). On a donc l'inégalité triangulaire :
\[\distance(x,z) \le \distance(x,y) + \distance(y,z)\]
1.2.1. Remarque
Parfois, au lieu d'imposer l'égalité de deux éléments situés à distance nulle l'un de l'autre, on impose juste l'équivalence suivant un critère prédéfini :
\[\distance(x,y) = 0 \ \Rightarrow \ x \equiv y\]
1.3. Distance à un ensemble
Quelle est la distance à parcourir d'une ville donnée lorsqu'on désire se rendre dans un certain pays ? On a envie de dire que la distance est parcourue dès que l'on a atteint la frontière du pays en question. Comme on choisit généralement le chemin le plus court pour arriver à destination, on se rend compte que la distance ville - pays est le minimum des distances entre la ville et tous les points appartenant au pays.
Maintenant, remplaçons la ville par un élément \(x \in \Omega\) et le pays par un ensemble \(A \subseteq \Omega\). On définit simplement la distance de \(x\) à \(A\) comme étant l'infimum des distances de \(x\) à un point quelconque de \(A\) :
\[\distance(x,A) = \inf_{a \in A} \distance(x,a) = \inf \{ \distance(x,a) : a \in A \}\]
1.3.1. Inclusion
Si \(B \subseteq A\), on en déduit directement que :
\[\distance(a,A) \le \distance(a,B)\]
1.3.2. Notation
On note aussi :
\[\distance(A,a) = \distance(a,A)\]
1.3.3. Self-distance
Soit \(a \in A\). Comme \(\distance(a,a) = 0\) et que la distance \(\distance(a,b) \ge 0\) pour tout \(b \in A\), on voit que le choix \(b = a\) minimise \(\distance(a,b)\) sur \(A\). Donc :
\[\distance(a,A) = 0\]
pour tout élément \(a \in A\).
1.4. Distance inter-ensembles
La distance entre deux ensembles \(A\) et \(B\) est l'infimum des distances possibles entre les couples \((a,b) \in A \times B\) :
\[\distance(A,B) = \inf \{ \distance(a,b) : (a,b) \in A \times B \}\]
On a bien évidemment :
\[\distance(A,B) = \inf \{ \distance(a,B) : a \in A \} = \inf \{ \distance(A,b) : b \in B \}\]
1.5. Boules
Les boules sont la généralisation des disques et des sphères. Or, ce qui caractèrise ces entités, c'est qu'elle incluent des points \(x\) vérifiant \(\distance(x,c) \le r\), où \(c\) est le centre et \(r\) le rayon. On définit par conséquent la boule fermée \(\boule[c,r]\) par :
\[\boule[c,r] = \{ x \in \Omega : \distance(x,c) \le r \}\]
où \(r\) est un réel positif.
Si l'on veut que la distance soit strictement inférieure à \(r\), on considérera plutôt la définition de la boule ouverte :
\[\boule(c,r) = \{ x \in \Omega : \distance(x,c) \strictinferieur r \}\]
1.6. Topologie métrique
La topologie usuelle définie sur les ensembles munis d'une distance est celle générée par les boules ouvertes, soit les éléments de la collection :
\[\mathcal{B} = \{ \boule(c,r) : c \in \Omega, \ r \in \corps, \ r \strictsuperieur 0 \}\]
La topologie métrique \(\topologie\) s'écrit donc :
\[\topologie = \topologies(\mathcal{B},\Omega)\]
Toute union de boules ouvertes est donc un ouvert.
1.7. Intérieur
Soit \(A \subseteq \Omega\).
- Soit \(x \in \interieur A\). L'élément \(x\) appartient donc à un ouvert \(U\) contenu dans \(A\). Comme \(x \in U\), on a \(U \ne \emptyset\). On en conclut que \(U\) doit être une union de boules ouvertes. On peut donc trouver un \(a \in U\) et un \(\delta \strictsuperieur 0\) tel que \(x \in \boule(a,\delta) \subseteq U\). Comme \(d = \distance(a,x) \strictinferieur \delta\), on a \(\delta - d \strictsuperieur 0\). Soit \(\epsilon = \delta - d\) et \(y \in \boule(x,\epsilon)\). On a :
\[\distance(a,y) \le \distance(a,x) + \distance(x,y) \strictinferieur d + \epsilon = \delta\]
Donc \(\boule(x,\epsilon) \subseteq \boule(a,\delta) \subseteq U \subseteq A\) et \(\distance( x , \Omega \setminus A ) \strictsuperieur 0\).
- Réciproquement, si \(z \in \Omega\) vérifie \(d = \distance( x , \Omega \setminus A ) \strictsuperieur 0\), on a \(z \in \boule(z,d/2) \subseteq A\). L'élément \(z\) appartient donc à un ouvert contenu dans \(A\). Il appartient donc à l'union des ouverts inclus dans \(A\), c'est-à-dire \(z \in \interieur A\).
On conclut de ce qui précède que :
\[\interieur A = \{ x \in \Omega : \distance( x , \Omega \setminus A ) \strictsuperieur 0 \}\]
1.8. Adhérence
On voit que :
\[\interieur (\Omega \setminus A) = \{ x \in \Omega : \distance(x,A) \strictsuperieur 0 \}\]
Le complémentaire de cet ensemble est bien sur constitué des \(x \in \Omega\) vérifiant \(\distance(x,A) = 0\). Or, nous avons vu que ce complémentaire n'est rien d'autre que l'adhérence de \(A\) :
\[\adh A = \{ x \in \Omega : \distance(x,A) = 0 \}\]
1.9. Adhérence carrée
Soit \(x \in \Omega\), \(A \subseteq \Omega\) et :
\( B = \adh A \\ C = \adh B = \adh \adh A \)
Soit \(c \in C\). Pour tout \(\epsilon \in \corps\) avec \(\epsilon \strictsuperieur 0\), on peut trouver \(b \in B\) tel que :
\[\distance(c,b) \le \epsilon\]
et ensuite \(a \in A\) tel que :
\[\distance(b,a) \le \epsilon\]
On a donc :
\[\distance(c,a) \le \distance(c,b) + \distance(b,a) \le \epsilon + \epsilon\]
L'infimum est par conséquent nul :
\[\distance(c,A) = \inf_{a \in A} \distance(c,a) = 0\]
On en déduit que \(c \in \adh A\). Nous venons de montrer que :
\[\adh \adh A \subseteq \adh A\]
Mais comme l'inverse est également vrai, on a :
\[\adh \adh A = \adh A\]
2. Limites
\label{chap:limites}
2.1. Dépendances
- Chapitre \ref{chap:distances} : Les distances
2.2. Définition
Soit les ensembles \(E,F\) munis respectivement des distances \(\distance_E\) et \(\distance_F\), un sous-ensemble \(D \subseteq E\) et la fonction \(f : D \mapsto F\). Comme la distance utilisée est sans ambiguité d'après la nature des objets dont elle mesure l'éloignement :
\( \distance(x,y) = \distance_E(x,y) \Leftrightarrow x,y \in E \\ \distance(x,y) = \distance_F(x,y) \Leftrightarrow x,y \in F \)
on note dans la suite de ce chapitre \(\distance\) à la place de \(\distance_E\) et de \(\distance_F\).
Plaçons nous dans \(A \subseteq D\). Nous nous intéressons au cas où \(f(x)\) se rapproche de plus en plus d'un certain \(L \in F\) lorsque \(x \in A\) se rapproche suffisamment d'un certain \(a \in E\). Pour toute précision \(\epsilon \in \corps\), \(\epsilon \strictsuperieur 0\) aussi petite que l'on veut, on doit alors pouvoir trouver un niveau de proximité \(\delta(\epsilon) \in \corps\), \(\delta(\epsilon) \strictsuperieur 0\) tel que :
\[\distance(f(x),L) \le \epsilon\]
pour tout les \(x \in A\) vérifiant :
\[\distance(x,a) \le \delta(\epsilon)\]
Si cette condition est remplie, on dit que \(L\) est la limite de \(f\) en \(a\), et on note :
\[\lim_{ \substack{ x \to a \\ x \in A } } f(x) = L\]
2.2.1. Notations
Lorsque l'ensemble \(A\) est évident d'après le contexte, on note simplement :
\[\lim_{ x \to a } f(x) = \lim_{ \substack{ x \to a \\ x \in A } } f(x)\]
Au lieu de noter l'ensemble, on peut citer les conditions qui le définissent. Ainsi par exemple :
\[\lim_{ \substack{ x \to a \\ x \ne a } } f(x) = \lim_{ \substack{ x \to a \\ x \in X(a) } } f(x)\]
où :
\[X(a) = D \setminus \{ a \}\]
Autre application :
\[\lim_{ \substack{ x \to a \\ x \le a } } f(x) = \lim_{ \substack{ x \to a \\ x \in I(a) } } f(x)\]
où :
\[I(a) = \{ x \in D : x \le a \}\]
2.2.2. Remarque
Rien n'impose que \(a\) appartienne à \(A\). L'existence de la limite de \(f\) en \(a\) n'implique donc pas que la fonction \(f\) soit définie en \(a\).
2.2.3. Unicité
Supposons que \(b\) et \(c\) soient deux limites de \(f\) en \(a\). Soit \(\epsilon \strictsuperieur 0\). On peut alors trouver un \(\alpha \strictsuperieur 0\) tel que :
\[\distance(f(x),b) \le \frac{\epsilon}{2}\]
pour tout \(x\) vérifiant \(\distance(x,a) \le \alpha\) et un \(\beta \strictsuperieur 0\) tel que :
\[\distance(f(x),c) \le \frac{\epsilon}{2}\]
pour tout \(x\) vérifiant \(\distance(x,a) \le \beta\). Posons \(\delta = \min\{\alpha,\beta\}\). Si \(x\) vérifie \(\distance(x,a) \le \delta\), on a :
\[\{ \ \distance(f(x),b) , \ \distance(f(x),c) \ \} \le \frac{\epsilon}{2}\]
et :
\[\distance(b,c) \le \distance(b,f(x)) + \distance(f(x),c) \le \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon\]
Comme ce doit être vrai pour tout \(\epsilon\) strictement positif, on en conclut que \(\distance(b,c) = 0\), c'est-à-dire \(b = c\). La limite est donc unique.
2.2.4. Inclusion des boules
Soit :
\( B_1(\delta) = \boule(a,\delta) \cap A \\ B_2(\epsilon) = \boule(f(a),\epsilon) \)
La définition de la limite revient à exiger que, pour tout \(\epsilon \strictsuperieur 0\), on puisse trouver un \(\delta \strictsuperieur 0\) tel que tout élément de \(B_1(\delta)\) auquel on applique la fonction \(f\) se retrouve dans \(B_2(\epsilon)\). Autrement dit, \(f(B_1(\delta)) \subseteq B_2(\epsilon)\).
2.2.5. Limite de la distance
Si \(L\) est la limite de \(f\) en \(a\), la distance doit converger vers zéro par définition :
\[\lim_{ \substack{ x \to a \\ x \in A } } \distance(f(x),L) = 0\]
2.3. Chemin
Supposons qu'il existe des sous-ensembles \(A,B \subseteq D\) tels que :
\[\lim_{ \substack{ x \to a \\ x \in A } } f(x) \ne \lim_{ \substack{ x \to a \\ x \in B } } f(x)\]
On dit alors que la limite dépend du chemin parcouru.
2.4. Limites à l'infini
Si \(E\) est un ensemble ordonné, on peut définir la notion de limite à l'infini. Soit une fonction \(f : E \mapsto F\) et \(L \in F\). Si, pour toute précision \(\epsilon > 0\), on peut trouver une borne inférieure \(I(\epsilon) \in E\) telle que :
\[\distance(f(x),L) \le \epsilon\]
pour tout \(x \in E\) vérifiant \(x \ge I(\epsilon)\), on dit alors que \(f\) tend vers \(L\) à l'infini positif et on écrit :
\[\lim_{ x \to +\infty } f(x) = L\]
Symétriquement, si pour toute précision \(\epsilon > 0\), on peut trouver une borne supérieure \(S(\epsilon) \in E\) telle que :
\[\distance(f(x),L) \le \epsilon\]
pour tout \(x \in E\) vérifiant \(x \le S(\epsilon)\), on dit alors que \(f\) tend vers \(L\) à l'infini négatif et on écrit :
\[\lim_{ x \to -\infty } f(x) = L\]
2.4.1. Notation
On a également la notation alternative :
\[\lim_{ x \to \infty } f(x) = \lim_{ x \to +\infty } f(x)\]
ainsi que :
\begin{align} f(+\infty) &= \lim_{ x \to +\infty } f(x) \\ \\ f(-\infty) &= \lim_{ x \to -\infty } f(x) \end{align}2.5. Limite supremum et infimum
2.5.1. Infini positif
Il arrive que la limite à l'infini positif d'une fonction \(f : E \mapsto F\) n'existe pas mais que la limite de la fonction \(g : E \mapsto F\), que l'on suppose correctement définie pour tout \(x \in E\) par :
\[g(x) = \inf \{ f(y) : y \in E, \ y \ge x \}\]
existe. On note alors :
\[\liminf_{ x \to +\infty } f(x) = \lim_{ x \to +\infty } \inf \{ f(y) : y \in E, \ y \ge x \}\]
On définit pareillement la limite du supremum :
\[\limsup_{ x \to +\infty } f(x) = \lim_{ x \to +\infty } \sup \{ f(y) : y \in E, \ y \ge x \}\]
2.5.2. Infini négatif
On définit également :
\( \limsup_{ x \to -\infty } f(x) = \lim_{ x \to -\infty } \sup \{ f(y) : y \in E, \ y \le x \} \\ \\ \liminf_{ x \to -\infty } f(x) = \lim_{ x \to -\infty } \inf \{ f(y) : y \in E, \ y \le x \} \)
2.6. Limites infinies
Si \(F\) est un ensemble ordonné, on peut définir la notion de limite infinie.
2.6.1. Positive
Si, pour tout \(G \in F\) aussi grand que l'on veut, on peut trouver une proximité \(\delta(G) > 0\) vérifiant :
\[f(x) \ge G\]
pour tout les \(x \in A\) assez proche de \(a\) :
\[\distance(x,a) \le \delta(G)\]
on dit alors que \(f\) tend vers l'infini positif en \(a\) et on écrit :
\[\lim_{ x \to a } f(x) = +\infty\]
2.6.2. Négative
Si, pour tout \(P \in F\) aussi petit que l'on veut, on peut trouver une proximité \(\delta(P) > 0\) vérifiant :
\[f(x) \le P\]
pour tout les \(x \in A\) assez proche de \(a\) :
\[\distance(x,a) \le \delta(P)\]
on dit alors que \(f\) tend vers l'infini négatif en \(a\) et on écrit :
\[\lim_{ x \to a } f(x) = -\infty\]
2.6.3. Notation
On a les notations alternatives :
\( f(a) = +\infty \quad \Leftrightarrow \quad \lim_{ x \to a } f(x) = +\infty \\ f(a) = -\infty \quad \Leftrightarrow \quad \lim_{ x \to a } f(x) = -\infty \)
2.7. Limite infinie à l'infini
On suppose que \(E\) et \(F\) sont ordonnés. On dit que la limite de \(f\) à l'infini positif est l'infini positif et on le note :
\[\lim_{x \to +\infty} f(x) = +\infty\]
si, pour tout \(G \in F\) aussi grand que l'on veut, on peut trouver une borne inférieure \(I(G) \in E\) telle que :
\[f(x) \ge G\]
pour tout \(x \in E\) vérifiant \(x \ge I(G)\). On dit que la limite de \(f\) à l'infini positif est l'infini négatif et on le note :
\[\lim_{x \to +\infty} f(x) = -\infty\]
si, pour tout \(P \in F\) aussi petit que l'on veut, on peut trouver une borne inférieure \(I(G) \in E\) telle que :
\[f(x) \le P\]
pour tout \(x \in E\) vérifiant \(x \ge I(G)\). On dit que la limite de \(f\) à l'infini négatif est l'infini positif et on le note :
\[\lim_{x \to -\infty} f(x) = +\infty\]
si, pour tout \(G \in F\) aussi grand que l'on veut, on peut trouver une borne supérieure \(S(G) \in E\) telle que :
\[f(x) \ge G\]
pour tout \(x \in E\) vérifiant \(x \le S(G)\). On dit que la limite de \(f\) à l'infini négatif est l'infini négatif et on le note :
\[\lim_{x \to -\infty} f(x) = -\infty\]
si, pour tout \(P \in F\) aussi petit que l'on veut, on peut trouver une borne supérieure \(S(G) \in E\) telle que :
\[f(x) \le P\]
pour tout \(x \in E\) vérifiant \(x \le S(G)\).
3. Limites doubles
\label{chap:limitesDoubles}
3.1. Dépendances
- Chapitre \ref{chap:limites} : Les limites
3.2. Introduction
Si les ensemble \(A, B\) sont munis d'une distance, on définit la distance :
\[\distance^2 : (A \times B) \times (A \times B) \mapsto \corps\]
associée par :
\[\distance^2\big[(x,y), (a,b)\big] = \max \big\{ \distance(x,a), \distance(y,b) \big\}\]
pour tout \((x,y),(a,b) \in A \times B\). La fonction définie est-elle une distance ? On a clairement \(\distance^2 \ge 0\) et :
\[\distance^2\big[(x,y), (a,b)\big] = \distance^2\big[(a,b), (x,y)\big]\]
On a aussi :
\[\distance^2\big[(x,y), (x,y)\big] = \max \big\{ \distance(x,x), \distance(y,y) \big\} = \max \{ 0, 0 \} = 0\]
Si :
\[\distance^2\big[(x,y), (a,b)\big] = 0\]
on a forcément :
\[\distance(x,a) = \distance(y,b) = 0\]
Donc \(x = a\), \(y = b\) et :
\[(x,y) = (a,b)\]
Pour l'inégalité triangulaire, soit \((x,y),(a,b),(c,d) \in A \times B\) et :
\[d = \distance^2\big[(a,b), (c,d)\big] = \max \big\{ \distance(a,c), \distance(b,d) \big\}\]
La distance sur \(A\) vérifie :
\[\distance(a,c) \le \distance(a,x) + \distance(x,c)\]
La distance sur \(B\) vérifie :
\[\distance(b,d) \le \distance(b,y) + \distance(y,d)\]
On en déduit que :
\begin{align} d &\le \max \{ \distance(a,x) + \distance(x,c), \distance(b,y) + \distance(y,d) \} \\ &\le \max \{ \distance(a,x), \distance(b,y) \} + \max \{ \distance(x,c), \distance(y,d) \} \\ &\le \distance^2\big[(a,b), (x,y)\big] + \distance^2\big[(x,y), (c,d)\big] \end{align}3.3. Limite en un point
Soit un ensemble \(F\) et une fonction \(f : A \times B \mapsto F\). On choisit un ensemble \(U \subseteq A \times B\). On dit que \(L\) est la limite de \(f\) en \((a,b) \in A \times B\) et on le note :
\[\lim_{ \substack{ (x,y) \to (a,b) \\ (x,y) \in U } } f(x,y) = L\]
si, pour toute précision \(\epsilon \strictsuperieur 0\), on peut trouver un \(\delta \strictsuperieur 0\) tel que :
\[\distance(f(x,y), L) \le \epsilon\]
pour tout \((x,y) \in U\) vérifiant :
\[\distance^2\big[ (x,y), (a,b) \big] = \max \{ \distance(x,a), \distance(y,b) \} \le \delta\]
3.3.1. Formulation équivalente
La condition :
\[\max \{ \distance(x,a), \distance(y,b) \} \le \delta\]
est équivalente à :
\( \distance(x,a) \le \delta \\ \distance(y,b) \le \delta \)
On en conclut que :
\[\lim_{ \substack{ (x,y) \to (a,b) \\ (x,y) \in U } } f(x,y) = L\]
si et seulement si, pour toute précision \(\epsilon \strictsuperieur 0\), on peut trouver un \(\delta \strictsuperieur 0\) tel que :
\[\distance(f(x,y), L) \le \epsilon\]
pour tout \((x,y) \in U\) vérifiant :
\( \distance(x,a) \le \delta \\ \distance(y,b) \le \delta \)
3.3.2. Extension
Supposons que pour toute précision \(\epsilon \strictsuperieur 0\) on puisse trouver des \(\delta_1, \delta_2 \strictsuperieur 0\) tels que :
\[\distance(f(x,y), L) \le \epsilon\]
pour tout \((x,y) \in U\) vérifiant :
\( \distance(x,a) \le \delta_1 \\ \distance(y,b) \le \delta_2 \)
En posant :
\[\delta = \min \{ \delta_1, \delta_2 \} \strictsuperieur 0\]
on voit que :
\[\distance(f(x,y), L) \le \epsilon\]
pour tout \((x,y) \in U\) vérifiant :
\( \distance(x,a) \le \delta \le \delta_1 \\ \distance(y,b) \le \delta \le \delta_2 \)
On en conclut que :
\[\lim_{ \substack{ (x,y) \to (a,b) \\ (x,y) \in U } } f(x,y) = L\]
3.4. Limite à l'infini
On suppose que les ensembles \(A, B\) sont ordonnés. On dit que \(L \in F\) est la limite de \(f : A \times B \mapsto F\) à l'infini positif et on le note :
\[\lim_{(x,y) \to +\infty} f(x,y) = L\]
si, pour toute précision \(\epsilon \strictsuperieur 0\), on peut trouver des bornes inférieures \((I, J) \in A \times B\) telles que :
\[\distance\big[f(x,y), L\big] \le \epsilon\]
pour tout \((x,y) \in A \times B\) vérifiant :
\( x \ge I \\ y \ge J \)
On dit que \(L \in F\) est la limite de \(f : A \times B \mapsto F\) à l'infini négatif et on le note :
\[\lim_{(x,y) \to -\infty} f(x,y) = L\]
si, pour toute précision \(\epsilon \strictsuperieur 0\), on peut trouver des bornes supérieures \((I, J) \in A \times B\) telles que :
\[\distance\big[f(x,y), L\big] \le \epsilon\]
pour tout \((x,y) \in A \times B\) vérifiant :
\( x \le I \\ y \le J \)
3.5. Dualité
3.5.1. \(x\) puis \(y\)
Supposons que la limite \(\lambda(y)\) définie par :
\[\lambda(y) = \lim_{x \to a} f(x,y)\]
existe pour tout \(y \in B\) et que :
\[L = \lim_{y \to b} \lambda(y) = \lim_{y \to b} \lim_{x \to a} f(x,y)\]
est bien définie. Nous supposons également que, quelque soit \(\epsilon \strictsuperieur 0\), on peut trouver un \(\delta \strictsuperieur 0\) tel que :
\[\distance(f(x,y),\lambda(y)) \le \epsilon\]
pour tout \((x,y) \in A \times B\) vérifiant :
\[\distance(x,a) \le \delta\]
Choissons \(\epsilon \strictsuperieur 0\). On peut trouver \(\delta_1 \strictsuperieur 0\) tel que :
\[\distance(\lambda(y), L) \le \frac{\epsilon}{2}\]
pour tout \((x,y) \in A \times B\) vérifiant :
\[\distance(y,b) \le \delta_1\]
On peut aussi trouver \(\delta_2\) tel que :
\[\distance(f(x,y),\lambda(y)) \le \frac{\epsilon}{2}\]
pour tout \((x,y) \in A \times B\) vérifiant :
\[\distance(x,a) \le \delta_2\]
Soit \(\delta = \min \{ \delta_1, \delta_2 \}\) et \((x,y) \in A \times B\) vérifiant :
\[\max \{ \distance(x,a), \distance(y,b) \} \le \delta\]
On a alors :
\begin{align} \distance(f(x,y),L) &\le \distance(f(x,y),\lambda(y)) + \distance(\lambda(y),L) \\ &\le \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon \end{align}On en conclut que :
\[\lim_{(x,y) \to (a,b)} f(x,y) = L\]
autrement dit :
\[\lim_{(x,y) \to (a,b)} f(x,y) = \lim_{y \to b} \lim_{x \to a} f(x,y)\]
3.5.2. \(y\) puis \(x\)
Supposons que la limite \(\mu(x)\) définie par :
\[\mu(x) = \lim_{y \to b} f(x,y)\]
existe pour tout \(x \in A\) et que :
\[M = \lim_{x \to a} \mu(y) = \lim_{x \to a} \lim_{y \to b} f(x,y)\]
est bien définie. Nous supposons également que, quelque soit \(\epsilon \strictsuperieur 0\), on peut trouver un \(\delta \strictsuperieur 0\) tel que :
\[\distance(f(x,y),\mu(x)) \le \epsilon\]
pour tout \((x,y) \in A \times B\) vérifiant :
\[\distance(y,b) \le \delta\]
Choissons \(\epsilon \strictsuperieur 0\). On peut trouver \(\delta_1 \strictsuperieur 0\) tel que :
\[\distance(\mu(x), M) \le \frac{\epsilon}{2}\]
pour tout \((x,y) \in A \times B\) vérifiant :
\[\distance(x,a) \le \delta_1\]
On peut aussi trouver \(\delta_2\) tel que :
\[\distance(f(x,y),\mu(x)) \le \frac{\epsilon}{2}\]
pour tout \((x,y) \in A \times B\) vérifiant :
\[\distance(y,b) \le \delta_2\]
Soit \(\delta = \min \{ \delta_1, \delta_2 \}\) et \((x,y) \in A \times B\) vérifiant :
\[\max \{ \distance(x,a), \distance(y,b) \} \le \delta\]
On a alors :
\begin{align} \distance(f(x,y),M) &\le \distance(f(x,y),\mu(x)) + \distance(\mu(x),M) \\ &\le \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon \end{align}On en conclut que :
\[\lim_{(x,y) \to (a,b)} f(x,y) = M\]
autrement dit :
\[\lim_{(x,y) \to (a,b)} f(x,y) = \lim_{x \to a} \lim_{y \to b} f(x,y)\]
4. Suites
\label{chap:suites}
4.1. Dépendances
- Chapitre \ref{chap:limites} : Les limites
4.2. Définition
Une suite est une fonction \(s : \setN \mapsto \Omega\) définie par :
\[s : n \mapsto s_n = s(n)\]
pour tout \(n \in \setN\). On note \(\suitek(\Omega)\) l'ensemble des suites \(s \subseteq \Omega\).
4.3. Limite
On dit qu'une suite \(s : n \mapsto s_n \in \Omega\) converge vers \(L \in \Omega\) au sens de la distance \(\distance\), ou que \(L\) est sa limite à l'infini :
\[L = \lim_{n \to \infty} s_n\]
si, pour toute précision \(\epsilon > 0\) aussi petite que l'on veut, on peut trouver un naturel \(K(\epsilon)\) à partir duquel l'erreur sera au moins aussi faible que demandée. On a donc :
\[\distance(L,s_n) \le \epsilon\]
pour tout \(n \ge K(\epsilon)\).
4.3.1. Notation
Comme la limite d'une suite est toujours sous-entendue vers l'infini, on note :
\[\lim_n s_n = \lim_{n \to \infty} s_n\]
4.4. Limites extrémales
On définit :
\[\limsup_{n \to \infty} s_n = \lim_{n \to \infty} \sup \{ s_m : m \in \setN, \ m \ge n \}\]
\[\liminf_{n \to \infty} s_n = \lim_{n \to \infty} \inf \{ s_m : m \in \setN, \ m \ge n \}\]
4.4.1. Notation
On note aussi :
\[\limsup_n s_n = \limsup_{n \to \infty} s_n\]
\[\liminf_n s_n = \liminf_{n \to \infty} s_n\]
4.5. Équivalence
Soit les suites :
\[s : n \mapsto s_n \in \Omega\]
et :
\[t : n \mapsto t_n \in \Omega\]
On dit que \(s\) est équivalente à \(t\), et on le note :
\[s \equiv t\]
si et seulement si la limite de la distance entre les deux suites converge vers zéro :
\[\lim_{n \to \infty} \distance(s_n,t_n) = 0\]
Quelque soit \(\epsilon \strictsuperieur 0\), on peut donc trouver un naturel \(K(\epsilon)\) tel que :
\[\distance(s_n,t_n) \le \epsilon\]
pour tout \(n \ge K(\epsilon)\).
4.5.1. Remarque
L'équivalence entre \(s\) et \(t\) n'implique nullement que la limite de \(s\) ou de \(t\) existe.
4.5.2. Existence des limites
Suppons que \(s \equiv t\) et que la limite :
\[\sigma = \lim_{n \to \infty} s_n\]
existe. On a :
\[\distance(\sigma,t_n) \le \distance(\sigma,s_n) + \distance(s_n,t_n)\]
Soit \(\epsilon \strictsuperieur 0\). En choisissant \(K_1\) tel que :
\[\distance(\sigma,s_n) \le \frac{\epsilon}{2}\]
pour tout \(n \ge K_1\) et \(K_2\) tel que :
\[\distance(s_n,t_n) \le \frac{\epsilon}{2}\]
pour tout \(n \ge K_2\), on voit que :
\[\distance(\sigma,t_n) \le \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon\]
Cette relation étant valable quel que soit \(\epsilon \strictsuperieur 0\), on en déduit que la limite des \(t_n\) existe et que :
\[\lim_{n \to \infty} t_n = \sigma = \lim_{n \to \infty} s_n\]
Les limites de suites équivalentes sont identiques.
4.6. Ordre
Soit les suites :
\[s : n \mapsto s_n \in \Omega\]
et :
\[t : n \mapsto t_n \in \Omega\]
Si un ordre est défini sur \(\Omega\), on dit que \(s\) est inférieure à \(t\) :
\[s \le t\]
si et seulement si les éléments de \(s\) sont inférieurs aux éléments de \(t\) :
\[s_n \le t_n\]
pour tout \(n \in \setN\).
4.7. Monotonie
4.7.1. Croissance
On dit qu'une suite :
\[s : n \mapsto s_n \in \Omega\]
est croissante si :
\[s_i \ge s_j\]
pour tout \(i,j \in \setN\) tels que \(i \ge j\).
4.7.2. Décroissance
On dit qu'une suite :
\[s : n \mapsto s_n \in \Omega\]
est décroissante si :
\[s_i \le s_j\]
pour tout \(i,j \in \setN\) tels que \(i \ge j\).
4.8. Opérations
Soit les suites :
\[s : n \mapsto s_n \in \Omega\]
et :
\[t : n \mapsto t_n \in \Omega\]
Pour toute opération \(\opera\) définie sur \(\Omega\), on définit l'opération induite \(\opera : \suitek(\Omega) \times \suitek(\Omega) \mapsto \suitek(\Omega)\) par :
\[(s \opera t)(n) = s_n \opera t_n\]
pour tout \(n \in \setN\). On note aussi :
\[(s \opera t)_n = (s \opera t)(n)\]
4.8.1. Usuelles
Sur les ensembles où sont définies les opérations usuelles, on aura l'addition :
\[(s + t)_n = s_n + t_n\]
la multiplication :
\[(s - t)_n = s_n - t_n\]
la soustraction :
\[(s \cdot t)_n = s_n \cdot t_n\]
la division :
\[\left[ \frac{s}{t} \right]_n = \frac{s_n}{t_n}\]
pour tout \(n \in \setN\).
4.9. Cauchy
On dit qu'une suite :
\[s : n \mapsto s_n \in \Omega\]
est de Cauchy si, pour toute précision \(\epsilon > 0\) aussi petite que l'on veut, on peut trouver un naturel \(K(\epsilon)\) à partir duquel la distance entre deux éléments de la suite \(s_m, s_n\) sera aussi petite que demandée. On a donc :
\[\distance(s_m,s_n) \le \epsilon\]
pour tout \(m,n \ge K(\epsilon)\).
4.9.1. Suite convergente
Toute suite convergente vers une limite :
\[L = \lim_{n \to \infty} s_n \in \Omega\]
est de Cauchy. En effet, soit \(\epsilon \strictsuperieur 0\). Si on choisit \(K\) tel que :
\[\distance(L,s_n) \le \epsilon / 2\]
pour tout \(n \ge K\), on a :
\[\distance(s_m,s_n) \le \distance(s_m,L) + \distance(L,s_n) = \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon\]
pour tout \(m,n \ge K\).
4.10. Ensemble complet
On dit qu'un ensemble \(X\) est complet si toute suite de Cauchy inclue dans \(X\) converge vers une limite \(L \in X\).
4.10.1. Complétion
On peut compléter tout ensemble \(A\) incomplet en créant un ensemble \(X\) tel que tout \(x \in X\) soit associé à une suite de Cauchy :
\[s : n \mapsto s_n \in A\]
On note alors symboliquement :
\[x = \lim_{n \to \infty} s_n\]
5. Sommes abstraites
\label{chap:sommesAbstraites}
5.1. Dépendances
- Chapitre \ref{chap:algebre} : Algèbre
5.2. Introduction
Soit le corps commutatif \(\corps\), un ensemble \(\Omega\) et la fonction \(f : \Omega \mapsto \corps\). On note la somme de \(f\) sur \(X\) par :
\[\sum_{x \in X} f(x)\]
pour tout sous-ensemble \(X \subseteq \Omega\). Il s'agit intuitivement de la somme des \(f(x) \in \corps\) lorsque \(x\) parcourt \(X\). Nous allons voir comment la formaliser.
5.2.1. Notation
Lorsque l'ensemble \(X\) est évident d'après le contexte, on convient que :
\[\sum_x f(x) = \sum_{x \in X} f(x)\]
5.3. Additivité
Si deux ensembles \(X,Y \subseteq \Omega\) ne se chevauchent pas :
\[X \cap Y = \emptyset\]
la somme sur l'union des deux est intuitivement l'addition des sommes sur chacun d'entre-eux :
\[\sum_{z \in X \cup Y} f(z) = \sum_{z \in X} f(z) + \sum_{z \in Y} f(z)\]
5.4. Ensemble vide
Comme \(X = X \cup \emptyset\) et \(X \cap \emptyset = \emptyset\), on en déduit que :
\[\sum_{x \in X} f(x) = \sum_{x \in X \cup \emptyset} f(x) = \sum_{x \in X} f(x) + \sum_{x \in \emptyset} f(x)\]
La somme sur l'ensemble vide doit donc être le neutre pour l'addition :
\[\sum_{x \in \emptyset} f(x) = 0\]
5.5. Singleton
Il semble également logique d'imposer que la somme sur un ensemble contenant un seul élément \(a \in X\) soit égal à \(f(a)\) :
\[\sum_{ x \in \{ a \} } f(x) = f(a)\]
Voilà qui complète les caractéristiques génériques des sommes.
5.6. Somme des éléments d'un ensemble
Pour tout \(A \subseteq \corps\), on note :
\[\sum_{x \in A} x = \sum_{x \in A} \identite(x)\]
la somme des éléments de \(A\).
5.7. Algorithme
Soit l'ensemble \(X\) non vide, ensemble dont nous voulons évaluer la somme. Choisissons un élément \(a \in A\) et considérons la décomposition :
\[X = \{ a \} \cup ( X \setminus \{ a \} )\]
Comme l'intersection des deux ensembles du membre de droite est vide :
\[\{ a \} \cap ( X \setminus \{ a \} ) = \emptyset\]
on peut écrire :
\[\sum_{x \in X} f(x) = \sum_{ x \in \{ a \} } f(x) + \sum_{x \in X \setminus \{ a \} } f(x)\]
c'est-à-dire :
\[\sum_{x \in X} f(x) = f(a) + \sum_{x \in X \setminus \{ a \} } f(x)\]
On en déduit un algorithme itératif permettant d'estimer la somme :
\[S \approx \sum_{x \in X} f(x)\]
Nous partons de :
\( S_0 = 0 \\ X_0 = X \)
A chaque étape \(k \in \setN\), nous choisissons \(a_k \in X_k\) et nous adaptons notre estimation par :
\[S_{k + 1} = f(a_k) + S_k\]
On retire ensuite \(a_k\) de \(X_k\) pour éviter de le compter plus d'une fois, ce qui nous donne l'ensemble suivant :
\[X_{k + 1} = X_k \setminus \{ a_k \}\]
Cet algorithme va nous permettre de formaliser la définition des sommes.
5.8. Ensemble fini
Soit l'ensemble \(X\) contenant un nombre fini \(N \in \setN\) d'éléments :
\[X = \{ a_1, a_2, ..., a_N \}\]
En appliquant l'algorithme d'évaluation d'une somme, on finit par arriver à l'itération \(N\) avec :
\[X_N = \emptyset\]
On a simplement :
\[\sum_{x \in X} f(x) = S_N + \sum_{x \in \emptyset} f(x) = S_N + 0 = S_N\]
Comme :
\[S_N = f(a_1) + f(a_2) + ... + f(a_N)\]
on a simplement :
\[\sum_{x \in X} f(x) = f(a_1) + f(a_2) + ... + f(a_N)\]
On note :
\[\sum_{k = 1}^N f(a_k) = f(a_1) + f(a_2) + ... + f(a_N)\]
5.8.1. Numérotation
Les éléments de \(X\) peuvent être numérotés différemment. Soit \(m, n \in \setZ\) et :
\[X = \{ a_m, a_{m + 1}, ..., a_{n - 1}, a_n \}\]
On a alors :
\[\sum_{x \in X} f(x) = f(a_m) + f(a_{m+1}) + ... + f(a_{n-1}) + f(a_n)\]
On note :
\[\sum_{k = m}^n f(a_k) = f(a_m) + f(a_{m+1}) + ... + f(a_{n-1}) + f(a_n)\]
5.8.2. Extension
Soit un ensemble \(X\) dont on peut extraire un sous-ensemble fini de la forme :
\[F = \{ a_m, a_{m + 1}, ..., a_{n - 1}, a_n \} \subseteq X\]
tel que :
\[f(x) = 0\]
pour tout \(x \in X \setminus F\). La somme s'écrit alors :
\[\sum_{x \in X} f(x) = \sum_{x \in F} f(x) = \sum_{k = m}^n f(a_k)\]
5.9. Ensemble dénombrable
5.9.1. Naturels
Soit :
\[X = \{ a_0, a_1, a_2,... \} = \{ a_k : k \in \setN \}\]
Si la suite \(n \mapsto S_n\) définie par :
\[S_n = \sum_{k = 0}^n f(a_k) = f(a_0) + f(a_1) + ... + f(a_n)\]
pour tout \(n \in \setN\) converge vers un certain \(S \in \corps\), on définit :
\[\sum_{x \in X} f(x) = \lim_{n \to \infty} S_n = S\]
c'est-à-dire :
\[\sum_{x \in X} f(x) = \lim_{n \to \infty} \sum_{k = 0}^n f(a_k)\]
On introduit la notation :
\[\sum_{k = 0}^{+\infty} f(a_k) = \lim_{n \to \infty} \sum_{k = 0}^n f(a_k)\]
5.9.2. Entiers
Soit :
\[X = \{ ...,a_{-2},a_{-1},a_0, a_1, a_2,... \} = \{ a_k : k \in \setZ \}\]
Si la suite des \(n \mapsto S_n\) définie par :
\[S_n = \sum_{k = -n}^n f(a_k) = f(a_{-n}) + f(a_{-n+1}) + ... + f(a_{n-1}) + f(a_n)\]
pour tout \(n \in \setN\) converge vers un certain \(S \in \corps\), on définit :
\[\sum_{x \in X} f(x) = \lim_{n \to \infty} S_n = S\]
On introduit la notation :
\[\sum_{k = -\infty}^{+\infty} f(a_k) = \lim_{n \to \infty} \sum_{k = -n}^{n} f(a_k)\]
5.9.3. Extension
Soit un ensemble \(X\) dont on peut extraire un sous-ensemble \(D\) de la forme :
\[D = \{a_k : k \in \setN\} \subseteq X\]
ou :
\[D = \{a_k : k \in \setZ\} \subseteq X\]
tel que :
\[f(x) = 0\]
pour tout \(x \in X \setminus D\). La somme s'écrit alors :
\[\sum_{x \in X} f(x) = \sum_{x \in D} f(x)\]
5.10. Linéarité
Soit les fonctions \(f,g : \Omega \mapsto \corps\) et l'ensemble fini \(X \subseteq \Omega\). On a clairement :
\[\sum_{x \in X} \Big[ f(x) + g(x) \Big] = \sum_{x \in X} f(x) + \sum_{x \in X} g(x)\]
Comme le produit se distribue sur l'addition, on a également :
\[\sum_{x \in X} \Big[ c \cdot f(x)\Big] = c \cdot \sum_{x \in X} f(x)\]
pour tout \(c \in \corps\). La somme sur un ensemble fini est linéaire.
5.11. Additivité
Si les ensembles finis \(X\) et \(Y\) vérifient \(X \cap Y = \emptyset\), la commutativité et l'associativité de l'addition nous donnent la propriété d'additivité :
\[\sum_{x \in X \cup Y} f(x) = \sum_{x \in X} f(x) + \sum_{x \in Y} f(x)\]
5.12. Additivité généralisée
Soit les ensembles \(\Omega\) et \(\Lambda\) comportant un nombre fini d'éléments, la fonction \(f : \Omega \mapsto \corps\) et la collection d'ensembles :
\[\Theta = \{ X(\lambda) \subseteq \Omega : \lambda \in \Lambda \}\]
où \(X : \Lambda \mapsto \sousens(\Omega)\). On définit la fonction \(S : \Lambda \mapsto \corps\) représentant les sommes associées par :
\[S(\lambda) = \sum_{x \in X(\lambda)} f(x)\]
On suppose que \(\Theta\) forme une partition de \(\Omega\). On a alors :
\[X(\lambda) \cap X(\mu) = \emptyset\]
pour tout \(\lambda,\mu \in \Lambda\) tels que \(\lambda \ne \mu\) et :
\[\Omega = \bigcup_{\lambda \in \Lambda} X(\lambda)\]
Alors, l'associativité et la commutativité de l'addition nous permettent de regrouper les termes de \(\Omega\) par sous-ensembles \(X(\lambda)\), et on a :
\[\sum_{x \in \Omega} f(x) = \sum_{\lambda \in \Lambda} S(\lambda) = \sum_{\lambda \in \Lambda} \left[ \sum_{x \in X(\lambda)} f(x) \right]\]
5.12.1. Notation
On note aussi :
\[\sum_{\lambda \in \Lambda} \sum_{x \in X(\lambda)} f(x) = \sum_{\lambda \in \Lambda} \left[ \sum_{x \in X(\lambda)} f(x) \right]\]
5.13. Produit cartésien
Soit les sous-ensembles \(X,Y \subseteq \Omega\) comportant un nombre fini d'éléments et la fonction \(f : X \times Y \mapsto \corps\). On définit la fonction \(A : X \mapsto \sousens(X \times Y)\) par :
\[A(x) = \{ (x,y) : y \in Y \}\]
pour tout \(x \in X\). Les sommes associées s'écrivent :
\[S(x) = \sum_{(\lambda,y) \in A(x)} f(\lambda,y)\]
Comme les éléments de \(A(x)\) sont de la forme \((x,y)\), on a forcément \(\lambda = x\). Par conséquent, parcourir \(A(x)\) revient à parcourir les \(y \in Y\) en gardant \(\lambda = x\) fixé et on a :
\[S(x) = \sum_{y \in Y} f(x,y)\]
On se rend compte que les ensembles de cette collection ne se chevauchent pas :
\[A(\lambda) \cap A(\mu) = \emptyset\]
pour tout \(\lambda, \mu \in X\) tels que \(\lambda \ne \mu\). On a aussi :
\[X \times Y = \bigcup_{\lambda \in X} A(\lambda)\]
Nous pouvons par conséquent utiliser l'additivité généralisée, ce qui nous donne :
\[\sum_{(x,y) \in X \times Y} f(x,y) = \sum_{x \in X} S(x)\]
soit, en tenant compte de l'expression de \(S(x)\) :
\[\sum_{(x,y) \in X \times Y} f(x,y) = \sum_{x \in X} \sum_{y \in Y} f(x,y)\]
On montre également que :
\[\sum_{(x,y) \in X \times Y} f(x,y) = \sum_{y \in Y} \sum_{x \in X} f(x,y)\]
5.14. Somme d'un produit
Soit les fonctions \(f,g : \Omega \mapsto \corps\) et les sous-ensembles \(X,Y \subseteq \Omega\) comportant un nombre fini d'éléments. On a :
\[\sum_{(x,y) \in X \times Y} f(x) \cdot g(y) = \sum_{x \in X} \sum_{y \in Y} f(x) \cdot g(y)\]
Mais comme la valeur de \(f(x)\) ne dépend pas de \(y\), on peut appliquer la distributivité du produit sur l'addition pour faire sortir les valeurs de \(f\) de la somme sur \(y\) et :
\[\sum_{(x,y) \in X \times Y} f(x) \cdot g(y) = \sum_{x \in X} \left[ f(x) \cdot \sum_{y \in Y} g(y) \right]\]
A nouveau, comme la somme de \(g\) sur \(Y\) ne dépend pas de \(x\), on peut la faire sortir et :
\[\sum_{(x,y) \in X \times Y} f(x) \cdot g(y) = \left[ \sum_{y \in Y} g(y) \right] \cdot \left[ \sum_{x \in X} f(x) \right]\]
La multiplication étant commutative, on a également :
\[\sum_{(x,y) \in X \times Y} f(x) \cdot g(y) = \left[ \sum_{x \in X} f(x) \right] \cdot \left[ \sum_{y \in Y} g(y) \right]\]
6. Sommes indicées
\label{chap:sommesIndicees}
6.1. Définition
Soit un corps commutatif \(\corps\) et l'ensemble d'indices \(\mathcal{Z}\). Supposons que l'on puisse écrire l'ensemble \(A \subseteq \corps\) sous la forme :
\[A = \{ a_k : k \in \mathcal{Z} \}\]
On associe à \(A\) la fonction \(\varphi : \mathcal{Z} \mapsto A\) définie par :
\[\varphi(k) = a_k\]
pour tout \(k \in \mathcal{Z}\). Pour tout sous-ensemble \(I \subseteq \mathcal{Z}\), on définit alors :
\[\sum_{k \in I} a_k = \sum_{k \in I} \varphi(k)\]
sous réserve d'existence de la somme.
6.1.1. Fonction
Soit \(f : A \mapsto \corps\). On définit :
\[\sum_{k \in I} f(a_k) = \sum_{k \in I} (f \circ \varphi)(k)\]
6.2. Intervalles discrets
Soit \(m,n \in \setZ\). Nous définissons l'intervalle discret :
\[\setZ[m,n] = \{ z \in \setZ : m \le z \le n \}\]
Si \(\setZ[m,n] \subseteq \mathcal{Z}\), on a simplement :
\[\sum_{k \in \setZ[m,n]} a_k = a_m + a_{m+1} + ... + a_{n-1} + a_n\]
On note aussi :
\[\sum_{k = m}^n a_k = \sum_{k = n}^m a_k = \sum_{k \in \setZ[m,n] } a_k\]
6.3. Linéarité
Soit les ensembles :
\[A = \{ a_k : k \in \mathcal{Z} \} \subseteq \corps\] \[B = \{ b_k : k \in \mathcal{Z} \} \subseteq \corps\]
et \(\alpha, \beta \in \corps\). Si \(I \subseteq \mathcal{Z}\) compte un nombre fini d'éléments, on a clairement :
\[\sum_{k \in I} (\alpha \cdot a_{k} + \beta \cdot b_k) = \alpha \cdot \sum_{k \in I} a_k + \beta \cdot \sum_{k \in I} b_k\]
6.4. Produit cartésien
Soit les sous-ensembles \(I,J \subseteq \setZ\) comportant un nombre fini d'éléments, et :
\[A = \{ a_{ij} \in E : (i,j) \in I \times J \}\]
Il découle directement de la formule des sommes sur les produits cartésiens que :
\[\sum_{(i,j) \in I \times J} a_{ij} = \sum_{i \in I} \sum_{j \in J} a_{ij} = \sum_{j \in J} \sum_{i \in I} a_{ij}\]
6.4.1. Notation
On note :
\[\sum_{i,j = m}^n a_{ij} = \sum_{i = m}^n \sum_{j = m}^n a_{ij}\]
6.5. Somme d'un produit
Soit les ensembles :
\[A = \{ a_k : k \in \mathcal{Z} \} \subseteq \corps\] \[B = \{ b_k : k \in \mathcal{Z} \} \subseteq \corps\]
et les ensembles \(I,J \subseteq \mathcal{Z}\) comportant un nombre fini d'éléments. La somme du produit se déduit du résultat analogue des sommes génériques :
\[\sum_{(i,j) \in I \times J} a_i \cdot b_j = \left[ \sum_{i \in I} a_i \right] \cdot \left[ \sum_{j \in J} b_j \right]\]
6.6. Lemme du triangle
Soit le triangle discret :
\[\Delta = \{ (i,j) \in \setZ[0,N] \times \setZ[0,N] : \ j \le i \}\]
et un ensemble :
\[A = \{ a_{ij} : (i,j) \in \Delta \}\]
Le triangle \(\Delta\) peut être aussi défini par :
\[\Delta = \{ (i,j) \in \setZ^2 : 0 \le i \le N, \quad 0 \le j \le i\}\]
La somme sur \(\Delta\) peut donc se réécrire :
\[\sum_{(i,j) \in \Delta} a_{ij} = \sum_{i=0}^N \sum_{j=0}^i a_{ij}\]
Une autre définition alternative de \(\Delta\) nous donne :
\[\Delta = \{(i,j) \in \setZ^2 : 0 \le j \le N, \quad j \le i \le N\}\]
On a donc également :
\[\sum_{(i,j)\in\Delta} a_{ij} = \sum_{j=0}^N \sum_{i=j}^N a_{ij}\]
On en déduit une relation permettant d'inverser les sommes :
\[\sum_{i=0}^N \sum_{j=0}^i a_{ij} = \sum_{j=0}^N \sum_{i=j}^N a_{ij} = \sum_{(i,j)\in\Delta} a_{ij}\]
7. Produits
\label{chap:produits}
7.1. Dépendances
- Chapitre \ref{chap:reel} : Les réels
- Chapitre \ref{chap:complexe} : Les complexes
- Chapitre \ref{chap:somme} : Les sommes
7.2. Introduction
Soit le corps \(\corps\) sur lequel est défini une relation d'ordre total ainsi des opérations d'addition, de multiplication, de soustraction, de division et de puissance similaires à celles de \(\setQ\).
Soit un ensemble \(\Omega\) et la fonction \(f : \Omega \mapsto \corps\). On note le produit de \(f\) sur \(X\) par :
\[\prod_{x \in X} f(x)\]
pour tout sous-ensemble \(X \subseteq \Omega\). Il s'agit intuitivement du produit des \(f(x) \in \corps\) lorsque \(x\) parcourt \(X\). Nous allons voir comment le formaliser.
7.3. Multiplicativité finie
Si deux ensembles \(X,Y \subseteq \Omega\) ne se chevauchent pas :
\[X \cap Y = \emptyset\]
le produit sur l'union des deux est intuitivement le produit des produits sur chacun d'entre-eux :
\[\prod_{z \in X \cup Y} f(z) = \left[ \prod_{z \in X} f(z) \right] \cdot \left[ \prod_{z \in Y} f(z) \right]\]
7.4. Ensemble vide
Comme \(X = X \cup \emptyset\) et \(X \cap \emptyset = \emptyset\), on en déduit que :
\[\prod_{x \in X} f(x) = \prod_{x \in X \cup \emptyset} f(x) = \prod_{x \in X} f(x) \cdot \prod_{x \in \emptyset} f(x)\]
Le produit sur l'ensemble vide doit donc être le neutre pour la multiplication :
\[\prod_{x \in \emptyset} f(x) = 1\]
7.5. Singleton
Il semble également logique d'imposer que le produit sur un ensemble contenant un seul élément \(a \in X\) soit égal à \(f(a)\) :
\[\prod_{ x \in \{ a \} } f(x) = f(a)\]
Voilà qui complète les caractéristiques génériques des produits.
7.6. Algorithme
Soit l'ensemble \(X\) non vide, ensemble dont nous voulons évaluer le produit. Choisissons un élément \(a \in A\) et considérons la décomposition :
\[X = \{ a \} \cup ( X \setminus \{ a \} )\]
Comme l'intersection des deux ensembles du membre de droite est vide :
\[\{ a \} \cap ( X \setminus \{ a \} ) = \emptyset\]
on peut écrire :
\[\prod_{x \in X} f(x) = \prod_{ x \in \{ a \} } f(x) \cdot \prod_{x \in X \setminus \{ a \} } f(x)\]
c'est-à-dire :
\[\prod_{x \in X} f(x) = f(a) \cdot \prod_{x \in X \setminus \{ a \} } f(x)\]
On en déduit un algorithme itératif permettant d'estimer le produit :
\[S \approx \prod_{x \in X} f(x)\]
Nous partons de :
\( S_0 = 0 \\ X_0 = X \)
A chaque étape \(k\), nous choisissons \(a_k \in X_k\) et nous adaptons notre estimation par :
\[S_{k + 1} = f(a_k) \cdot S_k\]
On retire ensuite \(a_k\) de \(X_k\) pour éviter de le compter plus d'une fois, ce qui nous donne l'ensemble suivant :
\[X_{k + 1} = X_k \setminus \{ a_k \}\]
7.7. Ensemble fini
Soit l'ensemble \(X\) contenant un nombre fini \(N \in \setN\) d'éléments :
\[X = \{ a_1, a_2, ..., a_N \}\]
En appliquant l'algorithme d'évaluation d'une somme, on finit par arriver à l'itération \(N\) avec :
\[X_N = \emptyset\]
On a simplement :
\[\prod_{x \in X} f(x) = S_N \cdot \prod_{x \in \emptyset} f(x) = S_N \cdot 1 = S_N\]
et :
\[\prod_{x \in X} f(x) = S_N = f(a_1) \cdot f(a_2) \cdot ... \cdot f(a_N)\]
On note :
\[\prod_{k = 1}^N f(a_k) = f(a_1) \cdot f(a_2) \cdot ... \cdot f(a_N)\]
7.7.1. Numérotation
Les éléments de \(X\) peuvent être numérotés différemment. Soit \(m, n \in \setZ\) et :
\[X = \{ a_m, a_{m + 1}, ..., a_{n - 1}, a_n \}\]
On a alors :
\[\prod_{x \in X} f(x) = f(a_m) \cdot f(a_{m+1}) \cdot ... \cdot f(a_{n-1}) \cdot f(a_n)\]
On note :
\[\prod_{k = m}^n f(a_k) = f(a_m) \cdot f(a_{m+1}) \cdot ... \cdot f(a_{n-1}) \cdot f(a_n)\]
7.7.2. Extension
Soit un ensemble \(X\) dont on peut extraire un sous-ensemble fini de la forme :
\[F = \{ a_m, a_{m + 1}, ..., a_{n - 1}, a_n \} \subseteq X\]
tel que :
\[f(x) = 1\]
pour tout \(x \in X \setminus F\). La somme s'écrit alors :
\[\prod_{x \in X} f(x) = \prod_{x \in F} f(x) = \prod_{k = m}^n f(a_k)\]
7.8. Ensemble dénombrable
7.8.1. Naturels
Soit :
\[X = \{ a_0, a_1, a_2,... \} = \{ a_k : k \in \setN \}\]
Si la suite des \(\{ S_n : n \in \setN \}\) définie par :
\[S_n = \prod_{k = 0}^n f(a_k) = f(a_0) \cdot f(a_1) \cdot ... \cdot f(a_n)\]
pour tout \(n \in \setN\) converge vers un certain \(S \in \corps\), on définit :
\[\prod_{x \in X} f(x) = \lim_{n \to \infty} S_n = S\]
c'est-à-dire :
\[\prod_{x \in X} f(x) = \lim_{n \to \infty} \prod_{k = 0}^n f(a_k)\]
On introduit la notation :
\[\prod_{k = 0}^{+\infty} f(a_k) = \lim_{n \to \infty} \prod_{k = 0}^n f(a_k)\]
7.8.2. Entiers
Soit :
\[X = \{ ...,a_{-2},a_{-1},a_0, a_1, a_2,... \} = \{ a_k : k \in \setZ \}\]
Si la suite des \(\{ S_n : n \in \setN \}\) définie par :
\[S_n = \prod_{k = -n}^n f(a_k) = f(a_{-n}) \cdot f(a_{-n+1}) \cdot ... \cdot f(a_{n-1}) \cdot f(a_n)\]
pour tout \(n \in \setN\) converge vers un certain \(S \in \corps\), on définit :
\[\prod_{x \in X} f(x) = \lim_{n \to \infty} S_n = S\]
On introduit la notation :
\[\prod_{k = -\infty}^{+\infty} f(a_k) = \lim_{n \to \infty} \prod_{k = -n}^{n} f(a_k)\]
7.8.3. Extension
Soit un ensemble \(X\) dont on peut extraire un sous-ensemble \(D\) de la forme :
\[D = \{a_k : k \in \setN\} \subseteq X\]
ou :
\[D = \{a_k : k \in \setZ\} \subseteq X\]
tel que :
\[f(x) = 1\]
pour tout \(x \in X \setminus D\). La somme s'écrit alors :
\[\prod_{x \in X} f(x) = \prod_{x \in D} f(x)\]
8. Progressions
\label{chap:progressions}
8.1. Arithmétique
Soit \(n \in \setN\). Nous allons tenter d'évaluer la somme :
\[S_n = \sum_{i = 0}^n i = 0 + 1 + 2 + ... + n\]
L'idée est d'exprimer que cette somme est équivalente à :
\[(n - 0) + (n - 1) + ... + (n - n)\]
Si nous posons \(j\) tel que \(i = n - j\), on voit que l'on a \(j = n -i\) et \(0 \le j \le n\). Donc :
\[S_n = \sum_{j = 0}^n (n-j)\]
Développons :
\[\sum_{j = 0}^n (n-j) = \sum_{j = 0}^{n} n - \sum_{j = 0}^{n} j\]
Le premier terme du membre de droite peut se réécrire :
\[\sum_{j = 0}^n n = n \cdot \sum_{j = 0}^{n} 1 = n \cdot (n + 1)\]
Pour le second, on a clairement :
\[\sum_{j = 0}^n j = S_n\]
On en conclut que :
\[S_n = n \cdot (n + 1) - S_n\]
c'est-à-dire :
\[2 S_n = n \cdot (n + 1)\]
Divisant par \(2\), on obtient le résultat final :
\[\sum_{i = 0}^{n} i = \frac{ n \cdot (n + 1) }{ 2 }\]
8.2. Géométrique
Soit \(n \in \setN\) et \(a \in \corps\). Nous allons rechercher une expression de la somme :
\[G_n = \sum_{i=0}^n a^i = 1 + a + a^2 + ... + a^n\]
Si \(a = 1\), on a simplement :
\[G_n = \sum_{i=0}^n a^i = 1 + ... + 1 = n\]
Intéressons-nous à présent au cas où \(a \ne 1\). On part du constat que la somme \(G_n\) est équivalente à :
\[1 + a \cdot (1 + a + a^2 + ... + a^n) - a^{n+1}\]
On développe en ce sens :
\begin{align} G_n &= 1 + \sum_{i = 1}^n a^i \\ &= 1 + a \cdot \sum_{i = 0}^{n - 1} a^i \\ &= 1 + a \cdot \sum_{i = 0}^n a^i - a^{n + 1} \end{align}et finalement, on arrive à l'équation implicite :
\[G_n = 1 + a \cdot G_n - a^{n + 1}\]
En soustrayant \(a \cdot G_n\) des deux membres, on obtient :
\[(1 - a) \cdot G_n = 1 - a^{n + 1}\]
Comme \(a \ne 1\), on en déduit que :
\[\sum_{i = 0}^n a^i = \frac{ 1 - a^{n + 1} }{ 1 - a }\]
8.2.1. Autre forme
En multipliant numérateur et dénominateur par \(-1\), on obtient la forme équivalente :
\[\sum_{i = 0}^n a^i = \frac{a^{n + 1} - 1}{a - 1}\]
8.3. Factorisation
\label{sec:factorisation_progression_geometrique}
Les progressions géométriques permettent d'obtenir une importante formule de factorisation. Soit \(a,b \in \corps\) avec \(a \ne 0\). Posons :
\[r = \frac{b}{a}\]
On a alors :
\[(1 - r) \cdot \sum_{i = 0}^n r^i = 1 - r^{n + 1}\]
Multipliant par \(a^{n + 1}\), on obtient :
\[(a - b) \cdot a^n \cdot \sum_{i = 0}^n \frac{b^i}{a^i} = a^{n + 1} - b^{n + 1}\]
En faisant rentrer le facteur \(a^n\) dans la somme, on a en définitive :
\[a^{n + 1} - b^{n + 1} = (a - b) \cdot \sum_{i = 0}^n a^{n - i} \cdot b^i\]
8.3.1. Extension
Si \(a = 0\), on a :
\[a^{n + 1} - b^{n + 1} = - b^{n + 1}\]
et :
\begin{align} (a - b) \cdot \sum_{i = 0}^n a^{n - i} \cdot b^i &= -b \cdot (0^n + 0^{n -1} \cdot b + ... + 0 \cdot b^{n - 1} + b^n) \\ &= -b \cdot b^n = - b^{n + 1} \end{align}La formule de factorisation est donc valable pour tout \(a,b \in \corps\).
8.3.2. Exemples
Voici quelques exemples d'applications :
\begin{align} a^{2} - b^{2} &= (a - b) \cdot (a + b) \\ a^{3} - b^{3} &= (a - b) \cdot (a^2 + a \cdot b + b^2) \end{align}8.3.3. Symétrie
On a clairement :
\[\sum_{i = 0}^n a^{n - i} \cdot b^i = a^n + a^{n - 1} \cdot b + ... + a \cdot b^{n - 1} + b^n = \sum_{i = 0}^n a^i \cdot b^{n - i}\]
et donc :
\[a^{n + 1} - b^{n + 1} = (a - b) \cdot \sum_{i = 0}^n a^i \cdot b^{n - i}\]
8.4. Somme des carrés
Considérons la somme :
\[C_n = \sum_{i = 0}^n i^2 = 1 + 4 + 16 + ... + n^2\]
La progression arythmétique nous dit que :
\[\frac{1}{2} \cdot i \cdot (i+1) = \sum_{j=0}^i j\]
On a par conséquent :
\[\sum_{i = 0}^n \frac{1}{2} \cdot i \cdot (i+1) = \sum_{i = 0}^n \sum_{j = 0}^i j\]
On peut utiliser le lemme du triangle pour inverser les deux sommes du membre de droite :
\[\sum_{i = 0}^n \sum_{j = 0}^i j = \sum_{j = 0}^n \sum_{i = j}^n j\]
Comme \(j\) ne dépend pas de \(i\), on peut le faire sortir de la somme sur \(i\) et le membre de droite devient :
\[\sum_{j = 0}^n \sum_{i = j}^n j = \sum_{j = 0}^n j \sum_{i = j}^n 1 = \sum_{j = 0}^n j \cdot (n - j + 1)\]
En tenant compte de la linéarité des sommes, on a alors :
\begin{align} \sum_{j = 0}^n j \cdot (n - j + 1) &= (n + 1) \cdot \sum_{j = 0}^n j - \sum_{j = 0}^n j^2 \\ &= \frac{1}{2} \cdot n \cdot (n + 1)^2 - C_n \end{align}D'un autre côté, on a :
\[\sum_{i = 0}^n \frac{1}{2} \cdot i \cdot (i+1) = \frac{1}{2} \sum_{i = 0}^n (i^2 + i) = \frac{1}{2} \cdot C_n + \frac{1}{4} \cdot n \cdot (n + 1)\]
En égalisant ces deux expressions, on obtient :
\[\frac{3}{2} \cdot C_n &= \frac{1}{4} \cdot \Big[ 2 \cdot n \cdot (n + 1)^2 - n \cdot (n + 1) \Big]\]
Ou encore :
\begin{align} 6 \cdot C_n &= ( 2 \cdot n \cdot (n + 1) - n ) \cdot (n + 1) \\ &= ( 2 \cdot n^2 + n ) \cdot (n + 1) \end{align}On a donc la formule permettant d'évaluer la somme des carrés :
\[\sum_{i = 0}^n i^2 = \frac{ (2 \cdot n^2 + n) \cdot (n + 1) }{ 6 }\]
9. Différences
\label{chap:differences}
9.1. Définition
Etant donné une suite :
\[A = \{ a_k : k \in \setN \} \subseteq \corps\]
on définit l'opérateur des différences \(\difference\) par :
\[\difference a_k = a_{k + 1} - a_k\]
9.2. Addition
Soit les suites :
\[A = \{ a_k : k \in \setN \} \subseteq \corps\]
et :
\[B = \{ b_k : k \in \setN \} \subseteq \corps\]
La différence de l'addition vérifie :
\[\difference (a_k + b_k) = a_{k + 1} + b_{k + 1} - a_k - b_k = \difference a_k + \difference b_k\]
9.3. Multiplication
Soit les suites :
\[A = \{ a_k : k \in \setN \} \subseteq \corps\]
et :
\[B = \{ b_k : k \in \setN \} \subseteq \corps\]
La différence de la multiplication vérifie :
\[\difference (a_k \cdot b_k) = a_{k + 1} \cdot b_{k + 1} - a_k \cdot b_k\]
Ajoutons et soustrayons le terme hybride \(a_{k + 1} \cdot b_k\). On a :
\[\difference (a_k \cdot b_k) = a_{k + 1} \cdot b_{k + 1} - a_{k + 1} \cdot b_k + a_{k + 1} \cdot b_k - a_k \cdot b_k\]
et :
\[\difference (a_k \cdot b_k) = a_{k + 1} \cdot \difference b_k + \difference a_k \cdot b_k\]
Ajoutons et soustrayons le terme hybride \(a_k \cdot b_{k + 1}\). On a :
\[\difference (a_k \cdot b_k) = a_{k + 1} \cdot b_{k + 1} - a_k \cdot b_{k + 1} + a_k \cdot b_{k + 1} - a_k \cdot b_k\]
et :
\[\difference (a_k \cdot b_k) = \difference a_k \cdot b_{k + 1} + a_k \cdot \difference b_k\]
9.4. Somme et différence
On définit également :
\[\difference \sum_{k = 0}^n a_k = \sum_{k = 1}^{n + 1} a_k - \sum_{k = 0}^n a_k\]
La définition nous donne directement :
\[\difference \sum_{k = 0}^n a_k = (a_1 + ... + a_{n + 1}) - (a_0 + ... + a_n)\]
Tous les termes se neutralisant sauf \(a_0\) et \(a_{n + 1}\), on a :
\[\difference \sum_{k = 0}^n a_k = a_{n + 1} - a_0\]
On voit aussi que :
\[\sum_{k = 0}^n \difference a_k = (a_{n + 1} - a_n) + ... + (a_2 - a_1) + (a_1 - a_0)\]
Tous les termes se neutralisant mutuellement sauf le permier et le dernier, on a :
\[\sum_{k = 0}^n \difference a_k = a_{n + 1} - a_0\]
Ce résultat étant identique au précédent, on a :
\[\difference \sum_{k = 0}^n a_k = \sum_{k = 0}^n \difference a_k = a_{n + 1} - a_0\]
9.5. Sommation par parties
Soit les suites :
\[A = \{ a_k : k \in \setN \} \subseteq \corps\]
et :
\[B = \{ b_k : k \in \setN \} \subseteq \corps\]
On a :
\[\sum_{k = 0}^n \difference (a_k \cdot b_k) = a_{n + 1} \cdot b_{n + 1} - a_0 \cdot b_0\]
En utilisant la loi de différence d'une multiplication, on obtient parallèlement :
\[\sum_{k = 0}^n \difference (a_k \cdot b_k) = \sum_{k = 0}^n \difference a_k \cdot b_{k + 1} + \sum_{k = 0}^n a_k \cdot \difference b_k\]
On a donc :
\[\sum_{k = 0}^n a_k \cdot \difference b_k = \sum_{k = 0}^n \difference (a_k \cdot b_k) - \sum_{k = 0}^n \difference a_k \cdot b_{k + 1}\]
c'est-à-dire :
$$∑k = 0n ak ⋅ \difference bk = an + 1 ⋅ bn + 1 - a0 ⋅ b0 - ∑k = 0n \difference ak ⋅ bk + 1
10. Suites de rationnels
\label{chap:suitesDeRationnels}
10.1. Dépendances
- Chapitre \ref{chap:rationnels} : Les rationnels
- Chapitre \ref{chap:distances} : Les distances
- Chapitre \ref{chap:limites} : Les limites
10.2. Définition
Une suite de rationnels, ou suite rationnelle est une suite \(s : \setN \mapsto \setQ\) :
\[s : n \mapsto s_n\]
10.3. Distance
On définit une distance sur l'ensemble des rationnels \(\setQ\) par :
\[\distance(x,y) = \abs{x - y}\]
pour tout \(x,y \in \setQ\). On a bien \(\distance(x,y) \ge 0\). La condition \(\distance(x,y) = 0\) implique que \(\abs{x - y}\), donc \(x - y = 0\) et \(x = y\). Enfin :
\begin{align} \distance(x,z) &= \abs{x - z} \\ &\le \abs{x - y} + \abs{y - z} \\ &\le \distance(x,y) + \distance(y,z) \end{align}10.4. Équivalence
Soit les suites rationnelles \(s,t : \setN \mapsto \setQ\) vérifiant \(s \equiv t\). On a :
\[\lim_{n \to \infty} \distance(s_n,t_n) = \lim_{n \to \infty} \abs{s_n - t_n} = 0\]
On en déduit que :
\[\lim_{n \to \infty} (s_n - t_n) = 0\]
10.4.1. Réciproque
Supposons que :
\[\lim_{n \to \infty} (s_n - t_n) = 0\]
Choisissons \(\epsilon \strictsuperieur 0\) et le naturel \(K(\epsilon)\) tel que :
\[\distance(s_n - t_n, 0) \le \epsilon\]
pour tout \(k \ge K(\epsilon)\). Par définition de la distance entre rationnels, on a :
\[\distance(s_n - t_n, 0) = \abs{(s_n - t_n) - 0} = \abs{s_n - t_n}\]
on en conclut que :
\[\lim_{n \to \infty} \distance(s_n,t_n) = \lim_{n \to \infty} \abs{s_n - t_n} = 0\]
c'est-à-dire \(s \equiv t\) par définition.
10.5. Cauchy
10.5.1. Croissante
Soit une suite de Cauchy \(u : \setN \mapsto \setQ\) :
\[u : n \mapsto u_n\]
croissante :
\[u_0 \le u_1 \le ... \le u_k \le ...\]
Comme :
\[u_n \ge u_0\]
pour tout \(n \in \setN\), on voit que la suite est minorée par \(u_0\). On peut trouver un naturel \(K\) tel que :
\[\distance(u_m,u_n) = \abs{u_m - u_n} \le 1\]
pour tout naturels \(m,n \ge K\). Soit \(n \in \setN\) vérifiant \(n \ge K\). On a :
\[\abs{u_n - u_K} = u_n - u_K \le 1\]
d'où :
\[u_n \le u_K + 1\]
Pour tout naturel \(k \le K\), on a :
\[u_k \le u_n \le u_K + 1\]
En posant :
\[S = u_K + 1\]
on voit que :
\[u_n \le S\]
pour tout \(n \in \setN\). Une suite de Cauchy croissante est également majorée.
10.5.2. Décroissante
Soit une suite de Cauchy \(u : \setN \mapsto \setQ\) :
\[u : n \mapsto u_n\]
décroissante :
\[u_0 \ge u_1 \ge ... \ge u_k \ge ...\]
Comme :
\[u_n \le u_0\]
pour tout \(n \in \setN\), on voit que la suite est majorée par \(u_0\). On peut trouver un naturel \(K\) tel que :
\[\distance(u_m,u_n) = \abs{u_m - u_n} \le 1\]
pour tout naturels \(m,n \ge K\). Soit \(n \in \setN\) vérifiant \(n \ge K\). On a :
\[\abs{u_n - u_K} = u_K - u_n \le 1\]
d'où :
\[u_n \ge u_K - 1\]
Pour tout naturel \(k \le K\), on a :
\[u_k \ge u_n \ge u_K - 1\]
En posant :
\[I = u_K - 1\]
on voit que :
\[u_n \ge I\]
pour tout \(n \in \setN\). Une suite de Cauchy décroissante est également minorée.
10.6. Suite inverse
Soit un rationnel \(I_0\) vérifiant \(I_0 \strictsuperieur 0\) et la suite \(I : \setN \setminus \{ 0 \} \mapsto \setQ\) définie par :
\[I : n \mapsto I_n = \frac{I_0}{n}\]
pour tout naturel \(n\) vérifiant \(n \ne 0\). Soit \(\epsilon \strictsuperieur 0\). Comme \(I_0\) est strictement positif, on a :
\[\epsilon \cdot \frac{1}{I_0} = \frac{\epsilon}{I_0} \strictsuperieur 0\]
Soit \(\epsilon \strictsuperieur 0\). On peut trouver un naturel \(n\) tel que :
\[\frac{1}{n} \strictinferieur \frac{\epsilon}{I_0}\]
On a alors :
\[\frac{I_0}{n} \strictinferieur \epsilon\]
et :
\[\distance\left(0,\frac{I_0}{n}\right) = \abs{\frac{I_0}{n} - 0} = \abs{\frac{I_0}{n}} \strictinferieur \epsilon\]
On en déduit que :
\[\lim_{n \to \infty} \frac{I_0}{n} = 0\]
11. Problème de la racine
\label{chap:problemeDeLaRacine}
11.1. Introduction
Nous allons tenter de déterminer la racine de deux, c'est-à-dire chercher un nombre noté :
\[x = \sqrt{2}\]
tel que :
\[x^2 = \left(\sqrt{2}\right)^2 = 2\]
11.2. Solution rationnelle ?
Nous allons chercher une solution à ce problème sous la forme d'un rationnel \(x \in \setQ\). Soit :
\[x = \frac{i}{j}\]
avec \(i,j \in \setZ\) et \(j \ne 0\). On a :
\[x^2 = \frac{i^2}{j^2} = \frac{(-i)^2}{(-j)^2} = \frac{(-i)^2}{j^2} = \frac{i^2}{(-j)^2}\]
On peut donc se restreindre aux entiers positifs, autrement dit aux naturels. Si \(i = 0\), on a forcément :
\[\frac{i^2}{j^2} = 0 \ne 2\]
ce qui ne résout pas notre problème. Supposons à présent que \(i \ne 0\) et posons :
\[k = \pgcd(i,j)\]
On a alors \(k \ne 0\) et les quotients :
\[a = i \diventiere k\]
\[b = j \diventiere k\]
vérifiant les divisions exactes :
\[i = a \cdot k\] \[j = b \cdot k\]
Si nous voulons résoudre le problème, il faut donc avoir :
\[\left(\frac{a}{b}\right)^2 = \frac{a^2}{b^2} = \frac{a^2 \cdot k^2}{b^2 \cdot k^2} = \frac{i^2}{j^2} = 2\]
c'est-à-dire :
\[a^2 = 2 \ b^2\]
On a donc :
\[a^2 \diventiere 2 = b^2\]
et :
\[a^2 \modulo 2 = 0\]
11.2.1. Lemme
Soit un naturel \(m \in \setN\) vérifiant :
\[m^2 \modulo 2 = 0\]
Posons :
\[n = m \diventiere 2\] \[r = m \modulo 2\]
Le modulo \(r \in \setN\) vérifie :
\[0 \le r \le 2 - 1 = 1\]
autrement dit \(r \in \{0,1\}\). Si on suppose que \(r = 1\), on a :
\[m = 2 \ n + 1\]
Développons le carré :
\[m^2 = (2 \ n + 1)^2 = 4 \ n^2 + 4 \ n + 1 = 4 \ (n^2 + n) + 1\]
On aurait alors :
\[m^2 \diventiere 2 = 2 \ (n^2 + n)\]
et :
\[m^2 \modulo 2 = 1\]
contrairement à l'hypothèse. On en conclut que \(r = 0\), la division entière de \(m\) par \(2\) est exacte :
\[m \modulo 2 = 0\]
11.2.2. Modulo nul
Le naturel \(a\) vérifiant :
\[a^2 \modulo 2 = 0\]
on a également :
\[a \modulo 2 = 0\]
Si on pose :
\[n = a \diventiere 2\]
on a l'expression de la division exacte :
\[a = 2 \ n\]
L'équation à résoudre devient alors :
\[a^2 = 4 \ n^2 = 2 \ b^2\]
On en déduit que :
\[b^2 = 2 \ n^2\]
vérifie :
\[b^2 \diventiere 2 = n^2\]
et :
\[b^2 \modulo 2 = 0\]
On a donc aussi :
\[b \modulo 2 = 0\]
Posons \(p = b \diventiere 2\). On a :
\[a = 2 \ n\] \[b = 2 \ p\]
et :
\[i = 2 \ n \cdot k = n \cdot (2 \ k)\] \[j = 2 \ p \cdot k = p \cdot (2 \ k)\]
Le naturel \(t = 2 \ k \strictsuperieur k\) vérifie donc :
\[i \modulo t = j \modulo t = 0\]
ce qui est contraire à l'hypothèse de supremum de \(k = \pgcd(i,j)\). On ne peut donc pas trouver de rationnel \(x\) vérifiant :
\[x^2 = 2\]
11.3. Suite inférieure
On ne peut pas trouver de solution exacte à l'équation \(x^2 = 2\) dans l'ensemble des rationnels, mais on peut l'approcher autant qu'on le souhaite. Soit les suites de naturels \(n : k \mapsto n_k\) et \(M : k \mapsto M_k\) définies par :
\[n_k = 10^k\]
\[M_k = \sup \accolades{p \in \setN : \frac{p^2}{n_k^2} \le 2}\]
pour tout \(k \in \setN\). On définit aussi les rationnels associés :
\[x_k = \frac{M_k}{n_k}\]
et les erreurs :
\[E_k = 2 - x_k^2\]
On a :
\[n_0 = 1 \qquad M_0 = 1 \qquad x_0 = 1 \qquad E_0 = 1\] \[n_1 = 10 \qquad M_1 = 14 \qquad x_1 = 1,4 \qquad E_1 = 0,04\] \[n_2 = 100 \qquad M_2 = 141 \qquad x_2 = 1,41 \qquad E_2 = 0,0119\]
et ainsi de suite.
11.3.1. Maximum
Soit :
\[A_k = \accolades{p \in \setN : \frac{p^2}{n_k^2} \le 2}\]
Pour tout \(p \in \setN\) vérifiant \(p \strictsuperieur 2 \ n_k\), on a :
\[\frac{p^2}{n_k^2} \strictsuperieur \frac{2^2 \ n_k^2}{n_k^2} = \frac{4 \ n_k^2}{n_k^2} = 4 \strictsuperieur 2\]
On en conclut que :
\[A_k \subseteq \{ 0, 1, ..., 2 \ n_k - 1, 2 \ n_k \}\]
L'ensemble \(A_k\) contient donc un nombre fini d'éléments. Comme l'ordre usuel sur \(\setN\) est total, on en conclut que \(A_k\) admet un maximum identique au suprémum. La suite des \(M_k\) est donc bien définie :
\[M_k = \max A_k = \sup A_k\]
11.3.2. Majoration
L'inclusion nous donne l'inégalité des maxima :
\[\max A_k \le \max \{ 0, 1, ..., 2 \ n_k \} = 2 \ n_k\]
On en déduit que :
\[M_k \le 2 \ n_k\]
En divisant cette inégalité par \(n_k \strictsuperieur 0\), on obtient une borne constante pour les rationnels associés :
\[x_k = \frac{M_k}{n_k} \le 2\]
La suite des \(x_k\) est majorée.
11.3.3. Suite croissante
Le maximum appartenant à l'ensemble, on a :
\[\frac{M_k^2}{n_k^2} \le 2\]
et :
\[\frac{(10 \ M_k)^2}{n_{k+1}^2} = \frac{(10 \ M_k)^2}{(10 \ n_k)^2} = \frac{100 \ M_k^2}{100 \ n_k^2} = \frac{M_k^2}{n_k^2} \le 2\]
On en déduit que :
\[10 \ M_k \in \accolades{p \in \setN : \frac{p^2}{n_{k+1}^2} \le 2}\]
On conclut de ce résultat et du caractère de maximum de \(M_{k+1}\) que :
\[M_{k+1} \ge 10 \ M_k\]
et :
\[x_{k+1} = \frac{M_{k+1}}{n_{k+1}} \ge \frac{10 \ M_k}{n_{k+1}} = \frac{10 \ M_k}{10 \ n_k} = \frac{M_k}{n_k} = x_k\]
On en conclut que :
\[x_0 \le x_1 \le x_2 \le ...\]
On a donc \(x_i \ge x_j\) pour tout \(i,j \in \setN\) vérifiant \(i \ge j\), la suite des \(x_k\) est croissante.
11.3.4. Cadre
Comme \(M_k\) est le maximum de \(A_k\), on a :
\[x_k^2 = \frac{M_k^2}{n_k^2} \le 2\]
et :
\[\left(\frac{M_k + 1}{n_k}\right)^2 \strictsuperieur 2\]
On a :
\[\left(\frac{M_k + 1}{n_k}\right)^2 = \left(x_k + \frac{1}{n_k})^2\]
En développant le binôme, on arrive à :
\[\left(\frac{M_k + 1}{n_k}\right)^2 = x_k^2 + \frac{2 \ x_k}{n_k} + \frac{1}{n_k^2}\]
On a donc l'inégalité :
\[x_k^2 + \frac{2 \ x_k}{n_k} + \frac{1}{n_k^2} \strictsuperieur 2\]
qui nous donne la borne inférieure :
\[x_k^2 \strictsuperieur 2 - \left(\frac{2 \ x_k}{n_k} + \frac{1}{n_k^2}\right)\]
Posons :
\[\Delta_k = \frac{2 \ x_k}{n_k} + \frac{1}{n_k^2}\]
En divisant l'inégalité :
\[1 \le n_k\]
par \(n_k^2 \strictsuperieur 0\), on obtient :
\[\frac{1}{n_k^2} \le \frac{1}{n_k}\]
On a donc :
\[\Delta_k \le \frac{2 \ x_k}{n_k} + \frac{1}{n_k} = \frac{2 \ x_k + 1}{n_k}\]
Comme \(x_k \le 2\), on a :
\[\Delta_k \le \frac{2 \cdot 2 + 1}{n_k} = \frac{5}{n_k}\]
On a finalement la borne inférieure :
\[x_k^2 \strictsuperieur 2 - \Delta_k \ge 2 - \frac{5}{n_k}\]
Posons :
\[\alpha_k = \frac{5}{n_k}\]
On a l'encadrement :
\[2 - \alpha_k \strictinferieur x_k^2 \le 2\]
11.3.5. Bornes d'une différence
Soit \(i,j \in \setN\) tels que \(i \ge j\). On dispose des bornes :
\[2 - \alpha_i \strictinferieur x_i^2 \le 2\] \[2 - \alpha_j \strictinferieur x_j^2 \le 2\]
En évaluant la différence de :
\[x_i^2 \le 2\]
\[x_j^2 \strictsuperieur 2 - \alpha_j\]
on arrive à la majoration :
\[x_i^2 - x_j^2 \le 2 - (2 - \alpha_j) = \alpha_j\]
Comme la suite est croissante, on a \(x_i \ge x_j\). Comme la fonction \(f : x \mapsto x^2\) est croissante sur l'ensemble des rationnels positifs, on a également :
\[x_i^2 \ge x_j^2\]
ou :
\[x_i^2 - x_j^2 \ge 0\]
On a donc finalement :
\[\abs{x_i^2 - x_j^2} = x_i^2 - x_j^2 \le \alpha_j\]
11.3.6. Factorisation
On a la factorisation :
\[x_i^2 - x_j^2 = (x_i - x_j) \cdot (x_i + x_j)\]
Comme la suite est croissante, on sait que :
\[x_i,x_j \ge x_0 = 1\]
Leur somme vérifie l'inégalité :
\[x_i + x_j \ge 1 + 1 = 2\]
La différence des carrés est donc minorée par :
\[x_i^2 - x_j^2 = (x_i - x_j) \cdot (x_i + x_j) \ge (x_i - x_j) \cdot 2\]
En divisant par \(2\), on obtient :
\[x_i - x_j \le \frac{1}{2} \ \parentheses{x_i^2 - x_j^2}\]
Comme la suite est croissante, on a \(x_i \ge x_j\) et :
\[x_i - x_j \ge 0\]
Donc :
\[\abs{x_i - x_j} = x_i - x_j\]
Comme la fonction \(f : x \mapsto x^2\) est croissante sur l'ensemble des rationnels positifs, on a également :
\[x_i^2 \ge x_j^2\]
ou :
\[x_i^2 - x_j^2 \ge 0\]
Donc :
\[\abs{x_i^2 - x_j^2} = x_i^2 - x_j^2\]
On a donc :
\[\abs{x_i - x_j} \le \frac{1}{2} \ \abs{x_i^2 - x_j^2} \le \frac{\alpha_j}{2}\]
11.3.7. Suite de Cauchy
Soit \(\epsilon \strictsuperieur 0\). Comme :
\[\lim_{k \to \infty} \alpha_k = \lim_{k \to \infty} \frac{5}{n_k} = \lim_{k \to \infty} \frac{5}{10^k} = 0\]
on peut trouver un naturel \(K\) tel que :
\[\abs{\alpha_k} = \abs{\alpha_k - 0} \le \epsilon\]
pour tout naturel \(k\) vérifiant \(k \ge K\). On note que :
\[\alpha_k = \frac{5}{10^k} \le \frac{5}{10^K} = \alpha_K\]
Si \(i,j \in \setN\) vérifient \(i,j \ge K\), on a donc :
\[\abs{x_i - x_j} \le \frac{1}{2} \ \max \{ \alpha_i, \alpha_j \} \le \alpha_K \le \epsilon\]
La suite des \(x_k\) est de Cauchy.
11.3.8. Erreur
On déduit du cadre de \(x_k\) que :
\[-\alpha_k = (2 - \alpha_k) - 2 \strictinferieur x_k^2 - 2\]
ou :
\[E_k = 2 - x_k^2 \strictinferieur \alpha_k\]
Comme on a également \(x_k^2 \le 2\) par définition des \(M_k\), on a aussi \(E_k \ge 0\) et :
\[\abs{E_k - 0} = \abs{E_k} = E_k \le \alpha_k\]
La suite des \(\alpha_k\) convergeant vers zéro, on en déduit que :
\[\lim_{k \to \infty} E_k = 0\]
11.3.9. Convergence
Soit \(\epsilon \strictsuperieur 0\). L'erreur convergeant vers zéro, on peut trouver un \(K \in \setN\) tel que :
\[\distance(x_k^2,2) = \abs{x_k^2 - 2} = \abs{E_k} = \abs{E_k - 0} \le \epsilon\]
pour tout naturel \(k\) vérifiant \(k \ge K\). On en déduit que :
\[\lim_{k \to \infty} x_k^2 = 2\]
11.3.10. Supremum
Soit l'ensemble :
\[X = \accolades{x_k^2 : k \in \setN}\]
On sait déjà que :
\[x_k^2 = \frac{M_k^2}{n_k^2} \le 2\]
pour tout \(k \in \setN\). On en conclut que :
\[X \le 2\]
Pour tout rationnel \(u \ge 2 \ge X\), on a :
\[u \in \major X\]
On en déduit que :
\[\{ u \in \setQ : u \ge 2 \} \subseteq \major X\]
Soit un rationnel \(v \strictinferieur 2\). Posons :
\[\delta = 2 - v \strictsuperieur 0\]
On choisit un rationnel \(\epsilon\) vérifiant :
\[0 \strictinferieur \epsilon \strictinferieur \delta\]
Comme la suite \(k \mapsto x_k^2\) converge vers \(2\), on peut trouver un naturel \(K\) tel que :
\[\abs{x_k^2 - 2} = 2 - x_k^2 \le \epsilon\]
pour tout naturel \(k\) vérifiant \(k \ge K\). On a alors :
\[x_k^2 \ge 2 - \epsilon \strictsuperieur 2 - \delta = v\]
Donc :
\[v \notin \major X\]
On a donc :
\[\major X = \{ u \in \setQ : u \ge 2 \}\]
et :
\[\sup \accolades{x_k^2 : k \in \setN} = \min \{ u \in \setQ : u \ge 2 \} = 2\]
11.4. Suite supérieure
Soit les suites de naturels \(n : k \mapsto n_k\) et \(m : k \mapsto m_k\) définies par :
\[n_k = 10^k\]
\[m_k = \inf \accolades{p \in \setN : \frac{p^2}{n_k^2} \ge 2}\]
pour tout \(k \in \setN\). On définit aussi les rationnels associés :
\[y_k = \frac{m_k}{n_k}\]
et les erreurs :
\[e_k = y_k^2 - 2\]
On a :
\[n_0 = 1 \qquad m_0 = 2 \qquad y_0 = 2 \qquad e_0 = 2\] \[n_1 = 10 \qquad m_1 = 15 \qquad y_1 = 1,5 \qquad e_1 = 0,25\] \[n_2 = 100 \qquad m_2 = 142 \qquad y_2 = 1,42 \qquad e_2 = 0,0164\]
et ainsi de suite.
11.4.1. Minimum
Soit les ensembles :
\[A_k = \accolades{p \in \setN : \frac{p^2}{n_k^2} \le 2}\]
\[B_k = \accolades{p \in \setN : \frac{p^2}{n_k^2} \ge 2}\]
Le problème de la racine de deux n'admettant pas de solution dans \(\setQ\), on ne peut trouver de naturel \(p\) tel que :
\[\frac{p^2}{n_k^2} = 2\]
Pour tout \(p \in \setN\), on a donc soit :
\[\frac{p^2}{n_k^2} \strictinferieur 2\]
et \(p \in A_k\), soit :
\[\frac{p^2}{n_k^2} \strictsuperieur 2\]
et \(p \in B_k\). On en conclut que :
\[A_k \cup B_k = \setN\]
Si on pouvait trouver un \(p \in A_k \cap B_k\), on aurait :
\[2 \le \frac{p^2}{n_k^2} \le 2\]
et donc :
\[\frac{p^2}{n_k^2} = 2\]
ce qui est impossible. On en conclut que :
\[A_k \cap B_k = \emptyset\]
Si \(p \in \setN \setminus A_k\), on a \(p \in B_k\) et vice versa. Donc :
\[B_k = \setN \setminus A_k\]
Soit \(p \in A_k\). Pour tout \(u \in \setN\) vérifiant \(u \le p\), on a :
\[\frac{u^2}{n_k^2} \le \frac{p^2}{n_k^2} \le 2\]
On en conclut que \(u \in A_k\). L'ensemble \(A_k\) possédant un maximum :
\[M_k = \max A_k\]
il est donc de la forme :
\[A_k = \{ 0, 1, ..., M_k - 1, M_k \}\]
On en conclut que \(B_k\) est de la forme :
\[B_k = \setN \setminus A_k = \{ M_k + 1, M_k + 2, ... \} = \{ p \in \setN : p \ge M_k + 1 \}\]
On en conclut que le minimum de \(B_k\) existe et qu'il s'identifie à l'infimum. Les nombres \(m_k\) sont donc bien définis et :
\[m_k = \inf B_k = \min B_k = M_k + 1\]
11.4.2. Minoration
Comme \(m_k = M_k + 1\), on a :
\[1 = x_0 \le x_k = \frac{M_k}{n_k} \le \frac{M_k + 1}{n_k} = \frac{m_k}{n_k} = y_k\]
La suite des \(y_k\) est minorée.
11.4.3. Suite décroissante
Le minimum appartenant à l'ensemble, on a :
\[\frac{m_k^2}{n_k^2} \ge 2\]
et :
\[\frac{(10 \ m_k)^2}{n_{k+1}^2} = \frac{(10 \ m_k)^2}{(10 \ n_k)^2} = \frac{100 \ m_k^2}{100 \ n_k^2} = \frac{m_k^2}{n_k^2} \ge 2\]
On en déduit que :
\[10 \ m_k \in \accolades{p \in \setN : \frac{p^2}{n_{k+1}^2} \ge 2}\]
On conclut de ce résultat et du caractère de minimum de \(m_{k+1}\) que :
\[m_{k+1} \le 10 \ m_k\]
et :
\[y_{k+1} = \frac{m_{k+1}}{n_{k+1}} \le \frac{10 \ m_k}{n_{k+1}} = \frac{10 \ m_k}{10 \ n_k} = \frac{m_k}{n_k} = y_k\]
On en conclut que :
\[y_0 \ge y_1 \ge y_2 \ge ...\]
On a donc \(y_i \le y_j\) pour tout \(i,j \in \setN\) vérifiant \(i \ge j\), la suite des \(y_k\) est décroissante.
11.4.4. Cadre
Comme \(m_k\) est le minimum de \(B_k\), on a :
\[y_k^2 = \frac{m_k^2}{n_k^2} \ge 2\]
et :
\[\parentheses{\frac{m_k - 1}{n_k}}^2 \strictinferieur 2\]
On a :
\[\parentheses{\frac{m_k - 1}{n_k}}^2 = \parentheses{y_k - \frac{1}{n_k}}^2\]
En développant le binôme, on arrive à :
\[\parentheses{\frac{m_k - 1}{n_k}}^2 = y_k^2 - \frac{2 \ y_k}{n_k} + \frac{1}{n_k^2}\]
On a donc l'inégalité :
\[y_k^2 - \frac{2 \ y_k}{n_k} + \frac{1}{n_k^2} \strictinferieur 2\]
qui nous donne la borne inférieure :
\[y_k^2 \strictinferieur 2 + \parentheses{\frac{2 \ y_k}{n_k} - \frac{1}{n_k^2}}\]
Posons :
\[\delta_k = \frac{2 \ y_k}{n_k} - \frac{1}{n_k^2}\]
Comme :
\[\frac{1}{n_k^2} \strictsuperieur 0\]
on a :
\[\delta_k \le \frac{2 \ y_k}{n_k}\]
Comme \(y_k \le y_0 = 2\), on a :
\[\delta_k \le \frac{2 \cdot 2}{n_k} = \frac{4}{n_k}\]
On a finalement la borne supérieure :
\[y_k^2 \strictinferieur 2 + \delta_k \le 2 + \frac{4}{n_k}\]
Posons :
\[\gamma_k = \frac{4}{n_k}\]
On a l'encadrement :
\[2 \le y_k^2 \strictinferieur 2 + \gamma_k\]
11.4.5. Bornes d'une différence
Soit \(i,j \in \setN\) tels que \(i \le j\). On dispose des bornes :
\[2 \le y_i^2 \strictinferieur 2 + \gamma_i\] \[2 \le y_j^2 \strictinferieur 2 + \gamma_j\]
En évaluant la différence de :
\[y_i^2 \strictinferieur 2 + \gamma_i\]
\[y_j^2 \ge 2\]
on arrive à la majoration :
\[y_i^2 - y_j^2 \le 2 + \gamma_i - 2 = \gamma_i\]
Comme la suite est croissante, on a \(y_i \ge y_j\). Comme la fonction \(f : x \mapsto x^2\) est croissante sur l'ensemble des rationnels positifs, on a également :
\[y_i^2 \ge y_j^2\]
ou :
\[y_i^2 - y_j^2 \ge 0\]
On a donc finalement :
\[\abs{y_i^2 - y_j^2} = y_i^2 - y_j^2 \le \gamma_i\]
11.4.6. Factorisation
On a la factorisation :
\[y_i^2 - y_j^2 = (y_i - y_j) \cdot (y_i + y_j)\]
Comme :
\[y_i,y_j \ge 1\]
leur somme vérifie l'inégalité :
\[y_i + y_j \ge 1 + 1 = 2\]
La différence des carrés est donc minorée par :
\[y_i^2 - y_j^2 = (y_i - y_j) \cdot (y_i + y_j) \ge (y_i - y_j) \cdot 2\]
En divisant par \(2\), on obtient :
\[y_i - y_j \le \frac{1}{2} \ \parentheses{y_i^2 - y_j^2}\]
Comme la suite est croissante, on a \(y_i \ge y_j\) et :
\[y_i - y_j \ge 0\]
Donc :
\[\abs{y_i - y_j} = y_i - y_j\]
Comme la fonction \(f : x \mapsto x^2\) est croissante sur l'ensemble des rationnels positifs, on a également :
\[y_i^2 \ge y_j^2\]
ou :
\[y_i^2 - y_j^2 \ge 0\]
Donc :
\[\abs{y_i^2 - y_j^2} = y_i^2 - y_j^2\]
On a donc :
\[\abs{y_i - y_j} \le \frac{1}{2} \ \abs{y_i^2 - y_j^2} \le \frac{\gamma_i}{2}\]
11.4.7. Suite de Cauchy
Soit \(\epsilon \strictsuperieur 0\). Comme :
\[\lim_{k \to \infty} \gamma_k = \lim_{k \to \infty} \frac{4}{n_k} = \lim_{k \to \infty} \frac{4}{10^k} = 0\]
on peut trouver un naturel \(K\) tel que :
\[\abs{\gamma_k} = \abs{\gamma_k - 0} \le \epsilon\]
pour tout naturel \(k\) vérifiant \(k \ge K\). On note que :
\[\gamma_k = \frac{4}{10^k} \le \frac{4}{10^K} = \gamma_K\]
Si \(i,j \in \setN\) vérifient \(i,j \ge K\), on a donc :
\[\abs{y_i - y_j} \le \frac{1}{2} \ \max \{ \gamma_i, \gamma_j \} \le \gamma_K \le \epsilon\]
La suite des \(y_k\) est de Cauchy.
11.4.8. Erreur
On déduit du cadre de \(y_k\) que :
\[e_k = y_k^2 - 2 \strictinferieur \gamma_k\]
Comme on a également \(y_k^2 \ge 2\) par définition des \(m_k\), on a aussi \(e_k \ge 0\) et :
\[\abs{e_k - 0} = \abs{e_k} = e_k \le \gamma_k\]
La suite des \(\gamma_k\) convergeant vers zéro, on en déduit que :
\[\lim_{k \to \infty} e_k = 0\]
11.4.9. Convergence
Soit \(\epsilon \strictsuperieur 0\). L'erreur convergeant vers zéro, on peut trouver un \(K \in \setN\) tel que :
\[\distance(y_k^2,2) = \abs{y_k^2 - 2} = \abs{e_k} = \abs{e_k - 0} \le \epsilon\]
pour tout naturel \(k\) vérifiant \(k \ge K\). On en déduit que :
\[\lim_{k \to \infty} y_k^2 = 2\]
11.4.10. Infimum
Soit l'ensemble :
\[Y = \accolades{Y_k^2 : k \in \setN}\]
On sait déjà que :
\[y_k^2 = \frac{m_k^2}{n_k^2} \ge 2\]
pour tout \(k \in \setN\). On en conclut que :
\[Y \ge 2\]
Pour tout rationnel \(u \le 2 \le Y\), on a :
\[u \in \minor Y\]
On en déduit que :
\[\{ u \in \setQ : u \le 2 \} \subseteq \minor Y\]
Soit un rationnel \(v \strictsuperieur 2\). Posons :
\[\delta = v - 2 \strictsuperieur 0\]
On choisit un rationnel \(\epsilon\) vérifiant :
\[0 \strictinferieur \epsilon \strictinferieur \delta\]
Comme la suite \(k \mapsto y_k^2\) converge vers \(2\), on peut trouver un naturel \(K\) tel que :
\[\abs{y_k^2 - 2} = y_k^2 - 2 \le \epsilon\]
pour tout naturel \(k\) vérifiant \(k \ge K\). On a alors :
\[y_k^2 \le 2 + \epsilon \strictinferieur 2 + \delta = v\]
Donc :
\[v \notin \minor Y\]
On a donc :
\[\minor Y = \{ u \in \setQ : u \le 2 \}\]
et :
\[\inf \accolades{y_k^2 : k \in \setN} = \max \{ u \in \setQ : u \le 2 \} = 2\]
11.5. Équivalence
On sait que :
\[x_k = \frac{M_k}{n_k} \le \frac{M_k + 1}{n_k} = \frac{m_k}{n_k} = y_k\]
pour tout \(k \in \setN\). Donc :
\[y_k - x_k \ge 0\]
et :
\[\abs{y_k - x_k} = y_k - x_k\]
On a aussi \(x_k^2 \le y_k^2\) et :
\[\abs{y_k^2 - x_k^2} = y_k^2 - x_k^2\]
En soustrayant les inégalités :
\[y_k^2 \le 2 + \gamma_k\] \[x_k^2 \ge 2 - \alpha_k\]
on obtient :
\[y_k^2 - x_k^2 \le (2 + \gamma_k) - (2 - \alpha_k) = \gamma_k + \alpha_k\]
Posons :
\[\varpi_k = \gamma_k + \alpha_k = \frac{4}{n_k} + \frac{5}{n_k} = \frac{9}{n_k}\]
On a :
\[\abs{y_k^2 - x_k^2} \le \varpi_k\]
Comme \(y_k \ge x_k \ge x_0 = 1\), on a :
\[y_k + x_k \ge 1 + 1 = 2\]
La factorisation :
\[y_k^2 - x_k^2 = (y_k - x_k) \cdot (y_k + x_k) \ge (y_k - x_k) \cdot 2\]
nous donne la borne :
\[\abs{y_k - x_k} \le \frac{\abs{y_k^2 - x_k^2}}{2} \le \frac{\varpi_k}{2}\]
Comme :
\[\lim_{k \to \infty} \varpi_k = \lim_{k \to \infty} \frac{9}{n_k} = 0\]
on en déduit que :
\[\lim_{k \to \infty} \abs{y_k - x_k} = 0\]
et :
\[\lim_{k \to \infty} (x_k - y_k) = 0\]
11.6. Conclusion
La racine de deux n'existe pas dans l'ensemble des rationnels, mais on peut trouver des suites de rationnels de Cauchy, croissante et majorée :
\[1 = x_0 \le x_1 \le ... \le x_k \le ... \le 2\]
ou décroissante et minorée :
\[2 = y_0 \ge y_1 \ge ... \ge y_k \ge ... \ge 1\]
dont les carrés convergent vers \(2\) :
\[\lim_{k \to \infty} x_k^2 = \lim_{k \to \infty} y_k^2 = 2\]
On a également les propriétés extrémales :
\[\sup \accolades{x_k^2 : k \in \setN} = \inf \accolades{y_k^2 : k \in \setN} = 2\]
et l'équivalence :
\[\lim_{k \to \infty} (x_k - y_k) = 0\]
On aimerait en déduire que les suites convergent et que :
\[\sqrt{2} = \lim_{k \to \infty} x_k = \lim_{k \to \infty} y_k = \sup \accolades{x_k : k \in \setN} = \inf \accolades{y_k : k \in \setN}\]
Malheureusement, ces limites et extrema n'existent pas dans l'ensemble des rationnels. Nous sommes donc amenés à associer au nombre \(\sqrt{2}\) des ensembles associés à ces suites. La généralisation de ces propriétés nous mène à la construction des nombres réels.
12. Réels
- 12.1. Dépendances
- 12.2. Suites
- 12.3. Ensembles
- 12.4. Séparation
- 12.5. Définition
- 12.6. Inclusions
- 12.7. Ordre
- 12.8. Addition
- 12.9. Neutre additif
- 12.10. Positifs et négatifs
- 12.11. Signe
- 12.12. Opposé
- 12.13. Soustraction
- 12.14. Valeur absolue
- 12.15. Distance
- 12.16. Arrondis
- 12.17. Suites convergentes
- 12.18. Multiplication
- 12.19. Inverse
- 12.20. Division
- 12.21. Puissance
- 12.22. Racines
- 12.23. Unicité
- 12.24. Racine d'un produit
- 12.25. Racine d'une racine
- 12.26. Puissances fractionnaires
- 12.27. Somme en exposant
- 12.28. Puissance d'une puissance
- 12.29. Puissance réelle
\label{chap:reels}
12.1. Dépendances
- Chapitre \ref{chap:naturels} : Les nombres naturels
- Chapitre \ref{chap:entiers} : Les nombres entiers
- Chapitre \ref{chap:rationnels} : Les nombres rationnels
12.2. Suites
On note \(\mathfrak{C}^\top\) l'ensemble des suites de Cauchy rationnelles croissantes, \(\mathfrak{C}^\bot\) l'ensemble des suites de Cauchy rationnelles décroissantes et :
\[\mathfrak{C} = \mathfrak{C}^\top \cup \mathfrak{C}^\bot\]
l'ensemble des suites de Cauchy rationnelles monotones.
12.2.1. Équivalence
\[\mathcal{E}^\top(s) = \accolades{t \in \mathfrak{C}^\top : s \equiv t}\]
\[\mathcal{E}^\top(s) = \accolades{t \in \mathfrak{C}^\top : \lim_n (s_n - t_n) = 0}\]
\[\mathcal{E}^\bot(s) = \accolades{t \in \mathfrak{C}^\bot : s \equiv t}\]
\[\mathcal{E}^\bot(s) = \accolades{t \in \mathfrak{C}^\bot : \lim_n (s_n - t_n) = 0}\]
\[\mathcal{E}(s) = \accolades{t \in \mathfrak{C} : s \equiv t}\]
\[\mathcal{E}(s) = \accolades{t \in \mathfrak{C} : \lim_n (s_n - t_n) = 0}\]
12.3. Ensembles
\[\lambda(u) = \{ v \in \setQ : v \le u \}\]
\[\theta(u) = \{ v \in \setQ : v \ge u \}\]
\[s : \setN \mapsto \setQ\]
\[s : n \mapsto s_n\]
\[\Lambda(s) = \sup_\subseteq \{ \lambda(s_n) : n \in \setN \}\]
\[\Lambda(s) = \bigcup_{n \in \setN} \lambda(s_n) = \bigcup_{n \in \setN} \{ v \in \setQ : v \le s_n \}\]
\[\Theta(s) = \inf_\subseteq \{ \theta(s_n) : n \in \setN \}\]
\[\Theta(s) = \bigcap_{n \in \setN} \theta(s_n) = \bigcap_{n \in \setN} \{ v \in \setQ : v \ge s_n \}\]
12.4. Séparation
On aimerait bien étendre \(\setQ\) en construisant un ensemble qui contienne la solution \(r\) d'équations telles que \(r^2 = 2\). Notons que si \(r^2 = 2\) et que l'on veut garder dans cet ensemble étendu les propriétés des rationnels, on doit également avoir \((-r)^2 = r^2 = 2\). Il y aurait donc deux solutions. Nous allons étudier séparément la solution liée aux rationnels positifs. Soit la fonction \(f : \setQ \mapsto \setQ\) définie par :
\( f(x) =
\begin{cases} 0 & \text{ si } x \le 0 \\ x^2 & \text{ si } x \strictsuperieur 0 \end{cases}\)
pour tout \(x \in \setQ\). On part de la constatation que, si la solution de \(f(x) = 2\) n'existe pas dans \(\setQ\), l'équation « sépare » les rationnels en deux catégories : les \(x\) tels que \(f(x) \strictinferieur 2\) et les \(y\) tels que \(f(y) \strictsuperieur 2\). Considérons l'ensemble :
\[R = \{ x \in \setQ : f(x) \strictinferieur 2 \}\]
Plus on augmente la valeur de \(x \in R\), plus l'erreur \(e = 2 - x^2 \strictsuperieur 0\) diminue. On a par conséquent envie de dire que la solution \(r\) est le plus grand des éléments de \(R\). Mais comme ni le maximum ni le supremum n'existent au sens de l'ordre \(\le\), nous le considérons plutôt au sens de l'inclusion ensembliste \(\subseteq\) sur les sous-ensembles de \(R\) :
\[r \equiv \sup_\subseteq \sousens(R) = R\]
Nous sommes donc amenés à associer un sous-ensemble \(R\) des rationnels à chaque élément \(r\) de l'ensemble que nous désirons construire. Mais nous n'allons pas prendre n'importe quel sous-ensemble de \(\setQ\) : on désire que les sous-ensembles acceptés vérifie des propriétés analogues à notre \(R\) particulier. Or, pour tout \(x \in R\), l'ensemble :
\[\Lambda(x) = \{ y \in \setQ : y \strictinferieur x \}\]
est inclus dans \(R\). Cette propriété est à la base de la construction des réels.
12.5. Définition
On nomme réel tout nombre \(r\) associé à un sous-ensemble \(R \subseteq \setQ\) tel que :
- \(R \ne \emptyset\)
- Il existe un \(\mu \in \setQ\) tel que \(R \le \mu\)
- Pour tout \(x \in R\) et \(y \in \setQ\) tel que \(y \strictinferieur x\), on a \(y \in R\) :
\[\Lambda(x) = \{ y \in \setQ : y \strictinferieur x \} \subseteq R\]
- Le maximum de \(R\) n'existe pas.
On note \(\setR\) l'ensemble des réels.
12.5.1. Corollaire
Si le rationnel \(x \in \setQ\) n'appartient pas à \(R\), on a \(y \notin R\) pour tout \(y \in \setQ\) vérifiant \(y \strictsuperieur x\) (dans le cas contraire, on aurait \(x \notin R\) avec \(x \strictinferieur y\) et \(y \in R\), ce qui contredit la définition des réels).
12.5.2. Notation
Pour tout réel \(r\) associé au sous-ensemble de rationnels \(R\), on note bien entendu :
\[r = \sup R\]
12.6. Inclusions
On peut associer à tout rationnel \(x \in \setQ\) un ensemble \(\Lambda(x)\). Or, on a clairement \(\Lambda(x) \ne \emptyset\) et \(\Lambda(x) \le x\). Soit \(s \in \Lambda(x)\). On a \(\Lambda(s) \subseteq \Lambda(x)\). On peut aussi trouver un \(t \in \Lambda(x)\) tel que \(s \strictinferieur t \strictinferieur x\). Donc, \(s\) ne peut pas être le maximum de \(\Lambda(x)\). On en conclut que tout rationnel \(x\) correspond au réel associé à \(\Lambda(x)\). Les entiers pouvant être considérés comme des cas particuliers de rationnels et les naturels comme des cas particuliers d'entiers, on a donc finalement : \(\setN \subseteq \setZ \subseteq \setQ \subseteq \setR\).
12.7. Ordre
L'ordre sur les réels découle directement de l'ordre \(\subseteq\) sur les ensembles. Soit \(r \in \setR\) associé au sous-ensemble \(R \subseteq \setQ\) et \(s \in \setR\) associé au sous-ensemble \(S \subseteq \setQ\). On dit que \(r\) est plus petit que \(s\) et on le note :
\[r \le s\]
si et seulement si \(R\) est inclus dans \(S\) :
\[R \subseteq S\]
12.7.1. Totalité
Supposons que pour tout \(x \in R\), on ait \(x \in S\). On a alors \(R \subseteq S\) et \(r \le s\) par définition. Inversément, supposons que l'on puisse trouver un \(x \in R\) tel que \(x \notin S\). Tous les rationnels \(z \in \setQ\) tels que \(z = x\) ou \(z \strictsuperieur x\) vérifient \(z \notin S\). Par conséquent, si \(y \in S\), on doit avoir \(y \strictinferieur x\). Mais, par définition des réels et comme \(x \in R\), on doit aussi avoir \(y \in R\). On en conclut que \(S \subseteq R\), et donc \(s \le r\).
Pour tout couple de réels \((r,s) \in \setR^2\), on a donc soit \(r \le s\), soit \(s \le r\). L'ordre ainsi défini est donc total.
12.7.2. Ordre strict
On a également l'analogue pour l'ordre et l'inclusion stricts :
\[r \strictinferieur s \quad \Leftrightarrow \quad R \subset S\]
Ce qui revient à dire que \(r \strictinferieur s\) si et seulement si \(r \le s\) et \(r \ne s\).
12.8. Addition
L'addition de \(r \in \setR\) associé à \(R\) et de \(s \in \setR\) associé à \(S\) est définie par :
\[r + s \equiv \{ x + y \in \setQ : x \in R, \ y \in S \}\]
12.9. Neutre additif
Soit \(0 \in \setQ\) et le sous-ensemble de rationnel correspondant :
\[Z = \{ x \in \setQ : x \strictinferieur 0 \}\]
Soit \(r \in \setR\) associé à l'ensemble \(R\) et l'ensemble \(S = R + Z\) associé à l'addition \(r + 0\).
Tout \(s \in S\) peut s'écrire sous la forme \(s = x + z\), pour un certain \(x \in R\) et un certain \(z \in Z\). Si \(z = 0\), on a bien évidemment \(s = x \in R\). Sinon, \(z \strictinferieur 0\) et \(s \strictinferieur x\), d'où \(s \in R\) par définition des réels. On a donc \(S \subseteq R\).
Réciproquement, soit un rationnel \(x \in R\). Si on avait \(y \le x\) pour tout \(y \in R\), notre \(x\) serait le maximum de \(R\), ce qui n'est pas possible par définition des réels. On peut donc trouver un \(y \in R\) tel que \(x \strictinferieur y\). Le rationnel \(d = x - y\) est strictement négatif et appartient donc à \(Z\). On en déduit que :
\[x = x - y + y = d + y\]
où \(d \in Z\) et \(y \in R\). Donc, \(x \in S\) et \(R \subseteq S\).
La double inclusion nous montre alors que \(R = S\), autrement dit que \(r + 0 = r\). L'élement neutre pour l'addition, noté \(0 \in \setR\), est donc associé à l'ensemble des rationnels strictement négatifs :
\[0 \equiv \{ x \in \setQ : x \strictinferieur 0 \}\]
12.10. Positifs et négatifs
On définit les ensembles des réels positifs et négatifs par :
\( \setR^+ = \{ x \in \setR : x \ge 0 \} \\ \setR^- = \{ x \in \setR : x \le 0 \} \)
12.11. Signe
La fonction signe est définie par :
\( \signe(x) =
\begin{cases} 1 & \text{ si } x \ge 0 \\ -1 & \text{ si } x \strictinferieur 0 \end{cases}\)
pour tout \(x \in \setR\)
12.12. Opposé
Soit \(r \in \setR\). On aimerait bien trouver l'opposé \(-r \in \setR\) tel que :
\[r + (-r) = (-r) + r = 0\]
Si \(r \in \setQ\), on a simplement :
\[-r \equiv \Lambda(-r) = \{ x \in \setQ : x \strictinferieur -r \}\]
Si \(r \in \setR \setminus \setQ\), on définit l'association :
\[-r \equiv \{ -x : x \in \setQ \setminus R \}\]
ou \(R \subseteq \setQ\) est l'ensemble de rationnels associé à \(r\).
12.13. Soustraction
On définit la soustraction par :
\[r - s = r + (-s)\]
pour tout \(r,s \in \setR\).
12.14. Valeur absolue
La valeur absolue d'un réel \(r \in \setR\) est définie par :
\[\abs{r} = \sup \{ -r , r \}\]
12.14.1. Propriétés
On a clairement \(\abs{-r} = \abs{r}\). Si \(r \ge 0\), on a \(\abs{r} = r \ge 0\). Si \(r \strictinferieur 0\), on a \(\abs{r} = -r \strictsuperieur 0\). On en conclut que \(\abs{r} \ge 0\) pour tout \(r \in \setR\). Si \(\abs{r} = 0\), on a soit \(r = 0\) ou \(-r = 0\). On en conclut que \(r = 0\). Enfin, choisissons \(r,s \in \setR\) :
- Si \(r,s \ge 0\), on a \(\abs{r + s} = r + s\).
- Si \(r \ge 0\) et \(s \strictinferieur 0\), on a \(\abs{r + s} \le \max\{ \abs{r} , \abs{s} \} \le \abs{r} + \abs{s}\).
- Si \(r \strictinferieur 0\) et \(s \ge 0\), on a \(\abs{r + s} \le \max\{ \abs{r} , \abs{s} \} \le \abs{r} + \abs{s}\).
- si \(r,s \strictinferieur 0\), on a \(\abs{r + s} = (-r) + (-s) = \abs{r} + \abs{s}\).
On en conclut que \(\abs{r + s} \le \abs{r} + \abs{s}\) pour tout \(r,s \in \setR\).
12.15. Distance
On définit une distance sur \(\setR\) par :
\[\distance(x,y) = \abs{x - y}\]
On a bien \(\distance(x,y) \ge 0\). La condition \(\distance(x,y) = 0\) implique que \(\abs{x - y}\), donc \(x - y = 0\) et \(x = y\). Enfin :
\begin{align} \distance(x,z) &= \abs{x - z} \\ &\le \abs{x - y} + \abs{y - z} \\ &\le \distance(x,y) + \distance(y,z) \end{align}12.16. Arrondis
L'arrondi inférieur d'un réel \(x \in \setR\) associé à \(X\) est le plus grand entier dont l'ensemble associé est inclus dans \(X\) :
\[\arrondiinf{x} = \sup \{ n \in \setZ, \ \Lambda(n) \subseteq X \}\]
L'arrondi supérieur est le plus petit entier dont l'ensemble associé inclut \(X\) :
\[\arrondisup{x} = \inf \{ n \in \setZ, \ X \subseteq \Lambda(n) \}\]
12.16.1. Eloignement
Supposons que :
\[\abs{\arrondiinf{x} - x} \ge 1\]
on aurait :
\( x - \arrondiinf{x} \ge 1 \\ x \ge \arrondiinf{x} + 1 \)
avec \(\arrondiinf{x} + 1\) entier, ce qui contredit l'hypothèse de supremum de l'arrondi inférieur. On déduit l'analogue pour l'arrondi supérieur. On a donc :
\[\max\{ \abs{\arrondisup{x} - x} , \abs{\arrondiinf{x} - x} \} \strictinferieur 1\]
12.17. Suites convergentes
Soit \(r \in \setR\), l'entier \(m \in \setZ\) et le naturel \(n \in \setN\) tel que \(n \ne 0\). On considère la suite des rationnels \(x_n \in \setQ\) définis par :
\[x_n = \frac{m}{2^n}\]
On va tenter de choisir \(m\) pour que :
\[\abs{ \frac{m}{2^n} - r} \le \frac{1}{2^n}\]
Cette inégalité est équivalente à :
\( \frac{m}{2^n} - r \le \frac{1}{2^n} \\ r - \frac{m}{2^n} \le \frac{1}{2^n} \)
En multipliant par \(2^n\), on en déduit que :
\[r \cdot 2^n - 1 \le m \le r \cdot 2^n + 1\]
Il suffit donc de prendre :
\[m \in \{ \arrondisup{r \cdot 2^n} , \arrondiinf{r \cdot 2^n} \}\]
pour satisfaire la contrainte demandée. La suite des \(x_n\) converge vers \(r\) puisque :
\[\lim_{n \to \infty} \abs{x_n - r} = 0\]
On le note :
\[\lim_{n \to \infty} x_n = r\]
On peut donc également identifier tout réel à une suite de rationnels qui converge vers lui.
12.17.1. Opération
On peut se servir de ce résultat pour étendre une opération \(\divideontimes\) définie sur \(\setQ\). Soit \(r,s \in \setR\) et les suites de rationnels \(x_i,y_i \in \setQ\) convergent respectivement vers \(r\) et \(s\) :
\( \lim_{n \to \infty} x_n = r \\ \lim_{n \to \infty} y_n = s \)
On définit alors :
\[r \divideontimes s = \lim_{n \to \infty} \left[ x_n \divideontimes y_n \right]\]
12.18. Multiplication
Soit \(r,s \in \setR\). et les suites de rationnels \(x_n\) et \(y_n\) vérifiant :
\( \lim_{n \to \infty} x_n = r \\ \lim_{n \to \infty} y_n = s \)
On définit la multiplication par :
\[r \cdot s = \lim_{n \to \infty} x_n \cdot y_n\]
12.19. Inverse
L'inverse d'un réel \(r \in \setR\) est le réel \(r^{-1}\) tel que :
\[r \cdot r^{-1} = r^{-1} \cdot r = 1\]
12.20. Division
Soit \(r,s \in \setR\) avec \(s \ne 0\). On définit la division de \(r\) par \(s\) par :
\[\frac{r}{s} = r \cdot s^{-1}\]
12.21. Puissance
Soit \(x \in \setR\) et \(n \in \setN\). La puissance de \(x\) est comme d'habitude :
\( x^0 = 1 \\ x^n = x \cdot x^{n - 1} \)
Les puissances négatives sont données par :
\[x^{-n} = \left( x^{-1} \right)^n\]
Comme l'inverse d'une puissance est la puissance de l'inverse, on a aussi :
\[x^{-n} = \left( x^n \right)^{-1}\]
12.22. Racines
Soit \(x \in \setR\) et \(n \in \setN\). On dit que \(z\) est la \(n^{ième}\) racine de \(x\) si :
\[z^n = x\]
On note alors indifféremment :
\[z = x^{1/n} = \sqrt[n]{x}\]
Un cas particulier important est celui de la racine carrée :
\[\sqrt{x} = \sqrt[2]{x} = x^{1/2}\]
12.23. Unicité
12.23.1. Amplitude
Soit \(x,y,z \in \setR\) avec \(x,y \ge 0\) et \(n \in \setN\). Il est clair que si \(x \ne y\), on a forcément \(x^n \ne y^n\). On en conclut que si \(x\) et \(y\) sont tels que \(x^n = y^n\), on a forcément \(x = y\). Les racines sont uniques sur \(\setR^+\).
12.23.2. Signe
Soit \(x \in \setR\). On a :
\[x^2 = (-x)^2\]
Par conséquent, \(x\) et \(-x\) sont des racines carrées de \(z = x^2\). Pour conserver l'unicité on impose que :
\[\sqrt{z} = \abs{x} \ge 0\]
Il en va de même pour les puissances paires \(2 n\), où \(n \in \setN\) car :
\[x^{2 n} = \left( x^2 \right)^n = \left( (-x)^2 \right)^n = (-x)^{2 n}\]
Par contre, pour les puissances impaires :
\[x^{2 n + 1} = \left( x^2 \right)^n \cdot x = - \left( (-x)^2 \right)^n \cdot (-x) = - (-x)^{2 n + 1}\]
Le signe n'est pas ambigu. En résumé, on a :
\( \sqrt[2 n]{ x^{2 n} } = \abs{x} \\ \sqrt[2 n + 1]{ x^{2 n + 1} } = x \)
12.24. Racine d'un produit
Soit \(n \in \setN\) et \(a,b,x,y \in \setR\) avec :
\( a^n = x \\ b^n = y \)
On a :
\[a^n \cdot b^n = a \cdot ... \cdot a \cdot b \cdot ... \cdot b = a \cdot b \cdot ... \cdot a \cdot b = (a \cdot b)^n\]
On en déduit que :
\[\sqrt[n]{a^n \cdot b^n} = a \cdot b\]
c'est-à-dire :
\[\sqrt[n]{x \cdot y} = \sqrt[n]{x} \cdot \sqrt[n]{y} = (x \cdot y)^{1/n} = x^{1/n} \cdot y^{1/n}\]
La racine d'un produit est égale au produit des racines.
12.25. Racine d'une racine
Soit \(m,n \in \setN\) et \(a,b,c \in \setR\) avec :
\( a^m = b \\ b^n = c \)
On voit que :
\[a = b^{1/m} = \left( c^{1/n} \right)^{1/m}\]
Mais on aussi :
\[a^{m \cdot n} = \left( a^m \right)^n = b^n = c\]
donc :
\[a = c^{ 1/(m \cdot n) }\]
On en déduit finalement que :
\[\left( c^{1/n} \right)^{1/m} = c^{ 1/(m \cdot n) }\]
12.26. Puissances fractionnaires
Soit \(x \in \setR\) et \(m,n \in \setN\). On définit les puissances fractionnaires par :
\( x^{m/n} = \left( x^{1/n} \right)^m \\ x^{-m/n} = \left( x^{1/n} \right)^{-m} = \frac{1}{x^{m/n}} \)
Comme la racine d'un produit est égale au produit des racines, on a aussi :
\( x^{m/n} = \left( x^m \right)^{1/n} \\ x^{-m/n} = \left( x^{-m} \right)^{1/n} = \frac{1}{x^{m/n}} \)
12.27. Somme en exposant
Soit \(a,b \in \setZ\) et \(x \in \setR\). Posons :
\[z = x^{ 1/(b \cdot d) }\]
On a alors :
\( x^{1/b} = z^d \\ x^{1/d} = z^b \)
On voit que :
\[x^{a/b} \cdot x^{c/d} = \left( z^d \right)^a \cdot \left( z^b \right)^c = z^{a \cdot d} \cdot z^{b \cdot c} = z^{a \cdot d + b \cdot c}\]
c'est-à-dire :
\[x^{a/b} \cdot x^{c/d} = x^{ \frac{a \cdot d + b \cdot c}{b \cdot d} }\]
qui n'est rien d'autre que :
\[x^{a/b} \cdot x^{c/d} = x^{ \frac{a}{b} + \frac{c}{d} }\]
12.28. Puissance d'une puissance
Soit \(a,b \in \setZ\) et \(x \in \setR\). Posons :
\[z = x^{ 1/(b \cdot d) }\]
On constate que :
\[\left( x^{a/b} \right)^{c/d} = \left( z^{a \cdot d} \right)^{c/d} = z^{a \cdot c}\]
qui n'est rien d'autre que :
\[\left( x^{a/b} \right)^{c/d} = x^{ \frac{a \cdot c}{b \cdot d} }\]
12.29. Puissance réelle
Soit \(x, s \in \setR\) et la suite de rationnels \(\{ r_1,r_2,... \}\) convergeant vers \(s\) :
\[\lim_{i \to \infty} r_i = s\]
On définit la puissance réelle par :
\[x^s = \lim_{i \to +\infty} x^{r_i}\]
12.29.1. Additivité
Les propriétés des puissances fractionnaires nous montrent que :
\( x^{r + s} = x^r \cdot x^s \\ \left( x^r \right)^s = x^{r \cdot s} \)
pour tout \(x,r,s \in \setR\).
13. Extrema réels
\label{chap:extremaReels}
13.1. Dépendances
- Chapitre \ref{chap:reel} : Les nombres réels
- Chapitre \ref{chap:interval} : Les intervalles
13.2. Existence
Soit un sous-ensemble \(A \subseteq \setR\) avec \(A \ne \emptyset\). Pour tout réel \(x \in A\), on note \(Q(x)\) le sous-ensemble de rationnels associé.
- Supposons que \(A\) soit majoré (\(\major A \ne \emptyset\)). Choisissons \(\mu \in \major A\) et considérons le sous-ensemble de rationnels \(Q(\mu)\) associé à \(\mu\). Comme \(\mu \ge A\) et comme l'ordre \(\le\) est dérivé de l'ordre inclusif sur les sous-ensembles de rationnels associés, on a \(Q(x) \subseteq Q(\mu)\) pour tout \(x \in A\). On en conclut que l'union \(S\) des \(Q(x)\) est inclue dans \(Q(\mu)\) :
\[S = \bigcup_{x \in A} Q(x) \subseteq Q(\mu)\]
Comme \(Q(\mu)\) est majoré, on peut trouver un rationnel \(\sigma\) tel que :
\[S \subseteq Q(\mu) \le \sigma\]
Donc \(S \le \sigma\), ce qui prouve que \(S\) est majoré. D'un autre coté, comme les \(Q(x)\) ne sont pas vides, il est clair que leur union \(S\) n'est pas vide.
Soit \(\alpha \in S\) et le rationnel \(\beta \in \setQ\) vérifiant \(\beta \strictinferieur \alpha\). On peut trouver un \(x \in A\) tel que \(\alpha \in Q(x)\). Par définition des sous-ensembles de rationnels associés aux réels, on a \(\beta \in Q(x)\), donc \(\beta\) appartient à l'union \(S\). Enfin, si \(S\) admettait un maximum \(M\), on on pourrait trouver un \(x \in A\) tel que \(M \in Q(x)\). On aurait aussi \(Q(x) \subseteq S \le M\), et donc \(Q(x) \le M\), ce qui contredit la définition des réels. On en conclut que l'ensemble \(S\) correspond à un réel \(s\). Mais on sait que le supremum inclusif est égal à l'union :
\[S = \sup_\subseteq \{ Q(x) \in \sousens(\setQ) : x \in A \} \]
L'ordre \(\le\) des réels étant dérivé de \(\subseteq\), on en conclut que le supremum de \(A\) existe et que :
\[s = \sup A\]
Nous avonc donc prouvé que tout sous-ensemble \(A\) non vide majoré de \(\setR\) admet un supremum.
- Supposons que \(A\) soit minoré (\(\minor A \ne \emptyset\)). Choisissons \(\lambda \in \minor A\) et posons :
\[-A = \{ -x \in \setR : x \in A \}\]
Comme \(\lambda \le x\) pour tout \(x \in A\), on a \(-\lambda \ge -x\) et \(-\lambda \in \major(-A) \ne \emptyset\). L'ensemble non vide \(-A\) est donc majoré et admet un supremum \(S = \sup(-A)\). On a \(S \ge -x\) pour tout \(x \in A\), donc \(I = -S \le x\) et \(I \in \minor A\). Choisissons \(\alpha \in \minor A\). On a \(\alpha \le x\) pour tout \(x \in A\), d'où \(-\alpha \ge -x\) et \(-\alpha \in \major(-A)\). On en déduit que \(-A \le S \le -\alpha\), c'est-à-dire \(\alpha \le I \le A\). Le réel \(I = -S\) est donc l'infimum de \(A\) :
\[\inf A = - \sup(-A)\]
Nous avonc donc prouvé que tout sous-ensemble \(A\) non vide minoré de \(\setR\) admet un infimum.
13.3. Adhérence et distance
Soit \(A \subseteq \setR\) et \(r \in \setR\). Soit l'ensemble :
\[D = \{ \distance(r,x) : x \in A \}\]
- Supposons que \(r \in \adh A\). On a alors :
\[\distance(r,A) = \inf D = 0\]
Choisissons un réel \(\delta \strictsuperieur 0\). Si on avait \(\distance(x,r) \strictsuperieur \delta\) pour tout \(x \in A\), on aurait \(0 \strictinferieur \delta \le D\), ce qui contredit l'hypothèse d'infimum nul. Donc, pour tout \(\delta \strictsuperieur 0\), on peut trouver un \(x \in A\) tel que \(\distance(x,r) \le \delta\).
- Réciproquement, supposons que pour tout réel \(\delta \strictsuperieur 0\), on puisse trouver un \(x \in A\) tel que \(d = \distance(x,r) \le \delta\). Dans ce cas, on a \(\delta \le d \in D\). On en conclut que \(\delta \notin \minor D\). Par contre, si \(\delta \le 0\), on a \(\delta \le 0 \le D\) par positivité de la distance. On en conclut que \(\minor D = \intervallesemiouvertgauche{-\infty}{0}\), d'où :
\[\distance(r,A) = \inf D = \max \minor D = \max \intervallesemiouvertgauche{-\infty}{0} = 0\]
et \(r \in \adh A\).
13.4. Eloignement
- Supposons à présent que le supremum \(S = \sup A\) existe et que l'on puisse trouver un \(\delta \strictsuperieur 0\) tel que :
\[\distance(S,x) = \abs{S - x} = S - x \ge \delta\]
pour tout \(x \in A\). Soit alors :
\[y = S - \frac{\delta}{2}\]
On voit que \(S \strictsuperieur y\) et que :
\[y - x = (y - S) + (S - x) \ge - \frac{\delta}{2} + \delta = \frac{\delta}{2} \strictsuperieur 0\]
pour tout \(x \in A\), c'est-à-dire \(y \ge A\). On a donc \(S \strictsuperieur y \ge A\), ce qui contredit la définition du supremum. Pour tout \(\delta \strictsuperieur 0\), on peut donc trouver un \(x \in A\) tel que \(\distance(S,x) \le \delta\). On en conclut que \(\distance(S,A) = 0\), c'est-à-dire :
\[\sup A \in \adh A\]
- Soit l'ensemble \(A\) admettant un infimum \(I = \inf A\). Supposons que l'on puisse trouver un \(\delta \strictsuperieur 0\) tel que :
\[\distance(I,x) = \abs{I - x} = x - I \ge \delta\]
pour tout \(x \in A\). Soit alors :
\[y = I + \frac{\delta}{2}\]
On voit que \(I \strictinferieur y\) et que :
\[x - y = (x - I) + (I - y) \ge \delta - \frac{\delta}{2} = \frac{\delta}{2} \strictsuperieur 0\]
pour tout \(x \in A\), c'est-à-dire \(y \le A\). On a donc \(I \strictinferieur y \le A\), ce qui contredit la définition de l'infimum. Pour tout \(\delta \strictsuperieur 0\), on peut donc trouver un \(x \in A\) tel que \(\distance(I,x) \le \delta\). On en conclut que \(\distance(I,A) = 0\), c'est-à-dire :
\[\inf A \in \adh A\]
14. Opérations sur les limites
\label{chap:operationSurLesLimites}
Soit les fonction \(f,g : \setR \mapsto \setR\) vérifiant :
\( F = \lim_{x \to a} f(x) \\ \\ G = \lim_{x \to a} g(x) \)
où \(F,G \in \setR\). Choisissons un réel \(\epsilon \strictsuperieur 0\). Pour tout \(\gamma \strictsuperieur 0\), on peut trouver un \(\delta(\gamma) \strictsuperieur 0\) tel que :
\( \distance(f(x),F) = \abs{f(x) - F} \le \gamma \\ \distance(g(x),G) = \abs{g(x) - G} \le \gamma \)
pour tout \(x \in \setR\) tel que \(\distance(x,a) = \abs{x - a} \le \delta(\gamma)\).
14.0.1. Addition
\[\abs{f(x) + g(x) - (F + G)} \le \abs{f(x) - F} + \abs{g(x) - G} = 2 \gamma\]
Il suffit donc de choisir \(\gamma = \epsilon / 2\) pour avoir \(\abs{f(x) + g(x) - (F + G)} \le \epsilon\). On en déduit que la limite de \(f + g\) est \(F + G\), c'est-à-dire :
\[\lim_{x \to a} \big[f(x) + g(x)\big] = \lim_{x \to a} f(x) + \lim_{x \to a} g(x)\]
14.0.1.1. Fonction constante
Dans le cas particulier où une des deux fonctions est une constante \(G \in \setR\), soit :
\[g : x \mapsto G\]
pour tout \(x \in \setR\), on a :
\[\lim_{x \to a} g(x) = \lim_{x \to a} G = G\]
et :
\[\lim_{x \to a} \big[f(x) + G\big] = \lim_{x \to a} f(x) + G\]
14.0.2. Opposé
On a simplement :
\[\abs{\big[-g(x)\big] - (-G)} = \abs{G - g(x)} = \abs{g(x) - G} \le \gamma\]
Il suffit donc de choisir \(\gamma = \epsilon\) pour avoir \(\abs{(-g(x)) - (-G)} \le \epsilon\). On en déduit que la limite de \(-g\) est \(-G\), c'est-à-dire :
\[\lim_{x \to a} \big[-g(x)\big] = - \lim_{x \to a} g(x)\]
14.0.3. Soustraction
On a :
\begin{align} \lim_{x \to a} \big[f(x) - g(x)\big] &= \lim_{x \to a} \big[f(x) + \big(-g(x)\big)\big] \\ &= \lim_{x \to a} f(x) + \lim_{x \to a} \big(-g(x)\big) \\ &= \lim_{x \to a} f(x) - \lim_{x \to a} g(x) \end{align}14.0.4. Multiplication
On voit que :
\begin{align} \abs{f(x) \cdot g(x) - F \cdot G} &= \abs{f(x) \cdot g(x) - f(x) \cdot G + f(x) \cdot G - F \cdot G} \\ &= \abs{f(x) \cdot (g(x) - G) + (f(x) - F) \cdot G} \\ &\le \abs{f(x) \cdot (g(x) - G)} + \abs{(f(x) - F) \cdot G} \\ &\le \abs{f(x)} \cdot \abs{g(x) - G} + \abs{(f(x) - F)} \cdot \abs{G} \\ &\le \abs{f(x)} \cdot \gamma + \gamma \cdot \abs{G} \end{align}Comme :
\[\abs{f(x)} = \abs{f(x) - F + F} \le \abs{f(x) - F} + F \le \gamma + \abs{F}\]
notre borne peut se réécrire :
\begin{align} \abs{f(x) \cdot g(x) - F \cdot G} &\le (\gamma + \abs{F}) \cdot \gamma + \gamma \cdot \abs{G} \\ &\le (\gamma + \abs{F} + \abs{G}) \cdot \gamma \end{align}Si on choisit \(\gamma = \min\{ 1 , \epsilon / (1 + \abs{F} + \abs{G}) \}\), on a \(\gamma \le 1\) et :
\[\abs{f(x) \cdot g(x) - F \cdot G} \le (1 + \abs{F} + \abs{G}) \cdot \gamma \le \epsilon\]
On en déduit que la limite de \(f \cdot g\) est \(F \cdot G\), c'est-à-dire :
\[\lim_{x \to a} \big[f(x) \cdot g(x)\big] = \left[ \lim_{x \to a} f(x) \right] \cdot \left[ \lim_{x \to a} g(x) \right]\]
14.0.5. Inverse multiplicatif
Supposons que \(G \ne 0\). On a :
\begin{align} \abs{\frac{1}{g(x)} - \frac{1}{G}} &= \abs{\frac{G - g(x)}{g(x) \cdot \abs{G}}} \\ &= \frac{ \abs{G - g(x)} }{ \abs{g(x)} \cdot \abs{G} } \\ &= \frac{ \gamma }{ \abs{g(x)} \cdot \abs{G} } \\ \end{align}On voit aussi que :
\begin{align} \abs{g(x)} = \abs{g(x) - G + G} &= \abs{G - (G - g(x))} \\ &\ge \abs{G} - \abs{G - g(x)} \\ &\ge \abs{G} - \gamma \end{align}Donc, si \(\gamma \strictinferieur \abs{G}\), on a :
\[\abs{\frac{1}{g(x)} - \frac{1}{G}} \le \frac{ \gamma }{ (\abs{G} - \gamma) \cdot \abs{G} }\]
Nous allons voir qu'il est possible de majorer cette expression par \(\epsilon\). En effet, la condition :
\[\frac{ \gamma }{ (\abs{G} - \gamma) \cdot \abs{G} } \le \epsilon\]
est équivalente à :
\[\gamma \le \epsilon \cdot (\abs{G} - \gamma) \cdot \abs{G} = G^2 \cdot \epsilon - \epsilon \cdot \abs{G} \cdot \gamma\]
ce qui revient à dire que :
\[(1 + \epsilon \cdot \abs{G}) \cdot \gamma \le G^2 \cdot \epsilon\]
et enfin :
\[0 \strictinferieur \gamma \le \frac{G^2 \cdot \epsilon}{1 + \epsilon \cdot \abs{G}}\]
En imposant également \(\gamma \strictinferieur \abs{G}\), on obtient la condition suffisante :
\[0 \strictinferieur \gamma \strictinferieur \min\left\{ \abs{G} , \frac{G^2 \cdot \epsilon}{1 + \epsilon \cdot \abs{G}} \right\}\]
On a alors \(\abs{\frac{1}{g(x)} - \frac{1}{G}} \le \epsilon\). On en conclut que la limite de \(1/g\) est \(1/G\), c'est-à-dire :
\[\lim_{x \to a} \frac{1}{g(x)} = \frac{1}{\lim_{x \to a} g(x)}\]
14.0.6. Fraction
Toujours sous l'hypothèse que \(G \ne 0\), on a :
\[\lim_{x \to a} \frac{f(x)}{g(x)} = \left[\lim_{x \to a} f(x)\right] \cdot \left[\lim_{x \to a} \frac{1}{g(x)}\right] = \frac{\lim_{x \to a} f(x)}{\lim_{x \to a} g(x)}\]
15. Limites réelles
\label{chap:limitesReelles}
15.1. Fonction croissante
Soit une fonction \(f : \setR \mapsto \setR\) croissante et majorée par un certain \(M \in \setR\) :
\[F = \{ f(x) \in \setR : x \in \setR \} \le M\]
Comme l'ensemble de réels \(F\) est non vide et majoré, on en conclut qu'il admet un supremum inclus dans l'adhérence :
\[S = \sup F \in \adh F\]
Choisissons un réel \(\epsilon \strictsuperieur 0\). Comme \(\distance(S,F) = 0\), on peut trouver un \(\alpha \in \setR\) tel que :
\[\distance(S,f(\alpha)) = \abs{S - f(\alpha)} \le \epsilon\]
Comme \(S \ge F\), on a \(\abs{S - f(\alpha)} = S - f(\alpha) \le \epsilon\). Soit un \(\beta \in \setR\) tel que \(\beta \ge \alpha\). La fonction \(f\) étant croissante, on a \(f(\beta) \ge f(\alpha)\), et donc :
\[\distance(S,f(\beta)) = S - f(\beta) \le S - f(\alpha) \le \epsilon\]
On en déduit que \(f(x)\) converge vers le supremum \(S\) lorsque \(x \to \infty\). Par unicité de la limite, on a :
\[\lim_{x \to +\infty} f(x) = \sup \{ f(x) \in \setR : x \in \setR \}\]
15.2. Fonction décroissante
Symétriquement, si \(g : \setR \mapsto \setR\) est une fonction décroissante et minorée par un certain \(L \in \setR\), l'ensemble non vide :
\[G = \{ g(x) \in \setR : x \in \setR \} \ge L\]
admet un infimum inclut dans l'adhérence :
\[I = \inf G \in \adh G\]
Choisissons un réel \(\epsilon \strictsuperieur 0\). Comme \(\distance(I,G) = 0\), on peut trouver un \(\alpha \in \setR\) tel que :
\[\distance(I,g(\alpha)) = \abs{I - g(\alpha)} \le \epsilon\]
Comme \(I \le F\), on a \(\abs{I - g(\alpha)} = g(\alpha) - I \le \epsilon\). Soit un \(\beta \in \setR\) tel que \(\beta \ge \alpha\). La fonction \(g\) étant décroissante, on a \(g(\beta) \le g(\alpha)\), et donc :
\[\distance(I,g(\beta)) = g(\beta) - I \le g(\alpha) - I \le \epsilon\]
On en déduit que \(g(x)\) converge vers le supremum \(I\) lorsque \(x \to \infty\). Par unicité de la limite, on a :
\[\lim_{x \to +\infty} g(x) = \inf \{ g(x) \in \setR : x \in \setR \}\]
15.3. Limites supremum et infimum
Soit une fonction \(f : \setR \mapsto \setR\) majorée et minorée. On définit la famille \(\{F(x) : x \in \setR \}\) d'ensembles non vides, majorés et minorés par :
\[F(x) = \{f(z) : z \in \setR, \ z \ge x \}\]
15.3.1. Limite supremum
Si \(x \ge y\), on a \(F(x) \subseteq F(y)\), et donc \(\sup F(x) \le \sup F(y)\). On en conclut que la fonction dérivée \(d : \setR \mapsto \setR\) définie par :
\[d(x) = \sup \{ f(z) : z \in \setR, \ z \ge x \}\]
pour tout \(x \in \setR\) est décroissante et minorée. Elle converge donc vers son infimum :
\[\lim_{x \to +\infty} d(x) = \inf_{x \in \setR} d(x) = \inf_{x \in \setR} \sup \{f(z) : z \in \setR, \ z \ge x \}\]
D'un autre coté, la définition de \(d\) implique que :
\[\lim_{x \to +\infty} d(x) = \lim_{x \to +\infty} \sup \{f(z) : z \in \setR, \ z \ge x \} = \limsup_{x \to +\infty} f(x)\]
On en conclut que :
\[\limsup_{x \to +\infty} f(x) = \inf_{x \in \setR} \sup \{f(z) : z \in \setR, \ z \ge x \}\]
15.3.2. Limite infimum
Si \(x \ge y\), on a \(F(x) \subseteq F(y)\), et donc \(\inf F(x) \ge \inf F(y)\). On en conclut que la fonction dérivée \(c : \setR \mapsto \setR\) définie par :
\[c(x) = \inf \{ f(z) : z \in \setR, \ z \ge x \}\]
pour tout \(x \in \setR\) est croissante et majorée. Elle converge donc vers son supremum :
\[\lim_{x \to +\infty} c(x) = \sup_{x \in \setR} c(x) = \sup_{x \in \setR} \inf \{f(z) : z \in \setR, \ z \ge x \}\]
D'un autre coté, la définition de \(c\) implique que :
\[\lim_{x \to +\infty} c(x) = \lim_{x \to +\infty} \inf \{f(z) : z \in \setR, \ z \ge x \} = \liminf_{x \to +\infty} f(x)\]
On en conclut que :
\[\liminf_{x \to +\infty} f(x) = \sup_{x \in \setR} \inf \{f(z) : z \in \setR, \ z \ge x \}\]
15.4. Egalité des limites sup et inf
Soit une fonction \(f : \setR \mapsto \setR\) majorée et minorée. Posons :
\( S(x) = \sup \{ f(z) : z \in \setR, \ z \ge x \} \\ I(x) = \inf \{ f(z) : z \in \setR, \ z \ge x \} \)
et choisissons un réel \(\epsilon \strictsuperieur 0\).
- Considérons le cas particulier où les limites sup et inf sont identiques :
\[L = \limsup_{x \to +\infty} f(x) = \liminf_{x \to +\infty} f(x)\]
pour tout \(x \in \setR\). Choisissons un \(\sigma\) tel que \(\abs{S(x) - L} \le \epsilon\) pour tout \(x\) vérifiant \(x \ge \sigma\) et un \(\tau\) tel que \(\abs{I(x) - L} \le \epsilon\) pour tout \(x\) vérifiant \(x \ge \tau\). Posant \(M = \max\{\sigma,\tau\}\), il vient :
\( f(z) \le S(M) \le L + \epsilon \\ f(z) \ge I(M) \ge L - \epsilon \)
pour tout réel \(z\) vérifiant \(z \ge M\). On a alors :
\[\abs{f(z) - L} \le \epsilon\]
On en conclut que la limite de \(f\) à l'infini existe et que :
\[\lim_{x \to +\infty} f(x) = \limsup_{x \to +\infty} f(x) = \liminf_{x \to +\infty} f(x)\]
- Inversément, supposons la limite de \(f\) à l'infini existe :
\[L = \lim_{x \to +\infty} f(x)\]
Soit un réel \(M\) tel que :
\[\abs{f(x) - L} \le \epsilon\]
pour tout réel \(x\) vérifiant \(x \ge M\). On a alors :
\[L - \epsilon \le f(x) \le L + \epsilon\]
On en déduit que :
\( S(x) \le L + \epsilon \\ I(x) \ge L - \epsilon \)
Le supremum étant supérieur à l'infimum, on a finalement :
\[L - \epsilon \le I(x) \le S(x) \le L + \epsilon\]
et donc :
\[\{ \abs{S(x) - L} , \abs{I(x) - L} \} \le \epsilon\]
On en conclut que \(S\) et \(I\) convergent vers \(L\), c'est-à-dire :
\[\limsup_{x \to +\infty} f(x) = \liminf_{x \to +\infty} f(x) = \lim_{x \to +\infty} f(x)\]
15.5. Ordre et limite
Soit les fonctions \(f,g : \setR \mapsto \setR\) vérifiant \(f \le g\).
15.5.1. A l'infini
Supposons que les limites à l'infini existent :
\( \lim_{x \to +\infty} f(x) = b \\ \\ \lim_{x \to +\infty} g(x) = c \)
Supposons que \(b \strictsuperieur c\) et posons \(\epsilon = (b - c)/4 \strictsuperieur 0\). On a alors :
\[b = c + 4 \epsilon\]
On peut trouver un réel \(F\) tel que :
\[\abs{f(x) - b} \le \epsilon\]
pour tout réel \(x\) vérifiant \(x \ge F\). De même, on peut trouver un réel \(G\) tel que :
\[\abs{g(x) - c} \le \epsilon\]
pour tout réel \(x\) vérifiant \(x \ge G\). Donc, pour tout réel \(x\) vérifiant \(x \ge M = \max\{F,G\}\), on a :
\[\{ \ \abs{f(x) - b} , \ \abs{g(x) - c} \ \} \le \epsilon\]
On voit que :
\[b - \epsilon = c + 3 \epsilon \strictsuperieur c + \epsilon\]
On en déduit que :
\[f(x) \ge b - \epsilon \strictsuperieur c + \epsilon \ge g(x)\]
ce qui contredit \(f \le g\). Notre hypothèse est donc fausse et \(b \le c\), c'est-à-dire :
\[\lim_{x \to +\infty} f(x) \le \lim_{x \to +\infty} g(x)\]
15.5.2. Vers un réel
On montre par un raisonnement analogue que, si les limites de \(f,g\) en \(a\) existent, on a :
\[\lim_{x \to a} f(x) \le \lim_{x \to a} g(x)\]
15.5.3. Supremum et infimum
Pour tout \(x \in \setR\), on a :
\[\lambda(x) = \inf \{ f(z) : z \in \setR, \ z \ge x \} \le \sigma(x) = \sup \{ f(z) : z \in \setR, \ z \ge x \}\]
On en conclut que \(\lambda \le \sigma\). Leurs limites à l'infini respectent donc le même ordre. Mais comme ces limites correspondent aux limites infimum et supremum de \(f\), on a :
\[\liminf_{x \to +\infty} f(x) \le \limsup_{x \to +\infty} f(x)\]
15.6. Ordre et supremum-infimum
Soit les fonctions \(f,g : \setR \mapsto \setR\) majorées, minorées et vérifiant \(f \le g\). Posons :
\[\Theta(x) = \{ z \in \setR : z \ge x \}\]
pour tout \(x \in \setR\).
15.6.1. Supremum
Soit les fonctions \(\varphi,\gamma\) définies par :
\( \varphi(x) = \sup \{ f(z) : z \in \setR, \ z \ge x \} \\ \gamma(x) = \sup \{ g(z) : z \in \setR, \ z \ge x \} \)
pour tout \(x \in \setR\). Quel que soit le réel \(x\), on a \(f \le g\) sur \(\Theta(x)\). On en conclut que :
\[\varphi(x) = \sup f(\Theta(x)) \le \sup g(\Theta(x)) = \gamma(x)\]
ce qui revient à dire que \(\varphi \le \gamma\). On doit donc avoir :
\[\lim_{x \to +\infty} \varphi(x) \le \lim_{x \to +\infty} \gamma(x)\]
c'est-à-dire :
\[\limsup_{x \to +\infty} f(x) \le \limsup_{x \to +\infty} g(x)\]
15.6.2. Infimum
Soit les fonctions \(\varphi,\gamma\) définies par :
\( \varphi(x) = \inf \{ f(z) : z \in \setR, \ z \ge x \} \\ \gamma(x) = \inf \{ g(z) : z \in \setR, \ z \ge x \} \)
pour tout \(x \in \setR\). Quel que soit le réel \(x\), on a \(f \le g\) sur \(\Theta(x)\). On en conclut que :
\[\varphi(x) = \inf f(\Theta(x)) \le \inf g(\Theta(x)) = \gamma(x)\]
ce qui revient à dire que \(\varphi \le \gamma\). On doit donc avoir :
\[\lim_{x \to +\infty} \varphi(x) \le \lim_{x \to +\infty} \gamma(x)\]
c'est-à-dire :
\[\liminf_{x \to +\infty} f(x) \le \liminf_{x \to +\infty} g(x)\]
15.6.3. Egalité
Supposons que :
\[L = \liminf_{x \to +\infty} f(x) = \limsup_{x \to +\infty} g(x)\]
On a alors :
\[L = \liminf_{x \to +\infty} f(x) \le \limsup_{x \to +\infty} f(x) \le \limsup_{x \to +\infty} g(x) = L\]
Les limites sup et inf de \(f\) sont donc toutes deux égales à \(L\) et :
\[\lim_{x \to +\infty} f(x) = \liminf_{x \to +\infty} f(x) = \limsup_{x \to +\infty} f(x) = L\]
On a aussi :
\[L = \liminf_{x \to +\infty} f(x) \le \liminf_{x \to +\infty} g(x) \le \limsup_{x \to +\infty} g(x) = L\]
Les limites sup et inf de \(g\) sont donc toutes deux égales à \(L\) et :
\[\lim_{x \to +\infty} g(x) = \liminf_{x \to +\infty} g(x) = \limsup_{x \to +\infty} g(x) = L\]
On en conclut que les limites de \(f\) et \(g\) existent et que :
\[\lim_{x \to +\infty} f(x) = \lim_{x \to +\infty} g(x)\]
15.7. Cadre
Soit les fonctions \(f,S,I : \setR \mapsto \setR\) majorées, minorées et vérifiant \(I \le f \le S\). Supposons que :
\[L = \liminf_{x \to +\infty} I(x) = \limsup_{x \to +\infty} S(x)\]
On a alors :
\[L = \liminf_{x \to +\infty} I(x) \le \liminf_{x \to +\infty} f(x) \le \limsup_{x \to +\infty} f(x) \le \limsup_{x \to +\infty} S(x) = L\]
On en déduit que :
\[\liminf_{x \to +\infty} f(x) = \limsup_{x \to +\infty} f(x) = L\]
La limite de \(f\) existe donc et :
\[\lim_{x \to +\infty} f(x) = \liminf_{x \to +\infty} I(x) = \limsup_{x \to +\infty} S(x)\]
16. Suites de réels
\label{chap:suitesDeReels}
16.1. Monotones
Soit une suite de réels $x1 ≤ x2 ≤ x3 ≤ …$ croissante et majorée. On a alors :
\[\lim_{n \to \infty} x_n = \sup \{x_n \in \setR : n \in \setN \}\]
Soit une suite de réels $y1 ≥ y2 ≥ y3 ≥ …$ décroissante et minorée. On a alors :
\[\lim_{n \to \infty} y_n = \inf \{y_n \in \setR : n \in \setN \}\]
16.2. Limites extrémales
Soit une suite de réels \(\{u_n \in \setR : n \in \setN\}\) majorée et minorée. On a :
\[\limsup_{ n \to \infty } u_n = \inf_{n \in \setN} \sup \{u_m : m \in \setN, \ m \ge n \}\]
\[\liminf_{ n \to \infty } u_n = \sup_{n \in \setN} \inf \{u_m : m \in \setN, \ m \ge n \}\]
17. Sommes réelles
\label{chap:sommesReelles}
17.1. Introduction
Nous nous intéressons à des suites de réels \(A \subseteq \setR\) de la forme :
\[A = \{ a_k \in \setR : k \in \mathcal{Z} \}\]
17.1.1. Dénombrable
Supposons que \(\mathcal{Z} \subseteq \setZ\). Si les sommes partielles convergent, on définit :
\[\sum_{k \in \setN} a_k = \sum_{k = 0}^{+\infty} a_k = \lim_{n \to \infty} \sum_{k = 0}^n a_k\]
dans le cas où \(\mathcal{Z} = \setN\) et :
\[\sum_{k \in \setZ} a_k = \sum_{k = -\infty}^{+\infty} a_k = \lim_{n \to \infty} \sum_{k = -n}^n a_k\]
dans le cas où \(\mathcal{Z} = \setZ\). On définit aussi :
\[\sum_{k = m}^{+\infty} a_k = \lim_{n \to \infty} \sum_{k = m}^n a_k\]
17.1.2. Quelconque
Pour un ensemble \(\mathcal{Z}\) quelconque, on pose :
\[Z^+ = \{ k \in \mathcal{Z} : a_k \ge 0 \}\]
et :
\[Z^- = \{ k \in \mathcal{Z} : a_k \strictinferieur 0 \}\]
Sous réserve d'existence du suprémum, on définit :
\[\sum_{k \in Z^+} a_k = \sup \accolades{ \sum_{k \in I} a_k : I \subseteq Z^+, \ I \ \mathrm{fini} }\]
ainsi que :
\[\sum_{k \in Z^-} a_k = - \sup \accolades{ - \sum_{k \in I} a_k : I \subseteq Z^-, \ I \ \mathrm{fini} }\]
On définit alors la somme par :
\[\sum_{k \in \mathcal{Z}} a_k = \sum_{k \in Z^+} a_k + \sum_{k \in Z^-} a_k\]
17.2. Additivité
Soit la suite :
\[A = \{ a_k \in \setR : k \in \setN \}\]
On définit la suite \(\{ S_n : n \in \setN \}\) des sommes partielles par :
\[S_n = \sum_{k = 0}^n a_k\]
pour tout \(n \in \setN\). Choisissons un \(m \in \setN\) vérifiant \(m \ge 1\). On définit la suite \(\{ D_n : n \in \setN \}\) des sommes partielles commençant en \(m\) par :
\[D_n = \sum_{k = m}^n a_k\]
pour tout \(n \in \setN\) vérifiant \(n \ge m\). Choisissons un naturel \(n\) vérifiant \(n \ge m\). On a :
\[S_n = \sum_{k = 0}^{m - 1} a_k + \sum_{k = m}^n a_k = S_{m - 1} + D_n\]
Si on pose :
\[E = S_{m - 1}\]
on a :
\[S_n = E + D_n\]
pour tout \(n \in \setN\) vérifiant \(n \ge m\). Si la limite de la suite des \(D_n\) existe, celle des \(S_n\) aussi et :
\[\lim_{n \to \infty} S_n = E + \lim_{n \to \infty} D_n\]
Inversément, si la limite des \(S_n\) existe, celle des \(D_n\) aussi et :
\[\lim_{n \to \infty} D_n = \lim_{n \to \infty} S_n - E\]
On a par définition :
\[\lim_{n \to \infty} S_n = \sum_{k = 0}^{+\infty} a_k\]
et :
\[\lim_{n \to \infty} D_n = \sum_{k = m}^{+\infty} a_k\]
On en conclut que :
\[\sum_{k = 0}^{+\infty} a_k = \sum_{k = 0}^{m - 1} a_k + \sum_{k = m}^{+\infty} a_k\]
17.3. Somme résiduelle
Si la somme des \(a_k\) converge, l'additivité nous dit que :
\[\sum_{k = m}^{+\infty} a_k = \sum_{k = 0}^{+\infty} a_k - \sum_{k = 0}^{m - 1} a_k\]
En passant à la limite \(m \to \infty\), on a :
\begin{align} \lim_{m \to \infty} \sum_{k = m}^{+\infty} a_k &= \lim_{m \to \infty} \left[ \sum_{k = 0}^{+\infty} a_k - \sum_{k = 0}^{m - 1} a_k \right] \\ &= \sum_{k = 0}^{+\infty} a_k - \lim_{m \to \infty} \sum_{k = 0}^{m - 1} a_k \\ &= \sum_{k = 0}^{+\infty} a_k - \sum_{k = 0}^{+\infty} a_k \\ &= 0 \end{align}La suite des sommes résiduelles \(R_m\) définie par :
\[R_m = \sum_{k = m}^{+\infty} a_k\]
pour tout \(m \in \setN\) converge donc vers zéro lorsque \(m\) tend vers l'infini.
17.4. Termes positifs
Soit la suite positive :
\[P = \{ p_k \in \setR : p_k \ge 0, \ k \in \setN \}\]
et la suite des sommes partielles :
\[S_n = \sum_{k = 0}^n p_k\]
Choisissons \(m,n \in \setN\) tels que \(m \le n\). On a :
\[S_n = \sum_{k = 0}^m p_k + \sum_{k = m + 1}^n p_k = S_m + \sum_{k = m + 1}^n p_k\]
Par positivité, des \(p_k\), on a :
\[\sum_{k = m + 1}^n p_k \ge 0\]
et :
\[S_n \ge S_m\]
La suite des \(S_n\) est croissante. Si on peut trouver un \(M \in \setR\) tel que :
\[S_n \le M\]
pour tout \(n \in \setN\), la suite est majorée et converge vers son suprémum :
\[\sum_{k = 0}^{+\infty} p_k = \lim_{n \to \infty} \sum_{k = 0}^n p_k = \sup_{n \in \setN} \sum_{k = 0}^n p_k\]
17.5. Convergence absolue
Soit la suite :
\[A = \{ a_k \in \setR : k \in \setN \}\]
La suite dérivée :
\[P = \{ \abs{a_k} \in \setR : k \in \setN \}\]
est positive. Si on peut trouver un \(K \in \setR\) tel que :
\[\sum_{k = 0}^n \abs{a_k} \le K\]
pour tout \(n \in \setN\), la suite des valeurs absolues converge et :
\[\sum_{k = 0}^{+\infty} \abs{a_k} = \sup_{n \in \setN} \sum_{k = 0}^n \abs{a_k}\]
La suite des sommes résiduelles associées converge donc vers zéro :
\[\lim_{m \to \infty} \sum_{k = m}^{+\infty} \abs{a_k} = 0\]
Comme :
\[-\abs{a_k} \le a_k \le \abs{a_k}\]
on a :
\[-K \le - \sum_{k = 0}^n \abs{a_k} \le \sum_{k = 0}^n a_k \le \sum_{k = 0}^n \abs{a_k} \le K\]
et :
\[-K \le \sum_{k = 0}^n a_k \le K\]
La suite des sommes partielles \(S_n\) définies par :
\[S_n = \sum_{k = 0}^n a_k\]
est donc majorée et minorée. Elle admet par conséquent des limites suprémum :
\[\sigma = \limsup_{n \to \infty} S_n = \inf_{n \in \setN} \sup \{ S_k : k \in \setN, \ k \ge n \}\]
et infimum :
\[\lambda = \liminf_{n \to \infty} S_n = \sup_{n \in \setN} \inf \{ S_k : k \in \setN, \ k \ge n \}\]
La suite des \(S_n\) converge-t-elle ? Autrement dit, les limites suprémum et infimum des \(S_n\) sont-elles identiques ? On sait déjà que :
\[\lambda \le \sigma\]
Soit la famille de suprémums décroissants définie par :
\[H_m = \sup\{ S_n : n \in \setN, \, n \ge m \}\]
pour tout \(m \in \setN\). On a :
\[\sigma = \inf_{m \in \setN} H_m\]
Soit la famille d'infimums croissants définie par :
\[B_m = \inf\{ S_n : n \in \setN, \, n \ge m \}\]
pour tout \(m \in \setN\). On a :
\[\lambda = \sup_{m \in \setN} B_m\]
Soit \(\epsilon \strictsuperieur 0\). Comme la somme résiduelle converge vers zéro, on peut trouver un naturel \(M\) tel que :
\[\sum_{k = m}^{+\infty} \abs{a_k} \le \frac{\epsilon}{2}\]
pour tout naturel \(m\) vérifiant \(m \ge M\). Choisissons des naturels \(m,n\) tels que \(n \ge m + 1\) et \(m \ge M\). L'additivité finie nous dit que :
\[\sum_{k = 0}^n a_k = \sum_{k = 0}^m a_k + \sum_{k = m + 1}^n a_k\]
c'est-à-dire :
\[S_n = S_m + \sum_{k = m + 1}^n a_k\]
ou :
\[S_n - S_m = \sum_{k = m + 1}^n a_k\]
En prenant la valeur absolue, il vient :
\[\abs{S_n - S_m} = \abs{\sum_{k = m + 1}^n a_k} \le \sum_{k = m + 1}^n \abs{a_k}\]
Les termes \(\abs{a_k}\) étant positifs, la suite des \(D_i\) définie par :
\[D_i = \sum_{k = m + 1}^i \abs{a_k}\]
pour tout naturel \(i\) vérifiant \(i \ge m + 1\) est croissante, majorée et converge vers son suprémum. On a donc :
\[\sum_{k = m + 1}^n \abs{a_k} \le \lim_{i \to \infty} D_i = \sum_{k = m + 1}^{+\infty} \abs{a_k}\]
et :
\[\abs{S_m - S_n} \le \sum_{k = m + 1}^{+\infty} \abs{a_k}\]
Comme \(m + 1 \strictsuperieur m \ge M\), le terme de droite est majoré par \(\epsilon / 2\) et :
\[\abs{S_m - S_n} \le \frac{\epsilon}{2}\]
Choisissons \(m \ge M\). Pour tout naturel \(n\) vérifiant \(n \ge m\), on a soit \(n = m\) et \(S_n = S_m\), soit \(n \ge m + 1\). On en déduit les inégalités :
\[S_n \le \max \accolades{S_m, S_m + \frac{\epsilon}{2}} = S_m + \frac{\epsilon}{2}\]
et :
\[S_n \ge \min \accolades{S_m, S_m - \frac{\epsilon}{2}} = S_m - \frac{\epsilon}{2}\]
En passant au suprémum pour les entiers \(n\) vérifiant \(n \ge m\), on en déduit que :
\[H_m \le S_m + \frac{\epsilon}{2}\]
En passant à l'infimum pour les entiers \(n\) vérifiant \(n \ge m\), on en déduit que :
\[B_m \ge S_m - \frac{\epsilon}{2}\]
En combinant ces deux inégalités, on obtient :
\[H_m \le S_m + \frac{\epsilon}{2} = \parentheses{S_m - \frac{\epsilon}{2}} + \epsilon \le B_m + \epsilon\]
et a fortiori :
\[\inf_{ \substack{ m \in \setN \\ m \ge M } } H_m \le \sup_{ \substack{ m \in \setN \\ m \ge M } } B_m + \epsilon\]
c'est-à-dire :
\[\sigma \le \lambda + \epsilon\]
Cette relation étant valable pour tout \(\epsilon \strictsuperieur 0\), on en déduit que :
\[\sigma \le \lambda\]
Comme on a également \(\lambda \le \sigma\), on en conclut que \(\lambda = \sigma\). La somme converge donc et :
\[\sum_{k = 0}^{+\infty} a_k = \limsup_{n \to \infty} S_n = \liminf_{n \to \infty} S_n\]
17.6. Progression géométrique infinie
Si le réel \(a\) vérifie \(\abs{a} \strictsuperieur 1\), on voit que \(a^{n + 1}\) converge vers \(0\) lorsque \(n\) tend vers l'infini. On a alors :
\[\sum_{i=0}^{+\infty} a^i = \lim_{n \to \infty} \frac{a^{n + 1} - 1}{a - 1} = \frac{1}{1 - a}\]