Eclats de vers : Matemat 05 : Nombres composés - 2
Table des matières
\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)
1. Matrices
- 1.1. Dépendances
- 1.2. Définition
- 1.3. Composantes
- 1.4. Blocs
- 1.5. Partitionnement en blocs
- 1.6. Formes lignes et colonnes
- 1.7. Transposée
- 1.8. Vecteurs lignes et colonnes
- 1.9. Carrées et rectangulaires
- 1.10. Matrices diagonales
- 1.11. Matrices triangulaires
- 1.12. Egalité
- 1.13. Ordre partiel
- 1.14. Addition et soustraction
- 1.15. Multiplication mixte
- 1.16. Conjuguée
\label{chap:matrices}
1.1. Dépendances
- Chapitre \ref{chap:reel} : Les réels
- Chapitre \ref{chap:complexe} : Les complexes
1.2. Définition
Les matrices sont des tableaux de réels, de complexes, ou de composantes d'une autre nature appartenant à un corps quelconque. Voici un exemple d'une matrice à \(m\) lignes et \(n\) colonnes :
\( A =
\begin{Matrix}{cccc} a_{11} & a_{12} & \ldots & a_{1n} \\ a_{21} & a_{22} & \ldots & a_{2n} \\ \vdots & & \ddots & \vdots \\ a_{m1} & a_{m2} & \ldots & a_{mn} \end{Matrix}\)
où les \(a_{ij}\) appartiennent à un corps \(\corps\). On a également des versions simplifiées de cette notation :
\[A = ( a_{ij} )_{i,j} = [ a_{ij} ]_{i,j}\]
Par convention, le numéro de ligne passe avant le numéro de colonne à l'extérieur de la parenthèse (ou du crochet).
On note \(\matrice(\corps,m,n)\) l'ensemble des matrices à \(m\) lignes et \(n\) colonnes. On dit d'une matrice \(A \in \matrice(\corps,m,n)\) qu'elle est de taille \((m,n)\).
1.3. Composantes
Soit \(A = (a_{ij})_{i,j}\). La fonction \(\composante_{ij}\) donne la composante située à la \(i^{ème}\) ligne et à la \(j^{ème}\) colonne :
\[a_{ij} = \composante_{ij} A\]
1.4. Blocs
Soit \(A = (a_{ij})_{i,j}\). La fonction \(\bloc_{ijkl}\) donne la sous-matrice située entre la \(i^{ème}\) et la \(j^{ème}\) ligne, ainsi qu'entre la \(k^{ième}\) et la \(l^{ième}\) colonne :
\( \blocijkl A =
\begin{Matrix}{cccc} a_{ik} & a_{i,k+1} & \ldots & a_{il} \\ a_{i+1,k} & a_{i+1,k+1} & \ldots & a_{i+1,l} \\ \vdots & & \ddots & \vdots \\ a_{jk} & a_{j,k+1} & \ldots & a_{jl} \end{Matrix}\)
On appelle bloc une telle sous-matrice.
1.5. Partitionnement en blocs
Il est parfois très utile de partitionner une matrice en blocs, ou de former une matrice plus grande à partir de matrices de tailles plus petites. On note alors :
\( A =
\begin{Matrix}{cc} B & C \\ D & E \end{Matrix}=
\begin{Matrix}{cccccc} b_{11} & \ldots & b_{1n} & c_{11} & \ldots & c_{1p} \\ \vdots & & \vdots & \vdots & & \vdots \\ b_{m1} & \ldots & b_{mn} & c_{m1} & \ldots & c_{mp} \\ d_{11} & \ldots & d_{1n} & e_{11} & \ldots & e_{1p} \\ \vdots & & \vdots & \vdots & & \vdots \\ d_{r1} & \ldots & d_{rn} & e_{r1} & \ldots & e_{rp} \end{Matrix}\)
où les \(b_{ij},c_{ij},d_{ij},e_{ij}\) sont respectivement les composantes des matrices \(B,C,D,E\). Ces matrices doivent évidemment être de tailles compatibles (nombres de lignes identiques pour \(B\) et \(C\), ainsi que pour \(D\) et \(E\) ; nombres de colonnes identiques pour \(B\) et \(D\), ainsi que pour \(C\) et \(E\)).
1.6. Formes lignes et colonnes
On peut exprimer une matrice \(A \in \matrice(\corps,m,n)\) sous la forme de lignes superposées. Soit :
\( A =
\begin{Matrix}{c} l_1 \\ l_2 \\ \vdots \\ l_m \end{Matrix}\)
où les \(l_i \in \matrice(\corps,1,n)\) sont les lignes de \(A\). On note :
\[\ligne_i A = l_i\]
On peut aussi l'exprimer sous la forme de colonnes juxtaposées. Soit :
\[A = [c_1 \ c_2 \hdots \ c_n]\]
où les \(c_i \in \matrice(\corps,m,1)\) sont les colonnes de \(A\). On note :
\[\colonne_i A = c_i\]
1.7. Transposée
Transposer une matrice \(A = (a_{ij})_{i,j} \in \matrice(\corps,m,n)\) consiste à agencer ses lignes en colonnes et vice-versa :
\( A^T = \begin{Matrix}{cccc} a_{11} & a_{21} & \ldots & a_{m1} \\ a_{12} & a_{22} & \ldots & a_{m2} \\ \vdots & & \ddots & \vdots \\ a_{1n} & a_{2n} & \ldots & a_{mn} \end{Matrix} = (a_{ji})_{i,j} \)
On voit que la transposée \(A^T \in \matrice(\corps,n,m)\).
On a clairement :
\[\big( A^T \big)^T = A\]
1.8. Vecteurs lignes et colonnes
Les vecteurs ligne sont des matrices ne possédant qu'une seule ligne. Ils sont donc de taille générique \((1,n)\). Les vecteurs colonne sont des matrices ne possédant qu'une seule colonne. Ils sont donc de taille générique \((m,1)\).
Les vecteurs {\em colonne} sont notés :
\[x = (x_i)_i\]
On a aussi :
\[x_i = \composante_i x\]
1.8.1. Equivalence avec \(\corps^n\)
A partir d'un $n$-tuple \((x_1,x_2,...,x_n) \in \corps^n\), on peut former un vecteur ligne \(x \in \matrice(\corps,1,n)\) par :
\[x = [x_1 \ x_2 \ \hdots \ x_n]\]
et un vecteur colonne \(x' \in \matrice(\corps,n,1)\) par :
\( x' =
\begin{Matrix}{c} x_1 \\ x_2 \\ \vdots \\ x_n \end{Matrix}= [x1 \ x2 \ \hdots \ xn]T \)
On a donc \(\matrice(\corps,1,n),\matrice(\corps,n,1) \equiv \corps^n\).
1.8.2. Notation
Sauf mention contraire, nous convenons dans la suite que tout vecteur \(u \in \corps^n\) sera associé à un vecteur {\em colonne} de même nom \(u \in \matrice(\corps,n,1)\). Si nous voulons utiliser un vecteur {\em ligne}, nous le noterons alors \(u^T\) (ou \(u^\dual\) pour des raisons qui apparaîtront plus loin).
1.9. Carrées et rectangulaires
Les matrices \(A \in \matrice(\corps,n,n)\) ayant même nombre de colonnes et de lignes sont dites « carrées ». Les matrices \(A \in \matrice(\corps,m,n)\) avec \(m \ne n\) sont dites « rectangulaires ». Lorsque \(m \strictinferieur n\), on dit que la matrice est « longue ». Si \(m \strictsuperieur n\), on dit que la matrice est « haute ».
1.10. Matrices diagonales
Une matrice diagonale contient des composantes nulles partout, à l'exception de la diagonale où aucune contrainte n'est fixée. On peut représenter une matrice diagonale \(D \in \matrice(\corps,m,n)\) par :
\[D = ( d_i \cdot \indicatrice_{ij} )_{i,j}\]
On peut aussi former une matrice diagonale de taille \((m,n)\) à partir d'un vecteur \(d = (d_i)_i\) de taille \((p,1)\), où \(p \le \min \{ m , n \}\). On le note :
\[D = \diagonale_{m,n}(d) = \diagonale_{m,n}(d_1,...,d_p)\]
où :
\( \composanteij \diagonalem,n(d1,…,dp) =
\begin{cases} d_i & \text{ si } i = j \in \{1,2,...,p\} \\ 0 & \text{ sinon} \end{cases}\)
1.10.1. Carrée
Dans le cas particulier où \(m = n\), on note aussi :
\[\diagonale_n(d) = \diagonale_{n,n}(d)\]
1.11. Matrices triangulaires
Les composantes des matrices triangulaires supérieures ne peuvent être non nulles qu'au-dessus de la diagonale, c'est-à-dire lorsque \(i \le j\). Elles peuvent se représenter par :
\[T = (t_{ij} \cdot \tau^+_{ij})_{i,j}\]
où :
\( τ^+ij =
\begin{cases} 1 & \mbox{ si } i \le j \\ 0 & \mbox{ si } i \strictsuperieur j \end{cases}\)
Les composantes des matrices triangulaires inférieures ne peuvent être non nulles qu'au-dessous de la diagonale, c'est-à-dire lorsque \(i \ge j\). Elles peuvent se représenter par :
\[T = (t_{ij} \cdot \tau^-_{ij})_{i,j}\]
où :
\( τ^-ij =
\begin{cases} 1 & \mbox{ si } i \ge j \\ 0 & \mbox{ si } i \strictinferieur j \end{cases}\)
1.12. Egalité
Il est clair que deux matrices \(A,B \in \matrice(\corps,m,n)\) :
\( A = ( a_{ij} )_{i,j} \\ B = ( b_{ij} )_{i,j} \)
sont égales (\(A = B\)) si tous leurs éléments le sont :
\[a_{ij} = b_{ij}\]
pour tout \((i,j) \in \{ 1,2,...,m \} \times \{ 1,2,...,n \}\).
1.13. Ordre partiel
Soit les matrices \(A,B \in \matrice(\corps,m,n)\) :
\( A = ( a_{ij} )_{i,j} \\ B = ( b_{ij} )_{i,j} \)
On dit que \(A\) est inférieure à \(B\), et on le note \(A \le B\), si :
\[a_{ij} \le b_{ij}\]
pour tout \((i,j) \in \{ 1,2,...,m \} \times \{ 1,2,...,n \}\).
1.14. Addition et soustraction
Soit les matrices de tailles identiques \(A, B \in \matrice(\corps,m,n)\) :
\( A = (a_{ij})_{i,j} \\ B = (b_{ij})_{i,j} \)
L'addition et la soustraction des matrices sont simplement définies par l'addition et la soustraction des composantes :
\( A + B = (a_{ij} + b_{ij})_{i,j} \\ A - B = (a_{ij} - b_{ij})_{i,j} \)
On a donc clairement :
\[A + B = B + A\]
1.14.1. Neutre
La matrice nulle \(0\) est le neutre pour cette opération :
\[A + 0 = A\]
On en déduit que tous ses éléments doivent être nuls :
\[0 = ( 0 )_{i,j}\]
On note \(0_{m,n}\) au lieu de \(0\) lorsqu'on veut préciser que \(0\) est de taille \((m,n)\).
1.14.2. Opposé
L'opposé de \(A\), noté \(-A\), est tel que :
\[A + (-A) = 0\]
On a donc clairement :
\[-A = (-a_{ij})_{i,j}\]
1.15. Multiplication mixte
On définit la multiplication mixte \(\cdot : \corps \times \matrice(\corps,m,n) \to \matrice(\corps,m,n)\) par :
\[\beta \cdot A = (\beta \cdot a_{ij})_{i,j}\]
où \(\beta \in \corps\) et \(A \in \matrice(\corps,m,n)\).
Choissons également \(\gamma \in \corps\). On note comme d'habitude :
\( A \cdot \beta = \beta \cdot A \\ \gamma \cdot \beta \cdot A = (\gamma \cdot \beta) \cdot A \\ \beta A = \beta \cdot A \)
1.16. Conjuguée
La conjuguée d'une matrice \(A = (a_{ij})_{i,j} \in \matrice(\setC,m,n)\) est définie par la conjuguée des composantes :
\[\conjugue A = \bar{A} = ( \bar{a}_{ij} )_{i,j} = ( \conjugue a_{ij} )_{i,j}\]
2. Progressions matricielles
\label{chap:progressionsMatricielles}
2.1. Géométrique
Soit une matrice carréé \(A \in \matrice(\corps, n, n)\).
\[G_N = \sum_{k = 0}^N A^k = I + A + A^2 + ... + A^N\]
2.1.1. Forme gauche
\[G_N = I + A \cdot (I + A + ... + A^N) - A^{N + 1}\]
\[G_N = I + A \cdot G_N - A^{N + 1}\]
\[(I - A) \cdot G_N = I - A^{N + 1}\]
\[(I - A) \cdot \sum_{k = 0}^N A^k = I - A^{N + 1}\]
2.1.2. Forme droite
\[G_N = I + (I + A + ... + A^N) \cdot A - A^{N + 1}\]
\[G_N = I + G_N \cdot A - A^{N + 1}\]
\[G_N \cdot (I - A) = I - A^{N + 1}\]
\[\sum_{k = 0}^N A^k \cdot (I - A) = I - A^{N + 1}\]
2.1.3. Inversible
\[\sum_{k = 0}^N A^k = (I - A)^{-1} \cdot (I - A^{N + 1})\]
\[\sum_{k = 0}^N A^k = (I - A^{N + 1}) \cdot (I - A)^{-1}\]
3. Polynômes
\label{chap:polynomes}
3.1. Dépendances
- Chapitre \ref{chap:reel} : Les réels
- Chapitre \ref{chap:complexe} : Les complexes
- Chapitre \ref{chap:somme} : Les sommes
- Chapitre \ref{chap:produit} : Les produits
3.2. Définition
Soit un corps \(\corps\). On dit qu'une fonction \(p : \corps \mapsto \corps\) est un polynôme de degré \(n\) si on peut trouver des éléments \(a_0,a_1,...a_n \in \corps\) tels que :
\[p(x) = \sum_{i = 0}^n a_i \cdot x^i\]
pour tout \(x \in \corps\). On note \(\polynome(\corps,n)\) l'espace des polynômes de degré \(n\) définis sur \(\corps\).
Un cas particulier important est celui des polynômes réels :
\[\mathcal{P}_n = \polynome(\setR,n)\]
3.3. Monôme
Un monôme \(\mu_i : \corps \mapsto \corps\) est une fonction de la forme :
\[\mu_i(x) = x^i\]
pour tout \(x \in \corps\).
3.4. Racines
On dit que \(r\) est une racine du polynôme \(p\) si :
\[p(r) = 0\]
Nous allons montrer que tout polynôme de degré \(n\) non nul admet au plus \(n\) racines distinctes.
Ce qui revient à dire que si un polynôme de degré \(n\) admet \(m+1\) racines distinctes avec \(m \ge n\), alors ce polynôme est forcément nul.
Soit \(n = 0\). Considérons un polynôme \(p_0\) défini par \(p_0(x) = a_0\) pour un certain \(a_0 \in \corps\). Comme \(n + 1 = 1\), on peut trouver au moins un \(x \in \corps\) tel que \(p_0(x_0) = a_0 = 0\). On en conclut que \(a_0 = 0\) et que \(p_0(x) = 0\) pour tout \(x \in \corps\), ce qui revient à dire que \(p_0 = 0\). La thèse est donc vérifiée pour \(n = 0\).
A présent, supposons que l'affirmation soit vraie pour \(n - 1\). Choisissons un polynôme \(p_n\) de degré \(n\) :
\[p_n(x) = \sum_{i=0}^n a_i \cdot x^i\]
Supposons que \(p\) possède \(m+1\) racines
\[p_n(x_0) = p_n(x_1) = ... = p_n(x_m) = 0\]
avec \(m \ge n\) et :
\[x_0 \strictinferieur x_1 \strictinferieur ... \strictinferieur x_m\]
On a alors :
\[p_n(x) = p_n(x) - p_n(x_0) = \sum_{i=1}^n a_i \cdot (x^i - x_0^i)\]
Mais les propriétés de factorisation des progressions géométriques (voir la section \ref{sec:factorisation_progression_geometrique}) nous permettent d'affirmer que :
\[x^i - x_0^i = (x - x_0) \sum_{j = 0}^{i - 1} x^j \cdot x_0^{i - 1 -j}\]
on en déduit que :
\[p_n(x) = (x - x_0) \cdot q_{n-1}(x)\]
où le polynôme \(q_{n - 1}\) est défini par :
\[q_{n - 1}(x) = \sum_{i = 1}^n a_i \sum_{j = 0}^{i - 1} x^j \cdot x_0^{i - 1 - j}\]
Cette expression ne faisant intervenir que les puissances \(1,x,...,x^{n-1}\), on voit que \(q_{n-1} \in \mathcal{P}_n\) est de degré \(n-1\). Considérons les cas des racines \(x = x_1, x_2, ...,x_m\) de \(p_n\). On a :
\[0 = p_n(x_k) = (x_k - x_0) \cdot q_{n-1}(x_k)\]
Comme \(x_k - x_0 \ne 0\), on peut multiplier par \((x_k - x_0)^{-1}\) pour obtenir :
\[q_{n-1}(x_k) = \frac{p_{n-1}(x_k)}{x_k - x_0} = 0\]
Le polynôme \(q_{n-1}\) possède par conséquent au moins \(m-1 \ge n-1\) racines distinctes. Il est dès lors nul par l'hypothèse de récurrence. La factorisation de \(p_n\) devient alors :
\[p_n(x) = (x - x_0) \cdot q_{n-1}(x) = 0\]
pour tout \(x \in \corps\). Le polynôme \(p_n\) est également nul et la thèse est démontrée.
3.4.1. Egalité
Si deux polynômes \(p_1,p_2 \in \mathcal{P}_n\) sont égaux en \(m + 1 \ge n + 1\) points distincts, alors le polynôme de degré \(n\) :
\[h = p_1 - p_2\]
admet \(m+1\) racines. Il est donc nul et \(p_1 = p_2\).
3.5. Factorisation
Choisissons un polynôme \(p\in\mathcal{P}_n\) qui admet \(n\) racines distinctes \(x_1,x_2,...,x_n\). Soit alors \(x_0 \notin \{x_1,...,x_n\}\) et :
\[A = \frac{p(x_0)}{\prod_{i = 1}^n (x_0 - x_i)}\]
On voit que le polynôme :
\[q(x) = A \cdot \prod_{i=1}^n (x - x_i)\]
est égal à \(p\) en chacune des racines :
\[p(x_i) = q(x_i) = 0 \qquad i = 1,2,...,n\]
Mais par la définition de \(A\), on a aussi :
\[p(x_0) = q(x_0)\]
Les deux polynômes sont donc égaux en \(n+1\) points distincts. Comme ils sont tous deux de degré \(n\), on en déduit que \(p = q\). Les coefficients doivent donc tous être égaux, et comme :
\( p(x) = a_n \cdot x^n + \sum_{i = 0}^{n - 1} a_i \cdot x^i \\ q(x) = A \cdot x^n + \sum_{i = 0}^{n - 1} b_i(x_1,...,x_n) \cdot x^i \)
on a \(A = a_n\) et :
\[p(x) = a_n \cdot \prod_{i=1}^n (x - x_i)\]
3.6. Binômes canoniques
Le binôme canonique de degré \(n \in \setN\) est une fonction \(b_n : \corps \to \corps\) définie par :
\[b_n(x) = (1 + x)^n\]
pour tout \(x \in \corps\). On a par exemple :
\begin{align} b_0(x) &= (1 + x)^0 = 1 \\ b_1(x) &= (1 + x)^1 = 1 + x \\ b_2(x) &= (1 + x)^2 = (1 + x) \cdot (1 + x) = 1 + 2 \ x + x^2 \end{align}On voit donc que le binôme canonique de degré \(n\) peut s'écrire comme :
\[b_n(x) = (1 + x)^n = \sum_{k = 0}^n a_{nk} \cdot x^k\]
pour certains coefficients \(a_{nk} \in \corps\). On nomme ces coefficients les « nombres binômiaux », et on les note :
\[\binome{n}{k} = a_{nk}\]
L'expression de \(b_0\) nous donne :
\[\binome{0}{0} = 1\]
On peut évaluer récursivement les nombres binômiaux d'ordres plus élevés en utilisant la définition de la puissance :
\[b_n(x) = (1 + x) \cdot b_{n-1}(x)\]
Il vient alors :
\begin{align} \sum_{k = 0}^n \binome{n}{k} \cdot x^k &= (1 + x) \sum_{k = 0}^{n - 1} \binome{n - 1}{k} \cdot x^k \\ &= \sum_{k = 0}^{n - 1} \binome{n - 1}{k} \cdot x^k + \sum_{k = 0}^{n - 1} \binome{n - 1}{k} \cdot x^{k + 1} \\ &= \sum_{k = 0}^{n - 1} \binome{n - 1}{k} \cdot x^k + \sum_{i = 1}^n \binome{n - 1}{i - 1} \cdot x^i \\ \end{align}et finalement :
#+BEGINCENTER
\(
∑k = 0n \binome{n}{k} ⋅ xk = \binome{n - 1}{0} + ∑k = 1n - 1 \left[ \binome{n - 1}{k} + \binome{n - 1}{k - 1} \right] ⋅ xk
\qquad \qquad \qquad + \binome{n - 1}{n - 1} ⋅ xn
\end{Eqts*}
En égalisant les coefficients des \(x^0 = 1\), nous avons :
\[\binome{n}{0} = \binome{n - 1}{0}\]
On en déduit par récurrence que :
\[\binome{n}{0} = 1\]
En égalisant les coefficients des \(x^n\), nous avons :
\[\binome{n}{n} = \binome{n - 1}{n - 1}\]
On en déduit par récurrence que :
\[\binome{n}{n} = 1\]
En égalisant les coefficients de \(x^k\) pour \(k \in \{1,...,n-1\}\), il vient :
\[\binome{n}{k} = \binome{n - 1}{k} + \binome{n - 1}{k - 1}\]
Il est donc facile d'évaluer les coefficients de \(b_n\) à partir des coefficients de \(b_{n - 1}\).
3.7. Binômes génériques
Le binôme générique de degré \(n \in \setN\) est une fonction \(B_n : \corps \times \corps \mapsto \corps\) définie par :
\[B_n(x,y) = (x + y)^n\]
pour tout \((x,y) \in \corps^2\). Nous avons la forme équivalente :
\[B_n(x,y) = y^n \cdot \left( 1 + \frac{x}{y} \right)^n = y^n \cdot b_n\left( \frac{x}{y} \right)\]
c'est-à-dire :
\[B_n(x,y) = \sum_{k = 0}^n \binome{n}{k} \cdot x^k \cdot y^{n - k}\]
3.8. Second degré
Le binôme du second degré est couramment utilisé :
\[(x + y)^2 = x \ (x + y) + y \ (x + y) = x^2 + 2 \ x \ y + y^2\]
3.9. Symétrie
Par commutativité de l'addition, on a \(B_n(x,y) = B_n(y,x)\) et :
\[\sum_{k = 0}^n \binome{n}{k} \cdot x^k \cdot y^{n - k} = \sum_{i = 0}^n \binome{n}{i} \cdot y^i \cdot x^{n - i}\]
Procédant au changement d'indice \(n - i = k\), il vient :
\[\sum_{k = 0}^n \binome{n}{k} \cdot x^k \cdot y^{n - k} = \sum_{k = 0}^n \binome{n}{n - k} \cdot x^k \cdot y^{n - k}\]
On en déduit en égalisant les coefficients de \(x^k\) que :
\[\binome{n}{k} = \binome{n}{n - k}\]
3.10. Cas particuliers
En considérant le cas particuliers \(x = y = 1\), on constate que :
\[\sum_{k=0}^{n} \binome{n}{k} = (1 + 1)^n = 2^n\]
Pour \(x = -1\), \(y = 1\), on a :
\[\sum_{k=0}^{n} \binome{n}{k} \cdot (-1)^k = (-1 + 1)^n = 0^n = 0\]
Lorsque \(y = 1 - x\) on arrive à :
\[\sum_{k=0}^{n} \binome{n}{k} \cdot x^k \cdot (1-x)^{n-k} = (x + 1 - x)^n = 1^n = 1\]
3.11. Bernstein
Soit \(i,n \in \setN\) avec \(i \le n\). Les polynômes de Bernstein \(B_i^n\) sont définis par :
\[B_i^n(t) = \binome{n}{i} \cdot t^i \cdot (1 - t)^{n-i}\]
pour tout \(t \in [0,1]\).
Considérons l'espace fonctionnel \(\mathcal{F} = \fonction([0,1],\corps)\). L'opérateur de Bernstein \(\mathcal{B}_n : \mathcal{F} \mapsto \mathcal{F}\) est défini par :
\[\mathcal{B}_n(f)(t) = \sum_{i = 0}^n f(i / n) \cdot B_i^n(t)\]
pour tout \(f \in \mathcal{F}\) et pour tout \(t \in [0,1]\).
Soit la fonction constante \(c \in \mathcal{F}\) associée à un certain \(c \in \corps\) et définie par :
\[c(t) = c\]
pour tout \(t \in [0,1]\).
L'opérateur de Bernstein possède l'importante propriété de conserver ces fonctions constantes :
\[\mathcal{B}_n(c)(t) = \sum_{i = 0}^n c \cdot B_i^n(t) = c \sum_{i = 0}^n \binome{n}{i} t^i \cdot (1 - t)^{n-i} = c\]
quelle que soit la valeur de \(t \in [0,1]\).
3.12. Division Euclidienne
Soit deux polynomes \(a \in \mathcal{P}_n\) et \(b \in \mathcal{P}_m\) avec \(m \le n\) et :
\( a(x) = \sum_{i = 0}^n a_i \cdot x^i \\ b(x) = \sum_{i = 0}^m b_i \cdot x^i \)
On dit que \(q\) et \(r\) sont respectivement le quotient et le reste de la division euclidienne de \(a\) et \(b\), et on note :
\[(q,r) = \division(a,b)\]
si :
\( a(x) = b(x) \cdot q(x) + r(x) \\ q(x) = \sum_{i=0}^{n-m} q_i x^i \\ r(x) = \sum_{i=0}^{p} r_i x^i \)
avec \(p \strictinferieur m \le n\).