Eclats de vers : Matemat 06 : Vecteurs - 4
Table des matières
\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)
1. Produit scalaire
- 1.1. Dépendances
- 1.2. Introduction
- 1.3. Produit scalaire réel
- 1.4. Produit scalaire complexe
- 1.5. Espace orthogonal
- 1.6. Egalité
- 1.7. Base orthonormée
- 1.8. Produit scalaire et coordonnées
- 1.9. Application définie positive
- 1.10. Produit scalaire sur \(\setR^n\)
- 1.11. Produit scalaire sur \(\setC^n\)
- 1.12. Base orthonormée sur \(\corps^n\)
- 1.13. Représentation matricielle
- 1.14. Application linéaire
- 1.15. Matrice de produit scalaire
- 1.16. Bases de vecteurs matriciels
- 1.17. Noyau
\label{chap:ps}
1.1. Dépendances
- Chapitre \ref{chap:vecteur} : Les espaces vectoriels
- Chapitre \ref{chap:norme} : Les normes
1.2. Introduction
Soit \(E\) un espace vectoriel sur \(\corps\) et une famille de fonctions linéaires \(\phi_u \in E^\dual\) où \(u \in E\) est un paramètre vectoriel. Nous pouvons écrire :
\[\phi_u(v) = \forme{\phi_u}{v}\]
pour tout \(u,v \in E\). Cette expression introduit implicitement le produit dérivé \(\scalaire{}{} : E \times E \mapsto \corps\) défini par :
\[\scalaire{u}{v} = \forme{\phi_u}{v}\]
pour tout \(u,v \in E\). Ce produit hérite bien entendu la linéarité à droite de la forme associée :
\[\scalaire{u}{\alpha \cdot v + \beta \cdot w} = \alpha \cdot \scalaire{u}{v} + \beta \cdot \scalaire{u}{w}\]
pour tout \(u,v,w \in E\) et pour tout \(\alpha,\beta \in \corps\).
Les produits scalaires sont des cas particuliers de ce type de produit.
1.2.1. Notation
On note aussi \(u \cdot v = \scalaire{u}{v}\).
1.3. Produit scalaire réel
Considérons le cas particulier où \(\corps = \setR\). et un produit linéaire à droite \(\scalaire{}{} : E \times E \mapsto \setR\). Nous voudrions en plus que la valeur de \(\scalaire{u}{u}\) en chaque \(u \in E\) puisse représenter la norme de \(u\). Nous imposons donc la positivité :
\[\scalaire{u}{u} \ge 0\]
Pour compléter le caractère strictement défini positif, on impose également que le seul élément \(u \in E\) vérifiant :
\[\scalaire{u}{u} = 0\]
soit le vecteur nul \(u = 0\). Ce qui revient à dire que :
\[\scalaire{u}{u} > 0\]
pour tout \(u \in E \setminus \{ 0 \}\).
Si on peut également interchanger n'importe quels \(u,v \in E\) sans changer le résultat :
\[\scalaire{u}{v} = \scalaire{v}{u}\]
on dit que \(\scalaire{}{}\) est un produit scalaire réel sur \(E\).
Nous déduisons directement de la linéarité à droite et de la symétrie que :
\[\scalaire{\alpha \cdot u + \beta \cdot v}{w} = \alpha \cdot \scalaire{u}{w} + \beta \cdot \scalaire{v}{w}\]
pour tout \(\alpha,\beta \in \setR\) et \(u,v,w \in E\). Le produit scalaire réel est bilinéaire.
1.4. Produit scalaire complexe
Examinons à présent le cas \(\corps = \setC\). On demande qu'un produit scalaire \(\scalaire{}{} : E \times E \mapsto \setC\) soit strictement défini positif. Pour cela, les valeurs de \(\scalaire{u}{u}\) doivent être réelles et positives :
\( \scalaire{u}{u} \in \setR \\ \scalaire{u}{u} \ge 0 \)
pour tout \(u \in E\). Ensuite, il faut également que le seul élément \(u \in E\) vérifiant :
\[\scalaire{u}{u} = 0\]
soit le vecteur nul \(u = 0\).
Le caractère réel de \(\scalaire{u}{u}\) implique que :
\[\scalaire{u}{u} = \conjaccent{\scalaire{u}{u}}\]
où la barre supérieure désigne comme d'habitude le complexe conjugué. Cette constatation nous mène à une variante de la symétrie. On impose :
\[\scalaire{u}{v} = \conjaccent{\scalaire{v}{u}}\]
pour tout \(u,v \in E\). On dit que le produit scalaire complexe est hermitien.
La linéarité à droite s'exprime simplement par :
\[\scalaire{u}{\alpha \cdot v + \beta \cdot w} = \alpha \cdot \scalaire{u}{v} + \beta \cdot \scalaire{u}{w}\]
pour tout \(u,v,w \in E\) et pour tout \(\alpha,\beta \in \setC\). On déduit de la linéarité et du caractère hermitien du produit scalaire complexe que :
\begin{align} \scalaire{\alpha \cdot u + \beta \cdot v}{w} &= \conjaccent{\scalaire{w}{\alpha \cdot u + \beta \cdot v}} \\ &= \conjaccent{\alpha} \cdot \conjaccent{\scalaire{w}{u}} + \conjaccent{\beta} \cdot \conjaccent{\scalaire{w}{v}} \end{align}et finalement :
\[\scalaire{\alpha \cdot u + \beta \cdot v}{w} = \conjaccent{\alpha} \cdot \scalaire{u}{w} + \conjaccent{\beta} \cdot \scalaire{v}{w}\]
On dit que le produit scalaire est antilinéaire à gauche.
1.4.1. Corollaire
En particulier, si \(u,v,w,x\) sont des vecteurs de \(E\) et si \(\alpha = \scalaire{u}{v} \in \setC\), on a :
\( \scalaire{w}{\alpha \cdot x} = \scalaire{w}{ \scalaire{u}{v} \cdot x} = \scalaire{u}{v} \cdot \scalaire{w}{x} \\ \scalaire{\alpha \cdot w}{x} = \scalaire{ \scalaire{u}{v} \cdot w}{x} = \scalaire{v}{u} \cdot \scalaire{w}{x} \)
1.4.2. Cas particulier
Comme \(\conjaccent{x} = x\) pour tout \(x \in \setR \subseteq \setC\), on peut considérer le produit scalaire réel comme un cas particulier de produit scalaire complexe.
1.5. Espace orthogonal
1.5.1. A un vecteur
Soit \(x \in H\). On définit l'ensemble \(x^\orthogonal\) par :
\[x^\orthogonal = \{ z \in E : \scalaire{x}{z} = 0 \}\]
On dit des vecteurs de \(x^\orthogonal\) qu'ils sont orthogonaux à \(x\).
1.5.2. A un ensemble
Pour tout sous-ensemble \(V \subseteq E\), l'ensemble orthogonal à \(V\) est l'ensemble des vecteurs qui sont orthogonaux à tous les éléments de \(V\) :
\[V^\orthogonal = \bigcap_{x \in V} x^\orthogonal\]
Pour tout \(z \in V^\orthogonal\), on a donc \(\scalaire{x}{z} = 0\) quel que soit \(x \in V\).
Nous allons vérifier que \(V^\orthogonal\) est un sous-espace vectoriel. Soit \(z \in V\). Comme \(\scalaire{z}{0} = 0\), on a \(0 \in V^\orthogonal\). Soit \(x,y \in V^\orthogonal\), \(\alpha,\beta \in \corps\). On a :
\[\scalaire{z}{\alpha \cdot x + \beta \cdot y} = \alpha \cdot \scalaire{z}{x} + \beta \cdot \scalaire{z}{y} = 0 + 0 = 0\]
ce qui montre que \(\alpha \cdot x + \beta \cdot y \in V^\orthogonal\).
1.6. Egalité
Si \(u,v \in E\) sont tels que :
\[\scalaire{u}{w} = \scalaire{v}{w}\]
pour tout \(w \in E\), on a :
\[\scalaire{u - v}{w} = 0\]
Le choix \(w = u - v \in E\) nous donne alors :
\[\scalaire{u - v}{u - v} = 0\]
ce qui implique \(u - v = 0\) et donc \(u = v\).
1.7. Base orthonormée
Une base \((e_1,...,e_n)\) de \(E\) est dite orthonormée si le produit scalaire de deux vecteurs \(e_i \ne e_j\) s'annule, tandis que le produit scalaire d'un \(e_i\) avec lui-même donne l'unité :
\[\scalaire{e_i}{e_j} = \indicatrice_{ij}\]
1.7.1. Coordonnées
Soit \(u \in E\) de coordonnée \(u_i \in \corps\) :
\[u = \sum_{i = 1}^n u_i \cdot e_i\]
En effectuant le produit scalaire de \(u\) avec \(e_k\), on arrive à :
\( \scalaire{e_k}{u} = \sum_{i = 1}^n u_i \cdot \scalaire{e_k}{e_i} \\ \scalaire{e_k}{u} = \sum_{i = 1}^n u_i \cdot \indicatrice_{ik} \)
Tous les termes de cette dernière somme s'annulent sauf lorsque \(i = k\), et on a :
\[\scalaire{e_k}{u} = u_k\]
On peut donc écrire :
\[y = \sum_{i = 1}^n \scalaire{e_i}{u} \cdot e_i\]
1.7.2. Indépendance linéaire
On peut voir que si une suite de vecteurs \(e_i\) est orthonormée, (ils ne forment pas forcément une base) ils sont toujours linéairement indépendant. En effet si les scalaires \(a_i\), sont tels que :
\[\sum_{i=1}^n a_i \cdot e_i = 0\]
on a alors :
\[a_i = \scalaire{e_i}{0} = 0\]
1.8. Produit scalaire et coordonnées
Soit \((e_1,...,e_n)\) une base de \(E\) et \(u,v \in E\). On a :
\( u = \sum_i u_i \cdot e_i \\ v = \sum_i v_i \cdot e_i \)
pour certains \(u_i,v_i \in \corps\). Posons :
\[g_{ij} = \scalaire{e_i}{e_j}\]
où \(\scalaire{}{} : E \times E \mapsto \setC\) est un produit scalaire complexe. Nous pouvons faire sortir les sommes en utilisant les propriétés du produit scalaire, ce qui nous donne :
\[\scalaire{u}{v} = \sum_{i,j} \conjaccent{u}_i \cdot g_{ij} \cdot v_j\]
1.8.1. Réel
Dans les cas d'un produit scalaire réel, on a \(\conjaccent{u}_i = u_i\) et l'expression devient :
\[\scalaire{u}{v} = \sum_{i,j} u_i \cdot g_{ij} \cdot v_j\]
1.8.2. Base orthonormée
Si la base \((e_1,...,e_n)\) est orthonormée, l'expression du produit scalaire se simplifie en :
\[\scalaire{u}{v} = \sum_i \conjaccent{u}_i \cdot v_i\]
1.9. Application définie positive
Soit une application linéaire \(A : E \mapsto E\). Si le produit scalaire de \(u\) avec \(A(u)\) est un réel positif :
\[\scalaire{u}{A(u)} = \scalaire{A(u)}{u} \ge 0\]
pour tout \(u \in E\), on dit que \(A\) est définie positive.
1.10. Produit scalaire sur \(\setR^n\)
Soit \(x,y \in \setR^n\) tels que :
\( x = (x_1,x_2,...,x_n) \\ y = (y_1,y_2,...,y_n) \)
pour certains \(x_i,y_i \in \setR\).
Le produit scalaire usuel sur \(\setR^n\) est défini par :
\[\scalaire{x}{y} = \sum_{i = 1}^n x_i y_i\]
1.11. Produit scalaire sur \(\setC^n\)
Soit \(x,y \in \setC^n\) tels que :
\( x = (x_1,x_2,...,x_n) \\ y = (y_1,y_2,...,y_n) \)
pour certains \(x_i,y_i \in \setC\).
Le produit scalaire usuel est défini par :
\[\scalaire{x}{y} = \sum_{i=1}^n \conjaccent{x}_i y_i\]
1.12. Base orthonormée sur \(\corps^n\)
Soit \(\corps \in \{ \setR , \setC \}\). Il est clair que la base canonique de \(\corps^n\) :
\[e_i = ( \indicatrice_{ij} )_{i,j}\]
vérifie :
\[\scalaire{e_i}{e_j} = \indicatrice_{ij}\]
pour le produit scalaire usuel sur \(\corps^n\). La suite \((e_1,...,e_n)\) forme une base orthonormée.
1.13. Représentation matricielle
Soit \(x = (x_1,..,x_n) , y = (y_1,...,y_n) \in \setC^n\). On définit les vecteurs colonne associé :
\( x =
\begin{Matrix}{c} x_1 \\ x_2 \\ \vdots \\ x_n \end{Matrix}\qquad \qquad y =
\begin{Matrix}{c} y_1 \\ y_2 \\ \vdots \\ y_n \end{Matrix}\)
L'équivalence entre \(\setC^n\) et \(\matrice(\setC,n,1)\) nous amène à :
\[\scalaire{x}{y} = \sum_i \conjaccent{x}_i \cdot y_i\]
Le membre de droite n'est rien d'autre que le produit « matriciel » \(\conjaccent{x^T} \cdot y\) et on a donc :
\[\scalaire{x}{y} = \conjaccent{x^T} \cdot y\]
On vérifie que la base \((e_1,...,e_n)\) est orthonormée pour ce produit scalaire :
\[e_i^T \cdot e_j = \indicatrice_{ij}\]
1.14. Application linéaire
Soit les espaces vectoriels \(E,F\) sur \(\corps\) et une application linéaire \(\mathcal{A} : E \mapsto F\). On prend une base \((e_1,..,e_n)\) de \(E\) et une base orthonormée \((f_1,...,f_m)\) de \(F\). Comme les composantes de la matrice associée \(A\) sont les coordonnées de \(\mathcal{A}(e_j)\) dans la base des \(f_i\), on a :
\[\composante_{ij} A = \scalaire{f_i}{\mathcal{A}(e_j)}\]
1.15. Matrice de produit scalaire
Soit un espace vectoriel \(E\) sur \(\corps\) et un produit scalaire \(\scalaire{}{}\) quelconque défini sur \(E\). Soit \((e_1,...,e_n)\) une base quelconque de \(E\) (nous ne supposons pas qu'elle soit orthonormée). Si \(\hat{x},\hat{y} \in E\), on a :
\( \hat{x} = \sum_i x_i \cdot e_i \\ \hat{y} = \sum_i y_i \cdot e_i \)
pour certains \(x_i,y_i \in S\). Or, nous avons vu que :
\[\scalaire{\hat{x}}{\hat{y}} = \sum_{i,j} \conjaccent{x}_i \scalaire{e_i}{e_j} y_j\]
Si nous définissons la matrice des produits scalaires \(A \in \matrice(\corps,m,n)\) par :
\[\composante_{ij} A = \scalaire{e_i}{e_j}\]
nous pouvons réécrire le produit scalaire sous la forme :
\[\scalaire{\hat{x}}{\hat{y}} = \conjaccent{x^T} \cdot A \cdot y\]
où \(x,y\) sont les vecteurs colonne associés à \(\hat{x},\hat{y}\) :
\( x = [x_1 \ x_2 \ ... \ x_n]^T \\ y = [y_1 \ y_2 \ ... \ y_n]^T \)
Cette matrice possède d'importantes propriétés issues du produit scalaire. On a \(\conjaccent{x^T} \cdot A \cdot x > 0\) pour tout \(x \ne 0\). On dit que \(A\) est une matrice définie positive. Le caractère hermitien du produit scalaire nous donne aussi \(\conjaccent{A^T} = A\). On dit que \(A\) est une matrice hermitienne, ou auto-adjointe.
1.15.1. Réciproque
Si \(A\) est une matrice carrée définie positive et hermitienne, l'application définie par :
\[\scalaire{x}{y} = \conjaccent{x^T} \cdot A \cdot y\]
est bien un produit scalaire. En effet, la définie positivité de la matrice est équivalente à celle du produit ainsi défini. Pour le caractére hermitien, on a :
\begin{align} \scalaire{x}{y} &= \sum_{i,j} \conjaccent{x}_i \cdot A_{ij} \cdot y_j = \sum_{i,j} \conjaccent{x}_i \cdot \conjaccent{A}_{ji} \cdot y_j \\ &= \sum_{i,j} y_j \cdot \conjaccent{A}_{ji} \cdot \conjaccent{x}_i = \conjugue \sum_{i,j} \conjaccent{y}_j \cdot A_{ji} \cdot x_i \\ &= \conjugue \scalaire{y}{x} \end{align}1.16. Bases de vecteurs matriciels
Un cas particulier important survient lorsque les vecteurs sont des vecteurs matriciels. Soit une suite de vecteurs linéairement indépendants \(u_1,u_2,...,u_m \in \matrice(\corps,n,1)\). Soit des \(x_i,y_i \in \corps\) et les vecteurs :
\( X = \sum_{i = 1}^m x_i \cdot u_i \\ Y = \sum_{i = 1}^m y_i \cdot u_i \)
Si nous considérons les vecteurs \(x,y \in \matrice(\corps,m,1)\) associés :
\( x = [x_1 \ x_2 \ ... \ x_m]^T \\ y = [y_1 \ y_2 \ ... \ y_m]^T \)
ainsi que la matrice \(U \in \matrice(\corps,n,m)\) rassemblant les \(u_i\) :
\[U = [u_1 \ u_2 \ ... \ u_m]\]
on peut réécrire la définition de \(x,y\) sous la forme :
\( X = U \cdot x \\ Y = U \cdot y \)
On a alors :
\[\scalaire{X}{Y} = \conjaccent{X^T} \cdot Y = \conjaccent{x^T} \cdot \conjaccent{U^T} \cdot U \cdot y\]
On en conclut que la matrice \(A = \conjaccent{U^T} \cdot U \in \matrice(\corps,m,m)\) est une matrice de produit scalaire
1.16.1. Réciproque
Soit \(U \in \matrice(\corps,n,m)\) telle que \(\noyau U = \{0\}\). La matrice \(A = \conjaccent{U^T} \cdot U \in \matrice(\corps,m,m)\) est une matrice de produit scalaire. En effet :
\[\conjaccent{x^T} \cdot A \cdot x = \conjaccent{x^T} \cdot \conjaccent{U^T} \cdot U \cdot x = \conjugue(U \cdot x)^T \cdot (U \cdot x) \ge 0\]
Si \(x \ne 0\), on a de plus \(U \cdot x \ne 0\) et \(\conjaccent{x}^T \cdot A \cdot x \strictsuperieur 0\). Par ailleurs, on a évidemment :
\[\conjaccent{A^T} = \conjaccent{(\conjaccent{U^T} \cdot U)^T} = \conjaccent{U^T} \cdot U = A\]
1.17. Noyau
Soit \(l_i = \ligne_i A\) et \(x \in \noyau A\). On a alors :
\[0 = \composante_i (A \cdot x) = l_i \cdot x\]
On en conclut que les lignes de \(A\) sont orthogonales aux \(\conjaccent{l}_i\). Il en va de même pour toute combinaison linéaire de ces lignes, et :
\[\noyau A = \combilin{\conjaccent{l}_1,...,\conjaccent{l}_m}^\orthogonal\]
2. Norme dérivée du produit scalaire
- 2.1. Dépendances
- 2.2. Introduction
- 2.3. Addition
- 2.4. Théorème de Pythagore
- 2.5. Egalité du parallélogramme
- 2.6. Inégalité de Cauchy-Schwartz
- 2.7. Norme et inégalité de Minkowski
- 2.8. Distance
- 2.9. Produit scalaire à partir de la norme
- 2.10. Norme et coordonnées
- 2.11. Norme sur \(\corps^n\)
- 2.12. Norme sur \(\setC\)
- 2.13. Représentation matricielle
\label{chap:ps}
2.1. Dépendances
- Chapitre \ref{chap:vecteur} : Les espaces vectoriels
- Chapitre \ref{chap:norme} : Les normes
2.2. Introduction
Soit un espace vectoriel \(E\) muni du produit scalaire \(\scalaire{}{}\). Nous allons analyser les propriétés de l'application \(\norme{.} : E \mapsto \corps\) associée au produit scalaire et définie par :
\[\norme{x} = \sqrt{ \scalaire{x}{x} }\]
pour tout \(x \in E\).
2.3. Addition
Soit \(x,y \in E\) et \(\alpha,\beta \in \setC\). On a :
\begin{align} \norme{\alpha \cdot x + \beta \cdot y}^2 &= \scalaire{\alpha \cdot x + \beta \cdot y}{\alpha \cdot x + \beta \cdot y} \\ &= \conjaccent{\alpha} \cdot \alpha \cdot \scalaire{x}{x} + \conjaccent{\alpha} \cdot \beta \cdot \scalaire{x}{y} + \conjaccent{\beta} \cdot \alpha \cdot \scalaire{y}{x} + \conjaccent{\beta} \cdot \beta \cdot \scalaire{y}{y} \\ &= \abs{\alpha}^2 \cdot \norme{x}^2 + \conjaccent{\alpha} \cdot \beta \cdot \scalaire{x}{y} + \conjaccent{\beta} \cdot \alpha \cdot \scalaire{y}{x} + \abs{\beta}^2 \cdot \norme{y}^2 \end{align}Dans le cas particulier où \(\beta = 1\), on a :
\begin{align} \norme{y + \alpha \cdot x} &= \norme{y}^2 + \alpha \cdot \scalaire{y}{x} + \conjaccent{\alpha} \cdot \scalaire{x}{y} + \abs{\alpha}^2 \cdot \norme{x}^2 \\ &= \norme{y}^2 + 2 \Re(\alpha \cdot \scalaire{y}{x}) + \abs{\alpha}^2 \cdot \norme{x}^2 \end{align}2.4. Théorème de Pythagore
Si \(x,y \in E\) sont orthogonaux :
\[\scalaire{x}{y} = 0\]
on a également \(\scalaire{y}{x} = \conjugue \scalaire{x}{y} = 0\) et :
\begin{align} \scalaire{x + y}{x + y} &= \scalaire{x}{x} + \scalaire{x}{y} + \scalaire{y}{x} + \scalaire{y}{y} \\ &= \scalaire{x}{x} + \scalaire{y}{y} \end{align}En exprimant cette relation en terme de \(\norme{.}\), on obtient :
\[\norme{x + y}^2 = \norme{x}^2 + \norme{y}^2\]
résultat connu sous le nom de théorème de Pythagore.
2.5. Egalité du parallélogramme
En additionnant les équations :
\( \norme{x + y}^2 = \scalaire{x}{x} + \scalaire{x}{y} + \scalaire{y}{x} + \scalaire{y}{y} \\ \norme{x - y}^2 = \scalaire{x}{x} - \scalaire{x}{y} - \scalaire{y}{x} + \scalaire{y}{y} \)
on obtient :
\[\norme{x + y}^2 + \norme{x - y}^2 = 2(\scalaire{x}{x} + \scalaire{y}{y}) = 2 (\norme{x}^2 + \norme{y}^2)\]
2.6. Inégalité de Cauchy-Schwartz
Soit \(x,y \in E\) et \(\lambda \in \setC\). On a :
\[\norme{y - \lambda \cdot x}^2 = \scalaire{y}{y} - \lambda \cdot \scalaire{y}{x} - \conjaccent{\lambda} \cdot \scalaire{x}{y} + \conjaccent{\lambda} \cdot \lambda \cdot \scalaire{x}{x} \ge 0\]
Le choix magique de \(\lambda\) (nous verrons d'où il vient en étudiant les projections) est :
\[\lambda = \frac{ \scalaire{x}{y} }{ \scalaire{x}{x} }\]
On a alors :
\[\scalaire{y}{y} - \frac{ \scalaire{x}{y} \cdot \scalaire{y}{x} }{ \scalaire{x}{x} } - \frac{ \scalaire{y}{x} \cdot \scalaire{x}{y} }{ \scalaire{x}{x} } + \frac{ \scalaire{y}{x} \cdot \scalaire{x}{y} }{ \scalaire{x}{x}^2 } \cdot \scalaire{x}{x} \ge 0\]
En simplifiant les termes, on arrive à :
\[\scalaire{y}{y} - \frac{ \scalaire{x}{y} \cdot \scalaire{y}{x} }{ \scalaire{x}{x} } = \scalaire{y}{y} - \frac{ \abs{\scalaire{x}{y}}^2 }{ \scalaire{x}{x} } \ge 0\]
En faisant passer le second terme dans le second membre et en multipliant par \(\scalaire{x}{x}\), on arrive finalement à :
\[\abs{\scalaire{x}{y}}^2 \le \scalaire{x}{x} \cdot \scalaire{y}{y}\]
En prenant la racine carrée, on obtient une relation connue sous le nom d'inégalite de Cauchy-Schwartz :
\[\abs{\scalaire{x}{y}} \le \sqrt{\scalaire{x}{x} \cdot \scalaire{y}{y}} = \norme{x} \cdot \norme{y}\]
2.7. Norme et inégalité de Minkowski
Nous allons à présent vérifier que l'application \(\norme{.}\) est bien une norme.
2.7.1. Définie positivité
On voit que notre application est strictement définie positive car \(\norme{x} \ge 0\) pour tout \(x \in E\) et :
\[\norme{x} = 0 \Rightarrow \scalaire{x}{x} = 0 \Rightarrow x = 0\]
2.7.2. Produit mixte
La multiplication par un scalaire \(\alpha \in \setC\) nous donne :
\[\norme{\alpha \cdot x} = \sqrt{ \abs{\alpha}^2 \cdot \scalaire{x}{x} } = \abs{\alpha} \cdot \sqrt{ \scalaire{x}{x} } = \abs{\alpha} \cdot \norme{x}\]
2.7.3. Inégalité de Minkowski
On a :
\begin{align} \norme{x + y}^2 &= \scalaire{x}{x} + \scalaire{x}{y} + \scalaire{y}{x} + \scalaire{y}{y} \\ &= \scalaire{x}{x} + 2 \Re(\scalaire{x}{y}) + \scalaire{y}{y} \end{align}Mais comme \(\abs{\Re(\scalaire{x}{y})} \le \abs{\scalaire{x}{y}} \le \norme{x} \cdot \norme{y}\), on a finalement :
\[\norme{x + y}^2 \le \norme{x}^2 + 2 \norme{x} \cdot \norme{y} + \norme{y}^2 = (\norme{x} + \norme{y})^2\]
d'où :
\[\norme{x + y} \le \norme{x} + \norme{y}\]
Cette troisième et dernière propriété étant vérifiée, l'application \(\norme{.} = \sqrt{\scalaire{}{}}\) est bien une norme.
2.8. Distance
On associe une distance à la norme et au produit scalaire par :
\[\distance(x,y) = \norme{x - y} = \sqrt{\scalaire{x - y}{x - y}}\]
pour tout \(x,y \in E\).
2.9. Produit scalaire à partir de la norme
En soutrayant les équations :
\( \norme{x + y}^2 = \scalaire{x}{x} + 2 \Re(\scalaire{x}{y}) + \scalaire{y}{y} \\ \norme{x - y}^2 = \scalaire{x}{x} - 2 \Re(\scalaire{x}{y}) + \scalaire{y}{y} \)
on obtient :
\[\norme{x + y}^2 - \norme{x - y}^2 = 4 \Re(\scalaire{x}{y})\]
Comme \(\Re(\img z) = - \Im(z)\), on a aussi :
\begin{align} \norme{x + \img y}^2 &= \scalaire{x}{x} + 2 \Re(\img \scalaire{x}{y}) + \scalaire{y}{y} \\ &= \scalaire{x}{x} - 2 \Im(\scalaire{x}{y}) + \scalaire{y}{y} \\ \norme{x - \img y}^2 &= \scalaire{x}{x} - 2 \Re(\img \scalaire{x}{y}) + \scalaire{y}{y} \\ &= \scalaire{x}{x} + 2 \Im(\scalaire{x}{y}) + \scalaire{y}{y} \end{align}En soustrayant ces deux résultats, on a donc :
\[\norme{x + \img y}^2 - \norme{x - \img y}^2 = - 4 \Im(\scalaire{x}{y})\]
On en conclut que :
\begin{align} \scalaire{x}{y} &= \Re(\scalaire{x}{y}) + \img \Im(\scalaire{x}{y}) \\ &= \unsur{4} (\norme{x + y}^2 + \norme{x - y}^2) + \frac{\img}{4} (\norme{x - \img y}^2 - \norme{x + \img y}^2) \end{align}2.10. Norme et coordonnées
Soit \((e_1,...,e_n)\) une base de \(E\) et \(u \in E\). On a :
\[u = \sum_i u_i \cdot e_i\]
pour certains \(u_i,v_i \in \corps\). La norme s'écrit alors :
\[\norme{u} = \sqrt{ \sum_{i,j} \conjaccent{u}_i \cdot \scalaire{e_i}{e_j} \cdot u_j }\]
2.10.1. Base orthonormée
Si la base est orthonormée, les seuls termes ne s'annulant pas sont ceux où \(i = j\), et on a :
\[\norme{u} = \sqrt{ \sum_i \abs{u_i}^2 }\]
2.11. Norme sur \(\corps^n\)
Soit \(\corps \in \{ \setR , \setC \}\). On définit une norme sur \(\corps^n\), dite norme euclidienne, à partir du produit scalaire :
\[\norme{x} = \sqrt{ \scalaire{x}{x} } = \sqrt{\sum_{i=1}^n \abs{x_i}^2}\]
2.11.1. Normes \(k\)
Par extension, on définit une série de normes \(k\) par :
\[\norme{x}_k = \left( \sum_i \abs{x_i}^k \right)^{1/k}\]
Lorsque \(k\) devient très grand, il est clair que la contribution du \(\abs{x_i}^k\) le plus grand en valeur absolue devient énorme par rapport aux autres contributions de la norme. On peut vérifier que :
\[\lim_{k \mapsto +\infty} \norme{x}_k = \max_{i = 1}^n \abs{x_i}\]
On s'inspire de ce résultat pour définir :
\[\norme{x}_\infty = \max_{i = 1}^n \abs{x_i}\]
On nomme \(\norme{.}_\infty\) la norme « max ».
Attention, une norme \(k\) quelconque ne dérive en général pas d'un produit scalaire et ne possède donc pas les propriétés que nous avons vu pour la norme \(\norme{.} = \norme{.}_2 = \sqrt{\scalaire{}{}}\).
2.12. Norme sur \(\setC\)
Soit \((a,b) \in \setR^2\) et \(z = a + \img b\). Il est clair que le module :
\[\abs{z} = \abs{a + \img b} = \sqrt{a^2 + b^2} = \norme{(a,b)}\]
définit une norme sur \(\setC\).
2.13. Représentation matricielle
Soit le vecteur matriciel \(x = [x_1 \ ... \ x_n]^T\). Sa norme s'écrit :
\[\norme{x} = \sqrt{ \scalaire{x}{x} } = \sqrt{\conjaccent{x}^T \cdot x}\]