Dans le cas d'un vecteur aléatoire dont les composantes sont des variables
aléatoires associées à un même processus, l'ensemble des valeurs
d'autocorrélation ou de covariance peut être rassemblé dans une matrice de
corrélation ou de covariance. Un vecteur à k composantes
engendre une matrice
à
éléments:
matrice de corrélation: où le symbole
désigne l'opérateur transposé d'un vecteur.
matrice de covariance:
Si le vecteur résulte de l'échantillonnage régulier d'un processus
stationnaire, les valeurs de corrélation ou de covariance ne dépendent plus que
de la différence où
est
le pas d'échantillonnage. De plus, on a
Une telle matrice est symétrique et chaque diagonale est composée d'éléments identiques (matrice de Toepliz).
où .
Ces deux matrices s'identifient dans le cas de processus à moyenne nulle. On
montre facilement qu'une matrice de covariance est une matrice symétrique
définie positive (
).
Un cas particulier intéressant intervient lorsque les échantillons sont non
corrélés: ceci entraine l'annulation des coefficients de corrélation et
la matrice de covariance se réduit alors à une matrice diagonale d'éléments
.
Transformation linéaire: Si l'on effectue un changement de variable
linéaire de la forme Y = AX où A est une matrice quelconque
de constantes (pas forcément carrée), alors on a les résultats suivants:
E(Y) = A E(X) et .
Normalisation d'un vecteur aléatoire: On appelle transformation de
Mahalanobis, la transformation . Le vecteur Y est un vecteur centré réduit à composantes non
corrélées.
Distance de Mahalanobis: On appelle distance de Mahalanobis de
X à la quantité :
.
Cette distance permet de mesurer la distance d'une réalisation d'un vecteur
aléatoire à un échantillon caractérisé par sa position (vecteur moyenne) et sa
dispersion (matrice de covaraince).
Jean-Michel JOLION