Matriz de covarianza

Matriz de covarianza

En estadística y teoría de la probabilidad, la matriz de covarianza es una matriz que contiene la covarianza entre los elementos de un vector. Es la generalización natural a dimensiones superiores del concepto de varianza de una variable aleatoria escalar.

Contenido

Definición

Si las entradas del vector-columna

X = \begin{bmatrix}X_1 \\  \vdots \\ X_n \end{bmatrix}

son variables aleatorias, cada una con varianza finita, entonces la matriz de covarianza Σ es la matriz cuya entrada (ij) es la covarianza


\Sigma_{ij}
=\mathrm{E}\begin{bmatrix}
(X_i - \mu_i)(X_j - \mu_j)
\end{bmatrix}

donde

\mu_i = \mathrm{E}(X_i)\,

es el valor esperado de la entrada i-ésima del vector X. En otras palabras, tenemos


\Sigma
= \begin{bmatrix}
 \mathrm{E}[(X_1 - \mu_1)(X_1 - \mu_1)] & \mathrm{E}[(X_1 - \mu_1)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_1 - \mu_1)(X_n - \mu_n)] \\ \\
 \mathrm{E}[(X_2 - \mu_2)(X_1 - \mu_1)] & \mathrm{E}[(X_2 - \mu_2)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_2 - \mu_2)(X_n - \mu_n)] \\ \\
 \vdots & \vdots & \ddots & \vdots \\ \\
 \mathrm{E}[(X_n - \mu_n)(X_1 - \mu_1)] & \mathrm{E}[(X_n - \mu_n)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_n - \mu_n)(X_n - \mu_n)]
\end{bmatrix}.

Como una generalización de la varianza

La anterior definición es equivalente a la igualdad matricial


\Sigma=\mathrm{E}
\left[
 \left(
 \textbf{X} - \mathrm{E}[\textbf{X}]
 \right)
 \left(
 \textbf{X} - \mathrm{E}[\textbf{X}]
 \right)^\top
\right]

Por tanto, se entiende que esto generaliza a mayores dimensiones el concepto de varianza de una variable aleatoria escalar X, definida como


\sigma^2 = \mathrm{var}(X)
= \mathrm{E}[(X-\mu)^2], \,

donde

\mu = \mathrm{E}(X).\,


Propiedades

Para \Sigma=\mathrm{E} \left[ \left( \textbf{X} - \mathrm{E}[\textbf{X}] \right) \left( \textbf{X} - \mathrm{E}[\textbf{X}] \right)^\top \right] y  \mu = \mathrm{E}(\textbf{X}), las siguientes propiedades fundamentales se demuestran correctas:

  1.  \Sigma = \mathrm{E}(\mathbf{X X^\top}) - \mathbf{\mu}\mathbf{\mu^\top}

  2.  \mathbf{\Sigma} es semidefinida positiva

  3.  \operatorname{var}(\mathbf{A X} + \mathbf{a}) = \mathbf{A}\, \operatorname{var}(\mathbf{X})\, \mathbf{A^\top}

  4.  \operatorname{cov}(\mathbf{X},\mathbf{Y}) = \operatorname{cov}(\mathbf{Y},\mathbf{X})^\top

  5.  \operatorname{cov}(\mathbf{X_1} + \mathbf{X_2},\mathbf{Y}) = \operatorname{cov}(\mathbf{X_1},\mathbf{Y}) + \operatorname{cov}(\mathbf{X_2}, \mathbf{Y})

  6. Si los vectores \mathbf{X} y \mathbf{Y} son de igual dimensión, entonces \operatorname{var}(\mathbf{X} + \mathbf{Y}) = \operatorname{var}(\mathbf{X}) + \operatorname{cov}(\mathbf{X},\mathbf{Y}) + \operatorname{cov}(\mathbf{Y}, \mathbf{X}) + \operatorname{var}(\mathbf{Y})

  7. \operatorname{cov}(\mathbf{AX}, \mathbf{BY}) = \mathbf{A}\, \operatorname{cov}(\mathbf{X}, \mathbf{Y}) \,\mathbf{B}^\top

  8. Si \mathbf{X} y \mathbf{Y} son independientes, entonces \operatorname{cov}(\mathbf{X}, \mathbf{Y}) = 0

donde \mathbf{X}, \mathbf{X_1} y \mathbf{X_2} son vectores aleatorios de dimensión \mathbf{(p \times 1)}, \mathbf{Y} es un vector aleatorio \mathbf{(q \times 1)}, \mathbf{a} es \mathbf{(p \times 1)}, \mathbf{A} y \mathbf{B} son matrices de \mathbf{(p \times q)}.

La matriz de covarianza (aunque muy simple) es una herramienta muy útil en varios campos. A partir de ella se puede derivar una transformación lineal que puede de-correlacionar los datos o, desde otro punto de vista, encontrar una base óptima para representar los datos de forma óptima (véase cociente de Rayleigh para la prueba formal y otras propiedades de las matrices de covarianza). Esto se llama análisis del componente principal (PCA por sus siglas en inglés) en estadística , y transformada de Karhunen-Loève en procesamiento de la imagen.


Lecturas avanzadas


Wikimedia foundation. 2010.

Игры ⚽ Нужно сделать НИР?

Mira otros diccionarios:

  • Covarianza — Saltar a navegación, búsqueda En estadística la covarianza es una medida de dispersión conjunta de dos variables estadísticas. Definición La covarianza S(X,Y) de dos variables aleatorias X e Y se define como: Si Sxy …   Wikipedia Español

  • Matriz de correlación — Una matriz de correlación es una tabla de doble entrada para A B y C, que muestra una lista multivariable horizontalmente y la misma lista verticalmente y con el correspondiente coeficiente de correlación llamado r . El análisis factorial se… …   Wikipedia Español

  • Distribución normal multivariante — Saltar a navegación, búsqueda Normal multivariante Función de distribución de probabilidad Parámetros (vector real) Σ matriz de covarianza (matriz real definida positiva de dimensión …   Wikipedia Español

  • Vector propio y valor propio — Fig. 1. En esta transformación de la Mona Lisa, la imagen se ha deformado de tal forma que su eje vertical no ha cambiado. (nota: se han recortado las esquinas en la imagen de la derecha) …   Wikipedia Español

  • Análisis de componentes principales — Saltar a navegación, búsqueda En estadística, el análisis de componentes principales (en español ACP, en inglés, PCA) es una técnica utilizada para reducir la dimensionalidad de un conjunto de datos. Intuitivamente la técnica sirve para… …   Wikipedia Español

  • Propagación de errores — Saltar a navegación, búsqueda En Estadística, la propagacion de errores (o propagación de incertidumbre) es el efecto de variables de incertidumbre (o errores) en la incertidumbre de una función matemática basada en ellos. Cuando las variables… …   Wikipedia Español

  • Distancia de Mahalanobis — Saltar a navegación, búsqueda En estadística, la Distancia de Mahalanobis es una medida de distancia introducida por Mahalanobis en 1936. Su utilidad radica en que es una forma de determinar la similitud entre dos variables aleatorias… …   Wikipedia Español

  • Regularización de Tíjonov — Saltar a navegación, búsqueda La Regularización de Tíjonov es el método de regularización usado más comunmente. En algunos campos, también se conoce como regresión de arista. En su forma más simple, un sistema de ecuaciones lineales mal… …   Wikipedia Español

  • Distribución normal — Saltar a navegación, búsqueda Distribución normal Función de densidad de probabilidad La línea verde corresponde a la distribución normal estandar Función de distribución de probabilidad …   Wikipedia Español

  • Covariancia y contravariancia — El concepto de covariancia y contravariancia en ciencias de las computadoras es diferente al concepto físico y matemático tratado aquí. Covariancia y contravariancia son conceptos empleados frecuentemente en áreas de la matemática y la física… …   Wikipedia Español

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”