Matriz diagonalizable


Matriz diagonalizable

En álgebra lineal una matriz cuadrada A se dice que es diagonalizable si es semejante a una matriz diagonal, es decir, si mediante un cambio de base puede reducirse a una forma diagonal. En este caso, la matriz podrá descomponerse de la forma A = PDP − 1 donde P es una matriz invertible cuyos vectores columna son vectores propios de A y D es una matriz diagonal formada por los valores propios de A.

Si la matriz A es semejante ortogonalmente a una matriz diagonal, es decir, si la matriz P es ortogonal se dice entonces que la matriz A es diagonalizable ortogonalmente, pudiendo escribirse como A = PDPt. El teorema espectral garantiza que cualquier matriz cuadrada simétrica con coeficientes reales es ortogonalmente diagonalizable. En este caso P está formada por una base ortonormal de vectores propios de la matriz siendo los valores propios reales. La matriz P es por tanto ortogonal y los vectores filas de P − 1 son los vectores columnas de P.

Contenido

Definición

Sea \mathbf{A} \in M^{n \times n}(\mathbb{K}) una matriz cuadrada con valores en un cuerpo \mathbb{K}, decimos que la matriz A es diagonalizable si, y sólo si, A se puede descomponer de la forma:

\mathbf{A} = \mathbf{P D P}^{-1}

Donde:

  • \mathbf{D} es una matriz diagonal cuya diagonal principal está formada por los elementos de \sigma(\mathbf{A}), apareciendo cada uno tantas veces como indique su multiplicidad algebraica, siendo \sigma(\mathbf{A}) el espectro de \mathbf{A}, es decir, el conjunto de autovalores de la matriz \mathbf{A}:

 \sigma(\mathbf{A}) = \big\{ \lambda_i \in \mathbb{K}| \mathbf{Av} = \lambda_i \mathbf{v} \quad \forall i = 1,2,...,n \big\}

  • \mathbf{P} es la matriz cuyas columnas son los vectores que constituyen una base del subespacio propio asociado a cada \lambda_i\, siguiendo el orden establecido en D, esto es, los vectores que forman el núcleo de la matriz (A - \lambda_i \cdot I):

\mathbf{P} = (v_1 | v_2 | ... | v_n ) / v_j \in \mbox{ker}(\mathbf{A} - \lambda_i \mathbf{I}) \forall i,j = 1,...,n

Endomorfismo diagonalizable

Un endomorfismo de espacio vectorial (aplicación lineal de un espacio vectorial en sí mismo) se dice diagonalizable por similaridad (o simplemente diagonalizable) si existe una base en la que su matriz asociada sea una matriz diagonal. Sin embargo la diagonalización no está asegurada, es decir no es posible decir que todo endomorfismo sea diagonalizable. La importancia de la diagonalización nos motiva a obtener una base en la que la matriz asociada a un endomorfismo no diagonalizable sea más simple aunque no diagonal. Para ello se seguirán las mismas técnicas que para diagonalización, usando la teoría sobre autovalores y autovectores (también llamados valores y vectores propios o en inglés eigenvalues y eigenvectors). Recordemos que dado un operador lineal T:V\rightarrow V decimos que W subespacio de V es T-invariante si \forall u \in W se tiene que T(u)\in W

Aplicaciones

Diagonalizar una matriz es muy importante en el Álgebra Lineal, pues se cumple lo siguiente:

\mathbf{A}^p = \mathbf{P} \mathbf{D}^p \mathbf{P}^{-1}

facilitando mucho el cálculo de las potencias de \mathbf{A}, dado que siendo D una matriz diagonal, el cálculo de su p-ésima potencia es muy sencillo:

\mathbf{D}^p =
\begin{pmatrix}
{d_1}^p & 0 & \dots & 0 \\
0 & {d_2}^p & \dots & 0 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \dots & {d_n}^p \end{pmatrix}

Ejemplos

Diagonalización de una matriz

Artículo principal: Cálculo de valores propios y vectores propios de matrices

"Diagonalizar una matriz" se reduce a encontrar sus vectores y valores propios. Tomemos la matriz:

\mathbf{A} = \begin{pmatrix} 1 & 2 \\ 3 & 2 \end{pmatrix}

y veamos que es diagonalizable:

  • Esta matriz tiene los valores propios: \lambda_1 = -1, \quad \lambda_2 = 4
  • Así \mathbf{A} es una matriz 2 por 2 con 2 valores propios diferentes, entonces se dice que es diagonizable.Si queremos diagonalizar \mathbf{A} necesitamos calcular los correspondientes vectores propios. Ellos son:

\mathbf{v}_1=\begin{bmatrix} 1  \\ -1 \end{bmatrix},\qquad
\mathbf{v}_2=\begin{bmatrix} 2  \\ 3 \end{bmatrix}

Uno podría verificar fácilmente esto mediante:

\mathbf{Av}_k = \lambda_k \mathbf{v}_k

  • Ahora, \mathbf{P} es la matriz invertible con los vectores propios de \mathbf{A} como columnas:

\mathbf{P}=\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix} con inversa \mathbf{P}^{-1}=
\begin{pmatrix} \frac{3}{5} & \frac{-2}{5} \\ \frac{1}{5} & \frac{1}{5} \end{pmatrix}

  • Hallemos ahora la matriz diagonal, usando esta matriz P como sigue:

\mathbf{A}=\mathbf{PDP}^{-1} \Leftrightarrow \mathbf{P}^{-1}\mathbf{AP} = \mathbf{D}

  • Realizamos el cálculo introduciendo los datos:

\mathbf{D}=
\begin{pmatrix} \frac{3}{5} & \frac{-2}{5} \\ \frac{1}{5} & \frac{1}{5} \end{pmatrix} 
\begin{pmatrix} 1 & 2 \\ 3 & 2 \end{pmatrix} 
\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix} =
\begin{pmatrix} \frac{-3}{5} & \frac{2}{5} \\ \frac{4}{5} & \frac{4}{5} \end{pmatrix}\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix} =
\begin{pmatrix} -1 & 0 \\ 0 & 4 \end{pmatrix}

  • Luego resulta que existen matrices \mathbf{P} y \mathbf{D} tales que

\mathbf{A}=\mathbf{PDP}^{-1} cumpliendo \mathbf{P} y \mathbf{D} los requisitos pedidos al principio, y por tanto la matriz \mathbf{A} es diagonalizable.

Potencias de una matriz diagonalizable

Podemos calcular, por ejemplo, la séptima potencia de la matriz anterior:

\mathbf{A}^7 = \mathbf{P}\mathbf{D}^7\mathbf{P}^{-1} =
\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix}
\begin{pmatrix} -1^7 & 0 \\ 0 & 4^7 \end{pmatrix}
\begin{pmatrix} \frac{3}{5} & \frac{-2}{5} \\ \frac{1}{5} & \frac{1}{5} \end{pmatrix} = \begin{pmatrix} \frac{-3+2\cdot 4^7}{5} & \frac{2+2\cdot 4^7}{5} \\ \frac{3+3\cdot 4^7}{5} & \frac{-2+3\cdot 4^7}{5} \end{pmatrix} = \begin{pmatrix} 6553 & 6554 \\ 9831 & 9830 \end{pmatrix}

Función de una matriz diagonalizable

No sólo pueden calcularse, potencias de una matriz, sino cualquier función que esté definida sobre el espectro de la matriz. Por ejemplo puede calcularse la exponencial de la matriz anterior como:

\begin{cases} e^\mathbf{A} = \sum_{k=0}^\infty \frac{\mathbf{A}^k}{k!} \\
e^\mathbf{A} = \mathbf{P}e^\mathbf{D}\mathbf{P}^{-1} = 
\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix}
\begin{pmatrix} e^{-1} & 0 \\ 0 & e^{4} \end{pmatrix}
\begin{pmatrix} \frac{3}{5} & \frac{-2}{5} \\ \frac{1}{5} & \frac{1}{5} \end{pmatrix} =  
\frac{1}{5} \begin{pmatrix} 3e^{-1}+2e^{4} & -2e^{-1}+2e^{4} \\
-3e^{-1}+3e^{4} & 2e^{-1}+3e^{4} \end{pmatrix} \end{cases}

Matrices no diagonalizables

No todas las matrices cuadradas son diagonalizables, pero existen procedimientos similares para hallar matrices \mathbf{P} invertibles y matrices \mathbf{J} diagonales a bloques de tal modo que

\mathbf{A}=\mathbf{PJP}^{-1}

ofreciendo también soluciones o atajos para resolver los problemas que requieren de la diagonalización de una matriz (ver Forma canónica de Jordan).

Teoremas sobre matrices diagonalizables

  • Toda matriz simétrica de coeficientes reales es diagonalizable y sus autovalores son reales.
  • Dados dos matrices diagonalizables A y B, son conmutables (AB = BA) si sólo si son simultáneamente diagonalizables (comparten la misma base ortonormal).

Referencias

Bibliografía

  • Horn, Roger A.; Johnson, Charles R. (1985). Matrix Analysis. Cambridge University Press. ISBN 978-0-521-38632-6.

Wikimedia foundation. 2010.