Matriz ortogonal

Matriz ortogonal

Una matriz ortogonal es un matriz cuya matriz inversa coincide con su matriz traspuesta. El conjunto de matrices ortogonales constituyen una representación lineal del grupo ortogonal \scriptstyle O(n,\R).

Geométricamente las matrices ortogonales representan transformaciones isométricas en espacios vectoriales reales[1] (o más exactamente espacios de Hilbert reales) llamadas justamente, transformaciones ortogonales. Estas transformaciones son isomorfismos internos del espacio vectorial en cuestión. En el caso real dichas transformciones pueden ser rotaciones, reflexiones especulares o inversiones y son usadas extensivamente en computación gráfica. Por sus propiedades, también son usadas para el estudio de ciertos fibrados y en física se las usa en el estudio del movimiento de cuerpos rígidos y en la formulación de ciertas teorías de campos.

Contenido

Definición

Sea n un número natural y sea A una matriz cuadrada n por n, con entradas reales. Se dice que la matriz es ortogonal si:

A\cdot A^t = \mathbb{I}

donde A^t\; representa la matriz traspuesta de A\; e \mathbb{I} representa la matriz identidad.

Ejemplos

Supongamos que la matriz de números reales


M= \begin{pmatrix}
a & b\\
c & d
\end{pmatrix},

es ortogonal y su determinante es +1 ó -1. Su transpuesta es igual a su inversa


\begin{pmatrix}
a & c\\
b & d
\end{pmatrix}
=
\begin{pmatrix}
d & -b\\
-c & a
\end{pmatrix},

de modo que d = a y c = b y la matriz M es de la forma


M= \begin{pmatrix}
a & b\\
-b & a
\end{pmatrix}.

Finalmente,

M\cdot M^t =
\begin{pmatrix} a & b\\ -b & a \end{pmatrix}\cdot\begin{pmatrix} a & -b\\ b & a \end{pmatrix}
= \begin{pmatrix} a^2 + b^2 & 0\\ 0 & a^2 + b^2 \end{pmatrix}
= \begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix},

Así que los números a y b satisfacen además la propiedad que la suma de sus cuadrados vale 1. Por lo tanto, existe un número real θ para el cual

 a=\cos\theta\quad b=\sin\theta.

Concluimos que: toda matriz ortogonal de tamaño 2 puede escribirse como

M_\theta = \begin{pmatrix} \cos\theta & \sin\theta\\ -\sin\theta & \cos\theta \end{pmatrix}

con θ real.

Caracterización

Sea A una matriz ortogonal n por n. Sean \mathbf{v}_1, \mathbf{v}_2, \cdots \mathbf{v}_n los n vectores fila de la matriz. En término de estos vectores, es muy fácil expresar los elementos de la matriz que resulta de multiplicar A por su transpuesta:

(A\cdot A^t)_{ij} = \mathbf{v}_i\cdot\mathbf{v}_j = \delta_{ij} = 
\begin{cases} 
  1  & \mbox{si }i = j, \\
  0, & \mbox{si }i \ne j
\end{cases}

De modo que los vectores fila de una matriz ortogonal forman un conjunto de n vectores ortonormales. Puesto que la ecuación

A^t\cdot A = \mathbb{I}

también se verifica, tenemos que los vectores columna de la matriz A también forman un conjunto ortonormal de vectores. Como el recíproco de todo esto también es cierto, tenemos

Una matriz real A es ortogonal si y sólo si sus vectores filas o vectores columna son cada uno un conjunto ortonormal de vectores.

Es en este sentido que se dice que se ha hecho una caracterización de las matrices ortogonales. Dada una matriz, basta verificar esta propiedad entre sus vectores fila y columna para determinar si dicha matriz es o no ortogonal.

Propiedades

  • De la definición, es inmediato que si una matriz es ortogonal, la matriz es no singular o invertible y su transpuesta coincide con su inversa
  • El determinante de una matriz ortogonal A es +1 ó -1. En efecto, de las propiedades del determinante tenemos
\det(A\cdot A^t) = \det A\ \det A^t = \det A\ \det A = (\det A)^2 = \det\mathbb{I} = 1,

y por tanto,

\det A = \pm 1.
  • El conjunto de matrices nxn ortogonales, junto con la operación de producto de matrices es un grupo llamado grupo ortogonal O(n). Supongamos que A y B son matrices ortogonales y sea C igual al producto de A por B. Usando las propiedades del producto de matrices, tenemos

\begin{align}
C\cdot C^t &= (A\cdot B)\cdot(A\cdot B)^t = (A\cdot B)\cdot(B^t\cdot A^t)\\
           & = A\cdot ( B\cdot B^t)\cdot A^t = A\cdot \mathbb{I}\cdot A^t = A \cdot A^t = \mathbb{I},
\end{align}
y así, el producto de matrices ortogonales es una matriz ortogonal.
  • En teoría de grupos, al grupo de matrices ortogonales n por n con coeficientes en el cuerpo \mathbb{K} se denomina grupo ortogonal de dimensión n y se representa con O(n,\mathbb{K}). En particular el subgrupo formado por las matrices ortogonales de determinante +1, se llama grupo especial ortogonal y se le representa con SO(n,\mathbb{K}). Entre las matrices ortogonales se encuentran las matrices de rotación y las de permutación. Cuando el cuerpo es el de los reales \mathbb{K} =\R entonces se escribe simplemente O(n):=O(n,\R) y SO(n):=SO(n,\R).

Notas

  1. Se sobreentiende que al espacio vectorial real, se le ha dotado de un producto interno

Véase también

  • Para profundizar sobre este tema y en general sobre álgebra, pude consultar
G. Birkhoff, S MacLane, Álgebra Moderna, ed. Vicens-Vives, Madrid 1980. ISBN 84-316-1226-6

Wikimedia foundation. 2010.

Игры ⚽ Поможем решить контрольную работу

Mira otros diccionarios:

  • Matriz ortogonal — Una matriz cuadrada A con matriz traspuesta y matriz inversa es ortogonal, siempre que . Por ejemplo, si B es ortogonal, entonces: Si la matriz A y B son ortogonales entonces la matriz producto de A por B es ortogonal. Toda matriz permutación es… …   Enciclopedia Universal

  • Matriz transpuesta — Saltar a navegación, búsqueda Sea A una matriz con m filas y n columnas. La matriz traspuesta, denotada con At está dada por Contenido 1 Ejemplos …   Wikipedia Español

  • Matriz unitaria — En matemática, una matriz unitaria es una matriz compleja U, de n por n elementos, que satisface la condición: donde es la matriz identidad y es el traspuesto conjugado (también llamado el hermitiano adjunto o la hermítica) de U. Esta condición… …   Wikipedia Español

  • Matriz de rotación — En álgebra lineal, una matriz de rotación es la matriz que representa una rotación en el espacio euclídeo. Por ejemplo, la matriz representa la rotación de θ grados del plano en sentido antihorario. En tres dimensiones, las matrices de rotación… …   Wikipedia Español

  • Matriz simétrica — Una matriz de elementos: es simétr …   Wikipedia Español

  • Matriz traspuesta — Sea A una matriz con m filas y n columnas. La matriz transpuesta, denotada con At está dada por En donde el elemento aji de la matriz original A se convertirá en el elemento aij de la matriz transpuesta At …   Wikipedia Español

  • Matriz permutación — La matriz permutación es la matriz cuadrada con todos sus n×n elementos iguales a 0, excepto uno cualquiera por cada fila y columna, el cual debe ser igual a 1. De acuerdo a esta definición existen n! matrices de permutación distintas, de las… …   Wikipedia Español

  • Matriz diagonalizable — En álgebra lineal una matriz cuadrada A se dice que es diagonalizable si es semejante a una matriz diagonal, es decir, si mediante un cambio de base puede reducirse a una forma diagonal. En este caso, la matriz podrá descomponerse de la forma A …   Wikipedia Español

  • Grupo ortogonal — En matemática, el grupo ortogonal de grado n sobre un cuerpo F (escrito como O(n, F)) es el grupo de matrices ortogonales n por n con las entradas en F, con la operación de grupo dada por la multiplicación de matrices. Éste es un subgrupo del… …   Wikipedia Español

  • Grupo ortogonal — En matemáticas, el grupo ortogonal de grado n sobre un cuerpo F (escrito como O(n, F)) es el grupo de matrices ortogonales n por n con las entrad …   Enciclopedia Universal

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”