Matriz (matemática)


Matriz (matemática)
Para otros usos de este término, véase Matriz.

En matemáticas, una matriz es una tabla bidimensional de números consistente en cantidades abstractas que pueden sumarse y multiplicarse. Las matrices se utilizan para describir sistemas de ecuaciones lineales, realizar un seguimiento de los coeficientes de una aplicación lineal y registrar los datos que dependen de varios parámetros. Las matrices se describen en el campo de la teoría de matrices. Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que también las hace un concepto clave en el campo del álgebra lineal.

Contenido

Historia

Cronología[1]
Año Acontecimiento
200 a.C. En China los matemáticos usan series de números.
1848 d.C. J. J. Sylvester introduce el término "matriz".
1858 Cayley publica Memorias sobre la teoría de matrices.
1878 Frobenius demuestra resultados fundamentales en álgebra matricial.
1925 Werner Heisenberg utiliza la teoría matricial en la mecánica cuántica

El origen de las matrices es muy antiguo. Un cuadrado mágico, 3 por 3, se registra en la literatura china hacia el 650 a. C.[2]

Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un importante texto matemático chino que proviene del año 300 a. C. a 200 a. C., Nueve capítulos sobre el Arte de las matemáticas (Jiu Zhang Suan Shu), es el primer ejemplo conocido de uso del método de matrices para resolver un sistema de ecuaciones simultáneas.[3] En el capítulo séptimo, "Ni mucho ni poco", el concepto de determinante apareció por primera vez, dos mil años antes de su publicación por el matemático japonés Seki Kōwa en 1683 y el matemático alemán Gottfried Leibniz en 1693.

Los "cuadrados mágicos" eran conocidos por los matemáticos árabes, posiblemente desde comienzos del siglo VII, quienes a su vez pudieron tomarlos de los matemáticos y astrónomos de la India, junto con otros aspectos de las matemáticas combinatorias. Todo esto sugiere que la idea provino de China. Los primeros "cuadrados mágicos" de orden 5 y 6 aparecieron en Bagdad en el 983, en la Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan al-Safa).[2]

Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz, a finales del siglo XVII, Cramer presentó en 1750 la ahora denominada regla de Cramer. Carl Friedrich Gauss y Wilhelm Jordan desarrollaron la eliminación de Gauss-Jordan en el siglo XIX.

El término "matriz" fue acuñado en 1848, por J. J. Sylvester. En 1853, Hamilton hizo algunos aportes a la teoría de matrices. Cayley introdujo en 1858 la notación matricial, como forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas. Grassmann, Frobenius y von Neumann están entre los matemáticos famosos que trabajaron sobre la teoría de matrices.

Olga Taussky-Todd (1906-1995), durante la II Guerra Mundial, usó la teoría de matrices para investigar el fenómeno de aeroelasticidad llamado fluttering.

Definiciones y notaciones

Una matriz es una tabla cuadrada o rectangular de datos (llamados elementos o entradas de la matriz) ordenados en filas y columnas, donde una fila es cada una de las líneas horizontales de la matriz y una columna es cada una de las líneas verticales. A una matriz con m filas y n columnas se le denomina matriz m-por-n (escrito m×n), y a m y n dimensiones de la matriz. Las dimensiones de una matriz siempre se dan con el número de filas primero y el número de columnas después. Comúnmente se dice que una matriz m-por-n tiene un orden de m × n ("orden" tiene el significado de tamaño). Dos matrices se dice que son iguales si son del mismo orden y tienen los mismos elementos.

Al elemento de una matriz que se encuentra en la fila i-ésima y la columna j-ésima se le llama elemento i,j o elemento (i,j)-iésimo de la matriz. Se vuelve a poner primero las filas y después las columnas.

Casi siempre, se denotan a las matrices con letras mayúsculas mientras que se utilizan las correspondientes letras en minúsculas para denotar a los elementos de las mismas. Por ejemplo, al elemento de una matriz A que se encuentra en la fila i-ésima y la columna j-ésima se le denota como ai,j o a[i,j]. Notaciones alternativas son A[i,j] o Ai,j. Además de utilizar letras mayúsculas para representar matrices, numerosos autores representan a las matrices con fuentes en negrita para distinguirlas de otros tipos de variables. Así A es una matriz, mientras que A es un escalar.

Normalmente se escribe A:=(a_{i,j})_{m \times n} para definir una matriz A m × n con cada entrada en la matriz A[i,j] llamada aij para todo 1 ≤ im y 1 ≤ jn. Sin embargo, la convención del inicio de los índices i y j en 1 no es universal: algunos lenguajes de programación comienzan en cero, en cuál caso se tiene 0 ≤ im − 1 y 0 ≤ jn − 1.

Una matriz con una sola columna o una sola fila se denomina a menudo vector, y se interpreta como un elemento del espacio euclídeo. Una matriz 1 × n (una fila y n columnas) se denomina vector fila, y una matriz m × 1 (una columna y m filas) se denomina vector columna.

Ejemplo

Dada la matriz:


   A =
   \begin{bmatrix}
      1 & 2 & 3 \\
      1 & 2 & 7 \\
      4 & 9 & 2 \\
      6 & 0 & 5
   \end{bmatrix}

que es una matriz 4x3. El elemento  A[2,3] \; o  a_{2,3} \; es el 7.

La matriz


   R =
   \begin{bmatrix}
    1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9
   \end{bmatrix}

es una matriz 1×9, o un vector fila con 9 elementos.

Operaciones básicas

Suma o adición

Dadas las matrices m-por-n ,A y B, su suma A + B es la matriz m-por-n calculada sumando los elementos correspondientes (i.e. (A + B)[i, j] = A[i, j] + B[i, j] ). Es decir, sumar cada uno de los elementos homólogos de las matrices a sumar. Por ejemplo:


  \begin{bmatrix}
    1 & 3 & 2 \\
    1 & 0 & 0 \\
    1 & 2 & 2
  \end{bmatrix}
  +
  \begin{bmatrix}
    1 & 0 & 5 \\
    7 & 5 & 0 \\
    2 & 1 & 1
  \end{bmatrix}
  =
  \begin{bmatrix}
    1+1 & 3+0 & 2+5 \\
    1+7 & 0+5 & 0+0 \\
    1+2 & 2+1 & 2+1
  \end{bmatrix}
  =
  \begin{bmatrix}
    2 & 3 & 7 \\
    8 & 5 & 0 \\
    3 & 3 & 3
  \end{bmatrix}

Propiedades

  • Asociativa

Dadas las matrices m×n A, B y C

(A + B) + C = A + (B + C)
  • Conmutativa

Dadas las matrices m×n A y B

A + B = B + A
  • Existencia de matriz cero o matriz nula
A + 0 = 0 + A = A
  • Existencia de matriz opuesta

con gr-A = [-aij]

A + (-A) = 0

(C-I2)-1(AT+B)

Producto por un escalar

Dada una matriz A y un escalar c, su producto cA se calcula multiplicando el escalar por cada elemento de A (i.e. (cA)[i, j] = cA[i, j] ).

Ejemplo


  2
  \begin{bmatrix}
    1 &  8 & -3 \\
    4 & -2 & 6
  \end{bmatrix}
  =
  \begin{bmatrix}
    2\times 1 &  2\times 8 & 2\times -3 \\
    2\times 4 & 2\times -2 & 2\times 6
  \end{bmatrix}
  =
  \begin{bmatrix}
    2 & 16 & -6 \\
    8 & -4 & 12
  \end{bmatrix}

Propiedades

Sean A y B matrices y c y d escalares.

  • Clausura: Si A es matriz y c es escalar, entonces cA es matriz.
  • Asociatividad: (cd)A = c(dA)
  • Elemento Neutro: 1·A = A
  • Distributividad:
    • De escalar: c(A+B) = cA+cB
    • De matriz: (c+d)A = cA+dA

Producto

Diagrama esquemático que ilustra el producto de dos matrices A y B dando como resultado la matriz AB.
Artículo principal: Multiplicación de matrices

El producto de dos matrices se puede definir sólo si el número de columnas de la matriz izquierda es el mismo que el número de filas de la matriz derecha. Si A es una matriz m×n y B es una matriz n×p, entonces su producto matricial AB es la matriz m×p (m filas, p columnas) dada por:

 (AB)[i,j] = A[i,1]  B[1,j] + A[i,2]  B[2,j] + ... + A[i,n]  B[n,j] \!\

para cada par i y j.

Por ejemplo:


  \begin{bmatrix}
    1 & 0 & 2 \\
    -1 & 3 & 1 \\
  \end{bmatrix}
\times
  \begin{bmatrix}
    3 & 1 \\
    2 & 1 \\
    1 & 0
  \end{bmatrix}
=
  \begin{bmatrix}
     (1 \times 3  +  0 \times 2  +  2 \times 1) & (1 \times 1   +   0 \times 1   +   2 \times 0) \\
    (-1 \times 3  +  3 \times 2  +  1 \times 1) & (-1 \times 1   +   3 \times 1   +   1 \times 0) \\
  \end{bmatrix}
=
  \begin{bmatrix}
    5 & 1 \\
    4 & 2 \\
  \end{bmatrix}

Propiedades

Si los elementos de la matriz pertenecen a un cuerpo, y puede definirse el producto, el producto de matrices tiene las siguientes propiedades:

  • Propiedad asociativa: (AB)C = A(BC).
  • Propiedad distributiva por la derecha: (A + B)C = AC + BC.
  • Propiedad distributiva por la izquierda: C(A + B) = CA + CB.
  • En general, el producto de matrices tiene divisores de cero: Si A.B = 0 , No necesariamente A ó B son matrices nulas
  • El producto de matrices no verifica la propiedad de simplificación: Si A.B = A.C, No necesariamente B=C

El producto de dos matrices generalmente no es conmutativo, es decir, AB ≠ BA. La división entre matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra definida. Sin embargo, existe el concepto de matriz inversa, sólo aplicable a las matrices invertibles.

Aplicaciones lineales

Las matrices pueden representar convenientemente aplicaciones lineales (también conocidas como "transformaciones lineales") entre dos espacios vectoriales de dimensión finita. Así, si n es el espacio euclídeo n-dimensional cuyos vectores se pueden representar como vectores columna (matrices n-por-1), para cada aplicación lineal f : nm existe una única matriz A m por n de tal forma que

f(\mathbf x) = \mathbf {Ax}

para cada vector x de n.

Se dice que la matriz A "representa" la aplicación lineal f, o que A es la matriz coordenada de f.

El producto de matrices claramente corresponde a la composición de las aplicaciones. Si la matriz k por m B representa otra aplicación lineal g : mk, entonces la composición g o f se representa por BA:

(g \circ f) (\mathbf x) = g (f(\mathbf x)) = g(\mathbf{Ax}) = \mathbf B (\mathbf {Ax}) = (\mathbf {BA}) \mathbf x \,.

Esto se desprende de la mencionada propiedad asociativa del producto de matrices.

Más en general, una aplicación lineal de un espacio vectorial n-dimensional en otro espacio vectorial m-dimensional (no necesariamente n) se representa por una matriz m por n, a condición de que se haya elegido una base para cada uno de ellos.

Rango

Artículo principal: Rango de una matriz

El rango de una matriz A es la dimensión de la imagen de la aplicación lineal representada por A, que coincide con la dimensión de los espacios vectoriales generados por las filas o columnas de A. También puede ser definido sin referencia al álgebra lineal de la siguiente manera: el rango de una matriz m por n A es el más pequeño número k de tal manera que A puede escribirse como un producto BC donde B es una matriz m por k y C es una matriz k por n (aunque ésta no es una manera práctica de calcular el rango).

Traspuesta

Artículo principal: Matriz traspuesta

La traspuesta de una matriz m-por-n A es la matriz n-por-m AT (algunas veces denotada por At) formada al intercambiar las filas y columnas, i.e.

(\mathbf{A}^T)_{i,j} = \mathbf{A}_{j,i}. \,

La trasposición de matrices tiene las siguientes propiedades:

 \begin{align}
& (\mathbf{A}^T)^T = \mathbf{A}, \\
& (\mathbf{A} + \mathbf{B})^T = \mathbf{A}^T + \mathbf{B}^T, \\
& (\mathbf{A} \mathbf{B})^T = \mathbf{B}^T \mathbf{A}^T, \\
\end{align}

Si A describe una aplicación lineal respecto a dos bases, entonces la matriz AT describe la traspuesta de una aplicación lineal respecto a las bases del espacio dual.

Matrices cuadradas y definiciones relacionadas

Una matriz cuadrada es una matriz que tiene el mismo número de filas que de columnas. El conjunto de todas las matrices cuadradas n-por-n junto a la suma y la multiplicación de matrices, es un anillo que generalmente no es conmutativo.

M(n,R), el anillo de las matrices cuadradas reales, es un álgebra asociativa real unitaria. M(n,C), el anillo de las matrices cuadradas complejas, es un álgebra asociativa compleja.

La matriz identidad In de orden n es la matriz n por n en la cual todos los elementos de la diagonal principal son iguales a 1 y todos los demás elementos son iguales a 0. La matriz identidad se denomina así porque satisface las ecuaciones MIn = M y InN = N para cualquier matriz M m por n y N n por k. Por ejemplo, si n = 3:



\mathbf{I}_3 =
\begin{bmatrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{bmatrix}
.

La matriz identidad es el elemento unitario en el anillo de matrices cuadradas.

Los elementos invertibles de este anillo se llaman matrices invertibles o matrices no singulares. Una matriz A n por n es invertible si y sólo si existe una matriz B tal que

AB = In = BA.

En este caso, B es la matriz inversa de A, identificada por A-1 . El conjunto de todas las matrices invertibles n por n forma un grupo (concretamente un grupo de Lie) bajo la multiplicación de matrices, el grupo lineal general.

Si λ es un número y v es un vector no nulo tal que Av = λv, entonces se dice que v es un vector propio de A y que λ es su valor propio asociado. El número λ es un valor propio de A si y sólo si A−λIn no es invertible, lo que sucede si y sólo si pA(λ) = 0, donde pA(x) es el polinomio característico de A. pA(x) es un polinomio de grado n y por lo tanto, tiene n raíces complejas múltiples raíces si se cuentan de acuerdo a su multiplicidad. Cada matriz cuadrada tiene como mucho n valores propios complejos.

El determinante de una matriz cuadrada A es el producto de sus n valores propios, pero también puede ser definida por la fórmula de Leibniz. Las matrices invertibles son precisamente las matrices cuyo determinante es distinto de cero.

El algoritmo de eliminación gaussiana puede ser usado para calcular el determinante, el rango y la inversa de una matriz y para resolver sistemas de ecuaciones lineales.

La traza de una matriz cuadrada es la suma de los elementos de la diagonal, lo que equivale a la suma de sus n valores propios.

Las matrices en la Computación

Las matrices son utilizadas ampliamente en la computación, por su facilidad y liviandad para manipular información. En este contexto, son la mejor forma para representar grafos, y son muy utilizadas en el cálculo numérico.

Véase también

Notas

  1. Tony Crilly (2011). 50 cosas que hay que saber sobre matemáticas. Ed. Ariel. ISBN 978-987-1496-09-9. 
  2. a b Swaney, Mark. History of Magic Squares.
  3. Shen Kangshen et al. (ed.) (1999). Nine Chapters of the Mathematical Art, Companion and Commentary. Oxford University Press.  cited byOtto Bretscher (2005). Linear Algebra with Applications (3rd ed. edición). Prentice-Hall. pp. 1. 


Wikimedia foundation. 2010.