Professional Documents
Culture Documents
Las matrices se utilizan para mltiples aplicaciones y sirven, en particular, para representar los
coeficientes de los sistemas de ecuaciones lineales o para representar lasaplicaciones lineales; en
este ltimo caso las matrices desempean el mismo papel que los datos de un vector para las
aplicaciones lineales.
Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que tambin las hace un
concepto clave en el campo del lgebra lineal.
ndice
1 Historia
2 Definiciones y notaciones
3 Ejemplo
4 Operaciones bsicas
4.1.1 Propiedades
4.2.1 Propiedades
o 4.3 Producto
4.3.1 Propiedades
o 4.4 Rango
o 4.5 Traspuesta
7 Teora de matrices
8 Matrices relacionadas con otros temas
9 Algunos teoremas
10 Matriz y grafos
11 Vase tambin
12 Referencias
13 Enlaces externos
14 Notas
Historia[editar]
Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un importante texto
matemtico chino que proviene del ao 300 a. C. a 200 a. C., Nueve captulos sobre el Arte de las
matemticas (Jiu Zhang Suan Shu), es el primer ejemplo conocido de uso del mtodo de matrices
para resolver un sistema de ecuaciones simultneas.3 En el captulo sptimo, "Ni mucho ni poco",
el concepto de determinante apareci por primera vez, dos mil aos antes de su publicacin por el
matemtico japons Seki Kwa en 1683 y el matemtico alemn Gottfried Leibniz en 1693.
Los "cuadrados mgicos" eran conocidos por los matemticos rabes, posiblemente desde
comienzos del siglo VII, quienes a su vez pudieron tomarlos de los matemticos y astrnomos de
la India, junto con otros aspectos de las matemticas combinatorias. Todo esto sugiere que la idea
provino de China. Los primeros "cuadrados mgicos" de orden 5 y 6 aparecieron en Bagdad en
el 983, en la Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan al-Safa).2
Despus del desarrollo de la teora de determinantes por Seki Kowa y Leibniz para facilitar la
resolucin de ecuaciones lineales, a finales del siglo XVII, Cramer present en 1750la ahora
denominada regla de Cramer. Carl Friedrich Gauss y Wilhelm Jordan desarrollaron la eliminacin
de Gauss-Jordan en el siglo XIX.
Fue James Joseph Sylvester quien utiliz por primera vez el trmino matriz en 1848/1850.
Definiciones y notaciones[editar]
Casi siempre se denotan a las matrices con letras maysculas mientras que se utilizan las
correspondientes letras en minsculas para denotar las entradas de las mismas. Por ejemplo, al
elemento de una matriz de tamao que se encuentra en la fila sima y la
columna sima se le denota como , donde y . Cuando se va a
representar explcitamente una entrada la cul est indexada con un o un con dos cifras se
introduce una coma entre el ndice de filas y de columnas. As por ejemplo, la entrada que est en
la primera fila y la segunda columna de la matriz de tamao se representa
como mientras que la entrada que est en la fila nmero 23 y la columna 100 se representa
como .
Adems de utilizar letras maysculas para representar matrices, numerosos autores representan a
las matrices con fuentes en negrita para distinguirlas de otros objetos matemticos. As es una
matriz, mientras que es un escalar en esa notacin. Sin embargo sta notacin generalmente
se deja para libros y publicaciones, donde es posible hacer sta distincin tipogrfica con facilidad.
En otras notaciones se considera que el contexto es lo suficientemente claro como para no usar
negritas.
Otra definicin, muy usada en la solucin de sistemas de ecuaciones lineales, es la de vectores fila
y vectores columna. Un vector fila o vector rengln es cualquier matriz de tamao
mientras que un vector columna es cualquier matriz de tamao .
A las matrices que tienen el mismo nmero de filas que de columnas, , se les
llama matrices cuadradas y el conjunto se denota o alternativamente .
Ejemplo[editar]
Dada la matriz
La matriz
Operaciones bsicas[editar]
Las operaciones que se pueden hacer con matrices provienen de sus aplicaciones, sobre todo de
las aplicaciones en lgebra lineal. De ese modo las operaciones, o su forma muy particular de ser
implementadas, no son nicas.
Suma o adicin[editar]
Sean . Se define la operacin de suma o adicin de matrices como
una operacin binaria tal
que y donde en el que la operacin de suma en
la ltima expresin es la operacin binaria correspondiente pero en el campo . Por ejemplo, la
entrada es igual a la suma de los elementos y lo cual es .
A la luz de stos ejemplos es inmediato ver que dos matrices se pueden sumar solamente si ambas
tienen el mismo tamao. La suma de matrices en el caso de que las entradas estn en
un campo sern la asociatividad, la conmutatividad, existencia de elemento neutro aditivo y
existencia de inverso aditivo. sto es as ya que stas son propiedades de los campos en los que
estn las entradas de la matriz. A continuacin se presentan las propiedades.
Propiedades[editar]
Asociatividad
Conmutatividad
Demostracin Dada la definicin de la operacin binaria se sigue el resultado ya
que debido a que para todo .
En efecto, stas propiedades dependen el conjunto en el que estn las entradas, como se ha dicho
antes, aunque en las aplicaciones generalmente los campos usados son (los nmeros reales)
y (los nmeros complejos).
Por como se defini la operacin binaria adicin se dice que sta operacin es una operacin
interna por lo que se cumple intrnsecamente la propiedad de que es cerrado bajo
adicin. Con stas propiedades se tiene que es un grupo abeliano.
Tambin es inmediato observar que el producto por un escalar da como resultado una matriz del
mismo tamao que la original. Tambin el producto por un escalar depender de la estructura
algebraica en la que las entradas estn. En el caso de que estn en un campo sern dos
distributividades (una respecto de suma de matrices y otra respecto de suma en el campo),
asociatividad y una propiedad concerniente al producto por el elemento neutro multiplicativo del
campo. A continuacin se presentan las propiedades.
Propiedades[editar]
Asociatividad
Por como se defini la operacin de producto por escalares se dice que es cerrado
bajo producto por escalares. Con stas propiedades y las de la adicin se tiene que
es un espacio vectorial con las operaciones de suma y producto por escalares definidas antes.
En el caso de que las entradas y los escalares no estn en un campo sino en un anillo entonces no
necesariamente existe el neutro multiplicativo. En caso de que exista, con lo cual el anillo es
un anillo con uno, se dice que es un mdulo sobre .
Producto[editar]
Diagrama esquemtico que ilustra el producto de dos matrices y dando como resultado la
matriz .
El producto de matrices se define de una manera muy peculiar y hasta caprichosa cuando no se
conoce su origen. El origen proviene del papel de las matrices como representaciones
de aplicaciones lineales. As el producto de matrices, como se define, proviene de la composicin
de aplicaciones lineales. En este contexto, el tamao de la matriz corresponde con las dimensiones
de los espacios vectorialesentre los cuales se establece la aplicacin lineal. De ese modo el
producto de matrices, representa la composicin de aplicaciones lineales.
Sin tomar en cuenta la motivacin que viene desde las aplicaciones lineales, es evidente ver que si
ignoramos la definicin de la funcin de producto de matrices y slo se toma en cuenta la
definicin de las entradas, el producto no estar bien definido, ya que si no tiene el mismo
nmero de columnas que de filas entonces no podremos establecer en donde acaba la suma: si
la acabamos en el mayor de stos nmeros habr sumandos que no estn definidos ya que una de
las matrices no tendr mas entradas, mientras que si tomamos el menor habr entradas de alguna
de las matrices que no se tomen en cuenta. As es necesario que tenga el mismo nmero de
columnas que de filas para que exista.
Como se puede suponer tambin, las propiedades de sta operacin sern ms limitadas en la
generalidad ya que adems de las limitaciones impuestas por la naturaleza de las entradas est
esta limitacin respecto a tamao. Es claro, adems, que el producto de matrices no siempre es
una operacin interna.
Propiedades[editar]
Asociatividad
Demostracin. Dada la definicin de la operacin se sigue el resultado ya que,
si , y por lo
que
donde debido a que para todo . Aqu
estamos considerando que es , es y es .
que debido a
que para todo . Aqu estamos considerando que es ,
es y es .
que debido
a que para todo . Aqu estamos considerando que es ,
es y es .
Traspuesta[editar]
entonces su traspuesta es
As, informalmente podramos decir que la traspuesta es aquella matriz que se obtiene de la
original cambiando filas por columnas. Las notaciones usuales para denotar la traspuesta de una
matriz son .
M(n,R), el anillo de las matrices cuadradas reales, es un lgebra asociativa real unitaria. M(n,C), el
anillo de las matrices cuadradas complejas, es un lgebra asociativa compleja.
La matriz identidad In de orden n es la matriz n por n en la cual todos los elementos de la diagonal
principal son iguales a 1 y todos los dems elementos son iguales a 0. La matriz identidad se
denomina as porque satisface las ecuaciones MIn = M y InN = N para cualquier
matriz M m por n y N n por k. Por ejemplo, si n = 3:
Los elementos invertibles de este anillo se llaman matrices invertibles, regulares o no singulares.
Una matriz A n por n es invertible si y slo si existe una matriz B tal que
AB = In = BA.
En este caso, B es la matriz inversa de A, identificada por A-1 . El conjunto de todas las matrices
invertibles n por n forma un grupo (concretamente un grupo de Lie) bajo la multiplicacin de
matrices, el grupo lineal general.
El determinante de una matriz cuadrada A es el producto de sus n valores propios, pero tambin
puede ser definida por la frmula de Leibniz. Las matrices invertibles son precisamente las
matrices cuyo determinante es distinto de cero.
El algoritmo de eliminacin gaussiana puede ser usado para calcular el determinante, el rango y la
inversa de una matriz y para resolver sistemas de ecuaciones lineales.
La traza de una matriz cuadrada es la suma de los elementos de la diagonal, lo que equivale a la
suma de sus n valores propios.
Una matriz de Vandermonde es una matriz cuadrada cuyas filas son las potencias de un nmero.
Su determinante es fcil de calcular.
Las matrices son utilizadas ampliamente en la computacin, por su facilidad y liviandad para
manipular informacin. En este contexto, son una buena forma para representargrafos, y son muy
utilizadas en el clculo numrico. En la computacin grfica, las matrices son ampliamente usadas
para lograr animaciones de objetos y formas.
Teora de matrices[editar]
Una matriz puede identificarse a una aplicacin lineal entre dos espacios vectoriales de dimensin
finita. As la teora de las matrices habitualmente se considera como una rama del lgebra lineal.
Las matrices cuadradas desempean un papel particular, porque el conjunto de matrices de orden
n (n entero natural no nulo dado) posee propiedades de estabilidad de operaciones.
Algunos teoremas[editar]
Teorema de Cayley-Hamilton
Matriz y grafos[editar]
En teora de los grafos, a todo grafo etiquetado corresponde la matriz de adyacencia. Una matriz
de permutacin es una matriz que representa una permutacin; matriz cuadrada cuyos
coeficientes son 0 o 1, con un solo 1 en cada lnea y cada columna. Estas matrices se utilizan en
combinatorio.
En la teora de grafos, se llama matriz de un grafo a la matriz que indica en la lnea i y la columna j
el nmero de aristas que enlazan el vrtice i al vrtice j. En un grafo no orientado, la matriz es
simtrica. La suma de los elementos de una columna permite determinar el grado de un vrtice. La
matriz indica en la lnea i y la columna j el nmero de caminos a n aristas que adjuntan el
vrtice i al vrtice j.
Vase tambin[editar]
Descomposicin de Schur
Descomposicin QR
Determinante (matemtica)
Eliminacin de Gauss-Jordan
Factorizacin LU
Lema de Schur
Matlab
Matriz triangular
Referencias[editar]
Beezer, Rob, Un primer curso en lgebra lineal, licencia bajo GFDL. (En ingls)
Enlaces externos[editar]
Una breve historia del lgebra lineal y de la teora de matrices lineal (En ingls)
Matemticas/Matrices(En Wikilibros)
Notas[editar]
1. Volver arriba Tony Crilly (2011). 50 cosas que hay que saber sobre matemticas.
Ed. Ariel. ISBN 978-987-1496-09-9.