Professional Documents
Culture Documents
Las matrices aparecen por primera vez hacia el ao 1850, introducidas por J.J. Sylvester El desarrollo inicial de la teora se de e al matem!tico ".#. $amilton en 185% En 1858, &. 'ayley introduce la notaci(n matricial como una )orma a reviada de escri ir un sistema de m ecuaciones lineales con n inc(*nitas. Las matrices se utilizan en el c!lculo num+rico, en la resoluci(n de sistemas de ecuaciones lineales, de las ecuaciones di)erenciales y de las derivadas parciales. &dem!s de su utilidad para el estudio de sistemas de ecuaciones lineales, las matrices aparecen de )orma natural en *eometra, estadstica, economa, in)orm!tica, )sica, etc... La utilizaci(n de matrices ,arrays- constituye actualmente una parte esencial dn los len*ua.es de pro*ramaci(n, ya /ue la mayora de los datos se introducen en los ordenadores como ta las or*anizadas en )ilas y columnas 0 ho.as de c!lculo, ases de datos,...
CONCEPTO DE MATRIZ
1na matriz es un con.unto de elementos de cual/uier naturaleza aun/ue, en *eneral, suelen ser n2meros ordenados en )ilas y columnas. Se llama matriz de orden "m 3 n" a un conjunto rectangular de elementos aij dispuestos en m filas y en n columnas. El orden de una matriz tambin se denomina dimensin o tamao, siendo m y n nmeros naturales. Las matrices se denotan con letras may2sculas0 &, 4, ', ... y los elementos de las mismas con letras min2sculas y su ndices /ue indican el lu*ar ocupado0 a, , c, ... 1n elemento *en+rico /ue ocupe la )ila i y la columna j se escri e aij . Si el elemento *en+rico aparece entre par+ntesis tam i+n representa a toda la matriz 0 & 5 ,aij-
'uando nos re)erimos indistntamente a )ilas o columnas ha lamos de lineas. El n2mero total de elementos de una matriz &m3n es m6n En matem!ticas, tanto las Listas como las Tablas reci en el nom re *en+rico de matrices. Una lista numrica es un conjunto de nmeros dispuestos uno a continuacin del otro.
MATRICES IGUALES
7os matrices & 5 ,aij-m3n y 4 5 ,bij-p3 son i*uales, s y solo si, tienen en los mismo lu*ares elementos i*uales, es decir 0
$ay al*unas matrices /ue aparecen )recuentemente y /ue se*2n su )orma, sus elementos, ... reci en nom res di)erentes 0
!ipo de matriz
89L&
"efinicin
# uella matriz ue tiene una sola fila, siendo su orden
Ejemplo
13n
# uella matriz ue tiene una sola columna, siendo su
':L1;<&
orden m31
#E'=&<>1L&#
orden m$n ,
"ada una matriz &, se llama traspuesta de & a la matriz ue se obtiene cambiando ordenadamente las filas por las columnas. Se representa por &t ( &=
=#&S?1ES=&
:?1ES=&
%a matriz opuesta de una dada es la ue resulta de sustituir cada elemento por su opuesto. %a opuesta de & es @&.
<1L&
Si todos sus elementos son cero. !ambin se denomina matriz cero y se denota por &m$n
'1&7#&7&
# uella matriz ue tiene igual nmero de filas ue de columnas, m ' n, diciendose ue la matriz es de orden n. 7ia*onal principal 0 son los elementos a11 , aAA , ..., ann 7ia*onal secundaria 0 son los elementos ai. con iB. 5 nB1 =raza de una matriz cuadrada 0 es la suma de los elementos de la diagonal principal tr &. Es una matriz cuadrada ue es igual a su traspuesta. & 5 &t , ai. 5 a.i Es una matriz cuadrada ue es igual a la opuesta de su traspuesta. & 5 @&t , ai. 5 (a.i )ecesariamente aii ' 0 Es una matriz cuadrada ue tiene todos sus elementos nulos e*cepto los de la diagonal principal Es una matriz cuadrada ue tiene todos sus elementos nulos e*cepto los de la diagonal principal ue son iguales Es una matriz cuadrada ue tiene todos sus elementos nulos e*cepto los de la diagonal principal ue son iguales a 1. !ambien se denomina matriz
S9;C=#9'&
&<=9S9;C=#9'&
79&>:<&L
ES'&L&#
97E<=97&7
unidad. Es una matriz cuadrada ue tiene todos los elementos por encima +por debajo, de la diagonal principal nulos. Una matriz ortogonal es necesariamente cuadrada e in-ertible . &@1 5 &=
:#=:>:<&L La inversa de una matriz orto*onal es una matriz orto*onal. El producto de dos matrices orto*onales es una matriz orto*onal. El determinante de una matriz orto*onal vale B1 ( @1.
=#9&<>1L&#
<:#;&L
Una matriz es normal si conmuta con su traspuesta. %as matrices simtricas, antisimtricas u ortogonales son necesariamente normales. "ecimos ue una matriz cuadrada & tiene in-ersa, &@1, si se -erifica ue . &6&@1 5 &@16& 5 9
9<DE#S&
/ara establecer las reglas ue rigen el c0lculo con matrices se desarrolla un 0lgebra semejante al 0lgebra ordinaria, pero en lugar de operar con nmeros lo 1acemos con matrices.
SUMA DE MATRICES La suma de dos matrices & 5 ,ai.-m3n y 4 5 , i.-p3 de la misma dimensin +e uidimensionales, . m ' p y n ' es otra matriz ' 5 &B4 5 ,ci.-m3n ' ,ai.B i.-
6 &sociativa 0 &B,4B'- 5 ,&B4-B' 6 'onmutativa 0 &B4 5 4B& 6 Elem. neutro 0 , matriz cero 0m3n - , 0B& 5 &B0 5 & 6 Elem. sim+trico 0 , matriz opuesta @& - , & B ,@&- 5 ,@&- B & 5 0 &l con.unto de las matrices de dimensi(n m3n cuyos elementos son n2meros reales lo vamos a representar por ;m3n y como hemos visto, por cumplir las propiedades anteriores, , ;, B - es un grupo abeliano. EE %a suma y diferencia de dos matrices )2 est0 definida si sus dimensiones son distintas. FF PRODUCTO DE UN NMERO REAL POR UNA MATRIZ ?ara multiplicar un escalar por una matriz se multiplica el escalar por todos los elementos de la matriz, o teni+ndose otra matriz del mismo orden.
PRODUCTO DE MATRICES 7adas dos matrices & 5 ,ai.-m3n y 4 5 , i.-p3 donde n ' p, es decir, el nmero de columnas de la primera matriz & es igual al nmero de filas de la matriz 4 , se define el producto &64 de la siguiente forma .
El elemento a/ue ocupa el lu*ar ,i, .- en la matriz producto se o tiene sumando los productos de cada elemento de la )ila i de la matriz & por el correspondiente de la columna . de la matriz 4.
MATRIZ INVERSA Se llama matriz inversa de una matriz cuadrada &n y la representamos por &@1 , a la matriz /ue veri)ica la si*uiente propiedad 0 &@16& 5 &6&@1 5 9 7ecimos /ue una matriz cuadrada es "regular" si su determinante es distinto de cero, y es "singular" si su determinante es i*ual a cero.
PROPIEDADES :
S(lo eGiste matriz inversa de una matriz cuadrada si +sta es regular. La matriz inversa de una matriz cuadrada, si eGiste, es 2nica. Entre matrices <: eGiste la operaci(n de divisi(n, la matriz inversa realiza )unciones an!lo*as.
Matriz i !"rtibl"
D" #i$i%"&ia' la " (i(l)%"&ia libr"
,#ediri*ido desde ;atriz inversaSaltar a nave*aci(n, 2s/ueda En matem!ticas, y especialmente en !l*e ra lineal, una matriz # de dimensiones n3n se dice /ue es i !"rtibl", i !"rsibl", i !"rsa o ) si *+lar o r"*+lar si eGiste una matriz 3 de dimensiones n3n tal /ue #3 5 3# 5 4n, donde 4n denota la matriz identidad de orden n ,dimensiones n3n- y el producto utilizado es el producto de matrices usual. 1na matriz no inverti le se dice /ue es una matriz sin*ular. La i !"rsa de la matriz # es 2nica. Esto se denota por #@1.
donde
Si la matriz es inverti le, tam i+n lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir0
K, evidentemente0
D"m)stra(i0 ."&itar/
Se pro ar! por do le implicaci(n. N"("si&a& ."&itar/
Suponiendo /ue eGiste 3 tal /ue #3 5 3# 5 4. Entonces al aplicar la )unci(n determinante se o tiene
S+1i(i" (ia
."&itar/
Suponiendo /ue el determinate de # es distinto de cero, sea aij es el elemento i. de la matriz # y sea #ij la matriz # sin la )ila i y la columna j ,com2nmente conocida como j@ +simo menor de &-. Entonces
Sea
, entonces
Esta a)irmaci(n es v!lida propiedades de los determinantes, pues la parte iz/uierda de la relaci(n nos conduce a una matriz con la columna j i*ual a la columna 6 y los dem!s t+rminos i*uales a los de #. Entonces
. Entonces
'omo
Entonces
Matriz 2"rmitia a
D" #i$i%"&ia' la " (i(l)%"&ia libr"
,#ediri*ido desde ;atriz hermticaSaltar a nave*aci(n, 2s/ueda 1na matriz 2"rmitia a ,o 2"rm3ti(a- es una matriz cuadrada de elementos comple.os /ue tiene la caracterstica de ser i*ual a su propia traspuesta con.u*ada. Es decir, el elemento en la i@+sima )ila y j@+sima columna es i*ual al con.u*ado del elemento en la j@ +sima )ila e i@+sima columna, para todos los ndices i y j0
?or e.emplo,
Pr)%i"&a&"s ."&itar/
1. Sea # 5 3 B i5, donde & es hermitiana y 4 y ' reales, entonces 4 es sim+trica ,3 5 3t- y ' antisim+trica ,5 5 J 5t-. A. La inversa de una matriz hermitiana es tam i+n hermitiana. %. En una matriz hermitiana, los elementos de la dia*onal principal son reales. N. La determinante de una matriz hermitiana es un n2mero real. ?ero la propiedad m!s importante de toda matriz hermitiana es /ue todos sus autovalores son reales.
V4as" tambi4
."&itar/
8orma hermtica o 8orma ses/uilineal :perador hermtico ;atriz antihermtica ;atriz normal
: tenido de Ohttp0PPes.QiRipedia.or*PQiRiP;atrizShermitianaO
Empleando la notaci(n /ue a veces se usa para descri ir concisamente las matrices dia*onales, resulta0 4n 5 diag,1,1,...,1Si el tamao es inmaterial, o se puede deducir de )orma trivial por el conteGto, entonces se escri e simplemente como 4. =am i+n se puede escri ir usando la notaci(n delta de TronecRer0 4ij 5 Lij o, de )orma a2n m!s sencilla, 4 5 ,LijLa matriz i&" ti&a& de orden n puede ser tam i+n considerada como la matriz permutaci(n /ue es "l"m" t) "+tr) del *r+%) &" matri("s &" %"rm+ta(i0 de orden nF. : tenido de Ohttp0PPes.QiRipedia.or*PQiRiP;atrizSidentidadO
Matriz i !"rtibl"
%.1.A Su)iciencia
donde
Si la matriz es inverti le, tam i+n lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir0
K, evidentemente0
D"m)stra(i0 ."&itar/
Se pro ar! por do le implicaci(n. N"("si&a& ."&itar/
Suponiendo /ue eGiste 3 tal /ue #3 5 3# 5 4. Entonces al aplicar la )unci(n determinante se o tiene
S+1i(i" (ia
."&itar/
Suponiendo /ue el determinate de # es distinto de cero, sea aij es el elemento i. de la matriz # y sea #ij la matriz # sin la )ila i y la columna j ,com2nmente conocida como j@ +simo menor de &-. Entonces
Sea
, entonces
Esta a)irmaci(n es v!lida propiedades de los determinantes, pues la parte iz/uierda de la relaci(n nos conduce a una matriz con la columna j i*ual a la columna 6 y los dem!s t+rminos i*uales a los de #. Entonces
. Entonces
'omo
Entonces
5a()bia )
D" #i$i%"&ia' la " (i(l)%"&ia libr"
,#ediri*ido desde ;atriz .aco ianaSaltar a nave*aci(n, 2s/ueda En c!lculo vectorial, el 6a()bia ) es una a reviaci(n de la matriz 6a()bia a y su determinante, el &"t"rmi a t" 5a()bia ). Son llamados as en honor al matem!tico 'arl >ustav Jaco i. En *eometra al*e raica, el 6a()bia ) de una curva hace re)erencia a la variedad .aco iana, un *rupo y variedad al*e raica asociada a la curva, donde la curva puede ser em e ida.
reales0 y1,*1,...,*n-, ..., ym,*1,...,*n-. Las derivadas parciales de estas ,si eGisten- pueden ser or*anizadas en una matriz m por n, la matriz Jaco iana de 70
o como
La i@+sima )ila est! dada por el *radiente de la )unci(n yi, para i51,...,m. Si % es un punto de Rn y 7 es di)erencia le en %, entonces su derivada est! dada por 87,%-. En este caso, la aplicaci(n lineal descrita por 87,%- es la me.or aproGimaci(n lineal de 7 cerca del punto %, de esta manera0
para 7 cerca de %.
E6"m%l) ."&itar/
El Jaco iano de la )unci(n 7 0 R% V R% de)inida como0
es0
de una )unci(n
de 9n a 9m en el
en la )(rmula0 .
Este es el vector /ue va en la primera columna de la matriz uscada. ?or analo*a para , se consi*uen las dem!s columnas. 7e este modo, la matriz Jaco iana de en el punto es0
E6"m%l) ."&itar/
El determinante Jaco iano de la )unci(n 7 0 R% V R% de)inida como0
es0
La )unci(n es localmente inversi le eGcepto donde *150 ( *A50. Si ima*inamos un o .eto pe/ueo centrado en el punto ,1,1,1- y le aplicamos 7, tendremos un o .eto de aproGimadamente N0 veces m!s volumen /ue el ori*inal.
Matriz sim4tri(a
D" #i$i%"&ia' la " (i(l)%"&ia libr"
Saltar a nave*aci(n, 2s/ueda 1na matriz de elementos0
es sim+trica, si es una matriz cuadrada ,m 5 n- y aij 5 aji para todo i, . 51,A,%,N,...,n. <(tese /ue la simetra es respecto a la dia*onal principal y /ue & es tam i+n, una matriz traspuesta. E.emplo, para n 5 %0
Pr)%i"&a&"s ."&itar/
1no de los teoremas !sicos /ue concierne este tipo de matrices es el teorema espectral de dimensi(n )inita, /ue dice /ue toda matriz sim+trica cuyas entradas sean reales puede ser dia*onalizada por una matriz orto*onal. Cste es un caso especial de una matriz hermtica.
A+t)!al)r"s ."&itar/
'omo las matrices sim+tricas son un caso particular de las matrices hermticas, todos sus autovalores son reales. 'on ase en las propiedades de los autovalores de una matriz sim+trica, se pueden clasi)icar en los si*uientes tipos0
definida positi-a. 1na matriz sim+trica es de)inida positiva si y solo si todos sus autovalores son estrictamente positivos. definida negati-a. 1na matriz sim+trica es de)inida ne*ativa si y solo si todos sus autovalores son estrictamente ne*ativos. semidefinida positi-a. 1na matriz sim+trica es semide)inida positiva si y solo si todos sus autovalores son mayores o i*uales a cero. semidefinida negati-a. 1na matriz sim+trica es semide)inida ne*ativa si y solo si todos sus autovalores son menores o i*uales a cero.
Matriz a tisim4tri(a
D" #i$i%"&ia' la " (i(l)%"&ia libr"
Saltar a nave*aci(n, 2s/ueda 1na matriz de nGm elementos0
es antisim+trica, si es una matriz cuadrada ,m 5 n- y aji 5 J aij para todo i,. 51,A,%,...,n. En consecuencia, aii 5 0 para todo i. ?or lo tanto, la matriz & asume la )orma0
<(tese /ue la matriz traspuesta de la matriz antisimetrica & es @&, y /ue la antisimetra es respecto a la dia*onal principal. : tenido de Ohttp0PPes.QiRipedia.or*PQiRiP;atrizSantisimY'%Y&ZtricaO
Una matriz es involutiva si A2 = I (matriz identidad). Una matriz es ortogonal si tA = A-1.
Las matrices )ila y columna se llaman ha itualmente -ectores. 'uando en una matriz cuadrada son ceros todos los elementos /ue no est!n en la diagonal principal ,la /ue va desde el !n*ulo superior iz/uierdo al !n*ulo in)erior derecho- la matriz se llama matriz diagonal. Si todos los t+rminos de una matriz son cero, a la matriz se le llama matriz nula. y se representa por :. Si una matriz dia*onal tiene todos los t+rminos de la dia*onal i*uales se llama matriz escalar. Si una matriz dia*onal tiene todos los t+rminos de la dia*onal i*uales a 1 se llama matriz unidad. 7ada una matriz, su traspuesta es la )ormada al disponer la )ila 1 como columna 1, la )ila A como columna A... la )ila n como columna n. La traspuesta de la matriz & se desi*na por & ,a veces se utiliza & o &W-.
t t
Las matrices cuadradas en las /ue a 5 0 siempre /ue i [ . o ien a 5 0 siempre /ue i \ . se llaman matrices triangulares ,superior o in)erior, se*2n el caso-.
i. i.
1na matriz se llama regular si tiene inversa. Si no tiene inversa se llama singular. 1na matriz es simtrica si es i*ual a su traspuesta. 1na matriz & es antisimtrica ,o 1emisimtrica- si su traspuesta es i*ual a @& 1na matriz & es 1erm:tica si coincide con la matriz traspuesta con.u*ada ,se re)iere a los n2meros comple.os con.u*ados-. Es anti1erm:tica si es opuesta con la matriz traspuesta con.u*ada. 1na matriz es peridica si eGiste al*2n p tal /ue & 5 &. Si p 5 A la matriz se llama idempotente.
p
1na matriz es nilpotente si eGiste al*2n p tal /ue & 5 : ,matriz cero-.
p
Las inc(*nitas se suelen representar utilizando las 2ltimas letras del al)a eto latino, o si son demasiadas, con su ndices.
D"1i i(i0
donde son )unciones de las inc(*nitas. La soluci(n, perteneciente al espacio eucldeo , ser! tal /ue el resultado de evaluar cual/uier eGpresi(n con los valores de dicha soluci(n, veri)i/ue la ecuaci(n.
La primera es la matriz de coe)icientes, donde el t+rmino representa al coe)iciente /ue acompaa a la j(sima inc(*nita de la ecuaci(n i(sima. La se*unda es la matriz de inc(*nitas, donde cada t+rmino se corresponde con una de las inc(*nitas /ue /ueremos averi*uar. K la tercera matriz es la de t+rminos independientes, donde el cada representa al t+rmino independiente de la ecuaci(n i(sima. Esta representaci(n matricial )acilita el uso de al*unos m+todos de resoluci(n, como el m+todo de >auss, en el /ue, partiendo de la matriz aumentada ,matriz de coe)icientes a la /ue se le ha acoplado la matriz de t+rminos independientes-, y aplicando trans)ormaciones lineales so re las ecuaciones, pretendemos lle*ar a una matriz de este tipo0
se corresponder! con el
de la inc(*nita . Si nos encontramos al*una )ila del tipo , con , el sistema no tendr! soluci(n no es de )iar esta in)ormacion eaeaeaF si se edita noes )ia le o no]]
La intersecci(n de dos planos no paralelos es una recta 1n sistema con inc(*nitas se puede representar en el n@espacio correspondiente. En los sistemas con A inc(*nitas, el universo de nuestro sistema ser! el plano idimensional, mientras /ue cada una de las ecuaciones ser! representada por una recta, si es lineal, o por una curva, si no lo es. La soluci(n ser! el punto ,o lnea- donde intersecten todas las rectas y curvas /ue representan a las ecuaciones. Si no eGiste nin*2n punto en el /ue intersecten al mismo tiempo todas las lneas, el sistema es incompati le, o lo /ue es lo mismo, no tiene soluci(n.
En el caso de un sistema con % inc(*nitas, el universo ser! el espacio tridimensional, siendo cada ecuaci(n un plano dentro del mismo. Si todos los planos intersectan en un 2nico punto, las coordenadas de +ste ser!n la soluci(n al sistema. Si, por el contrario, la intersecci(n de todos ellos es una recta o incluso un plano, el sistema tendr! in)initas soluciones, /ue ser!n las coordenadas de los puntos /ue )orman dicha lnea o super)icie. ?ara sistemas de N ( m!s inc(*nitas, la representaci(n *r!)ica no es intuitiva para el ser humano, por lo /ue dichos pro lemas no suelen en)ocarse desde esta (ptica. 1n sistema de ecuaciones, por las soluciones /ue se pueden presentar, se puede di)erenciar los si*uientes casos0 ()m%atibl" si tiene soluci(n e i ()m%atibl" si no la tiene, de ser compati le puede tener un n2mero )inito de soluciones, ()m%atibl" &"t"rmi a&), o in)initas soluciones ()m%atibl" i &"t"rmi a&). Uuedando as la clasi)icaci(n0
Si se representa *r!)icamente, la primera ecuaci(n se corresponde con una circun)erencia de radio y centrada en el ori*en de coordenadas, mientras /ue la se*unda ecuaci(n se corresponde con una recta /ue pasa por el ori*en y cuya pendiente es .
&m as intersectan en dos puntos 2nicos, por lo /ue el sistema es En el caso concreto de los sistemas lineales, los sistemas compati les determinados son a/uellos en los /ue todas sus ecuaciones son linealmente independientes. Los msmos tienen una 2nica soluci(n, la cual se encuentra *eom+tricamente en el punto en donde las rectas se cruzan.
=anto la primera como la se*unda ecuaci(n se corresponden con la recta cuya pendiente es y /ue pasa por el punto , por lo /ue am as intersectan en todos los puntos de dicha recta. El sistema es compati le por ha er soluci(n o intersecci(n entre las rectas, pero es indeterminado al ocurrir esto en in)initos puntos. En este tipo de sistemas, la soluci(n *en+rica consiste en eGpresar una o m!s varia les como )unci(n matem!tica del resto.
En los sistemas lineales compati les indeterminados, al menos una de sus ecuaciones se puede hallar como com inaci(n lineal del resto, es decir, es linealmente dependiente.
I ()m%atibl" ."&itar/
7e un sistema se dice /ue es incompatible cuando no presenta nin*una soluci(n. ?or e.emplo, supon*amos el si*uiente sistema0
Las ecuaciones se corresponden *r!)icamente con dos rectas, am as con la misma pendiente, &l ser paralelas, no se cortan en nin*2n punto, es decir, no eGiste nin*2n valor /ue satis)a*a a la vez am as ecuaciones.
."&itar/
El m+todo de sustituci(n consiste en despe.ar en una de las ecuaciones cual/uier inc(*nita, pre)eri lemente la /ue ten*a menor coe)iciente, para, a continuaci(n, sustituirla en otra ecuaci(n por su valor. En caso de sistemas con m!s de dos inc(*nitas, la seleccionada de e ser sustituida por su valor e/uivalente en todas las ecuaciones eGcepto en la /ue la hemos despe.ado. En ese instante, tendremos un sistema con una ecuaci(n y una inc(*nita menos /ue el inicial, en el /ue podemos se*uir aplicando este m+todo reiteradamente. ?or e.emplo, supon*amos /ue /ueremos resolver por sustituci(n este sistema0
En la primera ecuaci(n, seleccionamos la inc(*nita por ser la de menor coe)iciente y /ue posi lemente nos )acilite m!s las operaciones, y la despe.amos, o teniendo la si*uiente ecuaci(n.
El si*uiente paso ser! sustituir cada ocurrencia de la inc(*nita en la otra ecuaci(n, para as o tener una ecuaci(n donde la 2nica inc(*nita sea la .
&l resolver la ecuaci(n o tenemos el resultado , y si ahora sustituimos esta inc(*nita por su valor en al*una de las ecuaciones ori*inales o tendremos , con lo /ue el sistema /ueda ya resuelto.
I*+ala(i0 ."&itar/
El m+todo de i*ualaci(n se puede entender como un caso particular del m+todo de sustituci(n en el /ue se despe.a la misma inc(*nita en dos ecuaciones y a continuaci(n se i*ualan entre s la parte derecha de am as ecuaciones. =omando el mismo sistema utilizado como e.emplo para el m+todo de sustituci(n, si despe.amos la inc(*nita en am as ecuaciones nos /ueda de la si*uiente manera0
'omo se puede o servar, am as ecuaciones comparten la misma parte iz/uierda, por lo /ue podemos a)irmar /ue las partes derechas tam i+n son i*uales entre s.
Lle*ados a este punto, la ecuaci(n resultante es resolu le y podemos o tener el valor de la inc(*nita , y a partir de a/u, sustituyendo dicho valor en una de las ecuaciones ori*inales, o tener el valor de la , /ue adem!s ya se encuentra despe.ada.
R"&+((i0 ."&itar/
Este m+todo suele emplearse mayoritariamente en los sistemas lineales, siendo pocos los casos en /ue se utiliza para resolver sistemas no lineales. El procedimiento, diseado para sistemas con dos ecuaciones e inc(*nitas, consiste en trans)ormar una de las ecuaciones ,*eneralmente, mediante productos-, de manera /ue o ten*amos dos ecuaciones en la /ue una misma inc(*nita aparezca con el mismo coe)iciente y distinto si*no. & continuaci(n, se suman am as ecuaciones produci+ndose as la reducci(n o cancelaci(n de dicha inc(*nita, o teniendo as una ecuaci(n con una sola inc(*nita, donde el m+todo de resoluci(n es simple. ?or e.emplo, en el sistema
no tenemos m!s /ue multiplicar la primera ecuaci(n por inc(*nita . &l multiplicar, dicha ecuaci(n nos /ueda as0
Si sumamos esta ecuaci(n a la se*unda del sistema ori*inal, o tenemos una nueva ecuaci(n donde la inc(*nita ha sido reducida y /ue, en este caso, nos da directamente el valor de la inc(*nita 0
El si*uiente paso consiste 2nicamente en sustituir el valor de la inc(*nita en cual/uiera de las ecuaciones donde aparecan am as inc(*nitas, y o tener as /ue el valor de es i*ual a .
En primer lu*ar, reducimos la inc(*nita , sumando a la se*unda )ila, la primera multiplicada por , y a la tercera, la primera )ila. La matriz /ueda as0
El si*uiente paso consiste en eliminar la inc(*nita en la primera y tercera )ila, para lo cual les sumamos la se*unda multiplicada por y por , respectivamente.
?or 2ltimo, eliminamos la , tanto de la primera como de la se*unda )ila, sum!ndoles la tercera multiplicada por y por , respectivamente.
Lle*ados a este punto podemos resolver directamente las ecuaciones /ue se nos plantean0 y . :, si lo pre)erimos, podemos multiplicar las
tres )ilas de la matriz por , y respectivamente, y o tener as autom!ticamente los valores de las inc(*nitas en la 2ltima columna. 4. REGLA DE CRAMER
Un sistema de ecuaciones lineales recibe el nombre de sistema de Cramer cuando se cumplen las dos condiciones siguientes: El nmero de ecuaciones es igual al nmero de incgnitas. El determinante de la matriz de los coeficientes (matriz del sistema) es distinto de cero ( det ( A ) # 0 ) Un sistema de Cramer es, por definicin, compatible determinado, puesto que se cumple que rango (A) = rango (A*) = n (n de incgnitas). Consideremos un sistema de Cramer, es decir, un sistema de n ecuaciones lineales con n incgnitas, cu a e!presin general es la siguiente:
"ean A la matriz del sistema (matriz de los coeficientes), entonces det (A) # 0. #lamaremos matriz asociada a la incgnita xi la designaremos por Ai a la matriz que se obtiene al sustituir en la matriz del sistema la columna i por la matriz columna de los t$rminos independientes. Es decir:
Todos los sistemas de Cramer son compatibles determinados. El alor de cada incgnita se obtiene di idiendo el determinante de la matriz asociada a dic!a
incgnita por la matriz del sistema (matriz de los coe"icientes de las incgnitas).
#$e puede aplicar la regla de Cramer para resol er sistemas de ecuaciones lineales compatibles %ue tengan m&s ecuaciones %ue incgnitas' #a respuesta es a"irmati a. %asta con obtener un sistema equi&alente al inicial eliminando las ecuaciones superfluas o dependientes (proporcionales, nulas o que sean combinacin lineal de otras). El procedimiento a seguir es el siguiente: "upongamos que tenemos un sistema de m ecuaciones lineales con n incgnitas, siendo m ( n tal que: rango (A) = rango (A*) = n. 'or lo tanto, sobran m ) n ecuaciones. 'ara a&eriguar cu(les son las ecuaciones de las que podemos prescindir, basta encontrar en la matriz de los coe"icientes ( A ) un menor de orden n distinto de cero, por e)emplo, el que utilizamos para a&eriguar el rango de la matriz A. #as filas que inter&ienen en este menor son las que corresponden a las ecuaciones principales. #as
restantes ecuaciones las podemos suprimir. El siguiente botn abre una &entana que e!plica, mediante un e)emplo, el procedimiento a seguir.
*n sistema de Cramer es+ por de"inicin+ compatible determinado. ,ero+ #$e puede aplicar la regla de Cramer para resol er sistemas de ecuaciones lineales compatibles indeterminados' #a respuesta es tambi$n a"irmati a. El procedimiento a seguir es el siguiente: "upongamos que tenemos un sistema de m ecuaciones lineales con n incgnitas, tal que: rango (A) = rango (A*) = - . n. 'or lo tanto, sobran m ) - ecuaciones , adem(s, *a n ) - incgnitas no principales. 'ara a&eriguar cu(les son las ecuaciones de las que podemos prescindir, cu(les son las incgnitas no principales, basta encontrar en la matriz de los coe"icientes ( A ) un menor de orden - distinto de cero, por e)emplo, el que utilizamos para a&eriguar el rango de la matriz A. #as filas que inter&ienen en este menor son las que corresponden a las ecuaciones principales o independientes. #as restantes ecuaciones las podemos suprimir. #as columnas que figuran en dic*o menor corresponden a las incgnitas principales. #as incgnitas no principales las pasamos al otro miembro pasan a formar un nico t$rmino )unto con el t$rmino independiente. "e obtiene, de este modo, un sistema de - ecuaciones lineales con - incgnitas, cu as soluciones &an a depender de n ) - par&metros (correspondientes a las incgnitas no principales). El siguiente botn abre una &entana que e!plica, mediante un e)emplo, el procedimiento a seguir.
#a siguiente escena resuel&e cualquier sistema de ecuaciones lineales compatible (determinado o indeterminado), utilizando la /egla de Cramer. El nmero m(!imo de ecuaciones de incgnitas que puede tener el sistema es 0.
5. MTODO DE GAUSS
El m1todo de 2auss es una generalizacin del m1todo de reduccin, que utilizamos para eliminar una incgnita en los sistemas de dos ecuaciones con dos incgnitas. Consiste en la aplicacin sucesi&a del m1todo de reduccin, utilizando los criterios de e%ui alencia de sistemas (comentados en el ep+grafe ,), para transformar la matriz ampliada con los t1rminos independientes ( A* ) en una matriz triangular, de modo que cada fila (ecuacin) tenga una incgnita menos que la inmediatamente anterior. "e obtiene as+ un sistema, que llamaremos escalonado, tal que la ltima ecuacin tiene una nica incgnita, la penltima dos incgnitas, la antepenltima tres incgnitas, ..., la primera todas las incgnitas. El siguiente esquema muestra cmo podemos resol&er un sistema de ecuaciones lineales aplicando este m$todo. 'artimos, inicialmente, de un sistema de n ecuaciones lineales con n incgnitas, compatible determinado:
En primer lugar, aplicando sucesi&amente el m$todo de reduccin, eliminamos en todas las ecuaciones, e!cepto en la primera, la incgnita x3, obteni$ndose un sistema equi&alente:
En segundo lugar, aplicando nue&amente el m$todo de reduccin de forma sucesi&a, eliminamos en todas las ecuaciones, e!cepto en las dos primeras, la incgnita x4, obteni$ndose un sistema equi&alente:
En tercer lugar, aplicando sucesi&amente el m$todo de reduccin, eliminamos en todas las ecuaciones, e!cepto en las tres primeras, la incgnita x5, as+ sucesi&amente, *asta obtener el siguiente sistema equi&alente:
'ara resol erlo despe)amos, en primer lugar, la nica incgnita de la ltima ecuacin.
#uego sustituimos $sta en la penltima ecuacin despe)amos la otra incgnita. 'osteriormente, sustituimos dos de las tres incgnitas de la antepenltima ecuacin por sus &alores despe)amos la que queda, as+ sucesi&amente *asta llegar a la primera ecuacin. El siguiente botn abre una &entana que e!plica, mediante un e)emplo, el procedimiento a seguir.
-emos &isto como podemos resol&er un sistema compatible determinado aplicando el m1todo de 2auss, pero #Cmo podemos discutir la compatibilidad o incompatibilidad de cual%uier sistema de ecuaciones lineales con 1ste m1todo' Consideremos un sistema de m ecuaciones lineales con n incgnitas:
"ea A* la matriz ampliada del sistema con los t1rminos independientes, es decir:
#as trans"ormaciones que podemos realizar en dic*a matriz para transformar el sistema inicial en otro e%ui alente son las siguientes: .ultiplicar o di&idir una fila por un nmero real distinto de cero. "umarle o restarle a una fila otra fila. "umarle a una fila otra fila multiplicada por un nmero distinto de cero. Cambiar el orden de las filas. Cambiar el orden de las columnas que corresponden a las incgnitas del sistema, teniendo en cuenta los cambios realizados a la *ora de escribir el nue&o sistema equi&alente. Es decir: si, por e)emplo, la ,/ columna corresponde a la incgnita 6 la tercera a la incgnita z, cambiamos el orden de las columnas, a*ora la ,/ columna corresponde a la incgnita z la tercera a la incgnita 6. Eliminar filas proporcionales o que sean combinacin lineal de otras.
0espu$s de realizar las trans"ormaciones que se consideren pertinentes, se obtendr( un sistema escalonado. "uponiendo que *ubi$semos eliminado, si las *ubiera, las filas nulas (0 0 0 ... 0), que corresponden a ecuaciones del tipo 0 = 0, el sistema e%ui alente tendr+a a*ora - ecuaciones lineales con n incgnitas. 1nalizando el sistema resultante, podemos efectuar su discusin del siguiente modo:
adem(s - = n, es decir, el nmero de ecuaciones del sistema equi&alente es igual al nmero de incgnitas, el sistema es compatible determinado , por lo tanto, tiene una nica solucin. El siguiente botn abre una &entana que ilustra, con un e)emplo, esta situacin.
- . n, es decir, el nmero de ecuaciones es menor que el nmero de incgnitas, el sistema es compatible indeterminado , en consecuencia, tiene infinitas soluciones. En este caso, tenemos que separar las incgnitas principales de las no principales. 'ero, #cu&les son las incgnitas principales' "e puede dar el siguiente criterio: "i el sistema es escalonado tiene ecuaciones, las - primeras incgnitas ser(n las principales las n ) - restantes ser(n las no principales que pasaremos al segundo miembro como par&metros. El siguiente botn abre una &entana que, a tra&$s de un e)emplo, presenta este caso.
#a siguiente escena efecta la discusin resuel&e, en los casos que proceda (sistema compatible determinado o indeterminado), cualquier sistema de ecuaciones lineales, utilizando el m1todo de 2auss. El nmero m(!imo de ecuaciones de incgnitas que puede tener el sistema es 0.
e inversas. 'uando se aplica este proceso, la matriz resultante se conoce como0 O)orma escalonadaO
Hist)ria ."&itar/
El m+todo )ue presentado por el matem!tico 'arl 8riedrich >auss, pero se conoca anteriormente en un importante li ro matem!tico chino llamado 8iuz1ang suans1u o )ue-e cap:tulo de arte matem0tico. G
E6"m%l) ."&itar/
Supon*amos /ue es necesario encontrar los n2meros *, y, z, /ue satis)acen simult!neamente estas ecuaciones A* B y J z 5 8, J %* J y B Az 5 J 11, J A* B y B Az 5 J % Esto es llamado un sistema lineal de ecuaciones El o .etivo es reducir el sistema a otro e/uivalente, /ue ten*a las mismas soluciones. Las operaciones ,llamadas elementalesson estas0
;ultiplicar una ecuaci(n por un escalar no nulo. 9ntercam iar de posici(n dos ecuaciones Sumar a una ecuaci(n un m2ltiplo de otra.
Estas operaciones pueden representarse con matrices elementales /ue se usan tam i+n en otros procedimientos como la )actorizaci(n L1 o la dia*onalizaci(n por con*ruencia de una matriz sim+trica.
En nuestro e.emplo, eliminamos * de la se*unda ecuaci(n sumando %PA veces la primera ecuaci(n a la se*unda y despu+s sumamos la primera ecuaci(n a la tercera. El resultado es0 , , &hora eliminamos y de la primera ecuaci(n sumando @A veces la se*unda ecuaci(n a la primera, y sumamos @N veces la se*unda ecuaci(n a la tercera para eliminar y. A* J Az 5 ^, , Jz51 8inalmente eliminamos z de la primera ecuaci(n sumando @A veces la tercera ecuaci(n a la primera, y sumando 1PA veces la tercera ecuaci(n a la se*unda para eliminar z. A* 5 N, , Jz51 7espe.ando, podemos ver las soluciones0 * 5 A, y 5 % y z 5 J1. ?ara clari)icar los pasos ,y es en realidad lo /ue las computadoras mane.an-, se tra a.a con la matriz aumentada. ?odemos ver los % pasos en su notaci(n matricial0 ?rimero0
7espu+s,
?or 2ltimo.
Si el sistema )uera incompati le, entonces nos encontraramos con una )ila como esta0
tam i+n es una matriz escalonada reducida. 1na vez /ue la matriz del sistema se ha trans)ormado hasta o tener una matriz escalonada reducida es muy )!cil discutirlo ,es decir, determinar cu!ntas soluciones tiene-0 1. 'uando aparece un pivote en la columna de los t+rminos independientes el sistema es incompati le ,no tiene nin*una soluci(n-. A. En otro caso el sistema es compati le. Si adem!s el n2mero de pivotes coincide con el n2mero de inc(*nitas el sistema es compati le determinado ,tiene una 2nica soluci(n-. 'uando el n2mero de pivotes es menor /ue el n2mero de inc(*nitas el sistema es indeterminado ,tiene in)initas soluciones /ue dependen de tantos par!metros como indi/ue la di)erencia entre el n2mero de inc(*nitas y el n2mero de pivotes-.
se construira
y ahora se realizan las operaciones elementales so re las )ilas de la matriz aumentada /ue sean necesarias para o tener la )orma escalonada reducida de la matriz #_ sumando tanto a la se*unda como a la tercera )ila la primera o tenemos
ya tenemos el pivote de la primera )ila /ue usamos para hacer ceros de a.o
y por 2ltimo cam iamos de si*no la tercera )ila y usamos el pivote correspondiente
El proceso ha )inalizado por/ue en la parte iz/uierda tenemos la )orma escalonada reducida de # y puesto /ue +sta es la matriz identidad, entonces # tiene inversa y su inversa es la matriz /ue aparece a la derecha, en el lu*ar /ue al principio ocupa a la identidad. 'uando la )orma escalonada reducida /ue aparece no es la identidad es /ue la matriz de partida no tiene inversa.
ELIMINACIN GAUSSIANA
Este m$todo se aplica para resol&er sistemas lineales de la forma:
El m$todo de eliminacin 2aussiana (simple), consiste en escalonar la matriz aumentada del sistema:
donde la notacin se usa simplemente para denotar que el elemento cambi. "e despe)an las incgnitas comenzando con la ltima ecuacin *acia arriba. 'or esta razn, muc*as &eces se dice que el m$todo de eliminacin 2aussiana consiste en la eliminacin *acia adelante sustitucin *acia atr(s. E8emplo9 3. 4esol&er el siguiente sistema de ecuaciones:
aWij
ai j
usando el m$todo de eliminacin 2aussiana (simple). Solucin . Escalonamos la matriz aumentada del sistema:
0e la ltima ecuacin tenemos ecuacin de arriba para obtener ecuacin de arriba para obtener
*1 = `
*% = 10
*A = 18
4) /esol er9
usando eliminacin 2aussiana (simple). Solucin. Escalonando la matriz aumentada del sistema:
*% = A
*1 = N
*A = N
El m$todo de eliminacin 2aussiana (simple) puede presentar un problema cuando uno de los elementos que se usan para *acer ceros, es cero. 'or e)emplo, supngase que en algn paso del proceso de *acer ceros tenemos la siguiente matriz:
aAA = 0
Este problema se puede resol&er f(cilmente intercambiando los renglones , 7 . 0e *ec*o, el resultado que obtenemos es la matriz escalonada :
"in embargo, el problema puede presentarse tambi$n si el elemento aquel es muy cercano a cero. E8emplo9 4esol&er el siguiente sistema, usando eliminacin 2aussiana (simple)
Solucin.
0e donde,
*A =
A %
8 sustitu+mos arriba
obtenemos:
El resultado cambia dr(sticamente de acuerdo al nmero de cifras significati&as que se usen. 4esumimos los resultados en la siguiente tabla: ; Cifras Significativas (<) Error relativo porcentual =.>>? =.==>? =.===>? =.====>? =.>>>>>>? @77 @7 = .7 =.77
1 %
% N 5 ^ `
*1 =
. ,
0e donde obtenemos
*A =
A %
significati&as
resumimos los
; Cifras Significativas 7 C D > ? =.>>? =.>>>? =.>>>>? =.>>>>>? =.>>>>>>? =.777 =.7777 =.77777 =.777777 =.7777777
En este ltimo caso, &emos que el error relati&o porcentual no &ar+a dr(sticamente como en la solucin anterior. 1s+, &emos que los elementos que son cercanos a cero, son elementos malos para *acer ceros. En general, para e&itar este problema se elige como elemento para *acer ceros (el cual recibe el nombre de elemento pivotal o simplemente pivote) como el elemento ma or en &alor absoluto de entre todos los candidatos. 1 este procedimiento se le llama pi&oteo parcial aplicado a la eliminacin 2aussiana, nos d( el llamado m$todo de eliminacin 2aussiana con pi&oteo (parcial). 'odemos resumir el pi&oteo (parcial) como sigue:
E 'ara elegir el elemento pi&ote en la primer columna se escoge el elemento ma or (con &alor absoluto) de toda la primer columna. E 'ara elegir el elemento pi&ote en la segunda columna, se escoge el elemento ma or (con &alor absoluto ) de toda la segunda columna e!ceptuando el elemento
a1A
.
a1% aA %
, etc.
En un diagrama matricial, tenemos que los elementos pi&otes de cada columna se escogen de entre los siguientes:
E8emplo 39 Usar eliminacin 2aussiana con pi&oteo para resol&er el siguiente sistema:
'ara escoger el primer elemento pi&ote en la columna 3, tomamos el elemento ma or con &alor absoluto entre @3 , @, @=., , el cual ob&iamente es el @, 8 por lo tanto intercambiamos el rengln 3 , ($ste es el primer pivoteo realizado):
se lo sumamos al rengln ,.
0.A A
Gl&id(ndonos del rengln 3 de la columna 3, procedemos a escoger el pi&ote de la columna ,, pero unicamente entre =.D 3.,D , el cual ob&iamente resulta ser 3.,D. 'or lo tanto intercambiamos los renglones , 7 ($ste es el segundo pivoteo realizado):
5 procedemos a *acer ceros deba)o del elemento pi&ote. 'ara ello multiplicamos el rengln , por
.05 1.A5
E8emplo 4. Usar eliminacin 2aussiana con pi&oteo para resol&er el siguiente sistema de ecuaciones:
10
1*ora el elemento pi&ote en la columna , es el @3C.DD, el cual est( bien colocado, no *a necesidad de intercambiar renglones. 'rocedemos a *acer ceros deba)o del pi&ote, lo cual nos da la siguiente matriz escalonada:
,^-
en el cual los superndices indican los nuevos coe)icientes /ue se )orman en el proceso de reducci(n. La reducci(n real se lo*ra de la si*uiente manera0 1. La primera ecuaci(n ,A- se divide entre el coe)iciente de => en esa ecuaci(n para o tener0
,`A. La ec. ,`- se multiplica entonces por el coe)iciente de => de la se*unda ecuaci(n ,A- y la ecuaci(n /ue resulta se resta de la misma, eliminando as =>. La ec. ,`se multiplica entonces por el coe)iciente de => de la tercera ecuaci(n ,A-, y la ecuaci(n resultante se resta de la misma para eliminar => de esa ecuaci(n. En )orma similar, c1 se elimina de todas las ecuaciones del con.unto eGcepto la primera, de manera /ue el con.unto adopta la )orma0
,8-
%. La ecuaci(n utilizada para eliminar las inc(*nitas en las ecuaciones /ue la si*uen se denomina Ecuacin /i-ote. En la ecuaci(n pivote, el coe)iciente de la inc(*nita /ue se va a eliminar de las ecuaciones /ue la si*uen se denomina el 5oeficiente /i-ote ,a11 en los pasos previos-. N. Si*uiendo los pasos anteriores, la se*unda ecuaci(n ,8- se convierte en la ecuacin pi-ote, y los pasos de la parte 1 se repiten para eliminar =? de todas las ecuaciones /ue si*uen a esta ecuaci(n pivote. Esta reducci(n nos conduce a0
,Z-
5. & continuaci(n se utiliza la tercer ecuaci(n ,Z- como ecuaci(n pivote, y se usa el procedimiento descrito para eliminar =@ de todas las ecuaciones /ue si*uen a la tercer ecuaci(n ,Z-. Este procedimiento, utilizando di)erentes ecuaciones pivote, se contin2a hasta /ue el con.unto ori*inal de ecuaciones ha sido reducido a un con.unto trian*ular tal como se muestra en la ec. ,^-. ^. 1na vez o tenido el con.unto trian*ular de ecuaciones, la 2ltima ecuaci(n de este con.unto e/uivalente suministra directamente el valor de cn ,ver ec. ^-. Este valor se sustituye entonces en la antepen2ltima ecuaci(n del con.unto trian*ular para o tener un valor de =n(>, /ue a su vez se utiliza .unto con el valor de =n en la pen2ltima ecuaci(n del con.unto trian*ular para o tener un valor =n(? y asi
sucesivamente. Este es el procedimiento de sustituci(n inversa al /ue nos re)erimos previamente. ?ara ilustrar el m+todo con un con.unto num+rico, apli/uemos estos procedimientos a la soluci(n del si*uiente sistema de ecuaciones0 c1 B N cA B c% 5 ` c1 B ^ cA @ c% 5 1% ,10A c1 @ cA B A c% 5 5 1tilizando como ecuacin pi-ote la primera ecuaci(n ,el coeficiente pi-ote es unitario-, o tenemos0 c1 B N cA B c% 5 ` A cA @ A c% 5 ^ ,11Z cA B ,0- c% 5 @Z & continuaci(n, utilizando la se*unda ecuaci(n del sistema ,11- como ecuaci(n pivote y repitiendo el procedimiento, se o tiene el si*uiente sistema trian*ular de ecuaciones0 c1 B N cA B c% 5 ` A cA @ A c% 5 ^ ,1A@ Z c% 5 18 8inalmente mediante sustituci(n inversa, comenzando con la 2ltima de las ecs. ,1A- se o tienen los si*uientes valores0 c% 5 @A cA 5 1 c1 5 5