You are on page 1of 48

MATRICES

Las matrices aparecen por primera vez hacia el ao 1850, introducidas por J.J. Sylvester El desarrollo inicial de la teora se de e al matem!tico ".#. $amilton en 185% En 1858, &. 'ayley introduce la notaci(n matricial como una )orma a reviada de escri ir un sistema de m ecuaciones lineales con n inc(*nitas. Las matrices se utilizan en el c!lculo num+rico, en la resoluci(n de sistemas de ecuaciones lineales, de las ecuaciones di)erenciales y de las derivadas parciales. &dem!s de su utilidad para el estudio de sistemas de ecuaciones lineales, las matrices aparecen de )orma natural en *eometra, estadstica, economa, in)orm!tica, )sica, etc... La utilizaci(n de matrices ,arrays- constituye actualmente una parte esencial dn los len*ua.es de pro*ramaci(n, ya /ue la mayora de los datos se introducen en los ordenadores como ta las or*anizadas en )ilas y columnas 0 ho.as de c!lculo, ases de datos,...

CONCEPTO DE MATRIZ

1na matriz es un con.unto de elementos de cual/uier naturaleza aun/ue, en *eneral, suelen ser n2meros ordenados en )ilas y columnas. Se llama matriz de orden "m 3 n" a un conjunto rectangular de elementos aij dispuestos en m filas y en n columnas. El orden de una matriz tambin se denomina dimensin o tamao, siendo m y n nmeros naturales. Las matrices se denotan con letras may2sculas0 &, 4, ', ... y los elementos de las mismas con letras min2sculas y su ndices /ue indican el lu*ar ocupado0 a, , c, ... 1n elemento *en+rico /ue ocupe la )ila i y la columna j se escri e aij . Si el elemento *en+rico aparece entre par+ntesis tam i+n representa a toda la matriz 0 & 5 ,aij-

'uando nos re)erimos indistntamente a )ilas o columnas ha lamos de lineas. El n2mero total de elementos de una matriz &m3n es m6n En matem!ticas, tanto las Listas como las Tablas reci en el nom re *en+rico de matrices. Una lista numrica es un conjunto de nmeros dispuestos uno a continuacin del otro.

MATRICES IGUALES

7os matrices & 5 ,aij-m3n y 4 5 ,bij-p3 son i*uales, s y solo si, tienen en los mismo lu*ares elementos i*uales, es decir 0

ALGUNOS TIPOS DE MATRICES

$ay al*unas matrices /ue aparecen )recuentemente y /ue se*2n su )orma, sus elementos, ... reci en nom res di)erentes 0

!ipo de matriz
89L&

"efinicin
# uella matriz ue tiene una sola fila, siendo su orden

Ejemplo

13n
# uella matriz ue tiene una sola columna, siendo su

':L1;<&

orden m31

#E'=&<>1L&#

# uella matriz ue tiene distinto nmero de filas ue de columnas, siendo su

orden m$n ,
"ada una matriz &, se llama traspuesta de & a la matriz ue se obtiene cambiando ordenadamente las filas por las columnas. Se representa por &t ( &=

=#&S?1ES=&

:?1ES=&

%a matriz opuesta de una dada es la ue resulta de sustituir cada elemento por su opuesto. %a opuesta de & es @&.

<1L&

Si todos sus elementos son cero. !ambin se denomina matriz cero y se denota por &m$n

'1&7#&7&

# uella matriz ue tiene igual nmero de filas ue de columnas, m ' n, diciendose ue la matriz es de orden n. 7ia*onal principal 0 son los elementos a11 , aAA , ..., ann 7ia*onal secundaria 0 son los elementos ai. con iB. 5 nB1 =raza de una matriz cuadrada 0 es la suma de los elementos de la diagonal principal tr &. Es una matriz cuadrada ue es igual a su traspuesta. & 5 &t , ai. 5 a.i Es una matriz cuadrada ue es igual a la opuesta de su traspuesta. & 5 @&t , ai. 5 (a.i )ecesariamente aii ' 0 Es una matriz cuadrada ue tiene todos sus elementos nulos e*cepto los de la diagonal principal Es una matriz cuadrada ue tiene todos sus elementos nulos e*cepto los de la diagonal principal ue son iguales Es una matriz cuadrada ue tiene todos sus elementos nulos e*cepto los de la diagonal principal ue son iguales a 1. !ambien se denomina matriz

7ia*onal principal 0 7ia*onal secundaria 0

S9;C=#9'&

&<=9S9;C=#9'&

79&>:<&L

ES'&L&#

97E<=97&7

unidad. Es una matriz cuadrada ue tiene todos los elementos por encima +por debajo, de la diagonal principal nulos. Una matriz ortogonal es necesariamente cuadrada e in-ertible . &@1 5 &=
:#=:>:<&L La inversa de una matriz orto*onal es una matriz orto*onal. El producto de dos matrices orto*onales es una matriz orto*onal. El determinante de una matriz orto*onal vale B1 ( @1.

=#9&<>1L&#

<:#;&L

Una matriz es normal si conmuta con su traspuesta. %as matrices simtricas, antisimtricas u ortogonales son necesariamente normales. "ecimos ue una matriz cuadrada & tiene in-ersa, &@1, si se -erifica ue . &6&@1 5 &@16& 5 9

9<DE#S&

/ara establecer las reglas ue rigen el c0lculo con matrices se desarrolla un 0lgebra semejante al 0lgebra ordinaria, pero en lugar de operar con nmeros lo 1acemos con matrices.

OPERACIONES CON MATRICES

SUMA DE MATRICES La suma de dos matrices & 5 ,ai.-m3n y 4 5 , i.-p3 de la misma dimensin +e uidimensionales, . m ' p y n ' es otra matriz ' 5 &B4 5 ,ci.-m3n ' ,ai.B i.-

Es una ley de composicin interna con las siguientes


PROPIEDADES :

6 &sociativa 0 &B,4B'- 5 ,&B4-B' 6 'onmutativa 0 &B4 5 4B& 6 Elem. neutro 0 , matriz cero 0m3n - , 0B& 5 &B0 5 & 6 Elem. sim+trico 0 , matriz opuesta @& - , & B ,@&- 5 ,@&- B & 5 0 &l con.unto de las matrices de dimensi(n m3n cuyos elementos son n2meros reales lo vamos a representar por ;m3n y como hemos visto, por cumplir las propiedades anteriores, , ;, B - es un grupo abeliano. EE %a suma y diferencia de dos matrices )2 est0 definida si sus dimensiones son distintas. FF PRODUCTO DE UN NMERO REAL POR UNA MATRIZ ?ara multiplicar un escalar por una matriz se multiplica el escalar por todos los elementos de la matriz, o teni+ndose otra matriz del mismo orden.

Es una ley de composicin e*terna con las siguientes


PROPIEDADES :

PRODUCTO DE MATRICES 7adas dos matrices & 5 ,ai.-m3n y 4 5 , i.-p3 donde n ' p, es decir, el nmero de columnas de la primera matriz & es igual al nmero de filas de la matriz 4 , se define el producto &64 de la siguiente forma .

El elemento a/ue ocupa el lu*ar ,i, .- en la matriz producto se o tiene sumando los productos de cada elemento de la )ila i de la matriz & por el correspondiente de la columna . de la matriz 4.

MATRIZ INVERSA Se llama matriz inversa de una matriz cuadrada &n y la representamos por &@1 , a la matriz /ue veri)ica la si*uiente propiedad 0 &@16& 5 &6&@1 5 9 7ecimos /ue una matriz cuadrada es "regular" si su determinante es distinto de cero, y es "singular" si su determinante es i*ual a cero.

PROPIEDADES :

S(lo eGiste matriz inversa de una matriz cuadrada si +sta es regular. La matriz inversa de una matriz cuadrada, si eGiste, es 2nica. Entre matrices <: eGiste la operaci(n de divisi(n, la matriz inversa realiza )unciones an!lo*as.

MTODOS PARA HALLAR LA MATRIZ INVERSA :

Matriz i !"rtibl"
D" #i$i%"&ia' la " (i(l)%"&ia libr"
,#ediri*ido desde ;atriz inversaSaltar a nave*aci(n, 2s/ueda En matem!ticas, y especialmente en !l*e ra lineal, una matriz # de dimensiones n3n se dice /ue es i !"rtibl", i !"rsibl", i !"rsa o ) si *+lar o r"*+lar si eGiste una matriz 3 de dimensiones n3n tal /ue #3 5 3# 5 4n, donde 4n denota la matriz identidad de orden n ,dimensiones n3n- y el producto utilizado es el producto de matrices usual. 1na matriz no inverti le se dice /ue es una matriz sin*ular. La i !"rsa de la matriz # es 2nica. Esto se denota por #@1.

Tabla &" () t" i&)s


HocultarI 1 ?rue a de /ue la inversa es 2nica A ?ropiedades de la matriz inversa % =eorema so re la inversi ilidad de las matrices cuadradas o %.1 7emostraci(n

%.1.1 <ecesidad %.1.A Su)iciencia

Pr+"ba &" ,+" la i !"rsa "s - i(a ."&itar/


Supon*amos /ue 3 y 5 son inversas de # #3 5 3# 5 4 #5 5 5# 5 4 ;ultiplicando por 5 ,3#-5 5 45 5 5 ,3#-5 5 3,#5- 5 34 5 3 7e modo /ue 355 y se prue a /ue la inversa es 2nica. La matriz inversa de & se denota por # J 1 y satis)ace la i*ualdad0

Esta viene dada por0

donde

5 determinante de & 5 matriz de ad.untos de &

Pr)%i"&a&"s &" la matriz i !"rsa ."&itar/


La inversa del producto de dos matrices es el producto de las inversas cam iando el orden0

Si la matriz es inverti le, tam i+n lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir0

K, evidentemente0

T")r"ma s)br" la i !"rsibili&a& &" las matri("s (+a&ra&as ."&itar/


Si & es una matriz de orden n, entonces eGiste 3 tal /ue #3 5 3# 5 4 si y s(lo si el determinante de & es distinto de cero.

D"m)stra(i0 ."&itar/
Se pro ar! por do le implicaci(n. N"("si&a& ."&itar/

Suponiendo /ue eGiste 3 tal /ue #3 5 3# 5 4. Entonces al aplicar la )unci(n determinante se o tiene

usando la propiedad det,4- 5 1

?or lo tanto, det,#- es distinto de cero.

S+1i(i" (ia

."&itar/

Suponiendo /ue el determinate de # es distinto de cero, sea aij es el elemento i. de la matriz # y sea #ij la matriz # sin la )ila i y la columna j ,com2nmente conocida como j@ +simo menor de &-. Entonces

Sea

, entonces

Esta a)irmaci(n es v!lida propiedades de los determinantes, pues la parte iz/uierda de la relaci(n nos conduce a una matriz con la columna j i*ual a la columna 6 y los dem!s t+rminos i*uales a los de #. Entonces

donde Lj6 5 1 cuando j 5 6 y Lj6 5 0 cuando

. Entonces

Es decir /ue # tiene inversa iz/uierda

'omo

, entonces #t tam i+n tiene inversa iz/uierda /ue es

Entonces

lue*o entonces, aplicando la transpuesta

Matriz 2"rmitia a
D" #i$i%"&ia' la " (i(l)%"&ia libr"
,#ediri*ido desde ;atriz hermticaSaltar a nave*aci(n, 2s/ueda 1na matriz 2"rmitia a ,o 2"rm3ti(a- es una matriz cuadrada de elementos comple.os /ue tiene la caracterstica de ser i*ual a su propia traspuesta con.u*ada. Es decir, el elemento en la i@+sima )ila y j@+sima columna es i*ual al con.u*ado del elemento en la j@ +sima )ila e i@+sima columna, para todos los ndices i y j0

o, escrita con la traspuesta con.u*ada #M0

?or e.emplo,

es una matriz hermtica.

Pr)%i"&a&"s ."&itar/
1. Sea # 5 3 B i5, donde & es hermitiana y 4 y ' reales, entonces 4 es sim+trica ,3 5 3t- y ' antisim+trica ,5 5 J 5t-. A. La inversa de una matriz hermitiana es tam i+n hermitiana. %. En una matriz hermitiana, los elementos de la dia*onal principal son reales. N. La determinante de una matriz hermitiana es un n2mero real. ?ero la propiedad m!s importante de toda matriz hermitiana es /ue todos sus autovalores son reales.

V4as" tambi4

."&itar/

8orma hermtica o 8orma ses/uilineal :perador hermtico ;atriz antihermtica ;atriz normal

: tenido de Ohttp0PPes.QiRipedia.or*PQiRiP;atrizShermitianaO

Matriz i&"m%)t" t"


D" #i$i%"&ia' la " (i(l)%"&ia libr"
Saltar a nave*aci(n, 2s/ueda 1na matriz i&"m%)t" t" es una matriz la cual es i*ual a su cuadrado, es decir0 & es idempotente si & G & 5 & ?or e.emplo, la si*uiente matriz es idempotente0

: sea0 la matriz elevada al cuadrado va a ser la misma matriz sin elevarla

Matriz i&" ti&a&


D" #i$i%"&ia' la " (i(l)%"&ia libr"
Saltar a nave*aci(n, 2s/ueda En !l*e ra lineal, la matriz identidad es una matriz /ue cumple la propiedad de ser el elemento neutro del producto de matrices. Esto /uiere decir /ue el producto de cual/uier matriz por la matriz identidad ,donde dicho producto est+ de)inido- no tiene nin*2n e)ecto. La columna i@+sima de una matriz identidad es el vector unitario ei de una ase vectorial inmersa en un espacio Eucldeo de dimensi(n n. 'omo el producto de matrices s(lo tiene sentido si sus dimensiones son compati les, eGisten in)initas matrices identidad dependiendo de las dimensiones. 4n, la matriz identidad de tamao n, se de)ine como la matriz dia*onal /ue tiene 1 en cada una de las entradas de la dia*onal principal, y 0 en el resto. &s,

Empleando la notaci(n /ue a veces se usa para descri ir concisamente las matrices dia*onales, resulta0 4n 5 diag,1,1,...,1Si el tamao es inmaterial, o se puede deducir de )orma trivial por el conteGto, entonces se escri e simplemente como 4. =am i+n se puede escri ir usando la notaci(n delta de TronecRer0 4ij 5 Lij o, de )orma a2n m!s sencilla, 4 5 ,LijLa matriz i&" ti&a& de orden n puede ser tam i+n considerada como la matriz permutaci(n /ue es "l"m" t) "+tr) del *r+%) &" matri("s &" %"rm+ta(i0 de orden nF. : tenido de Ohttp0PPes.QiRipedia.or*PQiRiP;atrizSidentidadO

Matriz i !"rtibl"

D" #i$i%"&ia' la " (i(l)%"&ia libr"


Saltar a nave*aci(n, 2s/ueda En matem!ticas, y especialmente en !l*e ra lineal, una matriz # de dimensiones n3n se dice /ue es i !"rtibl", i !"rsibl", i !"rsa o ) si *+lar o r"*+lar si eGiste una matriz 3 de dimensiones n3n tal /ue #3 5 3# 5 4n, donde 4n denota la matriz identidad de orden n ,dimensiones n3n- y el producto utilizado es el producto de matrices usual. 1na matriz no inverti le se dice /ue es una matriz sin*ular. La i !"rsa de la matriz # es 2nica. Esto se denota por #@1.

Tabla &" () t" i&)s


HocultarI 1 ?rue a de /ue la inversa es 2nica A ?ropiedades de la matriz inversa % =eorema so re la inversi ilidad de las matrices cuadradas o %.1 7emostraci(n %.1.1 <ecesidad

%.1.A Su)iciencia

Pr+"ba &" ,+" la i !"rsa "s - i(a ."&itar/


Supon*amos /ue 3 y 5 son inversas de # #3 5 3# 5 4 #5 5 5# 5 4 ;ultiplicando por 5 ,3#-5 5 45 5 5 ,3#-5 5 3,#5- 5 34 5 3 7e modo /ue 355 y se prue a /ue la inversa es 2nica. La matriz inversa de & se denota por # J 1 y satis)ace la i*ualdad0

Esta viene dada por0

donde

5 determinante de & 5 matriz de ad.untos de &

Pr)%i"&a&"s &" la matriz i !"rsa ."&itar/


La inversa del producto de dos matrices es el producto de las inversas cam iando el orden0

Si la matriz es inverti le, tam i+n lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir0

K, evidentemente0

T")r"ma s)br" la i !"rsibili&a& &" las matri("s (+a&ra&as ."&itar/


Si & es una matriz de orden n, entonces eGiste 3 tal /ue #3 5 3# 5 4 si y s(lo si el determinante de & es distinto de cero.

D"m)stra(i0 ."&itar/
Se pro ar! por do le implicaci(n. N"("si&a& ."&itar/

Suponiendo /ue eGiste 3 tal /ue #3 5 3# 5 4. Entonces al aplicar la )unci(n determinante se o tiene

usando la propiedad det,4- 5 1

?or lo tanto, det,#- es distinto de cero.

S+1i(i" (ia

."&itar/

Suponiendo /ue el determinate de # es distinto de cero, sea aij es el elemento i. de la matriz # y sea #ij la matriz # sin la )ila i y la columna j ,com2nmente conocida como j@ +simo menor de &-. Entonces

Sea

, entonces

Esta a)irmaci(n es v!lida propiedades de los determinantes, pues la parte iz/uierda de la relaci(n nos conduce a una matriz con la columna j i*ual a la columna 6 y los dem!s t+rminos i*uales a los de #. Entonces

donde Lj6 5 1 cuando j 5 6 y Lj6 5 0 cuando

. Entonces

Es decir /ue # tiene inversa iz/uierda

'omo

, entonces #t tam i+n tiene inversa iz/uierda /ue es

Entonces

lue*o entonces, aplicando la transpuesta

Uue es lo /ue se /uera demostrar

5a()bia )
D" #i$i%"&ia' la " (i(l)%"&ia libr"
,#ediri*ido desde ;atriz .aco ianaSaltar a nave*aci(n, 2s/ueda En c!lculo vectorial, el 6a()bia ) es una a reviaci(n de la matriz 6a()bia a y su determinante, el &"t"rmi a t" 5a()bia ). Son llamados as en honor al matem!tico 'arl >ustav Jaco i. En *eometra al*e raica, el 6a()bia ) de una curva hace re)erencia a la variedad .aco iana, un *rupo y variedad al*e raica asociada a la curva, donde la curva puede ser em e ida.

Tabla &" () t" i&)s


HocultarI 1 ;atriz Jaco iana o 1.1 E.emplo o 1.A ;atriz Jaco iana de un campo vectorial A 7eterminante Jaco iano o A.1 E.emplo

% D+ase tam i+n

Matriz 5a()bia a ."&itar/


La matriz 5a()bia a es una matriz )ormada por las derivadas parciales de primer orden de una )unci(n. 1na de las aplicaciones m!s interesantes de esta matriz es la posi ilidad de aproGimar linealmente a la )unci(n en un punto. En este sentido, el Jaco iano representa la derivada de una )unci(n multivaria le. Supon*amos 7 0 Rn V Rm es una )unci(n /ue va del espacio euclidiano n@dimensional a otro espacio euclideano m@dimensional. Esta )unci(n est! determinada por m )unciones

reales0 y1,*1,...,*n-, ..., ym,*1,...,*n-. Las derivadas parciales de estas ,si eGisten- pueden ser or*anizadas en una matriz m por n, la matriz Jaco iana de 70

Esta matriz es notada por

o como

La i@+sima )ila est! dada por el *radiente de la )unci(n yi, para i51,...,m. Si % es un punto de Rn y 7 es di)erencia le en %, entonces su derivada est! dada por 87,%-. En este caso, la aplicaci(n lineal descrita por 87,%- es la me.or aproGimaci(n lineal de 7 cerca del punto %, de esta manera0

para 7 cerca de %.

E6"m%l) ."&itar/
El Jaco iano de la )unci(n 7 0 R% V R% de)inida como0

es0

<o siempre un Jaco iano es cuadrado.

Matriz 5a()bia a &" + (am%) !"(t)rial ."&itar/


En c!lculo vectorial, la matriz 5a()bia a para un campo vectorial es la matriz de orden m*n /ue tiene como elementos a las derivadas parciales ,si eGisten- de la )unci(n. ?or e.emplo, se desea o tener la W;atriz Jaco ianaW de la

di)erencial punto . 1sando0

de una )unci(n

de 9n a 9m en el

en la )(rmula0 .

7ividiendo por l, y haciendo tender l a 0, se o tiene0

Este es el vector /ue va en la primera columna de la matriz uscada. ?or analo*a para , se consi*uen las dem!s columnas. 7e este modo, la matriz Jaco iana de en el punto es0

Esta matriz se denota tam i+n por0

D"t"rmi a t" 5a()bia ) ."&itar/


Si m 5 n, entonces 7 es una )unci(n /ue va de un espacio n@dimensional a otro. En este caso la matriz Jaco iana es cuadrada y podemos calcular su determinante, conocido como el determinante Jaco iano. El determinante Jaco iano en un punto dado nos da in)ormaci(n importante so re el comportamiento de 7 cerca de ese punto. ?ara empezar, una )unci(n 7 es inversi le cerca de % si el determinante Jaco iano en % es no nulo. ;!s a2n, el valor a soluto del determinate en % nos da el )actor con el cual 7 eGpande o contrae su volumen cerca de %.

E6"m%l) ."&itar/
El determinante Jaco iano de la )unci(n 7 0 R% V R% de)inida como0

es0

La )unci(n es localmente inversi le eGcepto donde *150 ( *A50. Si ima*inamos un o .eto pe/ueo centrado en el punto ,1,1,1- y le aplicamos 7, tendremos un o .eto de aproGimadamente N0 veces m!s volumen /ue el ori*inal.

Matriz il%)t" t"


D" #i$i%"&ia' la " (i(l)%"&ia libr"
Saltar a nave*aci(n, 2s/ueda 1na matriz se dice nilpotente si eGiste tal /ue )6 5 0.

Si & es una matriz nilpotente entonces X&X50.

Matriz sim4tri(a
D" #i$i%"&ia' la " (i(l)%"&ia libr"
Saltar a nave*aci(n, 2s/ueda 1na matriz de elementos0

es sim+trica, si es una matriz cuadrada ,m 5 n- y aij 5 aji para todo i, . 51,A,%,N,...,n. <(tese /ue la simetra es respecto a la dia*onal principal y /ue & es tam i+n, una matriz traspuesta. E.emplo, para n 5 %0

Pr)%i"&a&"s ."&itar/
1no de los teoremas !sicos /ue concierne este tipo de matrices es el teorema espectral de dimensi(n )inita, /ue dice /ue toda matriz sim+trica cuyas entradas sean reales puede ser dia*onalizada por una matriz orto*onal. Cste es un caso especial de una matriz hermtica.

A+t)!al)r"s ."&itar/
'omo las matrices sim+tricas son un caso particular de las matrices hermticas, todos sus autovalores son reales. 'on ase en las propiedades de los autovalores de una matriz sim+trica, se pueden clasi)icar en los si*uientes tipos0

definida positi-a. 1na matriz sim+trica es de)inida positiva si y solo si todos sus autovalores son estrictamente positivos. definida negati-a. 1na matriz sim+trica es de)inida ne*ativa si y solo si todos sus autovalores son estrictamente ne*ativos. semidefinida positi-a. 1na matriz sim+trica es semide)inida positiva si y solo si todos sus autovalores son mayores o i*uales a cero. semidefinida negati-a. 1na matriz sim+trica es semide)inida ne*ativa si y solo si todos sus autovalores son menores o i*uales a cero.

Dea tam i+n0 8orma ilineal de)inida : tenido de Ohttp0PPes.QiRipedia.or*PQiRiP;atrizSsimY'%Y&ZtricaO

Matriz a tisim4tri(a
D" #i$i%"&ia' la " (i(l)%"&ia libr"
Saltar a nave*aci(n, 2s/ueda 1na matriz de nGm elementos0

es antisim+trica, si es una matriz cuadrada ,m 5 n- y aji 5 J aij para todo i,. 51,A,%,...,n. En consecuencia, aii 5 0 para todo i. ?or lo tanto, la matriz & asume la )orma0

<(tese /ue la matriz traspuesta de la matriz antisimetrica & es @&, y /ue la antisimetra es respecto a la dia*onal principal. : tenido de Ohttp0PPes.QiRipedia.or*PQiRiP;atrizSantisimY'%Y&ZtricaO
Una matriz es involutiva si A2 = I (matriz identidad). Una matriz es ortogonal si tA = A-1.

Ti%)s &" matri("s


'uando el n2mero de )ilas es i*ual al de columnas ,n 5 m- la matriz se llama matriz cuadrada. 'uando n 5 1 la matriz se llama matriz fila. 'uando m 5 1 la matriz se llama matriz columna.

Las matrices )ila y columna se llaman ha itualmente -ectores. 'uando en una matriz cuadrada son ceros todos los elementos /ue no est!n en la diagonal principal ,la /ue va desde el !n*ulo superior iz/uierdo al !n*ulo in)erior derecho- la matriz se llama matriz diagonal. Si todos los t+rminos de una matriz son cero, a la matriz se le llama matriz nula. y se representa por :. Si una matriz dia*onal tiene todos los t+rminos de la dia*onal i*uales se llama matriz escalar. Si una matriz dia*onal tiene todos los t+rminos de la dia*onal i*uales a 1 se llama matriz unidad. 7ada una matriz, su traspuesta es la )ormada al disponer la )ila 1 como columna 1, la )ila A como columna A... la )ila n como columna n. La traspuesta de la matriz & se desi*na por & ,a veces se utiliza & o &W-.
t t

Las matrices cuadradas en las /ue a 5 0 siempre /ue i [ . o ien a 5 0 siempre /ue i \ . se llaman matrices triangulares ,superior o in)erior, se*2n el caso-.
i. i.

1na matriz se llama regular si tiene inversa. Si no tiene inversa se llama singular. 1na matriz es simtrica si es i*ual a su traspuesta. 1na matriz & es antisimtrica ,o 1emisimtrica- si su traspuesta es i*ual a @& 1na matriz & es 1erm:tica si coincide con la matriz traspuesta con.u*ada ,se re)iere a los n2meros comple.os con.u*ados-. Es anti1erm:tica si es opuesta con la matriz traspuesta con.u*ada. 1na matriz es peridica si eGiste al*2n p tal /ue & 5 &. Si p 5 A la matriz se llama idempotente.
p

1na matriz es nilpotente si eGiste al*2n p tal /ue & 5 : ,matriz cero-.
p

Sist"ma &" "(+a(i) "s


D" #i$i%"&ia' la " (i(l)%"&ia libr"
Saltar a nave*aci(n, 2s/ueda En las matem!ticas, un sist"ma &" "(+a(i) "s es un con.unto de dos o m!s ecuaciones con varias inc(*nitas. 1na soluci(n para el sistema de e proporcionar un valor para cada inc(*nita, de manera /ue en nin*una de las ecuaciones del sistema se lle*ue a una contradicci(n. En otras pala ras el valor /ue reemplazamos en las inco*nitas de e hacer cumplir la i*ualdad del sistema.

Las inc(*nitas se suelen representar utilizando las 2ltimas letras del al)a eto latino, o si son demasiadas, con su ndices.

Tabla &" () t" i&)s


HocultarI 1 7e)inici(n o 1.1 8orma *en+rica o 1.A 8orma matricial A #epresentaci(n *r!)ica o A.1 'ompati le indeterminado o A.A 9ncompati le % ;+todos de resoluci(n o %.1 Sustituci(n o %.A 9*ualaci(n o %.% #educci(n o %.N ;+todo de >auss

N D+ase tam i+n ."&itar/

D"1i i(i0

8)rma *" 4ri(a ."&itar/


La )orma *en+rica de un sistema de e/uaciones y inc(*nitas es la si*uiente0

donde son )unciones de las inc(*nitas. La soluci(n, perteneciente al espacio eucldeo , ser! tal /ue el resultado de evaluar cual/uier eGpresi(n con los valores de dicha soluci(n, veri)i/ue la ecuaci(n.

8)rma matri(ial ."&itar/


Si el sistema es lineal, tam i+n se puede representar usando tres matrices, de la si*uiente )orma0

La primera es la matriz de coe)icientes, donde el t+rmino representa al coe)iciente /ue acompaa a la j(sima inc(*nita de la ecuaci(n i(sima. La se*unda es la matriz de inc(*nitas, donde cada t+rmino se corresponde con una de las inc(*nitas /ue /ueremos averi*uar. K la tercera matriz es la de t+rminos independientes, donde el cada representa al t+rmino independiente de la ecuaci(n i(sima. Esta representaci(n matricial )acilita el uso de al*unos m+todos de resoluci(n, como el m+todo de >auss, en el /ue, partiendo de la matriz aumentada ,matriz de coe)icientes a la /ue se le ha acoplado la matriz de t+rminos independientes-, y aplicando trans)ormaciones lineales so re las ecuaciones, pretendemos lle*ar a una matriz de este tipo0

1na vez la matriz se ha trian*ulado, el valor de cada t+rmino

se corresponder! con el

de la inc(*nita . Si nos encontramos al*una )ila del tipo , con , el sistema no tendr! soluci(n no es de )iar esta in)ormacion eaeaeaF si se edita noes )ia le o no]]

R"%r"s" ta(i0 *r91i(a ."&itar/

La intersecci(n de dos planos no paralelos es una recta 1n sistema con inc(*nitas se puede representar en el n@espacio correspondiente. En los sistemas con A inc(*nitas, el universo de nuestro sistema ser! el plano idimensional, mientras /ue cada una de las ecuaciones ser! representada por una recta, si es lineal, o por una curva, si no lo es. La soluci(n ser! el punto ,o lnea- donde intersecten todas las rectas y curvas /ue representan a las ecuaciones. Si no eGiste nin*2n punto en el /ue intersecten al mismo tiempo todas las lneas, el sistema es incompati le, o lo /ue es lo mismo, no tiene soluci(n.

En el caso de un sistema con % inc(*nitas, el universo ser! el espacio tridimensional, siendo cada ecuaci(n un plano dentro del mismo. Si todos los planos intersectan en un 2nico punto, las coordenadas de +ste ser!n la soluci(n al sistema. Si, por el contrario, la intersecci(n de todos ellos es una recta o incluso un plano, el sistema tendr! in)initas soluciones, /ue ser!n las coordenadas de los puntos /ue )orman dicha lnea o super)icie. ?ara sistemas de N ( m!s inc(*nitas, la representaci(n *r!)ica no es intuitiva para el ser humano, por lo /ue dichos pro lemas no suelen en)ocarse desde esta (ptica. 1n sistema de ecuaciones, por las soluciones /ue se pueden presentar, se puede di)erenciar los si*uientes casos0 ()m%atibl" si tiene soluci(n e i ()m%atibl" si no la tiene, de ser compati le puede tener un n2mero )inito de soluciones, ()m%atibl" &"t"rmi a&), o in)initas soluciones ()m%atibl" i &"t"rmi a&). Uuedando as la clasi)icaci(n0

Si se representa *r!)icamente, la primera ecuaci(n se corresponde con una circun)erencia de radio y centrada en el ori*en de coordenadas, mientras /ue la se*unda ecuaci(n se corresponde con una recta /ue pasa por el ori*en y cuya pendiente es .

&m as intersectan en dos puntos 2nicos, por lo /ue el sistema es En el caso concreto de los sistemas lineales, los sistemas compati les determinados son a/uellos en los /ue todas sus ecuaciones son linealmente independientes. Los msmos tienen una 2nica soluci(n, la cual se encuentra *eom+tricamente en el punto en donde las rectas se cruzan.

C)m%atibl" i &"t"rmi a&) ."&itar/


1n sistema es compatible indeterminado cuando posee un n2mero in)inito de soluciones. ?or e.emplo, el si*uiente sistema0

=anto la primera como la se*unda ecuaci(n se corresponden con la recta cuya pendiente es y /ue pasa por el punto , por lo /ue am as intersectan en todos los puntos de dicha recta. El sistema es compati le por ha er soluci(n o intersecci(n entre las rectas, pero es indeterminado al ocurrir esto en in)initos puntos. En este tipo de sistemas, la soluci(n *en+rica consiste en eGpresar una o m!s varia les como )unci(n matem!tica del resto.

En los sistemas lineales compati les indeterminados, al menos una de sus ecuaciones se puede hallar como com inaci(n lineal del resto, es decir, es linealmente dependiente.

I ()m%atibl" ."&itar/
7e un sistema se dice /ue es incompatible cuando no presenta nin*una soluci(n. ?or e.emplo, supon*amos el si*uiente sistema0

Las ecuaciones se corresponden *r!)icamente con dos rectas, am as con la misma pendiente, &l ser paralelas, no se cortan en nin*2n punto, es decir, no eGiste nin*2n valor /ue satis)a*a a la vez am as ecuaciones.

M4t)&)s &" r"s)l+(i0


S+stit+(i0 ."&itar/

."&itar/

El m+todo de sustituci(n consiste en despe.ar en una de las ecuaciones cual/uier inc(*nita, pre)eri lemente la /ue ten*a menor coe)iciente, para, a continuaci(n, sustituirla en otra ecuaci(n por su valor. En caso de sistemas con m!s de dos inc(*nitas, la seleccionada de e ser sustituida por su valor e/uivalente en todas las ecuaciones eGcepto en la /ue la hemos despe.ado. En ese instante, tendremos un sistema con una ecuaci(n y una inc(*nita menos /ue el inicial, en el /ue podemos se*uir aplicando este m+todo reiteradamente. ?or e.emplo, supon*amos /ue /ueremos resolver por sustituci(n este sistema0

En la primera ecuaci(n, seleccionamos la inc(*nita por ser la de menor coe)iciente y /ue posi lemente nos )acilite m!s las operaciones, y la despe.amos, o teniendo la si*uiente ecuaci(n.

El si*uiente paso ser! sustituir cada ocurrencia de la inc(*nita en la otra ecuaci(n, para as o tener una ecuaci(n donde la 2nica inc(*nita sea la .

&l resolver la ecuaci(n o tenemos el resultado , y si ahora sustituimos esta inc(*nita por su valor en al*una de las ecuaciones ori*inales o tendremos , con lo /ue el sistema /ueda ya resuelto.

I*+ala(i0 ."&itar/
El m+todo de i*ualaci(n se puede entender como un caso particular del m+todo de sustituci(n en el /ue se despe.a la misma inc(*nita en dos ecuaciones y a continuaci(n se i*ualan entre s la parte derecha de am as ecuaciones. =omando el mismo sistema utilizado como e.emplo para el m+todo de sustituci(n, si despe.amos la inc(*nita en am as ecuaciones nos /ueda de la si*uiente manera0

'omo se puede o servar, am as ecuaciones comparten la misma parte iz/uierda, por lo /ue podemos a)irmar /ue las partes derechas tam i+n son i*uales entre s.

Lle*ados a este punto, la ecuaci(n resultante es resolu le y podemos o tener el valor de la inc(*nita , y a partir de a/u, sustituyendo dicho valor en una de las ecuaciones ori*inales, o tener el valor de la , /ue adem!s ya se encuentra despe.ada.

R"&+((i0 ."&itar/
Este m+todo suele emplearse mayoritariamente en los sistemas lineales, siendo pocos los casos en /ue se utiliza para resolver sistemas no lineales. El procedimiento, diseado para sistemas con dos ecuaciones e inc(*nitas, consiste en trans)ormar una de las ecuaciones ,*eneralmente, mediante productos-, de manera /ue o ten*amos dos ecuaciones en la /ue una misma inc(*nita aparezca con el mismo coe)iciente y distinto si*no. & continuaci(n, se suman am as ecuaciones produci+ndose as la reducci(n o cancelaci(n de dicha inc(*nita, o teniendo as una ecuaci(n con una sola inc(*nita, donde el m+todo de resoluci(n es simple. ?or e.emplo, en el sistema

no tenemos m!s /ue multiplicar la primera ecuaci(n por inc(*nita . &l multiplicar, dicha ecuaci(n nos /ueda as0

para poder cancelar la

Si sumamos esta ecuaci(n a la se*unda del sistema ori*inal, o tenemos una nueva ecuaci(n donde la inc(*nita ha sido reducida y /ue, en este caso, nos da directamente el valor de la inc(*nita 0

El si*uiente paso consiste 2nicamente en sustituir el valor de la inc(*nita en cual/uiera de las ecuaciones donde aparecan am as inc(*nitas, y o tener as /ue el valor de es i*ual a .

M4t)&) &" Ga+ss ."&itar/


La eliminaci(n de >auss@Jordan, m!s conocida como m+todo de >auss, es un m+todo aplica le 2nicamente a los sistemas lineales de ecuaciones, y consistente en trian*ular la matriz aumentada del sistema mediante trans)ormaciones elementales, hasta o tener ecuaciones de una sola inc(*nita, cuyo valor ser! i*ual al coe)iciente situado en la misma )ila de la matriz. Este procedimiento es similar al anterior de reducci(n, pero e.ecutado de manera reiterada y si*uiendo un cierto orden al*ortmico. =omemos como e.emplo el si*uiente sistema0

Su matriz aumentada ser! esta0

En primer lu*ar, reducimos la inc(*nita , sumando a la se*unda )ila, la primera multiplicada por , y a la tercera, la primera )ila. La matriz /ueda as0

El si*uiente paso consiste en eliminar la inc(*nita en la primera y tercera )ila, para lo cual les sumamos la se*unda multiplicada por y por , respectivamente.

?or 2ltimo, eliminamos la , tanto de la primera como de la se*unda )ila, sum!ndoles la tercera multiplicada por y por , respectivamente.

Lle*ados a este punto podemos resolver directamente las ecuaciones /ue se nos plantean0 y . :, si lo pre)erimos, podemos multiplicar las

tres )ilas de la matriz por , y respectivamente, y o tener as autom!ticamente los valores de las inc(*nitas en la 2ltima columna. 4. REGLA DE CRAMER
Un sistema de ecuaciones lineales recibe el nombre de sistema de Cramer cuando se cumplen las dos condiciones siguientes: El nmero de ecuaciones es igual al nmero de incgnitas. El determinante de la matriz de los coeficientes (matriz del sistema) es distinto de cero ( det ( A ) # 0 ) Un sistema de Cramer es, por definicin, compatible determinado, puesto que se cumple que rango (A) = rango (A*) = n (n de incgnitas). Consideremos un sistema de Cramer, es decir, un sistema de n ecuaciones lineales con n incgnitas, cu a e!presin general es la siguiente:

"ean A la matriz del sistema (matriz de los coeficientes), entonces det (A) # 0. #lamaremos matriz asociada a la incgnita xi la designaremos por Ai a la matriz que se obtiene al sustituir en la matriz del sistema la columna i por la matriz columna de los t$rminos independientes. Es decir:

Todos los sistemas de Cramer son compatibles determinados. El alor de cada incgnita se obtiene di idiendo el determinante de la matriz asociada a dic!a

incgnita por la matriz del sistema (matriz de los coe"icientes de las incgnitas).

#$e puede aplicar la regla de Cramer para resol er sistemas de ecuaciones lineales compatibles %ue tengan m&s ecuaciones %ue incgnitas' #a respuesta es a"irmati a. %asta con obtener un sistema equi&alente al inicial eliminando las ecuaciones superfluas o dependientes (proporcionales, nulas o que sean combinacin lineal de otras). El procedimiento a seguir es el siguiente: "upongamos que tenemos un sistema de m ecuaciones lineales con n incgnitas, siendo m ( n tal que: rango (A) = rango (A*) = n. 'or lo tanto, sobran m ) n ecuaciones. 'ara a&eriguar cu(les son las ecuaciones de las que podemos prescindir, basta encontrar en la matriz de los coe"icientes ( A ) un menor de orden n distinto de cero, por e)emplo, el que utilizamos para a&eriguar el rango de la matriz A. #as filas que inter&ienen en este menor son las que corresponden a las ecuaciones principales. #as

restantes ecuaciones las podemos suprimir. El siguiente botn abre una &entana que e!plica, mediante un e)emplo, el procedimiento a seguir.

*n sistema de Cramer es+ por de"inicin+ compatible determinado. ,ero+ #$e puede aplicar la regla de Cramer para resol er sistemas de ecuaciones lineales compatibles indeterminados' #a respuesta es tambi$n a"irmati a. El procedimiento a seguir es el siguiente: "upongamos que tenemos un sistema de m ecuaciones lineales con n incgnitas, tal que: rango (A) = rango (A*) = - . n. 'or lo tanto, sobran m ) - ecuaciones , adem(s, *a n ) - incgnitas no principales. 'ara a&eriguar cu(les son las ecuaciones de las que podemos prescindir, cu(les son las incgnitas no principales, basta encontrar en la matriz de los coe"icientes ( A ) un menor de orden - distinto de cero, por e)emplo, el que utilizamos para a&eriguar el rango de la matriz A. #as filas que inter&ienen en este menor son las que corresponden a las ecuaciones principales o independientes. #as restantes ecuaciones las podemos suprimir. #as columnas que figuran en dic*o menor corresponden a las incgnitas principales. #as incgnitas no principales las pasamos al otro miembro pasan a formar un nico t$rmino )unto con el t$rmino independiente. "e obtiene, de este modo, un sistema de - ecuaciones lineales con - incgnitas, cu as soluciones &an a depender de n ) - par&metros (correspondientes a las incgnitas no principales). El siguiente botn abre una &entana que e!plica, mediante un e)emplo, el procedimiento a seguir.

#a siguiente escena resuel&e cualquier sistema de ecuaciones lineales compatible (determinado o indeterminado), utilizando la /egla de Cramer. El nmero m(!imo de ecuaciones de incgnitas que puede tener el sistema es 0.

5. MTODO DE GAUSS
El m1todo de 2auss es una generalizacin del m1todo de reduccin, que utilizamos para eliminar una incgnita en los sistemas de dos ecuaciones con dos incgnitas. Consiste en la aplicacin sucesi&a del m1todo de reduccin, utilizando los criterios de e%ui alencia de sistemas (comentados en el ep+grafe ,), para transformar la matriz ampliada con los t1rminos independientes ( A* ) en una matriz triangular, de modo que cada fila (ecuacin) tenga una incgnita menos que la inmediatamente anterior. "e obtiene as+ un sistema, que llamaremos escalonado, tal que la ltima ecuacin tiene una nica incgnita, la penltima dos incgnitas, la antepenltima tres incgnitas, ..., la primera todas las incgnitas. El siguiente esquema muestra cmo podemos resol&er un sistema de ecuaciones lineales aplicando este m$todo. 'artimos, inicialmente, de un sistema de n ecuaciones lineales con n incgnitas, compatible determinado:

En primer lugar, aplicando sucesi&amente el m$todo de reduccin, eliminamos en todas las ecuaciones, e!cepto en la primera, la incgnita x3, obteni$ndose un sistema equi&alente:

En segundo lugar, aplicando nue&amente el m$todo de reduccin de forma sucesi&a, eliminamos en todas las ecuaciones, e!cepto en las dos primeras, la incgnita x4, obteni$ndose un sistema equi&alente:

En tercer lugar, aplicando sucesi&amente el m$todo de reduccin, eliminamos en todas las ecuaciones, e!cepto en las tres primeras, la incgnita x5, as+ sucesi&amente, *asta obtener el siguiente sistema equi&alente:

'ara resol erlo despe)amos, en primer lugar, la nica incgnita de la ltima ecuacin.

#uego sustituimos $sta en la penltima ecuacin despe)amos la otra incgnita. 'osteriormente, sustituimos dos de las tres incgnitas de la antepenltima ecuacin por sus &alores despe)amos la que queda, as+ sucesi&amente *asta llegar a la primera ecuacin. El siguiente botn abre una &entana que e!plica, mediante un e)emplo, el procedimiento a seguir.

-emos &isto como podemos resol&er un sistema compatible determinado aplicando el m1todo de 2auss, pero #Cmo podemos discutir la compatibilidad o incompatibilidad de cual%uier sistema de ecuaciones lineales con 1ste m1todo' Consideremos un sistema de m ecuaciones lineales con n incgnitas:

"ea A* la matriz ampliada del sistema con los t1rminos independientes, es decir:

#as trans"ormaciones que podemos realizar en dic*a matriz para transformar el sistema inicial en otro e%ui alente son las siguientes: .ultiplicar o di&idir una fila por un nmero real distinto de cero. "umarle o restarle a una fila otra fila. "umarle a una fila otra fila multiplicada por un nmero distinto de cero. Cambiar el orden de las filas. Cambiar el orden de las columnas que corresponden a las incgnitas del sistema, teniendo en cuenta los cambios realizados a la *ora de escribir el nue&o sistema equi&alente. Es decir: si, por e)emplo, la ,/ columna corresponde a la incgnita 6 la tercera a la incgnita z, cambiamos el orden de las columnas, a*ora la ,/ columna corresponde a la incgnita z la tercera a la incgnita 6. Eliminar filas proporcionales o que sean combinacin lineal de otras.

Eliminar filas nulas (0 0 0 ... 0).

0espu$s de realizar las trans"ormaciones que se consideren pertinentes, se obtendr( un sistema escalonado. "uponiendo que *ubi$semos eliminado, si las *ubiera, las filas nulas (0 0 0 ... 0), que corresponden a ecuaciones del tipo 0 = 0, el sistema e%ui alente tendr+a a*ora - ecuaciones lineales con n incgnitas. 1nalizando el sistema resultante, podemos efectuar su discusin del siguiente modo:

7 "i alguna de las ecuaciones es del tipo 0 = b (siendo b distinto de cero), el


sistema es incompatible no tiene solucin. El siguiente botn abre una &entana que muestra, mediante un e)emplo, este caso.

7 "i no *a ecuaciones del tipo 0 = b,

adem(s - = n, es decir, el nmero de ecuaciones del sistema equi&alente es igual al nmero de incgnitas, el sistema es compatible determinado , por lo tanto, tiene una nica solucin. El siguiente botn abre una &entana que ilustra, con un e)emplo, esta situacin.

7 "i no *a ecuaciones del tipo 0 = b

- . n, es decir, el nmero de ecuaciones es menor que el nmero de incgnitas, el sistema es compatible indeterminado , en consecuencia, tiene infinitas soluciones. En este caso, tenemos que separar las incgnitas principales de las no principales. 'ero, #cu&les son las incgnitas principales' "e puede dar el siguiente criterio: "i el sistema es escalonado tiene ecuaciones, las - primeras incgnitas ser(n las principales las n ) - restantes ser(n las no principales que pasaremos al segundo miembro como par&metros. El siguiente botn abre una &entana que, a tra&$s de un e)emplo, presenta este caso.

#a siguiente escena efecta la discusin resuel&e, en los casos que proceda (sistema compatible determinado o indeterminado), cualquier sistema de ecuaciones lineales, utilizando el m1todo de 2auss. El nmero m(!imo de ecuaciones de incgnitas que puede tener el sistema es 0.

Elimi a(i0 &" Ga+ss:5)r&a


D" #i$i%"&ia' la " (i(l)%"&ia libr"
Saltar a nave*aci(n, 2s/ueda En la matem!tica, la "limi a(i0 Ga+ssia a o "limi a(i0 &" Ga+ss:5)r&a , llamada as de ido a 'arl 8riedrich >auss y "ilhelm Jordan, es un al*oritmo del !l*e ra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices

e inversas. 'uando se aplica este proceso, la matriz resultante se conoce como0 O)orma escalonadaO

Tabla &" () t" i&)s


HocultarI 1 $istoria A &n!lisis num+rico % E.emplo N 8orma escalonada y escalonada reducida 5 :tras aplicaciones
o

5.1 Encontrando la inversa de una matrz

Hist)ria ."&itar/
El m+todo )ue presentado por el matem!tico 'arl 8riedrich >auss, pero se conoca anteriormente en un importante li ro matem!tico chino llamado 8iuz1ang suans1u o )ue-e cap:tulo de arte matem0tico. G

A 9lisis +m4ri() ."&itar/


La comple.idad computacional de la eliminaci(n *aussiana es aproGimadamente n%. Esto es, el n2mero de operaciones re/ueridas es n% si el tamao de la matriz es n 3 n.

E6"m%l) ."&itar/
Supon*amos /ue es necesario encontrar los n2meros *, y, z, /ue satis)acen simult!neamente estas ecuaciones A* B y J z 5 8, J %* J y B Az 5 J 11, J A* B y B Az 5 J % Esto es llamado un sistema lineal de ecuaciones El o .etivo es reducir el sistema a otro e/uivalente, /ue ten*a las mismas soluciones. Las operaciones ,llamadas elementalesson estas0

;ultiplicar una ecuaci(n por un escalar no nulo. 9ntercam iar de posici(n dos ecuaciones Sumar a una ecuaci(n un m2ltiplo de otra.

Estas operaciones pueden representarse con matrices elementales /ue se usan tam i+n en otros procedimientos como la )actorizaci(n L1 o la dia*onalizaci(n por con*ruencia de una matriz sim+trica.

En nuestro e.emplo, eliminamos * de la se*unda ecuaci(n sumando %PA veces la primera ecuaci(n a la se*unda y despu+s sumamos la primera ecuaci(n a la tercera. El resultado es0 , , &hora eliminamos y de la primera ecuaci(n sumando @A veces la se*unda ecuaci(n a la primera, y sumamos @N veces la se*unda ecuaci(n a la tercera para eliminar y. A* J Az 5 ^, , Jz51 8inalmente eliminamos z de la primera ecuaci(n sumando @A veces la tercera ecuaci(n a la primera, y sumando 1PA veces la tercera ecuaci(n a la se*unda para eliminar z. A* 5 N, , Jz51 7espe.ando, podemos ver las soluciones0 * 5 A, y 5 % y z 5 J1. ?ara clari)icar los pasos ,y es en realidad lo /ue las computadoras mane.an-, se tra a.a con la matriz aumentada. ?odemos ver los % pasos en su notaci(n matricial0 ?rimero0

7espu+s,

?or 2ltimo.

Si el sistema )uera incompati le, entonces nos encontraramos con una )ila como esta0

#epresentando a la ecuaci(n0 00 5 1 /ue no tiene soluci(n.

8)rma "s(al) a&a ; "s(al) a&a r"&+(i&a ."&itar/


7os )ormas especiales de matrices son la escalonada y la escalonada reducida. 1na matriz puede tener las si*uientes propiedades0 1. =odos las )ilas cero est!n en la parte in)erior de la matriz. A. El elemento delantero de cada )ila no cero ,pivote- est!n a la derecha del elemento delantero de la )ila anterior ,esto supone /ue todos los elementos de a.o de un pivote son cero-. Si una matrz # cumple con esas propiedades, se dice "s(al) a&a. &dem!s, cumpliendo estas otras condiciones, la matrz es "s(al) a&a r"&+(i&a. 1. Los pivotes son 1. A. =odos los elementos por encima de los pivotes son nulos. 'uando una matriz representa a un sistema de ecuaciones situaciones como tener una columna de ceros parece imposi le ya /ue correspondera a una varia le /ue nunca ha ra aparecido. Sin em ar*o esta situaci(n puede presentarse ,ima*inemos la ecuaci(n de un plano en el espacio en la /ue no aparece al*una de las componentes, por e.emplo yBz50-. &s la matriz

tam i+n es una matriz escalonada reducida. 1na vez /ue la matriz del sistema se ha trans)ormado hasta o tener una matriz escalonada reducida es muy )!cil discutirlo ,es decir, determinar cu!ntas soluciones tiene-0 1. 'uando aparece un pivote en la columna de los t+rminos independientes el sistema es incompati le ,no tiene nin*una soluci(n-. A. En otro caso el sistema es compati le. Si adem!s el n2mero de pivotes coincide con el n2mero de inc(*nitas el sistema es compati le determinado ,tiene una 2nica soluci(n-. 'uando el n2mero de pivotes es menor /ue el n2mero de inc(*nitas el sistema es indeterminado ,tiene in)initas soluciones /ue dependen de tantos par!metros como indi/ue la di)erencia entre el n2mero de inc(*nitas y el n2mero de pivotes-.

Otras a%li(a(i) "s ."&itar/


E () tra &) la i !"rsa &" + a matr3z ."&itar/
Es posi le usar la eliminaci(n *aussiana para encontrar inversas de matrices n 3 n. ?ara ello se aumenta la matriz dada, di*amos # con una matriz identidad simplemente escri iendo las )ilas de la identidad a continuaci(n de las de nuestra matriz #, por e.emplo dada0

se construira

y ahora se realizan las operaciones elementales so re las )ilas de la matriz aumentada /ue sean necesarias para o tener la )orma escalonada reducida de la matriz #_ sumando tanto a la se*unda como a la tercera )ila la primera o tenemos

multiplicamos la se*unda )ila por @1 y la intercam iamos con la primera

ya tenemos el pivote de la primera )ila /ue usamos para hacer ceros de a.o

ahora usamos el pivote de la se*unda )ila

y por 2ltimo cam iamos de si*no la tercera )ila y usamos el pivote correspondiente

El proceso ha )inalizado por/ue en la parte iz/uierda tenemos la )orma escalonada reducida de # y puesto /ue +sta es la matriz identidad, entonces # tiene inversa y su inversa es la matriz /ue aparece a la derecha, en el lu*ar /ue al principio ocupa a la identidad. 'uando la )orma escalonada reducida /ue aparece no es la identidad es /ue la matriz de partida no tiene inversa.

ELIMINACIN GAUSSIANA
Este m$todo se aplica para resol&er sistemas lineales de la forma:

El m$todo de eliminacin 2aussiana (simple), consiste en escalonar la matriz aumentada del sistema:

para obtener un sistema equi&alente :

donde la notacin se usa simplemente para denotar que el elemento cambi. "e despe)an las incgnitas comenzando con la ltima ecuacin *acia arriba. 'or esta razn, muc*as &eces se dice que el m$todo de eliminacin 2aussiana consiste en la eliminacin *acia adelante sustitucin *acia atr(s. E8emplo9 3. 4esol&er el siguiente sistema de ecuaciones:

aWij

ai j

usando el m$todo de eliminacin 2aussiana (simple). Solucin . Escalonamos la matriz aumentada del sistema:

5 di&idiendo el segundo rengln entre 67 , tenemos la matriz equi&alente:

'or lo tanto, el sistema equi&ale a:

0e la ltima ecuacin tenemos ecuacin de arriba para obtener ecuacin de arriba para obtener
*1 = `

*% = 10

sustitu+mos este &alor en la

*A = 18

sustitu+mos estos &alores en la

'or lo tanto, la solucin del sistema es:

4) /esol er9

usando eliminacin 2aussiana (simple). Solucin. Escalonando la matriz aumentada del sistema:

'or lo tanto, el sistema equi&ale a:

0e la ecuacin ( 7 ) obtenemos sustitu+mos arriba para obtener

*% = A
*1 = N

8 sustitu+mos arriba para obtener .

*A = N

'or lo tanto la solucin del sistema es:

El m$todo de eliminacin 2aussiana (simple) puede presentar un problema cuando uno de los elementos que se usan para *acer ceros, es cero. 'or e)emplo, supngase que en algn paso del proceso de *acer ceros tenemos la siguiente matriz:

Es claro que el elemento

aAA = 0

no puede usarse para *acer ceros9

Este problema se puede resol&er f(cilmente intercambiando los renglones , 7 . 0e *ec*o, el resultado que obtenemos es la matriz escalonada :

"in embargo, el problema puede presentarse tambi$n si el elemento aquel es muy cercano a cero. E8emplo9 4esol&er el siguiente sistema, usando eliminacin 2aussiana (simple)

Solucin.

Usando eliminacin 2aussiana (simple) obtenemos:

:ue nos da el sistema equi&alente:

0e donde,

*A =

A %

8 sustitu+mos arriba

obtenemos:

El resultado cambia dr(sticamente de acuerdo al nmero de cifras significati&as que se usen. 4esumimos los resultados en la siguiente tabla: ; Cifras Significativas (<) Error relativo porcentual =.>>? =.==>? =.===>? =.====>? =.>>>>>>? @77 @7 = .7 =.77
1 %

% N 5 ^ `

3=,=== A 3,=== A 3== A 3= A 3A

(<) 'ara calcular este error se tom el &alor &erdadero de

*1 =

. ,

1*ora resol&emos el mismo sistema pero intercambiando los renglones 3

#o cual nos da el sistema equi&alente:

0e donde obtenemos

*A =

A %

8 sustitu endo arriba nos da:

Bue&amente tomamos distintas cifras resultados en la siguiente tabla:

significati&as

resumimos los

; Cifras Significativas 7 C D > ? =.>>? =.>>>? =.>>>>? =.>>>>>? =.>>>>>>? =.777 =.7777 =.77777 =.777777 =.7777777

(<) Error Relativo Porcentual =.3 A =.=3 A =.==3 A =.===3 A =.====3 A

En este ltimo caso, &emos que el error relati&o porcentual no &ar+a dr(sticamente como en la solucin anterior. 1s+, &emos que los elementos que son cercanos a cero, son elementos malos para *acer ceros. En general, para e&itar este problema se elige como elemento para *acer ceros (el cual recibe el nombre de elemento pivotal o simplemente pivote) como el elemento ma or en &alor absoluto de entre todos los candidatos. 1 este procedimiento se le llama pi&oteo parcial aplicado a la eliminacin 2aussiana, nos d( el llamado m$todo de eliminacin 2aussiana con pi&oteo (parcial). 'odemos resumir el pi&oteo (parcial) como sigue:

E 'ara elegir el elemento pi&ote en la primer columna se escoge el elemento ma or (con &alor absoluto) de toda la primer columna. E 'ara elegir el elemento pi&ote en la segunda columna, se escoge el elemento ma or (con &alor absoluto ) de toda la segunda columna e!ceptuando el elemento
a1A

.
a1% aA %

'ara la tercer columna se e!ceptan los elementos

, etc.

En un diagrama matricial, tenemos que los elementos pi&otes de cada columna se escogen de entre los siguientes:

E8emplo 39 Usar eliminacin 2aussiana con pi&oteo para resol&er el siguiente sistema:

Solucin. Escribimos la matriz aumentada del sistema:

'ara escoger el primer elemento pi&ote en la columna 3, tomamos el elemento ma or con &alor absoluto entre @3 , @, @=., , el cual ob&iamente es el @, 8 por lo tanto intercambiamos el rengln 3 , ($ste es el primer pivoteo realizado):

5 procedemos a *acer ceros deba)o del pi&ote. 3 por por


1 A

'ara ello, multiplicamos el rengln

se lo sumamos al rengln ,.

Fambi$n, multiplicamos el rengln 3

0.A A

lo sumamos al rengln 7. Esto nos da la matriz:

Gl&id(ndonos del rengln 3 de la columna 3, procedemos a escoger el pi&ote de la columna ,, pero unicamente entre =.D 3.,D , el cual ob&iamente resulta ser 3.,D. 'or lo tanto intercambiamos los renglones , 7 ($ste es el segundo pivoteo realizado):

5 procedemos a *acer ceros deba)o del elemento pi&ote. 'ara ello multiplicamos el rengln , por
.05 1.A5

lo sumamos al rengln 7 para obtener:

#a cual es una matriz escalonada.

El sistema equi&alente es:

5 con la sustitucin *acia arriba, obtenemos la solucin del sistema:

E8emplo 4. Usar eliminacin 2aussiana con pi&oteo para resol&er el siguiente sistema de ecuaciones:

Solucin. #a matriz aumentada del sistema es :

El elemento pi&ote en la columna 3 es el los renglones 3 7:

10

lo que nos obliga a intercambiar

-aciendo ceros deba)o del pi&ote, obtenemos:

1*ora el elemento pi&ote en la columna , es el @3C.DD, el cual est( bien colocado, no *a necesidad de intercambiar renglones. 'rocedemos a *acer ceros deba)o del pi&ote, lo cual nos da la siguiente matriz escalonada:

Escribiendo el sistema equi&alente, obtenemos la solucin del sistema:

resol&iendo con la sustitucin *acia arriba,

;C=:7: 7E EL9;9<&'9a< 7E >&1SS


bndice El primer m+todo /ue se presenta usualmente en !l*e ra, para la soluci(n de ecuaciones al*e ricas lineales simult!neas, es a/uel en el /ue se eliminan las inc(*nitas mediante la com inaci(n de las ecuaciones. Este m+todo se conoce como ;todo de Eliminacin. Se denomina eliminacin <aussiana si en el proceso de eliminaci(n se utiliza el es/uema particular atri uido a <auss. 1tilizando el m+todo de >auss, un con.unto de n ecuaciones con n inc(*nitas se reduce a un sistema triangular e ui-alente ,un sistema e/uivalente es un sistema /ue tiene i*uales valores de la soluci(n-, /ue a su vez se resuelve )!cilmente por Osustituci(n inversaO_ un procedimiento simple /ue se ilustrar! con la presentaci(n si*uiente. El es/uema de >auss empieza reduciendo un con.unto de ecuaciones simult!neas, tal como se muestra en ,A-, a un sistema triangular e ui-alente como0

,^-

en el cual los superndices indican los nuevos coe)icientes /ue se )orman en el proceso de reducci(n. La reducci(n real se lo*ra de la si*uiente manera0 1. La primera ecuaci(n ,A- se divide entre el coe)iciente de => en esa ecuaci(n para o tener0

,`A. La ec. ,`- se multiplica entonces por el coe)iciente de => de la se*unda ecuaci(n ,A- y la ecuaci(n /ue resulta se resta de la misma, eliminando as =>. La ec. ,`se multiplica entonces por el coe)iciente de => de la tercera ecuaci(n ,A-, y la ecuaci(n resultante se resta de la misma para eliminar => de esa ecuaci(n. En )orma similar, c1 se elimina de todas las ecuaciones del con.unto eGcepto la primera, de manera /ue el con.unto adopta la )orma0

,8-

%. La ecuaci(n utilizada para eliminar las inc(*nitas en las ecuaciones /ue la si*uen se denomina Ecuacin /i-ote. En la ecuaci(n pivote, el coe)iciente de la inc(*nita /ue se va a eliminar de las ecuaciones /ue la si*uen se denomina el 5oeficiente /i-ote ,a11 en los pasos previos-. N. Si*uiendo los pasos anteriores, la se*unda ecuaci(n ,8- se convierte en la ecuacin pi-ote, y los pasos de la parte 1 se repiten para eliminar =? de todas las ecuaciones /ue si*uen a esta ecuaci(n pivote. Esta reducci(n nos conduce a0

,Z-

5. & continuaci(n se utiliza la tercer ecuaci(n ,Z- como ecuaci(n pivote, y se usa el procedimiento descrito para eliminar =@ de todas las ecuaciones /ue si*uen a la tercer ecuaci(n ,Z-. Este procedimiento, utilizando di)erentes ecuaciones pivote, se contin2a hasta /ue el con.unto ori*inal de ecuaciones ha sido reducido a un con.unto trian*ular tal como se muestra en la ec. ,^-. ^. 1na vez o tenido el con.unto trian*ular de ecuaciones, la 2ltima ecuaci(n de este con.unto e/uivalente suministra directamente el valor de cn ,ver ec. ^-. Este valor se sustituye entonces en la antepen2ltima ecuaci(n del con.unto trian*ular para o tener un valor de =n(>, /ue a su vez se utiliza .unto con el valor de =n en la pen2ltima ecuaci(n del con.unto trian*ular para o tener un valor =n(? y asi

sucesivamente. Este es el procedimiento de sustituci(n inversa al /ue nos re)erimos previamente. ?ara ilustrar el m+todo con un con.unto num+rico, apli/uemos estos procedimientos a la soluci(n del si*uiente sistema de ecuaciones0 c1 B N cA B c% 5 ` c1 B ^ cA @ c% 5 1% ,10A c1 @ cA B A c% 5 5 1tilizando como ecuacin pi-ote la primera ecuaci(n ,el coeficiente pi-ote es unitario-, o tenemos0 c1 B N cA B c% 5 ` A cA @ A c% 5 ^ ,11Z cA B ,0- c% 5 @Z & continuaci(n, utilizando la se*unda ecuaci(n del sistema ,11- como ecuaci(n pivote y repitiendo el procedimiento, se o tiene el si*uiente sistema trian*ular de ecuaciones0 c1 B N cA B c% 5 ` A cA @ A c% 5 ^ ,1A@ Z c% 5 18 8inalmente mediante sustituci(n inversa, comenzando con la 2ltima de las ecs. ,1A- se o tienen los si*uientes valores0 c% 5 @A cA 5 1 c1 5 5

You might also like