Professional Documents
Culture Documents
2. El sistema tiene solución única si no hay variables libres (parámetros), es decir, columnas de A
linealmente dependientes de las demás que pueden ser pasadas al segundo miembro multiplica-
das por variables a las que se puede dar un valor arbitrario. Así pues, la solución no es única si
rango ( A ) < n .
⎡ xd ⎤
(b − A x )
−1
Ax = b ⇒ ⎡⎣ A d A i ⎤⎦ ⎢ i ⎥ = b ⇒ A d x d = b − A i xi ⇒ x d = ⎡⎣ A d ⎤⎦ i i
⎣x ⎦
Las variables dependientes x d se eligen de modo que las columnas de A d sean una base de
Im ( A ) . Esto no garantiza que el sistema tenga solución más que en el caso b ∈ Im ( A ) .
La solución general del sistema homogéneo se puede hallar a partir de una base ( k 1 , k 2 ,..., k n − r ) del
núcleo Ker ( A ) :
x = x p + k 1 z1 + k 2 z2 + ... + k n − r zn − r = x p + Kz, ∀z ∈ R n-r , K ≡ [k 1 | k 2 | ... | k n − r ] (1)
y también a partir de las variables libres xi introducidas anteriormente, calculando las variables x d
en función de ellas para b = 0 :
⎡ xd ⎤ ⎡ − ⎡ A d ⎤ −1 A i ⎤
x = xp + ⎢ i ⎥ = xp + ⎢ ⎣ ⎦ ⎥ xi , ∀xi ∈ R n-r (2)
x
⎣ ⎦ ⎢
⎣ I ⎥
⎦
Comparando las expresiones (1) y (2) se ve que la matriz que multiplica a xi en (2) es precisamente
una base de Ker ( A ) .
El ejemplo más sencillo es una recta en R2:
a11 x1 + a12 x2 = b1
La solución general se forma a partir de una solución particular de la ecuación completa (por ejem-
plo x1 = b1 a11 , x2 = 0 , suponiendo a11 ≠ 0 ), más la solución general de la ecuación homogénea
Ax = 0 , es decir, un vector cualquiera perteneciente a Ker ( A ) .
Las ideas anteriores se pueden ver gráficamente por medio de un ejemplo en R2. El vector x p re-
presenta una solución particular de la ecuación completa, mientras que x k representa un vector
cualquiera del núcleo Ker ( A ) . Sumando dos vectores como x p y x k se puede llegar va cualquier
punto de la recta; basta para ello cambiar el valor de x k .
Ax = b
a11 x1 + a12 x2 = b1
x2
Ker ( A ) = Im ( AT )
⊥
x = x p + xk
a12
a11x1 +a12x2 =0 ⇒ x1 =− x2
a11
xp xk
x1
Para poder utilizar esta expresión es necesario que AAT sea invertible, lo cual sucede si el rango de
A es igual a su número de filas m.
Determinación de subespacios
Un subespacio de dimensión r en Rn se puede determinar o definir principalmente de dos formas:
3. Definiendo una base del subespacio por medio de r vectores linealmente independientes.
4. Definiendo n–r condiciones que los vectores del subespacio deben cumplir. Estas condiciones
pueden constituir un sistema de n–r ecuaciones lineales con n incógnitas. Si las ecuaciones son
independientes habrá r variables libres. Dando alternativamente valor uno a cada una de las va-
riables libres y valor cero a las demás, se podrán calcular r vectores independientes del subespa-
cio y formar con ellos una base. De ordinario esta base no será ortonormal, pero podrá ortonor-
malizarse mediante el método de Gram-Schmidt.
Cada una de estas formas de definir un subespacio se corresponde con la forma alternativa de defi-
nir el complemento ortogonal de dicho subespacio.
4. Subespacio nulo o núcleo de AT: Ker ( AT ) ⊆ Cm . Está formado por todos vectores x tales
que xT A = 0T , o bien que AT x = 0 . Estas ecuaciones implican que los vectores de Ker ( AT )
son ortogonales a las columnas de A: Ker ( AT ) ⊥ Im ( A ) . Cada uno de estos subespacios es
el complemento ortogonal del otro: Ker ( AT ) = Im ( A ) .
⊥
⎡fb1T ⎤
⎢ T⎥
fb l
AB = [ca1 ca2 " cal ] ⎢ 2 ⎥ = ca1fb1T + ca2fbT2 + ... + cal fbTl = ∑ cai fbTi
⎢ # ⎥ i =1
⎢ T⎥
⎢⎣fbl ⎥⎦
Ahora puede procederse por identificación directa y ordenada de elementos, empezando por la pri-
mera columna de A (al ser simétrica, basta considerar los elementos que están bajo la diagonal):
a11 = l11l11 + 0 ⋅ 0 + 0 ⋅ 0 = l112 ⇒ l11 = a11
a21 = l21l11 + l22 ⋅ 0 + 0 ⋅ 0 = l21l11 ⇒ l21 = a21 l11
a31 = l31l11 + l32 ⋅ 0 + l33 ⋅ 0 = l31l11 ⇒ l31 = a31 l11
Análogamente se calculan los elementos de las columnas 2ª y 3ª. En todas las expresiones aparece
un único elemento de L que aún no ha sido calculado:
a22 = l21l21 + l22l22 + 0 ⋅ 0 = l212 + l222 ⇒ l22 = a22 − l212
a32 = l31l21 + l32l22 + 0 ⋅ 0 = l31l21 + l32l22 ⇒ l32 = ( a32 − l31l21 ) l22
a33 = l31l31 + l32l32 + l33l33 = l312 + l322 + l332 ⇒ l33 = a33 − l312 − l322
Es obvio que sólo hay una fila y una columna linealmente independientes y por tanto el rango es 1.
Como consecuencia de su rango, la matriz A=uvT tendrá un valor propio 0 con multiplicidad n−1 y
un único valor propio distinto de cero.
En una matriz cuadrada cualquiera los vectores propios asociados con valores propios distintos de
cero pertenecen a su imagen (subespacio de columnas Im ( A ) ), pues si en la igualdad Ax = λ x el
miembro izquierdo es una combinación de las columnas de A, también el miembro derecho, esto es
x, pertenecerá a Im ( A ) . En el caso de la matriz A=uvT el vector propio correspondiente al único
valor propio distinto de cero será u, asociado con el valor propio vTu, es decir, se cumplirá:
( uv ) u = u ( v u ) = ( v u ) u
T T T
⇒ λ = vT u
También se puede decir algo acerca de los n−1 vectores propios asociados con el valor propio nulo.
Son todos los vectores del subespacio definido por la ecuación:
( uv ) x = 0
T
⇒ u ( vT x ) = 0 ⇒ vT x = 0
Sin embargo, no es una matriz de proyección ortogonal, pues no es simétrica. Se podría hablar de
proyección oblicua. El subespacio sobre el que se proyecta está definido por el vector u (vectores
que no cambian al ser proyectados), mientras que la dirección de proyección (los vectores que se
anulan al ser proyectados) está definida por el complemento ortogonal del vector v:
Pw = ( uvT ) w = u ( vT w ) = 0 ⇒ vT w = 0
cos α
v⊥
Pw = w = u v w cos α
cos ϕ
Matrices de proyección
Estas propiedades de las matrices de proyección se siguen de lo visto en el apartado anterior para
las matrices de rango 1.
Las matrices de proyección cumplen la condición de ser idempotentes: P2=P. Esta condición no
garantiza que la proyección sea ortogonal. Para que la proyección sea ortogonal la matriz P debe
cumplir también la condición de ser simétrica: PT=P.
En una matriz de proyección ortogonal los valores propios valen 1 ó 0. Serán vectores propios aso-
ciados con valor propio 1 todos los vectores pertenecientes al subespacio F sobre el que se proyecta.
Todos los vectores pertenecientes al complemento ortogonal de este subespacio F ⊥ tendrán pro-
yección nula y serán vectores propios asociados con valor propio 0.
Las matrices de proyección son singulares, pues tienen valores propios nulos. También se puede
comprender geométricamente, pues a partir de la proyección de un vector es imposible reconstruir
el vector original, de donde se deduce que esta transformación no puede ser invertible.
Los vectores proyectados Pv pertenecen siempre a Im(P). Por otra parte, las columnas de P perte-
necen al subespacio sobre el que se proyecta y son un sistema generador, pero no constituyen una
base porque no son independientes.
Si el subespacio sobre el que se proyecta dispone de una base ortonormal, la proyección sobre di-
cho subespacio es la suma de las proyecciones sobre cada uno de los vectores de la base.
Px = q1 , x q1 + q 2 , x q 2 + ... + q r , x q r
La matriz de proyección P sobre un subespacio de dimensión 1 definido por el vector v viene dada
por:
vvT
= v ( vT v ) vT
−1
P=
v v
T
De forma análoga, la matriz de proyección P sobre un subespacio definido por las r columnas li-
nealmente independientes de la matriz A viene dada por (obsérvese la analogía de las dos fórmu-
las):
P = A ( AT A ) A T
−1
Matrices normales
Las matrices normales cumplen la condición de que conmutan con su transpuesta (o transpuesta-
conjugada, si son complejas): ATA=AAT.
Las matrices simétricas, antisimétricas, hermíticas, antihermiticas, ortogonales y unitarias son
matrices normales. Hay otras matrices normales que no pertenecen a ninguna de estas categorías.
Toda matriz B unitariamente semejante a una matriz normal A es también normal.
Las siguientes proposiciones son equivalentes:
• A es normal.
• A es unitariamente diagonalizable.
• A tiene n vectores propios ortonormales.
• La suma de los cuadrados de los elementos de A es igual a la suma de los cuadrados de sus
valores propios.
Una matriz normal A:
• Es hermítica si y sólo si sus valores propios son reales.
• Es antihermítica si y sólo si sus valores propios son imaginarios puros.
• Es unitaria si y sólo si sus valores propios tienen módulo unidad.
Las matrices unitariamente diagonalizables son un caso particular de las matrices diagonalizables.
La condición necesaria y suficiente para que una matriz sea unitariamente diagonalizable es que sea
una matriz normal. Las matrices simétricas (hermíticas), anti-simétricas (anti-hermíticas) y ortogo-
nales (unitarias) son matrices unitariamente diagonalizables.
( A A ) V = VD
H
n (2)
( AA ) U = UD
H
m (3)
Las matrices AHA y AAH son hermíticas (simétricas), pero no son iguales; en general ni siquiera
tienen el mismo tamaño, pues la primera es (n×n) y la segunda (m×m). Por ser hermíticas serán uni-
tariamente diagonalizables. Los valores propios distintos de cero de las matrices AHA y AAH son
positivos e iguales. Sus raíces cuadradas son los valores singulares de A (ó de AH).
Sean V y U las matrices unitarias que diagonalizan AHA y AAH. Estas matrices no están determina-
das unívocamente, pues no lo están los vectores propios que pueden determinarse de muchas for-
mas, sobre todo cuando los subespacios propios tienen dimensión superior a la unidad. Incluso en el
caso de valores propios simples hay una indeterminación en el signo del vector propio.
No cualesquiera matrices U y V calculadas con (2) y (3) constituyen la descomposición de valores
singulares (1) de A. Es necesario calcular U y V de modo compatible. Sólo una de las ecuaciones
(2) ó (3) debe ser utilizada para calcular U ó V. La segunda de estas matrices se debe calcular a par-
tir de la ecuación (1) pasando a la izquierda de la ecuación la matriz U ó V ya calculada. Sólo tantas
columnas como valores singulares distintos de cero se podrán calcular directamente con la ecuación
(1). El resto de las columnas deberán ser calculadas completando con vectores ortonormales. Hay
que tener en cuenta que según la ecuación (1), si r es el rango de A y de Σ, las últimas m–r colum-
nas de U y las últimas n–r filas de VT están multiplicadas por ceros, por lo que la única condición
que debe cumplir es garantizar que efectivamente U y V son unitarias.
4. Todos los pivots que aparecen sobre la diagonal en la eliminación de Gauss son positivos. De
otra forma, todos los elementos de la matriz D en la factorización A = LDLT son positivos.
5. La matriz A se puede factorizar en la forma A = RT R , donde R es una matriz cuadrada e inver-
tible. La factorización de Cholesky es un caso particular de esta factorización, aunque no es el
único. Cualquier matriz R cuadrada e invertible da lugar a una matriz definida positiva cuando
se multiplica por su transpuesta.
( ) ( )
n
A = ∑ λ j u j u Hj = λ1 u1 u1H + ... + u m1 u mH1 + λ2 u m1 +1u mH1 +1 + ... + u m1 + m2 u mH1 + m2 + ... = λ1P1 + λ2 P2 + ...
j =1
Cada una de las matrices Pi es una matriz de rango mi , suma de mi matrices de rango 1. Estas ma-
trices Pi son matrices de proyección ortogonal sobre el subespacio propio correspondiente.
= 1 ⎡1 1 ⎤ , D
T, U
A = UDU = ⎡1 0 ⎤ ; ⎡0 1 ⎤ 1 ⎡1 1 ⎤ ⎡1 0 ⎤ ⎡1 1 ⎤
⎢1 −1⎥ ⎢0 −1⎥ ⎢1 0 ⎥ = 2 ⎢1 −1⎥ ⎢0 −1⎥ ⎢1 −1⎥
2⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎣ ⎦⎣ ⎦
Puede comprobarse fácilmente que este resultado final es correcto.
La descomposición espectral obtenida no es única, pues puede cambiarse el orden de los valores
propios y de los vectores propios correspondientes. Tampoco la DVS es única, pues la matriz AT A
tiene un subespacio propio de dimensión 2 en el que se puede elegir una base de vectores propios de
muchas formas diferentes. ¿Se puede elegir una matriz V de forma que la DVS sea más parecida a
la descomposición espectral?
Dado que A es simétrica, sus vectores propios lo son también de las matrices AT A = AAT = A 2 .
obtenida en la descomposición espectral:
Eligiendo como matriz V la matriz U
= 1 ⎡1 1 ⎤ , AV = UΣ, 1 ⎡ 0 1 ⎤ ⎡1 1 ⎤ ⎡1 0⎤ 1 ⎡1 −1⎤
V=U ⎢ ⎥ ⎢1 0 ⎥ ⎢1 −1⎥ = U ⎢ 0 1 ⎥ , U= ⎢ ⎥
2 ⎣1 −1⎦ 2⎣ ⎦⎣ ⎦ ⎣ ⎦ 2 ⎣1 1 ⎦
⎡ 0 1 ⎤ 1 ⎡1 −1⎤ ⎡1 0 ⎤ ⎡1 1 ⎤
A = UΣV T , ⎢1 0 ⎥ = 2 ⎢1 1 ⎥ ⎢ 0 1 ⎥ ⎢1 −1⎥
⎣ ⎦ ⎣ ⎦⎣ ⎦⎣ ⎦
Se ha obtenido un mayor parecido con la descomposición espectral, pero no identidad. Tampoco se
puede cumplir que U sea igual a V.
Indudablemente, es imposible hacer coincidir la DVS y la descomposición espectral en los casos –
como éste– en que hay valores propios negativos. Los valores propios de A2 son los cuadrados tanto
de los valores singulares de A como de los valores propios de A, pero éstos no tienen por qué coin-
cidir, pues los valores propios pueden ser negativos y los valores singulares no.
Sin embargo, si la matriz A es también semidefinida positiva está garantizado que sus valores pro-
pios son no negativos y que coinciden con los valores singulares. En este caso ambas descomposi-
ciones coinciden.