You are on page 1of 5

c  

 
 

Número de condición: a ‘ a ›d calcula el número de condición de una matriz‘ El


número de condición es una medida de la sensibilidad de la solución de un sistema de
ecuaciones lineales a los errores presentes en los datos‘ Da una indicación de la precisión de
los resultados de una matriz inversa o una solución de un sistema de ecuaciones lineales‘

Determinante: ‘ ›d Calcula el determinante de una matriz cuadrada ›‘ Si › contiene


sólo entradas enteras, el resultado también es un entero‘ El determinante se calcula
mediante factorización triangular obtenida mediante eliminación gausiana‘

Norma de un vector:  ‘ La norma de una matriz es un escalar que da una medida de la
magnitud de los elementos de la matriz‘ Aunque Ô   puede proporcionar varios tipos
de norma, el más sencillo es que se tome como norma el mayor valor singular de ›‘ Por
tanto la orden es  ›d‘ Sin embargo, si el argumento es un vector, la norma se define
como:
 vJpd  vd pd 1/pd

Espacio nulo: ‘ ½ ›d encuentra el espacio nulo de una matriz‘ ½ es una base
ortonormal del espacio nulo de la matriz ›, por lo que ½ no es igual a la matriz vacía‘

Ortogonalización: 
‘ 
›d encuentra el rango de una matriz‘

Número de condición: a ‘ a ›d da una estimación del número de condición de la


matriz (recíproco del número de condición utilizando el estimador de condición de
LINPACK)‘ Si › está bien condicionada debe estar cerca de 1‘ ‘ Si › está mal condicionada
el número de condición debe estar cerca de ‘ ‘

Rango de una matriz:  ‘  ›d calcula el rango de una matriz‘ El rango representa el
número de valores singulares de › que son mayores que la cantidad
  ›dd ›d ‘ La orden  ›Jd da el número de valores singulares de
› que son mayores que  ‘ Representa el número de filas o columnas linealmente
independientes‘

Reducción de filas por la forma de echelon: ‘ ›d produce la forma de echelon de
filas reducidas de › utilizando eliminación de Gauss-Jordan con pivote parcial‘

Traza de una matriz: a‘ a›d devuelve la suma de los elementos de la diagonal de
la matriz ›‘ Es equivalente a ›dd‘

Ecuaciones lineales

Factorización de Cholesky: a
‘ a
›d utiliza sólo la diagonal y la matriz triangular
superior de ›‘ La matriz triangular inferior se asume como la traspuesta de la superior‘
6÷Jp a
›d nunca da mensaje de error‘ Si › es definida positiva, entonces p es cero y
÷ es una matriz triangular superior de tal forma que ÷ ÷ ›‘ Su › no es definida positiva,
entonces p es un entero y ÷ es una matriz triangular superior de orden ½ p-1 tal que ÷ ÷
›1:½1:½‘

Inversa de una matriz: ‘ ›d es la inversa de la matriz cuadrada ›‘ Se produce un


mensaje de error siempre que › esté mal escalada o sea casi singular‘ En la práctica pocas
veces es necesario calcular explícitamente la inversa de una matriz‘ Un error frecuente
consiste en utilizar la inversa para resolver la ecuación › ‘ Una forma de resolverlo es
utilizar 
v› ‘ Una forma mejor consiste en utilizar el operador de división matricial

 › ‘ Esto produce una solución por eliminación gausiana, sin calcular la inversa‘

Mínimos cuadrados con covarianza conocida:  a ‘  a ›J Jvd devuelve el vector


 que minimiza › d vd› d para el caso en que 
 d

d‘
Este es un problema sobredeterminado de mínimos cuadrados con covarianza v, una matriz
cuadrada simétrica cuyas dimensiones son 
 d‘ La solución se encuentra sin invertir

Factores de eleminacióngausiana: ‘ ›d calcula cualquier matriz cuadrada › como el
producto de dos matrices triangulares, siendo una de ellas una permutación de una matriz
triangular inferior y la otra de una matriz triangular superior‘ La factorización se conoce
como  y algunas veces ‘ La mayoría de los algoritmos utilizan eliminación gausiana‘
6J  ›d calcula una matriz triangular superior y una matriz triangular inferior , tal
que su producto es ›  ‘

Mínimos cuadrados no negativos:  ‘   ›J d resuelve el sistema de ecuaciones


› a partir de mínimos cuadrados, con la restricción de que el vector  no puede tener
elementos negativos‘

Pseudoinversa: ‘  ›d produce la pseudoinversa de More-Penrose, que es una


matriz  con las mismas dimensiones de › satisfaciendo cuatro condiciones:

 ›› ›
 › 
 › es hermítica
 › es hermítica

Si ›es cuadrada y no singular, ›d es una forma costosa de calcular ›d‘ Sin
embargo, si › no es cuadrada o es cuadrada y singular, entonces las inversa no existe‘ En
esos casos ›d cumple algunas de las condiciones de la inversa (pero no todas)‘

Descomposición triangular ortogonal: ½‘ El comando ½ lleva a cabo la descomposición


triangular ortogonal de la matriz‘ Esta factorización es útil tanto para matrices cuadradas
como rectangulares‘ Expresa la matriz como un producto de una matriz ortonormal real o
una matriz compleja unitaria y una matriz triangular superior‘ 6½J÷ ½›d produce una
matriz triangular superior ÷ de la misma dimensión que › y una matriz unitaria ½ tal que ›
½÷‘

Solución de ecuaciones lineales: '   a 


' y '/'‘

Ver el apartado sobre operaciones matriciales aritméticas‘

Autovalores y valores singulares‘‘


Escalar diagonales para mejorar la precisión de los autovalores: a‘ Mejorar la
precisión de los autovalores calculados‘ Las matrices no simétricas pueden tener
autovalores pobremente condicionados‘ Pequeñas perturbaciones en la matriz, tales como
errores de redondeo, pueden llevar a grandes perturbaciones en los autovalores‘ La cantidad
que relaciona el tamaño de la perturbación de la matriz con el tamaño de la perturbación de
los autovalores es el número de condición de la matriz de autovectores: a vd
 vd vdd, donde 6vJd ›d‘ El balanceo es un intento de concentrar
cualquier mal condicionado de los autovectores de la matriz en un escalado diagonal‘ El
balanceo no puede convertir una matriz no simétrica en una matriz simétrica; sólo intenta
que la norma de cada fila sea igual a la norma de la columna correspondiente‘ 6dJ 
a›d devuelve una matriz diagonal d, cuyos elementos son potencias enteras de dos

y una matriz balanceada d tal que d ›d‘

Autovalores y autovectores: ‘ El problema de autovalores consiste en determinar las


soluciones no triviales de la ecuación: donde es una matriz , es un
vector columna de longitud , y es un escalar‘ Los valores de que satisfacen la
ecuación son los autovalores y los correspondients valores de los autovectores‘ 6vJd
›d produce una matriz diagonal d de autovalores y una matriz completa v cuyas
columas son los autovectores correspondientes de manera que ›v vd‘ Los autovectores
están escalados de forma que todos tengan norma uno‘

Polinomio característico:  ‘

  ›d‘ Si › es una matriz ,  ›d es un vector fila cuyos


elementos son los coeficientes del polinomio característico, m -›d‘ Los
coeficientes están ordenados en potencias descendentes: si un vector tiene
componentes, el polinomio que lo representa es:
 p  ÷d donde ÷ es un vector columna conteniendo las raíces del polinomio,
devuelve un vector fila cuyos elementos son los coeficientes del polinomio‘

Autovalores generalizados: ½‘ La función ½ da acceso a lo que normalmente son sólo


resultados intermedios en el cálculo de autovalores generalizados‘ Para matrices cuadradas
› y , la sentencia 6››J J½JJv ½›J d produce matrices triangulares superiores ›› y
y matrices ½ y  conteniendo los productos de las transformaciones derecha e izquierda,
tal que: ½› ››, ½  ‘ Además devuelve la matriz de autovectoresv‘

Descomposición por valores singulares: ‘ 6 JmJv ›d produce una matriz
diagonal m de la misma dimensión que ›, con elementos diagonales no negativos en orden
descendente, y matrices unitarias y v tal que › mv‘