You are on page 1of 300

Jorge Antezana y Demetrio Stojano

Anlisis Matricial a

Buenos Aires, Octubre de 2008.

Prefacio
El anlisis matricial (AM) es una continuacin natural del lgebra lineal, pero considerando a o a que el cuerpo de escalares son los nmeros reales o los complejos, y con una mirada basada u en la problemtica de las teor de espacios de Hilbert y de sus operadores acotados. a as Muchos problemas del anlisis, la geometr diferencial, el anlisis funcional, los sistemas a a a dinmicos, la f a sica terica y otras importantes teor pueden bajarse al caso de matrices. o as, Y eso sin mencionar todas las ramas de la matemtica aplicada, que suelen tener a este tipo de a reducciones como herramienta principal. En general, poder reducir y reformular un problema al caso matricial es un xito, porque es mucho ms viable resolver un problema de matrices e a que el problema de origen. Por todo lo anterior, mencionar aplicaciones del AM es innecesario. Cualquier matemtico a quiere poder aplicarlo, y trata sistemticamente de hacerlo. Porque es un contexto donde las a cuentas se pueden hacer (o la mayor cree a priori que deber poder hacerse). Ms an, a an a u cuando la reduccin a matrices de un problema P sigue siendo dif o cil, se puede concluir que P ten una dicultad intr a nseca. Pero con dicultad o sin ella, el tema es cmo resolver P en o matrices. Para poder hacerlo, hay que desarrollar a fondo una teor de matrices, o al menos una a extensa serie de herramientas para trabajar con ellas, que pueda resolver los inmumerables problemas que le caen de arriba. Podr decirse que eso es el AM. a Lo ms interesante del AM es que es el contexto ms basico (un alumno de segundo a a ao de la licenciatura ya puede entender la mayor de los enunciados) en el que se pueden n a plantear problemas matemticos bien dif a ciles, muchos de ellos no resueltos an. Pero para u entender a fondo este tipo de problemas, sus ramicaciones, y las tcnicas que se suelen e aplicar para resolverlos, hace falta hacer un curso espec co de AM, que pueda ser atendido tanto por matemticos formados como por estudiantes de la licenciatura. Otra particularidad a remarcable, es que con ese solo basamento, alcanza para leer y entender (y porqu no hacer) e una gran cantidad de publicaciones actuales. Un t pico trabajo nal para un curso de AM, es estudiar un paper de los ultimos 2 o 3 aos del tema. Y en muchos casos, con los contenidos n de este texto se tienen (casi) todas las herramientas para poder entenderlo a fondo. Por otra parte, como toda teor matemtica, el AM tiene su problemtica propia. El tema a a a ms t a picamente matricial son las desigualdades, que involucran normas, autovalores, valores singulares, determinantes, trazas, etc. El estudio de desigualdades de matrices y operadores es de una gran sutileza y forma una especie de mundo aparte. Sus especialistas son unos tipos especiales, una especie de gremio de artesanos. Las tcnicas que se usan suelen ser intrincadas e

iii

y de un gran ingenio. Se aplican ideas de toda la matemtica, pero la teor tiene sus reglas a a propias y toda una gama de herramientas y mtodos espcec e cos. Una de esas herramientas, fundamental y no muy conocida, es otro tema central para el AM: La teor de mayorizacin a o (de vectores y matrices), y sus mltiples ramicaciones. Esta teor elemental pero dif u a, cil, est poco difundida entre los matemticos, por lo que ha sido y sigue siendo redescubierta a a innumerables veces en distintas reas, muchas veces con terminolog ad hoc. Si bien la a as n mayorizacin aparece como una forma de comparar vectores de R , cuando se la piensa en o vectores de autovalores o de valores singulares, se percibe rpidamente que es una nocin a o intr nsecamente relacionada con la teor de matrices. Estos dos aspectos: mayorizacin y a o desigualdades, son desarrollados con profundidad en este texto. Una rama muy diferenciada del AM, la de matrices de entradas no negativas, llamada teor de Perron y Frobenuis, podr tener el rango de rea independiente. De ella daremos a a a un cap tulo con las bases principales de la teor y otro cap a, tulo exponiendo una de sus ramas: las matrices totalmente positivas. Este libro es el resultado de ms de una decena de cursos, dictados en diversos departaa mentos de matemtica (FCEN-UBA, FI-UBA, FCE-UNC y, sobre todo, en la FCE-UNLP) y a en varios congresos, en los ultimos aos. Es importante aclarar que se asumen como conocidos n (y no se exponen en este texto) todos los contenidos de un curso inicial de lgebra lineal. Para a comodidad del lector, y para jar notaciones y prerrequisitos, se enumeran al pricipio del primer cap tulo todas las nociones y resultados espec cos de un tal curso que sern usados a a lo largo del texto. Cualquier libro de lgebra lineal (y hay miles) sirve como referencia para los a mismos. Si me dan a elegir, yo recomiendo el de K. Homan y R. Kuntze [6] para algebristas, y el de P. D. Lax [10] para analistas. Debo mencionar que este libro est fuertemente basado en cuatro excelentes textos que a son la bibliograf bsica en el tema: los dos tomos Matrix Analysis [7] y Topics of Matrix a a Analysis [8] de R. Horn y C. Johnson, el reciente libro [4] y, sobre todo, el maravilloso libro Matrix Analysis [3], ambos de R. Bhatia. Sin embargo, hay varios aspectos que lo diferencian. Por un lado, el presente texto est pensado como base para un curso elemental, y organizado a efectivamente para que todo el material pueda darse en un cuatrimestre. Por otro lado, hay fuertes diferencias en la manera de encarar muchos de los temas, y se incluyen resultados ms a modernos y numerosas pruebas simplicadas de resultados clsicos, en base a publicaciones a recientes o al aporte de alumnos, ayudantes y profesores de todos los cursos antes mencionados. Los temas elegidos son solo una pequea parte de la teor pero son la base principal sobre n a, la que se edican la mayor de las reas no incuidas en el texto. Hay muchas tcnicas de a a e anlisis, funciones anal a ticas y geometr diferencial que suelen ser efectivas para problemas de a matrices. Ese tipo de interacciones no estn incluidos porque el texto est pensado para una a a audiencia no necesariamente experta. Una referencia escencial para esa clase de recursos son los libros mencionado de R. Bhatia [3] y [4]. Otra teor aparte, poco desarrollada aqu es la a , de perturbaciones de matrices (autovalores, autovectores, etc). Sobre estos temas, se podr an mencionar varios cap tulos de [3], y tambin el monumental tratado de T. Kato [9]. Tampoco e se hace mucho incapi en este texto en los mtodos algor e e tmicos, que vendr a ser la otra pata an de la teor Bajado un problema a matrices, hay dos alternativas: resolverlo tericamente a. o (para ese lado va este texto) o resolverlo aproximando, dado que en matrices se puede (si no

iv

son muy grandes). La bibliograf sobre aproximacin mediante algoritmos es inmensa, y nos a o limitaremos a citar el excelente tratado Matrix computations [2] de G. Golub y C. F. Van Loan, y la bibliograf que all aparece. La mayor de las herramientas necesarias para los a a algoritmos mencionados, y muchos de los procedimientos espec cos que ellos usan, s estn a expuestos en el texto; pero sin hacer hincapi en la ptica de la velocidad de convergencia o la e o robustez ante perturbaciones, sin en la problemtica terica que presentan. Otros temas que o a o no tratamos son los de matrices diagonalizables, polinomios minimales y formas cannicas, en o particular la forma de Jordan. Esto es porque ese tipo de resultados no se usarn en el resto a del texto, y porque suelen estar incluidos en un buen curso bsico de lgebra lineal. Los dos a a libros antes mencionados ([6] y [10]) dan excelentes tratamientos de estos temas. Muchos de los resultados que expondremos siguen siendo vlidos en contextos ms gea a nerales que las matrices reales o complejas. Por ejemplo matrices a coecientes en cuerpos generales o en anillos, lgebras de Banach, operadores en espacios de Banach o de Hilbert, a a gebras de operadores (C y de von Neumann). Esto sucede particularmente con resultados de los cap tulos 1 (en las secciones 5, 7 y 9), 3, 6, 7, 8 (seccin 3), 9, 10 y 12. La decisin o o que tomamos para presentarlos fue dar demostracines espec o cas para el caso matricial y, por lo general, mencionar luego los contextos donde siguen valiendo, y las tcnicas diferentes e para cada uno de ellos. La principal razn que justica este enfoque es que el libro busca ser o autocontenido en un nivel elemental, y que las teor mencionadas son muy variadas, lo que as har muy dif dar las demostraciones generales sin largas secciones introductorias de cada a cil una de ellas. Adems, las pruebas para el caso matricial suelen ser much a simo ms simples a y breves, y brindan un manejo interesante de las tcnicas propias del AM. Por otra parte, e opinamos que es muy util el enfrentarse con una primera versin de enunciados complicados o en un mbito menos complicado, para despus poder entender el signicado de esos enunciados a e en los contextos ms espec a cos (adems de su nueva demostracin). a o Sin embargo, este enfoque tiene un l mite. Por lo tanto, una parte importante del AM hemos decidido desarrollarlo en el ambiente ms general de operadores en espacios de Hilbert. a Se seleccionaron para esa parte aquellos resultados cuyas pruebas dieren poco al aumentar la generalidad, y que forman una rama imporante de la teor de operadores, aunque mantengan a un esp ritu claramente matricial. Sin embargo, ese trabajo se realizar en un segundo volumen, a dado que el contenido del presente libro ya es suciente para un curso cuatrimestral, y porque la segunda parte requiere una introduccin espec o ca de espacios de Hilbert que no consideramos necesaria para este texto puramente matricial.

Los contenidos del libro estn sucientemente explicitados en los t a tulos de las secciones del ndice. A continuacin haremos algunos comentarios sobre el enfoque aplicado en cada o cap tulo. Como se dijo anteriormente, al principio del cap tulo 1 se enumera una serie de notaciones y resultados del lgebra lineal elemental. En la seccin 5 se presentan varias a o frmulas elemetales, pero no demasiado conocidas, para operar con matrices. De particular o importancia es el manejo de matrices de bloques y las tcnicas para operar con ellas. Luego e se presenta el teorema de Schur que muestra la equivalencia unitaria de toda matriz con una triangular superior. Este teorema, si bien suele estar incluido en los textos elementales, es

presentado en detalle porque ser de importancia clave para numerosos resultados a lo largo a de todo el libro. El cap tulo culmina con tres secciones de resultados elementales, que tambin e sern muy usados ms adelante: polinomios aplicados a matrices, descomposicin QR y las a a o propiedades bsicas de las matrices de rango uno. a Los cap tulos 2 y 3, sobre matrices normales, autoadjuntas y positivas, empiezan con material bsico, desarrollan en detalle las propiedades variacionales de los autovalores de a matrices autoadjuntas, y dan una versin nitodimensional de los principales resultados de la o teor de operadores en espacios de Hilbert, pero con las notaciones tradicionales del AM. Se a propone un estudio exhaustivo de las propiedades y caracterizaciones de las matrices denidas positivas, dado que suelen ser las protagonistas de las ms interesantes desigualdades que se a estudiarn ms adelante. Por otra parte, muchos problemas generales de matrices pueden a a reducirse al caso positivo, a traves de yeites como tomar partes reales e imaginarias (ah se cae en las autoadjuntas) y luego positivas y negativas, usando matrices de bloques de 2 2, o bien usando la descomposicin polar. o Los cap tulos 4 y 5 tratan sobre mayorizacin, primero en su versin vectorial, y despus o o e en sus primeras aplicaciones a las matrices. El tratamiento es muy detallado, porque consideramos que es un tema poco difundido, y que es sumamente util en muchas ramas de la matemtica, adems de ser escencial para el AM. El cap a a tulo 6, sobre monoton y convexidad a de operadores, incluye una introduccin al clculo funcional para matrices autoadjuntas, en o a el estilo del de operadores en espacios de Hilbert, pero con pruebas ad hoc. Luego se dan las principales caracterizaciones y propiedades de las funciones mencionadas, que son herramientas escenciales para estudiar desigualdades de matrices y operadores. Este cap tulo esta fuertemente basado en la exposicin de estos temas que se hace en el libro de Bhatia [3]. o Sin embargo, hay importantes diferencias de enfoque, se presentan muchas pruebas diferentes, y la seleccin de resultados presentados es distinta. o En el cap tulo 7 se da una introduccin bsica a la teor de productos tensoriales y alo a a ternados, como siempre con pruebas adecuadas al contexto matricial. Esta teor por ser a, bastante ardua de exponer, suele aparecer mencionada sin mucho detalle en los libros, en funcin de poder aplicar los recursos que brinda (escenciales para entender las propiedades de o los determinantes y como herramienta para probar desigualdades) sin meterse en camisa de once varas. Aqu intentamos dar una exposicin detallada y (casi) autocontenida, dado que o el contexto matricial lo permite sin que el esfuerzo sea excesivo, y porque en cap tulos posteriores necesitaremos trabajar con propiedades muy espec cas del determinante de matrices y submatrices. El tema es que una buena presentacin de los productos alternados permite o justicar completamente todas esas propiedades, trabajo que se inicia en la seccin 3, y se o contina en el cap u tulo 12. El cap tulo 8 trata sobre productos de Hadamard. Aqu tambin el tratamiento es muy e detallado, porque es un rea que aparece poco en los tratados del tema, es un tema fuerte de a investigacin dentro del AM, y tiene adems muy intereantes aplicaciones en otras disciplinas. o a Se presenta una pueba completa del teorema de Haagerup que caracteriza la norma del operador de multiplicacin (de Hadamard) por una matriz ja, relativa a la norma espectral de o matrices. El cap tulo 9 presenta una serie de importantes desigualdades de matrices, y puede pen-

sarse como lugar en el que se concentran las tcnicas y desarrollos realizados en los cap e tulos anteriores. La lista no es exhaustiva, pero da una idea de las principales l neas de la teor y a, presenta la mayor de las tcnicas usuales que se utilizan para mostrar este tipo de desiguala e dades. En el cap tulo 10 se estudian las principales propiedades del rango y del radio numricos e de matrices. Los teoremas ms importantes que desarrollamos son el de Hausdor-Toeplitz a sobre la convexidad del rango numrico, y el de T. Ando sobre caracterizaciones matriciales e del radio numrico. e Los ultimos tres cap tulos enfocan la teor de Perron-Frobenius sobre las matrices de a entradas positivas, y las totalmente positivas. En el 11 se exponen los resultados clsicos a sobre matrices estrictamente positivas, no negativas e irreducibles. En el 12 se introducen los complementos de Schur y numerosas tcnicas con determinandtes que, adems de tener un e a inters propio, son la herramienta clave para desarrollar, en el cap e tulo 13, una introduccin o a la teor de matrices totalmente positivas. Esta cap a tulo se basa en un trabajo de T. Ando [20], y est escrito utilizando como punto de partida al trabajo nal de A. Iglesias para un a curso de AM dictado en La Plata. Todos los cap tulos tienen una ultima seccin de ejercicios. Se proponen adems numerosos o a ejercicios a lo largo del texto de cada cap tulo. Al principio de las secciones nales se los reenumeran, agreagndose a continuacin series de ejercicios nuevos. a o Qerr amos agradecer a Gustavo Corach por haber iniciado y habernos incluido en el trabajo de investigacin de nuestro grupo del IAM en los temas de Anlisis Matricial. Tambin va o a e nuestro agradecimiento a Celeste Gonzlez, a partir de cuyo trabajo [25] se comenzo a escribir a la primera versin de este libro, a Pedro Massey, que nos aport invalorables comentarios e o o ideas (adems de muchos ejercicios), y a Agust Iglesias e Ivan Angiono, de quienes hemos a n tomado algunos fragmentos de texto. Tambin agradecemos a los alumnos de los distintos e cursos que hemos dictado en estos aos, que han aportado una innidad de sugerencias, n correcciones e ideas.

Indice General
1 Preliminares 1.1 Generalidades . . . . . . . . . . . . . . 1.2 El espectro . . . . . . . . . . . . . . . 1.3 Matrices unitarias . . . . . . . . . . . . 1.4 Matrices triangulares . . . . . . . . . . 1.5 Herramientas para operar con matrices 1.6 El Teorema de Schur y sus corolarios . 1.7 Polinomios y matrices . . . . . . . . . 1.8 QR . . . . . . . . . . . . . . . . . . . . 1.9 Matrices de rango uno . . . . . . . . . 1.10 Ejercicios . . . . . . . . . . . . . . . . 2 Matrices normales y Hermitianas 2.1 Matrices normales . . . . . . . . . 2.2 Matrices Hermitianas . . . . . . . 2.3 Principio minimax . . . . . . . . 2.4 Entrelace de Cauchy . . . . . . . 2.5 Ejercicios . . . . . . . . . . . . . 0 0 6 8 9 10 13 15 17 19 20 25 25 27 28 31 34 37 37 39 42 43 46 48 49 53

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

3 Matrices denidas positivas 3.1 Propiedades bsicas . . . . . . . . . . . . . a 3.2 Descomposicin polar y valores singulares o 3.3 Parte positiva y parte negativa . . . . . . 3.4 Normas en Mn (C) . . . . . . . . . . . . . 3.5 Algunas caracterizaciones . . . . . . . . . 3.6 El producto de Hadamard . . . . . . . . . 3.7 El famoso truco 2 2 . . . . . . . . . . . . 3.8 Cortocircuitos . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

INDICE GENERAL

viii

3.9

Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

57 64 64 71 73 76 77 80 80 83 87 91 95 99 106 106 108 109 112 117 123 128 128 130 132 140 142 147 147 149 150 153 155

4 Mayorizacin o 4.1 Deniciones y caracterizaciones . . 4.2 Mayorizacin y funciones convexas o 4.3 Birkho, Hall y los casamientos . . 4.4 Mayorizacin logar o tmica . . . . . . 4.5 Ejercicios . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

5 Mayorizacin de autovalores y valores singulares o 5.1 Aplicaciones a matrices Hermitianas . . . . . . . . 5.2 Teorema de Schur-Horn . . . . . . . . . . . . . . . 5.3 Normas unitariamente invariantes . . . . . . . . . 5.4 Mayorizacin de matrices Hermitianas . . . . . . o 5.5 Teoremas de Lindskii y sus aplicaciones . . . . . . 5.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . 6 Funciones montonas y convexas de operadores o 6.1 Clculo funcional . . . . . . . . . . . . . . . . . . a 6.1.1 Continuidad del clculo funcional . . . . . a 6.1.2 Diferenciabilidad del clculo funcional . . a 6.2 Funciones montonas de operadores . . . . . . . . o 6.3 Funciones convexas de operadores . . . . . . . . . 6.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . 7 Productos tensoriales y alternados 7.1 Producto tensorial de a dos . . . . . . . . . . 7.2 Potencias tensoriales . . . . . . . . . . . . . . 7.3 Productos alternados y determinantes . . . . . 7.4 Propiedades utiles de los productos alternados 7.5 Ejercicios . . . . . . . . . . . . . . . . . . . . 8 Producto de Hadamard 8.1 Propiedades bsicas . . . . . . . . . . . . a 8.2 La norma de un multiplicador Hadamard 8.3 Funcionales positivas . . . . . . . . . . . 8.4 Matrices incompletas . . . . . . . . . . . 8.5 El teorema de Haagerup . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

INDICE GENERAL

ix

8.6 8.7

Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 163 163 166 167 168 175 179 180 182 184 187 189 192 194 197 197 198 202 204 207

9 Algunas desigualdades de matrices 9.1 Partes reales . . . . . . . . . . . . . . . . . . . 9.2 Desigualdad de Thompson . . . . . . . . . . . 9.3 Desigualdad aritmtico-geomtrica en matrices e e 9.4 Desigualdades de Young para matrices . . . . 9.5 Desigualdades tipo Hlder para matrices . . . o 9.6 La tcnica alternativa . . . . . . . . . . . . . . e 9.7 Primeras aplicaciones . . . . . . . . . . . . . . 9.8 La exponencial . . . . . . . . . . . . . . . . . 9.9 Desigualdades de Araki y Cordes . . . . . . . 9.10 Desigualades entre exponenciales . . . . . . . 9.11 Desigualdad de Ando-Johnson-Bapat . . . . . 9.12 Medias de operadores positivos . . . . . . . . 9.13 Ejercicios . . . . . . . . . . . . . . . . . . . . 10 Rango y Radio Numricos e 10.1 Deniciones y propiedades bsicas a 10.2 El Teorema de Hausdor Teplitz o 10.3 Caracterizaciones . . . . . . . . . 10.4 Comparacin con NUIs . . . . . o 10.5 Ejercicios . . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

11 Teor de Perron-Frobenius a 209 11.1 Matrices de entradas positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 11.2 Matrices de entradas no negativas . . . . . . . . . . . . . . . . . . . . . . . . . 215 11.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 12 Complementos de Schur y determinantes 12.1 Notaciones y deniciones . . . . . . . . . . 12.2 Identidades asociadas a determinantes . . 12.3 Un poco ms de complementos de Schur . a 12.4 Ejercicios . . . . . . . . . . . . . . . . . . 225 225 229 232 235

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

13 Matrices totalmente positivas 237 13.1 Deniciones y criterios de positividad total . . . . . . . . . . . . . . . . . . . . 237

INDICE GENERAL

13.2 13.3 13.4 13.5 13.6 13.7 13.8 13.9

Permanencia de la positividad total . . Factorizaciones LU y UL . . . . . . . . Matrices oscilatorias . . . . . . . . . . Variacin de signos . . . . . . . . . . . o Totalmente Perron-Frobenius . . . . . Algunos ejemplos . . . . . . . . . . . . Apndice: La prueba del criterio clave e Ejercicios . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

242 246 250 253 260 267 271 276 278 281 284

Bibliograf a Indice alfabtico e Notaciones y abreviaturas

Cap tulo 1 Preliminares


1.1 Generalidades

1.1.1. Para empezar, enumeraremos las notaciones y convenciones ms bsicas, sobre vectores a a y matrices, que usaremos a lo largo de todo el texto: 1. Usaremos a C o R como cuerpo de escalares. 2. Llamaremos R+ al conjunto de nmeros reales no negativos, y R al conjunto de nmeros u u + reales positivos. 3. Dado n N, usaremos el s mbolo In para denotar al conjunto {1, 2, . . . , n} N. 4. Llamaremos Mn,m (C) = Cnm , al espacio de matrices rectangulares de n m. 5. Cuando n = m, notaremos Mn (C) = Mn = Mn,n (C), a las matrices cuadradas de nn sobre C. 6. Para matrices reales escribiremos Mn,m (R) = Rnm y Mn (R) = Mn,n (R). 7. Para denotar las entradas de una matriz A Mn,m (C), usaremos indistintamente, por conveniencia del contexto, las notaciones A = (Aij ) iIn o A = (aij ) iIn .
jIm jIm

8. Dada A Mn,m (C), denotaremos por AT Mm,n (C) a su matriz traspuesta, dada por AT = Aji , para i In y j Im . ij 9. Dado n N, denotaremos por I Mn (C), o bien In , si es que hace falta aclarar su tamao, a la matriz identidad, dada por Iij = 1 si i = j e Iij = 0 si i = j. n 10. La suma y producto de matrices (cuando sus tamaos lo permitan) se hacen con las n deniciones usuales del lgebra lineal. Por ejemplo, si A Mn,m (C) y B Mm,r (C), a entonces AB Mn,r (C) y sus entradas son
m

(AB)ij =
k=1

Aik Bkj ,

para todo i In y todo j Ir .

(1.1)

1.1 Generalidades

11. Dada A Mn (C), diremos que A es inversible si existe A1 Mn (C), la unica matriz 1 1 que cumple que AA = A A = I. Denotaremos por Gl (n) = {A Mn (C) : A es inversible } , que es un grupo (de Lie) con la multiplicacin usual de matrices. Su neutro es In . o 12. Asumiremos como conocidas las propiedades del determinante, que denotaremos det : Mn (A) A, para cualquier n N y cualquier anillo conmutativo A. En el Cap tulo 7 sobre productos tensoriales, se darn deniciones precisas, y se demostrarn la mayor a a a de dichas propiedades. En el Cap tulo 12 se profundizar ese estudio. Sin embargo, a usaremos desde ahora esas propiedades, ad referendum de sus pruebas (esperemos que no haya c rculos muy viciosos). 13. Dada A Mn (C), consideremos la matriz xIn A Mn (C[x]). El polinomio caracter stico de A est dado por la frmula PA (x) = det(xI A) C[x]. Es un polinomio a o mnico de grado n. o
n

14. Dada A Mn (C), su traza es el nmero tr A = u


i=1

Aii . Usaremos el hecho conocido

de que, si B Mn (C), entonces tr AB = tr BA. 15. Sea A Mn,m (C). Las columnas de A se pueden pensar como vectores de Cn , y sus las, como vectores de Cm . Se usar la notacin Ci (A) Cn (respectivamente Fi (A) Cm ) a o para denotar a la i-sima columna (resp. la) de A. e 16. Los vectores de Cn sern pensados como vectores columna, es decir que identicamos a n n1 C con C . Sin embargo, a lo largo del texto los describiremos como una la (estilo x = (x1 , . . . , xn ) Cn ), para ahorrar espacio. Por ejemplo, si A Mn (C) e i In , entonces Ci (A) = (a1i , a2i , . . . , ani ) Cn . 17. Si a = (a1 , . . . , an ) Cn , denotaremos por diag (a) a1 . diag (a) = diag (a1 , . . . , an ) = . . 0 a la matriz diagonal 0 0 . .. . . Mn (C) . . 0 an

Por ejemplo, si tomamos 1 = (1, . . . , 1) Cn , entonces diag (e) = In . 18. Por otra parte, si A Mn (C), llamaremos d(A) Cn al la diagonal de A pensada como vector, i.e. d(A) = (A11 , . . . , Ann ). 1.1.2 (Matrices y operadores). Enumeraremos a continuacin las propiedades de las matrices o cuando son vistas como transformaciones lineales: 1. Dados dos C-espacios vectoriales V y W, llamaremos L(V, W) al C-espacio vectorial de transformaciones lineales T : V W. Si V = W, ponemos L(V) = L(V, V).

1.1 Generalidades

2. Dado un C-espacio vectorial V y un conjunto X V, denotaremos por Gen {X} al subespacio de V generado por X. Si X = {x1 , . . . , xm }, escribiremos tambin e Gen {X} = Gen {x1 , . . . , xm }. 3. Si A Mn,m (C), la pensaremos tambin como un elemento de L(Cm , Cn ) actuando por e m multiplicacin: si x C = Mm,1 (C), entonces A(x) = A x Cn , usando el producto o de la Eq. (1.1). En este contexto usaremos las notaciones conocidas: ker A = {x Cm : Ax = 0} y R(A) = A(Cm ) = Im(A) .

4. Se denotar por E = {e1 , . . . , em } a la base cannica de Cm . A veces seremos ms a o a (m) (m) expl citos, poniendo Em = {e1 , . . . , em }, para aclarar el contexto. 5. Si A Mn,m (C), entonces se tiene que Aei
(m)

= Ci (A) Cn ,

para todo

i Im .

Por lo tanto, tenemos que R(A) = Gen {C1 (A), . . . , Cm (A) }. 6. Por el teorema de la dimensin, si A Mn (C) o L(Cn ), entonces

A Gl (n) ker A = {0} R(A) = Cn . 7. El rango de A Mn,m (C) es rk(A) = dim R(A) = dim Gen {C1 (A), . . . , Cm (A) }. Ms a adelante, en la Observacin 3.7.4 (ver tambin el Ejercicio 1.1.15), veremos que coincide o e con el rango la de A, que es la dim Gen {F1 (A), . . . , Fn (A) }. 8. Algunas veces pensaremos a ciertas matrices como operando en espacios vectoriales ms a generales. Por ejemplo, si S Cn es un subespacio y A Mn (C) verica que A(S) S, entonces se puede pensar a A (o su restriccin a S) como un operador en S. En tal caso o diremos que pensamos a A|S L(S).

Espacios de Hilbert nitodimensionales


1.1.3. En Cn consideraremos el producto interno (o escalar) comn, dado por u
n

x, y =
k=1

xk yk ,

x, y Cn .

(1.2)

Es claro que , : Cn Cn C verica las propiedades que denen a un tal producto: Dados v, v, w Cn y C, entonces 1. v, v 0 y v, v = 0 si y slo si v = 0. o 2. u, v = v, u .

1.1 Generalidades

3. v, u + w = v, u + v, w . 4. u, v = u, v , pero u, v = u, v . Dado x Cn , deniremos su norma Eucl dea, a la usual:


n 1/2

x = x

= x, x

1/2

=
k=1

|xk |

A x se lo llama unitario, si x = 1. Muchas veces consideraremos otras normas de vectores y matrices. Por ello damos una denicin general: o Denicin 1.1.4. Sea K = C o R y V un K-espacio vectorial. Una norma en V es una o funcin N : V R que verica las siguientes condiciones: Dados u, v V y K, o 1. N (v) 0 y, adems, N (v) = 0 si y slo si v = 0. a o 2. N (u + v) N (u) + N (v). 3. N (v) = || N (v). Denicin 1.1.5. Sean V un K-espacio vectorial, con K = C o R, y N una norma en V. o 1. Cuando N proviene de un producto interno , , diremos que el par (V, N ) , o bien (V, , ) es un K-espacio de Hilbert . Cuando K = C, tambin diremos que V es un espacio de Hilbert a secas. Ojo, ac se e a asume que dim V < . Sin hay que pedir que V sea completo. o 2. Usualmente usaremos letras H o K para tales espacios y notaremos por L(H, K) al espacio de operadores lineales de H en K (acotados, si dim H = ). 3. Si H = K, escribimos L(H) en lugar de L(H, H). 4. Si A L(H, K) notaremos por ker A a su ncleo y R(A) a su imagen. u Denicin 1.1.6. Sea H un espacio de Hilbert. o 1. Dados x, y H, decimos que son ortogonales, y escribimos x y si x, y = 0. 2. Sea X H. Denotaremos por X = {y H : y x para todo x X}, al subespacio ortogonal a X. 3. Los vectores x1 , . . . , xk H forman un conjunto ortogonal cuando xi , xj = 0, para todo i = j. 4. Si adems los vectores estn normalizados, es decir xi a a el conjunto se dice ortonormal.
2

= xi , xi = 1 (i Ik ), entonces

1.1 Generalidades

5. Usaremos las siglas BON para denotar a una base ortonormal de H. Por ejemplo, la base cannica En es una BON de Cn con el producto interno de la Eq. (1.2). o Denicin 1.1.7. Sean H y K espacios de Hilbert y sea A L(H, K). Se llama adjunto de o A al unico operador A L(K, H) que satisface Ax, z
K

= x, A z

x H, z K.

(1.3)

La demostracin de que A existe es un resultado bsico de la teor de espacios de Hilbert. o a a En el caso nitodimensional, se puede construir a A usando BONes, como veremos. 1.1.8 (Propiedades de la adjunta). Sean A, B L(H). Usando la Eq. (1.3) (y la unicidad) se verican fcilmente las siguientes propiedades: a 1. Supongamos que dim H = n. Si para cualquier BON ja B = {v1 , . . . , vn } de H, se identica a los operadores de L(H) con matrices en Mn (C) v a Aij = Avj , vi , i, j In ,

entonces la matriz de A es AT , la traspuesta conjugada de la matriz de A. En otras palabras, A = Aji , para todo par i, j In . ij 2. (A ) = A. 3. Dado C, se tiene que (A + B) = A + B . 4. ker A = R(A ) y, si dim H < , tambin R(A) = (ker A ) . e 5. (AB) = B A e I = I. 6. A es inversible si y slo si A es inversible. En tal caso, (A )1 = (A1 ) . o Denicin 1.1.9. Dado A L(H) un operador en un espacio de Hilbert, decimos que A es: o 1. Hermitiano si A = A . 2. anti-Hermitiano si A = A . 3. unitario si AA = A A = I. 4. normal si AA = A A. 5. denido positivo si Ax, x > 0 para todo x H. En tal caso de escribe A > 0. 6. semidenido positivo si Ax, x 0 para todo x H. En tal caso de escribe A 0. Los mismos nombres tendrn las matrices de Mn (C), al ser pensadas como operadores en a n H = C con el producto escalar y la norma usuales. En este contexto recordar que, si A Mn (C), entonces A = AT . Adems usaremos las siguientes notaciones: a

1.1 Generalidades

1. H(n) = {A Mn (C) : A = A }. 2. U(n) = {U Mn (C) : U es unitaria }. 3. N (n) = {N Mn (C) : N es normal }. 4. Mn (C)+ = {A Mn (C) : A 0}. 5. Gl (n) = {A Mn (C) : A es invertible } y Gl (n)+ = Gl (n) Mn (C)+ . Lema 1.1.10 (Polarizacin). Sea H un C-espacio de Hilbert y sea A L(H). Entonces o 1 Ax, y = 4
4

ik
k=1

A (x + i k y), (x + i k y)

para todo par x, y H .

(1.4)

Demostracin. La cuenta es directa, y se deja como ejercicio. o Proposicin 1.1.11. Sea H es un C-espacio de Hilbert y sea A L(H). Luego, las siguientes o condiciones son equivalentes: 1. A = 0. 2. Ax, y = 0 para todo par x, y Cn . 3. Az, z = 0 para todo z Cn . Demostracin. Es claro que 1 2 3. La implicacin 3 2 es consecuencia directa de o o la frmula de polarizacin (1.4). Si asumimos 2 y, para cualquier x H, tomamos y = Ax, o o 2 obtenemos que Ax = Ax, Ax = Ax, y = 0, por lo que A = 0. Observacin 1.1.12. Es importante sealar que el o n tem 3 no implica a los otros en el caso de que H sea slo un R-espacio de Hilbert. Observar que no puede valer la polarizacin. o o 0 1 Peor an, tomando como A = u L(R2 ) (una rotacin de 90 grados), es claro que o 1 0 Ax, x = 0 para todo x R2 . Veamos ahora una aplicacin a matrices: o Corolario 1.1.13. Sea A Mn (C). Entonces 1. A H(n) si y slo si Az, z R para todo z Cn . o 2. Mn (C)+ H(n). Demostracin. Si A H(n) y z Cn , entonces Az, z = z, Az = Az, z . Si suponemos o que Az, z R para todo z Cn , entonces Az, z = Az, z = z, Az = A z, z , z Cn = (A A ) z, z = 0 , z Cn .

Por la Proposicin 1.1.11, deducimos que A = A . Por la denicin de Mn (C)+ , si se tiene o o + n que A Mn (C) , entonces Az, z R+ R para todo z C .

1.2 El espectro

Ejercicio 1.1.14. Sean A, Mm,n (C). Entonces se tiene que A A Mn (C)+ y


n

(A A)i,j = Cj (A) , Ci (A) Cj (A)


j=1 2 n

para todo par i, j In .

En particular, tr(A A) =

=
i,j=1

|aij |2 .

Ejercicio 1.1.15. Sean A, Mm,n (C)

L(Cm , Cn ). Mostrar que entonces

ker A = Gen {F1 (A), . . . , Fn (A) } Cn . Deducir que rkF (A) := dim Gen {F1 (A), . . . , Fn (A) } = rk(A), o sea que los rangos la y columna de A coinciden.

1.2

El espectro

Denicin 1.2.1. Se llama espectro de una matriz A Mn (C) al conjunto de todos los o autovalores de A: (A) = { C : es autovalor de A} = { C : ker(A I) = {0} }, que es un subconjunto nito y no vac de C. o 1.2.2 (Propiedades del espectro de matrices). Sea A Mn (C). Valen: 1. (A) si y slo si existe x Cn tal que x = 0 y Ax = x. o 2. Si C, entonces (A + I) = (A) + = { + : (A)}. 3. A Gl (n) si y slo si 0 (A). Ms an, (A) si y slo si A I Gl (n). o / a u / o 4. Sea PA (x) C[x] el polinomio caracter stico de A. Luego (A) si y slo si o PA () = 0, o sea que (A) es el conjunto de ra de PA (x). ces 5. Como gr(PA ) = n, se tiene que 0 < |(A)| n. 6. (A ) = (A). En efecto, usando 1.1.8, tenemos que A I Gl (n) (A I) = A I Gl (n) . / / 7. Si A Gl (n), entonces (A1 ) = (A)1 = {1 : (A)}. En efecto, es consecuencia de la igualdad ker(A I) = ker(A1 1 I) (Ejercicio: probarla). Observacin 1.2.3. Vimos que los autovalores de A Mn (C) son las ra o ces del polinomio caracter stico PA (x) = det(xI A) y que gr(PA ) = n. Pero PA puede tener ra mltiples, ces u por lo que (A) puede tener menos de n elementos (en tanto conjunto, sus elementos slo o pueden contarse de a uno). Muchas veces es necesario usar a cada (A) tantas veces

1.2 El espectro

como multiplicidad tiene como ra del caracter z stico. Para hacer eso, factorizamos en C[x] a
n n

PA (x) =
i=1

(x i ) =
i=1

(x i (A) ), y diremos que o (A) = (1 (A), . . . , n (A) ) ,

los autovalores de A son 1 , . . . , n ,

donde estaremos repitiendo cada autovalor de A tantas veces como multiplicidad tiene como ra de PA , y disponindolos en algn orden de C jado previamente (por ejemplo, el lexz e u icogrco en las coordenadas polares, con el cero al nal). Por eso quedan n. Al vector a (A) Cn se lo llama vector de autovalores de A. Observacin 1.2.4. Sean A, B Mn (C) y S Gl (n) tales que B = SAS 1 . Luego B diere o de A en un cambio de base. Se suele decir que A y B son similares y se nota A B. Por las propiedades del determinante, se tiene que PB (x) = det(xI SAS 1 ) = det S(xI A)S 1 = det(xI A) = PA (x) , por lo que (A) = (B) y tambin (A) = (B). e Denicin 1.2.5. Sea A Mn (C). o 1. El radio numrico de A se dene como e w(A) = mx{ | Ax, x | : x Cn , x = 1 } . a 2. El radio espectral de A se dene como (A) = mx{ || : (A)} . a 3. La norma espectral de A es su norma como operador, inducida por la norma eucl dea de Cn . Es decir, A
sp

= mx{ Ax : x Cn , x = 1} = m a n{C 0 : Ax C x , x Cn } .

4. La norma 2 o norma Frobenius de A es su norma eucl dea, si la pensamos como un vector largo. Por el Ejercicio 1.1.14, tenemos que
n

2
2

=
i,j=1

|aij |2 = tr(A A) .

(1.5)

Observar que, analizando los autovectores (unitarios) de A, se muestra fcilmente que a (A) w(A) A Tomando la matriz A =
sp

(1.6)

0 1 , se ve que las desiguadades pueden ser estrictas. En efecto, 0 0 (A) = 0 , w(A) = 1/2 y A
sp

=1.

Ejercicio: vericarlo.

1.3 Matrices unitarias

1.3

Matrices unitarias

Recordemos que U Mn (C) es unitaria si U U = U U = I, y que U(n) denota al conjunto de matrices unitarias en Mn (C). Teorema 1.3.1. Si U Mn (C), las siguientes armaciones son equivalentes: 1. U U(n). 2. U U(n). 3. U Gl (n) y U 1 = U . 4. U preserva el producto escalar, o sea que U x, U y = x, y , para todo par x, y Cn .

5. Si B es una BON de Cn , entonces U (B) tambn lo es. e 6. Las columnas de U forman una BON de Cn . 7. Las las de U forman una BON de Cn . 8. Para todo x Cn , se tiene que U x = x (o sea que U es una isometr a). Adems, U(n) es un grupo con la multiplicacin de matrices. a o Demostracin. Ejercicio. Se sugiere usar el Ejercicio 1.1.14 y, para probar que 8 implica todo o lo dems, usar la Proposicin 1.1.11. a o Denicin 1.3.2. Dadas A, B Mn (C), se dice que A es unitariamente equivalente a B y o se nota A B si existe U U(n) tal que A = U BU . = Observar que, como U(n) es un grupo, se tiene que es una relacin de equivalencia. o = Teorema 1.3.3. Sean A y B Mn (C) tales que A B. Entonces = (A) = (B) , donde A
2

= B

sp

= B

sp

A es

si y slo si B es o

puede signicar: Hermitiana, anti-Hermitiana, normal, denda positiva o unitaria.

Demostracin. La primera igualdad se sigue de la Observacin 1.2.4. Sea U U(n) tal que o o B = U AU . Entonces, por la Eq. (1.5), B
2
2

= tr(B B) = tr(U A U U AU ) = tr(U A AU ) = tr(A A) = A

2
2

donde la penltima igualdad se deduce del hecho de que tr(XY ) = tr(Y X) para todo par u X, Y Mn (C). Con respecto a las normas espectrales, B
sp

= mx U A(U x) = mx Ay = A a a
x =1 y =1

sp

ya que U {x Cn : x = 1} = {y Cn : y = 1}, porque U y U son isometr as sobreyectivas. Las armaciones sobre se prueban directamente de las deniciones, porque B = (U AU ) = U A U , con la misma U U(n).

1.4 Matrices triangulares

1.4

Matrices triangulares

Denicin 1.4.1. Sea T Mn (C). Diremos que o 1. T es triangular superior (abreviamos TS) si verica que Tij = 0 para i > j. Es decir que T tiene ceros por debajo de su diagonal. 2. T es estrictamente TS si Tij = 0 para i j. Ac tambin d(T ) = 0. a e 3. Anlogamente se denen las matrices triangulares inferiores y estrictamente triangulares a inferiores. 4. Denotaremos por T S(n) = { T Mn (C) : T es triangular superior }. 1.4.2 (Propiedades de las matrices triangulares). Tenemos las siguientes propiedades (enumeraremos los resultados, y las pruebas no escritas quedarn como ejercicio para el lector): a 1. Sea E = {e1 , . . . , en } la base cannica de Cn . Notemos Hk = Gen {e1 , . . . , ek }, para o cada k In , y H0 = {0}. Dada T Mn (C) se tiene que T T S(n) T (Hk ) Hk , para todo k In , (1.7)

y T es estrictamente TS T (Hk ) Hk1 , para todo k In . 2. Usando la Eq. (1.7) sale fcil que T S(n) es un subanillo de Mn (C). Es decir que a T1 , T2 T S(n) = T1 + T2 y T1 T2 T S(n) . (1.8)

Tambin son subanillos los otros conjuntos de matrices triangulares, pero las estrictae mente triangulares no tienen uno. 3. Adems, dadas S, T T S(n), se tiene que a d (ST ) = d (S) d (T ) := (S11 T11 , . . . , Snn Tnn ) . Esto se muestra directamente calculando (ST )ii por la frmula (1.1). o 4. Si T Mn (C) es estrictamente triangular, entonces T n = 0. 5. Si T T S(n), entonces su polinomio caracter stico cumple que
n

(1.9)

PT (x) = det (xI T ) =


i=1

(x Tii ) = (T ) = d(T ) (salvo el orden) .

(1.10)

Lo mismo pasa para su transpuesta T T , que es una trianagular inferior genrica. La e prueba es por induccin, desarrollando el determinante por la primera columna. o
n n

6. Si T T S(n), entonces tr T =
i=1

Tii y det T =
i=1

Tii . Para la parte del determinante,

se sugiere mirar la prueba de la Proposicin 1.5.4. o

1.5 Herramientas para operar con matrices

10

7. Si T T S(n) es inversible, entonces T 1 T S(n) y d T 1 = d (T )1 := (d1 (T )1 , . . . , dn (T )1 ) . (1.11)

En efecto, por la Eq. (1.7) y el hecho de que T Gl (n), sabemos que T (Hk ) = Hk = T 1 (Hk ) = Hk , para todo k In = T 1 T S(n) . La igualdad d (T 1 ) = d (T )1 se deduce ahora de la Eq. (1.9).

1.5

Herramientas para operar con matrices

En esta seccin veremos varias estrategias para operar con matrices: o 1.5.1. Sean A Mn, m (C) y B Mm,r (C). Enumeraremos los resultados, y las pruebas no escritas quedarn como ejercicio para el lector. a 1. La entrada (AB)ij es el producto de la Fi (A) M1, m (C) , por la Cj (B) Mm,1 (C). 2. Si x = (x1 , . . . , xm ) Cm , entonces Ax = A
m m

xi ei
i=1

=
i=1

xi Ci (A).

3. El producto AB Mn, r (C) representa la composicin A B : Cr Cn , cuando se las o piensa como operadores. Sus columnas se describen por la accin de A en las columnas o de B: Ci (AB) = A Ci (B) Cn , para todo i Ir . (1.12) Esto se puede probar directamente por la frmula (1.1) del producto, o bien observando o (r) (r) que Ci (AB) = (AB)ei = A ( Bei ) = A Ci (B), lo que se sigue de pensar a AB como una composicin. o 4. Anlogamente puede verse que a Fi (AB) = Fi (A) B Cr , para todo i In . (1.13)

5. Si alguna Ci (B) = 0, entonces Ci (AB) = 0 (con el mismo i). Anlogamente, si se tiene a que Fi (A) = 0, entonces Fi (AB) = 0. Esto se usa para identicar los ideales (a izq. y der.) del anillo Mn (C), cuando n = m. 6. Fijemos una columna Ci (A). Alguna entrada de Ci (A) aparece al calcular cualquier entrada de AB. Pero siempre multiplicada por alguna entrada de la Fi (B) (recordar la
m

frmula (1.1): (AB)st = o


i=1

Asi Bit ).

7. Por lo tanto, si Fi (B) = 0, entonces podemos cambiar la Ci (A) sin que ello afecte al producto AB. Anlogamente, si Ci (A) = 0, se puede cambiar impunemente Fi (B) . a 8. Sean Cn y Cm . Si D1 = diag () Mn (C) y D2 = diag () Mm (C), entonces D1 A = i aij
iIn jIm

AD2 = aij j

iIn jIm

D1 AD2 = i j aij

iIn jIm

(1.14)

1.5 Herramientas para operar con matrices

11

Bloques
1.5.2. Sea k In , tal que 0 < k < n y llamemos I = Ik y J = In \ Ik = {k + 1, . . . , n}. Dada A Mn (C) notaremos su representacin en bloques como sigue: o A= AI AIJ AJI AJ Ck , Cnk donde AIJ = (Arl )rI Mk, nk (C) ,
lJ

y en forma similar se denen AI Mk (C), AJI Mnk, k (C) y AJ Mnk (C). Ms adelante a (en la seccin 2.4 y, sobre todo en los Cap o tulos 12 y 13) se usar una notacin ms detallada, a o a tipo AIJ = A[I|J] = A[I|I) y as Para jar ideas observemos que, por ejemplo, . A T S(n) AI T S(k) , AJ T S(n k) y AJI = 0. (1.15)

Es extremadamente util el hecho de que esta notacin es consistente con las operaciones de o matrices. Por ejemplo: Si B Mn (C): 1. A + B = 2. A = AI + BI AIJ + BIJ AJI + BJI AJ + BJ Ck , Cnk

A A I JI A A IJ J

Ck , una especie de transpuesta adjuntada. Luego Cnk y AJI = A . IJ

A = A AI H(k) , AJ H(n k) 3. La ms importante es la frmula del producto: a o AB = AI BI + AIJ BJI AI BIJ + AIJ BJ AJI BI + AJ BJI AJI BIJ + AJ BJ

Ck , Cnk

(1.16)

que reproduce la frmula del producto de matrices en M2 (C). Observar que los tamaos o n de todos los productos que aparecen son los adecuados al bloque donde viven. La prueba de esta frmula es straightforward. Hay que usar la frmula (1.1) para (AB)ij , o o dividiendo cada suma en sus primeros k sumandos, y en los otros n k. 4. Por ejemplo, cualquiera sea C Mk, nk (C), se tiene que A= Ik C 0 Ink Gl (n) y, adems , a A1 =
1

Ik C 0 Ink =

Gl (n) .

(1.17)

Anlogamente, si X Mnk, k (C), luego a

Ik 0 X Ink

Ik 0 X Ink

5. Otra aplicacin: Si U U(k) y V U(n k), entonces o W = U 0 0 V U(n) y W AW = U AI U U AIJ V V AJI U V AJ V . (1.18)

1.5 Herramientas para operar con matrices

12

6. Si uno parte a In en r mitades (con r 3), para cada A Mn (C) se pueden denir sus r r bloques relativos a esa particin. Y valen propiedades anlogas a las del caso o a 2 2. En particular, vale algo similar a la frmula (1.16), pero imitando el producto en o Mr (C). Observacin 1.5.3. Sea S Cn un subespaceio con dim S = k. Todo lo que se hizo o recin se puede generalizar exactamente igual a una representacin de Mn (C) en matrices e o de 2 2 de bloques, pero teniendo en cuenta la descomposicin Cn = S S . El caso o anterior corresponder a tomar S = Gen {e1 , . . . , ek }. La manera ms econmica de verlo a a o n es tomar una BON {v1 , . . . , vn } = B de C tal que S = Gen {v1 , . . . , vk } (por lo que S = Gen {vk+1 , . . . , vn } ). Tomando coordenadas de las matrices en la base B, el laburo anterior se extrapola a cualquier descomposicin. Pedimos que B sea una BON y no una base cuaquiera o (que empiece por una base de S) para que valgan las frmulas relativas a A , en particular o (1.18). Las dems valen tomando coordenadas en cualquer base de aquel tipo. La notacin a o que usaremos para estas representaciones es A= AS AS ,
S

AS, S AS

S . S

Observar que, si PS es el proyector ortogonal sobre S, entonces PS =

I 0 S . Adems, a 0 0 S AS = PS APS = PS A S , o sea pensado en L(S) (sin los tres ceros). Al operador AS L(S) se lo llama la compresin de A a S. Su matriz concreta (de k k) depende de la BON B o elegida, pero en tanto operador en L(S), nuestro AS slo depende del subsepacio S. Frmulas o o semejantes se tienen para los otros tres bloques de A.

Proposicin 1.5.4. Sea n 2, A Mn (C) y S Cn un subespacio propio. Si o A= B C 0 D S S = det A = det B det D y PA (x) = PC (x)PD (x) . (1.19)

Por lo tanto (A) = (B) , (D) . Una frmula similar vale si A es triangular inferior de o bloques (para S). Demostracin. Eligiendo bases de S y S , y usando que la similaridad no cambia ni el det ni el o caracter stico, podemos asumir que S = Gen {e1 , . . . , ek }, donde k = dim S. Ms an, ya que a u elegimos una BON cualquiera de S, podemos suponer su primer elemento era un autovector x1 S de B para cierto (B). Observar que entonces tambin se tiene que Ax1 = x1 . e Al tomar matrices, queda que A= 0 A1 y B= 0 B1 con A1 = B1 C1 0 D Mn1 (C) .

Ojo que si k era uno, queda que A1 = D y que B = [] (en ese caso , B1 y C1 no existen). Si k > 1, desarrollando por la primer comumna, queda que det A = det A1 , det B = det B1 , PA (x) = (x ) PA1 (x) y PB (x) = (x ) PB1 (x) .

1.6 El Teorema de Schur y sus corolarios

13

x , y lo mismo para B. Haciendo 0 xIn1 A1 ahora induccin en n 2 (o en k, va por gustos), estamos hechos. Otra manera de probarlo o es v la denicin con permutaciones de Sn , porque las permutaciones que no pasan por el a o bloque nulo de abajo, son todas las del tipo Sk Snk . Este camino queda como ejercicio. Las dos ultimas salen porque xIn A = Como ejemplo del uso de estas tcnicas, mostraremos a continuacin la relacin que hay entre e o o el espectro del producto de dos matrices, en sus dos rdenes posibles. Se suguiere tratar de o probar el siguiente enunciado directamente, para ver cuanto ms fcil puede hacerse con la a a tcnica de bloques, y la primera aparicin del famoso truco de 2 2. e o Proposicin 1.5.5. Dadas A, B Mn (C), entonces (AB) = (BA). Ms an, AB y BA o a u tienen el mismo polinomio caracterstico, por lo que (AB) = (BA) Cn . Demostracin. Por la Eq. (1.17), sabemos que la matriz o M= I A 0 I Gl (2n) , y que M 1 = I A 0 I .

Adems, usando la ecuacin (1.16), nos queda que a o M 1 AB 0 B 0 M = I A 0 I 0 0 B 0 AB 0 B 0 I A 0 I = I A 0 I 0 0 B BA .

Usando la Proposicin 1.5.4, podemos deducir que PAB = PBA , porque si se tienen dos o polinomios P, Q C[x] que cumplen xn P (x) = xn Q(x), entonces P = Q. Observacin 1.5.6. Sean A Mn,m (C) y B Mm,n (C) con m > n. Con casi la misma o prueba que la Proposicin 1.5.5 puede mostrarse que (BA) = (AB) {0}, puesto que sus o polinomios caracter sticos cumplen PBA (x) = xmn PAB (x).

1.6

El Teorema de Schur y sus corolarios

El siguiente resultado, el primero de los varios debidos a Schur que enunciaremos, es sumamente util, y ser usado sistemticamente en todo este trabajo. a a Teorema 1.6.1 (Schur 1). Sea A Mn (C) con vector de autovalores (A) = (1 , ... , n ), dispuestos en cualquier orden prejado. Entonces 1. Existen matrices U U(n) y T T S(n) que verican: a. A = U T U .

1.6 El Teorema de Schur y sus corolarios

14

b. d (T ) = (A), i.e. Tii = i , para todo i In . 2. Si A Mn (R), el teorema sigue valiendo (con U Mn (R)) siempre que (A) R. 3. Si B Mn (C) conmuta con A, existen U U(n), y T1 , T2 T S(n) tales que A = U T1 U , B = U T2 U (con la misma U ) y d (T1 ) = (A) .

La d (T2 ) tendr a los autovalores de B, pero en un orden que no podremos elegir. a Demostracin. La prueba la realizaremos por induccin sobre la dimensin n. Si n = 1, el o o o resultado es trivial. Si n > 1, tomemos x1 ker(A 1 I) con x1 = 1. Completamos a una BON de Cn con vectores x2 , . . . , xn , y los ponemos en las columnas de una matriz U1 . Por a el Teorema 1.3.1, U1 U(n). Como U1 (e1 ) = x1 y U1 (x1 ) = e1 , es fcil ver que
C1 (U1 AU1 ) = U1 AU1 e1 = 1 e1

U1 AU1 =

1 0 A2

C , Cn1

donde A2 Mn1 (C). Por la Observacin 1.2.4, sus polinomios caractr o sticos cumplen
PA (x) = PU1 AU1 (x) = (x 1 )PA2 (x) = (A2 ) = (2 , . . . , n ) Cn1 .

Por HI, existen V U(n 1) y T2 T S(n 1) tales que V A2 V = T2 y d(T2 ) = (A2 ). 1 0 Podemos extender V a otra matriz U2 = U(n). Sea U = U1 U2 . Entonces, usando 0 V las ecuaciones (1.18) y (1.15) sobre productos de matrices de bloques, nos queda que
U AU = U2 (U1 A U1 ) U2 =

1 0 0 V

1 0 A2 =

1 0 0 V 1 0 T2 = T T S(n) ,

1 0 V A2 V

y se tiene que d(T ) = (1 , d(T2 ) ) = (1 , (A2 ) ) = (A). El caso real sale igual. Notar que se puede elegir x1 Rn siempre que 1 R. El caso de dos matrices que conmutan, se deduce de que ker(A 1 I) es invariante para B (cuenta fcil, a ya que conmutan), por lo que el vector x1 se puede elegir como un autovector de B actuando en ker(A 1 I) (no se sabe cuales de los autovalores de B en Cn pueden elegirse ah El resto ). de la prueba sigue igual, usando que las matrices achicadas A2 y B2 siguen conmutando. Corolario 1.6.2. Sea A Mn (C) con vector de autovalores (A) = (1 , . . . , n ). Entonces
n n

tr A =
i=1

det A =
i=1

i .

Demostracin. Por el Teorema 1.6.1 sabemos que podemos escribir A = U T U , donde se tiene o que U U(n), T T S(n) y d(T ) = (A). Luego tr A = tr T y det A = det T .

1.7 Polinomios y matrices

15

Corolario 1.6.3. Sea U U(n). Entonces | det U | = 1. Demostracin. Basta notar que (U ) {z C : |z | = 1}, dado que U es una isometr o a. Observacin 1.6.4. Sean A, B Mn (C). En general, no se tiene la menor idea de qu o e pueden ser los espectros (A + B) y (AB). Sin embargo, cuando A y B conmutan, el Teorema 1 de Schur nos da alguna informacin al respecto. El siguiente resultado vale tambin o e el lgebras de Banach de dimensin innita, pero con una prueba mucho ms sosticada. a o a Corolario 1.6.5. Sean A, B Mn (C), tales que AB = BA. Entonces 1. (A + B) (A) + (B) = { + : (A) y (B)}. 2. (AB) (A) (B) = { : (A) y (B)}. Ms an, existen ciertas ordenaciones de los vectores de autovalores (A) y (B) tales que a u (operando en esos rdenes), (A + B) = (A) + (B) y o (AB) = (A) (B) = (1 (A)1 (B), . . . , n (A)n (B) ) . (1.20)

Demostracin. Probaremos solamente la igualdad (1.20). Las cuentas para (A + B) son o iguales (y ms fciles). Por el Teorema 1 de Schur 1.6.1, existen U U(n), y T1 , T2 T S(n) a a tales que A = U T1 U , B = U T2 U , d (T1 ) = (A) y d (T2 ) = (B), aunque los rdenes en o que aparecen (A) y (B) no lo sabemos. Pero en esos rdenes, tenemos que o T1 T2 T S(n) = (T1 T2 ) = d (T1 T2 ) = d (T1 ) d (T2 ) = (A) (B) , por las frmulas (1.8), (1.10) y (1.9). Pero AB = (U T1 U )(U T2 U ) = U (T1 T2 )U . Luego, o por el Teorema 1.3.3, y en el orden que hab (T1 T2 ) = (AB). a, Corolario 1.6.6. Sea A Mn (C) con vector de autovalores (A) = (1 , . . . , n ). Entonces (A ) = (A) = (1 , . . . , n ) . Esto generaliza la igualdad (A ) = (A) ya vista. Demostracin. Sean U U(n) y T T S(n), con d (T ) = (A), tales que A = U T U . Luego o A = U T U , por lo que (A ) = (T ). Pero T es triangular inferior, as que tambin se e tiene que (T ) = d (T ) = d (T ) = (A).

1.7

Polinomios y matrices
m

Observacin 1.7.1. Si A Mn (C) y P (x) = o


k=0

bk xk C[x], entonces P se puede evaluar

en A de la siguiente manera:
m

P (A) =
k=0

bk Ak Mn (C) ,

dado que las potencias (enteras) Ak se denen con el producto de matrices, y viven en Mn (C). Adems, se tiene las siguientes propiedades: a

1.7 Polinomios y matrices

16

1. Como las potencias de A conmutan entre s se deduce fcilmente que la aplicacin , a o EA : C[x] Mn (C) dada por P P (A) (o sea la evaluacin en A) es un morsmo de o anillos. Por lo tanto, si se tiene una factorizacin P = QR, con Q, R C[x], entonces o P (A) = Q(A)R(A), ahora con el producto de matrices. 2. Si S Gl (n), entonces (SAS 1 )k = SAk S 1 , para todo k N. Luego, es fcil ver que a P (SAS 1 ) = S P (A) S 1 , para todo P C[x] . (1.21)

2 2 3. Si T T S(n), hemos visto que T 2 T S(n) y que d (T 2 ) = (T11 , . . . , Tnn ) = d (T )2 . Esto se extinede a potencias enteras, por induccin. Por lo tanto, o

P (T ) T S(n) y P (T )ii = P (Tii ) para todo i In , o sea que d (P (T ) ) = P (d (T ) ) = P (d (T ) ) = (P (T11 ) , . . . , P (Tnn ) ).

(1.22)

Corolario 1.7.2. Sea A Mn (C) con vector de autovalores (A) = (1 , . . . , n ). Entonces, (P (A) ) = P ((A) ) := (P (1 ) , ... , P (n ) ) para todo P C[x] .

En particular, (P (A) ) = P ( (A) ) := P () : (A) . Demostracin. Supongamos que T T S(n). Recordemos de la Eq. (1.10) que d (T ) = (T ). o Por la Eq. (1.22), sabemos que P (T ) T S(n) y d (P (T ) ) = P (d (T ) ). Luego, (P (T ) ) = d(P (T ) ) = P (d (T ) ) = P ((T ) ) , lo que prueba el Corolario en este caso. Si A Mn (C) es cualquier matriz, sean U U(n) y T T S(n) tales que A = U T U y (A) = d(T ) = (T ) . Por la Eq. (1.21), tenemos que P (A) = U P (T )U . Luego, por la Observacin 1.2.4 (que dec o a que cambiar de base no cambia el vector ) y el caso anterior, sabemos que (P (A) ) = (P (T ) ) = P ((T ) ) = P ((A) ) . Se sugiere otra manera de hacerlo, aplicando cuentas de polinomios. Por ejemplo, factorizar el polinomio Q(x) = P (x) , para P ( (A) ) o (P (A) ), y analizar qu pasa con e Q(A). Esta prueba es la que sirve en dimensin innita. Pero tiene el defecto que no da o informacin sobre multiplicidades. o Corolario 1.7.3 (Hamilton-Cayley). Sea A Mn (C). Luego PA (A) es la matriz nula. Demostracin. Por el Teorema 1.6.1, la Eq. (1.21) y la Observacin 1.2.4, sabemos que existen o o U U(n) y T T S(n) tales que U T U = A, PT (x) = PA (x) y PA (A) = U PT (T )U . Luego
(1.10)

1.8 QR

17

basta probar que PT (T ) = 0 para matrices T T S(n). En este caso, por la Eq. (1.10), sabemos que
n n

PT (x) =
i=1

(x Tii ) = PT (T ) =
i=1

(T Tii I) .

Llamemos Ti = (T Tii I) y Hi = Gen {e1 , . . . , ei }, para cada i In . Todas las Ti estan en T S(n), comnutan entre s y cumplen que (Ti )ii = 0. Luego, si H0 = {0}, se tiene que , Ti (Hi ) = Ti Hi1 Gen {ei } = Ti Hi1 + Gen {T ei } Hi1 Si al producto de ellas PT (T ) =
iIn

para todo

i In .

Ti lo ordenamos as T1 T2 . . . Tn (total las Ti conmutan), :

vemos inmediatamente que Ti (Cn ) =


iIn iIn

Ti (Hn )
iIn1

Ti (Hn1 ) . . . T1 T2 (H2 ) T1 (H1 ) = {0} .

O sea que PT (T ) = 0. Observacin 1.7.4. El Teorema de Hamilton Cayley vale para matrices en cualquier cuerpo. o La prueba anterior es simple, pero para generalizarla hace falta subir a una clausura algebrica a (o aun cuerpo de descomposicin de PA (x) ), porque necesita del Teorema 1 de Schur, que o solo vale para cuerpos algebricamente cerrados (se necesitan los i (A) , que son las raices que a factorizan a PA (x) ). A nadie se le ocurra postular la siguiente prueba general: PA (A) = det(A I A) = det 0 = 0, porque es desastrosamente errnea. En palabras del maestro Enzo Gentile, es peor que o pegarle una patada a una vieja en la cara (sic).

1.8

QR

Otra aplicacin importante de las matrices triangulares es el denominado mtodo QR. o e 1.8.1. Repaso: Recordemos lo visto en los tems 6 y 7 de 1.5.1. Sea A Mn (C) y jemos una columna Ci (A). Observar que alguna entrada de Ci (A) aparece al calcular cualquier entrada de AB. Pero siempre multiplicada por alguna entrada de la Fi (B) (recordar que
m

(AB)st =
i=1

Asi Bit ). Por lo tanto, si Fi (B) = 0, entonces podemos cambiar a piacere la

Ci (A) sin que ello afecte al producto AB. Anlogamente, si Ci (A) = 0, se puede cambiar a impunemente a Fi (B) . Teorema 1.8.2. Sea A Mn (C). Entonces existen Q U(n) y R T S(n) tales que a. A = QR.

1.8 QR

18

b. Rjj 0, para todo j In . Si A Gl (n), entonces tales Q y R son unicas. Demostracin. Caso A Gl (n): Por el mtodo de Gramm-Schmidt, si notamos xk = Ck (A), o e existe una BON B = {u1 , . . . , un } tal que Gen {x1 , . . . , xk } = Gen {u1 , . . . , uk }, para todo k In . Adems, por la construccin de B por Gramm-Schmidt, a o
j1

xj uj = xj
i=1 i=1 j1

xj , ui ui = xj = xj , ui ui

j1

rij ui , con rjj =


i=1

xj
i=1

xj , ui ui

> 0 . (1.23)

Tomemos Q U(n) con columnas Ci (Q) = ui , i In . Y tomemos R T S(n) dada por R = (rij )i, jIn , donde ponemos rij = 0 cuando i > j. Como se vi en 1.5.1, tenemos que o
n j

Cj (QR) = Q Cj (R) =
i=1

rij Ci (Q) =
i=1

rij ui = xj = Cj (A) ,

para todo j In .

Por lo tanto A = QR. Unicidad: Si hubiera otro par Q , R cumpliendo las hiptesis, llamemos Ci (Q ) = vi para o cada i In . Es fcil ver que Gen {x1 , . . . , xk } = Gen {v1 , . . . , vk }, k In (usar la Eq. (1.7) ). a De ah se deduce que existen constantes ci tales que |ci | = 1 y vi = ci ui para todo i In . Como rii > 0, de la Eq. (1.23) y del hecho de que A = Q R , se deduce que
i i

xi =
s=1

rsi vs =
s=1

rsi cs us = rii ci = rii = ci =

rii > 0 = ci = 1 , rii

para todo i In . Luego Q = Q y, por lo tanto R = Q A = R. Caso general: Si A Gl (n), el proceso es similar, salvo que, cada vez que aparece un / xk Gen {x1 , . . . , xk1 } , se pone uk = 0 en la Ck (Q), y, en la Eq. (1.23), ponemos rkj = 0 para todo j In , dado que el uk = 0 no aporta para generar a los xj (j k). Luego Fk (R) = 0. As queda que R T S(n), A = QR y rii 0 para todo i In , pero Q U(n). Esto se / arregla de la siguiente mantera: se cambian las Ck (Q) = uk = 0 del proceso anterior por una BON de R(A) = Gen {uj : uj = 0} (observar que la cantidad es la correcta). Como se vi o en el repaso 1.8.1 (o bien en 1.5.1), al multiplicar la Q cambiada por R, cada una de las nuevas Ck (Q) slo opera con la respectiva Fk (R) = 0. Luego sigue pasando que A = QR, pero ahora o Q U(n). Ejercicio 1.8.3. Sea A Mn (C). Usando QR, probar que
n

| det A|
i=1

Ci (A)

(1.24)

y que son iguales si y slo si A A es diagonal (o sea que R lo es). Se sugiere interpretarlo o tambin como un clculo de volmenes. e a u

1.9 Matrices de rango uno

19

1.9

Matrices de rango uno

Recordemos que, si A Mn,m (C), notamos rk(A) = dim R(A). A continuacin daremos una o caracterizacin muy util de las matrices con rango uno. o Denicin 1.9.1. Dados x Cn e y Cm consideremos la matriz o x1 . x y := xy = . [ y1 , . . . , ym ] = (xi yj ) iIn Mn,m (C) . . jIm xn Observar que x x y acta en Cm de la siguiente manera: u y(z) = (xy ) z = x (y z) = z, y x para todo z Cm . y) 1. (1.26)

(1.25)

Por lo tanto, se tiene que R(x

y) Gen {x}, por lo que rk(x

Por ejemplo, si A Mn,m (C) cumple que su unica columna no nula es Ck (A), entonces se ve (m) fcilmente que A = Ck (A) ek , tanto por la Eq. (1.25) como por la Eq. (1.26). Observar a que todo Mn,m (C) es el span de este tipo de matrices, porque se tiene la igualdad
m n

A=
k=1

Ck (A)

ek

(m)

=
j=1

ej

(n)

Fj (A) ,

para toda A Mn,m (C) .

(1.27)

La segunda igualdad se sigue de un argumento similar al anterior. Proposicin 1.9.2. o 1. Si A Mn,m (C) tiene rk(A) 1, existen x Cn e y Cm tales que A = x 2. Mn,m (C) = Gen {x Demostracin. o 1. Sea x Cn tal que R(A) = Gen {x}. Luego existe una funcional lineal : Cm C tal que Az = (z) x , para todo z Cm . y : x Cn e y Cm }. y.

Es sabido que existe un unico y Cm tal que (z) = y (z) = z, y , para todo z Cm (basta poner yi = (ei ), para cada i Im ). Luego, por la Eq. (1.26), podemos concluir que A = x y. 2. Se deduce de la Eq (1.27). 1.9.3. Estudiaremos a continuacin las propiedades de las matrices x y. Enumeraremos los o resultados, y las pruebas no escritas quedarn como ejercicio para el lector. Tomemos dos a n m vectores x C e y C . Luego:

1.10 Ejercicios

20

1. La norma espectral: x 2. El adjunto: (x

sp

= x

y , ya que y x.

sp

= mx |y (z)| = y . a
z =1

y) = (xy ) = y x = y

3. Si A Mn (C), se tiene que A (x 4. Si B Mm (C), entonces (x

y) = A x y = (Ax)

y.

y) B = x

(B y) (usar 2 y 3, o la Eq. (1.26) ). y) (v w) = v, y x y Mn (C). w Mn,k (C).

5. Dados v Cm y w Ck , se tiene que (x

A partir de ahora supondremos que n = m, o sea que x

6. El espectro: El unico autovalor de x y que puede ser no nulo es 1 = x, y (adivinen quin es el autovector). Ms an, (x y) = ( x, y , 0, . . . , 0). Para verlo basta tomar e a u la matriz de x y en una base que empiece por x, y usar la Proposicin 1.5.4. o 7. Si x = 1, entonces x x = Px es el proyector ortogonal sobre Gen {x}. En efecto, observar que x x(z) = z, x x, la conocida frmula de dicho proyector (se usa el hecho o de que z z, x x {x} ). 8. En general, si x = 0, el proyector Px = x x x 1 = x x
2

x.

9. Autoadjuntos: Se tiene que A H(n) si y slo si A se descompone como una suma o algebrica (i.e. con 1) de matrices xi xi (elegir los xi entre los autovectores de A y a esperar hasta el Teorema 2.2.1). 10. Positivos: A Mn (C)+ si y slo si A se descompone como una suma de matrices o xi xi (ver Proposicin 3.5.6 de bastante ms adelante). o a

1.10

Ejercicios

Ejercicios que aparecen en el texto


1.10.1 (Polarizacin, Lema 1.1.10). o Sea H un C-espacio de Hilbert y sea A L(H). Entonces 1 Ax, y = 4
4

i k A (x + i k y), (x + i k y)
k=1

para todo par x, y H .

1.10.2. Demostrar los 7 items de 1.4.2 (sobre matrices triangulares). 1.10.3. Demostrar los 8 items de 1.5.1 y los 6 items de 1.5.2 (sobre matrices de bloques). 1.10.4. Demostrar la Proposicin 1.5.4 usando la denicin del determinante con permutao o ciones de Sn . Usar que las permutaciones que no pasan por el bloque nulo de abajo, son todas las del tipo Sk Snk .

1.10 Ejercicios

21

1.10.5. Demostrar los 10 items de 1.9.3 (sobre matrices tipo x 1.10.6. Sean A, Mm,n (C). Entonces se tiene que A A Mn (C)+ y
n

y).

(A A)i,j = Cj (A) , Ci (A) Cj (A)


j=1 2 n

para todo par i, j In .

En particular, tr(A A) =

=
i,j=1

|aij |2 .

1.10.7. Sean A, Mm,n (C)

L(Cm , Cn ). Mostrar que entonces

ker A = Gen {F1 (A), . . . , Fn (A) } Cn . Deducir que rkF (A) := dim Gen {F1 (A), . . . , Fn (A) } = rk(A), o sea que los rangos la y columna de A coinciden. 1.10.8. Sea A Mn (C). Usando QR, probar que
n

| det A|
i=1

Ci (A)

y que son iguales si y slo si A A es diagonal (o sea que R lo es). Se sugiere interpretarlo o tambin como un clculo de volmenes. e a u

Ejercicios nuevos
1.10.9. Mostrar que una matriz diagonalizable A satisface una ecuacin polinomial de grado o igual al |(A)|, y no menor. 1.10.10. Usar el Teorema 1 de Schur para probar que si, A Mn (C) tiene vector de autovalores (A) = (1 , . . . , n ), entonces tr Ak =
n

k , para todo k N. i

i=1

1.10.11. Deducir que, si A, B Mn (C) cumplen que tr Ak = tr B k para todo k N, entonces (A) = (B) (si usamos el mismo convenio para ordenarlos). 1.10.12. Dadas A, B Mn (C), notemos C = AB BA. Probar que si C conmuta con A, entonces C es nilpotente. 1.10.13 (Triangulares). Si T T S(n) es inversible, probar que T 1 T S(n) y d T 1 = d (T )1 = (T )1 .

1.10.14. Sea A Mn (C). Demostrar: 1. Para todo > 0, existe una matriz diagonalizable D tal que A D
sp

1.10 Ejercicios

22

2. Para todo > 0 existe una matriz inversible S tal que T = SAS 1 es una matriz triangular superior que satisface
n1

|Tij |2 .
i=1 j>i

Notar que se suman los cuadrados de los mdulos de las entradas que estn estrictamente o a sobre la diagonal, por lo que puede decirse que T esta muy prxima a ser diagonal. o 1.10.15. El objetivo de este ejercicio es probar que las matrices de matrices, comnmente u llamadas matrices de bloques, se comportan del mismo modo que las matrices con entradas escalares. Una matriz de bloques es una matriz A, de n m, tal que sus entradas son matrices: para cada i, j, Aij Mni mj (C). Para que tenga sentido multiplicarlas como matrices de bloques, es decir que valga la frmula o
n

(A B)ij =
k=1

Aik Bkj ,

hay que restringirse a conjuntos de matrices donde las condiciones sobre los tamaos de los n bloques son ms espec a cas. Hallar estas condiciones. Explicitar en el caso m = n = 2. 1.10.16. Considerar la matriz de bloques A= A11 0 0 A22 , , Aii Mni (C)

Mostrar que (A) = (A11 ) (A22 ). Si la matriz es triangular de bloques, es decir A= A11 A12 0 A22 , Aii Mni (C) , i = 1, 2,

qu se puede decir del (A)?. e 1.10.17. Explicar cul es el error en cada una de las siguientes demostraciones (falsas) del a Teorema de Hamilton-Cayley: 1. Como pA () = 0 para cada autovalor de A, y como los autovalores de q(A) son los q() para cualquier polinomio, se sigue que los autovalores de pA (A) son todos nulos; por lo tanto, pA (A) = 0. 2. Como pA (t) = det(tI A), pA (A) = det(AI A) = det(A A) = det 0 = 0. Por lo tanto, pA (A) = 0. 1.10.18. Sea En Mn (C) la matriz cuyas entradas son todas iguales a 1. Hallar los autovalores de E2 y E3 . Generalizar para En .

1.10 Ejercicios

23

1.10.19. Probar que cualquier familia de matrices que conmutan dos a dos tiene un autovector comn a todas, mediante los siguientes pasos: u 1. Probar que si A, B Mn (C) conmutan, entonces tienen un autovector en comn. u 2. Si F = {A1 , . . . , Am } es una familia nita de matrices que conmutan dos a dos, usar induccin para probar que hay un autovector comn para todos. o u 3. Si la familia tiene cardinal no nito, encontrar algn curro para que d. u e 1.10.20. Sean A, B Mn (C), y suponer que una de las dos es no singular. Si AB es diagonalizable, mostrar que BA es diagonalizable. Hallar un contraejemplo si A y B son singulares. 1.10.21. Sean x, y, z, w Cn todos vectores unitarios. Probar que x, y = z, w = existe U U(n) tal que U x = z y Uy = w .

1.10.22. Sea A Mn (C). Una factorizacin A = BC con B, C Mn (C) es llamada o 1. LU -factorizacin si B es triangular inferior y C T S(n). o 2. U L-factorizacin si C es triangular inferior y B T S(n). o Probar que siempre existen tales factorizaciones. 1.10.23. Sean A, B Mn (C). Denamos las transformaciones lineales LA y RB : Mn (C) Mn (C) dadas por LA (X) = AX y RB (X) = XB , X Mn (C) .

1. Probar que (LA ) = (A) y que (RB ) = (B). 2. Probar que (LA RB ) = { : (A) y (B)}. 3. Deducir que las siguientes condiciones son equivalentes: (a) Para todo Y Mn (C), existe un unico X Mn (C) tal que AX XB = Y . (b) (A) (B) = . 1.10.24 (Proceso QR). Sea A Gl (n). Asumiremos que todos los autovalores de A tienen mdulos distintos. Deniremos recursivamente tres sucesiones o {Am }mN en Mn (C) , {Qm }mN en U(n) , y {Rm }mN en T S(n) ,

donde todas las factorizaciones que haremos sern la unica QR del Teorema 1.8.2: a 1. Pongamos A1 = A = Q1 R1 .

1.10 Ejercicios

24

2. Denimos A2 = R1 Q1 y lo factorizamos A2 = Q2 R2 . k. Denido Ak = Rk1 Qk1 , lo factorizamos Ak = Qk Rk , y denimos Ak+1 = Rk Qk . m. As seguimos deniendo y factorizando para todo m N. Probar que estas sucesiones cumplen lo siguiente. (a) A2 = Q AQ1 y A3 = Q A2 Q2 = Q Q A Q1 Q2 . 1 2 2 1
m

(b) Dado m N, sea Um =


k=1 m

Qk U(n). Entonces Am+1 = Um A Um .

(c) Se cumple que Qm I. Ms an, Um U U(n). a u


m

(d) Rm T T S(n), y tambin Am = Qm Rm T . e (e) T = U AU , por lo que (T ) = (A). Este proceso es fcil de aplicar, porque hacer QR es barato computacionalmente. Observar a es un algoritmo para realizar el Teorema 1 de Schur 1.6.1, por lo que que permite calcular los autovalores de A, cosa que en general es bien complicada. Sin embargo, las pruebas de los items (c), (d) y (e) son bastante dif ciles, y se enuncian ms a t a tulo informativo que como verdadero ejercicio. Sugerimos asumir (c) y probar todo lo dems. a
m m

Cap tulo 2 Matrices normales y Hermitianas


2.1 Matrices normales

2.1.1. Repaso: Sean A Mn (C) y a = (a1 , . . . , an ) Cn . 1. Recordemos que una matriz A Mn (C) es normal si A A = AA , es decir si A conmuta con su adjunta. 2. Si a = (a1 , . . . , an ) Cn , recordemos que diag (a) denota la matriz diagonal a1 0 0 . . diag (a) = diag (a1 , . . . , an ) = . . . . . Mn (C). . . 0 0 an 3. El Teorema 1.3.3 dec que si B Mn (C) cumple que A B, entonces a = (A) = (B) , A con
2

= B

, A

sp

= B

sp

y A es

si y slo si B es o

, (2.1)

= Hermitiana, anti-Hermitiana, normal, denda positiva o unitaria.

Teorema 2.1.2. Sea A Mn (C) con vector de autovalores (A) = (1 , ... , n ). Entonces las siguientes condiciones son equivalentes: 1. A es normal. 2. Para todo x Cn , Ax = A x . 3. A D para cierta matriz diagonal D Mn (C) . = 4. A diag ((A) ). = 5. Existe una BON B = {v1 , . . . , vn } de Cn tal que Avi = i vi para todo i In .

2.1 Matrices normales

26

6. A

2
2

=
i=1

|i |2

Demostracin. 1 2: Para cada x Cn , se tiene que o Ax


2

= A Ax, x

A x

= AA x, x .

2 3: Por el Teorema 1 de Schur 1.6.1, existen U U(n) y T T S(n) tales que T = U AU . Luego, tambin se tiene que T y = T y , para todo y Cn . Aplicando esto a la base e cannica, se deduce inductivamente (la por la) que T debe ser diagonal. o 3 4: Si A D, con D diagonal, la Eq. (2.1) asegura que (D) = (A). Pero como D es = diagonal, (D) = d (D) salvo el orden. Conjugando con una matriz de permutacin (o sea o que tiene a la base cannica en algn otro orden en sus columnas, por lo que es unitaria), o u reordenamos la diagonal de D, obteniendo que D diag ((A) ). = 4 5: Llamemos D = diag ((A) ). Si existe U U(n) tal que D = U AU , tomemos B = {C1 (U ), . . . , Cn (U )}. Como AU = U D, la frmula (1.12) dec que ACi (U ) = i Ci (U ) o a para todo i In . Rec procamente, si existe B como en 5, tomar la U U(n) dada por Ci (U ) = vi , para todo i In , y hacer la misma cuenta. 4 6: Si A diag ((A) ), la Eq. (2.1) muestra que A =
2
2

= diag ((A) )

2
2

=
i=1

|i |2 .

6 1: Si U U(n) y T T S(n) cumplen T = U AU y d (T ) = (A), entonces


n n

|i | = A
i=1

2
2

= T

2
2

=
i=1

|i |2 +
i<j

|tij |2 .

Por lo tanto tij = 0 para i < j, o sea que T es diagonal, y por ende normal. Por la Eq. (2.1), tambin A debe ser (o sea normal). e Denicin 2.1.3. Sea A Mn (C) una matriz normal. Diremos que o B = {v1 , . . . , vn } es una BON adaptada a (A) si B verica el tem 4 del Teorema 2.1.2, es decir que B es una BON de Cn , y Avi = i (A) vi para todo i In . Hemos visto en la Eq. (1.6) que si A Mn (C), entonces (A) w(A) A sp , y que en general estas desigualdades pueden ser estrictas. Pero no es as cuando A es normal: Corolario 2.1.4. Si A Mn (C) es normal, entonces A
sp

= w(A) = (A).

Demostracin. Sea (A) = (1 , ... , n ) el vector de autovalores de A. Llamemos D = o diag ((A) ). Por el Teorema 2.1.2, existe U U(n) tal que A = U DU . Por un lado, la Eq. (2.1) asegura que A sp = D sp y que (A) = (D), pues tienen el mismo espectro. Por otro lado, si x = (x1 , . . . xn ) Cn es unitario (i.e. x = 1), entonces
n n

Dx por lo que A
sp

=
i=1

|i | |xi | mx |i | a
iIn i=1

|xi |2 = (A)2 ,

= D

sp

(A). Las otras desigualdades las vimos en la Eq. (1.6).

2.2 Matrices Hermitianas

27

Corolario 2.1.5. Sean A, B Mn (C) matrices normales. Si tomamos un orden jo en C para ordenar los vectores (A) y (B), se tiene que (A) = (B) existe U U(n) tal que B = U AU , i.e. A B . = En otras palabras, si denimos la rbita unitaria U(A) := { U AU : U U(n)}, entonces o U(A) = { B N (n) : (B) = (A) } . Demostracin. La Eq. (2.1) asegura que si A B, entonces (A) = (B). Rec o procamente, = si D = diag ((A) ) = diag ((B) ), el Teorema 2.1.2 dice que A D B. = =

2.2

Matrices Hermitianas

Por lo general no es fcil calcular los autovalores de una matriz. Pero en muchos casos es a suciente saber que ellos estn en un intervalo especicado. En el resto de este Cap a tulo estudiaremos algunas de las principales caracter sticas que distinguen a las matrices Hermitianas, en particular los principios variacionales que se utilizan para localizar su espectro, sin la necesidad de conocer los autovectores asociados en forma exacta. Recordemos las notaciones H(n) = {A Mn (C) : A = A } y Mn (C)+ = {A H(n) : A 0} .

Teorema 2.2.1. Sea A Mn (C). Luego son equivalentes: 1. A H(n) . 2. A es normal y (A) R. 3. (A) Rn y existe una base ortonormal B adaptada a (A). 4. (A) Rn y A diag ((A) ), i.e. existe U U(n) tal que U AU = diag ((A) ). = 5. Ax, x R para todo x Cn . Demostracin. Por el Corolario 1.6.6, se tiene que (A ) = (A). Por lo tanto, si A H(n), o vemos que (A) R. El resto se deduce del Teorema 2.1.2 y del hecho de que una matriz diagonal en Mn (R) debe ser autoajunta. La equivalencia entre el tem 5 y los dems se sigue a del Corolario 1.1.13. Denicin 2.2.2. Sea A H(n). Por el Teorema anterior, (A) R. Por lo tanto, sus o autovalores pueden ordenarse usando el orden de R. En adelante usaremos las siguientes notaciones: 1. Escribiremos (A) = (1 (A), . . . , n (A)) para denotar al vector de autovalores de A ordenados en forma creciente, es decir k (A) k+1 (A), k In1 .

2.3 Principio minimax

28

2. (A) = (1 (A), . . . , n (A)) ser el vector de autovalores de A ordenados en forma dea creciente, es decir k (A) k+1 (A), k In1 . Tambin k (A) = nk+1 (A). e 3. Se llamarn a m (A) = 1 (A) = n (A) = m (A) n n y mx (A) = n (A) = 1 (A) = mx (A) . a a

As cuando escribamos i (A) o, directamente i (si el contexto es claro) estaremos asum, iendo que al enumerar los autovalores de A lo hemos hecho en forma creciente. Y en forma decreciente si escibimos i (A) o i . Proposicin 2.2.3. Sea A H(n). Entonces se tiene que o A
sp

= (A) = mx{n (A), 1 (A)} . a

(2.2)

Demostracin. Como H(n) N (n), la igualdad A sp = (A) se sigue del Corolario 2.1.4. o La otra se deduce de que (A) [1 (A), n (A)] R, y contiene a los bordes.

2.3

Principio minimax

Para matrices generales la unica caracterizacin conocida de sus autovalores es que son las o ra ces del polinomio caracter stico de la matriz. Pero cuando las matrices son Hermitianas, el hecho de poder establecer un orden entre ellos nos permite obtener caracterizaciones ms a interesantes. Los prximos teoremas describen al vector (A), para A H(n), en funcin de o o Ax, x , para x Cn \ {0}, conocidas como cocientes de Rayleig-Ritz. las expresiones x, x Teorema 2.3.1 (Rayleigh-Ritz). Sea A H(n). Entonces 1. Para todo x Cn se tiene que m (A) x n 2. mx (A) = n (A) = mx a a
x=0 2

Ax, x mx (A) x 2 . a

Ax, x = mx Ax, x . a x =1 x, x Ax, x = m Ax, x . n x =1 x, x

3. m (A) = 1 (A) = m n n
x=0

En particular, si A H(n), tenemos que A Mn (C)+ m (A) 0 (A) R+ . n Demostracin. Sea B = {v1 , . . . , vn } una BON de Cn adaptada a (A), o sea que Avi = o i (A)vi para todo i In . Por lo tanto, dado x Cn , se tiene que
n n n

x=
i=1

x, vi vi ,

=
i=1

| x, vi |

Ax, x =
i=1

i (A) | x, vi | 2 .

(2.3)

2.3 Principio minimax

29

Luego, si asumimos que x = 1, tenemos que


n n

Ax, x =
i=1

i (A) | x, vi | n (A)
i=1 n

| x, vi | 2 = n (A) = Avn , vn .

Anlogamente, Ax, x = a
i=1

i (A) | x, vi | 2 1 (A) = Av1 , v1 . Es claro que estas de-

sigualdades muestran los tres tems a probar. Observacin 2.3.2. Dada A H(n), las caracterizaciones del Teorema anterior se pueden o reescribir de la siguiente forma: 1 (A) I A n (A) I, 1 (A) = mx{ R : I A} a y n (A) = m n{ R : A I} .

En efecto, para mostrarlo basta recordar que dados B, C H(n), vale que B C B x , x C x , x para todo x unitario en Cn . Notaciones: En el resto de esta seccin usaremos las siguientes convenciones: o 1. Las letras M y S denotarn subespacios de Cn . a 2. Dado M Cn , escribiremos M1 = {x M : x = 1} al conjunto de elementos de M de norma uno. Teorema 2.3.3 (Courant-Fisher). Sea A H(n) y sea k In . Entonces, k (A) =
dim M=k xM1

m n

mx Ax, x = a

dim S=nk+1 xS1

mx a

m Ax, x . n

Demostracin. Sea B = {v1 , . . . , vn } una BON de Cn adaptada a (A). Como en la prueba o del Teorema 2.3.1, cualquier x Cn verica la Eq. (2.3). Dado r In , notemos por Hr = Gen {v1 , . . . , vr } y Kr = Gen {vr , . . . , vn }. Notar que dim Hr = r y dim Kr = n r + 1. Por la Eq. (2.3) vemos que, si x Kk ,
n

Ax, x =
i=k

i (A) | x, vi | 2 = k (A) = m Ax, x n


x(Kk )1

dim S=nk+1 xS1

mx a

m Ax, x . n

Por otro lado, si dim S = n k + 1, entonces S Hk = {0}. Pero si y (S Hk )1 , la Eq.


k

(2.3) asegura que Ay, y =


i=1

i (A) | y, vi | 2 y que y

=
i=1

| y, vi | 2 = 1 . Luego
dim S=nk+1 xS1

Ay, y k (A) = m Ax, x k (A) = k (A) n


xS1 dim M=k

mx a

m Ax, x . n

La otra frmula se demuestra en forma anloga: el m se alcanza en M = Hk , y cualquier o a n otro tal M cumple que M Kk = {0}.

2.3 Principio minimax

30

Observacin 2.3.4. La versin tradicional de las frmulas de Courant-Fisher ser la siguo o o a iente: k (A) =
w1 ,w2 ,...,wnk Cn

m n

x=0,xCn xw1 ,w2 ,...,wnk

mx a

x Ax = mx a w1 ,w2 ,...,wk1 Cn x x

x=0,xCn xw1 ,w2 ,...,wk1

m n

x Ax . x x

Teorema 2.3.5 (Teorema de Weyl). Sean A, B H(n). Entonces: j (A) + 1 (B) j (A + B) j (A) + n (B) para todo j In . (2.4)

Demostracin. Por el Teorema 2.3.1, para todo x Cn tal que x = 1, se tiene que o Ax, x + 1 (B) Ax, x + Bx, x Ax, x + n (B) . Por lo tanto el teorema se puede deducir de las frmulas de Courant-Fischer. o Observacin 2.3.6. Una reformulacin del Teorema de Weyl, que es bastante comn en sus o o u aplicaciones, es la siguiente: Sean C, D H(n), entonces: 1 (C D) j (C) j (D) n (C D) , para todo j In . (2.5)

Para mostrarla, basta tomar A = D y B = C D, observar que ambos viven en H(n), que A + B = C y, por ultimo, aplicar la Eq. (2.4).

Corolario 2.3.7. Sean A, B H(n) tales que A B, i.e. B A Mn (C)+ . Entonces j (A) j (B) para todo j In .

Demostracin. Llamemos C = B A. Por el Teorema 2.3.5, tenemos que o j (A) + 1 (C) j (A + C) = j (A + (B A) ) = j (B) . Por otra parte, como C Mn (C)+ , entonces 1 (C) = m Cx, x 0. n
x =1

Una consecuencia importante del Teorema de Weyl es el hecho de que, entre las autoadjuntas, matrices muy cercanas tienen autovalores muy cercanos. Y con cotas bien claras: Corolario 2.3.8. Sean A, B H(n). Entonces: (A) (B)

:= mx |j (A) j (B)| (A B) = A B a
j In

sp

2.4 Entrelace de Cauchy

31

Demostracin. Por el Teorema de Weyl, en su versin dada por la Eq. (2.5), se tiene que o o 1 (A B) j (A) j (B) n (A B) , Por lo tanto, aplicando la Proposicin 2.2.3, se obtiene que o (A) (B)

para todo

j In .

mx || : 1 (A B), n (A B) a

= (A B) .

Ejercicio 2.3.9 (Aronszajn). Demostrar las siguientes armaciones: 1. Dados S1 , S2 y S3 subespacios de Cn , probar que dim(S1 S2 S3 ) dim S1 + dim S2 + dim S3 2n . 2. Sean A, B H(n). Dados i, j In tales que i + j n + 1, se tiene que i+j1 (A + B) i (A) + j (B) .

2.4

Entrelace de Cauchy

Una consecuencia directa del Teorema de Courant-Fisher es el llamado teorema de entrelace de Cauchy, que relaciona los autovalores de una matriz Hermitiana con los de sus submatrices principales. Antes jaremos nuevas notaciones para estas submatrices: Denicin 2.4.1. Sean A Mn (C) y J In . Si J tiene k elementos, notaremos o A[J] = {aij }i,jJ Mk (C) y A(J) = {aij }i,j J Mnk (C) . /

Si el contexto lo permite, a veces abreviaremos A[J] = AJ , como en la seccin 1.5. Con esa o convencin, se tiene que A(J) = AIn \J . Observar que A[J] es la matriz cuadrada resultante o de borrar de A las las y columnas con ndices fuera de J. Para cada r In , llamaremos Ar = A({r}) = {aij }i=r=j Mn1 (C) , a la submatriz principal obtenida de borrar la la y la columna r-simas de A. e Teorema 2.4.2 (Entrelace de Cauchy). Sean A H(n), r In y Ar Mn1 (C) la submatriz principal de A obtenida como en la Eq. (2.6) . Entonces k (A) k (Ar ) k+1 (A) , para cada k In1 . Es decir que 1 (A) 1 (Ar ) 2 (A) n1 (A) n1 (Ar ) n (A) . (2.6)

2.4 Entrelace de Cauchy

32

Demostracin. Supongamos, por simplicidad, que r = n. Los otros casos se prueban exactao mente igual, pero con notaciones algo ms engorrosas. Fijemos un k In1 . Sea a Hn1 = {en } = Gen {e1 , . . . , en1 } = {x Cn : xn = 0 } . Si x Hn1 , notaremos x0 = (x1 , . . . , xn1 ) Cn1 a su parte signicativa. Observar que
n1

A n x 0 , x0 =
i,j=1

o Aij xj xi = Ax, x , dado que xn = 0. Trabajando slo con los subespacios

M Hn1 que tienen dim M = k (que son menos que los subespacios de dimensin k de o todo Cn , pero se identican con todos los de Cn1 ), obtenemos, del Teorema 2.3.3, que k (An ) =
M Hn1

dim M=k xM1

m n

mx An x0 , x0 a

dim M=k xM1 n


M C

m n

mx Ax, x = k (A). a

Tomemos ahora subespacios S Hn1 tales que dim S = n k. Como n k = n (k + 1) + 1 y a la ves, n k = (n 1) k + 1, obtenemos k (An ) =
dim S=nk xS1
S Hn1

mx a

m An x0 , x0 n

dim S=nk xS1

mx a

m Ax, x = k+1 (A) , n

lo que prueba el teorema. Observacin 2.4.3. En forma anloga se puede probar versiones ms generales del Teorema o a a anterior: Dado A H(n), 1. Si J In cumple que |J| = r, entonces para cada k Ir , se tiene k (A) k A[J] k+nr (A) . Observar que, si r = n 1, entonces k + n r = k + 1, como en el Teorema 2.4.2 2. Ms en general an, si P L(H)+ es un proyector autoadjunto (o sea ortogonal) sobre a u un subespacio S de dim S = r, entonces al producto P AP se lo puede pensar como un operador en el espacio de Hilbert S (para que su vector de autovalores tenga slo o r coordenadas, sacando los n r ceros que sobran). A esta compresin se la denota o AS = P AP L(S). Entonces se obtienen desigualdades anlogas: a
S

k (A) k (AS ) k+nr (A) ,

para cada k Ir .

En efecto, basta cambiar coordenadas a una BON de Cn cuyos primeros r vectores generen S. En esa base, AS = A[Ir ] y se aplica el caso anterior. Ejercicio 2.4.4. Escribir expl citamente cmo quedan los resultados de esta seccin (la o o frmula minimax, el teorema de Weyl y los tres entrelaces) en funcin de los vectores (A) o o ordenados decrecientemente. Ahora, como corolario del Teorema de entrelace, veremos una caracterizacin de positividad de o matrices en trminos de submatrices principales. Para ello necesitamos el siguiente resultado e previo.

2.4 Entrelace de Cauchy

33

Lema 2.4.5. Sea A Gl (n)+ . Entonces A[J] Gl (r)+ , para todo J In con |J| = r. Demostracin. Si HJ = Gen {ei : i J} y 0 = x HJ , llamemos xJ Cr al vector resultante o de sacarle a x los ceros fuera de J. Entonces 0 < Ax, x =
i,jIn

Aij xj xi =
i,jJ

Aij xj xi = A[J] xJ , xJ .

Como tales xJ recorren todo Cr \ {0}, vemos que A[J] Gl (r)+ . Teorema 2.4.6. Si A H(n), entonces las siguientes condiciones son equivalentes: 1. A es denida positiva (i.e. A Gl (n)+ ). 2. Si llamamos A[k] = A[Ik ] = {aij }i,jIk Mk (C) , entonces det A[k] > 0 para todo k In ,

3. Si llamamos A(k) = A(Ik ) = {aij }i,j>k Mnk (C) , entonces det A(k) > 0 para todo k In1 {0} ,

Demostracin. El Lema 2.4.5 dice que 1 2 y 3, porque es claro que si B Gl (r)+ , entonces o det B > 0. La rec proca se prueba por induccin sobre n. Si n = 1, entonces tenemos que o A = A[1] = det(A[1] ) > 0. Si n > 1, es claro que la condicin 2 se verica tambin para o e A[n1] , porque tiene las mismas submatrices involucradas. Por hiptesis inductiva, tenemos o que A[n1] Gl (n 1)+ , y por el Teorema 2.3.1 sabemos que 0 < 1 (A[n1] ) . El Teorema del entrelace de Cauchy 2.4.2 nos asegura que 2 (A) 1 (A[n1] ) > 0. Luego
n n

0<
k=2

k (A)

y tambn e

0 < det A[n] = det A =


k=1

k (A) .

De ah deducimos que 1 (A) > 0. Usando el Teorema 2.3.1, podemos concluir rpidamente a + que Ax, x > 0 para todo x = 0, o sea que A Gl (n) . La prueba de la equivalencia con el tem 3 es exactamente igual, pero usando para la induccin a A(1) Mn1 (C) . o Ejercicio 2.4.7 (dif cil). Probar que, dada A H(n), entonces A Mn (C)+ det A[J] 0 para todo J In .

Se suguiere induccionar en n. Luego tomar un J de tamao mximo para que det A[J] = 0 y n a aplicar varias veces la frmula det(B + Eii ) = det B + det B(i), como en la Eq. (8.3). o

2.5 Ejercicios

34

2.5

Ejercicios

Ejercicios del texto


2.5.1. Sea A H(n) y sea k In . Probar que k (A) = mx a
dim M=k xM1

m Ax, x = n

dim S=nk+1 xS1

m n

mx Ax, x . a

2.5.2. Sean A, B H(n). Demostrar las siguientes armaciones: 1. Para todo j In , se tiene que j (A) + n (B) j (A + B) j (A) + 1 (B) 2. Dados S1 , S2 y S3 subespacios de Cn , ellos cumplen que dim(S1 S2 S3 ) dim S1 + dim S2 + dim S3 2n . 3. Dados i, j In tales que i + j n + 1, se tiene que i+j1 (A + B) i (A) + j (B) . 2.5.3 (Aronszajn). Sea A = C X X D k H(n). Probar que nk para todo par i Ik , j Ink . (2.7)

i+j1 (A) i (C) + j (D) 2.5.4. Dado A H(n), mostrar que:

1. Si J In cumple que |J| = r, entonces para cada k Ir , se tiene k (A) k A[J] k+nr (A) . En particular, si r In , entonces k (A) k Ar k+1 (A) para todo k In1 . 2. Sea P L(H)+ es un proyector autoadjunto (o sea ortogonal) sobre un subespacio S de dim S = r. Sea AS = P AP S L(S), la compresin de A a S. Luego o k (A) k AS ) k+nr (A) , para cada k Ir .

2.5.5 (Ejercicio dif cil). Probar que, dada A H(n), entonces A Mn (C)+ det A[J] 0 para todo J In .

2.5 Ejercicios

35

Ejercicios nuevos
2.5.6. Mostrar que A es normal si y slo si sus partes real e imaginaria conmutan. o 2.5.7. Sea A Mn (C) y p(t) un polinomio. 1. Probar que si A es normal entonces p(A) tambin lo es. e 2. Si p(A) es normal, puede asegurarse que A lo sea?. 2.5.8. 1. Mostrar que si A es similar a una matriz unitaria, entonces A1 es similar a A . 2. Considerar la matriz 2 0 0 1/2 y mostrar que el conjunto de matrices que son similares a una matriz unitaria es un subcojunto propio del conjunto de matrices A para las que A1 es similar a A . 2.5.9. Sea A una matriz normal. Mostrar: 1. La matriz A es autoadjunta si y slo si todos sus autovalores son reales. o 2. La matriz A es unitaria si y slo si todos sus autovalores tienen mdulo 1. o o 3. Si la matriz A es nilpotente, entonces, A = 0. 2.5.10. 1. Mostrar que dos matrices normales son similares sii son unitariamente equivalentes. 2. Mostrar que A es normal sii conmuta con una cierta matriz normal con autovalores distintos. 2.5.11. Dada A Mn (C), probar que A es normal si y slo si hay un polinomio p de grado o a lo sumo n 1 tal que A = p(A). Notar que esto da una buena explicacin intuitiva de o por qu una matriz normal conmuta con su adjunto. Si A es real, mostrar que se puede elegir e p con coecientes reales, de manera que AT = p(A). 2.5.12. Sea A H(n) y S Mn (C). Mostrar que SAS es autoadjunta. Si S es invertible, SAS 1 es autoadjunta ? 2.5.13 (*). A lo largo de este ejercicio consideraremos la traza normalizada de modo que n 1 tr(I) = 1, es decir, dada una matriz A de n n, tr(A) = Aii . n k=1 Sean A, B H(n). Demostrar:

2.5 Ejercicios

36

1. tr(AB)2 tr(A2 B 2 ). 2. Si A = 0, entonces, (tr A)2 r(A) . n tr A2

(Pista: Usar la desigualdad de Jensen.) 2.5.14. Sea A Mn (C) una matriz normal. Probar que w(A) = (A) = A 2.5.15 (Gersgorin). Sea A Mn (C). Para cada i In , sea Ri =
j=i sp

|aij | . Mostrar que

(A)
iIn

{z C : |z aii | Ri } .

Deducir que, si Ri < |aii | para todo i In , entonces A Gl (n). Una tal matriz suele ser llamada diagonal dominante. 2.5.16 (Este es bien dif cil). Sea A H(n). Para cada i In , mostrar que si
1/2

ri =
j=i

|aij |

(A) [aii ri , aii + ri ] = .

Esto mejora al Ejercicio anterior en dos aspectos: Primero observar que cada ri Ri . Adems, a ubica al menos un autovalor en cada disquito (ac son intervalitos). a

Cap tulo 3 Matrices denidas positivas


3.1 Propiedades bsicas a

Recordemos que A Mn (C)+ si Ax, x 0 para todo x Cn . Denicin 3.1.1. Dadas A, B H(n), se dice que A B si se tiene que B A Mn (C)+ , o o sea si Ax, x Bx, x para todo x Cn . Proposicin 3.1.2. Sean A, B y C Mn (C). Entonces o 1. A Mn (C)+ si y slo si A H(n) y (A) R+ . o 2. A Gl (n)+ si y slo si A H(n) y (A) R . o + 3. Si A = B B entonces A Mn (C)+ . 4. Si A, B H(n) y A B, entonces C AC C BC. Demostracin. o 1. Si A H(n) y (A) R+ , el Teorema 2.3.1 asegura que 0 1 (A) x
2

Ax, x

para todo x Cn

= A Mn (C)+ .

Por el Corolario 1.1.13, sabemos que Mn (C)+ H(n) (para que A H(n) bastaba que Ax, x R para todo x Cn ). Por el Teorema 2.3.1, se tiene que, si A Mn (C)+ , entonces 1 (A) = m Ax, x 0, por lo que (A) R+ . n
x =1

2. Slo diere del caso anterior en que en ambas situaciones 0 (A). Notar que si A > 0, o / como la bola de Cn es compacta, existe un > 0 tal que 1 (A) = m Ax, x . n
x =1

Luego 0 (A), o sea que A es inversible. /

3.1 Propiedades bsicas a

38

3. Para todo x Cn tenemos que B Bx, x = Bx, Bx = Bx Por lo tanto B B Mn (C)+ . 4. Si B A 0 y x Cn , entonces C (B A)Cx, x = (B A)Cx, Cx 0. Luego C (B A)C 0, es decir C AC C BC. Teorema 3.1.3. Sea A Mn (C). Entonces: 1. A Mn (C)+ si y slo si existe B Mn (C) tal que A = B B. o 2. En tal caso, existe una unica matriz B Mn (C)+ tal que A = B B = B 2 . Demostracin. Sabemos que si A = B B entonces A Mn (C)+ . Luego basta probar que o si A Mn (C)+ , entonces existe una raiz cuadrada B Mn (C)+ para A, y que la tal B es unica. Escribamos A = U DU , con U U(n) y D = diag ((A) ) Mn (C)+ . Se toma D1/2 := diag 1 (A)1/2 , . . . , n (A)1/2 Mn (C)+ . Esto es posible por la Proposicin 3.1.2. Es claro que (D1/2 )2 = D. Finalmente se dene o B = U D1/2 U . Luego B Mn (C)+ y B 2 = A. La unicidad es algo ms complicada. El a problema es que la matriz U U(n) que diagonaliza a A no es unica. Sea otra C Mn (C)+ 2 tal que C = A. Entonces, como C y A conmutan, el Teorema 1 de Schur 1.6.1 asegura que existe V U(n) tal que V AV = D y V CV Mn (C)+ es diagonal . Para lo anterior se usa que N (n) T S(n) consta de las matrices diagonales, como se vi en la o prueba del Teorema 2.1.2. Como (V CV )2 = V AV = D, es claro que V CV = D1/2 (entre diagonales la unicidad es trivial). Por otro lado, U DU = V DV = A = (V U )D = D(V U ) . Aqu usaremos que D1/2 se puede escribir como P (D) para cierto polinomio P R[X]. En efecto, basta elegir un P tal que P (i (A) ) = i (A)1/2 , para todo i In . Pero entonces V U conmuta con P (D) = D1/2 . Por ello B = U D1/2 U = V D1/2 V = C. Observacin 3.1.4 (El Grammiano). Dada una matriz B Mn (C), llamemos fi = Ci (B), o i In . Notar que, entonces,
n 2

0.

G(f1 , . . . , fn ) :=

fi , fj

i,j=1

= B B Mn (C)+ .

La matriz anterior es conocida como matriz de Gramm (o Grammiano) de f1 , . . . , fn . Del Teorema 3.1.3 deducimos que una matriz es semi denida positiva si y slo si es una matriz o de Gramm. Y que es denida positiva si y slo si es una matriz de Gramm de un sistema o linealmente independiente (en nuestro caso, esto equivale a que B Gl (n) ).

3.2 Descomposicin polar y valores singulares o

39

Los mismos resultados son ciertos (la prueba es una ligera variacin de la del Teorema o 3.1.3) si la n-unpa f1 , . . . , fn vive en cualquier espacio de Hilbert H (anche innitodimensional, porque en tal caso B es un operador B : Cn H, que es automticamente continuo). Notar a + que la matriz de Gramm sigue estando en Mn (C) (y en Gl (n)+ si el sistema es LI), donde n es el nmero de vectores en cuestin. u o Corolario 3.1.5 (Cholewsky). Sea A Mn (C)+ . Entonces existe T T S(n) tal que Tii 0 para todo i, y tal que A = T T . Demostracin. Sea B Mn (C) tal que A = B B. Sea B = QT , Q U(n), T T S(n), una o descomposicin de B como en el Teorema 1.8.2. Entonces A = T Q QT = T T . o

3.2

Descomposicin polar y valores singulares o

Denicin 3.2.1. Dada A Mn (C)+ , llamaremos A1/2 a la unica raiz cuadrada de A en o + Mn (C) , que existe (y es unica) por el Teorema 3.1.3. Observacin 3.2.2. Sea A Mn (C)+ . En la prueba del Teorema 3.1.3 se muestran las dos o maneras usuales de describir a A1/2 : 1. Si A = U diag ((A) ) U , con U U(n), se tiene que A1/2 = U diag (A)1/2 U . 2. A1/2 = P (A) para culquier P C[x] tal que P () = 1/2 para todo (A). Denicin 3.2.3. Sea A Mn (C), o 1. Llamaremos mdulo de A a la matriz o |A| = (A A)1/2 Mn (C)+ . 2. Llamaremos valores singulares de A a los autovalores de |A| ordenados en forma decreciente, notndolos s1 (A) sn (A) 0. Notar que, por el Corolario 1.7.2, a si (A) = i (|A|) = i (A A)1/2 , para todo i In . (3.1)

3. Llamaremos s(A) = (s1 (A), . . . , sn (A) ) = (|A|) y (A) a la matriz diagonal s1 (A) 0 0 . . . ... . (A) = diag (s(A)) = . . . 0 0 sn (A) Observar que |A| (A). = Ejemplos 3.2.4. Sea A Mn (C).

3.2 Descomposicin polar y valores singulares o

40

1. Si A 0, entonces A = |A| y s(A) = (A). 2. Si A Mn (C) es normal, entonces s(A) = |(A)|, salvo el orden. En efecto, si A = U diag ((A) ) U para cierto U U(n), entonces A A = U diag (A) diag ((A) ) U = U diag |(A)|2 U . 3. En general (fundamentalmente, si A no es normal), los autovalores y los valores singulares de una misma matriz pueden ser bien distintos. Por ejemplo, si A es un bloque nilpotente de Jordan en Mn (C) (i.e. Aek = ek+1 , k In1 y Aen = 0), entoces (A) = {0} porque An = 0, pero s(A) = (1, . . . , 1, 0), porque A A es un proyector de rango n 1. Teorema 3.2.5 (Descomposicin polar y en valores singulares). Sea A Mn (C). Entonces o 1. Para todo x Cn , se verica que Ax = |A|x . 2. En particular, se tiene que A
sp

= |A|

sp

= (|A|) = s1 (A) = 1 (A A)1/2 .

3. Existe una matriz unitaria U U(n) tal que A = U |A| , que es la llamada descomposicin polar (DP) de A, aunque no es siempre unica. o 4. Cualquier U U(n) que cumpla A = U |A|, verica que A = U |A | , AA = U A AU , U |A|U = |A | y A = |A | U .

Esto dice que U es un unitario admisible para la DP de A . O sea que A tiene una descomposicin polar a derecha A = |A | U con el mismo U que la otra. o 5. Existen V, W U(n) tales que A = W (A)V . 6. Las columnas Ci (V ) forman una BON de autovectores de |A| (y A A), y las columnas Ci (W ) forman una BON de autovectores de |A | (y AA ). Demostracin. o 1. Dado x Cn , se tiene que Ax
2

= Ax, Ax = A Ax, x = |A|2 x, x = |A|x, |A|x = |A|x 2 .

2. Se deduce de lo anterior, de la denicin de norma espectral y del Corolario 2.1.4. o

3.2 Descomposicin polar y valores singulares o

41

3. Podemos denir (con buena denicin) una isometr suryectiva o a U1 : R(|A|) R(A) dada por U1 (|A|x) = Ax, para todo x Cn . De hecho, |A|x = |A|y x y ker |A| = ker A Ax = Ay. Como dim R(A) = n dim R(A) = dim ker(A) = dim ker(|A|) = dim R(|A|) , podemos extender la isometr U1 a una matriz unitaria U U(n), operando isoma e tricamente desde R(|A|) sobre R(A) . Por la denicin de U , se tiene que A = U |A|. o 4. Notar que AA = U |A|2 U = U A AU . Sea P (x) C[x] tal que P () = 1/2 , para todo (AA ) = (A A) (acabamos de ver que AA A A). Luego = |A | = (AA )1/2 = P (AA ) = U P (A A)U = U |A|U . Luego A = U |A| = U |A|U U = |A |U , por lo que tambin A = U |A |. e 5. Sea V U(n) tal que |A| = V (A)V . Si llamamos W = U V U(n), tenemos que A = U |A| = U V (A)V = W (A)V . 6. Notar que (A) = V |A|V , por lo que cada Ci (V ) es un autovector de |A|, y todas las columnas de V forman una bon, por ser V unitaria. La prueba para W es similar, dado que tambin (A)2 = W AA W . e Existe una versin de la caracterizacin minimax de Courant-Fisher 2.3.3 para los valores o o singulares de una matriz: Proposicin 3.2.6. Sea A Mn (C) (no necesariamente autoadjunta). Con las mismas o notaciones (para subespacios) que en el Teorema 2.3.3, se tiene que sk (A) = mx a
dim M=k xM1

m Ax = n

dim S=nk+1 xS1

m n

mx Ax a

para todo k In .

(3.2)

Demostracin. Basta notar que Ax = A Ax, x 1/2 y que sk (A) = k (A A)1/2 . Luego se o aplica el Teorema 2.3.3 (y el Ejercicio 2.4.4 para traducirlo a es) para A A. Corolario 3.2.7. Dadas A, C Mn (C), para todo k In se tiene que sk (AC) A
sp

sk (C) .

En particular

tr |AC| A

sp

tr |C| .

(3.3)

Demostracin. Se usa la Eq. (3.2) para calcular sk (AC) y sk (C), junto con la siguiente o desigualdad: ACx A sp Cx , para todo x Cn .

3.3 Parte positiva y parte negativa

42

3.3

Parte positiva y parte negativa

Fijemos una matriz autoadjunta A H(n), y tomemos A = U |A|, con U U(n), una DP de A. Supongamos, adems, que U opera como la identidad en ker A = ker |A| = R(|A|) . a Una tal U existe por la construccin hecha en el Teorema 3.2.5, y adems es unica (Ejercicio: o a mostrar ambas cosas). Luego se verican las siguientes propiedades: 1. Si B = {v1 , . . . , vn } es una BON de Cn adaptada a (A), luego A A = A2 , |A|, |A|1/2 y U son diagonales en la base B. Por lo tanto conmutan entre ellos (y con A). 2. En la base B, la matriz de U es diagonal con 1s en la diagonal. Ms espec a camente, U v k = vk si k (A) 0 , y U vk = vk si k (A) < 0 , (3.4)

dado que |A| vk = (2 (A) )1/2 vk = |k (A)| vk para todo k In . Por lo tanto, k U = U = U 1 y I U I .

3. Podemos deducir que |A| A |A|. En efecto, |A|1/2 U |A|1/2 = A, y |A| = |A|1/2 I|A|1/2 |A|1/2 U |A|1/2 |A|1/2 I|A|1/2 = |A|. 4. Luego, si denotamos A+ = se prueba fcilmente que a (a) Ambas matrices A+ , A Mn (C)+ . (b) A = A+ A y |A| = A+ + A . (c) A+ A = A A+ = 0. Es fcil ver que A+ y A son las unicas matrices que cumples las tres propiedades a anteriores. Se las llama partes positiva y negativa de la matriz autoadjunta A. 5. Otras propiedades que verican A+ y A son: (a) AA+ = A+ A = (A+ )2 (idem con A ). (b) (A)+ = A y (A) = A+ . (c) Por la denicin de A+ y la frmula (3.4), se tiene que o o k (A+ ) = mx { k (A) , 0 } , para todo k In . a (d) k (A ) = k ( (A)+ ) = mx{k (A), 0} = m a n{nk+1 (A), 0}, k In . (3.6) A + |A| 2 y A = |A| A , 2 (3.5)

3.4 Normas en Mn (C)

43

6. Si A = B C con B, C Mn (C)+ , entonces se tiene que k (A+ ) k (B) y k (A ) k (C) , para todo k In . (3.7)

En efecto, si A < 0, entonces A+ = 0 y la primera desigualdad es obvia. Si 1 (A) 0, sea p = mx{k In : k (A) 0}. Luego, como B = C + A A, se tiene que a k (A+ ) = k (A) k (B) para k Ip y k (A+ ) = 0 k (B) para k > p ,

por el Teorema de Weyl 2.3.5. La otra desigualdad en (3.7) se deduce de lo anterior aplicado a la igualdad A = C B, dado que (A)+ = A .

3.4

Normas en Mn(C)

Se estudiarn en esta seccin distintas normas en el espacio vectorial de matrices Mn (C). a o Muchas de estas normas son utiles en diversas desigualdades matriciales espec cas. Pero no olvidemos que, como dim Mn (C) < , es un resultado conocido que todas las normas en Mn (C) son equivalentes. En los siguientes ejemplos deniremos las normas ms clsicas para matrices. Dejaremos a a como ejercicio para el lector la vericacin (en algunos casos altamente no trivial, pensada a o futuro) de que son, efectivamente, normas. Ejemplos 3.4.1. 1. La norma espectral A = A
sp

sp

, denida del siguiente modo

= mx Ax = s1 (A), a
x =1 sp

donde la ultima igualdad surge de que A 2. Las normas de Schatten. Dado 1 p <
n

|A|

sp

= (|A|).

1/p

A La

=
i=1

si (A)

= (tr |A|p )1/p .

se llama norma de Frobenius. Ella verica que


n

2
2

= tr A A =
i,j=1

|aij |2

y proviene del producto escalar en Mn (C) denido por A, B = tr B A. 3. Las normas Ky-Fan. Dado k {1, . . . , n}
k

A Notar que A
(1)

(k)

=
i=1 1

si (A) . (de Schatten).

= A

sp

y A

(n)

= A

3.4 Normas en Mn (C)

44

4. Toda norma N en Cn induce una norma ||| |||N en Mn (C) del siguiente modo: |||A|||N = mx N (Ax). a
N (x)=1

Estas normas satisfacen que: (a) |||I|||N = 1 (b) (A) |||A|||N (c) |||AB|||N |||A|||N |||B|||N . Ejercicio 3.4.2. Consideremenos en Cn las siguientes normas:
n

=
i=1

|xi |

= mx |xi | , a
iIn

para todo x Cn ,

conocidas como las normas 1 e . Como en el Ejemplo anterior, ellas inducen en Mn (C) las siguientes normas matriciales: Dada A Mn (C), |||A||| = mx a
x

Ax

=1

|||A|||1 = mx Ax a
x
1 =1

Probar que estas normas pueden calcularse efectivamente mediante las frmulas: o |||A||| = mx Fi (A) a
iIn 1

|||A|||1 = mx Ci (A) a
iIn

(3.8)

para toda A Mn (C). Denicin 3.4.3. Una norma o 1. Matricial: si AB A B en Mn (C) se llama:

2. Unitariamente invariante (NUI): si U AV = A , para todo U, V U(n). Ejemplo 3.4.4. Sea N (A) = mx |aij |, para A Mn (C). Sean 1n = (1, . . . , 1) Cn y a
ijIn

En = 1n

1n . Como 1n , 1n = n, tenemos que E2 = 1n n 1n 1n 1n = 1n , 1n 1n 1n = nEn = N (E2 ) = n , n

mientras que N (En ) = 1. O sea que N no es matricial en Mn (C) para ningn n > 1. El u lector interesado puede demostrar que n N () s es una norma matricial en Mn (C). Teorema 3.4.5. Sea una norma matricial en Mn (C). Dada A Mn (C) se tiene que

1. A I < 1 implica que A Gl (n) y A1 =


n=0

(I A)n

2. Si B Gl (n) y B A < B 1

, entonces, A Gl (n).

3.4 Normas en Mn (C)

45

Demostracin. Comencemos notando que 1 2. En efecto, o B A < B 1


1

B 1 A I = B 1 (A B) B 1

AB <1 .

Si valiera 1, luego B 1 A ser inversible y A = B(B 1 A) tambin deber serlo. Para probar a e a el tem 1, llamemos C = I A. Tenemos que

C < 1 =

m N =
k=0

k=0

1 1 C

Luego, la serie
k=1 N

C k converge. En particular, C k 0. Luego


k N N N +1

A
k=0

C k = (I C)
k=0

Ck =
k=0

Ck
k=1

C k = 1 C N +1 1 .
N

Analogamente
k=0

C k A = 1.

Proposicin 3.4.6. Sea A Mn (C) y una norma matricial. Entonces (A) A . o Ms an, Am 1/m (A) para todo m N. a u Demostracin. Sean (A) y x Cn tales que x = 0 y Ax = x. Llamemos X a la matriz o cuyas columnas son todas iguales al vector x. Luego, AX = X, y por ende || X = AX A X ,

de donde se deduce que || A . Como el autovalor era cualquiera, (A) A . Adems, a por el Corolario 1.7.2, se tiene que (Am ) = (A)m , y entonces tambin (Am ) = (A)m . Por e lo tanto, usando la parte ya probada, obtenemos que (A) Am 1/m . Observacin 3.4.7. Dada una norma matricial en Mn (C) y una matriz S Gl (n), la o frmula A S := SAS 1 , A Mn (C), dene otra norma matricial. o Proposicin 3.4.8. Dados A Mn (C) y > 0, existe una norma matricial NA, en Mn (C) o tal que NA, (A) (A) + . Demostracin. Sea A = U T U con T una matriz triangular superior y U U(n). Luego, o 1 T = U AU . Sea Ds = diag (s, s2 , . . . , sn ). Entonces, (Ds T Ds )ij = tij sij para todo par i, j In (eso fue visto en la Eq. (1.14) ). Por lo tanto,
1 Ds T Ds diag (1 (A) , . . . , n (A)) . s
En cualquier norma

Como diag (1 (A) , . . . , n (A)) existir un s0 R tal que Ds0 T NA, =


sp Ds U 0

sp

1 = (A), entonces, Ds T Ds

sp

(A). Luego debe


s

1 Ds0 sp

< (A) + . Consideremos ahora la norma


1 NA, (B) = Ds0 U B U Ds0 sp

o sea
sp

B Mn (C).

1 Luego NA, (A) = Ds0 U A U Ds0

1 = Ds0 T Ds0

sp

< (A) + .

3.5 Algunas caracterizaciones

46

Corolario 3.4.9. Si A Mn (C), entonces Am 0 si y slo si (A) < 1. o Demostracin. Es claro que (A) < 1 si y slo si (Am ) = (A)m 0. Usando que o o (Am ) Am sp para todo m N, una implicacin es clara. Para probar la otra, supongamos o que (A) < 1. Por la Proposicin 3.4.8, existe una norma matricial N tal que (A) N (A) < o 1. Como N es matricial, deducimos que N (Am ) N (A)m 0.
m m

Teorema 3.4.10. Sea A Mn (C). Entonces, para cualquier norma (A) = lim
m

en Mn (C),

Am

1/m

Demostracin. Supongamos primero que es una norma matricial. Por la Proposicin o o m 1/m 3.4.6, sabemos que se tiene (A) A para todo m N. Fijado > 0, consideremos A la matriz B = . Como (B) < 1, el Corolario 3.4.9 asegura que B m 0. En (A) + consecuencia existe un m0 N tal que, para todo m m0 , se verica Bm < 1 , es decir que Am < ((A) + )m = Am
1/m

< (A) + ,

lo que prueba el Teorema en este caso. El mismo resultado vale para normas no matriciales, por ser todas las normas equivalentes. Ejercicio 3.4.11. Sea A Mn (C). Si N es una norma matricial en Mn (C), mostrar que (A) = N (Am )1/m . Ms an, probar que en tal caso, N (Am )1/m nf a u (A) .
mN m

Observacin 3.4.12. Todos los resultados de esta seccin, a partir del Teorema 3.4.5, son o o tambin ciertos en lgebras de Banach, donde las normas son matriciales por denicin. El e a o unico resultado propio de matrices es la Proposicin 3.4.8, que nos permite dar una prueba fcil o a de la frmula del radio espectral (Teorema 3.4.10). Esta frmula vale tambin en dimensin o o e o innita, y la prueba usa herramientas de anlisis complejo. El curro es mostrar que la llamada a resolvente, que es la funcin o A : C \ (A) Gl (n) dada por A (z) = (zI A)1 , z C \ (A) ,

es anal tica. La frmula dada surge del radio de convergencia de su serie de potencias alrededor o del innito. Sin embargo, hemos incluido las demostraciones anteriores porque tienen un buen sabor matricial, salvo el Teorema 3.4.5, que tiene la prueba standard (y no creo que pueda mejorarse). Ntese que se asumi impl o o citamente que Mn (C) es un espacio completo, porque usamos que una serie absolutamente sumable es convergente.

3.5

Algunas caracterizaciones

A continuacin daremos algunas caracterizaciones fciles de la positividad y la contractividad o a de matrices. Al nal incluimos una mini-introduccin al producto de Hadamard, mostrando o el Teorema de Schur 2. A lo largo de sta Seccin abreviaremos A sp = A . Usaremos la e o Proposicin 1.5.5 que dice que dadas A, B Mn (C), entonces (AB) = (BA). El primer o enunciado resume varias caracterizaciones ya mencionadas de esta norma.

3.5 Algunas caracterizaciones

47

Lema 3.5.1. Sea A Mn,m (C) entonces s1 (A) = A = |A| = (|A|) = (A A)1/2 = A A
1/2

= AA

1/2

(3.9)

Demostracin. Como |A| y A A H(n), la Proposicin 2.1.4 asegura que o o |A| = (|A|) = s1 (A) y que (A A)1/2 = A A
1/2

Las igualdades A = |A| = s1 (A) se deducen de que Ax = |A|x para todo x Cn ( tem 1 del Teorema 3.2.5). La igualdad (|A|) = (A A)1/2 se sigue del Corolario 1.7.2, usando que |A|2 = A A. Observar que (A A) = (AA ) porque (A A) = (AA ). Proposicin 3.5.2. Sea A H(n), entonces A I A A I . Ms an, o a u I A I para cialquier R . + Demostracin. Notar que si A H(n), entonces A = (A) = mx{1 (A), n (A)}. Por lo o a tanto, (A) n (A) 1 (A) . Por el Teorema 2.3.1, tenemos que n (A) = m Ax, x I A n
x =1

A (A) ,

y adems a

mx Ax, x = 1 (A) A I . a
x =1

Proposicin 3.5.3. Dada A Mn (C), se tienen las equivalencias o A = s1 (A) 1 |A| I AA I A A I . Demostracin. Es consecuencia del Lema 3.5.1 y de la Proposicin 3.5.2. o o Proposicin 3.5.4. Si A Mn (C)+ y B Gl (n)+ , entonces o A B Demostracin. Notemos que o A B B 1/2 AB 1/2 I (A1/2 B 1/2 ) A1/2 B 1/2 I . Luego se aplica la Proposicin 3.5.3 y el hecho de que B 1/2 AB 1/2 = (AB 1 ). o 3.5.5. Sea x Cn con x = 1 (a estos vectores los llamaremos unitarios). Entonces, como vimos en 1.9.3, la matriz Px = x x = xx = (xi xj )ij Mn (C)+ es el proyector ortogonal sobre el subespacio Gen {x}. Por lo tanto, si B = {x1 , . . . , xn } es una BON de Cn , vale que
n n

(3.10)

A1/2 B 1/2 1 (AB 1 ) 1 .

(3.11)

z=
i=1

z, xi xi

para todo z C

I=
i=1

xi

xi ,

(3.12)

por lo que {xi

xi : i In } es un sistema de proyectores (ver Denicin 5.4.2). o

3.6 El producto de Hadamard

48

Proposicin 3.5.6. Sea A Mn (C). Las siguientes condiciones son equivalentes: o 1. A Mn (C)+ . 2. Existen y1 , . . . , yr Cn tales que A =
r r

yi
i=1

yi =
i=1

yi yi .

proDemostracin. La implicacin 2 1 es clara, porque cada matriz yi yi Mn (C)+ . Rec o o + n camente, si A Mn (C) , sea B = {x1 , . . . , xn } es una BON de C adaptada a (A). Usando la ecuacin (3.12), para todo z Cn se tiene que o n n n n

Az = A
i=1

z, xi xi =
i=1

z, xi Axi =
i=1

i (A) z, xi xi =
i=1

i (A) xi

xi z .

Luego basta elegir yi = i (A)1/2 xi para aquellos i In tales que i (A) > 0.

3.6

El producto de Hadamard
A B = aij bij Mn,m (C) .

Denicin 3.6.1. Dadas A, B Mn,m (C), su producto de Hadamard A B es la matriz o


iIn jIm

Notar que este producto tiene sentido tanto para matrices como para vectores. A este producto de matrices, tambin llamado producto de Schur, le dedicaremos un cap e tulo entero, porque tiene interesant simas aplicaciones dentro y fuera de la teor del Anlisis a a Matricial. Pero vamos adelantando un resultado al respecto (otro teorema de Schur), porque es elemental y compete a las matrices positivas. Teorema 3.6.2 (Teorema 2 de Schur). Sean A, B Mn (C)+ , entonces A B Mn (C)+ . Adems, si A, B Gl (n)+ , entonces A B Gl (n)+ . a Demostracin. La segunda parte se deduce de la primera. En efecto, si A > 0 y B > 0, o existen nmeros a, b > 0 tales que A aI y B bI. Entonces, aplicando dos veces el caso u que an no hemos probado, obtendr u amos A B aI B aI bI = ab I Gl (n)+ .
r

(3.13)

Supongamos entonces que A, B Mn (C)+ . Por la Proposicin 3.5.6 (ver tambin 1.9.3), o e deben existir vectores vi Cn , i Ir , tales que A =
vi vi . Como el producto es

distributivo, basta mostrar que v v B Mn (C)+ para todo v Cn y toda B Mn (C)+ . Y para ver esto, alcanza con hacer la siguiente cuenta: v v B = vi vj Bij
i,jIn

i=1

= diag (v) B diag (v) Mn (C)+ ,

donde la igualdad del medio se testea haciendo la cuenta, o mirando la Eq. (1.14).

3.7 El famoso truco 2 2

49

Corolario 3.6.3. Sean A, B Mn (C)+ , entonces 1. n (A)n (B) n (A B). 2. A B


sp

= 1 (A B) 1 (A)1 (B) = A

sp

sp

Demostracin. La primera desigualdad se deduce de la ecuacin (3.13), pero usando que o o A n (A)I y B n (B)I. La segunda, de una cuenta anloga, pero aplicando ahora las a desigualdades A 1 (A)I y B 1 (B)I (tadas fueron vistas en la Observacin 2.3.2). o Corolario 3.6.4. Si A Mn (C)+ , entonces B = |Aij |2 Demostracin. Se deduce de que AT = A = Aij o
i,jIn i,jIn

Mn (C)+ .

Mn (C)+ .

Ejercicio 3.6.5. Mostrar que el resultado anterior falla si uno no eleva los mdulos al o cuadrado. En otras palabras, se debe encontrar un ejemplo de una matriz A Mn (C)+ tal que B = |Aij | i,jIn Mn (C)+ . Observar que hay que buscar para n 3. / Corolario 3.6.6. Si A Mn (C)+ y P (x) R[x] tiene coecientes no negativos, entonces P (A) := P (Aij )
i,jIn

Mn (C)+ .

Demostracin. Por una induccin directa, podemos ver que A[k] = A A A Mn (C)+ o o (se multiplica k veces) para todo k N. Despus se usa lo que cumple P (x). e Ejercicio 3.6.7. Probar que, si A Mn (C)+ , entonces eA := eAij
i,jIn

Mn (C)+ .

3.7

El famoso truco 2 2

Cuando se trabaja con operadores y matrices, muchas veces una cuenta inmanejable termina saliendo mgicamente y en un par de renglones, con el famoso truco de matrices de bloques a de 2 2. Ver, por ejemplo, la Proposicin 1.5.5, y tratar de probarla de otra manera. En o esta seccin juntaremos varios resultados que aportan tcnicas para usar dicho mtodo. Para o e e operar entre matrices de bloques, se usarn sistemticamente los resultados desarrollados en a a la Seccin 1.5. En particular, las frmulas (1.16), (1.17) y (1.18). o o 3.7.1. Sea A Mn (C). Entonces A Mn (C)+ A(2) = En efecto, Si tomamos la matriz 1 U= 2 I I I I U(2n), A A A A M2n (C)+ .

3.7 El famoso truco 2 2

50

cuentas elementales muestran que U = U = U 1 , y que U A(2) U = U A(2) U = 0 0 0 2A .

Ahora s es claro que A 0 si y slo si A(2) 0. Dejamos como ejercicio la vericacin de o o que si A(k) Mkn (C) se dene en foma semejante a A(2) , entonces A 0 si y slo si A(k) 0. o 3.7.2. Si A Mn (C), entoces B = A = U |A|. Entonces 0 U 0 0 I |A| |A| |A| |A| = U 0 0 I |A | A A |A| = U |A| U |A| |A| |A| , U 0 0 I |A | A A |A| 0. En efecto, sea U U(n) tal que

U |A|U U |A| |A|U |A|

dado que U |A|U = |A |. El mismo resultado sigue valiendo si A Mnm (C), o sea si A es rectangular. En ese caso B Mn+m (C)+ (Ejercicio). Proposicin 3.7.3. Sea A Mn,m (C), y llamemos r = m o n{n, m}. Luego sk (A ) = sk (A) para todo k Ir . (3.14)

Demostracin. Como vimos en la Observacin 1.5.6, (AA ) = (A A) salvo una cola de o o m n (o n m) ceros. Usando el Corolario 1.7.2 (o sea que (P (A) ) = P ((A) ) para todo polinomio P ) y la denicin de |A|, vemos que (A A) = (|A|2 ) = (|A|)2 . De ah sale que o s(A) = s(A ) salvo los ceros nales. Esto muestra la frmula (3.14). o Observacin 3.7.4 (El rango). Recordemos que, si A Mn,m (C) decimos que o rk A = dim R(A) = dim Gen {C1 (A), . . . , Cm (A)} , lo que usualmente se llama rango columna de A. Llamemos r = m n{n, m}. Sea U U(n) tal que A = U |A|. Es fcil ver que a rk A = rk |A| = rk (A) = mx{k Ir : sk (A) = 0} . a (3.15)

El rango la de A es, con esta denicin, la dim Gen {F1 (A), . . . , Fn (A)} = rk AT = rk A . o Por la Proposicin 3.7.3, s(A ) = s(A) (salvo ceros nales). Luego la frmula (3.15) muestra o o que ambos rangos son iguales. Proposicin 3.7.5. Sea A Mn (C). Entonces o A := 0 A A 0 = (A) 0 0 (A) H(2n) .

En particular, (A ) = {si (A)} (con las mismas multiplicidades). Es decir, (A ) = (s1 (A), , sn (A), sn (A), , s1 (A) ). (3.16)

3.7 El famoso truco 2 2

51

Demostracin. Sean U, V U(n) tales que (A) = V AU = U A V . Es fcil ver que o a 1 W = 2 Entonces WA W = 1 2 1 2 V V U U U(2n). V V U U V AU U A V V AU U A V

U A VA U A V A U A V + V AU U A V V AU (A) 0 0 (A) ,

= como quer amos demostrar.

Proposicin 3.7.6. Sea A Mn (C). Entonces o A


sp

M=

I A A I

0.

Demostracin. Notar que M = I2n + A. Usando que (A) = (A) (por la Proposicin 3.7.5) o o y luego el Teorema de Rayleigh-Ritz 2.3.1 (o la Observacin 2.3.2), obtenemos que o I A A I 0 I2n + A 0 A I2n I2n A I2n .
sp

Por la Proposicin 3.5.2, esto equivale a que A o

= s1 (A) = (A) = A

sp

1.

Observacin 3.7.7. Notar que la Proposicin 3.7.6 sigue siendo vlida si A es rectangular, o o a por el simple recurso de agregarle ceros (arriba o a la derecha) para que A quede cuadrada, lo que no cambia su norma. 3.7.8. Si A, B Mn (C)+ , entonces son equivalentes 1. A B. 2. La matriz M = B A A B 0.

En efecto, si B Gl (n)+ , entonces M 0 si y slo si o 0 B 1/2 0 1/2 0 B B A A B B 1/2 0 1/2 0 B = I B 1/2 AB 1/2 B 1/2 AB 1/2 I ,

lo que, por la Proposicin 3.7.6, equivale a que A1/2 B 1/2 2 = B 1/2 AB 1/2 1. Por la o Proposicin 3.5.2, se tiene que A1/2 B 1/2 1 si y slo si A B. Un ejercicio fcil es o o a deducir que la equivalencia sigue valiendo si no se pide que B sea inversible (si uno cambia B por B + I, entonces M pasa a ser M + I2n ).

3.7 El famoso truco 2 2

52

3.7.9. Sea A Mn (C) una contraccin, es decir que A o 1. Se tiene que A (I AA )1/2 = (I A A)1/2 A . 2. Entonces las matrices A (I AA )1/2 1/2 (I A A) A son unitarias en M2n (C). y

sp

1.

A (I AA )1/2 1/2 (I A A) A

En efecto, observar que A (I AA ) = A A AA = (I A A)A . Por induccin vemos o k k que A (I AA ) = (I A A) A para todo k N {0}. Luego se usa que a (I AA )1/2 se lo puede realizar como un polinomio en (I AA ), y lo mismo para (I A A), con el mismo polinomio, dado que tienen el mismo espectro. La vericacin la segunda parte es directa, y o se deja como ejercicio. 3.7.10. Sea M H(n), y representmosla por bloques M = e A C C B k . nk

1. Si A = Ik y B = Ink para ciertos , R , se tiene que + M= Ik C C Ink 0 C C Ik C


2

2. En el caso general, dado > 0, existe > 0 tal que A C C B En efecto, si M = A + Ik 0 0 Ink .

Ik C 1/2 Ik 0 , conjugandola con D = , caemos en C Ink 0 1/2 Ink el caso de la Proposicin 3.7.6 (para C Mk,nk (C) rectangular, donde tambin es cierto). o e Luego, por las citas que se indican sobre los s mbolos, M 0 DM D =
Prop. 3.7.6

Ik 1/2 1/2
2

1/2 1/2 C Ink

Lema 3.5.1

Prop. 3.5.3

1 1 C

1 1 C C 1

C C Ik . C
2

Para la segunda parte, basta tomar

+ B . En efecto, en ese caso, Ink C


2

B B Ink = Ink B B

Ink ,

y, si llamamos m = n k, se aplica el caso anterior a la matriz 0 Ik C


C

C 2 Im

Ik C C Im B

A + Ik 0 0 Im

A C C B

3.8 Cortocircuitos

53

3.8

Cortocircuitos

Lema 3.8.1. Sean D, A Mn (C)+ . Luego, las siguientes condiciones son equivalentes: 1. D A. 2. D1/2 x A1/2 x para todo x Cn . 3. Existe C Mn (C) tal que C
sp

1 y D1/2 = CA1/2 .

Demostracin. Observar que D1/2 x 2 = D1/2 x , D1/2 x = Dx , x y lo mismo vale para A. o Esto da la equivalencia 1 2. El hecho de que 3 1 se deduce de que C sp 1 C C I (por la Proposicin 3.5.3). Asumamos ahora que vale 2. Entonces ker A1/2 ker D1/2 . Luego, o podemos denir (con buena denicin) la funcin o o C0 : R(A1/2 ) R(D1/2 ) dada por C0 (A1/2 x) = D1/2 x , para cualquier x Cn .

Es fcil ver que C0 es lineal. Extendmosla a una C Mn (C) poniendo C|ker A1/2 0. Ahora a a podemos vericar sin dicultades que D1/2 = CA1/2 y, por la condicin 2, el hecho de que o C sp 1 (ac se usa que ker A1/2 = R(A1/2 ) ). a Notacin: Recordar que, si M Cn es un subespacio, denotamos por PM Mn (C)+ o al proyector ortogonal sobre M. Observar que 0 PM I, que PM (M ) = {0} y que PM x = x para todo x M. Teorema 3.8.2. Sea A Mn (C)+ y S Cn un subespacio. Sea M(A, S) := {D Mn (C)+ : D A y R(D) S} . (3.17)

Consiredemos el subespacio M = A1/2 (S) y la matriz T = A1/2 PM A1/2 . Entonces, 1. T M(A, S). 2. Para cualquier D M(A, S), se cumple que D T . En otras palabras, T = A1/2 PM A1/2 es el mximo de M(A, S) en el orden usual de H(n) . a Demostracin. Observar que T = A1/2 PM A1/2 A1/2 I A1/2 = A. Adems, se tiene que o a 1/2 R(T ) A (M) S. Luego T M(A, S). Si D M(A, S), en particular D A. Por el Lema 3.8.1, debe existir una contraccin C tal que D1/2 = CA1/2 , o sea que D1/2 = A1/2 C . o Como A1/2 (R(C ) ) = R(D1/2 ) S, deducimos que R(C ) M, o sea PM C = C . Usando que C C I (porque C sp 1), podemos deducir que C C = PM C CPM PM . Luego D = D1/2 D1/2 = A1/2 C CA1/2 A1/2 PM A1/2 = T , lo cual muestra que T = mx M(A, S). a

3.8 Cortocircuitos

54

Denicin 3.8.3. Sean A Mn (C)+ y S Cn , un subespacio. Llamaremos shorted de A o al subespacio S, y lo notaremos (A, S), al mximo del conjunto M(A, S). a En la siguiente proposicin, recopilamos una serie de resultados ms o menos inmediatos de o a la denicin y la demostracin del Teorema 3.8.2. o o Proposicin 3.8.4. Sean A Mn (C)+ y S Cn , un subespacio. Entonces: o 1. (A, S) A. 2. Para todo R+ , se tiene que (A, S) = (A, S). 3. Si B Mn (C)+ cumple que A B, entonces M(A, S) M(B, S) y por lo tanto (A, S) (B, S) .

4. Si S T Cn , entonces M(A, S) M(A, T ) y (A, S) (A, T ). 5. Si R(A) S, entonces (A, S) = A. 6. ( (A, S) , S) = (A, S). Demostracin. Ejercicio. o Proposicin 3.8.5. Sean A Mn (C)+ y S, T Cn , dos subespacios . Entonces o ( (A, S) , T ) = (A, S T ) . Demostracin. Consideremos los conjuntos o M(A, S T ) = {D : 0 D A R(D) S T } M( (A, T ) , S) = {D : 0 D (A, T ) R(D) S}. Probaremos que estos conjuntos son iguales y por ende sus mximos tambin lo son. En a e efecto, sea D M(A, S T ), entonces se tiene que R(D) T y D A = D (A, T ) , y tambin que e R(D) S .

En consecuencia, D M( (A, T ) , S). Reciprocamente, si D M( (A, T ) , S) entonces D (A, T ), lo cual muestra que R(D) T y en consecuencia R(D) S T . Pero como D (A, T ) A se tiene que D M(A, S T ).

3.8 Cortocircuitos

55

Clculo matricial del shorted: complementos de Schur a


Se busca dar una expresin en coordenadas del shorted (A, S). Para ello necesitamos o seguir haciendo cuentas del estilo 2 2, que son interesantes en s mismas. Proposicin 3.8.6. Sea S Cn un subespacio, y sea M = o Entonces M Mn (C)+ A B S Mn (C) . B D S si y slo si se verican las siguientes condiciones: o

1. A L(S)+ y D L(S )+ . 2. Existe una contraccin C L(S , S) tal que B = A1/2 CD1/2 . o En tal caso se tiene que R(B) R(A) y que R(B ) R(D). Demostracin. Si se cumplen las condiciones pedidas, se observa que o M= A B B D = A1/2 0 0 D1/2 IS C C IS A1/2 0 0 D1/2 Mn (C)+ ,

por la Proposicin 3.7.6 y la Observacin 3.7.7. Si suponemos que M 0, es claro que o o A L(S)+ y D L(S )+ . Asumamos que ambas son inversibles. Haciendo la cuenta anterior al reves, si llamamos C = A1/2 BD1/2 se tiene que IS C C IS = A1/2 0 1/2 0 D A B B D A1/2 0 1/2 0 D Mn (C)+ .

Luego queda que C sp 1 y B = A1/2 CD1/2 . El caso general sale aplicando lo anterior a 1 1 1 las matrices M + n I. Se toma la sucesin Cn = (A + n IS )1/2 B (D + n IS )1/2 , que consta o de contracciones. Como la bola de Mn (C) es compacta, hay una subsucesin Cnk C, o donde C es tambin una contraccin. Ahora observamos que, para todo k N, e o B = (A + 1 1 IS )1/2 Cnk (D + IS )1/2 A1/2 CD1/2 , k nk nk
k

donde la continuidad de tomar raices cuadradas se deduce de que todas las matrices de cada sucesin se diagonalizan en la misma base. o Proposicin 3.8.7. Sean A Gl(k)+ , C Mm (C)+ y B Mk,m (C). Sea o M= A B B C Cn Cm Mk+m (C) .

Entonces se verican las siguientes propiedades: 1. M Gl(m + k)+ B A1 B < C (o sea que C B A1 B Gl(m)+ ). 2. M Mk+m (C)+ B A1 B C.

3.8 Cortocircuitos

56

3. Si M Gl(m + k), entonces M 1 =

1 (C B A B)1

Demostracin. Sea X = A1 B Mkm (C). Entonces, haciendo cuentas elementales, obteno emos que Ik 0 Ik X A 0 M = , X Im 0 Im 0 C B A1 B lo que prueba 1 y 2. Por otra parte, como Ik X 0 Im y, por lo tanto, que M 1 = Ik X 0 Im A1 0 1 0 (C B A B)1 Ik 0 X Im = 1 (C B A B)1 ,
1

Ik X 0 Im =

Ik X 0 Im

, deducimos que

Ik 0 X Im

A1 0 0 (C B A1 B)1

lo que prueba la parte 3. Ejercicio 3.8.8. Dar otra prueba de la Proposicin 3.8.7, v la Proposicin 3.8.6. o a o Corolario 3.8.9. Sean M Mn (C)+ y S Cn , un subespacio. Supongamos que M= A B B C S S y que la compresin o A = MS Gl(S )+ ,

o sea que M x , x > 0 para todo x S \ {0}. Luego se tiene que 1. (M, S) = 0 0 0 C B A1 B S . S

2. M Gl (n)+ existe un R tal que PS (M, S). + Demostracin. Pongamos que dim S = m y llamemos k = n m = dim S . Trabajando en o una BON que empiece generando a S , podemos asumir que S = Gen {ek+1 , . . . , en } y que estamos en las condiciones de la Proposicin 3.8.7 (en particular, que A Gl(k)+ ). Si ahora o S 0 0 llamamos T = , es claro que R(T ) S y que 0 C B A1 B S M T = A B B C 0 0 0 C B A1 B = A1/2 0 B A1/2 0 A1/2 A1/2 B 0 0 0,

A B B B A1 B

3.9 Ejercicios

57

por lo que T M y T M(M, S). Tomemos un Q = tiene que M Q = A B B C D

0 0 0 D

S M(M, S). Luego se S

Mn (C)+ . Por la Proposicin 3.8.7 vemos que o

B A1 B C D = D C B A1 B = Q T . As que T = (M, S). La segunda parte surge de que C B A1 B Gl(S)+ (M, S) = 0 0 0 C B A1 B 0 0 0 IS = PS

para cierto R , volviendo a aplicar la Proposicin 3.8.7. o + Observacin 3.8.10. La dencin ms tradicional del shorted de un M Mn (C)+ se suele o o a hacer usando el complemento de Schur, segn la frmula que se desarrolla en el Cap u o tulo 12 y se muestra en el Corolario 3.8.9. La ventaja de la denicin que surge del Teorema 3.8.2 es que no o necesita que haya una submatriz inversible. Sin embargo, utilizando seudoinversas de MoorePenrose, se puede dar una frmula estilo la del Corolario 3.8.9 para cualquier M Mn (C)+ , o 1 reemplazando B A B por B A B, que en dimensin nita siempre existe (ver el Ejercicios o 3.9.20 y 3.9.30). Ms all de esto, la simpleza de las pruebas de las Proposiciones 3.8.4 y 3.8.5 a a da una muestra de que el enfoque basado en maximizar el conjunto M(M, S) tiene fuertes ventajas metodolgicas. o Todos los resultados de esta seccin siguen siendo vlidos en el contexto de operadores acotados o a en espacios de Hilbert. Las pruebas son muy similares, pero necesitan tcnicas espec e cas, sobre todo para mostrar el Lema 3.8.1 y la Proposicin 3.8.6 (ojo con la bola compacta). o Estos temas se expondrn, con mucha mayor profundidad, en el tomo II. a

3.9

Ejercicios

Ejercicios del texto


3.9.1. Mostrar que las normas denidas en 3.4.1 son, efectivamente, normas. 3.9.2. Consideremenos en Cn las siguientes normas:
n

=
i=1

|xi |

= mx |xi | , a
iIn

para todo x Cn ,

que inducen en Mn (C) las sendas normas matriciales: Dada A Mn (C), |||A||| = mx a
x

Ax

=1

|||A|||1 = mx Ax a
x
1 =1

Probar que estas normas pueden calcularse efectivamente mediante las frmulas: o |||A||| = mx Fi (A) a
iIn 1

|||A|||1 = mx Ci (A) a
iIn

para toda A Mn (C).

3.9 Ejercicios

58

3.9.3. Sea A Mn (C). Si N es una norma matricial en Mn (C), mostrar que (A) = N (Am )1/m nf
mN

y que

N (Am )1/m
m

(A) .
i,jIn

3.9.4. Encontrar una matriz A Mn (C)+ tal que B = |Aij | que hay que buscar para n 3. 3.9.5. Probar que, si A Mn (C)+ , entonces eA := 3.9.6. Si A Mn,m (C), entoces B = |A | A A |A| agregndole ceros a A para que quede cuadrada. a eAij
i,jIn

Mn (C)+ . Observar /

Mn (C)+ .

Mn+m (C)+ . Se suguiere aplicar 3.7.2

3.9.7. Sea A Mn,m (C) una contraccin, es decir que A o 1. A (In AA )1/2 = (Im A A)1/2 A Mm,n (C). 2. Las matrices A (I AA )1/2 1/2 (I A A) A son unitarias en Mn+m (C). 3.9.8. Demostrar los 6 items de la Proposicin 3.8.4. o y

sp

1. Probar que

A (I AA )1/2 1/2 (I A A) A

Ejercicios nuevos
3.9.9. Sea A Mn,m (C). Probar que, para todo k In , se tiene que sk (A) = mx a
dim S=k xS1

m Ax = n

dim M=nk+1

m n

xM1

mx Ax . a

3.9.10. Consideremos los conjuntos Rk (n) = {T Mnm (C) : rk T k}. Mostrar que A Mnm (C) = sk (A) = min
T Rk1

AT

para todo k In .

3.9.11. Mostrar que si A, H Mnm (C), y rk H = k, entonces sj (A) sj+k (A + H) , para todo j Ink .

3.9.12. Mostrar que, para cualquier A Mnm (C) y para cada k In , vale que
k k

sj (A) = max
j=1 j=1

Axj , yj

donde el mximo se toma sobre todas las kuplas ortonormales x1 , . . . , xk e y1 , . . . , yk . a

3.9 Ejercicios

59

3.9.13. Sean A, B, C Mn (C) tal que A DA = (I A A)1/2 1. Suponiendo que A


sp

sp

1. Se denen DA = (I AA )1/2 .

< 1, vericar:

1 1 (a) Si K = DA C y L = DA B, entonces

A A + C C 1 (resp. AA + BB 1). 2 1 1 DA DA ADA 1 I A . (b) Demostrar que = A I 1 1 2 DA A DA DA (c) Sea X Mn (C). Demostar que las matrices I 0 A B I A 0 B 0 A I C 0 I C X y A B I 0 0 C I X C X 0 I B 0 X I son conjugadas y ambas positivas. 2. (Parrot) Demostrar que las siguientes armaciones son equivalentes: (a) Existe X Mn (C) tal que (b) A B 1y A C A B C X 1.
sp

KK 1 (resp. LL 1)

1.
sp

sp

3.9.14 (Fejer). Sea A Mn (C). Probar que A Mn (C)+


i,jIn

Aij Bij 0

para toda

B Mn (C)+ .

3.9.15. Sea A Mn (C). Probar que Re A Mn (C)+ = Re (A B) Mn (C)+ 1. Ak+1 Ak (es decir que A es decreciente) 2. Existe B H(n) tal que B Ak (o sea que A es acotada inferiormente). Observar que esto equivale pedir que la sucesin { Ak sp }kN sea acotada. o Entonces existe A = inf Ak = lim Ak H(n). Es decir que Ak A, que A Ak para
kN kN k

para toda

B Mn (C)+ .

3.9.16. Sea A = {Ak }kN una sucesin en H(n) tal que, para todo k N, o

todo k N y que, si un C H(n) es menor que todos los Ak , entonces tambin C A. e Probar un resultado similar si A es creciente y acotada superiormente. Se suguiere denir Ax , x = lim Ak x , x para cada x Cn , y extrapolar a Ax , y usando
kN

polarizacin. Otro argumento (bien nitodimensional) ser diagonalizar a todas, aplicar el o a Teorema de Weyl 2.3.5 y usar que U(n) es compacto, para construir A y ver que el l mite de arriba camina, y que es un nmo por hiptesis. o

3.9 Ejercicios

60

Pseudoinversas y proyecciones oblicuas


Denicin 3.9.17. Sea A Mn (C). Se dice que una matriz B Mn (C) es una pseudoino versa de A si verica que ABA = A y BAB = B. Observacin 3.9.18. En algunos libros, las matrices que cumplen las condiciones de la o denicin anterior se denominan g-inversas reexivas. o 3.9.19. Sea S un subespacio de Cn . Demostrar que todas las proyecciones oblicuas sobre S poseen la siguiente representacin matricial: Dada Q Mn (C), se tiene que o Q2 = Q y R(Q) = S
2 sp

existe X L(S , S) tal que =1+ X


2 sp

Q=

IS X 0 0

S . S

Ya que estamos, probar que Q 3.9.20. Sea A Mn (C)

1. Probar que para cualquier pseudoinversa B de A se cumple que (AB)2 = AB , (BA)2 = BA , R(AB) = R(A) y ker BA = ker A .

2. Dadas dos proyecciones oblicuas (o no) P, Q tales que R(P ) = R(A) y ker Q = ker A, probar que existe una unica pseudoinversa B (de A) tal que AB = P y BA = Q. Denicin 3.9.21. Dada A Mn (C), se denen: o 1. La pseudoinversa de Moore-Penrose A de A, como la unica que cumple que las proyec ciones AA y A A H(n) i.e., son ortogonales. 2. El mdulo m o nimo reducido de A como: (T ) := m n Ax : x ker A x =1 y .
1 sp

3.9.22. Sea A Gl (n). Probar que, en ese caso, A = A1 3.9.23. Sea A Mn (C). Demostrar lo siguiente: 1. (A ) = (A ) y (A ) = A. 2. A = A (AA ) . 3. Sea B Mn (C) tal que R(B) = ker A , Entonces (AB) = B A . ker AB = ker B y

(A) = A1

R(AB) = R(A) .

3.9 Ejercicios

61

3.9.24. Sea {An } Mn (C) una sucesin de matrices que poseen el mismo rango. Supongao mos que {An } L Mn (C) y que L posee el mismo rango que las An .
n

1. Probar que A L . n
n

2. Dar un ejemplo de una sucesin {An } L pero tal que {A } L . o n


n n

3.9.25. Sea A Mn (C). Probar: 1. A = lim A (I + AA )1 .


0

2. A =
n=0

(I A A) A =
n=0

A (I AA )n para cualquier 0 < < 2/ A A1 0 0 0 R(A) . Deducir que ker A

2 sp

3.9.26. Sea A Mn (C)+ . Probar que A = A = A1 0 1 0 0 R(A) ker A y que

(A) = m n{ (A) : = 0} .

3.9.27. Sea A Mn (C) tal que su descomposicin en valores singulares es A = W (A)V . o Expresar A en funcin de W , (A), y V . Qu relacin hay entre los valores singulares de o e o A y los de A ? 3.9.28. Dada A Mn (C) demostrar las siguientes propiedades: 1. (A)2 = (A A) = (AA ) = (A )2 . 2. (A) = A
1

3.9.29. Sean A, B Mn (C)+ . Probar que A B (AB ) 1. 3.9.30. Sean M Mn (C)+ y un subespacio S Cn tales que M = que (M, S) = 0 0 0 C B A B S . S A B B C S . Probar S

3.9.31. Sean A Mn (C)+ y S Cn un subespacio. Dado x S, se tiene que (A, S) x , x


0 0

= inf

A x , x

: y S

3.9.32. Sean A Mn (C)+ y S Cn un subespacio. Entonces existen unicos F y G Mn (C)+ tales que A=F +G , R(F 1/2 ) S y R(G1/2 ) S = {0} .

Ms aun, F = (A, S) y G = A (A, S) . a

3.9 Ejercicios

62

3.9.33. S Cn un subespacio. Consideremos la casimatriz M = P(M, S) = X L(S)+ : D B B X

D B B ?

S . Sea S

Mn (C)+ .

Probar que P(M, S) = si y slo si R(B) R(D1/2 ). Ms an, probar que en tal caso o a u existe X0 = m P(M, S), e identicarlo. n Denicin 3.9.34. Dada una matriz A Mn (C)+ , consideraremos en Cn el pseudoproducto o interno , A denido por x, y
A

= Ax, y

para todo par x , y Cn .

3.9.35. Sea A Mn (C)+ y S un subespacio de Cn . Demostrar las siguientes propiedades: 1. S A = A1 (S ) = A(S) . 2. T Mn (C) es A-autoadjunto si y slo si T A = A T . o 3. El conjunto de las proyecciones A-autoadjuntas con rango S, que denotaremos P(A, S) = {Q Mn (C) : Q2 = Q, AQ = Q A y R(Q) = S} = . 3.9.36. Sea A Mn (C)+ y S un subespacio de Cn . Si A = proyeccin PA, S denida por o PA, S = 1 a b 0 0 S Mn (C) S
sp

a b b c

S , probar que la S

satisface que PA, S P(A, S) y encima PA, S

QP(A, S)

m n

sp

3.9.37. Dada una un proyeccin Q Mn (C), no necesariamente ortogonal, construir una o matriz A Gl (n)+ de modo que Q resulte A-autoadjunta. 3.9.38. Sea A Mn (C). Dada una matriz W Gl (n)+ , demostrar que B = (A W A) A D es una pseudoinversa de A tal que AB es una proyeccin ortogonal respecto al producto interno o , W y BA lo es respecto al producto interno usual. 3.9.39. Dado T Mn (C) y A Gl (n)+ , encontrar una expresin para la Moore-Penrose de o T respecto al , A . 3.9.40. Sean A, B Mn (C). Encontrar C Mn (C), tal que AC B
sp

m n
XMn (C)

AX B

sp

Ahora reemplazar la norma espectral por alguna otra NUI y encontrar C para dicha norma. Qu conclusin puede sacar?, puede extender su conclusin para otras normas unitariamente e o o invariantes?.

3.9 Ejercicios

63

3.9.41. Dadas A, B Mn (C), se dice que A * B si BA = AA y B A = A A. Demostrar: 1. A * B A A = B A y AA = AB . 2. A = mx {B Mn (C) : BAB = B, (AB) = AB, y (BA) = BA}. a
*

3. A = m {B Mn (C) : ABA = A, (AB) = AB, y (BA) = BA}. n


*

3.9.42 (Ljance-Ptak.). Sea E Mn (C) una proyeccin oblicua. Si P, Q Mn (C) designan o las proyecciones ortogonales al rango y nucleo de E respectivamente, probar que PQ
sp

<1

y que

1 1 PQ

2 sp

Cap tulo 4 Mayorizacin o


Es este cap tulo expondremos las nociones bsicas de mayorizacin, y su relacin con combia o o naciones convexas de permutaciones, matrices doblemente estocscticas y funciones convexas. a En la seccin 3 mostraremos el teorema de Birkho que asegura que las matrices de pero mutacin son el conjunto de puntos extremales de las matrices doblemente estocscticas. En o a la ultima seccin introduciremos las propiedades bsicas de la mayorizacin logar o a o tmica.

4.1

Deniciones y caracterizaciones

Notaciones: Sea x = (x1 , ..., xn ) Rn . 1. Notaremos x y x a los vectores obtenidos al reordenar las coordenadas de x en forma decreciente y creciente respectivamente. Es decir, por ejemplo, que x = mx xi , x + x = mx xi + xj , etc. a a 1 1 2
i i=j

Por ejemplo, si x es el vector de autovalores de una matriz A H(n), entonces se tendr a que x = (A) y x = (A). 2. Denotaremos por 1 = (1, 1, . . . , 1) Rn , al vector con todas sus entradas iguales a uno. Si hace falta aclarar el tamao, escribiremos 1n . n
n

3. Escribiremos tr x = x, 1 =
j=1

xi .

Con estas notaciones podemos dar la denicin de mayorizacin: o o Denicin 4.1.1. Sean x, y Rn . o 1. Se dice que y mayoriza a x, y se nota x
k

y si se verica que
k

tr y = tr x ,

y adems a
j=1

x j

j=1

yj

para todo k In .

(4.1)

4.1 Deniciones y caracterizaciones

65

2. Dado que
j=1

x = tr x j

nk j=1

x para todo k In , la relacin x o j


k k

y equivale a que

tr y = tr x ,

y adems a
j=1

x j

j=1

yj

para todo k In .

(4.2)

3. Si slo se cumple la segunda condicin (4.1) (o sea que se permite que tr x < tr y ), se o o dice que x est submayorizado por y y se nota x w y. a 4. Si slo se cumple la segunda condicin (4.2) (aca se permite que tr x > tr y ), se dice que o o x est supramayorizado por y y se nota x w y. a Ejemplos 4.1.2. 1. Sea x Rn . Llamemos a = tr x. Entonces a a a , ,..., n n n k ka supongamos que existiera un k In tal que xi < . En tal caso, n i=1 a 1= n x k 1 k
k

x . En efecto,

x i
i=1

a = < n

x i
i=k+1

(n k)a < = n

x < a . i
i=1

2. Si x Rn , entonces x +

(tr x, 0, . . . , 0).

3. Sean x, y Rn . Si sucediera que x y e y x, entonces es fcil ver que x = y . Por a lo tanto, x e y slo dieren en una permutacin. o o Existe una relacin muy estrecha entre las relaciones de mayorizacin y las matrices dobleo o mente estocsticas. Notaciones: Sea A Mn,m (C). a 1. Diremos A 0 si Aij 0 para todo par i In , j Im . En otras palabras, A tiene entradas no negativas. Ojo con el simbolito, no el lo mismo escribir A 0 (entradas positivas) que A 0 (semidenida positiva) . 0 si A

2. Si x, y Rn , pondremos x y si se cumple que xi yi para todo i In . Tambin e n escribiremos que x > 0 si x R+ . Denicin 4.1.3. Una matriz A Mn (R) se denomina doblemente estocstica si o a A 0 , tr Fi (A) = 1 y tr Ci (A) = 1 para todo i In .

Al conjunto de matrices doble estocsticas en Mn (C) lo denotaremos DS (n). a

4.1 Deniciones y caracterizaciones

66

Ejercicio 4.1.4. Sea A Mn (R). Probar que A DS (n) si y slo si o A 0, A1 = 1 y A 1 = 1, donde 1 = (1, 1, . . . , 1) Rn . Deducir que DS (n) es un conjunto convexo, y que dadas dos matrices A, B DS (n), entonces tambin AB DS (n). e Observacin 4.1.5 (Matrices de permutacin). Sea n N. o o 1. Llamaremos Sn al n-simo grupo simtrico, es decir e e Sn = { : In In : es biyectiva } , con el producto dado por la composicin de funciones. o 2. Dados Sn y x Cn , llamaremos x = (x(1) , . . . , x(n) ). 3. Dada Sn , llamaremos P : Cn Cn al operador dado por P x = x , x Cn . Es claro que esta funcin es lineal, por lo que pensamos a P Mn (C) como su matriz o en la base cannica. o 4. Observar que, dado x Rn , existen , Sn tales que x = P x y x = P x. 5. Dada Sn , las columnas de P estn dadas por a Ck (P ) = P (ek ) = (ek ) = e1 (k) , k In .

6. Dadas , Sn , entonces P P = P , porque (x ) = x para todo x Cn . 7. El grupo UP (n) = {P : Sn } est incluido en U(n), dado que cada P es claramente a T 1 isomtrico. Por lo tanto, para cada Sn , P1 = P = P = P . e 8. Por otra parte, tambin se tiene que UP (n) DS (n). En efecto, dada Sn , e Ck (P ) = P (ek ) = e1 (k) y
T Fk (P ) = Ck (P ) = Ck (P1 ) = e(k) ,

(4.3)

T para todo k In . Otra forma de verlo es notando que P 1 = P 1 = 1. Ms adelante a veremos que UP (n) es ni ms ni menos que el conjunto de puntos extremales de DS (n). a

9. Dadas A Mn (C) y P UP (n), para cada k In se tiene que Fk (P A) = F(k) (A) , Ck (AP ) = C1 (k) (A) y
d (P AP ) = d (A) .

(4.4)

En efecto, para todo i In , tenemos que Ci (P A) = P (Ci (A) ) = Ci (A) . Luego (P A)ki = A(k)i , para todo i In . Esto prueba la primera igualdad. La seguna sale aplicando la de las las a (AP )T = P1 AT . La de las diagonales sale porque cada
(P AP )kk = P AP ek , ek = AP ek , P ek = A e(k) , e(k) = A(k)(k) .

En resumen, multplicar por P a izquierda permuta las las, hacerlo a derecha permuta las columnas (con 1 ), y conjugar con P permuta la diagonal de las matrices.

4.1 Deniciones y caracterizaciones

67

Teorema 4.1.6. Sea A Mn (R). Luego se tiene que A DS (n) Ax x para todo x Rn .

Demostracin. Supongamos que Ax x para todo x. Sea E = {e1 , . . . , en } la base cannica o o n de C . Para cada i In , se tiene que Ci (A) = Aei ei . Esto implica que A 0 y que 1 = tr ei = tr A ei = tr Ci (A) para todo i In .

Por otra parte, sabemos que A 1 1. Pero por el Ejemplo 4.1.2, como todas las coordenadas de 1 son iguales, deducimos que 1 A 1. Y como no vale la pena permutar al 1, queda que 1 = A 1 = (tr F1 (A), . . . , tr Fn (A) ) . Rec procamente, supongamos que A DS (n) y llamemos y = Ax. Queremos probar que y x. Se puede suponer que las coordenadas de x y de y estn ordenadas en forma decreciente, a porque si P, Q UP (n) son matrices de permutacin (ver Observacin 4.1.5), entonces QAP o o DS (n) (por el Ejercicio 4.1.4). Por otra parte, como y = Ax,
k k n n k

yj =
j=1 j=1 i=1

aji xi =
i=1 j=1

aji xi
k

para todo

k In .

(4.5)

Fijemos un k In . Si para cada i In llamamos ti =


j=1 n

aji , entonces
k

0 ti tr Ci (A) = 1 Luego, aplicando la Eq. (4.5),


k k k n

y
i=1

ti =
j=1

tr Fi (A) = k .

yj
j=1 j=1

xj =
j=1 i=1 n

aji xi
i=1 k

xi =
i=1 n

ti xi
i=1

xi

=
i=1 k

ti xi
i=1 n

xi + (k
i=1 k

ti )xk
k n

=
i=1 k

ti xi +
i=k+1

ti xi
i=1 k

xi + k xk
i=1 k n

ti xk
i=k+1

ti xk

=
i=1 k

(ti 1) xi +
i=1 k

xk
i=1

ti xk +
i=k+1 n

ti (xi xk ) ti (xi xk )

=
i=1 k

(ti 1) xi +
i=1

(1 ti ) xk +
i=k+1 n

=
i=1

(ti 1) (xi xk ) +
i=k+1

ti (xi xk ) 0,

4.1 Deniciones y caracterizaciones

68

pues los dos sumandos del ultimo rengln son sumas de trminos no positivos. Por lo tanto o e
k k

yj
j=1 j=1

xj para todo k In . Por ultimo, observar que la Eq. (4.5) muestra que tr y = tr x x.

(para k = n, todos los ti = tr Ci (A) = 1). As llegamos a que Ax = y ,

Ejemplo 4.1.7. Como motivacin del siguiente resultado, supongamos que o x, y R2 cumplen que y = (y1 , y2 ) x = (x1 , x2 ) , y1 y2 y x1 x2 .

En este caso, esto signica que x2 y2 y1 x1 y que y1 + y2 = x1 + x2 .

Luego, debe existir un [0, 1] tal que y1 = x1 + (1 )x2 . Entonces, y2 = y1 + y2 y1 = x1 + x2 y1 = x1 + x2 x1 + (1 )x2 = (1 )x1 + x2 . y por lo tanto y = (y1 , y2 ) = (x1 , x2 ) + (1 )(x2 , x1 ) = x + (1 )P x, donde S2 es la permutacin no trivial. o Teorema 4.1.8. Sean x, y Rn . Entonces, son equivalentes: 1. y x.

2. y es una combinacin convexa de permutaciones de x. o 3. Existe A DS (n) tal que y = Ax. Demostracin. Como DS (n) es convexo y UP (n) DS (n), obtenemos que 2 3. Por el o Teorema 4.1.6 se tiene que 3 1. Luego, solo resta probar que 1 2. Lo haremos por induccin sobre la dimensin n. Para n = 1 es trivial y el caso n = 2 fue probado en el o o Ejemplo 4.1.7. Sea n > 2. Sin perdida de generalidad podemos suponer que los vectores estan ordenados en forma decreciente. Luego, xn yn y1 x1 . Sea k > 1 tal que xk y1 xk1 y 0 tal que y1 = x1 + (1 ) xk . Sea Sn la trasposicin que permuta 1 con k. Luergo o P UP (n) verica que P x = (xk , x2 , . . . , xk1 , x1 , xk+1 , . . . , xn ) . Denamos z = x + (1 )P x. Observar que z1 = x1 + (1 ) xk = y1 . Sean y = (y2 , . . . , yn ) y z = (z2 , . . . , zn ) Rn1 .

Vamos a probar que y z : Como z1 = y1 y tr z = tr x = tr y, se deduce fcilmente que a tr(y ) = tr(z ). Si m k 1, entonces, como y1 xk1 ,
m m m

zi =
i=2 i=2

xi (m 1)xk1 (m 1)y1
i=2

yi .

4.1 Deniciones y caracterizaciones

69

Por otro lado, si m k.


m k1 m

zi =
i=2 i=2 m

xi + (1 )x1 + xk +
i=k+1

xi

=
i=1 m

xi x1 (1 )xk
m m

=
i=1

xi y1
i=1 s

yi y1 =
i=2

yi .

Luego y

z y, por hiptesis inductiva, y = o


i=1

i Pi z para ciertos i 0 que suman uno, y

para ciertas permutaciones i Sn1 (pensadas como biyecciones del conjunto {2, 3, . . . , n}). Llamemos tambin i Sn a la extensin de cada permutacin i a todo In , poniendo e o o
s

i (1) = 1. Luego, como z1 = y1 , se tiene que y =


i=1 s s

i Pi z . Pero entonces
s

y=
i=1

i P i z =
i=1

i Pi x +
i=1

(1 ) i Pi P x ,

que es una combinacin convexa de permutaciones de x. o Observacin 4.1.9. Un error t o pico al tratar de demostrar mayorizacin entre dos vectores, o es olvidarse de ordenarlos antes de sumar sus primeras k coordenadas. De hecho, esto sucede en la prueba anterior con los vectores z e y . Por suerte no es grave en este caso, porque z est del lado de los mayores, y lo grave es no reordenar del lado de los menores. Ms a a n expl citamente, si x, y R , como
k k

yi
i=1 i=1

yi ,

es imprescindible ordenar a y para vericar que y x, pero no para vericar que x la prueba de la relacin y o z , el vector y ya ven ordenado correctamente. a Corolario 4.1.10. Sean w, z Rm tales que w z, y sean x, y Rk tales que x Entonces los vectores (x, w), (y, z) Rk+m cumplen que (x, w) (y, z).

y. En y.

Demostracin. Por el Teorema 4.1.8, existen A DS (k) y B DS (m) tales que Ay = x y o Bz = w. Pero si consideramos C= A 0 0 B Mk+m (C),

es fcil ver que C DS (k + m) y que C(y, z) = (x, w). a

4.1 Deniciones y caracterizaciones

70

Lema 4.1.11. Sean x, u Rn tales que x x


iIn

u. Entonces se tiene que y


iIn

u.

a a Demostracin. Es claro que x = mx xi mx ui = u . Si ambos mximos se alcanzan en la o a 1 1 misma coordenada de x y de u, un argumento inductivo permite concluir que x u . Sin, o supongamos que x = xk mientras que u = uj . Si llamamos y Rn al resultado de permutar 1 1 las cordenadas k y j de x, sigue pasando que y u, porque y j = x k uk u = u j 1 Por el caso anterior, x = y mientras que
w

y k = xj x = xk uk . 1 u.

u , y por lo tanto x

Proposicin 4.1.12. Sean x, y Rn . Entonces o x


w

existe u Rn tal que x

y .

Demostracin. Antes que nada, es claro que si el tal u existe, entonces x w y (por el Lema o 4.1.11 y la transitividad de w ). Para probar la rec proca, podemos asumir que tr x < tr y, porque sin basta tomar u = x. Asumiremos tambin que x e y estn ordenados en forma o e a decreciente, dado que una ves encontrado el u para este caso, luego se lo puede reordenar igual que a x, lo que preserva la relacin x u y no afecta la relacin u y. o o Se har induccin sobre n. Si n = 1, el resultado es trivial (en ese caso signica igualdad, a o y w equivale a ). Si n > 1, cosideramos dos casos:
k k

Caso 1: Supongamos que existe k In1 tal que


i=1

xi =
i=1

yi . En tal caso, llamaremos

a = (x1 , . . . , xk ) y b = (y1 , . . . , yk ) Rk . Como x e y estn ordenados, es claro que a b. Por a otra parte, si llamamos w = (xk+1 , . . . , xn ) y z = (yk+1 , . . . , yn ) Rnk , es tambin claro que e w w z, porque estn bien ordenados y, si r Ink , entonces a
r r k+r k+r

zi
i=1 i=1

wi =
i=1

yi
i=1

xi 0 .

Ahora bien, por hiptesis inductiva, debe existir v Rnk tal que w v z. Entonces basta o tomar u = (a, v) Rn que cumple lo pedido, porque x = (a, w) (a, v) = u. Por otra parte, como a b y v z, el Corolario 4.1.10 dice que u = (a, v) (b, z) = y.
k k

Caso 2: Supongamos que d = m n


kIn i=1

yi
i=1

xi

> 0, y que se realiza en cierto k0 In .

Tomemos v = x + d e1 , es decir que agrandamos en d la primera coordenada de x. Observar que v est ordenado decrecientemente, por estarlo x. Por ser d quien es, es claro que x v a y que v w y. Pero claramente v cae en el Caso 1 (sumando hasta k0 , y si k0 era n, bingo). Entonces existe u Rn tal que x v u y. Ejercicio 4.1.13. Probar que, dados x, y Rn , entoncecs 1. x 2. x
w w

y si y slo si existe v Rn tal que x o y si y slo si y o


w

y. w x.

x si y slo si existe w Rn tal que y o

4.2 Mayorizacin y funciones convexas o

71

4.2

Mayorizacin y funciones convexas o


f (x) = (f (x1 ), . . . , f (xn ) ) Rn .

Dado I R, una funcin f : I R, y un vector x In , notaremos por o

Por otra parte, cuando I es un intervalo, decimos que f es convexa si, dados a, b I y [0, 1], se cumple que f a + (1 )b f (a) + (1 )f (b). La funcin f se dice cncava si f es convexa. o o Teorema 4.2.1. Sean x, y Rn . Sea I R un intervalo (semirrecta o todo R) tal que x, y In . Entonces, son equivalentes: 1. y x

2. tr f (y) tr f (x) para toda funcin convexa f : I R. o


n n

3.
i=1

|yi t|
i=1

|xi t| para todo t R.

Anlogamente, son equivalentes a 1. y


w

x (submayorizacin) o

2. tr f (y) tr f (x) para toda funcin f : I R convexa y no decreciente. o


n n

3.
i=1

(yi t)
i=1

(xi t)+ para todo t R.

Demostracin. Slo probaremos la primer parte, puesto que los argumentos para probar o o la segunda son similares (para 1 2, se aplica 1 2 y la Proposicin 4.1.12, que ser o a util para funciones no decrecientes). Supongamos que y x. Entonces, por el Teorema
s

4.1.8, y =
s i=1

i Pi (x) para ciertos i 0 que suman uno, y para ciertas i Sn . Luego


s

f
i=1

i Pi x
i=1

i f Pi x (en cada coordenada), y


s s s

tr f (y) = tr f
i=1

i P i x

tr
i=1

i f P i x =
i=1

i tr Pi f (x) = tr f (x) .

La implicacin 2 3 (respectivamente, 2 3 ) se deduce de que la funcin x |x t| (resp. o o + x (x t) ) es convexa (resp. convexa no decreciente) para todo t R.

4.2 Mayorizacin y funciones convexas o

72

Probemos 3 1. Supongamos que los vectores x e y estn ordenados de forma decreciente a (ni 3 ni 1 depende del orden de las coordenadas). Sean M = mx{x1 , y1 } y m = m n , yn }. a n{x Tomando t > M , se tiene que
n n n

|yi t| =
i=1 i=1

t yi = kt
i=1

yi ,

y lo mismo para x. Luego la desigualdad 3 para estos valores de t implica que tr x tr y. Anlogamente, la desigualdad 3 para valores de t tales que t < m implica que tr y tr x. a Luego tr x = tr y. Por otro lado, dado x R, se tiene que 2x+ = x + |x|. Luego
n n n n

2
i=1

(yi t) =
i=1

(yi t) +
i=1 n

|yi t| = tr y nt +
n i=1 n

|yi t| |xi t|
i=1

tr x nt +
i=1 n

|xi t| =
i=1

(xi t) +

=2
i=1

(xi t)+ .

Deducimos que basta probar 3 1. Fijemos k In . Tomando t = xk , resulta que


n k k

(xi t)+ =
i=1 i=1

(xi t)+ =
i=1

xi kt .

Por lo tanto
k k k n

yi kt =
i=1 i=1 n

(yi t) (xi t)+ =


i=1

(yi t)
i=1 k i=1

(yi t)+

k k

xi kt,
i=1

lo cual muestra que


i=1

yi
i=1

xi .

Corolario 4.2.2. Sea I R un intervalo. Sea g : I R una funcin convexa (resp. convexa o n creciente). Entonces, dados x, y I , x En particualr x y (resp. x
w w

y)

=
w

g(x)

g(y).
w

y = |x|

|y|, y tambin x e

y = x+

y+.

Demostracin. Sea f : R R convexa no decreciente. Es fcil ver, entonces, que f g es una o a funcin convexa. Por el Teorema 4.2.1, si x y, entonces o tr f (g(x)) = tr f g (x) tr f g (y) = tr f (g(y)).

4.3 Birkho, Hall y los casamientos

73

Pero por el mismo Teorema (en su segunda parte), como lo anterior vale para toda f : R R convexa no decreciente, deducimos que g(x) w g(y). Si g es creciente y x w y, por el Corolario 4.1.12 existe u Rn tal que x u y. Luego, por el caso anterior, g(x) g(u) w g(y). Para concluir que g(x) w g(y) basta aplicar el Lema 4.1.11. Corolario 4.2.3. Sean x, y Rn , tales que x > 0 e y > 0. Entonces, se tiene que
n n

=
i=1

xi
i=1

yi .

Demostracin. Sea g(t) = log t, que es una funcin convexa (pero decreciente), denida en o o I = (0, +). Por el Corolario 4.2.2, si x y, entonces g(x) w g(y). En particular,
n n n n

log
i=1 n

xi =
i=1 n

log xi
i=1

log yi = log
i=1

yi ,

de lo que se concluye que


i=1

xi
i=1

yi .

4.3

Birkho, Hall y los casamientos

El objetivo de esta seccin es probar el teorema de Birkho que asegura que UP (n) es el o conjunto de puntos extremales de DS (n) y por ende (ya sea por el teormea de Krein Millman, o porque va a salir a mano), que toda A DS (n) es combinacin convexa de matrices o de permutacin. Observar que este hecho va a explicar una parte del Teorema 4.1.8. La o herramienta clave, en funcin de poder probar lo anterior inductivamente, son dos resultados o combinatorios que son interesantes por s mismos: El teorema de los casamientos de Hall, y el criterio de Knig-Frobenius sobre existencia de diagonales sin ningn cero para matrices. o u Empecemos con las notaciones para los casamientos: Sean V = {v1 , . . . , vn } y M = {m1 , . . . , mn } dos conjuntos de n elementos. Pensaremos que V es un conjunto de varones (humanos) y M de mujeres. Dada una relacin C V M , diremos o que vi conoce a mj (puede usarse tambien tiene onda con, o gusta de) si (vi , mj ) C. El llamado problema de los casamientos (PC) consiste en encontrar condiciones sobre C que aseguren que exista f : V M biyectiva, tal que Gr(f ) C. Si pensamos que cada v se casa con f (v), el problema se traduce a poder casar todos los varones de V con mujeres de M (sin bigamia) y que todas las parejitas sean felices (se gusten mutuamente). Para describir esas condiciones pongamos un poco de notacin: Dado J In , llamaremos o VJ = {vj : j J} y MJ = {mi M : (vj , mi ) C para algn j J} u = { chicas conocidas por algn muchacho de VJ } . u

Es claro que esta notacin es machista, pero en la poca de Hall nadie cuestionaba esas cosas. o e Observar que MJ = M ([VJ M ] C), donde M es la proyeccin sobre M . Como siempre, o

4.3 Birkho, Hall y los casamientos

74

se abrevia Mi = M{i} . Es evidente que si el PC tiene solucin, debe cumplirse que |MJ | |J| o para todo J In , porque f (VJ ) deber estar incluido en MJ . Pero mucho menos claro es a que vale la rec proca: Teorema 4.3.1 (El problema de los casamientos de Hall). El PC tiene solucin para una o relacin C V M si y slo si o o |MJ | |J| para todo J In . (4.6)

Demostracin. Probaremos la suciencia por induccin sobre n. Todo es fcil si n = 1 (ese es o o a el problema de la pareja de nufragos). Si n > 1, separemos dos casos: a Caso 1: Supongamos que tenemos una condicin mejor que (4.6), a saber, o |MJ | |J| + 1 para todo J In , = J = In . (4.7)

En tal caso jamos al vago vn de V y lo casamos con una chica que conozca (mj Mn , o sea que (n, j) C). Veamos ahora que, si J = In1 , los conjuntos VJ y M \ {mj } cumplen la condicin (4.6) (para aplicarles la HI). En efecto, notar que si I J, entonces la Eq. (4.7) o asegura que |MI M \ {mj }| |MI | 1 |I|. En otras palabras, dados k de los muchachos restantes, entre todos deben conocer al menos k chicas todav solteras. Por HI, tenemos una a biyeccin entre VJ y M \ {mj } con grco contenido en C, que se puede extender, mandando o a n j, a todo V sobre todo M . Caso 2: Si existe un J In tal que = J = In y |MJ | = |J| = k < n , (4.8)

por HI podemos denir una biyeccin f1 : VJ MJ con Gr(f1 ) C. Por otra parte, por la o igualdad (4.8), es fcil ver que los conjuntos que quedan, VJ c y M \ MJ cumplen tambin la a e c condicin (4.6). En efecto, si I J tiene |I| = r, observemos que MIJ \ MJ = MI \ MJ (las o que no conocen los de J deben conocerlas los de I). Pero |MIJ \ MJ | |MIJ | |MJ | (r + k) k = r . Luego |MI \ MJ | r = |I|. Otra forma de verlo es la siguiente: casamos k pibes que conoc an justo k chicas. Dados r de los solteros, junto con los casados conoc al menos k + r chicas, an por lo que los r solteros conoc ellos a todas las solteras de este grupo (por lo menos r), an porque los k novios solo conoc a las k que se casaron con ellos. Aplicamos nuevamente la an HI para denir otra biyeccin f2 : VJ c M \ MJ , tambin con grco dentro de C. Pegando o e a ambas funciones, encontramos la biyeccin buscada. o Denicin 4.3.2. Sea A Mn (C). o 1. Dada Sn , llamamos al vector (a1(1) , . . . , an(n) ) una diagonal de A. Notar que las diagonales tienen exactamente un elemento de cada la y uno de cada columna de A. 2. Decimos que A tiene una diagonal sin ceros si alguna de las diagonales antes denidas tiene todas sus coordenadas no nulas.

4.3 Birkho, Hall y los casamientos

75

Corolario 4.3.3 (Knig-Frobenius). Sea A Mn (C). Entonces son equivalentes: o 1. Toda diagonal de A tiene ceros. 2. Existen subconjuntos I, J In tales que |I| + |J| > n y la submatriz AIJ 0, es decir que aij = 0 para todo par (i, j) I J. Demostracin. Consideremos los conjuntos M = V = In y la relacin o o C = {(i, j) In In : aij = 0}. Es claro que A tiene alguna diagonal sin ceros si y slo si el PC tiene solucin para la relacin o o o C. Que A no tenga ninguna diagonal sin ceros equivale, por el Teorema 4.3.1, a que exista I In tal que |MI | < |I| = k. Observar que K := In \ MI = {j In : aij = 0 para todo i I}

es el mayor de los conjuntos J de ndices tales que AIJ 0. Adems, si |K| = r, entonces a k + r > n si y slo si n r = |MI | < k. Y esto concluye la prueba. o Corolario 4.3.4. Si A DS (n), entonces A debe tener alguna diagonal sin ceros. Demostracin. Supongamos que no. Reordenando las y columnas de A (multiplicando por o matrices de permutacion) podemos suponer, por el Corolario 4.3.3, que existen k, r In tales que k + r > n y que aij = 0 si i Ik y j Ir . En otras palabras, que existen P, Q UP (n) tales que 0kr B P AQ = DS (n) , C D donde 0kr es la matriz nula de Mk,r (C). En tal caso, las k las de B deben tener traza uno, lo mismo que las r columnas de C. Pero entonces la suma de todas las entradas de P AQ (las de D son no negativas) deber sumar estrictamente ms que n. Pero esto contradice el hecho a a de que P AQ DS (n). Teorema 4.3.5 (Birkho). El conjunto de matrices doble estocsticas DS (n) es convexo y a sus puntos extremales son el conjunto UP (n) de matrices de permutacin. Es decir que toda o A DS (n) es combinacin convexa de matrices de permutacin. o o Demostracin. Es fcil ver que si P UP (n), entonces es extremal en DS (n). Luego basta o a ver que toda A DS (n) es combinacin convexa de matrices de permutacin. o o Sea A DS (n). Notaremos k(A) = {(i, j) In In : aij = 0} . Probaremos el resultado induccin en k(A). Observar que n k(A) n2 , y que k(A) = n si y slo si A UP (n), por o o lo que lo armado es trivial en este caso. Supongamos que k(A) > n. Por el Corolario 4.3.4 existe Sn tal que ai(i) > 0, para todo i In . Sea P = P UP (n) la matriz asociada a la permutacin . Por la Eq. (4.3), Pij = 0 si y slo si o o j = (i). Sea a = m ai(i) . Notar que, por el hecho de que k(A) > n, se debe cumplir que n
iIn

4.4 Mayorizacin logar o tmica

76

A aP DS (n). Finalmente, se observa que 1a A = aP + (1 a)B, y se aplica la hiptesis inductiva, ya que k(B) < k(A). En efecto, si o aij = 0, entonces Pij = 0, por lo que tambin bij = 0. Esto dice que k(B) k(A). Por otra e parte, si a = ai(i) = 0, entonces bi(i) = 0, con lo que k(B) < k(A) como se arm. o 0 < a < 1. Es fcil ver, entonces, que B = a Observacin 4.3.6. El Teorema de Birkho est intimamente relacionado con el Teorema o a 4.1.8. Sin embargo, no se implican mutuamente. En efecto, el Teorema 4.3.5 da como novedad la implicacin 3 = 2 del Teorema 4.1.8. Pero esta sal impl o a cita por el rulo de auqella prueba, y el Teorema 4.3.5 no dice que si y x entonces haya una A DS (n) tal que Ax = y. Mirndolos ahora al reves, la implicacin 3 = 2 del Teorema 4.1.8 dice que para cada a o x Rn , hay una combinacin convexa de permutaciones que hace, en ese x, lo mismo que o hace A. Pero no que haya una que sirva para todos los x a la vez.

4.4

Mayorizacin logar o tmica


1. Sean x, y Rn . Escribiremos x +
k k w
log

Denicin 4.4.1. o

si

x i
i=1

i=1

yi

para todo

k In .
n n

(4.9)

2. Si x, y > 0, escribimos x
log

y si se cumple que x
log

y , y adems a
i=1

xi =
i=1

yi .

Observacin 4.4.2. Sean x, y R+n . Si x o


n n

y entonces, como en el caso de la mayorizacin o


log

comn, se cumplen desigualdades invesas para las entradas mas pequeas de x e y. Es decir, u n x i
i=k

i=k

yi

para todo

k In .

(4.10)

Esto no vale si solo x


log

y, porque usa la igualdad de los productos hasta n.

Proposicin 4.4.3. Sean x, y Rn . o + 1. Si x


log

y, entonces xp

yp

para todo

p R+ .
w

2. Si x, y > 0, entonces x
log

y implica que xp

y p para todo p R .

Demostracin. o 2. Supongamos que x > 0 e y > 0. Luego x


log

y implica que log x

log y. Como la funcin o

t ept es convexa para todo p R, deducimos lo armado en el item 2. a partir del Corolario 4.2.2.

4.5 Ejercicios

77

1. Si x, y Rn y x +

w
log

y, supongamos que x e y estn ordenados en forma decreciente. a

Observar que, si k1 = mx{j In : xj > 0}, entonces la condicin (4.9) implica que a o yk1 > 0 . Podemos suponer, entonces, que k1 = n, porque las desigualdades que denen la relacin xp w y p sern automticas para k > k1 . Estamos casi en el caso anterior, o a a dado que la unica diferencia es que tenemos log x w log y en lugar de log x log y. Pero esto es suciente si suponemos que p R+ , porque en tal caso se tiene que la funcin t ept es convexa creciente, y se aplica nuevamente el Corolario 4.2.2. o Observacin 4.4.4. o 1. El caso ms usado de la Proposicin 4.4.3 es cuando p = 1. Es a o n decir que, si x, y R+ , entonces x w y implica x w y. Esto ser sumamente util a
log

cuando se lo aplique a desigualdades con valores singulares de matrices, usando tcnicas e de productos alternados. Observar que, en este caso, el Corolario 4.2.3 nos dice que, si hubese quedado x y, deb cumplirse que x y . a
log

2. Por otra parte, la Proposicin 4.4.3 se puede generalizar, sin cambiar la prueba, si o remplazamos las funciones f (t) = tp por cualquier funcin f : R+ R tal que la o aplicacin t f (et ) resulte convexa (o convexa creciente). Notar que, en el caso o demostrado, se usaba esa propiedad para la funcin t (et )p = ept . o

4.5

Ejercicios

Ejercicios del texto


4.5.1. Sea A Mn (R). Probar que A DS (n) si y slo si o A 0, A1 = 1 y A 1 = 1,

Deducir que DS (n) es un conjunto convexo, y que dadas dos matrices A, B DS (n), entonces tambin AB DS (n). e 4.5.2. Probar los 9 items de la Observacin 4.1.5. o 4.5.3. Probar que, dados x, y Rn , entoncecs 1. x 2. x
w w

y si y slo si existe v Rn tal que x o y si y slo si y o


w

y. w x.

x si y slo si existe w Rn tal que y o

Ejercicios nuevos
4.5.4. Sea x Rn . Probar que
k

x = m n i
i=1

+k z

:x=y+z

para todo k In .

4.5 Ejercicios

78

4.5.5. Sean x, y Rn . Demostrar las siguientes propiedades: 1. x y si y slo si x o


w

y junto con x

y.

2. Si > 0, entonces x 3. x
w w w

y = x y.

y = x

y .

y x

4. Para cualquier R no nulo, se tiene que x

y x

y.

4.5.6. Una transformacin lineal A en Cn se dice que preserva positividad si lleva vectores de o coordenadas no negativas en vectores de coordenadas no negativas. Se dice que preserva la traza si tr Ax = tr x para todo x. Se dice unital si A1 = 1. Dada A Mn (C), probar que A DS (n) si y slo si la transformacin lineal A preserva o o positividad, preserva la traza, y es unital. Mostrar que A preserva la traza si y slo si A es o unital. 4.5.7. Sea A DS (n) . 1. Sea x Rn . Si |x| = (|x1 |, . . . , |xn |), demostrar que |Ax| A(|x|) ( signica coordenada a coordenada) .

2. Demostrar que 1 (A) y que 1 admite un autovector de coordenadas positivas. 3. Demostrar que 1 = (A) = A 4.5.8. Sean x, y Rn . Probar que 1. x + y x+y x + y .
w sp

2. Si x, y Rn , entonces x y + 3. Si x, y Rn , entonces (x, y) + 4. Probar que son equivalentes a. x


w

xy

x y .

(x + y, 0) en R2n .

y w y.

b. Existe w Rn tal que x

4.5.9. Sea f : R+ R+ cncava y tal que f (0) = 0. Probar que: o 1. f es creciente (es continua?). 2. Si c, d R+ , entonces f (c + d) f (c) + f (d).

4.5 Ejercicios

79

3. Si x, y Rn , + x y =
iIn

f (xi )
iIn w

f (yi ). y. f (|yi |) .
iIn

Ms an, la misma desigualdad sigue valiendo si x a u 4. Si x, y Rn , f (|xi + yi |)


iIn ij

f (|xi |) +

4.5.10. Sean x, y, u Rn tales que sus coordenadas estan ordenadas en forma decreciente. Probar que: 1. x y = x, u y, u .
w

2. Si solo pedimos que x

y pero tenemos que u Rn , entonces x, u y, u . +

Cap tulo 5 Mayorizacin de autovalores y valores o singulares


En este cap tulo estudiaremos numerosas apariciones de relaciones de mayorizacin entre veco tores reales asociados a matrices, particularmente a vectores de autovalores, de valores singulares y a diagonales de matrices. Mostraremos el teorema de Schur-Horn, que caracteriza todas las posibles diagonales de matrices en la rbita unitaria de una matriz A H(n) como o n aquellos vectores d R tales que d (A). Luego nos concentraremos en una caracterizacin o de las normas unitariamente invariantes, y daremos un criterio para mostrar desigualdades para cualquiera de esas normas, en trminos de mayorizacin dbil de vectores de valores e o e singulares. Despus daremos numerosas propiedades relacionadas con la mayorizacin aplie o cada a matrices autoadjuntas, que sern herramientas imprescindibles para atacar distintas a desigualdades en los siguientes cap tulos. Culminaremos con una prueba bastante reciente y asombrosamente simple del famoso teorema de Lidskii, sobre relaciones de mayorizacin entre o vectores de autovalores de restas de matrices autoadjuntas, lo que da un expectacular avance sobre el teorema de Weyl 5.1.6, que hace lo mismo con las sumas. El teorema de Lidskii fue particularmente famoso porque fue anunciado sin dar detalles de la prueba (en los aos 60). Esto gener polmicas, que dieron lugar a numerosas demostran o e ciones independientes (en el libro de Bhatia [3] aparecen cuatro, todas bien complicadas). Sin embargo, la que presentamos aqu (debida a Chi-Kwong Li y R. Mathias [28]) es par ticularmente simple, y usa como unica herramienta importante el teorema de Weyl, que por muchos aos fue considerado escencialmente ms dbil. Finalizaremos dando algunas de las n a e importantes aplicaciones del Teorema de Lidskii.

5.1

Aplicaciones a matrices Hermitianas

Teorema 5.1.1 (Teorema de mayorizacin de Schur 3). Sea A H(n). Recoredemos la o n notacin d (A) = (a11 , . . . , ann ) R . Entonces, se tiene que o d (A) (A).

5.1 Aplicaciones a matrices Hermitianas

81

Demostracin. Para demostrar que d (A) (A) vamos a probar que d (A) = B (A), para o cierta B DS (n). Como A H(n), si D = diag ((A)), existe U U(n) tal que A = U DU . Mediante cuentas elementales de matrices, se puede vericar que cada entrada de A tiene la forma: dados i, j In ,
n n

aij =
k=1

uki k ukj ,

en particular,

aii =
k=1

k |uki |2 .

Consideremos ahora la matriz B = (|uji |2 )ij que, por ser U unitaria, cumple B DS (n). Adems a n 2 |u | k=1 k1 k |u11 |2 |un1 |2 1 . . . = . ... = d (A) . . . . B(A) = . . . . . n |u1n |2 |unn |2 n |u |2
kn k k=1

Luego, el Teorema 4.1.8 completa la demostracin. o Observacin 5.1.2. Otra demostracin del Teorema mayorizacin de Schur puede hacerse o o o por induccin, aplicando el Teorema de entrelace de Cauchy 2.4.2. Para ello basta reordenar o la diagonal de A, conjugandola por una matriz de permutacin como se hace en la Observacin o o 4.1.5, lo que no cambia sus autovalores. Observacin 5.1.3. La matriz B = (|uji |2 )ij DS (n) que aparece en el teorema anterior o (para cierta U U(n) ), es un tipo especial de matriz doble estocstica. A tales matrices se a las llama ortoestocsticas. Este simptico nombre, que proviene de construir elementos de a a DS (n) a partir de matrices unitarias (que en el caso real se llaman ortogonales), est bien a elegido porque no toda matriz DS (n) tiene la suerte de provenir de una matriz unitaria. A 1 1 0 1 Por ejemplo A = 1 0 1 DS(3), pero no es ortoestocstica, porque no hay modo de a 2 0 1 1 que sus columnas provengan de vectores ortogonales. Como corolario del Teorema mayorizacin de Schur, encontramos una nueva caracterizacin o o para los autovalores de una matriz Hermitiana. En este caso, para la suma de los k-primeros. Proposicin 5.1.4 (Principio del Mximo de Ky Fan). Sea A H(n). Entonces o a
k k

j (A) = mx a
j=1 j=1

Axj , xj ,

para todo k In ,

donde el mximo se toma sobre todas las k-uplas ortonormales {x1 , ..., xk } en Cn . a Demostracin. Fijemos k In . Sea {x1 , ..., xk } una k-upla ortonormal cualquiera. Sea o U U(n) tal que sus primeras k columnas sean los vectores dados. Sea B = U AU . Luego
k k k k

(B) = (A)

y
j=1

bjj =
j=1

Bej , ej =
j=1

A U ej , U ej =
j=1

Axj , xj .

5.1 Aplicaciones a matrices Hermitianas

82

Pero, por el Teorema de mayorizacin de Schur 5.1.1, se tiene que o


k k k k k

Axj , xj =
j=1 j=1

bjj
j=1

d (B) j

j=1

j (B) =
j=1

j (A) .

Para ver la otra desigualdad, tomemos B = {v1 , ..., vn } una BON de Cn adaptada a (A). Luego {v1 , ..., vk } es una k-upla ortonormal y
k k k k

mx a
j=1

Axj , xj
j=1

Avj , vj =
j=1

j (A) vj , vj =
j=1

j (A) ,

como quer amos demostrar. Ejercicios 5.1.5. Sea A H(n). Identicando las k-uplas ortonormales de Cn con bases de rangos de proyectores, y con columnas de isometr de Ck en Cn , probar que: as 1. Si, para k In , notamos Pk (n) = {P H(n) : P 2 = P y rk(P ) = k}, entonces
k

j (A) = mx a
j=1

P Pk (n)

tr P AP .

(5.1)

2. Para todo k In , se tiene que


k

j (A) = mx tr U AU , a
j=1 U Uk (n)

(5.2)

donde Uk (n) = {U Mn,k (C) : U U = Ik } es el espacio de isometr de Ck en Cn . as

Teorema 5.1.6 (Weyl). Sean A y B H(n). Entonces (A + B) (A) + (B).

Es importante el hecho de que, en la suma (A) + (B), se asume que ambos vectores estn a ordenados de la misma forma. Demostracin. Por la frmula (5.1), para todo k In podemos escribir o o
k

j (A + B) = mx a
j=1

P Pk (n)

tr P (A + B)P

P Pk (n) k

mx a

tr P AP + mx a
k

P Pk (n)

tr P BP

=
j=1

j (A) +
j=1

j (B).

5.2 Teorema de Schur-Horn

83

La igualdad para k = n surge de que tr(A + B) = tr(A) + tr(B). Recordar que en la Proposicin 3.7.5 probamos que, dada C Mn (C), entonces si o C= 0 C M2n (C) , C 0

se tiene que C = {si (C)} (con las mismas multiplicidades). Es decir, (C) = (s1 (C), , sn (C), sn (C), , s1 (C) ) . Corolario 5.1.7. Sean A, B H(n). Entonces s(A + B)
w

(5.3)

s(A) + s(B).

Demostracin. Notar que A + B = A + B. Por la Eq. (5.3) y las desigualdades resultantes o de la relacin (A + B) (A) + (B) para los n primeros o ndices k In I2n , se tiene que s(A + B) w s(A) + s(B). Observacin 5.1.8. Notar que el resultado anterior es necesario para vericar que las normas o (k) de Ky Fan, para cada k N, denidas en el Ejemplo 3.4.1, cumplen la desigualdad triangular. Les hab salido el ejercicio? a

5.2

Teorema de Schur-Horn

5.2.1. Sea x Cn con x = 1 (a estos vectores los llamaremos unitarios). Entonces, como vimos en 1.9.3, la matriz Px = x x = xx = (xi xj )ij Mn (C) es el proyector ortogonal sobre el subespacio Gen {x}. Por lo tanto, si B = {x1 , . . . , xn } es una BON de Cn , vale que
n n

z=
i=1

z, xi xi

para todo z C

I=
i=1

xi

xi .

(5.4)

Proposicin 5.2.2. Sea A Mn (C). Se tiene que A Mn (C)+ si y slo si existen vectores o o n unitarios x1 , . . . , xr C , y nmeros 1 , . . . , r R+ tales que u
r r

A=
i=1

i x i

xi ,

o sea que

A=
i=1

i P xi .

(5.5)

Demostracin. Por un lado es claro que si A cumple (5.5), entonces A 0. Rec o procamente, si A Mn (C)+ , sea B = {x1 , . . . , xn } es una BON de Cn adaptada a (A). Usando la ecuacin o n (3.12), para todo z C se tiene que,
n n n n

Az = A
i=1

z, xi xi =
i=1

z, xi Axi =
i=1

i (A) z, xi xi =
i=1

i (A) xi

xi z .

Luego A cumple (5.5).

5.2 Teorema de Schur-Horn

84

Observacin 5.2.3. Notar que la m o nima cantidad r de proyectores de rango uno que puede usarse para obtener una representacin de A como en (5.5) es r = rk(A). Adems, si A o a 1/2 + Mn (C) cumple (5.5), deniendo yi = i xi , se tiene que las matrices yi yi no son ms a
r

proyectores, pero s son positivos y se verica que A =


i=1

yi

yi .

Es natural preguntarse, dado A Mn (C)+ y r rk(A), para qu sucesiones 1 , . . . , r en e R+ se puede obtener para A una representacin como (5.5). Este problema est o a ntimamente relacionado con el llamado Teorema de Schur-Horn. Recordemos que si A Mn (C), llamamos d (A) = (a11 , . . . , ann ) Cn . Proposicin 5.2.4. Sean c Rn y A Mn (C)+ . Son equivalentes: o +
n

1. Existen vectores unitarios x1 , . . . , xn C tales que A =


j=1

cj xj

xj .

2. Existe B Mn (C)+ tal que d (B) = c y (B) = (A), o sea que B A. = Demostracin. Si se verica 1, sea X Mn (C) denida por Ck (X) = ck xk , k In . o Veamos que XX = A: Para cada k In , notemos por Xk Mn (C) a la matriz tal que Ck (Xk ) = Ck (X), pero Cj (Xk ) = 0 si j = k. Luego, se tiene que X=
kIn 1/2

Xk ,

Xk Xj = 0

si

j=k

y Xk Xk = ck xk x = ck xk k

xk .

Es claro que todo esto implica que XX = A. Por lo tanto (A) = (XX ) = (X X). Si B = X X, es fcil ver, adems, que Bii = ci xi 2 = ci , i In , lo que prueba 2. a a Rec procamente, si B Mn (C)+ cumple (B) = (A) y d (B) = c, sea U U(n) tal que U AU = B (se puede hacer, pasando por diag ((A)) ). Consideremos la matriz X = A1/2 U . Entonces X X = B y XX = A1/2 U U A1/2 = A, mientras que ci = Bii = Ci (X) 2 . Basta Ci (X) , y se verica como antes que ahora denir xi = Ci (X)
n n

A = XX =
j=1

cj xj x j

=
j=1

cj xj

xj ,

lo que prueba 1. Ahora s podemos probar la rec , proca del Teorema 3 de Schur , sobre mayorizacn entre la o diagonal y los autovectores. Este resultado se debe a R. Horn, y ponindolos juntos se los e conoce como el Teorema de Schur-Horn, que tiene importantes aplicaciones y generalizaciones a operadores en espacios de Hilbert y a lgebras de operadores. Como ingrediente extra (clave a para la prueba) se incluye una tercera condicin equivalente (en el caso positivo), que tiene o que ver con lo que ven amos viendo, o sea el expresar una matriz A Mn (C)+ como suma de mltiplos de proyectores unidimensionales. u

5.2 Teorema de Schur-Horn

85

Teorema 5.2.5. Sean b, c Rn Entonces son equivalentes: 1. c b.

2. Existe B H(n) tal que d (B) = c y (B) = b . Si, adems, b y c tienen entradas no negativas, lo anterior equivale a a 3. Existen vectores unitarios x1 , . . . , xn Cn tales que
n

diag (b) =
j=1

cj xj x . j

Demostracin. Antes que nada, notemos que se puede suponer que b = b y c = c , porque o las tres condiciones son invariantes por permutaciones (en el caso de 2 y 3, v conjugar con a matrices de permutacin adecuadas, usando la Observacin 4.1.5). Notemos A = diag (b). El o o Teorema 3 de Schur 5.1.1 muestra que 2 implica 1. La Proposicin 5.2.4 muestra que 2 y 3 o son equivalentes, cuando b y c tienen entradas no negativas. Vericaremos, en principio, que 1 implica 3 en el caso en que b y c tienen entradas estrictamente positivas. Lo haremos por induccin en n. Si n = 1 no hay nada que probar. Sea n > 1. o Como b1 c1 bn , podemos tomar un k In1 tal que bk c1 bk+1 . Se arma: existe x1 Gen {ek , ek+1 } de norma uno, tal que A1 = A c1 x1 x tiene rango a 1 lo sumo n 1. En efecto, para ver que el tal x1 existe, denimos x(t) = cos t t ek + sin ek+1 2 2 y A(t) = A c1 x(t)x(t) , t [0, 1] .

Entonces la curva d(t) = det A(t) es continua. Pero d(1) 0 d(0) porque A(0) y A(1) son matrices diagonales, con un slo elemento diagonal no positivo (es bk+1 c1 ) en el caso de o A(1), y con todos no negativos (anche bk c1 ) en el de A(0). Luego basta tomar x1 = x(t) para algn t [0, 1] tal que d(t) = 0. u Es claro que existe una BON {y1 , y2 } de Gen {ek , ek+1 } tal que A1 y1 = (bk + bk+1 c1 )y1 y A1 y2 = 0. Luego la matriz de A1 en la bon B = {y2 , e1 , . . . , ek1 , y1 , ek+2 , . . . , en } queda A1
B

= diag (0, b1 , . . . , bk1 , (bk + bk+1 c1 ), bk+2 , . . . , bn ) .

(5.6)

Sean a, d Rn1 , dados por a = (c2 , . . . , cn ) y d = (b1 , . . . , bk1 , (bk + bk+1 c1 ), bk+2 , . . . , bn ) . Notar que, como bk c1 bk+1 , entoncecs dk1 = bk1 bk dk bk+1 bk+2 = dk+1 . Para aplicar la HI al asunto anterior, deber amos probar que a d. En efecto, si r k,
r1 r r1 r1 r1

ai =
i=1 i=2

ci
i=1

ci
i=1

bi =
i=1

di .

5.2 Teorema de Schur-Horn

86

Si k + 1 r n 1,
r r r1 r k1 r r1

ci
i=1 i=1

bi =
i=1

ai =
i=2

ci
i=1

bi + (bk + bk+1 c1 ) +
i=k+2

bi =
i=1

di

y las trazas andan bien porque c

b. En consecuencia, a
n j=2

d. Sean, por HI, n 1 vectores

unitarios z2 , . . . , zn Cn1 tales que diag (d) =


n

cj zj zj Mn1 (C)+ . Luego

cj (0, zj )(0, zj ) = diag (0, d) = A1


j=2

Mn (C)+ .

(5.7)

Si denimos x2 , . . . , xn Cn tales que las coordenadas de cada xj en B sean (0, zj ), resulta que son tambin unitarios (los zj lo son y B es una bon). Traduciendo la ecuacin (5.7) (pensada e o en la base B) a coordenadas en la base cannica, obtenemos o
n

A1 =
j=2

cj xj x Mn (C)+ j

y, por lo tanto,
n

A = A1 + c 1 x 1 x = 1
j=1

cj xj x . j

Conclu mos que 1 implica 3, si b y c tienen entradas estricatamente positivas. De lo anterior podemos deducir que 1 2 en ese caso (b, c > 0), porque 1 3 y 3 2 (2 1 era el Teorema 3 de Schur). Pero esto se generaliza sin dicultad al caso general (con b y c cualesquiera en Rn ) usando que para todo m R se tiene que x + m1 y + m1 x y,

y que dada B H(n), entonces d (B + mI) = d (B) + m1 y (B + mI) = (B) + m1. Finalmente, probado 1 2 en general, ahora por la Proposicin 5.2.4, ya sabemos que 3 es o equivalente a ellas si b y c tienen entradas no negativas. Teorema 5.2.6. Sea a Rn y A H(n) tal que (A) = a . Entonces, {x Rn : x a} = d ( U AU ) : U U(n) .

Demostracin. Si B = U AU , con U U(n), entoces (A) = (B) = a . Luego por el o Teorema de mayorizacin de Schur 5.1.1, se tiene que d (B) a. o Rec procamente, si x Rn cumple x a, por el Teorema 5.2.5 existe B H(n) tal que d (B) = x y (B) = a . Por lo tanto debe existir U U(n) tal que B = U AU . Luego x {d (U AU ) : U U(n)}.

5.3 Normas unitariamente invariantes

87

Corolario 5.2.7. Sean A Mn (C)+ y c Rm , con m n. Entonces existen proyectores + autoadjuntos P1 , . . . , Pm de rango uno, tales que
m

A=
k=1

c k Pk

((A), 0, . . . , 0) := (A) Rm . +

Demostracin. Sea A1 = o c

A 0 Mm (C)+ . Luego (A1 ) = (A). Por el Teorema 5.2.6, 0 0 (A) si y slo si existe U U(m) tal que d (U A1 U ) = c. Es claro que si o P = In 0 0 0 Mm (C)+ , entonces U A1 U = U P A1 P U .

Luego, si llamamos U1 Mm,n (C) a la parte no nula de U P , entonces U1 AU1 = U A1 U . Notar que U1 U1 = In . Si denimos T = A1/2 U1 Mn,m (C), y xi = Ci (T ) Cn para i Im , se tiene que U A1 U = T T , por lo que xi 2 = ci , i Im . Por otro lado, m m

A = TT =
k=1

xk x k

=
k=1

c k Pk ,

donde Pk = c1 xk x es proyector autoadjunto de rango uno, para k Im (si ck = 0, puede k k tomarse como Pk cualquier cosa). La rec proca se prueba deniendo T Mn,m (C) tal que 1/2 tenga columnas xk = ck yk , donde yk yk = Pk , k Im . El hecho de que A = T T implica que existe una U1 Mm,n (C) que cumple todo lo siguiente:
T = A1/2 U1

U1 U1 = In

d (U1 AU1 ) = d (T T ) = c .

Luego se extiende U1 a una U U(m), con lo que U1 AU1 = U A1 U .

Observacin 5.2.8. El resultado anterior resulve el problema planteado en el prrafo anterior o a a la Proposicin 5.2.4, al menos para el caso r n. Es fcil ver, usando el Teorema 5.2.5, que o a si A Mn (C)+ , rk(A) r < n y c Rr , entonces la condicin necesaria y suciente para o + r que A pueda ser representado A = k=1 ck Pk para ciertos proyectores Pk de rango uno, es que (A) (c, 0, . . . , 0) Rn .

5.3

Normas unitariamente invariantes

Denicin 5.3.1. Dada una norma N en Mn (C), decimos que N es una norma unitariamente o invariante (NUI) , si cumple que N (U AV ) = N (A) para toda A Mn (C) y todo par U, V U(n) .

En tal caso, el Teorema 3.2.5 dice que N (A) = N ((A) ) para toda A Mn (C).

5.3 Normas unitariamente invariantes

88

Denicin 5.3.2. Sea N una NUI en Mn (C). Consideremos la funcin o o gN : Cn R+ para todo x Cn . Proposicin 5.3.3. Sea N una NUI en Mn (C) y sea x Cn . Entonces: o 1. gN es una norma en Cn . 2. gN (x) = g(|x|) := gN (|x1 | , . . . , |xn |). 3. gN (x) = g(x ) = gN (x(1) , . . . , x(n) ), para toda Sn . Demostracin. o 1. Se deduce de que la aplicacin Cn o x diag (x) Mn (C) es lineal e inyectiva. dada por gN (x) = N (diag (x) )

2. Sea xj = j |xj | donde wj = ei j . Como W = diag (1 , . . . , n ) U(n), tenemos que gN (|x|) = N (diag (|x|) ) = N (W diag (x) ) = N (diag (x) ) = gN (x) .
3. Sea P UP (n) la matriz asociada a . Luego P diag (x) P = diag (x ) . Entonces, gN (x ) = N (P diag (x) P ) = N (diag (x) ) = gN (x) .

Denicin 5.3.4. Una funcin f : Cn R que cumple los o o tems 1, 2 y 3 de la Proposicin o anterior se denomina gauge simtrica. Abreviaremos esto escribiendo que f es una fgs. e Lema 5.3.5. Si g es una fgs, entonces, g es montona en el siguiente sentido: Si se cumple o que |xi | |yi | para todo i In , entonces, g(x) g(y). Demostracin. Por la Proposicin 5.3.3, podemos suponer que x, y Rn . Por un argumento o o + inductivo, es suciente vericar que si t [0, 1] y k In , entonces g(y1 , . . . , t yk , . . . , yn ) g(y1 , . . . , yk , . . . , yn ) . En efecto, si tomamos ese x = (y1 , . . . , t yk , . . . , yn ), entonces g(x) = g 1t 1+t y + (y1 , . . . , yk , . . . , yn ) 2 2 1+t 1t g(y) + g(y1 , . . . , yk , . . . , yn ) 2 2 1+t 1t = g(y) + g(y) = g(y) , 2 2

Este Lema nos permitir mostrar la relacin clave que existe entre estas fgss y la mayorizacin a o o dbil de vectores. e

5.3 Normas unitariamente invariantes

89

Teorema 5.3.6. Sea g es una funcin gauge simtrica en Cn y sean x, y Rn tales que o e + x w y. Entonces, g(x) g(y). Demostracin. Como x w y, la Proposicin 4.1.12 nos asegura que existe u Rn tal que o o x u y. Ahora bien, el Lema 5.3.5 garantiza que g(x) g(u) (recordar que x 0). Por otro lado, como u [0, 1] tales que
Sn

y, el Teorema 4.1.8 nos dice que u =


Sn

y , para ciertos

= 1. Luego

g(u) = g
Sn

Sn

g(y ) =
Sn

g(y) = g(y) .

Teorema 5.3.7. 1. Si N es una NUI en Mn (C), entonces, gN es una fgs en Cn . 2. Si g es una fgs en Cn , entonces la funcin Ng : Mn (C) R+ dada por o Ng (A) = g(s1 (A) , . . . , sn (A) ) , es una NUI en Mn (C). Demostracin. o 1. Esto es la Proposicin 5.3.3. o 2. Slo demostraremos la desigualdad triangular. Las dems propiedades quedan como o a ejercicio para el lector. Sean A, B Mn (C). Luego Ng (A+B) = g(s(A+B)) g(s(A)+s(B)) g(s(A))+g(s(B)) = Ng (A)+Ng (B) , ya que s(A + B)
w

para

A Mn (C) ,

s(A) + s(B) y podemos usar el Teorema 5.3.6.

Teorema 5.3.8 (Ky Fan). Sean A, B Mn (C). Entonces son equivalentes: 1. N (A) N (B) para toda norma unitariamente invariante N . 2. A
(k)

B
w

(k)

para todo k In .

3. s(A)

s(B).

Demostracin. Es consecuencia de los Teoremas 5.3.6 y 5.3.7. En efecto, observar que o A


(k)

(k)

para todo

k In

s(A)

s(B) ,

y en tal caso se tiene que g(s(A) ) g(s(B) ) para toda fgs. La rec proca es evidente. Ahora saldamos otra deuda contraida en el Ejemplo 3.4.1:

5.3 Normas unitariamente invariantes

90

Corolario 5.3.9. Para todo n N y todo p [1 , ), la norma p de Schatten, dada por


n 1/p

=
i=1

si (A)

= (tr |A|p )1/p para A Mn (C) ,

es efectivamente una norma en Mn (C), y adems es NUI. a Demostracin. Se usa el Teorema 5.3.7 y el hecho de que la norma p usual en Rn es una o funcin gauge simtrica. o e Corolario 5.3.10. Sean A, B Mn (C)+ tales que A B. Entonces, N (A) N (B) para toda norma unitariamente invariante N . Demostracin. Aplicando el Corolario 2.3.7, obtenemos que o 0 A B = sk (A) = k (A) k (B) = sk (B) , Luego basta aplicar el Teorema 5.3.8. Corolario 5.3.11. Sea N una NUI en Mn (C). Dadas A, B Mn (C), se tiene que 1. N (AB) A
sp

para todo

k In .

N (B).

Adems, si N es normalizada (i.e., N (E11 ) = 1), a 2. A


sp

N (A) A

= tr |A|.

3. N es una norma matricial. Demostracin. o 1. Se deduce de la desigualdad sk (AB) A (3.3), y del Teorema 5.3.8.
sp

sk (B) para todo k In , vista en la frmula o

2. Sea g la funcin gauge simetrica asociada a N . Como N est normalizada, entonces o a g(ek ) = 1 para todo k In . Luego, A
sp

= s1 (A) = g(s1 (A), 0, . . . , 0) g(s(A) ) = N (A) .


n n

Anlogamente, N (A) = g(s(A) ) a


k=1

sk (A)g(ek ) =
k=1

sk (A) = A

3. Es claro usando lo anterior. Proposicin 5.3.12. Sea g : Rn R, una funcin convexa e invariante por permutaciones, o o n es decir que si x R y P UP (n) , entonces g(x) = g(P x). Entonces, dados x, y Rn , x y = g(x) g(y) .

En particular, esto se verica si g es una fgs.

5.4 Mayorizacin de matrices Hermitianas o

91

Demostracin. Si x o [0, 1] tales que


Sn

y, el Teorema 4.1.8 asegura que x =


Sn

P y . para ciertos

= 1. Entonces g(x) = g
Sn

P y
Sn

g (P y) = y .

Notar que si g es una fgs, es convexa por ser una norma (homogeneidad + DT). Corolario 5.3.13. Dadas A, B H(n). Entonces (A) (B) = s(A)
w

s(B).

Demostracin. Como A H(n), se tiene que s(A) = | (A)| . Por lo tanto, si g es una o fgs, se tiene que g(s(A) ) = g((A) ). Lo mismo pasa para B, y el resultado se deduce de la
k

Porposicin 5.3.12, aplicado a las fgss gk (x) = o


i=1

x , para k In . i (B) entonces N (A) N (B) para toda

Corolario 5.3.14. Dadas A, B H(n), si (A) norma unitariamente invariante N .

Demostracin. Se deduce del Corolario 5.3.13 y del Teorema 5.3.7. o

5.4

Mayorizacin de matrices Hermitianas o

Hasta el momento slo hemos visto resultados relacionados con la mayorizacin de vectores. o o Pero a cada matriz A H(n) se le puede asociar el vector (A) Rn formado por todos los autovalores de A. Esto permite la siguiente denicin, o Denicin 5.4.1. Si A, B H(n), se dice que A est mayorizada por B y se escribe A o a si se verica que (A) (B). Es decir, A B si
k k

j (A)
j=1 j=1

j (B),

1kn

tr A = tr B .

Denicin 5.4.2. Sea A Mn (C). o 1. Dado un proyector P H(n) (o sea P = P 2 = P ), se dene el pinching de A como CP (A) := P AP + (I P )A(I P ) H(n) . Por ejemplo, si P proyecta sobre las primeras k coordenadas en Cn , entonces A= B C D E = CP (A) = B 0 0 E ,

donde los bloques tienen los tamaos adecuados (por ejemplo, B Mk (C) ). La matriz n de CP (A) tiene siempre esa pinta, si uno trabaja en coordenadas de una BON que empiece generando R(P ) y termine generando ker P .

5.4 Mayorizacin de matrices Hermitianas o

92

2. Ms generalmente, un sistema de proyectores en Mn (C) es una conjunto a P = {P1 , . . . , Pr } H(n) , donde los Pi son proyectores no nulos tales que
r

Pi Pj = 0

si

i=j

y
i=1

Pi = I .

Notar que un proyector P H(n) dene un sistema de dos proyectores P = {P, I P }. 3. Dado un sistema de proyectores P = {P1 , . . . , Pr } en Mn (C), se dene el pinching asociado:
r

CP : Mn (C) Mn (C) ,

dado por

CP (A) =
i=1

Pi APi ,

A Mn (C),

que tambin puede verse como una compresin a bloques diagonales (operando en una e o BON adecuada). Notar que se tiene la siguiente factorizacin: o CP = CP1 CP2 CPr , y lo mismo en cualquier otro orden entre los CPi . Ejercicios 5.4.3. 1. Si A H(n) y (A) = {1 , . . . , r } (todos distintos), entonces deniendo Pi como el proyector sobre ker(A i I), i Ir , se obtiene un sistema de proyectores que verica
r

(5.8)

que A =
i=1

i Pi .

2. Dado un sistema de proyectores P en Mn (C) y una matriz A Mn (C), se tiene que CP (A) = A si y slo si A conmuta con todos los Pi de P. O sea, si A es diagonal de o bloques. Vericar que eso sucede en el ejemplo anterior. 3. Probar que, dado un sistema de proyectores P en Mn (C), el operador pinching CP verica las siguientes propiedades: (a) Es lineal, idempotente (i.e., CP CP = CP ) y R(CP ) es el subespacio de matrices que conmutan con todos los Pi , i Ir . (b) Reduce normas espectrales y preserva trazas (si no sale, ver la Proposicin 5.4.9). o (c) Si A Mn (C) es autoadjunto (resp. positivo) entonces CP (A) es autoadjunto (resp. positivo). Por lo tanto, en general, CP (A ) = CP (A) . Proposicin 5.4.4. Sea A H(n) y P un sistema proyectores en H(n). Entonces o CP (A) A.

5.4 Mayorizacin de matrices Hermitianas o

93

Demostracin. Por la Eq. (5.8), basta considerar el caso de pinchings de un solo proyector o P H(n), o sea, el sistema P = {P, I P }. Sea U = P (I P ) = 2 P I H(n). Es fcil a ver que, si R(P ) = S, entonces se tiene que U = P (I P ) = I 0 0 I S U(n) = 2 CP (A) = A + U AU = A + U AU . (5.9) S

Pero, como (U AU ) = (A), por el Teorema de Weyl 5.1.6 se tiene 2 (CP (A)) por lo que CP (A) A. (A) + (U AU 1 ) = 2 (A) ,

Ejercicio 5.4.5. 1. Claricar en qu sentido la Proposicin 5.4.4 es una generalizacin del e o o Teorema de mayorizacin de Schur. o 2. Dados x, y, z, w Rn tales que x = x , y = y , z = z y w = w , probar que z w y x y = x + z y+w .

Es cierto si no estan ordenados? 3. Deducir del Teorema 5.1.6 (+ induccin) que, si A1 , . . . , Am H(n), entonces o
m m

k=1

Ak
k=1

(Ak ) .

Denicin 5.4.6. Dado un espacio vectorial V y un subconjunto C V, llamaremos conv [C] o a la cpsula convexa de C: a
m

conv [C] =
k=1

k bk : m N, bk C, Rm y

(1, 0, . . . , 0) .

es decir, el conjunto de todas las combinaciones convexas de elementos de C. El siguiente teorema da una caracterizacin, intr o nseca de matrices, de la mayorizacin mao tricial: Teorema 5.4.7. Sea A H(n). Denotemos por U(A) = {U AU : U U(n)} = {B H(n) : (B) = (A)} la rbita unitaria de A. Entonces, o {T H(n) : T O sea que T A} = conv [U(A) ] . (5.10)

A si y slo si T es combinacin convexa de conjugados unitarios de A. o o

5.4 Mayorizacin de matrices Hermitianas o

94

Demostracin. Tomemos una matriz o


m

T =
k=1

k Uk AUk conv [U(A) ] ,

donde los Uk U(n) y Rm cumple que +


m m (k Uk AUk ) k=1

e1

(m)

. Por el Ejercicio 5.4.5, A.

(T )

=
k=1

k (A) = (A) = T

Rec procamente, sea T H(n) tal que (T ) (A). Notaremos a = (A). Con las notaciones de la Observacin 4.1.5, el Teorema 4.1.8 dice que o (T ) =
Sn

P a =
Sn

para ciertos [0, 1] tales que


Sn

= 1. Notemos D = diag (a). Por la Eq. (4.4) de la

Observacin 4.1.5, se tiene que P DP = diag (a ). Por lo tanto, o

diag ((T ) ) =
Sn

P DP .

Finalmente, si V, W U(n) hacen que A = V DV y T = W diag ((T ) ) W , entonces T = W diag ((T ) ) W =


Sn W P DP W = Sn (W P V ) A (V P W ) .

Luego T conv [{U AU : U U(n)}] = conv [U(A) ]. Observacin 5.4.8. Notar que el Teorema 5.4.7 permite generalizar el Corolario 5.3.14 en el o siguiente sentido: Si A, B H(n), por la frmula (5.10) se tiene que o A B = N (A) N (B)

para toda norma N que verique N (U CU ) = N (C), C Mn (C), U U(n). Estas normas se llaman dbilmente unitariamente invariantes (NDUI). Notar que, por ejemplo, e w(C) = mx | Cx, x | : x = 1 , a C Mn (C),

que se llama radio numrico de C, es una tal norma, pero no es NUI. Otro ejemplo de este e tipo es M (C) = N (C)+| tr C|, que es NDUI para cualquier NUI N . Para el caso de pinchings, se tiene un resultado ms general que la Proposicin 5.4.4: a o Proposicin 5.4.9. Sean A Mn (C) (no necesariamente autoadjunta) y P un sistema o proyectores en H(n). Entonces N CP (A) N (A) , para toda norma N que sea NDUI en Mn (C) . (5.11)

5.5 Teoremas de Lindskii y sus aplicaciones

95

Demostracin. Por la Eq. (5.8) basta probarlo para un solo proyector P H(n). En tal caso, o sea U = P (I P ) = 2 P I U(n). Por la Eq. (5.9), se tiene que 2 CP (A) = A + U AU = A + U AU . Con esto, la desigualdad al tomar N es clara. Observacin 5.4.10. Otra forma de verlo es observar que, en el caso general, siempre se o verica que CP (A) conv [{U AU : U U(n)}], aunque A no sea autoadjunta. Esto se hace eligiendo las matrices unitarias y diagonales de bloques (para P), con IR(Pi ) en cada bloque (ver el ejercicio 5.6.4). Proposicin 5.4.11. Sean A, B Mn (C). Sea N una NUI. Entonces se tienen las desigualo dades 1 A+B 0 A 0 |A| + |B| 0 N N N . 0 A+B 0 B 0 0 2 Demostracin. La primera desigualdad se deduce de que o B 0 0 A = A 0 0 B , v la matriz a 0 I I 0 U(n) .

Para probar la segunda, notar que, si A = U |A| y B = V |B| con U, V U(n), entonces A 0 0 B = U 0 0 V |A| 0 0 |B| = N A 0 0 B =N |A| 0 0 |B| ,

por lo que podemos suponer que A, B Mn (C)+ . En tal caso, si C = A1/2 , D = B 1/2 , y T = C 0 D 0 , entonces A+B 0 0 0 = T T .

Por otra parte, T T T T , por lo que N (T T ) = N (T T ). Adems, a = TT = C 2 CD DC D2 = A CD DC B .

A 0 es un pinching de T T , y por la frmula (5.11), en la Proposicin 5.4.9, se o o 0 B A 0 tiene que N N (T T ) . 0 B Luego

5.5

Teoremas de Lindskii y sus aplicaciones

El teorema de Lidskii tiene tres versiones equivalentes. Comenzaremos enunciando las tres, y luego iremos armando las pruebas.

5.5 Teoremas de Lindskii y sus aplicaciones

96

Teorema 5.5.1 (Lidskii 1). Sean A, B H(n). Entonces (A) (B) (A B) (A) (B) .

Ejercicio 5.5.2. 1. Decir porqu es incorrecta la siguiente prueba de la primera parte del e Teorema de Lidskii 1: Si A, B H(n), por el Teorema 5.1.6, (A) (A B) + (B). Por lo tanto, para todo k In ,
k k

j (A) j (B)
j=1 j=1

j (A B) .

Deducimos entonces que (A) (B) (A B). La igualdad, para k = n, sale tomando trazas. Si no ven la piada, leer la Observacin 4.1.9. o 2. Demostrar (bien) la otra parte del Teorema ( quien era (B)?). Recordemos que, si B Mn (C), llamamos s(B) = (s1 (B), . . . , sn (B)) = (|B|), al vector de valores singulares de B, ordenados en forma decreciente. Teorema 5.5.3 (Lidskii 2). Sean A, B Mn (C). Entonces |s(A) s(B)|
w

s(A B) .

Una ves resuelto el Ejercicio 5.5.2, se entender porque es necesaria (y suciente) la siguiente a versin ms tcnica del Teorema de Lidskii. Obsrvar que puede verse como una generalizacin o a e o natural del Teorema de Weyl 2.3.5 (que, de hecho, es lo que se usa en su prueba). La prueba, asombrosamente simple comparada con las que histricamente la precedieron, necesita un o m nimo repaso: Si A H(n), se denen A+ = A+|A| y A = |A|A . Se probaba en la Seccin o 2 2 + 3.3 que ambas estn en Mn (C) , que A = A+ A y que para todo k In se tiene a k (A+ ) = mx { k (A) , 0 } a y k (A ) = m n{nk+1 (A), 0} . (5.12)

Teorema 5.5.4 (Lidskii 3). Sean A, B H(n), k In y J In con |J| = k. Entonces


k k

j (A) +
j J i=1

i (B)
j J

j (A + B)
j J

j (A) +
i=1

i (B) .

(5.13)

Demostracin. Probaremos, en principio, la desiguadad de la derecha en (5.13). Sin prdida o e de generalidad podemos suponer que k (B) = 0. En efecto, si probaramos el resultado para B k (B)I (que cumple lo pedido) y A, podr amos deducir inmediatamente la desigualdad de la derecha en (5.13), dado que j (A + B) = j (A + B k (B)I) + k (B) y i (B) = i (B k (B)I) + k (B) ,

5.5 Teoremas de Lindskii y sus aplicaciones

97

para todo j J e i In (sobrar kk (B) en ambos trminos, y se puede cancelar). Sea a e B = B+ B la descomposicin de B en partes positiva y negativa descriptas en el repaso o previo (sino, ver la Eq. (3.5) ). Como k (B) = 0, aplicando la Eq. (5.12) se tiene que
k

j (B+ ) = mx { j (B) , 0 } , para todo j In a

tr(B+ ) =
j=1

j (B) .

Por el teorema de Weyl, ms especicamente el Corolario 2.3.7, el hecho de que a A + B A + B+ = j (A + B) j (A + B+ ) En consecuencia, j (A + B) j (A)
j J j J

para todo j In .

j (A + B+ ) j (A) .

Por el Corolario 2.3.7, tambin j (A + B+ ) j (A), para todo j In . Por lo tanto e


n

j (A + B+ ) j (A)
j J j=1

j (A + B+ ) j (A) = tr(A + B+ ) tr(A)


k

= tr(B+ ) =
j=1

j (B) .

Esto prueba la desiguadad de la derecha en la Eq. (5.13). La otra se deduce de la anterior, pero aplicada al conjunto J = {n j + 1 : j J} y las matrices A y B. Se usa que r (C) = nr+1 (C) = r (C) , para cualquier C H(n) y para todo r In . Observacin 5.5.5. Una formulacin equivalente del Teorema 5.5.4 que tambin se usa muo o e cho es la siguiente: Dadas A, B H(n), k In y J In con |J| = k, se tiene que
k

j (A) j (B)
j J i=1

i (A B)
j J

j (A) j (B) .

(5.14)

En efecto, basta aplicar la Eq. (5.13) a las matrices B y A B, y pasar restando. Demostracin del Teorema de Lidskii 1. Usando la formulacin (5.14) del tercer Teorema de o o Lidskii, obtenemos
k k

(A) (B)
j=1

= mx a
JIn |J|=k j J

j (A) j (B)

j=1

j (A B) ,

(5.15)

5.5 Teoremas de Lindskii y sus aplicaciones

98

para todo k In . Como las trazas estn bien, sale que (A) (B) a

(A B).

Demostracin del Teorema de Lidskii 2. Veamos en principio que, si k In , entonces o


k JI2n |J|=k

mx a

j A j B
j J

=
j=1

s(A) s(B)

En efecto, por la frmula (3.16) de Proposicin 3.7.5, si j In se tiene que o o j A j B = sj (A) sj (B) y 2nj+1 A 2nj+1 B = sj (A) sj (B) . Por otro lado, aplicando la frmula (5.15) o la (5.14) a A, B y a A B = A B, vemos que o
k JI2n |J|=k k

mx a

j A j B
j J k

j=1

j A B =
j=1

sj (A B) ,

y podemos concluir que


j=1

s(A) s(B)

j=1

sj (A B) para todo k In .

Corolario 5.5.6. Sean N una NUI en Mn (C) y A, B Mn (C). Entonces N (A) (B) N (A B) . Demostracin. Notar que s((A) (B) ) = |s(A) s(B)| . Por lo tanto el Teorema de o Lidskii 2 implica que (A) (B)
(k)

AB

(k)

para todo k In .

Luego se aplica el Teorema 5.3.8. Corolario 5.5.7. Sean N una NUI en Mn (C) y A Gl (n). Sea U la unica matriz unitaria tal que A = U |A| (i.e. U = A|A|1 U(n)). Entonces dN (A, U(n) ) = N (A U ) = N ((A) I) = gN (s(A) 1) . Demostracin. Sea V U(n). Entonces (V ) = I. Por el Corolario 5.5.6, tenemos que o N (A V ) N ((A) I). Por otra parte, sea W U(n) tal que |A| = W (A)W . Entonces A U = U W (A)W U W W = U W ((A) I)W . Dado que N es una NUI, resulta que N (A U ) = N ((A) I).

5.6 Ejercicios

99

Ejercicio 5.5.8. Sea Mn (C)1 el conjunto de matrices en Mn (C) de rango uno (o cero). Dada A Mn (C), llamemos 1 (A) = diag (0, s2 (A), . . . , sn (A)) . Probar que si N es una NUI, dN (A, Mn (C)1 ) = N (1 (A)) y se alcanza en la matriz A1 = U W diag (s1 (A), 0, . . . , 0) W , donde A = U W (A)W . Probar, aparte, que A1 no depende de la matriz U U(n) elegida para realizar la descomposicin polar de A, pero s puede depender de W (si s1 (A) tiene o multiplicidad mayor que uno para |A|). Mostrar que otra manera de encontrar A1 es tomando A1 = s1 (A)x y = s1 (A)yx , donde x es un vector unitario tal que Ax = A sp = s1 (A), e y = U x. Generalizar el resultado al conjunto de matrices de rango a lo sumo k.

5.6

Ejercicios

Ejercicios del texto


5.6.1. Sea A H(n). Para cada k In , notamos Pk (n) = {P H(n) : P 2 = P y rk(P ) = k} Probar que, para todo k In , se tiene que
k

Uk (n) = {U Mn,k (C) : U U = Ik } .

j (A) = mx a
j=1

P Pk (n)

tr P AP =

U Uk (n)

mx tr U AU . a

5.6.2. Si A H(n) y (A) = {1 , . . . , r } (todos distintos), entonces deniendo Pi como el proyector ortogonal sobre ker(A i I), i Ir , se obtiene un sistema de proyectores que
r

verica que A =
i=1

i Pi .

5.6.3. Dado un sistema de proyectores P = {P1 , . . . , Pr } en Mn (C), probar que se tiene la siguiente factorizacin de su pinching: o CP = CP1 CP2 CPr , y lo mismo en cualquier otro orden entre los CPi . 5.6.4. Sean A Mn (C) y P = {P1 , . . . , Pr } Mn (C) un sistema de proyectores. Probar que CP (A) = 2n UJ AUJ = 2n UJ AUJ ,
J In J In

donde cada UJ =
kJ

Pk
kJ /

Pk U(n). Deducir que CP (A) conv [{U AU : U U(n)}].

5.6.5. Dado un sistema de proyectores P en Mn (C) y una matriz A Mn (C), se tiene que CP (A) = A si y slo si A conmuta con todos los Pi de P. O sea, si A es diagonal de bloques. o

5.6 Ejercicios

100

5.6.6. Probar que, dado un sistema de proyectores P en Mn (C), el operador pinching CP verica las siguientes propiedades: 1. Es lineal, idempotente (i.e., CP CP = CP ) y R(CP ) es el subespacio de matrices que conmutan con todos los Pi , i Ir . 2. Reduce normas espectrales y preserva trazas (si no sale, ver la Proposicin 5.4.9). o 3. Si A Mn (C) es autoadjunto (resp. positivo) entonces CP (A) es autoadjunto (resp. positivo). Por lo tanto, en general, CP (A ) = CP (A) . 5.6.7. Dados x, y, z, w Rn , todos ordenados en forma decreciente, probar que z w y x y = x + z y+w .

Es cierto si no estan ordenados?


m m

5.6.8. Si A1 , . . . , Am H(n), probar que


k=1

Ak
k=1

(Ak ) .

5.6.9. Hacer el Ejercicio 5.5.8

Normas dbilmente unitariamente invariantes (NDUIs) e


Denicin 5.6.10. Una norma N en Mn (C) es una NDUI si cumple que o N (A) = N (U AU ) para toda A Mn (C) y toda U U(n) .

5.6.11. Probar que las siguientes normas son NDUIs. 1. El radio numrico. e 2. N (A) = A + | tr A|. 3. N (A) =
U(n)

m(U AU )dU , donde m() una norma en Mn (C) y dU reere a la medida

de Haar (normalizada) de U(n). 5.6.12. Sea N una NDUI. Demostrar que 1. Dadas A, B Mn (C), si A B, entonces N (A) N (B).

2. Dado un sistema de proyectores P en Cn , se tiene que N (CP (A) ) N (A) para toda A Mn (C) . | tr A| N (I). Si no sale a mano, n

5.6.13. Probar que si N es una NDUI, entonces N (A) esperar hasta el Corolario 10.2.7.

5.6 Ejercicios

101

Ejercicios nuevos
5.6.14. Dadas A, B Mn (C)+ , mostrar que (A) (B) (AB) (A) (B) .

Si slo tenemos que A, B H(n), entonces mostrar que o (A) , (B) tr AB (A) , (B) . 5.6.15. Dada A Mn (C), probar que 1. A
(k)

= m n

+k C

sp

:A=B+C .

2. Usar lo anterior para dar una nueva prueba del Teorema 5.5.3 (Lidskii 2), mostrando previamente que, dadas A, B H(n), (a) (A) (B) (b) (A) (B)
1

AB .
1

AB

= AB

(n) .

3. Mostrar que el Teorema 5.5.3 implica el Teorema 5.5.1 (Lidskii 1). 5.6.16. Sea A H(n) 1. Sea S Cn un subespacio de dimensin n1. Si AS = PS APS : S S es el comprimido o de A a S, entonces: (a) k (A) k (AS ) k+1 (A), para todo k In1 . (b) Sea v1 , . . . , vn una BON adaptada a (A). a. Si v1 , . . . , vk S, entonces i (A) = i (AS ) para i Ik . b. Si vk , . . . , vn S, entonces i1 (AS ) = i (A), k i n. 2. Probar el Teorema de Lidskii 3 (por induccin sobre n) usando el ejercicio anterior, y o considerando independientemente los casos: (a) ik < n , (b) 1 < i1 , (c) i1 = 1, ik = n. 5.6.17. Sean A, B H(n). Entonces 1. (A) + (B) (A + B) (A) + (A).

2. Dados x, y Rn , se tiene que x y xy x y y x + y x+y x + y .

Por lo tanto g(x y ) g(x y) para toda f gs.

5.6 Ejercicios

102

3. Si, para C H(n), llamamos Ed (C) = diag ((C)) y Ec (C) = diag ((C)), entonces N Ed (A) Ed (B) N (A B) N Ed (A) Ec (B) N Ed (A) + Ec (B) N (A + B) N Ed (A) + Ed (B) . 5.6.18 (Homan-Weilandt y agregados). Sean A, B Mn (C) matrices normales. Sean (A) y (A) sus vectores de autovalores en algn orden. u 1. Demostrar que existe una matriz doble estocstica D DS (n) tal que a AB
2
2

=
i,j

|i (A) j (B)|2 Dij .

2. Probar la siguiente desigualdades:


n Sn n

m n
i=1

|i (A) (i) (B)| A B

2
2

mx a
Sn i=1

|i (A) (i) (B)|2 .

3. Sea B Mn (R) diagonal y denamos U(B) = {U BU : U U(n)} H(n). Demostar que dada C Mn (C), la distancia d2 (C, U(B)) (calculada en norma 2, la de Frobenius), se realiza en una matriz diagonal D U(B). 5.6.19. Consideremos el pinching C : M2n (C) Mn (C) Mn (C) dado por C X Y X 0 = Z W 0 W B 0 si y solo si 0 C

1. Si A M2n (C)+ entonces: existe U U(2n) tal que C(U AU ) = existe unitarios U1 , U2 U(2n) tales que
A = U1

B 0 0 0 U + U2 U . 0 0 1 0 C 2

Sugerencia: primero notar que C(U AU ) 0; representar a A como XX con cierta X M2n (C) y recordar que XX y X X son unitariamente equivalentes. 2. Usar lo anterior para probar que para A, B Mn (C)+ se tiene que ((A + B), 0) Sugerencia: vericar que ((A), (B)) . 0 0 B 0 In In 0 .

A+B 0 A 0 0 In = + 0 0 0 0 In 0

5.6 Ejercicios

103

5.6.20. Probar que para cualquier A Mn,m (C) vale: sj (A) = mx a para cualquier j In . 5.6.21. Para j {0} In , sea Rj = {T Mn,m (C) : rk(T ) j} . Mostrar que para cualquier j In , se tiene que sj (A) = m n
T Rj1 dim S=j

m n
xS, x =1

Ax =

dim T =nj+1

m n

mx a
xT , x =1

Ax

AT .

5.6.22. Mostrar que si A, H Mn,m (C), y H tiene rango k, entonces sj (A) sj+k (A + H) , para todo j Ink .

5.6.23. Mostrar que para cualquier A Mn,m (C) y para cada k In , vale
k k

sj (A) = mx a
j=1 j=1

Axj , yj ,

donde el mximo se toma sobre todas las kuplas ortonormales x1 , . . . , xk e y1 , . . . , yk . a 5.6.24. Sea A H(n). 1. Demostrar que
k k

j (A) = mx tr(U AU ) a
j=1 U Uk (n)

y
j=1

j (A) = m tr(U AU ) . n
U Uk (n)

2. Por otro lado, si A es positiva demostrar:


k k

j (A) = mx det(U AU ) a
j=1 U Uk (n)

y
j=1

j (A) = m det(U AU ) . n
U Uk (n)

Recordar que Uk (n) = {U Mn,k (C) : U U = Ik } es el espacio de isometr de Ck en Cn . as 5.6.25. Sean A, B Mn (C)+ . Probar que (A) (B) (AB) (A) (B).

Si slo pedimos que A, B H(n), mostrar que o (A), (B) tr(AB) (A), (B) .

5.6 Ejercicios

104

5.6.26. Sean N una NUI y A Mn (C). Probar que si (A) es el vector de los autovalores de A y Eig(A) = diag((A) ) Mn (C), entonces N (Eig(A) ) = { SAS 1 : S Gl (n)}. nf Qu matrices A verican que el e nmo es un m nimo para toda NUI? Observar que la conclusin anterior no vale para cada NUI sola. Diga algunas en las que s vale y otras donde o no. 5.6.27 (Mayo conjunta). Dadas X, Y Mn,m (R) decimos que Y Y Y
s p w

X si existe D DS (n) tal que DX = Y X si Y v Xv (mayorizacin usual en Rn ) para todo v Rm o

X si existe D estocstica por las tal que DX = Y . a

Esta es una manera compacta de describir lo que podr amos llamar mayorizacin conjunta o n (fuerte, puntual y dbil) de m vectores de R ; a saber, las columnas de X y de Y . e 1. Probar que Y
w

X las las de Y son combinaciones convexas de las de X.

2. Probar que s = p = w , pero no valen las rec procas (el contraejemplo de p = s es opcional, porque es bastante complicadito). 3. Si n = 2 (solo dos las, o mejor dicho, muchos vectores de R2 ), o m = n y las matrices son inversibles (esto signica bases), entonces s vale que p = s . 4. Supongamos que m = n y Y w X. Entonces | det X| | det Y |. Adems, si | det X| = a | det Y | = 0, entonces existe una matriz P Sn tal que Y = P X.

Normas duales
Denicin 5.6.28. Sean una norma en Cn y N una en Mn (C). Se denen sus normas del o siguiente modo: dados x Cn y A Mn (C), ponemos (x) = sup | x, y |
(x)=1

N (A) = sup | tr(A B)| .


|||B|||=1

Las normas duales aparecen como las normas de los operadores adjuntos de los vectores o matrices, cuando se los piensa como funcionales segn indica el siguiete ejercicio: u 5.6.29. 1. Sea una funcional lineal en Cn . Probar que existe un unico x Cn tal que (y) = x (y) = y, x , para todo y Cn .

5.6 Ejercicios

105

2. Sea una funcional lineal en Mn,m (C). Probar que existe una unica X Mn,m (C) tal que (A) = X (A) = tr(X A) , para todo A Mmn (C) .

Usando esas identicaciones, denir para las funcionales en Mn (C), las nociones de adjunta, autoadjunta y positiva, en funcin de cmo actua en las matrices. Despus comparar lo que o o e haya hecho con la Denicin 8.3.1. o 5.6.30. Sean M una norma en Cn y N una en Mn (C). Ellas inducen normas en las funcionales lineales. Dados x Cn y X Mn (C), mostrar que M (x) = x
M

= mx |x (y)| a
M (y)=1

N (X) = X

= mx |X (A)| . a
N (A)=1

5.6.31. Sean y normas en Cn , Demostrar: 1. | x, y | (x) (y) para todo x, y Cn . 2. Si (x) c(x) para cierto c > 0 y para todo x Cn , entonces, c1 5.6.32. Mostrar que para toda norma en Cn , = , es decir que es igual a la norma dual de su norma dual. 5.6.33. Sea una funcin gauge simetrica en Cn . o 1. Mostrar que es tambien una fgs. 2. Sea N la NUI en Mn (C) asociada a . Probar que N = N . 5.6.34. Demostrar que 1. A
p

= A

, donde 1 p y

1 p

1 q

= 1.

2. La unica NUI que coincide con su dual es la norma 2. 5.6.35. Dados k In y A Mn (C), probar que A
(k)

= mx{ A a

1 (1) , k

(n) }.

5.6.36. Sean p, q, r nmeros reales positivos tales que 1/r = 1/p + 1/q. u 1. Mostrar que para toda funcin gauge simtrica se tiene que o e (|x y|r )1/r (|x|p )1/p (|y|q )1/q . 2. Probar que para toda norma unitariamente invariante ||| ||| se verica que: ||||AB|r |||1/r ||||A|p |||1/p ||||B|q |||1/q .

Cap tulo 6 Funciones montonas y convexas de o operadores


6.1 Clculo funcional a

Notaciones: Diremos que un subconjunto I R es un intervalo, cuando I es un conjunto convexo (i.e., si I es un intervalo abierto, semiabierto o cerrado; acotado, semirrecta o todo R). Dado un intervalo I R, llamaremos HI (n) = A H(n) : (A) I .

Denicin 6.1.1. Sea I R un intervalo, y sea f : I C una funcin cualquiera. Fijada o o A HI (n), se dene f (A) = P (A), donde P C[x] verica que P () = f () para todo (A). La denicin es buena, porque o si Q C[x] cumple lo mismo que P , entonces, por el Corolario 1.7.2, (P (A) Q(A)) = ( (P Q)(A)) = (P Q)( (A) ) = {0}, y esto, dado que P (A) Q(A) es normal, implica que P (A) = Q(A). Observacin 6.1.2. Sean I R un intervalo, f : I C una funcin y A HI (n). Es fcil o o a ver que, si A es diagonl, es decir A = diag (x) para cierto x I n Rn , entonces f (A) = diag (f (x) ) . Y de esto puede deducirse que, si B HI (n) y U U(n) son tales que B = U diag ((B)) U = f (B) = U diag (f ((B) ) ) U . Otra manera de ver este clculo es la siguiente: Sea (A) = {1 , . . . , k } (sin repeticin). a o Llamemos Si = ker(A i I), y Pi a los proyectores ortogonales sobre Si , para i Ik .

6.1 Clculo funcional a

107

Luego P = {P1 , . . . , Pk } es un sistema de proyectores en H(n) (o sea que son autoadjuntos, ortogonales 2 a 2 y que suman I) que verica que
k k

A=
i=1

i Pi .

Entonces se tiene que

f (A) =
i=1

f (i ) Pi .

(6.1)

Por otra parte, notar que este clculo no est bien denido en matrices que nos son autoadjuna a 0 1 tas (en realidad, si no son normales). Por ejemplo, si A = , entonces los polinomios 0 0 P (t) = t y Q(t) = t2 coinciden en (A) = {0}, pero P (A) = A mientras que Q(A) = 0. Ejercicios 6.1.3. Vericar que el clculo funcional cumple las siguientes propiedades: Sean a I R un intervalo, f, g : I C dos funciones y A HI (n). Entonces 1. (f g)(A) = f (A) g(A) y f g(A) = f (A)g(A). 2. (f (A) ) = {f () : (A)}. Ms an, (f (A) ) = f ((A) ) . a u 3. f (A) siempre es una matrix normal. 4. f (t) R para todo t I si y slo si f (A) H(n) para toda A HI (n). o 5. f (B) 0 para toda B HI (n) si y slo si f (t) 0 para todo t I. o 6. Si U U(n), entonces f (U AU ) = U f (A)U . 7. Si la matriz de A en alguna BON tiene la forma A= B 0 0 C , entonces f (A) = f (B) 0 0 f (C) .

8. Si una sucesin (fm )mN de funciones denidas en I convergen puntualmente a f , o entonces fm (B) f (B) para toda B HI (n).
m

9. Si tiene sentido la composicin h f , entonces g f (A) = h(f (A) ). o Ejemplos 6.1.4. 1. Si f : R R esta dada por f (t) = t1 , entonces f (A) = A1 para toda A Gl (n)+ . + 2. Si A Mn (C)+ , entonces A1/2 = f (A), donde I = R+ , f (t) = t y A1/2 es la unica raiz cuadrada positiva de A denida en la Proposicin 3.1.3. o 3. Si A H(n), entonces eA := exp(A) = Am . m! m=0

4. Si A Gl (n)+ , entonces existe B = log A, que es la unica matriz autoadjunta que verica la frmula eB = A. En efecto, B = log A est bien denida, y cumple que o a eB = A por 9 del Ejercicio 6.1.3. La unicidad se deduce de la frmula (6.1). o

6.1 Clculo funcional a

108

6.1.1

Continuidad del clculo funcional a

Proposicin 6.1.5. Sea I un intervalo y f : I R una funcin. Entonces o o 1. HI (n) es un subconjunto convexo de H(n). 2. Si I es es un intervalo abierto, entonces HI (n) es abierto en H(n). 3. Si > 0 y g : I R es otra funcin tal que o f g
I,

:= sup |f (t) g(t)| : t I < ,

entonces f (A) g(A) < para toda A HI (n). 4. Si f es continua, dada una sucesin (Am )mN en HI (n) tal que Am A HI (n), o
m

se tiene que f (Am ) f (A).


m

Demostracin. o 1. Sean A, B HI (n). Dado [0, 1], el Teorema 5.1.6 asegura que x = A + (1 )B (A) + (1 )(B) = y .

Por lo tanto xi [yn , y1 ] I (porque I es convexo), para todo i In . 2. Sea A HI (n), y sea > 0 tal que (n (A) , 1 (A) + ) I. Si B H(n) y A B < , entonces, para todo x Cn con x = 1, se tiene que Ax, x Bx, x AB x
2

<.

Luego, por el Teorema 2.3.1, deducimos que n (A) < n (B) por lo que (B) I. 3. Notar que (f (A) g(A)) = (f g) (A) y f (A) g(A) = (f (A) g(A) ). 4. Sea (a, b) R un intervalo abierto tal que (A) (a, b) I [a , b ] = J I . Por el item 2, existe m0 N tal que Am H(a,b) (n)HI (n) HJ (n), para todo m m0 . Por el teorema de Weierstrass (en el intervalo cerrado J), dado > 0, existe P C[x] tal que f P J, < . Entonces, por el item 3, si m m0 , f (A) f (Am ) f (A) P (A) + P (A) P (Am ) + P (Am ) f (Am ) < 2 + P (A) P (Am ) 2 ,
m

1 (B) < 1 (A) + ,

porque el resultado es claro para polinomios. Luego f (A) f (Am ) 0.


m

6.1 Clculo funcional a

109

Observacin 6.1.6. El item 1 de la Proposicin 6.1.5 se puede generalizar de la siguiente o o forma: Dado un conjunto abierto V C, el conjunto Mn (C)V = { A Mn (C) : (A) V } es abierto. Ms an, el mismo resultado es cierto cambiando Mn (C) por L(H), para cualquier a u espacio de Hilbert H, an con dimesin innita. La demostracin se deja como ejercicio. u o o Observacin 6.1.7. La nocin de clculo funcional para autoadjuntos que hemos presentado, o o a es una traduccin al caso matricial del clculo funcional continuo para operadores autoadjuntos o a en espacios de Hilbert. Las unicas diferencias en el caso general son: 1. Las funciones a evaluar deben ser continuas. 2. No existen, en general, polinomios que coincidan con una f dada en todo el espectro del operador elegido (o del intervalo I), por lo que se usa el teorema de Weierstrass para denir f (A) (la buena denicin se prueba como en el item 2 de la Proposicin 6.1.5). o o 3. La convergencia util entre funciones no es la puntual, sino la uniforme en compactos (notar que coinciden en conjuntos nitos). Todos los dems resultados y ejercicios presentados en esta seccin (salvo las menciones esa o pec cas de vectores de autovalores, como la Observacin 6.1.2) son ciertos en el caso general, o con las mismas pruebas, luego de adaptarlas m nimamente a operadores en espacios de Hilbert. La unica que necesita ms cuidado es la identidad (f (A)) = f ( (A)), que es fcil para poli a a nomios, pero requiere argumentos especiales para funciones continuas en general. Tambin e son ciertos en general los resultados de las prximas dos secciones, dado que las nociones de o monoton y convexidad de operadores se reducen al caso de matrices (siempre que valga para a matrices de cualquier tamao). n

6.1.2

Diferenciabilidad del clculo funcional a

En la Proposicin 6.1.5 hemos visto que, si I un intervalo y f : I R una funcin continua, o o entonces la aplicacin f : HI (n) H(n) dada por A f (A), A HI (n), es tambin continua. o e 1 En caso de que I sea abierto y que f sea de clase C , veremos que f es diferenciable, y mostraremos cmo calcular sus derivadas direccionales. Sin embargo, como una demostracin o o completa de estos resultados necesita un desarrollo anal tico bastante extenso, solo daremos los enunciados y un esbozo de las demostraciones, dejando ciertos pasos tcnicos sin demostrar. e Para una prueba completa de los resultados de esta seccin, remitimos al Cap o tulo V del libro de Bhatia [3]. Daremos adems un resultado probado por Daleki y Kre [23], [24] (ver tambin [8] o a i n e [3]), el cual provee una herramienta importante para derivar curvas de matrices producidas con el clculo funcinal, que puede interpretarse como una especie de regla de la cadena. a Ms adelante, este resultado nos permitir encontrar una caracterizacin de las denominadas a a o funciones montonas de operadores. Para simplicar su enuciado usaremos el producto de o

6.1 Clculo funcional a

110

Hadamard o de Schur de matrices, el cual ser estudiado con ms detalle en el Cap a a tulo 8. Recordar (de la Seccin 3.5) que, dadas A, B Mn,m (C), se dene el producto de Hadamard o A B como la matriz A B = aij bij iIn Mn,m (C) .
jIm

Denicin 6.1.8. Sea I un intervalo abierto de R y f : I R una funcin de clase C 1 . o o 1. Denotaremos por f [1] a la funcin denida sobre I I dada por o f (y) f (x) si x = y yx [1] . f (x, y) = f (x) si x = y A esta funcin se la denomina primera diferencia dividida de f . o 2. Si D = diag (d1 , . . . , dn ) Mn (C) es una matriz diagonal, llamaremos f [1] (D) = f [1] (di , dj )
i,jIn

Mn (C) .

Notationes: Recordemos que, dada g : U Rn Rm (U abierto), se dice que g es diferenciable en x0 U si existe una matriz Dgx0 Mmn (C) (llamada derivada o diferencial de g en x0 , y que debe tener las derivadas parciales de g en sus columnas) que cumple g(x0 + h) g(x0 ) Dgx0 h h 0 .
h0

(6.2)

En tal caso se tiene que, para todo h Rn , la derivada direccional d g(x0 ) := h dt g(x0 + th) = Dgx0 h .

t=0

Observar que si I es un intervalo abierto, entonces HI (n) es abierto en H(n), que es un R-espacio vectorial que identicaremos con un RM . Luego podemos aplicar las nociones anteriores, pero reemplazando x0 y h por matrices adecuadas. Teorema 6.1.9. Sean I R un intervalo abierto y f : I R una funcin de clase C 1 . o Entonces su extensin f : HI (n) H(n) es diferenciable en todo punto A HI (n). Si o tomamos coordenadas en las que A sea diagonal, se tiene que DfA (H) = f [1] A) H , para todo H H(n) . (6.3)

Es decir que dados B HI (n) y U U(n) tales que A = U BU es diagonal, entonces DfB (H) = U f [1] A U HU U , para todo H H(n) , (6.4)

6.1 Clculo funcional a

111

Demostracin. Mostremos el resultado, en principio, para funciones polinmicas. En este o o m contexto, por linealidad podemos asumir que f (x) = x , para m N {0}. Observar que, en tal caso, f [1] a, b =
m

ak1 bmk para todo a , b R (incluso si a = b). Adems, a d f (A + tH) = dt


m m

k=1

d DfA (H) = dt

(A + tH) =
t=0 k=1

Ak1 HAmk .

t=0

Si ahora usamos que A = diag (a1 , . . . , an ), nos queda lo que quer amos:
m m

DfA (H) =
k=1

k1

HA

mk

=
k=1

ak1 amk Hij i j

= f [1] A) H .
i,jIn

Luego, si f es un polinomio y B HI (n) no es diagonal, uno puede diagonalizar a B con una U U(n), derivar ah y desdiagonalizar. Usando que f (U (B + H)U ) = U f (B + H)U para todo H H(n) pequeo (para que B + H HI (n) ), no es dif ver que n cil DfB (H) = U f [1] U BU ) U HU U , para todo H H(n) . (6.5)

por el mtodo directo de calcular el cociente incremental, como en la Eq. (6.2). En particular, e el trmino de la derecha no depende de la U que diagonalice a B. e Sea ahora f una funcin de clase C 1 en I. Usando el teorema de Weierstrass se puede construir o una sucesin (Pm )mN de polinomios que aproximan uniformemente tanto a f como a f en o cualquier subintervalo cerrado prejado de J. Es fcil ver que Pm [1] A) f [1] A). Fijemos a ahora H H(n) pequeo, y U U(n) tal que A = U BU es diagonal. Llamemos n DfB (H) = U f [1] A) U HU U (para ese U U(n) jo), al cadidato a derivada. Hay que mostrar que el cociente incremental f (B + H) f (B) DfB (H) H 2
2

0 .
H0

(6.6)

Esto probar que f es diferenciable en B, que su derivada DfB (H) = DfB (H) (o sea que a (6.4) es cierta), que su frmula no depende del U elegido, y que se cumple la Eq. (6.3), para o el caso en que B ya era diagonal (tomando U = I). La prueba de (6.6) es una ardua acotacin, de la que slo mostraremos sus ideas principales. o o Se hace intercalando trminos que involucran a los polinomios Pm . En efecto, si uno ja un e > 0, encuentra un m N tal que tres cantidades: f (B + H) f (B) (Pm (B + H) Pm (B) ) Pm (B + H) Pm (B) D(Pm )B (H)
2 2

6.2 Funciones montonas de operadores o

112

DfB (H) D(Pm )B (H)

se pueden hacer menores que H 2 , siempre que H sea chico. Luego uno se olvida del m y queda que el cociente de (6.6) es menor que 3 para un tal H. Observar que la tercera vale a partir de un m para todo H. La primera se puede hacer vlida para todos los m grandes (y a para cualquier H tal que B + H HJ (n) ), por un argumento que depende del teorema del valor medio y de la convergencia de las matrices Pm [1] A) (ms bien de que sean una sucesin a o de Cauchy). Finalmente, la segunda es la que pide H chico, tamao que depende del m, pero n este m se puede elegir de modo que se cumplan las otras dos. Corolario 6.1.10 (Daleki y Kre i n). Sean I, J R dos intervalos abiertos y consideremos un curva de clase C 1 : I HJ (n). Sea f : J R otra funcin de clase C 1 . Entonces o 1. La curva que llamaremos f : I H(n) dada por f (t) = f (t) , v el clculo a a funcional, es tambin de clase C 1 . e 2. Supongamos que (t0 ) = diag (a1 , . . . , an ) para cierto t0 I. Entonces se cumple la siguiente frmula: o (f ) (t0 ) = f [1] (t0 ) (t0 ) . (6.7) Demostracin. La suavidad de f se deduce de la diferenciablidad de f : HJ (n) H(n) o (y de la la suavidad de ). La regla de la cadena y la frmula (6.7) se deducen tambin del o e [1] Teorema 6.1.9, puesto que (f ) (t0 ) = Df(t0 ) (t0 ) = f (t0 ) (t0 ).

6.2

Funciones montonas de operadores o

Denicin 6.2.1. Sea I R un intervalo y f : I R, una funcin. Diremos que f es o o montona de operadores (MOP) si, para todo n N y A, B HI (n), se tiene que o AB = f (A) f (B) .

Notar que, tomando n = 1, se ve que f debe ser montona en el sentido usual. o Ejemplos 6.2.2. 1. Dados a, b R, la funcion f (t) = a + bt es MOP si y slo si b 0. o 2. f (t) = t2 no es montona de operadores (en ningn intervalo I [0, +) con ms de o u a 1 1 2 1 un punto). En efecto, tomando A = yB= , se ve que A B, pero 1 1 1 1 A2 = 2 2 2 2 5 3 3 2 = B2 .

El ejemplo se puede cambiar, de acuerdo al intervalo I, tomando C = aI + A y D = aI + B, para constantes a I y > 0 convenientes. Notar que las entradas 2, 2 de C 2 y D2 siguen coincidiendo.

6.2 Funciones montonas de operadores o

113

3. f (t) = t1 es MOP en I = (0, +). En efecto, si 0 < A B Mn (C)+ , entonces 0 < B 1/2 AB 1/2 I. Luego 1 (B 1/2 AB 1/2 ) 1, o sea n ((B 1/2 AB 1/2 )1 ) 1 = (B 1/2 AB 1/2 )1 = B 1/2 A1 B 1/2 I , por lo que A1 B 1 . Ejercicio 6.2.3. Probar que 1. La suma y la composicin (cuando tenga sentido) de MOPs es MOP. o 2. Dada una matriz M = a b c d M2 (R), con d = 0, denamos la funcin o a + bt , c + dt t= c . d

fM (t) =

Entonces fM es MOP en ( c , +) si y slo si det M 0. Notar que o d fM (t) = det M b + . d cd + d2 t

Por lo tanto, si det M < 0, entonces fM es composicin de MOPs. Pero si fM fuera o MOP y det M > 0, podr deducirse que t 1/t es MOP. a Proposicin 6.2.4. La funcin f (t) = t1/2 es MOP en I = [0, +). o o Demostracin. Sean A, B Mn (C)+ tales que A B. Supongamos, en principio, que B > 0. o Entonces, por la Proposicin 3.5.4, o 1 A1/2 B 1/2
sp

(A1/2 B 1/2 ) = (B 1/4 A1/2 B 1/4 ) = I B 1/4 A1/2 B 1/4 .

Por lo tanto B 1/2 A1/2 . Si B no es inversible, para cada > 0 se toma la matriz B + I > 0. puntualmente Luego A1/2 (B + I)1/2 para todo > 0. Como (t + )1/2 t1/2 = f (t),
0

A1/2 x, x

(B + I)1/2 x, x B 1/2 x, x ,
0

para todo

x Cn .

Deducimos que A1/2 B 1/2 . Ejercicio 6.2.5. Rellenar los detalles de la siguiente prueba alternativa de la Proposicin o 6.2.4, que se basa en un resultado del Cap tulo 9: Suponemos que 0 < A < B. Entonces denimos la funcin o C : [0, 1] Gl (n)+ , dada por C(t) = A + t(B A) , t [0, 1] .

Sea R(t) = C(t)1/2 , t [0, 1]. Entonces R(t)2 = C(t) = R(t)R(t) + R(t)R(t) = C(t) = B A > 0 , t [0, 1] ,

donde el punto denota derivada respecto de t. Por la Observacin 9.1.5, como R(t) > 0 y o C(t) = S(R, R) > 0, entonces, R(t) > 0 para todo t [0, 1]. Luego R es creciente y, en particular, A1/2 = R(0) < R(1) = B 1/2 .

6.2 Funciones montonas de operadores o

114

Teorema 6.2.6. Las funciones f (t) = tr son MOPs en I = [0, +), para todo r [0, 1]. En otras palabras, si 0 A B Mn (C)+ , entonces Ar B r para todo 0 r 1. Demostracin. Supongamos, en principio, que 0 < A B Gl (n)+ y que r es didico, o a m es decir que r = k/2 , para k I2m . En este caso probaremos, por induccin en m, que o Ar B r . En efecto, si m = 1, ya lo sabemos por la Proposicin 6.2.4. o Si suponemos el hecho cierto para todo nmero j/2m , tomemos r = k/2m+1 . Si k 2m , u m entonces k/2 1. Por la hiptesis inductiva y la Proposicin 6.2.4, se tiene que o o Ak/2 B k/2
m m

= Ar = (Ak/2 )1/2 (B k/2 )1/2 = B r .

Si k > 2m , usaremos que B 1 A1 . Por tanto, B r A1 B r B r B 1 B r = B 2r1 . Luego, como k 2m 1, por la hiptesis inductiva tenemos que o 0 < 2r 1 = 2m (A1/2 B r A1/2 )2 = A1/2 B r A1 B r A1/2 A1/2 B 2r1 A1/2 A1/2 A2r1 A1/2 = A2(r1) . Aplicando la Proposicin 6.2.4, deducimos que A1/2 B r A1/2 Ar1 , y por ello B r Ar . o Si r no es didico, tomemos una sucesin de didicos rm r. Como las funciones a o a
m

fm (t) = t

rm

f (t) = t , deducimos que B A , tambin en este caso. e


m

puntualmente

1 1 Finalmente, si A > 0, como (A + m I)r (B + m I)r para todo m N y la funcin t tr es o continua, aplicando la Proposicin 6.1.5 obtenemos que o

Ar = lim A +
m

1 I m

lim B +
m

1 I m

= Br ,

lo que prueba la desigualdad en el caso general. Lema 6.2.7. Sea A Gl (n)+ . Entonces Ah I = log A . h0 h lim Demostracin. Observar que, para todo t (0, +), se verica que o th 1 eh = lim h0 h0 h lim Por lo tanto las funciones fh (t) =
log t

= log t .

th 1 puntualmente g(t) = log t en todo (0, +). Aplicando h0 h el item 8 del Ejercicio 6.1.3, se culmina la prueba. Proposicin 6.2.8. La funcin f (t) = log t es MOP en I = (0, +). En otras palabras, o o + dados A B ambos en Gl (n) , se tiene que log A log B.

6.2 Funciones montonas de operadores o

115

Demostracin. Se deduce del Lema 6.2.7. En efecto, tomando h con valores en (0, 1), por el o Teorema 6.2.6 se tiene que Bh I Ah I lim+ = log B . log A = lim+ h0 h0 h h Para nalizar daremos una caracterizacin de las MOPs en terminos de la primera diferencia o dividida de f , la cual puede interpretarse como anlogo matricial al resultado clsico de clculo a a a que dice que una funcin de una variable real derivable es no-decreciente si y slo si su derivada o o es no-negativa. Teorema 6.2.9. Sea I un intervalo abierto de R, f : I R una funcin de clase C 1 . o Entonces, las siguientes armaciones son equivalente: 1. f es MOP. 2. Para todo n N y toda matriz diagonal D HI (n), se tiene que f [1] (D) Mn (C)+ . Demostracin. 1 2. Sea D = diag (d1 , . . . , dn ) HI (n). Recordemos que por medio o de A B denotamos al producto de Hadamard, i.e., el producto entrada a entrada. Sea En = 1n 1 Mn (C)+ . Respecto a este producto, En se comporta como la identidad. Sea n : (, ) H(n) dada por (t) = D + t En . Observar que para todo t 0 se tiene que D + t En D. Por la Proposicin 6.1.5, (D + t En ) I para valores pequeos de t. Luego, o n para dichos valores de t, tiene sentido hacer f . Ms an, como f es de clase C 1 y es a u suave, podemos derivar la curva f , y por el Teorema 6.1.9 obtenemos d f (D + t En ) dt = DfD (En ) = f [1] (D) (0) = f [1] (D) En = f [1] (D) .
t=0

Usando que En Mn (C)+ y que f es MOP, se tiene que el cociente incremental f (D + t En ) f (D) Mn (C)+ , t para todo t (, ) ,

lo cual se preserva al tomar l mite. Por ende, f [1] (D) Mn (C)+ . 2 1. Sean A, B HI (n) tales que A B, y denamos la curva (t) = (1 t)A + tB, para t [0, 1]. Como HI (n) es convexo (Proposicin 6.1.5), (t) HI (n) para todo t [0, 1]. o Luego, la nueva curva (t) = f ((t) ) est bien denida. El primer paso ser probar que a a + para todo t (0, 1) se tiene que (t) Mn (C) . Para ello, jemos un t (0, 1) cualquiera. Sin prdida de generalidad podemos suponer que (t) es diagonal (sino se conjuga con una e unitaria). Luego, por el Corolario 6.1.10 se tiene que (t) = f [1] ((t) ) (t) = f [1] ((t) ) (B A) Mn (C)+ , donde usamos que A B, que f [1] ((t) ) Mn (C)+ y luego el Teorema 2 de Schur 3.6.2 (producto de positivas es positiva). Ahora bien, jemos x Cn . Por la linealidad de la funcin A Ax, x se tiene que la funcin g(t) = (t)x, x es continua en el [0, 1], derivable o o

6.2 Funciones montonas de operadores o

116

en (0, 1). Ms an, g (t) = (t)x, x para todo t (0, 1). Pero entonces, por lo que acabamos a u de ver, g es creciente en el [0, 1]. En consecuencia f (A)x, x = g(0) g(1) = f (B)x, x . Como x Cn es arbitrario, f (A) f (B), lo cual concluye la demostracin. o Para ilustrar como se utiliza esta caracterizacin para demostrar que una funcin es montona o o o de operadores, probaremos que la funcin f (t) = tan(t) es MOP en el itervalo (, ). Para o ello, necesitaremos un par de lemas previos. Lema 6.2.10. Sea d = (d1 , . . . , dn ) Rn . Entonces la matricz Ke (d) = ei(dj di )
i,jIn

Mn (C)+ .

Demostracin. En efecto, si tomamos E = 1 1 Mn (C)+ (la matriz de cuyas entradas son o todas iguales a 1) y U = diag eid1 , . . . , eidn , entonces Ke (d) = U EU Mn (C)+ . Lema 6.2.11. Sea d = (d1 , . . . , dn ) Rn . Entonces la matriz Ks (d) = sen(dj di ) dj di Mn (C)+ ,
i,jIn sen 0 0

donde, para abreviar notaciones, estamos aceptando la convencin de que o

= 1.

Demostracin. Este lema se deduce del anterior si recordamos la siguiente identidad, la cual o puede testearse a mano muy facilmente: 1 sen a = eiat dt para todo a R (incluso si a = 0) . (6.8) a 2 En efecto, dado x = (x1 , . . . , xn ) C se tiene que Ks (d) x, x = Pero por la formula integral (6.8) y el lema anterior se tiene que sen(dj di ) 2 xi xj = dj di i,j=1
n n n

sen(dj di ) xi xj . dj di i,j=1

ei(dj di )t xi xj dt =
i,j=1

Ke (d) x, x dt 0 .

Proposicin 6.2.12. La funcin f (t) = tan(t) es MOP en I = (/2 , /2). o o Demostracin. Sea D = diag (d1 , . . . , dn ) HI (n) y la matriz de diferencias divididas o tan(dj ) tan(di ) si d = d i j [1] dj di tan (D)ij = . 2 sec (di ) si di = dj Usando la identidad tan(x) tan(y) = tan[1] (D)ij = 1 cos(di ) sen(dj di ) dj di sen(x y) se tiene que cos(x) cos(y) 1 cos(dj ) = sec(D) Ks (d) sec(D) Mn (C)+ ,
i,jIn

por el Lema 6.2.11. Con esta informacin, el Teorema 6.2.9 garantiza que f (t) = tan(t) es o MOP en I = (, ).

6.3 Funciones convexas de operadores

117

6.3

Funciones convexas de operadores

Recordemos que la Proposicin 6.1.5 asegura que, si I R es un intervalo, HI (n) es comvexo. o Denicin 6.3.1. Sea I R un intervalo y f : I R, una funcin. Diremos que f es convexa o o de operadores (OP) si, para todo n N, [0, 1] y A, B HI (n), se tiene f A + (1 )B f (A) + (1 )f (B) . (6.9)

Notar que, tomando n = 1, se ve que f debe ser convexa en el sentido usual. Diremos que f es cncava de operadores (OP) si f es OP. o Observacin 6.3.2. Si f : I R es continua, para vericar que es convexa de operadores, o es suciente probar que A+B f (A) + f (B) f , 2 2 para todo par A, B HI (n) (y todo n N). En efecto, esta condicion implica que f cumple la Eq. (6.9) para todo didico en [0, 1]. Esto se prueba por induccin. Por ejemplo, a o 1 3 A+ B 4 4
A+B 2

=f

+B 2

A+B 2

+ f (B) 2

f (A)+f (B) 2

+ f (B)

1 3 f (A) + f (B) . 4 4

Como f es continua, la Proposicin 6.1.5 dice que (6.9) se cumple para todo [0, 1]. o Ejemplos 6.3.3. 1. Dados a, b R, se tiene que la funcion f (t) = a + bt es OP (y OP). 2. f (t) = t2 s es OP en [0, +). En efecto, dados A, B Mn (C)+ , se tiene que A+B A2 + B 2 2 2
2

1 2 1 A + B 2 AB BA = (A B)2 . 4 4

Como f es continua, esto prueba que es OP. 3. f (t) = t3 no es OP en [0, +). En efecto, una cuenta elemental muestra que, si A= 1 1 1 1 y B= 3 1 1 1 entonces A3 + B 3 A+B 2 2
3

6 1 1 0

que no es positiva. Tampoco puede ser OP en ningn intervalo I [0, +). u

6.3 Funciones convexas de operadores

118

4. f (t) = t1 es OP en I = (0, +). En efecto, si A, B Gl (n)+ , entonces A+B A1 + B 1 2 2


1

(A1 B 1 )(A1 + B 1 )1 (A1 B 1 ) Mn (C)+ . 2

En efecto, esto se deduce de la identidad 2(A + B)1 = A1 (A1 + B 1 )1 B 1 + B 1 (A1 + B 1 )1 A1 . Como f es continua, lo que vimos muestra que es OP. Ejercicio 6.3.4. Probar que 1. La suma y la composicin (cuando tenga sentido) de OPs es OP. o 2. Dada una matriz M = a b c d M2 (R), con d = 0, denamos la funcin o a + bt , c + dt t= c . d

fM (t) =

Entonces fM es OP en I = ( c , +) si y slo si det M 0 . Por otra parte, f es o d OP en I si y slo si f es MOP en I si y slo si det M 0 . o o 3. Sea I R un intervalo tal que 0 I. Sean f (t) = |t| y g(t) = t 0, t I. Entonces f no es OP y g no es OP ni MOP. Denicin 6.3.5. Sean A Mn (C) y P H(n) un proyector con R(P ) = S. Llamaremos o compresin de A a S, al operador o AS : S S Notar que AS = P AP
S

dado por

AS (x) = P A x ,

xS .

pensado en L(S). En coordenadas de una BON de Cn tal que la I 0 matriz de P en esa base sea P = , se tiene que 0 0 P AP = AS 0 0 0 y CP (A) = AS 0 0 AS ,

donde las matrices (grandes) viven, ahora, en Mn (C). Recordemos que, para cada k In , notamos Uk (n) = {U Mn,k (C) : U U = Ik }, es decir, el espacio de isometr de Ck en Cn . as Teorema 6.3.6. Sea I R un intervalo y f : I R, una funcin. Son equivalentes: o 1. f es convexa de operadores.

6.3 Funciones convexas de operadores

119

2. Para todo n N y para todo sistema de proyectores P en H(n), se tiene que f CP (A) CP (f (A) ) para todo A HI (n) .

3. Dados n N, A HI (n) y S Cn un subespacio, se tiene que f (AS ) f (A)S . 4. Dados k, n N tales que k n, A HI (n) y V Uk (n), se verica que f (V AV ) V f (A)V . Demostracin. Antes que nada, observar que CP (A) HI (n) por la Proposicin 5.4.4 (o la o o Eq. (6.10) de abajo) y el hecho de que HI (n) es convexo. De ahi se deduce que, si dim S = k, entonces AS HI (k) y tiene sentido calcular f (AS ), incluso si 0 I. / 1 2. Como otras veces, por la Eq. (5.8), podemos suponer (s.p.g.) que trabajamos con un solo proyector P H(n). Observar que, dado A HI (n), se tiene que CP (A) = A + U AU , 2 con U = 2P I U(n) . (6.10)

Por lo tanto, si asumimos que f es OP, entonces f CP (A) f (A) + f (U AU ) f (A) + U f (A)U = = CP f (A) . 2 2

2 3. Basta mirar los bloques 1, 1 de la desigualdad f CPS (A) CPS f (A) . 3 4. Llamemos S = R(V ) Cn y P = PS . Entonces se tiene que V AV = V (P AP )V . Por lo tanto, si denotamos V0 : Ck S, al mismo V correstringido a su imagen, tenemos que a V0 es unitario y que V AV = V0 AS V0 HI (k). Adems f (V AV ) = f (V0 AS V0 ) = V0 f (AS )V0 por lo que f (V AV ) V f (A)V f (AS ) f (A)S . 4 1. Dados A, B HI (n), consideremos el operador T = [0, 1], sean = 1 y V = 2 In 1 2 In
1

V f (A)V = V0 f (A)S V0 ,

A 0 0 B

HI (2n). Dado

Un (2n). Una cuenta directa pueba que V f (T )V = f (A) + f (B) ,

V T V = A + B usando que f (T ) =

y que

f (A) 0 . Por todo ello, si f cumple 4, se tiene que 0 f (B)

f A + B = f (V T V ) V f (T )V = f (A) + f (B). Corolario 6.3.7. Sean A Gl (n)+ y P H(n), un proyector. Entonces

6.3 Funciones convexas de operadores

120

1. CP (A) Gl (n)+ y CP (A)1 CP (A1 ). 2. Si S = R(P ) entonces, AS 1 (A1 )S . Es decir que, pensados como operadores en L(S), se tiene que (P AP )1 P A1 P. (6.11) Demostracin. Se deduce de que Gl (n)+ = H(0,+) (n) y del Teorema 6.3.6, dado que t t1 o es OP en (0, +), como se ha observado en el Ejemplo 6.3.3.4. Observacin 6.3.8. Una versin ms detallada de la desigualdad (6.11) se deduce de la teor o o a a de complementos de Schur. En la Proposicin 3.8.7 vimos que, si S = R(P ), o A= a b b c S , = (A1 )S 1 = (P A1 P )1 = a bc1 b . S

En particular, tambin as se muestra que (P A1 P )1 a = AS . e Proposicin 6.3.9. Sea I R un intervalo tal que 0 I y sea f : I R, una funcin. o o Entonces son equivalentes: 1. f es convexa de operadores y f (0) 0. 2. Dados n N, A HI (n) y P H(n), un proyector, se cumple que f (P AP ) P f (A)P , pensados como matrices en Mn (C). Demostracin. Como 0 I, es fcil ver que P AP HI (n). Sea S = R(P ). Entonces, en o a I 0 coordenadas de una BON de Cn tal que P = , se tiene que 0 0 P AP = AS 0 0 0 = f (P AP ) = f (AS ) 0 0 f (0)IS .

Por otra parte, en la misma BON, P f (A)P = f (A)S 0 0 0 .

Por lo tanto, las condiciones 1 y 2 son equivalentes, por serlo 1 y 3 del Teorema 6.3.6 (es decir, que f (AS ) f (A)S para todo el mundo, equivale a que f sea OP). Ejercicio 6.3.10. Sea I R un intervalo tal que 0 I y sea f : I R, una funcin. Entonces o son equivalentes: 1. f es convexa de operadores y f (0) 0.

6.3 Funciones convexas de operadores

121

2. Dados n N, A HI (n), se cumple que f (C AC) C f (A)C. para todo C Mn (C) tal que C 1. 3. Dados n N, A, B HI (n) y C, D Mn (C) tales que C C + D D I, se verica f (C AC) + f (D BD) C f (A)C + D f (B)D. Se sugiere usar las matrices unitarias construidas en 3.7.9. Corolario 6.3.11. La funcin f (t) = tr es OP en I = [0, +), para todo r [1, 2]. o Demostracin. Como f (0) = 0, por la Proposicin 6.3.9, bastar probar que o o a (P AP )r P Ar P , n N , A Mn (C)+ y P un proyector en H(n) .

En efecto, como 0 P I, tenemos que 0 A1/2 P A1/2 A. Sea g(t) = tr1 . Por el Teorema 6.2.6, g es MOP (porque 0 r 1 1). Luego (A1/2 P A1/2 )r1 Ar1 , por lo que P A1/2 A1/2 P A1/2
r1

A1/2 P P A1/2 Ar1 A1/2 P = P Ar P .

Finalmente, observar que para todo k N {0} se tiene que P A1/2 A1/2 P A1/2 A1/2 P = (P AP )k+1 . Por lo tanto, para todo polinomio Q C[x] vale la igualdad P A1/2 Q A1/2 P A1/2 A1/2 P = Q(P AP ) P AP . , De ah deducimos que una igualdad similar valdr para toda f : [0, +) R (eligiendo un a Q C[x] que coincida con f en A1/2 P A1/2 = (P AP ) ). En particular, P Ar P P A1/2 A1/2 P A1/2
r1 k

A1/2 P = (P AP )r .

Proposicin 6.3.12. Sea f : [0, +) [0, +) una funcin continua. Entonces se tiene o o que f es MOP si y slo si f es OP ( i.e., f es OP ). o Demostracin. Supongamos que f es MOP, y sea S Cn un subespacio. Notemos P = PS . o Como f (0) 0 por hiptesis, usando la Proposicin 6.3.9 bastar probar que o o a P f (A)P f (P AP ) , para toda A Mn (C)+ ,

ya que, en tal caso, podr amos deducir que f es OP. Para hacerlo, llamemos Q = I P y P Q A 0 tomemos las matrices U = U(2n) y T = M2n (C)+ . Como se vi en o Q P 0 0 3.7.10, para todo > 0 existe > 0 tal que UT U = UT U = P AP P AQ QAP QAQ P AP + I 0 0 I .

6.3 Funciones convexas de operadores

122

Como f (0) 0, se tiene que T =

f (A) 0 0 0 T por T y usando que f es MOP, obtenemos que P f (A)P P f (A)Q Qf (A)P Qf (A)Q

f (A) 0 0 f (0)I

= f (T ) . Reemplazando

= U T U U f (T )U = f (U T U )

f (P AP + I) 0 0 f ()I

En particular, se cumple que P f (A)P f (P AP + I) para todo > 0. Como f es continua, por la Proposicin 6.1.5 se tiene que P f (A)P f (P AP ), como necesitbamos. o a Para probar la rec proca, tomemos A B ambos en Mn (C)+ . Dado (0, 1), podemos escribir B = A + (1 ) (B A) . 1

Si f es cncava (y con valores positivos), esto nos da que o f (B) f (A) + (1 )f (B A) f (A) , 1 para todo (0, 1) .

Tomando 1 , del hecho de que f es continua podemos deducir que f (B) f (A). Corolario 6.3.13. Sea f (t) = tr , denida en I = [0, +). Si r > 1, f no es MOP. Demostracin. Si lo fuera, deber ser OP. Pero, como funcin escalar, es convexa. o a o Corolario 6.3.14. 1. Las funciones t tr , para r (0, 1), son OP en [0, +). 2. f (t) = log t es OP en (0, +). Demostracin. La primera parte se deduce de los Teoremas 6.2.6 y 6.3.12. Para probar la o concavidad de operadores del logaritmo, jemos un subespacio S de Cn . Dada A Gl (n)+ , por lo anterior sabemos que (Ar )S (AS )r , Luego, por el Lema 6.2.7, log(AS ) = (AS )r IS r0 r r A In = lim + r0 r lim + lim + (Ar )S IS r r (0, 1) .

r0

= (log A)S .
S

Por el Teorema 6.3.6, deducimos que log es OP.

6.4 Ejercicios

123

Observacin 6.3.15. El Teorema 6.3.6 da un criterio heur o stico para dilucidar qu funciones e crecientes pueden ser MOPs: por lo menos deber ser cncavas de nmeros. Esto es coheran o u ente con los ejemplos: tr para r 1, t1 , log t son todas cncavas. o Sin embargo hay que tener mucho cuidado. Porque el Teorema 6.3.6 pide que la f , adems a de tomar valores positivos, debe estar denida en toda la semirrecta [0, +), incluido el cero, y hasta el innito. Esto se ve claramente mirando bien la prueba, porque uno hace tender a cero, por lo que se va a innito, y uno necesita poder tomar f (). Y para demostrar la implicacin MOP = OP, se usa tambin que exista f (0). (ejercicio: probar OP = o e MOP para f no denida en 0. Ojo con B A). Por ello el Teorema no se puede aplicar directamente a los ejemplos t1 y log t (para ver que log t es OP hizo falta el razonamiento de recin, pasando por tr ). e Pero la cosa es ms grave si el dominio de f se termina antes del innito. Ah el criterio a heur stico (que los autores difund amos muy conados hasta que fuimos despabilados por unos alumnos despiertos) es directamente errneo. Para convencerse, basta recordar (de la o Proposicin 6.2.12) que la funcin f : [0, /2) [0, +) dada por f (t) = tan t es MOP, o o siendo a la vez convexa como funcin numrica en esa mitad de su dominio. o e

6.4

Ejercicios

Ejercicios que aparecen en el texto


6.4.1. Vericar que el clculo funcional cumple las siguientes propiedades: Sean I R un a intervalo, f, g : I C dos funciones y A HI (n). Entonces 1. (f g)(A) = f (A) g(A) y f g(A) = f (A)g(A). 2. (f (A) ) = {f () : (A)}. Ms an, (f (A) ) = f ((A) ) . a u 3. f (A) siempre es una matrix normal. 4. f (t) R para todo t I si y slo si f (A) H(n) para toda A HI (n). o 5. f (B) 0 para toda B HI (n) si y slo si f (t) 0 para todo t I. o 6. Si U U(n), entonces f (U AU ) = U f (A)U . 7. Si la matriz de A en alguna BON tiene la forma A= B 0 0 C , entonces f (A) = f (B) 0 0 f (C) .

8. Si una sucesin (fm )mN de funciones denidas en I convergen puntualmente a f , o entonces fm (B) f (B) para toda B HI (n).
m

9. Si tiene sentido la composicin h f , entonces g f (A) = h(f (A) ). o

6.4 Ejercicios

124

6.4.2. Probar las siguientes armaciones. 1. Si f : R R esta dada por f (t) = t1 , entonces f (A) = A1 para toda A Gl (n)+ . + 2. Si A Mn (C)+ , entonces A1/2 = f (A), donde I = R+ , f (t) = t y A1/2 es la unica raiz cuadrada positiva de A denida en la Proposicin 3.1.3. o 3. Si A H(n), entonces e := exp(A) =
A

Am . m! m=0

4. Si A Gl (n)+ , entonces existe B = log A, que es la unica matriz autoadjunta que B verica la frmula e = A. o 6.4.3. Completar los detalles de la demostracin del Teorema 6.1.9. En particular, con las o notaciones de all mostrar que dado > 0, existe m0 N tal que, para todo m m0 , , f (B + H) f (B) (Pm (B + H) Pm (B) )
2

para todo H H(n) tal que B + H HJ (n) . Se sugiere acotar el incremento de la funcin o Pk Pm usando su diferencial en un punto intermedio del segmento entre B y B + H, y que esas diferenciales convergen uniformemente a cero. 6.4.4. Probar que 1. La suma y la composicin (cuando tenga sentido) de MOPs es MOP. o 2. Dada una matriz M = a b c d M2 (R), con d = 0, denamos la funcin o a + bt , c + dt t= c . d

fM (t) =

Entonces fM es MOP en ( c , +) si y slo si det M 0. o d 6.4.5. Sea : [a, b] H(n) una curva suave tal que (t) Mn (C)+ para todo t (a, b). Probar que es creciente, en el sentido de que t s = (t) (s), en el orden de H(n). En particular, deducir que (a) (b). Se suguiere chusmear el Teorema 6.2.9. 6.4.6. Rellenar los detalles de la siguiente prueba alternativa de la Proposicin 6.2.4: o Supongamos que A < B, ambos en Gl (n)+ . Entonces denimos la funcin o C : [0, 1] Gl (n)+ , dada por C(t) = A + t(B A) , t [0, 1] .

Sea R(t) = C(t)1/2 , t [0, 1]. Entonces R(t)2 = C(t) = R(t)R(t) + R(t)R(t) = C(t) = B A > 0 , t [0, 1] ,

donde el punto denota derivada respecto de t. Por la Observacin 9.1.5, como R(t) > 0 y o C(t) = S(R, R) > 0, entonces, R(t) > 0 para todo t [0, 1]. Luego R es creciente y, en particular, A1/2 = R(0) < R(1) = B 1/2 .

6.4 Ejercicios

125

6.4.7. Probar que 1. La suma y la composicin (cuando tenga sentido) de OPs es OP. o 2. Dada una matriz M = a b c d M2 (R), con d = 0, denamos la funcin o a + bt , c + dt t= c . d

fM (t) =

Entonces fM es OP en I = ( c , +) si y slo si det M 0 . Por otra parte, f es o d OP en I si y slo si f es MOP en I si y slo si det M 0 . o o 3. Sea I R un intervalo tal que 0 I. Sean f (t) = |t| y g(t) = t 0, t I. Entonces f no es OP y g no es OP ni MOP. 6.4.8. Sea I R un intervalo tal que 0 I y sea f : I R, una funcin. Entonces son o equivalentes: 1. f es convexa de operadores y f (0) 0. 2. Dados n N, A HI (n), se cumple que f (C AC) C f (A)C. para todo C Mn (C) tal que C 1. 3. Dados n N, A, B HI (n) y C, D Mn (C) tales que C C + D D I, se verica f (C AC) + f (D BD) C f (A)C + D f (B)D. Se sugiere usar las matrices unitarias construidas en 3.7.9. (6.12)

Ejercicios nuevos
6.4.9. Mostrar que todas las denciones y propiedades del clculo funcional no necesitan que a el dominio de f sea un intervalo. En particular, vericar que si U R es abierto, entonces 1. HU (n) := {A H(n) : (A) U } es abierto en H(n). 2. Si f : U R es C 1 , su extensin f : HU (n) H(n) es diferenciable. o 3. El Teorema 6.1.9 y el Corolario 6.1.10 siguen siendo vlidos en este contexto. a 6.4.10. Sea A H(n) y sea : (1, 1) H(n) una curva C 1 tal que (0) = A. Sea (A) una raiz simple de PA (x), y sea x0 ker(A I) un autovector unitario. Probar que existe un > 0 y una curva suave x : (, ) Cn tal que

6.4 Ejercicios

126

1. x(0) = x0 . 2. x(t) es autovector de (t) para todo t (, ). 3. La funcin (, ) o t (t), que da el autovalor asociado a cada x(t), es suave.

4. Todos los (t) son autovectores simples de (t). Mostrar, adems, que x(0) d ( , (A) \ {} )1 (0) x0 . a Sugerencia: Tomar un abierto U (A) que separe a del resto de (A), y denir all la funcin f que vale uno cerca de y cero en el resto de U . Tomar g(t) = f ((t) ), para los o t (, ) tales que (t) HU (n), observar que cada g(t) es un proyector autoadjunto de rango uno (por el Corolario 2.3.8) y usar la Eq. (6.1) para ver qu proyector es. Denir e entonces x(t) = g(t) x0 . Para obtener (t), buscar una coordenada no nula de x0 y dividir ah (o tomar (t) = tr g(t)(t) ). Para acotar la norma, diagonalizar adecuadamente a A y luego usar el Corolario 6.1.10. 6.4.11. Sean U (t) = cos t sen |t| 1 + t2 0 y A(t) = U (t) U (t) para t R. sen |t| cos t 0 1 t2 Mostrar que la curva A(t) es suave cerca de 0, pero como A(0) = I tiene multiplicidades, no hay curvas suaves x(t) a valores en Rn que cumplan lo mismo que en el ejercicio anterior. Ojo: La curva x(t) = U (t)e1 no es suave, pero hay que ver que no puede haber otra suave. 6.4.12. Sea I R un intervalo tal que 0 I y sea f : I R, una funcin tal que f (0) 0. o Entonces son equivalentes: 1. f es convexa (a secas, no pedimos OP). 2. Dados n N y A HI (n), se cumple que f (C AC) para todo C Mn (C) tal que C
sp w

C f (A)C.

1. Comparar con la Eq. (6.12). Ax, x f (A)x, x para todo vector

Sugerencia: Probar que si f es convexa entonces f unitario x y toda matriz A HI (n).

6.4.13. Sea I R un intervalo tal que 0 I y sea f : I R, una funcin convexa creciente o tal que f (0) 0. Dados n N y A HI (n), probar que para todo i In se verica que i (f (C AC) ) i (C f (A)C) . donde C Mn (C) es una contraccin. Dar un contraejemplo si la funcin no es creciente. o o Sugerencia: Usar minimax. 6.4.14. Sea C Mn (C) una contraccin y A Mn (C)+ . Demostrar que dados r, s R tales o r 1/r que 1 r s, entonces (C A C) (C As C)1/s .

6.4 Ejercicios

127

6.4.15. Sea A, B Mn (C)+ , r (1, +) y [0, 1]. Probar que (Ar + B r ) r 1 r A + (1 )1 r B . Sugerencia: Analizar separadamente los casos = 0 o 1 y (0, 1). Usar que t t r es tanto MOP como OP. Si no sale, chusmear el Lema 9.5.3. 6.4.16. Sean A, B Mn (C)+ . Probar que la funcin o [1 , +) p Ap + B p 2
1 p 1 1 1 1

es creciente, relativa al orden de Mn (C)+ . Sugerencia: Dados r, q [1 , +) tales que r < q, aplicar el ejercicio anterior para los nmeros u 1 o r = q > 1 y = 2 . Si no sale, chusmear la Proposicin 9.5.6. r

Cap tulo 7 Productos tensoriales y alternados


7.1 Producto tensorial de a dos

Comenzaremos jando ciertas convenciones de notacin adecuadas para esta teor o a: 1. Para cada n N, llamaremos Hn = Cn con el producto interno usual. Denotaremos por (n) (n) e1 , . . . , en a los vectores de la base cannica de Hn . o 2. Llamaremos Hn Hk al espacio de funcionales F : Hn Hk C bilineales (i.e., lineales en cada coordenada), pensado como C-espacio vectorial de la forma natural. 3. Dada F Hn Hk , le asociamos la matriz F = F (ei , ej ) Mn,k (C). Luego
n k (n) (k)

F (x, y) =
i=1 j=1

xi yj Fij = xT F y ,

x Hn , y Hk .

Esto muestra que podemos identicar naturalmente Hn Hk con Mn,k (C). 4. Esto permite, ademas, denir el producto interno natural en Hn Hk . Dadas F, G Hn Hk , las identicamos con sus matrices en Mn,k (C), denimos F, G = tr G F =
(i,j)In Ik

Fij Gij .

(7.1)

5. Dados x Hn e y Hk , notaremos por x y Hn Hk , al llamado tensor elemental, dado por x y(u, v) = u, x v, y , u Hn , v Hk . (7.2) Observar que u, x v, y = xT u y T v = uT xy T v. Por lo tanto, la matriz de x y es xy T Mn,k (C) . Por lo tanto, no toda F Hn Hk es elemental, pero s sucede que toda F es suma de tensores elementales, porque las matrices del tipo xy T son todas las de rango uno. Observar que la aplicacin o Hn Hk (x, y) x y Hn Hk

7.1 Producto tensorial de a dos

129

es bilineal. Adems, a partir de la Eq. (7.1), vemos la frmula a o x y , u v = tr (uv T ) xy T = tr u x y T v = x, u y, v , para x, u Hn , y, v Hk . 6. Se puede deducir que el conjunto En,k = {ei
(n)

(7.3)

ej : i In , j Ik } {Eij Mn,k (C) : i In , j Ik }

(k)

es una base ortonormal de Hn Hk , que llamaremos base cannica. La consideraremos o ordenada alfabticamente (leyndola por f ilas). e e 7. Dados A L(Hn ) y B L(Hk ), podemos denir el operador A B L(Hn Hk ), a travs de la frmula A B(F ) = AF B T , para F Hn Hk , pensado como una matriz e o en Mn,k (C). En particular, A B(x y) Axy T B T = (Ax) (By)T Ax By , x Hn , y Hk .

Observar que esta ecuacin no dene a A B en todos los elementos de Hn Hk , pero o s lo caracteriza completamente (por ser lineal). 8. El producto tensorial de matrices verica las siguientes propiedades: (a) Sean In Mn (C) y Ik Mk (C). Entonces In Ik es la identidad de Hn Hk . (b) (A1 + A2 ) B = (A1 B) + A2 B, para todo C. (c) (A B) = A B . (d) (A1 B1 )(A2 B2 ) = A1 A2 B1 B2 . (e) Si existen A1 y B 1 , entonces A1 B 1 = (A B)1 . En particular, si A U(n) y B U(k), entonces A B U(nk). (f) A B 0 si A 0 y B 0. Ms an, |A B| = |A| |B|. Se usa el Teorema a u 3.1.3 y la unicidad de la raiz cuadrada positiva. Observacin 7.1.1. Dados A L(Hn ) y B L(Hk ), la matriz de A B en la base cannica o o de Hn Hk (ordenada por las) es el llamado producto de Kronecker de A y B que se dene como la matriz por bloques a11 B . . . a1n B . .. . M (C) . . . AB = (7.4) . nk . . an1 B . . . ann B La vericacin es sumamente tediosa, pero podemos dar un esbozo: La base canonica de o Hn Hk se ordena as : e1 e1 , . . . , e1 ek , e2 e1 , . . . , e2 ek , . . . . . . , e(n) e1 , . . . , e(n) ek . n n
(n) (k) (n) (k) (n) (k) (n) (k) (k) (k)

7.2 Potencias tensoriales

130

Luego, el vector ei er se ubica en el lugar k(i 1) + r de la base cannica. Fijemos un par o i, j In . Como el bloque de k k ubicado en el jugar (i, j) involucra las las entre k(i 1) + 1 y ki, y a las columnas k(j 1) + 1 y kj, se escribe A B(ej e(k) ) , ei s como se armaba. Proposicin 7.1.2. Sean A Mn (C) y B Mm (C). Si los autovalores de A son la n-upla o {1 , ..., n }, y los de B son {1 , ..., m }, entonces los autovalores de A B son { (i,j) }(i,j)In Im , todos contados con multiplicidad. Demostracin. Aplicando el Teorema 1 de Schur 1.6.1, si A = U T1 U y B = V T2 V , con U, V o unitarias y T1 , T2 triangulares superiores, entonces A B = U V T1 T2 (U V ) , por lo que (A B) = (T1 T2 ) (con multiplicidades). Por la representacin matricial de o T1 T2 como producto de Kronecker (que queda tambin triangular superior, pero con los e productos i j en su diagonal), se obtiene la igualdad anunciada. Corolario 7.1.3. Sean A Mn (C) y B Mm (C). 1. A B
sp (n) (n)

(n)

(k)

e(k) r

=
r,sIk

Aej , ei

(n)

(n)

Be(k) , e(k) s r

r,sIk

= aij B ,

donde

(i,j) = i j ,

= A

sp

sp

2. Ms an, los valores singulares de A B son a u s(A B) = { si (A)sj (B) }(i,j)In Im contados con multiplicidad, y ordenados en forma decreciente. Demostracin. Se sigue de que |A B| = |A| |B| y de la Proposicin 7.1.2. o o

7.2

Potencias tensoriales

Una cuenta muy engorrosa, aunque elemental, muestra que se tiene un isomorsmo natural entre (Hn Hk ) Hr y Hn (Hk Hr ), identicando a ambos con las funciones trilineales en Hn Hk Hr . La clave es observar que, dados x Hn , y Hk y z Hr , a los tensores elementales (x y) z & x (y z) se los puede identicar con la misma funcional trilineal, por una frmula semejante a (7.2). Es decir, que el producto tensorial es asociativo. o Esto permite denir productos de varios espacios, sin necesidad de aclarar el orden en que se los dene. Lamentablemente, en ese contexto se pierde la representacin de las funciones o multilineales como matrices, a menos que se quiera pensar en matrices de muchas dimensiones. Usaremos particularmente la asociatividad para denir potencias, en el sentido tensorial, de un mismo espacio Hn , y de operadores en Hn . Damos, a continuacin, el listado de notaciones o y resultados que se siguen naturalmente (y que se prueban planarmente por induccin usando o lo anterior y la asociatividad):

7.2 Potencias tensoriales

131

7.2.1. Sean n, k N. 1. Notaremos k Hn , llamado espacio k-tensorial sobre Hn , al producto tensorial de Hn k por s mismo k veces. Los elementos de Hn se pueden pensar como funcionales k k-multilineales F : Hn C. 2. Dados x1 , , xk Hn , se dene el k-tensor elemental x1 x2 xk por la frmula o
k

x1 xk (u1 , , uk ) =
i=1

ui , x i ,

(u1 , , uk ) Hk . n

(7.5)

Luego todo elemento de

Hn es suma de k-tensores elementales.

3. El producto interno sobre k Hn , denido inductivamente en todo par de elementos de k Hn , est determinado por el producto de k-tensores: a
k

x1 x2 xk , y1 y2 yk =
i=1

x i , yi ,

(7.6)

para x1 , . . . , xk , y1 , . . . , yk Hn .
k

4. La aplicacin o

Hk n

(x1 , . . . , xk ) x1 xk
k

Hn es k-multilineal.

5. La base cannica ortonormal de o

Hn es, por denicin, o

(n) e(n) e(n) ek : = (1 , 2 , , k ) Ik . 1 2 n

Luego dim

Hn = nk .
k

7.2.2. Todo operador A : Hm Hn induce un operador de llamado potencia k-tensorial de A, determinado por la frmula o
k

A :

Hm

Hn ,

A (x1 x2 xk ) = Ax1 Ax2 Axk , para x1 , . . . , xk Hm . Se tienen las siguientes propiedades: a. Dados A L(Hm , Hn ) y B L(Hn , Hr ),
k k k

(7.7)

(AB) = b. (
k

B.

(7.8)

A) =

A .
k

c. Si A Gl (n), entonces U(n).

A1 = (

A)1 . En particular

A es unitaria si A

7.3 Productos alternados y determinantes

132

d. Si A Mn (C)+ , entonces k A = (k C) k C.

A 0, porque A = C C para algn C Mn (C), y u


k

e. Ms generalmente, si A Mn (C), se tiene que | a

A| =

|A|.
k

f. Si los autovalores de A son 1 , . . . , n , los autovalores (resp. valores singulares) de son


k k

ij : (i1 , . . . , ik )
j=1

Ik n

resp.
j=1

sij (A) : (i1 , . . . , ik ) Ik n

contados con multiplicidad. En particular se tiene que


k k

A = (A)

sp

= A

k sp

7.3

Productos alternados y determinantes

Sea Sk el grupo simtrico de grado k, esto es el grupo de todas la permutaciones de Ik . Cada e (n) Sk da lugar a un operador linear P U( k Hn ), por la siguiente frmula: Si pensamos o k k a los elementos de Hn como funcionales k- multilineales F : Hn C, se dene
(n) P (F ) (x1 , x2 , , xk ) = F (x(1) , x(2) , , x(k) ) ,

(x1 , x2 , , xk ) Hk . n

(7.9)

Dados x1 , . . . , xk Hn , es fcil ver, usando la frmula (7.5), que a o


(n) P (x1 x2 xk ) = x1 (1) x1 (2) x1 (k) . (n)

(7.10)

Observacin 7.3.1. El hecho de que P sea unitario se puede probar mostrando primero o (n) (n) que (P ) = P1 (esto puede hacerse usando solo los k-tensores elementales). Despues, ah (n) (n) 1 si por denicin, se ve que P1 = (P ) . o Deniremos a continuacin las nociones bsicas de productos alternados o a Denicin 7.3.2. Sea n N y k In . Llamaremos espacio k-alternado (o k-simo Grasso e k mann) sobre Hn , al subespacio de Hn dado por
k

k Hn =

(n) Hn : P F = sgn() F

para toda

Sk

donde sgn() = 1 de acuerdo a si es una permutacin par o impar. Los elementos de o k k Hn se llaman k-tensores alternados. Se considera a Hn como un espacio de Hilbert con el producto interno de k Hn .

7.3 Productos alternados y determinantes

133

Observacin 7.3.3. Notaremos por Pn a la proyeccin ortogonal de o o k n fcil ver que Pk est dada por la frmula a a o Pn = k
(n)

Hn sobre k Hn . Es

1 k!

(n) sgn() P . Sk (n) (n) (n)

(7.11)

En efecto, como cada P U( k Hn ), entonces (P ) = (P )1 = P1 . Por lo tanto (Pn ) = Pn , ya que al adjuntarlo tan solo se reordena la suma (se usa sgn( 1 ) = sgn() ). k k Por otro lado, como para todo par , Sk se tiene que sgn() = sgn() sgn() y
(n) (n) (n) P = P P ,

podemos deducir que R(Pn ) k Hn . Finalmente, es claro, a partir de la denicin de k Hn , o k n k que Pk (F ) = F para toda F Hn . Denicin 7.3.4. Dados x1 , . . . , xk Hn , se dene el k-tensor alternado elemental : o x1 x2 xk := Pn (x1 x2 . . . xk ) = k 1 k! sgn() x(1) x(2) x(k) ,
Sk

tambin llamado producto alternado de la k-upla ordenada x1 , x2 . . . , xk . e Observacin 7.3.5. Enumeraremos aqu algunas propiedades de los k-tensores elementales: o
k 1. Notar que, como k Hn = Pn Hn , y los k-tensores elementales generan k podemos asegurar que los k-tensores alternados elementales generan k Hn . k

Hn ,

2. Usando el tem 5 de 7.2.1 y el hecho de que Pn es lineal, podemos deducir que la k aplicacin (x1 , . . . , xk ) x1 xk es k-multilineal. o 3. Por otra parte, dados x1 , x2 . . . , xk Hn y Sk , se sigue de las deniciones que x(1) x(2) x(k) = sgn() x1 x2 xk . (7.12)

En resumen, (x1 , . . . , xk ) x1 xk es una aplicacin k-multilineal alternada. o 4. De la frmula (7.12) puede deducirse que, si existen xi = xj con i = j, entonces x1 o xk = 0 (usando la transposicin = (i, j) Sk , cuyo sgn( ) = 1). o 5. Ms an, esto implica que si el conjunto {x1 , . . . , xk } es linealmente dependiente, su a u produco alternado debe ser nulo. xEsto se usar en la subseccin siguiente. a o

Productos alternados y el determinante


En los cap tulos anteriores se hizo uso libre de la funcin determinante o Mn (C) A det A C ,

7.3 Productos alternados y determinantes

134

y de sus conocidas propiedades. Dar una exposicin completa y formal de dichos resultados o es algo que uno siempre trata de evitar, porque es un asunto complicado y poco amigable. Sin embargo, con la teor de productos alternados a mano, esto est bastante cerca, por lo que a a trataremos de dar las dos deniciones usuales, mostrar su equivalencia, y dar pruebas de sus propiedades ms importantes. Por lo tanto, en esta seccin supondremos que nos olvidamos lo a o que sabemos (y hemos usado) al respecto. Empecemos por una de las deniciones. Asumimos conocida cierta teor bsica de grupos de permutaciones, como hemos hecho hasta ahora. a a Denicin 7.3.6. Sea A = (aij )i,jIn Mn (C). Denimos su determinante por la frmula o o
n

det A =
Sn

sgn()
j=1

aj,(j) C .

(7.13)

Con la misma frmula se dene el determinante de matrices a coecientes en cualquier anillo o (como en C[X], lo que se usa para denir el polinomio caracter stico de una matriz). 7.3.7. A continuacin enumeraremos una serie de propiedades que se siguen fcilmente de o a esta denicin del determinante. Las pruebas que no estn escritas deben considerarse como o e ejercicios: Sea A Mn (C). 1. det AT = det A y det A = det A. Ac se usa solamente que sgn( 1 ) = sgn(). a
n

2. det I = 1, ya que el sumando


j=1

Ij,(j) = 0 para toda = Id.

3. Si todas las diagonales de A tienen algn cero (en el sentido de la Denicin 4.3.2), u o entonces det A = 0. Por ejemplo (usando el Teorema 4.3.3) esto sucede si existe una submatriz nula de tamao k r con k + r > n. n 4. En particular, si exite alguna Fi (A) = 0 (o bien una columna), entonces det A = 0. 5. Dada Sn y P UP (n) su matriz de permutacin asociada, entonces se tiene que o det P = sgn(). Esto sale por que la unica diagonal sin ceros de P es la producida por la misma , como se ve en la Eq. (4.4). 6. Si T T S(n), entonces det T =
iIn

Tii . Esto se ha usado sistemticamente en los a

cap tulos anteriores, y se lo justic desarrollando por la primera columna. Eso no o es incorrecto (ver el Ejercicio 7.5.11 o la Eq. (12.13) ), pero sale ms directo con la a Denicin 7.3.6, porque la unica diagonal sin ceros de T (si es que hay una) es la o producida por = Id. 7. La funcin Mn (C) A det A C es continua (ms an, es de clase C ), debido a o a u que es un polinomio de grado n en los coecientes de A.

7.3 Productos alternados y determinantes

135

Para dar la segunda denicin y probar las principales propiedades del determinante, necesio tamos desarrollar un poco la teor de productos alternados. La relacin clave entre estos y a o la frmula (7.13) para el determinante es lo siguiente: o Proposicin 7.3.8. Sean x1 , . . . , xk , y1 , . . . , yk Hn . Entonces o x 1 x 2 x k , y1 y 2 y k = 1 det k! x i , yj
i,jIk

(7.14)

Demostracin. Es consecuencia de las ecuaciones (7.6) y (7.11), v la Denicin 7.3.6 para o a o el determinante. En efecto, si D x1 xk , y1 yk , entonces D = Pn x1 xk , Pn y1 yk = x1 xk , Pn y1 yk k k k 1 = sgn() x1 xk , y(1) y(k) k! S
k

1 sgn() = k! S
k

xi , y(i) =
i=1

1 det k!

x i , yj

i,jIk

donde la segunda igualdad surge de que Pn es un proyector autoadjunto. k

Potencia alternada de una matriz


Observacin 7.3.9. Por las ecuaciones (7.7) y (7.10), si A L(Hm , Hn ), su k-potencia o (n) (m) tensorial mezcla P y P en el siguiente sentido:
k (n) P k

=
k

(m) A P

para toda

Sk .

Entonces, por la frmula (7.11), o Pn k


k

A mezcla las proyecciones Pn y Pm : k k


k k

A Pm . k

(7.15)

Por lo tanto

A k Hm k Hn .
k

Denicin 7.3.10. Sea A L(Hn , Hm ). La restriccin de o o es llamada la k-potencia exterior de A, y denotada por k A L(k Hn , k Hm ) .

A al espacio alternado k Hn

Por la Eq. (7.7) y la Observacin 7.3.5, la k-potencia exterior k A est determinada por la o a frmula: o k A (x1 x2 xk ) = Ax1 Ax2 Axk , (7.16) para toda k-upla x1 , . . . , xk en Hn .

7.3 Productos alternados y determinantes

136

Observacin 7.3.11. Si In es la identidad de Hn , entonces k In = Ik Hn . Por otra parte, se o sigue de (7.8) o de (7.16) que, si A L(Hn , Hm ) y B L(Hm , Hr ), entonces k (AB) = k A k B y (k A) = k A . (7.17)

Cuando n = m, i.e. A L(Hn ), la Eq. (7.15) dice que k Hn reduce a k A, por lo que se k Hn k A 0 k tiene una identidad matricial del tipo A = . De ahi se deducen 0 k Hn fcilmente las siguientes propiedades: a a. Si A Gl (n), k A1 = (k A)1 . b. k A es unitaria si A U(n). c. k A 0 si A 0. Adems |k A| = k |A|. a Denicin 7.3.12. o 1. Sea n N y k In . Notamos por Qk,n al conjunto de sucesiones estrictamente crecientes de k enteros elegidos en In : Qk,n = = (1 , 2 , , k ) Ik : 1 1 < 2 < < k n n .

Otra manera de verlo es Qk,n = J In : |J| = k , si pensamos a los conjuntos J   ordenados en forma creciente. Luego |Qk,n | = n . k 2. Sean A Mn,m (C), Qk,n y Ql,m . Entonces denotaremos por A[|] a la submatriz de k l de A dada por A[|] = Ai j
(i,j)Ik Il

Mk,l (C) .

Cuando = , A[|] se abreviar como A[]. Si = In (resp. = Im ), notaremos a A[|] = A[|] (resp. A[|] = A[|]). 3. Dada Qk,n , usaremos la abreviacin: o e = e(n)
(n) := e1 e(n) e(n) k Hn . 2 k

A continuacin veremos que forman una BON de k Hn . o Proposicin 7.3.13. El conjunto o Ek,n = { k! e : Qk,n } es una BON de k Hn . Por lo tanto, tenemos que dim k Hn = |Qk,n | =
n
k

(7.18) .

Demostracin. El hecho de que Ek,n genera k Hn se deduce de los o tems 1, 2 y 3 de la Observacin 7.3.5 (la Eq. (7.12) permite ordenar las coordenadas). Por otro lado, si , o Qk,n no son iguales, es fcil ver que la matriz ei , ej i,jI debe tener una la nula (la de a k algn i ). Luego, por la Proposicin 7.3.8 y el u / o tem 4 de 7.3.7, se tiene que e , e = 0. Finalmente, como det Ik = 1, llegamos a que Ek,n es una BON.

7.3 Productos alternados y determinantes

137

Proposicin 7.3.14. Sea A Mn,m (C). Identiquemos k A L(k Hm , k Hn ) con su o matriz en las bases Ek,m y Ek,n . Dados Qk,n y Qk,m , se tiene que k A
,

= det A[|] .

(7.19)

Demostracin. De acuerdo a las ecuaciones (7.14) y (7.18), se tiene que o k A


,

k A

k! e ,

(m)

k! e(n) = k! k A e , e = det A[|] ,

(m)

(n)

= det

Aej , ei

i,jIk

donde la ultima igualdad se sigue de que Aej , ei = Ai j .

Determinantes
Miremos qu es n Hn , o sea el caso k = n. Comon es el unico elemento de Qn,n , la Proposie I cin 7.3.13 asegura que el vector en = n! eIn = n! e1 e2 en es una BON de n Hn . o O sea que n Hn = C en . Dados x1 , . . . , xn Hn , si tomamos la matriz X Mn (C) dada por Fi (X) = xi , queda n! x1 x2 xn = det X en . (7.20) En efecto, si abreviamos a = x1 xn , entonces a = a, en en . Ah podemos aplicar la Proposicin 7.3.8, ya que xi , ej = Xij , para todo par i, j In . o La frmula (7.20) es la segunda denicin para el det X, en el sentido de que X det X es la o o unica funcin n-multilineal alternada (en las las de X) tal que det In = 1 (esto vale porque la o matriz X asociada a e1 en es X = In ). La Proposicin 7.3.8 muestra que es equivalente o a la de diagonales y permutaciones. Si en la Proposicin 7.3.14 consideramos el caso k = n = m, e identicamos L(n Hn ) con C o (v zI z), tenemos que a n A = det A para toda A Mn (C) . (7.21)

Observar que esto brinda un camino directo para probar la igualdad det AB = det A det B, que no se ve tan fcil v la Denicin 7.3.6. a a o Proposicin 7.3.15. Sean A, B Mn (C), Entonces se tiene que o 1. det AB = det A det B. 2. det A = 0 si y slo si A Gl (n). o 3. Gl (n) es abierto y denso en Mn (C).

7.3 Productos alternados y determinantes

138

Demostracin. Lo primero se deduce de que n AB = n A n B v la frmula (7.21). Si o a o 1 A Gl (n), tenemos que det A det A = det In = 1 = 0. Si A Gl (n), entonces sus / columnas deben ser un conjunto linealmente dependiente (porque ker A = {0}). Luego se aplica la Eq. (7.20) y el ultimo punto de la Observacin 7.3.5 a la matriz AT , y el hecho de o que det A = det AT , como asegura 7.3.7. Como A det A es continua, el item 2 implica que Gl (n) = det1 {z C : z = 0} es abierto en Mn (C). La densidad podr probarse usando a la multilinealidad de A det A, pero sale ms fcil viendo que, para cualqueir A Mn (C), a a existen matrices A + I Gl (n) para arbitrariamente pequeo. n Corolario 7.3.16. Sean k, n N. 1. Un conjunto {x1 , x2 , . . . , xk } Hn es linealmente independiente si y slo si el producto o alternado x1 x2 xk = 0. 2. El espacio k Hn = {0} si y slo si k n. o Demostracin. Sea X Mn,k dada por Ci (X) = xi , i Ik . Luego {x1 , x2 , . . . , xk } es o linealmente independiente si y slo si ker X = {0}. Esto, a su ves, equivale a que X X Gl (k) o (porque ker X X = ker X). Pero, por la Proposicin 7.3.8, tenemos que o X X = x j , xi
i,jIk

x i , xj

i,jIk

= det X X = k! x1 x2 xk

Luego aplicamos la Proposicin 7.3.15. La segunda parte se deduce inmediatamente de la o primera, porque en Hn puede haber, a lo sumo, n vectores linealmente independientes. Observacin 7.3.17. Recordemos que, si A Mn,m (C) decimos que o rkA = dim R(A) = dim Gen {C1 (A), . . . , Cm (A)} , es el rango columna de A. Como k A (e ) = C1 (A) Ck (A), para todo Qk,m , el Corolario 7.3.16 muestra que rk A = mx{k N : k A = 0} a (7.22)

(ver tambin el Corolario 7.4.3 de ms adelante). Usando que k A = (k A) , la frmula e a o (7.22) da otra prueba de que rk A = rk A. El siguiente resultado generaliza la Proposicin 7.3.15 a determinantes de submatrices: o Corolario 7.3.18 (Frmula de Cauchy-Binnet). Dadas A Mn,r (C) y B Mr,m (C) , sea o k m n{n, r, m}. Luego, para cada par Qk,n , Qk,m se tiene que det(AB)[|] =
Qk,r

det A[|] det B[|] .

(7.23)

7.3 Productos alternados y determinantes

139

Demostracin. Por la ley de multiplicacin (7.17) y la Proposicin 7.3.14, tenemos que o o o det(AB)[|] = (k AB) = k A k B =
Qk,r

=
Qk,r

det A[|] det B[|] ,

lo que prueba lo armado. Observacin 7.3.19. La versin ms clsica de la Frmula de Cauchy Binnet es la siguiente: o o a a o Sean A Mk,r (C) y B Mr,k (C) , con k r. Luego, det AB =
Qk,r

det A[|] det B[|] ,

(7.24)

que resulta de operar con todas las submatrices cuadradas de tamao mximo de A (eligiendo n a columnas) y de B (eligiendo las mismas las). Es claro que (7.24) se deduce del Corolario 7.3.18. Tambin vale la rec e proca, porque dadas A y B como en el Corolario 7.3.18, las matrices A0 = A[, ] Mk,r (C) y B0 = B[, ] Mr,k (C) cumplen que A0 B0 = (AB)[|] , A0 [|] = A[|] y B0 [|] = B[|] , Qk,r ;

por lo que (7.23) para A y B se reduce a (7.24) para A0 y B0 . Proposicin 7.3.20. Sean A, B Gl (n)+ y [0, 1]. Entonces o det A + (1 )B (det A) (det B)1 . Es decir, la aplicacin Gl (n)+ o A log det A es cncava. o

Demostracin. Sea C = B 1 A. Como (C) = B 1/2 AB 1/2 (con multiplicidades), o podemos llamar (C) = (B 1/2 AB 1/2 ) R+n . Adems, a det A + (1 )B = det B B 1 A + (1 )I = det B det C + (1 )I . Luego basta probar que det C + (1 )I (det A) (det B)1 det B 1 = (det A) (det B) = (det C) . En otras palabras, basta ver que
n n

i (C) + 1
i=1 i=1

i (C) .

Finalmente, veremos que i (C) + 1 i (C) para cada i In , con lo cual el resultado quedar probado. En efecto, dado c > 0, la funcin f (t) = ct es convexa en todo R. Notar a o que f (0) = 1 y f (1) = c. Por lo tanto c + 1 = f (1) + (1 )f (0) f (1 + (1 )0) = f () = c . Aplicando lo anterior a cada c = i (C), obtenemos el resultado.

7.4 Propiedades utiles de los productos alternados

140

Ejercicio 7.3.21.

1. Sea H Gl (n)+ (en principio real). Entonces, n = det H e Hx,x dx .


Rn

Para probarlo, hacer un cambio de variables diag ((H)). Como U es unitaria, la integral 1/2 a1/2 . De paso, esto prueba que e Hx,x de variables manda bolas en bolas). Vale lo

y = U x, para U U(n) tal que U HU = 2 no cambia. Luego usar que Rn eat dt = es integrable en Rn (notar que el cambio mismo para matrices complejas?

2. Probar la Proposicin 7.3.20 usando lo anterior (y la desigualdad de Hlder ! ). o o

7.4

Propiedades utiles de los productos alternados

El siguiente resultado, si bien es algo tcnico, es la llave para la caracterizacin completa de e o los autovalores de un producto alternado: Lema 7.4.1. Sea T T S(n), con los nmeros 1 , . . . , n en su diagonal. Sea k In . u
1. En trminos de la BON Ek,n de la Eq. (7.18), ordenada lexicogrcamente, la matriz de e a k T es, tambin, triangular superior. e

2. Para cada J Qk,n , se tiene que (k T )JJ =


i J

i .

Demostracin. Sean I, J Qk,n tales que I > J. Debemos probar que o (k T )IJ = det T [I, J] = 0 , donde la primea igualdad sabemos que es cierta por la Proposicin 7.3.14. Si I = (1 , , k ) o y J = (1 , . . . , k ) (vectores ordenados en forma creciente), debe existir algn j Ik tal que u j > j (sino valdr que I J en el lexicogrco). Por lo tanto, a a i > r para todo par (i, r) tal que 1rjik.

Como T T S(n), tenemos que Ti r = 0 para todos esos pares. Es decir que T [I, J] tiene una submatriz nula de tamao (k j + 1) j. Aplicando Knig-Frobenius (Corolario 4.3.3), n o deducimos que T [I, J] no tiene ninguna diagonal sin ceros. Esto implica que det T [I, J] = 0, como se arm. Por otra parte, si J Qk,n , por la Proposicin 7.3.14 sabemos que o o (k T )JJ = det T [J] =
i J

i ,

puesto que T [J] T S(k).

7.4 Propiedades utiles de los productos alternados

141

Teorema 7.4.2. Sea A Mn (C) con vector de autovalores (A) = (1 (A), . . . , n (A) ). Sea k In . Entonces los autovalores de k A estn dados por a J (k A) =
i J

i (A) ,

J Qk,n ,

contados con multiplicidad. Demostracin. Es similar al caso de los productos tensoriales (Proposicin 7.1.2). Se aplica el o o Teorema 1 de Schur 1.6.1 y el hecho de que k U es unitaria si U U(n), pero usando ahora el Lema 7.4.1. Corolario 7.4.3. Sea A Mn (C). Sea k In . Entonces los valores singulares de k A son s k A = sJ k A
JQk,n

=
i J

si (A)

JQk,n

contados con multiplicidad, y ordenados en forma decreciente. Adems, si ordenamos a los a autovalores 1 (A), . . . , n (A) de A con mdulos decrecientes, se tiene que o
k k

k A =
i=1

|i (A)|

k A

sp

= s1 k A =
i=1

si (A) .

Demostracin. Se deduce del Teorema 7.4.2 y del hecho de que k A = k |A|. o A continuacin veremos algunas propiedades funtoriales de los productos alternados, que sern o a necesarias para las aplicaciones a desigualdades. Proposicin 7.4.4. Sea A Mn (C) y k In . o 1. Si Am A, entonces k Am k A.
m m

2. Si A Mn (C)+ entonces, para todo r R+ se tiene que (k A)r = k (Ar ) . 3. Si A es alguna de estas cosas: a. Idempotente (i.e., A2 = A), b. Proyector (i.e., A2 = A = A ), c. Isometra parcial (i.e., AA y A A son proyectores), d. Autoadjunto, normal o unitario, entonces k A es del mismo tipo.

7.5 Ejercicios

142

4. Si A = U |A| es una DP de A, entonces k A = k U k |A| es una descomposicin polar de k A. o Demostracin. o 1. Por la frmula (7.19), para todo par , Qk,n , tenemos que o (k Am ) = det Am [|] det A[|] = (k A) .
m

(7.25)

Observar que el determinante de una matriz es un polinomio en sus entradas, por lo que la funcin B det B es continua. o 2. Como (k A)2 = k (A2 ), la veracidad del enunciado cuando r N se deduce a travs de e una simple induccin. Recordando que (k A)1 = k (A1 ), es claro que tambin vale si o e r Z. Para extender el resultado a los r Q, basta notar que si m N {0} entonces: (k A1/m )m = k [(A1/m )m ] = k A . Finalmente, el caso general se obtiene por continuidad (y el item 1.). 3. Todas estas propiedades se deducen directamente de las propiedades vistas en la Observacin 7.3.11. o 4. Ya hemos visto (o podemos deducir de lo anterior) que |k A| = k |A|. Como k U es isometr parcial, y la igualdad (7.25) se tiene que cumplir a partir de que A = U |A|, a entonces (7.25) es una DP de k A.

7.5

Ejercicios

Ejercicios del texto


7.5.1. Probar que el producto tensorial de matrices verica las siguientes propiedades: Fijemos A Mn (C) y B Mk (C). Se considera que A B L(Hn Hk ) Mnm (C), y en Hn Hk = se usa el producto escalar denido en las Eqs. (7.1) y (7.3). 1. Sean In Mn (C) y Ik Mk (C). Entonces In Ik es la identidad de Hn Hk . 2. (A1 + A2 ) B = (A1 B) + A2 B, para todo C. 3. (A B) = A B . 4. (A1 B1 )(A2 B2 ) = A1 A2 B1 B2 .

7.5 Ejercicios

143

5. Si existen A1 y B 1 , entonces A1 B 1 = (A B)1 . En particular, si A U(n) y B U(k), entonces A B U(nk). 6. A B 0 si A 0 y B 0. Ms an, |A B| = |A| |B|. Se usa el Teorema 3.1.3 y a u la unicidad de la raiz cuadrada positiva. 7.5.2. Completar los detalles de la prueba de la Eq. (7.4). 7.5.3. Completar los detalles de la denicin inductiva del espacio o de 7.2.1 y los 6 de 7.2.2.
k

Hn , probar los 5 items


(n)

7.5.4. Dados n, k N y Sk , tomemos el operador de permutacin P o denido en la Eq. (7.9). Probar las siguentes propiedades: 1. La frmula (7.10) sobre como acta P o u 2. Mostrar que P
(n) (n)

L(

Hn ),

en los tensores elementales.


(n) (n) (n)

es untario. Ms an, mostrar que (P ) = P1 = (P )1 . a u


k

3. Sea Pn la proyeccin ortogonal de o k demostracin de la Eq. (7.11): o Pn = k

Hn sobre k Hn . Completar los detalles de la

1 k!

(n) sgn() P . Sk

7.5.5. Dar los detalles de las pruebas de los 5 items de la Observacin 7.3.5, sobre las o propiedades de los k-tensores elementales. 7.5.6. Probar todos los resultados enunciados en la Observacin 7.3.11, sobre las propiedades o de las k-potencias alternadas (o exteriores) de matrices. 7.5.7. Probar los 7 items de 7.3.7 (sobre determinantes). 7.5.8. Probar que Gl (n) es denso en Mn (C). 7.5.9. Hacer el Ejercicio 7.3.21.

Ejercicios nuevos
7.5.10. Sea Sn y P UP (n) su matriz de permutacin asociada, denida en la Obsero vacin 4.1.5. Probar que det P = sgn() de las tres maneras propuestas: o 1. Usando la Denicin 7.3.6 de una (esto es parte del Ejercicio anterior). o 2. Mostrar que si Sn es una trasposicin, entonces det P = 1, y usar que sigma es o producto de trasposiciones, y que la echa det P es un morsmo. 3. Usando que P tiene las Fi (P ) = e(i) , i In (por la Eq. (4.3) ), y aplicando luego las ecuaciones (7.12) y (7.20).

7.5 Ejercicios

144

4. Alguna otra que se les ocurra. 7.5.11. Demostrar el algoritmo usual para calcular det A, para A Mn (C), desarrollando por alguna la o columna de A. Por ejemplo la la r-sima: e det A =
iIn

(1)r+i Ar, i det A(r| i) .

(7.26)

Se sugiere usar la multilinealidad de B det B (tanto para las como para columnas) y calcular det B en el caso de que alguna la o columna de B est en la base cannica de Cn . e o Otra opcin es esperar hasta la Eq. (12.13). o 7.5.12. Sea t = (t1 , . . . , tn ) Cn . Se llama matriz de 1 t1 . . . 1 t2 . . . V (t) = tj1 = . . i . . ... i,jIn . . 1 tn . . . Probar que det V (t) =
i<j

Vandermonde de t a n1 t1 n1 t2 . Mn (C) . . . n1 tn

(tj ti ) , por lo que V (t) Gl (n) si los ti son todos distintos.

7.5.13. Sean A, B Mn (C). Probar: 1. (s(A), s(B)) 2. (s(A), s(B)) (s(|A| + |B|), 0) en R2n .
w

(s(A + B), 0) en R2n .

o 3. Sea F : Mn (C) R+ dada por F (C) = i f (si (C)), para una f : R+ R+ cncava tal que f (0) = 0. Probar que F es subaditiva, o sea F (A + B) F (A) + F (B).
n

4. Si z C, det(I + zA) =
k=0

z k tr(k A).

5. PA (x) = xn +

n1 k=0

(1)nk tr(nk A) xk .

6. det(I + |A + B|) det(I + |A|) det(I + |B|). 7. | det(I + A)| det(I + |A|). 8. | det(I + A + B)| det(I + |A|) det(I + |B|).

7.5 Ejercicios

145

Productos simtricos e
Sean k, n N. Recordemos que, dados x1 , . . . , xk Hn y Sk , tenemos que
(n) P (x1 x2 xk ) = x1 (1) x1 (2) x1 (k) ,

donde P es un operador unitario que cumple (P1 ) = (P )1 . Dado k In . Llamaremos espacio k-simtrico sobre Hn , al subespacio de k Hn dado por e
k

(n)

(n)

(n)

Hn =

(n) Hn : P F = F

para toda

Sk

Los elementos de k Hn se llaman k-tensores simtricos. Se considera a k Hn como un espacio e de Hilbert con el producto interno de k Hn . Dados x1 , . . . , xk Hn , se dene el k-tensor simtrico elemental: e x1 x2 xk := 1 k! x(1) x(2) x(k) k Hn .
Sk

7.5.14. Dada A Mn (C), denimos su permanente por la frmula o


n

per A =
Sn j=1

aj,(j) C .

(7.27)

Es decir que es como el determinante, pero sin signos negativos. 1. Probar que, si T T S(n), entonces per T =
iIn

Tii . En particular, per In = 1.

2. Si A 0, mostrar que per A = 0 existen subconjuntos I, J In tales que |I| + |J| > n y la submatriz AIJ 0, es decir que aij = 0 para todo par (i, j) I J. 3. Deducir que si A DS (n), entonces per A = 0. 4. Si B, C Mn (C)+ cumplen que C B, probar que 0 per C per B. 7.5.15. Sean x1 , . . . , xk , y1 , . . . , yk Hn . Probar que x1 x2 xk , y 1 y2 yk = 7.5.16. Dados x1 , . . . , xk , y1 , . . . , yk Hn , llamemos G(x, y) = x i , yj
i,jIk

1 per k!

x i , yj

i,jIk

Mk (C)

a la matriz que se us en el Ejercicio anterior. o 1. Probar que | det G(x, y)|2 det G(x, x) det G(y, y)

7.5 Ejercicios

146

2. Tambin que |per G(x, y)|2 per G(x, x) per G(y, y) . e 3. Traducir a que si A, B Mn,k (C), entonces |per A B|2 per A A per B B

4. (Otro teorema de Schur) Si A Mn (C)+ , per A det A (se sugiere usar el teorema de Cholewsky, Corolario 3.1.5). 7.5.17. Sea A Gl (n)+ . Llamemos ri = tr(Fi (A) ) , 1. Probar que sn per A n!
ij In

i In

s = r1 + + rn = A1 , 1 .

|ri |2 .

2. Deducir que, si A DS (n) Gl (n)+ , entonces per A n! nn .

Cap tulo 8 Producto de Hadamard


8.1 Propiedades bsicas a

Recordemos algunas nociones adelantadas en la Seccin 3.5 o Denicin 8.1.1. Dadas A, B Mn,m (C) se dene el producto de Hadamard A B como o la matriz A B = aij bij iIn Mn,m (C) .
jIm

Notar que este producto tiene sentido tanto para matrices como para vectores. Teorema 8.1.2 (Teorema 2 de Schur). Sean A, B Mn (C)+ , entonces A B Mn (C)+ . Adems, si A > 0 y B > 0, entonces A B > 0. a Demostracin. Ya fue demostrado en 3.6.2 o Corolario 8.1.3. Sean A, B Mn (C)+ , entonces 1. n (A)n (B) n (A B). 2. A B = 1 (A B) 1 (A)1 (B) = A Demostracin. Ejercicio. o Ahora empezamos a mostrar novedades sobre el producto de Hadamard. Proposicin 8.1.4. Sea S = Gen {ei ei : i In } Hn Hn . Identicaremos L(S) con o Mn (C) en la manera obvia. Denamos el operador lineal : L(Hn Hn ) Mn (C) dado por (T ) = TS , T L(Hn Hn ) . B .

Entonces, dados A, B Mn (C), se verica que (A B) = A B .

8.1 Propiedades bsicas a

148

Demostracin. Representemos A B como producto de Kronecker, como en la Observacin o o 7.1.1. Con las notaciones de submatrices de la Denicin 7.3.12, es fcil ver que, si tomamos o a = (1, 1), (2, 2), . . . , (n, n) In In , entonces (A B) = (A B)S = (A B)[] = A B , como se armaba. Denicin 8.1.5. Dada A Mn,m (C), llamaremos o C(A) = mx Ci (A) a
i Im
2

F (A) = mx Fi (A) a
i In

Notar que estos nmeros pueden, tambin, caracterizarse por las frmulas u e o C(A)2 = A A Im Por lo tanto C(A) A
sp sp sp

y .

F (A)2 = AA In

sp

y F (A) A

Proposicin 8.1.6. Sean A, B Mn,m (C). Entonces o AB


sp

C(A)F (B) A

sp

sp

Demostracin. Para cada par x Cm , y Cn de vectores unitarios, se tiene que o A B x, y


2 2 2

=
i,j

aij bij xj yi |aij |2 |xj |2


i,j

=
i,j

(aij xj ) (bij yi ) |bij |2 |yi |2 (por Cauchy-Schwarz) |bij |2


j 2

=
j

i,j

|xj |2
i 2 2

|aij |2
i

|yj |2
2

C(A) x Como A B
sp

F (B) y

= C(A) F (B)2 .

= mx | A B x, y | : x = y = 1 , el resultado est demostrado. a a

Observacin 8.1.7. Sean A Gl (n)+ y J In , con |J| = k. Luego se tiene que o A[J] = (aij )i,j J Gl (k)+ y A1 [J] A[J]1 .

En efecto, esto es un caso particular del Corolario 6.3.7 (o de la Proposicin 3.8.7). o Proposicin 8.1.8. Sean A, B Gl (n)+ . Entonces se verica que o 1. (A B)1 A1 B 1 . 2. A A1 I (A A1 )1 . Demostracin. Se deduce de la Observacin 8.1.7 y de la Proposicin 8.1.4, ya que que A B o o o es una submatriz principal de A B, mientras que A1 B 1 lo es de A1 B 1 = (A B)1 , para los mismos ndices.

8.2 La norma de un multiplicador Hadamard

149

8.2

La norma de un multiplicador Hadamard


MA : Mn (C) Mn (C) dado por MA (B) = A B , B Mn (C) .

Denicin 8.2.1. Fijemos A Mn (C), y denamos el operador de multiplicacin o o

Fijada una norma N en Mn (C), denotaremos KN (A) a la norma inducida para MA : KN (A) = mx N (A B) : B Mn (C) es tal que N (B) = 1 a = m k 0 : N (A B) k N (B) para toda B Mn (C) . n En el caso de que N sea la norma espectral, escribiremos KA en lugar de K

sp

(A).

Observacin 8.2.2. Sea A Mn (C). Si N es una norma unitariamente invariante tal que o N (E11 ) = 1, entonces mx |aij | KN (A) . a
i,j

En efecto, notar que para todo i, j In se tiene N (A Eij ) = |aij |N (Eij ) = |aij | y N (Eij ) = 1 .

Por otra parte, para la norma espectral, de la Proposicin 8.1.6 se puede deducir que o KA m C(A), F (A) A n En efecto, notar que para toda B Mn (C), tenemos que A B C(A)F (B) C(A) B ya que Ci (B)
2

sp

A B F (A)C(B) F (A) B ,

= Bei B para todo i In . Anlogamente, F (B) B . a

Ejercicios 8.2.3. 1. Si N =
2

(la norma de Frobenius), entonces KN (A) = mx |aij | , a


i,j In

A Mn (C) .

Notar que (Mn (C), N ) es un espacio de Hilbert, MA es un operador diagonal, y KN (A) = MA sp . 2. Algo ms complicado es probar que, para cualquier A Mn (C), a K

(A) = KA .

Debe usarse que 1 es la norma dual de la espectral (esto es del mismo tipo que ( 1 ) = , pensada en los valores singulares), y que el operador adjunto de MA es el mismo MA . Esto ultimo se deduce de la identidad tr (A B)C t =
i,j In

aij bij cij = tr B(A C)t ,

donde se identica a Mn (C) con Mn (C) a travs de la aplicacin C C = tr( C t ) e o (ver los Ejercicios 5.6.29 al 5.6.33) .

8.3 Funcionales positivas

150

Teorema 8.2.4. Sea A Mn (C). Dada una factorizacin A = D B, con B, D Mn (C), o se verica que KA C(D)C(B) . Demostracin. Consideremos la siguiente matriz: o P = D 0 B 0 D B 0 0
sp

D D A A B B I M M I

M2n (C)+ . M2n (C)+ , y por el Teorema

Fijemos M Mn (C) tal que M 2 de Schur 8.1.2, tenemos que PM = P

1. Luego

I M M I

I D D M A (M A) I B B

M2n (C)+ .

Como (D D)ii = Ci (D) 2 , i In , podemos deducir que I D D C(D)2 I, y anlogamente a 2 se ve que I B B C(B) I. Por ende, PM Conjugando con F = C(D)2 I M A (M A) C(B)2 I = RM .

C(D)1 I 0 0 C(B)1 I

, obtenemos que M2n (C)+ .


sp

F RM F =

I C(D)1 C(B)1 (M A) C(D)1 C(B)1 (M A) I


sp

Esto nos dice que C(D)1 C(B)1 (M A) M


sp

= C(D)1 C(B)1 M A
sp

1, o sea

1 =

M A

C(D)C(B) .

En otras palabras, KA C(D)C(B). Corolario 8.2.5 (Schur 4). Sea A Mn (C)+ . Entonces KA = mx{Aii : i In }. a Demostracin. Notemos M = mx{Aii : i In }. Hemos visto que M KA (porque o a Aii = A Eii ). Por otra parte, como A Mn (C)+ , sabemos que existe B Mn (C) tal que A = B B. Es fcil ver que, en tal caso, Aii = Ci (B) 2 para todo i In . Esto dice que a M = C(B)2 . Por el Teorema 8.2.4 deducimos que KA C(B)2 = M .

8.3

Funcionales positivas

El teorema de Haagerup (1983) dice que, dado A Mn (C), existe una factorizacin A = D B, o como en el Teorema 8.2.4, tal que se obtiene la igualdad KA = C(D)C(B). Su formulacin o y demostracin original utilizaba profundas nociones y resultados de lgebras de operadores. o a

8.3 Funcionales positivas

151

Esto motiv que, desde el mbito de los especialistas en anlisis matricial, fueran apareciendo o a a numerosas pruebas simplicadas del teorema de Haagerup. De todas ellas hemos seleccionado la obtenida por Paulsen, Power y Smith en [29]. Necesitaremos, sin embargo, adaptar al contexto de matrices ciertas nociones y resultados elementales de lgebras de operadores. a Fundamentalmente, propiedades y criterios de existencia de funcionales positivas. Denicin 8.3.1. Sea S Mn (C) un subespacio cerrado por adjuncin, es decir, T S si o o y slo si T S. Una f uncional en S es una aplicacin lineal : S C. Se denen los o o siguientes tipos de funcionales: 1. Notamos (adjunta de ) a la funcional dada por (A) = (A ), A S. 2. Decimos que es autoadjunta si = . Es decir, si (A ) = (A), A S. 3. La funcional se llama positiva si (A) 0 cuando A S Mn (C)+ . 4. Se considera la norma inducida en las funcionales por la norma espectral de las matrices. Es decir = mx{|(A)| : A S , A sp = 1} . a Ejercicios 8.3.2. Sea S Mn (C) un subespacio cerrado por adjuncin. o 1. Sea una funcional en S. Probar que (a) = . (b) es autoadjunta si y slo si (A) R para toda A S H(n). o (c) Si es positiva, entonces es tambin autoadjunta. e (d) Toda funacional autoadjunta en S es resta de dos positivas. Se usa que si A S, entonces Re A S e Im A S. 2. Dada B Mn (C), se dene la siguiente funcional en Mn (C): B : Mn (C) C Vericar que (a) Para toda funcional en Mn (C) existe una unica matriz B Mn (C) tal que = B . (b) Dados x, y Cn consideremos la matriz x seccin 1.9. Se tiene que B (xy ) = x, By . o (d) B es positiva si y slo si B Mn (C)+ . o Proposicin 8.3.3. Sea B Mn (C). Entonces o 1. | tr B| tr |B|. y = xy Mn (C) , denida en la dada por B (A) = A, B = tr(AB ) , A Mn (C).

(c) (B ) = B , y por lo tanto B es autoadjunta si y slo si B H(n). o

8.3 Funcionales positivas

152

2. tr B = tr |B| si y slo si B Mn (C)+ . o 3. B = B Demostracin. o 1. Sea B = {v1 , . . . , vn } una bon de vectores propios de |B| asociada a s(B). Luego, si B = U |B| es la DP de B, con U U(n),
n n n 1

= tr |B|.

| tr B| =
k=1

U |B|vk , vk

k=1

sk (B) U vk , vk

k=1

sk (B) = tr |B| .

2. Si tr B = tr |B|, entonces
n n n

sk (B) = tr |B| = tr B =
k=1 k=1

Bvk , vk =
k=1

sk (B) U vk , vk .

Dado que | U vk , vk | 1 para todo k In , por el caso en que se obtiene igualdad en la desigualdad de Cauchy Schwarz, todos los nmeros complejos U vk , vk deben u tener el mismo argumento. Como la suma da un nmero positivo, se debe vericar que u U vk , vk = 1 para todo k In . Pero un unitario con unos en la diagonal (en nuestro caso la matriz de U en la base B) debe ser la identidad. De ello se deduce que U = I y que B = |B| Mn (C)+ . La rec proca es obvia. 3. Notar que tr |B| = tr(U |B|U ) = tr(U B ) = B (U ) B . Por otro lado, por el item anterior y el Corolario 5.3.11, | tr(AC)| tr |AC| A para todo par A, C Mn (C). Entonces |B (A)| = | tr(A|B|U )| = | tr(U A |B|)| U A para toda A Mn (C). Por lo tanto B tr |B|. Teorema 8.3.4. Sea S Mn (C) un subespacio cerrado por adjuncin tal que I S. Sea o una funcional en S. Luego las siguientes condiciones son equivalentes: 1. es positiva. 2. = (I). 3. Existe B Mn (C)+ tal que es la restriccin de B a S . o Demostracin. o
sp sp

tr |C| ,

tr |B| = (tr |B|) A

sp

8.4 Matrices incompletas

153

1 2 Sea A S. Si A = A , se tiene que A en S, tenemos A


sp

sp

IA A

sp

I. Luego, si es positiva (I) .

(I) (A) A

sp

(I) = |(A)| A

sp

Si A = A , sea [0, 2) tal que (A) = ei |(A)|, o sea que (ei A) = |(A)|. Llamenos A0 = ei A. Como es autoadjunta y (A0 ) R, deducimos que (A0 ) = (Re A0 ). Por todo esto, |(A)| = (A0 ) = (Re A0 ) Re A0
sp

(I) A0
sp

sp

(I) = A

sp

(I) .

Luego (I). La otra desigualdad es obvia ( I

= 1).

2 3 Sea una funcional en S tal que = (I). Por el teorema de Hahn Banach (en dimensin nita se lo puede probar por induccin con la prueba tradicional), existe una o o extensin de a todo Mn (C) que tiene la misma norma. Luego existe B Mn (C) o tal que = B . Por la Proposicin 8.3.3, deducimos que o tr |B| = B = = = (I) = B (I) = tr B , y por lo tanto B Mn (C)+ . 3 1 Sea B Mn (C)+ tal que es la restriccin de B a S. Si A S Mn (C)+ , tenemos o que (A) = tr AB = tr B 1/2 AB 1/2 0 , porque B 1/2 AB 1/2 Mn (C)+ y la funcional tr es positiva. Corolario 8.3.5. Sea S Mn (C) un subespacio cerrado por adjuncin tal que I S, y o una funcional positiva en S. Luego existe funcional positiva en Mn (C), con la misma norma, tal que es la restriccin de a S. o

8.4

Matrices incompletas

Sea J In In . Una matriz incompleta asociada al conjunto J es un cacho de matriz A = (aij )i,j J . O sea que no se pone nada en las entradas (i, j) J. Una matriz B Mn (C) / es una completacin de A si bij = aij para todo (i, j) J. o Denicin 8.4.1. Sea J In In . o 1. Llamaremos SJ Mn (C) al subespacio SJ = C Mn (C) : cij = 0 para todo (i, j) J . /

2. Si A est denida solo en J, y C SJ , denotaremos A C = B C, donde B Mn (C) a es cualquier completacin de A. Notar que, como C SJ , la denicin no depende de o o la completacin elegida. o

8.4 Matrices incompletas

154

3. Diremos que J cumple (P) si (a) (i, j) J = (j, i) J, (b) (i, i) J para todo i In . En otras palabas, si J es simtrico y contiene a la diagonal (reexivo). e Existen numerosos resultados sobre matrices incompletas, fundamentalmente relativos a preguntas del tipo: que debe cumplir A para que se la pueda completar a una matriz que cumpla una propiedad dada? Un ejemplo de este tipo de resultados, es el llamado teorema de Parrot, que describe algunos casos de matrices incompletas que pueden completarse a una contraccin. Una versin de o o aquel resultado aparece en el Ejercicio 3.9.13. El siguiente teorema da una respuesta al problema de cuando se puede completar una casimatriz A para que quede positiva (semidenida), siempre que el conjunto J en el que est a + denida tenga la propiedad (P). Observemos que si B Mn (C) es una completacin de un o tal A, entonces, por el Teorema 2 de Schur 3.6.2, debe cumplirse que A C = B C Mn (C)+ para toda C SJ Mn (C)+ . (8.1)

Esto nos da una condicin necesaria sobre A para que pueda existir una completacion poo sitiva. Esta condicin ser muy pobre si J no cumple (P), porque en tal caso habr muy o a a pocas matrices en SJ Mn (C)+ . Pero veremos que, si J cumple (P), entonces la condicin o es tambin suciente: e Teorema 8.4.2. Supongamos que J In In cumple (P). Sea A = (aij )i,j J una matriz denida solo en J. Luego las siguientes condiciones son equivalentes: 1. Existe una completacin B de A tal que B Mn (C)+ . o 2. Para toda matriz C SJ Mn (C)+ se verica A C Mn (C)+ . Demostracin. En la Eq. (8.1) vimos que la ida es consequencia del Teorema 2 de Schur. o Supongamos entonces que A cumple 2. Sea A : SJ C la funcional denida por A (C) =
(i,j) J

aij cij ,

C = (cij ) SJ .

Veriquemos ahora que A es positiva en SJ . En efecto, si C SJ Mn (C)+ , luego tambin e T + + C = C SJ Mn (C) . Por hiptesis A C Mn (C) . Si llamamos e = (1, . . . , 1) Rn , o entonces 0 (A C) e, e = aij cij = A (C) = A (C),
(i,j) J

por lo que A es positiva. Observar que SJ verica las hiptesis del Teorema 8.3.4 (es cerrado o por adjuncin e I SJ ), gracias a que J cumple (P). Luego, obtenemos una matriz B o

8.5 El teorema de Haagerup

155

Mn (C)+ tal que B S = A . Notar que, si (i, j) J, entonces Eij SJ . Por otra parte, es J fcil ver que tr (BEij ) = bji = bij . Luego, a bij = tr (BEij ) = B (Eij ) = A (Eij ) = aij Eso dice que B es una completacin positiva de A. o , (i, j) J .

8.5

El teorema de Haagerup

Lema 8.5.1. Sean T Mn (C) y , R+n . Notemos D1 = diag () , D2 = diag () Gl (n)+ y L Mn (C) la matriz con entradas Lij = i M= Demostracin. Observar que o D1 0
1/2 1/2 1/2 j .

Entonces

D1 T T D2

M2n (C)+

LT 1 .

0 D2
1/2

D1 0

1/2

0 D2
1/2

I D1 1/2 1/2 D2 T D1
1/2

1/2

T D2 I

1/2

Luego, por la Proposicin 3.7.6, M M2n (C)+ si y slo si D1 o o 1/2 1/2 = L T. queda probado con slo observar que D1 T D2 o

T D2

1/2

1. El resultado

Teorema 8.5.2. Sea A Mn (C). Luego las siguientes condiciones son equivalentes: 1. KA 1, es decir A C C para todo C Mn (C). . 2. Existen X, Y Mn (C)+ tales que (a) X I I e Y I I. (b) La matriz N = X A A Y M2n (C)+ .

3. Existen B, D Mn (C) tales que (a) A = D B. (b) C(B) 1 y C(D) 1. Demostracin. 1 2: Sea J I2n I2n dado por o J = {(i, i) : i I2n } {(i, n + j) : i, j In } {(n + i, j) : i, j In }. Observar que J cumple (P). Consideremos la matriz P de tamao 2n 2n, denida slo en n o J, dada por 1 ? D A ... P = , donde D = , A D ? 1

8.5 El teorema de Haagerup

156

que es una matriz de tamao n n denida solamente en la diagonal. n Clamor: Si M SJ M2n (C)+ , entonces P M M2n (C)+ . D1 T En efecto, M = , donde T Mn (C), y D1 = diag () , D2 = diag () son matrices T D2 diagonales positivas en Mn (C). Si suponemos que D1 , D2 son estrictamente positivas, y 1/2 1/2 notamos L Mn (C) la matriz con entradas Lij = i j , el Lema 8.5.1 nos dice que, como M M2n (C)+ , entonces L T 1. Observar que P M = D1 AT (A T ) D2 .

Como KA 1, tenemos que L (A T ) = A (L T ) 1. Usando nuevamente el Lema 8.5.1, deducimos que P M M2n (C)+ . El caso general (sin suponer que D1 y D2 son inversibles) se deduce del anterior, tomando la sucesin o Mm = M + 1 I2n m en SJ . Entonces M2n (C)+ P Mm P M .
m

Como M2n (C)+ es cerrado, el clamor queda demostrado. Por el Teorema 8.4.2, tenemos que existe una completacin N de P tal que o N= X A A Y M2n (C)+ y, por lo tanto, X I =Y I =I .

Luego las matricecs X, Y Mn (C)+ cumplen lo pedido. 2 3: Como N M2n (C)+ , por el teorema de Cholewsky (Corolario 3.1.5), existe una matriz K M2n (C) triangular superior tal que N = K K. Si la escribimos en bloques de n n, K= D B 0 G = K K = D D BD D B B B + G G = X A A Y = N.

El resultado se sigue de que A = D B y, como X I I e Y I I, entonces C(D)2 = D D I = X I 1 y

C(B)2 = B B I (B B + G G) I = X I 1 . La implicacin 3 1 fu probada en el Teorema 8.2.4. o e Corolario 8.5.3 (Teorema de Haagerup (1983)). Sea A Mn (C). Entonces KA = m n C(B)C(D) : B, D Mn (C) y A = D B .

Demostracin. Si KA = 0, entonces por la Observacin 8.2.2, se tiene que A = 0 y el resultado o o es trivial. Si KA > 0, una desigualdad se deduce del Teorema 8.2.4 y, para probar la otra, 1 basta cambiar A por KA A y aplicar 1 3 del Teorema 8.5.2.

8.6 Determinantes

157

Corolario 8.5.4. Sea A Mn (C). Notemos A(k) Mkn (C) la matriz con k k bloques de n n iguales a A. Entonces KA = KA(k) . Demostracin. Es evidente que KA KA(k) (trabajando con matrices de n n rellenadas o con ceros). Rec procamente, si B, D Mn (C) cumplen que A = D B y KA = C(B)C(D), entonces A ... A D ... D B ... B A ... A 0 ... 0 0 ... 0 A(k) = . . . = . . . . . . = Dk Bk . . . . . . . . . . . . . . . . . . . A ... A 0 ... 0 0 ... 0 Pero es claro que C(Bk ) = C(B) y C(Dk ) = C(D), dado que tienen las mismas columnas (salvo ceros). As KA(k) C(B)C(D) = KA . ,

8.6

Determinantes
n

Teorema 8.6.1 (Desigualdad de Hadamard). Si A Mn (C)+ , entonces det A det (A I) =


i=1

aii .

La igualdad vale si y slo si A es diagonal. o Demostracin. Podemos suponer que A > 0, y entonces aii > 0, para todo i In . Consideo ramos la matriz diagonal 1/2 1/2 D = diag a11 , . . . , ann . Entonces B = D1 AD1 = (aii
1/2 1/2 ajj aij )ij

tiene unos en la diagonal. Adems, a


n 2

det B = det A (det D)

= det A
i=1

a1 . ii

Por lo tanto, ser suciente mostrar que det B 1. Aplicando la desigualdad aritmticoa e 1 geomtrica obtenemos, e
n

det(B) =
i=1

i (B)

1 n

i (B)
i=1

= tr

B n

=1.

y esto prueba el resultado. Con respecto a la igualdad, si la hubiera en la desigualdad aritmtico-geomtrica, entonces los nmeros involucrados deben ser todos iguales. Es decir que e e u todos los i (B) = 1. Pero entonces, como B 0, debe ser B = I, o sea A = D2 .
1 m
1

Si a1 , . . . , am > 0, entonces
i=1

aim

1 m

ai . Sale usando que el log es una funcin cncava. o o


i=1

8.6 Determinantes

158

Corolario 8.6.2. Sea A Mn (C). Entonces


n

| det A|
i=1

Ci (A)

(8.2)

Demostracin. Se aplica la desigualdad de Haramard a la matriz B = A A 0. Notar que o det B = | det A|2 y que Bii = Ci (A) 2 , para todo i In . 2 Ejercicio 8.6.3. Veremos tres demostraciones alternativas de estas desigualdades. 1. Probar el Teorema 8.6.1 usando el Teorema 3 de Schur 5.1.1 y el Corolario 4.2.3. 2. Probar que el Corolario 8.6.2 implica la desigualdad de Hadamard. 3. Probar el Corolario 8.6.2 usando la descomposicin QR (Teorema 1.8.2) de A Mn (C). o Observar que (8.2) es trivial para matrices triangulares. 4. Probar el Corolario 8.6.2 usando la interpretacin del determinante como un rea o o a volumen.
detA Lema 8.6.4. Sean A Gl (n)+ y (A) = detA11 , donde A11 = (aij )2i,jn Mn1 (C). Sea E11 = e1 et Mn (C). Entonces A tE11 0 si y slo si t (A). o 1

Demostracin. Es fcil ver, desarrollando por la primera columna, que o a det(A tE11 ) = det A t det A11 . (8.3)

Luego, det(A tE11 ) 0 si y slo si t (A). Por otro lado, todas las dems submatrices o a principales de A tE11 obtenidas con las ultimas i las y columnas, son las mismas que las respectivas de A. Por lo tanto, el determinante de cada una de ellas es positivo. Luego, por el Teorema 2.4.6 (hecho desde abajo), tenemos el resultado para desigualdades estrictas. El caso general sale tomando l mite. Teorema 8.6.5 (Desigualdad de Oppenheim). Si A, B Mn (C)+ , entonces
n

det A
i=1

bii = det A det B I det A B

Demostracin. Si det A = 0, el resultado se deduce del Teorema 2 de Schur 8.1.2, que asegura o que A B 0. Supongamos, entonces, que A > 0. La demostracin la realizaremos por o induccin sobre n. Si n = 1, el resultado es inmediato. Sea n 2 y supongamos el resultado o vlido para todas las matrices de dimensin n 1. Entonces, con las notaciones del Lema a o 8.6.4, sabemos que
n

det A11
i=2

bii det A11 B11 .

8.6 Determinantes

159

Por el Lema 8.6.4, si = (det A11 )1 det A, entonces A E11 0. El Teorema 2 de Schur 8.1.2 dice que (A E11 ) B 0. Aplicando la frmula (8.3), como E11 B = b11 E11 y o (A B)11 = A11 B11 , resulta que 0 det(A B E11 B) = det A B b11 det(A11 B11 ). Aplicando la hiptesis inductiva, obtenemos o
n n

det A B b11 det A11 B11 b11 det A11


i=2

bii = det A
i=1

bii

y el teorema queda demostrado. Teorema 8.6.6 (Desigualdad de Fisher). Sea A Mn (C)+ , y sea P un sistema de proyectores en H(n). Entonces det A det(CP (A)). Recordamos que CP (A) =
r i=1

Pi APi , si P = {P1 , . . . , Pr }.

Demostracin. Por la Eq. (5.8), basta probar el caso P = {P, I P }, para P H(n) o un proyector. Supongamos que dim R(P ) = k. Conjugando a P y a A con alguna matriz unitaria (lo que no cambia los determinantes), podemos suponer que R(P ) es el subespacio generado por los primeros k elementos de la base cannica de Cn . O, lo que es lo mismo, que o P = diag (1, . . . , 1, 0, . . . , , 0), donde los unos llegan hasta el lugar k. Dado r N, llamemos Er Mr (C)+ a la matriz con todas sus entradas iguales a 1. Notar 2 que Er 0 porque 0 Er Er = Er = rEr . Consideremos la matriz de bloques B= Ek 0 0 Enk Mn (C)+ ,

que verica que A B = CP (A). Aplicando la desigualdad de Oppenheim, tenemos que


n

det A = det A
i=1

bii det A B = det CP (A).

Observacin 8.6.7. Otra demostracin del Teorema anterior puede hecerse usando las Proo o posiciones 5.4.4 y 4.2.3. En efecto, con las notaciones de 8.6.6, como (CP (A)) (A), si n (A) > 0, entonces tambin n (CP (A)) > 0 y e
n n

det A =
i=1

i (A)
i=1

i (CP (A)) = det CP (A) .

Si n (A) = 0, entonces det A = 0, pero CP (A) 0, por lo que det CP (A) 0. De los resultados anteriores obtenemos la siguiente relacin para el determinante del producto o convencional de matrices y el producto de Hadamard.

8.7 Ejercicios

160

Teorema 8.6.8. Si A, B Mn (C)+ , entonces det A B det A B. Demostracin. El Teorema se deduce de las desigualdades de Hadamard y de Oppenheim. En o
n

efecto, det A B = det A det B det A


i=1

bii det A B.

8.7

Ejercicios

Ejercicios del texto


8.7.1. Dada A Mn,m (C), mostrar que C(A) = mx Ci (A) a
i Im
2

= A A Im

1/2 sp

y .

F (A) = mx Fi (A) a
i In

= AA In

1/2 sp

Deducir que mx C(A) , F (A) A a

sp

8.7.2. Sea A Mn (C). Porbar las siguientes armaciones: 1. Si N =


2

(la norma de Frobenius), entonces KN (A) = mx |aij | , a


i,j

A Mn (C) .

2. Dadas B, C Mn (C), se cumple que tr (A B)C T =


i,j

aij bij cij = tr B(A C)T

3. Probar que el operador adjunto de MA L(Mn (C) ) es el mismo MA , idencando Mn (C) con Mn (C), a travs de la aplicacin e o Mn (C) 4. Probar que K

C C = tr( C T ) Mn (C) .

(A) = KA .

8.7.3. Sea S Mn (C) un subespacio cerrado por adjuncin (i.e. T S = T S). o 1. Sea una funcional en S (usaremos notaciones de la Denicin 8.3.1). Probar que o (a) = . (b) es autoadjunta si y slo si (A) R para toda A S H(n). o (c) Si es positiva, entonces es tambin autoadjunta. e (d) Toda funacional autoadjunta en S es resta de dos positivas.

8.7 Ejercicios

161

Se usa que si A S, entonces Re A S e Im A S. 2. Dada B Mn (C), se dene la siguiente funcional en Mn (C): B : Mn (C) C Vericar que (a) Para toda funcional en Mn (C) existe una unica matriz B Mn (C) tal que = B . (b) Dados x, y Cn consideremos la matriz x seccin 1.9. Se tiene que B (xy ) = x, By . o (d) B es positiva si y slo si B Mn (C)+ . o 8.7.4 (Hahn Banach nito). Sea S Mn (C) un subespacio, y sea : S C una funcional lineal. Si = mx{|(A)| : A S y A sp = 1}, existe una extensin de a todo a o Mn (C) que tiene la misma norma.
n
1

dada por

B (A) = A, B = tr(AB ) ,

A Mn (C).

y = xy Mn (C) , denida en la

(c) (B ) = B , y por lo tanto B es autoadjunta si y slo si B H(n). o

8.7.5. Si a1 , . . . , an > 0, entonces


i=1

ain

1 n

ai .
i=1

8.7.6. Distintas pruebas de la desigualdad de Hadamard: 1. Probar el Teorema 8.6.1 usando el Teorema 3 de Schur 5.1.1 y el Corolario 4.2.3. 2. Probar que el Corolario 8.6.2 implica la desigualdad de Hadamard. 3. Probar el Corolario 8.6.2 usando la descomposicin QR (Teorema 1.8.2) de A Mn (C). o Observar que (8.2) es trivial para matrices triangulares. 4. Probar el Corolario 8.6.2 usando la interpretacin del determinante como un rea o o a volumen. 8.7.7. Dar los detalles de la prueba del Lema 8.6.4.

Ejercicios nuevos
8.7.8. Sean x, y Cn y G Mn (C). Probar que Gx y = diag (x) G diag (y) .

Denicin 8.7.9. Dada G Mn (C)+ , se dene: o 1. El ndice minimal de G como I(G) = max{ 0 : G B B para todo B Mn (C)+ } .

8.7 Ejercicios

162

2. Dada una norma N en Mn (C), se dene el ndice N de Hadamard para G como IN (G) = max = min 0 : N (G B) N (B) para todo B Mn (C)+

N (G B) : B Mn (C)+ y N (B) = 1 .

El ndice de G asociado con la norma espectral = sp se denota Isp (G), mientras que el asociado a la norma Frobenius 2 ser denotado por I2 (G). a 8.7.10. Sean G Mn (C)+ , 1 = (1, . . . , 1) Cn y E = 1 1T . Sea N una norma. 1. I(G) = 0 si y slo si 1 R(G). Si y Cn cumple que Gy = 1, entonces o
m 1 n

I(G) =
i=1

yi

= y, 1

= (G E)

= min { Gz, z

:
i=1

zi = 1 }

Y si G > 0, se tiene que I(G) =


i,j=1

(G1 )ij

det G . det(G + E) det G

2. I(G) IN (G) para cualquier norma unitariamente invariante N . 3. IN (G) = 0 G I = 0 Gii = 0 para todo i In . 4. Si D = diag (d) Gl (n)+ es diagonal, IN (D) = N (D1 )1 . En part.
n

I(D) = Isp (D) =


i=1

d1 i

I2 (D) =
i=1

d2 i

1/2

5. Los indices I2 e Isp se alcanzan en matrices B Mn (C)+ de rango 1. O sea, I2 (G) = min G xx
x =1
2

Isp (G) = min 0 (o y

G yy . 0).

y =1

Ms an, ambos minimos se alcanzan en vectores x a u 6. Isp (A) = { Isp (D) : A D y D es diagonal }. nf 7. Si x Cn , entonces Isp (x 8. Sea A = a b b c x) = m |xi |2 . n
iIn

M2 (C)+ . Probar que


ac|b|2 a+c2|b|

(a) Si |b| < min{a, c}, entonces Isp (A) =

(b) Si |b| m n{a, c}, se tiene que Isp (A) = m n{a, c}.

Cap tulo 9 Algunas desigualdades de matrices


9.1 Partes reales
A + A H(n). 2

Denicin 9.1.1. Si A Mn (C), se llama parte real de A a o Re A =

Si x Cn , notaremos Re x Rn al vector de las partes reales de sus coordenadas. Proposicin 9.1.2 (Fan-Homan). Sea A Mn (C). Entonces o 1. k (Re A) k (|A|) = sk (A), para todo k In . 2. Existe U U(n) tal que Re A U |A|U . Demostracin. Sean x1 , . . . , xn y w1 , . . . , wn bases ortonormales de Cn , formadas por autoveco tores de Re A (resp. A A) adaptadas a (Re A) (resp. (A A) ). Dado k In , sea x Gen {x1 , . . . , xk } Gen {wk , . . . , wn } , un vector unitario (debe existir por las dimensiones de los subespacios). Entonces, por el Teorema de Courant-Fisher 2.3.3 y la Proposicin 3.2.6, o k (Re A) Re A x, x = Re Ax, x | Ax, x | Ax = A Ax, x
1/2

k (A A)1/2 = k (|A|) = sk (A) .

La segunda parte se deduce de la primera, dado que diag ((Re A) ) (A). Proposicin 9.1.3 (Ky Fan). Dada A Mn (C), sea (A) Cn el vector de autovalores de o A en algn orden. Entonces u Re (A) (Re A)

9.1 Partes reales

164

Demostracin. Ordenemos al vector (A) de tal modo que o Re 1 (A) Re 2 (A) . . . Re n (A) . Sea {x1 , . . . , xn } una base ortonormal respecto a la cual A es una matriz triangular superior, y tal que Axi , xi = i (A) (que existe por el Teorema 1 de Schur 1.6.1). Dado k In , por el Principio del mximo de Ky Fan (Proposicin 5.1.4), se tiene que a o
k k k k k

Re (A) j
j=1

=
j=1

Re j (A) =
j=1

Re Axj , xj =
j=1

Re A xj , xj
j=1

j (Re A) .

Para k = n hay igualdad porque Re tr(A) =

tr A + tr A A + A = tr = tr Re A. 2 2

Corolario 9.1.4. Si A Mn (C) cumple que A + A > 0, entonces (A) {z C : Re z > 0} . En realidad, se puede cambiar Re z > 0 por n (Re A) Re z 1 (Re A). Observacin 9.1.5. Sean A, B H(n). Se llama producto simetrizado de A y B a o S = S(A, B) = AB + BA H(n) . Supongamos que A > 0 y S = S(A, B) > 0. Notar que, si C = A1/2 BA1/2 , 0 < A1/2 SA1/2 = A1/2 BA1/2 + A1/2 BA1/2 = Re C . Por el Corolario 9.1.4, se tiene que (C) = (B) R . Como B H(n), debe ser B > 0. Si + A Mn (C)+ no es inversible, notar que dado > 0 bien chico, se tiene que S(A + I, B) = S(A, B) + 2B > 0 (porque Gl (n)+ es abierto en H(n) ) .

Luego se aplica el caso anterior, y tambien A 0 + S(A, B) > 0 = B > 0. Ejercicio 9.1.6. Sean A, B H(n). 1. Probar que, para cada x Cn , se tiene S(A, B)x, x = 2 Re Ax, Bx . 2. Dar un ejemplo de matrices positivas A y B tales que S(A, B) 0. Proposicin 9.1.7 (Kittaneh 95). Sean A, B Mn (C) tales que AB H(n). Entonces, o |||AB||| ||| Re BA||| para toda NUI ||| ||| en Mn (C).

9.1 Partes reales

165

Demostracin. Comencemos notando que los autovalores de BA son los mismos que los de o AB y por ende son todos reales. Ms an, en la Proposicin 1.5.5 vimos que (AB) = (BA). a u o Luego, usando la Proposicin 9.1.3, obtenemos que o (AB) = (BA) = Re (BA) (Re BA).

Como AB y Re BA H(n), podemos aplicar el Corolario 5.3.14 (usando que t |t| es convexa) y deducir que s(AB) = |(AB)| w |(Re AB)| = s(Re AB), por lo que |||AB||| ||| Re(BA)||| para toda NUI. Proposicin 9.1.8 (Corach-Porta-Recht, 93). Sean T, S H(n) y supongamos que S es o inversible. Entonces, |||ST S 1 + S 1 T S||| 2 |||T ||| para toda NUI ||| ||| en Mn (C). Demostracin. Aplicar la desigualdad de Kittaneh a A = T S 1 y B = S. o Ejercicios 9.1.9. 1. Usando el famoso truco de las matrices de 2 2, extender la desigualdad CPR a cualquier T Mn (C), no necesariamente autoadjunta. Se sugiere usar las matrices 0 T T = M2n (C) T 0 y una adecuada S1 H(2n) invertible. Ojo con los sk (T ), que son los de T , pero repetidos dos veces cada uno. 2. Con el mismo truco, probar tambin que, si T Mn (C) y S H(n) es inversible, e entonces |||ST S + S 1 T S 1 ||| 2 |||T ||| para toda NUI ||| ||| en Mn (C). 3. Vericar, adems, que la constante 2 es ptima en el primer caso (jando S y moviendo a o todos los T Mn (C) o H(n) ), pero no siempre lo es en el segundo. Para qu matrices e S lo ser? (esto ultimo es dif pero es fcil encontrar familias razonablemente grandes a cil, a de ejemplos donde vale, al menos para la norma espectral). 4. Otra manera de probar la desigualdad CPR (la original) es (a) Primero reducir al caso en que S es diagonal. (b) Despus escribir ST S 1 + S 1 T S como un producto de Hadamard. e (c) Vericar que la matriz que multiplica Hadamard, luego de pasarla dividiendo, es semi denida positiva. (d) Aplicar el siguiente resultado: Si A 0, entonces para toda B Mn (C) y para toda nui ||| ||| en Mn (C), se tiene que |||A B||| mx { aii : i In } |||B||| . a Esto es conocido como el Teorema de Schur (ver Corolario 8.2.5, Schur 4).

9.2 Desigualdad de Thompson

166

9.2

Desigualdad de Thompson

Observacin 9.2.1. A diferencia del mdulo de nmeros, el de matrices no cumple la deo o u sigualdad triangular. O sea que existen matrices A, B tales que |A + B| |A| + |B| (Ejercicio: encontrar un par as en M2 (C) ). Esto sucede porque sus partes unitarias pueden mezclar tamaos en forma aleatoria. Lo mejor que se tiene para ese lado es el siguiente resultado, n donde uno corrige ese problema: Teorema 9.2.2 (Thompson). Dadas A, B Mn (C), existen U, V U(n) tales que |A + B| U |A|U + V |B|V . (9.1)

Demostracin. Hagamos la descomposicin polar A+B = W |A+B|, con W U(n). Entonces o o |A + B| = W (A + B) = Re W (A + B) = Re W A + Re W B . Por otra parte, por la Proposicion 9.1.2 (Fan-Homan), existen U, V U(n) tales que Re W A U |W A|U = U |A|U y Re W B U |W B|U = U |B|U , (9.2)

porque (W A) W A = A W W A = A A y entonces |W A| = |A| (lo mismo para B). En el caso de la desigualdad triangular numrica, la igualdad se da si y slo si ambos nmeros e o u poseen igual argumento. Algo similar vale en el caso matricial: Teorema 9.2.3. Dadas A, B Mn (C), las siguientes armaciones son equivalentes: 1. Slo la igualdad puede darse en la ecuacin (9.1). o o 2. Existe W U(n) tal que A = W |A| y tambin B = W |B|. e Demostracin. o 1 2 Sea A + B = W |A + B| la descomposicin polar de A + B, con W U(n). Veremos que o W A 0 y W B 0. Como en la Eq. (9.2), se tiene que |A + B| = Re W A + Re W B . Llamemos C = W A y D = W B. Siguiendo el razonamiento anterior, por la Proposicion 9.1.2 (Fan-Homan), existen U, V U(n) tales que Re W A = Re C U |A|U y Re D V |B|V . Ahora bien, la hiptesis de que slo puede darse la igualdad en (9.1) o o fuerza a que Re C = U |A|U y Re D = V |B|V . Por lo tanto, tr (Re C)2 = tr |A|2 = tr A A = tr AA + tr A A tr CC + tr C C = . 2 2 (9.3)

Observar que 4 tr (Re C)2 = tr CC + tr C C + tr C 2 + tr(C )2 , por lo que la Eq. (9.3) se traduce como tr CC + tr C C = tr C 2 + tr(C )2 . Luego tr (C C )(C C) = tr CC + tr C C tr C 2 tr(C )2 = 0 . Esto muestra que C = W A H(n). Luego W A = Re W A = U |A|U Mn (C)+ . Analogamente se prueba que W B Mn (C)+ .

9.3 Desigualdad aritmtico-geomtrica en matrices e e

167

2 1 Supongamos ahora que A = W |A| y B = W |B| para la misma W U(n). Luego A + B = W (|A| + |B|) = |A + B| = |A| + |B|. Si vale (9.1) para algn par u U, V U(n), entonces |A| + |B| U |A|U + V |B|V = M = U |A|U + V |B|V |A| |B| Mn (C)+ . Luego, la matriz M Mn (C)+ y tiene traza nula, o sea que M = 0. Esto muestra que slo la igualdad puede complirse en (9.1). o

9.3

Desigualdad aritmtico-geomtrica en matrices e e

Recordemos la siguiente desigualdad numrica, que ya hab aparecido en el Teorema 8.6.1: e a Dados a1 , . . . , am R y 1 . . . , m [0, 1] tales que i = 1, se cumple que +
iIm m m

ai i
i=1

i=1

i ai .

(9.4)

Es la llamada desigualdad aritmtico-geomtrica, y se demuestra rpidamente usando que el e e a logaritmo es una funcin creciente y cncava (de nmeros). Como se har en la mayor de o o u a a las secciones que siguen, daremos versiones matriciales de ella. Pero en principio slo para el o 1 a a caso m = 2 y 1 = 2 = 2 . Algunas pginas ms adelante (Teorema 9.4.1), mostraremos una versin ms general (slo se asume que m = 2), que es tambin conocida como la desigualdad o a o e de Young. Igual damos una prueba de este caso, porque usa una tcnica interesante que es e bueno ver cmo funciona. o Proposicin 9.3.1. Sean A, B Mn (C). Entonces o si (AB ) Demostracin. Sea X = o X X = Sean P = I 0 0 0 AB = yU= 1 si (A A + B B) 2 para todo i In .

A 0 B 0

M2n (C). Cuentas elementales muestran que y XX = AA AB BA BB .

A A + B B 0 0 0 I 0 0 I

= 2P I2n U(2n). Luego = XX CP (XX ) =


+

0 AB BA 0

1 XX U XX U . 2

Tomemos la descomposicin AB = AB AB . Observar que ambas matrices XX y o U XX U M2n (C)+ . Luego, la Eq. (3.7) y el tem 5.b de la Seccin 3.3 aseguran que o si (AB ) = i AB = i AB
+

1 1 1 i (XX ) = i (X X) = si (A A + B B) , 2 2 2

9.4 Desigualdades de Young para matrices

168

para todo i In . El siguiente resultado es ms no que el anterior, y no se generaliza tan fcilmente (salvo para a a la norma Frobenius, ver Teorema 9.4.7). Proposicin 9.3.2. Sean A, B, X Mn (C). Entonces se tiene que o |||AXB ||| para toda NUI ||| ||| en Mn (C). Demostracin. Debemos dividir la prueba en tres pasos: o Paso 1: Supondremos que A = B H(n) y tambin X H(n). Por la Proposicin 9.1.7, e o |||AXA||| ||| Re XA2 ||| = 1 |||A2 X + XA2 ||| . 2 1 |||A AX + XB B||| , 2 (9.5)

Paso 2: Ahora X es cualquiera, pero A, B H(n): Tomemeos T = Por el Paso 1, s(T Y T ) TY T = A 0 0 B


1 w 2

H(2n)

Y =

0 X X 0

H(2n) .

s(T 2 Y + Y T 2 ). Pero cuentas fciles muestran que a = A XB y anlogamente a


1 w 2

0 AXB BX A 0

T 2 Y + Y T 2 = A2 X + XB 2 .
1 2

Luego podemos deducir que s(AXB)

s(A2 X + XB 2 ) = s

[A2 X + XB 2 ] .

Paso 3: El caso general. Tomemos descomposiciones polares A = U |A| y B = V |B|, con U, V U(n). Notar que A AX + XB B = |A|2 X + X|B|2 , mientras que |||AXB ||| = ||| U |A| X |B| V ||| = ||| |A| X |B| |||, con lo que la desigualdad (9.5) queda demostrada en general a partir del Paso 2.

9.4

Desigualdades de Young para matrices


1 1 ap b q + = 1 = ab + , p q p q

La desigualdad de Young clsica dice que si a, b R+ y p, q [1, +), entonces a (9.6)

con igualdad si y slo si ap = bq . Observar que escrita as es un refraseo de la desigualdad o , aritmtico geomtrica (9.4). Primero daremos una versin de (9.6) para valores singulares de e e o matrices, que generaliza la Proposicin 9.3.1. o

9.4 Desigualdades de Young para matrices

169

Teorema 9.4.1 (Ando [19]). Sean p, q [1, +) tales que par de matrices A, B Mn (C) y todo j In , se tiene que sj (AB ) sj

1 p

1 q

= 1. Entonces para todo

|A|p |B|q + p q

, |A|p |B|q + . p q

(9.7)

o equivalentemente, que existe U U(n) tal que U |AB |U

Antes de demostrar el teorema, necesitamos algunos pasos tcnicos: e Lema 9.4.2. Sean Q Mn (C) una proyeccin ortogonal y X Mn (C)+ . Entonces o QX r Q (QXQ)r para 0 < r 1 y QX r Q (QXQ)r para 1 r 2 .

Demostracin. Puesto que f (t) = tr es cncava de operadores para r [0, 1] y convexa de o o operadores para r [1, 2], este lema es un respaso de la Proposicin 6.3.9. o El paso clave para probar el teorema, v el cculo de los autovalores con el principio minimax a a del cap tulo 2, es el siguiente resultado tecniqu simo:
1 Lema 9.4.3. Sean p (1, 2] y q [2, +) tales que p + 1 = 1. Sean A Mn (C)+ , q B Gl (n)+ y k In . Sean B = {v1 , . . . , vn } una BON de Cn adaptada a (|AB|), y Sk = Gen {v1 , . . . , vk }. Llamemos P al proyector ortogonal sobre Sk y Q al proyector ortogonal sobre M := R(B 1 P ) = B 1 (Sk ). Si abreviamos = k (|AB|), se tiene que

QAp Q QB q Q + . p q

(9.8)

Demostracin. Por la denicin de Q se tienen las siguientes igualdades: o o QB 1 P = B 1 P y P B 1 Q = P B 1 . (9.9)

Por otra parte, sabemos que B(R(Q) ) = B(M) = Sk = R(P ) , por lo que P BQ = BQ y QBP = QB . (9.10)

Luego, juntado esta ultima igualdad con (9.9) (QB 2 Q)(B 1 P B 1 ) = QBP B 1 = Q . Anlogamente, se ve que (B 1 P B 1 )(QB 2 Q) = Q, lo cual muestra que la inversa de QB 2 Q a dentro de M es B 1 P B 1 . Usando quien es Sk , vemos que P |AB|. Luego, (BA2 B)1/2 = |AB| P = BA2 B 2 P = A2 2 B 1 P B 1 , donde vale elevar al cuadrado por que |AB| y P conmutan. Como p (1, 2], tenemos que la p o funcin f (t) = t 2 es montona de operadores. Luego, usando (9.9), se ve que o Ap p (B 1 P B 1 ) 2
p

= QAp Q p Q(B 1 P B 1 ) 2 Q = p (B 1 P B 1 ) 2 .

9.4 Desigualdades de Young para matrices

170

Como QB 2 Q es la inversa en M de B 1 P B 1 , y en M todo es nulo, tenemos que QAp Q p (QB 2 Q)


p 2

(todo pensado en L(M) ) .

(9.11)

Para probar (9.8), primeramente consideremos el caso q [2, 4]. Por el Lema 9.4.2 QB q Q (QB 2 Q) 2 . Luego, juntando (9.11) y (9.12) se tiene que QAp Q QB q Q p (QB 2 Q) + p q p (QB 2 Q)
p 2 q

(9.12)

(QB 2 Q) 2 + q
1

1 2

(QB 2 Q) 2 = Q ,

donde se puede probar usando la desigualdad de Young numrica, puesto que (QB 2 Q)1/2 e 2 1/2 y (QB Q) conmutan entre s Esto concluye a demostracin para este caso. Supongamos . o q ahora que q (4, ). Sea s = 2 . Entonces 0 < 2 < 1, y q = 2. Por el Lema 9.4.2 se tiene s s Q B q Q = Q (B s ) s Q (Q B s Q) s
p q q

(Q B s Q) s Q B 2 Q .

(9.13)

Por lo tanto, usando que f (t) = t 2 es MOP, se tiene que (QB s Q) s (QB 2 Q) 2
p p

= (QB s Q)

p s

(QB 2 Q)

p 2

en L(M) .

Combinando esta desigualdad con (9.11) se obtiene QAp Q p (QB s Q) y luego combinndola con (9.13) resulta a QAp Q QB q B (QB s Q) + p p q p (QB s Q)
p s p s

(QB s Q) s + q
1

1 s

(QB s Q) s = Q ,

donde nuevamente en la segunda desigualdad se ha usado la versin numrica de la desigualdad o e de Young. Demostracin del Teorema 9.4.1: Probaremos la Eq. (9.7), mientras que la segunda o formulacin queda como ejercicio para el lector. Supongamos primero que A, B Mn (C)+ . o En tal caso tenemos que |AB| = (BA2 B)1/2 y la ecuacin (9.7) puede reescribirse como o j (BA2 B)1/2 = j BA2 B
1/2

Ap B q + p q

para todo j In .

(9.14)

Como j (BA2 B) = j (AB 2 A) para todo j In , los papeles de A y B son simtricos, razn e o por la cual podemos suponer que p (1, 2] y q [2, ). Ms an, apelando a las tecnicas a u

9.4 Desigualdades de Young para matrices

171

usuales de continuidad, podemos tambin asumir que B > 0. Dicho todo esto, jemos k In e 1/2 2 y llamemos = k (BA B) = k (|AB|). Sean B = {v1 , . . . , vn } una BON de Cn adaptada a (|AB|), y Sk = Gen {v1 , . . . , vk }. Llamemos P al proyector ortogonal sobre Sk y Q al proyector ortogonal sobre M := R(B 1 P ) = B 1 (Sk ). Entonces, el Lema 9.4.3 dice que Q QAp Q QB q Q + = m n xM p q x =1 Ap B q + p q x,x = k (|AB|) .

Observar que dim Sk = dim M = k. Luego, utilizando el principio minimax (Teorema 2.3.3) p q para calcular k A + B , la desigualdad (9.14) queda demostrada en este caso. p q El caso general se deduce de lo anterior por la siguiente observacin: Dadas A, B Mn (C), o si hacemos la descomposicin polar B = V |B| con V U(n), se tiene que o |AB |2 = BA AB = B|A|2 B = V |B| |A|2 |B| V = V |A| |B| V . De ah podemos deducir que los vectores s(AB ) = (|AB |) = (|A| |B|). Volviendo a mirar la Eq. (9.7) se ve que lo anterior hace suciente probar el caso positivo, cosa que ya hicimos. Ejercicio 9.4.4. Mostrar con un ejemplo que la desigualdad (9.7) deja de ser cierta si en el miembro izquierdo se quita la estrella en B. (Ayuda: basta considerar matrices de 2 2 y el caso p = q = 2).
1 Corolario 9.4.5. Sean p, q [1, +) tales que p + 1 = 1 y sea N una NUI en Mn (C). q Entonces para todo par de matrices A, B Mn (C), se tiene que 2

N (AB ) N

|A|p |B|q + p q

. =
w

Demostracin. Evidente a partir del Teorema 9.4.1, porque o

Las desigualdades de Hirzallah-Kittaneh


Cuando uno extiende desigualdades numricas a matriciales, aparede un ingrediente nuevo: e Dado que las matrices no conmutan, si uno multiplica por una tercera matrix X, cmo afecta o esto a la desigualdad? Y de qu lado hay que multiplicar cada factor para que la desigualdad e se preserve? Este tipo de anlisis y generalizaciones aparecern seguido en lo que resta del Cap a a tulo. Daremos a continuacin una primera versin que camina para Young, aunque solamente para la o o norma de Frobenius. Lo primero que apareci al respecto, es un resultado de Bhatia y Davis o + [22]: Dados A, B Mn (C) , X Mn (C), y p, q conjugados, se tiene que AXB
2

Ap X XB q + p q

.
2

(9.15)

9.4 Desigualdades de Young para matrices

172

Sin embargo, mostraremos un resultado ms no, debido a Hirzallah y Kittaneh [26], que a adems determina completamente los casos en que en (9.15) pudiera darse la igualdad. Para a ello, comenzamos por demostrar unas desigualdades numricas: e
1 Lema 9.4.6. Sean a, b R , y p, q [1, +) tales que p + 1 = 1. Si r = mx{p, q}, entonces a + q

ap b q + p q

1 (ap bq )2 + a2 b2 . 2 r

(9.16)

Demostracin. Primero observar que si p = q = 2, tenemos en realidad una igualdad. o Asumamos que q = r > p, o sea que q [2, +). V cuentas elementales, se ve que a ap b q + p q
2

1 p (a bq )2 = ap q2

2 q

ap +

2 q b q

1 1 1 donde se usa la igualdad 1 2 = p 1 = p 1 p + 1 = p12 q12 . Ahora, usando la q q q q desigualdad de Young clsica (o la aritmtico geomtrica), tenemos que a e e

2 q

ap +

qp 2 2 2 q b ap (1 q ) b q q = a q b2 , q

1 ya que p(1 2 ) = p( p 1 ) = 1 p . Adems, usando el hecho de que a q q q qp p + ( q ) = 2. As llegamos nalmente a que

p q

= p 1, vemos que

ap b q + p q

qp 1 p (a bq )2 ap a q b2 = a2 b2 q2

Eq. (9.16) .

De manera anloga, si p > q, queda que a

ap b q + p q

1 p (a bq )2 + a2 b2 . p2
1 p

Teorema 9.4.7. Sean A, B Mn (C)+ , X Mn (C), y p, q [1, +) tales que Si r = mx{p, q}, entonces a AXB
2 2

1 q

= 1.

1 Ap X XB q r2

2 2

Ap X XB q + p q

.
2

(9.17)

Demostracin. Como A, B Mn (C)+ , existen U, V U(n) tales que A = U D1 U y B = o V D2 V , donde D1 = diag((A) ) y D2 = diag ((B) ). Llamemos Y = U XV , = (A) y = (B). Entonces tenemos que Ap X XB q + = p q
p q U D1 U X X V D2 V + = U p q q p j i = U + yij V , p q i,jIn p q D1 Y Y D2 + p q

p q Ap X XB q = U (D1 Y Y D2 ) V = U

p q yij i j

V
i,jIn

9.4 Desigualdades de Young para matrices

173

AXB = U (D1 Y D2 )V = U i j yij

V .
i,jIn

Por la desigualdad (9.16) aplicada a cada par a = i y b = j , tenemos que Ap X XB q + p q


2 n

=
2 i,j=1

q p j i + p q n

|yij |2
n

1 2 r =

p i
i,j=1

2 q j

|yij | +
i,j=1 2 2

2 2 |yij |2 i j
2

1 Ap X XB q r2

+ AXB

lo que completa la prueba del teorema. Observacin 9.4.8. Para el caso p = q = 2, la desigualdad (9.17) es en realidad una igualdad. o Esto se observa en la demostracin del Teorema 9.4.7, ya que la desigualdad que se presenta o all es en realidad una igualdad, como se observ en el Lema 9.4.6. o A partir de lo anterior pueden encontrarse condiciones necesarias y sucientes para que se satisfagan las igualdades en (9.15) y (9.7), como se demuestra a continuacin. o Corolario 9.4.9. Sean A, B, X, p y q como en el Teorema 9.4.7. Se tiene que Ap X XB q + p q Demostracin. Si se tiene que o que Ap X XB q
2

= AXB
2 Ap X p XB q q

Ap X = XB q .

(9.18)

= AXB
2

, la desigualdad (9.17) asegura que

= 0, o sea que Ap X = XB q .

Asumamos que Ap X = XB q . Como antes, tenemos A = U D1 U , B = V D2 V , donde D1 = diag((A) ) y D2 = diag ((B) ). Luego
p p Ap X = U D1 U X = U [D1 (U XV )] V

q q XB q = XV D2 V = U [(U XV ) D2 ] V ,

q p con lo cual, llamando Y = U XV , tendremos que D1 Y = Y D2 , es decir que

p yij = yij q = i yij = yij jp i j


q

para todos los i, j In .


q

p Llegamos a que D1 Y = Y D2 , y por ende AX = XB p . As , q

AXB = XB p B = XB q =

XB q XB q Ap X XB q + = + . p q p q

Vemos que vale la igualdad entre las matrices, que implica la igualdad de sus normas.

9.4 Desigualdades de Young para matrices

174

Corolario 9.4.10. Sean p, q [1, +) tales que sj Ap X XB q + p q = sj (AB)

1 p

1 q

= 1. Entonces Ap = B q .

para todo j In

Demostracin. Es consecuencias del Corolario 9.4.9 aplicado a X = I. Observar que la o condicin Ap = B q implicaba igualdad de matrices. o Corolario 9.4.11. Sean p, q [1, +) tales que U Ap X XB q + p q U = |AB|
1 p

1 q

= 1. Entonces Ap = B q .

para alguna U U(n)

Demostracin. Es lo mismo que el Corolario 9.4.10. o Observacin 9.4.12. Sean a, b R , y p, q [1, +) tales que o + ap b q + p q
2 1 p

+ ,

1 q

= 1. Luego (9.19)

ap b q + ab p q

+ a2 b 2
2

ap b q ap b q + + ab + ab p q p q p q a b 1 p |a bq | + ab , s p q

+ 4a2 b2

(9.20) (9.21)
p q

donde s = m n{p, q}. En efecto, para probar (9.19) recordamos que = ap + bq ab, con lo cual 2 2 2ab+2a2 b2 = ( ab)2 +a2 b2 . Tambin, ( +ab)2 ( ab)2 = 4ab 4a2 b2 , e y obtenemos (9.20). Para obtener (9.21), si ap bq , tambin tenemos a bq/p , y como e 1/s 1/p 0, 1 1 s p ap + ab = 1 1 s p bq + bq/p b = 1 1 + s q bq =

1 p ap b q |a bq | + ab. s p q q p Si b a , la demostracin es anloga. Partiendo de estas desigualdades y siguiendo el o a razonamiento de la demostracin de (9.17), podemos mostrar que si A, B Mn (C)+ , X o 1 Mn (C), y p, q [1, +) cumplen que p + 1 = 1, entonces q Ap X XB q + p q Ap X XB q + + ABX p q 1 Ap X XB q s
2

2 2

Ap X XB q + ABX p q Ap X XB q + ABX p q Ap X XB q + AXB p q

+ AXB
2 2

2 2 2 2

, ,

(9.22) (9.23) (9.24)

2 2

+ AXB
2

,
2

donde s = m n{p, q}. Notar que (9.22) tambin es ms fuerte que (9.15). Adems, (9.24) e a a puede usarse para demostrar de manera directa los corolarios anteriores.

9.5 Desigualdades tipo Hlder para matrices o

175

Ejercicio 9.4.13. Sean A, B, C, D Mn (C)+ tales que AD = DA y BC = CB. Sean 1 X Mn (C) y p, q [1, +) tales que p + 1 = 1. Entonces q 1 p 1 A XC p + Dq XB q p q
2

1 Ap XC p Dq XB q r2

2 2

+ ADXCB

2 2

(9.25)

donde r = mx{p, q}. En particular, si C = D = I se recupera (9.17). a Ejercicio 9.4.14. Sean A, B, C, D Mn (C) tales que AD = DA, A D = DA , BC = CB 1 y B C = CB . Sean X Mn (C) y p, q [1, +) tales que p + 1 = 1. Entonces q 1 1 |A|p X |C|p + |D|q X |B|q p q
2

1 |A|p X |C|p |D|q X |B|q 2 r

2 2

+ ADXC B

2 2

donde r = mx{p, q}. En particular, si C = D = I, tenemos a 1 1 |A|p X + X |B|q p q


2

1 |A|p X X |B|q 2 r

2 2

+ AXB

2 2

(9.26)

que es la extensin natural de (9.17) a matrices cualesquiera. Extender las desigualdades o (9.22)-(9.24) de manera anloga. a

9.5

Desigualdades tipo Hlder para matrices o


1 p

Observacin 9.5.1 (Caso numrico). . Dados p, q (1, +) tales que o e ms simple de la desigualdad numrica de Hlder se escribe a e o (|a|p + |b|p ) p (|c|q + |d|q ) q |ac + bd| , para todo cuarteto a, b, c, d C. Ms an, podemos escribir: a u (|a|p + |b|p ) p = max {|ac + bd| : |c|q + |d|q = 1} , que tiene que ver con la frase el dual de
p
1 1 1

1 q

= 1, la forma

(9.27)

(9.28)

es

Proposicin 9.5.2. Sean A, B Mn (C). Entonces se verica que o (A A + B B)1/2 = mx |C A + D B| : C, D Mn (C) y C C + D D I . a Demostracin. Dadas C, D Mn (C) matrices cualesquiera, tenemos que o A A + B B A C + B D C A + D B C C + D D = A C B D

(9.29)

A C B D

0.

9.5 Desigualdades tipo Hlder para matrices o

176

Recordemos que la Proposicin 3.8.6 asegura que, dadas X Mn (C)+ e Y Mn (C), o X Y Y I 0 X Y Y 0 . (9.30)

Por lo tanto, si C C + D D I, tenemos que A A + B B |C A + D B|2 . Usando que f (t) = t1/2 es montona de operadores, llegamos a que o (A A + B B)1/2 |C A + D B| . Ms an, cuando A A + B B Gl (n)+ , si consideramos a u C = A(A A + B B)1/2 y D = B(A A + B B)1/2 , (9.31)

obtenemos una igualdad en la Eq. (9.31). Cuando A A + B B Gl (n)+ , observar que / S = ker(A A + B B) = ker(A A) ker(B B) = ker A ker B .
Sean A1 = A|S I|S , B1 = B|S I|S . Luego, A A1 + B1 B1 Gl (n)+ . Tomando 1 C = A1 (A A1 + B1 B1 )1/2 , D = B1 (A A1 + B1 B1 )1/2 , 1 1

una cuenta fcil mustra que tambin obtenemos una igualdad en la Eq. (9.31). a e Lema 9.5.3. Sea A, B Mn (C)+ , p (1, +) y [0, 1]. Entonces se tiene que (Ap + B p ) p 1 p A + (1 )1 p B . Demostracin. Cuando = 0, tenemos que Ap 0, con lo cual Ap + B p B p . Luego, como o 1/p f (t) = t es montona de operadores, sale que (Ap + B p )1/p B. Caso anlogo ocurre para o a = 1. Consideremos entonces 0 < < 1, y llamemos = 1 . Usando que f (t) = t1/p tambin es cncava de operadores, tenemos que e o (Ap + B p ) p =
1 1 p 1 1 1

1 p

1 p

1 p A + 1 p B .

Teorema 9.5.4. Sean A, B, C y D Mn (C), p, q [2, +) y r (1, +] que cumplen la ecuacin p + 1 = 1 1 . Para todo (0, 1), si llamamos = 1 , se tiene que o 1 q r |C|q + |D|q I = |A|p + |B|p
2 p

r C A + r D B

(9.32)

Demostracin. El caso r = (o sea, p = q = 2), fue visto en la Proposicin 9.5.2, con lo cual o o asumimos r < . Dado que (1/2 1/p) + (1/2 1/q) = 1/r, tenemos que: 1 p A A + 1 p B B r A C + r B D 2 1 1 1 2 r C A + r D B q C C + 1 q D D 2p A 2q C 1 1 1 1 2p B 2q D
1 1 1 1 2 2 1 1

2p A 2q C 1 1 1 1 2p B 2q D

M2n (C)+ .

9.5 Desigualdades tipo Hlder para matrices o

177

De acuerdo al Lema 9.5.3, tenemos que 1 p A A + 1 p B B (|A|p + |B|p ) p con lo cual concluimos que
2 2 2 2

y
2

1 q C C + 1 q D D (|C|q + |D|q ) q ,
1 1

(|A|p + |B|p ) p r A C + r B D 2 1 1 (|C|q + |D|q ) q r C A + r D B


2 1 1

1 p A A + 1 p B B r A C + r B D 2 2 1 1 r C A + r D B 1 p C C + 1 p D D

M2n (C)+ .

Usando la Eq. (9.30) y el hecho de que |C |q + |D |q I, estamos hechos. Denicin 9.5.5. Dadas C, D Mn (C)+ , escribimos C D si C m Dm , para todo m N. o Esta relacin es un orden parcial denominado orden espectral. o Proposicin 9.5.6. Sean A, B Mn (C)+ . Entonces se verica: o 1. La funcin [1 , +) o p
Ap +B p 2
1 p

es creciente (relativa al orden de Mn (C)+ ).

2. El siguiente lmite existe y da el A B = lim Ap + B p


p
1 p

-supremo de A y B: = m n C Mn (C)+ : A C y B C .

Demostracin. Sean r, q [1 , +) tales que r < q. Si aplicamos el Lema 9.5.3 para los o q 1 nmeros = 2 y p = > 1, resulta que u r (A + B ) = (A ) + (B )
1

r q

q r

q r

r q

1 q

1 2
1 r q

(Ar + B r ) .

Luego, usando que t r es MOP y multiplicando por 2 Aq + B q 2


1 q

, llegamos a que
1 r

Ar + B r 2

Sea M = mx{1 (A), 1 (B)}. Para cualquier p [1, +) tenemos que a M p mx{1 (Ap ), 1 (B p )} = mx{ Ap a a
p p 1

sp

, Bp

sp }

Ap + B p 2
p 1

sp

y por lo tanto M I A +B p . En resumen, la funcin p A +B p es creciente y acotada o 2 2 superiormente. Aplicando el Ejercicio 3.9.16 vemos que debe existir el l mite AB = sup
p[1 ,+)

Ap + B p 2

1 p

= lim

Ap + B p 2

1 p

= lim (Ap + B p ) p .
p

9.5 Desigualdades tipo Hlder para matrices o

178

Fijemos m N. Tomando p > m, se tiene que t p es MOP, y as Am = (Ap ) p (Ap + B p ) p = (Ap + B p ) p


m
m m 1

(A B)m .
p

Anlogamente se muestra que (A B) B m . Esto vale para cualquier m N, y as a A, B A B. Sea ahora C Mn (C)+ tal que A, B C. Para cada par m, k N tenemos que Akm , B km C km , y usando que t k es MOP, resulta que (A B) = lim As A B ,
m
1

Akm +B km 2

1/k

C m . Luego

Ap + B p 2

m p

= lim

Akm + B km 2

1 k

Cm ,

para todo m N .

C. Luego, A B es el supremo de A, B con respecto al orden espectral.

Corolario 9.5.7. Sean A, B, C, D Mn (C). Fijado p [2, ), tomemos el q (1, 2] tal que 1 se tenga la igualdad p + 1 = 1. Entonces q C
q

+ D

2 q

|A|p + |B|p
2

2 p

|CA + DB|2 .
2

(9.33)

Por lo tanto, se tiene que

C + D

|A| |B|

|CA + DB|2 .

Demostracin. Fijemos p [2, ). Supongamos en principio que C , D 1. En tal caso, o se tiene que |C | I = |C | I y lo mismo para D. Por la Proposicin 9.5.6, o |C |t + |D |t 2
1 t

|C | |D | I

para todo t [1, +) .

(9.34)

Vamos a aplicar el Teorema 9.5.4. Para ello, tomemos t [2, +) y r (1, +] tales que 1 + 1 = 1 1 . Dados [0, 1] y = 1 , la Eq. (9.34) y el teorema citado aseguran que p t r |A|p + |B|p
2 p

2t

r CA + r DB
2

.
1 1

Haciendo t (con lo cual r q), tenemos que (|A|p + |B|p ) p q CA + q DB . Si ahora suponemos ms que antes: que C q + D q = 1, entonces podemos elegir = C q a 1 1 q y = D = 1 . Reemplazando C = q C y D = q D, queda que C = D = 1 (si alguna era nula, su prima tambin la hacemos nula). Por el caso anterior obtenemos que e C
q

+ D

= 1 = (|A|p + |B|p )

2/p

q C A + q D B

= |CA + DB|2 .

(9.35)

En el caso general, dadas C, D Mn (C) (alguna de las dos no nulas), consideramos E=( C con lo cual E
q q

+ D q)

1/q

F =( C

+ D q)

1/q

D,

+ F
2

= 1. Por la Eq. (9.35) nos queda que |CA + DB|2 ( C


q

(|A|p + |B|p ) p |EA + F B|2 =

+ D q) q

la Eq. (9.33) .

La otra desigualdad se obtiene de lo anterior, considerando el l mite para p .

9.6 La tcnica alternativa e

179

9.6

La tcnica alternativa e

En esta seccin repasaremos y mezclaremos una serie de deniciones y resultados de los o Cap tulos 4 y 7 que usaremos seguido en el resto de este Cap tulo. Primero enunciamos los relativos a las propiedades espectrales de los productos alternados de matrices (Seccin o 7.3): Teorema 9.6.1. Sea A Mn (C) con autovalores 1 (A), . . . , n (A). Sea k In . Entonces los autovalores de k A estn dados por a J (k A) =
i J

i (A) ,

J Qk,n ,

contados con multiplicidad. Corolario 9.6.2. Sea A Mn (C). Sea k In . Entonces los valores singulares de k A son s k A = sJ k A
JQk,n

=
i J

si (A)

JQk,n

contados con multiplicidad, y ordenados en forma decreciente. Adems, si ordenamos a los a autovalores 1 (A), . . . , n (A) de A con mdulos decrecientes, se tiene que o
k k

A =
i=1

|i (A)|

sp

= s1 A =
i=1

si (A) .

Ahora vienen los resultados que relacionan la mayorizacin logar o tmica con la usual (ver Seccin 4.4): Recordemos que, dados x, y Rn , escribimos x w y si o +
log

x i
i=1

i=1

yi

para todo
n

k In .
n

(9.36)

Si x > 0 e y > 0, escribimos x


log

y si x
log

y y, adems, a
i=1

xi =
i=1

yi . y entonces, como en
log

Observacin 9.6.3. Sean x, y Rn tales que x > 0 e y > 0. Si x o

el caso de la mayorizacin comn, se cumplen desigualdades invesas para las entradas mas o u pequeas de x e y. Es decir que n
n n

x i
i=k

i=k

yi

para todo

k In .

(9.37)

Tener cuidado, que esto no vale si slo se tiene que x o


log

y, porque se usa la igualdad de los

productos hasta n.

9.7 Primeras aplicaciones

180

Proposicin 9.6.4. Sean x, y Rn . o + 1. Si x


log

y, entonces xp

yp

para todo

p R+ .
w

2. Si x > 0 e y > 0, entonces x


log

y implica que xp

y p para todo p R .

Observacin 9.6.5. o 1. El caso ms usado de la Proposicin 9.6.4 es cuando p = 1. Es a o decir que, si x, y Rn , entonces x w y implica x w y. Esto ser sumamente util a +
log

cuando se lo aplique a desigualdades con valores singulares de matrices, usando tcnicas e de productos alternados. Observar que, en este caso, el Corolario 4.2.3 nos dice que, si hubese quedado x y, deb cumplirse que x y . a
log

2. Por otra parte, la Proposicin 9.6.4 se puede generalizar, sin cambiar la prueba, si o remplazamos las funciones f (t) = tp por cualquier funcin f : R+ R tal que la o aplicacin t f (et ) resulte convexa (o convexa creciente). Notar que, en el caso o demostrado, se usaba esa propiedad para la funcin t (et )p = ept . o

9.7

Primeras aplicaciones

En esta seccin veremos tres desigualdades importantes que se prueban en forma directa o usando la tcnica de extrapolar una desigualdad conocida, pero aplicada a los productos e alternados, y luego deducir una mayorizacin v la Proposicin 9.6.4: o a o

Desigualdad de Weyl
Proposicin 9.7.1 (Mayorante de Weyl). Sea A Mn (C). Entonces, si (A) denota el o vector de autovalores de A, se tiene que 1. |(A)|
log

s(A).
w

2. Para todo p 0 se tiene que |(A)|p

s(A)p .

Demostracin. Veriquemos las desigualdades de la frmula (9.36) para los vectores |(A)| o o y s(A). Para k = 1, basta notar que (A) A sp . El caso k 1 se obtiene considerando la desigualdad anterior para los tensores alternados k (A). En efecto, por el Corolario 9.6.2, tenemos que
k k

|(A)| i
i=1

= ( A) A

sp

=
i=1

si (A) ,

para todo

k In .

La igualdad para k = n se deduce de que | det A| = (det A A)1/2 = det |A| . La segunda parte se deduce de la Proposicin 9.6.4. o

9.7 Primeras aplicaciones

181

Desigualdad de B. Simon
La que sigue es una variante de la Proposicin 9.1.7 (desigualdad de Kittaneh 95): o Proposicin 9.7.2. Sean A, B Mn (C) tales que AB es normal. Entonces o |||AB||| |||BA||| para toda NUI ||| ||| en Mn (C). Demostracin. Como AB es normal, se tiene que AB o s1 (AB) = AB
sp sp

= (AB). Luego
sp

= (AB) = (BA) BA

= s1 (BA) .

Aplicando esta desigualdad a k AB (1 k n), que tambin es normal, obtenemos que e


k k

s(AB)
log

s(BA) ,

i.e.
i=1

si (AB)
i=1 w

si (BA) ,

k In .

Por la Proposicin 9.6.4, deducimos que s(AB) o

s(BA).

Desigualdad de Horn
Proposicin 9.7.3 (Teorema de Horn). Sean A, B Gl (n). Sea (AB) el vector de autoo valores de AB ordenado con mdulos decrecientes, i.e. |(AB)| = |(AB)| . Entonces o |(AB)|
log

s(AB)
log

s(A)s(B) = (s1 (A)s1 (B), . . . , sn (A)sn (B) ) .

En particular, si A, B Gl (n)+ , para todo k In se tiene que


k k n n

i (AB)
i=1 i=1

i (A)i (B)

y
i=k

i (AB)
i=k

i (A)i (B) .

(9.38)

Demostracin. Las relacin |(AB)| o o


log

s(AB) se deduce de la Proposicin 9.7.1. Por otro o


k

lado, el Corolario 9.6.2 asegura que, para todo k In ,


k

si (AB) = k AB
i=1

sp

k A k B

sp

k A

sp

k B

sp

=
i=1

si (A) si (B) .

Adems, como | det C| = det |C| para cualquier C Mn (C), se tiene que a
n n

si (AB) = det |AB| = | det AB| = | det A| | det B| = det |A| det |B| =
i=1 i=1

si (A) si (B) .

La Eq. (9.38) se deduce de lo anterior y de la Observacin 9.6.3, ya que podemos usar que o (AB) = (A1/2 BA1/2 ) R+n , (A) = s(A) y (B) = s(B). Ejercicio 9.7.4. Dadas A, B Gl (n)+ , probar que (A1/2 BA1/2 )2
log

(AB 2 A). Comparar

con el Teorema 9.9.4 de ms adelante. a

9.8 La exponencial

182

9.8

La exponencial

Generalidades
Sea A Mn (C). Recordemos que la exponencial de A es la matriz e
A

= exp(A) =

Am . m! m=0

(9.39)

La serie converge absolutamente, porque

m=0

Am m!

m=0

A m = e m!

< .

Por medio de una prueba similar a la del Corolario 1.7.2 (usando el Teorema 1 de Schur 1.6.1), se puede ver que, si (A) = (1 (A) , . . . , n (A) ), entonces (eA ) = e(A) := (e1 (A) , . . . , en (A) ) . (9.40) En particular, esto dice que eA = e(A) y que eA Gl (n) para toda A Mn (C). Para hacer esto se usa que, al igual que con los polinomios, se tiene que eSAS
1

= SeA S 1 ,

para toda S Gl (n) .


m

Por ultimo, no es dif vericar con el mismo tipo de argumentos que cil eA = lim
m

I+

A m

(9.41)

Observacin 9.8.1. Sean A, B Mn (C). Por la teor general de series de potencias (con o a variables que conmutan, para usar el binomio de Newton), se puede ver que si AB = BA = eA+B = eA eB . Entre otras cosas, esto sirve para probar que (eA )1 = eA , porque eA eA = eAA = I. En forma similar puede verse que, si A H(n), entonces eA Gl (n)+ y (eA )1/2 = e 2 .
A

(9.42)

Ms an, cuando A H(n), se tiene que eA = f (A), donde f (t) = et , t R, en el sentido del a u clculo funcional para autoadjuntas visto en el Cap a tulo 6. Esto puede probarse diagonalizando a A o bien tomando l mite de polinomios en la frmula (9.39). Aplicando los resultados o conocidos para dicho clculo (en particular 6.1.3), se tienen las siguientes propiedades: Si a A H(n), entonces 1. eA Gl (n)+ y A = log eA . 2. (eA )r = erA para todo r R. 3. Si A > 0, entonces A = elog A . 4. Ms an, Ar = er log A para todo r R. a u

9.8 La exponencial

183

Frmula de Lie-Trotter o
Lamentablemente, cuando A y B no conmutan, la cosa se pone mucho ms brava, y es muy a A+B dicil encontrar las propiedades de e en funcin de las de A y B. La unica herramienta o que se tiene, y que se usa sistemticamente para este problema, es la famosa frmula de a o Lie-Trotter que mostraremos a continuacin. o Teorema 9.8.2. Dadas A y B Mn (C), se tiene la siguiente frmula: o eA+B = lim
m

em em

(9.43)

Demostracin. Dadas X, Y Mn (C), mediante una t o pica cuenta telescpica puede verse o que X m Y m =
m1 j=0 m1

X m1j (X Y )Y j para todo m N. Luego,


m

X Y

=
j=0 m1

X m1j (X Y )Y j X m1j
j=0 m1

X Y

Yj M m1 ,

(9.44)

X Y
j=0

M m1j M j = m X Y

donde M = mx( X , Y ). Consideremos ahora las matrices a Xm = e


A+B m

Ym = e m e m ,
A + B m

para cada m N . . Por la desigualdad (9.44),


A + B

Observar que Mm = mx( Xm , Ym ) e a


m m Xm Ym m Xm Ym e
m1 m

( A + B )

m Xm Ym e

, m N.

Luego del desarrollo en series de la funcin exponencial, obtenemos que Xm Ym = o A+B (A + B)k = 1+ + m mk k! k=2 1 = m2 =

A Ak 1+ + m k=2 mk k!

B Bk 1+ + m k=2 mk k!

k=2

(A + B)k A AB I + k2 k! m m

Bk mk2 k!

k=2

Ak mk2 k!

em

k=2

1 Cm (A, B) . m2
mN m m Xm Ym m Xm Ym e A + B

Si mostrramos que C(A, B) = sup Cm (A, B) < , entonces tendr a amos que C(A, B) e m
A + B

0.
m

9.9 Desigualdades de Araki y Cordes

184

Afortunadamente, las constantes Cm (A, B) se pueden acotar con las series de las normas. B B Aparecen varios sumandos, todos ellos elementales. Por ejemplo, e m e m e B y

Ak mk2 k!

k=2
A B

Ak mk2 k!

k=2

k=2

Ak e k!
m

para todo m N . lim (e m e m )m = eA+B .


A B

m m Por lo tanto, eA+B (e m e m )m = Xm Ym 0 =

Otras frmulas relacionadas o


Sean A, B Mn (C). Conjugando la frmula (9.43) con la sucesin e 2m (que tiende a I), o o obtenemos esta otra versin de Lie-Trotter o eA+B = lim e 2m
m
B B

em em

e 2m = lim

e 2m e m e 2m

(9.45)

que es mucho ms adecuada en caso de que A, B H(n), para que la cosa pase entre matrices a positivas. Ejercicios 9.8.3. 1. Si suponemos que A, B H(n), puede obtenerse la siguiente nueva frmula: o eA+B = lim e
tB 2

t0

etA e

tB 2

1 t .

(9.46) 1 t tiene sentido para todo

Observar que e

tB 2

tA
tB

tB 2

Gl (n) por lo que e


tB

tB 2

tA

tB 2

= e 2 etA e 2 , por lo que el caso t < 0 no crea t = 0. Adems, e 2 etA e 2 a problemas. tB tB Sug: Desarrollar el producto de las tres series asociadas a e 2 etA e 2 y aplicarles la serie de potencias de 1 < x log(1 + x). Despues seguir pasos similares a los de la prueba del Teorema 9.8.2. 2. Extendiendo el argumento que utilizamos para probar el Teorema 9.8.2 probar que, dadas A1 , A2 , ... , Ak Mn (C), se tiene que
k

tB

tB

exp
i=1

Ai

= lim e m e m ... e m
m

A1

A2

Ak

(9.47)

9.9

Desigualdades de Araki y Cordes


1 (Ar B r ) 1 (AB)r .

Proposicin 9.9.1. Sean A, B Gl (n)+ . Entonces, para todo r (0, 1) o

9.9 Desigualdades de Araki y Cordes

185

Demostracin. Podemos asumir que 1 (AB) = 1, porque si 2 = 1 (AB), basta cambiar A, B o 1 por A y 1 A, dado que = 0 y la desigualdad a probar es homognea. Luego debemos e vericar que 1 (Ar B r ) 1. En efecto, 1 (AB) = 1 A1/2 BA1/2 = 1 = A1/2 BA1/2 I = B A1 .

Como r (0, 1), el Teorema 6.2.6 dice que f (x) = xr es montona de operadores. Luego o B r Ar como se asever. o Proposicin 9.9.2 (Cordes 87 [5]). Sean A, B Mn (C)+ . Entonces o Ar B r
sp

Ar/2 B r Ar/2 I

1 (Ar B r ) = 1 Ar/2 B r Ar/2 1 ,

AB

r sp

para todo r [0, 1] .


sp

(9.48)

Demostracin. Como antes, supondremos que AB o 1 = AB


sp

= 1. En tal caso

= AB 2 A

sp

= AB 2 A 1 = B 2 A2 = B 2r A2r (por el Teorema 6.2.6) = Ar B 2r Ar 1 = Ar B 2r Ar sp 1 = Ar B r sp 1 .

El caso general sale por homogeneidad. DadasA, B H(n), recordar que escribimos A B en lugar de (A) mayorizacin entre los autovalores de A y los de B. o Denicin 9.9.3. o 1. Sean A, B Mn (C)+ . Escribiremos A
log

(B) para notar la

B si (A)
log

(B). Es decir, si

i (A)
i=1 i=1

i (B)

para todo

k In . B.

(9.49)

2. Si A, B Gl (n)+ , decimos que A


log

B si det A = det B y A
log

Observar que, A
log

B log A

log B , ya que la funcin t et es creciente. o

Teorema 9.9.4 (Araki 90 [21]). Sean A, B Mn (C)+ . Para todo r (0, 1) se tiene que (Ar/2 B r Ar/2 )1/r
log

A1/2 BA1/2

9.9 Desigualdades de Araki y Cordes

186

Demostracin. Fijemos un r (0, 1). Como o (Ar/2 B r Ar/2 ) = (Ar B r ) basta ver que
k k n n

(A1/2 BA1/2 ) = (AB) ,

j (A B )
j=1

r 1/r

j=1

j (AB) ,
k

k In
k

y
j=1

j (A B )

r 1/r

=
j=1

j (AB) .

Aplicando la Proposicin 9.9.1 a A y B, y usando la Proposicin 7.4.4 se obtiene o o 1 ((k A)r (k B)r ) = 1 (k Ar k B r ) 1 (k A k B) . Como (k A)(k B) = k (AB), podemos deducir que
k 1/r j (Ar B r ) j=1 k 1/r 1/r

1/r 1 (k (Ar B r ))

1 ( (AB)) =
j=1

j (AB) .

La igualdad en el caso k = n se obtiene tomando determinantes. Corolario 9.9.5. Sea ||| ||| una NUI en Mn (C). Dados A, B Mn (C)+ , se tiene que |||Ar B r Ar ||| |||(ABA)r ||| para todo r (0, 1) . Demostracin. Aplicando el Teorema 9.9.4 a las matrices A2 y B y la Proposicin 4.4.3, o o obtenemos
k k

sj (A B A )
j=1 r j=1

sj (ABA)r (k In ) = s(Ar B r Ar )

s( (ABA)r ) .

(9.50)

Se usa que si ( (ABA) ) = i ( (ABA)r ) = i (ABA)r = si (ABA)r , para todo i In . Observacin 9.9.6. En las Proposiciones 9.9.1 y 9.9.2, el Teorema 9.9.4 y el Corolario 9.9.5, o valen las desigualdades inversas si uno considera exponentes t 1. En efecto, basta aplicar lo conocido a las matrices At y B t , con el exponente r = t1 . En el caso del Corolario 9.9.5, se puede corregir el exponente externo en la Eq. (9.50) Proposicin 9.9.7. Dadas A, B Gl (n)+ , se cumple que o log A + log B log(A1/2 BA1/2 ) . (9.51)

Demostracin. Por la frmula de Lie-Trotter, en la versin dada por la frmula (9.46), o o o o elog A+log B = lim (Ar/2 B r Ar/2 )1/r
r0

Por el Teorema de Araki, (A elog A+log B


log

r/2

B A

r/2 1/r

(A1/2 BA1/2 ) para todo r (0, 1). Aplicando el


log

Corolario 2.3.8, obtenemos que (A1/2 BA1/2 ) = log A + log B log(A1/2 BA1/2 ) .

Ejercicio 9.9.8. Usando el Corolario 9.9.5 para las NUIs A p = (tr |A|p )1/p , mostrar la famosa desigualdad de Araki-Lieb-Thirring: Dadas matrices A, B Gl (n)+ , se tiene que tr (B 1/2 AB 1/2 )st tr (B t/2 At B t/2 )s , para todo par de nmeros s, t 1. u

9.10 Desigualades entre exponenciales

187

9.10

Desigualades entre exponenciales

Si z C, uno tiene que |ez | = eRe z = |eRe z |. Veamos qu pasa en matrices: e Proposicin 9.10.1. Sea ||| ||| una NUI en Mn (C). Para toda A Mn (C), se tiene que o |||eA ||| |||eRe A ||| . Demostracin. Usando que B m sp B m y que s1 (B)2 = B 2 = B B o sp sp que s1 (B m )2 s1 (B)2m = s1 ( (B )m B m ) s1 (B B)m , para todo m N y toda B Mn (C). Aplicando esto a k B, tenemos ms: a
k k sp

, obtenemos

si ( (B ) B )
i=1 i=1

si (B B)m

para todo k In y todo m N .

A Eligiendo ahora B = exp m y aplicando Lie-Trotter llegamos a que k k


A

k
A

si ( eA eA )
i=1 i=1

si [e m e m ]m
m i=1

si eA

+A

para todo k In .

Tomando raices cuadradas, llegamos a que s(eA ) 4.4.3, tenemos nalmente que s(eA )
w

w
log

s(eRe A ). Usando ahora la Proposicin o

s(eRe A ).

Ejercicio 9.10.2. Encontrar A M2 (C) tal que |||eA ||| < |||eRe A ||| para toda NUI. Recordemos que si C, D Mn (C)+ , entonces (CD) R+ y ms an, al vector de autovala u 1/2 1/2 n ores (CD) = (D CD ) R+ , se lo puede pensar ordenado en forma decreciente. En particular, se tiene que tr CD R+ . Lema 9.10.3. Dadas A, B Mn (C), se tiene que |(eA+B )|
w

(eRe A eRe B )

| tr eA+B | tr (eRe A eRe B ) .

Demostracin. Fijado k In , denamos las siguiente funcin continua: o o


k

fk : Mn (C) R+

dada por

fk (X) =
i=1

|(X)| , i

para X Mn (C) .

Notar que todas estas fk cumplen que, para todo par X, Y Mn (C) y todo m N, fk (XY ) = fk (Y X) y fk (X 2m ) fk ([X X]m ) . (9.52)

9.10 Desigualades entre exponenciales

188

En efecto, observar que para todo r In y todo m N, se tiene que (r X 2m ) = (r X)2m r X


2m sp

= r X X

m sp

= (r [X X]m ) .

Por la Proposicin 9.6.4, deducimos que |(X 2m )| w ([X X]m ), o sea la desigualdad de o (9.52) para todo k In . La igualdad vale porque (XY ) = (Y X). Por lo tanto, fk (XY )2
m

= fk [ Y X XY ]2 fk [ (XY ) (XY ) ]2 2m1 = fk [ (X X) (Y Y ) ] .


m1

m1

m1

donde la ultima igualdad vale porque [ Y X XY ]2 diere de [ X XY Y ]2 pasar el primer Y al nal. Repitiendo esto, se llega a que fk (XY )2
m

m1

tan slo en o

fk [ (X X)2 (Y Y )2 ]2

m2

fk (X X)2

m1

(Y Y )2

m1

Pongamos ahora X = exp 2A , Y = exp 2B y Mm = 2m . Queda m m fk (e Mm e Mm )Mm fk (e Mm e Mm ) 2 Mm (e Mm e Mm ) 2 Mm . Tomando l mite m , y usando Lie-Trotter (y que las fk son continuas), tenemos que fk (eA+B ) fk (e
A +A 2 A B A A 1 B B 1

B+B 2

) = fk (eRe A eRe B ) .

Como esto vale para todo k In , llegamos a que |(eA+B )| w (eRe A eRe B ). La otra desigualdad se prueba usando que la funcin f (X) = | tr X| tambin cumple las condiciones o e de (9.52) (sale usando que f (Y ) fn (Y ), pero coinciden si Y Mn (C)+ ), y haciendo el resto de la cuenta igual. Observacin 9.10.4. Si una funcin f : Mn (C) R es continua y cumple las condiciones o o f (XY ) = f (Y X) y |f (X 2m )| f ([XX ]m ) (9.53)

para todo m N y todo par X, Y Mn (C), decimos que f es de la clase T. La sutil diferencia con la Eq. (9.52) es que aca no pedimos que f sea positiva, pero no ponemos mdulo en el ultimo trmino de (9.53). Toda la cuenta del Lema 9.10.3 puede rehacerse para o e una tal funcin, con lo que se obtiene la desigualdad ms general: Si f es de la clase T, o a f (eA+B ) f (eRe A eRe B ) , para todo par A, B Mn (C). Proposicin 9.10.5. Sea ||| ||| una NUI en Mn (C). Dadas A, B H(n), se tiene que o ||| eA+B ||| ||| eA eB ||| . Demostracin. Por el Lema 9.10.3 y el hecho de que A, B H(n), tenemos que o s(eA+B ) = (eA+B ) = |(eA+B )|
w

(eA eB )

s(eA eB ) ,

donde la ultima mayorizacin sale de la Proposicin 9.7.1 (mayorante de Weyl). o o

9.11 Desigualdad de Ando-Johnson-Bapat

189

Proposicin 9.10.6 (Desigualdad de Golden-Thompson). Si A, B H(n), entonces o tr eA+B tr eA eB . Demostracin. Es consecuencia directa del Lema 9.10.3. o Ejercicio 9.10.7. Usando la Proposicin 9.10.5, mostrar que o tr eA+B tr eB e2A eB
1/2

(9.54)

para A, B H(n) .

Esto es mejor o peor que Golden-Thompson?

9.11

Desigualdad de Ando-Johnson-Bapat

Logaritmos
Proposicin 9.11.1. Sean A Gl (n)+ y B Gl (m)+ . Entonces se verica que o log(A B) = (log A) Im + In (log B) .
k h

Demostracin. Supongamos que A = o


i=1

i Pi y que B =
j=1 k h

j Qj . Luego

AB =
i=1 j=1

i j Pi Qj .

Notemos que (Pi Qj )(i,j) es un sisitema de proyectores para Cn Cm . Luego, si uv Cn Cm y abreviamos L = log(A B)(u v), se tiene que
k h

L =
i=1 j=1 k

log(i j )[Pi Qj (u v)]


h h k

=
i=1 k

log(i )
j=1

Pi (u) Qj (v) +
j=1 h

log(j )
i=1 h

Pi (u) Qj (v)
k

=
i=1 k

log(i ) Pi (u)
j=1

Qj (v)
h

+
j=1

log(j )
i=1

Pi (u)

Qj (v)

=
i=1

log(i )[Pi (u) v] +


j=1 k

log(j )[u Qj (v)]


h

=
i=1

log(i )Pi (u)

v+u
j=1

log(j )Qj (v)

= [(log A) Im ] (u v) + [In (log B)] (u v) . La igualdad en el resto de los elementos de Cn Cm se obtiene por linealidad.

9.11 Desigualdad de Ando-Johnson-Bapat

190

Corolario 9.11.2. Sean A, B Gl (n)+ . Entonces log(A B) (log A + log B) In . Demostracin. Consideremos la funcin : L(Hn Hn ) Mn (C) denida en la Proposicin o o o 8.1.4. Recordar que (T ) = TS (T L(Hn Hn ) ) para cierto subespacio S Hn Hn , y que (A B) = A B, para A, B Mn (C). Adems, por el Corolario 6.3.14, la funcin a o t log T es OP en (0, +). Luego, aplicando el Teorema 6.3.6 deducimos que (log X) = (log X)S log(XS ) = log (X) para todo X Gl(Hn Hn )+ .

Ahora bien, por la Proposicin 9.11.1, log A B = (log A) In + In (log B), as que o log(A B) = log (A B) log(A B) = (log A) In + In (log B) = (log A) In + In (log B) , como se armaba.

La desigualdad
Ahora daremos la prueba obtenida por T. Ando de la que fue llamada muchos aos conjetura n de Johnson-Bapat: Teorema 9.11.3. Sean A, B Gl (n)+ . Entonces
n n

i (A B)
i=k i=k

i (AB)

para todo

k In .

Demostracin. Por el Corolario 9.11.2 sabemos que o log(A B) (log A + log B) In . Por el Teorema de Weyl 2.3.5, para todo k In , tenemos que
n n n

log
i=k

i (A B)

=
i=k

i (log(A B) )
i=k

i ( (log A + log B) In ) .

De acuerdo al Teorema de mayorizacin de Schur 5.1.1, o (log A + log B) In y entonces


n n

log A + log B,

i ( (log A + log B) In )
i=k i=k

i (log A + log B) ,

k In .

9.11 Desigualdad de Ando-Johnson-Bapat

191

Por la Proposicin 9.9.7, log A + log B o


n n

log(A1/2 BA1/2 ). Luego


n 1/2

i (log A + log B)
i=k i=k

i (log(A

BA

1/2

)) = log
i=k

i (AB)

k In .

Combinando estos resultados obtenemos que


n n

i (A B)
i=k i=k

i (AB) ,

k In ,

como se quer demostrar. a Observacin 9.11.4. Este teorema mejora el resultado de Bapat-Sunder: o
n n

i (A B)
i=k i=k

i (A)i (B)

para todo

k In .

pues, de acuerdo al Teorema de Horn (Proposicin 9.7.3), se tiene que o


n n

i (AB)
i=k i=k

i (A)i (B)

para todo

k In .

Tambin vericaremos la siguiente variante del Teorema 9.11.3: e Teorema 9.11.5. Sean A, B Gl (n)+ . Entonces
n n

i (A B)
i=k i=k

i (AB t )

para todo

k In .

Demostracin. Como log B t = (log B)t , tenemos que o (log B t ) I = (log B)t I = (log B) I. Por lo tanto, podemos reemplazar {log A+log B}I por {log A+log B t }I en la demostracin o anterior, con lo que queda demostrado el teorema. De los Teoremas 9.11.3 y 9.11.5 se deducen los clsicos teoremas de Fiedler que aseguran que, a + para A, B Gl (n) , A B n (AB)I y A B n (AB t )I

9.12 Medias de operadores positivos

192

9.12

Medias de operadores positivos


A# B = A1/2 (A1/2 BA1/2 ) A1/2 .

Denicin 9.12.1. Cuando 0 1, la -media de A, B Gl (n)+ es lo siguiente o

1 En particular, la media geomtrica A#B es la 2 -media, o sea, e

A#B = A1/2 (A1/2 BA1/2 )1/2 A1/2 . Proposicin 9.12.2. Sean A, B Gl (n)+ . Entonces A1/2 (A#B)B 1/2 U(n). o Demostracin. Sea T = A1/2 B 1/2 . Consideremos su descomposicin polar a derecha, dada o o por T = |T |U , con U U(n). Luego A1/2 (A#B)B 1/2 = A1/2 (A1/2 (A1/2 BA1/2 )1/2 A1/2 )B 1/2 = (A1/2 BA1/2 )1/2 A1/2 B 1/2 = (T T )1/2 T 1 = |T | T 1 = U U(n) , como quer amos demostrar. Lema 9.12.3. Sean A Gl (n)+ , B Mn (C)+ y C Mn (C). Entonces A C C B 0 B C A1 C . I X 0 I

Demostracin. Para abreviar llamemos X = A1 C. Entonces o clculo sencillo nos muestra que a I 0 X I A C C B I X 0 I =

es inversible. Un

A 0 . 0 B C A1 C

(9.55)

Entonces de aqu resulta claro el enunciado. Proposicin 9.12.4. Dados A, B Gl (n)+ , la media geomtrica A#B es la mayor matriz o e autoadjunta del siguiente conjunto: = C H(n) : A C 0 . C B

Demostracin. Observemos que como (A#B)A1 (A#B) = A1/2 (A1/2 BA1/2 )A1/2 = B, o entonces por el Lema 9.12.3, la matriz A A#B A#B B

9.12 Medias de operadores positivos

193

es semidenida positiva. Luego, A#B . Para demostrar que es efectivamente el mximo a 1 tomemos C arbitrario. Entonces el Lema 9.12.3 nos dice que B CA C. Por lo tanto, (A1/2 CA1/2 )2 = A1/2 (CA1 C) A1/2 A1/2 BA1/2 y por el Teorema 6.2.6, tenemos A1/2 CA1/2 | A1/2 CA1/2 | (A1/2 BA1/2 )1/2 . Luego C A1/2 (A1/2 BA1/2 )1/2 A1/2 = A#B, lo cual demuestra que A#B es el mximo del conjunto . a Corolario 9.12.5. Sean A, B Gl (n)+ . Entonces A A#B A#B B 0 y B A#B A#B A 0.

Demostracin. Es inmediato a partir de la Proposicin 9.12.4. o o Observacin 9.12.6. Puede probarse que (A#B)2 o
log

A1/2 BA1/2 , lo que implica que k In .

i (A#B)2
i=k i=k

i (AB)

para todo

En consecuencia, el siguiente resultado mejora el Teorema 9.11.3. Teorema 9.12.7. Sean A, B Gl (n)+ . Entonces
n n

i (A B)
i=k i=k

i (A#B)2

para todo

k In .

Demostracin. Por la Proposicin 9.12.5 y el Teorema de mayorizacin de Schur 5.1.1 o o o A A#B A#B B B A#B A#B A = AB A#B A#B A#B A#B AB 0.

Ahora, usando 3.7.8, se deduce que A B (A#B) (A#B) y por ende


n n

i (A B)
i=k i=k

i [(A#B) (A#B)]

para todo

k In .

Finalmente, aplicando el Teorema 9.11.3 al miembro de la derecha se obtiene


n n

i [(A#B) (A#B)]
i=k i=k

i (A#B)2

para todo

k In .

completanto la demostracin. o

9.13 Ejercicios

194

9.13

Ejercicios

Ejercicios del texto


9.13.1. Sean A, B H(n). 1. Probar que, para cada x Cn , se tiene S(A, B)x, x = 2 Re Ax, Bx . 2. Dar un ejemplo de matrices positivas A y B tales que S(A, B) 0. 9.13.2. Encontrar dos matrices A, B M2 (C) tales que |A + B| |A| + |B|. 9.13.3. Mostrar que la desigualdad (9.7) deja de ser cierta si en el miembro izquierdo se quita la estrella en B. (Ayuda: basta considerar matrices de 2 2 y el caso p = q = 2). 9.13.4. Sean A, B, C, D Mn (C)+ tales que AD = DA y BC = CB. Sean X Mn (C) y 1 p, q [1, +) tales que p + 1 = 1. Entonces q 1 1 p A XC p + Dq XB q p q donde r = mx{p, q}. a 9.13.5. Sean A, B, C, D Mn (C)+ tales que AD = DA, A D = DA , BC = CB y B C = 1 CB . Sean X Mn (C) y p, q [1, +) tales que p + 1 = 1. Entonces q 1 1 |A|p X |C|p + |D|q X |B|q p q
2 2

1 Ap XC p Dq XB q r2

2 2

+ ADXCB

2 2

1 |A|p X |C|p |D|q X |B|q 2 r

2 2

+ ADXC B

2 2

donde r = mx{p, q}. En particular, si C = D = I, mostrar que a 1 1 |A|p X + X |B|q p q


2

1 |A|p X X |B|q 2 r

2 2

+ AXB

2 2

que es la extensin natural de (9.17) a matrices cualesquiera. Extender las desigualdades o (9.22)-(9.24) de manera anloga. a 9.13.6. Dadas A, B Gl (n)+ , probar que (A1/2 BA1/2 )2
log

(AB 2 A).

9.13.7. Dada A Mn (C), probar que e = lim


A

A I+ m

(9.56)

9.13.8. Encontrar A M2 (C) tal que |||eA ||| < |||eRe A ||| para toda NUI.

9.13 Ejercicios

195

9.13.9.

1. Dades A, B H(n), mostrar la siguiente nueva frmula: o eA+B = lim e


tB 2

t0

etA e

tB 2

1 t . 1 t tiene sentido para todo

Observar que e

tB 2

tA
tB

tB 2

Gl (n) por lo que e


tB

tB 2

tA

tB 2

t = 0. Adems, e 2 etA e 2 a = e 2 etA e 2 , por lo que el caso t < 0 no crea problemas. tB tB Sug: Desarrollar el producto de las tres series asociadas a e 2 etA e 2 y aplicarles la serie de potencias de 1 < x log(1 + x). Despues seguir pasos similares a los de la prueba del Teorema 9.8.2. 2. Extendiendo el argumento que utilizamos para probar el Teorema 9.8.2 probar que, dadas A1 , A2 , ... , Ak Mn (C), se tiene que
k

tB

tB

exp
i=1

Ai

= lim e m e m ... e m
m

A1

A2

Ak

9.13.10 (Desigualdad de Araki-Lieb-Thirring). Si A, B Gl (n)+ , probar que tr (B 1/2 AB 1/2 )st tr (B t/2 At B t/2 )s , Sug: Usar el Corolario 9.9.5 para las NUIs A
p

para todo par s, t 1 .

= (tr |A|p )1/p .

Ejercicios nuevos
9.13.11. Sean A, B, C Mn (C). Demostrar: 1. eA+B = lim(erA/2 erB erA/2 )1/r
r0

2. Si A, B 0 y r (0, 1), entonces (Ar/2 B r Ar/2 )1/r

A1/2 BA1/2

3. Nuevamente bajo el supuesto que A, B 0, se tiene que para toda norma unitariamente invariante ||| |||: |||Ar/2 B r Ar/2 |||1/r |||eA+B |||,
r0

en forma decreciente. 4. Si A, B > 0, entonces ||| log(A) + log(B)||| ||| log(A1/2 BA1/2 )||| para toda norma unitariamente invariante ||| |||. 5. (Golden-Thompson) Si A, B H(n), entonces tr(eA+B ) tr(eA eB ). 6. Dar un ejemplo que muestre que la desigualdad tr(eA+B+C ) tr(eA eB eC ) es falsa.

9.13 Ejercicios

196

Onda Cauchy-Schwarz
9.13.12. Sean A, B Mn (C). Probar que, para todo r (0, +), sr (AB)
log

sr (A)sr (B) = sr (AB)


1 p

sr (A)sr (B) .

9.13.13. Sean una fgs, y p, q [1, +) tales que


1

1 q

= 1. Dados x, y Rn , se tiene que


1

(|x y|) (|x|p ) p (|y|q ) q . Sug: usando Hlder (de nmeros, en las coordenadas) mostrar que, para todo t > 0 se tiene o u (|x y|) Luego calcular el m nimo de esas cosas. 9.13.14. Sea N una NUI en Mn (C). 1. Sean p, q [1, +) tales que
1

tp (|x|p ) (|y|q ) + . p q tq

1 p

1 q

= 1. Mostrar que
1

N (AB) N (|A|p ) p N (|B|q ) q

para todo par A, B Mn (C) .


1 p

2. Ms an, si tomamos p, q y r positivos tales que a u N (|AB|r ) r N (|A|p ) p N (|B|q ) q


1 1 1

1 q

1 r

, probar que

para todo par A, B Mn (C) .

3. Deducir que N (|AB|1/2 ) N (A)1/2 N (B)1/2 y que N (AB) N (A A)1/2 N (B B)1/2 . 4. Otra mejora: Dadas A, B, X Mn (C) se tiene que N (AXB )2 N (A A X) N (X B B) . 5. Peor todav si r R , entonces debe valer que a: + N ( |AXB |r )2 N ( |A A X|r ) N ( |X B B|r ) . 6. Ahora deducir que, si s [0, 1], entonces se cumple que N (As XB 1s ) N (AX)s N (XB)1s y que N (As XB s ) N (X)1s N (AXB)s .

Observar que tomando X = I en la de la derecha, se obtiene una generalizacin de la deo sigualdad de Cordes (9.48) a todas las NUIs (porque I sp = 1).

Cap tulo 10 Rango y Radio Numricos e


En este cap tulo consideraremos espacios de Hilbert H nito deimensionales (con su producto interno y la norma eucl dea). Por lo tanto, puede pensarse que H = Cn , e identicar el a lgebra de operadores L(H) con Mn (C). La mayor de los resultados de este cap a tulo valen tambin para el caso innitodimensional, salvo el hacho de que en varias de las igualdades e e inclusiones que aparecen, el rango numrico (o las cpsulas convexas) deber cambiarse por e a an sus clausuras. Una versin general aparece en el tomo II de este libro. o

10.1

Deniciones y propiedades bsicas a

Denicin 10.1.1. Sea A L(H). o 1. El Rango numrico de A es el conjunto e W (A) = { Ax, x : x H, x = 1 } . 2. Recordemos que el radio numrico de A se dene como e w(A) = mx || = mx{ | Ax, x | : x H, x = 1 } a a
W (A)

y que dene una norma en L(H) (si el cuerpo es C). 10.1.2. A continuacin enumeraremos una serie de propiedades elementales del rango y radio o numricos que se siguen fcilmente sus deniciones. Las pruebas que no estn escritas deben e a e considerarse como ejercicios. Sea A L(H). 1. Se cumplen las siguientes desigualdades: (A) w(A) A
sp

La segunda se deduce de Cauchy-Schwarz. La primera se deduce de la frmula (10.1) o de un poco ms abajo. a

10.2 El Teorema de Hausdor Teplitz o

198

2. Tomando T =

0 0 , se ve que las desiguadades pueden ser estrictas. En efecto, es 2 0 claro que (T ) = 0 y T sp = 2. Por otra parte, como la funcin o f : {z C : |z| 1} R dada por f (z) = 2|z| (1 |z|2 )1/2

alcanza el mximo f (z) = 1 cuando |z|2 = 1/2, podemos deducir que w(T ) = 1. a 3. Vimos en el Corolario 2.1.4 que, si A es normal, entonces (A) = w(A) = A A + A A A 4. Recordemos que Re A = e Im A = . Se tiene que 2 2i Re A
sp sp

= w(Re A) = mx | Re Ax , x | w(A) , a
x =1 sp

y lo mismo vale para Im A. Luego A

2 w(A).

5. Dado B L(H) se cumple que W (A + B) W (A) + W (B). 6. Dado C, se tiene que W (A + I) = W (A) + y W ( A) = W (A). 7. Si U U(H), entonces W (U AU ) = W (A) y w(U AU ) = w(A). 8. W (A) es compacto (por serlo la cscara de la bola unidad de H). a Proposicin 10.1.3. Sea A L(H). Entonces o (A) W (A) . (10.1)

Demostracin. Si es autovalor de A, es claro que = Ax, x W (A) para cualquier o autovector unitario x asociado a .

10.2

El Teorema de Hausdor Teplitz o

El Teorema de Hausdor Teplitz dice que, para todo A L(H), se cumple que W (A) es o convexo. Para probarlo se necesitan una serie de reducciones. La principal es ver que basta probarlo para matrices en M2 (C) (esto lo veremos en la prueba del Teorema). Pero an entre u ellas, necesitamos dos reducciones especiales: Lema 10.2.1. Dada A M2 (C), existe U U(2) tal que, B = U AU = c a b c , con c= trA . 2

tr A I, podemos suponer que tr A = 0 y tratar de hacer 2 que la diagonal de B sea nula. Si (A) = {0}, esto es fcil (por el Teorema 1 de Schur 1.6.1). a Sin, (A) = {, } con = 0. Sean x1 y x2 autovectores unitarios asociados a y , o Demostracin. Cambiando A por A o

10.2 El Teorema de Hausdor Teplitz o

199

respectivamente. Tomemos la curva x(t) = eit x1 + x2 , para t [0, 2]. Observar que x(t) = 0, por que x1 y x2 son LI. Entonces, Ax(t), x(t) = + eit Ax1 , x2 + eit Ax2 , x1 = eit x1 , x2 eit x2 , x1 = 2i Im (eit x1 , x2 ) . Eligiendo t0 [0, 2] tal que eit0 x1 , x2 R, tenemos que Ax(t0 ), x(t0 ) = 0, con x(t0 ) = 0. Normalizando a x(t0 ), completando a una BON de C2 , y tomando U U(2) tal que tenga a esa BON en sus columnas, obtenemos B = U AU = donde B22 = 0 porque B11 = 0 = tr B. Lema 10.2.2. Dada B M2 (C) con diagonal nula, existen V U(2) y w C con |w| = 1 tales que, 0 a w V BV = , con a0 y b0. b 0 Demostracin. Si B = o tenemos que w V B1 V =
i

0 a b 0

con

a, b C ,

0 a , tomando V = b 0

u 0 0 1

U(2) y w C con |w| = 1, .

0 wu a wu b 0
i

Si a = ei1 |a| y b = ei2 |b|, tomando u = e 2 (2 1 ) y w = e 2 (2 +1 ) , se obtiene que w V B1 V = como desebamos. a Teorema 10.2.3 (Hausdor-Teplitz). Sea A L(H). Entonces W (A) es convexo. o Demostracin. Sean , W (A) distintos, y sean x, y H unitarios tales que Ax, x = o y Ay, y = . Tomemos B0 = {v1 , v2 } una BON de S = Gen {x, y}. Consideremos la compresin AS L(S). La matriz de AS en la base B0 es B = ( Avj , vi )i,jI2 M2 (C). o Dado z = (z1 , z2 ) C2 , se tiene que w = z1 v1 + z2 v2 S , w = z
2

0 |a| |b| 0

Bz, z = Aw, w ,

por lo que , W (B) y, para probar que las combinaciones convexas de y estn en a W (A), basta vericar que estn en W (B). En otras parabras, alcanza con probar el teorema a en el caso de que A M2 (C). Para ello, por los Lemas 10.2.1 y 10.2.2, se puede asumir que A= 0 a b 0 , con a0 y b0,

10.2 El Teorema de Hausdor Teplitz o

200

puesto que W (C + I) = W (C) + y W (u V CV ) = u W (C) para cualquier C M2 (C), C, V U(2) y u C con |u| = 1. Obervar que los cambios inducidos por las reducciones anteriores (translaciones y rotaciones) no perturban el hecho de que W (A) sea convexo. Veremos que en este caso, W (A) = t (a + b) cos + i(a b) sen : t [0, 1/2] y [0, 2] , (10.2)

que es una elipse (o eventualmente un segmento) centrada en el origen, y por lo tanto convexa. En efecto, dado z C2 con z = 1, como Az, z = Aei z, ei z para todo R,

podemos suponer que z = (t, (1 t2 )1/2 ei ) para t [0, 1] y [0, 2]. En tal caso, cuentas elementales muestran que Az, z = t(1 t2 ) (a + b) cos + i(a b) sen . Observar que los nmeros t(1 t2 ) recorren el intervalo [0, 1/2] cuando t [0, 1]. Esto prueba u la frmula (10.2). o Corolario 10.2.4. Sea A L(H). 1. En general se cumple que conv [ (A) ] W (A). 2. Si A es normal, entonces conv [ (A) ] = W (A). Demostracin. La inclusin (A) W (A) ya fue vista en la Proposicin 10.1.3. Pero por o o o el Teorema 10.2.3, sabemos que esa incusn arrastra a la cpsula convexa. Si A es normal, o a sea {x1 , . . . , xn } una BON de H formada por autovectores de A asociados a sus autovalores 1 , . . . , n . Si x H tiene x = 1, entonces
n n n

Ax, x =
n

A
k=1

x, xk xk ,
k=1 2

x, xk xk

=
k=1

| x, xk |2 k conv [ (A) ] ,

porque
k=1

| x, xk |2 = x

= 1. Por lo tanto W (A) conv [ (A)].

Denicin 10.2.5. o

1. Dados dos espacios de Hilbert H y K, notamos H K = {(x, y) : x H , y K} ,

que es un espacio de Hilbert con el producto (x1 , y1 ) , (x2 , y2 ) = x1 , x2 + y1 , y2 . 2. Dados A L(H) y B L(K), se dene el operador A B L(H K) dado por A B(x, y) = (Ax, By), (x, y) H K .

10.2 El Teorema de Hausdor Teplitz o

201

3. Matricialmente tenemos que A B := A 0 0 B H L(H K) . K

4. En forma similar se denen sumas directas de muchos espacios de Hilbert y de muchos operadores en ellos. Corolario 10.2.6. Sean A L(H) y B L(K). Entonces W (A B) = conv [W (A) W (A) ] Idem con muchos bloques diagonales. Demostracin. La inclusin W (A) W (A) W (A B) se testea inmediatamente usando o o vectores con una coordenada nula. Por el Teorema 10.2.3, esto arrastra a la cpsula convexa a de W (A) W (A). Rec procamente, dados x H e y K no nulos tales que (x, y) 2 = x 2 + y 2 = 1, tenemos que A B(x, y), (x, y) = = Ax, x + By, y x x x 2 A , x x y y , y y y w(A B) = mx{w(A), w(B)} . a (10.3)

+ y

quien claramente pertenece a conv [W (A) W (A) ]. Corolario 10.2.7. Sea A Mn (C). Entonces existe U U(n) tal que, si B = U AU , luego tr A para todo i In . Bii = n Demostracin. Cambiando A por A o tr A I, lo que debemos probar es que, si tr A = 0, n entonces podemos conseguir U U(n) tal que la diagonal de U AU sea nula. Lo probaremos por induccin en n. Para n = 1 es trivial. Observar que el caso n = 2 es el Lema 10.2.1. Si o n > 2, aplicando el Corolario 10.2.4 obtenemos que 0=

tr A conv [ (A)] W (A) . n Luego existe un vector unitario x Cn tal que Ax, x = 0. Completando {x} a una BON de Cn que lo tenga como primer elemento, y tomando U1 U(n) la matriz con esa BON en sus columnas, obtenemos que
C = U1 AU1 =

0 D

1 , n1

porque C11 = Ax, x = 0. Como D Mn1 (C) cumple que tr D = 0, podemos aplicar la hiptesis inductiva y encontrar V U(n1) tal que la diagonal de V DV sea nula. Deniendo o U2 = 1 V U(n) y U = U1 U2 U(n), se ve que
U AU = U2 CU2 =

1 0 0 V

0 D

1 0 0 V

V V V DV 0

que tiene la diagonal nula.

10.3 Caracterizaciones

202

10.3

Caracterizaciones

Observacin 10.3.1. Sea W C un conjunto convexo compacto, y sea z0 W . Entonces o / existe un unico w0 W tal que d(z0 , W ) = |z0 w0 | = d > 0 . El tal w0 existe (y es unico) por la teor usual de espacios de Hilbert, usando que W es a convexo y cerrado (para una cuenta ad hoc, ver el Ejercicio 10.5.2). Ms an, si x0 = z0 w0 , a u 2 entonces Re (x0 w0 ) + d = Re (x0 z0 ) y Re (x0 z) Re (x0 w0 ) para todo zW . (10.4)

Esto se deduce de que w0 es la proyeccin ortogonal de z0 sobre W , y de que el producto o 2 escalar en C pensado como R est dado por z , w = Re (w z). Observar que la recta a {z C : Re [x0 (z w0 )] = 0} es ortogonal a z0 w0 y pasa por w0 . Teorema 10.3.2. Sea A L(H). Entonces W (A) = = z C : |z | w(A I) z C : |z | A I
sp

para todo para todo

C C .

Demostracin. Notemos W = W (A), X al conjunto de arriba e Y al conjunto de abajo. Es o claro, por las deniciones, que X Y . Usando que W (A) = W (A I), es fcil ver que a W X. En lo que sigue probaremos que Y W : Supongamos que z0 W , y sea w0 la / proyeccin ortogonal de z0 sobre W (como en la Observacin 10.3.1). o o Para facilitar las cuentas, rotaremos y transladaremos el problema para que z0 R+ , w0 = 0 y W {z C : Re z 0}. Para hacerlo, sean d = |z0 w0 | = d(z0 , W ) > 0 , y B = ei (A w0 I) L(H) ,

donde z0 w0 = ei d. Luego WB = W (B) = ei (W (A) w0 ) y si tomamos el conjunto YB = z C : |z | B I


sp

, C ,

entonces

YB = ei (Y w0 ) .

Por lo tanto, para ver que z0 Y , alcanza probar que d = ei (z0 w0 ) YB . Observar / / i que, como la funcin x e (x w0 ) preserva distancias, la proyeccin de d a WB es, ahora, o o ei (w0 w0 ) = 0. Adems, como d = d 0 > 0, si z WB , la Eq. (10.4) dice que a Re (z d ) = d Re z 0 = Re z 0 ,

como quer amos. Ahora, dados x Cn con x = 1 y m N, tendremos que (B + mI)x


2

= =

(B + mI)x , (B + mI)x Bx 2 + m2 + 2m Re Bx, x B 2 + m2 , sp

10.3 Caracterizaciones

203

a porque Bx, x WB . Es decir que B + mI sp ( B 2 + m2 )1/2 . Por otro lado, es fcil sp 2 2 1/2 ver que ( B sp + m ) m 0. Por lo tanto, debe existir m N tal que
m

B + mI

sp

m( B

2 sp

+ m2 )1/2 m < d .

En otras palabras, para ese m se tiene que B + mI


sp

< d + m = |d + m| ,

por lo que d YB y entonces z0 Y . Resumiendo, vimos que si z0 W , entonces z0 Y , o / / / / sea que Y W . A continuacin damos un adelanto del libro II. Se trata de una caracterizacin obtenida por o o T. Ando [17] del radio numrico, que es tan util como la caracetrizacin de la norma espectral e o dada en la Proposicin 3.7.6. Su prueba necesita bastantes desarrollos espec o cos que se trabajarn en el libro II, por lo que no creemos necesario reproducirlos aqu Sin embargo lo a . enunciamos ahora, en su versin matricial, porque es uno de los criterios bsicos para trabajar o a con rangos numricos. e Teorema 10.3.3 (Ando 1973). Sea A Mn (C). Son equivalentes: 1. w(A) 1. 2. Para todo [0, 2) se tiene que Re(ei A) I. 3. Existen C Mn (C) e Y Mn (C)+ tales que Y I , C
sp

(I Y )1/2 C Y 1/2 = A . A /2 Y M2n (C)+ .

4. Existe Y Mn (C)+ tal que M1 = 5. Existe L H(n) tal que M2 =

I Y A/2

I + L A A I L

M2n (C)+ .

Demostracin. Si vale la condicin 2, como existen x Cn unitario y [0, 2) tales que o o w(A) = | Ax, x | = ei Ax, x = (ei A) x, x = Re (ei A) x, x I x, x = 1 , tenemos que 2 1. Por otro lado, la implicacin 1 2 es bien fcil. Siguiendo, tenemos que o a la equivalencia 3 4 no es otra cosa que el Teorema 3.8.6. Veamos que 4 5 : Supongamos que M1 M2n (C)+ ,, para cierto Y Mn (C)+ . Luego, si L = I 2Y H(n), se tiene que I + L = 2(I Y ) y I L = 2Y = I + L A A I L =2 I Y A/2 A /2 Y 0.

Ahora veamos que 5 2 : Dados x Cn y [0, 2), tomemos el vector y = ei x. Luego, si asumimos que L cumple la condicin 5, tendremos que o 2 x
2

x y

L A A L

x x , y y

= 2 Re(ei A) x, x .

(10.5)

Luego Re(ei A) I. Lamentablemente, la implicacin 1 4 quedar para el libro II. o a

10.4 Comparacin con NUIs o

204

10.4

Comparacin con NUIs o


1 A w(A) A . 2

Proposicin 10.4.1. Sea A L(H). Entonces o

Adms, las constantes 1 y 1/2 son ptimas para la desigualdad anterior. a o Demostracin. Tomemos partes real e imaginaria: A = Re A + i Im A. Luego o w(A) A Re A + Im A = w(Re A) + w(Im A) 2 w(A) , donde la ultima desigualdad se deduce de que W (Re A) = {Re z : z W (A)}, por lo que w(Re A) w(A), y lo mismo para Im A. La optimalidad de las constantes 1 y 1/2 se ve tomando las matrices E11 y 2E21 . Proposicin 10.4.2 (Marcus-Sandy 1985). Sea A Mn (C). Entonces o 1 n
n n

si (A) w(A)
i=1 i=1

si (A) = A

Adms, las constantes 1 y 1/n son ptimas para la desigualdad anterior. a o Demostracin. Tomemos la descomposicin polar A = U |A|, con U U(n). Conjugando o o con otra matriz unitaria (lo que no cambia ni w(A) ni A 1 ), podemos suponer que que U es diagonal. Observar que |V AV | = V |A|V , si V U(n). Pongamos U = diag (w1 , . . . wn ), n 1 si (A) es superado por alguno con |wi | = 1, i In . Veremos que, en este caso, el nmero u n i=1 de los mdulos de los elementos diagonales de A. En efecto, si notamos {e1 , . . . , en } a la base o cannica de Cn , y llamamos P = |A|, dado k In tenemos que o |Akk | = | Aek , ek | = | U P ek , ek | = | P ek , U ek | = |wk P ek , ek | = |Pkk | = Pkk , donde la ultima igualdad surge de que P Mn (C)+ . Por otra parte,
n n

Pkk = tr P = tr |A| =
k=1 i=1

1 si (A) = n

si (A) Pkk = | Aek , ek | w(A)


i=1

para algn k In . Para ver que 1 y 1/n son ptimas, tomar las matrices E11 e I. u o Denicin 10.4.3. Llamemos A = o 0 0 M2 (C) y V = 2 0 si n = 2m consideremos las matrices diagonales de bloques
m

0 1 1 0

U(2). Dado n N,

Cn = A A A =
k=1

2E2k,2k1 Mn (C)

10.4 Comparacin con NUIs o

205

Un = V V V =
k=1

E2k,2k1 + E2k1,2k U(n) .

Si n = 2m + 1 e I1 denota a la matriz [ 1 ] M1 (C),


m

Cn = A A I1 = En,n +
k=1 m

2E2k,2k1 Mn (C)

Un = V V I1 = En,n +
k=1

E2k,2k1 + E2k1,2k U(n) .

Como w(A) = w(I1 ) = 1, la Eq. (10.3) asegura que w(Cn ) = 1 para todo n N. Los resultados anteriores fueron usados por C.R. Johnson y C.K. Li [27] para calcular, para N una NUI ja en Mn (C), las mejores constantes m y M tales que m N (T ) w(T ) M N (T ) para todo T Mn (C) .

Proposicin 10.4.4 (Johnson-Li 1988). Sea N una NUI en Mn (C). Luego o N (Cn )1 N (T ) w(T ) N (E11 )1 N (T ) para toda T Mn (C) .

Adems, las constantes N (Cn )1 y N (E11 )1 son ptimas. a o Demostracin. Fijemos T Mn (C). Si T = 0, el resultado es claro. Si no, sea A = w(T )1 T , o que tiene w(A) = 1. Por las Proposiciones 10.4.1 y 10.4.2 se tiene que
n

1 s1 (A) 2

y
k=1

sk (A) n .

Observar que s(E11 ) = e1 y s(Cn ) = vn , donde m (2, . . . , 2, 0, . . . , 0) = 2ek k=1 vn = m (2, . . . , 2, 1, 0, . . . , 0) = 2ek + em+1
k=1

si

n = 2m (10.6)

si

n = 2m + 1 .

Por lo tanto, s(E11 ) dice que que

s(A)

s(Cn ). Como N es una NUI, el Teorema de Ky Fan 5.3.8 N (T ) N (Cn ) . w(T )

N (E11 ) N (A) =

Invirtiendo y multiplicando por N (T ), se obtienen las desigualdades buscadas. Tomando T = Cn y T = E11 y observando que w(Cn ) = w(E11 ) = 1, podemos deducir que las constantes dadas son ptimas. o

10.4 Comparacin con NUIs o

206

Proposicin 10.4.5. Sea N es una NUI en Mn (C). Entonces o w(T ) N (T ) , para toda T Mn (C) = Demostracin. Observar que T o
sp

sp

N (T ) , para toda T Mn (C) .

= |T |

sp

= w(|T |) N (|T |) = N (T ).

El siguiente teorema es el contenido del paper de T. Ando [18]: Teorema 10.4.6 (Ando 2005). Si denimos la norma N0 (T ) = mx a se tiene que 1. N0 es una NUI. 2. N0 (T ) w(T ) para todo T Mn (C). 3. N0 es la mayor NUI en Mn (C) tal que N (T ) w(T ) para todo T Mn (C). Es decir, si N es una NUI en Mn (C), N (T ) w(T ) , T Mn (C) = N (T ) N0 (T ) , T Mn (C) . T sp , 2 T n
1

para

T Mn (C) ,

Demostracin. Los dos primeros items son claros de lo anterior. Fijemos T Mn (C). o Como la desigualdad a probar es entre normas unitariamente invariantes, podemos asumir que T = (T ) = diag (s1 (T ), . . . , sn (T )). Ms an, supongamos que a u N0 (T ) = mx a s1 (T ) 1 , 2 n
n

si (T )
i=1

=1.

En este caso deber amos probar que N (T ) 1. Las desigualdades resultantes de la igualdad anterior implican que s(T ) w vn , donde vn es el vector denido en la Eq. (10.6). Tomemos Cn y Un las matrices de la Denicin 10.4.3. Notar que Un Cn = Bn , donde o Bn = diag (2, 0, 2, 0, . . . , 2, 0) o bien Bn = diag (2, 0, 2, 0, . . . , 2, 0, 1) .

Observar que s(B) = vn . Luego, como s(T ) w vn = s(Bn ) y N es una NUI, el Teorema de Ky Fan 5.3.8 nos dice que que N (T ) N (Bn ), con lo que bastar probar que N (Bn ) 1. a Por otra parte, en la Denicin 10.4.3 se ve que w(Cn ) = 1 para todo n N. Como U U(n) o y N es una NUI, tenemos que N (T ) N (Bn ) = N (Un Cn ) = N (Cn ) w(Cn ) = 1 = N0 (T ) . Observar que recin al nal usamos la hiptesis sobre N . e o

10.5 Ejercicios

207

10.5

Ejercicios

Ejercicios que aparecen en el texto


10.5.1. Sea A L(H). Probar las siguientes armaciones: 1. (A) w(A) A . 2. Tomando T = 0 0 , se tiene que (T ) = 0, w(T ) = 1/2 y T = 1, por lo que las 1 0 desiguadades de arriba pueden ser estrictas.
sp

3. Si A es normal, entonces (A) = w(A) = A 4. Re A


sp sp x =1

= w(Re A) = mx | Re Ax , x | w(A) y lo mismo vale para Im A. a

5. A

2 w(A).

6. Dado B L(H) se cumple que W (A + B) W (A) + W (B). 7. Dado C, se tiene que W (A + I) = W (A) + y W ( A) = W (A). 8. Si U U(H), entonces W (U AU ) = W (A) y w(U AU ) = w(A). 9. W (A) es compacto. 10.5.2. Sea W Cn un conjunto convexo compacto no vac y sea v0 Cn \ W . Entonces: o, 1. Existe un unico w0 W tal que 0 < d = v0 w0 = d(v0 , W ) := m v0 w . n
wW

Para mostrar la unicidad, se suguiere asumir que v0 = 0 y usar que, dados x, y Cn vale la igualdad del paralelogramo, que dice que x y 2 + x + y 2 = 2( x 2 + y 2 ). 2. Probar que el hiperplano H = w0 + {v0 w0 }R separa a W de v0 en el sentido de que Re v0 , v0 w0 > Re w0 , v0 w0 Re w, v0 w0 para todo wW .

Nota: Lo anterior vale en espacios de Hilbert generales, y alcamza con que W sea cerrado (no hace falta compacto). Sin embargo, proponemos este caso especial porque es lo que se usa para la Observacin 10.3.1. o

10.5 Ejercicios

208

Ejercicios nuevos
10.5.3. Sean 1 , . . . , n , 1 , . . . , n , C, todos de mdulo uno. Son equivalentes: o 1. Existen A , B U(n) tales que (A) = , (B) = y adems (BA). a 2. Existe un p conv [1 , . . . , n ] conv 1 , . . . , n . Sugerencia: Usar el ejercicio 1.10.21 10.5.4. Sea w (A) = mx | tr A B|, la norma dual del radio numrico en Mn (C). Denotamos a e
w(B)=1

por Bw = {A Mn (C) : w (A) 1} a su bola unidad. Probar que Bw = conv [{x x : x Cn y x = 1}] ,

o sea que los puntos extremales de Bw son los proyectores de rk uno. Sugerencia: Cuanto vale tr B x x ?

Cap tulo 11 Teor de Perron-Frobenius a


Repasemos algunas notaciones que usaremos sistemticamente en los siguientes cap a tulos. n Dados A, B Mn,m (R) y x R , diremos que 1. A 0 , si Aij 0 para todo par i In , j Im .

2. A > 0 , si Aij > 0 para todo par i In , j Im . 3. Las mismas notaciones (x 4. Denotaremos por MPn,m = {A Mn,m (R) : A 0} y MEPn,m = {A Mn,m (R) : A > 0} . 0 o x > 0) se usarn para vectores. a

para matrices cuadradas, abreviaremos MPn y MEPn . 5. |A| = (|aij |) iIn y analogamente |x| = (|x1 |, . . . , |xn |).
jIm

6. A B , si B A MPn,m . O sea que aij bij para todo i, j In . Anlogamente, a escribiremos A < B siempre que B A MEPn,m . 7. El vector (1, 1, . . . , 1) Rn ser denotado por medio de 1. a Advertencia: Hay overlaps de notaciones entre lo anterior y las que solemos usar para matrices denidas positivas. Esto es lamentable, pero necesario; porque buscar otras complicar a notablemente la exposicin. Las convenciones que usaremos de ahora en ms sern las siguo a a ientes: 1. Mantendremos la notacin A 0 (resp. B A) para decir que A Mn (C)+ (resp. o B A Mn (C)+ ). Observar que los s mbolos y son diferentes. 2. Al escribir A > 0 o B > A solamente aludiremos a los signos de las entradas. Para evitar confuciones, si A Mn (C) es denida positiva, no usaremos la notacin A > 0, o + + sin A Gl (n) (o que B A Gl (n) ). o

11.1 Matrices de entradas positivas

210

3. |A| slo se usar para los mdulos de las entradas. El viejo mdulo se escribir (A A)1/2 . o a o o a El objetivo de este cap tulo es la demostracin del Teorema de Perron, para matrices de o entradas estrictamente positivas y sus generalizaciones a matrices de entradas no negativas.

11.1

Matrices de entradas positivas

Empezamos esta seccin con el objetivo nal de la misma: el teorema de Perron para matrices o de entradas estrictamente positivas. La idea es anunciar de entrada las propiedades principales de tales matrices y, adems, dar una orientacin estratgica a los numerosos resultados a o e parciales (aunque muchos de ellos son son interesantes de por s que iremos probando para ) llegar a una demostracin completa del teorema. o Teorema 11.1.1 (Teorema de Perron). Sea A MEPn , es decir que A > 0. Entonces se verican las siguientes propiedades: 1. (A) > 0 y (A) (A). 2. Existe un x Rn tal que x > 0 y Ax = (A)x. 3. Dado y Rn \ {0}, si y 0 y Ay = y, entonces = (A) e y > 0.

4. (A) es raz simple del polinomio caracter stico de A. 5. Si (A) y = (A), entonces || < (A). 6. Si (A) = 1, entonces Am L = xy T , donde x, y Rn son vectores tales que
m

x > 0 , y > 0 , x, y = 1 , Ax = x

AT y = y .

Antes de demostrar el Teorema de Perron, presentaremos varios resultados generales para matrices A MPn , su radio espectral y los autovectores correspondientes. En lo que sigue de la seccin, y salvo mencin expl o o cita al contrario, asumiremos que todas las matrices mencionadas con las letras A y B estarn en Mn (R), para algn n N. a u Proposicin 11.1.2. Sean A, B MPn tales que A o B. Entonces, (A) (B).

Demostracin. Como 0 A B, entonces, para todo n 1 se tiene que 0 An B n . Por lo o n 1/n tanto A 2 B n 1/n y, tomando l mite, se obtiene la desigualdad buscada . 2 Corolario 11.1.3. Sea A MEPn . Entonces se cunple que (A) > 0. Demostracin. Como A > 0, existe un > 0 tal que I o A. As (A) (I) = > 0.

Corolario 11.1.4. Sean A MPn , J In y A[J] = (aij )i,j J . Entonces (A[J]) (A).

11.1 Matrices de entradas positivas

211

Demostracin. Basta extender A[J] a MPn poniendo ceros en las entradas que le faltan, y o aplicar la Proposicin 11.1.2. o Observacin 11.1.5. Recordemos (ver Ejercicio 3.4.2) que, dada A Mn (C), o |||A||| = mx a
x

Ax

=1

= mx Fi (A) a
i In 1

Por otra parte, observar que si A MPn , entonces Fi (A)

= tr Fi (A).

A continuacin vienen tres Lemas que sirven para ubicar el radio espectral de una matriz o A MPn usando la Observacin anterior: o Lema 11.1.6. Sea A MPn . Supongamos que 1 Rn es un autovector de A. Entonces el autovalor asociado es |||A||| y adems (A) = |||A||| . a Demostracin. La desigualdad (A) |||A||| vale siempre, porque ||| ||| es matricial y o podemos aplicar la Proposicin 3.4.6. Por otro lado, si A1 = 1, entonces o Fi (A)
1

= tr Fi (A) = Fi (A) , 1 = (A 1)i =

para todo i In .

Por la Observacin 11.1.5, podemos deducir que = |||A||| . Finalmente, el hecho de que o |||A||| (A) implica que |||A||| (A). Lema 11.1.7. Sea A MPn . Llamemos = mx tr Fi (A) = |||A||| a
i In

= m tr Fi (A) . n
i In

Entonces se verica que (A) . Demostracin. La desigualdad (A) es conocida (Proposicin 3.4.6), por lo tanto slo o o o probaremos que (A). Podemos suponer que > 0, porque sin todo es fcil. Denamos o a entonces la matriz B MPn cuyas las son: Fi (B) = Fi (A) tr Fi (A) Fi (A) para todo i In .

De este modo, tr Fi (B) = para todo i 1. En consecuencia, usando el Lema 11.1.6 y la Proposicin 11.1.2, = (B) (A), ya que, por su construccin, 0 B A. o o Lema 11.1.8. Sean A MPn y x > 0. Notemos y = Ax. Entonces se tiene que yi yi = m n (A) y = mx a (A) . i In xi i In xi Demostracin. Sea D = diag (x). Entonces, por cuentas elementales, obtenemos que o D1 AD = (x1 xj aij )ij In MPn . i Adems (D1 AD) = (A) (porque el espectro no cambia). Por otro lado, a
n

tr Fi (D AD ) = Luego basta aplicar el Lema 11.1.7.

x1 i
j=1

aij xj =

(Ax)i yi = . xi xi

11.1 Matrices de entradas positivas

212

Teorema 11.1.9. Sea A MPn y jemos un vector x > 0. 1. Dados , R, se tiene que x Ax = (A) y Ax x = (A) .

2. Si x es un autovector de A (y es x > 0), entonces Ax = (A)x. Demostracin. La primera parte se deduce inmediatamente del Lema 11.1.8. Supongamos que o Ax = x. Como Ax 0, debe cumplirse que 0, en particular R. Luego se verican las hiptesis de la primera parte con = = . o Observacin 11.1.10. En las condiciones del Teorema 11.1.9, tambin vale que o e si A MPn y x>0, x < Ax = < (A) y Ax < x = (A) < .

En efecto, si en los Lemas 11.1.7 y 11.1.8 se toma estrictamente menor que los m nimos correspondientes 0 , se obtiene < 0 (A). Lo mismo para . Observacin 11.1.11. Sean A MEPn y x Rn \ {0}. Notar que, si x o que valer que Ax > 0. Este hecho se usar reiteradas veces. a 0, entonces tiene

Corolario 11.1.12. Sean A MEPn , x Rn \ {0} y C tales que x 0 y Ax = x. Entonces = (A) y x > 0. Otra manera de decirlo es que si un autovector de A es no negativo, en realidad deba ser positivo y corresponder al radio espectral. Demostracin. Por la Observacin 11.1.11 sabemos que Ax > 0, y por ende x > 0. Entonces o o se puede aplicar el Teorema 11.1.9. Proposicin 11.1.13. Sean A MEPn y (A) un autovalor de mdulo mximo, o sea o o a n que || = (A). Dado un autovector y C \ {0} para , es decir que Ay = y, entonces: |y| > 0 y A |y| = (A) |y| .

Demostracin. Llamemos x = |y|. Por la desigualdad triangular, se tiene que o (A)x = ||x = |y| = |Ay| A|y| = Ax.

Sea z = Ax (A)x 0. Queremos mostrar que z = 0. Supongamos que eso no pasa. Entonces, por la Observacin 11.1.11, tenemos que Az > 0. Si ahora llamamos o u = Ax , entonces Az = A(u (A)x) = Au (A)u > 0 .

Por lo tanto tenemos que u > 0 y Au > (A)u. Aplicando la Observacin 11.1.10, se obtiene o la contradictoria desigualdad (A) > (A). Dado que esta provino de suponer que z = 0, ahora sabemos que z = 0 y por ende Ax = (A)x. Notar que, como Ax > 0, esto implica que |y| = x > 0.

11.1 Matrices de entradas positivas

213

Corolario 11.1.14. Si A MEPn , entonces (A) (A) y existe un x Rn tal que x > 0 y Ax = (A)x .

Proposicin 11.1.15. Sean A MEPn y (A) tales que || = (A). Si y Cn \ {0} o cumple que Ay = y, entonces, existe [0, 2) tal que y = ei |y|, por lo que = (A). Demostracin. Por la Proposicin 11.1.13 sabenos que A|y| = (A)|y|. Adems o o a |Ay| = |y| = (A)|y| = A|y| = |Ay| . Mirando las primeras coordenadas, tenemos que
i In

A1j |yj | =
i In

A1j yj . Luego vale la

igualdad en la desigualdad triangular, y todos los yj deben apuntar para el mismo lado. O sea que debe existir un [0, 2) tal que yj = ei |yj | para todo j In . Corolario 11.1.16. Si A MEPn , entonces (A) es el unico autovalor de mdulo mximo. o a Corolario 11.1.17. Sea A MEPn . Entonces dim ker(A (A)I) = 1. Demostracin. Sean x, y ker(A (A)I). Probaremos que son linealmente dependientes. o xi , y denamos Por la Proposicin 11.1.15 se puede suponer que x > 0 e y > 0. Sea = m o n i In yi z = x y. Como cada xi yi xi xii yi = 0, se tiene que z 0. y Dado que Az = (A)z, si sucesidese que z = 0, entonces se tendr que z > 0. Pero, si a xk tomamos un k In tal que = yk , entonces la coordenada k-sima de z deber ser nula. e a Este absurdo proviene de suponer que z = 0. Por lo tanto, z = 0 y x = y. El siguiente resultado, que describe el l mite de las potencias de una matriz A MPn que cumple ciertas hiptesis, ser prontamente aplicado para probar el item 6 del Teorema de o a Perron. Lo enunciaremos pidiendo lo esctrictamente necesario que debe cumplir A para que la tesis pueda probarse. Esto complica su formulacin, pero igual es conveniente para poder o aplicarlo luego a matrices primitivas, en las que todas las hiptesis que pedimos se verican. o Proposicin 11.1.18. Sea A MPn con (A) = 1. Supongamos que A cumple que: o 1. dim ker(A I) = 1. 2. 1 (A) es el unico autovalor de mdulo mximo. o a 3. Existen x, y Rn tales que x > 0 , y > 0 , x, y = 1 , Ax = x Entonces, se tiene que Am xy T .
m

AT y = y .

Demostracin. Llamemos L = xy T = (xi yj )i,j In . Este L es, en realidad, el proyector o espectral asociado al 1 (A). Esto no lo probaremos ahora, pero es util tenerlo en cuenta para entender las propiedades de L que veremos a continuacin: o

11.1 Matrices de entradas positivas

214

1. L2 = L. En efecto, L2 = xy T xy T = x x, y y T = xy T = L. 2. AL = LA = L. Esto se deduce de que Axy T = xy T = xy T A. 3. (A L)m = Am L, para todo m N. Para mostrarlo, razonemos por induccin sobre m. El caso m = 1 es trivial. Adems, o a (A L)m+1 = (A L)(A L)m = (A L)(Am L) =A AL LA + L = A m+1 =A L .
m+1 k m+1

(por la HI)

LL+L

4. (A L) \ {0} (A) {1}. En particular, se tiene que (A L) < 1. En efecto, sean C \ {0} y z Cn \ {0} tales que (A L)z = z. Entonces Lz = 1 1 L(z) = L(L A)z = 0 ,

por que en 1 y 2 vimos que L(L A) = 0. Luego Az = z y por lo tanto (A). Si tuviramos que = 1 = (A), entonces x Gen {z} (recordar que dim ker(A I) = 1), e lo que nos dir que (A L)x = x. Pero Ax = x y Lx = xy T x = x. En consecuencia a uno tendr que (A L)x = 0 = x, lo que no vale. a 5. Como el unico (A) con || = 1 es = 1, se tiene que (A L) < 1. Entonces el Corolario 3.4.9 sirve para armar que Am L = (A L)m 0.
m

Final de la demostracin del Teorema de Perron o


Recordemos el enunciado que escribimos al principio de la seccin: o Teorema de Perron 11.1.1. Sea A MEPn . Entonces se verica que 1. (A) > 0 y (A) (A). 2. Existe un x Rn tal que x > 0 y Ax = (A)x. 3. Dado y Rn \ {0}, si y 0 y Ay = y, entonces = (A) e y > 0.

4. (A) es ra simple del polinomio caracter z stico de A. 5. Si (A) y = (A), entonces || < (A). 6. Si (A) = 1, entonces Am L = xy T , donde x, y Rn son vectores tales que
m

x > 0 , y > 0 , x, y = 1 , Ax = x

AT y = y .

11.2 Matrices de entradas no negativas

215

Demostracin. Los items 1 y 2 fueron vistos en los Corolarios 11.1.3 y 11.1.14. El item 3 se o prob en el Corolario 11.1.12. El item 5 es el Corolario 11.1.16. El item 6 se deduce de la o Proposicin 11.1.18. Observar que ya hemos visto (aqu se usa el Corolario 11.1.17) que si o A MEPn , entonces A cumple las tres condiciones que pide la Proposicin 11.1.18. o Slo falta vericar el item 4, que dice que (A) es ra simple de PA (x) = det(xI A) C[x]. o z Con las notaciones del resto del libro esto signica que, si tomamos el vector (A) Cn de autovalores de A (que cuenta las multiplicidades como raices de PA ) con un orden en el que los mdulos decrezcan, entonces 1 (A) = (A) pero |2 (A)| < (A) (ac se usa el item 5). o a Supongamos, sin perdida de generalidad, que (A) = 1. Apliqumosle a A el Teorema 1 e de Schur 1.6.1, considerando en (A) el orden mencionado. Luego tendremos U U(n) y T T S(n) tales que U AU = T y d (T ) = (A). Por otra parte, T m = U Am U U LU = M .
m

Observar que todos los T m T S(n), por lo que tambin M T S(n). Adems, se tiene que e a rk M = rk L = 1. Sin embargo, como T T S(n), sabemos que (T m )ii = (Tii )m = i (A)m para todo i In y todo m N .

Para cada i In tal que i (A) = 1, podemos deducir que Mii = 1. Al estar M T S(n), es fcil ver que su rk ser, por lo menos, el nmero de unos que tenga en la diagonal. Como a a u sabemos que rk M = 1, deducimos que tan solo 1 (A) = 1 y los dems tienen menor mdulo a o (porque sus potencias deben converger a cero), como se quer demostrar. a Denicin 11.1.19. Sea A MEPn . El unico vector x Rn tal que o Ax = (A)x , x > 0 y se llamar vector de Perron de A. a tr x = 1 ,

11.2

Matrices de entradas no negativas


0 1 1 0

El Teorema de Perron falla en general si A MPn pero A > 0. Por ejemplo, si A= ,

entonces Am = A o I, segn m sea impar o par. Adems, (A) = {1, 1}. En este caso el u a autovector asociado al 1 es positivo estricto (es 1). Pero eso no pasa si tomamos la matriz 1 0 . Es ms, todas las partes del Teorema (salvo una) pueden hacerse fallar tomando a B= 0 0 matrices diagonales de bloques adecuadas (Ejercicio). La que se salva es la siguiente: Proposicin 11.2.1. Sea A MPn . Entonces o

11.2 Matrices de entradas no negativas

216

1. (A) (A). 2. Existe x Rn \ {0} tal que x 0 y Ax = (A)x.

Demostracin. Sea E = 1 1T MEPn (todas las entradas de E son iguales a 1). Dado o > 0, tenemos que A = A + E MEPn . Por la Proposicin 11.1.2, si 0 < < , entonces o (A) (A ) (A ). Llamemos x > 0 al vector de Perron de cada A , normalizado para que tr x = 1. Como la bola de Rn es compacta, se puede tomar una sucesin decreciente m o 0 tal que, si llamamos Am = Am y xm = xm , entonces existen M R y x Rn tales que (Am )
m m

M (A)

xm x
m

0.

Observar que tr x = 1, por lo que x = 0. Adems, Am xm = (Am )xm M x y, como a m Am A, entonces Am xm Ax. Por lo tanto deducimos que Ax = M x, con M
m m

(A). Luego M = (A) y x

0 es un autovector.

Matrices primitivas
Denicin 11.2.2. Sea A MPn . Diremos que A es una matriz primitiva si existe un o m N tal que Am MEPn . Las matrices primitivas son casi tan buenas como las de MEPn . Veamos que cumplen el Teorema de Perron tutti, que enunciamos por tercera vez. Teorema 11.2.3. Sea A MPn una matriz primitiva. Entonces valen: 1. (A) > 0 y (A) (A). 2. Existe un x Rn tal que x > 0 y Ax = (A)x. 3. Dado y Rn \ {0}, si y 0 y Ay = y, entonces = (A) e y > 0.

4. (A) es raz simple del polinomio caracter stico de A. 5. Si (A) y = (A), entonces, || < (A). 6. Si (A) = 1, entonces Am L = xy T , donde x, y Rn son vectores tales que
m

x > 0 , y > 0 , x, y = 1 , Ax = x

AT y = y .

11.2 Matrices de entradas no negativas

217

Demostracin. Sea m N tal que Am > 0. Por el Corolario 1.7.2, o (Am ) = {m : (A)}. Por el Teorema 11.1.1 aplicado a Am , concluimos que (A) = (Am )1/m > 0. Sea (A) tal que || = (A) y sea y Cn \ {0} tal que Ay = y. Entonces Am y = m y y ||m = (Am ) = m = (Am ) y Am y = (Am )y .

Por el Teorema 11.1.1 aplicado a Am , podemos deducir que algn x Gen {y} cumple que u x > 0, y por ello = (A) y Ax = (A)x. Adems, cada m (Am ) posee una multiplicidad en el polinomio caracter a stico de Am mayor o igual que la de en el de A (esto se ve fcil triangulando con el Teorema 1.6.1). Por lo a tanto (A) posee multiplicidad algebrica uno como autavalor de A. Razonamientos similares a permiten concluir que (A) es el unico autovalor de mdulo mximo (item 5), y tambin la o a e condicin 3. Finalmente, con los items anteriores ya demostrados, estamos en condiciones de o asegurar que A cumple las hiptesis de la Proposicin 11.1.18, lo que prueba el item 6. o o Observacin 11.2.4. Dada una matriz A MPn , para saber si es primitiva hace falta o calcular muchas potencias Am hasta que caiga en MEPn . Obviamente hace falta un teorema que diga hasta donde es necesario probar. Algo del tipo: Dado n N, existe un M (n) N (que uno deber poder calcular) tal que toda A MPn que sea primitiva debe cumpir que a m A > 0 para algn m M (n). Esta teor existe, y se calculan los M (n) ptimos. Pero las u a o cuentas son muy complicadas y no las desarrollaremos aqu . El lector interesado puede buscar data al respecto en el libro de Horn-Johnson [7]. Sin embargo, con una hiptesis razonable (si A MPn cumple que d (A) > 0), sale mucho ms facilmente o a m que la constante M (n) = n 1 sirve. Obsrvar que en tal caso, una vez que A > 0, eso sigue pasando para las potencias mayores (lo que no es cierto para todas las primitivas). Esperen algunos renglones y vern. a

Matrices irreducibles
Denicin 11.2.5. Sea A Mn (C). Decimos que: o 1. A es reducible si existe P UP (n), una matriz de permutacin, tal que o P AP 1 = B C 0 D k , nk

donde 1 k n 1 y B Mk (R). Otra manera de decirlo es que existe un J In tal que 1 |J| < n (o sea que es propio) que cumpla que A Gen {ej : j J} Gen {ej : j J} . (11.1)

Se dice que A es irreducible si no es reducible.

11.2 Matrices de entradas no negativas

218

2. Denotemos momentneamente por Vn = {(p, q) I2 : p = q}, al conjunto de pares de a n ndices distintos en In . 3. Decimos que un par (p, q) Vn se conecta por A (o que A conecta p con q), si existen p = i0 , i1 , . . . , im = q en In tales que aik1 ik = 0 para todo k Im . Observar que se puede suponer que todos los ik son distintos entre s porque si hubiera , repeticiones, una parte de la sucesin se podr borrar (los intermedios entre los dos o a repetidos), quedando otra sucesin ms corta que seguir conectando a p con q. Por lo o a a tanto, puede suponerse que m n 1. 4. A es fuertemente conexa (FC) si todo par (p, q) Vn se conecta por A. Lema 11.2.6. Sea A MPn . Dado un par (p, q) Vn , son equivalentes: 1. El par (p, q) se conecta por A. 2. Existe 1 m n 1 tal que la entrada (Am )p q > 0. Demostracin. Basta notar que, como mostrar una induccin adecuada, o a o
n n n

(Am )p q =
i1 =1 i2 =1

im1 =1

ap

i1

kIm2

aik ik+1 aim1 q ,

y que todos estos trminos son no negativos. En caso de que alguno de esos sumandos no se e anule, les sacamos aquellos trminos que vivan en la diagonal de A, y nos queda una sucesin e o que conecta p con q. Recordar que si A conectaba a (p, q), entonces existe alguna sucesin de o no ms de n a ndices que los conecta. Ejemplo 11.2.7. Ahorita vamos a ver que irreducible es lo mismo que FC (se lo enunciar a pra matrices de MPn , pero obviamente eso es irrelevante). Veamos una serie de ejemplos donde se ve independientemente que pasa lo mismo: Sea A Mn (C) tal que Fi (A) = 0, para algn i In . Tomemos cualquier Sn tal que (i) = n, y P UP (n) su matriz asociada. u Por la Eq. (4.3), se tiene que Fn (P A) = 0. Como multiplicar del otro lado permuta slo sus o 1 ceros, tambin vale que Fn (P AP ) = 0. O sea que A es reducible. e Vemoslo desde otro punto de vista: Si Fi (A) = 0, entonces a i no se lo puede conectar con a ningn otro j In \ {i}, porque todos los aik son nulos. Luego A no es FC. Ya que estamos u dejamos un pequeo ejercicio: A Mn (C) es reducible si y slo si AT lo es. Por lo tanto, lo n o anterior vale tambin para columnas nulas. e Proposicin 11.2.8. Sea A MPn . Entonces son equivalentes: o 1. A es irreducible. 2. A es FC. 3. (I + A)n1 > 0.

11.2 Matrices de entradas no negativas

219

4. I + A es primitiva. En particular se tiene que, si A es primitiva, entonces es irreducible y FC. Demostracin. 2 3: Por el Lema anterior, es claro que 3 implica 2, porque conectar por A o es lo mismo que conectar por I + A, dado que los elementos de la diagonal no se usan para las conexiones. Rec procamente, por el teorema del binomio de Newton, se tiene que (I + A)n1 es combinacin lineal, a coecientes positivos, de las potencias Ak , 0 k n 1. Luego, si o A es FC, el Lema 11.2.6 asegura que todas las entradas de (I + A)n1 (afuera de la diagonal) deben ser estrictamente positivas. Adems, (I + A)n1 I n1 = I. a 1 2: Si A no es FC, existe un par (p, q) Vn que no se conecta por A. Sean J1 = {i In \ {p} : A conecta al par (p, i) } {p} y J2 = In \ J1 .

Entonces p J1 y q J2 , por lo que ambos son no vac os. En particular, aij = 0 si i J1 y j J2 (sino el par (p, j) ser conectado por A, pasando por i). Si reordenamos In poniendo a primero a J2 y luego a J1 , encontraremos una matriz P UP (n) de permutacin tal que o P AP 1 = 3 4: Obvio. 4 1: Si A es reducible, sea P UP (n) tal que P AP 1 = P (I + A)m P 1 = (I + P AP 1 )m = 0 MEPn / B C . Entonces 0 D para todo m N . 0 J2 . J1

Por lo tanto ningna potencia (I + A)m MEPn , o sea que I + A no es primitiva. u Teorema 11.2.9 (Teorema de Perron-Frobenius). Sea A MPn , y asumamos que A es irreducible. Entonces se verica que 1. (A) > 0 y (A) (A). 2. Existe x > 0 tal que Ax = (A)x. 3. (A) es raz simple del polinomio caracter stico de A. Demostracin. Como A es ireducible, el Ejemplo 11.2.7 nos dice que A no puede tener ninguna o la nula. Usando el Lema 11.1.7, tenemos que (A) = m tr Fi (A) > 0 . n
iIn

Por otra parte, por la Proposicin 11.2.1, (A) (A) (para esto alcanza con el hecho de o que A MPn ). Adems, (I + A) = 1 + (A). Ms an, por el Teorema 1 de Schur 1.6.1, a a u se tiene que (I + A) = 1 + (A) (contando multiplicidades, y en algn orden). Por lo tanto u

11.2 Matrices de entradas no negativas

220

(I + A) = 1 + (A) (porque el mximo est a la derecha y no en la tercera posicin). Como a a o I + A es primitiva, si denotamos por x al vector de Perron de I + A, entonces tenemos que x>0 y Ax = (I + A I) x = (1 + (A) ) x x = (A) x .

Por ultimo, la igualdad (I +A) = 1+(A) dice que cada i (A) = (A) produce un i (I +A) = 1 + (A). Como de stos hay uno solo, sale el item 3. e A continuacin presentamos dos resultados sobre matrices irreducibles de MPn que son muy o utiles, pero que quedaron medio aislados: Corolario 11.2.10. Sean A MPn irreducible y x Rn \ {0}. Si se tiene que x 0 y Ax (A)x = x > 0 y Ax = (A)x .

Demostracin. Como A es irreducible, tambin AT lo es (porque?). Por el Teorema de o e Perron-Frobenius existe un vector y > 0 tal que AT y = (A)y, o sea que y T A = (A)y T . Por otra parte, sabemos que Ax (A)x 0. Si sucediera que Ax (A)x = 0, entonces y T > 0 = 0 < y T (Ax (A)x) = y T Ax (A)y T x = (A)y T x (A)y T x = 0. Esta contradiccin nos convence de que Ax = (A)x. Usando lo anterior, el hecho de que o x > 0 puede deducirse ahora del Teorema de Perron-Frobenius. Proposicin 11.2.11. Sean A, B MPn tales que A es irreducible y B o asumimos que B = A, entonces (B) < (A). A. Si adems a

Demostracin. La Proposicin 11.2.1 nos dice que existe un x Rn \ {0} tal que x o o Bx = (B)x. Supongamos que (B) = (A). En tal caso, por el Corolario 11.2.10, x 0 y A B = Ax Bx = (B)x = (A)x = Ax = (A)x y

0 y

x>0.

Por lo tanto Ax = (A)x = (B)x = Bx, o sea que (A B)x = 0. Sin embargo, esto es imposible porque A = B, A B 0 y x > 0. La contradiccin provino de suponer que o (B) = (A). Luego (B) < (A). Observacin 11.2.12. Sea A MPn una matriz irreducible. En este caso, (A) no es, o necesariamente, el unico autovector de mdulo mximo. En efecto, tomando o a A= 0 1 1 0 , se tiene que A es irreducible porque I + A > 0, pero (A) = {1, 1} .

En general, puede verse que los otros autovalores de mdulo mximo en el (A) son los o a siguientes: 1 (A) , . . . , k1 (A), donde los i son las ra ces k-simas de la unidad, para e cierto k n. En el caso anterior, k era 2. El lector interesado puede buscar ms informacin a o al respecto en el libro de A. Benedek y R. Panzone [1], el de Horn y Johnson [7] o en los siguientes ejercicios.

11.2 Matrices de entradas no negativas

221

Ejercicio 11.2.13. Sea A MPn . Probar que: 1. A es primitiva si y slo si A es irreducible y (A) es el unico autovector de mdulo o o mximo de A. a 2. Si A es irreducible y semidenida positiva (o sea que A es irreducible, A 0 y A entonces A es primitiva. Ejercicio 11.2.14. Sean B Mn (C) y A MPn una matriz irreducible. 1. Supongamos que |B| A, (A) = (B) y = ei (B) es un autovalor de B de mdulo o mximo. Entonces, existen nmeros reales 1 , . . . , n tales que a u B = ei D A D1 donde D = diag ei1 , . . . , ein . 2. Supongamos que (A) = 1 y sea S = {1 , . . . , k } = { (A) : || = 1}. (a) Pongamos que cada j = eij (A). Probar que (A) eij (A). (b) Concluir a partir del item anterior que S es un grupo abeliano. (c) Probar que S = Gk = {e algebraica igual a uno.
2ip k

0),

: p Ik } y que cada p S tiene multiplicidad

(d) Mostrar que si A es no singular y n es primo, entonces, (A) es el unico autovalor de mdulo mximo, o bien A posee n autovalores distintos. o a Ejemplo 11.2.15. Sea Jn Mn (R) el bloque de Jordan de tamao n n (con n 2). Es n decir que Jn e1 = 0 y Jn ek = ek1 , para 2 k n. Llamemos 0 1 0 0 .. .. .. 0 1 0 1 0 .. .. .. 0 0 1 0 1 .. .. .. 0 . . . . . . . . 0 0 1 . . . . T A = J + J = . . H(n) , .. .. . . . . 1 0 0 . . 0 .. .. .. 1 0 1 0 0 .. .. .. 0 1 0 1 0 .. .. .. 0 0 1 0 que acta en Rn por Ax = (x2 , x1 + x3 , x2 + x4 , . . . , xn2 + xn , xn1 ), x Rn . No es dif u cil n1 vericar que A es irreducible, ya sea mostrando que (I + A) > 0, o viendo que satisface la denicin de ser FC (con la diagonal de arriba si p < q y con la de abajo si q < p). Tambin o e puede probarse que A Gl (n) si y slo si n es par. Esta matriz es muy famosa y es, tal ves, o la primera matriz a la que se le calcularon todos los autovalores y autovectores. Esto lo hizo Lagrange en 1759, para resolver un sistema de ecuaciones diferenciales ordinarias asociado al problema de la cuerda que vibra. Sus autovalores son, en orden decreciente, k (A) = 2 cos k , n+1 1kn,

11.2 Matrices de entradas no negativas

222

por lo que A = (A) = 2 cos n+1 . Notar que n (A) = 1 (A), luego A no es primitiva. Adems, si n + 1 = 2k (es decir, si n es impar), entonces k (A) = 2 cos /2 = 0, lo que prueba a lo antedicho. Los autovectores asociados son, respectivamente,

2k nk k , sen , . . . , sen , 1kn. n+1 n+1 n+1 n Notar que el unico con entradas positivas es x1 , porque n+1 no lleg an a . La vericacin o u o de lo anterior es tediosa pero elemental. Se basa en las frmulas del seno y coseno de sumas o y restas, y en que sen( t) = sen t y cos( t) = cos t. xk = sen A es el prototipo de matriz tridiagonal o de Jacobi. En realidad cumple que I +A es totalmente positiva, lo que justica (ms bien digamos que sugiri) las propiedades de sus autovalores y a o autovectores, como se ver en el Cap a tulo 13.
Veamos que Ax1 = 1 (A)x1 , lo que nos dir que (A) = 2 cos n+1 y que x1 es el vector de a Perron-Frobenius de A. En efecto, se tienen dos casos: para las entradas 1 y n: 2 A(x1 )1 = sen n+1 = 2 cos n+1 sen n+1

n n A(x1 )n = sen (n1) = cos n+1 sen n+1 cos n+1 sen n+1 n+1 n = 2 cos n+1 sen n+1 .

Para las entradas 2 k n 1 se tiene que A(x1 )k = (x1 )k+1 + (x1 )k1 . Pero
k k (x1 )k+1 = sen (k+1) = cos n+1 sen n+1 + cos n+1 sen n+1 n+1 k k (x1 )k1 = sen (k1) = cos n+1 sen n+1 cos n+1 sen n+1 . n+1 Sumando se obtiene la frmula buscada. Los nmeros cm = 2 cos m para m 3, que apareo u cecn como normas de las matrices anteriores, son muy importantes en varias ramas de la matemtica. Por ejemplo, aparecen en la teor del a a ndice de V. Jones. Tienen la siguiente particularidad: Sea N (Z) R el conjuntos de normas espectrales de matrices de cualquier tamao (incluso rectangulares) con entradas en Z. Entonces n : m 3}. N (Z) (0, 2) = { 2 cos m Notar que realizamos todos estos valores con las matrices cuadradas anteriores. Sin embargo, se los puede realizar con matrices ms pequeas. En efecto, si n = 2k, sea B Mk (Z) dada a n por B = Ik + Jk . Entonces la matriz

B=

0 B BT 0

H(n)

diere de la matriz A del principio slo en una reordenacin de la base cannica (poniendo o o o los pares primero y los impares al nal). Es decir que existe una matriz de permutacin o 1 P UP (n) tal que P AP = B. Por lo tanto B = s1 (B) = 1 (B) = B = A = cn+1 .

11.3 Ejercicios

223

Por eso era que nj+1 (A) = j (A) = sj (B), para todo j Ik (ver Proposicin 3.7.5). Algo o similar puede hacecrse si n = 2k + 1, tomando B = (B, ek ) Mk, k+1 (Z).

11.3

Ejercicios

Ejercicios que aparecen en el texto


11.3.1. El Teorema de Perron falla en general si A A= 0 1 1 0 , 0 pero A > 0. Por ejemplo, si

entonces Am = A o I, segn m sea impar o par. Adems, (A) = {1, 1}. En este caso u a el autovector asociado al 1 es positivo estricto (es 1). Pero eso no pasa para la matriz 1 0 A = . Es ms, todas las partes del Teorema (salvo una) pueden hacerse fallar a 0 0 tomando matrices diagonales de bloques adecuadas 11.3.2. Sea A MPn . Probar que: 1. A es primitiva si y slo si A es irreducible y (A) es el unico autovector de mdulo o o mximo de A. a 2. Si A es irreducible y semidenida positiva (o sea que A es irreducible, A 0 y A entonces A es primitiva. 11.3.3. Sean B Mn (C) y A MPn una matriz irreducible. 1. Supongamos que |B| A, (A) = (B) y = ei (B) es un autovalor de B de mdulo o mximo. Entonces, existen nmeros reales 1 , . . . , n tales que a u B = ei D A D1 donde D = diag ei1 , . . . , ein . 2. Supongamos que (A) = 1 y sea S = {1 , . . . , k } = { (A) : || = 1}. (a) Pongamos que cada j = eij (A). Probar que (A) eij (A). (b) Concluir a partir del item anterior que S es un grupo abeliano. (c) Probar que S = Gk = {e algebraica igual a uno.
2ip k

0),

: p Ik } y que cada p S tiene multiplicidad

(d) Mostrar que si A es no singular y n es primo, entonces, (A) es el unico autovalor de mdulo mximo, o bien A posee n autovalores distintos. o a 11.3.4. Completar las pruebas de lo enunciado en la Observacin 11.2.15. o

11.3 Ejercicios

224

Ejercicios nuevos
11.3.5. Sean A Mn (R) y x Rn . Probar que: 1. Si A > 0 y x 2. Si A 0, pero x = 0, entonces Ax > 0.

0 y x > 0, entonces Ax = 0 A = 0. Ms an, (Ax)k = 0 Fk (A) = 0. a u

3. Si A > 0 y es inversible, entonces A1 MPn . / 4. Si A 0 y es inversible, entonces A1 nula por columna. 0 A tiene exactamente una entrada no

11.3.6. Si A MPn posee un autovalor positivo, probar que A es similar a una matriz de MPn tal que la traza se sus las es constante. Cual es esa constante?. 11.3.7. Sea A MPn . Demostrar que (A) = mx m a n
x>0 iIn

1 xi

aij xj = m mx n a
j=1 x>0 iIn

1 xi

aij xj .
j=1

11.3.8. Sea A MPn . Probar que lim tr Fi (Am )


1/m

= (A)

para cualquier i In .

11.3.9. Sea A Mn (R) tal que las entradas fuera de la diagonal de A son no negativas1 . Mostrar que A posee un autovalor real r(A) tal que r(A) Re() para todo (A). 11.3.10. Sean Sn y P UP (n) MPn su matriz asociada. Decir que debe cumplir para que P sea irreducible. Se recomienda mirar la Eq. (11.1). De paso, calcular (P ). 11.3.11. Probar que si A es una matriz doble estocstica reducible, entonces existe una a permutacin P UP (n) tal que o
1 P AP =

A1 0 . 0 A2

estas matrices se conocen con el nombre de esencialmente no-negativas.

Cap tulo 12 Complementos de Schur y determinantes


12.1 Notaciones y deniciones

Recordemos las notaciones asociadas a submatrices vistas en Cap tulos anteriores: 1. Sea n N y k In . Notamos por Qk,n al conjunto de sucesiones estrictamente crecientes de k enteros elegidos en In : Qk,n = = (1 , 2 , , k ) Ik : 1 1 < 2 < < k n . n Otra manera de verlo es Qk,n = J In : |J| = k , si pensamos a los conjuntos J   ordenados en forma creciente. Luego |Qk,n | = n . k 2. Dado Qk,n , denotaremos por = In \ Qnk ,n a su complemento (ordenado convenientemente). 3. Sean A Mn,m (C), Qk,n y Qr,m . Entonces denotaremos por A[|] a la submatriz de k r de A dada por A[|] = Ai j
(i,j)Ik Ir

Mk, r (C) .

Llamaremos A(|) = A[ | ] Mnk , mr (C) . Anlogamente se denen a A[|) = A[| ] Mk , mr (C) y A(|] = A[ |] Mnk , r (C) .

4. Cuando = , A[|] se abreviar como A[] y A(|) = A(). Si = In (resp. a = Im ), notaremos A[|] = A[|] (resp. A[|] = A[|]). 5. Dadas A Mn,r (C) y B Mr,m (C) , sea k m n{n, r, m}. Luego, para cada par Qk,n , Qk,m se tiene la frmula de Cauchy Binnet para AB: o det (AB)[|] =
Qk,r

det A[|] det B[|] .

(12.1)

12.1 Notaciones y deniciones

226

6. Dada Qk,n , usaremos la abreviacin: o e = e(n)


(n) := e1 e(n) e(n) k Hn . 2 k

Luego, por la multilinealidad de la funcin Hk (x1 , . . . , xk ) x1 xk (ver 7.2.1, o n item 3 y Denicin 7.3.4), y por la Eq. (7.18), el conjunto o Ek,n = { k! e : Qk,n } es una base ortonormal de k Hn , y se la llama base cannica. Por lo tanto, tenemos o n k que dim Hn = |Qk,n | = k .

El complemento de Schur
Denicin 12.1.1. Sea A Mn (C), k In y , Qk,n . o 1. Supongamos que A[|] es inversible. En tal caso denimos el complemento de Schur de A[|] en A, como la matriz A/[|] = A(|) A(|] A[|]1 A[|) Mnk (C) , indexada por y . 2. Si = , escribiremos A/ en lugar de A/[|]. Observacin 12.1.2. Sean A Mn (C)+ y Qk,n . Si A[] Gl (k)+ y consideramos el o subespacio S = Gen {ej : j }, entonces el Corolario 3.8.9 dice que / A/ 0 0 0 S = S A() A(|] A[]1 A(|] 0 0 0 S = (A, S) . S (12.2)

Denicin 12.1.3. Sea Qk,n . o


k

1. Llamaremos tr =
i=1

i .

2. Llamaremos sgn() al signo de la permutacin Sn dada por (i ) = i para i Ik , o y (j ) = k + j para j Ink . Es decir que pone a los buenos al principio y a los malos al nal, preservando sus rdenes. Por lo tanto, o
k

sgn() =
i=1

(1)i i = (1)r ,

con

r = tr

k(k + 1) . 2

(12.3)

En efecto, se puede ver que = (k, . . . , k ) . . . (2, . . . , 2 )(1, 2, . . . , 1 ),

12.1 Notaciones y deniciones

227

donde (a1 , . . . , ar ) denota al r-ciclo asociado. Esto se deduce de que el primer ciclo (que consta de 1 1 trasposiciones) manda 1 al lugar 1. El segundo (que consta de 2 2 trasposiciones) manda 2 al lugar 2 (observar que (1, 2, . . . , 1 ) no movi a 2 ) y deja o a 1 en el lugar 1. Se sigue as hasta mandar k al lugar k . Lo dems (los valores a que toma en ) queda armado para producir la permutacin , porque se mantuvo o su orden interno, y van a donde deben ir. Por ejemplo, los ndices 1, . . . , 1 1 estn a en (si 1 > 1) y se corren un lugar a la derecha por el primer ciclo. Luego, los lugares 2, . . . , 2 1 estn ocupados por ms elementos de y se vuelven a corren con a a el segundo ciclo (manteniendo su orden original). Luego de aplicar los k ciclos, quedan todos los de ordenaditos y al nal. 3. Sea T UP (n), la matriz de permutacin asociada a , dada por o T ei = ei T ek+j = ej si si i = 1, . . . , k j = 1, . . . n k . (12.4)

Tenemos entonces que det T = sgn( ) = sgn(). El siguiente resultado generaliza la Proposicin 3.8.7 y el Corolario 3.8.9 a matrices y bloques o cualesquiera (siempre que sean cuadrados). Teorema 12.1.4. Sean A Mn (C), k In y , Qk,n . Se tiene que A[|] Gl (k) = det A = sgn() sgn() det A[|] det A/[|] . Si tambin A Gl (n), entonces A/[|] Gl (n k) y e
1

(12.5)

A/[|]

= A1 (|) .

(12.6)

Demostracin. Empecemos con el caso particular = = Ik . En este caso, se puede aplicar o una argumento igual al de la prueba de la Proposicin 3.8.7, que mostraremos brevemente: o Un clculo elemental prueba que A admite la factorizacin a o A= In [] 0 A(|]A[]1 In () A[] 0 0 A/ In [] A[]1 A[|) 0 In () . (12.7)

A partir de esto podemos deducir sin problemas la Eq. (12.5), porque los factores de la derecha y de la izquierda en el lado derecho de Eq. (12.7) tienen determinante 1, mientras que el factor central tiene determinante igual a det A[] det(A/). Tambin, Eq. (12.6) es consequencia e de la Eq. (12.7), tomando inversas de ambos lados. Para probar el caso general, consideremos las matrices T , T denidas en Eq. (12.4). Llame1 mos B = T AT . Usando la Eq. (12.4) vemos que, como matrices de sus tamaos, n B[Ik ] = A[|] , B(Ik ) = A(|) , B(Ik |Ik ] = A(|] y B[Ik |Ik ) = A[|) . (12.8)

12.1 Notaciones y deniciones

228

Mostraremos la primera igualdad de la Eq. (12.8), ya que las dems se muestran de manera a anloga: dados i, j Ik , tenemos que a
1 1 B[Ik ]ij = (T AT )[Ik ]ij = T AT ej , ei = AT ej , T ei

= Aej , ei = Ai j = A[|]ij . Observar que las igualdades de (12.8) aseguran que B/[Ik ] = A/[|] . Luego sgn() sgn() det A = det B = det B[Ik |Ik ] det B/[Ik |Ik ] = det A[|] det A/[|] , ya que det T = sgn(). Finalmente, la Eq. (12.6) resulta de la relacin: o
1 A1 (|) = (T A1 T )(Ik ) = B 1 (Ik ) = B/[Ik ] 1

= A/[|]

En el siguiente enunciado veremos que toda matriz A Mn (C) puede ser aproximada tanto como se quiera por matrices tales que todas sus submatrices cuadradas son inversibles. Esto ser usado para obtener varias identidades de determinantes a partir del Teorema 12.1.4. a Lema 12.1.5. Dada A Mn (C) y > 0, existe B Mn (C) tal que 1. A B < , donde es una norma en Mn (C).

2. Todas las submatrices cuadradas de B son inversibles.


n

Demostracin. La cantidad total de submatrices cuadradas de A es M = o


k=1

 n 2
k

. Consider-

emos la funcin : Mn (C) CM que asigna a cada B Mn (C) la lista de los determinantes o de todas sus submatrices cuadradas, en algn orden prejado. Notar que es una funcin u o continua. Llamemos = 1 a C M : ai = 0 para todo i IM .

Para probar el Lema, basta ver que es denso en Mn (C). Llamemos, para cada i IM , i = 1 a C M : ai = 0 .
M

Es claro que todos estos conjuntos son abiertos y que =


i=1

i . Por otra parte, cada i

es denso en Mn (C), porque Gl (k) es denso en Mk (C) para todo k N. Por ejemplo, si (A)1 = det A, entonces 1 = Gl (n). El resultado se sigue de que una interseccin nita de o abiertos densos es densa. En efecto, si U y V son abiertos densos y Z es abierto, entonces Z U es un abierto no vac Entonces (Z U ) V = Z (U V ) = para todo abierto Z. o. Por lo tanto U V es denso. Por induccin, quien dice 2, dice M . o

12.2 Identidades asociadas a determinantes

229

12.2

Identidades asociadas a determinantes


det A(|) , det A

Teorema 12.2.1 (Identidad de Jacobi). Sea A Gl (n). Entonces det A1 [|] = sgn() sgn() para todo par , Qk,n . (12.9)

Demostracin. Se sigue de las ecuaciones (12.6) y (12.5), aplicadas a y : o det A1 = sgn() sgn() det A1 [|] det A1 /[|] = det A1 [|] = =

sgn() sgn() sgn() sgn() (det A1 /[|])1 = det A(|) , det A det A

lo que culmina la prueba. Observacin 12.2.2. Cuando k = 1, la Eq. (12.9) induce la identidad: o (A1 )ij = (1)i+j conocida como la regla de Cramer. 12.2.3. Sean Jn = diag (1, 1, 1, 1, . . . , (1)n1 ) U(n), y , Qk,n . Luego det Jn [|] = sgn()(1)
k(k1) 2

det A(j|i) , det A

i, j In ,

(12.10)

donde , = 1 o 0 de acuerdo a si = o = . En efecto, si = , en Jn [|] hay una columna de ceros, y por lo tanto su determinante es cero. Cuando = tenemos que, si p denota al nmero de elementos pares de , entonces u
k

p
i=1

(i 1) = tr k

(mdulo 2) . o

Luego det Jn [] = (1)p = (1)tr k = sgn() (1)


k(k+1) 2

= sgn()(1)

k(k1) 2

lo que culmina la prueba. Si A Gl (n), suele notarse A# = Jn A1 Jn a la llamada inversin o de A. La siguiente igualdad se sigue de la Eq. (12.9), usando (12.1) (Cauchy-Binnet): det(Jn A1 Jn )[|] = det A(|) det A para , Qk,n , (12.11)

dado que det Jn [] sgn() = det Jn [] sgn() = (1)k(k1)/2 .

12.2 Identidades asociadas a determinantes

230

12.2.4. La siguiente igualdad es vlida para toda A Mn (R): dados , Qk,n , a sgn() det A[|] det A(|) = , sgn() det A .
Qk,n

(12.12)

De hecho, cuando A es inversible, por Eq. (12.9), el lado izquierdo de la Eq. (12.12) da sgn() det A
Qk,n

det A[|] det A1 [|] = sgn() det A det In [|] ,

por la frmula de Cauchy Binnet (12.1). El caso no inversible se deduce por continuidad. o Observar que, tomando k = 1, y jando cualquier r In como = , nos queda el algoritmo usual propuesto en el Ejercicio 7.5.11 (y usando n veces) desarrollando por la la r: det A =
iIn

sgn {r} sgn{i} Ar,i det A(r|i) =


iIn

(1)r+i Ar,i det A(r|i) .

(12.13)

El desarrollo por columnas sale aplicando esto a AT . 12.2.5. Dados , Qk,n y, adems, , Ql,n tales que , , sean a = = (1 , 2 , . . . , k+l ) y = = (1 , 2 , . . . , k+l ) Qk+l,n .

Existen entonces y Qk,k+l tales que i = i y i = i , i Ik . Luego denimos sgn


k(k+1) = sgn() = (1)tr 2 ,

sgn

= sgn() .

(12.14)

Con estas notaciones, se tiene la siguiente versin local del Teorema 12.1.4: o det A[|] det (A/[|])[| ] = sgn sgn det A[ | ] (12.15)

En efecto, consideremos la matriz B = (ai j )i,jIk+l Mk+l (R). Entonces vemos que Eq. (12.15) coincide con Eq. (12.5) para B, , en lugar de A, , , respectivamente. De hecho, como B = A[|] = A[ | ], entonces B[|] = A[|] y, por otra parte, B/[|] = B(|) B(|] B[|]1 B[|) = A(|)[| ] A(|] A[|]1 A[|)[| ] = (A/[|])[| ] . Una consecuencia inmediata es la siguiente caracterizacin de las entradas de un complemento o de Schur: Dados , Qk,n , se tiene {A/[|] }( , ) = sgn
i j

det A[ {i }| {j }] sgn {i } {j } det A[|]

(12.16)

12.2 Identidades asociadas a determinantes

231

Corolario 12.2.6. Sea A Mn (R) y sea r In tal que Arr = 0. Entonces, para todo Qk,n tal que r , se tiene que / (A/[r])[] = A[{r} ]/[r] . Todas esas letras signican que las submatrices principales de A/[r] slo dependen de las o entradas correspondientes de A (y no de las dems). a Demostracin. Dados i, j , la frmula (12.16) asegura que o o (A/[r])[]
ij

(A/[r]
ij

r det A[{i, r}|{j, r}] r sgn = sgn {i, r} {j, r} Arr = por lo ambas matrices coinciden. 12.2.7 (Identidad de Sylvester). Dados A Mn (R) y , Qk,n , se cumple que det det A[ {i }| {j }]
i,jInk

A[{r} ]/[r]
ij

= det A det A[|]nk1

(12.17)

Para probarlo, tomemos los nmeros u i = sgn {i } y j = sgn , {j } para todo i, j Ink .

Por la Eq. (12.16), vemos que el lado izquierdo de la Eq. (12.17) es igual a det det A[|] (A/[|])ij i j = det A[|]nk det diag(1 , . . . , nk ) A/[|] diag(1 , . . . , nk ) =
nk

det A[|]

nk1

det A[|] det(A/[|])


i=1

sgn {i }

nk

sgn
i=1

. {j }

La frmula (12.17) se sigue ahora de la Eq. (12.5) y del siguiente resultado: o Lema 12.2.8. Sea Qk,n . Entonces
nk

sgn
i=1

{i }

= sgn() .

(12.18)

12.3 Un poco ms de complementos de Schur a

232

Demostracin. Recordemos la denicin de los signos de y de { } , para cada entrada o o i i Ink . En ambos casos, es calcular el signo de la permutacin que manda a los buenos o al principio y los malos al nal. En otras palabras, estn determinados por la cantidad de a trasposiciones necesarias para efectuar tales ordenamientos. Pero miremos el siguiente proceso: empezamos por el ultimo elemento de y lo corremos hasta el nal (si no estaba all Al ). penltimo, lo corremos hasta justo despues de k . Y seguimos as con todos los de hasta u llegar al primero. El nmero de trasposiciones en cada paso es justo el que determina el u correspondiente sgn { } , porque los j que tiene arriba quedaron pegados entre s al haber , i sacado antes los de mayores que i . Pero al nal de todo mandamos prolijamente a todo hasta el nal, por lo que la suma total da el sgn().

Observacin 12.2.9. La prueba anterior es un poco charlada, pero cranme que ustedes lo o e preferir as antes que tener que leer una cuenta expl an , cita. Igual daremos una versin guiada o de esa cuenta en los ejercicios. Como aval de la prueba anterior, se ver all que la suma de a los exponentes de la productoria de (12.18) da igual (y no slo congruente) al exponente de o 1 en sgn(), segn las Eqs (12.3) y (12.14). u

12.3

Un poco ms de complementos de Schur a

Recordemos que, si A Mn (C), k In y , Qk,n satisfacen que A[|] es inversible, el complemento de Schur A[|] en A es la matriz A/[|] = A(|) A(|] A[|]1 A[|) Mnk (C) , indexada por y . Llamemos C = Gen {ej : j } y C = Gen {ek : k }. Representemos Cn = C C , poniendo que un vector Cn x = x +x . Anlogamente Cn = C C . a Observar que A[|] opera desde C hacia C , lo que denotaremos A[|] : C C . Por lo tanto A[|]1 : C C . Los otros cachos de A operan en forma coherente, por ejemplo A[|) : C C y as Con estas notaciones, podemos pensar que A/[|] : C C . . Proposicin 12.3.1. Sea A Mn (C) y supongamos que A[|] es inversible para ciertos o , Qk,n . Denamos P (A, , ) Mn (C) dado por P (A, , ) x = x A[|]1 A[|) x ,

para x = x + x Cn . Entonces, si abreviamos P (A, , ) = P , se tiene que 1. P 2 = P . 2. ker P = Gen {ej : j } = C . 3. (AP )(|) = A/[|] y las dems coordenadas de AP son nulas. a Demostracin. Observar que P x = P x y que A[|]1 A[|) x C para todo x Cn . o Por ello es claro que P 2 = P y que ker P = C , porque los sumandos que denen a P no intereren entre s por lo que nunca se anula en C \ {0}. ,

12.3 Un poco ms de complementos de Schur a

233

De lo anterior, deducimos que si x = x C , entonces AP x = 0. Esto dice que (AP )[|] y (AP )(|] son matrices nulas, porque son las partes de AP que actan en C y van a lugares u que no intereren entre s Por lo tanto, para cualquier x Cn , se tiene que . AP x = AP x = A(|) + A[|) x A(|] + A[|] A[|]1 A[|) x = A(|) A(|]A[|]1 A[|) x = A/[|] x C . Esto muestra que (AP )[|) 0 y que (AP )(|) = A/[|]. Corolario 12.3.2. Sean A Mn (C) y , Qk,n tales que A[|] es inversible. 1. Para todo x C existe un x C tal que A/[|] x = A(x + x ) . 2. Sea Q Mn (C) tal que Q2 = Q , ker Q = C Entonces se tiene que Q = P (A, , ). Demostracin. Sea P = P (A, , ) la proyeccin de la Proposicin 12.3.1. Luego o o o A/[|] x = AP x = A x A A[|]1 A[|) x . y R(A Q) C . (12.19)

Luego basta tomar x = A , A[|]1 A[|) x . Si me dan ahora un Q que cumple (12.19), entonces Q2 = Q y ker Q = C . Luego, como en el Ejercicio 3.9.19, se puede ver que Qx = Qx = x + Q[, )x , para todo x = x + x Cn .

El hecho de que R(AQ) C indica que (AQ)[|) = 0. De lo anterior, uno deduce que 0 = (AQ)[|) = A[|) + A[|]Q[, ) = A[|]Q[, ) = A[|) . Como A[|] es inversible, tenemos que Q[, ) = A[|]1 A[|), o sea que Q = P . El siguiente teorema es un resultado anlogo a la Proposicin 3.8.5. a o Teorema 12.3.3. Sea A Mn (C) y supongamos que A[|] es inversible para ciertos , Qk,n . Sean , Qr,n , tales que y . Entonces 1. (A/[|])[| ] Gl (r) si y slo si A[ | ] Gl (k + r). o 2. En este caso se cumple la siguiente igualdad de matrices: A/[|] /[| ] = A/[ | ] . (12.20)

12.3 Un poco ms de complementos de Schur a

234

Demostracin. El item 1 se deduce en forma inmediata de la Eq. (12.15). Por la Proposicin o o 12.3.1, tenemos tres proyectores: P (A, , ), P (A/[|], , ) y P (A, , ) tales que A/[|] = A P (A, , ) , A/[ | ] = A P (A, , ) y (12.21)

A/[|] /[| ] = A/[|] P (A/[|], , ) = A P (A, , ) P (A/[|], , ) ,

salvo los ceros. Ahora bien, ker P (A, , ) = C , mientras que A/[|] opera slo en C o por lo que, si pensamos a P (A/[|], , ) Mn (C) con ceros fuera de , se tiene que ker P (A/[|], , ) = C . En particular, como C C , se tiene que P (A/[|], , ) I P (A, , ) = 0 = P (A/[|], , )P (A, , ) = P (A/[|], , ) y la matriz Q = P (A, , ) P (A/[|], , ) Mn (C) cumple que Q2 = Q , ker Q = C y R(A Q) C() , (12.22)

donde igualdad del medio es un ligero ejercicio, y la ultima inclusin surge de que, como dice o la Eq. (12.21), se tiene que A/[|] /[| ] = AQ. Ahora, la Eq. (12.22) asegura, v el a Corolario 12.3.2, que Q = P (A, , ), por lo que A/[|] /[| ] = AQ = A/[ | ] . Observacin 12.3.4. Otra forma de probar la frmula (12.20), con tcnicas ms parecidas a o o e a las del resto de este Cap tulo, ser calculando las coordenadas como determinantes por medio a de las ecuaciones (12.15) y (12.16). En efecto, sean i ( ) y j ( ) , llamemos = {i} y = {j} y obsevemos que, en el lado izquierdo de (12.20) tenemos (A/[|])/[| ]
i,j

= sgn

sgn

det(A/[|])[ | ] det (A/[|])[| ] donde sgn


= = sgn

det A[ | ] , det A[ | ]

sgn

sgn

sgn

sgn

La misma entrada del lado derecho de (12.20) es igual a A/[ | ]


ij

= sgn

sgn

det A[ | ] . det A[ | ]

Por lo tanto, ambas matrices tienen todas sus coordenadas iguales, salvo los signos. Para ver que ellos coniciden, bastar vericar que, para todo i ( ) y todo j ( ) , a = sgn

sgn

donde = {i} y = {j} .

(12.23)

Esto sale usando la Eq. (12.14) y un sinnmero de cuentas que, con gran alegr le dejamos u a, al lector interesado como ejercicio.

12.4 Ejercicios

235

12.4

Ejercicios

Ejercicios que aparecen en el texto


12.4.1. Completar los detalles de la prueba de la Eq. (12.3). 12.4.2. Dar una prueba numrica de la Eq. (12.18). Es decir: Dada Qk,n probar que e
nk i=1 sgn { }
i

= sgn() . Se suguieren los siguientes pasos:

1. Para cada i Ink , sea i Qk,k+1 , denido como en 12.2.5 para y {i }. i k(k+1) Recordemos que en la Eq. (12.14) se vi que sgn { } = sgn( i ) = (1)tr 2 , o i donde i Sk+1 manda i al nal de {i }. El tema es ver en qu lugar de entre las e entradas de que ubicado el i . Pongamos, por conveniencia, que 0 = 0 y k+1 = . En tal caso, mostrar que tr i = (k + 2)(k + 1) j , 2
i

cuando se tiene que

j1 < i < j .

2. Deducir que sgn { } = sgn( i ) = (1)kj+1 si j1 < i < j .

3. Contemos cuantos hay de cada tipo: probar que |{i Ink : i < 1 }| = 1 1 , |{i Ink : k < i }| = n k |{i Ink : j1 < i < j }| = j j1 1 4. Ahora s calcular el exponente de la productoria: ,
nk

cuando 2 j k .

i=1

k(k + 1) tr 2
i

=
j=1 k

(k j + 1)(j j1 1) + 0 (n k )
k

=
j=1

j
j=1

(k j + 1) = tr

k(k + 1) . 2

5. Usando la Eq. (12.3), concluir la prueba de la frmula (12.18). o 12.4.3. Dar una prueba de la frmula (12.20) basandose en el camino delineado en la Obo servacin 12.3.4. En otras palabras, probar la Eq. (12.23). Se sugieren dos caminos. El o primero es encontrar permutaciones que tengan esos signos y que hagan lo mismo, como en la prueba del Lema 12.2.8. El segundo es contar todo a lo bestia, y mostrar que son congruentes mdulo 2. En ambos casos, se puede reducir el trabajo a probar dos identidades ms cortas o a y similares, a saber: Dados Qk,n , Qr,n y = {i}, todos disjuntos, sgn sgn sgn = sgn ,

y lo mismo para , y . Por ejemplo, se puede mandar al nal, despus mandar a e al ultimo lugar, y despus volver a mezclar a con . e

12.4 Ejercicios

236

Ejercicios nuevos
Notacin: Sea A Mm,n (C) tal que m > n y rk(A) = n. o 1. Dado I Im con |I| = r y dado b Cm , denotaremos por bI al vector de C r que se obtiene dejando slo las coordenadas de b que pertenecen a I. o 2. J(A) := {I Im : |I| = n y det A[I] = 0}. Observar que rk(A) = n = J(A) = . 12.4.4 (Ben Tal - Teboulle). Dada A Mm,n (C) tal que m > n y rk(A) = n, sea c Cn la solucin del problema de cuadrados m o nimos
xCn

m Ax b n

para un b Cm jo .

Si para cada I J(A) denotamos cI = A[I]1 bI , probar que c pertenece a la cpsula convexa a de los cI . Se suguiere probar que c es la unica solucin de la denomina ecuacin normal o o A Ax = A b. Luego, usar la regla de Cramer y la frmula de Cauchy-Binet. o

Cap tulo 13 Matrices totalmente positivas


Este cap tulo est basado en un trabajo de T. Ando [20], aparecido en 1987, y est escrito a a utilizando como punto de partida un trabajo de A. Iglesias. Las herramientas fundamentales para las demostraciones son los intrincados resultados del Cap tulo anterior.

13.1

Deniciones y criterios de positividad total


1. Llamaremos sucesin de signatura a una sucesin o o es decir, tal que i = 1 para todo iN.

En esta seccin introducimos las nociones de regularidad de signo y positividad total. o Denicin 13.1.1. o

= (i )iN {1, 1}N ,

2. Dado R con || = 1, notaremos a la sucesin de signatura = (i )iN . o 3. Si es otra sucesin de signatura, llamaremos = (i i )iN . o Denicin 13.1.2. Sean A Mn,m (R) y una sucesin de signatura. Sea r = m o o n{n, m}. 1. Decimos que A es de signo regular con signatura , y abreviaremos diciendo que A es -RS si, en la base cannica Ek,n = { k! e : Qk,n }de k Hn , se tiene que o k k A 0 para todo k Ir , (13.1)

La regularidad de signo de A es equivalente a la condicin o k a 1 a 2 a k 0, para Qk,m k Ir , (13.2)

o, por la Eq. (7.19), en forma de determinantes, k det A[|] 0 para Qk,n , Qk,m k Ir , (13.3)

2. A se dice estrictamente de signo regular con signatura (A es -ERS) si, en la Eq. (13.1) (o, equivalentemente, en la Eq. (13.2) o la Eq. (13.3)), reemplazamos por >.

13.1 Deniciones y criterios de positividad total

238

3. Decimos que A es totalmente positiva (y abreviaremos TP) si es -RS respecto de la sucesin 1, es decir, si o k A 0, k Ir , (13.4) o equivalentemente si a 1 a 2 a k es decir, si det A[|] 0 para Qk,n , Qk,m k Ir . (13.6) 4. A se dice estrictamente totalmente positiva (ETP) si ecuaciones (13.4), (13.5) o (13.6). es reemplazado por > en las 0, para Qk,m k Ir , (13.5)

Para testear la regularidad de signo de A se requiere chequear los signos de un nmero muy u grande de determinantes. Pero si el rango de A es conocido, en particular si A es inversible, el nmero necesario de determinantes a chequear puede ser considerablemente reducido. La u prueba de este resultado, que es bastante complicada, se posterga a un Apndice al nal e del Cap tulo. Esto se debe a que su aplicacin es clave en el desarrollo de la teor y la o a construccin de ejemplos, pero estas aplicaciones son de un grado mucho menor de dicultad. o Una ves apreciado el efecto devastador del siguiente Teorema, es probable que el lector afronte con mayor entusiasmo la dif lectura de su demostracin. cil o Denicin 13.1.3. Sea n N, k In y Qk,n . La dispersin de es el nmero o o u d() = k 1 (k 1) =
i Ik1

i+1 i 1 ,

con la convencin de que d() = 0 para los Q1,n . Observar que d() = 0 si y slo si las o o entradas de son consecutivas, i.e. i+1 = i + 1 para todo i Ik1 . Teorema 13.1.4. Sea A Mn,m (R) con rk A = r, y sea una sucesin de signatura. o 1. Para que A sea -RS, es suciente que las Eqs. (13.2) o (13.3) se veriquen en los casos en que d() m r. 2. En particular, si las Eqs. (13.5) o (13.6) son vlidas en esos casos, A es TP. a Ahora pasemos a los criterios para la regularidad de signo estricta. El nmero de determinantes u se reduce an ms. La prueba de este criterio tambin se dar en el Apndice. u a e a e Teorema 13.1.5. Sean A Mn,m (R) y una sucesin de signatura. o 1. Para que A sea -ERS es suciente que, para todo k Im n(n,m) , k det A[|] > 0 para Qk,n , Qk,m tales que d() = d() = 0 .

13.1 Deniciones y criterios de positividad total

239

2. En particular A es ETP si det A[|] > 0 para Qk,n , Qk,m tales que d() = d() = 0 .

Ejemplo 13.1.6 (Vandermonde). Sea t = (t1 , . . . , tn ) Rn . Se llama matriz de Vandermonde de t a V (t) Mn (R) dada por V (t)ij = tj1 . O sea que i 1 t1 . . . tn1 1 1 t2 . . . tn1 2 V (t) = . . det V (t) = (tj ti ) . (13.7) . . Es conocido que . . ... . . . . i<j 1 tn . . . tn1 n La prueba es un ejercicio tradicional de induccin (ver Ejercicio 7.5.12). Supongamos que o 0 < t1 < < tn . Entonces V (t) es ETP. En efecto, observar en principio que V (t) Gl (n). Luego, para probar que V (t) es ETP, el Teorema 13.1.5 nos dice que basta ver que det V (t)[ | ] > 0 para los pares , Qk,n , tales que d() = d() = 0. Si = (r + 1, r + 2, . . . , r + k) y llamamos t = (t1 , . . . , tk ), entonces se ve fcilmente que a
k

det V (t)[ | ] =
i=1

tr i det V (t ) > 0 .

El argumento clave es que, gracias a que d() = 0, la submatriz V (t)[ | ] tiene en sus las, potencias consecutivas de los ti , por lo que, dividiendo a cada la por V (t)[ | ]i,1 = tr i , se obtiene la matriz V (t ) que es tambien una matriz de Vandermonde de una k-upla ordenada. La positividad del determinante en este caso se deduce de la frmula (13.7). Observar que la o ETPcidad se mantendr si uno inventara matrices de Vandermonde rectangulares (donde no a coincidan necesariamente el nmero de potencias y de nmeros ti ) pero siempre pidiendo que u u el vector t tenga entradas estrictamente crecientes. Corolario 13.1.7. Una matriz A Gl (n) triangular inferior es TP si det A[|1, 2, . . . , k] 0 para cada k In y cada Qk,n . Demostracin. Sea A triangular inferior. Como el rk A = n, de acuerdo al Teorema 13.1.4, o basta mostrar que detA[|] 0, para , Qk,n , con d() = 0. Si 1 < 1 , entonces det A[|] = 0 por ser A triangular inferior. Si 1 1 , sea = {1, 2, . . . , 1 1}. Por ser A triangular inferior, es claro que A[ |] 0. Entonces, por hiptesis, o 0 det A[ |1, 2, . . . , k ] = det A[ | ]
1 1

= det A[ ] det A[|] =


i=1

aii det A[|].


r

Aplicando la hiptesis a los conjuntos = Ir , se obtiene que o


n i=1

aii 0 para todo r In .

Pero como det A =


i=1

aii = 0, se sigue que detA[|] 0.

13.1 Deniciones y criterios de positividad total

240

La prueba del Teorema 13.1.5, combinada con el Corolario 13.1.7, genera el siguiente criterio alternativo: Corolario 13.1.8. Sea A Mn (R) triangular inferior. Entonces es TP si se verica que det A[|1, 2, . . . , k] > 0 para cada k In y cada Qk,n , con d() = 0. Demostracin. Ejercicio (hace falta ver la prueba del Teorema 13.1.5). o Denicin 13.1.9. Una matriz A Mn (C) es llamada una matriz de Jacobi (o tridiagonal ) o si aij = 0 siempre que |i j| > 1. Teorema 13.1.10. Sea A Mn (R) una matriz de Jacobi. Supongamos que 1. A 0.

2. Para todo k In y Qk,n tal que d() = 0, se tiene que det A[] 0. Entonces A es TP y, para cualquier t = (t1 , t2 , . . . , tn ) R+n ,
n

det A + diag ( t )

det A +
i=1

ti .

(13.8)

Demostracin. Por induccin en n. La armacin es trivial para n = 1. Supongmos que el o o o Teorema es vlido para n 1 en lugar de n. Consideremos primero el caso en que det A > 0. a Por el Teorema 13.1.4, tenemos que chequear det A[|] 0 , para , Qk,n con d() = 0.

Para k = n, esto es la hiptesis. Para k n 1, usaremos la hiptesis inductiva, que asegura o o que las matrices A(1) y A(n) son TP. Supongamos que 1 . Si 1 , entonces A[|] / / es submatriz de A(1) y det A[|] 0. Si 1 , entonces la primera la de A[|] es (a1,1 , 0, . . . , 0). Luego det A[|] = a1,1 det A {2 , . . . , k }|{2 , . . . , k } 0 , porque la ultima matriz tambin vive dentro de A(1). El anlisis es similar si 1 , porque e a en tal caso, como d() = 0, debe vericarse que n , y puede usarse que A(n) es TP. Por / lo anterior, deducimos que A es TP en este caso (i.e., det A > 0). Supongamos ahora que a11 > 0 (es fcil ver que este caso es suciente). Veamos que, en tal a caso, A/{1} cumple las hiptesis del Teorema. En efecto, es fcil ver que A/{1} diere de o a A(1) slo en la entrada 2, 2 (es decir la 1,1 si la numerramos de corrido). Por lo tanto, dado o a {2, . . . , n} con d() = 0, si 2 entonces det (A/{1}[]) = det (A(1)[]) 0. Si 2 , / por la Eq. (12.15) se tiene que det (A/{1}[]) = det (A/{1}[2, 3, . . . , k]) = det A[1, 2, . . . , k] 0. a11

13.1 Deniciones y criterios de positividad total

241

La hiptesis inductiva nos asegura que A/{1} es TP y o


n

det A/{1} + diag(t2 , . . . , tn )

det A/{1} +
i=2

ti .

Por lo tanto, por el Teorema 12.1.4 y el hecho de que A det A + diag(t)

0, se tiene que

= (a11 + t1 ) det (A + diag(t) )/{1} = (a11 + t1 ) det A/{1} + diag(t2 +


n

a12 a21 a12 a21 , . . . , tn ) a11 a11 + t1


n

a11 det A/{1} +


i=1

ti = det A +
i=1

ti .

Resta ver que A es TP. Para ello basta observar que, para todo > 0, la matriz A + I tiene det(A + I) n > 0 y cumple las hiptesis del Teorema (para ambas cosas se usa la o frmula (13.8), que fue probada para A, y vale para los los A[] con d() = 0 por la hiptesis o o inductiva). Luego A+I es TP por el argumento del principio. Como estas matrices convergen a A, ella tambin debe ser TP. e Corolario 13.1.11. Sea A Mn (R) de Jacobi y TP. Entonces, dado t Rn , se tiene que + A + diag (t) es tambin TP. e Demostracin. Se sigue del Teorema 13.1.10, aplicado a las submatrices principales, que o A + diag (t) es una matriz de Jacobi positiva con menores principales no negativos. Corolario 13.1.12. Sea A Mn (R) de Jacobi tal que A I + A es TP. Demostracin. Ejercicio. o Conclu mos esta seccin con un teorema de aproximacin de una matriz TP con otras ETPs. o o Teorema 13.1.13. Toda matriz -RS puede ser aproximadada arbitrariamente cerca por matrices -ERS con la misma signatura. En particular, toda matriz TP puede ser aproximada arbitrariamente cerca por matrices estrictamente TPs. Demostracin. Sea A Mn,m una matriz -RS. Podemos asumir que n = m, considerando o 0 [A, 0] o [ A ] si es necesario. Como veremos en la Seccin 8, existe una sucesin {Gp } de matrices o o n-cuadradas ETPs tales que Gp In . Ahora procedamos por induccin hacia atrs en o a
p

0. Entonces exite R tal que

k = rk A. Notemos que la Eq. (7.17) implica i i (Gp AGp ) > 0 si i rk A y i (Gp AGp ) = 0 si i > rk A . (13.9)

Esto se deduce de que, dadas matrices X, Y, Z Mn (R) tales que X > 0, Z > 0 pero 0 = Y 0, entonces XY Z > 0. Cuando rk A = n, la armacin se sigue inmediatamente o de la Eq. (13.9). Asumamos que la armacin es cierta para todas las matrices regulares de o

13.2 Permanencia de la positividad total

242

signo de rango k + 1. Si rk A = k, tomemos un p para el que B := Gp AGp est sucientemente a cerca de A. De acuerdo a las ecuaciones (13.9) y (7.19), B tiene la propiedad i det B[|] > 0 Sea = m n
1ik

para

, Qi,n i Ik .

(13.10)

m | det B[|]| : , Qi,n n mx | det B[| ]| : , Qi1,n a

donde

det B[] = 1 .

Fijemos 0 < t < y consideremos la matriz C = B + tk k+1 E11 . Dados , Qr,n , desarrollando por la primera columna, se tiene que det C[|] = det B[|] + tk k+1 det B[ \ {1}| \ {1}] y det C[|] = det B[|] si 1 ,

en otro caso .

Para ver que C es -RS se consideran tres casos: submatrices de tamaos r k (ah se usa n que t < y el sumando extra no puede cambiar signos), r > k + 1 (ah da todo cero porque rkB = rkA = k) o r = k + 1. Por ejemplo, tomando , Qk+1,n tales que 1 , se ve que k+1 det C[|] > 0, porque det B[|] = 0 pero k det B[ \ {1}| \ {1}] > 0, por la Eq. (13.10). En particular, esto muestra que rk C = k + 1. Para t chicos, C est sucientemente a cerca de B, y por lo tanto de A. Ahora, por hiptesis inductiva C puede ser aproximada o arbitrariamente cerca por matrices estrictamente regulares de signo con signatura . Esto completa la induccin. o

13.2

Permanencia de la positividad total

Esta seccin est dedicada a mtodos cannicos de produccin de matrices TP nuevas a partir o a e o o de otras dadas. Es claro que si A es de -RS, tambin lo es su adjunta A = AT . e Teorema 13.2.1. Si A Mn,m (R) es A -RS y B Mm,l (R) es B -RS, entonces: 1. El producto AB es -RS, con = A B . 2. En este caso, AB se convierte en -ERS si (a) A es A -ERS y rk B = l, o si (b) rk A = n y B es B -ERS. 3. Si A y B son ETP, tambien lo es AB. Demostracin. Los o tems 1 y 3 son consecuencia inmediata de las ecuaciones (7.17) o (12.1) (Cauchy-Binnet). El tem 2 se deduce de los siguientes hechos: * Si C > 0 y D 0 no tiene columnas nulas (y se puede multiplicar), entonces CD > 0.

13.2 Permanencia de la positividad total

243

* Si rk B = l, las columnas de B son LI. Luego para todo k l y todo Qk,l , se tiene que rk B[|] = k, por lo que debe existir un Qk,m tal que det A[|] = 0. La suma de dos matrices TPs no es en general TP. Por lo tanto, es poco comn que una u matriz A Mn (R) genere un semigrupo TP de un parmetro. Esto signicar que etA sea a a TP para todo t > 0. La excepcin la dan las matrices de Jacobi TP: o Teorema 13.2.2. Sea A Mn (R). Son equivalentes: 1. etA es TP para todo t > 0. 2. A = I + B para algn R y una matriz B Mn (R) que es de Jacobi y TP. u Demostracin. Supongamos primero que A es de la forma mencionada. Entonces, como o e
tA

=e e

t tB

=e

lim

tB I+ p

por la Eq. (9.41), la positividad total de etA resulta del Teorema 13.2.1, ya que B es una t matriz de Jacobi y es TP, as que I + p B sigue siendo TP por el Corolario 13.1.11. Supongamos rec procamente que etA es TP para todo t > 0. Por el Corolario 13.1.12, basta mostrar que A es una matriz real de Jacobi con elementos no negativos fuera de la diagonal. tk Ak , es fcil ver que a Usando el desarrollo en serie etA = k!
kN

A = lim
t0

etA I t

o equivalentemente que

lim
t0

I + tA etA =0. t

(13.11)

Como etA 0, esto muestra que todas las entradas no diagonales de A son no negativas. Veamos que aij = 0 si |i j| > 1. Por ejemplo, si i + 1 < j, entonces det etA [i, i + 1|i + 1, j] 0 lo que, v la Eq. (13.11), implica que a 0 lim det
t0

para todo

t>0,

I + tA i, i + 1|i + 1, j = lim {tai,i+1 ai+1,j (1 + tai+1,i+1 )aij } = aij . t0 t 0 para algn R. Para u

El caso j + 1 < i es anlogo. Luego A es de Jacobi y I + A a encontrar una B que sea TP, basta usar el Corolario 13.1.12.

Teorema 13.2.3. Sea A Mn,m (R) -RS. Sean Qk,n y Qk,m . Entonces, 1. A[|] es -RS. 2. Si n = m, d() = 0 y A() Gl (n k), entonces A/ es -RS, donde la sucesin de o signos = (nk nk+i )iIk .

13.2 Permanencia de la positividad total

244

3. Si n = m y A es inversible, entonces A# = Jn A1 Jn es J -RS, donde J = (n ni )iN , con la convencin de que j = 1 si j 0. o 4. En particular, si A es TP, tambin lo sern A[|], A/ y Jn A1 Jn . e a Adems, los mismos resultados valen reemplazando regular de signo por estrictamente a regular de signo (o TP por ETP) en todos los casos. Demostracin. Fijemos , Qp,n tales que , . o 1. Es trivial, ya que p det A[|][| ] = p det A[| ] 0 (resp. > 0) .

2. Supongamos ahora que . Se sigue de la la Eq. (12.15) que det A/ [| ] = sgn det A[ | ] sgn . det A[ ]

Notar que det A[ | ] tiene signo nk+p y detA() tiene signo nk . Pero como d() = 0, se ve fcilmente que sgn( / ) = sgn( / ) (ambos dependen slo de a o cuantos elementos de estn despus del bloque ). a e 3. Observar que n det A > 0 y, por la Eq. (12.11), tenemos que det Jn A1 Jn [|] = det A(|) , det A

donde nk det A(|) = nk det A[ | ] 0 (resp > 0). Las ultimas armaciones se deducen de lo anterior. En lo que sigue, se usar varias veces el Corolario 12.2.6, cuya frmula repasaremos para a o comodidad del lector: Sea A Mn (R) y sea r In tal que Arr = 0. Entonces, para todo Qk,n tal que r , se tiene que / (A/[r])[] = A[{r} ]/[r] . (13.12)

Proposicin 13.2.4 (Pinching). Sea B Mm (R) una matriz TP. Entonces o det B det B[Ik ] det B(Ik ) para todo k Im1 . (13.13)

Demostracin. Probaremos la Eq. (13.13) por induccin en m. Para m = 2, tenemos que o o b12 0 y b21 0 = det B = b11 b22 b12 b21 b11 b22 .

13.2 Permanencia de la positividad total

245

Asumamos que la armacin es cierta para todos los casos de orden menor que m. Asumamos o que k > 1 y que b11 > 0. Por la Eq. (12.5) se tiene que det B[Ik ] det B(Ik ) = b11 det B[Ik ]/{1} det B(Ik ) = b11 det B/{1}[2, . . . , k] det B(Ik ) , donde la ultima igualdad se deduce de la Eq. (13.12), que dec que a B/{1}[] = B[{1} ]/{1} para todo tal que 1 / . Como la matriz B[1, k+1, k+2, . . . , m] es de orden menor que m y es TP, la hiptesis inductiva o nos asegura que b11 det B(Ik ) det B[1, k + 1, k + 2, . . . , m] = b11 det B[1, k + 1, k + 2, . . . m]/{1} = b11 det B/{1}(Ik ) , Usando nuevamente la hiptesis inductiva en la matriz B/{1} que es de orden m 1, y es TP o por el Teorema 13.2.3, obtenemos det B[Ik ] det B(Ik ) = b11 det B/{1}[2, . . . , k] b11 det B/{1}[2, . . . , k] det B(Ik ) det B/{1}(Ik )

b11 det B/{1}[2, . . . , m] = b11 det B/{1} = det B . Si k = 1, asumiendo ahora que bmm > 0, tenemos que det B = bmm det(B/{m}) bmm det(B/{m}[1]) det(B/{m}[2, . . . , m 1]) b1m bm1 b11 por ser B 0. Adems, por la Eq. (13.12), a Ahora, det(B/{m}[1]) = b11 bmm tenemos que B/{m}[2, . . . , m 1] = B[2, . . . , m]/{m} = B(1)/{m} . As , det B b11 bmm det B(1)/{m} = b11 det B(1) = det B[1] det B(1) . Los casos en que b11 = 0 o bmm = 0 se pueden anlizar a mano (mostrando que en tal caso 1 det B = 0 por tener una la o columna nula) o bien cambiando b11 por b11 + n (con lo que B sigue siendo TP) y tomando l mite. Corolario 13.2.5. Si A Gl (n) es TP, entonces det A[] > 0 para cada k In y cada Qk,n . (13.14) En particular, en este caso siempre existen los complementos de Schur A/[]. Demostracin. Por induccin en n. El caso n = 1 es trivial. Asumamos que la armacin vale o o o para n 1. Por la Proposicin 13.2.4, tenemos que 0 < det A a11 det A(1). Luego A(1) es o TP e inversible y a11 > 0. Si 1 > 1, entonces In \ {1} y la desigualdad det A[] > 0 se sigue de la hiptesis inductiva aplicada a A(1). Si 1 = 1, la Eq. (13.12) aplicada a \ {1} o con r = 1, muestra que det A[] = a11 det A[]/{1} = a11 det A/{1}[ \ {1}] . Entonces la desigualdad detA[] > 0 se deduce de la hiptesis inductiva aplicada a A/{1}, o que es inversible por el Teorema 12.1.4 y es TP por el Teorema 13.2.3.

13.3 Factorizaciones LU y UL

246

13.3

Factorizaciones LU y UL

Una factorizacin A = BC es llamada una LU -factorizacin (resp, U L-factorizacin) si B o o o (resp. C) es triangular inferior y C (resp. B) es triangular superior. Teorema 13.3.1. Sea A Mn,m (R) TP con n m. Entonces A admite una LU -factoriza cin A = AL AU y una U L-factorizacin A = AL AU , donde las matrices triangulares AL o o Mn (R), AU Mm (R) y AU , AL Mn,m (R) son todas TPs. Para demostrar el Teorema necesitamos dos largos Lemas tcnicos: Para ellos necesitaremos e n una notacin nueva: Dados x1 , . . . , xm R , denotaremos por X = [x1 , . . . , xm ] Mnm (R) o a la matriz cuyas columnas estn dadas por Ci (X) = xi , para todo i Im . a Lema 13.3.2. Sea A = (aij )i,jIn = [a1 , . . . , an ] Mn (R) una matriz TP. Si a1k = 0, entonces tambin es TP la matriz B = [b1 , . . . , bn ] Mn (R) denida por e b i = ai si i Ik y b i = ai a1i ak , a1k si i In \ Ik .

Demostracin. Por el Teorema 13.1.13 podemos asumir que detA > 0. Como obviamente o det A = det B, de acuerdo al Teorema 13.1.4 basta mostrar que bi bi+1 bj 0 para 1 i j n, (13.15)

i.e., la positividad para los tales que d() = 0. Si j k o i k j, entonces bi bi+1 bj = ai ai+1 aj , y la Eq. (13.15) es vlida porque A es TP. Si k < i, consideremos la matriz a C = [ak , ak+1 , . . . , an , 0, . . . , 0] Mn (R) , que es TP, por serlo A. Se ve fcilmente de la denicin de C/{1} que a o M = [bk+1 , bk+2 , . . . , bn , 0, . . . , 0] = 0 C/{1} Mn, n1 (R) .

En efecto, observar que todas las primeras coordenadas de los bj (j In \ Ik ) son nulas, por lo que la primera la va bien. Si j Ink e i In1 , entonces (C/{1})ij = ci+1 , j+1 ci+1 , 1 c1 , j+1 = ai+1 , c11
k+j

a1 , k+j ai+1 , a1 , k

= bk+j

i+1

= Mi+1 , j .

En los dems casos, debe ser (C/{1})ij = 0 (y la otra tambin). Ahora la ecuacin (13.15) se a e o deduce de la positividad total de C/{1} y de M , garantizada por el Teorema 13.2.3 Lema 13.3.3. Sea A Mn (R) una matriz TP. Entonces existen C y S Mn (R), ambas TP, tales que C[1, 1) 0 (i.e., F1 (C) = c11 e1 ), S es triangular superior y A = CS.

13.3 Factorizaciones LU y UL

247

Demostracin. Para cada j In1 , consederemos la matriz o Tj := [e1 , e2 , . . . , ej1 , 0, ej , ej+1 , . . . , en1 ] = Ij1 0 0 Nnj+1 Mn (R) ,

donde Nnj+1 Mnj+1 (R) es el bloque de Jordan con los unos arriba (Jacobi nos rob la J). o Observar que T1 = Nn el bloque de Jordan tutti. Cada Tj es una matriz de Jacobi positiva y triangular superior. Luego las Tj son TP por el Teorema 13.1.10. Estas matrices nos permitirn correr hacia la izquierda las columnas no nulas de A. Si a a1 = a2 = . . . = ak1 = 0 pero ak = 0, entonces
k1 A = [ak , ak+1 , . . . , an , 0, . . . , 0] T1 ,

y la matriz A1 = [ak , ak+1 , . . . , an , 0, . . . , 0] es TP. Si seguimos sin columnas nulas hasta ak+p y ak+p+r es la primera columna no nula de las que quedan, como antes obtenemos que
r1 [ak+p+1 , . . . , an , 0, . . . , 0] = [ak+p+r , . . . , an , 0, . . . , 0] T1

o, mirando como dan las cuentas,


r1 A1 = [ak , . . . , ak+p , ak+p+r , . . . , an , 0, . . . , 0] Tp+2 .

Es decir,
r1 k1 A = [ak , . . . , ak+p , ak+p+r , . . . , an , 0, . . . , 0] Tp+2 T1 . r1 k1 Observar que todo queda TP, y Tp+2 T1 es triangular superior. Aplicando entonces este procedimiento nitas veces, obtenemos que A = BT , donde T triangular superior y TP y B = [b1 , b2 , . . . , bn ] es una matriz TP tal que bi = 0 implica que bj = 0, para j > i . Si B[1|1) = 0, tomemos el mayor i para el cual b1i = 0. Armamos que b1,i1 = 0. En efecto, si b1,i1 = 0, para todo j In , tendr amos

det B[1, j|i 1, i] = b1i1 bji b1i bji1 = b1i bji1 0 , lo que implicar que todos los bj,i1 = 0, o sea bi1 = 0, lo que contradice que bi = 0. Entonces a B admite una factorizacin B = DU1 , donde o D := [b1 , . . . , bi1 , bi U1 := [e1 , . . . , ei1 , b1,i b1,i1 b1,i b1,i1 bi1 , bi+1 , . . . , bn ] y

ei1 + ei , ei+1 , . . . , en ] .

Notemos que ahora D1i = 0. Por otro lado, U1 es una matriz de Jacobi positiva, triangular superior, y por lo tanto TP por el Teorema 13.1.10. La positividad total de D se sigue del Lema 13.3.2, porque, como b1,j = 0 si j > i, entonces bj = bj b1,j bi1 , b1,i1 para j = i + 1, i + 2, . . . , n .

13.3 Factorizaciones LU y UL

248

Repitiendo este procedimiento, llegamos a una factorizaciin B = CUp Up1 U1 , donde cada o Ui es triangular superior y TP mientras que C es una matriz TP tal que C[1|1) = 0, como se buscaba. Ahora basta tomar S = Up Up1 U1 T que es como se ped a. Demostracin del Teorema 13.3.1: Considerando la matriz [A, 0] Mn (R), podemos o connar la prueba al caso n = m. Adems, usando conversiones, basta tratar slo la factora o izacin LU . Cuando n = 1, es trivial. Asumamos que la armacin es cierta para n 1 en o o lugar de n. Para conseguir hacer el paso inductivo, alcanzar con probar que existen R, F y a S Mn (R), todas TP, con S es triangular superior, R es triangular inferior y F = f11 0 0 F (1) , tales que A = RF S ,

porque en tal caso se factoriza F (1) por hiptesis inductiva, y se agrandan las matrices trio angulares (y TP) de Mn1 (R) obtenidas, ponindoles (f11 )1/2 en el lugar 1, 1. Recordar que e producto de triangulares es triangular, y lo mismo con TPs (por el Teorema 13.2.1). Pero por el Lema 13.3.3, existen S como antes y C Mn (R) tal que C es TP, C[1|1) 0 y A = CS. Y por el mismo Lema, existen R como arriba y F Mn (R) tal que F es TP, F (1|1] 0 y C T = F T RT . Observar que multiplicar por una triangular superior a derecha, solo cambia a la primera columna multiplicndola por un escalar, asi que F hereda lo bueno a que ten C (ceros en la primera la) pero gana ceros en la primera columna, quedando como a quer amos. Corolario 13.3.4. Toda A Gl (n) triangular superior (inferior) y TP es producto de un cierto nmero de matrices de Jacobi triangulares superiores (inferiores) y TPs. u Demostracin. Por induccin en n. El caso n = 1 es trivial. Asumamos que la armacin o o o es cierta para n 1, y sea A Gl (n) triangular superior (inferior) y TP. Por el Lema 13.3.3 (y su prueba), tenemos una factorizacin A = DS con S un producto de matrices de Jacobi o triangulares superiores, todas ellas TP, y D tambin TP, con D[1, 1) 0. Pero como A es e triangular superior, tambin se da que D(1, 1] 0. Luego e D= d11 0 0 D(1)

y D(1) Gl (n 1) es totalmente positva y triangular superior. Por hiptesis inductiva o 1 W2 Ws para algunas matrices de Jacobi TPs y triangulares superiores tenemos D(1) = W Wi Gl (n 1), i Is . Sean Wi = d11 0
1/2

0 i W

i Is .

Entonces A = W1 W2 Ws S es una factorizacin como la buscada. o Denicin 13.3.5. Adems de la relacin de orden usual A o a o
t k k

B entre matrices en Mn (R),

introduzcamos una ms fuerte: Diremos que A B si A B para todo k N. En otras a palabras, si det A[|] det B[|] para todo k In y , Qk,n . (13.16)

13.3 Factorizaciones LU y UL

249

En esta notacin, A o

0 signica que A es TP.


t t

Observacin 13.3.6. Es claro que la relacin A o o quier par , Qk,n , pero no que A B A=
t t t

B implica que A[|]

B[|] para cual-

0, como puede verse con las matrices y B= 1 0 0 1 .


t

2 1 1 1
t

Tampoco A

0 implica que A/{1}

B/{1} o que Jn B 1 Jn

Jn A1 Jn .

Teorema 13.3.7. Si A Mn (R) es TP, y = Ik o = {k, k + 1, . . . , n}, entonces, si A() es inversible, se cumple que
t

A[]

A/ .

(13.17)

Demostracin. Prueba para el caso = Ik : Fijemos , Ql,n tales que y . o Deber amos probar que det A[] [| ] det A/ [| ]. Observar que la Eq. (12.15) nos dice que A[ | ] , det A/ [| ] = det A() porque los dos signos que intervienen en la Eq. (12.15) son iguales en este caso, por ser quien es. Por lo tanto, bastar probar que a det A[ | ] det A[] [| ] det A() = det A[| ] det A() . Consideremos A[ | ] Mnk+l (R) con su numeracin de corrido en Ink+l . Como o , = Ik , entonces A[| ] = A[ | ] [1, . . . , l] y A() = A[ | ] [l + 1, . . . , n k + l] ,

y el resultado se deduce de la Proposicin 13.2.4. o Las factorizaciones LU y U L en el Teorema 13.3.1 dan lugar a otras desigualdades. Teorema 13.3.8. Si A Mn (R) es TP, y = Ik o = In \ Ik , entonces, si A() es inversible, A[] A/
t

(13.18)

Demostracin. Prueba para el caso = In \ Ik = {k + 1, k + 2, . . . , n}: Sea A = AL AU o una factorizacin LU con AL y AU TP, garantizada por el Teorema 13.3.1. Entonces, por las o propiedades de AL y AU , se tiene que A() = AL ()AU () (por lo que ambas submatrices son inversibles), A(|] = AL ()AU (|] y A[|) = AL [|)AU (). Por lo tanto, A[] A/ = A[|)A()1 A(|] = AL [|)AU ()(AL ()AU ())1 AL ()AU (|] = AL [|)AU (|].

Como AL [|) y AU (|] son TPs, tambin lo es su producto AL [|)AU (|]. La prueba e para el caso = Ik se hace usando una factoriacin U L. o

13.4 Matrices oscilatorias

250

13.4

Matrices oscilatorias

Una matriz A Mn (R) se dice oscilatoria (abreviaremos OSC) si es TP y una cierta potencia Ap es ETP. Las OSC juegan el rol de las primitivas en el Cap tulo 11. En esta seccin o presentaremos un criterio simple para que una matriz TP sea OSC. Observemos que una matriz OSC es inversible, y su adjunta es tambin OSC. por lo tanto, por el Corolario 13.2.5, e si A Mn (R) es OSC, entonces se tiene que det A[] > 0 para todo Qk,n . Teorema 13.4.1. Sea A Mn (R) una matriz OSC. Entonces 1. A# = Jn A1 Jn es OSC. 2. A[] y A/ son OSCs para cada Qk,n tal que d() = 0. Demostracin. Supongamos que A es TP y Ap es ETP. o 1. El Teorema 13.2.3 asegura que Jn A1 Jn es TP y que (Jn A1 Jn )p = Jn (Ap )1 Jn es ETP. As Jn A1 Jn es OSC. , 2. Probemos primero que A[] es OSC para el caso = In1 . Sea B = A[In1 ] = A(n). Tomemos , Qk,n1 , y sean = {n} y = {n}. Por la frmula de Cauchyo Binnet (12.1), el hecho de que det Ap [|] > 0 implica que existe una sucesin o
p p (i) i=0

en Qk+1,n tal que = ,

(p)

= , y
i=1

det A[ (i1) | (i) ] > 0 .

Llamemos (i) Qk,n1 a la k-upla obtenida eliminando la ultima componente de (i) . Como A[ (i1) | (i) ] es TP con determinante positivo, por la Eq. (13.13) se tiene que det B[ (i1) | (i) ] > 0 , para todo i Ip .

Entonces, nuevamente por la positividad total de B y la Eq. (12.1),


p

det B [| ]
i=1

det B[ (i1) | (i) ] > 0 ,

lo que prueba que B p es ETP. El caso A[2, 3, . . . , n] se trata de manera anloga. El resto a de los casos ( Qk,n con k < n 1 y d() = 0) ahora se pueden probar por induccin o en n, dado que In1 o In \ {1}. Veamos que A/ es OSC: Observar que Jn A1 Jn [] = Jk A1 []Jk , dado que d() = 0 (puede aparecer un Jk , pero se cancela). Por los casos anteriores, sabemos que Jn A1 Jn es OSC = = Jk A1 []Jk = Jn A1 Jn [] es OSC (A1 [])1 es OSC .

Pero la Eq. (12.6) dice que A/ = (A1 [])1 .

13.4 Matrices oscilatorias

251

Lo siguiente da un criterio para la oscilatoriedad. Teorema 13.4.2. Sea A = (aij )i,j In Mn (R) una matriz TP. Entonces A es OSC A Gl (n) , ai, i+1 > 0 y ai+1, i > 0 , para todo i In1 . (13.19)

Demostracin. Supongamos que A es OSC. Por el Teorema 13.4.1, o B := A[i, i + 1] = ai, i ai, i+1 ai+1, i ai+1, i+1

debe ser OSC. Luego B p > 0 para algn p. Pero esto es posible slo cuando ai,i+1 > 0 y u o ai+1,i > 0, ya que si alguno de los dos se anulara, entonces B y todas sus potencias ser an triangulares. La otra implicacin ser probada como consecuencia de un resultado ms general, o a a hacia el n de la seccin. o Corolario 13.4.3. Sean A, B Mn (R), ambas TP. Si A es OSC y B es inversible, entonces AB y BA son OSC. Demostracin. Observar que A Gl (n), por se OSC. Luego AB y BA Gl (n). Adems, o a como B es inversible y TP, entonces bii > 0 para todo i In (Corolario 13.2.5). Por lo tanto AB y BA satisfacen la condicin (13.19), ya que o
n

(AB)i, i+1 =
j=1

ai, j bj, i+1 ai, i+1 bi+1 , i+1 > 0

para todo

i In1 .

La prueba para (AB)i+1 , i y las entradas correspondientes de BA es anloga. a El siguiente teorema presenta una extensin de la condicin (13.19) para matrices OSCs. o o Proposicin 13.4.4. Supongamos que A Gl (n) y es TP. Si A satisface la Eq. (13.19), o entonces det A[|] > 0 para cada par , Qk,n tal que |i i | 1 y mx {i , i } < m {i+1 , i+1 } a n para todo i Ik , (13.20)

donde usamos la convencin k+1 = k+1 = n + 1. o Demostracin. Haremos la prueba por induccin en k. El caso k = 1 se sigue del Corolario o o 13.2.5 (si = ) y la suposicin (13.19). Fijemos k > 1, y supongamos que la armacin o o es cierta para cada par en Qk1,n que satisface las hiptesis. Tomemos un par , Qk,n o que cumpla la Eq. (13.20). Si d() = d() = 0, entoces la Eq. (13.20) impica que = . Luego det A[|] = det A[|] > 0, nuevamente por el Corolario 13.2.5. Ahora, asumiendo que d() > 0, sea B = A[|] = [b1 , b2 , . . . bk ], donde cada bi R Rk . Supongamos = que det B = 0. En principio, por la hiptesis inductiva, sabemos que o det B[1 , . . . , k1 |1 , . . . , k1 ] > 0 y det B[2 , . . . , k |2 , . . . , k ] > 0 .

13.4 Matrices oscilatorias

252

Junto con la positividad total de B, esto implica que 0 = b1 b2 . . . bk1 0 y 0 = b 2 b 3 . . . b k 0. (13.21)

Entonces el hecho de que det B = 0 garantiza que bk Gen {bi : i Ik1 }, y adems a
k1

b k =
i=1

i bi

para ciertos i R , donde 1 = 0

(13.22)

(sin {bi : i Ik \ {1} } ser LD). Sustituyamos bk en la Eq. (13.21) para obetener o a (1)k2 1 b1 b2 bk1 0. (13.23)

Como d() > 0, el conjunto ordenado := {j : 1 < j < k } es no vac Mostremos / o. que, para cada j , la -proyeccin bj de Cj (A) cumple que bj Gen b1 , b2 , . . . , bk1 . o Es decir que bj b1 b2 . . . bk1 = 0 (13.24) Para esto, tomemos i tal que i < j < i+1 . Entonces, como A[| {j}] es TP, b1 . . . bi bj bi+1 . . . bk1 0 y b2 . . . bi bj bi+1 . . . bk 0. (13.25)

Ahora sustituyamos la expresin (13.22) para bk en la Eq. (13.25) para obtener o (1)k1 1 b1 . . . bi bj bi+1 . . . bk1 0. (13.26)

es claro que las ecuaciones (13.21) y (13.23) versus (13.25) y (13.26) son consistentes slo si o la igualdad se da en la Eq. (13.26). Pero como 1 = 0, solo queda que la Eq. (13.24) sea vlida. El argumento muestra que rk A[| ] = k 1. Si lo que pasaba era que d() > 0, a consideremos el conjunto ordenado := {i : 1 < i < k }. El argumento anterior, / aplicado a los vectores las (o a AT ), dice que rkA[ | ] = k 1. Por ultimo, se sigue de la Eq. (13.20) y de que d() > 0 o d() > 0, que existe algn Qk,n u tal que d() = 0, , y . Pero, como rkA[ | ] = k 1, se debe cumplir que det A[] = 0, lo que contradice al Corolario 13.2.5. Esto completa la prueba en todos los casos. La ida del Teorema 13.4.2 se ver como consecuencia del siguiente resultado ms general. a a Teorema 13.4.5. Sean A1 , . . . , Ap Mn (R), inversibles y TPs, con p n 1. Si cada Ai satisface la Eq. (13.19), entonces el producto A1 A2 Ap es ETP. Demostracin. Por el Teorema 13.1.5 basta mostrar que o det(A1 A2 Ap )[|] > 0 para , Qk,n tales que d() = d() = 0 .

Asumamos que 1 1 y sea (0) = . Denamos (l) Qk,n , para l Ip1 , como i = m n
(l)

i , i + mx {l + i k, 0} a

i Ik .

13.5 Variacin de signos o

253

Es fcil ver que (p) = y que cada par (l1) , (l) satisface la Eq. (13.20). Usando la a Proposicin 13.4.4, podemos deducir que det Al [ (l1) | (l) ] > 0, para todo l Ip . Por lo o tanto, se sigue de la Eq. (12.1) (Cahuchy-Binnet) y la positividad total que
p

det(A1 A2 Ap )[|]
l=1

det Al [ (l1) | (l) ] > 0 ,

lo que prueba el Teorema. Corolario 13.4.6. Sea A Mn (R). 1. Si A es OSC, entonces An1 es ETP. 2. Si A es -RS, es inversible y cumple que aii = 0 para i In y ai , i+1 ai+1 , i > 0 , para i In1 ,

entonces A2(n1) es ETP. Demostracin. o 1. Se sigue inmediatamente del Teorema 13.4.5. 2. A2 es TP por ser A -RS. Por la hiptesis se tiene que (A2 )i , i+1 > 0 y (A2 )i+1 , i > 0 o para todo i In1 . Entonces satisface la Eq. (13.19), y podemos usar la parte 1.

13.5

Variacin de signos o

Esta seccin est dedicada a caracterizaciones de la regularidad de signo de una matriz en o a trminos de algunas propiedades de disminucin de variacin del operador lineal que sta e o o e induce. Denicin 13.5.1. Sea x Rn . Dada una sucesin de signatura , decimos que o o 1. es una sucesin de signo de x si para todo i In se cumple que i xi = |xi |. o 2. En tal caso, el nmero de cambios de signo de x asociado a , denotado por C(), es el u nmero de u ndices i In1 tales que i i+1 < 0. Es decir que 1 C() = 2
n1

(1 i i+1 ) .
i=1

13.5 Variacin de signos o

254

3. La mxima variacin de signos V+ (x) (resp. m a o nima variacin de signos V (x) ) es el o mximo (resp. m a nimo) de los valores C(), cuando recorre todas las sucesiones de signo de x. Vemos que 0 V (x) V+ (x) n 1 para todo x Rn .

Si ninguna componente de x se anula, x tiene una unica sucesin de signo, y por lo tanto o V (x) = V+ (x). Este valor comn es llamado la variacin de signo exacta y denotado u o por V (x). Observacin 13.5.2. Sea x Rn . o 1. Ojo que x puede tener variacin de signo exacta, aunque tenga coordenadas nulas. Por o ejemplo si x = (1, 0, 1), entonces V (x) = V+ (x) = 1. 2. Pero si x tiene variacin de signo exacta, es fcil ver que o a (a) x1 = 0 = xn . (b) Si xi = 0, entonces x11 xi+1 < 0. (c) En particular, x no puede tener dos coordenadas nulas seguidas. 3. Si Qk,n y x es la -proyeccin de x a R , entonces o V (x ) V (x) y V+ (x ) V+ (x) .

En efecto, si es una sucesin de signo de x, entonces lo ser para x (y todas se o a consiguen as Pero es fcil ver que C( ) C(). ). a Proposicin 13.5.3. Sean a1 , a2 , . . . , am Rn , linealmente independientes, con n > m. o Entonces son equivalentes: (1) V+ (b) m 1, para todo b Gen {a1 , a2 , . . . , am } \ {0}. (2) a = a1 a2 am es estrictamente denido (como vector), i. e. a > 0. Demostracin. Sea A = [a1 , a2 , . . . , am ] Mn,m (R). Es claro que la condicin a > 0 equivale a o o que det A[|] > 0 para todo Qm,n . Para ver la suciencia, supongamos que a > 0 y que existe b Gen {a1 , a2 , . . . , am } \ {0} tal que V+ (b) m. Es fcil ver que existe Qm+1,n a tal que la -proyeccin de b tiene variacin mxima m. Como det A[|] > 0 para todo o o a Qm,n , en particular aquellos , deducimos que las -proyecciones ai de ai para i Im tambin cumplen a1 a2 am > 0 y que b Gen {a1 , . . . , am }. Por lo tanto, e considerando la -proyeccin si es necesario, podemos suponer que o n=m+1 y que (1)i1 bi 0 , para todo i In .

Como los e = e1 ei1 ei+1 en , i In forman una base completa ortogonal (i) de m Rn , tenemos que
n

a1 am =
i=1

i e , (i)

donde

i =

m a1 am , e = det A( i |] > 0 , (i)

13.5 Variacin de signos o

255

para todo i In .
n

Como b Gen {a1 , a2 , . . . , am } y, adems, b = a


i=1 n

bi ei , tenemos que

0 = b a1 a2 am =
i=1

(1)i1 i bi

e1 e2 en ,

porque ei e = ij (1)i1 e1 e2 en . Pero las condiciones (ya vericadas) i > 0 y (j) (1)i1 bi 0, i In implican entonces que bi = 0, i In , o sea b = 0, una contradiccin. o Esto completa la prueba de la suciencia. Probemos ahora la necesidad. Como vimos al principio, bastar vericar que a det A[|] det A[|] > 0 para todo par , Qm,n .

Fijados y , podemos unirlos por una sucesin = (0) , (1) , . . . , (k) = en Qm,n que o verica la siguiente propiedad: para cada i Ik existe (i) Qm+1,n tal que (i1) (i) y (i) (i) .

Observar que la desigualdad det A[|] det A[|] > 0 se sigue de las desigualdades det A[ (i1) ] det A[ (i) |] > 0 , dado que
k

1ik,

(13.27)

sgn (det A[|] det A[|]) = sgn


i=1

det A[ (i1) ] det A[ (i) |]

Considerando, en el caso i-simo de la Eq. (13.27), la proyeccin sobre (i) , podemos asumir e o nuevamente que n = m + 1, ya que estamos trabajando en dos subconjuntos de (i) y, sobre todo, porque la hiptesis V+ (b) m 1, para todo b Gen {a1 , a2 , . . . , am } \ {0} se preserva o al proyectar sobre (i) , por la Observacin 13.5.2. Ahora, como antes, o
n

a1 a2 am =
i=1

i e (i)

con

i = det A({i}|] .

Si i = 0 para algn i, entonces ei Gen {a1 , a2 , . . . , am }. Pero en tal caso tendr u amos que V+ (ei ) = n 1 = m, lo que contradice la condicin (1). Adems, si no todos los j tienen el o a mismo signo, entonces l l+1 < 0 para algn l. Entonces, si b = l+1 el + l el+1 , tenemos como u antes que b a1 a2 am = (1)li l+1 l + (1)l l l+1 e1 e2 . . . en = 0 ,

por lo que b Gen {a1 , a2 , . . . , am }. Pero como l l+1 < 0, tenemos V+ (b) = n 1 = m, lo que tambin contradice la condicin (1). Luego todos los signos de i son iguales, es decir, se e o cumple (2).

13.5 Variacin de signos o

256

Lema 13.5.4. Sea x Rn . Entonces V+ (x) + V (Jn x) = V (x) + V+ (Jn x) = n 1 . (13.28)

Demostracin. Cuando recorre todas las sucesiones de signo de x, Jn recorre todas las o sucesiones de signo de Jn x. Observar que 1 C() + C(Jn ) = 2 1 = 2 = lo que muestra la Eq. (13.28). Teorema 13.5.5. Sea M un subespacio de Rn tal que 0 < dim M < n. Entonces, las siguientes dos condiciones son equivalentes: (1) V+ (x) dim M 1 para todo x M \ {0}. (2) V (y) dim M para todo y M \ {0}. Demostracin. Tomemos bases completas ortonormales o {a1 , a2 , . . . , am } para M, y {am+1 , am+2 , . . . , an } para M . 1 2
n1

1 (1 i i+1 ) + 2 i=1
n1

n1

(1 (Jn )i (Jn )i+1 )


i=1

(1 i i+1 ) + (1 (1i1 )i (1)i i )


1=1 n1

(1 i i+1 ) + (1 + i i+1 ) = n 1 ,
i=1

Si A = [a1 , a2 , . . . , an ], entonces A es unitaria y podemos asumir que detA = 1. Por la Proposicin 13.5.3 (y su prueba), la condicin (1) es equivalente a que detA[|Im ] sea no nulo y tenga o o el mismo signo para todo Qm,n . Como A U(n) y det A = 1, det(Jn AJn )(|Im ) = det(Jn (A )1 Jn )(|Im ) = det A [Im |] = det A[|Im ] , por la Eq. (12.11). Luego det(Jn AJn )[ |m + 1, . . . , n] es no nulo y tiene el mismo signo para todo Qnm,n . Llamemos bi = Jn AJn ei = (1)i Jn ai , para i > m. La condicin o anterior es equivalente a que bm+1 bm+2 bn > 0 (o bien < 0). Por lo tanto, tambin e Jn am+1 Jn am+2 Jn am es estrictamente denida. Entonces, nuevamente por la Proposicin 13.5.3, obtenemos que V+ (Jn y) n m 1 para todo y M \ {0}. Aplicando el Lema o 13.5.4, deducimos la condicin (2). La implicacin (2) (1) se prueba igual. o o Una versin local del Teorema 13.5.5 da la siguiente caracterizacin de la regularidad de signo o o estricta en trminos de una propiedad de disminucin de variacin. e o o

13.5 Variacin de signos o

257

Teorema 13.5.6. Sea A Mn,m (R), con n m. Entonces A es -ERS si y slo si el o m n operador lineal A : R R disminuye la variacin de signos, en el sentido de que o V+ (Ax) V (x) para todo x Rm \ {0} (13.29)

Demostracin. Supongamos que A = [a1 , a2 , . . . , am ] es -ERS. Tomemos x Rm \ {0}, y o llamemos k = V (x). Entonces existen , Qk+1,m tales que i i < i+1 para todo i Ik y k < k+1 k+1 ,

que describen los signos de x de la siguiente manera: 1 = m n{j In : xj = 0} y k+1 = mx{j In : xj = 0}. a Las componentes de x tienen signo constante (no nulo en los bordes) para todo j entre i y i . xj = 0 si i < j < i+1 para algn i. u Para cada i Ik , hay un cambio de signo entre xi y la siguinete entrada no nula de x, que es xi+1 . Si, para cada i Ik+1 , llamamos
k+1 n

bi =
i ji

x j aj

Ax =
i=1

bi ,

ya que

Ax =
i=1

x i ai ,

y xj = 0 para aquellos j que no aparecen en algn bi . Ahora la regularidad estricta de signo de u A implica que, si vamos eligiendo k + 1-tuplas (j1 , . . . , jk+1 ) tales que i ji i , i Ik+1 , tenemos que k+1 aj1 aj2 ajk+1 > 0 .
k+1

Por lo tanto, si = k+1 sgn


i=1

xi , se tiene que b1 b2 bk+1 > 0 ,

dado que es una suma de vectores tales que todas sus coordenadas tienen signo . Entonces el Lema 13.5.3 dice que
k+1

V+ (Ax) = V+
i=1

bi

k = V (x) ,

lo que prueba la Eq. (13.29). Supongamos rec procamente que A = [a1 , a2 , . . . , am ] satisface la condicin (13.29). Sean o Qk,m y x Rm tales que x =
k

xi ei = 0. Por otra parte, puede obsevarse que


i=1

13.5 Variacin de signos o

258

Ax =
i=1

xi ai Gen {a1 , . . . , ak }. Es claro que V (x ) k 1, de donde por hiptesis, o

V+ (Ax ) V (x ) k 1. Esto dice que V+ (y) k 1 para todo y Gen {a1 , . . . , ak } \ {0} .

Entonces se sigue del Lema 13.5.3 que a1 a2 ak es estrictamente denida. Por lo tanto, A ser -ERS si el signo a1 a2 ak depende slo de k. Para k = m esto es a o trivial. Fijemos 1 k m 1 y tomemos , Qk,m . Como en la prueba del Lema 13.5.3, existe una sucesin = (0) , (p) , . . . , (r) = en Qk,n que verica la siguiente propiedad: o para cada i Ir , existe (i) Qk+1,n tal que (i1) (i) y (i) (i) .

Por lo tanto, basta probar que, para cada Qk+1,m e i Ik+1 , se cumple que a1 ai1 ai+1 ak+1 y a1 ai ai+2 ak+1

tienen el mismo signo. Mediante un argumento de continuidad esto ser establecido si a a1 ai1 {(1 t)ai + tai+1 } ai+2 ak+1 es estrictamente denido para cada 0 < t < 1. Y esto se deduce del Lema 13.5.3, v la Eq. a k (13.29), porque, si x R \ {0}, entonces
i1 k+1

V
j=1

xj ej + xi ((1 t)ei + tei+1 ) +


j=i+2

xj1 ej

k1 ,

puesto que los signos de las coordenadas i y i+1 son iguales. Lema 13.5.7. Sea x Rn . Si una sucesin xp x, entonces o
p

V (x) lim inf V (xp )


p

lim sup V+ (xp ) V+ (x) .


p

(13.30)

Demostracin. Si llamamos J = {i In : xi = 0}, debe existir algn p0 N tal que o u |(xp )j xj | < m n{|xi | : i J } para todo jJ y p p0 .

Entonces, sgn(xp )j = sgn(xj ) para j J. Luego, si p p0 , toda sucesin de signo p para o xp es tambin una sucesin de signo para x, porque los signos (de x y xp ) coinciden en J, e o mientras que en los i J no hay problemas, porque xi = 0. Resumiendo, para todo p p0 / debe cumplirse que V (x) V (xp ) para p p0 (porque x tiene ms sucesiones de signo que a xp ). O sea que V (x) lim inf p V (xp ). La otra desigualdad se prueba igual. La regularidad de signo est caracterizada por una propiedad de variacin de signo ms dbil. a o a e Corolario 13.5.8. Sea A Mn,m (R) con rkA = m. Entonces A es -RS si y slo si o V (Ax) V (x) para todo x Rm \ {0} . (13.31)

13.5 Variacin de signos o

259

Demostracin. Como veremos en la Seccin 7, existe una sucesin (Gp )pN en Gl (n) de mao o o trices ETPs , tales que Gp In . Supongamos primero que A es -RS. Como rkA = m, el
p

Teorema 13.2.1 asegura que Gp A es -ERS para todo p N. Adems Gp A A. Entonces a


p

el Teorema 13.5.6 garantiza que V+ (Gp Ax) V (x) Luego, por la Eq. (13.30), tenemos que V (Ax) lim inf V+ (Gp0 Ax) V (x) ,
p

para todo

x Rm \ {0} .

lo que muestra la Eq. (13.31). Supongamos ahora que la Eq. (13.31) es vlida. Por el Teorema a 13.5.6, aplicado a Gp , como A es inyectiva, V+ (Gp (Ax) ) V (Ax) V (x) para todo pN y x Rm \ {0} ,

El Teorema 13.5.6 (al reves) muestra que Gp A debe ser -ERS para todo p N. Tomando l mite, vemos que A debe ser -RS. Usando la relacin de dualidad (13.28), podemos hablar de algunas propiedades de aumento o de signo. Corolario 13.5.9. Sea A Mn,m (R) con rkA = m. Entonces Jn AJm es ERS (respectivamente, RS) si y slo si o n m + V+ (x) V (Ax) para todo x Rm \ {0}. Cuando n = m, la regularidad de signo admite varias caracterizaciones equivalentes. Teorema 13.5.10. Sea A Gl (n). Entonces las siguientes condiciones son equivalentes: 1. A es regular de signo. 2. V+ (Ax) V+ (x) para todo x Rn \ {0}. 3. V (Ax) V+ (x) para todo x Rn \ {0}. 4. V (Ax) V (x) para todo x Rn \ {0}. Demostracin. o 1 2: Si A es regular de signo (e inversible), tambin lo es Jn A1 Jn por el Teorema 13.2.3. e Entonces 13.5.10 se sigue del Corolario 13.5.9, reemplazando x por Ax y A por A1 (en nuestro caso, n m = 0). ( resp. V+ (Ax) ) ,

13.6 Totalmente Perron-Frobenius

260

2 3: Trivial. 3 4: Uusaremos la sucesin Gp que aparece en la prueba del Corolario 13.5.8. El mismo o argumento de la prueba de 1 2, muestra que, V+ (Gp Ax) V (x) para todo
p

pN

x Rn \ {0} ,

porque Gp A es ERS. Luego, como Gp A x Ax, el Lema 13.5.7 nos da que V (Ax) lim inf V (Gp Ax) lim inf V+ (Gp Ax) V (x) , x Rn \ {0} . 4 1: Se sigue del Corolario 13.5.8.

13.6

Totalmente Perron-Frobenius

En esta seccin estudiaremos propiedades espectrales de las matrices regulares de signo o o totalmente positivas. La herramienta clave para esto son los resultados de Perron y Frobenius para matrices positivas. Recordemos la parte ms elemental del teorema de Perron-Frobenius: a Observacin 13.6.1. Sea A Mn (R) tal que A o 0.

1. Llamaremos 1 (A), . . . , n (A) a sus autovalores, ordenados de forma que |1 (A)| |2 (A)| |n (A)| . 2. El mayor autovalor de A es real y no negativo, i.e., (A) = 1 (A) 0, y hay un autovector positivo u1 0 correspondiente a 1 (A). 3. Si A > 0, entonces 1 (A) > |2 (A)| para cierto u1 > 0. Teorema 13.6.2. Sea A Mn (R) una matriz -ERS. Entonces todos los autovalores de A son reales y distintos. Ms an, a u m m (A) > |m+1 (A)| , m1 para todo m In , (13.32) y ker(A 1 (A)I) = Gen {u1 } ,

donde usamos la convencin 0 = 1 y n+1 (A) = 0. Adems, los correspondientes autovectores o a n u1 , u2 , . . . , un pueden ser elegidos en R , y de modo tal que u1 u2 u m > 0 (como vector) , para todo m In . (13.33)

13.6 Totalmente Perron-Frobenius

261

Demostracin. La prueba se har por induccin en m. El caso m = 1 es consecuencia de la o a o Observacin 13.6.1 porque 1 A > 0 por hiptesis. Supongamos que el resultado es cierto para o o 1 i m 1. Como m m A > 0, la Observacin 13.6.1 dice que o
m

0 < (m A) = 1 (m A) = m
i=1

i (A) .

i Por la hiptesis inductiva, que en particular nos dice que i1 i (A) = |i (A)| > 0, para o i < m, y del hecho de que (m m A) es el unico autovalor de m m A de mdulo mximo, o a deducimos que m m

m
i=1

i (A) =
i=1

m i i (A) = m (A) i1 m1

m1

m1

|i (A)| > |m+1 (A)|


i=1 i=1

|i (A)| .

Luego la Eq. (13.32) se cumple para m. Ahora, como m (A) es real, um puede ser elegido real. Por lo tanto tenemos que u1 u2 um es autovector no nulo de m m A correspodiente a 1 (m m A), y tiene coordenadas reales. Entonces, por la Observacin 13.6.1, tomando o = 1 o bien = 1, tenemos que u1 u2 u2 um > 0. Ahora, reemplazando a um por um en caso de que sea necesario, obtenemos la Eq. (13.33) para todo m In . Los autovectores reales {u1 , u2 , . . . , un } conseguidos en el Teorema 13.6.2 posee propiedades oscilatorias interesantes. Para sus formulaciones, necesitamos algunas deniciones. Denicin 13.6.3. Sea x Rn . o 1. Notaremos por x(t) : [1, n] Rn a la funcin linear a trozos o x(t) = (k + 1 t)xk + (t k)xk+1 si k tk+1 , k In1 . (13.34)

Observar que x(t) es continua, lineal a trozos, y que x(j) = xj para todo j In . 2. Los nodos de x(t) son las ra de la ecuacin x(t) = 0, ordenados de manera creciente ces o (si son nitos, i.e., si no hay dos coordenadas nulas consecutivas de x). 3. Diremos que dos sucesiones ordenadas 1 < 2 < < k y < 2 < k+1 estn a entrelazadas si se cumple que k < k < k+1 , para todo k Ik .

Teorema 13.6.4. Sea A Mn (R) una matriz -ERS. Sean u1 , . . . , un sus autovectores reales, correspondientes a los autovalores k (A), k In (ordenados con mdulos decrecientes). o Entonces 1. La variacin de signo de cada uk es exacta. Ms an, o a u V (uk ) = k 1 , para todo k In . (13.35)

13.6 Totalmente Perron-Frobenius

262

2. Adems, los nodos de uk (t) y los de uk+1 (t) estn entrelazados. a a Demostracin. Fijemos k In . Por el Teorema 13.6.2 podemos asumir que u1 u2 uk > o 0. Luego, por el Lema 13.5.3, sabemos que V+ (uk ) k 1. Consideremos Jn A1 Jn , la cual es nuevamente ERS por el Teorema 13.2.3. Como Jn uk es un autovector de Jn A1 Jn correspondiente a 1/k (A) = nk+1 (Jn A1 Jn ), el argumento anterior da que V+ (Jn uk ) n k. Por la Eq. (13.28), deducimos que V uk = n 1 V+ (Jn uk ) k 1 V+ (uk ) , lo que prueba el item 1. Para probar el item 2, necesitamos varios pasos previos: Clamor 1: Para todo k In1 y todo (, ) R2 \ {0}, se cumple que V+ (uk + uk+1 ) 1 V (uk + uk+1 ) . (13.36)

En efecto, como u1 uk uk+1 > 0 (o < 0), la Proposicin 13.5.3 garantiza que, si o llamamos z = uk + uk+1 , entonces V+ (z) (k + 1) 1 = k. Aplicando el mismo argumento a Jn un , . . . , Jn uk+1 , Jn uk , que son los primeros n k + 1 autovectores de las matriz ERS Jn A1 Jn , obtenemos, v la Eq. (13.28), que a V+ (Jn z) n k = V (z) k 1 V+ (z) 1 , lo que termina de mostrar la Eq. (13.36). Sean x(t) = uk (t) e y(t) = uk+1 (t). Por la Eq. (13.35) y la Observacin 13.5.2, si un nodo o de e x(t) o de y(t) es entero, la coordenada correspondiente de uk o uk+1 es nula, no es ni la primera ni la ultima, y las dos adyacentes son no nulas y de signos opuestos. Por lo tanto, x(t) tiene k 1 nodos e y(t) tiene k nodos. Clamor 2: Sean (, ) R2 \ {0} y j In \ {1, n}. Si x(j) + y(j) = 0, entonces x(j 1) + y(j 1) x(j + 1) + y(j + 1) < 0. (13.37)

En efecto, como en la Observacin 13.5.2, si z Rn cumple que V+ (z) 1 V (z), entonces o zj = 0 implica que j = 1, j = n, o zj1 zj+1 < 0. Luego basta aplicar lo anterior y la Eq. (13.36) al vector z = uk + uk+1 . Ahora vamos a por el item 2: Sean t1 < t2 < < tk los nodos de y(t). Entonces bastar a probar que, para todo l Ik1 , hay al menos un nodo de x(t) en el intervalo abierto (tl , tl+1 ). Clamor 3: Supongamos que x(t) > 0 para todo t (tl , tl+1 ). Entonces x(tl ) = 0 = x(tl+1 ) y, por ende, 0 < = m n{x(t) , t [tl , tl+1 ] } .

Supongamos, por ejemplo, que x(tl ) = 0. Tomemos i N tal que i 1 < tl < i (o bien j 1 y j + 1 si tl = j es entero). Como x(t) es lineal en [i 1, i], tenemos que x(i 1)x(i) < 0 (resp. x(j 1)x(j + 1) < 0, en este caso por la ecuacin (13.37) ). Tomando o = y(i) x(i) resp. = y(j + 1) x(j + 1) ,

13.6 Totalmente Perron-Frobenius

263

se tiene que x(t)+y(t) se anula en el intervalo [i1, i], ya que x(i)+y(i) = x(tl )+y(tl ) = 0, y es una funcin lineal en [i 1, i] (resp. se anula en [j, j + 1] por las mismas razones). Pero o esto contradice la Eq. (13.37). Recta nal: Por la denicin de nodos, y(t) es denido, supongamos que 0, en el intervalo o [tl , tl+1 ]. Sea el m nimo de los > 0 para los cuales z (t) = x(t) y(t) tiene un nodo s [tl , tl+1 ]. Observar que s = tl porque y(tl ) = 0 = x(tl ). Por lo mismo s = tl+1 . Ahora, por la minimalidad de , tenemos que z (t) 0 en [tl , tl+1 ]. Pero como z (t) = (uk uk+1 )(t) es lineal en los intervalos [j, j + 1], j In1 , esto es posible slo cuando s N, o cuando z (t) o se anula en todo el intervalo [j, j + 1] que contiene a s. Pero cada una de estas psibilidades produce una contradiccin con la Eq. (13.37), en el primer caso porque z (t) no cambia de o signo, en el otro porque z (t) tiene dos ceros enteros consecutivos. Si A Mn (R) es estrictamente regular de signo, su adjunta A es tambin estrictamente e regular de signo. Por el Teorema 13.6.2, los autovectores reales {v1 , v2 , . . . , vn } de A pueden ser elegidos de forma tal que v1 v2 vk > 0 , para todo k In .

Las propiedades (13.33) y (13.38) de los autovectores de A y A caracterizan en algn sentido u la regularidad de signo estricta. Teorema 13.6.5. Si A Mn (R) es inversible, tiene n autovalores reales de distinto mdulo, o y los autovectores reales uk de A y vk de A , correspondientes a k (A) = k (A ), son elegidos de forma tal que satisfagan las ecuaciones u1 u2 u k > 0 y v1 v2 vk > 0, para todo k In , (13.38)

entonces alguna potencia de A es estrictamente regular de signo. Demostracin. Notemos k = k (A), para k In . Sean o U = [u1 , u2 , . . . , un ] y V = [v1 , v2 , . . . , vn ] .

Entonces U y V son inversibles. Si notamos = diag(1 , 2 , . . . , n ), entonces A = U U 1 y A = V V 1 . (13.39)

Es fcil ver que ui , vj = 0 para i = j. Esto dice que V U es diagonal. Sea Cn tal que a diag ()1 = V U = U 1 = diag () V . (13.40)

Se tiene que > 0 (es decir que sus entradas son positivas), ya que para todo k In ,
k

0 < k! u1 u2 uk , v1 u2 vk = det V U [Ik ] =


i=1

1 . i

13.6 Totalmente Perron-Frobenius

264

Por las ecuaciones (12.1) (Cauchy-Binnet), (13.39) y (13.40), y varias reducciones elementales, podemos ver que, para todo p N y para todo par , Qk,n ,
k p

det Ap [|] = det(U p U 1 )[|] =


Qk,n k

det U [|]
i=1 p k

det U 1 [|]

=
Qk,n k

det U [|]
i=1 p k

i=1

det V [|]

=
i=1

i +
Qk,n

i=1

i det U [|Ik ] det V [|Ik ]


k p k

+ det V [|].

det U [|]
i=1 = Ik

i
i=1

Notar que, como |1 | > |2 | > > |n | > 0, entonces


k k

|i | >
i=1 i=1

| |

para todo

Qk,n \ Ik ,

mientras que las ecuaciones de (13.38) implican que U [|Ik ] > 0


k p

V [|Ik ] > 0

para todo

kN

, Qk,n .

Entonces para un p sucientemente grande, det Ap [|] es no nulo y tiene el mismo signo que i
i=1

para cada , Qk,n . Entonces Ap es ERS.

Ahora compararemos los autovalores de A con los de A[], para un adecuado. El siguiente Teorema generaliza un hecho que sab amos para A H(n) y Qn1,n (entrelace de Cauchy) y que hab amos mencionado para tambin para Qk,n (ver Teorema 2.4.2). e Teorema 13.6.6. Sea A Mn (R) una matriz ETP. Dados k N y Qk,n con componentes consecutivas (i.e., tal que d() = 0), se tiene que, para todo j Ik , j (A) > j (A[]) > n+jk (A) y j (A) > j (A/ ) > n+jk (A) . (13.42) (13.41)

Demostracin. El caso que concentra la diculatad es cuando k = n1, donde = In1 o bien o = In \ {1}. Supongamos que = In1 , y llamemos B = A[]. Observar que (A) consta de las n raices distintas del polinomio caracter stico PA (t) = det(tI A). Anlogamente (B) a consta de las n1 raices distintas del polinomio caracter stico PB (t) = det(tI B). Llamemos

13.6 Totalmente Perron-Frobenius

265

i = i (A), i In y notemos At = tIn A y Bt = tIn B, t R. Para mostrar la Eq. (13.41) para este , basta ver que PB (i )PB (i+1 ) < 0 , para todo i In1 . (13.43)

Consideremos los vectores xt , con parmetro real t, denidos por a xt := (1)n+i det At [|i)
iIn

Entonces la Regla de Cramer (12.10) muestra que, para todo t (A), se tiene la igualdad / 1 xt = dA (t)At en . Luego, At xt = PA (t)en para esos t, pero por continuidad, At x t = 0 si t (A) = Axj = j xj , para j In . (13.44)

La n-sima componente xt (n) de xt coincide con PB (t), mientras que la primera componente e xt (1) admite la representacin o
n

xt (1) =
j=2

tnj
Qj,n

det A[ {n}| {1}].


1 =1,j =n

(13.45)

Esto ultimo sale del hecho de que At [In1 |2, . . . , n] =

a12 t a22 a32 . . .

a23 a23 t a33

... ... ...

a1,n1 a2,n1 a3,n1

a1,n a2,n a3,n . . .

an1,2 an1,3 . . . t an1,n1 an1,n

y viendo que subdeterminantes le correponden a cada potencia de t. Clamor: Se cumple que xt (1) > 0 para todo t > 0. En efecto, como A es TP, la Eq. (13.45) muestra que xt (1) es un polinomio en t con coecientes no negativos. Luego bastar mostrar que existe un > 0 tal que x (1) = 0 (as ya sabr a amos que algn coeciente no se anula). Para ello usaremos que, como PB (t) tiene slo n 1 raices, u o existe j In tal que xj (n) = PB (j ) = 0. Por la Eq. (13.44), xj es un autovector vector no nulo (porque xj (n) = 0) de A, que es ETP. Luego, por el Teorema 13.6.4, xj tiene variacin o exacta, por lo que su primer componente xj (1) = 0. Aplicando el Clamor a los otros i , junto con la Eq. (13.44), concluimos que xi es el i-simo e autovector de A con xi (1) > 0, para todo i In . Luego se sigue del Teorema 13.6.4 que la nsima componente tiene signo (1)i1 . Esto establece la Eq. (13.43), porque xi (n) = PB (i ), e i In . Para = {2, 3, . . . , n}, tomamos nuevamente B = A[] y ahora yt = (1)1+i det At [|i)
iIn

13.6 Totalmente Perron-Frobenius

266

En este caso tenemos At yt = PA (t)e1 , lo que tambin implica que Ayj = j yj . Aqu e , yt (1) coincide con PB (t), mientras que la ultima admite un representacin como la anterior. o Entonces la primera tiene signo (1)i1 y obtenemos as la Eq. (13.41) para este . El caso k < n 1 se probar por induccin descendente. Supongamos que la Eq. (13.41) a o es cierta para cierto k > 1 y tomemos Qk1,n con d() = 0. Supongamos que = {i, i + 1, . . . , i + k 2} con i + k 1 n. Llamemos = {i + k 1}. Aplicando el caso anterior a la matriz ETP A[] Mk (R), obtenemos que j (A[]) > j (A[]) > j+1 (A[]) , Por otro lado, la hiptesis inductiva asegura que o j (A) > j (A[]) > n+jk (A) , para todo j Ik . para todo j Ik1 .

Combinando estas desigualdades, se obtien la Eq. (13.41) para el caso k 1, lo que completa la induccin. Resta ver el caso en que i + k 2 = n, i. e. = {i, i + 1, . . . , n}, que se obtiene o de manera anloga, aplicando el segundo argumento a la matriz A[ {i 1}]. Veamos ahora a la Eq. (13.42): Sabemos que Jn A1 Jn es tambin ETP por el Teorema 13.2.3. Adems, e a 1 1 por el Teorema 12.1.4, se ve fcilmente que (Jn A Jn )[] = J (A/ ) J . Observemos que a (Jn A1 Jn ) = (A)1 . Luego, 1 = nj+1 (Jn A1 Jn ) j (A) y 1 = kj+1 ((Jn A1 Jn )[]) . j (A/ )

Aplicando la Eq. (13.41) a Jn A1 Jn , tenemos que j (Jn A1 Jn ) > j (Jn A1 Jn []) > n+jk (Jn A1 Jn ) . Luego j (A) = nj+1 (Jn A1 Jn )1 > kj+1 (Jn A1 Jn [])1 = j (A/ ) > j (Jn A1 Jn )1 = n+jk (A) , lo que completa la prueba. Con la ayuda del Teorema de aproximacin 13.1.13, algunos de los resulatdos anteriores pueden o ser genarlizados al caso en que A es regular de signo o TP. Corolario 13.6.7. Si A Mn (R) es regular de signo con signatura , entonces todos sus autovalores son reales, y k k (A) > 0 , k1 para todo k = 1, 2, . . . , rkA .

Si A es TP, entonces para cada k In y cada Qk,n tal que d() = 0, se tiene que j (A) j (A[]) n+jk (A) , para todo j In .

13.7 Algunos ejemplos

267

Dado x = (xi ) Rn , denotemos por x a su reordenacin decreciente: o x x x 1 2 n y x = x(i) i para alguna Sn . (13.46)

Teorema 13.6.8. Sea A Mn (R) una matriz TP. Entonces diag (A) (A) .

Demostracin. Dada una matriz L Mm (R), llamemos (L) = diag (L) , a su diagonal o reordenada. Probaremos el teorema por induccin en n. El caso n = 1, es trivial. Asumamos o que el teorema es cierto en Mn1 (R). Como tr (A) = tr A = tr diag (A), y i (A) = (A), i i In , basta mostrar que
k k

i (A)
i=1 i=1

i (A)

para

k In1 .

(13.47)

Sean p, q In tales que A11 = p (A) y Ann = q (A). Tomando la conversin de A en o caso de que sea necesario, podemos asumir que p > q. Sea B = A(n) y C = A(1). Como B, C Mn1 (R) son ambas TP, la hiptesis inductiva determina que o k k n1 i (B) i=1 n1

i (B)
i=1

y
i=k

i (C)
i=k

i (C) ,

k In1 .

(13.48)

Observar que i (B) = i (A) para 1 i p (aca se usa que p > q). Por el Corolario 13.6.7, i (A) i (B), para i In1 . Luego, las desigualdades de (13.48) implican la Eq. (13.47) para los casos 1 k p. Veamos ahora que n n

i (A)
i=k+1 i=k+1

i (A) ,

para

k>p.

(13.49)

En efecto, como i (A) = i (C) si p + 1 i n, y i1 (C) i (A), para todo i In1 (por el Corolario 13.6.7 ), observamos que la Eq. (13.48) implica (13.49), y por ende tambin la e Eq. (13.47) para estos valores de k.

13.7

Algunos ejemplos

En esta seccin presentamos algunos ejemplos de matrices TPs y la caracterizacin de estas o o matrices. 13.7.1. [Ncleos totalmente positivos] La mayor parte de las matrices TPs no triviales surgen u de la restriccin de ncleos totalmente positivos a conjuntos nitos adecuados. Daremos o u a continuacin algunas frmulas de produccin de ncleos totalmente positivos: Sean , o o o u conjuntos totalmente ordenados (en general, subconjuntos de R o Z).

13.7 Algunos ejemplos

268

1. Una funcin a valores reales K(s, t) para s , t es un n cleo totalmente o u positivo (TP) si la matriz [K(si , tj )]i,jIn es TP para todo n N y toda eleccin o s 1 < s 2 < . . . < sn en y t1 < t2 < . . . < tn en .

La positividad total estricta de un ncleo se dene anlogamente. u a 2. Si K(s, t) es TP y f (s), g(t) son funciones positivas en y respectivamente, entonces el ncleo f (s)K(s, t)g(t) es TP. u 3. Si K(s, t) es TP y (s) es un operador montonamente creciente de un conjunto totalo mente ordenado 1 a , y (t) es un operador montonamente creciente de un conjunto o totalmente ordenado 1 a , entonces K((s), (t)) es un ncleo TP en 1 1 . u 4. Si dos ncleos L(s, t) y M (s, t) son TPs y d() es una medida en , entonces el ncleo u u K(u, v) :=
T

L(s, u)M (s, v)d(s) ,

para u, v ,

(13.50)

es TP en , si la integral existe. Esto es slo una modicacin del Teorema 13.2.1. o o Pasemos ahora a la construccin de ejemplos concretos o 1. El ncleo L(k, t) = tk , denido en en N0 R+ es TP. Esto es una consecuencia de la u positividad total de las matrices de Vandermonde, vista en el Ejemplo 13.1.6. 2. Dados k In y Rn+1 , el ncleo K(s, t) = u +
n k=0

k sk tk es TP en R+ R+ . En efecto,

a K(s, t) se lo puede realizar como una composicin del tipo (13.50), con dos copias del o ncleo L del item anterior (con la medida en N0 dada por los k ). u 3. Para cualquier > 0 el ncleo K(s, t) = exp(st) es TP en R+ R+ , ya que es un u l mite de ncleos del item anterior (con k = k /k! ). u 4. El ncleo K(s, t) = exp[(s t)2 ] es ETP en R+ R+ , porque u exp (s t)2 = exp(s2 ) exp(2st) exp(t2 ) , 5. Por lo tanto, para todo n N y todo p R , la matriz + Gp = exp p (i j)2
i,j In

para todo par s , t R+ .

Mn (R)

es ETP por el item 3. Adems, se tiene que Gp In . Esta sucesin (tomando a o


p

p N) ha sido usada varias veces en secciones anteriores.

13.7 Algunos ejemplos

269

6. Para cada 0 < < 1 y 0 = p R, consideremos el promedio pesado en R+ R+ M,p := {sp + (1 )tp }1/p . (13.51)

Entonces M,p (s, t) o 1/M,p (s, t) es TP de acuerdo a si p < 0 o p > 0. Esto se sigue de la observacin de que para cualquier > 0 o 1 1 = (s + t) ()
0

eus eut

du , |u|1

(13.52)

donde () es la funcin gamma, y el ncleo exp(us) es TP en R+ R+ . o u 7. El ncleo K(s, t) = m u n{s, t} es TP en R+ R+ , porque K(s, t) = lim M,p (s, t)
p

(13.53) f (t) es no decreciente, g(t)

8. Si f (t), g(t) son funciones positivas en R+ tales que h(t) = entonces el ncleo u K(s, t) = f m n{s, t} g mx{s, t} a

es TP en R+ R+ . En efecto, es fcil ver que se la puede reescribir como a K(s, t) = m n{h(s), h(t)} g m n{s, t} g mx{s, t} a = g(s) m n{h(s), h(t)} g(t) . 9. Dado > 0, poniendo g(t) = exp(t) y f (t) = exp(t) (con lo que nos queda h(t) = exp(2t), que es creciente), obtenemos que el ncleo del item 8, u K(s , t) = exp m n{s, t} mx{s, t} = exp ( |s t| ) a es TP en R+ R+ .

10. Sean {bi }iIn y {ci }iIn dos sucesiones en R . Entones la matriz + Mn (R) bm n(i,j) cmx(i,j) a
i ,j In

es TP

b2 bn b1 . c1 c2 cn

Esto se sigue inmediatamente del item 8, ya que podemos considerar las funciones f (t) = bi , si i 1 t < i y g(t) = ci , si i 1 t < i .

Una matriz de este tipo es llamada matriz de Green.

13.7 Algunos ejemplos

270

13.7.2 (Matriz de Hurwitz). Un conocido teorema de A. Hurwitz dice que un polinomio p(z) = d0 z n + d1 z n1 + . . . + dn a coecientes reales (d0 > 0) tiene todos sus ceros en semiplano abierto Re z < 0 si y slo si la matriz o d1 d3 d5 d7 d9 0 d0 d2 d4 d6 d8 0 0 d1 d3 d5 d7 0 Hp = d2ji i,j In = 0 d d d d 0 Mn (R) , (13.54) 0 2 4 6 . . . . . . . . . . . . . . . . . . 0 0 0 0 0 dn donde ponemos que dk = 0 para k < 0 o k > n, tiene menores principales positivos: det Hp [1, 2, . . . , k] > 0 , para todo k In . (13.55)

Un tal polinomio p(z) es llamado un polinomio de Hurwitz y la matriz H es la matriz de Hurwitz asociada a l. e Mostraremos, por induccin en n, que en tal caso la matriz de Hurwitz es TP. Observar que o d1 > 0 para cualquier n, por la Eq. (13.55). Luego el caso n = 1 es trivial. Supongamos que es cierto para n 1. Tomemos una Hp Mn (R) para un buen polinomio p. Llamemos G = H/{1} Mn1 (R), indexada en {2, 3, . . . , n}. La Eq. (12.15) nos asegura que d1 det H/{1}[{2, . . . , k}] = det Hp [Ik ] > 0 para todo k In \ {1} . (13.56)

d0 Sean gj = Fj (G) Rn1 , para j = 2, 3, . . . , n. Llamemos c = d1 . Entonces las matriz T Mn1 (R), indexada en {2, 3, . . . , n}, cuyas las fj = Fj (T ) estn denidos por a

f2 = g2 , f2j1 = g2j1 ,

f2j = g2j c g2j1 para j 2 ,

(13.57)

tambin tiene menores principales positivos. Haciendo la cuenta vemos que T es una matriz e de la forma (13.54) con n 1 en lugar de n, y dj en lugar de dj , donde d2j = d2j+1 y d2j1 = d2j c d2j+1 , para j = 0, 1, 2, . . . (13.58)

Por la hiptesis inductiva, tenemos que T es TP, por lo que tambin lo es o e T := 0 0 0 T Mn (R) .

Haciendo algunas cuentas, podemos deducir de la Eq. (13.58) que Hp [1, 2, . . . , n 2] = Hp (n 1, n) = c S + (In Jn ) S T S (n 1, n), 2 (13.59)

donde S = [0, e1 , e2 , . . . , en1 ]. Las matrices S y S son TPs, y lo es la matriz triangular c superior S + 2 (In Jn ). Ahora la positividad total de Hp sale de la Eq. (13.59) por los Teoremas 13.2.1 y 13.1.4.

13.8 Apndice: La prueba del criterio clave e

271

13.7.3 (Matrices de Toeplitz). Para una sucesin (bi-)innita {an : < n < }, la o

matriz (aij )i,jN es llamada su matriz de Toeplitz, y la funcin f (z) = o


an z n , su funcin o

generadora. Un matriz de Toeplitz es TP si y slo si su funcin generadora es de la forma o o 1 f (z) = Cz k exp 1 z + z (1 + n z)


1 1

1+ 1
1

n z

,
n z

(1 n z)
1

donde k es un entero, C 0, 1 , 1 0 y n , n , n , n 0 son tales que

(n + n + n + n ) < .
1

Cuando an = 0 para n < 0, la matriz de Toeplitz es TP si y slo si su funcin generadora es o o de la forma (1 + n z) z 1 f (z) = Ce , (1 n z)
1

donde C 0, 0, y n , n 0 son tales que


1

(n + n ) < . Las pruebas de estos

hechos, basadas fuertemente en la teor de funciones anal a ticas estn ms all del alcance de a a a este trabajo. Cuando es aplicada a un polinomio la caracterizacin anterior implica que el o polinomio p(z) = d0 z n + d1 z n1 + . . . + dn (d0 > 0) tiene todos sus ceros en eje real no negativo si y slo si la matriz innita (dn+ji )i,jN es TP, donde dk = 0 para k < 0 o k > n. Notemos o que la matriz de Hurwitz Hp introducida antes es una submatriz de T , ms precisamente a Hp = T [n + 1, n + 2, . . . , 2n|2, 4, . . . , 2n]. 13.7.4 (Funcin de frecuencia de Plya). Una funcin f (t) en (, ) es llamada una funcin o o o o de frecuencia de Plya si el ncleo K(s, t) := f (st) es TP. La siguiente caracterizacin se debe o u o a Schoenberg (1953), f (t) es una funcin de frecuencia de Plya si y slo si su transformada o o o biltera de Laplace existe en una tira abierta que contenga al eje imaginario y tiene la forma a

st

f (s)ds = C exp(t + t)
1

exp(n t) , 1 + n t |n |2 < . La prueba de este

donde C > 0, 0, y n son reales tales que 0 <


1

resultatdo est ms alla del alcance de este trabajo. a a

13.8

Apndice: La prueba del criterio clave e

Las pruebas de los criterios de positividad total se basan en intrincados clculos de detera minantes que permiten usar un argumento inductivo. Para ello usaremos fuertemente los

13.8 Apndice: La prueba del criterio clave e

272

resultados de la seccin 2 del Cap o tulo 12. Recordemos, dado que las usaremos bastante, algunas ecuaciones de all : Dados , Qk,n y, adems, , Ql,n tales que , , sean a = = (1 , 2 , . . . , k+l ) y = = (1 , 2 , . . . , k+l ) Qk+l,n .

Existen entonces y Qk,k+l tales que i = i y i = i , i Ik . Luego denimos sgn


k(k+1) = sgn() = (1)tr 2 ,

sgn

= sgn() .

(13.60)

Repasemos la Eq. (12.15): Sea A Mn (R). Dados , Qk,n y adems, , Ql,n tales a que , , entonce se tiene que det A[|] det (A/[|])[| ] = sgn sgn det A[ | ] (13.61)

Una consecuencia inmediata es la siguiente caracterizacin de las entradas de un complemento o de Schur, vista como (12.16): Dados , Qk,n , se tiene {A/[|] }( , ) = sgn
i j

det A[ {i }| {j }] sgn {i } {j } det A[|]

(13.62)

La siguiente igualdad, vista en (12.12), es vlida para toda A Mn (R): Dado Qk,n , a sgn() det A[|] det A(|) = sgn() det A .
Qk,n

(13.63)

Identidad de Sylvester (Eq. (12.17) ): Dados A Mn (R) y , Qk,n , se cumple que det det A[ {i }| {j }]
i,jInk

= det A det A[|]nk1

(13.64)

Necesitamos adems el siguiente resultado espec a co: Lema 13.8.1. Sea A Mn (R). Dados Qn1,n y Qn2,n tales que , se tiene det A[|1, n) det A[|q) = det A[|1, q) det A[|n) + det A[|q, n) det A[|1) , para todo 1 < q < n. Notar que asumimos que n 3. Demostracin. Fijemos p y sean = \ {p} y = {1, q, n} . Adems sean {m} = \ . o a Dividiendo ambos lados de la Eq. (13.65) por det A[|]2 tenemos que el lado izquierdo de la (eventual) igualdad queda det A[ {p}| {q}] det A[ {p, m}| {1, n}] = det A[|]2 (13.65)

13.8 Apndice: La prueba del criterio clave e

273

y el derecho, det A[ {p}| {n}] det A[ {p, m}| {1, q}] det A[|]2 det A[ {p}| {1}] det A[ {p, m}| {q, n}] = det A[|]2 + .

Llamemos B = A/[|] . Notar que, por las ecuaciones (13.61) y (13.62), se tiene que
= sgn {p} sgn {q} sgn {p,m} sgn {1,n} Bp,q det

B[p, m|1, n]

Por otra parte,

= 2 Bp,n det B[p, m|1, q] + 3 Bp,1 det B[p, m|q, n] , donde


2 = sgn {p} sgn {n} sgn {p,m} sgn {1,q} 3 = sgn {p} sgn {1} sgn {p,m} sgn {q,n} .

Sacando como factor a sgn {p} sgn {p,m} , se ve que la Eq. (13.65) es equivalente a la siguiente relacin: sgn {q} sgn {1,n} Bp,q det B[p, m|1, n] = o sgn {n} sgn {1,q} Bp,n det B[p, m|1, q] + sgn {1} sgn {q,n} Bq,1 det B[p, m|q, n] .

Por otra parte, usando la Eq. (13.60), una cuidadosa cuenta muestra que
sgn {q} sgn {1,n} = sgn {n} sgn {1,q} = sgn {1} sgn {q,n} .

(13.66)

En efecto, observar que por la denicin usando permutaciones tenemos que o


sgn {q} = sgn {q,n} , sgn {1} = sgn {1,n} ,

y que

sgn {n} = 1 .

Luego las igualdades de (13.66) surgen de que sgn {1,q} = sgn {1} sgn {q} . Usando ahora la Eq. (13.66), nos queda que la Eq. (13.65) es equivalente a la relacin: o

Bp,q det B[p, m|1, n] = Bp,n det B[p, m|1, q] + Bp,1 det B[p, m|q, n] , que se verica fcilmente para cualquier matrix B (notar que son determinantes de matrices a de 2 2). Sean A Mn,m (R) y una sucesin de signatura. Sea r = m o n{n, m}. Recordemos las deniciones: A es -RS (resp. -ERS) si k det A[|] 0 (resp. > 0) para todo k Ir , Qk,n , Qk,m . (13.67)

Recordemos el enunciado del Teorema 13.1.4: Teorema 13.1.4 Sea A Mn,m (R) con rk A = r, y sea una sucesin de signatura. o 1. Para que A sea -RS es suciente que, para todo k Im n{n,m} y Qk,n , k det A[|] 0 para Qk,m tal que d() m r . (13.68)

13.8 Apndice: La prueba del criterio clave e

274

2. En particular, A es TP si det A[|] 0 en esos casos. Demostracin. Observar que cualquier con d() = 0 cumple que d() m 2. Eso hace o innecesario estudiar los casos en que r 2, en particular si n 2 o m 2. Asumamos entonces que n , m 3. Probaremos la la Eq. (13.67) por induccin en k, asumiendo que A o cumple la condicin (13.68). Cuando k = 1, la Eq. (13.67) es cierta porque d() = 0 para o cualquier Q1,m . Supongamos que se cumple la Eq. (13.67) para todos los j < k pero no para k. Luego deben existir un Qk,m y un Qk,n tales que k det A[|] < 0 , y que d() es el m nimo para los que cumplen tal cosa. En particular tenemos que l = d() > m r . Armamos el tal cumple que para todo p tal que 1 < p < k , debe pasar que / ap a2 ak1 = 0 . (13.71) (13.70) (13.69)

En el caso k = 2 esto ser que ap = 0. Observar que si (13.71) fuera cierta, tendr a amos que dim Gen {aj : 1 j k } k, y estamos considerando k + l columnas. Por lo tanto r = rk A m l, lo que contradir la Eq. (13.70). Esta contradiccin mostrar que la Eq. a o a (13.67) es vlida para d() = k. a As que vamos a por la frmula (13.71): Para esto jemos un p como antes, y llamemos o = {2 , 3 , . . . , k1 }. Una reformulacin de (13.71) es decir que para todo tal p vale que el o rk(A[| {p}] ) k 2. Dado Qk1,n , con , el Lema 13.8.1 nos dice que det A[| {p}] det A[| {1 , k }] = det A[| {k }] det A[| {1 , p}] + det A[| {1 }] det A[| {p, k }] (13.72)

Como {1 , k } = , d( {1 , p}) l 1 y d( {p, k }) l 1, se sigue de la Eq. (13.69), la hiptesis inductiva y la propiedad minimal de l que la identidad arriba mencionada o slo puede ser vlida cuando o a det A[| {p}] = 0 , para todo Qk1,n , , (13.73)

pues el lado derecho de la igualdad (13.72) tiene signo k1 k (o 0) y en el izquierdo hay, por hiptesis, un factor cumple que k det A[|] < 0 y el otro k1 det A[| {p}] 0. Por otro o lado, si k 3, al calcular det A[|] = 0 v la Eq. (13.63), vemos que existe un Qk2 ,n a tal que y det A[| ] = 0. Luego, para probar que rkA[| {p}] k 2, ser suciente a mostrar que todo vector la de A[| {p}] es una combinacin lineal de los vectores la con o ndices en , o equivalentemente que det A[ {q}| {p}] = 0 , para todo q In \ . (13.74)

En el caso k = 2 el tal = (al igual que ), pero es claro que (13.74) equivale a que ap = 0, y el resto de la cuenta funciona. Cuando q , (13.74) se deduce de la Eq. (13.73), ya que

13.8 Apndice: La prueba del criterio clave e

275

{q} Qk1,n y est dentro de . Fijemos ahora un q . Sean = {1 , 2 , 3 } = a / ( \ ) {q}, y = {1 , p, k }. Consideremos la matriz B M3 (R) dada por bij = det A[ {i }| {j }] , para i , j I3 .

Entonces por hiptesis inductiva todos los bij tienen el mismo signo k1 y, por la Identidad o de Sylvester (13.64), todos los subdeterminantes de matrices 2 2 de B[|1) y B[|3) tienen el mismo signo k2 k . Por otro lado, la Eq. (13.73) implica que bi,2 = 0 siempre que i = q. Luego la Eq. (13.74) equivale a que C2 (B) = b2 = 0. Si q = 1 , tendr amos det A[ {q}| {1 }] det A[ {q}| {p}] det A[ {q}| {k }] 0 det A[ {2 }| {k }] , B = det A[ {2 }| {1 }] det A[ {3 }| {1 }] 0 det A[ {3 }| {k }] con todas las entradas del mismo signo. Si b2 = 0, las condiciones anteriores slo son consiso tentes cuando b2,1 = b3,1 = 0 o bien b2,3 = b3,3 = 0. Esto es as porque los de la izquierda producen determinantes (de 2 2) de un signo y los de la derecha del signo contrario, cosa solo permitida si del lado malo (el signo que no concuerda con k2 k ) son ambos cero. En el caso de que q = 3 pasa lo mismo (b1,1 = b2,1 = 0 o bien b1,3 = b2,3 = 0). Aplicando nuevamente la Eq. (13.64) tendr amos que, si \ = {a1 a2 }, entonces det det A[ {a1 }| {1 }] det A[ {a1 }| {k }] det A[ {a2 }| {1 }] det A[ {a2 }| {k }] = det A[|] det A[| ] (13.75)

es nulo, mientras que det A[| ] = 0. Llegamos a que det A[|] = 0, lo que no vale. Supongamos ahora que q = 2 . Queda det A[ {1 }| {1 }] 0 det A[ {1 }| {k }] B = det A[ {q}| {1 }] det A[ {q}| {p}] det A[ {q}| {k }] , det A[ {3 }| {1 }] 0 det A[ {3 }| {k }] Ahora debe pasar que, si b22 = 0, entonces b1,1 = b3,3 = 0 o bien b1,3 = b3,1 = 0. Esto sale porque det B[1, 2|1, 2] y det B[1, 2|2, 3] deben tener signo k2 k , pero deber ser opuestos, an porque todos los bij tienen el mismo signo. Si por ejemplo el malo es el de la derecha, debe pasar que b1,3 = 0. Y la misma idea obligar a que b3,1 = 0, por lo que B tendr una diagonal a a con tres tipos del mismo signo. Pero en tal caso, la matriz de (13.75), que es B[1, 3|1, 3], ser a diagonal y su determinante tendr signo k2 k , por lo que el de det A[|] ser k . Minga. a a En el caso opuesto (b1,1 = b3,3 = 0), un razonamiento semejante lleva a la misma conclusn o absurda. As b2 = 0, lo que establece la validez de la Eq. (13.71). Ya hab amos visto que ello muestra que la Eq. (13.67) es vlida para d() = k, lo que completa la induccin. a o Recordemos el enunciado del Teorema 13.1.5: Teorema 13.1.5 Sean A Mn,m (R) y una sucesin de signatura. o 1. Para que A sea -ERS es suciente que, para todo k Im n(n,m) , k det A[|] > 0 para Qk,n , Qk,m tales que d() = d() = 0 .

13.9 Ejercicios

276

2. En particular, A es ETP si det A[|] > 0 es esos casos. Demostracin. Probemos las desigualdades o k det A[|] > 0 para Qk,n , Qk,m , k Im n(n,m) , (13.76)

por induccin en k. Cuando k = 1, esto es trivial porque d() = d() = 0 para Q1,n y o Q1,m . Asumamos que la Eq. (13.76) es cierta con k 1 en lugar de k. Primero jemos un Qk,n con d() = 0, y probemos la Eq. (13.76) para este por induccin en l = d(). o Cuando l = 0, esto se sigue de la hiptesis del teorema. Supongamos que k det A[|] > 0 o siempre que Qk,m y d() l 1. Sea Qk,m con d() = l. Entonces existe p tal que 1 < p < k , d( {1 , p}) l 1 y d( {p , k }) l 1 ,

donde = {2 , . . . , k1 }. Se sigue de la Eq. (13.65), como en la Eq. (13.72) de la prueba del Teorema 13.1.4, det A[| {p}] det A[| {1 , k }] = det A[| {k }] det A[| {1 , p}] + det A[| {1 }] det A[| {p, k }] para cualquier Qk1 ,n tal que . Usando las dos hiptesis inductivas vemos que o el lado de la derecha es no nulo con signo k1 k , mientras que det A[| {p}] en el lado izquierdo es no nulo con signo k1 . Por lo tanto la igualdad es consistente slo cuando o k det A[|] > 0. Esto prueba la Eq. (13.76) para los Qk,n con d() = 0. Luego jamos cualquier Qk,m y hacemos una induccin similar sobre l = d(), dado que el caso d() = 0 o es lo que probamos antes. Hay que usar la Eq. (13.65) para las, que se deduce de la usual tomando traspuestas de las matrices involucradas. As podemos concluir que la Eq. (13.76) es cierta en general.

13.9

Ejercicios
para cada k In y cada Qk,n

13.9.1. Sea A Mn (R) triangular inferior. Entonces es TP si se verica que det A[|1, 2, . . . , k] > 0 con d() = 0 .

13.9.2. Sea A Mn (R) tal que A es de Jacobi y A un R tal que I + A es TP.

0 (entradas positivas). Probar que exite

13.9.3. Sea A Mn (R) la matriz del Ejemplo 11.2.15. Porbar que, si R, entonces I + A es TP 1.

Cotejar las propiedades de sus autovalores y autovectores con los resultados desarrollados en las secciones 13.5 y 13.6. 13.9.4. Probar detalladamente el Teorema 13.2.1 que dec a: Sean A Mn,m (R) y B Mm,l (R). Probar que entonces

13.9 Ejercicios

277

1. Si A es A -RS y B es B -RS, el producto AB es -RS, con = A B . 2. En este caso, AB se convierte en -ERS si (a) A es A -ERS y rk B = l, o si (b) rk A = n y B es B -ERS. 3. Si A y B son ETP, tambien lo es AB. 13.9.5. Si dos ncleos L, M : son TPs y d() es una medida positiva en , entonces u K(u, v) :=
T

L(s, u)M (s, v)d(s) ,

para u, v , es un ncleo TP. u

(13.77)

Se sugiere replantearlo para que se pueda deducir del Teorema 13.2.1, en principio para medidas concentradas en nitos tomos. a 13.9.6. Vericar la veracidad de los otros 4 + 10 items del apartado 13.7.1, donde se muestran los ms interesantes ejemplos de matrices TP. a

Bibliograf a
Libros
[1] A. Benedek y R. Panzone; La matriz positiva y su espectro, Informe Tcnico e interno No.86, INMABB, Bah Blanca, 2003. a [2] G. Golub y C. F. Van Loan, Matrix computations (Third edition) Johns Hopkins Studies in the Mathematical Sciences, Johns Hopkins University Press, Baltimore, MD, 1996. [3] R. Bhatia; Matrix Analysis, Springer, New York, 1997. [4] R. Bhatia; Positive Denite Matrices, Princeton Series in Applied Mathematics, Princeton University Press, 2006. [5] O. Cordes, Spectral theory of linear dierential operators and comparison algebras, London Mathematical Society Lecture Note Series, 76. Cambridge University Press, Cambridge, 1987 [6] K. Homan y R. Kunze, Linear algebra, Prentice-Hall Mathematics Series, Prentice-Hall, Inc., Englewood Clis, N.J. 1961. [7] R. Horn y C. Johnson; Matrix Analysis, Cambridge University Press, Cambridge, 1985. [8] R. Horn y C. Johnson; Topics in Matrix Analysis, Cambridge University Press, Cambridge, 1991. [9] T. Kato, Perturbation theory for linear operators, Reprint of the 1980 edition, Classics in Mathematics, Springer-Verlag, Berlin, 1995. [10] P. D. Lax, Linear Algebra, Springer Verlag, Berl 1998. n, [11] L. Mirsky, An introduction to Linear Algebra, Clarendon Press, Oxford, 1963. [12] M. L. Metha, Matrix Theory, 2a Ed., Hindustan Publishing Co. 1989. [13] R. Bellman, Introduction to Matrix Analysis, 2a Ed., McGraw-Hill, New York, 1970.

BIBLIOGRAF IA

279

[14] W. F. Donoghue, Jr., Monotone matrix functions and analytic continuation, Springer-Verlag, Berl 1974. n, [15] A. W. Marshall and I. Olkin, Inequalities: Theory of Mayorization and its Applications, Academic Press, New York, 1979. [16] B. Simon, Trace ideals and their applications, London Mathematical Society Lecture Note Series, 35, Cambridge University Press, Cambridge-New York, 1979.

Papers
[17] T. Ando; Structure of Operators with Numerical Radius One, Acta Sci. Math (Szeged) 34 (1973), 11-15. [18] T. Ando; Unitarily invariant norms related to the numerical radius, Linear Algebra and its Applications, In Press, Corrected Proof, Available online 22 April 2005. [19] T. Ando; Matrix Young inequalities, Operator theory in function spaces and Banach lattices, 3338, Oper. Theory Adv. Appl., 75, Birkhuser, Basel, 1995. a [20] T. Ando, Totally positive matrices, Linear Algebra Appl. 90 (1987), 165-219. [21] H. Araki On an inequality of Lieb and Thirring, Lett. Math. Phys. 19 (1990), no. 2, 167-170. [22] R. Bhatia y C. Davis, More matrix forms of the arithmetic-geometric mean inequality, SIAM J. Matrix Anal. Appl. 14 (1993), no. 1, 132136. [23] J. L. Dalecki S. G. Kre Formulas of dierentiation according to a parameter , n, of functions of Hermitian operators, (Russian) Doklady Akad. Nauk SSSR (N.S.) 76, (1951). 1316. [24] J. L. Dalecki S. G. Kre Integration and dierentiation of functions of , n, Hermitian operators and applications to the theory of perturbations, (Russian) Vorone. Gos. Univ. Trudy Sem. Funkcional. Anal. 1956 (1956), no. 1, 81105. z [25] M. C. Gonzlez; Relaciones de Mayorizacin para el Producto de Hadamard, Tesis a o de licenciatura, Depto. Mat. FCEA-UNC, Neuqun, 2003. e [26] O. Hirzallah and F, Kittaneh, Matrix Young inequalities for the Hilbert-Schmidt norm, Linear Algebra Appl. 308 (2000), 77-84. [27] C.R. Johnson, C.K. Li, Inequalities relating unitarily invariant norms and the numerical radius, Linear and Multilinear Algebra 23 (1988) 183-191. [28] Chi-Kwong Li; R. Mathias The Lidskii-Mirsky-Wielandt theorem - additive and multiplicative versions, Numer. Math. 81 (1999), no. 3, 377413.

BIBLIOGRAF IA

280

[29] V. I. Paulsen, S. C. Power and R.R. Smith, Schur products and matrix completions, J. Funct. Anal. 85 (1989), 151-178. [30] E. L. Pekarev, Shorts of operators and some extremal problems, Acta Sci. Math. (Szeged) 56 (1992), 147-163.

Indice alfabtico e

adjunto, 4 autovalor, 6 base ortonormal, 4 adaptada, 26 cpsula convexa, 93 a complemento de Schur, 54, ver shorted , 226 completacin, 153 o compresin, 118 o conjunto ortogonal, 3 clculo funcional, 106 a derivada, ver diferencial direccional, 110 parcial, 110 descomposicin o polar, 39 valores singulares, 39 desigualdad Ando-Johnson-Bapat, 190 Araki, 185 aritmtico-geomtrica, 157, 167 e e Aronszajn, 31, 34 Cauchy-Schwarz para matrices, 195 Corach-Porta-Recht, 165 Cordes, 185 Fisher, 159 Golden-Thompson, 189 Hadamard, 157, 161 Hirzallah-Kittaneh, 171 Horn, 181 Hlder para matrices, 175 o Kittaneh, 164

Oppenheim, 158 Simon, 180 Thompson, 165 Weyl (mayorante de Weyl), 180 Young, 167, 168 determinante, 1, 134, 137, 144, 157, 224, 228 diagonales de una matriz, 74 diferencial, 110 dispersin, 238 o espacio de Hilbert, 3 espectro, 6 frmula o Cauchy-Binnet, 138 Daleki y Kre 112 i n, del radio espectral, 46 Lie-Trotter, 182 minimax, 29 factorizacin o Cholewsky, 39 LU, 23, 245 QR, 17, 18, 23, 158 UL, 23, 245 funcional, 151 adjunta, 151 autoadjunta, 151 positiva, 151 funcin o convexa, 71 convexa de operadores, 117 cncava de operadores, 117 o diferencial, ver diferencial gauge simtrica, 88 e

INDICE ALFABETICO

282

montona de operadores, 112 o g-inversa reexiva, 60 identidad de Jacobi, 228 de Sylvester, 231, 272 k-potencia exterior, 135 k-tensor alternado, 132 k-tensor elemental, 133 k-tensor simtrico elemental, 145 e matrices similares, 7 unitariamente equivalentes, 8 matriz anti-hermitiana, 4 con entradas positivas, 65 de Jacobi (tridiagonal), 240 de permutacin, 66 o de signo estrictamente regular, 237 de signo regular, 237 denida positiva, 4 diagonal dominante, 36 doblemente estocstica, 65 a esencialmente no-negativas, 224 estrictamente totalmente positiva, 238 estrictamente triangular inferior, 9 estrictamente triangular superior, 9 fuertemente conexa, 218 hermitiana, 4, 27 identidad, 0 incompleta, 153 inversible, 1 normal, 4, 25 primitiva, 216 reducible, 217 semidenida positiva, 4 totalmente positiva, 238 traspuesta, 0 triangular inferior, 9 triangular superior, 9 unitaria, 4 mayorizacin, 64 o

conjunta, 104 dbil (submayorizacin), 64 e o de matrices, 91 medias de operadores, 192 menor, ver submatriz mdulo de una matriz, 39 o mdulo m o nimo reducido, 60 ncleo, 3 u norma, 3 dual, 104 espectral, 7 Frobenius, 7 Ky-Fan, 43 matricial, 44 unitariamente invariante, 44, 87 unitariamente invariante dbil, 100 e ncleos totalmente positivos, 267 u operador anti-hermitiano, 4 de multiplicacin, 149 o denido positivo, 4 hermitiano, 4 normal, 4 semidenido positivo, 4 unitario, 4 orden espectral: , 177 estrella * , 63 mayorizacin dbil: w , 64 o e mayorizacin: o , 64 por entradas: , 65, 69, 209 usual: , 37 parte real de una matriz, 163 permanente, 145 pinching, 91, 94, 95, 100, 244 polarizacin, 5 o polinomio caracter stico, 1 primera diferencias dividida, 110 producto alternado, 133 de Hadamard, 48, 147 de Kronecker, 129, 130

INDICE ALFABETICO

283

simtrico, 144 e simetrizado, 164 pseudoinversa, 60 de Moore-Penrose, 60 radio espectral, 7 radio numrico, 7, 94, 197 e raiz cuadrada de una matriz, 39 rango numrico, 197 e regla de Cramer, 229 shorted, 54 signo de una permutacin, 226 o sistema de proyectores, 47, 92 subespacio ortogonal, 3 submatriz, 31 principal, 31 submayorizacin, 65 o sucesin de signatura, 237 o supramayorizacin, 65 o Teorema 1 de Schur: 2 de Schur: 3 de Schur: 4 de Schur: A = U T U , 13 A B Mn (C)+ , 48 d (A) (A), 80 KA = mx Aii , 150 a
iIn

Parrot, 59 Perron, 210 Perron-Frobenius, 219 Schur-Horn, 83 Weyl: j (A) + 1 (B) j (A + B), 30 Weyl: (A + B) (A) + (B), 82 traza, 1 valores singulares, 39 Vandermonde, 144, 239, 268 variacin de signos, 253 o vector de Perrn, 215 o ortogonal, 3 ortonormal, 3 unitario, 3

5 de Schur: per A det A, 146 Ando, (radio numrico), 203 e Birkho (extremales de DS (n) ), 75 Courant-Fischer (minimax), 29 entrelace de Cauchy, 31 Fan-Homan, 163 Haagerup, 156 Hahn Banach, 153, 161 Hall (de los casamientos), 74 Hamilton-Cayley, 16 Hausdor Teplitz, 198 o Johnson-Li, 205 Knig-Frobenius, 75 o Ky Fan Re (A) (Re A), 163 Ky Fan (Caracterizacin de NUIs), 89 o Lwner, 114 o Lidskii, 95 Marcus-Sandy, 204

Notaciones y abreviaturas
Se enumeran las principales notaciones y abreviaturas del libro, por orden de aparicin: o

Cap tulo 1
In = {1, 2, . . . , n}. R+ = {x R : x 0} y R = {x R : x > 0}. + Mn (C) = Cnn y Mn,m (C) = Cnm Mn (R) = Rnn y Mn,m (R) = Rnm Gl (n) = {A Mn (C) : A es inversible } PA (x) = det(xI A) C[x] es el polinomio caracter stico de A Mn (C). tr A =
n

Aii para una A Mn (C).

Ci (A) = (a1i , a2i , . . . , ani ) Cn es la i-sima columna de A Mn,m (C). e Fj (A) = (aj1 , aj2 , . . . , ajm ) Cn es la j-sima la de A Mn,m (C). e d (A) = (A11 , . . . , Ann ) Cn , la diagonal de A Mn (C). Q P a1 0 0 T. . U .. . U Mn (C) , para a Cn . diag (a) = diag (a1 , . . . , an ) = T . . . S R. Em =
(m) {e1

i=1

1 = 1n = En = 1n

0 0 an (m) , . . . , em } es la base cannica de Cm . o n (n) n ek = (1, . . . , 1) C . k=1 1n Mn (C)+ , la matriz de puros unos. y R(A) = A(Cm ) = Im(A) Cn , para A Mn,m (C).

Gen {X} = Gen {x1 , . . . , xm } es el subespacio generado por X = {x1 , . . . , xm }. ker A = {x Cm : Ax = 0} x, y =


n

rk(A) = dim R(A) = dim Gen {C1 (A), . . . , Cm (A) }, para A Mn,m (C). xk yk , = x, x x, y Cn .

1/2 k=1

x = x

n k=1

1/2

|xk |2

para x Cn .

L(H, K) es el espacio de operadores lineales de H en K (dos espcios de Hilbert). BON : base ortonormal. A = AT Mm,n (C) la adjunta de A Mn,m (C) . H(n) = {A Mn (C) : A = A }, matrices autoadjuntas. U (n) = {U Mn (C) : U U = I}, matrices unitarias. N (n) = {N Mn (C) : N N = N N }, matrices normales. Mn (C)+ = {A Mn (C) : A 0} H(n), semidenidas positivas. Gl (n)+ = {A Mn (C) : A > 0} = Gl (n) Mn (C)+ , denidas positivas.

NOTACIONES Y ABREVIATURAS

285

(A) = { C : ker(A I) = {0} }, el espectro de A Mn (C). (A) = (1 (A), . . . , n (A) ) los n autovalores (con multiplicidad) de A Mn (C). w(A) = mx{ | Ax, x | : x Cn , a A A
sp 2
2

x = 1 } , el radio numrico de A Mn (C). e

(A) = mx{ || : (A)}, el radio espectral de A Mn (C). a = mx{ Ax : x Cn , x = 1} = m a n{C 0 : Ax C x , x Cn } .


n

|aij |2 = tr(A A), la norma Frobenius de A Mn (C). tal que A = U BU .

A B (unitariamente equivalentes) si existe U U(n) =

i,j=1

T S(n) = { T Mn (C) : Tij = 0 para i j} las triangulares superiores. A[I|J] = AIJ = (Arl )rI Mk, m (C) , para A Mn (C), I, J In con |J| = k, |K| = m.
lJ

A[I|J) = A[I|In \ J] y A(I|J] = A[In \ I|J]. Ar = A({r}) = {aij }i=r=j Mn1 (C) , para A Mn (C) y r In . QR es la factorizacin A = QR con Q U(n) y R T S(n) tal que Rjj 0, para todo j In . o x y = xy = (xi yj ) iIn Mn,m (C), para x Cn e y Cm .
jIm

Sn = { : In In biyectiva } , el n-grupo simetrico. LA y RB : Mn (C) Mn (C) dadas por LA (X) = AX y RB (X) = XB , para X Mn (C).

Cap tulo 2
(A) Rn es el vector creciente de autovalores de A H(n). (A) Rn es el vector decreciente de autovalores de A H(n). m (A) = 1 (A) = n (A) = m (A) n n y mx (A) = n (A) = 1 (A) = mx (A) . a a

Cap tulo 3
B C B x , x C x , x para todo x unitario en Cn (con B, C H(n) ). M1 = {x M : x = 1} para un subespacio M Cn . PS Mn (C) es la proyeccin ortogonal sobre un subespacio S Cn . o AS = PS APS 

S

L(S) , la compresin de A Mn (C) a un subespacio S Cn . o

A[k] = A[Ik ] = {aij }i,jIk Mk (C) y A(k) = A(Ik ) = {aij }i,j>k Mnk (C) , ambos para A Mn (C) y k In . A1/2 Mn (C)+ es la raiz cuadrada de A Mn (C)+ . |A| = (A A)1/2 , el mdulo de A Mn (C). o si (A) = i (|A|) = i (A A)1/2 , los valores singulares de A Mn (C), para i In . s(A) = (s1 (A), . . . , sn (A) ) = (|A|) Rn y + (A) = diag (s(A) ) Mn (C)+ , para A Mn (C). A = U |A| = |A |U es una descomposicin polar de A Mn (C) si U U(n). o A = W (A)V es una descomposicin en valores singulares de A Mn (C) si W, V U(n). o A+ = A A
p |A|+A y 2  n i=1 k i=1

A =

|A|A

2 1/p

son las partes positiva y negativa de A H(n).

si (A)p

= (tr |A|p )1/p (norma de Schatten) para A Mn (C) y 1 p < .

(k)

si (A) (norma de Ky Fan) para A Mn (C) y k In .

|||A|||N = mx N (Ax) la norma matricial inducida en Mn (C) por una norma N en Cn . a A B = aij bij
N (x)=1
iIn jIm

Mn,m (C) el producto de Hadamard (o Schur) de A, B Mn,m (C) .

NOTACIONES Y ABREVIATURAS

286

4 A=

A 0 0 (A) M(A, S) = {D Mn (C)+ : D A y

(A)

H(2n) para A Mn (C). R(D) S} para A Mn (C)+ .

(A, S) = mx M(A, S) el shorted de A Mn (C)+ a un subespacio S Cn . a A la seudoinversa de Moore-Penrose de A Mn (C). (A) = m n x, y


A

Ax : x ker A

x = 1 el mdulo m o nimo de A Mn (C).

= Ax, y para A Mn (C)+ y x , y Cn .

P(A, S) = {Q Mn (C) : Q2 = Q, AQ = Q A y R(Q) = S} para A Mn (C)+ . A * B si BA = AA y B A = A A (orden ), para A, B Mn (C).

Cap tulo 4
x y x los reordenados de x Rn en forma decreciente y creciente. tr x = x, 1 = x x A x
n

xi , para x Cn .
w

y si y R mayoriza a x Rn .
w

j=1 n

y (resp. x

y) si y Rn submayoriza (supramayoriza) a x Rn .

B si Aij Bij para todo par i In , j Im , con A, B Mn,m (R). y si xi yi para todo i In , con x, y Rn . 0 , tr Fi (A) = 1 y tr Ci (A) = 1 para todo i In }.

|x| = (|x1 |, . . . , |xn |), para x Rn . DS (n) = {A Mn (C) : A x = (x(1) , . . . , x(n) ), para Sn y x Cn . P U(n) la matriz de permutacin dada por P x = x , para Sn y x Cn . o UP (n) = {P : Sn } U (n). I denota un intervalo en R. f (x) = (f (x1 ), . . . , f (xn ) ) Rn , para una funcin f : I R, y un vector x In . o x
log

y log-mayorizacin (con productos), para x, y R+ n (x, y > 0). o y log-mayorizacin dbil, para x, y Rn . o e +

x
log

Cap tulo 5
Pk (n) = {P H(n) : P 2 = P y rk(P ) = k}, los proyectores ortogonales de rango k, para k In . Uk (n) = {U Mn,k (C) : U U = Ik }, el espacio de isometr de Ck en Cn . as NUI : norma unitariamente invariante. gN : Cn R+ dada por gN (x) = N (diag (x) ) para N una NUI en Mn (C) y x Cn . fgs : funcin gauge simtrica. o e A B si (A)
r

(B), para A, B H(n).

CP (A) = P AP + (I P )A(I P ) el pinching de A Mn (C) por P Pk (n). CP (A) = Pi APi el pinching de A por el sistema de proyectores P = {P1 , . . . , Pr } H(n). k bk : m N, bk C, Rm y
o
i=1

conv [C] =

n m
k=1

(1, 0, . . . , 0) , la cpsula convexa de C. a

U (A) = {U AU : U U(n)} = {B H(n) : (B) = (A)}, la rbita unitaria de A H(n). o NDUI : norma dbilmente unitariamente invariante. e

NOTACIONES Y ABREVIATURAS

287

Cap tulo 6
HI (n) = A H(n) : (A) I eA = exp(A) = f g
I, Am m!

f (A) : el clculo funcional de A HI (n) por f : I R. a


m=0

, la exponencial de A Mn (C).

:= sup |f (t) g(t)| : t I .

f [1] (x, y) es la primera diferencia dividida de una funcin f : I R de clase C 1 . o Dgx0 Mmn (C) es la derivada o diferencial de g : U Rn Rm (U abierto) en x0 U . f (t) = f (t) es la composicin de una curva y el clculo funcional por f . o a MOP : funcin montona de operadores. o o OP : funcin convexa de operadores. o OP : funcin cncava de operadores. o o

Cap tulo 7
Hn = Cn con su producto interno. Hn Hk = { funcionales F : Hn Hk C bilineales } el producto tensorial. x y = xy T Hn Hk es el tensor elemental, dado por x y(u, v) = u, x v, y , u Hn , v Hk . En,k = {ei
(n)

ej

(k)

: i In , j Ik } {Eij Mn,k (C) : i In , j Ik }, la BON de Hn Hk .

A B(x y) = Ax By , x Hn , y Hk , con A L(Hn ) y B L(Hk ). P Q a11 B . . . a1n B T . .. . U . . U Mnk (C), el producto de Kroneker de A L(Hn ) y B L(Hk ). AB =T . . . S R
xk xk

an1 B

...

ann B
k

Hn es el espacio k-tensorial sobre Hn , el producto tensorial de Hn por s mismo k veces. A:


xk

x1 xk (u1 , , uk ) = U(
1 k!

(n) P

xk

Hm

xk

i=1

ui , xi , los k-tensores elementales.

Hn , la potencia k-tensorial de A, dada por


(n) por P (F ) (x1 , (n) : P F = sgn() F

xk

A (x1 xk ) = Ax1 Axk .

Hn ) dado
xk

, xk ) = F (x(1) , , x(k) ), para Sn . para toda


xk

k Hn = Pn = k

Hn

Sk

, el espacio k-alternado sobre Hn .

sgn() , la proyeccin ortogonal de o


1 k!

Hn sobre k Hn .

Sk

x1 xk = Pn (x1 . . . xk ) = k

Sk

sgn() x(1) x(k) , el k tensor alternado.

k A L(k Hn , k Hm ) dado por k A (x1 xk ) = Ax1 Axk , k-potencia alternada de A. Qk,n = = (1 , 2 , , k ) Ik : 1 1 < 2 < < k n n = In \ Qnk,n , el complemento de un Qk,n . e = e = e1 e2 ek k Hn , para Qk,n . Ek,n = { k! e : Qk,n }, la BON de k Hn . det A = per A =

(n) (n) (n) (n)

{J In : |J| = k}.

sgn()
n

aj,(j) = n A, para A Mn (C).

Sn

j=1

aj,(j) C , la permanente de A.
P T T T =T T R

Sn j=1

1 1 . . . 1

t1 t2 . . . tn

... ... ... ...

tn1 1 tn1 2 . . . tn1 n

Q U U U n U Mn (C), el Vandermonde de t = (t1 , . . . , tn ) C . U S

V (t) =

tj1 i


i,jIn

NOTACIONES Y ABREVIATURAS

288

Cap tulo 8
C(A) = mx Ci (A) a
i Im N (B)=1
2

y F (A) = mx Fi (A) a
i In

KN (A) = mx N (A B) = m k : N (A B) k N (B) , B Mn (C) , con N norma en Mn (C). a n KA = K


sp (A),

, para A Mn,m (C).

para A Mn (C). dada por B (A) = A, B = tr(AB ), con B Mn (C). para todo (i, j) J , para J In In . /

la adjunta de una funcional : S Mn (C) C, dada por (A) = (A ), A S. B : Mn (C) C

SJ = C Mn (C) : cij = 0

J In In cumple (P) si (i, j) J = (j, i) J y tambin (i, i) J para todo i In . e P Q A ... A T . . . U . . U Mkn (C), para A Mn (C). A(k) = Ek A = T . . . S R . A ... A

Cap tulo 9
Re A = C
A+A 2

H(n) e Im A =

AA 2i

, para A Mn (C).

S(A, B) = AB + BA H(n) es el producto simetrizado de A, B H(n). D si C m Dm , para todo m N, con C, D Mn (C)+ .


1
p

A B = lim Ap + B p
p

= m n

C Mn (C)+ : A

C y B

, para A, B Mn (C)+ .

f : Mn (C) R es clase T si es continua, f (XY ) = f (Y X) y |f (X 2m )| f ([XX ]m ), m, X, Y . A# B = A1/2 (A1/2 BA1/2 ) A1/2 , para [0, 1], A, B Mn (C)+ . A#B = A# 1 B = A1/2 (A1/2 BA1/2 )1/2 A1/2 .
2

Cap tulo 10
W (A) = { Ax, x : x Cn , x = 1 } es el rango numrico de A Mn (C). e

Cap tulo 11
MPn,m = {A Mn,m (R) : A Vn = {(p, q) I2 : p = q}. n FC : matriz fuertemente convexa. 0}, matrices de entradas positivas. MEPn,m = {A Mn,m (R) : A > 0}, matrices de entradas estrictamente positivas.

Cap tulo 12
A/[|] = A(|) A(|] A[|]1 A[|) Mnk (C), el complemento de Schur de A Mn (C). sgn() =
k

(1)i i = (1)r con r = tr


n1

Jn = diag 1, 1, 1, 1, . . . , (1) sgn

i=1

k(k+1) 2

, para un Qk,n .

U(n).

= sgn(), donde manda al principio de .

Cap tulo 13
= (i )iN {1, 1}N es una sucesin de signatura. o Si es otra sucesin de signatura, llamaremos = (i i )iN . o

NOTACIONES Y ABREVIATURAS

289

A es -RS si es de signo regular con signatura . A es -ERS si es estrictamente de signo regular con signatura . A es TP si es totalmente positiva, o sea que A es -RS respecto de la sucesin 1. o A es ETP si es estrictamente totalmente positiva, o sea que A es -ERS respecto de la sucesin 1. o d() = k 1 (k 1) =

i+1 i 1 , es la dispersin de Qk,n . o

i Ik1

LU -factorizacin: A = LU con L triangular inferior y U triangular superior. o U L-factorizacin: A = U L con L triangular inferior y U triangular superior. o [x1 , . . . , xm ] = X Mnm (C) si Ci (X) = xi Cn para cada i Im .
t

B si k A

k B, i.e. det A[|] det B[|] para todo k In y , Qk,n .

A es OSC si es TP y una cierta potencia Ap es ETP. V+ (x) la mxima variacin de signos de x Rn . a o V (x) m la nima variaci de signos de x Rn . on Gp = Hp = d2ji

exp p (i j)2

i,j In

Mn (R) , matriz de Hurwitz p(z) = d0 z n + d1 z n1 + . . . + dn .

i,j In

Mn (R).

You might also like