51
FAMILIAS GAUSSIANAS DE MATRICES ALEATORIAS: EJERCICIOS Y NOTAS INTRODUCTORIAS EDUARDO DU ´ E ˜ NEZ GUZM ´ AN El objetivo principal de estas notas es compilar ejercicios y problemas para acompa˜ nar el minicurso de familias de matrices aleatorias gaussianas y circulares, parte de la Escuela de Matrices Aleatorias EMA 2012 en CIMAT. Un objetivo secundario es servir de referencia m´ ıni- ma al material cubierto en las clases. Rogamos al lector cuyo inter´ es logremos capturar que se remita a la literatura contempor´ anea (primordialmente en la lengua inglesa) tales como el compendio “Log Gases and Random Matrices” de Peter J. Forrester [For10] o el texto “An Introduction to Random Matrices” de Anderson, Guionnet y Zeitouni [AGZ09]. Especialmente para estudiantes interesados en conexiones entre matrices aleatorias y teor´ ıa de n´ umeros, el volumen “Recent Perspectives in Random Matrix Theory and Number Theory” editado por Mez- zadri y Snaith [MS05] es una referencia invaluable que presta igual atenci´ on a ambos temas. Finalmente, mencionamos el texto cl´ asico “An Introduction to Random Matrices” de M. L. Meh- ta [Meh04] (ahora en su tercera edici´ on), el cual adopta una perspectiva firmemente basada en los or´ ıgenes de las familias cl´ asicas v´ ıa la f´ ısica nuclear. Este documento fue escrito teniendo en mente primordialmente a los estudiantes invitados a participar en la EMA; ellos habr´ an completado un curso de probabilidad as´ ı como cursos de alculo vectorial y ´ algebra lineal (los estudiantes de licenciatura en matem´ aticas, estad´ ıstica, actuar´ ıa, f´ ısica e ingenier´ ıa normalmente cuentan con tales bases al terminar su segundo a ˜ no de licenciatura). Esta decisi ´ on nos fuerza a adoptar un estilo relativamente concreto que algu- nos estudiantes con mayor experiencia podr´ ıan encontrar tediosos o al menos ineficiente. Por ello pedimos disculpas anticipadas: El lector avanzado es exhortado remitirse a la literatura especializada. Comentario 1. Los enunciados de algunos ejercicios (o partes de ejercicios) est´ an precedido por asterisco(s) cuyo n ´ umero representa la dificultad subjetiva del mismo. Los ejercicios sin asteriscos son rutinarios. 1.Ejercicios preliminares En esta secci´ on compilamos varios ejercicios preliminares. El prop´ osito es asegurarnos de que los lectores est´ en familiarizados con el material respectivo, mucho del cual es est´ andar en cursos de ´ algebra lineal y probabilidad. Sin embargo, aconsejamos no demorarse demasiado en esta secci ´ on. El material de la secci´ on 2 y subsecuentes es mucho m´ as importante y pertinente al curso. * Ejercicio 1 Demostrar que: (1) Z -exp(-x 2 ) dx = π Estas notas acompa ˜ nan al minicurso dado por el autor durante la Escuela de Matrices Aleatorias EMA 2012 en el Centro de Investigaci´ on en Matem´ aticas (CIMAT). Por este medio agradezco a CIMAT, a los organizadores del evento y en particular al Prof. V´ ıctor P´ erez-Abreu por su hospitalidad, as´ ı como a Rosy D´ avalos por el eficiente apoyo administrativo tras bambalinas. 1

Ema Problem As

Embed Size (px)

Citation preview

Page 1: Ema Problem As

FAMILIAS GAUSSIANAS DE MATRICES ALEATORIAS:EJERCICIOS Y NOTAS INTRODUCTORIAS

EDUARDO DUENEZ GUZMAN

El objetivo principal de estas notas es compilar ejercicios y problemas para acompanar elminicurso de familias de matrices aleatorias gaussianas y circulares, parte de la Escuela deMatrices Aleatorias EMA 2012 en CIMAT. Un objetivo secundario es servir de referencia mıni-ma al material cubierto en las clases. Rogamos al lector cuyo interes logremos capturar quese remita a la literatura contemporanea (primordialmente en la lengua inglesa) tales comoel compendio “Log Gases and Random Matrices” de Peter J. Forrester [For10] o el texto “AnIntroduction to Random Matrices” de Anderson, Guionnet y Zeitouni [AGZ09]. Especialmentepara estudiantes interesados en conexiones entre matrices aleatorias y teorıa de numeros, elvolumen “Recent Perspectives in Random Matrix Theory and Number Theory” editado por Mez-zadri y Snaith [MS05] es una referencia invaluable que presta igual atencion a ambos temas.Finalmente, mencionamos el texto clasico “An Introduction to Random Matrices” de M. L. Meh-ta [Meh04] (ahora en su tercera edicion), el cual adopta una perspectiva firmemente basada enlos orıgenes de las familias clasicas vıa la fısica nuclear.

Este documento fue escrito teniendo en mente primordialmente a los estudiantes invitadosa participar en la EMA; ellos habran completado un curso de probabilidad ası como cursos decalculo vectorial y algebra lineal (los estudiantes de licenciatura en matematicas, estadıstica,actuarıa, fısica e ingenierıa normalmente cuentan con tales bases al terminar su segundo anode licenciatura). Esta decision nos fuerza a adoptar un estilo relativamente concreto que algu-nos estudiantes con mayor experiencia podrıan encontrar tediosos o al menos ineficiente. Porello pedimos disculpas anticipadas: El lector avanzado es exhortado remitirse a la literaturaespecializada.Comentario 1. Los enunciados de algunos ejercicios (o partes de ejercicios) estan precedidopor asterisco(s) cuyo numero representa la dificultad subjetiva del mismo. Los ejercicios sinasteriscos son rutinarios.

1. Ejercicios preliminares

En esta seccion compilamos varios ejercicios preliminares. El proposito es asegurarnos deque los lectores esten familiarizados con el material respectivo, mucho del cual es estandar encursos de algebra lineal y probabilidad. Sin embargo, aconsejamos no demorarse demasiado enesta seccion. El material de la seccion 2 y subsecuentes es mucho mas importante y pertinenteal curso.

* Ejercicio 1Demostrar que:

(1)∫ ∞

−∞exp(−x2)dx =

√π

Estas notas acompanan al minicurso dado por el autor durante la Escuela de Matrices Aleatorias EMA 2012 enel Centro de Investigacion en Matematicas (CIMAT). Por este medio agradezco a CIMAT, a los organizadores delevento y en particular al Prof. Vıctor Perez-Abreu por su hospitalidad, ası como a Rosy Davalos por el eficienteapoyo administrativo tras bambalinas.

1

Page 2: Ema Problem As

2 EDUARDO DUENEZ GUZMAN

(Esta integral debe necesariamente calcularse por metodos indirectos ya que la antiderivadadel integrando no es una funcion elemental.a)

Siga los pasos siguientes:• Sea I el valor de la integral en la izquierda de la ecuacion (1). Entonces

I2 =∫ ∞

−∞exp(−x2)dx ·

∫ ∞

−∞exp(−y2)dy =

∫ ∞

−∞

∫ ∞

−∞exp(−(x2 + y2))dy dx.

• Cambie la doble integral a coordenadas polares y deduzca que I2 = π. Concluya queI =√

π.

Inicialmente solo asumiremos que el lector tiene familiaridad con variables aleatorias esca-lares, es decir, que toman valores reales o complejos. (Sin embargo, muy pronto empezaremosa considerar variables aleatorias que son vectores o matrices.) La mayorıa de las variablesque consideraremos seran continuas, mas precisamente absolutamente continuas. Una variablealeatoria real o compleja X es absolutamente continua si posee una funcion de densidad deprobabilidad (f.d.p.) fX no negativa definida en R (o C, respectivamente). El lector puede ol-vidarse de la distincion tecnica entre variables aleatorias continuas y absolutamente continuaspara todos nuestros fines.

* Ejercicio Esencial 2Sea X una variable aleatoria real y (absolutamente) continua. Por simplicidad supongase

que el rango de X es toda la recta real. Sea F : R → R un difeomorfismo local inyectivo(es decir, una funcion inyectiva con derivada no nula). Entonces Y = F(X) es tambien unavariable aleatoria. Demuestre la siguiente relacion entre las f.d.p.’s de ambas variables:b

(2) fY(F(x))∣∣F′(x)

∣∣ = fX(x) para toda x ∈ R.

En particular, si y = F(x) esta en el rango de F (para una unica x, por inyectividad),

(3) fY(y) =fX(x)|F′(x)| .

Ejercicio 3

** Parte IEn la situacion en que Y = F(X) no es inyectiva no es posible relacionar las f.d.p.’s usando

una formula general como (2). Sin embargo, si la funcion Y = F(X), modulo conjuntos demedida nula, es un difeomorfismo local m-a-1 en lugar de 1-a-1 (es decir, en lugar de inyectivo)para cierta m ≥ 1, entonces se tiene

(4) fY(y) =m

∑i=1

fX(xi)

|F′(xi)|,

aEs decir, no existe formula alguna utilizando funciones algebraicas, trigonometricas, logarıtmicas o exponen-ciales que sea antiderivada de f (x) = exp(−x2).

bEstrictamente, la ecuacion (2) deberıa decir “para casi toda x ∈ R”, pero seguramente los lectores con mayorexperiencia nos disculparan.

Page 3: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 3

donde la suma es sobre los m valores xi, 1 ≤ i ≤ m, tales que F(xi) = y.

Parte IIBajo las hipotesis de la parte previa, suponga que (para casi toda x) fX(x)

|F′(x)| depende sola-mente de F(x), es decir, que los m sumandos en la Ecuacion (4) son iguales. Entonces:

(5) fY(y) = mfX(x)|F′(x)| ,

cualquiera que sea la eleccion de x con tal de que f (x) = y.

Aunque la demostracion del Ejercicio 2 es una consecuencia inmediata de la regla de lacadena (es decir, desde otro punto de vista, de la formula de cambio de variables en integrales),es sumamente importante entender su contenido. A continuacion ofrecemos nuestro punto devista al respecto.

Comentario 2. Hablar de “la” f.d.p. de una variable aleatoria continua X siempre conlleva unaconvencion implıcita. Digamos, por ejemplo, que X toma valores reales. Entonces la ası llama-da f.d.p. de X es una funcion fX : R → [0, ∞). Sin embargo, la f.d.p. es interpretable (yutilizable) solamente en tandem con la medida de integracion (medida de Lebesgue) dx en R,que es el elemento de longitud (o diferencial de longitud) de R. Por ejemplo, la f.d.p. sirve paraexpresar la probabilidad de que X tome valores en un intervalo [a, b] en la forma

(6) P[a ≤ X ≤ b] =∫ b

afX(x)dx.

Notese que es fX(x)dx, y no la funcion fX por sı sola, lo que permite el calculo de la proba-bilidad. Serıa mas apropiado hablar de la f.d.p. fX relativa a la medida dx de R. Tambien noteque el elemento de longitud en sı, es decir d` = dx, no es una medida de probabilidad, sinosolamente una medida de referencia sin la cual la f.d.p. carece de significado.

Cuando una variable continua compleja Z tiene una densidad fZ, entonces la probabilidadde que Z tome valores en una region (medible) R ⊂ C esta dada por

(7) P[Z ∈ R] =∫∫R

fZ(x + iy)dx dy.

Nuevamente vemos que lo relevante para el calculo de probabilidades es fZ(x)dx dy, y no fZpor sı sola. La f.d.p. es relativa a la medida (elemento, o diferencial, de area) dA = dx dy de C.

Similarmente, N variables aleatorias reales X1, X2, . . . , XN (lo que se puede pensar tam-bien como un N-vector aleatorio

−→V = (X1, X2, . . . , XN) en RN) tienen una f.d.p. conjunta

f (x1, x2, . . . , xN) que depende de N variables reales (i.e., es una funcion en RN). La probabili-dad de que el vector aleatorio

−→V tome valores en una region R ⊂ RN esta dada por

(8) P[−→V ∈ R] =

∫· · ·

∫R

f (x1, x2, . . . , xN)dx1 dx2 . . . dxN.

Nuevamente, la f.d.p. conjunta (es decir, la f.d.p. de un N-vector aleatorio real) es relativa a lamedida (elemento, o diferencial, de volumen) dx1 dx2 . . . dxN de RN.

Desgraciadamente, es sumamente facil olvidar que la f.d.p. de cualquier variable aleato-ria W es relativa a cierta medida natural (elemento o (forma) diferencial de longitud, area, o(hiper)volumen) d vol(w) tacitamente fijada en el “espacio ambiente” en el cual W toma susvalores. Normalmente este espacio ambiente sera un espacio vectorial real o complejo. El pro-blema es que, a diferencia de RN y CN que tienen obvias medidas naturales fijas (a saber,

Page 4: Ema Problem As

4 EDUARDO DUENEZ GUZMAN

d volRN dx1 dx2 . . . dxN en RN y dx1 dy1 dx2, dy2 . . . dxNdyN en CN ≈ R2N), un espacio vecto-rial ambiente arbitrario no posee una medida estandar de referencia. (Por ejemplo, uno podrıaadoptar el elemento de longitud d` = 2dx como referencia en R y se tendrıa f (x)dx = g(x)d`con la nueva f.d.p. relativa a d` dada por g(x) = 1

2 f (x).)

Comentario 3. Otro punto de vista sumamente apropiado para nuestros proposito,es quela f.d.p. de una variable aleatoria absolutamente continua es, efectivamente, inseparable delelemento de volumen subyacente. Esto nos lleva al concepto de forma diferencial de probabilidad.

Una variable aleatoria continua, digamos X con valores reales, define una forma diferencialωX = fX(x)dx en la recta real. Desde este punto de vista, la f.d.p. es simplemente el cocientede la forma diferencial ωX de la variable aleatoria X entre el elemento natural de longituddx. Similarmente un vector aleatorio real

−→X = (X1, X2, . . . , XN) tiene una forma diferencial

f (x1, x2, . . . , xN)dx1 dx2 . . . dxN = f (−→x )d vol(−→x ) (donde −→x = (x1, x2, . . . , xN)) en RN. Laventaja de este punto de vista, al cual recomendamos que el lector trate de acostumbrarse tanpronto como le sea posible, es que las formas diferenciales se transforman exactamente dela misma manera en que los integrandos se comportan con respecto a cambios de variables.Por lo tanto, los teoremas de cambios de variables en integrales son directamente aplicables ylos calculos efectuados con formas diferenciales son correctos y consistentes con la interpreta-cion probabilıstica. En la Seccion 3 presentamos mas detalles sobre formas diferenciales y suconexion con medidas de probabilidad.

A manera de ilustracion de este enfoque discutimos a continuacion una manera muy natural(aunque quizas un poco misteriosa) de resolver el Ejercicio 2. Bajo Y = F(X), la forma dife-rencial fY(y)dy tiene un “pullback”c (pronunciado “pulbak”) obtenido sustituyendo y = F(x)y usando la regla de la cadena:d

(9) fY(y)dy = fY(F(x))dF(x) = fY(F(x))F′(x)dx.

Lo que esta formula significa es que bajo la transformacion Y = F(X) la forma diferencial de lavariable Y (que es, por definicion, ωY = fY(y)dy) corresponde a la forma diferencial pullbackfY(F(x))F′(x)dx. La relacion de pullback entre ambas formas diferenciales se interpreta demanera concreta como sigue: Si insistimos en encontrar la f.d.p. de la variable Y en terminosdel elemento de longitud dx de la variable X, la unica manera correcta de hacerlo es utilizandola funcion F para transformar la f.d.p. fY(y) en una funcion de x substituyendo y = F(x), perosimultaneamente es indispensable utilizar F tambien para transformar el elemento de longituddy en un elemento de longitud relativo a la variable x, lo cual, por la regla de la cadena, nosfuerza a remplazar dy por F′(x)dx (al menos si F es monotona creciente; si F es decrecientebasta poner |F′(x)| dx.)

Por tanto, fY(F(x))F′(x)dx = fX(x)dx, de donde se sigue que fY(F(x))F′(x) = fX(x), almenos si F preserva orientacion (es decir, es creciente, con derivada no negativa). Para tomaren cuenta el caso en que F invierte orientacion basta tomar valores absolutos: fY(F(x)) |F′(x)| =fX(x).

c“Pullback” es una palabra inglesa que se puede traducir como “jale (o jalon) de regreso”. La idea es la deuna contracorriente que transforma cierto objeto (forma diferencial) definido en terminos de la variable y en unobjeto definido en terminos de la variable x, ejecutando una transformacion en la direccion opuesta a aquella enque la funcion y = F(x) transforma x en y.

dEn el sentido mas estricto, los signos “=” no son validos en la ecuacion (9) porque las formas diferenciales noson la misma; lo que es cierto es que el pullback de la forma fY dy bajo y = F(x) es la forma fY(F(x))F′(x)dx.Sin embargo, “igualar” el pullback de una forma diferencial con la forma misma es una costumbre tan comun,util y relativamente inocua que cedemos a la tentacion.

Page 5: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 5

La moraleja de este largo cuento es que las f.d.p. siempre deben manipularse como si fueranintegrandos, es decir, como si estuvieran multiplicadas por cual sea la medida de referenciaimplıcitamente preelegida. Los cambios de variables son extremadamente importantes en elestudio de estadısticas de matrices aleatorias, y por tanto el calculo de los jacobianos respec-tivos es primordial. (Desde luego, en el caso de una transformacion Y = F(X) entre variablesaleatorias escalares, el jacobiano de la transformacion es simplemente Jac(x) = |F′(x)|.)

Ejercicio 4

** Parte IGeneralizando el Ejercicio 2, si

−→Y = F(

−→X ) donde

−→X = (X1, X2, . . . , XN) y

−→Y = (Y1, Y2, . . . , YN)

son vectores reales aleatorios en RN y F : RN → RN es un difeomorfismo local inyectivo (esdecir, una funcion inyectiva con diferencial DF invertible en cada punto), entonces

(10) f−→X (−→x ) = Jac F(−→x ) f−→Y(F(−→x ))

donde Jac F(−→x ) =∣∣det(∂yk/∂xj)

∣∣ es el jacobiano de la transformacion −→y = F(−→x ).En particular, si −→y = F(−→x ) para cierta (unica) −→x tal que Jac F(−→x ) 6= 0, entonces

(11) f−→Y(−→y ) =

f−→X (−→x )

Jac F(−→x ).

** Parte IISubstituyendo la hipotesis de inyectividad por la hipotesis que F es un difeomorfismo

(genericamente) m-a-1, demuestre que

(12) f−→Y(−→y ) =

m

∑i=1

f−→X (−→x i)

Jac F′(−→x i),

donde la suma es sobre los m puntos −→x i, 1 ≤ i ≤ m, tales que F(−→x i) =−→y .

Parte IIIBajo las hipotesis de la parte previa, suponga (para casi toda −→x ) que

f−→X(−→x )

|F′(−→x )| depende sola-

mente de F(−→x ), es decir, que los m sumandos en Equation (12) son iguales. Entonces se tienela siguiente formula completamente analoga a (5):

(13) f−→Y(−→y ) = m

f−→X (−→x )

Jac F′(−→x ),

cualquiera que sea la eleccion de −→x con tal de que f (−→x ) = −→y .

Definicion 4. Decimos que la variable aleatoria real X tiene distribucion invariante bajo la funcionF : R→ R si la variable aleatoria Y = F(X) tiene la misma distribucion que X. Mas en general,si−→X es una N-ada de variables aleatorias reales (un N-vector aleatorio real) y F : RN → RN,

decimos que−→X tiene distribucion invariante bajo F si la variable aleatoria

−→Y = F(

−→X ) tiene la

misma distribucion que X.

Page 6: Ema Problem As

6 EDUARDO DUENEZ GUZMAN

Comentario 5. Cuando X es real y absolutamente continua con densidad fX y F es un di-feomorfismo local inyectivo, la invarianza de distribucion de X bajo F es equivalente a laidentidad

(14) fX(F(x))∣∣F′(x)

∣∣ = fX(x)

para toda x, por el Ejercicio 2. Mas en general, el Ejercicio 4 dice que un vector aleatorio realabsolutamente continuo

−→X tiene distribucion invariante bajo un difeomorfismo local inyectivo

F : RN → RN si y solo si se cumple la identidad

(15) f−→X (F(−→x )) Jac F(−→x ) = f−→X (−→x ).

Definicion 6 (Matriz ortogonal). Una matriz ortogonal de tamano N es una matriz real QN×Ncuyas columnas forman una base ortonormal de RN, es decir, son N vectores de longitudunidad mutuamente ortogonales (es decir, perpendiculares) en RN.

Ejercicio 5

Demuestre que la matriz real QN×N es ortogonal si y solamente si

(16) QTQ = IN

donde IN es la matriz identidad de tamano N.

Definicion 7 (O(N)). El conjunto de todas las matrices ortogonales de tamano N es denotadopor O(N):

(17) O(N) = Q ∈ MatN×N

(R) | QTQ = IN.

Definicion 8 (GLN). El conjunto de todas las matrices reales (resp., complejas) invertibles detamano N (es decir, con determinante no nulo) es denotado por GLN(R) (resp., por GLN(C)):

(18) GLN(F) = HN×N ∈ MatN×N

(F) | det(H) 6= 0.

Definicion 9 (SLN). El conjunto de todas las matrices reales (resp., complejas) unimodulares(es decir, con determinante igual a la unidad) de tamano N es denotado por SLN(R) (resp.,por SLN(C)):

(19) SLN(F) = HN×N ∈ MatN×N

(F) | det(H) = 1.

Definicion 10 (SO(N)). El conjunto de todas las matrices ortogonales unimodulares de tamanoN es denotado por SO(N):

(20) SO(N) = O(N) ∩ SLN(R) = Q ∈ MatN×N

(R) | QTQ = IN y det(Q) = 1.

Definicion 11 (Grupo (de matrices reales o complejas)). Un grupo (de matrices reales o com-plejas) es un conjunto GN ⊂ MatN×N(F) (donde F = R o F = C, resp.) tal que:

(1) GN contiene la matriz identidad IN;(2) si H, K ∈ GN entonces HK ∈ GN; y(3) si H ∈ GN entonces H es invertible y H−1 ∈ GN.

Page 7: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 7

Ejercicio 6

Muestre que cada uno de los conjuntos O(N), SO(N), SLN(R), SLN(C), GLN(R), GLN(C)es un grupo (de matrices).

Ejercicio 7

Parte ISi Q ∈ O(N) demuestre que det(Q) = ±1.Se sigue que O(N) es la union disjunta de SO(N) con el subconjunto O−(N) consistente de

matrices con determinante −1.

Parte II¿Es O−(N) un grupo de matrices?

Comentario 12. Para muchos propositos practicos, es mas sencillo trabajar con SO(N) quecon O(N) ya que el ultimo es (topologicamente) no conexo: consiste de las dos componentesconexas SO(N) y O−(N).

Ejercicio 8

* Parte IMuestre que SO(2) consiste de las matrices de rotaciones de R2 (que fijan el origen):

(21) SO(2) =(

cos θ − sin θsin θ cos θ

)∣∣∣∣ θ ∈ [0, 2π)

* Parte IIInterprete y parametrice las matrices de O−(2) de manera analoga.

* Ejercicio 9

Si AM×N y BN×M son dos matrices complejas (o reales, en particular), demuestre que

(22) TrM×M

(AB) = TrN×N

(BA).

(Recuerde que la traza Tr(H) de una matriz cuadrada H se define como la suma de las entradasen su diagonal, ası como la suma de todos los eigenvalores, con la multiplicidad necesaria.)

Definicion 13 (Similitud). Dos matrices cuadradas en MatN×N(F) se llaman similares si repre-sentan la misma transformacion lineal con respecto a diferentes bases. Mas concretamente, Aes similar a B (denotado A ∼ B) si existe una matriz invertible M ∈ MatN×N(F) tal que

(23) B = MAM−1.

Page 8: Ema Problem As

8 EDUARDO DUENEZ GUZMAN

Ejercicio 10

Parte IDemuestre que la relacion de similitud A ∼ B es una relacion de equivalencia en MatN×N(F).

Concretamente:• A ∼ A (reflexividad);• A ∼ B implica B ∼ A (simetrıa); y• A ∼ B y B ∼ C implica A ∼ C (transitividad).

Parte IISi A ∼ B entonces det(A) = det(B) y Tr(A) = Tr(B).

* Parte IIIMas en general, si A ∼ B entonces sus polinomios caracterısticose son iguales: pA(λ) =

pB(λ).

* Parte IV¿Es cierto, recıprocamente, que si pA(λ) = pB(λ) entonces A ∼ B?

** Parte VSi dos matrices A, B reales son similares vıa una matriz compleja M, demuestre que son

similares vıa una matriz real. En particular, la relacion de similitud entre matrices realesesta perfectamente bien definida aunque se admitan similitudes complejas a priori (las cua-les, a posteriori, no son necesarias).

2. ¿Que es una matriz aleatoria?El GOE(2) como primer ejemplo

Una matriz aleatoria es simplemente una matriz “elegida al azar” de acuerdo con unadistribucion de probabilidad dada. No existe tal cosa como “una” (sola) matriz aleatoria, puesuna sola matriz, siendo constante, no identifica la distribucion de probabilidad respecto a lacual fue elegida, generada u obtenida.

Mas precisamente, una matriz aleatoria es una variable aleatoria que toma valores en unconjunto de matrices especificado de antemano, de acuerdo con una distribucion de probabi-lidad dada.

Si el lector esta unicamente familiarizado con variables aleatorias numericas (es decir, es-calares), es correcto considerar una matriz aleatoria A de tamano M× N como una coleccionde MN variables aleatorias Ajk (1 ≤ i ≤ M y 1 ≤ j ≤ N) cuya distribucion de probabili-dad conjunta es dada, y que definen las entradas de la matriz A. Sin embargo, es sumamenteimportante enfatizar que no se supone que las variables aleatorias Ajk sean independientescomo parte de la definicion. Ciertas familias de matrices aleatorias tienen entradas indepen-dientes (por ejemplo, las familias gaussianas que estudiaremos despues son basicamente deeste tipo) o por lo menos pueden obtenerse facilmente partiendo de matrices con entradasindependientes (como las matrices de Wishart, que no discutiremos), pero tales situacionesdeben entenderse como casos muy especiales (a pesar de su importancia). En particular, lasfamilias “circulares” que tambien trataremos normalmente consisten de matrices aleatoriascuyas entradas son fuertemente dependientes.

Las siguientes definiciones tratan de capturar la definicion informal recien dada.eEl polinomio caracterıstico de una matriz cuadrada AN×N es pA(λ) = det(λI − A) = λN − c1λN−1 +

c2λN−2 − · · ·+ (−1)NcN donde c1 = Tr A, . . . , cN = det A.

Page 9: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 9

Definicion 14 (Matriz Aleatoria). Fıjense enteros M, N ≥ 1. Una matriz aleatoria real (resp.,compleja) de tamano M × N es una variable aleatoria A que toma valores en el conjunto dematrices reales (resp., complejas) de M× N.

Definicion 15 (Conjuntos y Familias de Matrices Aleatorias). Si una variable aleatoria A to-ma valores en cierto conjunto EM×N de matrices (ciertamente E ⊂ MatM×N(R), resp. E ⊂MatM×N(C), pero la inclusion bien puede ser propia), entonces el conjunto E se llama un con-junto de matrices aleatorias cuando se le dota de la distribucion de probabilidad P de la matrizaleatoria A.

Cuando se tienen conjuntos de matrices aleatorias (EM×N, PM×N)M,N cuyo tamanos M×N crecen indefinidamente (bien M, o bien N, o ambos tienden a infinito), entonces denotamospor E = EM×NM,N a la familia (o “ensemble”: palabra francesa pronunciada aproximadamen-te “ansambl(e)”) de matrices aleatorias que consta de la totalidad de los conjuntos de matricesaleatorias.

Una matriz aleatoria (real o compleja) de tamano 1× 1 es simplemente una variable aleatoriaescalar (real o compleja). Uno de los primeros ejemplos interesantes de matrices aleatorias es elconjunto gaussiano ortogonal GOE(2) (por sus iniciales inglesas: “Gaussian orthogonal ensemble”)de matrices reales simetricas de tamano 2× 2.

Primero recordemos que una variable aleatoria gaussiana X de desviacion estandar σ > 0(es decir, de varianza σ2) es aquella que toma valores reales de acuerdo con la distribucioncuya funcion de densidad de probabilidad (f.d.p., o bien p.d.f. por las iniciales inglesas de“probability density function”) es:f

(24) fX(x) =1√2πσ

exp(− x2

2σ2

).

Para los propositos de este documento toda variable gaussiana tendra media µ = 0 salvoespecificacion contraria.

Ejercicio 11

Parte IUse la ecuacion (1) para demostrar que la funcion (24) define una f.d.p. fidedigna.

Parte IIDemuestre que el valor esperado (media, o esperanza) de la variable aleatoria con f.d.p. (24)

es cero:µ = E[X] =

∫ ∞

−∞x fX(x)dx = 0.

Parte IIIDemuestre, asimismo, que la varianzag es igual a σ2:

E[X2] =∫ ∞

−∞x2 fX(x)dx = σ2.

Consecuentemente, la desviacion estandar de la variable gaussiana es√

σ2 = σ.

Parte IVfEstrictamente hablando, la ecuacion (24) es la f.d.p. de una variable gaussiana con media µ = 0.gEn general, la varianza se define como Var(X) = E[(X − µ)2] donde µ = E[X]. Sin embargo, ya hemos

demostrado que en este caso µ = 0.

Page 10: Ema Problem As

10 EDUARDO DUENEZ GUZMAN

Finalmente, demuestre que los puntos de inflexion de la f.d.p. fX ocurren exactamente en±σ. Esto quiere decir que la desviacion estandar se interpreta visualmente de manera muysencilla como la distancia de los puntos de inflexion al eje de simetrıa de la grafica de la f.d.p.(o bien como la semidistancia entre los puntos de inflexion).

Sea

(25) S =

(a bb c

)una matriz real 2× 2 simetrica cuyas entradas diagonales a, c son variables aleatorias normales(gaussianas) de (media cero y) varianza σ2 = 1, mientras que b tiene varianza σ2 = 1

2 .En resumidas cuentas, las entradas de S tienen la densidad de probabilidad conjunta

fA,B,C(a, b, c) = fA(a) fB(b) fC(c) =1√2π

exp(− a2

2

)1√π

exp(−b2

) 1√2π

exp(− c2

2

)=

1

2√

π3exp

(−1

2(a2 + 2b2 + c2)

)(26)

con respecto a da db dc, que adoptaremos como la medida de referencia estandar en GOE(2).(Recuerde la discusion contenida en los Comentarios 2 y 3.)

Pregunta 1. ¿Por que la entrada b tiene varianza σ2 = 12 mientras que las entradas diagonales

tienen varianza σ2 = 1?

Una respuesta intuitiva pero no muy satisfactoria es que la entrada b se repite dos vecesen la matriz S, y la varianza 1

2 lo compensa. Una respuesta un poco mejor es la siguiente (larespuesta completa habra de reservarse para el Ejercicio 16):

Ejercicio 12Demuestre que la f.d.p. de (26) para la distribucion de (las entradas de) la matriz S puede

escribirse en la forma:

(27) f (S) =1

2√

π3exp

(−1

2Tr(S2)

).

* Ejercicio Importante 13

Parte IDemuestre que toda matriz GOE(2) (real simetrica 2× 2) tiene eigenvalores reales λ, µ.

Parte IISi λ 6= µ, demuestre que los eigenvectores respectivos −→u ,−→v son perpendiculares (ortogo-

nales) y por tanto independientes.

Parte IIISi λ = µ, demuestre que S = λI2 es ya diagonal de por sı, y por tanto los vectores −→u ,−→v en

cualquier base ortogonal de R2 son eigenvectores de S.

Parte IV

Page 11: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 11

Demuestre que en todo caso los eigenvectores pueden escogerse de la forma

−→u =

(cos θsin θ

)y −→v =

(− sin θcos θ

)para algun angulo θ ∈ [0, 2π).

El ejercicio previo muestra que una matriz S ∈ GOE(2) puede diagonalizarse por medio deuna matriz ortogonal (especial)

(28) Q =

(cos θ − sin θsin θ cos θ

)∈ SO(2),

es decir

(29)(

a bb c

)︸ ︷︷ ︸

S

=

(cos θ − sin θsin θ cos θ

)︸ ︷︷ ︸

Q

(λ 00 µ

)︸ ︷︷ ︸

Λ

(cos θ sin θ− sin θ cos θ

)︸ ︷︷ ︸

QT=Q−1

.

¿Por que se llama “ortogonal” el GOE si no consiste de matrices ortogonales? El siguienteextremadamente importante ejercicio aborda esta pregunta.

Ejercicio Esencial 14Demuestre que la distribucion de matrices aleatorias GOE(2) es invariante bajo similitudes

ortogonales en el sentido de la Definicion 4. Concretamente, para cada matriz fija Q ∈ O(2),la distribucion de la matriz aleatoria S es preservada por la transformacion de similitud

(30) S′ = TQ(S) = QSQT.

La prueba de esta aseveracion requiere de varios pasos.

Parte ILa funcion TQ es un difeomorfismo de GOE(2) en GOE(2), en otras palabras, TQ es una

biyeccion diferenciable con inversa diferenciable de GOE(2) en GOE(2). (De hecho, TQ es unatransformacion lineal con inversa

(TQ)−1

= TQ−1 = TQT .)

Denotemos

(31) S′ =(

α ββ γ

).

** Parte IICalcule el jacobiano de la transformacion S′ = TQ(S):

(32) Jac(a, b, c) =∂(α, β, γ)

∂(a, b, c)=

∣∣∣∣∣∣∣∂α∂a

∂α∂b

∂α∂c

∂β∂a

∂β∂b

∂β∂c

∂γ∂a

∂γ∂b

∂γ∂c

∣∣∣∣∣∣∣ .

(La transformacion (a, b, c) 7→ (α, β, γ) es lineal, ası que este calculo es bastante sencillo enprincipio (aunque posiblemente laborioso), y el jacobiano necesariamente sera independientede a, b, c. Por ejemplo, escriba cada una de las variables α, β, γ como funcion (lineal) de lasvariables a, b, c con coeficientes dependientes de las entradas de la matriz fija Q. Solamente

Page 12: Ema Problem As

12 EDUARDO DUENEZ GUZMAN

el determinante de Q resultara ser relevante a final de cuentas, ası que tenga presente elEjercicio 7. El enunciado del Ejercicio 38 contiene pistas utiles para este.)

Parte IIIConcluya la demostracion de que S′ tiene la misma distribucion que S.(Sugerencia: Como TQ es difeomorfismo, basta mostrar que

f (TQ(S)) Jac(a, b, c) = f (S)

de acuerdo con el Comentario 5.)

* Ejercicio Importante 15Si el conjunto de matrices reales simetricas 2× 2 tiene cualquier distribucion absolutamente

continua con densidad f (S), demuestre que f (S) depende solamente de la pareja (no ordena-da) de eigenvalores λ, µ de S si, y solo si, la distribucion de S es invariante bajo similitudesortogonales.

Note que este resultado generaliza aquel del Ejercicio 14, a saber el caso

f (S) = exp(−1

2(λ2 + µ2)

).

* Ejercicio 16

Parte ISea p(S) = αa2 + βb2 + γc2 una forma cuadratica (polinomio cuadratico homogeneo) en las

entradas de S (donde los coeficientes α, β, γ son reales y fijos). Demuestre que p(S) dependesolamente de los eigenvalores λ, µ de S si y solamente si α = γ = β/2 (es decir, si y solo sip(S) es proporcional a a2 + 2b2 + c2 = Tr(S2)).

Parte IIDemuestre que, entre todas las maneras de elegir las entradas a, b, c de la matriz S co-

mo variables gaussianas independientes, la distribucion de S sera ortogonalmente invarianteexactamente cuando la varianza de b sea igual a la mitad de las varianzas de a y c.

(Esta parte del ejercicio justifica perfectamente la definicion dada de GOE(2).)

** Parte IIIConsidere ahora una forma cuadratica definida positiva pero no necesariamente diagonal:

p(a, b, c) = αa2 + βb2 + γc2 + δab + εac + ζbc.

Ella determina una distribucion gaussiana conjunta de las entradas a, b, c mediante la f.d.p.f (a, b, c) = exp(−p(a, b, c)), con la diferencia de que las entradas ya no son necesariamenteindependientes. ¿Bajo que condiciones sera la distribucion de la matriz S ortogonalmenteinvariante en este caso?

Ejercicio Importante 17

Page 13: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 13

Sean G = SO(2) (con matrices parametrizadas por un angulo θ ∈ [0, 2π) como en (28)) y Lel conjunto de matrices diagonales 2× 2 reales:

(33) L =

(λ 00 µ

)∣∣∣∣ (λ, µ) ∈ R2⊂ GOE(2).

Considere la funcionF : G × L → GOE(2)

(Q, Λ) 7→ S = QΛQT.(34)

Parte IEscriba la funcion F (Q, Λ) = S =

(a bb c

)explıcitamente en terminos de los parametros

θ, λ, µ, es decir, encuentre las funciones f , g, h tales que F tiene la forma

a = f (θ, λ, µ)

b = g(θ, λ, µ)

c = h(θ, λ, µ).

** Parte IIDemuestre que

(35) JacF (θ, µ, λ) =

∣∣∣∣∣∣∣∂a∂θ

∂a∂λ

∂a∂µ

∂b∂θ

∂b∂λ

∂b∂µ

∂c∂θ

∂c∂λ

∂c∂µ

∣∣∣∣∣∣∣ = |µ− λ| .

Sea

L′ =(

λ 00 µ

)∣∣∣∣ λ 6= µ

⊂ L.

Se sigue de la Ecuacion (34) que la restriccion a G × L′ de F es un difeomorfismo local cuyorango claramente es el conjunto GOE(2)′ que consiste de las matrices S ∈ GOE(2) cuyoseigenvalores son distintos.

Ejercicio 18

* Parte IDemuestre que la funcion F : G × L′ → GOE(2)′ es 4-a-1: a saber,

F (θ, λ, µ) = F (θ + π/2, µ, λ) = F (θ + π, λ, µ) = F (θ + 3π/2, µ, λ)

son las unicas posibles igualdades entre valores de F .

Parte IISi S ∈ GOE(2) tiene eigenvalores λ = µ, demuestre que S = λI es un multiplo de la matriz

identidad y describa la imagen inversa F−1(S). Observe en particular que F−1(S) contieneinfinitos pares de matrices (Q, Λ).

Page 14: Ema Problem As

14 EDUARDO DUENEZ GUZMAN

* Ejercicio Importante 19Si consideramos una matriz aleatoria S ∈ GOE(2) como una variable aleatoria definida

en G × L (mediante la funcion F , claro esta), demuestre que la f.d.p. de S con respecto a lamedida dθ dλ dµ de G × L es

(36) fS(θ, λ, µ) =1

8√

π3|µ− λ| exp

(−1

2(λ2 + µ2)

).

Note que la constante 18√

π3 difiere por division por 4 de la constante 12√

π3 en la f.d.p. (26).Esto se debe a que la funcion F es genericamente 4-a-1 (la parte III del Ejercicio 4 explica estefenomeno).

** Ejercicio 20Verifique por calculo directo que fS(θ, λ, µ) de (36) es una f.d.p. con respecto a la medida

dθ dλ dµ de G × L:

(37)∫ ∞

−∞

∫ ∞

−∞

∫ 2π

0

1

8√

π3|µ− λ| exp

(−1

2(λ2 + µ2)

)dθ dλ dµ = 1.

* Ejercicio 21Demuestre que la medida dθ en G = SO(2) es (bi)invariante en el siguiente sentido:• Para cada matriz ortogonal (fija) Q, la transformacion LQ(A) = QA deja la medida dθ

invariante.• Para cada matriz ortogonal (fija) Q, la transformacion RQ(A) = AQ deja la medida dθ

invariante.(Mas aun, estas propiedades, o incluso una sola de ellas, caracterizan la medida dθ salvo porfactor constante.)

En vista del ejercicio previo, la unica medida de probabilidad (bi)invariante en SO(2) esdθ/(2π).

* Ejercicio 22

Parte IConsidere la f.d.p. (36) de S considerada como funcion de (θ, λ, µ). Demuestre que la inva-

rianza ortogonal de la distribucion de S es equivalente a la ausencia de la variable θ en (36).

Parte IIComo consecuencia de la invarianza ortogonal o directamente de la f.d.p. (36), demuestre

que la variable θ es independiente de las variables λ, µ, aunque las ultimas dos son depen-dientes.

* Ejercicio Fundamental 23

Page 15: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 15

Demuestre que la f.d.p. conjunta de los eigenvalores λ, µ de una matriz aleatoria GOE(2) esla siguiente

(38) eGOE(2)(λ, µ) =1

4√

π|µ− λ| exp

(−1

2(λ2 + µ2)

).

*** Ejercicio 24En el GOE(2), calcule la probabilidad de que ambos eigenvalores sean positivos, es decir,

calcule P[λ > 0 y µ > 0].Sugerencia: La probabilidad buscada es

p :=∫ ∞

0

∫ ∞

0e(λ, µ)dλ dµ =

∫ ∞

0

∫ ∞

0

|µ− λ|4√

πexp

(−1

2(λ2 + µ2)

)dλ dµ

donde e = eGOE(2) es la f.d.p. de los eigenvalues dada por la Ecuacion (38).Como el integrando e(λ, µ) es simetrico en las variables λ, µ,

p = 2∫ ∞

0

∫ µ

0e(λ, µ)dλ dµ =

∫∫H

µ− λ

2√

πexp

(−1

2(λ2 + µ2)

)dλ dµ

donde H es la region (λ, µ) ∈ R2 | 0 ≤ λ ≤ µ < ∞ en forma de cuna infinita.Finalmente,

p =1

2√

π

∫∫H

µ exp(−1

2(λ2 + µ2)

)e(λ, µ)dµ dλ− 1

2√

π

∫∫H

λ exp(−1

2(λ2 + µ2)

)dλ dµ.

Ejecute cada una de las integrales dobles por integracion iterada en el orden indicado.(Respuesta: La probabilidad es igual a 2−

√2

4 ≈ 15 %.)

** Ejercicio 25La funcion de error complementaria Erfc se define ası:

Erfc(x) =1√2π

(∫ x

−∞+∫ ∞

x

)exp(−u2/2) du =

2√2π

∫ ∞

xexp(−u2/2) du.

Solamente en terminos de la funcion de error complementaria, exprese la probabilidad de queuna matriz aleatoria S en GOE(2) tenga ambos eigenvalores en el intervalo [a, b].

* Ejercicio 26Use la formula (38) para encontrar la f.d.p. de la variable aleatoria “hueco” ν = |µ− λ|.

** Ejercicio 27Calcule la “media huecal” E[ν]. (Vea el ejercicio previo.)

Page 16: Ema Problem As

16 EDUARDO DUENEZ GUZMAN

* Ejercicio 28Usando la f.d.p. de eigenvalores (λ, µ) encuentre la moda conjunta (λmod, µmod) donde la

f.d.p. es maximizada. Compare la distancia |λmod − µmod| con el resultado del Ejercicio previo.

Definicion 16. La 1-densidad de eigenvalores de GOE2 se define como

(39) ρ(λ) = 2∫ ∞

−∞e(λ, µ)dµ.

Note que esta es basicamente la f.d.p. de la variable λ (marginal con respecto a µ), salvo porel hecho de que su integral total es igual a 2 y no a 1 (esta eleccion se hace debido a que unamatriz GOE(2) tiene 2 eigenvalores, lo cual se explicara mejor posteriormente).

Ejercicio 29Encuentre una formula para la 1-densidad de eigenvalores ρ(λ) en terminos de la Erfc.

3. Interludio: Formas Diferenciales

Recomendamos al lector que no se entretenga mucho leyendo esta seccion, sino que la usecomo referencia basica segun le haga falta para entender las manipulaciones y cambios devariables que seran necesarios para estudiar las distribuciones de probabilidad en las familiasgaussianas y circulares, empezando con el GOE(N) en la seccion 4.

Las formas diferenciales son sumamente utiles como herramientas para describir distribu-ciones (medidas) de probabilidad en espacios suaves tales como las familias de matrices alea-torias que nos atanen en este documento, y especialmente para describir las transformacionespullback de tales medidas de probabilidad bajo funciones diferenciales.

Tratar formas diferenciales de manera rigurosa nos desviarıa considerablemente del temade matrices aleatorias, por lo cual adoptaremos una perspectiva eminentemente pragmatica yminimalista, confiando en que le baste al lector para realizar calculos practicos (en particularpullbacks, tambien llamados cambios de variables). Nuestra recomendacion es consultar [Fla89]y [Spi65] para abordar el tema desde la perspectiva correcta.

Convencion 17. En esta seccion, sean X ⊂ RM, Y ⊂ RN, Z ⊂ RP subconjuntos suaves(variedades diferenciales). Un caso particular muy importante es aquel en que, digamos, Xtiene dimension M, es decir, X ⊂ RM es un conjunto abierto. Otro caso importante es aquelen el cual, digamos, Y ⊂ MatN1×N2(R) ' RN1N2 : aquı denotaremos a elementos y ∈ Y comomatrices en lugar de N1N2-adas (vectores), lo cual es infinitamente mas conveniente paranuestros propositos.

Definicion 18. El conjunto de todas las funciones infinitamente diferenciables f : X → R sedenotara por D(X ) o simplemente por D cuando X sea claro. Una tal funcion diferenciablese llamara una 0-forma diferencial en X .

Definicion 19. Una 1-forma diferencial exacta (estandar) en X es una de las expresiones dx1, dx2,. . . , dxM.

Una 1-forma diferencial es una D-combinacion lineal formal de 1-formas exactas, es decir, una1-forma diferencial es tal como

ω =M

∑j=1

f j(x)dxj, f1, f2, . . . fM ∈ D(X ).

Page 17: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 17

Comentario 20. Eventualmente habremos de considerar formas diferenciales con coeficientescomplejos, es decir, obtenidas como combinaciones lineales de 1-formas exactas con coefi-cientes en el conjunto DC de funciones diferenciables f : X → C. Ello difıcilmente introdu-cira cambio alguno.

Definicion 21. El producto cuna de dos 1-formas exactas dxj y dxk es la expresion formaldxj ∧ dxk, la cual definimos como una 2-forma diferencial exacta (estandar) en X . Por definicion,el producto cuna es alternante en 1-formas (exactas): dxk ∧ dxj = −dxj ∧ dxk. En particular,dxj ∧ dxj = 0.

Una 2-forma diferencial en X es una D-combinacion lineal formal θ = ∑j,k f jk(x)dxj ∧ dxkde 2-formas diferenciales exactas. (Sin perdida de generalidad, por alternancia, basta formarcombinaciones lineales de las formas dxj ∧ dxk con 1 ≤ j < k ≤ M.)

El producto cuna de dos 1-formas ω = ∑ f j dxj y v = ∑k gk dxk se define extendiendo ladefinicion de ∧ de manera D-bilineal:

ω ∧v = ∑j,k

f j(x)gk(x)dxj ∧ dxk.

La definicion del producto cuna se extiende de manera analoga para definir 3-formas, 4-formas, . . . , M-formas diferencialesh partiendo de las formas exactas estandares de tal maneraque el producto cuna de una m-forma y una n-forma es una (m + n)-forma, definida exten-diendo D-bilinealmente la definicion

(dxj1 ∧ · · · ∧ dxjm) ∧ (dxjm+1 ∧ · · · ∧ dxjm+n) = dxj1 ∧ · · · ∧ dxjm+n

para el producto cuna de m- y n-formas diferenciales exactas.Con tales definiciones, el producto cuna es asociativo: ϑ ∧ (ϕ ∧v) = (ϑ ∧ ϕ) ∧v y satisface

la regla de alternacion generalizada

ω ∧v = (−1)mnv ∧ω

para toda m-forma ω y n-forma v. (Por definicion, f ∧ω = f ω = ω ∧ f si f es una 0-forma.)

Notacion 22. Si ω1, ω2, . . . , ωn son formas diferenciales en X , definimosn∧

j=1

ωj como ω1 ∧ω2 ∧ · · · ∧ωn.

Definicion 23. Sea F : X → Y una funcion diferenciable entre espacios suaves X ⊂ RM yY ⊂ RN; se sigue que F = (F1, . . . , FN) para ciertas Fj ∈ D(X ). Por simplicidad, asumiremosque F (es decir, cada una de las funciones componentes Fj) esta definida en un subconjuntoabierto de RM que contiene a X , de manera que las derivadas parciales ∂Fj/∂xk estan definidasen cada punto x ∈ X .

Si f ∈ D(Y) es una 0-forma en Y , definimos la 0-forma pullback F ∗ f := f F ∈ D(X ), esdecir, (F ∗ f )(x) = f (F (x)) = f (F1(x), F2(x), . . . , FN(x)).

Si ω es una 1-forma exacta ω = dyj en Y , entonces la 1-forma pullback F ∗(ω) en X se definediferenciando formalmente la funcion yj = Fj(x) de la siguiente manera:

F ∗(dyj) = dFj(x) = ∑i

∂Fj(x)∂xk

dxk.

La definicion de pullback se extiende primero a 1-formas diferenciales generales, y despues atodas las n-formas diferenciales por D(Y)-bilinealidad, declarando simplemente que F ∗(ω ∧

hLa alternancia del producto cuna implica que toda n-forma para n > M es necesariamente nula.

Page 18: Ema Problem As

18 EDUARDO DUENEZ GUZMAN

v) = (F ∗ω) ∧ (F ∗v) para cualquier m-forma ω y n-forma v para m, n ≥ 0. Observe que elpullback de una n-forma es siempre una n-forma.

Comentario 24. Es extremadamente comun obviar la operacion de pullback F ∗ y, abusandonotacion, escribir

dyj = ∑k

∂yj

∂xkdxk

cuando yj = Fj(x).

Definicion 25. Adoptaremos una definicion no completamente estandar. En la situacion de laDefinicion 23, definiremos el N-vector de 1-formas

dF (x) = (dF1, dF2, . . . , dFN).

De hecho, si F : X → Y ⊂ MatN1×N2(R), entonces

dF =(dFjk

)denotara la matriz N1 × N2 de 1-formas diferenciales de las componentes Fjk de F .

Proposicion 26. Si F : X → Y yH : Y → Z son diferenciables, y si ω es una forma diferencialen Z , entonces

(40) (H F )∗ω = F ∗(H∗ω).

En particular, para la 1-forma dz` en Z se tiene (obviando los pullbacks respectivos):

dz` = ∑j,k

∂z`∂yk

∂yk∂xj

dxj.

* Ejercicio 30Demuestre la Proposicion 26. (En realidad, es una reformulacion de la regla de la cadena!)

3.1. Integracion de Formas Diferenciales. La integral de una M-forma ω sobre un subcon-junto abierto X ⊂ RM se define de la manera obvia. A saber, ω es necesariamente de la formaf (x)dx donde dx es la M-forma estandar

dx =M∧

j=1

dxj

y definimos ∫X

ω =∫X

f (x)dx1 dx2 . . . dxM

de la manera usual (integracion de Riemann).Suponga ahora que X ⊂ RM tiene dimension n. Vagamente hablando, esto significa queX (o al menos alguna vecindad Xx de cada punto x ∈ X ) puede parametrizarse medianteun difeomorfismo Φ : U → X definido en un subconjunto abierto U ⊂ Rn. Sea ahora ω unan-forma diferencial en X . Definimos la integral de ω sobre X vıa pullback de la manera natural:

(41)∫X

ω =∫

UΦ∗ω.

Comentario 27. Note que solamente tiene sentido integrar una n-forma sobre X de dimen-sion n.

Page 19: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 19

* Ejercicio 31La definicion de integral de una forma diferencial dada por la Ecuacion 41 es independiente

de la parametrizacion Φ.(Use la Proposicion 26).

Nuestra aplicacion principal de formas diferenciales es para definir elementos de volumen.

Definicion 28. Si X ⊂ RM es orientable de dimension n, entonces un elemento (o diferencial)de volumen (o elemento/diferencial de longitud si n = 1, o elemento/diferencial de area si n = 2) essimplemente una n-forma υ (normalmente denotada d volX ) que no se anula en ningun puntode X . Esto significa que, dada una parametrizacion Φ : U → X , se tiene Φ∗υ = Φ∗(d volX ) =h(u)d vol(u) para cierta h ∈ D(U) que no se anula en U, donde d vol(u) =

∧nj=1 duj es la

forma de volumen estandar en U.Una n-forma de probabilidad en X es una n-forma diferencial ωX tal que ωX = f (x)d volX (x)

con f (x) ≥ 0 en X (informalmente hablando, ωX es un “multiplo no negativo” del elementode volumen d volX ). En este caso, f (x) es la f.d.p. de la variable aleatoria X en X , con respectoal elemento de volumen d volX .

Un elemento de volumen υ en X define una medida en X ; a saber, si A ⊂ X es un conjuntomedible (por ejemplo, un subconjunto abierto de X ) entonces la medida (volumen) de A conrespecto a υ se define como

(42) volυ(A) = υ(A) =∫

Aυ,

es decir, vol(A) =∫

U Φ∗υ para cualquier parametrizacion (positiva) Φ : U → A. Sin embargo,observe que volυ no es necesariamente una medida de probabilidad en X (piense en el ejemplode la medida de longitud d` = dx en la recta real: se tiene `(R) = ∞).

Finalmente, si ω es una forma diferencial de probabilidad en X , la expresion

Pω(A) = ω(A) =∫

Aω,

es una medida de probabilidad en subconjuntos medibles (eventos) A ⊂ X .

Ejercicio 32En la Definicion 28 de elemento de volumen, verifique que la no anulacion de h(x) en X no

depende de la parametrizacion Φ elegida.

Convencion 29. En adelante, cuando υ sea un elemento de volumen en X siempre utilizaremosparametrizaciones positivas Φ : U → X en el siguiente sentido: Φ∗υ = h(u)d volU donde h espositiva en U.

Comentario 30. Hemos asumido que X es orientable, lo cual es suficiente para nuestrospropositos. Sin embargo, con un poco mas de cuidado es posible dar una definicion de elemen-to de volumen y de forma diferencial de probabilidad aplicables en espacios no orientables(por ejemplo, cualquier variedad Riemanniana, sea o no orientable, y en particular cualquiervariedad suave en RN, posee un elemento de volumen natural).

Comentario 31. Normalmente, una forma de volumen no se define de manera tan generalcomo hemos hecho en la Definicion 28. Especıficamente, si el espacio X es un grupo, o al

Page 20: Ema Problem As

20 EDUARDO DUENEZ GUZMAN

menos admite una accion natural de cierto grupo, una medida de volumen υ en X gene-ralmente se elige de forma que sea invariante bajo el grupo de transformaciones. Si X es ungrupo localmente compacto la teorıa de Haar asegura la existencia de una medida, unica salvopor multiplicacion por factor constante, que es invariante bajo la accion multiplicativa (“portraslaciones”) izquierda (o derecha, pero no necesariamente ambas) de X en sı mismo. Si Xes un grupo compacto, sı existe necesariamente una medida invariante tanto bajo traslacio-nes izquierdas como derechas. Si X es un espacio suave (variedad diferenciable), entonces talmedida tiene asociada una forma diferencial de volumen en el sentido arriba expuesto.

Comentario 32. Cabe resaltar que existe una definicion de f.d.p. de variables aleatorias ab-solutamente continuas como “derivadas de Radon-Nikodym” relativas a una medida fija; taldefinicion no depende de hipotesis alguna de diferenciabilidad. Sin embargo, el caso diferen-ciable es ampliamente adecuado para nuestros propositos, sobre todo para efectuar calculosexplıcitos de f.d.p.’s.

4. Familia Gaussiana Ortogonal: GOE

Definicion 33. La familia gaussiana ortogonal GOE (“Gaussian Orthogonal Ensemble”) consiste,para cada N = 1, 2, 3, . . . , del conjunto GOE(N) de todas las matrices reales simetricas de N×N:

(43) GOE(N) =

S ∈ Mat

N×N(R) | S = ST

.

Las entradas xjk de una matriz S ∈ GOE(N) para 1 ≤ j < k ≤ N son variables gaussianas devarianza σ2 = 1/2, mientras que xkj = xjk (simetrıa). Asimismo, las entradas diagonales xjj

para 1 ≤ j ≤ N son gaussianas de varianza σ2 = 1. Todas las entradas son independientes.

Tomaremos el elemento de volumen natural en GOE(N) obtenido al tomar el producto cunade las diferenciales de las entradas independientes de S:

d volGOE(N) =∧j≤k

(dS) :=∧

1≤j≤k≤N

dxjk

= dx11 dx12 . . . dx1N dx22 dx23 . . . d2N dx33 . . . dx3N . . . . . . dxN−1,N−1dxN−1,NdxNN.

(44)

(Note que este elemento de volumen no es el elemento de volumen obtenido mediante elencaje de GOE(N) en el espacio ambiente MatN×N(R). En este caso se tendrıa d volGOE(N) =

2N(N−1)/4∧j≤k dxjk, el cual es un elemento de volumen mas natural desde un punto de vista

teorico.)

Ejercicio 33Muestre que la f.d.p. de GOE(N) esta dada por

(45) fGOE(N)(S) = ∏1≤j<k≤N

1√π

exp(−x2jk) ∏

1≤j≤N

1√2π

exp(−1

2x2

jj

).

* Ejercicio 34

Page 21: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 21

Muestre que

fGOE(N)(S) =1

CGOE(N)exp

(− ∑

1≤j<k≤Nx2

jk −12

N

∑j=1

x2jj

)

=1

CGOE(N)exp

(−1

2

N

∑j=1

N

∑k=1

x2jk

)

=1

CGOE(N)exp

(−1

2Tr(S2)

).

(46)

donde

(47) CGOE(N) = 2N/2πN(N+1)/4.

Concluya que la f.d.p. de GOE(N) depende solamente de los eigenvalores de S.

Usando el lenguaje de formas diferenciales, la forma diferencial de probabilidad en GOE(N)es

(48) ωGOE(N) =1

CGOE(N)exp

(−1

2Tr(S2)

)d volGOE(N) .

Una manera muy precisa de entender la dependencia de las coordenadas qjk de matricesQ ∈ G es mediante formas diferenciales, como se explica a continuacion.

Ejercicio 35

Parte IDiferencie la identidad QTQ = IN para obtener (dQ)TQ + QT(dQ) = 0N.

Parte IIConcluya que la matriz de diferenciales QTdQ es antisimetrica, es decir, las formas diferen-

ciales

(49) ωjk = (QTdQ)jk = q1j dq1k + q2j dq2k + · · ·+ qNj dqNk

satisfaceni

ωkj = −ωjk.

Comentario 34. El ejercicio previo admite una interpretacion geometrica notable: el “espa-cio tangente” al grupo de Lie O(N) en una matriz Q fija consiste de aquellas matrices Q ∈MatN×N(R) tales que QTQ+QTQ = 0N. En particular, el espacio tangente so(N) al grupode Lie SO(N)j en la matriz identidad Q = IN, conocido como el grupo de Lie so(N), consisteexactamente de las matrices Q tales que

(50) QT +Q = 0N,

iConfiamos en que el lector reconozca que la relacion ωkj = −ωjk es falsa cuando ωjk se interpreta como unaforma diferencial en el espacio ambiente MatN×N(R). De hecho, las N2 formas ωjk son linealmente independien-tes en MatN×N(R), como es sencillo verificar.

jso(N) es tambien el espacio de matrices tangentes a O(N) en IN : Las matrices cercanas a IN en O(N) necesa-riamente estan en SO(N).

Page 22: Ema Problem As

22 EDUARDO DUENEZ GUZMAN

es decir, de las matrices antisimetricas reales N × N. Esto sugiere (y no es difıcil completar elargumento para obtener una demostracion) que so(N), y por tanto SO(N), tiene dimension0 + 1 + 2 + · · · + (N − 1) = N(N − 1)/2. Por tanto, genericamente bastan N(N − 1)/2 delas entradas de una matriz Q ∈ O(N) (o SO(N)) para determinar a Q completamente, ycualquier parametrizacion fidedigna de (algun subconjunto abierto de) SO(N) requiere N(N−1)/2 parametros. Toda matriz Q ∈ SO(N) que sea suficientemente cercana a IN (en cualquiersentido razonable, por ejemplo si cada una de las entradas qjk de Q es cercana a δjk) quedacompletamente determinada por sus N(N− 1)/2 entradas en la parte estrictamente triangularsuperior (o inferior).

Notacion 35. A lo largo de esta seccion, sea L el conjunto de matrices diagonales N×N reales:

(51) L =

diag(λ1, λ2, . . . , λN)|(λ1, λ2, . . . , λN) ∈ RN⊂ GOE(N),

y sea L′ ⊂ L el subconjunto consistente de las matrices con eigenvalores distintos (dos a dos).Naturalmente parametrizaremos a Lmediante vectores de coordenadas

−→λ = (λ1, λ2, . . . , λN) ∈

RN.Usaremos el elemento de volumen natural en L:

(52) d volL(Λ) =∧jj

(dΛ) :=N∧

j=1

dλj = dλ1 dλ2 . . . dλN.

Es importante observar que L \ L′ tiene medida cero con respecto a d volL. Desde un puntode vista probabilıstico, L y L′ son indistinguibles.

** Ejercicio 36Demuestre que toda matriz real simetrica es ortogonalmente diagonalizable: Para toda S ∈

GOE(N) existen:• una matriz real diagonal

Λ = diag(λ1, λ2, . . . , λN);

• una matriz ortogonal real Q ∈ O(N);tales que

(53) S = QΛQT.

Demuestre que, de hecho, siempre es posible elegir Q ∈ SO(N).

Ejercicio 37Sea A ∈ MatN×N(R) fija.

** Parte IDemuestre que la funcion

(54) S′ = adA(S) = ASAT

es una transformacion lineal de GOE(N) en sı mismo con determinante

(55) det(adA) = (det A)N+1.

Parte II Si

Page 23: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 23

A es invertible, demuestre que (adA)−1 = adA−1 .

Parte IIIDemuestre que adAB = adA adB.

Ejercicio Importante 38Demuestre que la distribucion de matrices aleatorias GOE(N) es invariante bajo simili-

tudes ortogonales generalizando el ejercicio 14, es decir, para cada matriz fija Q ∈ O(N),la distribucion de la matriz aleatoria S es preservada por la transformacion de similitudS′ = adQ(S) = QSQT (la cual es un difeomorfismo lineal de GOE(N) en GOE(N) por elEjercicio 37)

Denotemos por xjk las entradas de S (con xkj = xjk, naturalmente) y por −→x al vector cuyasentradas son las xjk con 1 ≤ j ≤ k ≤ N, las cuales parametrizan a S. Similarmente, lasentradas de S′ son ujk para 0 ≤ j, k ≤ N, parametrizadas por −→u , el vector con entradas ujk con0 ≤ j ≤ k ≤ N.

Parte ICalcule el jacobiano de la transformacion S′ = adQ(S):

(56) Jac(S) = Jac(−→x ) =∂−→u∂−→x

=

∣∣∣∣ detN×N

(∂uj

∂xk

)∣∣∣∣ .

(Utilize la formula (82) y el Ejercicio 7.)

Parte IIConcluya la demostracion de que S′ tiene la misma distribucion que S, es decir,

fGOE(N)(TQ(S)) Jac(S) = fGOE(N)(S).

En terminos de formas diferenciales: el pullback de la forma diferencial (48) bajo la transfor-macion (30) es la misma forma. Mas precisamente,k∧

j<k

(Q dS QT) =∧j<k

(dS).

* Ejercicio 39Generalize el Ejercicio 15: Si el conjunto de matrices reales simetricas N × N tiene cual-

quier distribucion absolutamente continua con densidad f (S), demuestre que f (S) dependesolamente del conjunto (no ordenado) de eigenvalores λj1≤j≤N de S

ortogonales.

* Ejercicio 40En la notacion de la Ecuacion (49), demuestre que la formula

(57) d volSO(N) =∧

1≤j<k≤N

(QTdQ)jk =∧

1≤j<k≤N

ωjk

kSalvo, posiblemente, por signo: La transformacion TQ puede invertir la orientacion de GOE(N)

Page 24: Ema Problem As

24 EDUARDO DUENEZ GUZMAN

define un elemento de volumen en SO(N) que es invariante bajo traslaciones izquierdas yderechas.

(De hecho, d volSO(N) ası definido es exactamente 2−N(N−1)/4 veces el elemento de volumende SO(N) naturalmente encajado en MatN×N(R), mas por conveniencia usaremos d volSO(N)

definido por la ecuacion (57).)(Primero observe que, cuando Q = IN, la forma diferencial en el lado derecho de (57) es

una forma de volumen en el espacio so(N) de matrices reales antisimetricas, de hecho, es2−N(N−1)/4 veces el elemento de volumen en el subespacio so(N) ⊂ MatN×N(R). A continua-cion observe que, para Qo ∈ SO(N) fija, tanto la traslacion izquierda LQo : Q 7→ QoQ comola derecha RQo : Q 7→ QQo dejan d volSO(N) invariante. Para LQo este hecho es esencialmenteinmediato, mientras que para RQo la invarianza se sigue de los Ejercicios 37 o 38.

* Ejercicio 41Generalize el Ejercicio 16 al caso del GOE(N).

Parte ISea

p(S) = p(−→x ) = ∑1≤j≤k≤N

αjkx2jk

una forma cuadratica diagonal (polinomio cuadratico homogeneo “sin terminos cruzados”)en las entradas de S. Demuestre que p(S) depende solamente de los eigenvalores λjN

j=1 de Ssi y solamente si α = γ = β/2, es decir, si y solo si p(S) es proporcional a

Tr(S2) = ∑1≤j≤k≤N

(2− δjk)x2jk.

(El sımbolo δjk es la funcion delta de Kronecker, es decir, la entrada jk de la matriz identidad IN.)

Parte IIDemuestre que, entre todas las maneras de elegir las entradas xjk de la matriz S como va-

riables gaussianas independientes, la distribucion de S sera ortogonalmente invariante exac-tamente cuando todas las entradas diagonales xjj tengan la misma varianza, igual al doble dela varianza de todas y cada una de las entradas no diagonales xjk (0 ≤ j < k ≤ N).

** Parte IIIConsidere ahora una forma cuadratica definida positiva pero no necesariamente diagonal

p(−→x ). Ella determina una distribucion gaussiana conjunta de las entradas−→x mediante la f.d.p.f (S) = f (−→x ) = exp(−p(−→x )), con la diferencia de que las entradas ya no son necesariamenteindependientes. ¿Bajo que condiciones sera la distribucion de la matriz S ortogonalmenteinvariante en este caso?

Considere la funcionF : SO(N)×L → GOE(N)

(Q, Λ) 7→ S = QΛQT,(58)

que usaremos para parametrizar a GOE(N). (Desde luego esta no es una parametrizacion enel sentido estricto, no solo porque SO(N)×L no es un subconjunto abierto de algun RM, sinoasimismo porque F no es inyectiva, como demuestra el siguiente ejercicio.)

Page 25: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 25

* Ejercicio 42Demuestre que la restriccion de F al conjunto SO(N) × L′ ⊂ SO(N) × L es una funcion

m-a-1 donde m = 2N−1N!.(Sugerencia: Se tiene F (Q, Λ) = F (Q′, Λ′) en cualquiera de los dos casos siguientes: (1) Si

las entradas diagonales de Λ y Λ′ son iguales, salvo por permutacion, y las columnas de Qson las mismas que las de Q′, salvo por la misma permutacion; (2) si Q y Q′ tienen las mismasfilas salvo por signo.)

Ejercicio Esencial 43Calcule el jacobiano de la parametrizacion (116) de GOE(N). (Siga leyendo si desea ver la

respuesta y recibir ayuda detallada.)Especıficamente, sean d volGOE, d volSO(N) y d volL las formas de volumen en GOE(N),

SO(N) y L. Entonces (d volSO(N)) ∧ (d volL) es una forma de volumen en SO(N) × L y eljacobiano deseado es Jac(Q, Λ), caracterizado por la identidad

(59) ±F ∗(d volGOE(N)) = Jac(Q, Λ)d volSO(N) d volL .

Las partes siguientes presentan una demostracion de la formula

(60) Jac(Q, Λ) = Jac(Q,−→λ ) = ∏

1≤j<k≤N

∣∣λk − λj∣∣ .

(Vale observar la independencia del jacobiano de la variable Q ∈ SO(N), lo cual es consecuen-cia de la invarianza ortogonal de d volGOE(N). Cf., Ejercicio 38.)

Parte IComience diferenciando S = QΛQT para obtener

dS = (dQ)ΛQT + QΛ(dQ)T + Q(dΛ)QT.

* Parte IIConjugue la identidad previa y utilice la parte I del Ejercicio 35 para obtener:

QT(dS)Q = (QT dQ)Λ−Λ(QTdQ) + dΛ.

** Parte IIITome el producto cuna de las entradas j ≤ k en las matrices de diferenciales en ambos

miembros de la igualdad previa. En el lado izquierdo obtenemos∧

j≤k(QT dS Q) =∧

j≤k(dS)por la parte II del Ejercicio 38. En el derecho, la j-esima entrada diagonal es dλj, y la jk-esimaentrada es precisamente (λk − λj)ωjk si j < k con ωjk dada por la Ecuacion (49). Por tanto, elproducto cuna sobre j ≤ k de tales entradas es

∏j<k

(λk − λj)d volSO(N) d volL,

de donde la conclusion deseada se sigue inmediatamente.

* Ejercicio Esencial 44

Page 26: Ema Problem As

26 EDUARDO DUENEZ GUZMAN

Considere una matriz aleatoria S ∈ GOE(N) como definida en SO(N) × L a traves de lafuncion S = F (Q, Λ) = QΛQT. Demuestre que la f.d.p. de S con respecto a la medida devolumen d volSO(N) d volL esta dada por

(61) f (Q, Λ) =1

C′GOE(N)∏

1≤j<k≤N

∣∣λk − λj∣∣ exp

(−1

2

N

∑j=1

λ2j

),

donde

(62) C′GOE(N) = 2N−1N! CGOE(N) = 2(3N−2)/2πN(N+1)/4N!.

Ejercicio Esencial 45

Obtenga la f.d.p. eGOE(N)(−→λ ) de los eigenvalores

−→λ = (λ1, λ2, . . . , λN) de una matriz alea-

toria GOE(N).Para ser especıficos, considere (Q, Λ) conjuntamente distribuidas con f.d.p. dada por la

Ecuacion (61). Entonces

eGOE(N)(−→λ ) =

∫SO(N)

f (Q, Λ)d volSO(N)(Q)

(donde Λ = diag(−→λ )) es simplemente la marginal de f (Q, Λ) con respecto a Q.

Como f (Q, Λ) no depende de Q, de hecho se tiene

eGOE(N)(−→λ ) = vol(SO(N)) f (IN, Λ)

=vol(SO(N))

C′GOE(N)∏

1≤j<k≤N

∣∣λk − λj∣∣ exp

(−1

2

N

∑j=1

λ2j

)

=1

κGOE(N)∏

1≤j<k≤N

∣∣λk − λj∣∣ exp

(−1

2

N

∑j=1

λ2j

),

(63)

donde

(64) κGOE(N) =C′GOE(N)

vol(SO(N))=∫

RN ∏1≤j<k≤N

∣∣λk − λj∣∣ exp

(−1

2

N

∑j=1

λ2j

)d vol(

−→λ )

es (el recıproco de) la constante de normalizacion necesaria para que eGOE(N) sea una f.d.p.(Un calculo, difıcil y bastante laborioso, de vol(SO(N)) permitirıa, en este momento, en-

contrar el valor exacto de κGOE(N). Afortunadamente, existen otros metodos para calcular estaconstante de normalizacion, conocida tambien como la “funcion de particion”. En realidad, suvalor exacto tiene poca utilidad para nuestros propositos.)

5. Familia Gaussiana Unitaria GUE

Comentario 36. Usando la notacion estandar z = x + iy (donde i =√−1), C tiene la medida

de aread Area(z) = d<(z)d=(z) = dx dy.

Page 27: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 27

Definicion 37. Una variable compleja Z = X + iY es gaussiana compleja de varianza σ2 si suspartes real X e imaginaria Y son variables gaussianas reales independientes con varianza σ2/2cada una.

Ejercicio 46Demuestre que la f.d.p. de una variable compleja Z con varianza σ2, relativa a d Area(z), es

la siguiente:

fZ(z) =1

πσ2 exp

(−|z|

2

σ2

)

fZ(x + iy) =1

πσ2 exp(−x2 + y2

σ2

).

(65)

* Ejercicio 47Demuestre que una variable compleja Z con varianza σ2 (de acuerdo con la Definicion 37)

efectivamente tiene varianza σ2, es decirl, E[|Z|2] = σ2.

Definicion 38. La familia gaussiana unitaria GUE (“Gaussian Unitary Ensemble”) consiste, paracada N = 1, 2, 3, . . . , del conjunto GUE(N) de todas las matrices complejas hermitianas de N ×N. Denotando por S† la transpuesta conjugada de una matriz compleja S:

(66) GUE(N) =

S ∈ Mat

N×N(C) | S† = S

.

Las entradas zjk = xjk + iyjk de una matriz S ∈ GUE(N) para 1 ≤ j < k ≤ N son variablesgaussianas complejas de varianza σ2 = 1/2, mientras que zkj = zjk (es decir, xkj = xjk y ykj =−yjk). Asimismo, las entradas diagonales zjj = xjj para 1 ≤ j ≤ N son gaussianas reales devarianza σ2 = 1/2. Todas las entradas son independientes.

Ejercicio 48Demuestre que toda matriz hermitiana es de la forma S = X + iY para matrices reales X,

Y tales que X es simetrica y Y antisimetrica. Deduzca que la dimension de GUE(N) (comoespacio vectorial real) es igual a N2. (Note que GUE(N) no es un espacio vectorial complejo.)

Definicion 39. Adoptaremos como elemento de volumen estandar en GUE(N) a:

(67) d volGUE(N)(S) =∧

1≤j≤k≤N

dxjk∧

1≤j<k≤N

dyjk.

(El cual es 2−N(N−1)/2 veces el elemento de volumen inducido por la inclusion GUE(N) ⊂MatN×N(C).)

lEs bastante claro (invitamos al lector a verificarlo de serle necesario) que una variable compleja gaussianadada por la Definicion 37 tiene media µ = E[Z] = 0 ∈ C.

Page 28: Ema Problem As

28 EDUARDO DUENEZ GUZMAN

Notacion 40. Durante esta seccion adoptaremos la siguiente conveniente notacion: Si Ω esuna matriz hermitiana N × N de formas diferenciales complejas ωjk (vea el comentario 20),entonces

(68)∧≤<

Ω :=∧

1≤j≤k≤N

<ωjk∧

1≤j<k≤N

=ωjk.

Asimismo, definimos

(69)∧<≤

Ω :=∧

1≤j<k≤N

<ωjk∧

1≤j≤k≤N

=ωjk.

Combinando la Definicion 25 con la notacion de la Ecuacion (68), el elemento de volumen deGUE(N) es

d volGUE(N)(S) =∧

j≤<k

(dS).

** Meta-Ejercicio 49Siga el modelo de la Seccion 2 y efectue un analisis paralelo de GUE(2). En realidad, los

calculos para GUE(2) son formalmente muy similares a, y ocasionalmente mas sencillos que,aquellos de GOE(2), por lo que este ejercicio probablemente no es demasiado difıcil. Trate almenos las siguientes preguntas:

(1) F.d.p. de GUE(2).(2) Invarianza de distribucion GUE(2) bajo similitudes unitarias (de donde viene el adjeti-

vo “unitario”).(3) Parametrizacion de GUE(2) mediante pares (Q, Λ) donde Q es una matriz unitaria y

Λ es diagonal real.(Aquı hay diferencias sutiles con el caso de GOE(2). La parametrizacion obvia medianteU(2)× L es muy burda, pues es ∞-to-1. Remplazando el grupo unitario U(2) por elgrupo unitario especial SU(2) el defecto persiste. La solucion es no usar el grupo U(2)sino el espacio cociente U(2)/D, donde D es el subgrupo de matrices diagonales.)

(4) F.d.p. conjunta eGUE(2)(λ, µ) de los eigenvalores.(5) La 1-densidad ρ(λ) (marginal de eGUE(2)(λ, µ) con respecto a λ).(6) F.d.p. para la variable “hueco” ∆ = |λ− µ|.(7) Media y moda de ∆.

*** Meta-Ejercicio 50En el espıritu del ejercicio anterior, trate de generalizar tantas propiedades como le sea

posible del caso GOE(N) a GUE(N). (En realidad, muchas de las preguntas se simplificantrabajando con matrices complejas.)

Muchos de los ejercicios siguientes piden respuestas a preguntas particulares que bien cabenen este Meta-Ejercicio.

Ejercicio 51

* Parte IEncuentre formulas para la f.d.p. de GUE(N) en terminos: (1) de las entradas de una matriz

S ∈ GUE(N), y (2) de la traza de S2.

Page 29: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 29

Respuesta:

fGUE(N)(S) =1

CGUE(N)exp

(−2 ∑

j<k(x2

jk + y2jk)−∑

jx2

jj

)

=1

CGUE(N)exp

(−2 ∑

j<k

∣∣zjk∣∣2 −∑

jx2

jj

)

=1

CGUE(N)exp(−Tr(S2))

(70)

donde

(71) CGUE(N) = ∏j<k

π

2·∏

j

√π = 2−N(N−1)/2πN2/2.

Parte IIEncuentre una formula para la forma diferencial de probabilidad ωGUE(N).Respuesta:

(72) ωGUE(N) =1

CGUE(N)exp(−Tr S2)d volGUE(N) .

Definicion 41. Un producto (interno) hermitiano en un espacio vectorial complejo V es unafuncion escalar (“forma”) compleja

V ×V → C

(u, v) 7→ 〈u, v〉(73)

tal que, para todos u, v, w ∈ V y z ∈ C:(1) 〈u, v + zw〉 = 〈u, v〉+ z〈u, w〉.(2) 〈u + zv, w〉 = 〈u, w〉+ z〈v, w〉, donde z es el complejo conjugado de z.(3) 〈v, u〉 = 〈u, v〉.(4) 〈v, v〉 es real y positivo si v 6= 0.

Dos vectores u, v se llaman perpendiculares u ortogonales si 〈u, v〉 = 0. Por (3), esta relacion essimetrica (aunque no reflexiva ni transitiva!).

Definicion 42. La norma euclideana asociada al producto interno hermitiano 〈·, ·〉 es

‖u‖ :=√〈u, u〉.

Un vector se llama unitario o normalizado si su norma euclideana es igual a 1.

Definicion 43. El producto hermitiano estandar del espacio vectorial CN (considerado comoespacio de vectores columna complejos) es

(74) 〈u, v〉 = u†v = ∑j

uj vj.

Ejercicio 52Demuestre que la Ecuacion (74) define un producto hermitiano genuino en CN.

Page 30: Ema Problem As

30 EDUARDO DUENEZ GUZMAN

Definicion 44. El grupo unitario U(N) es el conjunto de todas las matrices complejas N × Ncuyas columnas son vectores ortonormales en CN, es decir vectores unitarios perpendicularesdos a dos con respecto al producto interno (hermitiano) estandar de CN.

El grupo unitario especial es SU(N) := U(N) ∩ SLN(C) (matrices unitarias unimodulares).

Ejercicio 53

Parte IDemuestre que

U(N) = Q ∈ MatN×N

(C) | Q†Q = IN

SU(N) = Q ∈ MatN×N

(C) | Q†Q = IN y det(Q) = 1.

Parte IIDemuestre que, efectivamente, U(N) y SU(N) son grupos de matrices.

** Ejercicio 54

Parte IDemuestre que todo eigenvalor de una matriz unitaria esta en el cırculo unitario

(75) S1 = z ∈ C | |z| = 1.

Parte IIDemuestre que toda matriz unitaria es unitariamente diagonalizable: Para cada Q ∈ U(N)

existen R ∈ U(N) y

(76) ∆ = diag(δ1, δ2, . . . δN) con δj ∈ S1,

tales que

(77) Q = R∆R†.

Ejercicio 55Demuestre que det U ∈ S1 si U ∈ U(N).

** Ejercicio 56Demuestre que toda matriz hermitiana tiene eigenvalores reales y es unitariamente diago-

nalizable. Explıcitamente, para toda S ∈ GUE(N) existen:• una matriz real diagonal

Λ = diag(λ1, λ2, . . . , λN) ∈ L(con L como en la Ecuacion (51));• una matriz unitaria Q ∈ U(N);

Page 31: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 31

tales que

(78) S = QΛQ†.

Ejercicio 57

Parte IDemuestre que la matriz de diferenciales dQ de una matriz Q ∈ U(N) satisface:

(79) (dQ)†Q = −Q† dQ,

es decir, la matriz Q†dQ es antihermitiana. En particular, la matriz de diferenciales dQ esantihermitiana cuando Q = IN.

Definimos

(80) ωjk = (Q†dQ)jk = q1j dq1k + q2j dq2k + · · ·+ qNj dqNk.

* Parte IIConcluya (o al menos convenzase de) que el espacio tangente a U(N) en una matriz fija Q

consiste de aquellas matrices Q tales que Q†Q es antihermitiana. En particular, el espaciotangente a U(N) en Q = IN, conocido como el algebra de Lie u(N), consiste de todas lasmatrices antihermitianas QN×N (es decir Q† = −Q). Concluya que u(N) y asimismo (al menosheurısticamente) U(N) tienen dimension igual a N2. (Es decir, U(N) tiene la mitad de ladimension de su espacio ambiente MatN×N(C) ' CN2 ' R2N2

).

* Parte IIIAdapte las partes previas al grupo SU(N) y su algebra de Lie su(N).

(La unica diferencia es la condicion adicional de que las matrices tienen traza cero.)

Ejercicio 58Sea A ∈ MatN×N(C) fija.

** Parte IDemuestre que la funcion

(81) S′ = adA(S) = ASA†

es una transformacion lineal de GUE(N) en sı mismo con determinante

(82) det(adA) = |det A|N .

** Parte IIDemuestre que adA definido por la Ecuacion (81) lleva el espacio de matrices antihermitia-

nas

(83) u(N) =

S ∈ Mat

N×N(C) | S† = −S

(conocido como el algebra de Lie de U(N)) en sı mismo, y tambien tiene determinante dadopor la Ecuacion (82).

Parte III

Page 32: Ema Problem As

32 EDUARDO DUENEZ GUZMAN

Si A es invertible, demuestre que (adA)−1 = adA−1 .

Parte IVDemuestre que adAB = adA adB.

* Ejercicio 59Demuestre que el elemento de volumen d volGUE(N) es invariante bajo similitudes unitarias.(Esto se sigue inmediatamente de los Ejercicios 58 y 55.)

** Ejercicio 60Demuestre que

(84) d volU(N) =∧<≤

(Q†dQ) =∧j<k

<ωjk∧j≤k

=ωjk

define un elemento de volumen en U(N) que es invariante bajo traslaciones izquierdas yderechas. (La invarianza bajo traslaciones derechas se sigue de los Ejercicios 58 y 55.)

(De hecho, d volU(N) ası definido es exactamente 2−N(N−1)/2 veces el elemento de volumende U(N) naturalmente encajado en MatN×N(C), mas por conveniencia usaremos d volU(N)

definido por la ecuacion (84).)

Considere la funcionG : U(N)×L → GUE(N)

(Q, Λ) 7→ S = QΛQ†.(85)

La funcion G es sobreyectiva por el Ejercicio 71.

Notacion 45. Sea T = T (N) el conjunto de matrices diagonales en U(N), dadas for la Ecua-cion (76). Sea asimismo T ′ el conjunto de tales matrices con entradas diagonales distintas dosa dos.

Ejercicio 61Demuestre que la funcion G es ∞-a-1. Mas especıficamente, demuestre que G(Q, Λ) =

G(Q∆, Λ) para toda ∆ ∈ T (N).

Notacion 46. Definamos, para Q ∈ U(N), el “coset”

(86) [Q] = QT = Q∆ | ∆ ∈ T (N)es decir, el conjunto de todas las matrices obtenidas de Q por multiplicacion derecha por todamatriz en T .

Denotemos tambien

(87) U = U(N) = U(N)/T (N),

al conjunto de todos los distintos tales cosets. (El “espacio cociente” o “espacio de orbitas” enU(N) bajo la accion multiplicativa derecha de T “por traslaciones”.)

Page 33: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 33

Definicion 47. Por el ejercicio previo, la funcion G : U(N)×L → GUE(N) induce una funcion

F : U(N)×L → GUE(N)

([Q], Λ) 7→ QΛQ†.(88)

* Ejercicio 62Demuestre que la restriccion de F al subconjunto U(N) × L′ es m-a-1 con m = N!, y lo

aplica sobreyectivamente en el conjunto GUE′(N) de matrices S ∈ GUE(N) con eigenvaloresdistintos.

(Se tiene F ([Q], Λ) = F ([Q′], Λ′) si y solo si las columnas de Q′ (modulo escalar no nulo) ylas entradas diagonales de Λ′ son las mismas que las columnas de Q (modulo escalar no nulo)y las entradas diagonales de Λ salvo por orden, es decir, salvo por una permutacion comun.)

* Ejercicio 63Demuestre que

(89) d volU(N)([Q]) =∧jk

(Q†dQ) :=∧j<k

<ωjk∧j<k

=ωjk

es un elemento de volumen en U(N) invariante bajo la accion multiplicativa izquierda de U(N),es decir, demuestre que para R ∈ U(N) fija y LR : [Q] 7→ [RQ] la multiplicacion izquierda, setiene L∗R(d volU) = d volU.

(El hecho de que d volU esta bien definido se sigue inmediatamente de la invarianza ded volU(N) por traslaciones derechas bajo T ; la invarianza de d volU bajo U(N)-traslacionesizquierdas se sigue de la invarianza de d volU(N) bajo tales traslaciones.)

Ejercicio Esencial 64Calcule el jacobiano de la parametrizacion (88) de GUE(N). (Siga leyendo si desea ver la

respuesta y recibir ayuda detallada.)Especıficamente, sean d volGUE, d volU y d volL las formas de volumen en GUE(N), U(N) yL. Entonces (d volU)∧ (d volL) es una forma de volumen en U(N)×L y el jacobiano deseadoes Jac([Q], Λ), caracterizado por la identidad

(90) ±F ∗(d volGUE(N)) = Jac([Q], Λ)d volU d volL .

Las partes siguientes presentan una demostracion de la formula

(91) Jac([Q], Λ) = Jac([Q],−→λ ) = ∏

1≤j<k≤N

∣∣λk − λj∣∣2 .

(Vale observar la independencia del jacobiano de la variable Q ∈ U(N), lo cual es consecuenciade la invarianza unitaria de d volGUE(N) y d volU. Cf., Ejercicios 59 y 79.)

Parte IComience diferenciando S = QΛQ† para obtener

dS = (dQ)ΛQ† + QΛ(dQ)† + Q(dΛ)Q†.

* Parte II

Page 34: Ema Problem As

34 EDUARDO DUENEZ GUZMAN

Conjugue la identidad previa y utilice la parte I del Ejercicio 57 para obtener:

Q†(dS)Q = (Q† dQ)Λ−Λ(Q†dQ) + dΛ.

** Parte IIITome el producto cuna

∧j≤<k en las matrices de diferenciales en ambos miembros de la

igualdad previa. En el lado izquierdo obtenemos∧

j≤<k(Q† dS Q) =∧

j≤<k(dS) por el Ejerci-cio 59. En el derecho, la parte real de la j-esima entrada diagonal es dλj (la parte imaginaria es=ωjj, que es irrelevante para calcular

∧j≤<k; note que =ωjj es exactamente la parte de Q†dQ

que es ignorada por d volU), mientras que la jk-esima entrada es precisamente (λk − λj)ωjk sij < k con ωjk dada por la Ecuacion (80). Por tanto

d<((λk − λj)ωjk

)∧ d=

((λk − λj)ωjk

)= (λk − λj)

2 d<ωjk d=ωjk,

para j < k, de manera que

F ∗(d volGUE(N)) = ∏j<k

(λk − λj)2∧jk

ωjk∧

j

dλj

= ∏j<k

(λk − λj)2 d volU d volL .

* Ejercicio Esencial 65

Considere una matriz aleatoria S ∈ GUE(N) como definida en U(N) × L a traves de lafuncion S = F (Q, Λ) = QΛQ†. Demuestre que la f.d.p. de S con respecto a la medida devolumen d volU d volL esta dada por

(92) f ([Q], Λ) =1

C′GUE(N)∏

1≤j<k≤N

∣∣λk − λj∣∣2 exp

(−

N

∑j=1

λ2j

),

donde

(93) C′GUE(N) = N! CGUE(N) = 2−N(N−1)/2πN2/2N!.

Ejercicio Esencial 66

Obtenga la f.d.p. eGUE(N)(−→λ ) de los eigenvalores

−→λ = (λ1, λ2, . . . , λN) de una matriz alea-

toria GUE(N).Para ser especıficos, considere (Q, Λ) conjuntamente distribuidas con f.d.p. dada por la

Ecuacion (92). Entonces

eGUE(N)(−→λ ) =

∫U(N)

f ([Q], Λ)d volU(N)([Q])

(donde Λ = diag(−→λ )) es simplemente la marginal de f ([Q], Λ) con respecto a Q.

Page 35: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 35

Como f ([Q], Λ) no depende de Q, de hecho se tiene

eGUE(N)(−→λ ) = vol(U(N)) f (IN, Λ)

=vol(U(N))

C′GUE(N)∏

1≤j<k≤N

∣∣λk − λj∣∣2 exp

(−

N

∑j=1

λ2j

)

=1

κGUE(N)∏

1≤j<k≤N

∣∣λk − λj∣∣2 exp

(−

N

∑j=1

λ2j

),

(94)

donde

(95) κGUE(N) =C′GUE(N)

vol(U(N))=∫

RN ∏1≤j<k≤N

∣∣λk − λj∣∣2 exp

(−

N

∑j=1

λ2j

)d vol(

−→λ )

es (el recıproco de) la constante de normalizacion necesaria para que eGUE(N) sea una f.d.p.(Calcular vol(U(N)) permitirıa encontrar el valor exacto de κGUE(N), conocida tambien como

la funcion de particion de GUE(N).)

6. Familia Gaussiana Simplectica GSE

Notacion 48. La matriz de estructura (simplectica) de tamano N se define como

(96) J2N =

(0N −ININ 0N

).

Comentario 49. La matriz de estructura J = J2N es real ortogonal, de hecho JT = J−1 = −J.

Definicion 50. La matriz dual de una matriz compleja S2N×2N es la matriz

(97) S∗ = J−1ST J = −JST J

donde J = J2N es la matriz de estructura simplectica y ST es la matriz transpuesta de S.Una matriz S es autodual si S∗ = S.

Definicion 51. La familia gaussiana simplectica GSE (“Gaussian Symplectic Ensemble”) consiste,para cada N = 1, 2, 3, . . . , del conjunto GSE(2N) de todas las matrices complejas hermitianas yautoduales de 2N × 2N:

(98) GSE(2N) =

S ∈ Mat

2N×2N(C) | S† = S y S∗ = S

.

Ejercicio 67Demuestre que GSE(2N) es el conjunto de las matrices complejas S2N×2N de la forma

(99) S2N =

(A B−B A

)donde AN es hermitiana, es decir A = X + iY con XN real simetrica y YN real antisimetrica, yBN es compleja antisimetrica, es decir B = U + iV con UN y VN reales antisimetricas. Concluyaque GSE(2N) es un espacio vectorial real de dimension N(2N − 1). (Note que GSE(2N) no esun espacio vectorial complejo.)

Page 36: Ema Problem As

36 EDUARDO DUENEZ GUZMAN

Comentario 52. Es posible dar un modelo de GSE(2N) mediante matrices N × N con entra-das en el algebra de cuaterniones H. En esencia, la matriz S ∈ GSE(2N) como dada en laEcuacion (99) corresponde a la matriz N × N cuaternionica A + jB con j una de las unidadesimaginarias de H distinta de i =

√−1 ∈ C ⊂H.

Convencion 53. Con la notacion del Ejercicio 67, adoptaremos las entradas xjk de X para j ≤ kjunto con las entradas yjk de Y, ujk de U y vjk de V para j < k como coordenadas en GSE.

Definicion 54. La distribucion de probabilidad de una matriz S ∈ GSE(2N) es aquella tal quelas entradas diagonales xjj son variables gaussianas de varianza 1/4, mientras que las partesreal e imaginaria xjk, yjk, ujk, vjk con j < k en la parte triangular estrictamente superior de Sson gaussianas de varianza 1/8, y tal que todas estas variables son independientes. (La partetriangular inferior de S queda determinada puesto que S es hermitiana y autodual.)

Notacion 55. El elemento de volumen en GSE(2N) es

(100) d volGSE(2N) =∧≤≪

(dS) :=∧j≤k

dxjk∧j<k

dyjk∧j<k

dujk∧j<k

dvjk.

** Meta-Ejercicio 68Trate de generalizar tantas propiedades como le sea posible de los casos GOE(N) y GUE(N)

a GSE(2N).Muchos de los ejercicios siguientes piden respuestas a preguntas particulares que bien caben

en este Meta-Ejercicio.

Ejercicio 69

* Parte IEncuentre formulas para la f.d.p. de GSE(2N) en terminos: (1) de las entradas de una matriz

S ∈ GSE(2N), y (2) de la traza de S2.Respuesta:

fGSE(2N)(S) =1

CGSE(2N)exp

(−4 ∑

j<k(x2

jk + y2jk + u2

jk + v2jk)− 2 ∑

jx2

jj

)

=1

CGSE(2N)exp

(−4 ∑

j<k(∣∣ajk∣∣2 + ∣∣bjk

∣∣2)− 2 ∑j

a2jj

)

=1

CGSE(2N)exp(−2 Tr(A2)− 2 Tr(BB†))

=1

CGSE(2N)exp(−Tr(S2))

(101)

donde

(102) CGSE(2N) =

(∏j<k

√π

2

)4

∏j

√π

2= 2−N(2N− 3

2 )πN(N− 12 ).

Parte IIEncuentre una formula para la forma diferencial de probabilidad ωGSE(2N).

Page 37: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 37

Respuesta:

(103) ωGSE(2N) =1

CGSE(2N)exp(−Tr S2)d volGSE(2N) .

Definicion 56. El grupo simplectico es el conjunto de matrices unitarias de tamano 2N quepreservan la estructura simplectica J = J2N:

(104) USp(2N) =

S ∈ U(2N) | SJST = J=

S ∈ U(2N) | SJ = JS

.

Ejercicio 70Demuestre que USp(2N) es un grupo de matrices.

Definicion 57. En esta seccion, L = L(2N) denotara al conjunto de matrices diagonales “do-bles” (simplecticas)

(105) Λ = Λ(λ) := diag(−→λ ,−→λ )

con eigenvalores reales−→λ = (λ1, λ2, . . . , λN) ∈ RN (cada uno con doble multiplicidad).

Analogamente, T = T (2N) denotara al conjunto de matrices diagonales simplecticas

(106) ∆ = diag(−→δ ,−→δ ) ∈ USp(2N)

con pares de eigenvalores unitarios mutuamente conjugados, parametrizados por−→δ = (δ1, δ2, . . . , δN) ∈

(S1)N.Las notaciones L′(2N) y T ′(2N) denotan los subconjuntos consistentes de matrices con N

parejas distintas de eigenvalores.

** Ejercicio 71Demuestre que toda matriz hermitiana autodual tiene eigenvalores reales y es simplectica-

mente diagonalizable. Explıcitamente, para toda S ∈ GSE(2N) existen:

• una matriz real diagonal simplectica Λ = diag(−→λ ,−→λ ) ∈ L(2N), y

• una matriz simplectica Q ∈ USp(2N);tales que

(107) S = QΛQ†.

Notacion 58. Denotaremos por GSE′(2N) las matrices S ∈ GSE(2N) con N parejas de eigen-valores distintos, es decir, aquellas matrices S para las cuales Λ ∈ L′(2N) en la notacion de laEcuacion (107).

Ejercicio 72

Parte I

Page 38: Ema Problem As

38 EDUARDO DUENEZ GUZMAN

Demuestre que la matriz de diferenciales dQ de una matriz Q ∈ USp(2N) satisface:

(Q† dQ)† = −Q† dQ,

(Q†dQ)∗ = J−1(Q† dQ)T J = −Q† dQ,(108)

es decir Q† dQ es una matriz (de diferenciales) que es antihermitiana y antiautodual. Concluyaque la matriz Q†dQ es de la forma

(109)(

Θ Φ−Φ Θ

)para ciertas matrices de diferenciales complejas Θ, Φ tales que Θ† = −Θ (Θ es antihermitiana)y ΦT = Φ (Φ es simetrica compleja).

Definimos, para 0 ≤ j, k ≤ N,

θjk = (Θ)jk = (Q†dQ)jk

φjk = (Φ)jk = (Q†dQ)j,N+k.(110)

* Parte IIConcluya (o al menos convenzase de) que el espacio tangente a USp(2N) en una matriz fi-

ja Q consiste de aquellas matrices Q tales que Q†Q es de la forma (109) con Θ antihermitiana yΦ simetrica compleja. En particular, el espacio tangente a USp(2N) en Q = IN, conocido comoel algebra de Lie usp(2N), consiste de todas las matrices complejas Q2N×2N de la forma descri-ta. Concluya que usp(2N) y asimismo (al menos heurısticamente) USp(2N) tienen dimensionigual a N(2N + 1).

Definicion 59. Definimos el elemento de volumen de USp(2N) como

(111) d volUSp(2N) =∧<≡

(Q† dQ) =∧j<k

<θjk∧j≤k

=θjk∧j≤k

<φjk∧j≤k

=φjk.

Ejercicio 73Sea A ∈ Mat2N×2N(C) fija y tal que JA = AJ (A respeta la estructura antilineal simplecti-

ca J).

** Parte IDemuestre que la funcion

(112) S′ = adA(S) = ASA†

es una transformacion lineal de GSE(2N) en sı mismo con determinante

(113) det(adA) = |det A|2N−1 .

** Parte IIDemuestre que adA definido por la Ecuacion (112) lleva el espacio de matrices antihermitia-

nas antiautodualesm

(114) usp(2N) = S ∈ u(2N) | S∗ = −SmLas matrices S ∈ usp(2N) tienen la forma dada por la Ecuacion (109).

Page 39: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 39

(conocido como el algebra de Lie de USp(2N)) en sı mismo, y tiene determinante

(115) det(adA) = |det A|2N+1 .

Parte IIISi A es invertible, demuestre que (adA)

−1 = adA−1 .

Parte IVDemuestre que adAB = adA adB.

* Ejercicio 74Demuestre que el elemento de volumen d volGSE(2N) es invariante bajo similitudes simplecti-

cas.

* Ejercicio 75Demuestre que el elemento de volumen d volUSp(2N) es invariante bajo traslaciones izquier-

das y derechas.

Considere la funcionG : USp(2N)×L → GSE(2N)

(Q, Λ) 7→ S = QΛQ†.(116)

La funcion G es sobreyectiva por el Ejercicio 71.

Notacion 60. Sea Z = Z(2N) el conjunto de todas las matrices en USp(2N) de la forma dadapor la Ecuacion (99), con A y B matrices complejas diagonales tales que A† A + B†B = IN yABT = BAT (es decir, ABT es compleja simetrica).

(En terminos de la interpretacion de USp(2N) como transformaciones R-lineales del espaciode cuaterniones HN, el conjunto Z consiste de las matrices diagonales cuaternionicas concuaterniones unitarios en la diagonal.)

Ejercicio 76Demuestre que Z(2N) es un subgrupo de matrices de USp(2N).

Ejercicio 77Demuestre que la funcion G es ∞-a-1. Mas especıficamente, demuestre que G(Q, Λ) =

G(QZ, Λ) para toda Z ∈ Z(2N).

Notacion 61. Definamos, para Q ∈ USp(2N), el “coset”

(117) [Q] = QZ = QZ | Z ∈ Z(2N)es decir, el conjunto de todas las matrices obtenidas de Q por multiplicacion derecha por todamatriz en Z(2N).

Page 40: Ema Problem As

40 EDUARDO DUENEZ GUZMAN

Denotemos tambien

(118) USp = USp(2N) = USp(2N)/Z(2N),

al conjunto de todos los distintos tales cosets. (El “espacio cociente” o “espacio de orbitas” enUSp(2N) bajo la accion multiplicativa derecha de Z(2N) “por traslaciones”.)

Definicion 62. Por el ejercicio previo, la funcion G : USp(2N)× L(2N) → GSE(2N) induceuna funcion

F : USp(2N)×L(2N)→ GSE(2N)

([Q], Λ) 7→ QΛQ†.(119)

Comentario 63. Vale observar que USp(2N) tiene dimension real N(2N + 1)− 3N mientrasque L(2N) tiene dimension N, por lo que su producto directo tiene dimension 2N2 − N, quees la dimension de GSE(2N). Por tanto, es razonable esperar que F sea genericamente m-a-1con m finita.

** Ejercicio 78

Demuestre que la restriccion de F al subconjunto USp(2N)×L′(2N) es m-a-1 con m = N!,y lo aplica sobreyectivamente en el conjunto GSE′(2N).

* Ejercicio 79Demuestre que

(120) d volUSp(2N)([Q]) =

∧<≪

(Q† dQ) =∧j<k

<θjk∧j<k

=θjk∧j<k

<φjk∧j<k

=φjk.

es un elemento de volumen en USp(2N) invariante bajo la accion multiplicativa izquierdade USp(2N), es decir, demuestre que para R ∈ USp(2N) fija y LR : [Q] 7→ [RQ] la multiplica-cion izquierda, se tiene L∗R(d volUSp) = d volUSp.

Ejercicio Esencial 80

Calcule el jacobiano de la parametrizacion (119) de GSE(2N). (Siga leyendo si desea ver larespuesta y recibir ayuda detallada.)

Especıficamente, sean d volGSE, d volUSp y d volL las formas de volumen en GSE(2N), USp(2N)

y L. Entonces (d volUSp) ∧ (d volL) es una forma de volumen en USp(2N)×L y el jacobianodeseado es Jac([Q], Λ), caracterizado por la identidad

(121) ±F ∗(d volGSE(2N)) = Jac([Q], Λ)d volUSp d volL .

Las partes siguientes presentan una demostracion de la formula

(122) Jac([Q], Λ) = Jac([Q],−→λ ) = ∏

1≤j<k≤N

∣∣λk − λj∣∣4 .

Page 41: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 41

(Vale observar la independencia del jacobiano de la variable Q ∈ USp(2N), lo cual es conse-cuencia de la invarianza simplectica de d volGSE y d volUSp.)

Parte IComience diferenciando S = QΛQ† para obtener

dS = (dQ)ΛQ† + QΛ(dQ)† + Q(dΛ)Q†.

* Parte IIConjugue la identidad previa y utilice la parte I del Ejercicio 72 para obtener:

Q†(dS)Q = (Q† dQ)Λ−Λ(Q†dQ) + dΛ.

** Parte IIITome el producto cuna

∧≤≪ en las matrices de diferenciales en ambos miembros de la

igualdad previa. En el lado izquierdo obtenemos∧≤≪(Q† dS Q) =

∧≤≪(dS) por el Ejerci-

cio 74. En el derecho, la parte real de la j-esima entrada diagonal (0 ≤ j ≤ N) es dλj, mientrasque las partes imaginaria =ωjj, ası como el resto de las diferenciales en la diagonal N < j ≤ 2Nson ignoradas por el producto cuna

∧<≪.

Por otro lado, para 0 ≤ j < k ≤ N:• la jk-esima entrada es precisamente (λk − λj)θjk, y• la (j, N + k)-esima entrada es (λk − λj)φjk.

Por tanto

d<((λk − λj)θjk

)∧ d=

((λk − λj)θjk

)d<((λk − λj)φjk

)∧ d=

((λk − λj)φjk

)= (λk − λj)

4 d<θjk d=θjk d<φjk d=φjk,

para j < k, de manera que

F ∗(d volGSE(2N)) = ∏j<k

(λk − λj)4∧<≪

(Q† dQ)∧

j

dλj

= ∏j<k

(λk − λj)4 d volUSp d volL .

* Ejercicio Esencial 81

Considere una matriz aleatoria S ∈ GSE(2N) como definida en USp(2N)× L a traves dela funcion S = F (Q, Λ) = QΛQ†. Demuestre que la f.d.p. de S con respecto a la medida devolumen d volUSp d volL esta dada por

(123) f ([Q], Λ) =1

C′GSE(2N)∏

1≤j<k≤N

∣∣λk − λj∣∣4 exp

(−2

N

∑j=1

λ2j

),

donde

(124) C′GSE(2N) = N! CGSE(2N) = 2−N(2N− 32 )πN(N− 1

2 )N!.

Page 42: Ema Problem As

42 EDUARDO DUENEZ GUZMAN

Ejercicio Esencial 82

Obtenga la f.d.p. eGSE(2N)(−→λ ) de los (pares de) eigenvalores

−→λ = (λ1, λ2, . . . , λN) de una

matriz aleatoria GSE(2N).Para ser especıficos, considere (Q, Λ) conjuntamente distribuidas con f.d.p. dada por la

Ecuacion (123). Entonces

eGSE(2N)(−→λ ) =

∫USp(2N)

f ([Q], Λ)d volUSp(2N)([Q])

(donde Λ = diag(−→λ ,−→λ )) es simplemente la marginal de f ([Q], Λ) con respecto a Q.

Como f ([Q], Λ) no depende de Q, de hecho se tiene

eGSE(2N)(−→λ ) = vol(USp(2N)) f (IN, Λ)

=vol(USp(2N))

C′GSE(2N)∏

1≤j<k≤N

∣∣λk − λj∣∣4 exp

(−2

N

∑j=1

λ2j

)

=1

κGSE(2N)∏

1≤j<k≤N

∣∣λk − λj∣∣4 exp

(−2

N

∑j=1

λ2j

),

(125)

donde

(126) κGSE(2N) =C′GSE(2N)

vol(USp(2N))=∫

RN ∏1≤j<k≤N

∣∣λk − λj∣∣4 exp

(−2

N

∑j=1

λ2j

)d vol(

−→λ )

es (el recıproco de) la constante de normalizacion necesaria para que eGSE(2N) sea una f.d.p.(Calcular vol(USp(2N)) permitirıa encontrar el valor exacto de κGSE(2N), conocida tambien

como la funcion de particion de GSE(2N).)

7. Determinantes y Nucleos Reproductivos

Ejercicio 83Considere el espacio (de vectores columna) RN con el producto punto:

(127) 〈u, v〉 = uTv = u1 v1 + · · ·+ uN vN.

Asimismo, el espacio CN (de vectores columna) tiene el producto hermitiano estandar:

(128) 〈u, v〉 = u†v = u1 v1 + · · ·+ uN vN.

Parte ISea W un subespacio real de RN o complejo de CN, de dimension d, con base ortonormalwjd

j=1.Demuestre que

P = w1 w†1 + · · ·+ wN w†

Nes la matriz de la proyeccion en el subespacio W:

• P(v) = v si v ∈W;• P(v) = 0 si v ∈W⊥ (es decir, si 〈v, w〉 = 0 para toda w ∈W).

Page 43: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 43

Ejercicio 84Generalice el ejercicio anterior (tanto en el caso real como en el complejo) en dos direcciones:(1) Encuentre una formula para la matriz de proyeccion P en terminos de una base cual-

quiera

wj

(no necesariamente ortonormal) de W.(2) Mismo problema, pero la proyeccion es con respecto una forma hermitiana definida

positiva arbitraria, digamos 〈u, v〉 = u†Hv para cierta matriz hermitiana H (o realsimetrica, en el caso real) definida positiva. (Puede empezar, por ejemplo, con el casoen que H = diag(κ1, . . . , κN) con κ1, . . . , κN positivos.)

** Ejercicio 85Dados numeros reales o complejos z1, z2, . . . , zN, demuestre que el determinante de Vander-

monde,

(129) Van(z1, z2, . . . , zN) := detN×N

(zk−1j ) =

∣∣∣∣∣∣∣∣∣1 z1 z2

1 . . . zN−11

1 z2 z22 . . . zN−1

2...

... . . . ...1 zN z2

N . . . zN−1N

∣∣∣∣∣∣∣∣∣admite la siguiente factorizacion

Van(z1, z2, . . . , zN) = ∏1≤j<k≤N

(zk − zj)

= (z2 − z1)(z3 − z1) · . . . · (zN − z1)(z3 − z2) · . . . · (zN − z2) · . . . · (zN−1 − zN).

(130)

(Sea −→z (N) = (z1, . . . , zN). Sea P(−→z (N)) = ∏1≤j<k≤N(zk − zj). Definamos

Q(−→z (N+1)) =P(−→z (N+1))

P(−→z (N))=

N

∏j=1

(zN+1 − zj).

Para completar una demostracion por induccion en N basta demostrar asimismo que Van(−→z (N+1))/Van(−→z (N)) = Q(−→z (N+1)). Primero demuestre, usando operaciones con las columnas deldeterminante, que Van(−→z (N)) = detN×N(pk−1(zj)) para cualesquiera polinomios monicospk(z) = zk + ck−1zk−1 + · · ·+ c0. Aplique este principio a los polinomios

pk(z) = zk + wzk−1 + · · ·+ wk−1z + wk =zk+1 − wk+1

z− wpara cualquier numero w fijo. Poniendo w = zN+1, concluya que

Q(−→z (N+1)) =(−1)N Van′(−→z (N))

Van(−→z (N))

donde Van′(−→z (N)) = detN×N(zkj − zk

N+1). Por otro lado, si se manipula el determinanteVan(−→z (N+1)) restando la (N + 1)-esima fila de la n-esima para n = 1, . . . , N entonces laprimera columna tiene una unica entrada no cero, igual a 1, en la (N + 1)-esima columna, y laentrada (j, k+ 1)-esima es precisamente pk(zj) por lo que Van(−→z (N+1)) = (−1)N Van′(−→z (N)).)

Page 44: Ema Problem As

44 EDUARDO DUENEZ GUZMAN

Ejercicio 86

* Parte IDemuestre que las funciones

(131) Hn(x) := (−1)n exp(x2)dn

dxn exp(−x2)

son polinomios (llamados polinomios de Hermite).

Parte IIDemuestre que los polinomios de Hermite son ortogonales en R con respecto al peso

(132) w(x) = exp(−x2).

* Parte IIIDemuestre la relacion de recurrencia

(133) Hn(x) = 2xHn−1(x)− ddx

Hn−1(x).

* Parte IVDemuestre que

(134)d

dxHn(x) = 2nHn−1(x),

y combine con la parte anterior para demostrar la recurrencia de 3-terminos:

(135) Hn+1(x) = 2xHn(x)− 2nHn−1(x).

** Parte VEncuentre la sucesion de polinomios ortonormales Hn∞

n=0 con respecto al peso (132).

** Ejercicio 87Los polinomios de Legendre se definen como sigue:

(136) Pn(x) =1

2N N!dn

dx(x2 − 1)n.

Demuestre que son ortogonales en [−1, 1] con respecto a la medida estandar dx, y trate degeneralizar el ejercicio anterior usando estos polinomios.

*** Ejercicio 88Fije numeros reales a, b > −1. Trate de generalizar el ejercicio previo para encontrar polino-

mios ortonormales (o al menos ortogonales) con respecto al peso w(x) = (1− x)a(1 + x)b en[−1, 1].

** Ejercicio 89Igual al ejercicio anterior, pero para el peso w(x) = xae−x en [0, ∞), donde a > −1 es fija.

Page 45: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 45

Ejercicio 90

Parte IDemuestre que las exponenciales complejas en(x)∞

n=−∞, donde en(x) = exp(2πnx) =cos(2πnx) + i sin(2πnx), son ortonormales en el intervalo [0, 1] con respecto a la medida dx.

* Parte IIEncuentre una formula cerrada en terminos de funciones trigonometricas reales para el

nucleo reproductivo de grado N,

(137) KN(x, y) =N

∑n=−N

en(x)en(y).

Convencion 64. Durante el resto de estas notas, adoptaremos la definicion

(138) pA(λ) = det(IN − λA) = 1− (Tr A)λ + · · ·+ (−1)N(det A)λN

para el polinomio caracterıstico de cualquier matriz AN×N.

Ejercicio 91

** Parte ISi A, B son matrices de N × N, demuestre que AB y BA tienen los mismos eigenvalores.

Equivalentemente, demuestre que ambas matrices tienen el mismo polinomio caracterıstico:

(139) pAB(λ) = pBA(λ).

(Si al menos una de las matrices, digamos A, es invertible, entonces de hecho AB es similara BA porque BA = A−1(AB)A ∼ AB. Si ambas son singulares razone por continuidad.Alternativamente, factorice det(A− λABA) de dos maneras distintas.)

*** Parte IIDemuestre que la igualdad de polinomios caracterısticos (139) sigue siendo valida incluso

cuando AM×N y BN×M son matrices rectangulares. (Es decir, AB y BA, ¡tienen los mismoseigenvalores, salvo por ceros!)

Ejercicio 92 Ejercicio ImportanteFije N ≥ 1. Para cualquier n ≥ 1, denotaremos por ` = (`1, `2, . . . , `N) cualquier n-ada

de enteros `j (no todos necesariamente distintos, y no necesariamente en orden) tales que1 ≤ `j ≤ N.

Denotaremos por long(`) = n a la longitud de ` = (`1, . . . , `n).Para cualquier AN×N y ` definimos

A[`] = (a`j`k).

Como caso particular importante, si ` es estrictamente creciente de longitud n, es decir, si1 ≤ `1 < `2 < . . . < `n ≤ N, entonces A[`] es una n-submatriz (principal) de A, es decir, unamatriz obtenida al seleccionar ciertas n filas, y las mismas n columnas de A y borrando el restode las entradas.

Page 46: Ema Problem As

46 EDUARDO DUENEZ GUZMAN

Sea σn(A) la suma de los determinantes de todas las n-submatrices principales de A. Noteque σ1(A) = Tr A y σN(A) = det A.

** Parte IDemuestre la formula:

pA(λ) = det(I) = 1 +N

∑n=1

(−1)nσn(A)λn.

* Parte IISi A tiene eigenvalores λ1, λ2, . . . , λN, demuestre tambien que

σn(A) = ∑` : long(`)=n

λ`1λ`2 . . . λ`n .

(Use las formulas de Vieta que relacionan a los coeficientes del polinomio caracterıstico conlas raıces del mismo.)

Parte IIISi una n-ada ` tiene entradas no todas distintas (algunas entradas son iguales), entonces

det A[`] = 0.

Note que esta igualdad se cumplira siempre que n > N.

* Parte IVSi una n-ada ` tiene entradas distintas, entonces

det A[`] = det A[`′]

donde `′ es la n-ada creciente con las mismas entradas que `.

* Parte VDemuestre que

det(I + λA) = 1 +∞

∑n=0

λn

n! ∑` : long(`)=n

detn×n

A[`]

= 1 +∞

∑n=0

λn

n!

N

∑`1=1· · ·

N

∑`n=1

det

a`1`1 a`1`2 . . . a`1`na`2`1 a`2`2 . . . a`2`n

...... . . . ...

a`n`1 a`n`2 . . . a`n`n

.

(140)

(Note the los terminos de la suma son nulos para n > N, ası que la serie es efectivamentefinita.)

Ejercicio Importante 93Sea T un operador integral en algun espacio V de funciones (digamos, complejas) en (R, dx).

Especıficamente, existe una funcion nucleo de dos variables reales con valores complejos que,abusando notacion denotaremos por T(x, y), y tal que

T( f )(x) =∫

RT(x, y) f (y)dy

para funciones f ∈ V.

Page 47: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 47

Suponga que T tiene rango N en el sentido de que la familia de funciones T(x, ·)x∈R

genera un subespacio W ⊂ V de dimension N.

** Parte IDemuestre que el determinante de Fredholm

(141) det(I + λT) := 1 +∞

∑n=1

λn

n!

∫· · ·

∫detn×n

(T(xj, xk))dx1 . . . dxn.

es, de hecho, un polinomio de grado N en λ (es decir, el N-esimo termino de la serie no seanula, mientras que todos los terminos posteriores son nulos).

** Parte IIDemuestre que el determinante de Fredholm det(I + λT) es igual al determinante det(IN +

λT|W), donde T|W : W →W (una transformacion lineal del espacio de dimension finita W) esla restriccion de T.

* Ejercicio 94Si V ⊂ L2(R, dW(x)) tiene base ortonormaln φjN−1

j=0 , demuestre que el nucleo reproductivo

(142) KN(x, y) =N−1

∑j=1

φj(x)φj(y)

es el nucleo del operador integral de proyeccion ortogonal sobre V.Concretamente, la transformacion P de L2(R, dW) en sı mismo definida por

(P f )(x) =∫

RKN(x, y) f (y)dW(y)

es la proyeccion ortogonal sobre V.

Notacion 65. Sea N ≥ 1 fijo. El conjunto (grupo) de todas las funciones biyectivas (permuta-ciones)

σ : 1, 2, . . . , N → 1, 2, . . . , Nes denotado S(N) (el grupo simetrico en N letras).S(N) es un grupo, lo cual significa que (1) la identidad en 1, . . . , N es una permutacion,

(2) la composicion de dos permutaciones es otra permutacion (normalmente escribiremos στen vez de σ τ para denotar composicion), y (3) la inversa σ−1 de una permutacion es tambienpermutacion.

Cada permutacion σ tiene asociada una matriz de permutacion Pσ = (δσ(k),k) (es decir P(−→e k) =−→e σk , donde ~ej son los vectores de la base estandar de RN). Tambien σ tiene un signo

sgn(σ) = det(Pσ) = ±1

que cuenta la paridad (par si +1, impar si −1) del numero de transposiciones en σ. (Es decir,la paridad del numero de cambios de columna necesarios para llevar Pσ a IN.) Asimismo,sgn(στ) = sgn(σ) sgn(τ).

nEs decir,∫

Rφj(x)φk(x)dW(x) = δjk =

1, j = k;0, j 6= k.

Page 48: Ema Problem As

48 EDUARDO DUENEZ GUZMAN

Recuerde que el determinante de una matriz AN×N = (Ajk) se puede calcular mediante laformula:

(143) det A = ∑σ∈S(N)

sgn(σ)N

∏j=1

Aj,σ(j).

* Ejercicio 95Demuestre que

(144) det A = ∑σ∈S(N)

sgn(σ)N

∏k=1

Aσ(k),k.

(No use el hecho de que det A = det AT. De hecho, ¡eso es lo que se esta pidiendo demostraren el fondo!)

* Ejercicio 96Demuestre que

(145) N! det A = ∑σ∈S(N)

∑τ∈S(N)

sgn(στ)N

∏j=1

Aσ(j),τ(j).

** Ejercicio Importante 97Demuestre la identidad de Alexandreief: Para cualquier medida dW en R y cualesquiera

funciones f j, gjNj=1 en L2(dW), se tiene

(146)∫· · ·

∫RN

detN×N

( f j(xk)) · detN×N

(gj(xk))N

∏k=1

dW(xk) = detN×N

(∫R

f j(x)gk(x)dW(x))

.

Ayuda: Use la Ecuacion (144) para expandir

detN×N

( f j(xk)) = ∑σ∈S(N)

sgn(σ)N

∏j=1

fσ(j)(xj),

detN×N

(gj(xk)) = ∑τ∈S(N)

sgn(τ)N

∏j=1

gτ(j)(xj),

de modo que

detN×N

( f j(xk)) detN×N

(gj(xk)) = ∑σ∈S(N)

∑τ∈S(N)

sgn(στ)N

∏j=1

fσ(j)(xj)gτ(j)(xj).

Ahora integre sobre RN con respecto a dW notando la factorizacion∫· · ·

∫RN

N

∏j=1

fσ(j)(xj)gτ(j)(xj)dW(x1) . . . dW(xN) =N

∏j=1

∫R

fσ(j)(x)gτ(j)(x)dW(x).

Concluya la demostracion usando la Ecuacion (145) con A =(∫

Rf j(x)gk(x)dW(x)

).

Page 49: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 49

Ejercicio 98

Suponga que eN(−→λ ) es la f.d.p. conjunta de una N-ada de numeros reales (“niveles”)

−→λ =

(λ1, λ2, . . . , λN) relativa a la medida∧

j dλj. Supondremos que eN es una funcion simetricade sus N variables (en particular, no supondremos relacion alguna entre el orden de las Nvariables λj y la numeracion de los ındices). En tal caso, la 1-densidad de niveles se define ası:

R(N)1 (λ) =

N

∑j=1

∫· · ·

∫RN−1

eN(λ1, . . . , λj−1, λ, λj+1, . . . , . . . , λN)∧

1≤k≤nk 6=j

dλk

= N∫· · ·

∫RN−1

eN(λ, λ2, . . . , λN)dλ2 . . . dλN.

(147)

Informalmente hablando, R(N)1 (λ)dλ es la probabilidad de observar uno cualquiera de los N

niveles en el intervalo (λ, λ + dλ).Denotaremos por E(k; J) la probabilidad de que exactamente k de los N niveles se encuen-

tren en cierto intervalo J = [λ, µ].

Parte IDemuestre que la probabilidad de que J = [λ, µ] contenga exactamente k niveles mientras

que [λ− dλ, λ) contenga al menos un nivel es

E(k; [λ, µ])− E(k; [λ− dλ, µ]) =∂

∂xE(k; [x, µ])

∣∣∣∣x=λ

(al menos para dλ infinitesimal, es decir, en el lımite dλ → 0). Sin perdida de generalidad,para dλ infinitesimal el intervalo [λ− dλ, λ) contiene no mas de un nivel λ0.

* Parte IICalcule la probabilidad de la Parte I de manera distinta, como el producto de la probabilidad

R(N)1 (λ)dλ de que [λ− dλ, λ) contenga al menos un nivel λ0 (unico, sin perdida de genera-

lidad) por la probabilidad P(λk-sig > µ | λ) de que el intervalo [λ, µ] contenga exactamente kniveles dado un nivel en el intervalo infinitesimal [λ− dλ, λ) (es decir, que el (k + 1)-esimo o“k-siguiente” nivel λk-sig posterior al nivel λ0 ∈ [λ− dλ, λ] sea mayor a µ.)

Concluya que

P(λk-sig > µ | λ) =1

R(N)1 (λ)

∂xE(k; [x, µ])

∣∣∣∣x=λ

dλ.

* Parte IIIUse la Parte II para demostrar que la f.d.p. del “hueco entre niveles k-consecutivos”, donde

el hueco comienza en λ (fijo) y termina en el (k + 1)-esimo siguiente nivel λk-sig (es decir, elsiguiente nivel si k = 0, el segundo siguiente si k = 1, etc.) esta dada por

pk(s) = pk(s | λ) =∂

∂yP(λk-sig > y | λ)

∣∣∣∣y=λ+s

=1

R(N)1 (λ)

∂2

∂x∂yE(k; [x, y])

∣∣∣∣ x=λy=λ+s

relativa a la medida estandar ds en R.

Page 50: Ema Problem As

50 EDUARDO DUENEZ GUZMAN

Ejercicio 99 Ley de Wigner (debil) para wUE

** Parte IBasado en el Ejercicio 86, demuestre que para GUE el nucleo reproductivo (relativo al peso

w(x) = exp(−x2) en R) tiene la formula

(148) KN(x, y) =1

2N(N − 1)!√

π

(HN(x)HN−1(y)−HN−1(x)HN(y)

y− x

)para y 6= x, y

(149) KN(x, x) =1

2N−1(N − 1)!√

π

((N − 1)HN(x)HN−2(x)− N

(HN−1(x)

)2)

* Parte IIDemuestre que la 1-densidad de niveles

(150) R(N)1 (x) = KN(x, x) exp(−x2) ≈ 1

π

√2N − x2

para x =√

2N + 1 cos φ con ε ≤ φ ≤ π − ε, usando la formula de Plancherel-Rotach deregimen proximo (“small regime”) para los polinomios de Hermite:(151)

exp(−x2/2)HN(x) =2N/2+1/4

√N!

4√

πN√

sin φ

sin[

N + 1/22

(sin(2φ)− 2φ

)+

4

]+O(N−1)

.

* Parte IIIUse la formula de Plancherel-Rotach de regimen distante (“large regime”) para los polino-

mios de Hermite:

(152) exp(−x2/2)HN(x) =2N/2−3/4

√N!

4√

πN√

sinh φexp

[N + 1/2

2(2φ− sinh 2φ)

]· 1 +O(N−1)

valida para x =√

2N + 1 cosh φ con error uniforme para ε ≤ φ ≤ ε−1 para cualquier ε > 0 fijo,para demostrar que la 1-densidad R1(λ) del GUE decae exponencialmente para tales valoresde x.

* Ejercicio 100Utilizando las formulas (148) y (151), demuestre que la localizacion del nucleo reproductivo

KN(x, y) del GUE (Ecuacion (148)) en x0 =√

2N + 1 cos φ0, con φ0 ∈ (0, π) fijo, esta dada porel Nucleo Seno

(153) S(ξ, η) =

sin π(η−ξ)

π(η−ξ)(ξ 6= η)

1 (ξ = η)

con respecto a la medida estandar dξ en R. (Decimos que el nucleo seno es el nucleo lımite deKN en el grueso del espectro, es decir, en el interior del soporte [−

√2N,√

2N] de la 1-densidadlımite, que en el caso GUE esta dada por la Ley de Wigner.)

Explıcitamente, en terminos de las variables rescaladas (niveles)

ξ = (x− x0)R(N)(x0)

η = (y− y0)R(N)(y0)

Page 51: Ema Problem As

NOTAS DE FAMILIAS DE MATRICES GAUSSIANAS Y CIRCULARES 51

demuestre que

lımN→∞

∣∣∣∣∂(ξ, η)

∂(x, y)

∣∣∣∣KN(x, y) = S(ξ, η)

donde R(N)1 (x0) es la 1-densidad de niveles en x0 (Ecuacion (151)).

Referencias

[AGZ09] Greg W. Anderson, Alice Guionnet, and Ofer Zeitouni. An Introduction to Random Matrices. CambridgeUniversity Press, 1 edition, Dec 2009.

[Fla89] Harley Flanders. Differential forms with applications to the physical sciences. Dover Books on AdvancedMathematics. Dover Publications Inc., New York, second edition, 1989.

[For10] P. J. Forrester. Log-gases and random matrices, volume 34 of London Mathematical Society Monographs Series.Princeton University Press, Princeton, NJ, 2010.

[Meh04] Madan Lal Mehta. Random Matrices, Volume 142, Third Edition. Academic Press, 3 edition, Nov 2004.[MS05] F. Mezzadri and N. C. Snaith, editors. Recent perspectives in random matrix theory and number theory,

volume 322 of London Mathematical Society Lecture Note Series. Cambridge University Press, Cambridge,2005.

[Spi65] Michael Spivak. Calculus on manifolds. A modern approach to classical theorems of advanced calculus. W. A.Benjamin, Inc., New York-Amsterdam, 1965.

The University of Texas at San Antonio. San Antonio, TX 78249. [email protected]