Upload
others
View
11
Download
0
Embed Size (px)
Citation preview
DISTRIBUCIONES ELIPTICAS MULTIVARIADAS
SINGULARES Y NO SINGULARES:
TEORIA Y APLICACIONES
Vıctor Leiva SanchezDepartamento de EstadısticaUniversidad de Valparaıso
CHILE
Y
Jose A. Dıaz GarcıaDepartamento de Estadıstica y Calculo
Universidad Autonoma Agraria Antonio NarroMEXICO
Prologo
La distribucion Normal multivariada ha servido durante mucho tiempo como modelo estandar
para observaciones provenientes de diferentes areas, siendo esta el objetivo central del analisis
multivariante clasico. Sin embargo, a traves de los anos los estadısticos han tratado de extender
la teorıa de este analisis a casos mas generales y, por lo tanto, con mayor cobertura.
Ultimamente se ha planteado una clase de distribuciones cuyos contornos de sus densidades
tienen la misma forma elıptica de la Normal, pero ademas contienen distribuciones de colas
mas y menos pesadas que las de esta. Esta clase de distribuciones simetricas se denom-
ina distribuciones Contornos Elıpticos o simplemente distribuciones Elıpticas. En el analisis
multivariante, la familia de distribuciones Elıpticas proporciona una alternativa y una gener-
alizacion de la distribucion Normal, ya que esta ultima es un caso particular de tal familia,
por lo que da origen a lo que hoy se denomina Analisis Multivariado Generalizado.
La utilizacion de distribuciones Elıpticas en problemas que solo han sido resueltos con la
distribucion Normal, permite generalizar la teorıa hasta ahora planteada. Algunos de estos
problemas ya han sido resueltos para las distribuciones Elıpticas no singulares, aunque no
ası para el caso singular. Especıficamente, cuando se muestrea desde una poblacion Elıptica,
el problema de las distribuciones de muestreo tradicionalmente usadas, esto es, las distribu-
ciones chi-cuadrado, t y F , que bajo distribuciones Elıpticas se denominan distribuciones
chi-cuadrado,t y F , ha sido parcialmente resuelto. Quedando abierto el problema desde la
perspectiva de las distribuciones Elıpticas singulares y para las distribuciones t y F doble no
centradas generalizadas. Por otra parte, el interes puede radicar en la estimacion e inferencia
1
2
de los parametros de dispersion de la poblacion en estudio. Bien se sabe que las medidas de
dispersion se utilizan para evaluar la variabilidad de un conjunto de datos, siendo la desviacion
estandar la mas utilizada; sin embargo, esta entrega poca informacion del conjunto si es in-
terpretada en forma aislada, solo cuando se la relaciona con la media su interpretacion tiene
mayor sentido. Por esta razon el coeficiente de variacion, que relaciona a ambas medidas,
es sumamente util. Este coeficiente mide la dispersion u homogeneidad de un conjunto de
datos asociados a una variable aleatoria y es una medida de variabilidad relativa, es decir,
es adimensional, pues representa a la desviacion estandar por una unidad de media y resulta
de particular interes cuando se desea comparar la variabilidad entre grupos cuyas medias y
varianzas difieren. Sus aplicaciones son diversas y se lo ha empleado con mucho exito en la
medicion de la variabilidad relativa. Por ejemplo, se lo ha utilizado ampliamente para com-
parar metodos de medicion; en Finanzas, se lo ha usado para medir el riesgo relativo de rentas
variables; en Teorıa de Inventarios para comparar la variabilidad de dos niveles de almace-
namiento y tambien se ha aplicado el coeficiente de variacion en Ciencias Fısicas, Biologicas
y Medicas. Dentro del contexto de la Estadıstica se pueden encontrar tambien aplicaciones
del coeficiente de variacion en un problema de muestreo, especıficamente en la determinacion
del tamano de la muestra, al emplear una prueba de hipotesis para el coeficiente de variacion
para evaluar la no normalidad de una variable aleatoria positiva, en Modelos Lineales y en
Confiabilidad, entre otras.
Existen en la actualidad excelentes libros y artıculos que recogen las investigaciones hechas
hasta la fecha acerca de la distribuciones Elıpticas, como lo son los libros [1], [32], [31], [39]
y [70], y diversas publicaciones, entre las que se encuentran los trabajos [50], [16], [18], [49],
[15], [12] y [83], y los trabajos recientes [5] y [54], entre otros. Aunque a partir de 1970 estas
distribuciones comenzaron su auge, se registran estudios anteriores, como lo son [72] y [56].
Asimismo, las distribuciones de formas cuadraticas y distribuciones asociadas al muestreo,
obtenidas a partir de distribuciones Elıpticas, fueron estudiadas y publicadas en [11], [34], [4]
y [78], entre otros.
3
Por otra parte, los primeros resultados distribucionales del CV de una poblacion Normal se
remontan a los estudios realizados en [59], los cuales son corroborados en [66]. Luego de casi
cuatro decadas, en [44] se retoma el tema comparando aproximaciones de percentiles del CV
muestral con los resultados hasta ahı propuestos. Posteriormente en [6] se plantea un contraste
aproximado para probar la homogeneidad de coeficientes de variacion. En [7] se encuentra un
test basado en el estadıstico de razon de verosimilitud para contrastar estas mismas hipotesis.
Luego en [63] se propone un nuevo contraste para la igualdad de dos coeficientes de variacion,
en [30] se generaliza a k muestras, y en [77] se presentan estudios de simulacion de estos
contrates. Por su parte, en [43] se realiza inferencia para el CV de una distribucion Inversa
Gaussiana. En [62], y posteriormente en [35], se presentan pruebas de hipotesis asintoticas
para el coeficiente de variacion de una, dos y k muestras, junto con estudios de simulacion. En
[40] se entregan diversos resultados que permiten probar la igualdad de coeficientes de variacion
de k muestras provenientes de poblaciones normales basados en la revision de contrastes ya
conocidos, como lo son las pruebas de Bennet, de razon de verosimilitud, de la t no centrada,
de Wald -la que extienden a k muestras y para distintos tamanos de estas- y ademas presentan
un nuevo contraste basado en la prueba de Score. En [64] se hace inferencia asintotica para el
CV de una poblacion Normal presentando formulas para estadısticos de prueba, a traves de
los cuales es posible evaluar la potencia de los contrastes planteados. Finalmente, algunos de
los resultados planteados para el CV de una poblacion Normal son extendidos en [54] al caso
de una poblacion Elıptica.
A partir de esto el queda abierta la aplicacion de las distribuciones Elıpticas singulares sobre:
las distribuciones chi-cuadrado, t y F generalizadas centradas y no centradas, las distribu-
ciones t y F generalizadas doble no centradas, y sobre la inferencia para el coeficiente de
variacion de una poblacion Elıptica.
Se estudia en este trabajo el problema de singularidad de una distribucion Elıptica, pues la
densidad multivariada no existe en todo IRn, tal como se menciona en [32] y [69]; sin embargo,
dicha densidad sı existe en un subespacio de IRn, tal como se presenta en este trabajo. Se
4
tratan tambien aquı problemas asociados con distribuciones empleadas en el muestreo, como
lo son la distribucion chi-cuadrado generalizada centrada y no centrada, la distribucion t
generalizada centrada y no centrada y la distribucion F generalizada centrada, no centrada y
doble no centrada, bajo singularidad y no singularidad de la ley Elıptica asociada. Finalmente,
a traves de las distribuciones Elıpticas, de la distribucion t generalizada no centrada y del
caso de muestras grandes, se estudia el aspecto distribucional e inferencial del coeficiente de
variacion poblacional, tanto para el caso de una poblacion Elıptica con estructura dependiente
e independiente.
Las aportaciones especıficas que se hacen en este trabajo, son:
(1) Hallar la densidad de una vector aleatorio Elıptico singular siguiendo el argumento prop-
uesto en [69, p. 527] y se hallan las distribuciones χ2, t y F generalizadas asociadas a este
vector aleatorio, en cuyo caso, y tal como se demuestra, la singularidad de la distribucion
Elıptica afecta los grados de libertad de tales distribuciones. Posteriormente, se utilizan dos
distribuciones Elıpticas singulares especıficas, como lo son la Pearson tipo VII y la de tipo
Kotz, hallando ası explıcitamente las densidades de estas distribuciones. Finalmente, se tratan
dos aplicaciones de la distribucion Elıptica singular. La primera de ellas relacionada con la
distribucion de los residuos de un modelo lineal Elıptico y la segunda relacionada con el
estadıstico t generalizado, basado en una muestra obtenida desde una poblacion Elıptica.
(2) Presentar las distribuciones t y F generalizadas, tanto para el caso centrado, no centrado y
doble no centrado, y bajo singularidad y no singularidad de la distribucion Elıptica asociada,
en cuyo caso la singularidad de la distribucion afecta los grados de libertad de las distribuciones
t y F generalizadas (vea [25]). Para las distribuciones t y F generalizadas centradas, se usa la
invarianza de tales distribuciones bajo leyes Elıpticas con parametro de posicion igual a cero,
coincidiendo con las del caso Normal. Para las distribuciones F generalizadas no centrada y
doble no centrada, se presentan sus densidades tanto en terminos de integrales como de las
derivadas de la funcion generadora de densidades asociada a cada distribucion Elıptica, y por
ende de cada distribucion F generalizada. En el caso de la distribuciones t generalizadas no
5
centrada y doble no centrada no es posible obtener esta representacion, por lo que su densidad
solo se expresa a traves de integrales. Finalmente se ilustran todos estos resultados para dos
subfamilias de distribuciones Elıpticas, como lo son la distribucion de Pearson tipo VII y
la distribucion de tipo Kotz, subfamilias que a su vez contienen como casos particulares a
las distribuciones Elıpticas t y Normal multivarian-tes, respectivamente. En esta ilustracion
y para el caso de la distribucion F generalizada, se observa la evidente simplificacion que
se produce al usar la densidad en terminos de la derivada de la gene-radora de densidades
en lugar de la expresion integral. Sin embargo, se debe tener presente que la aplicacion
de este resultado es solo posible cuando la generadora de densidades, asociada a la particular
distribucion Elıptica que se haya considerado, sea expandible en serie de Taylor, lo cual ocurre
cuando existen los momentos de dicha distribucion. Como no todas las distribuciones Elıpticas
disponen de momentos, como por ejemplo la distribucion de Cauchy, esto motiva entonces la
existencia de las dos expresiones para la densidad.
(3) Proponer un coeficiente de variacion generalizado, como una medida de varia-bilidad rel-
ativa, valido para poblaciones cuya distribucion carece de primer y segundo momento (los
momentos de una distribucion Elıptica pueden verse en [32][p. 67])). Esta medida se puede
entender como una generalizacion del CV y se define como la raız cuadrada del parametro de
escala dividido por el parametro de posicion. Se analizan aspectos distribucionales e inferen-
ciales de este CV generalizado bajo dos modelos Elıpticos, como lo son el modelo dependiente
(el vector aleatorio tiene una estructura dependiente con distribucion Elıptica multivariada) y
el modelo independiente (cada variable aleatoria del vector es independiente e identicamente
distribuida Elıptica univariada). Especıficamente, para ambos modelos (dependiente e inde-
pendiente) se encuentra el estimador de verosimilitud maxima (EVM) y, en forma alterna-
tiva, se plantea un estimador tipo momentos (EM) para el CV. El EVM queda expresado en
terminos de las funciones f y φ asocia-das a cada ley Elıptica, por lo cual en esta seccion solo
es posible hallar una expresion general para este estimador. Posteriormente se presenta la
distribucion exacta del inverso del EVM del CV para el modelo dependiente y la distribucion
asintotica del EVM y del EM del CV bajo el modelo independiente. A partir de estas distribu-
6
ciones se obtienen intervalos de confianza y pruebas de hipotesis para el CV. Los resultados
obtenidos bajo el modelo dependiente son ilustrados a traves de dos subfamilias de distribu-
ciones Elıpticas, como lo son la distribucion de Pearson Tipo VII y la distribucion de Tipo
Kotz, permitiendo encontrar ası expresiones explıcitas para los resultados planteados; partic-
ularmente se estudian las distribuciones t-multivariada y de Cauchy (esta ultima distribucion
carece de momentos), como casos particulares de la subfamilia Elıptica de Pearson Tipo VII,
y la distribucion Normal, como caso particular de la subfamilia de Tipo Kotz. Los resultados
encontrados bajo el modelo independiente se particularizan para la distribuciones univariadas
t con s grados de libertad y Normal, incluyendo ademas la eficiencia relativa asintotica (ERA)
de los estimadores hallados. Finalmente se entrega una detallada lista de aplicaciones del CV.
Este trabajo ha sido estructurado en dos partes y seis capıtulos. La primera parte presenta
aspectos introductorios de la distribuciones Elıpticas y del algebra matricia, la cual esta es-
tructurada en 3 capıtulos. En el primero de ellos se proporcionan los aspectos preliminares,
requeridos para solucionar algunos problemas que se resuelven en los capıtulos subsiguientes.
En el segundo capıtulo se introducen las distribuciones Elıpticas y Esfericas, en el se presentan
resultados conocidos de estas distribuciones y sus relaciones con la distribucion Normal. En
el capıtulo tercero se tratan las distribuciones empleadas habitualmente en el muestreo, en
este caso de una poblacion Elıptica, como lo son las distribuciones chi-cuadrado, t y F gener-
alizadas, para los casos centrados y no centrados, basados en resultados ya conocidos. En la
segunda parte se presentan los resultados de las 3 aportaciones originales propuestas en este
trabajo, solo planteadas hasta ahora en artıculos. la cual esta compuesta por los Capıtulos
cuatro, cinco y seis de este trabajo. En el capıtulo cuatro se trata la distribucion Elıptica
singular, se encuentra su densidad y se presentan dos aplicaciones de esta. En el capıtulo cinco
se presentan las distribuiciones t y F generalizadas doble no centradas, se halla su densidad
bajo singularidad y no singularidad de la ley Elıptica asociada. En el capıtulo seis se presentan
todos los aspectos relacionados con la inferencia del coeficiente de variacion de una poblacion
Elıptica con estructura dependiente e independiente, ası como los aspectos distribucionales
de los estimadores del coeficiente de variacion planteados. Finalmente, se acompana a una
7
extensa bibliografıa del tema que fue revisada por el autor.
8
Notacion y Abreviaturas
IRn : Espacio real n-dimensional.
A ∈ IRn×p : Matriz real de dimension n× p.
A,B, C, . . . : Matrices constantes.
a, b, c, . . . : Constantes reales.
X,Y,Z, . . . : Vectores aleatorios.
X, Y, Z, . . . : Variables aleatorias.
aij : El ij-esimo elemento de la matriz A.
AT : La transpuesta de A.
In : Matriz identidad de orden n.
eni : Vector unitario de orden n.
aj : j-esima columna de la matriz A.
a(i) : i-esima fila de la matriz A.
|A| : Determinante de A.
A−1 : Inversa de A.
A− : Inversa generalizada de A.
Ac : Inversa condicional de A.
9
10
rk A : Rango de A.
tr A : Traza de A.
diag A : Matriz diagonal.
UT : Conjunto de matrices triangulares superiores.
LT : Conjunto de matrices triangulares inferiores.
f(·) : Funcion real valorada f .
f ′(·) : Derivada de la funcion f .
f (2k)(·) : Derivada 2k-esima de la funcion f .
A > 0 : Matriz definida positiva.
A ≥ 0 : Matriz semi-definida positiva.
A⊗B : Producto Kronecker de las matrices A y B.
O(p) : Conjunto de matrices ortogonales ∈ IRp×p.
Vn,n−p : Variedad de Stiefel ∈ IRn×(n−p).
Im A : Imagen de A.
t.c.e.g. : Transformacion de coordenadas esfericas generalizadas.
J(X → Y) : Jacobiano de la transformacion de X a Y.
IE(X) : Valor esperado de X.
V ar(X) : Varianza de X.
11
ψX(t) : Funcion caracterıstica de X.
f.c. : Funcion Caracterıstica.
Xd= Y : X e Y tienen la misma distribucion.
Nn(·, ·) : Distribucion Normal multivariada.
ECn(·, ·; ·) : Distribucion Elıptica en IRn.
Sn(·) : Distribucion Esferica en IRn.
Beta(·, ·) : Distribucion Beta.
P V IIn (·) : Distribucion de Pearson tipo VII multivariada.
P IIn (·) : Distribucion de Pearson tipo II multivariada.
Uni{E‖X‖ = 1} : Distribucion Uniforme en la esfera unitaria.
tn(·, ·) : Distribucion t-multivariada.
Kn(·, ·) : Distribucion de tipo Kotz en IRn.
Gχ2 : Distribucion chi-cuadrado generalizada.
Gt : Distribucion t generalizada.
GF : Distribucion F generalizada.
GF ′′ : Distribucion F generalizada doble no centrada.
EMV(θ) : Estimador Maximo Verosımil de θ.
CV : Coeficiente de Variacion.
TRV : Test de Razon de Verosimilitud.
12
Contents
I ASPECTOS INTRODUCTORIOS 17
1 Preliminares 19
1.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2 Aspectos de Teorıa Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.1 Matrices Ortogonales y Semi-ortogonales . . . . . . . . . . . . . . . . . 20
1.2.2 Determinante de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.3 Inversion de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2.4 Particion de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.2.5 Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.6 Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2.7 Formas Cuadraticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.2.8 Matrices Definidas y Semi-definidas Positivas . . . . . . . . . . . . . . . 27
1.2.9 Proyecciones Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2.10 Factorizaciones de Matrices . . . . . . . . . . . . . . . . . . . . . . . . 28
1.2.11 Inversa Generalizada de una Matriz . . . . . . . . . . . . . . . . . . . . 31
1.2.12 Producto Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3 Evaluacion del Jacobiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3.1 La Transformacion de Coordenadas Esfericas Generalizadas . . . . . . 34
2 Distribuciones de Contornos Elıpticos 37
2.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
13
14 CONTENTS
2.2 Distribucion Elıptica No Singular . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.1 Distribuciones Elıpticas y Esfericas . . . . . . . . . . . . . . . . . . . . 38
2.2.2 Representacion Estocastica . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.3 Distribuciones Marginales . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2.4 Distribuciones Condicionales . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2.5 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.6 Caracterizaciones de Normalidad . . . . . . . . . . . . . . . . . . . . . 43
2.2.7 Distribucion Invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.2.8 Distribuciones Elıpticas Particulares . . . . . . . . . . . . . . . . . . . 45
3 Distribucion de Formas Cuadraticas 49
3.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Distribucion Chi-cuadrado Generalizada . . . . . . . . . . . . . . . . . . . . . 50
3.2.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.2.2 Distribucion Chi-cuadrado Generalizada Centrada y No Centrada . . . 50
3.3 Distribucion t Generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.2 Distribucion t Generalizada Centrada y No Centrada . . . . . . . . . . 57
3.4 Distribucion F Generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.4.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.4.2 Distribucion F Generalizada Centrada y No Centrada . . . . . . . . . . 63
II RESULTADOS 69
4 Distribucion Elıptica Singular 71
4.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2 Densidad de una distribucion Elıptica Singular . . . . . . . . . . . . . . . . . . 71
4.3 Distribuciones χ2, t y F Generalizadas . . . . . . . . . . . . . . . . . . . . . . 77
4.3.1 Distribucion χ2 Generalizada . . . . . . . . . . . . . . . . . . . . . . . 77
CONTENTS 15
4.3.2 Distribucion t Generalizada . . . . . . . . . . . . . . . . . . . . . . . . 80
4.3.3 Distribucion F Generalizada . . . . . . . . . . . . . . . . . . . . . . . . 83
4.4 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.4.1 Distribucion de los Residuos de un Modelo Lineal Elıptico . . . . . . . 85
4.4.2 Distribucion del Estadıstico t Generalizado . . . . . . . . . . . . . . . . 87
5 Distribuciones Gt y GF Doble No Centrada 91
5.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2 Distribucion Gt Doble No centrada . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2.1 Distribucion Gt No Centrada . . . . . . . . . . . . . . . . . . . . . . . 93
5.2.2 Distribucion Gt bajo una Ley de Pearson Tipo VII Singular . . . . . . 95
5.2.3 Distribucion Gt bajo una Ley de Tipo Kotz Singular . . . . . . . . . . 97
5.2.4 Distribucion Gt Doble No Centrada . . . . . . . . . . . . . . . . . . . . 99
5.3 Distribucion GF Doble No Centrada . . . . . . . . . . . . . . . . . . . . . . . 100
5.3.1 Distribucion GF No Centrada . . . . . . . . . . . . . . . . . . . . . . . 101
5.3.2 Distribucion GF bajo una Ley de Pearson Tipo VII Singular . . . . . . 103
5.3.3 Distribucion GF bajo una Ley de Tipo Kotz . . . . . . . . . . . . . . . 106
5.3.4 Distribucion GF Doble No Centrada . . . . . . . . . . . . . . . . . . . 109
6 Inferencias para el CV bajo una Ley Elıptica 113
6.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.2 Especificacion de los Modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.2.1 Modelo Elıptico con Estructura Dependiente . . . . . . . . . . . . . . . 117
6.2.2 Modelo Elıptico con Estructura Independiente . . . . . . . . . . . . . . 117
6.3 Estimadores del CV de una Poblacion Elıptica . . . . . . . . . . . . . . . . . . 118
6.3.1 Estimadores del CV bajo el Modelo D . . . . . . . . . . . . . . . . . . 118
6.3.2 Estimadores del CV bajo el Modelo I . . . . . . . . . . . . . . . . . . . 120
6.4 Distribuciones Asociadas al Estimador del CV . . . . . . . . . . . . . . . . . . 120
6.4.1 Distribucion del EVM del CV bajo el Modelo D . . . . . . . . . . . . . 121
16 CONTENTS
6.4.2 Distribucion Asintotica del CV bajo el Modelo I . . . . . . . . . . . . . 121
6.5 Intervalos de Confianza para el CV de una poblacion Elıptica . . . . . . . . . . 124
6.5.1 Intervalo de Confianza para el CV bajo el Modelo D . . . . . . . . . . . 124
6.5.2 Intervalo de Confianza para el CV bajo el Modelo I . . . . . . . . . . . 125
6.6 Pruebas de Hipotesis para el CV de una Poblacion Elıptica . . . . . . . . . . . 126
6.6.1 Prueba de Hipotesis para el CV bajo el Modelo D . . . . . . . . . . . . 126
6.6.2 Prueba de Hipotesis para el CV bajo el Modelo I . . . . . . . . . . . . 126
6.7 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Part I
ASPECTOS INTRODUCTORIOS
17
Chapter 1
Preliminares
1.1 Introduccion
Este capıtulo presenta los aspectos preliminares de este trabajo y esta compuesto por dos
secciones; en la primera de ellas se encuentran definiciones y resultados conocidos del algebra
matricial, como lo son los de: matrices ortogonales y semi-ortogonales, determinante y rango
de una matriz, inversion y particion de matrices, valores y vectores propios de una matriz,
formas cuadraticas, matrices definidas y semidefinidas positivas, proyecciones ortogonales,
factorizacion de matrices e inversas generalizadas de un matriz; cada uno de los cuales se
hace necesario para el mejor entendimiento de este trabajo, ya se que emplean con bas-
tante frecuencia durante el desarrollo de este, pudiendo encontrar mayores detalles de esta
seccion en cualquier libro de Algebra Lineal, como por ejemplo en citeg:76, entre otros. En
la segunda seccion se presenta la evaluacion de jacobianos de transformaciones, enfatizando
particularmente en la transformacion de coordenadas esfericas generalizadas, ya que dicha
transformacion es utilizada ampliamente a lo largo de este trabajo, mayores detalles de esta
seccion pueden hallarse en [32], ası como en otros libros de la bibliografıa. Otros aspectos
matematicos ası como de teorıa estadıstica, utilizados en este trabajo, fueron omitidos en
estos preliminares, pudiendo de cualquier forma revisarse en [69] o [65], ası como en los antes
mencionados y en otros que aparecen en la bibliografıa.
19
20 CHAPTER 1. PRELIMINARES
1.2 Aspectos de Teorıa Matricial
Se presentan a continuacion los elementos del algebra matricial mas utilizados durante este
trabajo, ya descritos anteriormente y que juegan un importante papel en algunas secciones de
este.
Una matriz A ∈ IRn×p es un arreglo rectangular de elementos aij, tal que
A =
a11 . . . a1p
.... . .
...
an1 . . . anp
. (1.1)
Tambien se puede escribir A = (aij), aij ∈ IR.
Para la definicion anterior considere que
1. si n = p, entonces se dice que A es cuadrada de orden p.
2. AT es la transpuesta de A y tiene orden p× n.
3. si AT = A, se dice que A es simetrica.
4. si A es cuadrada y todos los elementos que estan fuera de la diagonal son ceros, entonces
A se dice que es una matriz diagonal y se denota por A = diag(aii). Si para A = (aij),
aij = 0, ∀ j < i, entonces A se dice matriz triangular superior y se denota por A ∈UT(p); si aij = 0, ∀ j > i, entonces A se dice matriz triangular inferior y se denota por
A ∈ LT(p).
5. si todos los elementos de A son ceros, entonces A se denomina matriz nula y se denota
por A = 0.
1.2.1 Matrices Ortogonales y Semi-ortogonales
[Conjunto de Matrices Ortogonales] El conjunto de matrices ortogonales, denotado por O(p),
es aquel que contiene a todas las matrices H ∈ IRp×p, tal que HT H = Ip, esto es,
O(p) = {H ∈ IRp×p | HT H = Ip}.
1.2. ASPECTOS DE TEORIA MATRICIAL 21
[Matriz Ortogonal] Sea A ∈ IRp×p. Entonces, si A ∈ O(p) se dice que es una matriz
ortogonal.
[Conjunto de Matrices Semi-ortogonales] El conjunto de matrices semi-ortogonales, tambien
llamado Variedad de Stiefel y denotado por Vn,p, es aquel que contiene a todas las matrices
H ∈ IRn×p, tal que HT H = Ip, esto es,
Vn,p = {H ∈ IRn×p | HT H = Ip},
es decir, las columnas de H son ortonormales.
[Matriz Semi-ortogonal] Sea A ∈ IRn×p. Entonces, si A ∈ Vn,p, se dice que A es una matriz
semi-ortogonal.
1.2.2 Determinante de una Matriz
[Determinante] Sea A ∈ IRp×p. Entonces, el determinante de A, denotado por |A|, viene dado
por
|A| = ∑π
επ a1j1 a2j2 ... apjp , (1.2)
donde∑
π denota la suma sobre todas las p! permutaciones π = (j1, ..., jp) de (1, ..., p) y επ = 1
o −1, dependiendo si la permutacion es par o impar.
Sea A ∈ IRp×p, tal que
1. si ai = 0 o a(j) = 0, para algun i o j, entonces |A| = 0.
2. |A| = |AT |.
3. |(a1 . . . ai−1 α · ai ai+1 . . . ap)| = α |A|, α ∈ IR.
4. |α A| = αp |A|, α ∈ IR..
5. |AB| = |A| · |B|, B ∈ IRp×p.
6. |A1 · . . . · An| = |A1| · . . . · |An|, Ai ∈ IRp×p, i = 1, ..., n.
22 CHAPTER 1. PRELIMINARES
7. |AAT | = |AT A| ≥ 0.
8.
A C
0 B
=
A 0
D B
= |A| · |B|, donde B ∈ IRq×q, C ∈ IRp×q y D ∈ IRq×p.
9. |Ip + BC| = |Iq + CB|, donde B ∈ IRp×q y C ∈ IRq×p.
10. |T | =p∏
i=1
tii, si T = (tij) ∈ UT(p).
11. |H| = ±1, si H ∈ O(p).
1.2.3 Inversion de Matrices
[Matriz Inversa] Sea A ∈ IRp×p y |A| 6= 0. Entonces, existe una unica matriz B ∈ IRp×p tal
que AB = Ip y B es llamada la inversa de A y se denota por A−1.
Una matriz cuyo determinante es distinto de cero se denomina no singular.
. Sea A ∈ IRp×p, tal que
1. AA−1 = A−1A = Ip.
2. (A−1)T = (AT )−1.
3. (AB)−1 = B−1A−1, si A y B son matrices no singulares.
4. |A−1| = |A|−1.
5. A−1 = AT , si A ∈ O(p).
6. Si A = diag(aii), con aii 6= 0, ∀ i = 1, ..., p, entonces A−1 = diag(a−1ii ), ∀ i = 1, ..., p.
7. Si A ∈ UT(p), entonces A−1 ∈ UT(p) y sus elementos en la diagonal son a−1ii , ∀ i =
1, ..., p.
1.2. ASPECTOS DE TEORIA MATRICIAL 23
1.2.4 Particion de Matrices
Una matriz no singular A ∈ IRp×p se dice que esta particionada en submatrices si, para
i, j = 1, 2, A puede escribirse de la forma
A =
A11 A12
A21 A22
, (1.3)
donde A11 ∈ IRm×q, A12 ∈ IRm×(p−q), A21 ∈ IR(n−m)×q y A22 ∈ IR(n−m)×p−q.
Sean A, B y C matrices de ordenes adecuados y particionadas apropiadamente. Entonces,
1. A + B =
A11 + B11 A12 + B12
A21 + B21 A22 + B22
y
2. AC =
A11C11 + A12C21 A11C12 + A12C22
A21C11 + A22C21 A21C12 + A22 + C22
.
3. Sea A ∈ IRp×p una matriz no singular, tal que B = A−1. Particione A y B de manera
similar y de la misma forma que antes, esto es,
A =
A11 A12
A21 A22
y B =
B11 B12
B21 B22
,
donde A11, B11 ∈ IRq×q y A22, B22 ∈ IR(p−q)×(p−q), con A11 y A22 no singulares.
Denote ahora
A11.2 = A11 − A12A−122 A21 y A22.1 = A22 − A21A
−111 A12. (1.4)
Entonces,
B11 = A−111.2 , B12 = −A−1
11 A12A−122.1 ,
B21 = −A−122 A21A
−111.2 , B12 = A−1
22.1 ,
B11 = A−111 + A−1
11 A12A−122.1A21A
−111 , B12 = −A11.2A12A
−122 ,
B21 = −A−122.1A21A
−111 y B22 = A−1
22 + A−122 A21A
−111.2A12A
−122 .
24 CHAPTER 1. PRELIMINARES
4. Sea A ∈ IRp×p particionada como en (2.3) y A11.2 y A22.1 como en (2.4). Ası,
(a) si |A22| 6= 0, entonces |A| = |A22| |A11.2|.
(b) si |A11| 6= 0, entonces |A| = |A11| |A22.1|.
(c) si |A11| 6= 0, entonces |A11| |A22.1| = |A22| |A11.2|.
5. Sean A ∈ IRp×p y B ∈ IRq×q matrices no singulares, C ∈ IRp×q y D ∈ IRq×p. Ası,
(A + CBD)−1 = A−1 − A−1CB(B + BDA−1CB)−1BDA−1. (1.5)
6. Si X ∈ IRn×p, entonces
XTX =
XT1 X1 . . . XT
1 Xp
.... . .
...
XTp X1 ... XT
p Xp
=n∑
i=1
X(i)XT(i). (1.6)
1.2.5 Rango de una Matriz
[Rango de una Matriz] Sea A ∈ IRn×p una matriz distinta de la matriz nula. Entonces, si
r de las columnas o filas de A son linealmente independientes, A tiene rango r ≤ min(p, n),
denotandolo por rk A = r.
Sea A ∈ IRn×p, tal que
1. rk0 = 0
2. rk A = p, si A es una matriz cuadrada y no singular.
3. rk A = rk AT = rk AAT = rk AT A.
4. rk(AB) ≤ min(rk A, rk B), B ∈ IRp×m.
5. rk(A + C) ≤ (rk A + rk C), C ∈ IRn×p.
6. rk(ABC) = rk B, si A y C son matrices cuadradas no singulares de ordenes adecuados.
7. si AB = 0, con B ∈ IRp×m, entonces rk B ≤ (p− rk A).
1.2. ASPECTOS DE TEORIA MATRICIAL 25
1.2.6 Valores y Vectores Propios
[Valor Propio] Sea A ∈ IRp×p. Entonces, los valores propios de A estan dados por las raıces
de la ecuacion caracterıstica en λ, asociados al polinomio caracterıstico |A− λI|, dadas por
|A− λI| = 0. (1.7)
Para el polinomio caracterıstico considere que
1. Dado que este es de orden p, entonces tiene exactamente p raıces.
2. Las raıces del polinomio caracterıstico no son necesariamente distintas, es decir, pueden
tener una multiplicidad mayor que 1.
3. Las raıces del polinomio caracterıstico pueden ser reales, complejas o ambas.
4. Si λ1 es una raız del polinomio caracterıstico, entonces |A−λ1Ip| = 0, es decir, (A−λ1Ip)
es singular y λ1 es un valor propio de A.
[Vector Propio] Sean A ∈ IRp×p y X ∈ IRp. Entonces, los vectores propios de A estan
dados por la solucion del sistema de ecuaciones en X, dado por
(A− λI) X = 0, (1.8)
al reemplazar cada valor propio λ en dicho sistema, es decir, para cada valor propio λ existe
un vector propio X.
Sea A ∈ IRp×p, tal que
1. si A tiene valores propios λ de multiplicidad r, entonces existen r vectores propios
ortogonales correspondientes a λ.
2. si A = AT , entonces todos sus valores propios son reales, digamos λ1, λ2, ..., λp, con
λ1 ≥ λ2 ≥ · · · ≥ λp. Entonces, los valores propios de A estan en la diagonal de una
matriz D, esto es, D = diag(λi), i = 1, ..., p.
26 CHAPTER 1. PRELIMINARES
3. los vectores propios, correspondientes a distintos valores propios de una matriz simetrica,
son ortogonales.
4. si B = PAP−1, donde A, B y P son matrices cuadradas y P es no singular, entonces A
y B tienen los mismos valores propios.
5. los valores propios de A y de AT son los mismos.
6. los valores propios no nulos de AB y de BA son los mismos. En particular, los valores
propios no nulos de AAT y AT A son los mismos.
7. si A = diag(aii), i = 1, ..., p, entonces a11, ..., app son los valores propios de A y los
vectores eT1 , eT
2 , ..., eTp son, respectivamente, sus vectores propios asociados, donde eT
i ∈IRp es un vector que tiene solo un uno en la posicion i-esima y el resto son ceros, esto
es, eTi = (0 . . . 0 1 0 . . . 0).
8. si los valores propios de A son λ1, λ2,..., λp, entonces los valores propios de A−1 son λ−11 ,
λ−12 ,..., λ−1
p .
9. si A ∈ O(p), entonces todos los valores propios tienen valor absoluto igual a 1.
10. si A ∈ UT(p) (o LT(p)), entonces los valores propios de A son a11, ..., app (los elementos
de la diagonal).
11. si A tiene valores propios λ1, λ2,..., λp, entonces (A − k Ip) tiene valores propios λ1 −k, λ2 − k, ... , λp − k.
1.2.7 Formas Cuadraticas
[Forma Cuadratica] Sea X ∈ IRp, tal que f(x1, ..., xp) = f(X) es una funcion real valorada,
esto es, xi ∈ IR, ∀ i = 1, ..., p. Entonces, se dice que f(X) es una forma cuadratica si
f(x1, ..., xp) =p∑
i=1
n∑
j=1
aijxixj = XT A X,
1.2. ASPECTOS DE TEORIA MATRICIAL 27
donde A ∈ IRp×p es llamada la matriz de la forma cuadratica.
La matriz de una forma cuadratica siempre se puede escoger simetrica.
Sean X,Y ∈ IRp y A,B y C ∈ IRp×p. Entonces, cuando es necesario hacer un cambio
de variables de xi a yi, i = 1, ..., p, a traves del conjunto de ecuaciones lineales Y = C−1 X,
donde C es una matriz no singular, la forma cuadratica XT A X se puede expresar como
XT A X = YT CT A C Y = YT (CT AC) Y = YT B Y,
donde B =T A C, de modo que A y B son congruentes.
1.2.8 Matrices Definidas y Semi-definidas Positivas
[Matriz Definida Positiva] Sea A ∈ IRp×p. Entonces, A se dice definida positiva si
1. A = AT y
2. XT AX > 0, ∀ X ∈ IRn y X 6= 0.
[Matriz Semidefinida Positiva] Sea A ∈ IRp×p. Entonces, A se dice semidefinida positiva si
1. A = AT ,
2. XT AX ≥ 0, ∀ X ∈ IRn y
3. XT AX = 0, para al menos un X ∈ IRn y X 6= 0.
[Matriz Definida No Negativa] Una matriz se dice definida no negativa si y solo si, es
definida positiva o semi-definida positiva.
1.2.9 Proyecciones Ortogonales
[Matriz Idempotente] Una matriz A se dice idempotente si A2 = A.
[Traza] Sea A ∈ IRp×p. Entonces, la traza de A se define como la suma de los elementos
de la diagonal, esto es,
tr A =p∑
i=1
aii.
28 CHAPTER 1. PRELIMINARES
[Matriz de una Proyeccion Ortogonal] Una matriz A se dice que es la matriz de una
proyeccion ortogonal si
1. A = AT y
2. A2 = A,
esto es, si es simetrica e idempotente.
En lo posterior, para referirse a la matriz de una proyeccion ortogonal se dira simplemente
proyeccion ortogonal, pues la proyeccion ortogonal es la aplicacion lineal de dicha matriz y su
relacion es biunıvoca.
Sea A una proyeccion ortogonal. Entonces,
1. (Ip − A) es tambien una proyeccion ortogonal.
2. tr A = rk A.
3. sus valores propios son 0 o 1.
1.2.10 Factorizaciones de Matrices
Sea A ∈ IRp×p. Ası,
1. si A tiene valores propios reales, entonces
A = H T HT , (1.9)
donde H ∈ O(p) y T ∈ UT(p), cuyos elementos de la diagonal son los valores propios
de A.
2. si A = AT , con valores propios λ1, λ2,..., λp, entonces
A = HT D H, (1.10)
1.2. ASPECTOS DE TEORIA MATRICIAL 29
donde H ∈ O(p) y D = diag(λi), i = 1, 2, ..., p. Si HT = (h1 ... hp), entonces hi es un
vector propio de A asociado al valor propio λi, i = 1, 2, ..., p. Frecuentemente, se asume
que λ1 ≥ λ2 ≥ · · · ≥ λp. Ademas, si λ1, λ2, ..., λp son distintos, la representacion (2.10)
es unica, salvo cambios de signo en cada elemento de la primera fila de H. Ası, se puede
reescribir (2.10) de la forma
A =p∑
i=1
λi hi hTi , (1.11)
la cual es llamada ”descomposicion espectral” de A.
3. si A > 0 (≥ 0), entonces existe A12 > 0 (≥ 0), tal que A = A
12A
12 . Ası, A
12 puede
descomponerse de la forma
A1/2 = HT D1/2H, (1.12)
donde A1/2 es llamada ”raız cuadrada simetrica”, H y D estan definidas como en (2.10)
y D12 = diag
(√λi
).
4. si A ∈ IRp×p y el rk A = r ≤ p, entonces
(a) existe una matrix B ∈ IRp×r de rango r, tal que
A = B BT . (1.13)
(b) existe una matriz no singular C ∈ IRp×p, tal que
A = C
Ir 0
0 0
CT . (1.14)
(c) existe una matriz T ∈ UT(p), tal que
A = T T T. (1.15)
Cuando los elementos de la diagonal de T son no negativos, la descomposicion
(2.15) se denomina ”descomposicion de Cholesky”. Dicha descomposicion es unica
si A > 0.
30 CHAPTER 1. PRELIMINARES
5. si A ∈ IRn×p (n ≥ p), entonces A puede descomponerse de la forma
A = U B, (1.16)
donde U ∈ Vn,p y B ∈ IRp×p y B ≥ 0. Si el rk B = p, entonces B > 0. Otra forma de
representar A es
A = U
Ip
0
B, (1.17)
donde ahora U ∈ O(p) y B esta definida como en (2.16).
6. si A ∈ IRn×p y B ∈ IRn×q, tal que p ≤ q, entonces AT A = BT B si y solo si, existe una
matriz H ∈ Vp,q, tal que A H = B.
7. Si A ∈ IRn×p (n ≥ p), entonces
A = U D V, (1.18)
donde U ∈ Vn,p, V ∈ O(p), D = diag(λi), i = 1, ..., p y λ21, ..., λ
2p, son los valores propios
de AT A. Otra representacion de A serıa
A = H (D 0)T V, (1.19)
donde H ∈ O(n), V y D son las mismas que en (2.18) y 0T ∈ IR(n−p)×p. La descom-
posicion dada en (2.18) o en (2.19) es llamada ”descomposicion en valores singulares”.
8. Si A1, ..., Ak son matrices simetricas tal que, AiAj = 0, para i 6= j, i, j = 1, ..., k, entonces
existe H ∈ O(p) tal que, HT Ai H = Di, siendo Di una matriz diagonal, i = 1, ..., k.
9. Si A,B ∈ IRn×n, con A > 0 y B = BT , entonces existe una matriz no singular H ∈ IRn×n
tal que,
A = H HT y B = H D HT , (1.20)
donde D = diag(λi) y λ1,...,λn son los valores propios de A−1B. Si B > 0 y λ1,...,λn son
todos distintos, H es unica, salvo cambios de signo en cada elemento de la primera fila
de H.
1.2. ASPECTOS DE TEORIA MATRICIAL 31
1.2.11 Inversa Generalizada de una Matriz
[Matriz Inversa Generalizada] Sea A ∈ IRn×p. Entonces, existe una matriz B ∈ IRp×n que
cumple con
1. ABA = A,
2. BAB = B,
3. (AB)T = AB y
4. (BA)T = BA,
tal que B es llamada la matriz inversa generalizada (o de Moore-Penrose) de A, se denota por
B = A−
y se usa la terminologıa g-inversa para referirse a ella.
. Sea A ∈ IRn×p. Ası,
1. toda matriz A tiene asociada una unica matriz A−
que satisface las condiciones de la
Definicion 2.28, esto es, cada matriz tiene asociada una unica g-inversa.
2. si rk A = n, entonces A−
= AT (AT A)−1.
3. si rk A = p, entonces A−
= (AT A)−1A.
4. si rk A = n = p, entonces A−
= A−1.
5. si rk A = r, entonces, rk A = rk A−
= rk A−A = rk AA
−= rk AA
−A = rk AAA
−.
6. (A−)−
= A.
7. si A es simetrica, entonces A−
tambien lo es.
8. A−
= (AT A)−AT = AT (AAT )
−.
9. (AT A)−
= A−(A
−)T .
10. (AT )−
= (A−)T .
32 CHAPTER 1. PRELIMINARES
11. si A = PQT , con P ∈ IRn×r, Q ∈ IRr×m y rk A = rk P = rk Q = r, entonces A−
=
(Q−)T P
−.
12. si A es una proyeccion ortogonal, entonces A−
= A.
13. si AT = A, entonces A = HT DH (como en (2.10)), donde H ∈ O(p) y D = diag(λi),
i = 1, ..., n. Sea
λ−
=
λ−1 ; si λ 6= 0
0 ; si λ = 0.
Entonces, A−
= HT diag(λ−i )H.
14. AA−
y A−A son proyecciones ortogonales.
[Matriz Inversa Condicional] Sea A ∈ IRn×p. Entonces, existe una matriz B ∈ IRp×n que
cumple con
ABA = A, (1.21)
tal que, B se denomina matriz inversa condicional de A o c-inversa de A y se denota por
B = Ac.
Sea A ∈ IRn×p. Ası,
1. toda matriz A tiene asociada una matriz Ac, pero no es unica.
2. rk Ac ≥ rk A = r.
3. AAc
y AcA son matrices idempotentes.
4. si rk A = r, entonces rk AcA = rk A A
c= r
5. AcA = Ip si y solo si, el rango de A es p, esto es, el rango de A es igual al numero de
sus columnas.
6. AcA = In si y solo si, el rango de A es n, esto es, el rango de A es igual al numero de
sus filas.
7. (AT )c
= (Ac)T .
1.3. EVALUACION DEL JACOBIANO 33
1.2.12 Producto Kronecker
[Producto Kronecker] Considere las matrices A = (aij) ∈ IRn×p y B ∈ IRm×q. El producto
Kronecker de dos matrices, es la matriz de orden (nm× pq) definida por
AB =
a11B a12B · · · a1pB
a21B a22B · · · a2pB...
.... . .
...
an1B an2B · · · anpB
= (aijB).
Sean A, B, C y D matrices de ordenes adecuados y sean α, β ∈ IR. Tal que,
1. ABC = (AB)C = A(BC).
2. (A + B)(C + D) = AC + BC + AD + BD.
3. (AB)(CD) = ACBD.
4. αA = α A = A α = Aα.
5. (AB)T = AT BT .
6. (AB)−1 = A−1B−1.
7. (AB)−
= A−B−.
8. si A ∈ IRn×n, con valores propios λ1, . . . , λn y B ∈ IRm×m, con valores propios δ1, . . . , δm,
entonces los nm valores propios de (AB) estan dados por
λiδj, i = 1, ...n, j = 1, ..., m.
1.3 Evaluacion del Jacobiano
Para calcular la funcion de distribucion multivariante de algunos estadısticos, en muchas
ocasiones se hace necesario hacer cambios de variables con integracion multiple; en este caso
se usa con frecuencia el jacobiano de la transformacion.
34 CHAPTER 1. PRELIMINARES
Considere la integral multiple sobre un conjunto C ∈ IRn
∫
C
g(x1, ..., xn) dx1 · · · dxn. (1.1)
Sea entonces XT = (x1 . . . xn) una transformacion uno-a-uno a nuevas variables YT =
(y1 . . . yn) a traves de la relacion yi =fi(x1, ..., xn); i = 1, ..., n, donde las {fi}’s son conti-
nuamente diferenciables. Esta relacion se denota por Y = f(X) y X = f−1(Y). El determi-
nante de∂XT
∂YT, se denota por
J = J(X → Y) =
∣∣∣∣∣∂(x1 . . . xn)
∂(y1 . . . yn)
∣∣∣∣∣y se denomina Jacobiano de la transformacion de X a Y y |J | es su valor absoluto. Ahora
(3.1) puede expresarse como∫
T
g(f−1(Y)) |J(X → Y)| dY, (1.2)
donde
T ≡ {Y | Y = f(X), X ∈ C}.Sea J(·) el jacobiano de una transformacion. Ası,
1. J(X → Y) = (J(Y → X))−1.
2. si Y = f(X) y z = g(Y), entonces
J(X → z) = J(X → Y) · J(Y → z) (1.3)
3. Si dX = A dY, entonces J(X → Y) es |A| y |J | es el valor absoluto.
1.3.1 La Transformacion de Coordenadas Esfericas Generalizadas
Sean
xj = r
j−i∏
k=1
sen φk
cos φj ; 1 ≤ j ≤ n− 2,
xn−1 = r
(n−2∏
k=1
sen φk
)cos θ ; 0 ≤ φk ≤ π, 1 ≤ k ≤ n− 2,
xn = r
(n−2∏
k=1
sen φk
)sen θ ; 0 ≤ θ ≤ 2π, 0 ≤ r < ∞.
1.3. EVALUACION DEL JACOBIANO 35
Entonces, el Jacobiano de la transformacion de XT = (x1 ... xn) a YT = (r, φ1, ..., φn−2, θ)
viene dado por
J(x1, ..., xn → r, φ1, ..., φn−2, θ) = rn−1
(n−2∏
k=1
senn−k−1 φk
). (1.4)
Demostracion. Sea
x2n = r2
(n−2∏
k=1
sen2 φk
)sen2 θ, (1.5)
de modo que
x2n+1 + x2
n = r2
(n−2∏
k=1
sen2 φk
)cos2 θ + r2
(n−2∏
k=1
sen2 φk
)sen2 θ = r2
(n−2∏
k=1
sen2 φk
). (1.6)
Haga ahora n = 3 y luego por induccion se generaliza para n. Ası,
x22 + ... + x2
n = x2 + x3 = r2
(1∏
k=1
sen2 φk
)= r2 sen2 φ1, (1.7)
con lo cualn∑
i=1
x2i =
n∑
i=2
x2i + x2
1 = r2 sen2 φ1 + r2 cos2 φ1 = r2. (1.8)
De esta manera
J(x1, ..., xn → r, φ1, ..., φn−2, θ) = J(xn → θ) · J(xn−1 → φn−2) · . . . · J(x2 → φ1) · J(x1 → r).
Entonces, derivando parcialmente (3.5), (3.6), (3.7) y (3.8), se tiene que
∂xn
∂θ=
1
xn
r2
(n−2∏
k=1
sen2 φk
)sen θ cos θ,
∂xn−1
∂φn−2
=1
xn−1
r2
(n−2∏
k=1
sen2 φk
)cos φn−2
sen φn−2
,
...
∂x2
∂φ1
=1
x2
r2 sen φ1 cos φ1,
∂x1
∂r=
r
x1
.
36 CHAPTER 1. PRELIMINARES
De modo que, si X′ = (x1 . . . xn) e Y′ = (r φ1 . . . φn−2 θ), entonces
J(X → Y) =
r2
xn
(n−2∏
k=1
sen2 φk
)sen θ cos θ · r2
xn−1
(n−2∏
k=1
sen2 φk
)cos φn−2
sen φn−2
· r2
x2
sen φ1 cos φ1 · r
x1
.
Ası, finalmente,
J (x1 . . . xn) → (r φ1 . . . φn−2 θ)) = rn−1
(n−2∏
k=1
senn−k−1 φk
).
Los cos φk se cancelan en forma sucesiva con un termino igual que le precede en el numer-
ador. El exponente (n− k− 1) se observa como se va generalizando ya en el segundo termino
del producto.
Chapter 2
Distribuciones de Contornos Elıpticos
2.1 Introduccion
En el ultimo tiempo se ha planteado una clase de distribuciones cuyos contornos de sus den-
sidades tienen la misma forma elıptica de la distribucion Normal, pero ademas contienen
distribuciones de colas mas y menos pesadas que las de esta. Dicha clase de distribuciones se
denomina de Contornos Elıpticos o simplemente distribuciones Elıpticas.
Las distribuciones Elıpticas han sido estudiada por diversos autores, entre los que se encuen-
tran los trabajos [50], [18], [49] y [12], y los mas recientes [5] y [54], entre otros. Aunque a
partir de 1970 estas distribuciones comenzaron su auge, se registran estudios anteriores, como
lo son [72] y [56]. La mayorıa de estos trabajos, salvo los mas recientes, son recopilados en los
libros [1], [32], [31], [39] y [70], quienes entregan un adecuado tratamiento del tema.
A pesar de los diversos trabajos que se han presentado hasta ahora, aun no se encuentran trata-
dos diversos problemas que hasta ahora solo han sido abordados con la distribucion Normal,
entre ellos la densidad de una distribucion Elıptica singular, la distribucion F Generalizada
doble no centrada y la inferencia para el coeficiente de variacion, entre otros.
37
38 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELIPTICOS
2.2 Distribucion Elıptica No Singular
2.2.1 Distribuciones Elıpticas y Esfericas
Para fijar ideas, considere un vector aleatorio n-dimensional X. Ahora bien, si X ∈ IRn es
un vector aleatorio con parametro de posicion µ ∈ IRn, matriz de escala Σ ∈ IRn×n y con
rk Σ = r ≤ n, entonces la distribucion de X se dice singular o no singular, dependiendo si
r < n o si r = n, respectivamente.
[Distribucion Elıptica] Sea X ∈ IRn. Entonces, X pertenece a la familia de distribuciones
Elıpticas de parametros µ, Σ y φ si y solo si su funcion caracterıstica es
ψX(t) = exp(itT µ) φ(tT Σt) (2.1)
y se denota por X ∼ ECn(µ, Σ; φ), con µ ∈ IRn, Σ ∈ IRn×n y φ : IRn → IR.
Observe que la funcion caracterıstica existe aun cuando Σ sea semidefinida positiva, es decir,
cuando rk Σ = r < n, en cuyo caso la distribucion Elıptica obtenida es llamada distribucion
Elıptica singular, la cual se tratara con detalle mas adelante.
Sea X ∼ ECn(µ, Σ; φ), con µ ∈ IRn, Σ ∈ IRn×n y Σ > 0. Entonces, la densidad de X es
gX(X) = |Σ|− 1
2 f [(X− µ)T Σ−1 (X− µ)], (2.2)
siendo f(u), con u ≥ 0, una funcion real y que se denomina generadora de densidades. En
este caso, se usa la notacion X ∼ ECn(µ, Σ; f).
Ası, la condicion necesaria para que la densidad de X exista con respecto a la medida de
Lebesgue en IRn es que rk Σ = r = n, esto es, que Σ > 0, con lo cual la distribucion de X es
no singular.
Sea X ∼ ECn(µ, Σ; f), con µ ∈ IRn, Σ ∈ IRn×n y Σ > 0. Entonces, X puede representarse
de la forma
X = µ + AT Y,
de modo que
Y = (AT )−1(X− µ),
2.2. DISTRIBUCION ELIPTICA NO SINGULAR 39
con Σ = AT A, A ∈ IRn×n.
[Distribucion Esferica] Sea X ∼ ECn(µ, Σ; φ) con µ ∈ IRn, Σ ∈ IRn×n. Entonces, si
µ = 0 y Σ = In, se dice que X se distribuye Esferica y se denota por X ∼ Sn(φ), esto es,
Sn(φ) ≡ ECn(0, In; φ) o Sn(f) ≡ ECn(0, In; f).
Sea X ∼ Sn(φ). Entonces,
1. Xd= H X, ∀ H ∈ O(n).
2. ψX(t) = φ(tT t) = φ(‖t‖2), φ(u), u ≥ 0, dado como en (5.1).
3. la densidad de X puede expresarse como gX(X) = f(XTX), f(u), u ≥ 0, dado como
(5.2).
4. para XT = (X1 X2 . . . Xn) ∼ Sn(φ), aTXd= X1; ∀ a ∈ IRn y ‖a‖ = 1.
En una distribucion Esferica, para n = 1 se tienen todas las distribuciones simetricas en
IR.
2.2.2 Representacion Estocastica
Sea U (n) un vector aleatorio uniformemente distribuido en la esfera unitaria en IRn, esto es,
U (n) ∼ Un{X ∈ IRn ‖X‖ = 1} y que se denota por U (n) ∼ Un{E‖X‖=1}, U (n) se distribuye de
acuerdo a una ley Esferica.
Sea X ∼ Sn(f). Entonces, X admite la representacion estocastica
Xd= R U (n), (2.3)
donde R ≥ 0 tiene funcion de distribucion GR(·) y es independiente de U (n) ∼ Un {E‖X‖=1}.
La distribucion de R es algunas veces llamada distribucion Radial.
Sea Xd= R U (n) ∼ Sn(f) y IP (X = 0) = 0. Entonces,
‖X‖ d= R y
X
‖X‖d= U (n), (2.4)
40 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELIPTICOS
de modo que
X = R U (n) = ‖X‖ · X
‖X‖ .
donde R ∼ GR(·) y U (n) ∼ Un{E‖X‖=1} son independientes.
Sea U (n) ∼ Un{E‖X‖=1}. Entonces,
IE(U (n)) = 0 y Var(U(n)) =1
nIn. (2.5)
Sean U (n) ∼ Un{E‖X‖=1} y R ∼ GR(·) independientes. Entonces, si IE(R) < ∞,
IE(X) = IE(R) · IE(U (n)) = 0. (2.6)
Sean U (n) ∼ Un{E‖X‖=1} y R ∼ GR(·), independientes. Entonces, si IE(R2) < ∞,
V ar(X) = IE(R2) · V ar(U (n)) = IE(R2) · 1
nIn. (2.7)
Sea X ∼ ECn(µ, Σ; f), con µ ∈ IRn, Σ ∈ IRn×n y Σ > 0. Entonces, X admite la
representacion estocastica
Xd= µ + R AT U (n), (2.8)
donde la variable aleatoria R ≥ 0 es independiente de U (n) y A ∈ IRn×n es tal que Σ = AT A.
Sea Xd= µ + R AT U (n) ∼ ECn(µ, Σ; f), con µ ∈ IRn, Σ ∈ IRn×n, Σ > 0, R ≥ 0
independiente de U (n), A ∈ IRn×n y Σ = AT A. Entonces,
Q(X) = (X− µ)T Σ−1(X− µ)d= R2, (2.9)
donde R esta dad en (5.3).
Sea X no degenerada. Ası,
1. si X ∼ ECn(µ, Σ; f) y X ∼ ECn(µ0, Σ0; f0), con µ, µ0 ∈ IRn y Σ, Σ0 ∈ IRn×n, entonces
existe una constante real c0 > 0, tal que
µ = µ0, c0Σ = Σ0 y f0(·) = f(c−10 ). (2.10)
2.2. DISTRIBUCION ELIPTICA NO SINGULAR 41
2. si Xd= µ + R AT U (r) d
= µ0 + R0AT U (r0), donde r ≥ r0, entonces existe una constante
c0 > 0, tal que
µ = µ0, c0AT A = AT A y R0
d= c
−1/20 R br0/2,(r−r0)/2, (2.11)
donde br0/2,(r−r0)/2 ≥ 0 es independiente de R y b2r0/2,(r−r0)/2 ∼ Beta(r0/2, (r − r0)/2), si
r > r0 y br0/2,(r−r0)/2 ≡ 1 si r = r0.
En lo posterior se usara indistintamente la notacion X ∼ ECn(µ, Σ; f) o X ∼ ECn(µ, Σ; φ),
segun convenga, lo mismo ocurrira con las distribuciones Esfericas.
2.2.3 Distribuciones Marginales
Sea X ∼ ECn(µ, Σ; f), con µ ∈ IRn, Σ ∈ IRn×n, Σ > 0, B ∈ IRn×m y γ ∈ IRm. Entonces,
Z = γ + BTX ∼ ECn(BTµ + γ, BTΣ B; f). (2.12)
Sea X ∼ ECn(µ, Σ; f), con µ ∈ IRn,Σ ∈ IRn×n, Σ > 0 y considere la particion de X, µ y
Σ dada por
X =
X1
X2
, µ =
µ1
µ2
, Σ =
Σ11 Σ12
Σ21 Σ22
(2.13)
donde X1, µ1 ∈ IRm y Σ11 ∈ IRm×m. Entonces, X1 ∼ ECm(µ1, Σ11; f) y X2 ∼ EC(n−m)(µ2, Σ22; f).
2.2.4 Distribuciones Condicionales
Sea X =(XT
1 XT2
)T, donde X ∈ IRn, X1 ∈ IRm y X2 ∈ IRn−m. Se esta interesado en la
distribucion condicional de X1 dado X2 = x0.
Sea Xd= R U (n) ∼ ECn(µ, Σ; f), con µ ∈ IRn, Σ ∈ IRn×n y Σ > 0. Entonces, la
distribucion condicional de X1 dado X2 = x0 viene dada por
(X1 / X2 = x0) ∼ ECm(0, I; fm), (2.14)
42 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELIPTICOS
cuya representacion estocastica es
(X1 / X2 = x0)d= R
(‖x0‖2
)U (m), (2.15)
donde R(·) y U (m) son independientes y
R(‖x0‖2
)d=
((R2 − ‖x0‖)2)
12 / X2 = x0
). (2.16)
Sea Xd= µ + RAT U (n) ∼ ECn(µ, Σ; f), con µ ∈ IRn, Σ ∈ IRn×n, Σ > 0 y considere la
misma particion de X, µ y Σ dada en (5.13). Entonces,
(X1 / X2 = x0)d= µ1.2 + Rq(x0)A
T11.2U
(n) ∼ ECm(µ1.2, Σ11.2, f), (2.17)
donde
µ1.2 = µ1 + Σ12 Σ−122 (x0 − µ2),
Σ11.2 = Σ11 − Σ12 Σ−122 Σ21,
q(x0) = (x0 − µ2)T Σ−1
22 (x0 − µ2)
y Σ11.2 = AT11.2A11.2. Ademas, para todo a ≥ 0, Ra2 es independiente de U (m) y admite la
representacion estocastica
Rq(x0)d=
((R2 − q(x0))
12 / X2 = x0
). (2.18)
2.2.5 Momentos
Si X ∼ Nn(µ, Σ), con µ ∈ IRn y Σ ∈ IRn×n, se sabe que IE(X) = µ y V ar(X) = Σ. En el caso
de las distribuciones Elıpticas no siempre existen estos momentos (por ejemplo la distribucion
de Cauchy).
Sea Xd= R U (n) ∼ ECn(µ, Σ; f), con µ ∈ IRn, Σ ∈ IRn×n, Σ > 0 y R independiente de
U (n). Entonces, si IE(R) < ∞ y IE(R2) < ∞, el primer y segundo momento de X existen.
2.2. DISTRIBUCION ELIPTICA NO SINGULAR 43
Sea Xd= R U (n) ∼ ECn(µ, Σ; f), con µ ∈ IRn, Σ ∈ IRn×n, Σ > 0 y R independiente de
U (n), IE(R) y IE(R2) < ∞. Entonces,
IE(X) = µ y V ar(X) =IE(R2)
rk Σ· Σ.
Como se vio en el Teorema 5.62, en una distribucion Elıptica la matriz de covarianzas, Σ0,
es proporcional al parametro Σ de su distribucion y en general no es igual a este.
Sean X ∼ ECn(µ, Σ; φ), con µ ∈ IRn, Σ ∈ IRn×n y Σ > 0, una distribucion no degenerada
y Mk el k-esimo momento de X. Entonces,
1. M1(X) = µ.
2. M2(X) = µµT − 2φ′(0)Σ y V ar(X) = −2φ′(0)Σ.
3. M3(X) = µµT µ− 2φ′(0)[µΣ + Σµ + vec(Σ)µT ],
si ellos existen, donde es el producto Kronecker de dos matrices definido anteriormente.
Cuando la matriz de covarianzas Σ0 de X ∼ ECn(µ, Σ; φ) existe, al considerar Σ como Σ0
solo se tiene un caso particular; la igualdad se cumple si se elige φ de manera que −2φ(0) = 1,
esto es, cuando X ∼ Nn(µ, Σ).
2.2.6 Caracterizaciones de Normalidad
La distribucion Normal pertenece a la clase de distribuciones Elıpticas. A continuacion se
presentan ciertas propiedades de esta distribucion, las que no pueden extenderse a otras dis-
tribuciones Elıpticas, caracterizando ası a la distribucion Normal.
Sea X ∼ ECn(µ, Σ; f), con µ ∈ IRn, Σ ∈ IRn×n y Σ > 0. Entonces, X tiene una
distribucion Normal si y solo si Q(X) = (X− µ)T Σ−1(X− µ) ∼ χ2(n).
El resultado anterior de debe a que la relacion entre f y F es uno-a-uno.
Sea X ∼ ECn(µ, Σ; f), con µ ∈ IRn y Σ ∈ IRn×n y Σ > 0. Entonces, cualquier distribucion
marginal es Normal si y solo si, X se distribuye normalmente.
44 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELIPTICOS
Sea X ∼ ECn(µ, Σ; f), con µ ∈ IRn, Σ ∈ IRn×n y Σ = diag(σii), i = 1, ..., n. Entonces, las
siguientes proposiciones son equivalentes
1. X se distribuye normalmente.
2. las componentes de X son independientes.
3. Xi y Xj(1 ≤ i < j ≤ n) son independientes.
Sea X = (XT1 XT
2 )T ∼ ECn(µ, Σ; f), con µ ∈ IRn, Σ ∈ IRn×n, Σ > 0 y X1 ∈ IRm.
Entonces, X1 / X2 = x0 se distribuye normalmente con probabilidad 1 si y solo si X se
distribuye normalmente.
2.2.7 Distribucion Invariante
Un aspecto importante de las distribuciones Esfericas es el siguiente. Cuando se esta intere-
sados en hallar sus distribuciones t o F asociadas, se observa que estas son invariantes bajo
cualquiera de ellas. Ası, haciendo uso de la representacion estocastica que admiten las distribu-
ciones Esfericas, se muestra que las distribuciones de los estadısticos T y F son independientes
de la variable aleatoria R, lo cual las hace invariantes.
Ası, si X = (X1 · · · Xn)T , con X ∈ IRn, entonces
X =1
n
n∑
i=1
Xi =1
n1TX, y S =
n∑
i=1
(Xi − X)2 = XT DX, (2.19)
de modo que
S2n−1 =
S
n− 1y S2
n =S
n, (2.20)
donde D = In − 1
n11T y 1 = (1 . . . 1)T ∈ IRn.
Algunos estadısticos muy utiles en analisis univariado son
T =√
nX
Sn−1
←→ T =√
n− 1X
Sn
(2.21)
y
F =k
r
XC1X
XC2X, (2.22)
2.2. DISTRIBUCION ELIPTICA NO SINGULAR 45
donde C1 y C2 con proyecciones ortogonales, tales que rk C1 = r y rk C2 = k y C1 C2 = 0.
Por otro lado, se sabe que
T ∼ t(n− 1) y F ∼ F (r, k),
cuando X ∼ Nn(0, In).
Se desea demostrar que este resultado es invariante cuando X ∼ Sn(f).
En efecto, considere la funcion real-valorada h(·) definida por
h(X) =√
n
1
n1TX
(1
n− 1XT DX
)12
.
Entonces,
T = h(X)d= h(R U (n)) =
√n
1
n1T R U (n)
(1
n− 1R2 UT (n)D U (n)
)12
=√
n
1
n1T U (n)
(1
n− 1UT (n)D U (n)
)12
,
(2.23)
cuya distribucion es independiente de R, de modo que lo anterior es valido para toda la clase
de distribuciones Esfericas, es decir, la distribucion t centrada generalizada es invariante bajo
distribuciones Esfericas, coincidiendo por tanto con la distribucion t centrada tradicional.
Analogamente, F ∼ F(r, k) para toda distribucion Esferica, con lo cual la distribucion Fcentrada generalizada es tambien invariante bajo leyes Esfericas. En general entonces, se
puede plantear el siguiente teorema.
Sea X ∼ Sn(f). Entonces, la distribucion del estadıstico t(X) es invariante bajo leyes
Esfericas si
t(αX) = t(X), ∀ α > 0. (2.24)
2.2.8 Distribuciones Elıpticas Particulares
A continuacion se dan ejemplos de algunas distribuciones Elıpticas y Esfericas.
46 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELIPTICOS
[Distribucion t-multivariada] Una distribucion Esferica particular es la distribucion t-
multivariada. Ası, si X ∼ tn(0, In; ν), entonces su densidad viene dada por
gX(X) =
Γ(
ν+n2
)
Γ(
n2
)(πν)
n2
(1 +
XTX
ν
)− ν+p2
,
esto es, dicha densidad puede expresarse como
gX(x) = f(XTX),
donde
f(XTX) =Γ
(ν+n
2
)
Γ(
n2
)(π ν)
n2
(1 +
XTX
ν
)− ν+p2
,
es decir,
f(u) =(1 +
u
ν
)− ν+p2
,
con lo cual se observa que la distribucion t-multivariada pertenece a la clase Esferica de
distribuciones.
[Distribucion de tipo Kotz] Para r, s > 0 y 2m + n > 2, la densidad de X es
gX(u) = f(u) = s π−
n2 r
2m+n−22s
Γ(
n2
)
Γ(
2m+n−22s
)tm−1 exp(−r us), (2.25)
la que pertenece a la familia de distribuciones. Particularmente, la distribucion Normal mul-
tivariada es un caso especial cuando m = 1, s = 1 y r = 1/2.
[Distribucion de Pearson tipo VII] Si X ∼ P V IIIn (m, s), con m > n/2 y s > 0, entonces su
densidad es
gX(u) = f(u) = (s π)−
n2
Γ(m)
Γ(m− n
2
)(1 +
u
s
)m
, m >n
2, s > 0, (2.26)
la que forma parte de distribuciones Elıpticas. A su vez, esta familia incluye a la distribucion
t-multivariada. Recuerde que si X ∼ Nn(0,Σ), Σ > 0 e Y ∼ χ2(m), X e Y independientes.
Entonces, la distribucion de T = (√
m X)/Y se denomina distribucion t-multivariada (John-
son and Kotz [47]) y es un caso especial de (5.25) cuando m = (n + s)/2. Cuando m = 1, la
correspondiente distribucion se llama distribucion de Cauchy multivariada.
2.2. DISTRIBUCION ELIPTICA NO SINGULAR 47
[Distribucion Uniforme en la Esfera Unitaria en IRn]
Sea X ∼ Un{E‖X‖=1}. Considere la densidad
pX(X) =
Γ(
n2
)
πn2
; sin∑
i=1
x2i ≤ 1
0 ; en otro caso
.
Se sabe que HXd= X, ∀ H ∈ O(n) y que la distribucion Uniforme en la esfera unitaria
pertenece a la clase de distribuciones Elıpticas en IRn. Entonces, X puede representarse
estocasticamente como Xd= R U (n). Ası, la densidad de R = ‖X‖ es
gR(r) =
2πn2 Γ
(n+2
2
)
Γ(
n2
)π
n2
rn−1 = n rn−1 ; si 0 ≤ r ≤ 1
0 ; en otro caso
.
[Distribucion de Laplace o Bessel generalizada]
Si X tiene una distribucion de Laplace generalizada, entonces tiene densidad
gX(u) = f(u) = 2a+n−1 π
n2 βn Γ
(a +
n
2
) u
12
β
a
Ka
u
12
β
, a > −n
2, β > 0, (2.27)
donde Ka(·) denota a la funcion de Bessel modificada de tercer tipo, es decir
Ka(z) =π (I−a(z)− Ia(z))
2 sen(aπ), | arg z| < π, a = 0,±1,±2, ...
e
Ia(z) =∞∑
k=0
1
k! Γ(k + a + 1)
(z
2
)a+2k
, |z| < ∞, | arg z| < π,
la cual pertenece a la familia de distribuciones Elıpticas.
[Distribuciones Elıpticas n-variantes]
Tabla 1 Densidades o funciones caracterısticas de las distribuciones Elıpticas que se
mencionan.
48 CHAPTER 2. DISTRIBUCIONES DE CONTORNOS ELIPTICOS
Ley Elıptica f(u), con u = XTX o φ(v), con v = tT t
Kotz f(u) = c um−1 exp(−rus); r, s > 0, 2m + n > 2.
Normal multivariada f(u) = c exp(−12u).
Pearson tipo VII (P V II) f(u) = c(1 + u
s
)−m, s > 0,m > n
2.
t-multivariada f(u) = c[1 +
(us
)]− ν+n2 , s, ν > 0.
Cauchy f(u) = c[1 +
(us
)]− ν+12 , s, ν > 0.
Pearson tipo II (P II) f(u) = c (1− u)−m,m > 0.
Logıstica f(u) = c exp(−u) (1− exp(−u))−2.
Mezcla de Normales f(u) = c
∞∫
0
vn2 exp
(− u
2v
)dF (v), F = FD.
Leyes Estables φ(u) = exp(r uα2 ), 0 < α ≤ 2, r < 0.
Uniforme multivariada φ(u) = 0F1
(n2;−u
4
).
Donde c > 0 es una constante de normalizacion que varıa dependiendo de cada distribucion,
algunas de las cuales ya se han planteado explıcitamente en los ejemplos anteriores.
[Distribucion de R2] Sea X ∼ ECn(µ, Σ; f), con µ ∈ IRn, Σ ∈ IRn×n, Σ > 0 y Xd= R U (n),
donde Rd= ‖X‖ y es independiente de U (n) ∼ Un{E‖X‖=1}. Entonces, haciendo uso del
Corolario 5.53 se tiene que
1. si R2 ∼ χ2(n), esto es equivalente a decir que X ∼ Nn(0, In).
2. si R2 ∼ n−1Fν,n, esto es equivalente a decir que X ∼ tn(0, In; ν).
3. si R2 ∼ Beta(n2, ν + 1), esto es equivalente a decir que X ∼ P II
n (0, In; ν).
Chapter 3
Distribucion de Formas Cuadraticas
3.1 Introduccion
La distribucion de formas cuadraticas y lineales, y expresiones relacionas, obtenidas a partir
de distribuciones Elıpticas, fueron estudiadas y publicadas en [11], [34] y [4], entre otros,
y posteriormente presentadas en los libros de [1] y [39], entre otros. Estas distribuciones
corresponden a las distribuciones χ2, t y F obtenidas bajo distribuciones Elıpticas.
Las distribuciones t y F obtenidas a partir de distribuciones Elıpticas se denominan distribu-
ciones t y F generalizadas. Sin embargo, si el parametro de posicion ν de la ley Elıptica es
igual a cero, entonces las distribuciones t y F generalizadas coinciden con las distribuciones t y
F obtenidas bajo normalidad, esto es, estas distribuciones son invariantes bajo leyes Elıpticas
cuando ν = 0 (vea [32, p.67]). Por otro lado, las distribuciones t y F generalizadas no
centradas dependen de la ley Elıptica particular bajo la cual fueron obtenidas. Asimismo,
las distribuciones t y F generalizadas doble no centradas, analogas a las del caso Normal,
dependen tambien de la ley Elıptica asociada.
49
50 CHAPTER 3. DISTRIBUCION DE FORMAS CUADRATICAS
3.2 Distribucion Chi-cuadrado Generalizada
3.2.1 Introduccion
Recuerde que si X ∼ Nn(0, In), entonces U = XTX ∼ χ2(n) y tiene densidad
gU(u) =
1
2n2 Γ
(n2
) un2−1 exp(−1
2u); u ≥ 0. (3.1)
Analogamente, si X ∼ Nn(µ, In), con µ ∈ IRn, µ 6= 0, entonces U = XTX ∼ χ2(n, δ), con
δ = (1/2)µT µ, cuya densidad es
gU(u) =
∞∑
k=0
δk exp(−δ)
k!
un2+k−1 exp(−1
2u)
2n2+k Γ
(n2
+ k) ; u > 0, (3.2)
es decir, una suma ponderada infinita de densidades χ2(n + 2k) centradas, cuyos factores de
ponderacion vienen dados por una ley de Poisson de parametro δ = (1/2)µT µ. Esta ultima
llamada distribucion chi-cuadrado no centrada con parametro de no centralidad dado por
δ = (1/2)µT µ.
De la misma forma, si X ∼ Nn(µ, Σ), con µ ∈ IRn, µ 6= 0, Σ ∈ IRn×n y Σ > 0, entonces
U = XT Σ−1X ∼ χ2(n, δ), con δ = (1/2)µT Σ−1µ, cuya densidad es la misma que en el caso
anterior haciendo la correspondiente adaptacion en el parametro de no centralidad.
3.2.2 Distribucion Chi-cuadrado Generalizada Centrada y No Cen-
trada
A continuacion se presenta la distribucion chi-cuadrado generalizada no centrada antes que
su distribucion centrada equivalente, ya que esta ultima es solo un caso particular de la no
centrada, obteniendo ambas distribuciones bajo no singularidad de la ley Elıptica asociada.
[Distribucion Gχ2 no centrada] Sea X ∼ ECn(µ, In; f), con µ ∈ IRn y µ 6= 0. Entonces,
U = XTX ∼ Gχ2(n, δ; f), con δ = (1/2)µT µ y tiene densidad dada por
gU(u) =
πn−1
2
Γ(
n−12
) un2−1
π∫
0
f(u− 2γ u(1/2) cos φ + γ2) senn−2 φ1 dφ1; u > 0, (3.3)
3.2. DISTRIBUCION CHI-CUADRADO GENERALIZADA 51
donde γ2 = µT µ = 2δ.
Demostracion. Sean X ∼ ECn(µ, In; f), con µ ∈ IRn, µ 6= 0 e Y = H X ∼ ECn(ν, In; f),
con H ∈ O(n); ν = (‖µ‖ 0 . . . 0)T y ‖µ‖ =√
(µT µ) =√∑n
i=1 µ2i . Note que
‖Y‖ = ‖H X‖ = (XT HT HX)(1/2) = (XTX)(1/2) = ‖X‖.
De esta manera, como
gY(Y) = f((Y − ν)T (Y − ν))
donde
(Y − ν)T (Y − ν) =
y1 − ‖µ‖y2
...
yn
T
y1 − |µ‖y2
...
yn
,
se obtiene que
(Y − ν)T (Y − ν) = (y1 − ‖µ‖)2 +n∑
i=2
y2i
= y21 − 2y1‖µ‖+ ‖µ‖2 +
n∑
i=2
y2i
=n∑
i=1
y2i + ‖µ‖2 − 2y1‖µ‖.
Ası,
gY(Y) = f
(n∑
i=1
y2i + ‖µ‖2 − 2y1‖µ‖
).
Considere la t.c.e.g. y el cambio de variables
Y1 = r cos φ1
Yj = r
j−i∏
k=1
sen φk
cos φj ; 1 ≤ j ≤ n− 2
Yn−1 = r
(n−2∏
k=1
sen φk
)cos θ ; 0 ≤ φk ≤ π, 1 ≤ k ≤ n− 2
Yn = r
(n−2∏
k=1
sen φk
)sen θ ; 0 ≤ θ ≤ 2π, 0 ≤ r < ∞
∞∑
k=0
Y 2i = ‖Y ‖2 = r2 = U ,
52 CHAPTER 3. DISTRIBUCION DE FORMAS CUADRATICAS
de modo que el Jacobiano de la transformacion de Y = (Y1 . . . Yn)T a Z = (r φ1 . . . φn−2
θ)T viene dado por
J = J ((Y1 . . . Yn) → (r φ1 . . . φn−2 θ)) = rn−1
(n−2∏
k=1
senn−k−1 φk
).
De este modo
gZ(r, φ1, . . . , φn−2, θ) = g
Y(z) · |J|
= f(r2 + ‖µ‖2 − 2r cos φ1 ‖µ‖
)rn−1
(n−2∏
k=1
senn−k−1φk
).
Obtenga ahora la densidad de r = ‖X‖ = ‖Y‖
gr(r) =
π∫
0
· · ·π∫
0
2π∫
0
gZ(r, φ1, . . . , φn−2, θ) dθ dφ1 · · · dφn−2
=rn−1 2π π
n−12−1
Γ(
n−12
)π∫
0
f(r2 + ‖µ‖2 − 2r ‖µ‖ cos φ1
)senn−2 φ1 dφ1
=2 rn−1 π
n−12
Γ(
n−12
)π∫
0
f(r2 + γ2 − 2r γ cos φ1
)senn−2 φ1 dφ1,
donde γ2 = ‖µ‖2. Considere ahora el cambio de variables
u = r2 −→ r =√
u,
cuyo jacobiano es
J =dr
du=
1
2√
u,
de modo que
gU(u) = gr(
√u) |J |
= gr(√
u)1
2√
u
=2 (u(1/2))n−1 π
n−12
Γ(
n−12
)(
1
2 u(1/2)
) π∫
0
f(u− 2 γ u(1/2) cos φ1 + γ2
)senn−2 φ1 dφ1
=π
n−12
Γ(
n−12
) un2−1
π∫
0
f(u− 2 γ u(1/2) cos φ1 + γ2
)senn−2 φ1 dφ1; u > 0,
3.2. DISTRIBUCION CHI-CUADRADO GENERALIZADA 53
con γ2 = µT µ = ‖µ‖2 = 2δ. Por tanto
U = XTX = ‖X‖2 = r2 ∼ Gχ2(n, δ),
donde δ = (1/2)µT µ = ‖µ‖2 es el parametro de no centralidad de la distribucion.
[Distribucion Gχ2 centrada] Sea X ∼ Sn(f). Entonces, U = XTX ∼ Gχ2(n; f) y su
densidad es
gU(u) =
πn2
Γ(
n2
) un2−1 f(u); u > 0. (3.4)
Demostracion. Considere el Teorema 2.79 y reemplace en la expresion (3.2.3) γ = ‖µ‖ = 0,
de modo que µ = 0 (caso centrado). Entonces,
gU(u) =
πn−1
2
Γ(
n−12
) un2−1
π∫
0
f(u) senn−2 φ1 dφ1
=π
n−12
Γ(
n−12
) un2−1 f(u)
π∫
0
senn−2 φ dφ
=π
n−12
Γ(
n−12
) un2−1 f(u) In.
La integral In es valida para toda distribucion Elıptica y en particular para la distribucion
Normal y en ese caso
f(u) =1
(2π)n2
exp(−u
2
),
obteniendo
gU(u) =
πn−1
2
Γ(
n−12
) un2−1 1
(2π)n2
exp(−u
2
)In
=1
2n2 π
12 Γ
(n−1
2
) un2−1 exp
(−u
2
)In.
Ahora bien, como gU(u) es densidad entonces
1 =
∞∫
0
gU(u) du
54 CHAPTER 3. DISTRIBUCION DE FORMAS CUADRATICAS
=
∞∫
0
1
2n2 π
12 Γ
(n−1
2
) un2−1 exp
(−u
2
)In du
= In1
2n2 π
12 Γ
(n−1
2
)∞∫
0
un2−1 exp
(−u
2
)du.
Usando ahora la funcion Gamma se tiene
∞∫
0
un2−1 exp
(−u
2
)du =
Γ(
n2
)
(1
2)
n2
= 2n2 Γ
(n
2
)
y por tanto
In =π
12 Γ
(n−1
2
)
Γ(
n2
)
Ası, finalmente
gU(u) =
πn2
Γ(
n2
) un−1
2 f(u); u > 0
y
U = YTY ∼ Gχ2(n).
Note que la densidad dada en el Teorema 2.79 esta expresada en terminos de una integral.
En Teng, Fang y Deng [80] puede verse como esta densidad es expresada en terminos de las
derivadas de la funcion f , usando expansion en serie de Taylor de dicha funcion. A continucion
se da la demostracion de ese resultado.
[Densidad Gχ2 no centrada en funcion de las derivadas de f ] Sea U ∼ Gχ2 (n, δ; f),
δ =1
2µT µ y f expandible en serie de Taylor en IR. Entonces, una forma alternativa de
expresar la densidad de U es
gU(u) =
∞∑
k=0
γ2kπn2
k! Γ(
n2
+ k) u
n2+k−1 f (2k)(u + γ2); u > 0, (3.5)
donde γ2 = 2δ = µ′µ y f (2k)(·) es la 2k-esima derivada de f(·).
3.2. DISTRIBUCION CHI-CUADRADO GENERALIZADA 55
Demostracion. Sea U ∼ Gχ2(n, δ; f), con δ = (1/2)µT µ. Entonces su densidad viene dada
por
gU(u) =
πn−1
2
Γ(
n−12
) un2−1
π∫
0
f(u + γ2 − 2u(1/2)γ cos φ) senn−2 φ dφ. (3.6)
Considere el cambio de variable
y = u(1/2) −→ u = y2,
cuyo jacobiano es
J =dy
du= 2y,
tal que
gU(y) =
2 πn−1
2
Γ(
n−12
) yn−1
π∫
0
f(y2 + γ2 − 2 y γ cos φ) senn−2 φ dφ
=2 π
n−12
Γ(
n−12
)yn−1 In; u > 0, γ2 = 2δ.
Considere el desarrollo en serie de Taylor en IR dado por
f(v) =∞∑
l=0
al
l!vl,
procediendo analogamente a Anderson y Fang [1, pag. 85], se obtiene
In =
π∫
0
f(y2 + γ2 − 2y γ cos φ) senn−2 φ dφ
=
π∫
0
[ ∞∑
l=0
al
l!(y2 + γ2 − 2y γ cos φ)l
]senn−2 φ dφ
=∞∑
l=0
al
l!
π∫
0
(y2 + γ2 − 2y γ cos φ)l senn−2 φ dφ
=
√π
2Γ
(n− 1
2
) ∞∑
k=0
γ2k
k! Γ(k + n
2
) y2kf (2k)(y2 + γ2)
56 CHAPTER 3. DISTRIBUCION DE FORMAS CUADRATICAS
con lo cual
gU(y) =
2 πn−1
2
Γ(
n−12
) yn−1 In
=2 π
n−12
Γ(
n−12
) yn−1
√
π
2Γ
(n− 1
2
) ∞∑
k=0
γ2k
k! Γ(k + n
2
) y2k f (2k)(y2 + γ2)
=∞∑
k=0
γ2k πn2
k! Γ(k + n
2
) yn+2k−1 f (2k)(y2 + γ2), u > 0,
donde γ2 = µT µ = 2δ y f (2k)(·) es la 2k-esima derivada de f(·) respecto de u.
La expresion (2.17) solo es posible cuando la funcion generadora de densidades, f , es ex-
pandible en serie de Taylor, lo cual ocurre cuando existen los momentos de dicha distribucion.
Por tanto, este uso esta limitado para aquellas distribuiones Elıpticas que posean momentos
(por ejemplo, esta representacion no es posible para la distribucion de Cauchy). Este hecho
justifica la existencia de las dos expresiones para la densidad.
3.3 Distribucion t Generalizada
3.3.1 Introduccion
La distribucion t generalizada (Gt) juega un papel similar a la distribucion t bajo la teorıa de
inferencia Normal. Como se ha mencionado, la distribucion Gt es la distribucion de
T =X1√XT
2 X2
n
=√
nX1√XT
2 X2
,
cuando X = (X1 XT2 )T tiene una distribucion Elıptica. La notacion ECn+1(µ, Σ; f) sigue
siendo valida, tanto bajo singularidad como no singularidad de la distribucion, tal como se
menciona anteriormente.
Recuerde que si X = (X1 XT2 )T ∼ Nn+1(0, In+1), con X1 ∈ IR y X2 ∈ IRn, entonces
T =√
nX1√XT
2 X2
∼ t(n)
3.3. DISTRIBUCION T GENERALIZADA 57
y tiene densidad
gT(t) =
nn2 Γ
(n+1
2
)
π(1/2) Γ(
n2
) (n + t2)−n+1
2 ; t ∈ IR. (3.7)
Analogamente, si X = (X1 XT2 )T ∼ Nn+1(µ, In+1), con X1 ∈ IR y X2 ∈ IRn; µT = [µ1 0],
µ1 ∈ IR y µ1 6= 0, entonces
T =√
nX1√XT
2 X2
∼ t(n, δ),
con δ = µ1 y su densidad es
gT(t) =
nn2
Γ(
n2
)(n + t2)
n+12
exp
(−δ2
2
) ∞∑
k=0
Γ(
n+k+12
)δk2
k2 tk
k!(n + t2)k2
; t ∈ IR. (3.8)
Esta ultima llamada distribucion t no centrada con parametro de no centralidad dado por
δ = µ1.
De la misma forma, si X = (X1 XT2 )T ∼ Nn+1(µ, Σ), con X1 ∈ IR y X2 ∈ IRn; µ = [µ1 0]T ,
µ1 ∈ IR y µ1 6= 0; Σ ∈ IRn×n y dada por
Σ =
σ21 0
0 Σn
,
Σn ∈ IRn×n y Σn > 0, entonces
T =√
nX1√
XT2 Σ−1 X2
∼ t(n, δ),
con δ = µ1/σ1.
3.3.2 Distribucion t Generalizada Centrada y No Centrada
Haciendo uso de la invarianza de la distribucion Gt bajo leyes Esfericas se presenta el siguiente
resultado, a continuacion de el se plantea la distribucion t generalizada no centrada bajo no
singularidad de la ley Elıptica.
[Distribucion Gt centrada] Sea X = (X1 XT2 )T ∼ Sn+1(f), con X1 ∈ IR y X2 ∈ IRn.
Entonces,
T =√
nX1√XT
2 X2
∼ Gt(n; f),
58 CHAPTER 3. DISTRIBUCION DE FORMAS CUADRATICAS
la cual coincide con la del caso de una distribucion Normal, esto es, Gt(n; f) ≡ t(n), ∀f .
[Distribucion Gt no centrada] Sea X = (X1 XT2 )T ∼ ECn+1(µ, In+1; f), con X1 ∈ IR y
X2 ∈ IRn; µ ∈ IRn+1, µ = [µ1 0]T , µ1 ∈ IR y µ1 6= 0. Entonces,
T =√
nX1√XT
2 X2
∼ Gt(n, δ; f),
con δ = µ1 y su funcion de densidad viene dada por
gT(t) =
2(nπ)n2
Γ(
n2
) (n + t2)−n+1
2
∞∫
0
f(y2 − 2δ1y + δ2) yn dy; t ∈ IR (3.9)
donde δ es parametro de no centralidad y δ1 =tδ
(n + t2)(1/2).
Demostracion. Sea X = (X1 XT2 )T ∼ ECn+1(µ, In+1; f), con X1 ∈ IR y X2 ∈ IRn; µ ∈
IRn+1, µ = [µ1 0]T , µ1 ∈ IR y µ1 6= 0. Entonces su densidad es
gX(X) = f((X− µ)T (X− µ))
donde
(X− µ)T (X− µ) =
x1 − µ1
x2
...
xn+1
T
x1 − µ1
x2
...
xn+1
= (x1 − µ1)2 +
n+1∑
i=2
x2i ,
Ası,
gX(X) = f
(n+1∑
i=2
x2i + (x1 − µ1)
2
)= h
(n+1∑
i=2
x2i
)= h(u),
esto es, la densidad anterior es funcion den+1∑
i=2
x2i , de modo que es posible aplicar el Lema
2.4.5 (vea [32], pag. 53) que para nuestro caso particular se reduce a lo siguiente y teniendo
presente que ‖X2‖ =√
XT2 X2 = R y U = R2, tal que dU = 2R dR.
I(n) =
∞∫
0
h
(n+1∑
i=2
x2i
)n∏
k=1
dxk
3.3. DISTRIBUCION T GENERALIZADA 59
=π
n2
Γ(
n2
)∞∫
0
h(u) un2−1 du
=π
n2
Γ(
n2
)∞∫
0
f(u + (x1 − µ1)2) u
n2−1 du
=π
n2
Γ(
n2
)∞∫
0
f(r2 + (x1 − µ1)2) r2(n
2−1) (2r dr)
=2 π
n2
Γ(
n2
)∞∫
0
f(r2 + (x1 − µ1)2) rn−1 dr
Sea l(·) Borel medible tal que, IE(l(X1, R)) < ∞ y recuerde que
T =√
nX1
R−→ R =
√n
X1
T,
cuyo jacobiano es
J =dX1
dT=√
n1
R.
Entonces
IE(T ) = IE(l(X1, R))
=2π
n2
Γ(
n2
)∞∫
−∞
∞∫
0
l(x1, r) rn−1 f(r2 + (x1 − µ1)2) dr dx1
=2π
n2
Γ(
n2
)∞∫
−∞
∞∫
0
(√n x1
r
)rn−1 f(r2 + (x1 − µ1)
2) dr dx1
=2π
n2
Γ(
n2
)∞∫
−∞
∞∫
0
t rn−1 f
[r2 +
(t r
n(1/2)− µ1
)2]
dr
(r√n
dt
)
=2π
n2
√n Γ
(n2
)∞∫
−∞
∞∫
0
t rn f
[r2 +
(t r
n(1/2)− µ1
)2]
dr dt
=2π
n2
√n Γ
(n2
)∞∫
−∞
∞∫
0
t rn f
(r2 +
t2 r2
n− 2t r
n(1/2)µ1 + µ2
1
)dr dt
=2π
n2
√n Γ
(n2
)∞∫
−∞
∞∫
0
t rn f
((t2 + n) r2
n− 2t r µ1
n(1/2)+ µ2
1
)dr dt
60 CHAPTER 3. DISTRIBUCION DE FORMAS CUADRATICAS
Ası, al hacer el cambio de variable
y =
(t2 + n
n
)(1/2)
r,
cuyo jacobiano es
J =dr
dy=
(t2 + n
n
)−(1/2)
y reemplazando adecuadamente lo anterior y δ = µ1, δ1 = (tδ)/(n+ t2)(1/2) en (3.3), se obtiene
finalmente que
gT(t) =
2πn2
√n Γ
(n2
)∞∫
0
rn f
((t2 + n) r2
n− 2t r δ
n(1/2)+ δ2
)dr
=2π
n2
√n Γ
(n2
)(
t2 + n
n
)−n2
∞∫
0
yn f(y2 − 2δ1 y + δ2
)
(t2 + n
n
)−(1/2)
dy
=2(nπ)
n2
Γ(
n2
) (n + t2)−n+1
2
∞∫
0
f(y2 − 2δ1y + δ2) yn dy; t ∈ IR
donde δ = µ1 el parametro de no centralidad de la distribucion Gt no centrada con (n − 1)
g.l. y δ1 = (tδ)/(n + t2)(1/2).
Sea T ∼ Gt(n, δ; f). Entonces, si δ = 0 la densidad de una distribucion t generalizada no
centrada coincide con la densidad de una distribucion t centrada.
Demostracion Sea T ∼ Gt(n, δ; f). Entonces, su densidad es
gT(t) =
2(nπ)n2
Γ(
n2
) (n + t2)−n+1
2
∞∫
0
f(y2 − 2δ1y + δ2) yn dy,
si δ = 0 (caso centrado), se obtiene
gT(t) =
2(nπ)n2
Γ(
n2
) (n + t2)−n+1
2
∞∫
0
f(y2) yn dy (3.10)
=2(nπ)
n2
Γ(
n2
) (n + t2)−n+1
2 I(n). (3.11)
La integral I(n) es valida para toda distribucion Elıptica y en particular para la distribucion
Normal, en cuyo caso
f(u) =1
(2π)n+1
2
exp(−u
2
)
3.3. DISTRIBUCION T GENERALIZADA 61
y ası se tiene
I(n) =
∞∫
0
yn 1
(2π)n+1
2
exp
(−y2
2
)dy =
1
(2π)n+1
2
∞∫
0
yn exp
(−y2
2
)dy,
Considere ahora el cambio de variable
x = y2 −→ y =√
x,
cuyo jacobiano es
J =dy
dx= − 1
2√
xy |J | = 1
2√
x,
con lo cual
I(n) =1
(2π)n+1
2
∞∫
0
yn exp
(−y2
2
)dy
=1
(2π)n+1
2
∞∫
0
xn2 exp
(−x
2
)1
2√
xdx
=1
2 (2π)n+1
2
∞∫
0
xn+1
2−1 exp
(−x
2
)dx
=1
2n+1
2+1 π
n+12
Γ(
n + 1
2
)2
n+12
=Γ
(n+1
2
)
2 πn+1
2
.
Finalmente
gT(t) =
2(n π)n2
Γ(
n2
) (n + t2)−n+1
2
Γ(
n+12
)
2 πn2+ 1
2
=n
n2 Γ
(n+1
2
)
π(1/2) Γ(
n2
) (n + t2)−n+1
2
62 CHAPTER 3. DISTRIBUCION DE FORMAS CUADRATICAS
3.4 Distribucion F Generalizada
3.4.1 Introduccion
La distribucion F generalizada (GF), al igual que la distribucion Gt, juega un papel similar
a la distribucion F bajo la teorıa de Normal. Como ya se menciono, la distribucion GF es la
distribucion de
V =
XT1 X1
mXT
2 X2
n
=n
m
XT1 X1
XT2 X2
,
cuando X = (XT1 XT
2 )T tiene una distribucion Elıptica. La notacion ECm+n(µ, Σ; f) sigue
siendo valida, tanto bajo singularidad como no singularidad de la distribucion.
Recuerde que si X = (XT1 XT
2 )T ∼ Nm+n(0, Im+n), con X1 ∈ IRm y X2 ∈ IRn, entonces
V =n
m
XT1 X1
XT2 X2
∼ F (m,n)
y su densidad es
gV(v) =
Γ(
m+n2
)m
m2 n
n2 v
m2−1
Γ(
m2
)Γ
(n2
)(m + nv)
m+n2
; v > 0. (3.12)
Analogamente, si X = (XT1 XT
2 )T ∼ Nm+n(µ, Im+n), con X1 ∈ IRm y X2 ∈ IRn; µ ∈ IRm+n,
µ = [µ1 0]T , µ1 ∈ IRm y µ1 6= 0, entonces
V =n
m
XT1 X1
XT2 X2
∼ F (m,n; δ),
con δ = (1/2)µT1 µ1 y cuya densidad viene dada por
gV(v) =
∞∑
k=0
exp(−δ) δk
k!
Γ(
m+n+2k2
)m
m2
+k nn2 v
m2
+k−1
Γ(
m2
+ k)
Γ(
n2
)(n + mv)
m+n+2k2
; v > 0, (3.13)
es decir, una suma ponderada infinita (cuyos factores de ponderacion vienen dados por una
ley de Poisson de parametro δ = (1/2)µT1 µ1) de densidades F (m + 2k, n) centradas. Esta
distribucion es llamada F no centrada con m g.l. en el numerador, n g.l. en el denominador
y parametro de no centralidad δ = (1/2)µT1 µ1.
3.4. DISTRIBUCION F GENERALIZADA 63
Asimismo, si X = (XT1 XT
2 )T ∼ Nm+n(µ, Im+n), con X1 ∈ IRm y X2 ∈ IRn; µ ∈ IRm+n,
µ = [µ1 µ2]T , µ1 ∈ IRn y µ1 6= 0, µ2 ∈ IRm y µ2 6= 0, entonces
V =n
m
XT1 X1
XT2 X2
∼ F (m,n; δ1, δ2),
con δ1 = (1/2)µT1 µ1 y δ2 = (1/2)µT
2 µ2 y tiene densidad
gV(v) =
∞∑
k1=0
∞∑
k2=0
exp(−δ1 − δ2) δ1 δ2
k1!k2!
Γ(
m+n2
+ k1 + k2
)m
m2
+k1 nn2+k2 v
m2
+k1−1
Γ(
m2
+ k1
)Γ
(n2
+ k2
)(mv + n)
m+n+2k1+2k22
; v > 0.
Esta ultima es llamada la distribucion F doble no centrada con m g.l. en el numerador, n g.l.
en el denominador y parametros de doble no centralidad δ1 = (1/2)µT1 µ1 y δ2 = (1/2)µT
2 µ2.
Por ultimo, se tiene una mayor generalizacion si X = (XT1 XT
2 )T ∼ Nm+n(µ, Σ), con X1 ∈IRm y X2 ∈ IRn; µ ∈ IRm+n, µ = [µ1 µ2]
T , µ1 ∈ IRn y µ1 6= 0, µ2 ∈ IRm y µ2 6= 0;
Σ ∈ IR(m+n)×(m+n), dada por
Σ =
Σ11 0
0 Σ22
,
con Σ11 ∈ IRm, Σ11 > 0, Σ22 ∈ IRm, Σ22 > 0, entonces
V =n
m
XT1 Σ−1
11 X1
XT2 Σ−1
22 X2
∼ F (m,n; δ1, δ2),
donde δ1 = (1/2)µT1 Σ−1
11 µ1 y δ2 = (1/2)µT2 Σ−1
22 µ2.
3.4.2 Distribucion F Generalizada Centrada y No Centrada
De la misma forma que en el caso de la distribucion Gt, se usa la invarianza de la distribucion
GF bajo leyes Esfericas para obtener el siguiente resultado. Posteriormente se plantea la
distribucion GF no centrada bajo no singularidad de la ley Elıptica.
[Distribucion GF centrada] Sea X = (XT1 XT
2 )T ∼ Sm+n(f), con X1 ∈ IRm y X2 ∈ IRn.
Entonces,
V =n
m
XT1 X1
XT2 X2
∼ GF(m,n; f),
64 CHAPTER 3. DISTRIBUCION DE FORMAS CUADRATICAS
la cual coincide con la del caso de una distribucion Normal, esto es, GF(n,m; f) ≡ F (m,n), ∀f .
Se presenta ahora la distribucion GF no centrada como caso particular de la distribucion GFdoble no centrada, la que se presenta mas adelante.
[Distribucion GF no centrada] Sea XT = (X1 X2) ∼ ECm+n (µ, Im+n; f), con X1 ∈ IRm
y X2 ∈ IRn; µ ∈ IRm+n, µT =[µT
1 0], µ1 ∈ IRm y µ1 6= 0. Entonces,
V =n
m
XT1 X1
XT2 X2
∼ GF(m, m; δ; f),
con δ = (1/2)µT1 µ1 y su funcion de densidad viene dada por
gV(v) =
2πn+m−1
2
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
π∫
0
∞∫
0
senm−2 θ ym+n−1 f(y2 − 2γ∗y cos θ + γ2) dθ dy, v > 0,
(3.14)
donde γ∗ =(
m v
n + mv
)(1/2)
γ y γ2 = 2δ.
Demostracion. Considere la densidad de una distribucion F generalizada doble no centrada
gV(v) =
2πn+m
2−1
Γ(
m−12
)Γ
(n−1
2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
π∫
0
π∫
0
∞∫
0
senm−2 θ senn−2 φ ym+n−1 f(y2 − 2y γ∗1 cos θ + γ21
−2 y γ∗2 cos θ + γ22) dy dθ dφ
donde γ∗1 =(
m v
n + mv
)(1/2)
γ y γ∗2 =(
n
m v
)(1/2) (1 +
n
m v
)−(1/2)
.
Haciendo γ2 = 0, se obtiene
gV(v) =
2πn+m
2−1
Γ(
m−12
)Γ
(n−1
2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
π∫
0
π∫
0
∞∫
0
senm−2 θ senn−2 φ ym+n−1 f(y2 − 2y γ∗ cos θ + γ2) dy dθ dφ
3.4. DISTRIBUCION F GENERALIZADA 65
=2π
n+m2−1
Γ(
m−12
)Γ
(n−1
2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
π∫
0
senn−2 φ dφ
π∫
0
∞∫
0
senm−2 θ ym+n−1 f(y2 − 2y γ∗ cos θ + γ2) dy dθ
=2π
n+m2−1
Γ(
m−12
)Γ
(n−1
2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2 π(1/2) Γ(
n−12
)
Γ(
n2
)
π∫
0
∞∫
0
senm−2 θ ym+n−1 f(y2 − 2y γ∗ cos θ + γ2) dy dθ
=2π
n+m−12
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
π∫
0
∞∫
0
senm−2 θ ym+n−1 f(y2 − 2y γ∗ cos θ + γ2) dy dθ
donde γ∗ =(
m v
n + mv
)(1/2)
γ.
Sea V ∼ GF(m,n, δ; f). Entonces, si δ = 0 la densidad de una distribucion F generalizada
no centrada coincide con la densidad de una distribucion F centrada.
Demostracion Considere la densidad de una distribucion F generalizada no centrada
gV(v) =
2πn+m−1
2
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
π∫
0
∞∫
0
senm−2 θ ym+n−1 f(y2 − 2γ∗y cos θ + γ2) dθ dy, v > 0,
donde γ∗ =(
mv
n + mv
)(1/2)
γ y γ2 = 2δ.
Haciendo δ = 0 (caso centrado) se obtiene
gV(v) =
2πn+m−1
2
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
(3.15)
π∫
0
∞∫
0
senm−2 θym+n−1f(y2) dθ dy (3.16)
=2π
n+m−12
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
(3.17)
66 CHAPTER 3. DISTRIBUCION DE FORMAS CUADRATICAS
π∫
0
senm−2 θ dθ
∞∫
0
ym+n−1f(y2) dy
(3.18)
=2π
n+m−12
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2 π12 Γ
(m−1
2
)
Γ(
m2
)Γ
(m+n
2
)
2 πm+n
2
(3.19)
=Γ
(m+n
2
)
Γ(
m2
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
(3.20)
=Γ
(m+n
2
)m
m2 n
n2 v
m2−1
Γ(
m2
)Γ
(n2
)(m + nv)
m+n2
; v > 0. (3.21)
Note que la densidad dada en el Teorema 4.88 esta expresada a traves de una integral, en [33] se
puede ver como esta densidad es expresada, usando desarrollo en serie de Taylor, en terminos
de las derivadas de la funcion f . A continuacion de da explıcitamente la demostracion.
[Densidad GF no centrada en funcion de las derivadas de f ] Sea V ∼ GF (n, m, δ; f),
con δ =1
2µT
1 µ1 y f expandible en serie de Taylor en IR. Entonces una forma alternativa de
expresar la densidad de V viene dada por
gV(v) =
2 πm+n
2
Γ(
n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
∞∑
k=0
γ2k
k! Γ(
n2
+ k)
∞∫
0
ym+n+k−1 f (2k)(y + γ2) dy, v > 0,
(3.22)
donde δ = (1/2)γ2 = (1/2)µT µ y f (2k)(·) es la 2k-esima derivada de f(·).
Demostracion. Sea V ∼ GF(m,n, δ; f). Entonces su densidad es
gV(v) =
2πn+m
2−1
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−(1/2)(m+n)
=
π∫
0
∞∫
0
senm−2 θ ym+n−1 f(y2 − 2γ1y cos θ + γ2) dθ dy, v > 0,
donde δ = (1/2)γ2 = (1/2)µT µ y γ1 =(
m v
n + mv
)(1/2)
γ.
3.4. DISTRIBUCION F GENERALIZADA 67
gV(v) = c(m,n; v)
∞∫
0
ym+n−1 T (y) dy,
donde
c(m,n; v) =2π
n+m2−1
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−(1/2)(m+n)
,
de modo que
T (y) =
π∫
0
senm−2 θ f(y2 − 2γ1y cos θ + γ2) dθ,
puede expresarse tal como en el Teorema 3.3 de la forma
T (y) = π(1/2) Γ(
m− 1
2
) ∞∑
k=0
γ2k
k! Γ(k + n
2
) yk f (2k)(u + γ2).
Ası, finalmente,
gV(u) =
2πm+n
2− 1
2
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
(3.23)
∞∫
0
ym+n−1 π(1/2) Γ(
m− 1
2
) ∞∑
k=0
γ2k
k! Γ(k + n
2
) yk f (2k)(u + γ2) dy(3.24)
=2π
m+n2
Γ(
n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
(3.25)
∞∑
k=0
γ2k
k! Γ(k + n
2
)∞∫
0
ym+n+k−1 f (2k)(y + γ2) dy; u > 0,(3.26)
donde δ = (1/2)γ2 = (1/2)µT µ y f (2k)(·) es la 2k-esima derivada de f(·).
68 CHAPTER 3. DISTRIBUCION DE FORMAS CUADRATICAS
Part II
RESULTADOS
69
Chapter 4
Distribucion Elıptica Singular
4.1 Introduccion
En este capıtulo se encuentra la densidad de una vector aleatorio Elıptico singular siguiendo el
argumento propuesto en Rao [69, p. 527] y se hallan las distribuciones χ2, t y F generalizadas
asociadas a este vector aleatorio, en cuyo caso, y tal como se demuestra, la singularidad de la
distribucion Elıptica afecta los grados de libertad de tales distribuciones. Posteriormente, se
utilizan dos distribuciones Elıpticas singulares especıficas, como lo son la Pearson tipo VII y la
de tipo Kotz, hallando ası explıcitamente las densidades de estas distribuciones. Finalmente,
se tratan dos aplicaciones de la distribucion Elıptica singular. La primera de ellas relacionada
con la distribucion de los residuos de un modelo lineal Elıptico y la segunda relacionada con
el estadıstico t generalizado, basado en una muestra obtenida desde una poblacion Elıptica.
4.2 Densidad de una distribucion Elıptica Singular
Tal como se menciono anteriormente, si X ∼ ECn(µ, Σ; φ), con µ ∈ IRn, Σ ∈ IRn×n y Σ ≥ 0,
es decir, rk Σ = r < n, entonces X tiene una distribucion Elıptica singular. A continuacion se
halla explıcitamente la densidad de X de forma analoga al caso de una distribucion Normal
singular, tal como en [69, p. 527] y [25].
71
72 CHAPTER 4. DISTRIBUCION ELIPTICA SINGULAR
Sea X ∼ ECn(µ, Σ; φ), con µ ∈ IRn, Σ ∈ IRn×n, Σ ≥ 0 y rk Σ = r < n. Entonces, la
funcion de densidad de X viene dada por
(r∏
i=1
λ− 1
2i
)f [(X− µ)T Σ
−(X− µ)] (4.1)
y
NTX = NT µ, con probabilidad 1, (4.2)
lo cual se denotara por X ∼ ECr
n(µ, Σ; f), donde Σ−
es un inverso generalizado simetrico de Σ,
los λi son los valores propios no nulos de Σ y N ∈ Vn,(n−r) ≡ {N ∈ IRn×(n−r)/NT N = I(n−r)},la variedad de Stiefel, tal que NT Σ = 0.
Demostracion: Dado que Σ = ΣT , entonces existe Q ∈ O(n), tal que
Σ = Q
Dr 0
0 0
Q′. (4.3)
Considere ahora la particion Q = (B N), con B ∈ IRn×r y N ∈ IRn×(n−r) y observe que
QT Σ Q =
BT
NT
Σ (B N) =
BT ΣB BT Σ N
NT ΣB NT Σ N
=
Dr 0
0 0
(4.4)
y sea la transformacion
Y =
W
Z
=
BT
NT
X =
BTX
N X
,
de modo que, por Fang y Zhang [32, p. 66],
E(Z) = E(NTX) = NT µ
y
Cov(Z) = NT Cov(X) N = NT c0Σ N = c0NT Σ N = 0,
donde c0 = −2φ(0), esto es,
Z ∼ EC0(n−r)(N
T µ,0; f),
4.2. DENSIDAD DE UNA DISTRIBUCION ELIPTICA SINGULAR 73
es decir,
NT (X− µ) = 0, con probabilidad 1. (4.5)
Ademas, nuevamente por Fang y Zhang [32, p. 66]
E(W) = BT µ y V ar(W) = c0BT Σ B,
esto es,
W ∼ ECr(BT µ, BT Σ B; f),
donde f(·) es la densidad restringida solo al rango de Σ, con lo cual la densidad de W es
∣∣∣BT Σ B∣∣∣−1/2
f [(BTX−BT µ)T (BT ΣB)−1(BTX−BT µ)]. (4.6)
Ası, la funcion de densidad conjunta de (W,Z) o la de X, esta definida por (7) y (8). Alter-
nativamente, observe que
1. |BT Σ B| = |Dr| =r∏
i=1
λi, donde Dr es una matriz diagonal, cuyos elementos de su
diagonal son los λi, los valores propios no nulos de Σ.
2. Como
Σ = Q
Dr 0
0 0
QT ,
entonces
Σ−
= Q
D−1r 0
0 0
QT = (B N)
D−1r 0
0 0
BT
NT
= B D−1
r BT .
De esta manera, por (2.6)
Σ−
= B (BT Σ B)−1BT , (4.7)
con lo cual se obtiene que
(BTX−BT µ)T (BT Σ B)−1(BTX−BT µ) = (X − µ)T B (BT Σ B)−1BT (X− µ)
= (X− µ)T Σ−(X− µ).
74 CHAPTER 4. DISTRIBUCION ELIPTICA SINGULAR
Ası, finalmente, la densidad de X esta dada por
(r∏
i=1
λ−1/2i
)f [(X− µ)T Σ
−(X− µ)] (4.8)
y
N(XT − µ) = 0, con probabilidad 1. (4.9)
lo cual se interpreta como la densidad (2.8) sobre el hiperplano (2.9).
Formalmente, la densidad de X existe con respecto a la medida de Hausdorff. Ası, uti-
lizando la notacion de Billingsley [8], W tiene densidad con respecto a la medida de Lebesgue
definida sobre el conjunto A, digamos λr(A), donde A esta definido por (2.9) y Z tiene den-
sidad con respecto a la medida de conteo C{Z}, en donde el soporte solo contiene al punto
Z = N ′µ.
Lo observado anteriormente se ilustrara de forma mas clara en el siguiente ejemplo.
Sea X =
X1
X2
∼ EC1
2
µ =
1
1
, Σ =
1 2
2 4
; f
, donde rk Σ = 1; de modo que
X tiene una distribucion Elıptica singular. Los valores propios de Σ son λ1 = 5 y λ2 = 0
y sus vectores propios asociados son de la forma (b 2b)T y (−2a a)T , respectivamente, con
a, b ∈ IR. Luego, como los vectores propios no son unicos, la densidad singular que se halla
tampoco lo es. Ası, si se consideran los vectores propios normalizados de B y N , se obtiene que
Q = (B N) =
1/√
5 2/√
5
2/√
5 4/√
5
es ortogonal. Finalmente, la densidad de X = (X1 X2)
T viene
dada por (1/√
5 f [(1/25)(x21−6x1 +4x1 x2−12x2 +9)] y −2x1 +x2 +1 = 0, con probabilidad
1; lo que se interpreta como la densidad de X con dominio en la recta L : −2x1 + x2 + 1 = 0.
A continuacion se presentan 5 graficos, dos de los cuales permiten ilustrar mas claramente
el ejemplo antes planteado (Graficos 1 y 2), ası como el caso de degenerancia (Graficos 3 y 4)
y el no singular (Grafico 5).
1. En los Graficos 1 y 2 se representan las densidades de una distribucion Elıptica singular
en IR2 de rango 1. Se ve como dicha densidad, aunque no existe en todo el espacio, sı
existe enuno de dimension menor. Se muestran dos densidades particulares sobre sus
4.2. DENSIDAD DE UNA DISTRIBUCION ELIPTICA SINGULAR 75
respectivos planos; sin embargo, lo importante de este resultado es que, aun cuando
la densidad no es unica, la probabilidad de un evento se calcula a partir de cualquier
representacion de esta densidad y coincide cualquiera sea ella.
15cm6cmd:/aapoyovl/seminary/eliptica/graf1y2.bmp
2. En los Graficos 3 y 4 se representan las densidades de una distribucion Elıptica singular
en IR2 de rango 0. Se ve como dicha densidad, aunque no existe en todo el espacio, en
este caso esta acumulada en un unico punto, que es la interseccion de los planos, cuya
representacion, de manera analoga al caso anterior, tampoco es unica.
3. En el Grafico 5 se representa la densidad de una distribucion Elıptica no singular en
IR2. Se ve como dicha densidad ocupa todo el espacio.
76 CHAPTER 4. DISTRIBUCION ELIPTICA SINGULAR
15cm6cmd:/aapoyovl/seminary/eliptica/graf3y4.bmp 10cm6cmd:/aapoyovl/seminary/eliptica/graf51.bmp
Dos distribuciones Elıpticas especıficas son la distribucion de Pearson tipo VII y la de tipo
Kotz, las que a su vez contienen a las distribuciones t-multivariada, cuando m = (r + s)/2,
y Normal multivariada, cuando m = 1, s = 1/2 y t = 1, respectivamente. Ası, por Gupta y
Varga [39] y el Teorema 2.91, se presentan a continuacion ambas distribuciones para el caso
de un distribucion Elıptica singular.
Sea X ∼ ECrn(µ, Σ; f), con µ ∈ IRn, µ 6= 0; Σ ∈ IRn×n, Σ ≥ 0 y rk Σ = r < n. Ası, si su
densidad viene dada por
(r∏
i=1
λ− 1
2i
)Γ(m)
(πs)r2 Γ
(m− r
2
)1 +
(X− µ)T Σ−(X− µ)
s
−m
y
NT (X− µ) = 0, con probabilidad 1,
entonces X tiene una distribucion de Pearson tipo VII singular de rango r con parametros
m > r/2 y s > 0, donde Σ−
es un inverso generalizado simetrico de Σ, los λi son los valores
propios no nulos de Σ y N ∈ Vn,(n−r), tal que NT Σ = 0.
Sea X ∼ ECrn(µ,Σ; f), con µ ∈ IRn, µ 6= 0; Σ ∈ IRn×n, Σ ≥ 0 y rk Σ = r < n. Ası, si su
densidad viene dada por
(r∏
i=1
λ−1/2i
)t s
2m+r−22t Γ
(r2
)
πr2 Γ
(2m+r−2
2t
)[(X− µ)T Σ
−[(X − µ)]m−1 exp
(−s (X− µ)T Σ
−(X − µ)
]t)
y
NT (X− µ) = 0, con probabilidad 1,
entonces X tiene una distribucion de Tipo Kotz singular de rango r y parametros m, t y s,
con 2m + r > 2, t > 0, s > 0, donde Σ−
es un inverso generalizado simetrico de Σ, los λi son
los valores propios no nulos de Σ y N ∈ Vn,(n−r), tal que NT Σ = 0.
4.3. DISTRIBUCIONES χ2, T Y F GENERALIZADAS 77
4.3 Distribuciones χ2, t y F Generalizadas
Las distribuciones χ2, t y F generalizadas, centradas y no centradas, han sido ampliamente
estudiadas para el caso de una distribucion Elıptica no singular, incluyendo casos de Elıpticas
particulares, en los libros [1] y [32]. A pesar de ello, el uso de la densidad de una distribucion
Elıptica singular no ha sido aun estudiado. Esta singularidad de la ley Elıptica afecta los
grados de libertad de la distribucion. Particularmente, si el rango de Σ es r < n, entonces
la distribucion χ2 asociada tiene r grados de libertad, una situacion analoga ocurre con las
distribuciones t y F generalizadas.
4.3.1 Distribucion χ2 Generalizada
Sea X ∼ ECn(µ, Σ; f), con µ ∈ IRn, µ 6= 0, Σ ∈ IRn×n, Σ > 0 y rk Σ = r = n. Entonces,
U = XT Σ−1X tiene una distribucion Gχ2 no centrada, denotado por U ∼ Gχ2(n, δ; f) cuya
densidad es
gU(u) =
πn−1
2
Γ(
n−12
) un2−1
π∫
0
f(u− 2γ u12 cos φ + γ2) senn−2 φ1 dφ1; u > 0, (4.10)
donde γ2 = µT Σ−1µ = 2δ (vea [32, p. 82]).
Una forma alternativa de expresar la densidad de U , si f es expandible en serie de Taylor en
IR, es
gU(u) =
∞∑
k=0
γ2kπn2
k! Γ(
n2
+ k) u
n2+k−1 f (2k)(u + γ2); u > 0, (4.11)
donde γ2 = 2δ = µT µ y f (2k)(·) es la 2k-esima derivada de f(·) (vea [80]).
Ası, bajo singularidad de la distribucion Elıptica, obtenemos el siguiente resultado.
Sea X ∼ ECrn(µ, Σ; f), con µ ∈ IRn, µ 6= 0; Σ ∈ IRn×n, Σ ≥ 0 y rk Σ = r < n. Entonces,
U = XT Σ−X ∼ Gχ2(r, δ; f),
con δ = (1/2)µT Σ−µ.
78 CHAPTER 4. DISTRIBUCION ELIPTICA SINGULAR
Demostracion. Sean X ∼ ECrn(µ, Σ; f), con µ ∈ IRn, µ 6= 0; Σ ∈ IRn×n, rk Σ = r < n,
Σ = QT Q y Q ∈ IRr×n una factorizacion de rango completo e Y = Q−X. Entonces,
Y ∼ ECr(ν, Ir; f), con ν = Q−µ; luego ‖Y‖2 ∼ Gχ2(r, δ; f), con
δ = (1/2)µT Q−Q−µ = (1/2)µT Σ
−µ.
El resultado es inmediato, ya que ‖Y‖2 = XT Σ−X.
. Sea X con distribucion de Pearson tipo VII singular de rango r. Entonces, U =
XT Σ−X ∼ Gχ2(r, δ; f) tiene densidad
gU(u) =
sm− r2 Γ(m)
Γ(m− r
2
)∞∑
k=0
(m)2k
k! Γ(
r2
+ k) γ2k u
r2+k−1(s + u + γ2)−2k−m; u > 0, (4.12)
donde γ2 = 2δ = µT Σ−µ.
Demostracion. Usando la densidad de una distribucion Gχ2 expresada en terminos de las
derivadas de la funcion f , dada anteriormente, obtenemos que si U = XT Σ−X ∼ Gχ2(r, δ; f),
entonces
gU(u) =
∞∑
k=0
γ2kπr2
k! Γ(
r2
+ k) u
r2+k−1 f (2k)(u + γ2); u > 0,
donde γ2 = 2δ = µT Σ−µ y f (2k) es la 2k-esima derivada de f . En nuestro caso particular
f(u) =Γ(m)
(π s)r2 Γ
(m− r
2
)[1 +
u
s
]−m
y por tanto
f (2k)(u) =Γ(m)
πr2 Γ
(m− r
2
) sm−r/2 (m)2k (s + u)−m−2k,
donde (m)2k = m(m− 1)(m− 2) · . . . · (m− 2k + 1). Ası,
gU(u) =
sm− r2 Γ(m)
Γ(m− r
2
)∞∑
k=0
(m)2k γ2k ur2+k−1 (s + u + γ2)−m−2k
k! Γ(
r2
+ k)
4.3. DISTRIBUCIONES χ2, T Y F GENERALIZADAS 79
. Sea X con distribucion de tipo Kotz singular de rango r. Entonces, U = XT Σ−X ∼
Gχ2(r, δ; f) tiene densidad
gU(u) =
t s2m+r−2
2t Γ(
r2
)
Γ(
2m+r−22t
)
∞∑
k=0
∞∑
z=0
γ2k (−s)2(k+1) (t(z + 2k) + q − 1)2k ur2+k−1 (u + γ2)t(z+2k)+m−1−2k
k! (k + 2k)! Γ(
r2
+ k) ,
(4.13)
donde u > 0 y γ2 = 2δ = µT Σ−µ.
Demostracion. De manera analoga al Corolario 3.97, si X tiene distribucion de tipo Kotz
singular de rango r, entonces
f(u) =t s
2m+r−22t Γ
(r2
)
πr2 Γ
(2m+r−2
2t
) um−1 exp(−s ut
); 2m > r − 2, t, s > 0.
El resultado se sigue observando que
f(u) =t s
2m+r−22t Γ
(r2
)
πr2 Γ
(2m+r−2
2t
)∞∑
l=0
(−r)l utl+m−1
l!,
con lo cual la derivada 2k-esima de f es
f (2k)(u) =t s
2m+r−22t Γ
(r2
)
πr2 Γ
(2m+r−2
2t
)∞∑
z=l−2k=0
(−s)2(k+1) (t(z + 2k) + q − 1)2k ut(z+2k)+m−1−2k
(k + 2k)!.
Ası, finalmente,
gU(u) =
t s2m+r−2
2t Γ(
r2
)
Γ(
2m+r−22t
)
∞∑
k=0
∞∑
z=0
γ2k (−s)2(k+1) (t(z + 2k) + q − 1)2k ur2+k−1 (u + γ2)t(z+2k)+m−1−2k
k! (k + 2k)! Γ(
r2
+ k) ,
con u > 0 y γ2 = 2δ = µT Σ−µ.
80 CHAPTER 4. DISTRIBUCION ELIPTICA SINGULAR
4.3.2 Distribucion t Generalizada
Sea X = (X1 XT2 )T ∼ ECn+1(µ, In+1; f), con X1 ∈ IR y X2 ∈ IRn; µ ∈ IRn+1, µ = [µ1 0 ]T ,
µ1 ∈ IR y µ1 6= 0. Entonces, T = (X1/√
(XT2 X2)/n tiene una distribucion t generalizada no
centrada, denotado por T ∼ Gt(n, δ; f), con δ = µ1 y su funcion de densidad es
gT(t) =
2(nπ)n2
Γ(
n2
) (n + t2)−n+1
2
∞∫
0
f(y2 − 2δ1y + δ2) yn dy; t ∈ IR, (4.14)
donde δ es el parametro de no centralidad y δ1 = (tδ)/((n + t2)12 ) (vea [32, p. 85]).
Sea T ∼ Gt(n, δ; f). Entonces, si δ = 0, la distribucion t generalizada no centrada coincide
con la distribucion t centrada clasica (vea [32, p. 63]).
Se presenta ahora la distribucion Gt no centrada bajo singularidad de la distribucion Elıptica
asociada, esto es, cuando X ∼ ECrn(µ, Σ; f), donde r < n es el rango de Σ. Esta singularidad
de la ley Elıptica afecta los grados de libertad de la distribucion de T , de forma similar al caso
de la distribucion Gχ2 dada anteriormente.
Sea X = (X1 XT2 )T ∼ EC
(r+1)(n+1)(µ, Σ; f), con X1 ∈ IR y X2 ∈ IRn; µ ∈ IRn+1, µ = [µ1 0]T
y µ1 ∈ IR, µ1 6= 0; Σ =
σ21 0
0 Σn
∈ IR(n+1)×(n+1), Σn ∈ IRn×n y rk Σn = r < n. Entonces,
T =√
rX1√
XT2 Σ
−X2
∼ Gt(r, δ; f),
con δ = µ1/σ1.
Demostracion. Sea X = (X1 XT2 ) ∼ EC
(r+1)(n+1)(µ, Σ; f), con X1 ∈ IR y X2 ∈ IRn; µ ∈ IRn,
µ = [µ1 0]T y µ1 ∈ IR, µ1 6= 0; Σ =
σ21 0
0 Σn
∈ IR(n+1)×(n+1).
Factorice Σn = Q QT , tal que Q ∈ IRn×r, con rk Q = r < n, de modo que
Y =
σ−11 0
0 Q−
·X =
σ−11 X1
Q−
X2
=
Y1
Y2
.
4.3. DISTRIBUCIONES χ2, T Y F GENERALIZADAS 81
Entonces, X = (Y1 YT2 )T ∼ EC(r+1)(ν, Ir+1; f), con Y1 ∈ IR y Y2 ∈ IRr; ν ∈ IRr+1,
ν =
σ−11 0
0 Q−
· µ =
σ−11 0
0 Q−
·
µ1
0
=
µ1/σ1
0
;
luego
T =√
rY1√
YT2 Y2
=√
rX1√
(Q−X2)T (Q
−X2)
=√
rX1√
XT2 Σ
−n X2
∼ Gt(r, δ; f),
con δ = µ1/σ1.
Sea X = (X1 XT2 ) con distribucion de Pearson tipo VII singular de rango (r+1). Entonces,
T =√
rX1√
XT2 Σ
−X2
∼ Gt(r, δ; f),
tiene densidad
gT(t) =
rr2 Γ(m)
sr2 Γ
(r2
)Γ
(m− r
2
) (r + t2)−r+12
∞∑
k=0
(−m)k(−2 δ1)k (s + δ2)
r−2m−k+12 ) Γ
(r+k+1
2
)Γ
(2m+k−r−1
2
)
k! sk Γ (m + k),
(4.15)
donde δ = µ1 y δ1 = (tδ)/(r + t2)1/2.
Demostracion. Sea X con distribucion de Pearson tipo VII singular de rango (r + 1) de
parametros m > (r + 1)/2 y s > 0. Entonces
f(u) =Γ(m)
(πs)r2 Γ
(m− r
2
)[1 +
u
s
]−m
.
Ası, si T ∼ Gt(r, δ; f)
gT(t) =
2 rr2 Γ(m)
sr2 Γ
(m− r
2
)Γ
(r2
) (r + t2)−r+12
∞∫
0
[1 +
y2 − 2δ1y + δ2
s
]−m
yr dy,
con δ = µ1 y δ1 = (tδ)/(r + t2)1/2. Entonces, usando el desarrollo en serie dado en [1, p. 85],
se tiene que[1 +
y2 − 2δ1y + δ2
s
]−m
=∞∑
k=0
(−m)k
k!
(−2 δ1 y
s
)k (1 +
y2 + δ2
s
)−k−m
,
82 CHAPTER 4. DISTRIBUCION ELIPTICA SINGULAR
con lo cual
gT(t) =
2 rr2 Γ(m)
sr2 Γ
(m− r
2
)Γ
(r2
) (r + t2)−r+12
∞∑
k=0
(−m)k (−2 δ1)k
k! sk(s + δ2)
r−k2−m
∞∫
0
(1 +
y2
s + δ2
)−k−m (y2
s + δ2
) r+k2
dy.
Considere ahora el cambio de variable
u =y2
s + δ2=⇒ y =
√u (s + δ2),
cuyo jacobiano es
J =
∣∣∣∣∣dy
du
∣∣∣∣∣ =(s + δ2)1/2
2 u1/2,
de donde, finalmente
gT(t) =
rr2 Γ(m)
sr2 Γ
(m− r
2
)Γ
(r2
) (r + t2)−r+12
∞∑
k=0
(−m)k (−2 δ1)k (s + δ2)
r−k+12
−m Γ(
r+k+12
)Γ
(2m−r+k−1
2
)
k! sk Γ(k + m)
. Sea X = (X1 XT2 ) con distribucion de tipo Kotz singular de rango r, con m = 2 y s = 1.
Entonces,
T =√
rX1√
XT2 Σ
−X2
∼ Gt(r, δ; f)
tiene densidad
gT(t) =
4rr2−1 s
r2+1
Γ(
r2
)(r + t2)−
r+12
exp(−s δ2)
∞∑
k=0
−sk(r + 2k) Γ(r + 2k)
k! (2s δ1)r+2k+1
[(r + 2k + 2)(r + 2k + 1)
(2s δ1)2− 2δ1
r + 2k + 1
2s δ1
+ δ2
],
(4.16)
donde δ = µ1 y δ1 = (tδ)/(r + t2)1/2.
4.3. DISTRIBUCIONES χ2, T Y F GENERALIZADAS 83
Demostracion. Sea X con distribucion de Tipo Kotz Singular de rango r de parametros m,
t y s, y 2m + r > 2, t > 0, s > 0. Entonces
f(u) =t s
2m+r−22t Γ
(r2
)
πr2 Γ
(2m+r−2
2t
) um−1 exp(−s ut
); 2m > r − 2, t, s > 0.
Considere el caso en que m = 2 y t = 1, con lo cual f(u) = ((2 sr2+1)/r) π
r2 u exp(−s u), lo
que conduce a
gT(t) =
2(rπ)r2
Γ(
r2
) (r + t2)−r+12
∞∫
0
2 sr2+1
r πr2
(y2 − 2δ1 y + δ2) exp(−s (y2 − 2δ1 y + δ2)) yr dy.
Usando ahora desarrollo en serie y la funcion Gamma, se obtiene finalmente que
gT(t) =
4rr2−1 s
r2+1
Γ(
r2
)(r + t2)
r+12
exp(−s δ2)
∞∑
k=0
−sk(r + 2k) Γ(r + 2k)
k! (2s δ1)r+2k+1
[(r + 2k + 2)(r + 2k + 1)
(2s δ1)2− 2δ1
r + 2k + 1
2 s δ1
+ δ2
],
con δ = µ1 y δ1 = (tδ)/((r + t2)1/2).
4.3.3 Distribucion F Generalizada
Sea X = (XT1 XT
2 ) ∼ EC(m+n)(µ, Im+n; f), con X1 ∈ IRm y X2 ∈ IRn; µ ∈ IRm+n, µ = [µ1 0]T ,
µ1 ∈ IRm y µ1 6= 0. Entonces, V = (n/m)((XT1 X1)/(X
T2 X2)) tiene una distribucion F
generalizada no centrada, denotado por F ∼ GF(m, n, δ; f), cuya densidad es
gV(v) =
2πm+n−1
2
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
π∫
0
π∫
0
senm−2 θ ym+n−1f(y2 − 2δ1y cos θ + δ2) dθ dy; u > 0,
(4.17)
donde δ2 = µT µ y δ1 = (m v/(n + mv))2δ, tal como en [32, p. 86].
84 CHAPTER 4. DISTRIBUCION ELIPTICA SINGULAR
Una forma alternativa de expresar la densidad de V , si f es expandible en serie de Taylor en
IR, es en terminos de las derivadas de la funcion f , quedando representada de la siguiente
manera:
gV(v) =
2πm+n−1
2
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
∞∑
k=0
γ2k
k! Γ(
n2
+ k)
∞∫
0
ym+n+k−1 f (2k)(y + γ2) dy, v > 0,
(4.18)
donde δ = (1/2)γ2 = (1/2)µT µ y f (2k)(·) es la 2k-esima derivada de f(·), tal como puede verse
en [33].
Sea X = (XT1 XT
2 )T ∼ EC(r1+r2)(m+n) (µ, Σ; f), con X1 ∈ IRm y X2 ∈ IRn; µ ∈ IRm+n,
µ =[µT
1 0]T
, µ1 ∈ IRm, µ1 6= 0; Σ =
Σ11 0
0 Σ22
∈ IR(m+n)×(m+n), Σ11 ∈ IRm×m y
rk Σ11 = r1 < m, Σ22 ∈ IRn×n y rk Σ22 = r2 < n. Entonces,
V =r2
r1
XT1 Σ
−11 X1
XT2 Σ
−22 X2
∼ GF(r1, r2; δ; f),
con δ = (1/2)µT1 Σ
−11 µ1.
Demostracion. Sea X = (XT1 XT
2 ) ∼ EC(r1+r2)(m+n) (µ, Σ; f), con X1 ∈ IRm y X2 ∈ IRn;
µ =[µT
1 0]T
, µ1 ∈ IRm y µ1 6= 0; Σ =
Σ11 0
0 Σ22
∈ IR(m+n)×(m+n), Σ11 ∈ IRm×m y
rk Σ11 = r1 < m, Σ22 ∈ IRn×n y rk Σ22 = r2 < n. Considere, ademas, la descomposicion
Σ11 = Q1 QT1 y Σ22 = Q2 QT
2 , de modo que
Y = h X =
Q−1 0
0 Q−2
X1
X2
=
Q−1 X1
Q−2 X2
=
Y1
Y2
.
Entonces, Y = (YT1 YT
2 ) ∼ EC(r1+r2)(ν, Ir1+r2 ; f), con Y1 ∈ IRr1 y Y2 ∈ IRr2 ; ν =[νT
1 0]T
,
ν1 ∈ IRr1 y ν1 = Q−1 µ1 6= 0; luego
V =r2
r1
Y1 Y1
Y T2 Y2
=r2
r1
XT1 Σ
−11 X1
XT2 Σ
−22 X2
∼ GF(r1, r2; δ; f),
4.4. APLICACIONES 85
con δ = (1/2)(νT1 ν1) = (1/2)(µT
1 Σ−11 µ1) y Σ
−ii , i = 1, 2 es un inverso generalizado simetrico.
Sea V ∼ GF(m,n; δ; f). Entonces, si δ = 0, V tiene una distribucion F generalizada
centrada, la cual coincide con distribucion F centrada clasica (vea [32, p. 63]).
La distribucion GF no centrada, obtenida bajo singularidad de la distribucion Elıptica
asociada, esto es, cuando X ∼ ECrn(µ, Σ; f), es afectada en los grados de libertad de la
distribucion de V , al igual que en el caso de las distribuciones χ2 y t, dadas anteriormente.
Cuando
V =r2
r1
XT1 Σ
−11 X1
XT2 Σ
−22 X2
∼ GF(r1, r2; δ; f),
con δ = (1/2)(µT1 Σ
−11 µ1), y X tiene una distribucion de Pearson tipo VII singular de rango
(r1 + r2) o una distribucion de tipo Kotz singular de rango (r1 + r2), la forma explıcita de la
densidad de X se encuentra desarrollada en [33].
4.4 Aplicaciones
En esta seccion se aplica la distribucion Elıptica singular a la distribucion de los residuos de un
modelo lineal Elıptico y a la distribucion del estadıstico t generalizado, basado en un muestra
obtenida desde una poblacion Elıptica, .
4.4.1 Distribucion de los Residuos de un Modelo Lineal Elıptico
Considere el modelo lineal de rango completo
Y = Xβ + ε,
donde ε, Y ∈ IRn, X ∈ IRn×p, β ∈ IRp e
Y ∼ ECn(Xβ, σ2In; f),
cuyos residuos estan dados por
e = Y − X = (I −XX−)Y.
86 CHAPTER 4. DISTRIBUCION ELIPTICA SINGULAR
De esta manera, e tiene una distribuion Elıptica singular, mas aun,
e ∼ EC(n−p)n (0, σ2(I−XX
−); f),
donde σ20 = c0 σ2, c0 = −2φ′(0), φ(·) esta dado en (2.2.1) y σ2 es el parametro de escala de la
distribucion de e.
Lo anterior debido a que
rk(distribucion) = rk(Cov(e)) = rk(Cov((I −XX−)Y)) = rk(σ2
0(I −XX−)) = n− p,
Asimismo,
eT (I −XX−)−
σ2e =
1
σ2YT (I −XX
−)Y =
1
σ2||(I −XX
−)Y||2 =
1
σ2(YTY− βTXYT ) = eTe,
dondeeTe
σ2∼ Gχ2(n− p; f).
De la expresion anterior, ahora note que la suma de cuadrados debido al modelo, YTXβ es
tal que
YTXβ = YTXX−Y = YT (XX
−)T (XX
−)Y = ||XX
−Y||2,
con
XX−Y ∼ ECp
n(Xβ, σ2XX−; f),
pues
E(XX−Y) = XX
−Xβ = Xβ,
Cov(XX−Y) = XX
−σ2
0I(XX−)T = σ2
0XX−
y
rk[Cov(XX−Y)] = rk(XX
−) = rk(X) = p,
por lo tanto
(YTXX−)(XX
−)(XX
−)
σ2Y =
YTXβ
σ2∼ Gχ2(p, δ; f),
4.4. APLICACIONES 87
donde δ es el parametro de no centralidad de la distribucion Gχ2 y viene dado por δ =
||Xβ||2/(2σ2).
Observe que la expresion para U dada en (11) es una acntidad pivotal para σ2, esto es, el
parametro de escala de la distribucion del vector de residuos. De etsa forma, es posible es-
tablecer una expresion explıcita para el intervalo de confianza de parametro antes mencionado
a partir de la cantidad pivotal y de los Corolarios ? y ? al reemplazar el parametro de no
centralidad δ por cero. Los resultados obtenidos se presentan en la Tabla 2.
Tabla 2 Formas explıcitas de los Intervalos de Confianza del 100(1− α)% el parametro de
escala de la distribucion del vector de residuos para las distribuciones Elıpticas que se
especifican.
Ley Elıptica Distribucion de U =eTeσ2
IC100(1−α)%(σ2)
Pearson VII U =s(n− p)
2m− n + pY
2m−n+ps(n−p) eTe
F1−α2(n− p, 2m− n + p)
,
2m−n+ps(n−p) eTe
Fα2(n− p, 2m− n + p)
Y ∼ F(n− p, 2m− n + p)
t-multivariada U = (n− p)Y
(eTe/(n− p)F1−α
2(n− p, s)
,eTe/(n− p)Fα
2(n− p, s)
)
Y ∼ F(n− p, s)
Tipo Kotz U = Y 1/t
eTe
(Γ1−α2(s, 2m+n−p−2
2t ))1/t,
eTe(Γα
2(s, 2m+n−p−2
2t ))1/t
Y ∼ Γ(s, 2m+n−p−22t )
Normal U ∼ χ2(n− p)
eTe
χ21−α
2(n− p)
,eTe
χ2α2(n− p)
4.4.2 Distribucion del Estadıstico t Generalizado
A continuacion se hallara la distribucion del estadıstico t generalizado, basado en una muestra
obtenida desde una poblacion Elıptica, la que involucra a la distribucion Elıptica singular,
Fang y Zhang [32, p. 63].
Sea X ∼ ECn(ν, σ2In; f), con ν = µ 1n, ν ∈ IRn, µ ∈ IR, 1n ∈ IRn , σ20 = c0 σ2,
88 CHAPTER 4. DISTRIBUCION ELIPTICA SINGULAR
c0 = −2φ′(0) y φ dado en (2.2.1). Entonces,
T =√
nX
S∼ Gt(n− 1, δ; f), (4.19)
donde X =n∑
i=1
Xi/n y S2 =n∑
i=1
(Xi− X)2/(n− 1) y δ = µ/σ es el parametro de no centralidad
de la distribucion Gt no centrada con (n− 1) g.l.
Demostracion. Para aplicar el Teorema 3.99 defina
Y = A X =
1
n σ1n
T
1
σD
X =
1
n σ1n
T X
1
σD X
=
Y1
Y2
,
con D = (In − (1/n)1n1nT ) = D2 = DT , de modo que
Y =
Y1
Y2
∼ ECn
(n+1)
µ/σ
0
,
1 0
0 D
; f
,
esto es, Y tiene una distribucion Elıptica singular; para ver esto observe que
E(Y) = E(A X) = A µ 1n =
1
n σ1n
T
1
σD
µ 1n =
µ/σ
µ
σD 1n
.
Ademas, rk(D) = tr(In − (1/n)1n1nT ) = n− tr((1/n)1n1n
T ) = n− 1. Entonces, observando
que D1n = 0, se tiene que E(Y) = (µ/σ 0). Por otro lado, el parametro Σ de X, digamos
ΣY, es Σ
Y= A Σ
XAT = σ2 A AT . Ahora, como
A AT =
1/σ2 0
0 (1/σ2) D
,
se obtiene que
ΣY
=
1/n 0
0 ΣY2
=
1 0
0 D
.
4.4. APLICACIONES 89
Finalmente, observe que Σ−Y2
= D−
= D, Ası, T se puede escribir como
T =√
nY1√√√√√YT
2 Σ−Y2
Y2
(n− 1)
=√
n
1
n σ1n
T X√√√√√√
(1
σD X
)T
Σ−Y2
(1
σD X
)
(n− 1)
=√
n
1
n1n
T X√√√√XT D X
(n− 1)
=√
nX
S,
con lo cual, por el Teorema 3.99, se obtiene queT =√
n X/S ∼ Gt(n−1, δ; f), donde δ = µ/σ.
90 CHAPTER 4. DISTRIBUCION ELIPTICA SINGULAR
Chapter 5
Distribuciones Gt y GF Doble No
Centrada
5.1 Introduccion
Las distribuciones t y F obtenidas a partir de distribuciones Elıpticas se denominan distribu-
ciones t y F generalizadas. Sin embargo, si el parametro de posicion ν de la ley Elıptica es
igual a cero, entonces las distribuciones t y F generalizadas coinciden con las distribuciones t y
F obtenidas bajo normalidad, esto es, estas distribuciones son invariantes bajo leyes Elıpticas
cuando ν = 0 (vea [32, p.67]). Por otro lado, las distribuciones t y F generalizadas no
centradas dependen de la ley Elıptica particular bajo la cual fueron obtenidas. Asimismo,
las distribuciones t y F generalizadas doble no centradas, analogas a las del caso Normal,
dependen tambien de la ley Elıptica asociada.
La distribucion t doble no centrada bajo una distribucion Normal ha sido estudiada en [9],
mientras que la distribucion F doble no centrada ha sido estudiada en [81]. Esta ultima
distribucion ha sido utilizada para calcular la potencia de la prueba de interaccion de efectos
en el modelo de analisis de varianza a dos criterios de clasificacion con una observacion por
celda (vea [10]). Del mismo modo, la distribucion F doble no centrada se ha utilizado para
91
92 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
calcular la probabilidad del error de senales binarias de recepcion multicanal adaptiva (vea
[67]). Por otra parte, estas distribuciones doble no centradas han sido tambien aplicadas
a problemas de comunicacion, en senales capturadas a traves de radar, y en patrones de
reconocimiento, donde se involucran operaciones con formas cuadraticas basadas en datos
normales (vea [82], [48], [75] y [87]).
En este capıtulo se presentan las distribuciones t y F generalizadas, tanto para el caso cen-
trado, no centrado y doble no centrado, y bajo singularidad y no singularidad de la distribucion
Elıptica asociada, en cuyo caso la singularidad de la distribucion afecta los grados de libertad
de las distribuciones t y F generalizadas (vea [25]). Para las distribuciones t y F generalizadas
centradas, se usa la invarianza de tales distribuciones bajo leyes Elıpticas con parametro de
posicion igual a cero, coincidiendo con las del caso Normal. Para las distribuciones F gen-
eralizadas no centrada y doble no centrada, se presentan sus densidades tanto en terminos
de integrales como de las derivadas de la funcion generadora de densidades asociada a cada
distribucion Elıptica, y por ende de cada distribucion GF . En el caso de la distribuciones
t generalizadas no centrada y doble no centrada no es posible obtener esta representacion,
por lo que su densidad solo se expresa a traves de integrales. Finalmente se ilustran todos
estos resultados para dos subfamilias de distribuciones Elıpticas, como lo son la distribucion
de Pearson tipo VII y la distribucion de tipo Kotz, subfamilias que a su vez contienen como
casos particulares a las distribuciones Elıpticas t y Normal multivarian-tes, respectivamente.
En esta ilustracion y para el caso de la distribucion GF , se observa la evidente simplificacion
que se produce al usar la densidad en terminos de la derivada de la gene-radora de densidades
en lugar de la expresion integral. Sin embargo, se debe tener presente que la aplicacion de
este resultado es solo posible cuando la generadora de densidades, asociada a la particular dis-
tribucion Elıptica que se haya considerado, sea expandible en serie de Taylor, lo cual ocurre
cuando existen los momentos de dicha distribucion. Como no todas las distribuciones Elıpticas
disponen de momentos, como por ejemplo la distribucion de Cauchy, esto motiva entonces la
existencia de las dos expresiones para la densidad.
5.2. DISTRIBUCION GT DOBLE NO CENTRADA 93
5.2 Distribucion Gt Doble No centrada
Tal como se menciono, la distribucion Gt es la distribucion t obtenida bajo una ley Elıptica.
En esta seccion se presentan las distribuciones Gt centrada, no centrada y doble no centrada,
obtenidas bajo una distribucion Elıptica singular y no singular.
La distribucion Gt juega un papel similar al de la distribucion t bajo la teorıa de inferencia
Normal, y corresponde a la distribucion de
T =X1√
(XT2 X2)/n
=√
nX1√XT
2 X2
, (5.1)
cuando X = (X1 XT2 )T ∈ IRn+1 sigue una distribucion Elıptica, con X1 ∈ IR y X2 ∈ IRn.
Ası, haciendo uso de la invarianza de la distribucion Gt bajo leyes Elıpticas con parametro de
posicion igual a cero (vea [32, p. 67]), esto es, X = (X1 XT2 )T ∼ ECn+1(0, Σ; f), con X1 ∈ IR
y X2 ∈ IRn, Σ ∈ IRn, Σ > 0, se obtiene que
T =√
nX1√
XT2 Σ−1X2
∼ Gt(n; f), (5.2)
la cual coincide con la del caso Normal, esto es, Gt(n; f) ≡ t(n), ∀f .
5.2.1 Distribucion Gt No Centrada
A continuacion se presenta la distribucion Gt no centrada bajo singularidad y no singularidad
de la distribucion Elıptica asociada.
Sea X = (X1 XT2 )T ∼ ECn+1(ν, Σ; f), con X1 ∈ IR y X2 ∈ IRn; ν ∈ IRn, ν =
[µ 0T
]T,
µ ∈ IR y µ 6= 0; Σ ∈ IR(n+1)×(n+1), Σ =
σ2 0
0 Σn
, Σn ∈ IRn×n y rk Σn = n. Entonces,
T =√
nX1√
XT2 Σ−1
n X2
∼ Gt(n, δ; f), (5.3)
con parametro de no centralidad δ = µ/σ.
94 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
Demostracion. Sea X = (X1 XT2 )T ∼ ECn+1(ν, Σ; f), con ν ∈ IRn, ν =
[µ 0T
]T, µ ∈ IR
y µ 6= 0, Σ =
σ2 0
0 Σn
∈ IR(n+1)×(n+1) y rk Σn = n. Considere la descomposicion Σn =
Q QT , de modo que
Y =
σ−1 0
0 Q−1
X =
σ−1 X1
Q−1
X2
=
Y1
Y2
.
Entonces, Y = (Y1 YT2 )T ∼ ECn+1(η, In+1; f), con Y1 ∈ IR y Y2 ∈ IRn; η ∈ IRn+1,
η =
σ−1 0
0 Q−1
ν =
σ−1 0
0 Q−1
µ
0
=
µ/σ
0
.
Finalmente,
T =√
nY1√
YT2 Y2
=√
nX1√
(Q−1X2)T (Q−1X2)=√
nX1√
XT2 Σ−1
n X2
∼ Gt(n, δ; f), δ =µ
σ.
De [32] se sabe que si T ∼ Gt(n, δ; f), entonces la funcion de densidad de T es
gT(t) =
2(nπ)n2
Γ(
n2
) (n + t2)−n+1
2
∞∫
0
f(y2 − 2δ1y + δ2) yn dy; t ∈ IR, (5.4)
donde δ es el parametro de no centralidad y δ1 = (tδ)/(n + t2)1/2.
De forma analoga al caso no singular (Σ > 0), tambien es posible obtener la distribucion Gt
no centrada bajo una distribucion Elıptica singular, esto es, cuando X ∼ ECrn(ν, Σ; f), donde
r < n es el rango de Σ (Σ ≥ 0). Esta singularidad afecta los g.l. de la distribucion Gt, tal
como se vera a continuacion.
Sea X = (X1 XT2 )T ∼ ECr+1
n+1(ν, Σ; f), con X1 ∈ IR y X2 ∈ IRn; ν ∈ IRn, ν =[µ 0T
]Ty
µ ∈ IR, µ 6= 0; Σ ∈ IR(n+1)×(n+1), Σ =
σ2 0
0 Σn
, Σn ∈ IRn×n y rk Σn = r < n. Entonces,
T =√
nX1√
XT2 Σ
−n X2
∼ Gt(r, δ; f), (5.5)
5.2. DISTRIBUCION GT DOBLE NO CENTRADA 95
con parametro de no centralidad δ = µ/σ y Σ−
es un inverso generalizado simetrico de Σ.
Demostracion. Es analoga a la del Teorema 1, reemplazando Q−1
por Q−, donde Q
−es un
inverso generalizado simetrico de Q, con lo cual Σ−n = Q
−Q−
y con rk Σn = r < n. De este
modo, la distribucion Gt no centrada tiene r g.l. y el mismo parametro de no centralidad
dado en (6).
5.2.2 Distribucion Gt bajo una Ley de Pearson Tipo VII Singular
A continuacion se estudia la distribucion Gt bajo una distribucion de Pearson tipo VII singular.
[Gt bajo una ley de Pearson tipo VII] Sea X = (X1XT2 )T con distribucion de Pearson tipo
VII singular de rango r + 1. Entonces,
T =√
nX1√
XT2 Σ
−X2
∼ Gt(r, δ; f),
tiene densidad
gT(t) =
rr2 Γ(m)
sr2 Γ
(r2
)Γ
(m− r
2
) (r + t2)−r+12
∞∑
k=0
(−m)k(−2 δ1)k (s + δ2)
r−2m−k−12 ) Γ
(r+k+1
2
)Γ
(2m+k−r−1
2
)
k! sk Γ (m + k),
(5.6)
donde δ = µ1 y δ1 = (tδ)/(r + t2)1/2.
Demostracion. Sea X con distribucion de Pearson singular de rango r + 1 de parametros
m >r + 1
2y s > 0. Entonces
f(u) =Γ(m)
(πs)r2 Γ
(m− r
2
)[1 +
u
s
]−m
.
Ası, como
gT(t) =
2(rπ)r2
Γ(
r2
) (r + t2)−r+12
∞∫
0
f(y2 − 2δ1y + δ2) yr dy; t ∈ IR,
96 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
con δ = µ1 y δ1 =tδ
(r + t2)12
, entonces
gT(t) =
2(rπ)r2
Γ(
r2
) (r + t2)−r+12
∞∫
0
Γ(m)
(πs)r+k2 Γ
(m− r
2
)[1 +
y2 − 2δ1y + δ2
s
]−m
yr dy
=2 r
r2 Γ(m)
sr2 Γ
(m− r
2
)Γ
(r2
) (r + t2)−r+12
∞∫
0
[1 +
y2 − 2δ1y + δ2
s
]−m
yr dy,
usando el desarrollo en serie dado en Anderson y Fang [1, pag. 85], se tiene
[1 +
y2 − 2δ1y + δ2
s
]−m
=∞∑
k=0
(−m)k
k!
(−2 δ1 y
s
)k (1 +
y2 + δ2
s
)−k−m
,
tal que
gT(t) =
2 rr2 Γ(m)
sr2 Γ
(m− r
2
)Γ
(r2
) (r + t2)−r+12
∞∫
0
∞∑
k=0
(−m)k
k!
(−2 δ1 y
s
)k (1 +
y2 + δ2
s
)−k−m
yr dy
=2 r
r2 Γ(m)
sr2 Γ
(m− r
2
)Γ
(r2
) (r + t2)−r+12
∞∑
k=0
(−m)k (−2 δ1)k
k! sk
∞∫
0
((s + δ2) + y2
s
)−k−m
yr dy
=2 r
r2 Γ(m)
sr2 Γ
(m− r
2
)Γ
(r2
) (r + t2)−r+12
∞∑
k=0
(−m)k (−2 δ1)k
k! sk
∞∫
0
(s + δ2)−(k+m)
(1 +
y2
s + δ2
)−k−m (y2
s + δ2
) r+k2
(s + δ2)r+k2 dy
=2 r
r2 Γ(m)
sr2 Γ
(m− r
2
)Γ
(r2
) (r + t2)−r+12
∞∑
k=0
(−m)k (−2 δ1)k
k! sk(s + δ2)
r−k2−m
∞∫
0
(1 +
y2
s + δ2
)−k−m (y2
s + δ2
) r+k2
dy.
Considere ahora el cambio de variable
u =y2
s + δ2−→ y =
√u (s + δ2),
5.2. DISTRIBUCION GT DOBLE NO CENTRADA 97
cuyo jacobiano es
J =dy
du=
(s + δ2)12
2 u12
,
con lo cual
gT(t) =
2 rr2 Γ(m)
sr2 Γ
(m− r
2
)Γ
(r2
) (r + t2)−r+12
∞∑
k=0
(−m)k (−2 δ1)k
k! sk(s + δ2)
r−k2−m
∞∫
0
(1 + u)−k−m ur+k2
(s + δ2)12
2 u12
du
=r
r2 Γ(m)
sr2 Γ
(m− r
2
)Γ
(r2
) (r + t2)−r+12
∞∑
k=0
(−m)k (−2 δ1)k
k! sk(s + δ2)
r−k+12
−m
∞∫
0
ur+k+1
2−1 (1 + u)−
r+k+12
− 2m−r+k−12 du
=r
r2 Γ(m)
sr2 Γ
(m− r
2
)Γ
(r2
) (r + t2)−r+12
∞∑
k=0
(−m)k (−2 δ1)k (s + δ2)
r−k+12
−m Γ(
n+k+12
)Γ
(2m−r+k−1
2
)
k! sk Γ(k + m)
5.2.3 Distribucion Gt bajo una Ley de Tipo Kotz Singular
A continuacion se estudia la distribucion Gt bajo una distribucion de tipo Kotz singular.
[Gt bajo una ley de tipo Kotz] Sea X = (X1 XT2)T con distribucion de tipo Kotz singular
de rango r, con m = 2 y s = 1. Entonces,
T =√
nX1√
XT2 Σ
−X2
∼ Gt(r, δ; f),
tiene densidad
gT(t) =
4rr2−1 s
r2+1
Γ(
r2
)(r + t2)−
r+12
exp(−s δ2)
∞∑
k=0
−sk(r + 2k) Γ(r + 2k)
k! (2s δ1)r+2k+1
[(r + 2k + 2)(r + 2k + 1)
(2s δ1)2− 2δ1
r + 2k + 1
2s δ1
+ δ2
],
98 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
(5.7)
donde δ = µ1 y δ1 = (tδ)/(r + t2)1/2.
Demostracion. Sea X con distribucion de Tipo Kotz Singular de rango r de parametros m,
t y s, y 2m + r > 2, t > 0, s > 0. Entonces
f(u) =t s
2m+r−22t Γ
(r2
)
πr2 Γ
(2m+r−2
2t
) um−1 exp(−s ut
); 2m > r − 2, t, s > 0.
Considere el caso en que m = 2 y t = 1, con lo cual
f(u) =2 s
r2+1
r πr2
u exp(−s u).
lo que conduce a
gT(t) =
2(rπ)r2
Γ(
r2
) (r + t2)−r+12
∞∫
0
2 sr2+1
r πr2
(y2 − 2δ1 y + δ2) exp(−s (y2 − 2δ1 y + δ2)) yr dy
=4r
r2−1 s
r2+1
Γ(
r2
) (r + t2)−r+12 exp(−s δ2)
∞∫
0
yr+2 exp(−s y2) exp(2s δ1 y) dy
−2δ1
∞∫
0
yr+1 exp(−s y2) exp(−2δ1 y) dy
+δ2
∞∫
0
yr+1 exp(−s yr) exp(−2s δ1 y) dy
.
Usando ahora el desarrollo en serie
exp(−s y2) =∞∑
k=0
(−s y2)k
k!
y la funcion Gamma
∞∫
0
yr+2k exp(2s δ1 y) dy =
∞∫
0
y(r+2k+1)−1 exp(2s δ1 y) dy =Γ(r + 2k + 1)
(2 s δ1 y)r+2k+1,
5.2. DISTRIBUCION GT DOBLE NO CENTRADA 99
se obtiene finalmente
gT(t) =
4rr2−1 s
r2+1
Γ(
r2
)(r + t2)−
r+12
exp(−s δ2)
∞∑
k=0
−sk(r + 2k) Γ(r + 2k)
k! (2s δ1)r+2k+1
[(r + 2k + 2)(r + 2k + 1)
(2s δ1)2− 2δ1
r + 2k + 1
2 s δ1
+ δ2
],
con δ = µ1 y δ1 =tδ
(r + t2)12
.
5.2.4 Distribucion Gt Doble No Centrada
A continuacion se presenta la distribucion Gt doble no centrada bajo singularidad y no sin-
gularidad de la distribucion Elıptica asociada y su respectiva densidad.
Sea X = (X1 XT2 )T ∼ ECn+1(ν, Σ; f), con X1 ∈ IR y X2 ∈ IRn; ν ∈ IRn, ν =
[µ µT
n
]T,
µ ∈ IR, µ 6= 0, µn ∈ IRn y µn 6= 0; Σ ∈ IR(n+1)×(n+1), Σ =
σ2 0
0 Σn
, Σn ∈ IRn×n y
rk Σn = n. Entonces,
T =√
nX1√
XT2 Σ−1
n X2
∼ Gt(n, δ, γ; f), (5.8)
con parametros de doble no centralidad δ = µ/σ y γ = (1/2) µTn Σ
−1
n µn.
Demostracion. Sea X = (X1 XT2 )T ∼ ECn+1(ν, Σ; f), con ν ∈ IRn, ν =
[µ µT
n
]T, µ ∈ IR
y µ 6= 0, µn ∈ IRn y µn 6= 0; Σ =
σ2 0
0 Σn
∈ IR(n+1)×(n+1) y rk Σn = n. Considere la
descomposicion Σn = Q QT , de modo que
Y =
σ−1 0
0 Q−1
·X =
σ−1 X1
Q−1
X2
=
Y1
Y2
.
Entonces, Y = (Y1 YT2 )T ∼ ECn+1(η, In+1; f), con Y1 ∈ IR y Y2 ∈ IRn; η ∈ IRn+1,
η =
σ−1 0
0 Q−1
· ν =
σ−1 0
0 Q−1
·
µ
µn
=
µ/σ
Q−1
µn
.
100 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
Finalmente,
T =√
nY1√
YT2 Y2
=√
nX1√
(Q−1X2)T (Q−1X2)=√
nX1√
XT2 Σ−1
n X2
∼ Gt(n, δ, γ; f),
donde δ = µ/σ y γ = (1/2) µTnΣ
−1
n µn.
De manera similar al caso no singular, es posible obtener la distribucion Gt doble no centrada
bajo una distribucion Elıptica singular. Esta singularidad afecta los g.l. de la distribucion de
T , tal como en el caso de las distribucion Gχ2, tal como se vera a continuacion.
Sea X = (X1 XT2 )T ∼ ECn+1(ν, Σ; f), con X1 ∈ IR y X2 ∈ IRn; ν ∈ IRn, ν =
[µ µT
n
]T,
µ ∈ IR, µ 6= 0, µn ∈ IRn y µn 6= 0; Σ ∈ IR(n+1)×(n+1), Σ =
σ2 0
0 Σn
, Σn ∈ IRn×n y
rk Σn = r < n. Entonces,
T =√
nX1√
XT2 Σ
−n X2
∼ Gt(r, δ, γ; f), (5.9)
con parametros de doble no centralidad δ = µ/σ y γ = (1/2) µTn Σ
−n µn.
Demostracion. Es analoga a la del Teorema 2.113, reemplazando Σ−1
n por Σ−n y considerando
que rk Σn = r < n, con lo cual la distribucion Gt doble no centrada tiene r g.l. y parametros
de doble no centralidad δ = µ/σ y γ = (1/2) µTn Σ
−n µn.
5.3 Distribucion GF Doble No Centrada
Tal como se menciono, la distribucion GF es la distribucion F obtenida bajo una ley Elıptica.
En esta seccion se presentan las distribuciones GF centrada, no centrada y doble no centrada,
obtenidas bajo una distribucion Elıptica singular y no singular.
La distribucion GF , al igual que la distribucion Gt, juega un papel similar a la distribucion
F bajo la teorıa de inferencia Normal, y corresponde a la distribucion de
V =
(XT
1 X1
m
) /(XT
2 X2
n
)=
n
m
XT1 X1
XT2 X2
, (5.10)
5.3. DISTRIBUCION GF DOBLE NO CENTRADA 101
cuando X = (XT1 XT
2 )T ∈ IRm+n, con X1 ∈ IRm y X2 ∈ IRn, sigue una distribucion Elıptica.
De la misma forma que en el caso de la distribucion Gt, se usa la invarianza de la distribucion
GF bajo leyes Elıpticas con parametros de posicion igual a cero y de escala igual a la identidad
(vea [32, p. 67]), se obtiene que si X = (X1 XT2 )T ∼ ECm+n(0, In+1), con X1 ∈ IRm y
X2 ∈ IRn, entonces
V =n
m
XT1 X1
XT2 X2
∼ GF(m,n; f), (5.11)
la cual coincide con la del caso de una distribucion Normal, esto es, GF(m, s; f) ≡ F (m,n), ∀f .
5.3.1 Distribucion GF No Centrada
A continuacion se presenta la densidad de una distribucion GF no centrada bajo singularidad
y no singularidad de la distribucion Elıptica asociada.
Sea XT = (X1 X2) ∼ ECm+n(ν, Σm+n; f), con X1 ∈ IRm y X2 ∈ IRn; ν ∈ IRm+n,
ν =[µT 0T
]T, µ ∈ IRm y µ 6= 0; Σ ∈ IR(m+n)×(m+n), Σ =
Σm 0
0 Σn
, Σm ∈ IRm×m y
rk Σm = m, Σn ∈ IRn×n y rk Σn = n. Entonces,
V =n
m
XT1 Σ−1
m X1
XT2 Σ−1
n X2
∼ GF(m,n; δ; f), (5.12)
con parametro de no centralidad δ = (1/2) µT Σ−1m µ.
Demostracion. Sea XT = (X1 X2) ∼ ECm+n(ν, Σ; f), con ν ∈ IRm+n, ν =[µT 0T
]T,
µ ∈ IRm y µ 6= 0; Σ ∈ IR(m+n)×(m+n), Σ =
Σm 0
0 Σn
, rk Σm = m, Σn ∈ IRn×n y
rk Σn = n. Considere la descomposicion Σm = P PT y Σn = Q QT , de modo que
Y = H X =
P−1
0
0 Q−1
X1
X2
=
P−1
X1
Q−1
X2
=
Y1
Y2
.
Entonces, Y = (YT1 YT
2 )T ∼ ECm+n(η, Im+n; f), con Y1 ∈ IRm y Y2 ∈ IRn; η =[ζT 0T
]T,
ζ ∈ IRm y ζ = P−1
µ 6= 0.
102 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
Finalmente,
V =n
m
YT1 Y1
YT2 Y2
=n
m
XT1 Σ
−1
m X1
XT2 Σ−1
n X2
∼ GF(m,n; δ; f),
con δ = (1/2) ζT ζ = (1/2) µT Σ−1
m µ.
De [32, p. 87] se sabe que si V ∼ GF(m,n; δ; f), entonces su funcion de densidad es
gV(v) =
2πn+m−1
2
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
π∫
0
∞∫
0
senm−2 θ ym+n−1 f(y2 − 2ηy cos θ + γ2) dθ dy, v > 0,
(5.13)
donde δ es el parametro de no centralidad, η = ((m v)/(n + mv))1/2 γ y γ2 = 2δ.
Sea V ∼ GF(m,n; δ; f) y f expandible en serie de Taylor en IR. Entonces, una forma
alternativa de expresar la densidad de V es
gV(v) =
2 πm+n
2
Γ(
n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
∞∑
k=0
γ2k
k! Γ(
n2
+ k)
∞∫
0
ym+n+k−1 f (2k)(y + γ2) dy, v > 0,
(5.14)
donde δ es el parametro de no centralidad, 2δ = γ2 y f (2k)(·) es la 2k-esima derivada de f .
Demostracion. Si V ∼ GF(m,n, δ; f), entonces su densidad esta dada por (12). Considere
ahora
gV(v) =
2πn+m
2−1
Γ(
m−12
)Γ
(n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−1/2(m+n)
∞∫
0
ym+n−1 T (y) dy,
de modo que T (y) =
π∫
0
senm−2 θ f(y2 − 2ηy cos θγ2) dθ puede expresarse de la forma
T (y) = π1/2 Γ(
m− 1
2
) ∞∑
k=0
γ2k
k! Γ(k + n
2
) yk f (2k)(u + γ2).
5.3. DISTRIBUCION GF DOBLE NO CENTRADA 103
Ası, finalmente,
gV(u) =
2πm+n
2
Γ(
n2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
∞∑
k=0
γ2k
k! Γ(k + n
2
)∞∫
0
ym+n+k−1 f (2k)(y + γ2) dy; u > 0,
donde 2γ = δ y f (2k)(·) es la 2k-esima derivada de f .
De forma analoga al caso no singular, tambien es posible obtener la distribucion GF no
centrada bajo una distribucion Elıptica singular. Esta singularidad afecta los g.l. de la
distribucion de V , tal como en el caso de las distribuciones Gχ2 y Gt, tal como se vera a
continuacion.
Sea X = (XT1 XT
2 )T ∼ ECm+n(ν, Σm+n; f), con X1 ∈ IRm y X2 ∈ IRn; ν ∈ IRm+n,
ν =[µT 0T
]T, µ ∈ IRm y µ 6= 0; Σ ∈ IR(m+n)×(m+n), Σ =
Σm 0
0 Σn
, Σm ∈ IRm×m y
rk Σm = r < m, Σn ∈ IRn×n y rk Σn = s < n. Entonces,
V =n
m
XT1 Σ
−mX1
XT2 Σ
−n X2
∼ GF(r, s; δ; f), (5.15)
con parametro de no centralidad δ = (1/2) µT Σ−mµ.
Demostracion. Es analoga a la del Teorema 3.116 reemplazando Σ−1
m por Σ−m y Σ
−1
n por Σ−n ;
considerando ademas que rk Σm = r < m y rk Σn = s < n, con lo cual la distribucion GF no
centrada tiene r y s g.l. y parametro de no centralidad δ = (1/2) µT Σ−mµ.
5.3.2 Distribucion GF bajo una Ley de Pearson Tipo VII Singular
A continuacion se presenta la distribucion GF no centrada bajo singularidad y no singularidad
de la distribucion Elıptica asociada.
[GF bajo una ley de Pearson tipo VII] Sea X = (XT1 XT
2 ) con distribucion de Pearson tipo
VII singular de rango r1 + r2. Entonces
V =r2
r1
XT1 Σ
−11 X1
XT2 Σ
−22 X2
∼ GF(r1, r2; δ; f),
104 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
tiene densidad
gV(v) =
2 Γ(m) sm− r1+r22
Γ(m− r1+r2
2
)Γ
(r2
2
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2
∞∑
k=0
(m)2k γ2k Γ(r1 + r2 + k) Γ(m + k − r1 − r2)
k! Γ(
r2
2+ k
)Γ(m + 2k)
(s + γ2)r1+r2−m−k; v > 0
(5.16)
donde γ2 = 2δ = µT1 Σ
−11 µ1.
Demostracion. Sea X con distribucion de Pearson tipo VII singular de rango r1 + r2 y
parametros m >r1 + r2
2y s > 0. Entonces
f(u) =Γ(m)
(πs)r1+r2
2 Γ(m− r1+r2
2
)[1 +
u
s
]−m
y
f (2k)(u) =Γ(m)
(π s)r1+r2
2 Γ(m− r1+r2
2
) sm (m)2k (s + u)−m−2k.
Ahora, como
V =r2
r1
XT1 Σ
−11 X1
XT2 Σ
−22 X2
∼ GF(r1, r2; δ; f),
con δ = (1/2) µT1 Σ
−11 µ1, se puede expresar su densidad como
gV(v) =
2 πr1+r2
2
Γ(
r2
2
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2
∞∑
k=0
γ2k
k! Γ(
r2
2+ k
)∞∫
0
yr1+r2+k−1 f (2k)(y + γ2) dy, v > 0,
donde γ2 = 2δ = µT µ y f (2k)(·) es la 2k-esima derivada de f(·).
En nuestro caso particular
gV(v) =
2 πr1+r2
2
Γ(
r2
2
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2∞∑
k=0
γ2k
k! Γ(
r2
2+ k
)
∞∫
0
yr1+r2+k−1 Γ(m) sm (m)2k
(π s)r1+r2
2 Γ(m− r1+r2
2
)(s + y + γ2)−m−2k dy;
5.3. DISTRIBUCION GF DOBLE NO CENTRADA 105
=2 π
r1+r22 Γ(m)
(π s)r1+r2
2 Γ(m− r1+r2
2
)Γ
(r2
2
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2∞∑
k=0
γ2ksm(m)2k
k! Γ(
r2
2+ k
)
∞∫
0
yr1+r2+k−1 (s + y + γ2)−m−2k dy
=2 π
r1+r22 Γ(m)
(π s)r1+r2
2 Γ(m− r1+r2
2
)Γ
(r2
2
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2∞∑
k=0
γ2ksm(m)2k
k! Γ(
r2
2+ k
)
∞∫
0
(y
s + γ2
)r1+r2+k−1
(s + γ2)r1+r2+k−1 (s + γ2)−m−2k
(1 +
y
s + γ2
)−m−2k
dy
=2 π
r1+r22 Γ(m)
(π s)r1+r2
2 Γ(m− r1+r2
2
)Γ
(r2
2
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2∞∑
k=0
γ2ksm(m)2k
k! Γ(
r2
2+ k
)
(s + γ2)r1+r2−m−k
∞∫
0
(y
s + γ2
)r1+r2+k−1 (1 +
y
s + γ2
)−(m+2k)
(s + γ2)−1 dy,
con v > 0.
Considere el cambio de variable u = y/(s + γ2) −→ y = u/(s + γ2)−1, cuyo jacobiano es
J = (s + γ2)−1, con lo cual
∞∫
0
(y
s + γ2
)r1+r2+k−1 (1 +
y
s + γ2
)−m−2k
(s + γ2)−1 dy =
∞∫
0
u(r1+r2+k)−1 (1 + u)−(r1+r2+k)−(m+k−r1−r2 du
y de esta manera
∞∫
0
(y
s + γ2
)r1+r2+k−1 (1 +
y
s + γ2
)−m−2k
(s + γ2)−1 dy =
Γ(r1 + r2 + k) Γ(m + k − r1 − r2)
Γ(m + 2k)
y ası finalmente
106 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
gV(v) =
2 πr1+r2
2 Γ(m)
(π s)r1+r2
2 Γ(m− r1+r2
2
)Γ
(r2
2
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2
∞∑
k=0
γ2ksm(m)2k
k! Γ(
r2
2+ k
)(s + γ2)r1+r2−m−k Γ(r1 + r2 + k) Γ(m + k − r1 − r2)
Γ(m + 2k),
=2 Γ(m) sm− r1+r2
2
Γ(m− r1+r2
2
)Γ
(r2
2
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2
∞∑
k=0
(m)2k γ2k Γ(r1 + r2 + k) Γ(m + k − r1 − r2)
k! Γ(
r2
2+ k
)Γ(m + 2k)
(s + γ2)r1+r2−m−k,
con v > 0.
5.3.3 Distribucion GF bajo una Ley de Tipo Kotz
A continuacion se estudia la distribucion GF bajo una distribucion de tipo Kotz singular.
[GF bajo una ley de tipo Kotz] Sea X con distribucion de tipo Kotz singular de rango
r1 + r2. Entonces
V =r2
r1
XT1 Σ
−11X1
XT2 Σ
−22X2
∼ GF(r1, r2; δ; f),
tiene densidad
gV(v) =
2 t s2m+r−2
2t Γ(
r1+r2
2
)
Γ(
r2
2
)Γ
(2m+r1+r2−2
2t
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2
∞∑
k=0
∞∑
z=l−2k=0
(t(z + 2k) + m− 1)2k γ2(r1+r2+t(z+2k)+m−1) (−s)2(k+1)
k! (z + 2k)! Γ(
r2
2+ k
)
Γ(r1 + r2 + k) Γ(k + 1− r1 − r2 −m− t(z + 2k))
Γ(2k + 1−m− t(z + 2k)); v > 0,
(5.17)
donde γ2 = 2δ = µT1 Σ
−11 µ1.
Demostracion. Sea X con distribucion de tipo Kotz singular de rango r1 + r2 y parametros
m, t y s, con 2m + r1 + r2 > 2, t > 0, s > 0. Entonces
f(u) =t s
2m+r−22t Γ
(r2
)
πr2 Γ
(2m+r−2
2t
) um−1 exp(−s ut
); 2m > r − 2, t, s > 0
5.3. DISTRIBUCION GF DOBLE NO CENTRADA 107
y
f (2k)(u) =t s
2m+r−22t Γ
(r1+r2
2
)
πr1+r2
2 Γ(
2m+r1+r2−22t
)∞∑
z=l−2k=0
(t(z + 2k) + m− 1)2k ut(z+2k)+m−1−2k
(−s)−2(k+1) (z + 2k)!.
Ahora, como
V =r2
r1
XT1 Σ
−11 X1
XT2 Σ
−22 X2
∼ GF(r1, r2; δ; f),
con δ = (1/2) µT1 Σ
−11 µ1, se puede expresar su densidad como
gV(v) =
2 πr1+r2
2
Γ(
r2
2
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2
∞∑
k=0
γ2k
k! Γ(
r2
2+ k
)∞∫
0
yr1+r2+k−1 f (2k)(y + γ2) dy, v > 0,
donde γ2 = 2δ = µtµ y f (2k)(·) es la 2k-esima derivada de f(·).
En nuestro caso particular
gV(v) =
2 πr1+r2
2
Γ(
r2
2
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2∞∑
k=0
γ2k
k! Γ(
r2
2+ k
)
∞∫
0
yr1+r2+k−1t s
2m+r−22t Γ
(r1+r2
2
)
πr1+r2
2 Γ(
2m+r1+r2−22t
)
∞∑
z=l−2k=0
(t(z + 2k) + m− 1)2k (y + γ2)t(z+2k)+m−1−2k
(−s)−2(k+1) (z + 2k)!dy;
=2 t s
2m+r−22t Γ
(r1+r2
2
)
Γ(
r2
2
)Γ
(2m+r1+r2−2
2t
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2
∞∑
k=0
∞∑
z=l−2k=0
(t(z + 2k) + m− 1)2k γ2k (−s)2(k+1)
k! (z + 2k)! Γ(
r2
2+ k
)
∞∫
0
yr1+r2+k−1 (y + γ2)t(z+2k)+m−1−2k dy.
=2 t s
2m+r−22t Γ
(r1+r2
2
)
Γ(
r2
2
)Γ
(2m+r1+r2−2
2t
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2
108 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
∞∑
k=0
∞∑
z=l−2k=0
(t(z + 2k) + m− 1)2k γ2k (−s)2(k+1)
k! (z + 2k)! Γ(
r2
2+ k
)
∞∫
0
(y
γ2
)r1+r2+k−1
γ2(r1+r2+k−1) γ2(t(z+2k)+m−1−2k) (1 + y)t(z+2k)+m−1−2k dy
=2 t s
2m+r−22t Γ
(r1+r2
2
)
Γ(
r2
2
)Γ
(2m+r1+r2−2
2t
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2
∞∑
k=0
∞∑
z=l−2k=0
(t(z + 2k) + m− 1)2k γ2k (−s)2(k+1)
k! (z + 2k)! Γ(
r2
2+ k
)
γ2(r1+r2+t(z+2k)+m−1−k)
∞∫
0
(y
γ2
)r1+r2+k−1 (1 +
y
γ2
)t(z+2k)+m−1−2k
γ−2 dy.
Considere el cambio de variable u = y/γ2 −→ y = u γ2, cuyo jacobiano es J = γ−2, con
lo cual
∞∫
0
(y
γ2
)r1+r2+k−1 (1 +
y
γ2
)t(z+2k)+m−1−2k
γ−2 dy =
∞∫
0
u(r1+r2+k)−1 (1 + u)−(r1+r2+k)−(k+1−r1−r2−m−t(z+2k)) du.
Aplicando ahora la funcion Beta, se tienes
∞∫
0
(y
γ2
)r1+r2+k−1 (1 +
y
γ2
)t(z+2k)+m−1−2k
γ−2 dy =
Γ(r1 + r2 + k) Γ(k + 1− r1 − r2 −m− t(z + 2k))
Γ(2k + 1−m− t(z + 2k)).
Ası, finalmente se obtiene que
gV(v) =
2ts2m+r−2
2t Γ(
r1+r2
2
)
Γ(
r2
2
)Γ
(2m+r1+r2−2
2t
) r1
r2
(r1
r2
v) r1−2
2(1 +
r1
r2
v)− r1+r2
2
∞∑
k=0
∞∑
z=l−2k=0
(t(z + 2k) + m− 1)2k γ2(r1+r2+t(z+2k)+m−1) (−s)2(k+1)
k! (z + 2k)! Γ(
r2
2+ k
)
Γ(r1 + r2 + k) Γ(k + 1− r1 − r2 −m− t(z + 2k))
Γ(2k + 1−m− t(z + 2k)).
5.3. DISTRIBUCION GF DOBLE NO CENTRADA 109
5.3.4 Distribucion GF Doble No Centrada
A continuacion se presenta la distribucion GF doble no centrada bajo singularidad y no
singularidad de la distribucion Elıptica asociada y su respectiva densidad.
Sea X = (XT1 XT
2 )T ∼ ECm+n(ν, Σ; f), con X1 ∈ IRm y X2 ∈ IRn; ν ∈ IRm+n, ν =
[νT
m νTn
]T, νm ∈ IRm, νm 6= 0, νn ∈ IRn y νn 6= 0; Σ ∈ IR(m+n)×(m+n), Σ =
Σm 0
0 Σn
,
Σm ∈ IRm×m y rk Σm = m, Σn ∈ IRn×n y rk Σn = n. Entonces,
V =n
m
XT1 Σ
−1
m X1
XT2 Σ−1
n X2
∼ GF(m,n; δ, γ; f), (5.18)
con parametros de doble no centralidad δ = (1/2) νTm Σ
−1
m νm y γ = (1/2) νTn Σ
−1
n νn.
Demostracion. Sea X = (X1 X2)T ∼ ECm+n(ν, Σ; f), con ν ∈ IRm+n, ν =
[νT
mνTn
]T,
νm ∈ IRm, νm 6= 0, νn ∈ IRn y νn 6= 0; Σ ∈ IR(m+n)×(m+n), Σ =
Σm 0
0 Σn
, rk Σm = m,
Σn ∈ IRn×n y rk Σn = n. Considere la descomposicion Σm = P PT y Σn = Q QT , de modo
que
Y = H X =
P−1
0
0 Q−1
X1
X2
=
P−1
X1
Q−1
X2
=
Y1
Y2
.
Entonces, Y = (YT1 YT
2 )T ∼ ECm+n(µ, Im+n; f), con Y1 ∈ IRm y Y2 ∈ IRn; µ =[µT
m µTn
]T,
µm ∈ IRm, µm = P−1
νm 6= 0, µn ∈ IRn y µn = Q−1
νn 6= 0.
Finalmente,
V =n
m
YT1 Y1
YT2 Y2
=n
m
XT1 Σ
−1
m X1
XT2 Σ−1
n X2
∼ GF(m,n; δ, γ; f),
con δ = (1/2) µTm µm = (1/2) νT
m Σ−1
m νm y γ = (1/2) µTn µn = (1/2) νT
n Σ−1
n νn.
Sea V ∼ GF(m,n; δ, γ; f). Entonces, la densidad de V es
(5.19)gV(v) =
2πn+m
2−1
Γ(
m−12
)Γ
(n−1
2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
π∫
0
π∫
0
∞∫
0
senm−2 θ senn−2 φ ym+n−1 f(y2 − 2y η∗ cos θ + η2 − 2 y ζ∗ cos θ + ζ2) dy dθ dφ,
110 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
con parametros de doble no centralidad δ y γ, donde
η2 = 2 δ, ζ2 = 2 γ, η∗ =(
m v
n + mv
)1/2
η y ζ∗ =(
n
m v
)1/2 (1 +
n
m v
)−1/2
ζ.
Demostracion. Sea X = (XT1 XT
2 )T ∼ ECm+n(ν, Im+n; f), con X1 ∈ IRm y X2 ∈ IRn;
ν =[νT
m νTn
]T, νm ∈ IRm, νn ∈ IRn y νm, νn 6= 0. Considere ahora la transformacion Y = H X,
con H ∈ O(m + n), de modo que
Y = H X =
H1 0
0 H2
X =
H1 0
0 H2
X1
X2
=
H1 X1
H2 X2
=
Y1
Y2
,
esto es, Y1 = H1X1, H1 ∈ O(m), tal que ‖Y1‖ = ‖H1 X1‖ = (XT1 (HT
1 H1) X1)1/2 = ‖X1‖
y Y2 = H2 X2, H2 ∈ O(n), con ‖Y2‖ = ‖H2 X2‖ = (XT2 (HT
2 H2) X2)1/2 = ‖X2‖, de
manera que Y = (YT1 YT
2 )T ∼ ECm+n(µ, Im+n; f), con Y1 ∈ IRm y Y2 ∈ IRn; µ =[µT
m µTn
]T,
µm ∈ IRm, µm = [‖νm‖ 0T]T, µn ∈ IRn y µn = [‖νn‖ 0T]T. Ası
gY(Y) = f((Y−µ)T (Y−µ)) = f
m∑
i=1
y2i + ‖νm‖2 − 2‖νm‖ y1 +
n+m∑
i=m+1
y2i + ‖νn‖2 − 2‖νn‖ ym+1
.
Considere la transformacion de coordenadas esfericas generalizadas dada por
(Y1 . . . Ym) −→ (r θ1 . . . θm−1) = (r θ) y (Ym+1 . . . Ym+n) −→ (s φ1 . . . φm−1) = (r φ),
de manera que
gr,θ;s,φ
((r θ); (s φ)) = gY(Y) · |J | = f (r2
1 + δ2 − 2δ r1 cos θ1 + r22 + γ2 − 2γ r2 cos φ1)
rm−11 rn−1
2
m−2∏
j=1
senm−j−1 θj
(n−2∏
k=1
senn−k−1 φk
),
donde δ = ‖νm‖, γ = ‖νn‖ y |J | es le valor absoluto del jacobiano de la transformacion. Ası
la densidad de (r1, r2) es
gr1,r2(r1, r2) =
4 πm+n
2−1
Γ(
m−12
)Γ
(n−1
2
) rm−11 rn−1
2
5.3. DISTRIBUCION GF DOBLE NO CENTRADA 111
π∫
0
π∫
0
f (r21 + δ2 − 2δ r1 cos θ1 + r2
1 + γ2 − 2γ r2 cos φ1) senm−2 θ1 senn−2 φ1 dθ1 d φ1; r1, r2 > 0.
Aplicando el cambio de variables w = r y v =n
m
r21
r22
, de modo que |J | = (1/2) (n/m)1/2 w v−3/2,
se obtiene que
gV,W
(v, w) =2 π
m+n2−1
Γ(
m−12
)Γ
(n−1
2
) n
mwm+n−1
(n
m v
)n+22
π∫
0
π∫
0
f
(w2
(1 +
n
mv
)− 2 w δ cos θ + δ2 − 2
(n
mv
)1/2
w γ cos θ + γ2
)
senm−2 θ1 senn−2 φ1 dθ1 dφ1;
con w, v > 0. De este modo, la densidad de V =n
m
r21
r22
es
gV(v) =
2πn+m
2−1
Γ(
m−12
)Γ
(n−1
2
) m
n
(n
m v
)n+22
π∫
0
π∫
0
∞∫
0
senm−2 θ senn−2 φ wm+n−1
f
(w2
(1 +
n
m v
)− 2 w δ cos θ + δ2 − 2
(n
m v
)1/2
w γ cos θ + γ2
)dw dθ dφ,
donde γ2i = ‖νi‖, i = 1, 2.. Usando ahora el cambio de variables
y = w(1 +
n
m v
)1/2
−→ w =(1 +
n
m v
)−1/2
y cuyo jacobiano es J = (dw/dy) = (1 + n/(m v))1/2, se obtiene finalmente
gV(v) =
2πn+m
2−1
Γ(
m−12
)Γ
(n−1
2
) m
n
(m
nv)m−2
2(1 +
m
nv)−m+n
2
π∫
0
π∫
0
∞∫
0
senm−2 θ senn−2 φ ym+n−1 f(y2 − 2y δ∗ cos θ + δ2
−2 y γ∗ cos θ + γ2) dy dθ dφ
donde δ∗ =(
m v
n + mv
)1/2
δ y γ∗ =(
n
m v
)1/2 (1 +
n
m v
)−1/2
γ.
Similarmente, se puede obtener la distribucion GF doble no centrada bajo una distribucion
Elıptica singular, cuya singularidad afecta los g.l. de la distribucion de V , tal como en los
casos anteriores.
112 CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
Sea XT = (X1 X2) ∼ ECm+n(ν, Σ; f), con X1 ∈ IRm y X2 ∈ IRn; ν ∈ IRm+n, νT =
[νT
n νTm
], νm ∈ IRm, νm 6= 0, νn ∈ IRn y νn 6= 0; Σ ∈ IR(m+n)×(m+n), Σ =
Σm 0
0 Σn
,
Σm ∈ IRm×m y rk Σm = r < m, Σn ∈ IRn×n y rk Σn = s < n. Entonces,
V =s
r
XT1 Σ
−m X1
XT2 Σ
−n X2
∼ GF(r, s; δ, γ; f), (5.20)
con parametros de doble no centralidad δ = (1/2) νTm Σ
−m νm y γ = (1/2) νT
n Σ−n νn.
Demostracion. Es analoga a la del Teorema 9, reemplazando Σ−1
m por Σ−m y Σ
−1
n por Σ−n ;
considerando ademas que rk Σm = r < m y rk Σn = s < n, con lo cual la distribucion
GF no centrada tiene r y s g.l. y parametros de no centralidad δ = (1/2) µTm Σ
−mµm y
γ = (1/2) µTn Σ
−n µn.
Chapter 6
Inferencias para el CV bajo una Ley
Elıptica
6.1 Introduccion
Se sabe que las medidas de dispersion se utilizan para evaluar la variabilidad de un conjunto
de datos, siendo la desviacion estandar la mas utilizada. Sin embargo, esta entrega poca
informacion de la variabilidad del conjunto si es interpretada en forma aislada, solo cuando se
la relaciona con la media su interpretacion tiene mayor sentido. Por esta razon el coeficiente
de variacion (CV), que relaciona ambas medidas, se emplea habitualmente.
Considere una poblacion de media µ y desviacion estandar σ. Entonces el CV se define como
el cociente entre la desviacion estandar y la media de esta poblacion, es decir, γ = σ/µ, con
µ 6= 0.
El CV mide la dispersion u homogeneidad de un conjunto de datos asociados a una variable
aleatoria y es una medida de variabilidad relativa, es decir, es adimensional, pues representa
a la desviacion estandar por una unidad de media y resulta de particular interes cuando se
desea comparar la variabilidad entre grupos cuyas medias y varianzas difieren.
El CV ha sido utilizado frecuentemente para medir la variabilidad relativa en diversas areas y
113
114 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELIPTICA
situaciones. A continuacion se presenta una detallada lista de aplicaciones. En experimentos
quımicos el CV se ha empleado para evaluar la precision de las mediciones realizadas y para
comparar dos metodos de medicion (vea [64]). En Finanzas el CV se usa para medir el riesgo
relativo de rentas variables, ya que a inversion (vea [63]). En Teorıa de Inventarios se ha
utilizado el CV para comparar la variabilidad de dos niveles de almacenamiento, evaluando ası
el riesgo de quedar desabastecidos y por ende incurrir en un costo de oportunidad (vea [64]). El
CV tambien se ha usado en Ciencias Fısicas, Biologicas y Medicas (vea [40]). Especıficamente,
en el area Biomedica se ha ocupado el CV en la evaluacion de la homogeneidad de muestras
oseas realizadas por un metodo especıfico, ya que para evaluar la efectividad de un tratamiento
sobre las propiedades del hueso es deseable obtener muestras que sean homogeneas (vea [42]).
En telecomunicaciones el CV es utilizado para evaluar el ruido de senales y el inverso del CV
es denominado ”razon senal a ruido” (vea [60, p. 78]). Dentro del contexto de la Estadıstica se
pueden encontrar tambien aplicaciones del CV. Concretamente, en un problema de muestreo
cuando se desea estimar la media de una poblacion, es posible expresar el calculo del tamano
de la muestra por n = ((Z(1−α/2) γ)/q)2, donde q(100)% es el porcentaje que se espera que
difiera la media de su estimador; note que la expresion para calcular n queda en funcion del
CV, γ (vea [68, p. 254]). Ası, si se asume que la variable es positiva y tiene distribucion
Normal, entonces la media es aproximadamente igual a tres desviaciones estandar, con lo cual
se puede suponer que γ ≈ 1/3. Otra alternativa es asumir que la desviacion estandar es tan
grande como la media y ası γ = 1; aunque en estricto rigor se sabe que numericamente la
desviacion estandar puede ser mayor que la media, una situacion ası es algo inusual; de hecho
en distribuciones de gran variabilidad como la de Poisson, por ejemplo, el CV es igual 1.
En este ultimo caso se estarıa considerando una situacion muy similar al criterio de maxima
varianza que se presenta en el caso de la estimacion de una proporcion, es decir, cuando se
desconoce cualquier informacion a priori respecto de la variabilidad de la poblacion. Por otro
lado, en Modelos Lineales y Analisis de Varianza el CV se emplea habitualmente para evaluar
la bondad del ajuste de los datos al modelo. En Analisis de Confiabilidad se han planteado
tambien diversos usos del CV, como por ejemplo. En [14] se muestra que si la vida de una
6.1. INTRODUCCION 115
maquina tiene distribucion Inversa Gaussiana, entonces dado que la maquina ha sobrevivido a
un tiempo t, la vida media residual excedera la vida media original si el CV de esta poblacion
es mayor a 1/√
2. En [13] se demuestra que si la distribucion de vida pertenece a la clase-l,
entonces el CV es menor o igual a 1, siendo exactamente 1 cuando la funcion de distribucion es
exponencial. Asimismo, a pesar del limitado uso de la distribucion Normal en Confiabilidad,
esta ha demostrado ser util modelar datos de vida si µ > 0 y el CV γ = σ/µ es pequeno, con
particular exito en modelacion de la vida de filamentos electricos (por ejemplo de ampolletas)
y resistencia de nudos de alambres de circuitos integrados (vea [60, pp. 81-82]). De igual
forma, el grafico del coeficiente de curtosis versus el CV se emplea para detectar la bondad de
ajuste de distribuciones de vida (vea [60, p.110]), entre otras aplicaciones.
Los primeros resultados distribucionales del CV de una poblacion Normal se remontan a los
estudios realizados en [59], los cuales son corroborados en [66]. Luego de casi cuatro decadas,
en [44] se retoma el tema comparando aproximaciones de percentiles del CV muestral con los
resultados hasta ahı propuestos. Posteriormente en [6] se plantea un contraste aproximado
para probar la homogeneidad de coeficientes de variacion. En [7] se encuentra un test basado
en el estadıstico de razon de verosimilitud para contrastar estas mismas hipotesis. Luego en
[63] se propone un nuevo contraste para la igualdad de dos coeficientes de variacion, en [30] se
generaliza a k muestras, y en [77] se presentan estudios de simulacion de estos contrates. Por
su parte, en [43] se realiza inferencia para el CV de una distribucion Inversa Gaussiana. En
[62], y posteriormente en [35], se presentan pruebas de hipotesis asintoticas para el coeficiente
de variacion de una, dos y k muestras, junto con estudios de simulacion. En [40] se entregan
diversos resultados que permiten probar la igualdad de coeficientes de variacion de k muestras
provenientes de poblaciones normales basados en la revision de contrastes ya conocidos, como
lo son las pruebas de Bennet, de razon de verosimilitud, de la t no centrada, de Wald -la
que extienden a k muestras y para distintos tamanos de estas- y ademas presentan un nuevo
contraste basado en la prueba de Score. En [64] se hace inferencia asintotica para el CV
de una poblacion Normal presentando formulas para estadısticos de prueba, a traves de los
cuales es posible evaluar la potencia de los contrastes planteados. Finalmente, algunos de los
116 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELIPTICA
resultados planteados para el CV de una poblacion Normal son extendidos en [54] al caso de
una poblacion Elıptica.
En este capıtulo se propone un coeficiente de variacion generalizado, como una medida de
varia-bilidad relativa, valido para poblaciones cuya distribucion carece de primer y segundo
momento (los momentos de una distribucion Elıptica pueden verse en [32][p. 67])). Esta
medida se puede entender como una generalizacion del CV y se define como la raız cuadrada
del parametro de escala dividido por el parametro de posicion. Se analizan aspectos dis-
tribucionales e inferenciales de este CV generalizado bajo dos modelos Elıpticos, como lo son
el modelo dependiente (el vector aleatorio tiene una estructura dependiente con distribucion
Elıptica multivariada) y el modelo independiente (cada variable aleatoria del vector es indepen-
diente e identicamente distribuida Elıptica univariada). Especıficamente, para ambos modelos
(dependiente e independiente) se encuentra el estimador de verosimilitud maxima (EVM) y,
en forma alternativa, se plantea un estimador tipo momentos (EM) para el CV. El EVM queda
expresado en terminos de las funciones f y φ asociadas a cada ley Elıptica, por lo cual en esta
seccion solo es posible hallar una expresion general para este estimador. Posteriormente se
presenta la distribucion exacta del inverso del EVM del CV para el modelo dependiente y la
distribucion asintotica del EVM y del EM del CV bajo el modelo independiente. A partir de
estas distribuciones se obtienen intervalos de confianza y pruebas de hipotesis para el CV. Los
resultados obtenidos bajo el modelo dependiente son ilustrados a traves de dos subfamilias de
distribuciones Elıpticas, como lo son la distribucion de Pearson Tipo VII y la distribucion de
Tipo Kotz, permitiendo encontrar ası expresiones explıcitas para los resultados planteados;
particularmente se estudian las distribuciones t-multivariada y de Cauchy (esta ultima dis-
tribucion carece de momentos), como casos particulares de la subfamilia Elıptica de Pearson
Tipo VII, y la distribucion Normal, como caso particular de la subfamilia de Tipo Kotz. Los
resultados encontrados bajo el modelo independiente se particularizan para la distribuciones
univariadas t con s grados de libertad (g.l.) y Normal, incluyendo ademas la eficiencia relativa
asintotica (ERA) de los estimadores hallados.
6.2. ESPECIFICACION DE LOS MODELOS 117
6.2 Especificacion de los Modelos
En la inferencia para el CV de una poblacion Elıptica se analizaran los modelos Elıpticos con
estructura dependiente e independiente, los que se presentan a continuacion.
6.2.1 Modelo Elıptico con Estructura Dependiente
Denominaremos modelo elıptico con estructura dependiente (Modelo D) a un vector aleatorio
conjuntamente dependiente con distribucion Elıptica multivariada. Especıficamente, sea X =
(X1 X2 . . . Xn)T una muestra de tamano n de una poblacion Elıptica bajo el Modelo D, esto
es, X ∼ ECn(ν, Σ; f). Entonces X tendra:
1. Parametro de posicion ν = µ 1n, con ν ∈ IRn, µ ∈ IR y 1n ∈ IRn, donde 1n = (1 1 . . . 1)T .
El parametro de posicion coincidira con la media cuando exista el primer momento del
modelo.
2. Parametro de escala Σ = σ2 In, con Σ ∈ IRn×n y σ2 > 0.
3. Matriz de covarianzas (si existe) Σ0, proporcional al parametro de escala, definida por
Σ0 = c0 Σ = c0 σ2 In, con c0 = −2 φ′(0), φ dada en (2.2.1) y φ′ es su derivada.
(6.1)
6.2.2 Modelo Elıptico con Estructura Independiente
Denominaremos modelo elıptico con estructura independiente (Modelo I) a un vector aleatorio
compuesto por variables aleatorias independientes e identicamente distribuidas Elıptica uni-
variada. Concretamente, sea X = (X1 X2 . . . Xn)T una muestra aleatoria de tamano n de una
poblacion Elıptica bajo el Modelo I, esto es, Xii.i.d.∼ EC1(µ, σ2; f), con i=1,2,...,n. Entonces
Xi tendra:
1. Parametro de posicion µ ∈ IR y coincidira con la media al existir el primer momento
del modelo.
118 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELIPTICA
2. Parametro de escala σ2 > 0.
3. Varianza (si existe) σ20, proporcional a σ2 y definida por σ2
0 = c0 σ2, con c0 dado en
(6.2.1).
Para los dos modelos planteados (D e I), la poblacion tendra coeficiente de variacion
generalizado definido por γ = σ/µ, esto es, la raız cuadrada del parametro de escala sobre el
parametro de posicion. De este modo, siempre es posible construir una medida adimensional
de variabilidad relativa, existan o no los dos primeros momentos del modelo subyacente. Ası,
en adelante, se trate del CV o de su version generalizada, simplemente se referira a el como
”coeficiente de variacion” (CV), denotandolo por γ.
En lo posterior tambien considere lo siguiente. Sean
X =1
n
n∑
i=1
Xi =1
nXT1n, S2 =
1
n
(n∑
i=1
X2i − nX
2
)=
1
nXT
(I− 1
n1n1n
T)
X y S =√
S2.
(6.2)
Ademas asuma que µ > 0 y que IP (X < 0) es muy pequena (vea [40, Seccion 2]).
6.3 Estimadores del CV de una Poblacion Elıptica
En esta seccion se presentan dos estimadores para el CV basados en una muestra de una
poblacion Elıptica bajos los Modelos D e I, restringiendo el analisis a la estimacion puntual.
6.3.1 Estimadores del CV bajo el Modelo D
Para obtener el EVM del CV de una poblacion Elıptica bajo el Modelo D, se procede de
manera analoga al caso Normal (vea [36]), solo que en este caso se obtiene una expresion
general que depende de las funciones f y φ asociadas a toda ley Elıptica, que al especificarse
permiten encontrar una expresion explıcita para el estimador del CV.
Sea X = (X1 X2 . . . Xn)T ∼ ECn(µ 1n, σ2 In; f) una muestra de tamano n y γ el CV.
6.3. ESTIMADORES DEL CV DE UNA POBLACION ELIPTICA 119
Entonces el EVM de γ bajo el Modelo D es
γD
=√
n λ(f) S/X, (6.3)
donde λ(f) es el maximo de la funcion f ∗(λ) = λ−n/2 f(1/λ) y que corresponde a una constante
que depende de cada ley Elıptica, f esta dada en (2.2.2).
Demostracion. La funcion de verosimilitud de una muestra proveniente de una poblacion
Elıptica bajo el Modelo D puede expresarse por
L(µ, γ,X) =
(1
µ2 γ2
)n/2
f
(n
µ2 γ2(S2 + (X − µ)2)
). (6.4)
Al ser f una funcion monotona, entonces L(µ, γ,X) como funcion de µ alcanza un maximo
en µ = X (vea [32, p. 129]), con lo cual la verosimilitud se reduce a
L(X, γ,X) =(
1
n S2
)n/2(
n S2
X2
γ2
)n/2
f
(n S2
X2
γ2
)=
(1
n S2
)n/2
h
(n S2
X2γ2
),
esto es, L(X, γ,X) ∝ h((nS2)/(X
2γ2)
), donde h(x) = xn/2 f(x), con x = (n S2)/(X γ)2 y
x ≥ 0. Como f es no decreciente y continua, entonces haciendo uso del Lema 4.1.2 en [32, p.
129] el EVM de γ viene dado por la solucion de f ′(x) + f(x)(n/2x) = 0, y esta es
γD
=√
n λ(f) S/X,
donde λ(f) es el maximo de f ∗(λ) = λ−n/2 f(1/λ), f esta dada en (2.2.2) y f ′ es su derivada.
Alternativamente el Teorema 3.124 puede demostrarse haciendo uso de la propiedad de
invarianza de los estimadores de verosimilitud maxima. Para ello considere los EVM de µ y
σ (vea [32, pp. 129 y 132]), dados por
EVM(µ) = µ = X y EVM(σ2) = σ2 = n λ(f) S2,
donde λ(f) es el maximo de f ∗(λ) = λ−n/2 f(1/λ), con f dada en (2). Entonces el EVM de
γ es
γD
= T (θ) = T (θ) = T([
µ σ2]T
)=
σ
µ=
√n λ(f)
S
X.
Como un estimador alternativo al de verosimilitud maxima (γD) se puede proponer uno
de ”tipo momentos” (EM) dado por γD
= S/X, con X y S dados en (4).
120 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELIPTICA
6.3.2 Estimadores del CV bajo el Modelo I
Para obtener el EVM del CV de una poblacion Elıptica bajo el Modelo I, se procede de la
misma manera que en el Modelo D, solo que en este caso la expresion general que se obtiene
debe resolverse numericamente, tal como se vera a continuacion.
Sea X = (X1 X2 . . . Xn)T una muestra aleatoria de tamano n, con Xii.i.d.∼ EC1(µ, σ2; f)
(i=1,2,...,n), y γ el CV. Entonces el EVM de γ bajo el Modelo I es
γI
= σ/µ, (6.5)
donde µ y σ son los estimadores de verosimilitud maxima de µ y σ, respectivamente, dados
por
σ2 =1
n
n∑
i=1
wi (Xi − µ)2 y µ =
∑ni=1 wi Xi∑n
i=1 wi
, (6.6)
con wi = −2Wf (Ui), Wf (Ui) = f ′(Ui)/f(Ui) y Ui = ((Xi − µ)/σ)2 , i = 1, 2, ..., n, (6.7)
f dada en (2.2.2) y f ′ es su derivada.
Demostracion.Es directa al aplicar [2, Seccion 5.1] y la propiedad de invarianza de los
estimadores de verosimilitud maxima.
La expresion (6.3.3) no puede resolverse de forma explıcita, pero la solucion se puede
aproximar numericamente.
Similarmente al Modelo D, un estimador alternativo al de verosimilitud maxima bajo el
Modelo I es γI
= S/X, con X y S dados en (4).
6.4 Distribuciones Asociadas al Estimador del CV
En esta seccion se presentan algunos resultados distribucionales asociados a los estimadores
propuestos para el CV (γ) de una poblacion Elıptica bajo los Modelos D e I antes planteados.
6.4. DISTRIBUCIONES ASOCIADAS AL ESTIMADOR DEL CV 121
6.4.1 Distribucion del EVM del CV bajo el Modelo D
A continuacion se presenta la distribucion exacta del inverso del EVM del CV de una poblacion
Elıptica bajo el Modelo D, la que esta relacionada con la distribucion t generalizada no cen-
trada. Este resultado es analogo al planteado en [40, Seccion 2.3] para el caso Normal.
Sea X = (X1 X2 . . . Xn)T ∼ ECn(µ 1n, σ2 In; f) una muestra de tamano n, η = 1/γ y
ηD
el EVM de η bajo el Modelo D. Entonces
T =√
n (X/S) = n√
λ(f) ηD∼ Gt(n− 1, δ; f), (6.8)
con λ(f) dada en (6.3.1) y δ =√
n η es el parametro de no centralidad de la distribucion t
generalizada (Gt) no centrada con (n− 1) g.l.
Demostracion. Para X = (X1 X2 . . . Xn)T ∼ ECn(µ 1n, σ2 In; f) considere la transfor-
macion
Y = AX =
(1/√
n σ) 1Tn X
(1/σ) DX
=
Y1
Y2
∼ ECn
(n+1)
√
n µ/σ
0
,
1 0
0 D
; f
(6.9)
donde A ∈ IR(n+1)×n y D = (In− (1/n)1n1Tn ) = D2 = DT , con D ∈ IRn×n. Note que Y tiene
una distribucion Elıptica singular (vea [25]) y Σ−Y2
es un inverso generalizado de ΣY2
. Ası, en
base a las representaciones matriciales de X y S dadas en (5.2.2), se obtiene que
T =Y1√
1n−1
YT2 Σ−
Y2Y2
=
1√n σ
1Tn X
√1
n−1
(1σ
D X)T
D(
1σ
D X) =
√n
1n1T
n X√1
n−1XT D X
=√
nX
S,
(6.10)
con lo cual, finalmente T =√
n (X/S) ∼ Gt(n− 1, δ; f), donde δ =√
n µ/σ = µ/√
σ2/n.
Para los detalles de esta demostracion vea [25].
6.4.2 Distribucion Asintotica del CV bajo el Modelo I
Otro resultado distribucional interesante tiene relacion con el problema de muestras grandes.
A continuacion se presenta la distribucion asintotica del EVM y del EM del CV de una
122 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELIPTICA
poblacion Elıptica bajo el Modelo I. Este resultado es analogo al planteado en [64, Seccion 2]
para una poblacion Normal. Note que ahora se requiere de la existencia de los cuatro primeros
momentos de la distribucion, pues la ley Elıptica incide sobre esta distribucion asintotica a
traves del parametro de curtosis(κ).
Sea X = (X1 X2 . . . Xn)T una muestra aleatoria de tamano n, con Xii.i.d.∼ EC1(µ, σ2; f)
(i=1,2,...,n), γ el CV y γI
el EVM de γ bajo el Modelo I. Entonces si n →∞
Z =
√n (γ
I− γ)√√√√γ2
(γ2
4 a(f)+
1
4 b(f)− 1
)d−→ N(0, 1), (6.11)
donde a(f) = IE(U W 2f (U)) y b(f) = IE(U2 W 2
f (U)), U1/2 ∼ EC1(0, 1; f), (6.12)
con U y Wf (U) dados en (5.3.5), γIen (5.3.3) y ”
d−→ ” denota la convergencia en distribucion.
Demostracion. De [61, Seccion 3], y como se sabe,
√n
(X − µS2 − σ2
)d−→ N2
0
0
,
σ2
4 a(f)0
04 σ4
4 b(f)− 1
≡ N2 (0, F−1) ,
con a(f) y b(f) dadas en (5.4.4). Ahora note que γ = T (θ) = T (µ, σ2) = σ/µ es funcion de
µ y de σ2. Analogamente el EVM de γ, γI, es funcion de µ y de σ2, tal como puede verse en
(7). Entonces
√n (T (θ)− T (θ)) =
√n (T (µ, σ2)− T (µ, σ2)) =
√n (σ/µ− σ/µ) =
√n (γ − γ).
A partir de esto y aplicando el metodo-delta (vea [69, pp. 387-388]), se tiene que
√n (γ
I− γ)
d−→ N
0,
(∂ T (θ)
∂θ
)F−1
(∂ T (θ)
∂ θ
)T ,
donde (∂ T (θ)
∂ θ
)F−1
(∂ T (θ)
∂ θ
)T
= γ2
(γ2
4 a(f)+
1
4 b(f)− 1
).
6.4. DISTRIBUCIONES ASOCIADAS AL ESTIMADOR DEL CV 123
Finalmente,
Z =
√n (γ
I− γ)√√√√γ2
(γ2
4 a(f)+
1
4 b(f)− 1
)d−→ N(0, 1).
Sea X = (X1 X2 . . . Xn)T una muestra aleatoria de tamano n, con Xii.i.d.∼ EC1(µ, σ2; f)
(i=1,2,...,n), γ el CV y γ el EM de γ bajo el Modelo I. Entonces si n →∞
Z =
√n (γ
I− γ)√√√√c0 γ2
(4c0 γ2 + 3κ + 2
4
)d−→ N(0, 1), (6.13)
con γI
dada en la Observacion 3.129,
κ = φ′′(0)/φ′(0))2 − 1 = k0/c20 − 1 (6.14)
es el parametro de curtosis de X, k0 = 4φ′′(0), φ esta dada en (2.2.1) y φ′′ es su segunda
derivada.
Demostracion. De [2, Seccion 4.2], y como se sabe,
√n
(X − µS2 − σ2
0
)d−→ N2
0
0
,
σ20 0
0 (3κ + 2) σ40
≡ N2 (0, V) .
Ahora note que γ = T (θ) = T (µ, σ2) = σ/µ es funcion de µ y de σ2. Analogamente, el EM
de γ, γI, es funcion de µ = X y de σ2 = S2, tal como puede verse en la Observacion 5, con X
y S dados en (4). Entonces
√n ((T (θ)− T (θ)) =
√n (T (X, S2)− T (µ, σ2)) =
√n (S/X − σ/µ) =
√n (γ
I− γ).
A partir de esto y aplicando el metodo-delta (vea [69, pp. 387-388]), se tiene que
√n (γ − γ)
d−→ N
0,
(∂ T (θ)
∂θ
)V
(∂ T (θ)
∂ θ
)T ,
donde(
∂ T (µ, σ2)
∂ µ
∂ T (µ, σ2)
∂ σ2
)V
(∂ T (µ, σ2)
∂ µ
∂ T (µ, σ2)
∂ σ2
)T
= c0 γ2
(4c0 γ2 + 3κ + 2
4
).
124 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELIPTICA
Finalmente,
Z =
√n (γ
I− γ)√
c0 γ2 ((4c0 γ2 + 3κ + 2)/4)
d−→ N(0, 1).
El parametro de curtosis κ, dado en (5.4.7), puede estimarse por el metodo de los momentos
basado en el resultado dado en [58] (en [2, Seccion 4.5]) y esta dado por:
κ =n
∑ni=1(Xi −X)4
3(∑n
i=1(Xi −X)2)2− 1. (6.15)
6.5 Intervalos de Confianza para el CV de una poblacion
Elıptica
En esta seccion se plantean intervalos de confianza del 100(1 − α)% para el CV (γ) de una
poblacion Elıptica bajo los modelos D e I antes planteados.
6.5.1 Intervalo de Confianza para el CV bajo el Modelo D
Basados en la distribucion del inverso del EVM del CV de una poblacion Elıptica bajo el
Modelo D y el estadıstico t generado a partir de (11), se presenta a continuacion un intervalo
de confianza (IC) del 100(1− α)% para el CV.
Sea X = (X1 X2 . . . Xn)T ∼ ECn(µ 1n, σ2 In; f) una muestra de tamano n y γD
el EVM
de γ bajo el Modelo D. Entonces un IC aproximado del 100(1− α)% para γ es
(γ
D)−1 +
t%
n√
λ(f)
−1
;
(γ
D)−1 − t%
n√
λ(f)
−1
, (6.16)
con λ(f) dada en (6.3.2) y t% es el percentil (1− α/2) de la distribucion t con (n− 1) g.l.
Demostracion. A partir de la expresion dada en (5.4.6) y usando la invarianza del estadıstico
t bajo leyes ECn(0, In; f) (vea [32, p. 63]) se obtiene que
t =Y1 − (µ/σ)
√n√
1n−1
Y′2Σ
−Y2
Y2
=
√n X/σ −√n (µ/σ)
S/σ=√
nX − µ
S∼ t(n− 1). (6.17)
6.5. INTERVALOS DE CONFIANZA PARA EL CV DE UNA POBLACION ELIPTICA125
Ahora observe que t es una cantidad pivotal para γ = σ/µ, con lo cual, al aplicar el metodo
de la cantidad pivotal, se obtiene que
IP
(σ
X + t% S/√
n) < γ <
σ
X − t% S/√
n
)= 1− α.
Por tanto y como σ =√
n λ(f) S es un estimador consistente de σ, un IC aproximado
para γ es
(γ
D)−1 +
t%
n√
λ(f)
−1
;
(γ
D)−1 − t%
n√
λ(f)
−1
.
6.5.2 Intervalo de Confianza para el CV bajo el Modelo I
Basados en la distribucion asintotica del EMV y del EM del CV de una poblacion Elıptica bajo
el Modelo I, y usando tambien el metodo de la cantidad pivotal, se presentan a continuacion
intervalos de confianza asintoticos del 100(1− α)% para el CV.
Sea X = (X1 X2 . . . Xn)T una muestra aleatoria de tamano n, con Xii.i.d.∼ EC1(µ, σ2; f)
(i = 1, 2, ..., n), y γI
el EVM de γ bajo el Modelo I. Entonces si n →∞, un IC asintotico del
100(1− α)% para γ esγ
I± Z%
√√√√ γI
2
n
(γ
I
2
4 a(f)+
1
4 b(f)− 1
) , (6.18)
con a(f) y b(f) dadas en (5.4.4) y Z% es el percentil (1− α/2) de la distribucion N(0, 1).
Demostracion. Es inmediata al aplicar el metodo de la cantidad pivotal usando (5.4.6).
Sea X = (X1 X2 . . . Xn)T una muestra aleatoria de tamano n, con Xii.i.d.∼ EC1(µ, σ2; f)
(i = 1, 2, ..., n), y γI
el EM de γ bajo el Modelo I. Entonces si n → ∞, un IC asintotico del
100(1− α)% para γ esγ
I± Z%
√√√√c0γ
I
2
n
(4c0 γ
I
2 + 3κ + 2
4
) , (6.19)
con c0 en (5.2.1), κ en (5.4.8) y Z% es el percentil (1− α/2) de la distribucion N(0, 1).
Demostracion. Es inmediata al aplicar el metodo de la cantidad pivotal.
126 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELIPTICA
6.6 Pruebas de Hipotesis para el CV de una Poblacion
Elıptica
En esta seccion se presentan estadısticos para contrastar las hipotesis
H0 : γ = γ0 versus H1 : γ 6= γ0, (6.20)
(o una alternativa unilateral) para un γ0 dado. En el caso de una muestra proveniente de una
poblacion Elıptica bajo el Modelo D la prueba se basa en el estadıstico t generado a partir
de (11); mientras que para el de una muestra proveniente de una poblacion Elıptica bajo el
Modelo I, se plantea una prueba asintotica basada en el estadıstico Z.
6.6.1 Prueba de Hipotesis para el CV bajo el Modelo D
A continuacion se presenta una prueba de hipotesis para el CV de una poblacion Elıptica bajo
el Modelo D basada en el estadıstico t generado a partir de (5.5.2).
Sea X = (X1 X2 . . . Xn)T ∼ ECn(µ 1n, σ2 In; f) una muestra de tamano n y γD
el EVM
de γ bajo el Modelo D. Entonces a traves del estadıstico
t = n λ(f)(γ
D
−1 − γ−1)∼ t(n− 1), (6.21)
con λ(f) dada en (6.4.4), se puede contrastar las hipotesis dadas en (6.6.1) mediante la
siguiente regla de decision: Rechace H0 si |t| > t%, donde t% es el percentil (1 − α/2) de
la distribucion t con (n− 1) g.l.
6.6.2 Prueba de Hipotesis para el CV bajo el Modelo I
A partir de la distribucion asintotica del EM del CV de una poblacion Elıptica bajo el Modelo
I se plantea a continuacion una prueba de hipotesis para el CV. Este resultado es analogo al
obtenido en [64, Seccion 2] para una poblacion Normal.
6.7. EJEMPLOS 127
Sea X = (X1 X2 . . . Xn)T una muestra aleatoria de tamano n, con Xii.i.d.∼ EC1(µ, σ2; f)
(i = 1, 2, ..., n), y γ el EM de γ bajo el Modelo D. Entonces a traves del estadıstico
Z =
√n (γ
I− γ)√√√√c0 γ2
(4c0 γ2 + 3κ + 2
4
)d−→ N(0, 1), (6.22)
con c0 en (5.2.1), se puede contrastar las hipotesis dadas en (6.6.1) mediante la siguiente regla
de decision: Rechace H0 si |Z| > Z%, donde Z% es el percentil (1 − α/2) de la distribucion
N(0, 1).
6.7 Ejemplos
A continuacion se aplican los resultados obtenidos para el CV bajo el Modelo D a dos sub-
familias Elıpticas, como lo son familia de Tipo Kotz, que contiene a la distribucion Normal
multivariada, y la familia de Pearson Tipo VII, que contiene a la distribuciones t-multivariada
y de Cauchy (para esta ultima distribucion no existen sus momentos), permitiendo encon-
trar ahora expresiones explıcitas. Los resultados obtenidos bajo el Modelo I son ilustrados
basandose en las distribuciones univariadas Normal y t con s g.l., para s = 5, 30 y 100. Estos
resultados se resumen en la Tabla 2 para el Modelo D, y en las Tablas 4 y 5 para el Modelo I.
Tabla 3 Constante λ(f), EVM(γ), IC(γ) y estadıstico t para contrastar las hipotesis
H0 : γ = γ0 versus H1 : γ 6= γ0,
para las distribuciones especificadas bajo el Modelo D.
128 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELIPTICA
∗
donde t% es el percentil (1− α/2) de la distribucion t con (n− 1) g.l.
Similarmente, para el Modelo I se entregan algunos de los resultados obtenidos, ademas de
la eficiencia relativa asintotica, para γ = 1, de los estimadores de verosimilitud maxima y de
”tipo momentos” para el CV para las distribuciones univariadas Normal y t con s g.l.
Tabla 4 Constantes κ, c0, k0, a(f), b(f) y w = −2Wf (u), con Wf (u) dado en (?), para las
distribuciones univariadas Normal y t con s g.l. bajo el Modelo I.
∗
Distribucion λ(f) EVM(γ) = γD IC(γ) t
Pearson VII2m− n
n s
√2m− n
s
S
X
[γ
D± t%
n
√λ(f)−1
]−1 (√n
X
S− n
√λ(f) γ−1
0
)
t(s)− n-variada1n
S
X
[X
S± t%√
n
]−1 √n
(X
S− γ−1
0
)
Cauchy1n
S
X
[X
S± t%√
n
]−1 √n
(X
S− γ−1
0
)
Tipo Kotz(
2 s t
n + 2m− 2
)1/t √nλ(f)
S
X
[γD ±
t%n
√λ(f)−1
]−1
n
(X
S−
√λ(f) γ−1
0
)
Normal1n
S
X
[X
S± t%√
n
]−1
n
(X
S− γ−1
0√n
)
6.7. EJEMPLOS 129
Distribucion κ c0 k0 a(f) b(f) w
t(s)2
s− 4
s
s− 2
s2
(s− 2)(s− 4)
s + 1
4(s + 3)
3(s + 1)
4(s + 3)
s + 1
s + u
Normal 0 1 1 1/4 3/4 1
130 CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY ELIPTICA
Tabla 5 EM(γ) = γI, ERA(γ = 1), IC(γ) y estadıstico Z para contrastar las hipotesis
H0 : γ = γ0 versus H1 : γ 6= γ0
para las distribuciones univariadas Normal y t con s g.l. bajo el Modelo I.
Distribucion EM(γ) ERA IC100(1−α)%(γ) Z
t(s)S
X
Var(γI)
Var(γI)
[S
X± Z%
√Var
(S
X
)] √n (S/X − γ0)√
Var(γI)
t(5)S
X0.3491
S
X± Z%√
n
S
X
√3.333 + 2.778
(S
X
)2
√n (S/X − γ0)√
γ20 (3.333 + 2.778 γ2
0)
t(30)S
X0.9255
S
X± Z%√
n
S
X
√0.598 + 1.148
(S
X
)2
√n (S/X − γ0)√
γ20 (0.598 + 1.148 γ2
0)
t(100)S
X0.9796
S
X± Z%√
n
S
X
√0.526 + 1.041
(S
X
)2
√n (S/X − γ0)√
γ20 (0.526 + 1.041 γ2
0)
NormalS
X1.0000
S
X± Z%
n
S
X
√0.5 +
(S
X
)2
√n (S/X − γ0)√γ20 (0.5 + γ2
0)
donde Z% es el percentil (1 − α/2) de la distribucion Normal estandar y las varianzas asintoticas del EVM y
del EM de γ para la distribucion t con s g.l. son, respectivamente,
Var(γI ) = γ2 (s + 3)(
γ2
s + 1+
12 s
)y Var(γI ) = γ2 s
s− 2
(s
s− 2γ2 +
s− 12(s− 4)
).
Para obtener expresiones para el EVM de γ bajo el Modelo I, se debe hacer uso de metodos
numericos.
Bibliography
[1] Anderson, T. W. and Fang, K-T. (1990). Statistical Inference in Elliptically Contoured
and Related Distributions. Allerton Press, Inc.
[2] Anderson, T. W. (1993). Nonnormal Multivariate Distributions Inference Based on El-
liptically Contoured Distributions. Pag. 1-24. In Rao, R. (1993). Multivariate Analysis:
Future Directions. Elsevier Science Publishers B . V.
[3] Anderson,T. W., Fang, K-T. and Hsu, H. (1986). Maximun-likelihood Estimators and
Likelihood ratio Criteria for Multivariate Elliptically Contoured Distributions. The
Canad. J. Statist, 14, 55-59.
[4] Anderson,T. W. and Fang, K-T. (1987). Cochran’s Theorem for Elliptically Contoured
Distributions. Sankhya, Ser A, 49, 305-315.
[5] Arellano, R. Distribucoes Elipticas: Propriedades, Inferencia Aplicacoes a Modelos de
Regressao, Tesis Doctoral, Universidad de Sao Paulo: Brasil 1994 (en Portugues).
[6] Bennett, B. M. (1976). On an Approximate Test for Homogeneity of Coefficients of Varia-
tion. Contribution to Applied Statistics, edited by Water John Ziegler, Birhauser Verlag,
Bsel and Stuttgart, 169-171.
[7] Bennett, B. M. (1977). LR Test for Homogeneity of Coefficients of Variation in Repeated
Samples. Sankhya, 39B, 400-405.
[8] Billingsley, P. (1979). Probability and Measure. John Wiley & Sons, New York.
131
132 BIBLIOGRAPHY
[9] Bulgren, W. G. and Amos, D. E. A Note on Representation of the Doubly Non-ccentral
t Distribution. J. Amer. Statist. Ass., Vol. 63, (September 1968), 1013-19.
[10] Bulgren, W. G. (1971). On Representation of the Doubly Non-central F Distribution. J.
Amer. Statist. Ass., Vol. 66, No. 333. Theory and Methods Section.
[11] Cacoullos, T. and Koutras, M. (1984). Quadratic form in spherical random variables
generalized noncentral χ2-distributions. Naval Res. Logist. Quart., 31, 447-461.
[12] Cambanis S., Huang, S., and Simons, G. (1981). On the theory of elliptically contoured
distributions. J. of Multivariate Analysis, 11, 365-385.
[13] Chaudhuri, G. Coefficient of Variation for the l-Class of Life Distributions, Commun.
Statist.: Theory Meth. 1993, 22(9), 2619-2622.
[14] Chhikara, R. S.; Folks, J. L. The Inverse Gaussian Distribution as Lifetime Model, Tech-
nometrics 1977, 19, 461-468.
[15] Chmielewski, M.A. (1980). Invariant Scale Matriz Hypothesis Tests under Elliptical Sym-
metry. J. of Mult. Analysis, 10, 343-350.
[16] Chu, K. C.(1973). Estimation and Decision for Linear Systems with Elliptical Random
Process. IEEE Transaction on Automatic Control, 18, 499-505.
[17] Cramer, H. (1970). M’todos Matematicos en Estadıstica. Aguilar Ediciones, Madrid.
[18] Dawid, A. P. (1977). Spherical Matrix Distribtutions and a Multivariate Model. J. of the
Royal Stat. Soc., Ser. B, 39, 254-261.
[19] Dıaz, G., J. A. y Gutierrez, J. R. (1996). Calculo Diferencial Matricial y Momentos de
Matrices Aleatorias Elıpticas. Ed. Universidad de Granada. Granada.
[20] Dıaz, G., J. A. y Leiva, S., V. (1997). Distribucion χ2 No Centrada, Obtenida a Partir
de una Distribucion Elıptica Singular. Proceedings of the COMPUMAT’97 . Cienfuegos,
Cuba.
BIBLIOGRAPHY 133
[21] Dıaz, G., J. A., Leiva S., V. y Gutierrez, J., R. (1998). Densidad del Coeficiente de
Variacion Muestral en Poblaciones Elıpticas. Proceedings of the XXIV Congreso Nacional
de Estadıstica e I.O.. Almerıa, Espana.
[22] Dıaz, G. J.A. y Leiva, S., V (1999). ”Estimador Maximo Verosımil del Coeficiente de
Variacion bajo Poblaciones Elıpticas”. Proceedings of IV Congreso Latinoamericano de
Sociedades Estadısticas, Mendoza, Argentina.
[23] Dıaz, G. J.A. y Leiva, S., V (1999). ”Distribucion e Intervalo de Confianza Asintotico
para el Coeficiente de Variacion bajo Poblaciones Elıpticas”. Proceedings of IV Congreso
Latinoamericano de Sociedades Estadısticas, Mendoza, Argentina.
[24] Dıaz, G. J.A. , Leiva, S., V y Galea, R., M. (2000a). ”Distribucion Elıptica Singular:
Densidad y Aplicaciones”. Informe Tecnico UV-EST-0002-00. Universidad de Valparaıso,
Chile.
[25] Dıaz, G. J.A. , Leiva, S., V and Galea, R., M. (2000b). ”Singular Elliptical Distribution:
Density and Applicacions”. Submited
[26] Dıaz, G. J.A. , Leiva, S., V y Galea, R., M. (2000c). ”Distribucion Elıptica Singular:
Densidad y Aplicaciones”. Proceedings of XXIII Jornadas Nacionales de Estadıstica,
Valdivia, Chile.
[27] Dıaz, G. J.A. , Leiva, S., V y Galea, R., M. (2000d). ”Inferencia para el Coeficiente de
Variacion de una Poblacion Elıptica”. Informe Tecnico UV-EST-0004-00. Universidad de
Valparaıso, Chile.
[28] Dıaz, G. J.A. , Leiva, S., V and Galea, R., M. (2001). ”Inference for the Coefficient of
Variation of an Elliptic Population”. Submited.
[29] Dıaz, G. J.A. , Leiva, S., V and Galea, R., M. (2001). ”Doubly Non-Central t and
F Distribution under Singular and Non-Singular Elliptical Distribution: Density and
Applicacions”. In preparation.
134 BIBLIOGRAPHY
[30] Doornbos, R and Dijkstra, J. B. (1983). A Multi Sample Test for the Equality of Coeffi-
cients of Variations in Normal Populations. Commun. Statist.: Simul. and Comput., 12,
2, 147-158.
[31] Fang, K. T., Kotz, S. and Ng, K. W. (1990). Symetric, Multivariate and Related Distri-
bution. Chapman and Hall. London.
[32] Fang, K. T. and Zhang, Y.T. (1990). Generalized Multivariate Analysis. Sciences Press,
Beijing. Springer-Verlag, Berlin
[33] Fan, J. (1984). Generalized Non-Central t−, F , and T 2− Distributions. (in Anderson,
T. W. and Fang, K-T. (1989). Statistical Inference in Elliptically Contoured and Related
Distributions. Allerton Press, Inc.)
[34] Fang, K. T. and Wu, Y. (1984). Distribution of Cuadratic Forms and Cochran’s Theorem.
Mathematics in Economics, 1, 29-48.
[35] Feltz, C. J. and Miller, G. E. (1996). An Asymptotic Test for Equality of Coefficients of
Variation in k Populations. Statistics in Medicine, 15, 647-658.
[36] Gerig, M. T. and Sen, R. A. (1980). MLE in Two Normal Samples With Equal but
Unknow Population Coefficients of Variaton. J. Amer. Statist. Ass. Vol. 75, No. 371,
Theory and Methods Section. 704-708
[37] Graybill, F.A. (1976). Theory and Application of the Linear Models. Duxbury Press.
California.
[38] Graybill, F.A. (1969). Introduction to Matrices with Applications in Statistics. Wadsworth
Pub. Company, Inc., Belmont, California.
[39] Gupta, A.K. and Varga, T. (1993). Elliptically Contoured Models in Statistics. Kluwer
Academic Publishers, Boston.
BIBLIOGRAPHY 135
[40] Gupta, R. C. and Ma, S. (1996). Testing tha Equality of Coefficients of Variation in k
Normal Populations. Commun. in Statist.: Theory and Methods. 20, 10, 3351-3363.
[41] Gutierrez, J. R., Gonzalez, C. A. (1996). ”Estadıstica Multivariable: Introduccion al
Analisis Multivariante”. Volumen I. Ediciones Universidad de Granada.
[42] Hamer, A. J., Strachan, J. R. Black, M. M., Ibbotson, C. and Elson, R. A. (1995). A
New Method of Comparative Bone Strenght Measurement. J. Medical Engineering and
Technology, 19, 1, 1-5.
[43] Hsieh, H. K. (1990). Inferences on the Coefficient of Variation of an Inverse Gaussian
Distribution. Commun. in Statist.: Theory and Methods. 19, 5, 1589-1605.
[44] Iglewicz, B. and Myers, R. H. (1970). Comparisons of Approximations to the Percentage
Points of Sample Coefficients of Variaton. Technometrics, 12, 1, 166-169.
[45] Johnson, M. (1987) Multivariate Statistical Simulation. John Wiley and Sons. New York.
[46] Johnson, N.L. and Kotz, S. (1970) Continuos Univariate Distributions. Houghton Miffin
Co. Houston.
[47] Johnson, N.L. and Kotz, S. (1975) Distributions in Statistics: Continuos Multivariate
Distributions. John Wiley. New York.
[48] Kailath, T. (1961). Optimum receivers for randomly varying channels. Information The-
ory, pp. 109- 22
[49] Kariya, T and Eaton, M.L. (1977). Robust Tests for Spherical Symmetry. The Annals of
Statistics, 5, 206-215.
[50] Kelker, D. (1970). Distribution Theory os Spherical Distributions and a Location Scale
Parameter Generalization. Sankhya, Ser. A, 32, 419-430.
[51] Larsen, D., H. (1965). Rinehart Mathematical Tables, Formulas and Curves. Holt, Rine-
hart and Winston. N-Y.
136 BIBLIOGRAPHY
[52] Leiva, S., V., Dıaz, G., J. A. y Gutierrez, J. R. (1997). Densidad de una Distribucion
Elıptica Singular. Actas del XXIII Congreso Nacional de Estadıstica e I.O., Valencia,
Espana, 46.9-46.10.
[53] Leiva, S. V. (1998). Distribuciones Elıpticas y Distribucion de Formas Cuadraticas Aso-
ciadas. Universidad de Granada. Trabajo de Investigacion.
[54] Leiva, S., V. (1999). ”Inferencias sobre el Coeficiente de Variacion bajo Poblaciones
Elıpticas”. Tesis Doctoral, Universidad de Granada, Espana.
[55] Lehmann, E. L. (1991). Testing Statistical Hypothesis. Wadsworth y Brooks/Cole. Cali-
fornia.
[56] Lord, R. D. (1954). The Use of Hankel Transform in Statistics. I. General Theory and
Examples. Biometrika, 41, 44-45
[57] Madow, W. G. (1948). On a Source of Downward Bias in the Analysis of Variance and
Covariance. Annals of Mathematical Statistics, 19, 351-359.
[58] Mardia. K. V. Measures of Multivariate Skewness and Kurtosis with Applications,
Biometrika 1970, 57, 519-530.
[59] McKay, A. T. (1932). Distribution of the Coefficient of Variation and the Extended t
distribution. J. Royal Stat. Soc., 95, 695-698.
[60] Meeker, W.Q.; Escobar, L.A. Statistical Methods for Reliability Data, John Wiley &
Sons Inc., New York 1998.
[61] Mitchell, A, F. S. Statistical Manifold of Univariate Elliptic Distributions, International
Statistical Review 1988, 56, 1, 1-16.
[62] Miller, G. E. (1991). Asymptotic Test Statistics for Coefficients of Variation. Commun.
in Statist.: Theory and Methods. 20, 10, 3351-3363.
BIBLIOGRAPHY 137
[63] Miller, E. C. and Karson, M. J. (1977). Testing Equality de Two Coefficients of Variation.
Amer. Stat. Asoc.: Proceeding of the Business and Economics Section, Part I, 278-283.
[64] Miller, G. E. and Feltz, C. J. (1997). Asymptotic Inference for Coefficients of Variation.
Commun. in Statist.: Theory and Methods. 26, 3, 715-726.
[65] Muirhead, R. J. (1982). Aspects of Multivariate Statistical Theory. J. Wiley, N.Y.
[66] Pearson, E. S. (1932). Comparison de A. T. McKays Approximation with Experimentals
Sampling Results. Journal of the Royal Statistical Society, 95, 703-704.
[67] Price, R. (1962). Error Probabilities for Adaptive Multichannel Reception of Binary Sig-
nals. IRE Transc. On Information Theory, It-8, 387-389.
[68] Raj, D. Sampling Theory, McGraw Hill: Bombay, New Delhi 1968.
[69] Rao, C.R. (1965). Linear Statistical Inference and its Applications. Wiley, New York.
[70] Rao, C. R. Multivariate Analysis: Future Directions, Elsevier Science Publishers B. V.
1993.
[71] Rao, K. A. and Vidya, R. (1992). On the Performance of a Test for the Coefficient of
Variation. Calcutta Stat. Asoc. Bulletin, 42, March and June, Nos. 165-66, 87-95.
[72] Schoenberg, I. J. (1938). Metric Spaces and Completely Monotone Functions Variates.
Australian J. Stat., 7, 110-114.
[73] Scheffe, H. (1959). The Analysis of Variance. N.Y.: John Wiley and Sons, Inc.
[74] Searle, S.R. (1971). Linear Models. John Wiley and Sons, Inc., New York.
[75] Sebestyen, G. S. (1961). Recognition of membership in classes. IRE Trans. on Inf. Th.
IT-7, 44-50.
138 BIBLIOGRAPHY
[76] Sen, A. R. and Gerig, T. M. (1980). MLE in Two Normal Samples with Equal but
Unknown Population Coefficient of Variation. J. Amer. Statist. Asoc., 75, 371, Sept.,
704-708.
[77] Shafer, N. J. and Sullivan, J. A. (1986). A Simulation Study of a Test for the Equality of
the Coefficients of Variation. Commun. in Statist.: Simul. and Comput., 15, 3, 681-695.
[78] Smith, M. D. (1989). On the Expectation of a Ratio of Cuadratic Forms in Normal
Variables. J. Mult. Analysis, 31, 244-257.
[79] Srivastava, M. S. and Khatri, C. G. (1979). An Introduction to Multivariate Statistics.
North Holland.
[80] Teng, Ch., Fang H. and Deng W. (1989). The Generalized Wishart Distribution. J. of
Mathematical Research and Exposition. 9, 4. 36, 9-106 (supplement).
[81] Tiku, M. L. Series Expansions for the Doubly Non-central F Distribution. Australian
Journal of Statistics, 7 (November 1965), 78-99.
[82] Turin, G. L. (1959). Some computations of error rates for selectively fading multipath
channels. Proc. Nat. Electron. Conf. 15, 431-40.
[83] Tyler, D. E. (1982). Radial estimates and the Test for Sphericity. Biometrika, 69, 429-436.
[84] Umphrey, G. J. (1983). A Comment on McKay’s Approximation for the Coefficient of
Variation. Commun. in Statist.: Simul. and Comput., 12, 5, 629-635.
[85] Wadsworth, G. P. y Bryan, J. G. (1979). Aplicaciones de la Teorıa de Probabilidad y
Variables Aleatorias. Ed. Alhambra. Madrid.
[86] Weibull, M. (1953). The Distribution of t− and F -Statistics and of Correlation and
Regression Coefficients in Stratified Samples from Normal Populations with Different
Means. Skandinavisk Aktuarietidskrift, 36, 9-106 (supplement).
BIBLIOGRAPHY 139
[87] Wishner, R. P. (1962). Distribution of the normalizad periodogram detector. IRE Trans.
on Inf. Th. IT-8, 342-9.
[88] Zellner, A. (1976). Bayesian and Non-Bayesian of the Regression Model with Multivariate
Student-t Error Terms. Journal of the American Statistical Association, 71, 400-405.
140 BIBLIOGRAPHY
ANEXO
Densidad de la distribucion Gt doble No Centrada
Teorema. Sea T ∼ Gt(n, δ, γ; f), con parametros de doble no centralidad δ y γ. Entonces,
la densidad de T es
(6.23)g
T(t) =
2 πn−1
2
n1/2 Γ(n−22
)∞∫
0
vn
π∫
0
f
(1 + t2
nv2 − 2
(δ
n1/2+ γ cos φ1
)v + δ2 + γ2)
)senn−2 φ1 dφ1
dv,
con v > 0, donde δ y γ son los parametros de doble no centralidad.
Demostracion. Sea X = (X1 XT2 )T ∼ ECn+1(ν, In+1; f), con X1 ∈ IR, X2 ∈ IRn, ν = (µ µT
n )T ,
ν ∈ IRn+1, µ ∈ IR, µ 6= 0, µn ∈ IRn, µn 6= 0 y defina T = X1/√||X2||2/n. Ademas, sea
Q ∈ O(n + 1), Q =
1 0
0 P
, P ∈ O(n), tal que QX = Y = (Y1 YT
2 )T = (X1 YT2 )T
y Q ν = (µ ||µn|| 0T)T, esto es, Y = (Y1 YT2 )T ∼ ECn+1(η, In+1; f), con Y1 ∈ IR, Y2 =
(Y2 ... Yn+1)T ∈ IRn y η = (µ ||µn|| 0T)T. Note que ||Y|| = ||X|| y ||Y2|| = ||X2||, con lo
cual T = Y1/√||Y2||2/n. Ası,
gY(Y) = f((Y − η)T (Y − η)) = f
(n+1∑
i=1
y2i + ‖µn‖2 + µ2 − 2µ Y1 − 2‖µn‖ Y2
).
Considere la transformacion de coordenadas esfericas generalizadas dada por (Y2 . . . Yn+1) −→
141
142 BIBLIOGRAPHY
(r φ1 . . . φn−2 θ) = (r φ θ), cuyo jacobiano es rn−1
n−2∏
j=1
senn−j−1 φj
, de manera que
gy1,r,θ
(Y1, r φ θ) = f(y2
1 + r2 + ‖µn‖2 + µ2 − 2µ Y1 − 2‖µn‖ cos φ1
)rn−1
n−2∏
j=1
senn−j−1 φj
.
Entonces, la densidad de (Y1 r) es
gy1,r(Y1, r) =2rn−1 π
n−22
Γ(
n−22
)π∫
0
f(y2
1 + r2 + δ2 + γ2 − 2γ r cos φ1 − 2δ y1
)senn−2 φ1 d φ1,
con r > 0, δ = µ y γ = ‖µn‖.
Aplicando el cambio de variables v = r y T = Y1/√
r2/n, de modo que |J | = v/n1/2, se
obtiene que
gT,V
(t, v) =2vn−1 π
n−22
Γ(
n−22
)
π∫
0
[f
(v2t2
n− 2δ
t v
n1/2+ δ2 + γ2 − 2 v γ cos φ1 + v2
)senn−2 φ1 dφ1
]v
n1/2;
con v > 0.
Finalmente, la densidad de T es
gT(t) =
2 πn−1
2
n1/2 Γ(n−22
)∞∫
0
vn
π∫
0
f
(1 + t2
nv2 − 2
(δ
n1/2+ γ cos φ1
)v + δ2 + γ2)
)senn−2 φ1 dφ1
dv,
con v > 0, δ = µ y γ = ‖µn‖.