31

Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Variables estadísticas, distribuciones conjuntas,

marginales y condicionales

Mike Wiper

Departamento de Estadística

Universidad Carlos III de Madrid

Grado en Estadística y Empresa

Mike Wiper Métodos bayesianos Estadística y Empresa 1 / 24

Page 2: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Objetivo

Refamiliarizarnos con las variables estadísticas y la ley de la probabilidad total y elteorema de Bayes para variables

Mike Wiper Métodos bayesianos Estadística y Empresa 2 / 24

Page 3: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Variables aleatorias

Una variable aleatoria es una función que ascribe un valor (numérico) al resultadode un experimento.

Mike Wiper Métodos bayesianos Estadística y Empresa 3 / 24

Page 4: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Variables discretas

Para una variable discreta, X , tomando valores x1, x2, ... se de�nen:

La función de probabilidad o masa P(X = x) tal que∑

i P(X = xi ) = 1.

La función de distribución FX (x) tal que:

FX (x) = P(X ≤ x) =∑xi<x

P(X = xi ).

Los momentos: E [g(X )] =∑

i g(xi )P(X = xi ).

Mike Wiper Métodos bayesianos Estadística y Empresa 4 / 24

Page 5: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo: la distribución de Poisson

Una variable discreta, X , sigue una distribución de Poisson con parámetro λ > 0 si

P(X = x) =λxe−λ

x!para x = 0, 1, 2, ...

Se tiene E [X ] = V [X ] = λ.

Mike Wiper Métodos bayesianos Estadística y Empresa 5 / 24

Page 6: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Variables continuas

Para una variable continua, Y , tomando valores x ∈ R, se tiene:

La función de distribución FY (y) tal que:

FY (y) = P(Y ≤ y).

La función de densidad fY (y) = dF (y)dy tal que∫ y

−∞fY (y) dy = FY (y).

Momentos: E [g(Y )] =∫∞−∞ g(y)fY (y) dy .

Mike Wiper Métodos bayesianos Estadística y Empresa 6 / 24

Page 7: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo: la distribución gamma

La variable continua, Y sigue una distribución gamma con parámetros α, β > 0 si

fY (y) =βα

Γ(α)yα−1e−βy para y > 0

donde Γ(·) es la función gamma:

Γ(α) =∫∞0

uα−1e−udu.

Γ(α + 1) = αΓ(α) y Γ(α) = (α− 1)! si α es un número entero.

E [Y ] =α

βV [Y ] =

α

β2.

Mike Wiper Métodos bayesianos Estadística y Empresa 7 / 24

Page 8: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Distribuciones conjuntas

Para dos (o más) variables discretas, la distribución conjunta es la funciónP(X = x ,Y = y) tal que

∑x

∑y

P(X = x ,Y = y) = 1,

∑x

P(X = x ,Y = y) = P(Y = y), la distribución marginal de Y ,∑y

P(X = x ,Y = y) = P(X = x), la distribución marginal de X .

En el caso de variables continuas, sustituimos sus respectivos sumatorios porintegrales.

Mike Wiper Métodos bayesianos Estadística y Empresa 8 / 24

Page 9: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

Sea Y > 0 una variable continua y X ∈ {0, 1, 2, ...,∞} una variable discreta yde�nimos la distribución conjunta de X e Y :

fX ,Y (x , y) =βα

Γ(α)

yα+x−1e−(β+1)y

x!, donde α, β > 0.

¾Cómo sabemos que es una distribución válida?

¾Es no negativa? X

Si sumamos sobre x e integramos sobre y , tiene que dar 1.

Mike Wiper Métodos bayesianos Estadística y Empresa 9 / 24

Page 10: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

Sea Y > 0 una variable continua y X ∈ {0, 1, 2, ...,∞} una variable discreta yde�nimos la distribución conjunta de X e Y :

fX ,Y (x , y) =βα

Γ(α)

yα+x−1e−(β+1)y

x!, donde α, β > 0.

¾Cómo sabemos que es una distribución válida?

¾Es no negativa? X

Si sumamos sobre x e integramos sobre y , tiene que dar 1.

Mike Wiper Métodos bayesianos Estadística y Empresa 9 / 24

Page 11: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Distribuciones condicionales

La distribución condicional de una variable (discreta) X dada otra variable(discreta) Y es:

P(X = x |Y = y) =P(X = x ,Y = y)

P(Y = y),

suponiendo que P(Y = y) > 0.

La esperanza condicional de una función g(x , y) es

E [g(x , y)|Y = y ] =∑x

g(x , y)P(X = x |Y = y).

Mike Wiper Métodos bayesianos Estadística y Empresa 10 / 24

Page 12: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

Sea Y ∼ Gamma(α, β) y X |Y = y ∼ Poisson(y). Luego, por la ley de lamultiplicación:

fX ,Y (x , y) = P(X = x |Y = y)fY (y)

=y xe−y

x!

βα

Γ(α)yα−1e−βy

=βα

Γ(α)

yα+x−1e−(β+1)y

x!,

nuestra distribución conjunta anterior.

Mike Wiper Métodos bayesianos Estadística y Empresa 11 / 24

Page 13: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

La media y varianza marginal

Supongamos que en nuestro ejemplo, queremos calcular E [X ] y V [X ].

Suena complicado porqué en principio, tendríamos que evaluar la distribuciónmarginal de X primero o computar a través de la distribución conjunta. Porejemplo:

E [X ] =∑x

∫ ∞∞

xfX ,Y (x , y) dy .

¾Existe una manera más fácil de hacer el cálculo?

Mike Wiper Métodos bayesianos Estadística y Empresa 12 / 24

Page 14: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

La ley de las esperanzas iteradas

Para dos variables X e Y , la ley de las esperanzas iteradas dice que

E [X ] = E [E [X |Y ]].

Demostración

Existe otra descomposición semejante para la varianza:

V [X ] = E [V [X |Y ]] + V [E [X |Y ]].

Demostración

Mike Wiper Métodos bayesianos Estadística y Empresa 13 / 24

Page 15: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

Sea X |Y = y ∼ Poisson(y) con Y ∼ Gamma(α, β). Calculamos la media yvarianza de X .

E [X ] = E [E [X |Y ]]

= E [Y ] ¾Por qué?

β

V [X ] = E [V [X |Y ]] + V [E [X |Y ]]

= E [Y ] + V [Y ]

β+

α

β2

=α(1 + β)

β2

Mike Wiper Métodos bayesianos Estadística y Empresa 14 / 24

Page 16: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

Sea X |Y = y ∼ Poisson(y) con Y ∼ Gamma(α, β). Calculamos la media yvarianza de X .

E [X ] = E [E [X |Y ]]

= E [Y ] ¾Por qué?

β

V [X ] = E [V [X |Y ]] + V [E [X |Y ]]

= E [Y ] + V [Y ]

β+

α

β2

=α(1 + β)

β2

Mike Wiper Métodos bayesianos Estadística y Empresa 14 / 24

Page 17: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

Sea X |Y = y ∼ Poisson(y) con Y ∼ Gamma(α, β). Calculamos la media yvarianza de X .

E [X ] = E [E [X |Y ]]

= E [Y ] ¾Por qué?

β

V [X ] = E [V [X |Y ]] + V [E [X |Y ]]

= E [Y ] + V [Y ]

β+

α

β2

=α(1 + β)

β2

Mike Wiper Métodos bayesianos Estadística y Empresa 14 / 24

Page 18: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

Sea X |Y = y ∼ Poisson(y) con Y ∼ Gamma(α, β). Calculamos la media yvarianza de X .

E [X ] = E [E [X |Y ]]

= E [Y ] ¾Por qué?

β

V [X ] = E [V [X |Y ]] + V [E [X |Y ]]

= E [Y ] + V [Y ]

β+

α

β2

=α(1 + β)

β2

Mike Wiper Métodos bayesianos Estadística y Empresa 14 / 24

Page 19: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

La ley de la probabilidad total para variables

P(X = x) =∑y

P(X = x |Y = y)P(Y = y) si Y es discreta,

P(X = x) =

∫ ∞−∞

P(X = x |Y = y)fY (y) dx si Y es continua.

El segundo caso es más interesante en la mayoría de aplicaciones.

Mike Wiper Métodos bayesianos Estadística y Empresa 15 / 24

Page 20: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

Sea X |Y ∼ Poisson(Y ) con Y ∼ Gamma(α, β). Calculamos la distribuciónmarginal de X .

P(X = x) =

∫P(X = x |Y = y)fY (y) dy

=

∫ ∞0

y xe−y

x!

βα

Γ(α)yα−1e−βy dy

=βα

Γ(α)x!

∫ ∞0

yα+x−1e−(β+1)y dy

¾El integrando parece a una fórmula que hemos visto?

Mike Wiper Métodos bayesianos Estadística y Empresa 16 / 24

Page 21: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

P(X = x) =βα

Γ(α)x!

∫ ∞0

yα∗−1e−β

∗y dy

donde α∗ = α + x , β∗ = β + 1.

El integrando es otra distribución gamma sin su constante de integración.

P(X = x) =βα

Γ(α)x!

Γ(α∗)

β∗α∗

∫ ∞0

β∗α∗

Γ(α∗)xα

∗−1e−β∗x dy

=Γ(α∗)

Γ(α)x!

βα

β∗α∗

=Γ(α + x)

Γ(α)x!

(1− 1

β + 1

)α1

β + 1

x

para x = 0, 1, 2, ...

que es una distribución binomial negativa. DBN

Mike Wiper Métodos bayesianos Estadística y Empresa 17 / 24

Page 22: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

P(X = x) =βα

Γ(α)x!

∫ ∞0

yα∗−1e−β

∗y dy

donde α∗ = α + x , β∗ = β + 1.

El integrando es otra distribución gamma sin su constante de integración.

P(X = x) =βα

Γ(α)x!

Γ(α∗)

β∗α∗

∫ ∞0

β∗α∗

Γ(α∗)xα

∗−1e−β∗x dy

=Γ(α∗)

Γ(α)x!

βα

β∗α∗

=Γ(α + x)

Γ(α)x!

(1− 1

β + 1

)α1

β + 1

x

para x = 0, 1, 2, ...

que es una distribución binomial negativa. DBN

Mike Wiper Métodos bayesianos Estadística y Empresa 17 / 24

Page 23: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

P(X = x) =βα

Γ(α)x!

∫ ∞0

yα∗−1e−β

∗y dy

donde α∗ = α + x , β∗ = β + 1.

El integrando es otra distribución gamma sin su constante de integración.

P(X = x) =βα

Γ(α)x!

Γ(α∗)

β∗α∗

∫ ∞0

β∗α∗

Γ(α∗)xα

∗−1e−β∗x dy

=Γ(α∗)

Γ(α)x!

βα

β∗α∗

=Γ(α + x)

Γ(α)x!

(1− 1

β + 1

)α1

β + 1

x

para x = 0, 1, 2, ...

que es una distribución binomial negativa. DBN

Mike Wiper Métodos bayesianos Estadística y Empresa 17 / 24

Page 24: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

El teorema de Bayes para variables

P(Y = y |X = x) =P(X = x |Y = y)P(Y = y)

P(X = x)

=P(X = x |Y = y)P(Y = y)∑i P(X = x |Y = yi )P(Y = yi )

fY |X (y |X = x) =P(X = x |Y = y)fY (Y = y)

P(X = x)

=P(X = x |Y = y)fY (Y = y)∫∞−∞ P(X = x |Y = y)fY (y) dy

Mike Wiper Métodos bayesianos Estadística y Empresa 18 / 24

Page 25: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

En nuestro ejemplo:

fY |X (y |x) =P(X = x |Y = y)fY (Y = y)

P(X = x)

=

y xe−y

x!βα

Γ(α)yα−1e−βy

Γ(α+x)Γ(α)x!

(1− β

β+1

)xββ+1

α

=(β + 1)α+x

Γ(α + x)yα+x−1e−(β+1)y

¾Qué distribución es?

Y |X = x ∼ Gamma(α + x , β + 1).

Mike Wiper Métodos bayesianos Estadística y Empresa 19 / 24

Page 26: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Ejemplo

En nuestro ejemplo:

fY |X (y |x) =P(X = x |Y = y)fY (Y = y)

P(X = x)

=

y xe−y

x!βα

Γ(α)yα−1e−βy

Γ(α+x)Γ(α)x!

(1− β

β+1

)xββ+1

α

=(β + 1)α+x

Γ(α + x)yα+x−1e−(β+1)y

¾Qué distribución es?

Y |X = x ∼ Gamma(α + x , β + 1).

Mike Wiper Métodos bayesianos Estadística y Empresa 19 / 24

Page 27: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Resumen y siguiente sesión

En esta sección hemos repasado algunos de los cálculos necesarios para evaluardistribuciones conjuntas, condicionales y marginales.

En la siguiente sesión vamos a recordar las características de la inferenciafrecuentista.

Mike Wiper Métodos bayesianos Estadística y Empresa 20 / 24

Page 28: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Apéndice: demostración de la ley de esperanzas

iteradas

Supongamos que X e Y son continuas. Entonces:

E [X ] =

∫xfX (x) dx

=

∫x

∫fX ,Y (x , y) dy dx

=

∫ ∫xfX |Y (x |y)fY (y) dy dx

=

∫ {∫xfX |Y (x |y) dx

}fY (y) dy

=

∫E [X |Y = y ]fY (y) dy

= E [E [X |Y ]]

Mike Wiper Métodos bayesianos Estadística y Empresa 21 / 24

Page 29: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Apéndice: demostración de descomposición de la

varianza

Supongamos que X e Y son continuas. Entonces:

V [X ] =

∫(x − E [X ])2fX (x) dx

=

∫ ∫(x − E [X ])2fX |Y (x |y)fY (y) dy dx

=

∫ {∫(x − E [X |y ] + E [X |y ]− E [X ])2fX |Y (x |y) dx

}fY (y) dy

=

∫ {∫(x − E [X |y ])2fX |Y (x |y) dx

}f (y) dy

+2

∫ {∫(x − E [X |y ])(E [X |y ]− E [X ])fX |Y (x |y) dx

}fY (y) dy

+

∫ {∫(E [X |y ]− E [X ])2fX |Y (x |y) dx

}fY (y) dy

Mike Wiper Métodos bayesianos Estadística y Empresa 22 / 24

Page 30: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

V [X ] =

∫V [X |y ]fY (y) dy +

2

∫(E [X |y ]− E [X ])

{∫(x − E [X |y ])fX |Y (x |y) dx

}fY (y) dy +∫

(E [X |y ]− E [X ])2fY (y) dy

= E [V [X |Y ]] + 0 +

∫(E [X |y ]− E [E [X |Y ]])2fY (y) dy

= E [V [X |Y ]] + V [E [X |Y ]]

Mike Wiper Métodos bayesianos Estadística y Empresa 23 / 24

Page 31: Variables estadísticas, distribuciones conjuntas, marginales ...halweb.uc3m.es/esp/Personal/personas/mwiper/docencia...Los momentos : E[g(X)] = P i g(x i)P(X = x i). Mike Wiper Métodos

Apéndice: la distribución binomial negativa

Una variable discreta, X , sigue una distribución binomial negativa con parámetrosr > 0 y 0 < p < 1 si:

P(X = x) =Γ(r + x)

Γ(r)x!(1− p)rpx para x = 0, 1, 2, ...

Cuando r ∈ {0, 1, 2, ...} se tiene:

P(X = x) =

(x + r − 1

x

)(1− p)rpx .

Se tiene E [X ] = r p1−p y V [X ] = r p

(1−p)2 .

Mike Wiper Métodos bayesianos Estadística y Empresa 24 / 24