19
Parte 2 Estimación puntual Prof. María B. Pintarelli 134 8- Estimación puntual 8. 1 Introducción Supongamos la siguiente situación: en una fábrica se producen artículos, el interés está en la produc- ción de un día, específicamente, de todos los artículos producidos en un día nos interesa una caracte- rística determinada, si el artículo es o no defectuoso. Sea p la proporción de artículos defectuosos en la población, es decir en la producción de un día. Tomamos una muestra de 25 artículos, podemos definir la v.a. X: “número de artículos defectuosos en la muestra”, y podemos asumir que ) , 25 ( ~ p B X . En Probabilidades se conocían todos los datos sobre la v.a. X, es decir conocíamos p. De esa forma podíamos responder preguntas como: ¿cuál es la probabilidad que entre los 25 artículos halla 5 de- fectuosos?. Si, por ejemplo, 1 . 0 p entonces calculábamos ) 5 ( X P donde ) 1 . 0 , 25 ( ~ B X . En Estadística desconocemos las características de X total o parcialmente, y a partir de la muestra de 25 artículos tratamos de inferir información sobre la distribución de X, o dicho de otra forma tra- tamos de inferir información sobre la población. Por ejemplo, en estadística sabremos que X tiene distribución binomial pero desconocemos p, y a partir de la muestra de 25 artículos trataremos de hallar información sobre p. En Estadística nos haremos preguntas tales como: si en la muestra de 25 artículos se encontraron 5 defectuosos, ¿ese hecho me permite inferir que el verdadero p es 0.1?. El campo de la inferencia estadística está formado por los métodos utilizados para tomar decisiones o para obtener conclusiones sobre el o los parámetros de una población. Estos métodos utilizan la información contenida en una muestra de la población para obtener conclusiones. La inferencia estadística puede dividirse en dos grandes áreas: estimación de parámetros y pruebas de hipótesis. 8.2 Muestreo aleatorio En muchos problemas estadísticos es necesario utilizar una muestra de observaciones tomadas de la población de interés con objeto de obtener conclusiones sobre ella. A continuación se presenta la definición de algunos términos En muchos problemas de inferencia estadística es poco práctico o imposible, observar toda la pobla- ción, en ese caso se toma una parte o subconjunto de la población Para que las inferencias sean válidas, la muestra debe ser representativa de la población. Se seleccio- na una muestra aleatoria como el resultado de un mecanismo aleatorio. En consecuencia, la selección de una muestra es un experimento aleatorio, y cada observación de la muestra es el valor observado de una variable aleatoria. Las observaciones en la población determinan la distribución de probabili- dad de la variable aleatoria. Para definir muestra aleatoria, sea X la v.a. que representa el resultado de tomar una observación de la población. Sea ) ( x f la f.d.p. de la v.a. X. supongamos que cada observación en la muestra se ob- Una población está formada por la totalidad de las observaciones en las cuales se tiene cierto interés Una muestra es un subconjunto de observaciones seleccionada de una población

8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

Page 1: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

134

8- Estimación puntual

8. 1 – Introducción

Supongamos la siguiente situación: en una fábrica se producen artículos, el interés está en la produc-

ción de un día, específicamente, de todos los artículos producidos en un día nos interesa una caracte-

rística determinada, si el artículo es o no defectuoso. Sea p la proporción de artículos defectuosos en

la población, es decir en la producción de un día.

Tomamos una muestra de 25 artículos, podemos definir la v.a. X: “número de artículos defectuosos

en la muestra”, y podemos asumir que ),25(~ pBX .

En Probabilidades se conocían todos los datos sobre la v.a. X, es decir conocíamos p. De esa forma

podíamos responder preguntas como: ¿cuál es la probabilidad que entre los 25 artículos halla 5 de-

fectuosos?. Si, por ejemplo, 1.0p entonces calculábamos )5( XP donde )1.0 ,25(~ BX .

En Estadística desconocemos las características de X total o parcialmente, y a partir de la muestra

de 25 artículos tratamos de inferir información sobre la distribución de X, o dicho de otra forma tra-

tamos de inferir información sobre la población.

Por ejemplo, en estadística sabremos que X tiene distribución binomial pero desconocemos p, y a

partir de la muestra de 25 artículos trataremos de hallar información sobre p.

En Estadística nos haremos preguntas tales como: si en la muestra de 25 artículos se encontraron 5

defectuosos, ¿ese hecho me permite inferir que el verdadero p es 0.1?.

El campo de la inferencia estadística está formado por los métodos utilizados para tomar decisiones

o para obtener conclusiones sobre el o los parámetros de una población. Estos métodos utilizan la

información contenida en una muestra de la población para obtener conclusiones.

La inferencia estadística puede dividirse en dos grandes áreas: estimación de parámetros y pruebas

de hipótesis.

8.2 – Muestreo aleatorio

En muchos problemas estadísticos es necesario utilizar una muestra de observaciones tomadas de la

población de interés con objeto de obtener conclusiones sobre ella. A continuación se presenta la

definición de algunos términos

En muchos problemas de inferencia estadística es poco práctico o imposible, observar toda la pobla-

ción, en ese caso se toma una parte o subconjunto de la población

Para que las inferencias sean válidas, la muestra debe ser representativa de la población. Se seleccio-

na una muestra aleatoria como el resultado de un mecanismo aleatorio. En consecuencia, la selección

de una muestra es un experimento aleatorio, y cada observación de la muestra es el valor observado

de una variable aleatoria. Las observaciones en la población determinan la distribución de probabili-

dad de la variable aleatoria.

Para definir muestra aleatoria, sea X la v.a. que representa el resultado de tomar una observación de

la población. Sea )(xf la f.d.p. de la v.a. X. supongamos que cada observación en la muestra se ob-

Una población está formada por la totalidad de las observaciones en las cuales se tiene cierto

interés

Una muestra es un subconjunto de observaciones seleccionada de una población

Page 2: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

135

tiene de manera independiente, bajo las mismas condiciones. Es decir, las observaciones de la mues-

tra se obtienen al observar X de manera independiente bajo condiciones que no cambian, digamos n

veces.

Sea iX la variable aleatoria que representa la i-ésima observación. Entonces nXXX ,...,, 21 constitu-

yen una muestra aleatoria, donde los valores numéricos obtenidos son nxxx ,...,, 21 . Las variables

aleatorias en una muestra aleatoria son independientes, con la misma distribución de probabilidad

f(x) debido a que cada observación se obtiene bajo las mismas condiciones. Es decir las funciones de

densidad marginales de nXXX ,...,, 21 son todas iguales a f(x) y por independencia, la distribución de

probabilidad conjunta de la muestra aleatoria es el producto de las marginales )()...()( 21 nxfxfxf

El propósito de tomar una muestra aleatoria es obtener información sobre los parámetros desconoci-

dos de la población. Por ejemplo, se desea alcanzar una conclusión acerca de la proporción de artícu-

los defectuosos en la producción diaria de una fábrica. Sea p la proporción de artículos defectuosos

en la población, para hacer una inferencia con respecto a p, se selecciona una muestra aleatoria (de

un tamaño apropiado) y se utiliza la proporción observada de artículos defectuosos en la muestra

para estimar p.

La proporción de la muestra p se calcula dividiendo el número de artículos defectuosos en la mues-

tra por el número total de artículos de la muestra. Entonces p es una función de los valores observa-

dos en la muestra aleatoria. Como es posible obtener muchas muestras aleatorias de una población,

el valor de p cambiará de una a otra. Es decir p es una variable aleatoria. Esta variable aleatoria se

conoce como estadístico.

Estadísticos usuales

Sea nXXX ,...,, 21 una muestra aleatoria de una v.a. X donde )(XE y 2)( XV

Si desconocemos un estadístico que se utiliza para estimar ese parámetro es la media o promedio

muestral

n

i

iXn

X1

1

Análogamente si se desconoce 2 un estadístico usado para tener alguna información sobre ese pa-

rámetro es la varianza muestral que se define como

n

i

i XXn

S1

22

1

1

Otro estadístico es la desviación estándar muestral

n

i

i XXn

S1

2

1

1

Como un estadístico es una variable aleatoria, éste tiene una distribución de probabilidad, esperanza

y varianza.

Una aplicación de los estadísticos es obtener estimaciones puntuales de los parámetros desconoci-

dos de una distribución. Por ejemplo como se dijo antes se suelen estimar la media y la varianza de

una población.

Las variables aleatorias nXXX ,...,, 21 constituyen una muestra aleatoria de tamaño n de una

v.a. X si nXXX ,...,, 21 son independientes idénticamente distribuidas

Un estadístico es cualquier función de la muestra aleatoria

Page 3: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

136

Cuando un estadístico se utiliza para estimar un parámetro desconocido se lo llama estimador pun-

tual. Es habitual simbolizar en forma genérica a un parámetro con la letra y al estadístico que se

utiliza como estimador puntual de , simbolizarlo con .

Por lo tanto es una función de la muestra aleatoria: nXXXh ,...,,ˆ21

Al medir la muestra aleatoria se obtienen nxxx ,...,, 21 , y entonces el valor que toma es

nxxxh ,...,,ˆ21 y se denomina estimación puntual de

El objetivo de la estimación puntual es seleccionar un número, a partir de los valores de la muestra,

que sea el valor más probable de .

Por ejemplo, supongamos que 4321 ,,, XXXX es una muestra aleatoria de una v.a. X. Sabemos que X

tiene distribución normal pero desconocemos .

Tomamos como estimador de al promedio muestral X , es decir X

Tomamos la muestra (medimos 4321 ,,, XXXX ) y obtenemos 32 ,27 ,30 ,24 4321 xxxx

Entonces la estimación puntual de es 25.284

32273024

x

Si la varianza 2 de X también es desconocida, un estimador puntual usual de 2 es la varianza

muestral, es decir

n

i

i XXn

S1

22

1

1, para la muestra dada la estimación de 2 es 12.25.

Otro parámetro que a menudo es necesario estimar es la proporción p de objetos de una población

que cumplen una determinada característica.

En este caso el estimador puntual de p sería

n

i

iXn

p1

1ˆ donde

contrariocaso0

interés deticacaracteríslatienenobservacióésimaílasi1

X i ni ,...,2,1

Por lo tanto

n

i

iXn

p1

1ˆ es la proporción de objetos en la muestra cumplen la característica de inte-

rés

Puede ocurrir que se tenga más de un estimador para un parámetro, por ejemplo para estimar la me-

dia muestral se pueden considerar el promedio muestral, o también la semisuma entre 1X y nX , es

decir 2

ˆ 1 nXX . En estos casos necesitamos de algún criterio para decidir cuál es mejor estima-

dor de .

8.3 – Criterios para evaluar estimadores puntuales

Lo que se desea de un estimador puntual es que tome valores “próximos” al verdadero parámetro.

Podemos exigir que el estimador tenga una distribución cuya media sea .

Se dice que el estimador puntual es un estimador insesgado del parámetro si E

cualquiera sea el valor verdadero de

La diferencia E se conoce como sesgo de estimador . Anotamos ˆˆ Eb

Page 4: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

137

Notar que si un estimador es insesgado entonces su sesgo es cero

Ejemplos:

1- Sea nXXX ,...,, 21 una muestra aleatoria de una v.a. X donde )(XE y 2)( XV

Si desconocemos un estadístico que se utiliza usualmente para estimar este parámetro es la media

o promedio muestral

n

i

iXn

X1

1. Veamos si es un estimador insesgado de . Debemos ver si

XE .

Usamos las propiedades de la esperanza, particularmente la propiedad de linealidad.

n

i

i

n

i

i

n

i

i XEn

XEn

Xn

EXE111

111.

Pero, tratándose de las componentes de una muestra aleatoria es:

n,...,,iμXEXE i 21 . Luego:

.μμnn

XE 1

2- Sea X una variable aleatoria asociada con alguna característica de los individuos de una población

y sean μXE y 2σXV . Sea 2

1

2

1

1

n

i

i XXn

S la varianza muestral (con

n/XXn

i

i

1

la esperanza muestral) para una muestra aleatoria de tamaño n, nX,...,X,X 21 .

Entonces 22 σSE es decir 2

1

2

1

1

n

i

i XXn

S es un estimador insesgado de 2σXV

pues:

2

1

2

1

2

1

1

1

1 n

i

i

n

i

i XXEn

XXn

ESE .

Reescribiremos la suma de una forma más conveniente. Sumamos y restamos μ y desarrollamos el

cuadrado:

2

1

2

1

2

1

n

i

i

n

i

i

n

i

i XXXXXX

n

iii XXXX

1

222

2

11

22 XnXXX

n

i

i

n

i

i

21

22 XnXnXX

n

ii

22

1

22 XμnXμnμX

n

i

i

.

Esto es:

Page 5: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

138

21

2

2

1

XμnμXXXn

i

i

n

i

i

Entonces:

2

1

2

2

1

2

1

1

1

1XnXE

nXXE

nSE

n

i

i

n

i

i

2

1

2

1

1 XnEXE

n

n

i

i

XnVXVn

XEXnEXVn

n

i

i

n

i

i

1

2

1 1

1

1

1

nnn

n

22

1

1 ,

donde en la última igualdad tuvimos en cuenta que n,...,,iσXVXV i 212 y que

n

σXV

2

. Luego llegamos a lo que se deseaba demostrar: 22 σSE .

3- Supongamos que tomamos como estimador de 2 a 2

1

2 1ˆ

n

i

i XXn

Entonces notar que podemos escribir

21

2

2

1

2 1

1

11ˆ S

n

n

n

XX

n

nXX

n

n

i

in

i

i

Por lo tanto 22222 111ˆ

n

nSE

n

nS

n

nEE

Es decir 2 no es un estimador insesgado de 2 , es sesgado, y su sesgo es

222222 11ˆˆ

nn

nEb

Como el sesgo es negativo el estimador tiende a subestimar el valor de verdadero parámetro

En ocasiones hay más de un estimador insesgado de un parámetro

Por lo tanto necesitamos un método para seleccionar un estimador entre varios estimadores insesga-

dos.

Varianza y error cuadrático medio de un estimador puntual

Supongamos que 1 y 2 son dos estimadores insegados de un parámetro . Esto indica que la

distribución de cada estimador está centrada en el verdadero parámetro . Sin embargo las varianzas

de estas distribuciones pueden ser diferentes. La figura siguiente ilustra este hecho.

Page 6: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

139

-15 -10 -5 5 10 15

0.1

0.2

0.3

0.4

Como 1 tiene menor varianza que 2 , entonces es más probable que el estimador 1 produzca

una estimación más cercana al verdadero valor de . Por lo tanto si tenemos dos estimadores inses-

gados se seleccionará aquel que tenga menor varianza.

Ejemplo: Sea nXXX ,...,, 21 una muestra aleatoria de una v.a. X donde )(XE y 2)( XV

Suponemos desconocido.

Estimamos al parámetro con la media o promedio muestral

n

i

iXn

X1

1. Sabemos que es un

estimador insesgado de . Anotamos

n

i

iXn

X1

1

1

Supongamos que tomamos otro estimador para , lo anotamos 2

ˆ 12

nXX

Entonces como

2

2

1

2

1

2

1

211

2 XEXEXX

EE n ,

2ˆ 1

2nXX

es también un estimador insesgado de

¿Cuál de los dos estimadores es mejor?

Calculamos la varianza de cada uno utilizando las propiedades de la varianza.

Ya sabemos cuál es la varianza de

n

i

iXn

X1

1 (se la halló para T.C.L.):

XV ,XVn

XVn

Xn

Vn

i

i

n

i

i

n

i

i

12

12

1

111

donde en la última igualdad hemos tenido en cuenta que, por tratarse de una muestra aleatoria, las

iX con i=1,2,…,n son variables aleatorias independientes y, en consecuencia, la varianza de la suma

de ellas es la suma de las varianzas. Si tenemos en cuenta que además todas tienen la misma distri-

bución que X y por lo tanto la misma varianza:

n,...,,iσXVXV i 212 , tenemos

XV .n

σσn

n

22

2

1

Análogamente calculamos la varianza de 2

ˆ 12

nXX :

Distribución de 1

Distribución de 2

Page 7: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

140

24

1)()(

4

1

222

211

2

XVXV

XXVV n

Vemos que si 2n entonces )ˆ()ˆ( 21 VV . Por lo tanto si 2n es mejor estimador 1

Supongamos ahora que 1 y 2 son dos estimadores de un parámetro y alguno de ellos no es

insesgado.

A veces es necesario utilizar un estimador sesgado. En esos casos puede ser importante el error cua-

drático medio del estimador.

El error cuadrático medio puede escribirse de la siguiente forma:

2ˆˆˆ bVECM

Dem.) Por definición

2ˆˆ EECM . Sumamos y restamos el número E :

2ˆˆˆˆ EEEECM , y desarrollamos el cuadrado:

ˆˆˆ2ˆˆˆˆˆˆˆ

222

EEEEEEEEECM

Aplicamos propiedades de la esperanza:

20ˆ

2

ˆ

2ˆˆˆˆˆ2ˆˆˆ

2

bVEEEEEE

bV

El error cuadrático medio es un criterio importante para comparar estimadores.

Si la eficiencia relativa es menor que 1 entonces 1 tiene menor error cuadrático medio que 2

Por lo tanto 1 es más eficiente que 2

Observaciones:

1- Si es un estimador insesgado de , entonces ˆˆ VECM

El error cuadrático medio de un estimador de un parámetro está definido como

2ˆˆ EECM

Si 1 y 2 son dos estimadores de un parámetro .

La eficiencia relativa de 2 con respecto a 1 se define como 2

1

ˆ

ˆ

ECM

ECM

Page 8: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

141

2- A veces es preferible utilizar estimadores sesgados que estimadores insesgados, si es que tienen

un error cuadrático medio menor.

En el error cuadrático medio se consideran tanto la varianza como el sesgo del estimador.

Si 1 y 2 son dos estimadores de un parámetro , tales que 1ˆE ; 2

ˆE y

12ˆˆ VV , habría que calcular el error cuadrático medio de cada uno, y tomar el que tenga me-

nor error cuadrático medio. Pues puede ocurrir que 2 , aunque sea sesgado, al tener menor varianza

tome valores mas cercanos al verdadero parámetro que 1

-7.5 -5 -2.5 2.5 5 7.5

0.1

0.2

0.3

0.4

Ejemplo:

Supóngase que 1 , 2 y 3 son dos estimadores de un parámetro , y que

;ˆˆ21 EE 3

ˆE , 10)ˆ( 1 V , 6)ˆ( 2 V y 4ˆ2

3

E . Haga una comparación

de estos estimadores. ¿Cuál prefiere y por qué?

Solución: Calculamos el error cuadrático medio de cada estimador

10ˆˆ11 VECM pues 1 es insesgado

6ˆˆ22 VECM pues 2 es insesgado

4ˆˆ2

33

EECM es dato

En consecuencia 3 es el mejor estimador de los tres dados porque tiene menor error cuadrático

medio.

Consistencia de estimadores puntuales

Observación:

Distribución de 1

Distribución de 2

Sea n un estimador del parámetro , basado en una muestra aleatoria nX,...,X,X 21 de tama-

ño n. Se dice que n es un estimador consistente de si

0ˆlim

nn

P para todo 0ε

Page 9: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

142

Este tipo de convergencia, que involucra a una sucesión de variables aleatorias, se llama convergen-

cia en probabilidad y es la misma que consideramos en relación a la ley de los grandes números

Suele escribirse también P

n .

Este tipo de convergencia debe distinguirse de la considerada en relación al teorema central del lími-

te. En este último caso teníamos una sucesión de distribuciones: zZPzF nZ n y se considera

el límite zzZPlimzFlim nn

Zn n

.

Se habla, entonces, de convergencia en distribución y suele indicarse ZZd

n 10,N .

Teorema. Sea n un estimador del parámetro basado en una muestra aleatoria nX,...,X,X 21 .

Si

nn

E ˆlim y 0ˆlim

nn

V , entonces n es un estimador consistente de .

Dem.)

Utilizamos la desigualdad de Chebyshev 0ε :

2

222

2

ˆˆ1ˆ1ˆˆ

nnnn

n bVECME

P

Entonces, al tomar el límite n

lim y teniendo presente que

nn

E ˆlim y 0ˆlim

nn

V , vemos que

0ˆlim

nn

P 0ε , es decir n es un estimador convergente de .

Ejemplo:

Sea X una variable aleatoria que describe alguna característica numérica de los individuos de una

población y sean XEμ y XVσ 2 la esperanza poblacional y la varianza poblacional, res-

pectivamente. Sea

n

i

iXn

X1

1 la esperanza muestral basada en una muestra aleatoria

nX,...,X,X 21 . Entonces X es un estimador consistente de la esperanza poblacional XEμ .

Sabemos que

a) XEμXE n

b) n

XV

n

σXV

2

n

La propiedad a) ya me dice que X es un estimador insesgado de XEμ .

Por otra parte si a) vale para todo n, también vale en particular en el límite n :

XEμXElimn

.

Además, de b) deducimos inmediatamente que

0

XVlimn

.

Por lo tanto vemos que X es un estimador consistente de XEμ .

8.4 – Métodos de estimación puntual

Page 10: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

143

Los criterios anteriores establecen propiedades que es deseable que sean verificadas por los estima-

dores. Entre dos estimadores posibles para un dado parámetro poblacional es razonable elegir aquél

que cumple la mayor cantidad de criterios o alguno en particular que se considera importante para el

problema que se esté analizando. Sin embargo estos criterios no nos enseñan por sí mismos a cons-

truir los estimadores. Existen una serie de métodos para construir estimadores los cuales en general

se basan en principios básicos de razonabilidad. Entre éstos podemos mencionar:

- Método de los momentos

- Método de máxima verosimilitud

Método de los momentos

Se puede probar usando la desigualdad de Chebyshev el siguiente resultado:

Definimos los momentos de orden k de una variable aleatoria como:

Xi Rx

i

k

i

k

k xpxXEμ ,...,,k 210 Si X es discreta

dxxfxXEμ kk

k ,...,,k 210 Si X es continua,

y definimos los correspondientes momentos muestrales de orden k como:

n

i

k

ik Xn

M1

1 ,...,,k 210 ,

Entonces la ley débil de los grandes números se puede generalizar:

0lim

kkn

MP ,...,,k 210 .

De acuerdo con esto parece razonable estimar los momentos poblacionales de orden k mediante los

momentos muestrales de orden k: kμ kM ,...,,k 210 .

Ley débil de los grandes números:

Sean nX,...,X,X 21 n variables aleatorias independientes todas las cuales tienen la misma espe-

ranza XEμ y varianza XVσ 2 . Sea

n

i

iXn

X1

1. Entonces

0lim

XPn

Decimos que X converge a μ en probabilidad y lo indicamos: μXp

.

Page 11: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

144

Supongamos, entonces, una variable aleatoria X y supongamos que la distribución de X depende de r

parámetros r ,...,, 21 , esto es la fdp poblacional es rixp ,...,,, 21 si X es discreta o

rxf ,...,,, 21 si es continua. Sean rμ,...,μ,μ 21 los primeros r momentos poblacionales:

Xi Rx

ri

k

i

k

k xpxXE ,...,,, 21 r,...,,k 21 Si X es discreta

dxxfxXE r

kk

k ,...,,, 21 r,...,,k 21 Si X es continua,

y sean

n

i

k

ik Xn

M1

1 r, . . . ,,k 21 los r primeros momentos maestrales para una muestra de tamaño n

nX,...,X,X 21 . Entonces el método de los momentos consiste en plantear el sistema de ecuaciones:

rr Mμ

22

11

Es decir

n

i

r

i

Rx

ri

r

i

n

i

i

Rx

rii

n

i

i

Rx

rii

Xn

xpx

Xn

xpx

Xn

xpx

Xi

Xi

Xi

1

21

1

2

21

2

1

1

21

1,...,,,

1,...,,,

1,...,,,

Si X es discreta,

o

n

i

r

ir

r

n

i

ir

n

i

ir

Xn

dxxfx

Xn

dxxfx

Xn

dxxxf

1

21

1

2

21

2

1

1

21

1,...,,,

1,...,,,

1,...,,,

Si X es continua.

Page 12: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

145

Resolviendo estos sistema de ecuaciones para los parámetros desconocidos r ,...,, 21 en función de

la muestra aleatoria nX,...,X,X 21 obtenemos los estimadores:

nrr

n

n

XXXH

XXXH

XXXH

,...,,ˆ

,...,,ˆ

,...,,ˆ

21

2122

2111

Observación:

En la forma que presentamos aquí el método necesitamos conocer la forma de la fdp poblacional, por

lo tanto estamos frente a un caso de estimación puntual paramétrica.

Ejemplos:

1- Sea X una variable aleatoria. Supongamos que X tiene distribución gama con parámetros σ y λ :

X λ,σ , es decir su fdp está dada por:

valoresdemás

xeσ

x

λσ)x(f

σ

0

01

1

con 0σ ; 0λ y

0

1 dxexλ xλ .

Sea nXXX ,...,, 21 una muestra aleatoria de tamaño n. Deseamos calcular los estimadores de σ y λ

dados por el método de los momentos.

Solución:

Como tenemos dos parámetros desconocidos a estimar, planteamos el sistema de ecuaciones:

22

11

Se puede probar que

σ.λμ 1

222

2 σ.λσ.λμ

Tenemos, entonces, el sistema de ecuaciones

n

i

i

n

i

i

Xn

σ.λσ.λ

Xn

σ.λ

1

2222

1

1

1

n

i

iXn

X

1

2222 1..

.

Page 13: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

146

Reemplazando en la segunda ecuación:

n

i

iXn

XX1

22 1

X

XXn

n

i

i

1

221

Y despejando de la primera ecuación y reemplazando la expresión hallada para

Xn

XX

XX

Xn

n

i

i

n

i

i

1

2

1

2

2

ˆ

ˆ

2- Sea nXXX ,...,, 21 una muestra aleatoria de tamaño n de una v.a. X donde ,0~ UX , des-

conocido. Hallar el estimador de por el método de los momentos.

Solución:

Planteamos la ecuación: 11 M

Sabemos que 22

0)(1

XE . Entonces X

2

X2ˆ

Observación: notar que el estimador X2ˆ es un estimador consistente de , pues

2222ˆ XEXEE y

0312

0442ˆ

22

nnnXVXVV

3- Sea nX,...,X,X 21 una muestra aleatoria de una v.a. X~ ),( 2N .

Encuentra los estimadores de y por el método de momentos.

Solución:

Planteamos las ecuaciones

22

11

n

i

iXn

XE

X

1

22 1

pero en general es válido que 22 )()( XEXV )()( 2 XVXE

Entonces las ecuaciones quedan

n

i

iXn

X

1

222 1

2

1

22 1ˆ

ˆ

XXn

Xn

i

i

4- Sea nX,...,X,X 21 una muestra aleatoria de una v.a. X~ ),0( 2N .

Hallar un estimador por el método de los momentos de 2

Solución: en este caso no es conveniente plantear 11 M pues quedaría

Page 14: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

147

la ecuación X0 que no conduce a nada.

Entonces podemos plantear 22 M es decir

n

i

iXn

XE1

22 1)(

n

i

iXn 1

22 10

n

i

iXn 1

22 1

Observación: si es un estimador por el método de los momentos de un parámetro , el estimador

de los momentos de g es g , si )(xg es una función inyectiva.

Por ejemplo, en el ejemplo anterior un estimador de por el método de los momentos sería

n

i

iXn 1

22 1ˆˆ . Notar que xxg )( es inyectiva para los reales positivos.

Método de máxima verosimilitud

Uno de los mejores métodos para obtener un estimador puntual de un parámetro es el método de

máxima verosimilitud.

La interpretación del método sería: el estimador de máxima verosimilitud es aquel valor del pa-

rámetro que maximiza la probabilidad de ocurrencia de los valores muestrales

La adaptación para el caso en que X es una v.a. continua sería la siguiente

Notación: abreviamos estimador de máxima verosimilitud con EMV

Supongamos que X es una v.a. discreta con función de distribución de probabilidad ),( xp , don-

de es un parámetro desconocido. Sean nxxx ,...,, 21 los valores observados de una muestra alea-

toria de tamaño n.

Se define la función de verosimilitud como la función de distribución conjunta de las observa-

ciones:

),().....,().,()()...()(,,...,, 21221121 nnnn xpxpxpxXPxXPxXPxxxL

Notar que la función de verosimilitud es una función de .

El estimador de máxima verosimilitud de es aquel valor de que maximiza la función de vero-

similitud

Supongamos que X es una v.a. continua con función de densidad de probabilidad ),( xf , donde

es un parámetro desconocido. Sean nxxx ,...,, 21 los valores observados de una muestra aleato-

ria de tamaño n.

Se define la función de verosimilitud como la función de distribución conjunta de las observa-

ciones:

),().....,().,(,,...,, 2121 nn xfxfxfxxxL

La función de verosimilitud es una función de .

El estimador de máxima verosimilitud de es aquel valor de que maximiza la función de vero-

similitud

Page 15: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

148

Ejemplos:

1- Sea nX,...,X,X 21 una muestra aleatoria de una v.a. X~ ),1( pB

Por ejemplo, se eligen al azar n objetos de una línea de producción, y cada uno se clasifica como

defectuoso (en cuyo caso 1ix ) o no defectuoso (en cuyo caso 0ix ).

Entonces )1( iXPp , es decir es la verdadera proporción de objetos defectuosos en la producción

total.

Queremos hallar el EMV de p

Solución:

Si X~ ),1( pB entonces kk pp

kkXP

1)1(

1)( 1,0k

Planteamos la función de verosimilitud

nnxxxxxx

nn pppppppxppxppxppxxxL

111

2121 1...11;...;;;,..,, 2211

Esto puede escribirse:

n

i

i

n

i

ixn

x

n pppxxxL 1

1 1;,...,, 21

Para maximizar la función de verosimilitud y facilitar los cálculos tomamos el logaritmo natural de L

Pues maximizar L es equivalente a maximizar ln(L) y al tomar logaritmos transformamos productos

en sumas.

Entonces

pxnpxpxxxLn

i

i

n

i

in

1lnln;,...,,ln11

21

Y ahora podemos maximizar la función derivando e igualando a cero

01

;,...,,ln 1121

p

xn

p

x

p

pxxxL

n

i

i

n

i

i

n

de donde despejando p

xn

x

p

n

i

i

1 la proporción de defectuosos en la muestra

Por lo tanto se toma como estimador a

n

i

iXn

Xp1

2- El tiempo de fallar T de una componente tiene una distribución exponencial con parámetro :

T Exp , es decir la fdp es

valoresdemás

te

tf

t

0

0

;

Recordemos que la esperanza y varianza son:

Page 16: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

149

1TE y 21

TV , respectivamente.

Se desea calcular el estimador de máxima verosimilitud del parámetro para una muestra de tama-

ño n.

Solución:

La función de probabilidad es:

nttt

nn eeetftftftttL

...;...;;;,...,, 21

2121 ,

que puede escribirse:

n

i

itn

n etttL 1;,...,, 21

Nuevamente tomamos logaritmo natural

n

iin tntttL

121 ln;,...,,ln

01;,...,,ln

1

21

n

ii

n TntttL

de donde podemos despejar :

t

t

nn

i

i

1

, entonces el estimador de es

n

i

iT

n

1

El método de máxima verosimilitud presenta, algunas veces, dificultades para maximizar la función

de verosimilitud debido a que la ecuación obtenida a partir de 0)(

Ld

d no resulta fácil de resol-

ver. O también puede ocurrir que los métodos de cálculo para maximizar )(L no son aplicables.

Por ejemplo:

Sea nXXX ,...,, 21 una muestra aleatoria de tamaño n de una v.a. X donde ,0~ UX , descono-

cido. Hallar el estimador de por el método máxima verosimilitud.

Solución:

La f.d.p. de X es

contrariocaso

xsixf

0

01

)(

Planteamos la función de verosimilitud

contrariocaso

xsi

contrariocaso

ixsixxxL

iinin

n0

max1

0

01

,,..., 21

Page 17: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

150

Si derivamos con respecto a obtenemos 1

n

n n

d

d

que es siempre menor que cero. Por lo

tanto la función de verosimilitud es una función decreciente para todos los ii

xmax

Si hacemos un gráfico de la función de verosimilitud

Vemos que donde la función tiene el máximo hay una discontinuidad no evitable.

Por lo tanto ii

xmaxˆ

El método de máxima verosimilitud puede emplearse en el caso donde hay más de un parámetro

desconocido para estimar. En ese caso la función de verosimilitud es una función de varias variables.

Específicamente si tenemos para estimar k parámetros k ,..., 21 , entonces la función de verosimili-

tud es una función de k variables knxxxL ,...,,,...,, 2121 y los estimadores de máxima verosimili-

tud k ˆ,...ˆ,ˆ

21 se obtienen al plantear ( si existen las derivadas parciales) y resolver el sistema de k

ecuaciones con k incógnitas k ,..., 21

kixxxLd

dkn

i

,..2,10,...,,,...,, 2121

Ejemplo:

La variable aleatoria X tiene distribución 2σ,μN con μ y 2σ ambos parámetros desconocidos para

los cuales se desea encontrar los estimadores máxima verosimilitud. La fdp es

2

2

1

2

2

1

σ

μx

eσπ

σ,μ;xf x ,

La función de verosimilitud para una muestra aleatoria de tamaño n es

2

1

22

2

2

1

2

1

22

2

1

2

1

2

1

2

21

2

2

1...

2

1

2

1,;,...,,

in

i

n

xn

xxx

n

e

eeexxxL

Luego

ii

xmax

)(L

Page 18: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

151

2

1

22

212

12ln

2,;,...,,ln

n

i

in

xnxxxL

y el sistema de ecuaciones de verosimilitud queda:

02

1

2

,;,...,,ln

0,;,...,,ln

14

2

22

2

21

1

2

21

n

i

in

n

i

in

xnxxxL

xxxxL

Resolvemos con respecto a μ y 2σ :

n

i

n

i

ii

n

i

i

xxn

xn

xxn

1 1

222

1

11

1

Entonces los estimadores máxima verosimilitud de μ y 2σ son

n

i

i

n

i

i

XXn

XXn

1

22

1

Propiedades de los estimadores máxima verosimilitud

1- Los EMV pueden ser sesgados, pero en general si es el EMV de un parámetro basado en

una muestra de tamaño n, entonces

)ˆ(lim En

, es decir son asintóticamente insesgados

2- Bajo condiciones bastantes generales se puede probar que los EMV son consistentes

3- Bajo condiciones bastantes generales se puede probar que los EMV asintóticamente tienen va-

rianza mínima

4-Los EMV cumplen la propiedad de invarianza es decir:

si es un EMV de un parámetro , el EMV de g es g , si )(xg es una función inyectiva.

Ejemplos:

1- Si consideramos nuevamente la situación considerada en el Ejemplo 2, donde teníamos una v.a. T

cuya distribución es una exponencial: T Exp , entonces, si queremos el EMV de la varianza po-

blacional, podemos calcularlo recordando que 21

TV , es decir, 21

gTV . Vimos que

TT

nn

i

i

1

. Por lo tanto el EMV de la varianza es 2

2

ˆ

.

2- Sea nXXX ,........,, 21 una muestra aleatoria de una v.a. ),1( pB . Un EMV de p es

n

i

iXn

Xp1

Page 19: 8- Estimación puntualde X también es desconocida, un estimador puntual usual de V2 es la varianza muestral, es decir n1 i X i X n S 1 2 2 1, para la muestra dada la estimación de

Parte 2 – Estimación puntual Prof. María B. Pintarelli

152

Se selecciona una muestra aleatoria de n cascos para ciclistas fabricados por cierta compañía.

Sea X : “ el número entre los n que tienen defectos” , y p = P(el casco tiene defecto).

Supongamos que solo se observa X ( el número de cascos con defectos).

Si n = 20 y x = 3, es la estimación de p es 20

3ˆ p

El E.M.V. de la probabilidad (1-p)5, de que ninguno de los siguientes cinco cascos que se examinen

tenga defectos será 5ˆ1 p y su estimación en este caso

5

20

31