Upload
others
View
6
Download
0
Embed Size (px)
Citation preview
ESTIMACION PUNTUALESTIMACION PUNTUAL
Concepto de muestra y estimador
Propiedades de estimadores
Algunos estimadores importantes
Algunas distribuciones importantes
AutorDr. Hernán Rey
Ultima actualización: Mayo 2009
INFERENCIA ESTADISTICASi se tiene una población y se quiere conocer su distribución de probabilidad o el valor de alguno de sus parámetros sería necesario investigar a toda la población. Como eso no es posible, la inferencia estadística es el proceso por el cual se sacan conclusiones de la población a partir de la información provista por una muestra de la misma.
MUESTRA
ESTIMACION
PUNTUAL INTERVALO DE CONFIANZA
TEST DE HIPOTESIS
MUESTRAUna muestra de tamaño n de una población (asociada a una VA X) está formada por n valores representativos de dicha población.
Como el primer valor obtenido puede tomar cualquier valor dentro del espacio muestral de X, entonces ese primer valor es una VA X1 que tendrá la distribución FX(x).
Para el segundo valor se sigue el mismo razonamiento, generando así la VA X2. Sin embargo, para que este segundo valor sea parte de la muestra, la VA X2 debe ser independiente de X1.
Luego, la muestra es un conjunto de n VAs X1 , X2 , . . ., Xn , i.i.d.
En general, la muestra está descripta poruna densidad conjunta paramétrica, es
decir, queda completamente especificadapor él o los parámetros que se desconocen
1 2 nX ,X ,…,X ;θ 1 2 nf x , x ,…, x
Los posibles valores que puede tomar q están en el espacio paramétrico Wq
Así, el verdadero valor del parámetro poblacional q debe ser un punto en Wq.
ESTIMADORES (o estadísticos)
SON FUNCIONES APLICADAS A LA MUESTRA X1 , X2 ,. . ., Xn
LOS ESTIMADORES SON
VARIABLES ALEATORIAS 1 2
ˆ , , , nX X X
Cuando una muestra específica arroja los valores x ,x ,…,x , da lugar a un
1 2ˆ , , , nx x xq
Cuando una muestra específica arroja los valores x1 ,x2 ,…,xn , da lugar a un
valor particular del estimador:
Este valor estimado será seguramente diferente al valor verdadero del parámetro q. El objetivo es sin embargo, encontrar un estimador (X1,X2,…,Xn)cuyo error, es decir, lo que difiere respecto a q, sea “pequeño”.
A partir de la optimización basada en diversos criterios pueden construirse diferentes estimadores. Estos tendrán asociadas diferentes propiedades y la elección del estimador depende de las propiedades que sean de mayor interés en un problema.
Propiedades de los estimadores
Errorcuadrático
medio
22ˆ ˆ ˆ ˆ
n n n nECM E Var sesq f f
ˆ ˆ 0n nses E q • Insesgado
ˆlim 0nn
E q
• Asintóticamente insesgado
Sólo por serinsesgado no
implica que seaun buen estimador
medio n n n n
ˆ pn q
• Consistente(débil)
Existe un compromisoentre estos dos términos
2
ˆˆ n
n
ECMP q
Usando la cota de Chebyshev, todo estimador satisface:
Si un estimador es insesgado (o asintóticamente insesgado) y su varianza tiende a 0 con n, luego el estimador converge en media cuadrática, y entonces es consistente.
Si un estimador no es asintóticamente insesgadoy su varianza tiende a 0 con n, entonces por más
que se tome una muestra infinita (o sea mirar todala población), el estimador devuelve un resultado
equivocado (es decir que no puede devolver elverdadero valor del parámetro a estimar).
Dentro del conjunto de todos los estimadores insesgados de q, al de qmenor varianza (MVUE), para todo posible valor de q, se lo llama
eficiente. El criterio de Cramer-Rao permite evaluar su existencia.
La eficiencia relativa de un estimador insesgado es el cociente entrela mínima varianza posible y la varianza de . Por ello es siempremenor o igual a 1. Un estimador puede ser también asintóticamenteeficiente.
ˆn
ˆn
LA CALIDAD DE UN ESTIMADOR NO RESIDE EN UN UNICO CRITERIOO PROPIEDAD. A LA HORA DE COMPARAR ESTIMADORES, SUELEPREFERIRSE AQUEL QUE DE LUGAR AL MENOR ECM
EJEMPLO DE ESTIMADOR INSESGADO ˆ 0nE q Gráfico de la esperanza de l estimador (estimador de la media de X), en función de K, el número de experimentos promediados para estimar dicha esperanza.
Xi ~ U(1,3) =2
1 n
iX Xn
0 500 1000 1500
1.8
2
2.2
2.4
E(
)
n=3
=2
2.1
X
PROMEDIO MUESTRAL
1in
( )E X 0 500 1000 15001.95
2
2.05
E(
)
n=100
=2
0 500 1000 15001.985
1.99
1.995
2
2.005
K
E(
)
n=1000
=2
EJEMPLO DE CONSISTENCIA
Gráfico de la varianza del estimador (insesgado) (estimador de la media de X), en función K, número de experimentos promediados para estimar dicha varianza.
Xi ~ U(1,3)Var(X)=(3-1)2/12=1/3
22 ( ) XX
mm
1
1 n
ii
X Xn
0.04
0.06
0.08
0.1
0.12
0.14
m2(X
)
n=3
m2(X raya) teorica=0.11111 2
4
6
8x 10
-3
m2(X
)
n=100
m2(X raya) teorica=0.0033333
X
2 ( ) 0n
Xm
2 ( ) XXn
mm 0 500 1000 1500 2000 2500 3000
0.02
K
0 500 1000 1500 2000 2500 3000
0
K
0 500 1000 1500 2000 2500 30001
2
3
4
5
6x 10
-4
K
m2(X
)
n=1000
m2(X raya) teorica=0.00033333
0 500 1000 1500 2000 2500 30002
4
6
8
10
12x 10
-5
K
m2(X
)
n=10000
m2(X raya) teorica=3.3333e-005 0
nECM X
pX
EJEMPLO DE ASINTOTICAMENTE INSESGADO
1
ˆ max ii n
B X
Se desea estimar el extremo superior de una U(a,b).a conocido
b desconocido
;
1( )X bf x a x b
b a
1
1
ˆ ;
1( )
n
B b
z af z n a z b
b a b a
1
1
1ˆn
b
a
z aE B zn dz
b a b a
1
0
( ) ˆ1 1 1
nb a
n
t a n t n n aE B dt b a a b
n n nb a
t z a
Es sesgado, pero cuanto mayor es n, menor es su sesgo, y tiende a 0 cuando n tiende a infinito.
EJEMPLO DE ASINTOTICAMENTE INSESGADO
ˆlim ( ) 0n
E B b
Xi ~ U(1,3)
Gráfico de la esperanza del estimador (estimador del máximo de una uniforme), en función de K, el número de experimentos promediados para estimar dicha esperanza
B
0 500 1000 1500
2.6
2.8
3
3.2
E(B
pic
o)
n=3
b=3
E(B pico) teorican=3
=2.5
3.02 n=100
1
ˆ max ii n
B X
0 500 1000 15002.96
2.98
3
E(B
pic
o)
n=100
b=3
E(B pico) teorican=100
=2.9802
0 500 1000 15002.997
2.998
2.999
3
3.001
K
E(B
pic
o)
n=1000
b=3
E(B pico) teorican=1000
=2.998
es asintóticamente
insesgado
con n chico tiene un sesgo
importante
OTRO ESTIMADOR PARA LA MEDIA DE UNA U(a,b)
11max min
2
i ii ni n
ab
X XM
Para hallar la distribución del estimador se requiere la distribución conjunta del máximo y mínimo de la muestra (bonus track de la clase de transformaciones)
2
, ; ;
1,
MAX MIN
n
X X a b n
a w bn nf u w u w
w u bb a
a desconocidob desconocido
MAX MIN n w u bb a
Sin embargo, sólo queremos evaluar la media y varianza del estimador.
2
ab
b aE M
INSESGADO
22 6
1 2X
abMn n
mm
No sólo es consistente
sino que tiene igualo menor ECM que
el promedio muestral
2
2
6
1 2abM n
n nX
m
m
Esta mejora respecto al promedio muestrales particular para el caso de la uniforme.
NO es una propiedad general (de hecho, parala media de una VA de familia exponencial,la media de una VA de familia exponencial,
el promedio muestral X raya es elestimador insesgado de mínima varianza)
Gráfico de la esperanza del estimador Mab (estimador de la media de una uniforme entre a y b), en función K, el número de experimentos promediados para estimar dicha esperanza
Xi ~ U(1,3)
0 500 1000 15001.5
2
2.5
E(M
ab)
n=3
=2
2.04
2.06
ab)
n=100
=2
11max min
2
i ii ni n
ab
X XM
0 500 1000 15001.98
2
2.02
E(M
ab
=2
0 500 1000 15001.9985
1.999
1.9995
2
2.0005
K
E(M
ab)
n=1000
=2
( )2
ab
a bE M
Xi ~ U(1,3)
Gráfico de la varianza del estimador Mab (estimador de la media de una uniforme entre a y b), en función K, el número de experimentos promediados para estimar dicha varianza
11max min
2
i ii ni n
ab
X XM
0 1000 2000 30000
0.05
0.1
0.15
0.2
m2(M
ab)
n=3
m2(M
ab) teorica=0.1
0 1000 2000 30000
0.2
0.4
0.6
0.8
1
1.2x 10
-3
m2(M
ab)
n=100
m2(M
ab) teorica=0.00019414
2
2 6 XMm
m
2 ( ) 0ab nMm
pabM
0 1000 2000 30000
K
0 1000 2000 3000
0
K
0 1000 2000 30000
1
2
3
4
5x 10
-6
K
m2(M
ab)
n=1000
m2(M
ab) teorica=1.994e-006
0 1000 2000 30000
1
2
3
4x 10
-8
K
m2(M
ab)
n=10000
m2(M
ab) teorica=1.9994e-008
2 6
1 2X
abMn n
mm
0ab nECM M
1max
2
ii n
b
X aM
Supongamos ahora que sólo desconocemos el extremo superior. Se propone
1 2
2 1 1b
n nE M b a
n n
ASINTOT.
INSESGADO
22
2
3 Xb
nM
mm
En este caso sólo se requiere la distribución del máximo para evaluar el estimador.
2 1
b
b ases M
n
21 2
bMn n
m
2
2
4 2
1 2
Xb
nECM M
n n
m
CONSISTENTE
2
2
2 12ab
nb
M n
M n
m
m
6 1
1.54 2
ab
nb
MSE M n
MSE M n
Este estimador tiene aun menos varianza y ECMque los anteriores, si bien no es insesgado
Xi: U(1,3) 1max
2
ii n
b
X aM
1 2
2 1 1b
n nE M b a
n n
1.6
1.7
1.8
1.9
2
E(M
b)
n=3
E(Mb) teorica
n=3=1.75
=2
1.6
1.7
1.8
1.9
2
E(M
b)
n=10
E(Mb) teorica
n=10=1.9091
=2
0 500 1000 15001.6
K
0 500 1000 1500
1.6
K
0 500 1000 15001.96
1.97
1.98
1.99
2
2.01
K
E(M
b)
n=30
E(Mb) teorica
n=30=1.9677
=2
0 500 1000 15001.9998
1.9999
1.9999
2
2
K
E(M
b)
n=10000
E(Mb) teorica
n=10000=1.9999
=2
Xi: U(1,3) 1max
2
ii n
b
X aM
22
2
3
1 2
Xb
nM
n n
mm
0 1000 2000 30000.01
0.02
0.03
0.04
0.05
0.06
Var(
Mb)
n=3
Var(Mb) teorica
n=3=0.0375
0 1000 2000 30000
0.02
0.04
0.06
0.08
Var(
Mb)
n=10
Var(Mb) teorica
n=10=1.9091
0 1000 2000 3000
K
0 1000 2000 3000
K
0 1000 2000 30000
0.5
1
1.5x 10
-3
K
Var(
Mb)
n=30
Var(Mb) teorica
n=30=1.9677
0 1000 2000 30000
0.5
1
1.5
2
2.5x 10
-8
K
Var(
Mb)
n=10000
Var(Mb) teorica
n=10000=1.9999
Código para análisis de media y varianza de un estimador (en este caso, Mb)
clear allclose allN=[3 10 30 10000]; K=3000;maxvar=3000;maxmean=1500;a=1;b=3;m1=zeros(length(N),K);e=zeros(length(N),K);muest=zeros(length(N),1);varest=zeros(length(N),1);ord=a;pend=b-ord;mutrue=((a+b)/2);vartrue=(((b-a)^2)/12);
figure(1)for n=1:4
subplot(2,2,n)plot(m1(n,1:maxmean),'LineWidth',2.5,'Color','b');hold onplot(muest(n)*ones(1,maxmean),'LineWidth',2.5,'Color','r');hold onplot(mutrue*ones(1,maxmean),'LineWidth',2.5,'Color','k');grid onlegend(['n=',num2str(N(n))],['E(M_b)
teorica_{n=',num2str(N(n)),'}=',num2str(muest(n))],['\mu=',num2str(mutrue)])%,0)
xlabel('K');ylabel('E(M_b)');hold off;vartrue=(((b-a)^2)/12);
for i=1:length(N)muest(i)=(0.5/(N(i)+1))*(N(i)*b+(N(i)+2)*a);varest(i)=3*N(i)*vartrue/((N(i)+1)^2*(N(i)+2));for j=1:K
u1=pend*rand(1,N(i))+ord;esti=(max(u1)+a)/2;if (j == 1)
m1(i,j)=esti; e(i,j)=(esti-muest(i))^2;
elsem1(i,j)=(m1(i,j-1)*(j-1) + esti)/j;e(i,j)=(e(i,j-1)*(j-1) + (esti-muest(i))^2)/j;
endend
end
hold off;end
figure(2)for n=1:4
subplot(2,2,n)plot(e(n,1:maxvar),'LineWidth',2.5,'Color','b');hold onplot(varest(n)*ones(1,maxvar),'LineWidth',2.5,'Color','r');grid onlegend(['n=',num2str(N(n))],['Var(M_b)
teorica_{n=',num2str(N(n)),'}=',num2str(varest(n))])xlabel('K');ylabel('Var(M_b)');hold off;
end
SUFICIENCIAUn estadístico es suficiente cuando no da lugar a pérdida de información; es decir, cuando la inferencia basada en él es tan buena como la que hiciera uso de toda la muestra.
Formalmente, =(X1,X2,…Xn) es un estadístico suficiente del parámetro qde la distribución de la VA X, si para cualquier otro estadístico = (X1,X2,…Xn), la distribución condicional de dado , no depende de q. Si además, es insesgado, se lo llama estimador suficiente de q.
0
ˆ q
Una condición necesaria y suficiente para que sea estadístico suficientede q es que la densidad conjunta de la muestra pueda expresarse como:
ˆ1 2 nX ,X ,…,X ;θ 1 2 n 1 2 nf x , x ,…, x g θ,θ h x , x ,…, x
Ejemplo: X raya es un estimador suficiente del parámetro de una VA Poisson
1 2
1 2, , , , 1 2
1 2
, , ,! ! !
n
n
xx x
X X X n
n
e e ef x x x
x x x
1
1
!
n nx
n
ii
e
x
de q es que la densidad conjunta de la muestra pueda expresarse como:
Si se tiene un estimador insesgado de q que no es función del estimador suficiente, puede hallarse otro estimador estimador insesgado basado en el estadístico suficiente que tendrá menor varianza que el estimador inicial.
ALGUNOS ESTIMADORES IMPORTANTES
Como la muestra es un conjunto de n VAs i.i.d, si E(X)= (desconocido) y Var(X)=m2 (conocido), entonces:
Estimador de la media con desvío conocido
1
1 n
ii
X Xn
E X 2
Var Xn
m
CONSISTENTE
INSESGADO
Dado que X raya es una VA, sería útil conocer su distribución. En ciertos casos esto es posible ya que se requiere conocer la distribución de la casos esto es posible ya que se requiere conocer la distribución de la suma de n VAs i.i.d. Sin embargo, aun cuando se desconozca la distribución paramétrica de X, si n es lo suficientemente grande, se puede usar el TCL, y entonces:
grande
,n
X normaln
m
j
La distribución de X raya depende del valor del
parámetro (que debe fijarse para que ladistribución quede completamente definida)
ALGUNOS ESTIMADORES IMPORTANTES
Bi es una VA Bernoulli, donde el parámetro p de la misma es lo que se desea estimar.
Estimador de una proporción
1
1ˆ
n
ii
p Bn
ˆE p p INSESGADO
ˆ ,np binomial n p
Como la muestra es un conjunto de VAs i.i.d. (la pdebe ser constante para todos los elementos de la muestra), entonces
1
ˆp p
Var pn
CONSISTENTE
ˆ ,np binomial n p
con n grande(en realidad se pide np>5 y n(1-p)>5)
1ˆ ,
p pp normal p
n
j
NUEVAMENTE, LA DISTRIBUCIÓN DE p pico DEPENDE DEL VALOR DEL PARAMETRO p
ALGUNOS ESTIMADORES IMPORTANTES
Como la muestra es un conjunto de n VAs i.i.d, si E(X)= (desconocido) y Var(X)=m2 (desconocido), entonces:
Estimador de la varianza (con
desconocido) 22
1
1
1
n
ii
S X Xn
22 2 2
1 1 1 1
1 12
1 1
n n n n
i i ii i i i
E S E X X E X X X Xn n
f f
21 m
nX
INSESGADO
2
2 2 21
1n n
n n
mm
2 2 21 1
11 1
n n n
n n n nm m m
Se puede probar que además es consistente
no depende de
Notar que si se usa como estimador del desvío estándar m, no tiene por qué ser insesgado (de hecho no lo es) ya que se aplica una operación no lineal
2S
ALGUNOS ESTIMADORES IMPORTANTESLa distribución de este estimador es mucho más compleja. Sin embargo, analizaremos el caso donde las Xi son i.i.d. con distribución normal(,m)
1 2, , ,T
nX X X X
1,1, ,1 T
1 , m NX 1 I
Sea T una matriz ortonormal cuya primera fila vale
Y TX Al ser una transformación lineal, Y deberá ser normal.
T n1
22
1
1
1
n
ii
S X Xn
Y TX Al ser una transformación lineal, Y deberá ser normal.
E EY T X T 1 f
TE E EY Y Y Y
f f
T T TE E E E E ETX T X TX T X T X X X X T
2 2m m TT IT I , m NY T 1 INOTAR que para que T sea ortonormal y su primer fila sea 1T/raíz(n), la suma de los elementos de cada una del resto de las filas debe ser 0 !! Entonces las Yi son normales independientes, todas con desvío m. La E(Y1 )=raíz(n) y E(Yj )=0, con j=2,3,…,n.
Como las Yi son independientes, entonces XX rayaraya (que es función de Y1) y SS22
(que es función de Y2,…,Yn) son independientes !!son independientes !!
11
1n
ii
Y X nXn
2 2
1 1
n nT T T T
i ii i
Y X
Y Y X T TX X X
22 2 2 2 2 2
12 1 1 1
1n n n n
i i i ii i i i
Y Y Y X nX X X n S
=
22 21n S Porque Y ,…,Y son N(0,m) y 22 22
2 22 2 2
1 n n ni i
ii i i
n S Y YZ
m m m
Porque Y2,…,Yn son N(0,m) y entonces Yi /m es una normal estándar
Veamos primero la transformación2W Z
21
02
w
Wf w e wws
1 2 1
~ 0,1Z N
En gral., con natural (conocido como grados de libertad), puede escribirse
Si comparamos esto con la definición de la densidad Gamma con parámetros y r reales positivos, surge
1
22 2
2
0
22
w
W
wW f w e w
1
E W 2 2m W 1
2
1
n
n i ni
S W S n
E W 2 2m W 2 1 ,2 2
r
Lo siguiente que puede ser probado es que si W1, W2, …, Wn son VAs i.i.d., cada una con distribución 2( =1), luego
0 1 2 3 4 5 6 7 8 9 100
0.2
0.4
0.6
f X(x
)
2( =1)
2( =2)
2( =4)
0.06
0.08
2( =15)
2( =40)
0 10 20 30 40 50 60 70 80 90 1000
0.02
0.04
x
f X(x
)
2( =80)
2W Q 2Q 2 1,1W N
Si bien una 2( ) puede verse como la suma de 2(1), la convergencia a una Gaussiana es muy lenta (notar que para 2(80), se acumula 0.52 a la izquierda de la media). Una convergencia más rápida muestra que con >30 vale la aproximación:
ALGUNOS ESTIMADORES IMPORTANTES
Volviendo a lo de antes, dado que
22
22
1 n
ii
n SZ
m
22
2
11
n Sn
m
1 1n n
2 2 2
2
2 2; 1
1 1( )
S n
n nf s f s
m m m
Al igual que con la normal, podemos definir el cuantil 2( =n-1) como
el valor hasta el que se acumula una probabilidad .
NUEVAMENTE, LA DISTRIBUCIÓN DE S2
DEPENDE DEL VALOR DEL PARAMETRO m2
Sean X e Y1,Y2,…,Yn secuencias de VAs iid normales estándar.
2
1
1 n
ii
W Yn
Como W y X son independientes, puedo hallar la conjunta fW,X(w,x) y luego hacer la transformación para hallar fT(t). El resultado es:
LA DISTRIBUCION t-student
XT
W
12 2
1
1 2: 1
nn
tT t n f t
Distribución t-studentcon n grados de libertad
La distribución de W surge de transformar una n =n)
1 2
: 1
2
T
tT t n f t
n nn
s
Puede probarse que el resultado es igual si las VAs originales son N(0,m) (se hacen primero las transformaciones X/m e Yj /m)
La distribución t-student con =n surge delcociente entre una N(0,1) y la raíz cuadrada de
una 2( =n) normalizada por sus grados de libertad
Esta densidad tiene soporte en toda la recta realy es simétrica respecto a t =0 (con n >1 tienemedia nula). Con n >2, tiene menor varianzaque la normal estándar (m2=n/n-2 <1). Paran grande, converge a una normal estándar.
0.25
0.3
0.35
rerr =5
rerr =10
rerr =30
0.3
0.35
0.4
fun
ció
n d
e d
en
sid
ad
t( =1)
t( =5)
t( =10)
N(0,1)
0.005 0.01 0.025 0.050.01
0.05
0.1
0.15
0.2
rerr
(
)
t n z
rerrt n
-4 -3 -2 -1 0 1 2 3 40
0.05
0.1
0.15
0.2
0.25
t
fun
ció
n d
e d
en
sid
ad
Sean X1,X2,…,Xn e Y1,Y2,…,Ym secuencias de VAs iid normales estándar.
2 2
1
n
ii
W X n
Como W y Q son independientes, puedo hallar la conjunta fW,Q(w,q) y luego hacer la transformación para hallar fU(u). El resultado es:
LA DISTRIBUCION F
2 2
1
m
ii
Q Y m
WnU
Qm
1 2,U F n m Distribución Fcon =n
2 12
20
nnm n n
um
f u u
1con 1=ngrados de libertad en el numerador y 2=m en el denominador
Puede probarse que el resultado es igual si las VAs originales son N(0,m) (se hacen primero las transformaciones Xi /m e Yj /m)
2
20
12 2
U m n
mf u u
m nn
um
1
El cociente de VAs con distribución 2( ),normalizadas por sus respectivos grados
de libertad n y m, da lugar auna distribución F ( 1=n, 2=m)
BONUS TRACKSBONUS TRACKS
ALGUNOS ESTIMADORES IMPORTANTES
Como la muestra es un conjunto de n VAs i.i.d, si E(X)= (conocido) y Var(X)=m2 (desconocido), entonces:
Estimador de la varianza (con
conocido) 22
1
1 n
ii
S Xn
INSESGADO 22 2 2
1
1 1n
ii
E S E X nn n
m m
f
1in n
Si existe el momento centrado de cuarto orden,
4
42 2 iE X
Sn n
mm
f CONSISTENTE
222 2
2 21 1
n ni
i i
XnSZ n
m m
Por lo visto anteriormente,
Para el estreno de la película “Los 4 fantásticos XXIV”, la empresa que fabrica los huevos Kinder decide lanzar una colección de muñequitos con los 4 personajes (uno de cada uno). Suponga que cada vez que se compra un huevo, todos los personajes tienen igual probabilidad de aparecer. Sea N : “cantidad de huevos que hay que comprar hasta completar la colección” (al menos uno de cada uno).Defina la VA. N planteándola como la suma de 4 VAs (que deberá caracterizar correctamente). Calcule analíticamente su media y varianza.Simule el experimento M veces (comprando 1 huevo cada vez y viendo
EJERCICIO
Simule el experimento M veces (comprando 1 huevo cada vez y viendo el valor de N que resulta en cada realización del experimento). Calcule la media y varianza muestrales y compare con los valores hallados analíticamente.De la expresión de N como suma de 4 VAs es difícil obtener la función de probabilidad analíticamente. Por ello, simule M valores para cada una de las 4 VAs y obtenga luego M valores muestrales de M. Calcule la función de probabilidad hasta N = 20 a partir de la muestra obtenida del experimento y compárela con la obtenida a partir de simular la suma de las 4 VAs.Repita para M = 100, 1000, 10000, 100000, 500000