21
Modelo de regresión Modelo de regresión con dos variables: con dos variables: Estimación Estimación 1. MCO 1. MCO 2.Supuestos 2.Supuestos 3.Precisión (EE de MC estimados) 3.Precisión (EE de MC estimados) 4.Propiedades (Gauss-Markov) 4.Propiedades (Gauss-Markov) 5.Coeficiente r²: Bondad de 5.Coeficiente r²: Bondad de ajuste ajuste 6.Ejemplos 6.Ejemplos

Modelo de regresión con dos variables: Estimación

  • Upload
    sumi

  • View
    63

  • Download
    1

Embed Size (px)

DESCRIPTION

Modelo de regresión con dos variables: Estimación. 1. MCO 2.Supuestos 3.Precisión (EE de MC estimados) 4.Propiedades (Gauss-Markov) 5.Coeficiente r²: Bondad de ajuste 6.Ejemplos. 1. MCO. Carl Friedich Gauss - PowerPoint PPT Presentation

Citation preview

Modelo de regresión con dos Modelo de regresión con dos variables: Estimaciónvariables: Estimación 1. MCO1. MCO 2.Supuestos2.Supuestos 3.Precisión (EE de MC estimados)3.Precisión (EE de MC estimados) 4.Propiedades (Gauss-Markov)4.Propiedades (Gauss-Markov) 5.Coeficiente r²: Bondad de ajuste5.Coeficiente r²: Bondad de ajuste 6.Ejemplos6.Ejemplos

1. MCO

Carl Friedich Gauss Posee propiedades estadísticas que lo

hacen muy eficaz y aceptado para el análisis de regresión.

Minimizar errores para que la ecuación muestral se aproxime a la poblacional

Ejemplo: Página58

Propiedades numéricas de estimadores MCO A. Están expresados en términos de

las cantidades observables B. Son puntuales proporcionan un valor

del parámetro poblacional C. La línea de regresión muestral se

obtiene fácilmente– Pasa a través de las medias muestrales el

valor medio estimado es igual al valor medio observado

2.Los 10 supuestos MCO

S1: Linealidad de parámetros S2: Valores de X fijos en muestreos

repetidos S3:El valor medio de la perturbación es

igual a cero S4:Homocedasticidad S5: La covarianza de errores es cero

2.Los 10 supuestos MCO cont.

S6: La covarianza de los errores y las variables explicativas es cero

S7: El tamaño de la muestra es mayor que el número de parámetros

S8: Variabilidad de los valores de X S9: Correcta especificación S10: Multicolinealidad no perfecta

¿Supuestos realistas?

Para que una hipótesis sea importante ... Debe ser descriptivamente falsa en sus supuestos

Veamos como referencia la competencia perfecta de microeconomía

3.Precisión (EE MC estimados)

Varianza ErrorSt Sigma Error Analicemos la relaciones en las

fórmulas de varianza de parámetros Var(Beta2): Proporcional a la varianza

de los errores

4.Propiedades (Gauss-Markov)

Un estimador es MELI si cumple las siguientes propiedades:– *Es lineal al igual que la variable

dependiente– *Es insesgado su valor promedio es igual

al valor verdadero– *Posee varianza mínima

Teorema Gauss-Markov

Dados los supuestos del modelo clásico de regresión lineal (MCRL), los estimdores MCO dentro de la clase de estimadores insesgados, tienen varianza mínima, es decir, son MELI

Gráfica de distribución normal (amplitud del intervalo)

5.Coeficiente r²: Bondad de ajuste

Llamado coeficiente de determinación Es el porcentaje en que las variaciones

de la variable dependiente son explicadas por la variación de una (s) variable (s) independientes (s)

r² mayor 0.70 Regresión espúrea

5.Coeficiente r²: Bondad de ajuste

Diagrama de Venn o Ballentine

X Y X Y

X

Y

Propiedades de r² y r

1. No es cantidad negativa. ¿Why? 2. es un valor entre cero y uno r: Es el coeficiente de correlación que

mencionamos al inicio, recordemos que mide el grado de asociación lineal entre variables, es calculado como la raíz del coeficiente de determinación (r²)

Propiedades de r

1. La covarianza (numerador) indica el signo puesto que puede ser + ó –

2. Es un valor entre -1 y 1 3. Simétrico por naturaleza 4. Si X y Y son independientes r=0;

pero no siempre que r=0 las variables son independientes.

Propiedades de r continuación

5. Describe únicamente relaciones lineales. Su uso en la descripción de asociaciones no lineales no tiene significado. Si Y=X² es una relación exacta pero r=0 ¿Why?

6. No representa como recordamos una relación causa-efecto

* r² es más importante que r en análisis de regresión y en las regresiones Múltiples r no tiene valor alguno.

Ejercitemos un poco

Elabore un formulario que contenga lo siguiente cálculo:

Parámetros Varianza de parámetros Varianza de errores (ui) R2

Calculemos

La ecuación de pronóstico correcta para la tabla descrita a continuación

Construir tabla descrita a continuación

X Y x y x*y xcuad ycuad Yest Uest Uestcuad Xcuad55 8065 10070 8580 11079 12084 11598 13095 140

XmedYmednBeta2Beta1 RErrorCuad RcuadSigma Cuad 0 Var(beta1)Var(beta2) EE(beta1)EE(beta2) CovBetas

X Y x y x*y xcuad ycuad Yest Uest Uestcuad Xcuad55 80 -23.25 -30 697.50 540.56 900 79.29 0.71 0.50 302565 100 -13.25 -10 132.50 175.56 100 92.50 7.50 56.26 422570 85 -8.25 -25 206.25 68.06 625 99.10 -14.10 198.90 490080 110 1.75 0 0.00 3.06 0 112.31 -2.31 5.34 640079 120 0.75 10 7.50 0.56 100 110.99 9.01 81.17 624184 115 5.75 5 28.75 33.06 25 117.59 -2.59 6.73 705698 130 19.75 20 395.00 390.06 400 136.09 -6.09 37.04 960495 140 16.75 30 502.50 280.56 900 132.12 7.88 62.04 9025626 880 0 0 1970 1491.50 3050 0.00 448 50476

Xmed 78.25Ymed 110n 8Beta2 1.32Beta1 6.65 R 0.924ErrorCuad 447.99 Rcuad 0.85312Sigma Cuad 74.66 74.66 Var(beta1) 315.85Var(beta2) 0.05 EE(beta1) 17.77EE(beta2) 0.224 CovBetas -3.91721

X Y x y x*y xcuad ycuad Yest Uest Uestcuad Xcuad70 8065 10090 12095 140110 160115 180120 200140 220155 240