View
261
Download
0
Category
Preview:
DESCRIPTION
Estadistica Inferencial Unidad 2
Citation preview
Tulum, Quintana Roo A 13 de Octubre de 2015.
Instituto Tecnológico Superior De Felipe Carrillo Puerto. Unidad Académica Tulum
Organismo Público Descentralizado del Gobierno del Estado de Quintana Roo.
CARRERA.
INGENIERIA EN GESTION EMPRESARIAL.
SEMESTRE:
“5° C”
NOMBRE DE LA ASIGNATURA:
ESTADISTICA INFERENCIAL 2
NOMBRE DEL TRABAJO:
PORTAFOLIO UNIDAD 2
DOCENTE:
ING. IRAN ISRAEL PAT NOH
ALUMNO:
CHAN CUPUL DAMAEL.
Contenido
Introducción ............................................................................................................. 3
Unidad 2 Regresión Lineal Múltiple Y Correlación. ................................................. 4
2.1 Modelo De Regresión Múltiple .......................................................................... 4
2.2 Estimación De La Ecuación De Regresión Múltiple. ......................................... 4
2.3 Matriz De Varianza-Covarianza. ........................................................................ 5
2.4 Pruebas De Hipótesis Para Los Coeficientes De Regresión. ............................ 6
2.5 Correlación Lineal Múltiple. ............................................................................... 7
Anexos .................................................................................................................... 8
Evidencias ............................................................................................................ 8
Examen .............................................................................................................. 11
Conclusión............................................................................................................. 15
Bibliografía ............................................................................................................ 16
Introducción
Como la Estadística Inferencial nos permite trabajar con una variable a nivel de
intervalo o razón, así también se puede comprender la relación de dos o
más variables y nos permitirá relacionar mediante ecuaciones, una variable en
relación de la otra variable llamándose Regresión Lineal y una variable en relación
a otras variables llamándose Regresión múltiple.
Unidad 2 Regresión Lineal Múltiple Y Correlación.
2.1 Modelo De Regresión Múltiple
Este tipo se presenta cuando dos o más variables independientes influyen sobre
una variable dependiente. Ejemplo: Y = f(x, w, z).
Por ejemplo: Podría ser una regresión de tipo múltiple: ◦ Una Empresa de
desarrollo de software establece relacionar sus Ventas en función del número de
pedidos de los tipos de software que desarrolla (Sistemas, Educativos y
Automatizaciones Empresariales), para atender 10 proyectos en el presente año.
En la Tabla representa Y (Ventas miles de S/.) e X (Nº pedidos de sistemas), W
(Nº de pedidos de Aplicaciones Educativas) y Z (Nº de pedidos de
Automatizaciones empresariales).
Objetivo: Se presentara primero el análisis de regresión múltiple al desarrollar y
explicar el uso de la ecuación de regresión múltiple, así como el error estándar
múltiple de estimación. Después se medirá la fuerza de la relación entre las
variables independientes, utilizando los coeficientes múltiples de determinación.
2.2 Estimación De La Ecuación De Regresión Múltiple.
Dispone de una ecuación con dos variables independientes adicionales:
Se puede ampliar para cualquier número "m" de variables independientes:
Para poder resolver y obtener y en una ecuación de regresión múltiple el cálculo
se presenta muy tediosa porque se tiene atender 3 ecuaciones que se generan
por el método de mínimo de cuadrados:
2.3 Matriz De Varianza-Covarianza.
Dada una variable estadística n-dimensional (X1,X2,X3,...,Xn), llamaremos matriz
de varianzas-covarianzas (matriz de varianzas) (matriz de covarianzas), a la matriz
cuadrada, n´ n, que disponga en su diagonal principal de las varianzas de cada
una de las distribuciones marginales unidimensionales, y en los elementos no-
diagonales (i,j) de las correspondientes covarianzas entre cada dos variables Sij
Propiedades
1. La matriz de varianzas-covarianzas es simétrica respecto a su diagonal principal
2. La matriz de varianzas-covarianzas es definida positiva
3. El determinante de la matriz de varianzas-covarianzas (también llamado
determinante de momentos) es siempre no negativo
4. En el caso bidimensional tendremos:
det V = L = S2x S
2y - (Sxy)
2
2.4 Pruebas De Hipótesis Para Los Coeficientes De Regresión.
H0: = 0 (equivale a plantear que no hay relación entre Y y Xi)
H1: 0 (equivale a plantear que sí hay relación entre Y y Xi)
Si se acepta la de hipótesis nula, se está aceptando que no hay relación entre Y y
Xi, por lo tanto, ésta variable se debe sacar del modelo.
La estadística de trabajo se resuelve suponiendo que la hipótesis nula (H0) es
verdadera. Dicha estadística de trabajo es:
Regla de decisión. Si el número de observaciones es mayor que 30, los valores
de Z se hallan en la distribución normal. Si el número de observaciones es menor
o igual a 30, los valores de Z se hallan en la distribución t con n-k-1 grados de
libertad. Siendo k el número de variables independientes en el modelo.
Si < T < se acepta la hipótesis nula, en caso contrario se rechaza (figura
4.6).
Una vez elegidas las variables independientes que realmente influyen en el
comportamiento de Y, se pueden construir intervalos de confianza para cada uno
de los coeficientes de regresión poblacional ( )
Este intervalo nos proporciona, con una confiabilidad del (1- ) %, los valores
dentro de los cuales variará Y si Xi varía en una unidad y las demás variables
permanecen constantes. El intervalo se construye así:
Como en el caso de la prueba de hipótesis, si n ³ 30 los valores de Z se hallan en
la distribución normal, y si n < 30 los valores de Z se hallan en la distribución t con
n-k-1 grados de libertad.
2.5 Correlación Lineal Múltiple.
Sirve para medir la adecuación del modelo hallado (bondad del ajuste de la recta
de regresión al conjunto de observaciones), en el caso de tener una variable
dependiente y varias independientes.
Dicha medida nos la da el coeficiente de determinación R2, que verifica 0 ≤ R2 ≤
1.
Cuanto más cercano a uno sea su valor, mayor es el grado de asociación lineal
que existe entre la variable dependiente y las independientes o predictoras.
Nos mide la proporción de la variación total de las observaciones que se explican
mediante la ecuación (recta) de regresión
Anexos
Evidencias
Examen
Ejercicio 1
Ejercicio 2
Conclusión
Casi constantemente en la práctica de la investigación estadística, se encuentran
variables que de alguna manera están relacionados entre sí, por lo que es posible
que una de las variables puedan relacionarse matemáticamente en función de otra
u otras variables.
Bibliografía
CEACES. (s.f.). Recuperado el 13 de Octubre de 2015, de
https://www.uv.es/ceaces/base/descriptiva/mvarcovar.htm
Mil Aulas. (s.f.). Recuperado el 13 de Octubre de 2015, de
https://peligrosidad.milaulas.com/pluginfile.php/111/mod_resource/content/1
/lineal%20y%20multiple.pdf
UNAM. (s.f.). Recuperado el 13 de Octubre de 2015, de
http://www.virtual.unal.edu.co/cursos/sedes/manizales/4030006/lecciones/c
apitulocuatro/4_3_3.html
Recommended