Upload
others
View
8
Download
0
Embed Size (px)
Citation preview
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Coeficiente de correlacion lineal
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Coeficiente de correlacion lineal
El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Coeficiente de correlacion lineal
El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Coeficiente de correlacion lineal
El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.
Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√
V ar [X] V ar [Y ]·
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Coeficiente de correlacion lineal
El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.
Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√
V ar [X] V ar [Y ]·
Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Coeficiente de correlacion lineal
El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.
Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√
V ar [X] V ar [Y ]·
Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).
Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion
(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Coeficiente de correlacion lineal
El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.
Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√
V ar [X] V ar [Y ]·
Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).
Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion
(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra. Por
el contrario, ρX,Y < 0 indica una tendencia decreciente entre las variables.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Coeficiente de correlacion lineal
El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.
Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√
V ar [X] V ar [Y ]·
Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).
Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion
(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra. Por
el contrario, ρX,Y < 0 indica una tendencia decreciente entre las variables. El valor ρX,Y = 0 indica una ausencia to-tal de relacion lineal entre las variables y, en tal caso, se dice que estas son incorreladas linealmente.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Coeficiente de correlacion lineal
El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.
Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√
V ar [X] V ar [Y ]·
Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).
Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion
(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra. Por
el contrario, ρX,Y < 0 indica una tendencia decreciente entre las variables. El valor ρX,Y = 0 indica una ausencia to-tal de relacion lineal entre las variables y, en tal caso, se dice que estas son incorreladas linealmente.
A menudo las rectas de regresion suelen escribirse en terminos del coeficiente de correlacion como sigue:
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Coeficiente de correlacion lineal
El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.
Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√
V ar [X] V ar [Y ]·
Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).
Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion
(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra. Por
el contrario, ρX,Y < 0 indica una tendencia decreciente entre las variables. El valor ρX,Y = 0 indica una ausencia to-tal de relacion lineal entre las variables y, en tal caso, se dice que estas son incorreladas linealmente.
A menudo las rectas de regresion suelen escribirse en terminos del coeficiente de correlacion como sigue:
Y/X → y = E [Y ] + ρX,Y
√V ar [Y ]
V ar [X](x− E [X]).
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Coeficiente de correlacion lineal
El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.
Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√
V ar [X] V ar [Y ]·
Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).
Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion
(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra. Por
el contrario, ρX,Y < 0 indica una tendencia decreciente entre las variables. El valor ρX,Y = 0 indica una ausencia to-tal de relacion lineal entre las variables y, en tal caso, se dice que estas son incorreladas linealmente.
A menudo las rectas de regresion suelen escribirse en terminos del coeficiente de correlacion como sigue:
Y/X → y = E [Y ] + ρX,Y
√V ar [Y ]
V ar [X](x− E [X]).
X/Y → x = E [X] + ρX,Y
√V ar [X]
V ar [Y ](y − E [Y ]).
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Coeficiente de correlacion lineal
El coeficiente de determinacion lineal es el analogo, en el problema de regresion lineal, a las razones de correlacionen el problema de regresion optima, proporcionando una medida del grado de dependencia lineal entre dos variablesaleatorias. Sin embargo, en el problema de regresion lineal, la medida usada por excelencia es la raız cuadrada deeste coeficiente, con el signo de la covarianza, que proporciona, ademas del grado de relacion lineal de las variablesconsideradas, el sentido de dicha relacion.
Coeficiente de correlacion lineal de X e Y → ρX,Y =Cov [X, Y ]√
V ar [X] V ar [Y ]·
Como se comento en el problema de regresion lineal, las variables X e Y , definidas sobre el mismo espacio deprobabilidad y ambas con momento de segundo orden, deben ser no degeneradas (V ar [X] > 0, V ar [Y ] > 0).
Ya que el coeficiente de correlacion tiene el signo de la covarianza y, por lo tanto, el de los coeficientes de regresion
(pendientes de las rectas de regresion), ρX,Y > 0 indica que cada una de las variables tiende a crecer con la otra. Por
el contrario, ρX,Y < 0 indica una tendencia decreciente entre las variables. El valor ρX,Y = 0 indica una ausencia to-tal de relacion lineal entre las variables y, en tal caso, se dice que estas son incorreladas linealmente.
A menudo las rectas de regresion suelen escribirse en terminos del coeficiente de correlacion como sigue:
Y/X → y = E [Y ] + ρX,Y
√V ar [Y ]
V ar [X](x− E [X]).
X/Y → x = E [X] + ρX,Y
√V ar [X]
V ar [Y ](y − E [Y ]).
Las propiedades que se enumeran a continuacion se obtienen directamente de las correspondientes del coeficiente dedeterminacion.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Propiedades del coeficiente de correlacion lineal
i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .
ii) −1 ≤ ρX,Y ≤ 1.
iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].
iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Propiedades del coeficiente de correlacion lineal
i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .
ii) −1 ≤ ρX,Y ≤ 1.
iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].
iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �
Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea
X = senZ, Y = cosZ
¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Propiedades del coeficiente de correlacion lineal
i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .
ii) −1 ≤ ρX,Y ≤ 1.
iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].
iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �
Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea
X = senZ, Y = cosZ
¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?
Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Propiedades del coeficiente de correlacion lineal
i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .
ii) −1 ≤ ρX,Y ≤ 1.
iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].
iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �
Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea
X = senZ, Y = cosZ
¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?
Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es
fZ(z) =1
2π, 0 < z < 2π,
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Propiedades del coeficiente de correlacion lineal
i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .
ii) −1 ≤ ρX,Y ≤ 1.
iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].
iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �
Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea
X = senZ, Y = cosZ
¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?
Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es
fZ(z) =1
2π, 0 < z < 2π,
y tenemos:
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Propiedades del coeficiente de correlacion lineal
i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .
ii) −1 ≤ ρX,Y ≤ 1.
iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].
iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �
Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea
X = senZ, Y = cosZ
¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?
Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es
fZ(z) =1
2π, 0 < z < 2π,
y tenemos:
� E[X] = E[senZ]
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Propiedades del coeficiente de correlacion lineal
i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .
ii) −1 ≤ ρX,Y ≤ 1.
iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].
iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �
Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea
X = senZ, Y = cosZ
¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?
Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es
fZ(z) =1
2π, 0 < z < 2π,
y tenemos:
� E[X] = E[senZ] =
∫ 2π
0
senz1
2πdz
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Propiedades del coeficiente de correlacion lineal
i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .
ii) −1 ≤ ρX,Y ≤ 1.
iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].
iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �
Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea
X = senZ, Y = cosZ
¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?
Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es
fZ(z) =1
2π, 0 < z < 2π,
y tenemos:
� E[X] = E[senZ] =
∫ 2π
0
senz1
2πdz = 0.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Propiedades del coeficiente de correlacion lineal
i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .
ii) −1 ≤ ρX,Y ≤ 1.
iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].
iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �
Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea
X = senZ, Y = cosZ
¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?
Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es
fZ(z) =1
2π, 0 < z < 2π,
y tenemos:
� E[X] = E[senZ] =
∫ 2π
0
senz1
2πdz = 0.
� E[Y ] = E[cosZ]
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Propiedades del coeficiente de correlacion lineal
i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .
ii) −1 ≤ ρX,Y ≤ 1.
iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].
iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �
Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea
X = senZ, Y = cosZ
¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?
Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es
fZ(z) =1
2π, 0 < z < 2π,
y tenemos:
� E[X] = E[senZ] =
∫ 2π
0
senz1
2πdz = 0.
� E[Y ] = E[cosZ] =
∫ 2π
0
cosz1
2πdz
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Propiedades del coeficiente de correlacion lineal
i) ρX,Y es invariante (salvo el signo) frente a cambios de escala y origen en las unidades de medida de X y/o Y .
ii) −1 ≤ ρX,Y ≤ 1.
iii) ρX,Y = 0 ⇔ la recta de regresion de Y es y = E [Y ] ⇔ la recta de regresion de X sobre Y es x = E [X].
iv) |ρX,Y | = 1 ⇔ existe dependencia funcional lineal (positiva o negativa, en funcion del signo) entre X e Y . �
Ejemplo 1: Sea Z una variable aleatoria con funcion de densidad constante en el intervalo (0, 2π) y sea
X = senZ, Y = cosZ
¿Es apropiado predecir X mediante una funcion lineal de Y y viceversa?
Para decidir si es apropiado predecir linealmente una de las variables en funcion de la otra, calculamos el coeficientede correlacion y, para ello, la covarianza de las variables. Puesto que la funcion de densidad de Z es constante en elintervalo (0, 2π), su funcion de densidad es
fZ(z) =1
2π, 0 < z < 2π,
y tenemos:
� E[X] = E[senZ] =
∫ 2π
0
senz1
2πdz = 0.
� E[Y ] = E[cosZ] =
∫ 2π
0
cosz1
2πdz = 0.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ]
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz = 0.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz = 0.
Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz = 0.
Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �
Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz = 0.
Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �
Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz = 0.
Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �
Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.
Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz = 0.
Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �
Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.
Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.
Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz = 0.
Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �
Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.
Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.
Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.
El hecho de que el vector (X,Y ) se distribuye uniformemente en la region indicada significa que toma valores en
dicha region y que su funcion de densidad es constante, f(X,Y )(x, y) = k;
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz = 0.
Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �
Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.
Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.
Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.
El hecho de que el vector (X,Y ) se distribuye uniformemente en la region indicada significa que toma valores en
dicha region y que su funcion de densidad es constante, f(X,Y )(x, y) = k; esta constante se calcula imponiendo quef(X,Y ) integre 1 en la region especificada:
DIBUJO ∫ 1
0
∫ x2
0
kdydx
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz = 0.
Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �
Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.
Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.
Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.
El hecho de que el vector (X,Y ) se distribuye uniformemente en la region indicada significa que toma valores en
dicha region y que su funcion de densidad es constante, f(X,Y )(x, y) = k; esta constante se calcula imponiendo quef(X,Y ) integre 1 en la region especificada:
DIBUJO ∫ 1
0
∫ x2
0
kdydx = k
∫ 1
0
x2dx
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz = 0.
Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �
Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.
Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.
Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.
El hecho de que el vector (X,Y ) se distribuye uniformemente en la region indicada significa que toma valores en
dicha region y que su funcion de densidad es constante, f(X,Y )(x, y) = k; esta constante se calcula imponiendo quef(X,Y ) integre 1 en la region especificada:
DIBUJO ∫ 1
0
∫ x2
0
kdydx = k
∫ 1
0
x2dx =k
3
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz = 0.
Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �
Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.
Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.
Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.
El hecho de que el vector (X,Y ) se distribuye uniformemente en la region indicada significa que toma valores en
dicha region y que su funcion de densidad es constante, f(X,Y )(x, y) = k; esta constante se calcula imponiendo quef(X,Y ) integre 1 en la region especificada:
DIBUJO ∫ 1
0
∫ x2
0
kdydx = k
∫ 1
0
x2dx =k
3= 1
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
� E[XY ] = E[senZcosZ] =
∫ 2π
0
senzcosz1
2πdz =
1
π
∫ 2π
0
sen2zdz = 0.
Por lo tanto, Cov[X, Y ] = 0, lo que implica que ρX,Y = 0; esto es, las variables X e Y son incorreladas linealmentey, por lo tanto, no es apropiada la prediccion lineal. �
Este ejemplo prueba que dos variables aleatorias incorreladas linealmente no tienen que ser independientes; en estecaso, X e Y son incorreladas linealmente y X2 + Y 2 = 1, lo que implica que existe dependencia funcional entre am-bas variables. Sin embargo, dado que la covarianza de dos variables independientes es nula, la independencia sı im-plica la incorrelacion lineal.
Ejemplo 2: Calcular el coeficiente de correlacion lineal de las variables X e Y si (X, Y ) esta uniformementedistribuido en la region limitada por las curvas y = x2, y = 0, x = 1.
Ya que el coeficiente de correlacion se determina a partir de los momentos de segundo orden del vector (X, Y ),necesitamos conocer su funcion de densidad.
El hecho de que el vector (X,Y ) se distribuye uniformemente en la region indicada significa que toma valores en
dicha region y que su funcion de densidad es constante, f(X,Y )(x, y) = k; esta constante se calcula imponiendo quef(X,Y ) integre 1 en la region especificada:
DIBUJO ∫ 1
0
∫ x2
0
kdydx = k
∫ 1
0
x2dx =k
3= 1 ⇒ k = 3.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx =
∫ 1
0
x6dx
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx =
∫ 1
0
x6dx =1
7,
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx =
∫ 1
0
x6dx =1
7,
� E [XY ] =
∫ 1
0
∫ x2
0
3xydydx
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx =
∫ 1
0
x6dx =1
7,
� E [XY ] =
∫ 1
0
∫ x2
0
3xydydx =
∫ 1
0
3x5
2dx
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx =
∫ 1
0
x6dx =1
7,
� E [XY ] =
∫ 1
0
∫ x2
0
3xydydx =
∫ 1
0
3x5
2dx =
1
4·
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx =
∫ 1
0
x6dx =1
7,
� E [XY ] =
∫ 1
0
∫ x2
0
3xydydx =
∫ 1
0
3x5
2dx =
1
4·
Entonces:
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx =
∫ 1
0
x6dx =1
7,
� E [XY ] =
∫ 1
0
∫ x2
0
3xydydx =
∫ 1
0
3x5
2dx =
1
4·
Entonces:
� V ar[X] = E [X2]− (E[X])2
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx =
∫ 1
0
x6dx =1
7,
� E [XY ] =
∫ 1
0
∫ x2
0
3xydydx =
∫ 1
0
3x5
2dx =
1
4·
Entonces:
� V ar[X] = E [X2]− (E[X])2 =3
80,
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx =
∫ 1
0
x6dx =1
7,
� E [XY ] =
∫ 1
0
∫ x2
0
3xydydx =
∫ 1
0
3x5
2dx =
1
4·
Entonces:
� V ar[X] = E [X2]− (E[X])2 =3
80,
� V ar[Y ] = E [Y 2]− (E[Y ])2
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx =
∫ 1
0
x6dx =1
7,
� E [XY ] =
∫ 1
0
∫ x2
0
3xydydx =
∫ 1
0
3x5
2dx =
1
4·
Entonces:
� V ar[X] = E [X2]− (E[X])2 =3
80,
� V ar[Y ] = E [Y 2]− (E[Y ])2 =37
700,
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx =
∫ 1
0
x6dx =1
7,
� E [XY ] =
∫ 1
0
∫ x2
0
3xydydx =
∫ 1
0
3x5
2dx =
1
4·
Entonces:
� V ar[X] = E [X2]− (E[X])2 =3
80,
� V ar[Y ] = E [Y 2]− (E[Y ])2 =37
700,
� Cov[X, Y ] = E [XY ]− E[X]E[Y ]
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
Por lo tanto,f(X,Y )(x, y) = 3, 0 < x < 1, 0 < y < x2,
y los momentos no centrados son:
� E[X] =
∫ 1
0
∫ x2
0
3xdydx =
∫ 1
0
3x3dx =3
4,
� E [X2] =
∫ 1
0
∫ x2
0
3x2dydx =
∫ 1
0
3x4dx =3
5,
� E[Y ] =
∫ 1
0
∫ x2
0
3ydydx =
∫ 1
0
3x4
2dx =
3
10,
� E [Y 2] =
∫ 1
0
∫ x2
0
3y2dydx =
∫ 1
0
x6dx =1
7,
� E [XY ] =
∫ 1
0
∫ x2
0
3xydydx =
∫ 1
0
3x5
2dx =
1
4·
Entonces:
� V ar[X] = E [X2]− (E[X])2 =3
80,
� V ar[Y ] = E [Y 2]− (E[Y ])2 =37
700,
� Cov[X, Y ] = E [XY ]− E[X]E[Y ] =1
40,
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
y el coeficiente de correlacion es
ρX,Y =Cov [X, Y ]√
V ar [X] V ar [Y ]= 0.5615.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.
BY: Grupo CDPYE-UGR
y el coeficiente de correlacion es
ρX,Y =Cov [X, Y ]√
V ar [X] V ar [Y ]= 0.5615.
El signo positivo de ρX,Y indica que cada una de las variables, X e Y , tiende a crecer con la otra. �