Upload
others
View
12
Download
0
Embed Size (px)
Citation preview
1Métodos Estatísticos de Previsão
Bernardo Almada-Lobo
Regressão Linear
90
92
94
96
98
100
102
104
106
108
110
0 5 10 15 20
MÉTODOS ESTATÍSTICOS DE PREVISÃO
2Métodos Estatísticos de Previsão
Regressão
A regressão é uma das técnicas estatísticas mais potentes e de utilização mais frequente.
É um método matemático utilizado para descrever a relação entre variáveis
• Regressão linear simples• Regressão linear múltipla• Regressão não linear
4Métodos Estatísticos de Previsão
Regressão
Para uma equação de uma recta y = b0 + b1x, ao valor b0 chama-se ordenada na origem e ao valor b1 chama-se declive .
6Métodos Estatísticos de Previsão
Regressão Linear Simples
Um modelo de regressão linear simples descreve uma relação entre duas variáveis quantitativas X, independente, e Y, dependente
( ) 0 0α β β β (β α β )n n n n n nY X X E Y X E X= + ⋅ − + ⇔ = + ⋅ + = − ⋅
( ) ( )
nn
nn
Ya associado aleatório erroE
estimar a fixos parâmetros,
)N,,1n(Y,X de observação ésimanY,X
−−βα
=−− L
7Métodos Estatísticos de Previsão
Regressão Linear Simples
),0(INE 2n σ
Aos valores observados Xn não estão associados quaisquer erros, devendo ser encarados como constantes.
Os erros considerados no modelo de regressão linear simples incidem sobre os valores observados de Y.
Na teoria da regressão admitem-se as seguintes hipóteses sobre os erros:
1. valor esperado nulo e variância constante2. são mutuamente independentes3. são normalmente distribuídos
Note que, a hipótese de que existe uma recta de regressão que se ajusta aos dados está implícita em todo o processo.
8Métodos Estatísticos de Previsão
Regressão Linear Simples
Exemplo:Idade e preço de uma amostra 11 Orions
10Métodos Estatísticos de Previsão
Regressão Linear Simples
( )2Yn ,INY
nσµ
Se as hipóteses referidas se verificarem, os valores de Yn são independentes e seguem uma distribuição normal:
( )XXnYn−⋅β+α=µ
11Métodos Estatísticos de Previsão
A figura assinala a diferença entre a recta de regressão da população (que gostaríamos de conhecer mas não conhecemos) e a recta estimada a partir da amostra.
Regressão Linear Simples
12Métodos Estatísticos de Previsão
nXUma vez que os valores são constantes, é também constante.X
Logo, X0 ⋅β−α=β também é constante
A figura ilustra o significado de 0α e β
X
x1 x2 x3 x4 x5 x6 X
Y
0β
α
( )0
α β
β β
n n
n n
Y X X
Y X
= + ⋅ − ⇔
= + ⋅
Regressão Linear Simples
13Métodos Estatísticos de Previsão
Os parâmetros da recta de regressão podem ser estimados pelo método dos mínimos quadrados
( )[ ]{ }∑ ∑= =
−⋅β+α−==N
1n
N
1n
2
nn2n XXYESEQMIN ( ) ( )[ ]
( )
=−
−⋅−=
=⋅=
⇒
∑
∑
∑
=
=
=
XX
XYN
1n
2
n
N
1n
nn
N
1n
n
SS
XX
YYXX
B
YYN1
A
XX
XY
N
1n
n
ssˆb
yyN1
ˆa
=β=
=⋅=α= ∑=
A partir de um conjunto particular de observações (xn, yn) obtêm-se as estimativas seguintes:
Regressão Linear Simples
0
1
2
3
4
5
6
0 10 20 30 40 50XY
0
1
2
3
4
5
6
0 10 20 30 40 50XY
xx −yy −
14Métodos Estatísticos de Previsão
Note que, a recta estimada passa sempre pelo ponto )Y,X(
XX
Y
( )XXY nn −⋅β+α=Y
( ) yXXyY
yˆa
n =−⋅β+=
=α=
Regressão Linear Simples
15Métodos Estatísticos de Previsão
Se a relação entre Xn e µµµµYn for efectivamente linear e os erros foremindependentes, tiverem valor esperado nulo e variância constante, pode demonstrar-se que:
1. A e B são estimadores não-enviesados, eficientes e consistentes
2. A matriz de variância-covariância dos estimadores é
( ) ( )( ) ( )
σσ
=
XX2
2
S0
0N
BVARA,BCOV
B,ACOVAVAR
Como Cov(a,b)=0, conclui-se que A e B não são correlacionados, o que não acontece com B0 e B1, uma vez que ββββ0 é função de ββββ.
Deste facto resulta a vantagem do modelo
( ) nnn EXXY +−⋅+= βα relativamente a 0β βn n nY X E= + ⋅ +
X0 ⋅β−α=β
Regressão Linear Simples
16Métodos Estatísticos de Previsão
XXSBVar
2
)(σ=
Estimativa de β é melhor quando os valores de x estão mais espalhados.
Regressão Linear Simples
17Métodos Estatísticos de Previsão
( )[ ]2
1 1
22
2
1ˆ2
1∑ ∑
= =−⋅−−⋅
−=⋅
−=
N
n
N
nnnn XXBAY
NE
NS
3. Um estimador não-enviesado de σσσσ2 é
Regressão Linear Simples
18Métodos Estatísticos de Previsão
82)yy()xx(s
40)xx(s
30y
10x
5N
n
nnXY
n
2nXX
∑
∑=−⋅−=
=−=
=
=
=
ExemploAdmitindo que a relação entre as variáveis X e Y é linear, pretende-se estimar os parâmetros do modelo de regressão correspondente:
n xn yn
1 12 33
2 8 24
3 14 39
4 10 31
5 6 23
n yn )( xxba nYn−⋅+=µ
nynn ye µˆ −=
1 33 30 + 2.05⋅ 2 = 34.1 33 − 34.1 = −1.1
2 24 30 + 2.05⋅ (−2) = 25.9 24 − 25.9 = −1.9
3 39 30 + 2.05⋅ 4 = 38.2 39 − 38.2 = 0.8
4 31 30 + 2.05⋅ 0 = 30.0 31 − 30.0 = 1.0
5 23 30 + 2.05⋅ (−4) = 21.8 23 − 21.8 = 1.2
∑=
=⋅−
=σ=N
1n
2n
22 63.2e2N
1ˆs
05.2ssb
30ya
XXXY ==
==
0658.0ssˆ
527.0Nsˆ
XX22
B
22A
==σ
==σ
Podemos também estimar a variância dos erros e dos estimadores:
Regressão Linear Simples
19Métodos Estatísticos de Previsão
Se En IN(0,σσσσ2), é possível especificar as distribuições dos estimadoresde αααα, ββββ e σσσσ2
( ) 2N2 t
NS
AN,NA −
α−⇒σα
( )BXABt
SX
N1
S
BSX
N1
,NB 02N
XX
2
002
XX
2
00 ⋅−=+⋅
β−⇒
σ⋅
+β −
( ) 2N
XX
XX2 t
SS
BS,NB −
β−⇒σβ
A partir destas expressões é possível definir I.C. e T.H.
( )0
α β
β β
n n
n n
Y X X
Y X
= + ⋅ − ⇔
= + ⋅1.
2.
3.
Regressão Linear Simples
20Métodos Estatísticos de Previsão
Regressão Linear Simples
Intervalos de Confiança para os parâmetros de regre ssão
Os intervalos de confiança bilaterais a (1- γγγγ) . 100% vêm
( ) N1S2tA: 2N ⋅⋅γ±α −
( ) 18.3205.0t3 =
EXEMPLO (CONT.)
( ) ( ) XX2
2N0 SXN1S2tBXA: +⋅⋅γ±⋅−β −
( ) XX2N S1S2tB: ⋅⋅γ±β −
[ ]87.2,23.140163.218.305.2: ⇒⋅⋅±β
( ) [ ]95.17,05.140105163.218.305.21030: 20 ⇒+⋅⋅±⋅−β
[ ]31.32,69.275163.218.330: ⇒⋅⋅±α
1.
2.
3.
21Métodos Estatísticos de Previsão
Regressão Linear Simples
Testes de hipóteses para os parâmetros de regressão
Os testes de hipóteses relativos aos parâmetros podem ser realizados recorrendo aos intervalos de confiança. Alternativamente, os testes podem ser efectuados pelo método clássico:
( )( ) ( ) ( )
( )2N
XX
2
000
0000000001
0000t
SX
N1
S
BXAET:.VERDH
,,:H
:H−
+⋅
β−⋅−=⇒
β<ββ>ββ≠β
β=β
2N
XX
00
0001
00t
SS
BET:.VERDH
,,:H
:H−
β−=⇒
β<ββ>ββ≠β
β=β
2N0
0
0001
00t
NS
AET:.VERDH
,,:H
:H−
α−=⇒
α<αα>αα≠α
α=α1.
2.
3.
22Métodos Estatísticos de Previsão
Regressão Linear Simples
Quando se pretende realizar um teste bilateral à hipótese nula H0: ββββ=0, pode recorrer-se a um procedimento baseado na ANOVA
( ) ( )[ ]{ } ( )[ ]{ }44444 344444 214444 34444 214434421
XX2
YYXX2YY SBSVR
RESIDUAL.V
n
2
nn
SBVDRREGRESSÃOÀDEVIDA.V
n
2
n
SVTTOTAL.V
n
2
n XXBAYYXXBAYY
⋅−=⋅==
∑∑∑ −⋅+−+−−⋅+=−
23Métodos Estatísticos de Previsão
Regressão Linear Simples
2N,10
1
0F
DQMRDQMDR
ET:.VERDH0:H
0:H−=⇒
≠β
=β
O procedimento de teste ANOVA tem a seguinte estrutura:
Tabela ANOVA para o modelo de regressão linear simples
FONTES DE VARIAÇÃO
VARIAÇÕES (Somas de quadrados)
GRAUS DE LIBERDADE (Número de termos
independentes)
DESVIOS QUADRÁTICOS
MÉDIOS
VALORES ESPERADOS
DEVIDA À REGRESSÃO (DR)
(Variação explicada pela regressão)
VDR = B2 · SXX
= B · SXY
GL1 = 1
DQMDR = VDR
E [DQMDR] = σσσσ2 + ββββ2 · SXX
RESIDUAL (R)
(Variação residual, não explicada)
VR = SYY - B · SXY GL2 = N−−−− 2 DQMR = VR/GL 2 E [DQMR] = σσσσ2
TOTAL (T)
(Variação total)
VT = SYY
GL = GL 1 + GL2 = N −−−− 1
24Métodos Estatísticos de Previsão
Regressão Linear Simples
Exemplo (anterior)
Admitindo que a relação entre as variáveis X e Y é linear, pretende-se estimar os parâmetros do modelo de regressão correspondente
n xn yn
1 12 33
2 8 24
3 14 39
4 10 31
5 6 23
05.2ssb
30ya
XXXY ==
==
25Métodos Estatísticos de Previsão
Regressão Linear Simples
Exemplo (cont.)%50:H0:H 10 =α≠β=β
FONTES VARIAÇÕES G.L. DQM
DR 168.1 1 168.1
R 7.9 3 2.633
T 176.0 4
( ) ( )
0
3,1
H Rejeitar
0.41%Pprova de Valor13.1005.0F84.63633.2
1.168ET ==>==
[ ]87.2,23.140163.218.305.2 ⇒⋅⋅±∈βI.C.:
( ) ( )%41.0Pprova de Valor18.3205.0t99.74062.1
05.2ET 3 ==>==T.H.:
ANOVA:
26Métodos Estatísticos de Previsão
Regressão
Dado que cada novo valor Y se admite independente dos anteriores, são constantes e A e B são independentes, pode-se mostrar que a
variância do erro de previsão vem:
Previsões com base no modelo de regressão linear si mples
( )XXBAˆY Y −⋅+=µ=
( )[ ] ( )[ ]XXBAEXXYY −⋅+−+−⋅β+α=−=δ
( ) ( ) 2
XX
2
SXX
N1
1)Y(VAR)Y(VARVAR σ⋅
−++=+=δ
O erro que se comete na previsão vem
XX e,, ββββαααα
Y
µ µ µ µ y
f (y|x)
X
x 1
x 2
σσσσ
µ µ µ µ Y 2
µ µ µ µ Y 1
σσσσ
Para cada valor de X, a melhor previsão de Y é dada por
( ) ( )( ) ( )
σσ
=
XX2
2
S0
0NBVARA,BCOV
B,ACOVAVAR
27Métodos Estatísticos de Previsão
Regressão
( ) ( )XX
2
2N SXX
N1
1S2tY−++⋅⋅γ± −
Admitindo a normalidade dos erros En , temos que seguem também distribuições Normais.
Assim, o intervalo de previsão a (1- γγγγ).100% será:
δδδδeˆ, YY
( )XX
2
SXX
N1
1SY−++⋅±
Se tn-2(γ/2)=1 a banda de previsão a (1-γγγγ).100% é definida por:
Quando se considera todos os valores possíveis de X, os intervalos formam uma banda de previsão.
28Métodos Estatísticos de Previsão
Regressão
N1
1SY:BBANDA +⋅±
Banda A - tem apenas a ver com a estimativa do desvio-padrão do erro E
Banda B - acrescenta, relativamente à banda A, o termo correspondente ao erro de estimação de αααα
Banda C - acrescenta, relativamente à banda B, o termo correspondente ao erro de estimação de ββββ
Y
x
y = a + b (x - x) i i.A
B C
X
)( xxbay nn −⋅+=
1SY:ABANDA ⋅±
( )XX
2
SXX
N1
1SY:CBANDA−++⋅±
29Métodos Estatísticos de Previsão
Regressão
Uma relação que pareça linear dentro da gama de valores observados Xn, pode ter um comportamento não-linear numa gama mais alargada.
Apesar de a banda de previsão definida alargar à medida que as observações se afastam da média de X, esta não contempla esse tipo de situações, assentando no pressuposto de que a relação é efectivamente linear.
X
Y
Gama de valores observados
Relação linear ajustada
Relação verdadeira (não linear)
Valor extrapo- lado de Y
Novo valor de X
31Métodos Estatísticos de Previsão
Regressão Linear Simples
Regressão linear simples e correlação entre variáve is
Embora a análise de correlação seja uma técnica menos potente do que a regressão linear simples , pois apenas revela o grau de relacionamento linear entre variáveis sem especificar a forma que ele assume, ambas estão intimamente ligadas.
Na regressão linear simples , os valores observados de X são encarados como constantes, podendo não ser representativos de uma qualquer distribuição populacional
Na análise de correlação , para que a partir do coeficiente de correlação amostral se possam fazer inferências relativas ao coeficiente de correlação populacional, é preciso que as observações (Xn,Yn) sejam representativas da população conjunta de X e Y
32Métodos Estatísticos de Previsão
Regressão Linear Simples
( ) ( )∑=
−⋅−⋅−
=N
nnnXY yyxx
Nc
11
1
( ) ( )
( ) ( )( )11
11
11
11
1
2
1
2
1 ≤≤−⋅
=−⋅
−⋅−⋅
−
−⋅−⋅−=
∑∑
∑
==
=XY
YX
XY
N
nn
N
nn
N
nnn
XY rss
c
yyN
xxN
yyxxN
r
Covariância amostral (permite inferir acerca da população)
Coeficiente de correlação amostral (medida adimensional)
0
1
2
3
4
5
6
0 10 20 30 40 50X
Y
xx −yy −
33Métodos Estatísticos de Previsão
Regressão Linear Simples
Se os valores Xn não forem obrigatoriamente representativos da população deX, podem situar-se numa zona restrita dessa população, provocando o enviesamento do coeficiente de correlação amostral
Y
Zona centralX
Enviesamento do coeficiente de correlação amostral calculado a partir de observações pertencentes à zona central da população de x
34Métodos Estatísticos de Previsão
Regressão Linear Simples
Na análise de correlação não se faz qualquer distinção entre variável dependente e variável independente
A existência de correlação implica que
• X é causa de Y, ou• Y é causa de X, ou ainda• Uma outra variável é causa simultânea de X e Y
Que sentido fará, no contexto da regressão, calcular o coeficiente de correlação amostral ?XYR
35Métodos Estatísticos de Previsão
Regressão Linear Simples
( )( )∑∑
−
−⋅=⋅=
n
2
n
n
2
n2
YY
XX2
2XY
YY
XXB
SSB
R
Se X for claramente assumida como variável predeterminada, o cálculo do quadrado do coeficiente de correlação amostral, o coeficiente de determinação , representa a proporção da variação de y que é explicada pela regressão
( ) ( ) ( )[ ]
( )∑∑
∑∑
==
==
−⋅+==
−+−=−=N
nn
N
nn
N
nnnn
N
nnYY
xxbe
yyyyyys
1
22
1
2
1
2
1
2 ˆˆ
L
Não--explicada Explicada
36Métodos Estatísticos de Previsão
O montante global dos seguros de vida efectuados pelas famílias de um determinado país depende do rendimento anual do agregado familiar. Na tabela seguinte apresentam-se os valores destas variáveis, expressas em unidades monetárias do país em causa, para um conjunto de 12 famílias considerado representativo da população.
Estime a relação entre as duas variáveis e o intervalo de previsão do montante global de seguros de vida efectuados por uma família com um rendimento anual agregado de 20 000 [u.m]
Regressão Linear Simples
Rendimento anual
[1000 u.m.]
Capital seguro
[1000 u.m.]
14 31
19 40
23 49
12 20
9 21 15 34
22 54
25 52
15 28
10 21
12 24
16 34
37Métodos Estatísticos de Previsão
Regressão Linear Múltipla
• O modelo de regressão linear múltipla é uma extensão do modelo de regressão linear simples.
• Permite descrever uma relação entre um conjunto de variáveis quantitativas independentes, Xj (j=1,2,...,J), e uma variável, Y, quantitativa dependente.
• O objectivo será o de construir um modelo que se ajuste melhor aos dados do que o modelo de regressão linear simples.
38Métodos Estatísticos de Previsão
Regressão Linear Múltipla
y = β0 + β1x
X
Y
X2
1
O modelo de regressão linear simples considera apenas uma variável independente, “X”
Y =β0 + β 1X + E
O modelo de regressão linear múltipla considera duas, ou mais, variáveis independentes, X1 e X2.
Y = b0 + b1x1 + b2x2 + E
Agora, a recta é
transformada num plano
y = β0+ β1
x1+ β2
x2
39Métodos Estatísticos de Previsão
Regressão Linear Múltipla
O modelo de regressão linear múltipla :
nJJnJ1n11n E)XX()XX(Y +−⋅β++−⋅β+α= L
)Y,X,,X( nJnn1 L n-ésima observação das variáveis X1,...,XJ e Y
jX média das observações da variável Xj
J1 ,,, ββα L parâmetros fixos a estimar
nE erro aleatório associado a Yn
40Métodos Estatísticos de Previsão
Regressão Linear Múltipla
Modelo de regressão linear populacional bivariado
X2
Y
X1µµµµYX = ββββ0 + ββββ1X1i + ββββ2X2i
ββββ0
Yi = ββββ0 + ββββ1X1i + ββββ2X2i + εεεεi
ResponsePlane
(X1i,X2i)
(Observed Y)
εεεεi
X2
Y
X1µµµµYX = ββββ0 + ββββ1X1i + ββββ2X2i
ββββ0
Yi = ββββ0 + ββββ1X1i + ββββ2X2i + εεεεi
ResponsePlane
(X1i,X2i)
(Observed Y)
εεεεi
41Métodos Estatísticos de Previsão
Regressão Linear Múltipla
X2
Y
X1
b0
Yi = b0 + b1X1i + b2X2i + ei
ResponsePlane
(X1i,X2i)
(Observed Y)
^
ei
Yi = b0 + b1X1i + b2X2i
X2
Y
X1
b0
Yi = b0 + b1X1i + b2X2i + ei
ResponsePlane
(X1i,X2i)
(Observed Y)
^
ei
Yi = b0 + b1X1i + b2X2i
Modelo de regressão linear amostral bivariado
42Métodos Estatísticos de Previsão
Regressão Linear Múltipla
En IN (0,σ2)
A este modelo estão subjacentes as seguintes hipóteses:
1. Os valores Xjn, e portanto, os seus valores esperados são encarados como constantes predeterminadas, sem erro
2. Os erros En são mutuamente independentes, têm valor esperado nulo, variância constante e são normalmente distribuídos, isto é,
43Métodos Estatísticos de Previsão
Regressão Linear Múltipla
Os parâmetros podem ser estimados recorrendo ao método dos mínimos quadrados minimizando a seguinte função:
J1 ,,, ββα L
[ ]{ }2
n
JJnJ1n11n
n
2n )XX()XX(YESEQ ∑∑ −⋅β++−⋅β+α−== L
0)]()([)2( 111 =−⋅−⋅⋅⋅−−⋅−−⋅−= ∑ JJnJnn
n XXXXYSEQ ββα∂α
∂
0)]()([)()2( }{ 111111
=−⋅−⋅⋅⋅−−⋅−−⋅−⋅−= ∑ JJnJnn
nn XXXXYXXSEQ ββα∂β
∂
0)]()([)()2( }{ 111 =−⋅−⋅⋅⋅−−⋅−−⋅−⋅−= ∑ JJnJnn
nJJnJ
XXXXYXXSEQ ββα
∂β∂
(...)
Sendo o mínimo atingido para
44Métodos Estatísticos de Previsão
Regressão Linear Múltipla
A primeira equação permite obter o estimador de , que é idêntico ao que foi definido para o modelo de regressão linear simples:
α
YYN1
An
n =⋅= ∑Desenvolvendo as restantes equações, obtém-se o seguinte sistema cuja
resolução permite obter os estimadores de J1 ,, ββ L
YXXXJXX2XX1
YXXXJXX2XX1
YXXXJXX2XX1
JJJ2J1J
2J22212
1J12111
SSBSBSB
)(
SSBSBSB
SSBSBSB
=⋅++⋅+⋅
=⋅++⋅+⋅
=⋅++⋅+⋅
L
L
L
L
)XX()XX(S22112j1jjnjjnj
n
XX −⋅−=∑onde )YY()XX(S njjn
n
YX j−⋅−=∑e
45Métodos Estatísticos de Previsão
Regressão Linear Múltipla
1
XXXX
XXXX2
J1JJ
J111
J1
JJ1J
J111
SS0
SS0
00N
)B(Var)B,B(Cov)A,B(Cov
)B,B(Cov)B(Var)A,B(Cov
)B,A(Cov)B,A(Cov)A(Var−
⋅σ=
L
LLLL
L
L
L
LLLL
L
L
Se a relação entre as variáveis Xj e µy for linear e se os erros En forem independentes, tiverem valor esperado nulo e variância constante pode demonstrar-se que:
1. Os estimadores A e B1,...,Bj são não-enviesados, eficientes e consistentes.
2. A matriz de variância-covariância dos estimadores A e B1,...Bj é:
46Métodos Estatísticos de Previsão
Regressão Linear Múltipla
3. Um estimador não-enviesado de σ2 é definido pela expressão:
2JJnJ
n
1n11n
n
22
)]XX.(B)XX.(BAY[1JN
1
E1JN
1S
−−−−−−⋅−−
=
=⋅−−
=
∑
∑
L
47Métodos Estatísticos de Previsão
ExemploConsiderem-se as observações das variáveis X1, X2 e Y que constam da tabela. Admitindo que o valor esperado de Y é uma função linear de X1 e X2, estimem-se os parâmetros do modelo de regressão correspondente.n x1n x2n yn 1 5.0 7.2 51.7 2 5.8 7.8 56.4 3 4.2 8.1 49.3 4 6.0 8.7 60.7 5 4.8 6.6 48.9 6 5.6 7.5 54.1 7 4.4 9.0 54.9 8 5.2 6.3 49.8 9 5.4 8.4 57.9 10 4.6 6.9 50.4
10.5)6.48.50.5(101
x1 =+⋅⋅⋅++⋅=10N =
65.7)9.68.72.7(101
x2 =+⋅⋅⋅++⋅=
41.53)4.504.567.51(101
y =+⋅⋅⋅++⋅=
3.3)1.56.4()1.50.5()xx(S 22
i
21i1xx 11
=−+⋅⋅⋅+−=−=∑42.7)65.79.6()65.72.7()xx(S 22
i
22i2xx 22
=−+⋅⋅⋅+−=−=∑45.0)65.79.6()1.56.4()65.72.7()1.50.5()xx()xx(SS
i
2i21i1xxxx 1221=−⋅−+⋅⋅⋅+−⋅−=−⋅−== ∑67.15)41.534.50()1.56.4()41.537.51()1.50.5()yy()xx(S
i
i1i1yx1=−⋅−+⋅⋅⋅+−⋅−=−⋅−=∑
16.24)41.534.50()65.79.6()41.537.51()65.72.7()yy()xx(Si
i2i2yx2=−⋅−+⋅⋅⋅+−⋅−=−⋅−=∑
19.147)41.534.50()41.537.51()yy(S 22
i
2iyy =−+⋅⋅⋅+−=−=∑
Regressão Linear Múltipla
48Métodos Estatísticos de Previsão
As estimativas dos parâmetros de regressão podem então obter-se nos seguintes termos:
41.53yˆa ==α=
=⋅+⋅
=⋅+⋅⇒
16.24b42.7b45.0
67.15b45.0b3.3
21
21
=β=
=β=⇒
99.2ˆb
34.4ˆb
22
11
=⋅+⋅
=⋅+⋅
YXXX2XX1
YXXX2XX1
22212
12111
SSbSb
SSbSb
Exemplo (cont.)
Regressão Linear Múltipla
49Métodos Estatísticos de Previsão
)65.7(99.2)10.5(34.441.53ˆ 21 −⋅+−⋅+= iiY xxi
µA partir de pode-se calcular a estimativa de σ2
n yn Ynµ
Ynii ye µˆ −=
1 51.7 51.630 0.070
2 56.4 56.897 -0.497
3 49.3 50.850 -1.550
4 60.7 60.458 0.242
5 48.9 48.967 -0.067
6 54.1 55.132 -1.032
7 54.9 54.410 0.490
8 49.8 49.306 -0.006
9 57.9 56.956 0.944
10 50.4 48.996 1.404
983.0]404.107.0[1210
1e
1JN1
ˆs 22
n
2n
22 =+⋅⋅⋅+⋅−−
=⋅−−
=σ= ∑
1
2212
2111
xxxx
xxxx2
2
^
12
^21
^
1
^
SS
SSˆ
)B(Var)B,B(Cov
)B,B(Cov)B(Var−
⋅σ=
−−
=−
⋅=
133.0018.0
018.0300.01
42.745.0
45.030.3983.0
548.0ˆ300.0)B(Var1B1
^
=σ⇒= 365.0ˆ133.0)B(Var2B2
^
=σ⇒=
090.0365.0548.0
018.0ˆ018.0)B,B(Cov
21 B,B21
^
−=⋅
−=ρ⇒−=
e estimar a variância dos estimadores:
Regressão Linear Múltipla
50Métodos Estatísticos de Previsão
Regressão Linear Múltipla
Onde var(B1),...,Var(Bj ) são definidos a partir da matriz variância-covariância.
Se , é possível especificar as distribuições dos estimadores A e
B1,...,BJ
),0( 2σINEn
..............
A N (α, σ2/N)
B1 N [β1,Var(B1)]
BJ N [βJ,Var(BJ)]
1JNtN/S
A−−
α−1JN
J
JJ t)B(raV
B−−
β−1JN
1
11 t)B(raV
B−−
β−
Nestas condições, temos as distribuições seguintes:
51Métodos Estatísticos de Previsão
Regressão Linear Múltipla
A partir das expressões anteriores é possível definir intervalos de confiança e testes de hipóteses envolvendo os parâmetros de regressão.
Intervalos de Confiança:
N/1S)2/(tA: 1JN ⋅⋅γ±α −−
)B(raV)2/(tB: j1JNjj ⋅γ±β −−
Teste de Hipóteses:
O teste relativo ao parâmetro αααα será:H0: α =α0
H1: α ≠ α0 , α < α0 ou α > α0 N/S
AET 0α−=
H0 verdadeira ⇒ ET 1JNt −−
Note que, os intervalos assim definidos estão correctamente especificados quando considerados individualmente. No entanto, o nível de confiança para o conjunto dos intervalos definidos para A e Bj (j=1,...,J) é, de facto, diferente do considerado.
52Métodos Estatísticos de Previsão
Regressão Linear Múltipla
Relativamente aos parâmetros ββββj deverá primeiro ser testada a hipótese de que todos eles são nulos contra a hipótese de que pelo menos um dele é diferente de zero.
444444444 3444444444 21
L
444444444 3444444444 21
L
4434421
L
L
)SBSB(SVR
2JJnJ
n
1n11n
SBSBVDR
2JJnJ
n
1n11
SVT
n
2n
YJXJY1X1YY
YJXJY1X1YY
)]XX.(B)XX.(BAY[
]Y)XX.(B)XX.(BA[)YY(
⋅++⋅−=
⋅++⋅==
−−−−−−+
+−−++−+=−
∑
∑∑
Teste de Hipóteses (cont.):
Tal teste será realizado recorrendo à técnica de Análise de Variância que se fundamenta na seguinte decomposição:
53Métodos Estatísticos de Previsão
Regressão Linear Múltipla
FONTES DE VARIAÇÃO
VARIAÇÕES (Somas de quadrados)
GRAUS DE LIBERDADE (Número de termos
independentes)
DESVIOS QUADRÁTICOS
MÉDIOS
VALORES ESPERADOS
DEVIDA À REGRESSÃO (DR) YXJYX1 J1
SBSB=
=VDR
⋅⋅ ⋅⋅⋅ ++++++++
GL1 = J
DQMDR = VDR/GL 1
E [DQMDR] =
=σσσσ2 + + + + f B1 , ⋅⋅⋅,BJ( )[ ]2
RESIDUAL (R)
(Variação residual "não explicada")
VR = SYY - VDR GL2 = N – J – 1 DQMR = VR/GL 2 E [DQMR] = σσσσ2
TOTAL (T)
(Variação total)
VT = SYY
GL = GL 1 + GL2 = N- 1
Na ANOVA referente à regressão linear múltipla adopta-se esta decomposição.
Donde decorre a estrutura do teste ANOVAH0: β1 = β2=....= βJ =0
H1: algum βj ≠ 0 DQMRDQMDR
ET = H0 verdadeira ⇒ ET 1JN,JF −−
54Métodos Estatísticos de Previsão
Regressão Linear Múltipla
Utilizando os dados do exemplo anterior, vamos testar as hipóteses
H0: β 1 = β 2 = 0
H1: β 1 ou β 2 ≠ 0.
A tabela ANOVA correspondente vem:
FO NTES VARIAÇÕ ES G.L. DQM
DR 140.3 2 70.15
R 6.9 7 0.983
T 147.2 9
Exemplo (cont.)
74.4)05.0(F34.71983.0
15.70ET 7,2 ==α== >
H0 é rejeitada ao nível de significância de 5% (valor de prova quase nulo)
55Métodos Estatísticos de Previsão
Regressão Linear Múltipla
Quando a hipótese nula é rejeitada é necessário verificar quais os βj que são diferentes de zero. Uma via possível consiste na realização dos seguintes testes individuais aos parâmetros.
H0: βj =0
H1: βj ≠ 0, βj > 0 ou βj < 0,
)B(raVET
j
jβ= H0 verdadeira ⇒ 1JNt −−ET
Das expressões anteriores relativas aos estimadores de Bj decorre a seguinte estrutura para os testes:
56Métodos Estatísticos de Previsão
Regressão Linear Múltipla
365.2)025.0(t92.7548.034.4
)B(Var
bET 7
1
^
1 =>===
365.2)025.0(t19.8365.099.2
)B(Var
bET 7
2
^
2 =>===
Exemplo (cont.)
548.0ˆ1B =σ 365.0ˆ
2B =σSabendo que b1 = 4.34 b2 = 2.99
H0: β1 = 0 é rejeitada ao nível de significância de 5% (valor de prova quase nulo)
H0:β1 = 0 e H0: β2 = 0 H1: β1 ≠ 0 H1: β2 ≠ 0
H0: β2 = 0 também é rejeitada ao nível de significância de 5% (igualmente com valor de prova praticamente nulo).
57Métodos Estatísticos de Previsão
Exemplo.
Estime e teste o modelo de regressão para as seguintes variáveis:
1823083
98038
98545
22180117
1310062
119556
99049
196069
X2X1Y
Regressão Linear Múltipla
58Métodos Estatísticos de Previsão
Y X1 X2 Syy Sx1x1 Sx2x2 Sx1x2 Sx1y Sx2y69 60 19 17.0 3025.0 27.6 -288.8 -226.9 21.749 90 9 252.0 625.0 22.6 118.8 396.9 75.456 95 11 78.8 400.0 7.6 55.0 177.5 24.462 100 13 8.3 225.0 0.6 11.3 43.1 2.2117 180 22 2717.0 4225.0 68.1 536.3 3388.1 430.045 85 9 395.0 900.0 22.6 142.5 596.3 94.438 80 9 722.3 1225.0 22.6 166.3 940.6 127.783 230 18 328.5 13225.0 18.1 488.8 2084.4 77.0
64.9 115.0 13.8 4518.9 23850.0 189.5 1230.0 7400.0 852.8
a= 64.88
23850 b1 + 1230 b2 = 74001230 b1 + 189.5 b2 = 852.75
b1= 0.12b2= 3.74
ANOVAFV Var GL DQM ET= 21.93798DR 4056.595 2 2028.298 F2,5= 5.786135R 462.2799 5 92.45598T 4518.875 7 R2xy= 89.77%
Regressão Linear Múltipla
59Métodos Estatísticos de Previsão
Regressão Linear Múltipla
O problema associado à realização destes testes reside no facto de o nível de significância do conjunto dos testes ser diferente daquele que foi especificado.
Esta dificuldade pode ser contornada com o método de selecção de regressores .
60Métodos Estatísticos de Previsão
Regressão Linear Múltipla
• No modelo de regressão múltipla admitiu-se que as variáveis independentes (os regressores) eram designadas à partida.
• Na maioria das situações práticas não é possível especificar à partida, com segurança, o conjunto ideal de regressores.
• Num cenário real podem existir uma multiplicidade de regressores potencialmente úteis na explicação do comportamento da variável dependente, havendo que seleccionar de entre eles aqueles que devem figurar no modelo.
• De seguida serão discutidos diferentes métodos de selecção de regressores.
Selecção de Regressores
61Métodos Estatísticos de Previsão
Regressão Linear Múltipla
1. Construir os modelos de regressão que combinem de todas as maneiras possíveis os regressores potenciais.
2. Ordenar os modelos de regressão de acordo com um critério de qualidade (por exemplo, minimizar os DQMR).
3. Avaliar em detalhe um número restrito de modelos considerados melhores, de acordo com o critério fixado em (2).
Método Exaustivo
O ponto (3) está associado à incapacidade de definir um critério único que, em todas as circunstâncias, permita comparar objectivamente a qualidade dos modelos.
Se o número de regressores potenciais for J, o número de modelos alternativos a construir é 2J-1.
62Métodos Estatísticos de Previsão
Regressão Linear Múltipla
1. Ajustar tantos modelos de regressão linear simples quantos os regressores potenciais. Incluir no modelo aquele que explica a maior proporção da variação da variável dependente. Se nenhum regressor explicar uma proporção significativa da variação o método termina.
2. Construir modelos de regressão dupla que associem o regressor seleccionado em (1) e cada um dos restantes regressores potenciais.De entre os novos regressores que explicam uma proporção adicional significativa da variação total, incluir no modelo aquele que explica a maior proporção.
3. Prosseguir a tentativa de construção de modelos de ordem superior adoptando um procedimento idêntico ao descrito.
4. O método termina quando nenhum dos regressores potenciais explica umproporção adicional significativa da variação total ou quando todos os regressores forem incluídos no modelo.
5. Este método não garante a selecção do melhor conjunto de regressores.
Método Progressivo
63Métodos Estatísticos de Previsão
.rejeitadaH41.4)05.0(F0.2218/90
110ET0:H 018,120 ⇒
=>==→=β
Considere-se o problema da selecção de regressores admitindo que se dispõe de 20 observações de uma variável dependente (Y) e de três variáveis candidatas a figurarem como regressores num modelo de regressão múltipla (X1, X2 e X3).
Exemplo
Passo (1): construir três modelos de regressão linear simples
Modelo Y = Y(X1):
Fontes Variações G.L. DQM
DR (X1) 60 1 60
R 140 18 140/18
T 200 19
Modelo Y = Y(X2):
Fontes Variações G.L. DQM
DR (X2) 110 1 110
R 90 18 90/18
T 200 19
Modelo Y = Y(X3):
Fontes Variações G.L. DQM
DR (X3) 20 1 20
R 180 18 180/18
T 200 19
O regressor que explica a maior proporção da variação total é X2.
O teste ANOVA permite verificar que a proporção da variação explicada ésignificativa.
Regressão Linear Múltipla
64Métodos Estatísticos de Previsão
Modelo Y = Y(X2, X1):
Fontes Variações G.L. DQM
DR (X2,X1) 120 2 120/2
R 80 17 80/17
T 200 19
Modelo Y = Y(X2, X3):
Fontes Variações G.L. DQM
DR (X2,X3) 135 2 135/2
R 65 17 65/17
T 200 19
Vamos agora de testar se o contributo adicional de X3 para a explicação da variação de Y é significativo. Para tal tem-se de alterar a tabela ANOVAcorrespondente decompondo:
VDR(X2, X3) = VDR(X2) + VDR(X3|X2)
Fontes Variações G.L. DQM
DR (X2,X3) 135 2 135/2
DR (X2) (110) (1)
DR (X3|X2) (25) (1) 25
R 65 17 65/17
T 200 19
Passo (2) construir os dois modelos de regressão linear dupla Y = Y(X2, X1) e Y = Y(X2, X3)
O regressor que explica uma proporção adicional maior da variação total é X3.
Regressão Linear Múltipla
65Métodos Estatísticos de Previsão
O teste ANOVA a realizar tem a seguinte estrutura:
H0: β3 = 0
H1: β3 ≠ 0 DQMDR)X|X(DQMDR
ET 23= H0 verdadeira ⇒ ET F1,N-3.
45.4)05.0(F54.617/65
25DQMR
)X|X(DQMDRET 17,1
23 =>===
Nestas condições, é incluído no modelo o regressor X3, que assim se junta ao regressor X2
Passo (3) construir o modelo de regressão linear tripla Y = Y(X2, X3, X1)Fontes Variações G.L. DQM
DR (X2,X3,X1) 140 3 135/2
DR (X2,X3) (135) (2)
DR (X1|X2,X3) (5) (1) 5
R 60 16 60/16
T 200 19
.rejeitada ão 50.4)05.0(33.1
16/60
5),|(016,1
321 nHFDQMR
XXXDQMDRET ⇒
=<===
Neste caso, o teste ANOVA permite verificar que, a proporção adicional da variação total que é explicada por X1 não é significativa
Regressão Linear Múltipla
66Métodos Estatísticos de Previsão
Regressão Linear Múltipla
1. Incluir no modelo todos os regressores potenciais.
2. Retirar do modelo, um a um, regressores cuja presença não contribua para explicar uma proporção significativa da variação total
3. Prosseguir a tentativa de construção de modelos de ordem inferior adoptando um procedimento idêntico ao descrito.
Método Regressivo
Método Regressão Passo a Passo
Consistem em versões dos métodos progressivo e regressivo nas quais os regressores que tenham sido incorporados no modelo ou dele excluídos em passos anteriores são reexaminados
67Métodos Estatísticos de Previsão
2. Utilize o método de selecção de regressores para o exemplo:
Y 69 49 56 62 117 45 38 83X1 60 90 95 100 180 85 80 230X2 19 9 11 13 22 9 9 18
Regressão Linear Múltipla
68Métodos Estatísticos de Previsão
Regressão Linear Múltipla
ANOVA y=f(X1) ANOVA y=f(X1,X2)df SS MS F V.P. df SS MS F V.P.
DR(X1) 1 2296.0 2296.0 6.2 0.047 DR(X1,X2) 2 4056.6 2028.3 21.9 0.003R 6 2222.9 370.5 R 5 462.3 92.5
Total 7 4518.9 Total 7 4518.9
ANOVA y=f(X2) ANOVA y=f(X1,X2)df SS MS F V.P. df SS MS F V.P.
DR(X2) 1 3837.4 3837.4 33.8 0.001 DR(X1,X2) 2 4056.6 2028.3R 6 681.5 113.6 DR(X2) 1 3837.4
Total 7 4518.9 DR(X1|X2) 1 219.2 219.2 2.4 0.184Residual 5 462.3 92.5
Total 7 4518.9
69Métodos Estatísticos de Previsão
Incorporação de regressores qualitativos: variáveis mudas
As variáveis mudas são incorporadas nos modelos de regressão com o objectivo de representar o efeito de factores qualitativos.
Exemplo
Numa determinada empresa de artes gráficas existe uma secção dedicada ao fabrico de um tipo de cartões. Na figura representam-se, para essa secção, observações das variáveis
X: dimensões de diferentes encomendas de cartões
Y: custos de produção associados à satisfação das encomendas.
Y
X
- com urgência+
- normal
+
+
+
+
++ +
As observações foram classificadas em encomendas satisfeitas em regime normal e encomendas satisfeitas com urgência.
Regressão Linear Múltipla
70Métodos Estatísticos de Previsão
nnnnnnN EZX'E)ZZ()XX(Y +⋅γ+⋅β+α=+−⋅γ+−⋅β+α=
Com base na figura parece razoável adoptar o seguinte modelo
Em que Zn represente um variável muda que toma os seguintes valores
=urgenteregimeopara,1
normalregimeopara,0Zn
Para representar adequadamente um factor com k níveis devem ser incluídas no modelo de regressão k - 1 variáveis mudas, por exemplo, para considerar três regimes de satisfação de encomendas
regime normal: Z1 = 0, Z2 = 1regime urgente: Z1 = 1, Z2 = 0regime muito urgente: Z1 = 1, Z2 = 1.
=normalfornãoregimeose,1
normalforregimeose,0Z1
=urgentefornãoregimeose,1
urgenteforregimeose,0Z2
No exemplo γ representa o valor esperado do custo adicional associado ao regime urgente.
nn22n11nn EZZX'Y +⋅γ+⋅γ+⋅β+α=
Regressão Linear Múltipla
71Métodos Estatísticos de Previsão
Regressão
• A técnica de regressão linear simples pode ser utilizada em modelos não-lineares desde que os modelos sejam convertíveis em modelos lineares por aplicações de transformações às variáveis.• Vamos considerar alguns exemplos de aplicação frequente.
Regressão Não-Linear
Método:
1. Transformar a variável X
2. Transformar a variável Y
3. Aplicar método de regressão linear às variáveis transformadas
72Métodos Estatísticos de Previsão
Regressão Não Linear
Uma relação deste tipo pode ser linearizada recorrendo à seguinte transformação da variável independente
nn X
1U =
nn
n EX
'Y:Modelo +β+α=
X
Y
nnn EU'Y:olinearizad.Mod +⋅β+α=
Exemplo 1
73Métodos Estatísticos de Previsão
Regressão Não Linear
Linearização através de uma transformação logarítmica da variável dependente )Yln(Z nn =
nnn EX'Z:olinearizad.Mod +⋅β+α=
nn EX'n eY:lexponenciaModelo +⋅β+α=
X
Y
Exemplo 2
74Métodos Estatísticos de Previsão
Regressão Não Linear
nnn EU'Z:olinearizadMod. +⋅β+α=
linearização:
)Yln(Z nn =
nn X
1U =
)0e0'com(eY:ScurvaModelo nn EX/'n <β>α= +β+α
XXXX
YYYY
Exemplo 3
75Métodos Estatísticos de Previsão
Regressão
Entre uma variável dependente Y e uma variável independente X pode existir uma relação polinomial de grau J, que pode ser representada por um modelo do tipo:
Regressão Polinomial
nJJ
nJ22
n2n1n E)XX()XX()XX(Y +−⋅β++−⋅β+−⋅β+α= L
Onde ∑⋅=n
nXN1
X ∑⋅=n
2n
2 XN1
X ∑⋅=n
Jn
J XN1
X...
Este modelo designa-se por modelo de regressão polinomial simples e pode ser convertido num modelo de regressão linear múltipla fazendo corresponder a cada potência uma nova variável substituindo:
jnjn XXJ,,1jPARA == L
76Métodos Estatísticos de Previsão
Obtendo-se o modelo linearizado:
nJJnJ1n11n E)XX()XX(Y +−⋅β++−⋅β+α= L
O problema da escolha do grau do polinómio é equivalente ao problema da selecção de regressores anteriormente abordado.
Exemplo
X Y1 552 703 754 655 60
2n2n1n XXY ⋅β+⋅β+α=MODELO:
40
45
50
55
60
65
70
75
80
0 1 2 3 4 5 6
X
Y
Regressão Polinomial
77Métodos Estatísticos de Previsão
nn 2211n XXY ⋅β+⋅β+α=obtendo-se o seguinte modelo:
≡
≡2
2
1
XX
XXVamos definir as seguintes variáveis:
−=
=⇔
⇔
−=⋅+⋅
=⋅+⋅⇔
=⋅+⋅
=⋅+⋅
9.3b
1.24b
25374b60b
560b10b
SSbSb
SSbSb
2
1
21
21
yxxx2xx1
yxxx2xx1
22212
12111
0.36119.331.2465XX'ˆa 2211 =⋅+⋅−=⋅β−⋅β−α=α=
21Y x9.3x1.240.36ˆn
⋅+⋅+=µ
X1=X X2=X2 Y1 1 552 4 703 9 754 16 655 25 60
3x1 =
5N=
65y =11x2 =
10S11xx =
374S22xx =
60S21xx =
5S yx1=
25S yx2−=
40
45
50
55
60
65
70
75
80
0 1 2 3 4 5 6
X
Y
Regressão Polinomial
78Métodos Estatísticos de Previsão
� O coeficiente de determinação ( ), que traduz a proporção da variação total de
Y explicada pela regressão ajustada, corresponde ao coeficiente de correlação r
elevado ao quadrado;
� Este coeficiente apresenta uma limitação: o denominador da expressão que lhe
está subjacente tem um valor fixo, enquanto que o numerador só pode aumentar.
Assim, ao adicionar-se uma nova variável na equação da regressão, o
numerador aumentará, no mínimo, ligeiramente, resultando num aumento do
coeficiente de determinação, mesmo que a introdução da nova variável resulte
numa equação menos eficiente;
� Em teoria, usando um número infinito de variáveis independentes para explicar
a variação da variável dependente, resulta num igual a 1. Por outras palavras,
o coeficiente de determinação pode ser manipulado, logo deve ser suspeitado;
2XYR
2XYR
Regressão Polinomial
79Métodos Estatísticos de Previsão
Regressão Polinomial
VR da liberdade de graus de n.º : 1-K-N
VT da liberdade de graus de totaln.º : 1-N
regressão dagrau : K
sobservaçõe de n.º : N
( )
−−−−−=
1
1 . R11R 22
XYKN
N
Coeficiente de Determinação Ajustado ( )2XYR
� Dado que a introdução de um regressor irrelevante aumentará ligeiramente o
, é desejável tentar corrigi-lo, reduzindo-o de uma forma apropriada;
� O coeficiente de determinação ajustado, , é uma tentativa de tentar corrigir o
, ajustando o numerador e o denominador da expressão através dos
respectivos graus de liberdade;
� Contrariamente ao coeficiente de determinação, o coeficiente de determinação
ajustado pode diminuir em valor se a contribuição da variável adicional na
explicação da VT, for inferior ao impacto que essa adição acarreta nos graus de
liberdade.
2XYR
2XYR
2XYR
80Métodos Estatísticos de Previsão
3. Considere a seguinte série temporal, com 10 observações:
Regressão Não Linear
Com base nestes dados, efectue previsões dos valores de Zt (para t = 2007, 2008, 2009 e 2010), recorrendo aos seguintes métodos:
i) regressão polinomial;ii) regressão linear de variáveis transformadas.
Entre as previsões efectuadas pelos dois métodos quais adoptaria?
t 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006
Zt 100 120 200 307 351 456 690 796 955 1195