Upload
others
View
1
Download
0
Embed Size (px)
Citation preview
Universidade do Minho Escola de Engenharia
ESTATÍSTICA II
Mestrado Integrado em Engenharia e Gestão Industrial
FORMULÁRIO Ano Lectivo 2007-2008
Índice Intervalos de Confiança (uma amostra / duas amostras independentes)............................................................................... 1
Testes de Hipótese (uma amostra / duas amostras independentes)....................................................................................... 1
Bom Ajuste (grandes amostras)............................................................................................................................................ 2
Tabelas de Contingência....................................................................................................................................................... 2
Análise da Variância............................................................................................................................................................. 3
Planeamento Completamente Aleatório.......................................................................................................................... 3
Planeamento com Blocos Aleatórios .............................................................................................................................. 3
Planeamento Factorial com Replicações......................................................................................................................... 4
Planeamento 22 ......................................................................................................................................................... 5
Planeamento 23 ......................................................................................................................................................... 6
Testes a K Médias (não paramétrico) ................................................................................................................................... 6
Kruskal Wallis ................................................................................................................................................................ 6
Quade.............................................................................................................................................................................. 7
Bom Ajuste (pequenas amostras) ......................................................................................................................................... 7
Kolmogorov .................................................................................................................................................................... 7
Lilliefors para a Normal.................................................................................................................................................. 8
Lilliefors para a Exponencial .......................................................................................................................................... 8
Teste às Distribuições........................................................................................................................................................... 9
Kolmogorov – Smirnov .................................................................................................................................................. 9
Smirnov Unilateral.......................................................................................................................................................... 9
Regressão.............................................................................................................................................................................. 9
Regressão Linear Simples............................................................................................................................................... 9
Regressão Linear Múltipla.............................................................................................................................................. 10
Regressão Não Linear ..................................................................................................................................................... 10
Independência Estocástica.................................................................................................................................................... 11
Correlação de Pearson .................................................................................................................................................... 11
Correlação de Spearman ................................................................................................................................................. 11
FUNÇÕES DE PROBABILIDADE
DISCRETAS CONTÍNUAS Distribuição de Bernoulli
( ) ( ) 1,01 1 =−= − xxf xx θθ
( )θθσθµ −== 12 nn
Distribuição Uniforme [U(a,b)]
( )
<<−=
outros
bxaabxf
0
1
( )122
22 abba −=
+= σµ
Distribuição Binomial [B(n,p)]
( ) ( ) nxppxn
xf xnx ,...,2,1,01 =−
= −
( )pnpnp −== 12σµ
Distribuição Exponencial [EN(1/θ)]
( )
>
=
−
outros
xexf
x
0
01 θ
θ
22 θσθµ == Distribuição Poisson [P(λ)]
( ) nxxexfx
,...,2,1,0!
==−λλ
λσλµ == 2
Distribuição Normal [N(µ,σ2)]
( )( )
2
2
2
21 σ
µ
πσ
−−
=x
exf
22 σσµµ ==
σµ−
=XZ
Aproximação da Binomial à Poisson N grande e p muito pequeno
np=λ
Aproximação da Binomial à Normal
Condições
>>
55
nqnp
npq
np
=
=2σ
µ
Distribuição Uniforme (discreta)
( ) kxxxxk
xf ,...,,121==
( )∑∑ −==
i
i
i
i
kx
kx 2
2 µσµ
Correcção de Yates ( ) ( )( ) ( )5.0
5.0−>≈≥+<≈≤
yYPyYPxXPxXP
1
INTERVALOS DE CONFIANÇA E TESTES DE HIPÓTESES PARA UMA AMOSTRA
Parâmetro a estimar Tipo de População Dimensão da amostra Conhece σ ? E.T ~ Distribuição Intervalo de Confiança Notas
Normal Qualquer Sim ~ (0, 1)x
Z Nn
µσ−
= (1 2) (1 2)x z x z
n nα ασ σµ− −− < < + (1 2)z α− : quantil da tabela acumulada
da Normal padrão à esquerda
Qualquer 30n ≥ Não ~ (0, 1)x
Z Nsn
µ−=
(1 2) (1 2)s sx z x zn nα αµ− −− < < + Estimador do desvio padrão: sσ ≈ (1)
Média µ
Normal 30n < Não ~ 1x
T tnsn
µ−= −
( 2), 1 ( 2), 1n ns sx t x tn nα αµ− −− < < +
Proporção binomial p Bernoulli 30n > (2) -
ˆ~ (0, 1)
(1 )p p
Z Np p
n
−=
−
( ) ( )(1 2) (1 2)
ˆ ˆ ˆ ˆ1 1ˆ ˆ
p p p pp z p p z
n nα α− −
− −− < < +
Estimador da proporção binomial
ˆ xp pn
≈ =
Variância
2σ
População Normal
22
2 1
( 1)~ n
n sQ χ
σ −
−=
( ) ( )2 22
2 2( 2), 1 (1 2), 1
1 1
n n
n s n s
α α
σχ χ− − −
− −< <
INTERVALOS DE CONFIANÇA E TESTES DE HIPÓTESES PARA DUAS AMOSTRAS Parâmetro a
estimar Tipo de População Dimensão da amostra Conhece σ ? E.T ~ Distribuição Intervalo de Confiança Notas
Normais Quaisquer 1σ e 2σ Sim
( ) ( )1 2 1 2
2 21 2
1 2
~ (0,1)x x
Z N
n n
µ µ
σ σ
− − −=
+
( )2 21 2
1 2 (1 2)1 2
x x zn nασ σ
−− ± +
Quaisquer 1 230 e 30n n≥ ≥ 1σ e 2σ Não
( ) ( )1 2 1 2
2 21 2
1 2
~ (0,1)x x
Z Ns sn n
µ µ− − −=
+
( )2 21 2
1 2 (1 2)1 2
s sx x zn nα−− ± +
Estimadores dos desvios padrão: 1 1 2 2 , s sσ σ≈ ≈
Normais 1 230 e 30n n< < 1σ e 2σ Não
e 2 21 2σ σ=
( ) ( )1 2 1 2
1 2
~1 1 GL
p
x xT t
sn n
µ µ− − −=
+
( )1 2 ( 2),
1 2
1 1GL px x t s
n nα− ± + ( ) ( )1 2
2 21 1 2 22
1 2
2
1 12p
GL n n
n s n ss
n n
= + −
− + −=
+ −
Diferença entre as médias
1 2µ µ−
Normais Amostras
dependentes 1 230 e 30n n< < 1σ e 2σ
Não
( )1 2( 1)~
i
in
D
DT ts
n
µ µ−
− −=
2 21 2( 1), ( 1),. .i iD Di in n
s sD t D t
n nα αµ µ− −− < − < +
1iD ns s −= para
1 2i i iD X X= −
Diferença de proporções
1 2p p− Bernoulli 1 230 e 30n n≥ ≥ -
( ) ( )( ) ( )1 2 1 2
1 1 2 2
1 2
ˆ ˆ~ (0,1)
ˆ ˆ ˆ ˆ1 1
p p p pZ N
p p p pn n
− − −=
− −+
(3)
( ) ( ) ( )1 1 2 21 2 (1 2)
1 2
ˆ ˆ ˆ ˆ1 1ˆ ˆ
p p p pp p z
n nα−
− −− ± +
Estimadores das proporções binomiais (4)
1 21 2
1 2
ˆ ˆ e x xp pn n
= =
Razão de variâncias 21
22
σσ
Normais Quaisquer - 1 2
21
21
,22
22
~
s
F Fs ν νσ
σ
=
1 2 1 2
2 2 21 1 12 2 22 ( 2), , 2 2 (1 2), ,
1 1s ss F s Fα ν ν α ν ν
σσ −
< < 2 1
1 2
1 1 2 2
( 2), ,(1 2), ,
1 e 11n n
FF α ν ν
α ν ν
ν ν
−
= − = −
=
(1) O desvio padrão σ , sendo desconhecido, é estimado através de 2
1
1 ( )1
n
ii
s x xn =
= −− ∑ ; (2) Proporção para amostras de pequena dimensão necessário recorrer à solução exacta através da distribuição binomial; (3) e (4) No teste à diferença
de proporções se H0 : p1 – p2 = 0 , a E.T. passa a ser ( )
( )
1 2 1 2
1 2
1 2
ˆ ˆˆ~ (0,1), com .
1 1ˆ ˆ1
p p x xZ N pn n
p pn n
− += =
+ − +
Teste do ”bom ajuste” do Qui-Quadrado para grandes amostras
• Probabilidades completamente especificadas na hipótese nula
H0 : p1 = p10, p2 = p20, ..., pk = pk0 e p10 + p20 + ...pk0 = 1.
R.R: Q ≥ c com c = χ2k−1,α
• Probabilidades não totalmente especificadas na hipótese nula
H0: as probabilidades correspondentes das classes provêm de uma distribuição da família ...
R.R: R.R: Q ≥ c com c = χ2g.l,α
graus de liberdade = no de celas -1- no de parâmetros estimados
Q =Pk
i=1(fi−ei)2
eicom a frequência esperada dada por ei =n.pi
Tabelas de Contingência
Característica B
B1 B2 B3 Bb ni.A1 f11 f12 f13 · · · f1b
Característica A2 f21 f22 f23 · · · f2bA A3 f31 f32 f33 · · · f3b
......
...... · · · ...
Aa fa1 fa2 fa3 · · · fabn.j n
1. . Teste de independência
Hipótese nula:
H0 : pij = pi.p.j (as variáveis são independentes), i = 1, ..., a e j = 1, ..., b
R.R: Q > c com c = χ2(a−1)(b−1),α
2 . Teste de homogeneidade
Hipótese nula:
H0 : w1j = w2j = ... = waj (as subpopulações A são equivalentes) para j = 1, ..., b.
R.R: Q > c com c = χ2(a−1)(b−1),α
Q =bX
j=1
aXi=1
(fij − eij)2
eijcom a frequência esperadada dada por eij=
ni.n.jn
i = 1, ..., a e j = 1, ..., b
2
Planeamento completamente aleatório
SQT =Pk
j=1 nj(y.j − Y )2 SQT =Pk
j=1
T2.jnj− 1
N T 2..
STQ =Pk
j=1
Pnji=1(yij − Y )2 STQ =
Pkj=1
Pnji=1 y
2ij − 1
N T 2..SQR =
Pkj=1
Pnji=1(yij − y.j)
2 SQR = STQ− SQT com N =Pk
j=1 nj
T.j é o total dos valores obtidos para o tratamento j ; T.. é o grande total
Tendo-se STQ = SQT + SQR
Modelo populacional: yij = µ+ αj + eij
com i = 1, ..., nj e j = 1, ..., k eij ∼ N(0, σ2)
Teste às diferenças entre os tratamentos
H0 : α1 = α2 = ... = αk = 0
(não existem diferenças entre as médias das k populações).
H1 : os efeitos da aplicação dos tratamentos são significativos
( ou existem diferenças entre os tratamentos).
R.R : F > c em que c (Fisher) é determinado por forma a α = P [F > c;H0]
Tabela ANOVA
Fonte de variação Soma dos quadrados graus de liberdade Média dos quadrados v.a. F
Tratamentos SQT k-1 MQT=SQT/(k-1)
Resíduos SQR Σnj − k MQR=SQR/(Σnj − k) F=MQTMQR
Total STQ Σnj − 1
• Intervalos de confiança para diferenças entre pares de médias de tratamentos i e j comi 6= j = 1, 2, ..., k
T =(y.i − y.j)− (µi − µj)q
SQRN−k (
1ni+ 1
nj)∼ tN−k
Planeamento com blocos aleatórios
SQT = bPk
j=1(y.j − Y )2 SQT = 1b
Pkj=1 T
2.j − 1
kbT2..
SQB = kPb
i=1(yi. − Y )2 SQB = 1k
Pbi=1 T
2i. − 1
kbT2..
STQ =Pb
i=1
Pkj=1(yij − Y )2 STQ =
Pbi=1
Pkj=1 y
2ij − 1
kbT2..
SQR =Pb
i=1
Pkj=1(yij − yi. − y.j + Y )2 SQR = STQ− SQT − SQB
Ti. é o total dos valores obtidos para o bloco i ; T.j é o total dos valores obtidos para
o tratamento j
3
Modelo populacional: yij = µ+ αj + βi + eij
para i = 1, ..., b e j = 1, ..., k eij ∼ N(0, σ2)
Teste às diferenças entre os tratamentos
H01 : α1 = α2 = ... = αk = 0
(não existem diferenças significativas entre os tratamentos).
H11 : os efeitos da aplicação dos tratamentos são significativos
( ou existem diferenças entre os tratamentos).
R.R : F1 > c em que c (Fisher) é determinado a partir de
α = P [F1,((k−1),(b−1)(k−1)) > c;H01] e F1 =MQTMQR
Teste às diferenças entre os blocos
H02 : β1 = β2 = ... = βb = 0
(não existem diferenças significativas entre os efeitos dos blocos)
H12: existem diferenças entre os efeitos dos blocos.
R.R : F2 > c em que c (Fisher) é determinado a partir de
α = P [F2,((b−1),(b−1)(k−1)) > c;H02] e F2 =MQBMQR
Tabela ANOVA
F. de variação S. dos quadrados graus de liberdade Média dos quadrados v.a. F
Tratamentos SQT k-1 MQT=SQT/(k-1)
Blocos SQB b-1 MQB=SQB/(b-1) F1=MQTMQR
Resíduos SQR (k − 1).(b− 1) MQR=SQR/(k − 1).(b− 1) F2=MQBMQR
Total STQ k.b− 1
Intervalos de confiança para diferenças entre pares de médias de tratamentos:
T =(yj1 − yj2)− (µj1 − µj2)q
MQR(2b )∼ t(b−1)(k−1)
Planeamento factorial com replicações
SQFA = qrPp
i=1(yi.. − Y )2 SQFA =Pp
i=1 T2i.
rq − T 2..pqr
SQFB = prPq
j=1(y.j. − Y )2 SQFB =Pq
j=1 T2.j
rp − T2..pqr
SQR =Pp
i=1
Pqj=1
Prk=1(yijk − yij.)
2 SQR =P
ijk y2ijk −
Pij T
2ij
r
STQ =Pp
i=1
Pqj=1
Prk=1(yijk − Y )2 STQ =
Ppi=1
Pqj=1
Prk=1 y
2ijk − T2..
pqr
SQIAB = STQ− SQFA − SQFB − SQR
Tij é a soma das observações da célula (i, j)
Modelo populacional
yijk = µ+ αi + βj + γij + eijk
4
para i = 1, ..., p , j = 1, ..., q. e k = 1, ..., r e eijk ∼ N(0, σ2)
Testes de hipóteses
• Factor AH01 : α1 = α2 = ... = αp = 0
H11: existem diferenças significativas entre os níveis de A
R.R : F1 > c com c (Fisher) determinado de
α = Pr[F1(p−1),pq(r−1) > c;H01] e F1 =MQFAMQR
• Factor BH02 : β1 = β2 = ... = βq = 0
H12 : existem diferenças significativas entre os níveis de B
R.R : F2 > c com c (Fisher) determinado de
α = Pr[F2(q−1),pq(r−1) > c;H02] e F2 =MQFBMQR
• Interacção ABH03 : γ11 = γ12 = ... = γ21 = ... = γpq = 0
H13: existem diferenças significativas devido a interacção
R.R : F3 > c com c (Fisher) determinado de
α = Pr[F3(p−1)(q−1),pq(r−1) > c;H03] e F3 =MQIABMQR
Tabela ANOVA
Fonte de variação Soma dos Quadrados graus de lib. Média dos Quadrados v.a F
Factor A SQFA p-1 MQFA
Factor B SQFB q-1 MQFB F1 =MQFAMQR
Interacção AxB SQIAB (p-1).(q-1) MQIAB F2 =MQFBMQR
Resíduos SQR p.q.(r-1) MQR F3 =MQIABMQR
Total STQ pqr-1
Planeamento 22
tratamento factor A factor B A×B observações médias
1 - - + y11 y12 ... y1r y12 + - - y21 y22 ... y2r y23 - + - y31 y32 ... y3r y34 + + + y41 y42 ... y4r y4
Estimativa dos efeitos principais
eeA =(y2−y1)+(y4−y3)
2 SQFA = r (eeA)2
eeB =(y3−y1)+(y4−y2)
2 SQFB = r (eeB)2
eeAB =(y4−y3)+(y1−y2)
2 SQIAB = r (eeAB)2
− Variância residual: s2 = 14(s
21 + s22 + s23 + s24) com s2i =
Prj=1(yij−yi)2(r−1)
Intervalos de confiança para os ”efeitos” devidos aos factores principais e à interacção
5
T =ee− µq( s
2
r )∼ t4(r−1)
Planeamento 23
factores interacções observações médiasA B C AB AC BC ABC
T1 - - - + + + - y11 y12 ... y1r y1T2 + - - - - + + y21 y22 ... y2r y2T3 - + - - + - + y31 y32 ... y3r y3T4 + + - + - - -T5 - - + + - - + ...T6 + - + - + - -T7 - + + - - + -T8 + + + + + + + y81 y82 ... y8r y8
Efeitos estimados: ee = 123−1 [±y1 ± y2 ± y3 ± y4 ± ...± y8]
A soma dos quadrados dos efeitos de cada factor (ou interacção) pode ser calculada a partir de
SQfactor ou interac.= 2n−2r(eefactor ou interac.)
2
sendo n o número de factores presentes no planeamento e r o número de replicações.
Variância residual: s2 =s21+s
22+...+s
28
8
Intervalos de confiança para os ”efeitos reais”
T =ee− ”efeito real”q
s2
2r
∼ t8(r−1)
Teste de Kruskal Wallis
H0: Não existem diferenças significativas entre os efeitos dos tratamentos ou as médias das distribuições das k populações são
idênticas
H1: Nem todas as k distribuições têm médias idênticas.
R.R: H ≥ c onde c é determinado de α = Pr[H ≥ c;H0] e
H =12
n(n+ 1)[W 21
n1+W 22
n2+...+
W 2k
nk]− 3(n+ 1)com W i=
niXj=1
Rij i = 1, 2, ..., k
Para k > 3 ou n1, n2, ... e/ou ni > 5, a distribuição assintótica de H é a χ2 com k − 1 graus de liberdade.
A ’estatística’ a justada é
H0=
H
1−P l
j=1 qj(q2j−1)
n(n2−1)
em que l é o número de conjuntos com observações repetidas existente e qj é o número de elementos nesse conjunto j (j =
1, ..., l). A ’estatística’ H0tem ainda uma distribuição assintótica χ2k−1.
6
Planeamento com blocos. Teste de Quade
Os dados consistem num conjunto de b variáveis aleatórias independentes a k dimensões
(yi1, yi2, ..., yik), i = 1, ..., b, chamadas blocos.
Os cálculos para este teste devem estar assim ordenados:
Amplitude do bloco: Ai Graduações do bloco de acordo Matriz SijAi = maxj(yij)−minj(yij) com a sua amplitude: R(Ai) Sij = R(Ai)[R(yij)− k+1
2 ]
R(yij) - graduações das observações yij , (j = 1, ..., k)
Sj =Pb
i=1 Sij ; SQT = 1b
Pkj=1 S
2j ; STQ =
Pbi=1
Pkj=1 S
2ij
Se não existirem observações repetidas, STQ reduz-se a
b(b+ 1)(2b+ 1)k(k + 1)(k − 1)/72.
Teste de hipóteses
H0 : Não existem diferenças significativas entre os tratamentos
(ou, os efeitos dos tratamentos são idênticos)
H1 : Pelo menos um dos tratamentos tende a conseguir valores observados maiores do que um outro tratamento.
R.R : T > c onde c é um ponto crítico da distribuição F que corresponde ao nível de significância α,
com (k − 1) e (b− 1)(k − 1) graus de liberdade
T =(b− 1)SQTSTQ− SQT
Comparações dois a dois
Os tratamentos i e j são considerados significativamente diferentes se
|Si−Sj | > c
s2b(STQ− SQT )
(b− 1)(k − 1)
sendo c o ponto crítico da distribuição t-Student, com (b− 1)(k − 1) graus de liberdade que corresponde a uma região derejeição de tamanho α (nível de significância)
Testes de ajuste de distribuições
Testes do tipo de Kolmogorov para pequenas amostras
S(x) é a função de distribuição empírica que é definida como fracção dos X0i s (elementos da amostra) que são menores
ou iguais a X , para cada X (−∞ < X < +∞)
Dados: F ∗(x) é uma função distribuição completamente especificada.
A. Teste bilateral B. Teste unilateral C. Teste unilateral
H0 : F (x) = F ∗(x) ∀x H0 : F (x) ≥ F ∗(x) H0 : F (x) ≤ F ∗(x)H1 : F (x) 6= F ∗(x) H1 : F (x) < F ∗(x) H1 : F (x) > F ∗(x)T = supx| F ∗(x)− S(x) | T+ = supx[ F
∗(x)− S(x) ] T− = supx[ S(x)− F ∗(x) ]
R.R: T (T+ ou T−) > c com c calculado de α = Prob(Rej H0; H0) = Prob(T > c; H0 de A.) .
7
Os pontos críticos da distribuição de T (T+ ou T−) correspondem a p = 1− α
Teste de Lilliefors para a Normal
DADOS: Os dados consistem numa amostra aleatóriaX1,X2, ...,Xn de tamanho n associada com alguma função distribuição
desconhecida F (x).
H0: A amostra aleatória foi retirada de uma distribuição normal, com média e/ou variância não especificadas.
H1: A função distribuição dos X0is não é normal.
R.R: T1 > c sendo c o ponto crítico da distribuição de T1 que corresponde a p = 1− α
X=
Pni=1Xi
ne s =
vuut 1
n− 1nXi=1
(Xi −X)2
Zi=Xi −X
s, i = 1, 2, ..., n T 1= supz| F ∗(z)− S(z) |
Teste de Lilliefors para a exponencial
DADOS: Os dados consistem numa amostra aleatóriaX1,X2, ...,Xn de tamanho n associada com alguma função distribuição
desconhecida F (x).
H0 : A amostra aleatória segue a distribuição exponencial:
F (x) = F∗(x) =
½1− e−x/β, para x > 00 para x < 0
em que β é um parâmetro desconhecido.
H1: A distribuição dos X0is não é exponencial.
X=
Pni=1Xi
nZi=
Xi
X, i = 1, 2, ..., n
F ∗(z) =½1− e−z, para z > 00 para z < 0
T2= supz| F ∗(z)− S(z) |
R.R: T2 > c sendo c o ponto crítico da distribuição de T2 que corresponde a p = 1− α.
Teste a duas distribuições. Amostras independentes.
Teste de Kolmogorov - Smirnov
DADOS: Os dados consistem em duas amostras aleatórias independentes, uma de tamanho n, X1,X2, ...,Xn e outra de
tamanho m, Y1, Y2, ..., Ym retiradas de duas populações com distribuições F (x) e G(y) (ou G(x)) respectivamente.
A. Teste bilateral B. Teste unilateral C. Teste unilateral
H0 : F (x) = G(x) ∀x H0 : F (x) ≤ G(x) H0 : F (x) ≥ G(x)H1 : F (x) 6= G(x) H1 : F (x) > G(x) H1 : F (x) < G(x)
T1 = supx| S1(x)− S2(x) | T+1 = supx[ S1(x)− S2(x) ] T−1 = supx[ S2(x)− S1(x) ]
8
com S1(x) a função empírica baseada na amostra X1,X2, ...,Xn e S2(x) a função empírica baseada em Y1, Y2, ..., Ym
R.R: T1 (T+1 ou T−1 ) > c sendo c o ponto crítico da distribuição da estatística que corresponde a um nível de significância
α.
Teste a k distribuições. Amostras independentes.Teste unilateral de Smirnov
DADOS: k amostras aleatórias de tamanho iguais a n. Se as distribuições empíricas
forem, respectivamente, S1(x), S2(x), ..., Sk(x), e as funções distribuição F1(x),
F2(x), ..., Fk(x) representam as k populações, desconhecidas,
H0 : F1(x) ≤ F2(x) ≤ ... ≤ Fk(x) para todo o x
H1 : Fi(x) > Fj(x) para algum i < j e algum x
R.R: T2 > c sendo c o ponto crítico, que corresponde a p = 1− α, ao nível de significância α.
T2= supx,i<k[ Si(x)− Si+1(x) ] i = 1, ..., k − 1
Regressão linear e simples
Yi ∼ N(α + βxi, σ2)
Yi = α+ βxi + ei com xi = Xi −X , i = 1, .., n
Os estimadores de máxima verosimilhança, para os parâmetros α, β e σ2 são
α̃ =Pn
i=1 Yin = Y ; β̃ =
Pni=1(Xi−X)(Yi−Y )Pn
i=1(Xi−X)2 =Pn
i=1(Xi−X)YiPni=1(Xi−X)2 ;
σ̃2 = 1(n−2)
Pni=1[Yi − α̃− β̃(Xi −X)]2
Testes de hipóteses
T1 =α̃− αq
σ̃2
n
∼ tn−2 ; T2 =β̃ − βq
σ̃2Pn1 (Xi−X)2
∼ tn−2
H0 : β = 0
H1 : β > 0 (ou β 6= 0)R.R: T2 ≥ c com c = tn−2,α (ou α/2)
Do mesmo modo, a ’estatística’ T1 pode ser usada para calcular intervalos de confiança e testes de hipóteses relacionados como parâmetro α
Média e variância de um valor estimado de Y:
E[Y 0] = E[α̃] + (X0−X)E[β̃] = α+ β(X0−X)
var[Y 0] = σ2(1
n+
(X0 −X)2Pni=1(Xi −X)2
)
9
Regressão linear e múltipla
Yi= α+ βxi+γzi+ei
em que xi = Xi − X, zi = Zi − Z e ei é o erro aleatório de observação,normalmente distribuído com média zero e
variância comum σ2 (i = 1, ..., n).
E[Y ] = α+ β(X −X) + γ(Z − Z).
α̃ =Pn
i=1 Yin = Y ; σ̃2 = 1
(n−3)Pn
i=1(Yi − α̃− β̃xi − γ̃zi)2
½ Pni=1 xiYi = β̃
Pni=1 x
2i + γ̃
Pni=1 xiziPn
i=1 ziYi = β̃Pn
i=1 xizi + γ̃Pn
i=1 z2i
As ’estatísticas’ T1, T2 e T3 para testes de hipóteses e intervalos de confiança, em relação,
respectivamente, aos parâmetros α, β e γ, são:
T1 =α̃− αq
σ̃2
n
; T2 =β̃ − βr
σ̃2Px2i−
(Pxizi)
2Pz2i
; T3 =γ̃ − γr
σ̃2Pz2i−
(Pxizi)
2Px2i
e seguem a distribuição t-Student com
n− 3 graus de liberdade.
Regressão não-linear
i) E[Yi] = α+ βX2i
O modelo matemático geral, é: Yi = α+ βwi+ γw2i + ei com wi =Wi−W e o ei ∼ N(0, σ2) (i = 1, ..., n).Define-se X =W e Z =W 2, o que reduz este caso à regressão múltipla e linear.
ii) E[Yi] = Xβi
O modelo matemático mais geral e comum é: Yi = αeβXiui . Os erros aleatórios ui (i = 1, ..., n) têm agora uma
distribuição, em geral não simétrica e centrada em 1.
Lineariza-se o modelo passando-se a ter: lnYi = lnα+ βXi + lnui e aplica-se a análise de regressão linear e simples.
Testes de independência estocástica
• Coeficiente de correlação da amostra. Teste de Pearson
X ∼ N(µ1, σ21) e Y ∼ N(µ2, σ
22)
H0 : ρ = 0
H1 : ρ 6= 0R.R: |R| ≥ c. O valor de c é determinado de α = Pr[|R| ≥ c;H0]
R =
Pni=1XiYi −
Pni=1Xi
Pni=1 Yi
nq(Pn
i=1X2i − (
Pni=1Xi)2
n )(Pn
i=1 Y2i − (
Pni=1 Yi)
2
n )
e que é o coeficiente de correlação da amostra de Pearson.
10
A variável T = R√n−2√
1−R2 ∼ tn−2 e o teste resume-se a, rejeitar H0 se |T | ≥ c com c determinado de α = Pr[|T | ≥c;H0] .
• Correlação de Spearman
(X1, Y1), (X2, Y2), ..., (Xn, Yn) amostra aleatória bivariada, de tamanho n
R(Xi) graduação do valor de Xi
R(Yi) graduação do valor de Yi (i = 1, 2, ..., n)
A medida de correlação de Spearman RS é definida por
RS=
Pni=1[R(Xi)− n+1
2 ][R(Yi)− n+12 ]
n(n2−1)12
ou
RS= 1− 6T
n(n2 − 1) com T =nXi=1
[R(Xi)−R(Y i)]2
caso não existam observações repetidas. Existindo repetições deve usar-se a expressão:
RS=
Pni=1R(Xi)R(Yi)− n(n+12 )
2qPni=1R(Xi)2 − n(n+12 )
2.qPn
i=1R(Yi)2 − n(n+12 )
2
A. Teste bilateral
H0: As variáveis X e Y são independentes.
H1: (a) Existe uma tendência para os maiores valores de X formarem pares com
os maiores valores de Y , ou
(b) Existe uma tendência para os menores valores de X formarem pares com
os maiores valores de Y .
R.R: RS > c1 ou RS < c2, sendo c1 o ponto crítico que corresponde a 1− α2 e
c2 o ponto crítico que corresponde aα2
B. Teste unilateral para correlação positiva
H0: As variáveis X e Y são independentes.
H1: Existe uma tendência para os maiores valores de X e de Y formarem pares.
R.R: RS > c, em que c é o ponto crítico que corresponde a 1− α
C. Teste unilateral para correlação negativa
H0: As variáveis X e Y são independentes.
H1: Existe uma tendência para os menores valores de X formarem pares com os
maiores valores de Y e vice-versa.
R.R: RS < c sendo c o ponto crítico que corresponde a α.
11