Upload
trinhdien
View
217
Download
0
Embed Size (px)
Citation preview
Capítulo 6
Distribuições Amostrais
A inferência estatística está interessada em tomar decisões sobre uma populaçao, baseando-seapenas na informação contida em uma amostra aleatória da população de interesse. Por exemplo,o engenheiro de uma fábrica de refrigerantes pode estar interessado no volume médio de enchi-mento de uma lata de refrigerante que espera-se ser de 300 ml. Deste modo, para verificar se amáquina que faz o enchimento está regulada, o engenheiro coleta uma amostra aleatória de 25latas e calcula o volume médio amostral obtendo x = 298ml. A próxima pergunta que o enge-nheiro desejará responder é qual a probabilidade do volume médio de enchimento de uma latade refrigerante seja maior que 305 ml e menor que 295 ml dado que o valor observado da médiaamostral foi x = 298ml? Para responder a esta questão, em primeiro lugar, note que a média amos-tral X =
P
i�1 Xi é uma função de variáveis aleatórias, portanto é também uma variável aleatória,logo X possui uma distribuição de probabilidade associada.
Definição 6.1. Uma amostra aleatória de tamanho n de uma variável aleatória X com função dis-tribuição F , é um vetor X
e
= (X1, X2, . . . , Xn ) em que as componentes Xi são independentes e possuemdistribuição F .
Da Definição 6.1 pode-se concluir que dada uma amostra aleatória Xe
= (X1, X2, . . . , Xn ) de umavariável X com média µ e variancia�2 então E (Xi ) =µ e V a r (Xi ) =�2 para todo i = {1, 2, . . . , n}.
Definição 6.2. A distribuição de probabilidade de um estimador é chamada de distribuição amos-
tral.
Por exemplo, a distribuição de probabilidade de X é chamada de distribuição amostral da mé-dia. Portanto, dado que X em uma distribuição de probabilidade pode-se calcular P(295 < X <305) bastando para isso conhecer a distribuição de probabilidade de X .
Observação 6.1. A distribuição amostral de um estimador depende da distribuição de probabili-dade da população da qual a amostra foi selecionada, do tamanho da amostra e do método deseleção da amostra.
Um resultado importante muito utilizado em inferência é o Teorema Central do Limite, quefornece uma inportante conclusão a respeito da distribuição da soma de variáveis aleatórias inde-pendentes.
47
Teorema 6.1. Seja {Xn , n � 1} uma seqüência de variáveis aleatórias independentes e identicamntedistribuídas, com média µ e variancia�2 <1. Então, para Sn =
Pni=1 Xn , tem-se
Sn �E (Sn )p
V a r (Sn )=
Sn �nµ�p
nd�! N (0, 1)
6.1 Distribuição Amostral da Média
Seja X uma variável aleatória com média µ e variância�2. Então,
(i) Se X ⇠N (µ,�2) tem-se que, X ⇠NÄ
µ; �2
n
ä
, em que
X =
Pni=1 Xi
n=
X1+X2+ · · ·+Xn
n,
para X1, . . . , Xn uma amostra aleatória da variável X . De fato, pode-se provar que a somade variáveis aleatórias independentes, cada uma com distribuição normal com média µ evariância�2 também terá um distribuição normal, com média
E (X ) = E
Ç
Pni=1 Xi
n
å
=1n
nX
i=1
E (Xi ) =1n
nµ=µ,
e variância
V a r (X ) = V a r
Ç
Pni=1 Xi
n
å
=1
n 2V a r
⇣
nX
i=1
Xi
⌘
Resultado:
V a r⇣
nX
i=1
Xi
⌘
=nX
i=1
V a r (Xi )+2n�1X
i=1
nX
j=i+1
Cov (Xi , X j )
em queCov (Xi , X j ) = E (Xi X j )�E (Xi )E (X j )
se Xi e X j forem independentes então E (Xi X j ) = E (Xi X j ), logo Cov (Xi , X j ) = 0 e portantopara X1, . . . , Xn independentes, segue que
V a r⇣
nX
i=1
Xi
⌘
=nX
i=1
V a r (Xi ).
Deste modo, segue que,
V a r (X ) =1
n 2
nX
i=1
V a r (Xi ) =1
n 2
nX
i=1
�2 =1
n 2n�2 =
�2
n.
Portanto,
Z =X �µ�pn
⇠N (0, 1)
Entretanto, se o valor da variância não for conhecido utilizaremos o estimador,
S2 =
Pni=1(Xi �X )2
n �1,
para�2. Deste modo temos que,
T =X �µ
S2⇠ tn�1
Se X não tiver distribuição normal então pelo Teorema Central do Limite segue que a distribuiçãoda média amostral será aproximadamente normal com média µ e variância �
2
n.
Observação 6.2. A qualidade da aproximação normal para a distribuição amostral da mé-dia dependerá do tamanho da amostra e da distribuição da população de onde foi retirada aamostra. Em muito casos de interesse prático, se n � 30 a aproximação normal será satisfató-ria, independente da distribuição da população.
Exemplo 6.1. Uma fábrica produz resistores que têm uma resistência média de 100⌦ com desviopadrão de 10⌦. Supondo que a distribuição das resistências seja normal, encontre a probabilidadede uma amostra aleatória de 25 resistores ter uma média menor que 95⌦.Solução:
P(X < 95) = P
Z <95�100
10p25
!
= P(Z <�2, 5) = 0, 0062
6.2 Distribuição Amostral da Proporção
Seja X ⇠ b e r (p ). Retirada uma amostra aleatória (X1, . . . , Xn ) da variável X, tem-se que, Y =X1+ · · ·+Xn ⇠b (n , p ), pois Y conta o número de vezes que um certo evento de interesse A aparecena amostra. Lembrando que E (Y ) = np , isto é, E (Y ) é o número médio de vezes que o eventode interesse aparece em uma amostra de tamanho n. Assim, p = E (Y )
n, logo p é a proporção de
vezes que o evento de interesse aparece em uma amostra de tamanho n. Portanto, dada amostraaleatória (X1, . . . , Xn ), um estimador para o parâmetro p é dado por,
bp =X1+ · · ·+Xn
n.
Agora note que, para 0 k n , tem-se,
P✓
bp =kn
◆
= P✓
X1+ · · ·+Xn
n=
kn
◆
= P(Y = k )
Portanto, podemos obter a distribuição de probabilidade de bp a partir da distribuição de proba-bilidade de Y . Foi anteriormente visto que a distribuição da média amostral pode ser aproximadapela distribuição normal para n grande. Assim note que,
bp =X1+ · · ·+Xn
n= X .
Logo, do Teorema Central do Limite, segue que bp terá distribuição aproximadamente normal commédia,
E (bp ) = E✓
X1+ · · ·+Xn
n
◆
=1n
E (X1+ · · ·+Xn ) =1n
np = p
e variância,
V a r (bp ) = V a r✓
X1+ · · ·+Xn
n
◆
=1
n 2V a r (X1+ · · ·+Xn ) =
1n 2
np (1�p ) =p (1�p )
n.
Portanto, bpa⇠ N
Ä
p , p (1�p )n
ä
. Deste modo,
Z =bp �p
∆
p (1�p )n
DGGGGA
n!1 N (0, 1).
Exemplo 6.2. Tem-se que p = 0, 47 logo
Z =bp �p
∆
bp (1�bp )n
a⇠ N (0, 1)
portanto,
Pbp (bp > 0, 5) = PZ
0
B
@
Z >0, 5�0, 47∆
0,47⇥0,53500
1
C
A
= PZ (Z > 1, 34) = 0, 09
Exemplo 6.3. Tem-se que X ⇠N (180, 402) logo para uma amostra de 16 elementos tem-se que X ⇠N
Ä
180, 402
16
ä
, portanto:(a)
P(X > 168, X < 192) = 1�P(168 X 192) = 1�P(�1, 2Z 1, 2) = 0, 2301;
(b) 36⇥P(X > 175) = P(Z >�0, 125)⇡ 20;(c) Do problema tem-se que p = 0, 2 e P
bp (bp 0, 1) = 0, 05 isto implica que,
0, 1�0, 2∆
0,2⇥0,8n
=�1, 64 logo
«
0, 2⇥0, 8n
=1
16, 4
Deste modo, segue quePbp (bp > 0, 25) = PZ (Z > 0, 82) = 0, 2061.
Capítulo 7
Inferência Estatística
Objetivo: Produzir afirmações a respeito de uma determinada população de interesse, usual-mente sobre características desta população, a partir de uma amostra desta população.
Exemplo 7.1. Para investigar se um determinado processo está produzindo peças dentro das espe-cificações técnicas exigidas, neste caso diâmetro nominal de projeto é 15 mm, realizou-se o seguinteexperimento: coletou-se uma amostra aleatória de 50 peças e mediu-se o diâmetro de cada uma,obtendo-se um diâmetro médio de X = 16, 5 mm. Esta é uma estimativa pontual da verdadeiramédia populacional µ.
A próxima questão é: Qual a margem de erro(E) desta estimativa? Ou de outra maneira, paraqual intervalo de valores possíveis para µ,
⇣
X �E ; X +E⌘
posso ter uma confiança 100(1�↵)% de que este intervalo conterá o verdadeiro valor µ?Uma outra questão de interesse é: Será que o valor de X mostra evidências que µ= 15 mm?
Descrevemos neste exemplo, os três problemas básicos da Inferência Estatística:
(i) Estimação pontual;
(ii) Intervalo de confiança;
(iii) Teste de hipótese.
7.1 Estimação Pontual
Objetivo: Encontrar estimadores que possuam boas propriedades, para que a partir deles se possaencontrar estimativas para os parâmetros populacionais de interesse.
Definição 7.1 (Estimador). É uma função da amostra, logo é também uma variável aleatória. Ex.:Dada uma amostra aleatória X
⇠=�
X1, . . . , Xn�
da variável X tem-se que um estimador para a média
é dado por:
X =X1+ · · ·+Xn
n.
51
Definição 7.2 (Estimativa). É um particular valor numérico assumido por um estimador. Ex.: Dadoa amostra X
⇠=�
5, 4, 6�
tem-se que,
X =5+4+6
3= 5
é uma estimativa para µ.
Notação:
(
✓ : parâmetro populacional de interesseb✓ : Estimador para ✓
7.1.1 Propriedades de um estimador
Que propriedades deveríamos esperar de um bom estimador? É importante que a distribuiçãoseja o mais concentrada possível em torno do verdadeiro valor do parâmetro ✓ . Se tal ocorrer,então quase toda a vez que for extraída uma amostra, a estimativa resultante b✓ estará próxima doverdadeiro valor ✓ .
Não viciado. Um estimador b✓ é não viciado para ✓ se, E (b✓ ) = ✓ , para todo ✓ 2 ⇥(espaço pa-ramétrico) e para todo n(tamanho da amostra). Portanto o vício de um estimador é dadopor,
b (✓ ) = E (b✓ )�✓ .
Exemplo 7.2. Para bµ= X temos que,
E (X ) = E✓
X1+ · · ·+Xn
n
◆
=E (X1)+ · · ·+E (Xn )
n
Suposição: X⇠=
�
X1, . . . , Xn�
é uma amostra aleatória da variável X que tem média µ e va-
riância �2, portanto E (X1) = E (X2) = · · · = E (Xm ) = E (X ) = µ e V a r (X1) = V a r (X2) = · · · =V a r (Xm ) = V a r (X ) =�2. Logo,
E (X ) =n ⇥µ
n=µ.
Portanto X é um estimador não viciado para µ.
Consistência. Um estimador b✓ é consistente se ele for assintóticamente não viciado, isto é,
limn!1
E (b✓ ) = ✓
e se sua variância tende a zero quando n aumenta, isto é,
limn!1
V a r (b✓ ) = 0
7.2 Intervalo de Confiança
Em muitas situações, uma estimativa pontual não fornece informação suficiente sobre umparâmetro. No exemplo sobre o processo produtivo de uma peça em que o diâmetro nominalde projeto era 15 mm e a partir de uma amostra aleatória de 50 peças, verificou-se um diâmetromédio de X = 16, 5 mm. Entretanto, é improvável que a verdadeira média µ seja exatamente iguala 16,5. Assim, é necessário que se saiba o quão preciso foi a estimativa pontual obtida. Umamaneira de se fazr isso é atráves de uma estimativa intervalar do parâmetro denominado intervalode confiança.
Um intervalo de confiança é um intervalo de valores utilizado para estimar o verdadeiro valorde parâmetro populacional. De um modo geral, estamos interessados em encontrar um intervaloda forma
�
b✓ �E ; b✓ +E�
, em que b✓ é o estimador de um parâmetro de interesse ✓ e E é a margemde erro ou erro de precisão.
Definição 7.3 (Margem de Erro). Seja ✏= b✓ �✓ o erro amostral, então, a margem de erro é definidocomo a diferença máxima provável, com probabilidade 1�↵, entre o estimador b✓ e o parâmetro ✓ ,isto é,
P(|b✓ �✓ | E ) = 1�↵Para BUSSAB E MORETTIN (2005) a margem de erro é denominada erro amostral máximo, en-
quanto que TRIOLA (2005) afirma que a margem de erro é também conhecida como erro máximode estimativa.
Da definição de margem de erro, percebe-se que todo intervalo de confiança está associado aum nível de confiança 100(1�↵)% que é a probabilidade de que o intervalo contenha o verdadeirovalor do parâmetro, isto é,
P⇣
b✓ �E < ✓ < b✓ +E⌘
= 1�↵, 0<↵< 1
Logo, ↵ será a probabilidade de que o intervalo não contenha o verdadeiro valor do parâmetro.A margem de erro E deverá ser tal que,
P⇣
|b✓ �✓ | E⌘
.
Deste modo,considerando que b✓ ⇠D(✓ ,�2b✓), segue que,
|b✓ �✓ |=(
b✓ �✓ se b✓ � ✓�(b✓ �✓ ) se b✓ < ✓ .
Assim,n
|b✓ �✓ | Eo
=n
b✓ �✓ Eo
\n
� (b✓ �✓ )� Eo
=n
�E b✓ �✓ Eo
Portanto,
P⇣
|b✓ �✓ | E⌘
= P⇣
�E b✓ �✓ E⌘
= P
Ç
� E�
b✓
b✓ �✓�
b✓
E�
b✓
å
= P✓
� E�
b✓
W E�
b✓
◆
= P(�w↵1 W w↵2) = 1�↵
em que ↵1+↵2 = ↵. Se a distribuição de b✓ for simétrica, então ↵1 = ↵2 = ↵2
. Logo, considerando asimetria tem-se que
E =w ↵2�
b✓
Notação: I C�
✓ ; (1�↵)%�
=⇣
b✓ �E ; b✓ +E⌘
7.3 Intervalo de Confiança para a Média
Seja X= (X1, . . . , Xn ) uma amostra iid(independente e identicamente distribuída).
7.3.1 Caso 1: X possui distribuição normal com Variância conhecida.
Tem-se que,�X =�pn
e
X �µ�pn
⇠N (0, 1)
assim,
E = z ↵2
�pn) I C
�
µ ; (1�↵)%�
=✓
X � z ↵2
�pn
; X + z ↵2
�pn
◆
7.3.2 Caso 2: X possui distribuição normal com Variância desconhecida.
Quando a Variância�2 é desconhecida, substituímos�2 por S2, assim,
X �µSpn
⇠ tn�1
portanto,
E = t(n�1 , ↵2 )Spn) I C
�
µ ; (1�↵)%�
=✓
X � t(n�1 , ↵2 )Spn
; X + t(n�1 , ↵2 )Spn
◆
7.3.3 Caso 3: Grandes Amostras: n�30.
Se a Variância�2 for desconhecida,
X �µ�pn
a⇠N (0, 1)
logo,
E = z ↵2
�pn) I C
�
µ ; (1�↵)%�
=✓
X � z ↵2
�pn
; X + z ↵2
�pn
◆
Se a Variância�2 for desconhecida, substituímos�2 por S2,
X �µSpn
a⇠N (0, 1)
logo,
E = z ↵2
Spn) I C
�
µ ; (1�↵)%�
=✓
X � z ↵2
Spn
; X + z ↵2
Spn
◆
Exemplo 7.3. Em uma amostra aleatória de 25 mulheres observou-se uma taxa média de hemoglo-bina de 16g /100m l . Supondo que a taxa de hemoglobina em mulheres é uma variável aleatóriacom distribuição normal com desvio padrão�= 1g /100m l de sangue. Determine um intervalo deconfiança com um nível de confiança de 95% para a média µ. Se a taxa média de hemoglobina emmulheres normais fosse de 17g /100m l , o que você pode concluir a partir do IC acima?
Solução: Do problema tem-se que X = 16 e � = 1. Tem-se ainda que ↵ = 0, 05 portanto z ↵2= 1, 96.
Assim,
I C�
µ ; 95%�
=✓
16�1, 961p25
; 16+1, 961p25
◆
=�
15, 6 ; 16, 4�
7.4 Intervalo de Confiança para a proporção
Seja X ⇠ b e r (p ). Retirada uma amostra aleatória (X1, . . . , Xn ) da variável X, tem-se que, Y =X1+ · · ·+Xn ⇠b (n , p ), pois Y conta o número de vezes que um certo evento de interesse A aparecena amostra. Um estimador para o parâmetro p é dado por,
bp =X1+ · · ·+Xn
n.
Do Teorema Central do Limite, segue que,
Z =bp �p
∆
p (1�p )n
DGGGGA
n!1 N (0, 1)
e portanto, para n grande�
n ⇥min(p , 1�p )> 10�
,
bpa⇠ N
✓
p ,p (1�p )
n
◆
.
Como p não é conhecido a variância do estimador bp também não é conhecida e portantodeveremos utilizar o próprio estimador bp para estimá-la. Nestas condições, segue que,
Z =bp �p
∆
bp (1�bp )n
a⇠ N (0, 1)
Intervalo de Confiança para a proporçãoSuposições:
• A amostra é aleatória simples;
• As condições para a distribuição binomial são satisfeitas.
• A distribuição normal pode ser utilizada para aproximar a distribuição das proporções amos-trais se
�
n ⇥min(p , 1�p )> 10�
são satisfeitos.
Um intervalo de confiança com nível de confiança de (1�↵)% é dado por:
E = z ↵2
r
bp (1� bp )n
) I C�
p ; (1�↵)%�
=
bp � z ↵2
r
bp (1� bp )n
; bp + z ↵2
r
bp (1� bp )n
!
Exemplo 7.4. Quando Mendel realizou seus famosos experimentos em genética com ervilhas, umaamostra das descendentes consistia de 428 ervilhas verdes e 152 ervilhas amarelas.
(a) Determine um intervalo de confiança com nível de confiança de 95% para a porcentagem deervilhas amarelas;
(b) Com base na teoria da genética, Mendel esperava que 25% das ervilhas descendentes fossemamarelas. Dado que a porcentagem das ervilhas amarelas não é 25%, os resultados contradi-zem a teoria de Mendel?
Solução:
(a) Dada a amostra de 580 ervilhas, temos que uma estimativa para a proporção de ervilhas ama-relas é
bp =152580= 0, 262
portanto, np = 152> 5 e n (1�p )> 5, assim,
I C�
p ; 95%�
=
0, 262�1, 96⇥r
0, 262(1�0, 262)580
; 0, 262+1, 96⇥r
0, 262(1�0, 262)580
!
= (0, 262�0, 036 ; 0, 262+0, 036) = (0, 226 ; 0, 298)
7.5 Teste de Hipótese
Um hipótese é uma suposição a respeito de um determinado problema, por exemplo:Um lote de parafusos, de origem desconhecida, será leiloada a um preço muito convidativo.
Um indústria está interessada em adquirir um lote desses parafusos, entretanto, ela precisa saberse os parafusos satisfazem as especificações técnicas relacionadas a resistência a tração. O edi-tal do leilão diz que, pouco antes do início do leilão será divulgada a resistência média de umaamostra de 25 parafusos. Qual a regra de decisão deve ser utilizada pela indústria?
Estas suposições podem ser formuladas através de um teste de hipótese estatístico, que é umprocesso de decisão para avaliar as hipóteses feitas a respeito de uma determinada população.Desta forma, testar uma hipótese, significa verificar se um pressuposto é verdadeiro ou não. Estaverificação é feita através de uma amostra coletada da população em estudo; no exemplo anteriora população era o lote de parafusos.
Portanto, o objetivo de um teste de hipótese é fornecer uma metodologia(procedimento) quenos permita verificar se os dados amostrais trazem evidências que apóiem ou não uma hipóteseestatística formulada.
Assim sendo, a formulação de um teste de hipótese estatístico inicia-se com a afirmação deuma hipótese estatística.
Definição 7.4 (Hipótese Estatística). É usualmente uma conjectura a respeito de um parâmetropopulacional.
No exemplo dos parafusos, a indústria deseja saber se a resistência média à tração é superior a145 Kg, isto é, µ> 145.
Para cada situação existem dois tipos de hipótese estatística: a hipótese nula denotada por H0
e a hipótese alternativa denotada por H1
Existem básicamente 3 tipos de formulações para os testes de hipótese:
Situação A. Uma máquina automática para encher pacotes de café foi regulada para colocar emmédia 500 g de café com uma variância de 400 g 2. Após algum tempo de trabalho, deseja-severificar se a média do processo está sob controle, as hipóteses para esta situação são:
(
H0 : µ= 500
H1 : µ 6= 500
Este teste é denominado teste bilateral;
Situação B. O dono de uma fábrica de confecção de tapetes está desconfiado que está havendoum gasto excessivo de tinta em uma das etapas do processo. Sabe-se que a quantidademédia de tinta gasta no processo é de 1, 6 l , as hipóteses para esta situação são:
(
H0 : µ= 1, 6 ou µ 1, 6
H1 : µ> 1, 6
Este teste é denominado teste unilateral à direita;
Situação C. Uma companhia farmacêutica desconfia que o tempo de duração do efeito de ummedicamento da companhia concorrente é menor que o anunciado por ela que é 225 minu-tos, as hipóteses para esta situação são:
(
H0 : µ= 225 ou µ� 225
H1 : µ< 225
Este teste é denominado teste unilateral à esquerda.
Em um teste de hipótese, existem apenas quatro resultados possíveis:
H0 é verdadeira H0 é falsaRejeitar H0 Erro tipo I Decisão corretaNão Rejeitar H0 Decisão correta Erro tipo II
Elementos de um teste de hipótese
Nível de significância: É a probabilidade de se cometer o erro tipo I, é denotado por ↵, isto é,
P(Erro tipo I) =↵= P(Rejeitar H0|H0 é verdadeira).
Beta do teste: É a probabilidade de se cometer o erro tipo II, é denotado por � , e é dado por,
P(Erro tipo II) = � = P(Não Rejeitar H0|H0 é falsa).
Região Crítica(RC): É o conjunto de valores de b✓ para o qual a hipótese deve ser rejeitada,também chamada de região de rejeição.
Nível descritivo ou p -valor do teste: É a probabilidade de ocorrer valores do estimador b✓ , maisextremos que o valor observado b✓ (!) = x , isto é, que a estimativa obtida, sob a hipótese que H0 éverdadeira, isto é,
• Se H1 : ✓ > ✓0 então x �✓0 > 0, assim
p -valor= P�
b✓ > x�
�H0 é verdadeira�
= P✓
W >x �✓0
�b✓
◆
;
• Se H1 : ✓ < ✓0 então x �✓0 < 0, assim
p -valor= P�
b✓ < x�
�H0 é verdadeira�
= P✓
W <x �✓0
�b✓
◆
.
Logo, em qualquer uma dessas situações tem-se que
p -valor= P
W >
�
�x �✓0
�
�
�b✓
!
• Se H1 : ✓ 6= ✓0 então, x �✓0 > 0 ou x �✓0 < 0, assim
p -valor= 2⇥P
W >
�
�x �✓0
�
�
�b✓
!
Observe que quanto menor for o p -valor, mais forte será a evidência de que a hipótese H0 nãoé verdadeira. Portanto, o p -valor mede a força da evidência contra H0. Em outras palavras, quantomenor o p-valor menor será a probabilidade de H0 ser verdadeira.
Observação 7.1. Sempre que acontecer b✓ (!) = x = ✓0 então não rejeita-se a hipótese H0.
7.6 Procedimento Geral do Teste de Hipótese - Uma Amostra
1. Formulação das hipóteses:
Situação A:
(
H0 : ✓ = ✓0
H1 : ✓ 6= ✓0Situação B:
(
H0 : ✓ ✓0
H1 : ✓ > ✓0Situação C:
(
H0 : ✓ � ✓0
H1 : ✓ < ✓0
2. p-valor:
• Nas situações B e C,
p-valor= P
W >
�
�x �✓0
�
�
�b✓
!
• Na situação A,
p-valor= 2⇥P
W >
�
�x �✓0
�
�
�b✓
!
3. Região crítica:
Situação A: RC =⇤�1 ,�wc1
⇤[ ⇥wc2 ,1⇥
Situação B: RC =⇤�1 ,�wc1
⇤
Situação C: RC =⇥
wc2 ,1⇥
em que wc1 e wc2 satisfaz as seguintes condições:
P�
W wc1
�
=↵1
P�
W �wc2
�
=↵2.
em que ↵1 + ↵2 = ↵. Se a distribuição de W for simétrica então, wc2 = �wc1 e nesse caso↵1 =↵2 = ↵2 . A variável transformada W é chamada de estatística do teste, e nesse caso comoa distribuição de W não depende de nenhum parâmetro desconhecido, denominamos dequantidade pivotal.
Se�b✓ não for conhecido então substitui-se pelo respectivo estimador b�
b✓ .
4. Decisões e Conclusões possíveis:
Pelo método do p-valor:
• rejeitar H0 se p-valor↵.
Conclusão: Como p-valor ↵ rejeitamos H0 ao nível de significância de 100↵%. Logo,existem evidências de que a hipótese H1 é verdadeira;
• não rejeitar H0 caso contrário.
Conclusão: Como p-valor> ↵ não rejeitamos H0 ao nível de significância de 100↵%.Logo, não existem evidências de que a hipótese H1 é verdadeira.
Pelo método da região crítica:
• rejeitar H0 se Wc a l 2RC .
Conclusão: Como Wc a l 2 RC rejeitamos H0 ao nível de significância de 100↵%. Logo,existem evidências de que a hipótese H1 é verdadeira;
• não rejeitar H0 se Wc a l /2RC .
Conclusão: Como Wc a l /2 RC não rejeitamos H0 ao nível de significância de 100↵%.Logo, não existem evidências de que a hipótese H1 é verdadeira.
7.7 Teste de hipótese para a média
Seja X uma variável aleatória com média µ e desvio padrão �. Seja bµ = X um estimador paraµ e�X o desvio padrão deste estimador.
7.7.1 Caso 1: X possui distribuição normal com Variância conhecida.
Estatística do teste:
Z =X �µ0
�X=
X �µ0�pn
⇠ N (0, 1)
Região crítica:
Situação A: RC =�
x 2R : x �z ↵2
ou x � z ↵2
Situação B: RC =�
x 2R : x � z↵
Situação C: RC =�
x 2R : x �z↵
p-valor do teste:
• Para as situações B e C tem-se que p-valor= P
Ç
Z >
�
�x�µ0
�
�
�pn
å
• Para a situação A tem-se que p-valor= 2⇥P
Ç
Z >
�
�x�µ0
�
�
�pn
å
7.7.2 Caso 2: X possui distribuição normal com Variância desconhecida.
Estatística do teste:
T =X �µ0
SX=
X �µ0Spn
⇠ tn�1;
Região crítica:
Situação A: RC =�
x 2R : x �t(n�1, ↵2 ,) ou x � t(n�1, ↵2 ,)
Situação B: RC =�
x 2R : x � t (n�1,↵,)
Situação C: RC =�
x 2R : x �t (n�1,↵,)
p-valor do teste: p-valor= P
Ç
T >
�
�x�µ0
�
�
Spn
å
p-valor do teste:
• Para as situações B e C tem-se que p-valor= P
Ç
T >
�
�x�µ0
�
�
Spn
å
• Para a situação A tem-se que p-valor= 2⇥P
Ç
T >
�
�x�µ0
�
�
Spn
å
7.7.3 Caso 3: Grandes Amostras: n�30.
Estatística do teste:
• Se a variância for conhecida:
Z =X �µ0
�X=
X �µ0�pn
a⇠ N (0, 1)
• Se a variância for desconhecida:
Z =X �µ0
�X=
X �µ0Spn
a⇠ N (0, 1)
Região crítica:
Situação A: RC =�
x 2R : x �z ↵2
ou x � z ↵2
Situação B: RC =�
x 2R : x � z↵
Situação C: RC =�
x 2R : x �z↵
p-valor do teste:
• Para as situações B e C tem-se que p-valor= P
Ç
Z >
�
�x�µ0
�
�
�pn
å
• Para a situação A tem-se que p-valor= 2⇥P
Ç
Z >
�
�x�µ0
�
�
�pn
å
7.8 Teste de hipótese para a proporção
Seja X uma variável aleatória com ditribuição X ⇠ ber(p ). Seja Xe
= (X1, . . . , Xn ) uma amostrai.i.d. de X , então um estomador para o parânetro p é dado por
bp =
Pni=1
n=
kn
em que k é o número de vezes que o evento de interesse aparece na amostra Xe
.Estatística do teste: pelo Teorema Central do Limite, tem-se para n grande que a estatística do
teste é dada por
Z =bp �p0
∆
p0(1�p0)n
a⇠ N (0, 1)
Região crítica:
Situação A: RC =�
x 2R : x �z ↵2
ou x � z ↵2
Situação B: RC =�
x 2R : x � z↵
Situação C: RC =�
x 2R : x �z↵
p-valor do teste:
• Para as situações B e C tem-se que p-valor= P
Ç
Z >
�
�p�p0
�
�
∆
p0(1�p0)n
å
• Para a situação A tem-se que p-valor= 2⇥P
Ç
Z >
�
�p�p0
�
�
∆
p0(1�p0)n
å
Capítulo 8
Correlação e Regressão Linear Simples
Nesse capítulo iremos estudar a Correlação e a Regressão Linear Simples. Na primeira seçãoiremos tratar sobre coefiente de correlação linear que é um coeficiente que mede a intensidade darelação linear entre duas variáveis. Na segunda seção trataremos da regressão linear simples. Naanálise de regressão o objetivo é investigar a relação entre as variáveis e predizer o valor de umaem função da outra.
8.1 Coeficiente de Correlação Linear(⇢)
O coeficiente de correlação linear é utilizado quando se desejar verificar se duas variáveis estãorelacionadas. Mais especificamente, se duas variáveis possuem relação linear entre elas. Essecoeficiente é também denominado correlação de Pearson.
Definição 8.1 (Coeficiente de Correlação Linear). Sejam X e Y duas variáveis aleatórias com médiaµX eµY e desvio padrão�X e�Y respectivamente, então o Coeficiente de Correlação Linear é definidocomo,
⇢X ,Y =⇢(X , Y ) =E (X Y )�E (X )E (Y )p
V a r (X )p
V a r (Y ).
Propriedades:
1. O coeficente de correlação linear independe da unidade de medida das variáves. Trata-se deum número adimensional;
2. O coeficente de correlação linear é invariante sobre transformações lineares, isto é, se U =a X +b e V = c Y +d então, ⇢U ,V =⇢X ,Y ;
3. O coeficente de correlação linear é um valor entre -1 e 1, em que:
(a) Se ⇢ < 0 temos uma relação negativa, isto é, uma relação linear inversa;
(b) Se ⇢ > 0 temos uma relação positiva, isto é, uma relação linear direta;
(c) Se ⇢ = 0 temos uma ausência relação linear;
63
(d) Se |⇢|= 1 temos uma relação linear perfeita.
Definição 8.2 (Coeficiente de Correlação Linear amostral). Dada uma amostra i.i.d das variáveis
X e Y,⇣
(X1, Y1), . . . , (Xn , Xn )⌘
, então um estimador (b⇢) para o Coeficiente de Correlação Linear é dadopor,
b⇢ = r =
Pni=1(Xi �X )(Yi �Y )
q
⇣
Pni=1(Xi �X )2
⌘
q
⇣
Pni=1(Yi �Y )2
⌘
=nPn
i=1 Xi Yi �Ä
Pni=1 Xi
äÄ
Pni=1 Yi
ä
q
nPn
i=1 X 2i �
Ä
Pni=1 Xi
ä2q
nPn
i=1 Y 2i �
Ä
Pni=1 Yi
ä2
8.1.1 Interpretação geométrica
O produto escalar de dois vetores A= (a 1, a 2, · · · , a n ) e B= (b1,b2, · · · ,bn ) é o resultado do pro-duto do comprimento (também chamado de norma ou módulo) de A pela [[projeção escalar]] deB em A, isto é,
A ·B= kAkkBkcos↵
Onde ↵ é o ângulo formado pelos vetores e ||A|| e ||B|| são seus comprimentos, dados por,
||A||=p
a 21+a 2
2+ · · ·+a 2n
e||B||=
p
b 21 +b 2
2 + · · ·+b 2n
O produto escalar entre dois vetores também pode ser visto como,
A ·B=nX
i=1
a i bi = a 1b1+a 2b2+ · · ·+a nbn
Deste modo o cosseno do angulo entre os dois vetores (↵) é dado por:
cos(↵) =A ·BkAkkBk =
Pni=1 a i bi = a 1b1+a 2b2+ · · ·+a nbn
p
a 21+a 2
2+ · · ·+a 2n ⇥
p
b 21 +b 2
2 + · · ·+b 2n
(8.1)
Considere duas amostras i.i.d. das variáveis X e Y, (X1, . . . , Xn ) de X e (Y1, . . . , Yn ). Essas amostraspodem ser consideradas como vetores em um espaço de n dimensões. Assim, subtraindo cadavalor de sua respectiva média, tem-se (X1� X , . . . , Xn � X ) e (Y1� Y , . . . , Yn � Y ). Assim, da equação8.1 o cosseno do ângulo ↵ entre estes vetores é dado por:
cos(↵) =
NX
i=1
(Xi � X ) · (Yi � Y )
s
NX
i=1
(Xi � X )2 ·s
NX
i=1
(Yi � Y )2
Logo, cos(↵) =⇢. Sendo assim:
• Se ⇢ = 1, o ângulo ↵= 0�, os dois vetores são colineares (paralelos);
• Se ⇢ = 0, o ângulo ↵= 90�, os dois vetores são ortogonais;
• Se ⇢ =�1, o ângulo ↵= 180�, os dois vetores são colineares com sentidos opostos;
8.1.2 Teste de hipótese para o Coeficiente de Correlação
Hipótese:(
H0 : ⇢ =⇢0
H1 : ⇢ 6=⇢0
Estatística do Teste:
T = |r |«
n �21� r 2
Região crítica: RC=¶
x 2 [0,1) : x � t ↵2
©
Decisão: rejeitar H0 se Tc a l 2RC
8.2 Regressão Linear Simples
Tem por objetivo encontrar qual a relação linear entre as variáveis aleatórias, se a mesma exis-tir.
Relação linear simples: Y = b0 + b1X + e . Em que, e é erro aleatório. Dada uma amostra
Xe
=⇣
(X1, Y1), . . . , (Xn , Yn )⌘
tem-se que,
Yi =b0+b1Xi + ei
onde ei é suposto ter distribuição normal com média zero e variância�2 com (e1, . . . , en ) indepen-dentes e identicamente distribuídos.
Nestas condições deseja-se estimar b0 e b1 obtendo-se assim a reta estimada bYi = bb0 +bb1Xi ,para a partir dela podermos fazer predições de Y a partir de valores conhecidos de X.
Observação 8.1. A variável X é denominada variável independente ou explicativa e a variável Y devariável dependente ou resposta.
8.3 Estimação dos parâmetros
O método de mínimos quadrados é usado para estimar os parâmetros do modelo (b0 e b1) econsiste em fazer com que a soma dos erros quadráticos seja menor possível, ou seja, este métodoconsiste em obter os valores de b0 e b1 que minimizam a expressão:
f (b0,b1) =nX
i=1
e 2i =
nX
i=1
(Yi � (b0+b1Xi ))2
Aplicando-se derivadas parciais à expressão acima, e igualando-se a zero, acharemos as se-guintes estimativas para b0 e b1, as quais chamaremos de bb0 e bb1, respectivamente:
bb0 =
Pni=1 Yi �bb1
Pni=1 Xi
n
bb1 =nPn
i=1 Xi Yi �Ä
Pni=1 Xi
äÄ
Pni=1 Yi
ä
nPn
i=1 X 2i �
Ä
Pni=1 Xi
ä2
A chamada equação (reta) de regressão é dada por
bYi =bb0+bb1Xi .
A diferença entre os valores observados e os preditos é chamada de resíduo (bei ):
bei = Yi � bYi
O resíduo relativo à i-ésima observação (bei ) pode ser considerado uma estimativa do erro ale-atório (ei ) desta observação.
8.3.1 Coeficiente de Determinação (R2)
O coeficiente de determinação é uma medida descritiva da proporção da variação de Y quepode ser explicada por variações em X, segundo o modelo de regressão especificado. Ele é dadopela seguinte razão:
R2 = 1�Pn
i=1(Yi � bYi )2Pn
i=1(Yi �Y i )2= 1�
Pni=1 Y 2
i �bb0
Pni=1 Yi �bb1
Pni=1 Xi Yi
Pni=1 Y 2
i �Ä
Pni=1 Yi
ä2.
n
Referências Bibliográficas
BUSSAB, W. O.; MORETTIN, P. A. Estatística Básica, 5a Edição, São Paulo: Saraiva, 2005.
FISHER, R. A. On the Mathematical Foundations of Theoretical Statistics. Philosophical Transac-tions of the Royal Society, A, v.222, p.309-368, 1922.
FISHER, R. A. Statistical methods for research workers. Edinburgh: Oliver and Boyd, 1925. (Bio-logical monographs and manuals, n.5)
GRAUNT, J. (1662). Bills of Mortality. London. Disponível em<http://www.ac.wwu.edu/ stephan/Graunt/bills.html>. Acesso em: 5 de novembro de2007.
FUNDAÇÃO INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA (IBGE). Normas de apre-sentação tabular. 3. ed. Rio de janeiro, 1993. 63p.
KOLMOGOROV, A. N. Foundations of the Theory of Probability. 2. ed., NewYork: Chelsea Publishing Company, 1956. 84p. Original publicado em 1933 emAlemão como “Grundbegriffe der Wahrscheinlichkeitrechnung”. Disponível em<http://www.kolmogorov.com/Foundations.html>. Acesso em: 5 de novembro de 2007.
TRIOLA, M. F. Introdução à Estatística, Tradução da 9a Edição, Rio de Janeiro: LTC, 2005.
67