25
Resumen Prob. y Estadística Juan Pablo Martí U.T.N. F.R.M. - 1 - Probabilidad y Estadística PROBABILIDAD Y ESTADÍSTICA PROBABILIDAD Y ESTADÍSTICA PROBABILIDAD Y ESTADÍSTICA PROBABILIDAD Y ESTADÍSTICA UNIDAD I: Introducción a la estadística y al análisis de datos Medidas de tendencia central: Media: Media muestral: n x n x x x x n i i n = = + + + = 1 2 1 L x La media aritmética puede considerarse como el “punto de equilibrio” de los datos. Es la mejor medida de tendencia central en conjuntos numéricos carentes de valores extremos. Media poblacional: N x N i i = = 1 μ donde N es el número de observaciones (sólo cuando éste es finito). Mediana: Es el punto donde la muestra se divide en dos partes iguales. En una muestra ordenada en forma creciente, es el dato central si el número de observaciones es impar, o es el promedio de los dos valores centrales si el número de observaciones es par. ( ) ( ) ( ) + = + + Par 2 Impar ~ 1 2 / 2 / 2 1 n n n x x x x Es la mejor medida de tendencia central en conjuntos numéricos donde aparecen valores extremos. Moda: La moda es la observación que se presenta con mayor frecuencia en la muestra. Puede existir más de una moda. Es la mejor medida de tendencia central para datos cualitativos. Medidas de variabilidad: Rango: ( ) ( ) i i x x r mín máx - = Es una medida sencilla de la variabilidad de los datos. Entre mayor sea el rango, más variabilidad tendrá la muestra.

Resumen Probabilidad y Estadística

Embed Size (px)

Citation preview

Page 1: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 1 - Probabilidad y Estadística

PROBABILIDAD Y ESTADÍSTICAPROBABILIDAD Y ESTADÍSTICAPROBABILIDAD Y ESTADÍSTICAPROBABILIDAD Y ESTADÍSTICA

UNIDAD I: Introducción a la estadística y al análisis de datos Medidas de tendencia central:

Media: Media muestral:

n

x

n

xxxx

n

i

i

n

∑==

+++= 121 L

� � x

La media aritmética puede considerarse como el “punto de equilibrio” de los datos. Es la mejor medida de tendencia central en conjuntos numéricos carentes de valores extremos. Media poblacional:

N

xN

i

i∑== 1µ

donde N es el número de observaciones (sólo cuando éste es finito). Mediana: Es el punto donde la muestra se divide en dos partes iguales. En una muestra ordenada en forma creciente, es el dato central si el número de observaciones es impar, o es el promedio de los dos valores centrales si el número de observaciones es par.

( ) ( )( )

+=

+

+

Par2

Impar~

12/2/

2

1

nn

n

xx

x

x

Es la mejor medida de tendencia central en conjuntos numéricos donde aparecen valores extremos. Moda:

La moda es la observación que se presenta con mayor frecuencia en la muestra. Puede existir más de una moda. Es la mejor medida de tendencia central para datos cualitativos.

Medidas de variabilidad: Rango:

( ) ( )ii xxr mínmáx −=

Es una medida sencilla de la variabilidad de los datos. Entre mayor sea el rango, más variabilidad tendrá la muestra.

Page 2: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 2 - Probabilidad y Estadística

Varianza y Desviación Estándar: Varianza y Desviación Estándar muestrales:

( )

11

2

2

=∑

=

n

xx

s

n

i

i

La varianza es la suma de los cuadrados de las desviaciones respecto de la media de cada dato, dividido la cantidad de muestras menos uno. El cuadrado elimina las cancelaciones por signos opuestos. La Desviación Estándar es la raíz cuadrada positiva de la varianza.

( )

11

2

=∑

=

n

xx

s

n

i

i

� � 1−nxσ

Como el cálculo manual de la varianza es tedioso, existe un método abreviado más práctico:

1

2

1

1

2

2

=

∑∑ =

=

n

n

x

x

s

n

i

in

i

i

Varianza y Desviación Estándar poblacionales:

( )

N

xN

i

i∑=

= 1

2

2

µ

σ

( )

N

xN

i

i∑=

= 1

σ � � nxσ

Coeficiente de Variación:

x

scv =

El coeficiente de variación es un número que representa a la desviación estándar como fracción de la media. Sirve para comparar la variabilidad de distintas muestras, incluso con valores y unidades de medida diferentes.

Medidas de posición: Cuartiles: Son los puntos intermedios que resultan de dividir un conjunto ordenado de observaciones en 4 partes iguales. El primer cuartil ( 1q ) es un valor que tiene aproximadamente la cuarta parte de las observaciones iguales o por debajo de él y las tres cuartas partes restantes iguales o por encima. El segundo cuartil ( 2q ) corresponde a

Page 3: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 3 - Probabilidad y Estadística

la mediana. El tercer cuartil ( 3q ) tiene aproximadamente las tres cuartas partes de las

observaciones iguales o por debajo de él y la cuarta parte restante iguales o por encima. Si más de un valor satisface la definición de un cuartil, se utiliza el promedio de ellos como cuartil.

Rango Intercuartílico:

13RIC qq −=

El rango intercuartílico es menos sensible a los valores extremos que el rango total.

Percentiles:

El ésimo100 −k percentil kp es un valor tal, que al menos el %100k de las

observaciones están en el valor o por debajo de él, y al menos el ( )%1100 k− están en el valor o por encima de él. Procedimiento de cálculo:

1) Encontrar kni .= . Si nk no es un entero, entonces i es el siguiente entero más grande. Si nk es entero, i es igual a 5,0+nk .

2) El percentil kp será el valor de la muestra ubicada en la posición i (si la

posición tiene una parte decimal de 5 décimos, el percentil es el promedio entre

( )nkx y ( )1+nkx )

Correspondencia:

25,01 pq = , xpq ~50,02 == , 75,03 pq =

Deciles: Son los puntos intermedios que resultan de dividir un conjunto ordenado de observaciones en 10 partes iguales. Correspondencia:

10,01 pd = , 20,02 pd = ,…, xqpd ~250,05 === ,…, 90,09 pd =

Representación gráfica:

Diagrama de puntos: El diagrama de puntos es una gráfica muy útil para visualizar un conjunto pequeño de datos; por ejemplo, de unas 20 observaciones. La gráfica permite distinguir a simple vista la tendencia central de los datos y su variabilidad.

Diagrama de tallo y hoja: El diagrama de tallo y hojas es una buena manera de obtener una presentación visual informativa del conjunto de datos donde cada número está formado al menos por dos

16,0 16,5 17,0 17,5 18,0

Page 4: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 4 - Probabilidad y Estadística

dígitos. Para construirlo, los números se dividen en dos partes: un tallo, formado por uno o más de los dígitos principales, y una hoja, la cual contiene el resto de los dígitos. En general debe escogerse un número relativamente pequeño de tallos en comparación con la cantidad de observaciones. Lo usual son entre 5 y 20 tallos.

Tallo Hoja Frecuencia

12 1 0 3 3 13 4 1 3 5 3 5 6 14 2 9 5 8 3 1 6 9 8 15 4 7 1 3 4 0 8 8 6 8 0 8 12 16 3 0 7 3 0 5 0 8 7 9 10 17 8 5 4 4 1 6 2 1 0 6 10 18 0 3 6 1 4 1 0 7 19 9 6 0 9 3 4 6

Distribución de frecuencias: La distribución de frecuencias ofrece un resumen más compacto de los datos. Primero debe dividirse el rango de los datos en intervalos llamados intervalos de clase o celdas, los cuales deben tener el mismo ancho cuando sea posible. El número de clases es arbitrario, aunque es una buena opción aproximarlo a la raíz cuadrada de la cantidad de observaciones.

Intervalo de

clase Conteo Frecuencia

Frecuencia

relativa

Frecuencia relativa

acumulada

130110 <≤ x ||||| | 6 0,1375 0,1375 150130 <≤ x ||||| ||||| |||| 14 0,1750 0,3125 170150 <≤ x ||||| ||||| ||||| ||||| || 22 0,2750 0,5875 190170 <≤ x ||||| ||||| ||||| || 17 0,2125 0,8 210190 <≤ x ||||| ||||| 10 0,2 1

Histograma:

Ojiva:

120 140 160 180 200

2015105

Frecuencia

Valor de la Variable

40353025

60555045

7065

120 140 160 180 200

20

15

10

5

Frecuencia

Valor de la

Variable

Page 5: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 5 - Probabilidad y Estadística

Gráfico de caja: Los límites de la caja son el primer y el tercer cuartil. La línea media de la caja es la mediana. Los límites del bigote son:

RIC.5,111 −= qb y RIC.5,132 += qb

Luego: RIC.311 −= ql y RIC.332 += ql

� Los valores entre 11 y lb y 22 y lb son valores atípicos y se representan con puntos

rellenos. � Los valores más allá de 21 o ll , son valores atípicos extremos y se representan con

puntos vacíos.

UNIDAD 2: Probabilidad Espacio muestral: Observación: Cualquier registro de información, ya sea numérico o categórico Experimento: Cualquier proceso que genere un conjunto de datos. ESPACIO MUESTRAL: Es un conjunto de todos los resultados posibles de un experimento estadístico. Se representa con la letra S Punto muestral: Es cada resultado en un espacio muestral. Eventos: EVENTO: Es un subconjunto en un espacio muestral.

Complemento:

El complemento de un evento A con respecto a S es el subconjunto de todos los elementos de S que no están en A .

Representamos el complemento de A con A′ o A Intersección:

La intersección de dos eventos A y B , denotada mediante el símbolo BA ∩ , es el evento que contiene a todos los elementos que son comunes a A y a B

120 140 160 180 200

1b 2b1q 3q 2q

Page 6: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 6 - Probabilidad y Estadística

Unión:

La unión de dos eventos A y B , denotada mediante el símbolo BA ∪ , es el evento que contiene a todos los elementos que pertenecen a A o a B o a ambos.

Eventos mutuamente excluyentes:

Dos eventos A y B son mutuamente excluyentes o disjuntos si Ο/=∩ BA ; es decir, si A y B no tienen elementos en común.

Propiedades:

1. Ο/=Ο/∩A 2. AA =Ο/∪ 3. Ο/=′∩ AA 4. SAA =′∪ 5. Ο/=′S 6. S=Ο′/

7. ( ) Ο/=′′A

8. ( ) BABA ′∪′=′

9. ( ) BABA ′∩′=′

∪ Conteo de puntos de la muestra:

Regla de la multiplicación:

Si una operación se puede llevar a cabo de 1n formas, y si para cada una de éstas se

puede realizar una segunda operación en 2n formas, entonces las dos operaciones se

pueden ejecutar en 21.nn formas.

Permutaciones: Una permutación es un arreglo de todo o parte de un conjunto de objetos en un espacio

muestral. El número de permutaciones de n objetos distintos es ! n

El número de permutaciones de n objetos distintos tomados de r a la vez es:

( )! !

Prn

nrn

−= � � nPr

El número de combinaciones de n objetos distintos tomados de r a la vez es:

( )! !.

! C

rnr

n

r

nrn

−=

= � � nCr

Page 7: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 7 - Probabilidad y Estadística

Probabilidad de un evento: La probabilidad de un evento A es la suma de los pesos de todos los puntos muestrales en A .

Por tanto: ( ) 10 ≤≤ AP ( ) 0=Ο/P ( ) 1=SP

Si un experimento puede tener como resultado cualquiera de N diferentes resultados

igualmente probables, y si exactamente n de éstos resultados corresponden al evento A , entonces la probabilidad del evento A es:

( )N

nAP =

Reglas aditivas:

Si A y B son cualesquiera dos eventos, entonces: ( ) ( ) ( ) ( )BAPBPAPBAP ∩−+=∪

Si A y B son dos eventos mutuamente excluyentes, entonces:

( ) ( ) ( )BPAPBAP +=∪

Para tres eventos A , B y C :

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )CBAPCBPCAPBAPCPBPAPCBAP ∩∩+∩−∩−∩−++=∪∪

Probabilidad condicional: La probabilidad de que un evento B ocurra, cuando se sabe que ya ocurrió algún evento A se llama probabilidad condicional.

La probabilidad condicional de B , dado A es:

( ) ( )( )

( ) 0si| >∩

= APAP

ABPABP

Reglas multiplicativas:

Si en un experimento pueden ocurrir los eventos A y B , entonces: ( ) ( ) ( )ABPAPBAP |.=∩

Para tres eventos A , B y C :

( ) ( ) ( ) ( )CABPABPAPCBAP ∩=∩∩ |.|.

Eventos independientes: Dos eventos A y B son independientes si y sólo si cumplen ALGUNA de las siguientes condiciones:

1. ( ) ( )BPABP =| y ( ) ( )APBAP =|

2. ( ) ( ) ( )BPAPBAP .=∩

Page 8: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 8 - Probabilidad y Estadística

Teorema de la probabilidad total:

Si los eventos kBBB ,,, 21 L constituyen una partición del espacio muestral S tal que

( ) 0≠iBP para ki , ,2 ,1 L= , entonces para cualquier evento A de S :

( ) ( ) ( ) ( )∑∑==

=∩=k

i

ii

k

i

i BAPBPABPAP11

|.

Regla de Bayes:

Si los eventos kBBB ,,, 21 L constituyen una partición del espacio muestral S donde

( ) 0≠iBP para ki , ,2 ,1 L= , entonces para cualquier evento A en S tal que ( ) 0≠AP :

( )( )

( )

( ) ( )

( ) ( )kr

BAPBP

BAPBP

ABP

ABPABP

k

i

ii

rr

k

i

i

r

r ,,2,1 para|.

|.|

11

L==

∩=

∑∑==

UNIDAD 3: Variables aleatorias y distribuciones de probabilidad Concepto de variable aleatoria:

Una variable aleatoria es una función que asocia un número real con cada elemento del espacio muestral.

Utilizaremos la letra mayúscula X para denotar una variable aleatoria, y su correspondiente minúscula x para uno de sus valores. Cada valor posible de X representa un evento que es un subconjunto del espacio muestral para el experimento dado. Si un espacio muestral contiene un número finito de posibilidades, o infinito numerable, se llama espacio muestral discreto. En cambio, si contiene un número infinito no numerable de posibilidades, se llama espacio muestral continuo. Distribuciones discretas de probabilidad:

Para la variable aleatoria discreta X , ( )xf es una función de probabilidad, función masa

de probabilidad o distribución de probabilidad, si se cumple para todo x que: 1. ( ) 0≥xf

Partición del espacio muestral S

A

1B 2B

4B

nB kB

3B

Page 9: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 9 - Probabilidad y Estadística

2. ( ) 1=∑x

xf

3. ( ) ( )xXPxf ==

La distribución acumulada ( )xF de una variable aleatoria discreta X , con distribución de

probabilidad ( )xf es:

( ) ( ) ( ) ∞<<∞−=≤= ∑≤

xtfxXPxFxt

para

Gráficas de la distribución de probabilidad y de la distribución acumulada

Distribuciones continuas de probabilidad: Una variable aleatoria continua tiene una probabilidad cero de tomar exactamente cualquiera de sus valores. Trataremos el cálculo de probabilidades para varios intervalos de variables aleatorias, no importa si incluimos o no alguno de los extremos.

Para la variable aleatoria continua X , ( )xf es una función densidad de probabilidad o

función densidad, si se cumple para todo Rx ∈ que: 1. ( ) 0≥xf

2. ( ) 1. =∫∞

∞−dxxf

3. ( ) ( )∫=<<b

adxxfbXaP .

Entonces ahora, gráficamente, la probabilidad de un intervalo continuo es el área bajo la curva de la función densidad.

La distribución acumulada ( )xF de una variable aleatoria continua X , con función densidad

( )xf es:

( ) ( ) ∞<<∞−=≤= ∫ ∞−xdttfxXPxF

x

para).(

De aquí concluimos que:

0 1 2 3 4 5

( )xf

x

0 1 2 3 4 5

( )xF

x

Page 10: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 10 - Probabilidad y Estadística

( ) ( ) ( )⇒−=<< aFbFbXaP ( ) ( )dx

xdFxf =

UNIDAD 4: Esperanza matemática Media de una variable aleatoria:

Sea X una variable aleatoria con distribución de probabilidad ( )xf , la media o valor

esperado de X es para: X discreta:

( ) ( )∑==x

xfxXE .µ

X continua:

( ) ( )∫∞

∞−== dxxfxXE ..µ

La media o valor esperado es el resultado promedio que podemos esperar del experimento a largo plazo.

Generalizando para ( )Xg , función de variable aleatoria: X discreta:

( ) ( )[ ] ( ) ( )∑== xfxgXgEXg .µ

X continua:

( ) ( )[ ] ( ) ( )∫∞

∞−== dxxfxgXgEXg ..µ

Varianza:

Sea X una variable aleatoria con distribución de probabilidad ( )xf y media µ , la varianza

de X es para: X discreta:

( )[ ] ( ) ( )∑ −=−=x

xfxXE .222 µµσ

X continua:

( )[ ] ( ) ( )∫∞

∞−−=−= dxxfxXE ..222 µµσ

La raíz cuadrada positiva de la varianza, es la desviación estándar σ de X . Fórmula alternativa de cálculo:

( ) 222 µσ −= XE También se pueden generalizar las fórmulas anteriores para ( )Xg función de variable aleatoria, reemplazándola por la variable.

Page 11: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 11 - Probabilidad y Estadística

Propiedades de la media y la varianza:

1. ( ) ctte== cccE

2. ( ) ( ) ctte.. == aXEaXaE

3. ( ) ( )[ ] ( )[ ] ( )[ ]XhEXgEXhXgE ±=±

1. ( ) ctte02 == ccσ

2. ( ) ( ) ctte.. 222 == aXaXa σσ

3. ( ) ( )[ ] ( )[ ] ( )[ ]XhXgXhXg 222 σσσ +=±

Teorema de Chebyshev: La probabilidad de que cualquier variable aleatoria X tome un valor dentro de k desviaciones

estándar de la media es al menos 211 k− , es decir:

( )2

11..

kkXkP −≥+<<− σµσµ

UNIDAD 5: Distribuciones de probabilidad discreta Distribución binomial: Un experimento consiste en pruebas repetidas, cada una con dos posibles resultados que se pueden etiquetar como éxito o fracaso. El proceso de Bernoulli: Se habla de un proceso de Bernoulli cuando:

1. El experimento consiste en n pruebas que se repiten. 2. Cada prueba tiene dos resultados posibles: éxito o fracaso. 3. La probabilidad de un éxito ( p ) permanece constante en cada prueba. 4. Las pruebas que se repiten son independientes.

El número X de éxitos en n experimentos de Bernoulli se denomina variable aleatoria

binomial. La distribución de probabilidad de ésta variable aleatoria discreta se llama distribución binomial, y sus valores se denotarán como ( )pnxb ,; , pues dependen del número de pruebas y de la probabilidad de éxito en cada prueba dada.

Un experimento de Bernoulli puede tener como resultado un éxito con probabilidad p y un

fracaso con probabilidad pq −= 1 . Entonces la distribución de probabilidad de la variable

aleatoria binomial X (el número de éxitos en n pruebas independientes) es:

( ) nxqpx

npnxb

xnx ,,2,1,0..,; L=

= −

La media y la varianza de la distribución binomial ( )pnxb ,; son:

qpnpn ..y. 2 == σµ

Page 12: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 12 - Probabilidad y Estadística

Distribución hipergeométrica: En el caso de la distribución binomial, se requiere independencia entre las pruebas. Como resultado, si se aplica la binomial a tomar muestras de un lote de artículos, el muestreo se debe efectuar con reemplazo de cada artículo después de que se observe. Por otro lado, la distribución hipergeométrica no requiere independencia y se basa en el muestreo que se realiza sin reemplazo. Experimento hipergeométrico:

1. Se selecciona sin reemplazo una muestra aleatoria de tamaño n de N artículos. 2. k de los N artículos se pueden clasificar como éxitos y kN − se clasifican como

fracasos. El número X de éxitos de un experimento hipergeométrico se denomina variable aleatoria hipergeométrica. La distribución de probabilidad de ésta variable aleatoria discreta se llama distribución hipergeométrica, y sus valores se denotarán como ( )knNxh ,,; , pues dependen

del número de éxitos ( k ) en el conjunto N del que seleccionamos n artículos.

La distribución de probabilidad de la variable aleatoria hipergeométrica X (el número de éxitos

de una muestra aleatoria de tamaño n que se selecciona de N artículos de los que k se

denominan éxito y kN − fracaso) es:

( ) nx

n

N

xn

kN

x

k

knNxh ,,2,1,0

.

,,; L=

=

La media y la varianza de la distribución hipergeométrica ( )knNxh ,,; son:

−⋅⋅

−==

N

k

N

kn

N

nN

N

kn1

1y

. 2σµ

Si Nn << , podemos tomar la distribución de artículos de manera binomial, reemplazando en

su media N

kp =

Distribución geométrica:

Si pruebas independientes repetidas pueden tener como resultado un éxito con probabilidad p

y un fracaso con probabilidad pq −= 1 , entonces la distribución de probabilidad de la variable

aleatoria X (el número de la prueba en el que ocurre el primer éxito) es:

( ) ,...3,2,1.; 1 == − xqppxg x

La media y la varianza de una variable aleatoria que sigue la distribución geométrica son:

22 1

y1

p

p

p

−== σµ

Page 13: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 13 - Probabilidad y Estadística

Distribución de Poisson y proceso de Poisson: Los experimentos que dan valores numéricos de una variable aleatoria X , que es el número de resultados que ocurren durante un intervalo dado o en una región específica, se llaman experimentos de Poisson. Un experimento de Poisson se deriva del proceso de Poisson y posee las siguientes propiedades:

1. El número de resultados que ocurren en un intervalo o región específica es independiente del número que ocurre en cualquier otro intervalo o región del espacio disjunto. Esto quiere decir que el proceso de Poisson no tiene memoria.

2. La probabilidad de que ocurra un solo resultado durante un intervalo muy corto o en una región pequeña es proporcional a la longitud del intervalo o al tamaño de la región y no depende del número de resultados que ocurren fuera de éste intervalo o región.

3. La probabilidad de que ocurra más de un resultado en tal intervalo corto o que caiga en tal región pequeña es insignificante.

El número X de resultados que ocurren durante un experimento de Poisson se llama variable aleatoria de Poisson y su distribución de probabilidad se llama distribución de Poisson. El número medio de resultados se calcula como t.λµ = donde t es el tiempo o región de interés. La distribución de probabilidad de la variable aleatoria de Poisson, que representa el número de resultados que ocurren en un intervalo dado o región específica que se denota con t es:

( ) ( ),....2,1,0

!

...;

.

==−

xx

tetxp

xt λλ

λ

La media y la varianza de la distribución de Poisson ( )txp .;λ tienen el valor t.2 λσµ ==

Distribución de Poisson como forma limitante de la Binomial:

Sea X una variable aleatoria binomial con distribución de probabilidad ( )pnxb ,; . Cuando

∞→n , 0→p y np=µ permanece constante, entonces:

( ) ( )µ;,; xppnxb →

UNIDAD 6. Algunas distribuciones continuas de probabilidad Distribución uniforme continua: La función densidad de la variable aleatoria uniforme continua X en el intervalo [ ]BA; es:

( )

≤≤−=

caso otrocualquier en 0

1,; BxA

ABBAxf

La media y la varianza de la distribución uniforme son:

2

BA +=µ y

( )12

22 AB −

Distribución normal:

La función densidad de la variable aleatoria normal X , con media µ y varianza 2σ , es:

Page 14: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 14 - Probabilidad y Estadística

( )

2

2

1

2..2

1,;

−−

= σ

µ

σπσµ

x

exn

para ∞<<∞− x Una vez que se especifican µ y σ , la curva normal queda determinada por completo. Propiedades de la curva normal:

1. La moda ocurre en el punto máximo de la curva, o sea en µ=x

2. La curva es simétrica alrededor del eje vertical µ=x 3. La curva tiene sus puntos de inflexión en σµ ±=x , es cóncava hacia abajo dentro del

intervalo, y cóncava hacia arriba fuera de él. 4. Cuando ∞→x , la curva tiende a cero de manera asintótica 5. El área total bajo la curva es igual a 1

Distribución normal estándar: Como sería muy difícil calcular, e incluso tabular todos los valores de la función respecto de cada valor de los parámetros, existe una transformación de la variable que la estandariza para poder calcular los valores de la probabilidad con una sola tabla. Dicha transformación es la siguiente:

σ

µ−=

xz ´

( ) ( )1,0;,; znxn =σµ

Los valores de la distribución para la variable z están tabulados y son fáciles de encontrar. Aproximación normal a la binomial:

Si X es una variable aleatoria binomial con media pn.=µ y varianza qpn ..2 =σ , entonces la forma limitante de la distribución de:

qpn

pnXZ

..

.−=

conforme ∞→n , es la distribución normal estándar ( )1,0;zn . Se puede aproximar siempre que p no sea cercana a 0 o a 1. Para realizar ésta aproximación, debemos tener en cuenta que el valor de X a usar, va a ser 0,5 unidades más grande o más chico que el valor discreto que estamos buscando, dependiendo de si es el primer valor o el último del intervalo. Ésta aproximación será buena siempre que se cumpla alguna de éstas condiciones:

� que n sea muy grande � que n sea pequeño o grande, pero que p sea razonablemente cercana a ½ � que np y nq sean mayores o iguales a 5

Distribución exponencial: La variable aleatoria continua X tiene una distribución exponencial, con parámetro β , si su función densidad está dada por:

Page 15: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 15 - Probabilidad y Estadística

( )

>=

00

01

x

xexf

x

β

β

donde 0>β La media y la varianza de la distribución exponencial son:

βµ = y 22 βσ = Relación con el proceso de Poisson: La distribución de Poisson se utiliza para calcular cantidades de eventos en un intervalo de tiempo, espacio, etc. La distribución exponencial se utiliza para calcular tiempos, espacios, etc. de esos intervalos. Ambas se relacionan en base a sus parámetros, donde:

βλ

1=

Distribución logarítmica normal: La variable aleatoria continua X tiene una distribución logarítmica normal si la variable

aleatoria ( )XY ln= tiene una distribución normal con media µ y varianza 2σ . La función

densidad de X resulta que es:

( )

( )[ ]( )

<

≥=

−−

00

0...2

1 2

2

.2

ln

x

xex

xf

x

σ

µ

σπ

La media y la varianza de la distribución logarítmica normal son:

( ) 2

2σµ +

= exE y ( ) ( )1.Var22.2 −= + σσµ

eex

UNIDAD 7: Funciones de variables aleatorias. Combinaciones lineales

de variables aleatorias. Propiedades Reproductivas: Distribución normal:

Si nXXX ,...,, 21 son variables aleatorias independientes que tienen distribuciones normales

con medias nµµµ ,...,, 21 y varianzas 22

22

1 ,...,, nσσσ respectivamente, entonces la variable

aleatoria

nn XaXaXaY ... 2211 +++= L

tiene una distribución normal con media

nnY aaa µµµµ ... 2211 +++= L

y varianza

Page 16: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 16 - Probabilidad y Estadística

222

22

22

12

12 ... nnY aaa σσσσ +++= L

Distribución ji cuadrada:

Si nXXX ,...,, 21 son variables aleatorias mutuamente independientes que tienen,

respectivamente, distribuciones ji cuadrada con nvvv ,...,, 21 grados de libertad, entonces la

variable aleatoria

nXXXY +++= L21

tiene una distribución ji cuadrada con nvvvv +++= L21 grados de libertad.

Distribuciones normales idénticas estandarizadas:

Si nXXX ,...,, 21 son variables aleatorias independientes que tienen distribuciones normales

idénticas con media µ y varianza 2σ , entonces la variable aleatoria

∑=

−=

n

i

iXY

1

2

σ

µ

tiene una distribución ji cuadrada con nv = grados de libertad.

UNIDAD 8: Distribuciones fundamentales de muestreo y descripción de

datos. Muestreo aleatorio:

Para eliminar cualquier tipo de sesgo, se realizan muestreos aleatorios.

Cualquier función de las variables aleatorias que forman una muestra aleatoria se llama estadística.

Distribuciones muestrales: Como una estadística es una variable aleatoria que depende sólo de la muestra observada, debe tener una distribución de probabilidad.

La distribución de probabilidad de una estadística se llama distribución muestral. La distribución muestral de una estadística depende del tamaño de la población, del tamaño de las muestras y del método de elección de las muestras. Distribuciones muestrales de medias:

Consideraremos la distribución de las medias muestrales X , en muestras de tamaño n , de una

población normal con media µ y varianza 2σ . La media y varianza de ésta distribución muestral de medias serán:

µµ =X

y n

x

22 σ

σ =

Page 17: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 17 - Probabilidad y Estadística

Si la población no es normal, pero la muestra es grande ( 30≥n ), la distribución de X será aún aproximadamente normal.

Teorema del límite central:

Si X es la media de una muestra aleatoria de tamaño n tomada de una población con

media µ y varianza finita 2σ , entonces la forma límite de la distribución de

n

XZ

σ

µ−=

conforme ∞→n , es la distribución normal estándar ( )1,0;zn .

La aproximación normal para X por lo general será buena si v sin importar la forma de la población. Si 30<n , la aproximación es buena sólo si la población no es muy diferente de una distribución normal. Si se sabe que la población es normal, la

distribución de X seguirá una distribución normal exacta, no importa que tan pequeño sea el tamaño de la muestra. Distribución muestral de la diferencia entre dos promedios:

Si se extraen al azar muestras independientes de tamaño 1n y 2n de dos poblaciones,

discretas o continuas, con medias 1µ y 2µ , y varianzas 2

1σ y 2

2σ , respectivamente,

entonces la distribución muestral de las diferencias de las medias, 21 XX − está distribuida aproximadamente de forma normal con media y varianza dadas por:

2121µµµ −=

− XX y

2

22

1

212

21

nnXX

σσσ +=−

De aquí

( ) ( )

22

212

1

2121

nn

XXZ

σσ

µµ

+

−−−=

es aproximadamente una variable normal estándar. Las consideraciones respecto del tamaño de las muestras y la exactitud de la aproximación son similares a la distribución de medias.

Distribución muestral de la varianza:

Si 2S es la varianza de una muestra aleatoria de tamaño n que se toma de una población

normal que tiene varianza 2σ , entonces la estadística

( ) ( )∑

=

−=

−=

n

i

i XXSn

12

2

2

22 .1

σσχ

Page 18: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 18 - Probabilidad y Estadística

tiene una distribución ji cuadrada con 1−= nv grados de libertad. Distribución t de Student: En muchos escenarios experimentales, el conocimiento de σ ciertamente no es más razonable que el conocimiento de la media de la población µ . Una estadística natural a considerar para tratar con las inferencias sobre µ es

nS

XT

µ−=

Para tamaños de muestra menores que 30, es útil trabajar con ésta distribución exacta de T , ya que para 30≥n , dicha distribución no difiere mucho de la normal estándar.

UNIDAD 9: Problemas de estimación de una y dos muestras. Inferencia estadística. La inferencia estadística se puede dividir en dos áreas principales: estimación y prueba de hipótesis. Métodos clásicos de estimación:

Una estimación puntual de algún parámetro θ de la población es un solo valor θ̂ de una

estadística Θ̂ . No se espera que un estimador realice la estimación del parámetro poblacional sin error.

Estimador insesgado:

Se dice que una estadística Θ̂ es un estimador insesgado del parámetro θ si:

( ) θµ =Θ=Θ

ˆ·ˆ E

Varianza de un estimador puntual: Si consideramos todos los posibles estimadores insesgados de algún parámetro θ , el de menor varianza se llama estimador más eficiente de θ .

Un ejemplo es la comparación entre la media muestral X y la mediana muestral X~

. Se

puede demostrar que X es más eficiente, y por lo tanto mejor estimador de µ , que X~

. Estimación por intervalo: Es improbable que incluso el estimador insesgado más eficiente estime el parámetro poblacional con exactitud. Hay muchas situaciones en las que es preferible determinar un intervalo dentro del cual esperaríamos encontrar el valor del parámetro. Tal intervalo se llama intervalo de estimación.

Existe un intervalo UL θθθ ˆˆ << que se calcula a partir de la muestra seleccionada, que

se llama intervalo de confianza, para el cual:

Page 19: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 19 - Probabilidad y Estadística

( ) αθ −=Θ<<Θ 1ˆˆULP

donde α−1 es el coeficiente de confianza y los extremos Lθ̂ y Uθ̂ se denominan

límites de confianza inferior y superior.

Una sola muestra: estimación de la media.

Intervalo de confianza de µ con σ conocida:

Si x es la media de una muestra aleatoria de tamaño n de una población con varianza 2σ conocida, un intervalo de confianza del ( ) %100.1 α− para µ está dado por

nzx

nzx

σµ

σαα .. 2/2/ +<<−

donde 2/αz es el valor de z que deja un área de 2/α a la derecha.

Si se utiliza x como una estimación de µ , podemos tener una confianza de

( ) %100.1 α− de que el error no excederá de n

α .2/

Si se utiliza x como una estimación de µ , podemos tener ( ) %100.1 α− de confianza de que el error no excederá una cantidad específica e cuando el tamaño de la muestra es:

2

2/ .

=

e

zn

σα

Intervalo de confianza de µ con σ desconocida: Si x y s son la media y la desviación estándar de una muestra aleatoria de tamaño n

de una población normal con varianza 2σ , desconocida, un intervalo de confianza del ( ) %100.1 α− para µ es

n

stx

n

stx .. 2/2/ αα µ +<<−

donde 2/αt es el valor de t con 1−= nv grados de libertad, que deja un área de 2/α

a la derecha.

Error estándar de una estimación puntual. El error estándar de un estimador es su desviación estándar.

Page 20: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 20 - Probabilidad y Estadística

Dos muestras: estimación de la diferencia entre dos medias.

Intervalo de confianza para 21 µµ − con 2

1σ y 2

2σ conocidas:

Si 1x y 2x son las medias de muestras aleatorias independientes de tamaño 1n y 2n de

poblaciones con varianzas conocidas 2

1σ y 2

2σ , respectivamente, un intervalo de

confianza del ( ) %100.1 α− para 21 µµ − está dado por

( ) ( )2

22

1

21

2/21212

22

1

21

2/21 ..nn

zxxnn

zxxσσ

µµσσ

αα ++−<−<+−−

donde 2/αz es el valor de z que deja un área de 2/α a la derecha.

Si el intervalo contiene el valor 0, significa que los parámetros comparados no difieren significativamente.

Intervalo de confianza para 21 µµ − con 2

22

1 σσ = pero desconocidas:

Si 1x y 2x son las medias de muestras aleatorias independientes de tamaño 1n y 2n , respectivamente, de poblaciones aproximadamente normales con varianzas iguales pero desconocidas, un intervalo de confianza del ( ) %100.1 α− para 21 µµ − está dado por

( ) ( )21

2/212121

2/21

11..

11..

nnstxx

nnstxx pp ++−<−<+−− αα µµ

donde ps es la estimación de unión de la desviación estándar poblacional, dada por:

( ) ( )2

.1.1

21

222

211

−+

−+−=

nn

snsns p

y donde 2/αt es el valor de t con 221 −+= nnv grados de libertad, que deja un área

de 2/α a la derecha. Si el intervalo contiene el valor 0, significa que los parámetros comparados no difieren significativamente.

Intervalo de confianza para 21 µµ − con 2

22

1 σσ ≠ y desconocidas:

Si 1x y 2

1s , 2x y 2

2s , son las medias y varianzas de muestras pequeñas independientes

de tamaño 1n y 2n , respectivamente, de distribuciones aproximadamente normales con varianzas desconocidas y diferentes, un intervalo de confianza aproximado del ( ) %100.1 α− para 21 µµ − es

Page 21: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 21 - Probabilidad y Estadística

( ) ( )2

22

1

21

2/21212

22

1

21

2/21 ..n

s

n

stxx

n

s

n

stxx ++−<−<+−− αα µµ

donde 2/αt es el valor de t con

( )( )

( )( )

−+

+

=

11 2

2

22

2

1

2

12

1

2

2

22

1

21

n

ns

n

ns

n

s

n

s

v

grados de libertad, que deja un área de 2/α a la derecha. Si el intervalo contiene el valor 0, significa que los parámetros comparados no difieren significativamente.

Una sola muestra: estimación de una proporción: Un estimador puntual de la proporción p en un experimento binomial está dado por la

estadística nXP /ˆ = , donde X representa el número de éxitos en n pruebas. Estimaremos a p a través de p̂ .

Para n suficientemente grande, P̂ está distribuida de forma aproximadamente normal con media y varianza

pP

=ˆµ y n

pqp =

2ˆσ

Si p̂ es la proporción de éxitos en una muestra aleatoria de tamaño n , y pq ˆ1ˆ −= , un

intervalo de confianza aproximado del ( ) %100.1 α− para el parámetro binomial p está dado por

n

qpzpp

n

qpzp

ˆ.ˆ.ˆ

ˆ.ˆ.ˆ 2/2/ αα +<<−

donde 2/αz es el valor de z que deja un área de 2/α a la derecha.

Cuando n es pequeña y la proporción desconocida p se considera cercana a 0 o a 1, el

procedimiento anterior no es confiable. Para estar seguro, se debe requerir que pn ˆ. o qn ˆ. sea mayor o igual que 5.

Si se utiliza p̂ como una estimación de p , podemos tener ( ) %100.1 α− de confianza de que el error no excederá una cantidad específica e cuando el tamaño de la muestra es aproximadamente:

2

2/2 ˆ.ˆ.

e

qpzn

α=

Page 22: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 22 - Probabilidad y Estadística

Si se utiliza p̂ como una estimación de p , podemos tener una confianza de al menos

( ) %100.1 α− de que el error no excederá una cantidad específica e cuando el tamaño de la muestra es:

2

2/2

.4 e

zn

α=

Dos muestras: estimación de la diferencia entre dos proporciones: Deseamos estimar la diferencia entre dos parámetros binomiales 1p y 2p . Un estimador

puntual de la diferencia entre las dos proporciones, 21 pp − está dado por la estadística

21ˆˆ PP − , que está distribuida de forma aproximadamente normal con media y varianza

21ˆˆ21

ppPP

−=−

µ y 2

22

1

11ˆˆ2 ..

21

n

qp

n

qpPP +=−σ

Si 1p̂ y 2p̂ son las proporciones de éxitos en muestras aleatorias de tamaño 1n y 2n ,

respectivamente, 11 ˆ1ˆ pq −= y 22 ˆ1ˆ pq −= , un intervalo de confianza aproximado del

( ) %100.1 α− para la diferencia de dos parámetros binomiales 21 pp − está dado por

( ) ( )2

22

1

112/2121

2

22

1

112/21

ˆ.ˆˆ.ˆ.ˆˆ

ˆ.ˆˆ.ˆ.ˆˆ

n

qp

n

qpzpppp

n

qp

n

qpzpp ++−<−<+−− αα

donde 2/αz es el valor de z que deja un área de 2/α a la derecha.

Si el intervalo contiene el valor 0, significa que los parámetros comparados no difieren significativamente. Una sola muestra: estimación de la varianza:

Si 2s es la varianza de una muestra aleatoria de tamaño n de una población normal, un

intervalo de confianza del ( ) %100.1 α− para 2σ es

( ) ( )2/1

2

22

2/2

2 .1.1

αα χσ

χ −

−<<

− snsn

donde 2/2

αχ y 2/12

αχ − son valores de 2χ con 1−= nv grados de libertad, que dejan áreas de

2/α y 2/1 α− , respectivamente, a la derecha. Dos muestras: estimación de la razón de dos varianzas:

Si 2

1s y 2

2s son varianzas de muestras independientes de tamaño 1n y 2n , respectivamente, de

poblaciones normales, entonces un intervalo de confianza del ( ) %100.1 α− para 2

22

1 σσ es

( )( )122/2

2

21

22

21

212/2

2

21 ,.

,. vvf

s

s

vvfs

α σ

σ<<

1

Page 23: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 23 - Probabilidad y Estadística

donde ( )212/ ,vvfα es un valor de f con 111 −= nv y 122 −= nv grados de libertad que deja

un área de 2/α a la derecha y ( )122/ ,vvfα es un valor similar con 122 −= nv y 111 −= nv

grados de libertad.

UNIDAD 10: Pruebas de hipótesis de una y dos muestras Hipótesis estadísticas: conceptos generales: Una hipótesis estadística es una afirmación o conjetura con respecto a una o más poblaciones. >> La aceptación de una hipótesis simplemente implica que los datos no dan suficiente evidencia para rechazarla. >> El rechazo implica que la evidencia muestral la refuta. El rechazo significa que hay una pequeña probabilidad de obtener la información muestral observada cuando, de hecho, la hipótesis es verdadera. Hipótesis nula y alternativa: La Hipótesis nula es la que deseamos probar. Se denota con 0H y siempre se establece con

una igualdad con el parámetro poblacional. El rechazo de la hipótesis nula conduce a la aceptación de una Hipótesis Alternativa, que se denota con 1H y se establece con una desigualdad (<, > o simplemente ≠ ) respecto del parámetro poblacional. Prueba de una hipótesis estadística: Estadística de prueba: La estadística de prueba es la variable que utilizaremos para tomar la decisión. Ésta dependerá mucho de los datos, ya que si queremos calcular la media poblacional y tenemos el valor de la varianza poblacional, utilizaremos Z , en cambio si no poseemos este último valor, utilizaremos T . Regiones: El proceso de inferencia en una prueba de hipótesis no difiere mucho del concepto de intervalos de confianza. Nuestra región crítica será la que esté fuera de nuestro intervalo, que ahora se llamará región de aceptación, y el parámetro α , parte del nivel de confianza, será ahora el nivel de significancia, también llamado tamaño de la región crítica. El último valor que observamos al pasar de la región de aceptación a la crítica se llama valor crítico. Errores: Existen dos tipos de errores que podemos cometer al aceptar o rechazar la hipótesis nula. Éstos son:

Error tipo I: Es rechazar la hipótesis nula cuando es verdadera.

La probabilidad de que ocurra un error tipo I es α .

Error tipo II: Es aceptar la hipótesis nula cuando es falsa.

Page 24: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 24 - Probabilidad y Estadística

La probabilidad de que ocurra un error tipo II es β .

Los parámetros α y β se relacionan inversamente, es decir, cuando uno aumenta, el otro disminuye. También ambos tienen relación con el tamaño de la muestra, ya que si lo aumentamos, los valores de α y β disminuirán. Propiedades de los errores:

1. Los errores tipo I y tipo II están relacionados. Una disminución en la probabilidad de uno por lo general tiene como resultado un aumento en la probabilidad del otro.

2. El tamaño de la región crítica, y por lo tanto la probabilidad de cometer un error tipo I, siempre se puede reducir al ajustar el o los valores críticos.

3. Un aumento en el tamaño muestral n reducirá α y β de forma simultánea.

4. Si la hipótesis nula es falsa, β es un máximo cuando el valor real de un parámetro se aproxima al valor hipotético. Entre más grande sea la distancia entre el valor real y el valor hipotético, será menor β .

Potencia de una prueba:

La potencia de una prueba es la probabilidad de rechazar 0H dado que una alternativa

específica es verdadera. Ésta potencia se calcula como β−1 .

Para producir una potencia deseable, se debe aumentar α o n . Pruebas de una y dos colas: Una prueba de cualquier hipótesis estadística, donde la alternativa es unilateral, como

0101

0000

::

quizá o

::

θθθθ

θθθθ

<>

==

HH

HH

se denomina prueba de una sola cola. Una prueba de cualquier hipótesis alternativa donde la alternativa es bilateral, como

01

00

:

:

θθ

θθ

=

H

H

se llama prueba de dos colas. Uso de valores P para la toma de decisiones: El valor P es la probabilidad de que el valor del estadístico de prueba calculado con los datos

del problema se encuentre en la región crítica. Esto se usa para darle menor nivel de significancia a la decisión tomada, que uno que pudiera haberse preestablecido (generalmente

05,0=α o 01,0=α ). El valor P es el nivel (de significancia) más bajo en el que el valor observado de la estadística de prueba es significativo. Pasos principales de una prueba de hipótesis:

1. Establecer la hipótesis nula 00 : θθ =H

Page 25: Resumen Probabilidad y Estadística

Resumen Prob. y Estadística Juan Pablo Martí

U.T.N. F.R.M. - 25 - Probabilidad y Estadística

2. Elegir una hipótesis alternativa apropiada 1H a partir de una de las alternativas:

,0θθ < 0θθ > o 0θθ ≠ .

3. Elegir un nivel de significancia de tamaño α . 4. Seleccionar la estadística de prueba apropiada y establecer la región crítica (Si la

decisión se basa en un valor P , no es necesario establecer la región crítica). 5. Calcular el valor de la estadística de prueba a partir de los datos de la muestra. 6. Decisión: Rechazar 0H si la estadística de prueba tiene un valor en la región crítica (o

si el valor P calculado es menor o igual que el nivel de significancia α que se desea); en cualquier otro caso, no rechazar 0H .

Elección del tamaño de la muestra para probar medias: Cuando conocemos el valor en el que se desvía la media verdadera de la población respecto de la media hipotética (valor δ ), podemos estimar el tamaño de la muestra necesario para no rechazar la hipótesis nula:

( )2

22 .

δ

σβα zzn

+=

donde n

az

σ

µα

0−= y αβ

σ

δz

nz −= .

En el caso de una prueba de dos colas:

( )2

222/ .

δ

σβα zzn

+≅

Cuando tenemos la diferencia entre dos medias, el tamaño de las muestras 21 nnn == será:

( ) ( )2

22

21

2 .

δ

σσβα ++=

zzn