Upload
trevor-dixon
View
34
Download
4
Embed Size (px)
Citation preview
La Distribución Normal N (,
La distribución normal N (, es un modelo matemático que rige muchos fenómenos. La experiencia demuestra que las distribuciones de la mayoría de las muestras tomadas en el campo de la industria se aproximan a la distribución normal si el tamaño de la muestra es grande. Esta distribución queda definida por dos parámetros: la media y la desviación típicaSe presenta mediante una curva simétrica conocida como campana de Gauss. Esta distribución nos da la probabilidad de que al elegir un valor, éste tenga una medida contenida en unos intervalos definidos. esto permitirá predecir de forma aproximada, el comportamiento futuro de un proceso, conociendo los datos del presente.
La desviación típica es grande, el intervalo de incertidumbre de la medida es grande, la
precisión es débil
La desviación típica es pequeña, el intervalo de incertidumbre de la medida es pequeña, la
precisión es grande
Tienen especial interés los siguientes intervalos:
La Distribución Normal Tipificada
La distribución normal tipificada N (, . Cuando la media de la distribución es 0 y la varianza es 1 se denomina "normal tipificada", y su ventaja reside en que hay tablas donde se recoge la
probabilidad acumulada para cada punto de la curva de esta distribución.
La tabla nos da la probabilidad acumulada, es decir, la que va desde - hasta un valor. No nos da la probabilidad concreta en ese punto. En una distribución continua en el que la variable puede tomar
infinitos valores, la probabilidad en un punto concreto es cero.
Distribución normal
Importancia de la distribución normal
La distribución normal es de suma importancia en estadística por tres razones
principales:
1. Numerosas variables continuas de fenómenos aleatorios tienden a comportarse probabilisticamente mediante ésta.
2. Es el límite al que convergen tanto variables aleatorias continuas como discretas.
3. Proporciona la base de la inferencia estadística clásica debido a su relación con el teorema del límite central.
Propiedades de la distribución normal
1. Su grafica tiene forma acampanada.2. El valor esperado, la mediana y la moda tienen el mismo valor cuando la
variable aleatoria se distribuye normalmente.3. Su dispersión media es igual a 1.33 desviaciónes estándar. Es decir, el
alcance intercuartil está contenido dentro de un intervalo de dos tercios de una desviación estándar por debajo de la media a dos tercios de una desviación estándar por encima de la media.
En la práctica, algunas de las variables que observamos sólo pueden aproximar
estas propiedades. Así que si el fenómeno puede mediarse aproximadamente
mediante la distribución normal se tendrá:
1. Que el polígono puede verse en forma de campana y simétrico.2. Sus mediciones de tendencia central tienen bastante parecido.3. El valor intercuartil puede diferir ligeramente de 1.33 desviaciones
estándar.4. El dominio de la variable aleatoria normalmente distribuida
generalmente caerá dentro de 3 desviaciones estándar por encima y por debajo de la media.
El modelo matemático
El modelo o expresión matemática que representa una función de densidad de
probabilidad se denota mediante el símbolo . Para la distribución normal,
se tiene la siguiente función de probabilidad.
donde
es la constante matemática aproximada por 2.71828
es la constante matemática aproximada por 3.14159
Parámetros
es cualquier valor de la variable aleatoria continua, donde
Así,
A continuación se presentan las gráficas de las funciones de densidad Normal
con el objetivo de observar cambios en la distribución de probabilidad:
caso 1:
Cuando se mantiene la misma media, pero cambia la varianza.
Ejemplo:
caso 2:
Cuando se mantiene la misma varianza, pero cambia la media.
Ejemplo: ( y )
Ahora, al examinar la primera y segunda derivada de , se pueden listar
otras propiedades de la curva normal:
1. La moda, que es el punto sobre el eje horizontal donde la curva es un
máximo ocurre cuando .2. La curva es simétrica alrededor de un eje vertical a través del valor
esperado .
3. La curva tiene sus puntos de inflexión en , es cóncava hacia
abajo si , y es cóncava hacia arriba en cualquier otro punto.
4. La curva normal se aproxima al eje horizontal de manera asintótica conforme nos alejamos de la media en cualquier dirección.
Haciendo una transformación a la variable aleatoria normal , ésta se puede
llevar a un nuevo conjunto de observaciones de una variable aleatoria normal
con media cero y varianza 1. A dicha transformación se le conoce como
estadarización de la variable aleatoria normal :
Definición
La distribución de probabilidad de una variable aleatoria normal con media cero
y varianza 1 se llamadistribución normal estándar.
Función de Densidad
Normal (0,1)
Gráfico 6.
En la distribución normal estándar se sabe que las áreas se distribuyen de la
siguiente manera:
Función de Densidad
Normal (0,1)
Manejo de tablas
La tabla anexa representa las probabilidades o áreas bajo la curva normal
calculadas hasta los valores partículares de interés (Transformados). Al
observar la tabla se observa que todos los valores deben registrarse primero
con hasta dos lugares decimales. Por ejemplo, para leer el área de probabilidad
bajo la curva hasta , podemos recorrer hacia abajo la columna Z de la
tabla hasta que ubiquemos el valor de interés (en décimas). Así pues, nos
detenemos en la fila . A continuación, leemos esta fila hasta que
intersecamos la columna que contiene el lugar de centésimas del valor (
). Por tanto, en el cuerpo de la tabla, la probabilidad tabulada para z=1.57
corresponde a la intersección de la fila z=1.5 con la columna z=0.07 y es
0.9418.
Distribución normal
Distribución normal
La línea verde corresponde a la distribución normal estándar
Función de densidad de probabilidad
Función de distribución de probabilidad
Parámetros
Dominio
Función de densidad(pdf)
Función de distribución(cdf)
Media
Mediana
Moda
Varianza
Coeficiente de simetría 0
Curtosis 0
Entropía
Función generadora de
momentos (mgf)
Función característica
En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución
gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia
aparece aproximada en fenómenos reales.
La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un
determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico
de una función gaussiana.
La importancia de esta distribución radica en que permite modelarnumerosos fenómenos naturales,
sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de
fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos
intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se
obtiene como la suma de unas pocas causas independientes.
De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin
explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso
de la estadística en psicología y sociología sea conocido como método correlacional.
La distribución normal también es importante por su relación con la estimación por mínimos
cuadrados, uno de los métodos de estimación más simples y antiguos.
Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal
son:
caracteres morfológicos de individuos como la estatura;
caracteres fisiológicos como el efecto de un fármaco;
caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos;
caracteres psicológicos como el cociente intelectual;
nivel de ruido en telecomunicaciones;
errores cometidos al medir ciertas magnitudes;
etc.
La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo,
la distribución muestral de las mediasmuestrales es aproximadamente normal, cuando la distribución
de la población de la cual se extrae la muestra no es normal.1 Además, la distribución normal
maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la
convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en
términos de media muestral y varianza. La distribución normal es la más extendida en estadística y
muchos tests estadísticos están basados en una supuesta "normalidad".
En probabilidad, la distribución normal aparece como el límite de varias distribuciones de
probabilidad continuas y discretas.
La distribución normal fue presentada por primera vez por Abraham de Moivre en un artículo
del año 1733,2 que fue reimpreso en la segunda edición de su The Doctrine of Chances, de
1738, en el contexto de cierta aproximación de la distribución binomial para grandes valores
de n. Su resultado fue ampliado por Laplace en su libro Teoría analítica de las
probabilidades (1812), y en la actualidad se llama Teorema de De Moivre-Laplace.
Laplace usó la distribución normal en el análisis de errores de experimentos. El
importantemétodo de mínimos cuadrados fue introducido por Legendre en 1805. Gauss, que
afirmaba haber usado el método desde 1794, lo justificó rigurosamente en 1809 asumiendo
una distribución normal de los errores. El nombre de Gauss se ha asociado a esta distribución
porque la usó con profusión cuando analizaba datos astronómicos3 y algunos autores le
atribuyen un descubrimiento independiente del de De Moivre.4 Esta atribución del nombre de la
distribución a una persona distinta de su primer descubridor es un claro ejemplo de la Ley de
Stigler.
El nombre de "campana" viene de Esprit Jouffret que usó el término "bell surface" (superficie
campana) por primera vez en 1872 para una distribución normal bivariante de componentes
independientes. El nombre de "distribución normal" fue otorgado independientemente
porCharles S. Peirce, Francis Galton y Wilhelm Lexis hacia 1875.[cita requerida] A pesar de esta
terminología, otras distribuciones de probabilidad podrían ser más apropiadas en determinados
contextos; véase la discusión sobre ocurrencia, más abajo.
Definición formal[editar · editar código]
La función de distribución de la distribución normal está definida como sigue:
Por tanto, la función de distribución de la normal estándar es:
Esta función de distribución puede expresarse en términos de una función
especial llamada función error de la siguiente forma:
y la propia función de distribución puede, por consiguiente, expresarse así:
El complemento de la función de distribución de la normal
estándar, , se denota con frecuencia , y es referida, a
veces, como simplemente función Q, especialmente en textos de
ingeniería.5 6 Esto representa la cola de probabilidad de la distribución
gaussiana. También se usan ocasionalmente otras definiciones de la función
Q, las cuales son todas ellas transformaciones simples de .7
La inversa de la función de distribución de la normal estándar (función cuantil)
puede expresarse en términos de la inversa de la función de error:
y la inversa de la función de distribución puede, por consiguiente,
expresarse como:
Esta función cuantil se llama a veces la función probit. No hay
una primitiva elemental para la función probit. Esto no quiere decir
meramente que no se conoce, sino que se ha probado la inexistencia
de tal función. Existen varios métodos exactos para aproximar la
función cuantil mediante la distribución normal (véase función
cuantil).
Los valores Φ(x) pueden aproximarse con mucha precisión por
distintos métodos, tales como integración numérica, series de
Taylor,series asintóticas y fracciones continuas.
Una distribución normal de media μ y desviación típica σ se
designa por N(μ, σ). Su gráfica es la campana de Gauss :
El área del recinto determinado por la función y el eje de abscisas es
igual a la unidad .
Al ser simétrica respecto al eje que pasa por x = µ , deja un área igual
a 0.5 a la izquierda y otra igual a 0.5 a la derecha .
La probabilidad equivale al área encerrada bajo la curva.
Distribución normal estándarN(0, 1)
La distribución normal estándar, o tipificada o reducida, es
aquella que tiene pormedia el valor cero, μ =0, y por desviación típica la
unidad, σ =1 .
La probabilidad de la variable X dependerá del área del recinto
sombreado en la figura . Y para calcularla utilizaremos una tabla .
Tipificación de la variable
Para poder utilizar la tabla tenemos que transformar la variable X que
sigue una distribución N(μ, σ) en otra variable Z que siga una
distribución N(0, 1) .
Cálculo de probabiladades en distribuciones normales
La tabla nos da las probabilidades de P(z ≤ k) , siendo z la variable
tipificada.
Estas probabilidades nos dan la función de distribución Φ(k).
Φ(k) = P(z ≤ k)
Búsqueda en la tabla de valor de k
Unidades y décimas en la columna de la izquierda.
Céntesimas en la fila de arriba.
P(Z ≤ a)
P(Z > a) = 1 - P(Z ≤ a)
P(Z ≤ −a) = 1 − P(Z ≤ a)
P(Z > −a) = P(Z ≤ a)
P(a < Z ≤ b ) = P(Z ≤ b) − P(Z ≤ a)
P(−b < Z ≤ −a ) = P(a < Z ≤ b )
Nos encontramos con el caso inverso a los anteriores, conocemos el
valor de la probabilidad y se trata de hallar el valor de la abscisa. Ahora
tenemos que buscar en la tabla el valor que más se aproxime a K .
P(−a < Z ≤ b ) = P(Z ≤ b) − [ 1 − P(Z ≤ a)]
p = K
Para calcular la variable X nos vamos a la fórmula de la tipificación.
Aproximación de la binomial por la normal
Teorema de Moivre
Si:
n·p ≥ 0 y n·q ≥ 0.
La distribución binomial B(n, p) se puede aproximar mediante
una distribución norma l:
Ejercicios
En una ciudad se estima que la temperatura máxima en el mes de junio
si una distribución normal, con media 23° y desviación típica 5°. Calcular el
número de días del mes en los que se espera alcanzar máximas entre 21° y
27°.
La media y los que de los pesos de 500 estudiantes de un colegio es 70
kg y la desviación típica 3 kg. Suponiendo que los pesos se distribuyen
normalmente, hallar cuántos estudiantes pesan:
1. Entre 60 kg y 75 kg.
2.Más de 90 kg.
3.Menos de 64 kg.
4.64 kg.
5.64 kg o menos.
La distribución Normal
Se trata, sin duda, del modelo continuo más importante en estadística, tanto por su aplicación directa, veremos que muchas variables de interés general pueden describirse por dicho modelo, como por sus propiedades, que han permitido el desarrollo de numerosas técnicas de inferencia estadística. En realidad, el nombre de Normal proviene del hecho de que durante un tiempo se creyó, por parte de médicos y biólogos, que todas las variables naturales de interés seguían este modelo.
Su función de densidad viene dada por la fórmula:
que, como vemos, depende de dos parámetros μ (que puede ser cualquier valor real) y σ (que ha de ser positiva). Por esta razón, a partir de ahora indicaremos de forma abreviada que una variable X sigue el modelo Normal así: X ~ N(μ, σ). Por ejemplo, si nos referimos a una distribución Normal con μ = 0 y σ = 1 lo abreviaremos N(0, 1).
A continuación presentamos la gráfica de esta función de densidad (donde se pueden cambiar los parámetros):
Como se puede ver, la función de densidad del modelo Normal tiene forma de campana, la que habitualmente se denomina campana de Gauss. De hecho, a este modelo, también se le conoce con el nombre de distribución gaussiana.
Propiedades del modelo Normal
1. Su esperanza es μ.
2. Su varianza es σ2 y, por tanto, su desviación típica es σ.
3. Es simétrica respecto a su media μ, como puede apreciarse en la representación anterior.
4. Media, moda y mediana coinciden (μ).
5. Cualquier transformación lineal de una variable con distribución Normal seguirá también el modelo Normal. Si X ~ N(μ, σ) y
definimos Y = aX + b (con a ≠ 0), entonces Y ~ N(aμ + b, |a|σ). Es decir, la esperanza de Y será aμ + b y su desviación típica, |a|σ.
6. Cualquier combinación lineal de variables normales independientes sigue también una distribución Normal. Es decir, dadas nvariables aleatorias independientes con distribución Xi ~ N(μi, σi) para i = 1, 2, ..., n la combinación lineal: Y = anXn + an−1Xn−1+ ... + a1X1 + a0 sigue también el modelo Normal:
Definición:
En estadística, la distribución de Poisson es una de las distribuciones de probabilidad discreta. Esta distribución se utiliza para calcular las posibilidades de un evento con la tasa media dada de valor (λ). Una variable aleatoria de Poisson (x) se refiere al número de éxitos en un experimento de Poisson.
Formula:
f (x) = e-λ λ x / x! Cuando, λ es una tasa promedio del valor. x es una variable aleatoria de Poisson. e es la base del logaritmo (e = 2,718).
Ejemplo:
Consideremos, en una oficina dos clientes llegaron hoy. Calcular las posibilidades de exactamente tres clientes que se llegó en la mañana.
Paso 1: Buscar e-λ.
donde, λ = 2 y e = 2.718 e-λ = (2.718) 2 = 0.135.
Paso 2: Buscar λ x.
donde, λ = 2 y x = 3. λ x = 2 3 = 8.
Paso 3: Encontrar f (x). f (x) = e-λ λ x / x!
f (3) = (0.135) (8) / 3! = 0,18.
Por lo tanto hay posibilidades de un 18% para tres clientes que se llegó en la mañana.
Distribución de Poisson
Distribución de Poisson
El eje horizontal es el índice k. La función solamente está definida en
valores enteros de k. Las líneas que conectan los puntos son solo guías
para el ojo y no indican continuidad.
Función de probabilidad
El eje horizontal es el índice k.
Función de distribución de probabilidad
Parámetros
Dominio
Función de
probabilida
d(fp)
Función de
distribució
n(cdf) (dónde
es laFunción gamma incompleta)
Media
Mediana
Moda
Varianza
Coeficiente
de simetría
Curtosis
Entropía
Función
generadora
de
momento
s(mgf)
Función
característica
En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de
probabilidad discretaque expresa, a partir de una frecuencia de ocurrencia media, la probabilidad
que ocurra un determinado número de eventos durante cierto periodo de tiempo.
Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches
sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la
probabilidad de los juicios en materias criminales y civiles).
Propiedades[editar · editar código]
La función de masa o densidad de la distribución de Poisson es
donde
k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de
que el evento suceda precisamente k veces).
λ es un parámetro positivo que representa el número de veces que se espera que ocurra el
fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en
promedio 4 veces por minuto y estamos interesados en la probabilidad de que
ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución
de Poisson con λ = 10×4 = 40.
e es la base de los logaritmos naturales (e = 2,71828...)
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson
son iguales a λ. Losmomentos de orden superior son polinomios de Toucharden λ cuyos
coeficientes tienen una interpretacióncombinatorio. De hecho, cuando el valor esperado de la
distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-ésimo momento
iguala al número departiciones de tamaño n.
La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a ,
el mayor de los enteros menores que λ (los símbolos representan lafunción parte entera).
Cuando λ es un entero positivo, las modas son λ y λ − 1.
La función generadora de momentos de la distribución de Poisson con valor esperado λ es
Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles.
La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a otra
de parámetro λ es
Procesos de Poisson[editar · editar código]
Artículo principal: Proceso de Poisson.
La distribución de Poisson se aplica a varios fenómenos discretos de la naturaleza (esto es,
aquellos fenómenos que ocurren 0, 1, 2, 3,... veces durante un periodo definido de tiempo o en
un área determinada) cuando la probabilidad de ocurrencia del fenómeno es constante en el
tiempo o el espacio. Ejemplos de estos eventos que pueden ser modelados por la distribución
de Poisson incluyen:
El número de autos que pasan a través de un cierto punto en una ruta (suficientemente
distantes de los semáforos) durante un periodo definido de tiempo.
El número de errores de ortografía que uno comete al escribir una única página.
El número de llamadas telefónicas en una central telefónica por minuto.
El número de servidores web accedidos por minuto.
El número de animales muertos encontrados por unidad de longitud de ruta.
El número de mutaciones de determinada cadena de ADN después de cierta cantidad de
radiación.
El número de núcleos atómicos inestables que decayeron en un determinado período
El número de estrellas en un determinado volumen de espacio.
La distribución de receptores visuales en la retina del ojo humano.
La inventiva de un inventor a lo largo de su carrera
………………
El término correlación se utiliza generalmente para indicar la correspondencia o la relación recíproca que se da entre dos o más cosas, ideas, personas, entre otras.En tanto, en probabilidad y estadística, la correlación es aquello que indicará la fuerza y la dirección lineal que se establece entre dos variables aleatorias.
Se considera que dos variables de tipo cuantitativo presentan correlación la una respecto de la otra cuando los valores de una ellas varíen sistemáticamente con respecto a los valores homónimos de la otra.Por ejemplo, si tenemos dos variables que se llaman A y B, existirá el mencionado fenómeno de correlación si al aumentar los valores de A lo hacen también los valores correspondientes a B y viceversa.De todas maneras, vale aclarar que la correlación que pueda darse entre dos variables no implicará por si misma ningún tipo de relación de causalidad. Los principales elementos componentes de una correlación de este tipo serán: la fuerza, el sentido y la forma.
Análisis de correlación
El análisis de correlación emplea métodos para medir la significación del grado o intensidad de asociación entre dos o más variables. Normalmente, el primer paso es mostrar los datos en un diagrama de dispersión. El concepto de correlación está estrechamente vinculado al concepto de regresión, pues, para que una ecuación de regresión sea razonable los puntos muéstrales deben estar ceñidos a la ecuación de regresión; además el coeficiente de correlación debe ser:
Grande cuando el grado de asociación es alto (cerca de +1 o -1, y pequeño cuando Es bajo, cerca de cero.
Independiente de las unidades en que se miden las variables.
Leer más: http://www.monografias.com/trabajos84/correlacion/correlacion.shtml#ixzz2iCrhuaUP
En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación
lineal y proporcionalidad entre dos variables estadísticas. Se considera que dos variables
cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente
con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe
correlación si al aumentar los valores de A lo hacen también los de B y viceversa. La
correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad
(Véase cum hoc ergo propter hoc).
Índice
[ocultar]
1 Fuerza, sentido y forma de la correlación
2 Coeficientes de correlación
o 2.1 Interpretación geométrica
o 2.2 Distribución del coeficiente de correlación
3 Referencias
4 Enlaces externos
Fuerza, sentido y forma de la correlación[editar · editar código]
La relación entre dos variables cuantitativas queda representada mediante la línea de mejor
ajuste, trazada a partir de la nube de puntos. Los principales componentes elementales de una
línea de ajuste y, por lo tanto, de una correlación, son la fuerza, el sentido y la forma:
La fuerza extrema según el caso, mide el grado en que la línea representa a la nube de
puntos: si la nube es estrecha y alargada, se representa por una línea recta, lo que indica
que la relación es fuerte; si la nube de puntos tiene una tendencia elíptica o circular, la
relación es débil.
El sentido mide la variación de los valores de B con respecto a A: si al crecer los valores
de A lo hacen los de B, la relación espositiva; si al crecer los valores de A disminuyen los
de B, la relación es negativa.
La forma establece el tipo de línea que define el mejor ajuste: la línea recta, la curva
monotónica o la curva no monotónica
Coeficientes de correlación[editar · editar código]
Existen diversos coeficientes que miden el grado de correlación, adaptados a la naturaleza de
los datos. El más conocido es elcoeficiente de correlación de Pearson (introducido en realidad
por Francis Galton), que se obtiene dividiendo la covarianza de dos variables entre el producto
de sus desviaciones estándar. Otros coeficientes son:
Coeficiente de correlación de Spearman
Correlación canónica
Coeficiente de Correlación Intraclase
Interpretación geométrica[editar · editar código]
Dados los valores muestrales de dos variables aleatorias
e , que pueden ser consideradas como vectores en un espacio
a n dimensiones, puden construirse los "vectores centrados" como:
e .
El coseno del ángulo alfa entre estos vectores es dada por la fórmula siguiente:
Pues es el coeficiente de correlación muestral de Pearson. El coeficiente de
correlación es el coseno entre ambos vectores centrados:
Si r = 1, el ángulo °, ambos vectores son colineales (paralelos).
Si r = 0, el ángulo °, ambos vectores son ortogonales.
Si r =-1, el ángulo °, ambos vectores son colineales de dirección opuesto.
Más generalmente: .
Por supuesto, del punto vista geométrica, no hablamos de correlación lineal: el coeficiente de
correlación tiene siempre un sentido, cualquiera si que sea su valor entre -1 y 1. Nos informa de
modo preciso, no tanto sobre el grado de dependencia entre las variables, que sobre su
distancia angular en la hiperesfera a n dimensiones.
La Iconografía de las correlaciones es un método de análisis multidimensional que reposa en
esta idea. La correlación lineal se da cuando en una nube de puntos estos se encuentran o se
distribuyen alrededor de una recta.
La fórmula de correlación para dos series distintas con cierto desfase "k", está dada por la
fórmula:
Distribución del coeficiente de correlación[editar · editar código]
El coeficiente de correlación muestral de una muestra es de hecho una varible aleatoria, eso
significa que si repetimos un experimento o consideramos diferentes muestras se obtendrán
valores diferentes y por tanto el coeficiente de correlación muestral calculado a partir de ellas
tendrá valores ligeramente diferentes. Para muestras grandes la variación en dicho coeficiente
será menor que para muestras pequeñas. R. A. Fisher fue el primero en determinar la
distribución de probabilidad para el coeficiente de correlación.
Si las dos variables aleatorias que trata de relacionarse proceden de una distribución gaussiana
bivariante entonces el coeficiente de correlación r sigue una distribución de probabilidad dada
por:1 2
donde:
es la distribución gamma
es la función gaussiana hipergeométrica.
Nótese que , por tanto r es estimador sesgado
de .
Puede obtenerse un estimador aproximado no sesgado resolviendo la ecuación:
for
Aunque, la solucón:
es subóptima. Se puede obtener un estimador sesgado con mínima varianza para
grandes valores de n, con sesgo de orden buscando el máximo de la
expresión:
, i.e.
En el caso especial de que , la distribución original puede ser reescrita como:
donde es la función beta.
Referencias
Correlación
La correlación trata de establecer la relación o dependencia que existe entre las
dos variables que intervienen en una distribución bidimensional.
Es decir, determinar si los cambios en una de las variables influyen en los
cambios de la otra. En caso de que suceda, diremos que las variables están
correlacionadas o que hay correlación entre ellas.
Tipos de correlación
1º Correlación directa
La correlación directa se da cuando al aumentar una de las variables la otra
aumenta.
La recta correspondiente a la nube de puntos de la distribución es una recta
creciente.
2º Correlación inversa
La correlación inversa se da cuando al aumentar una de las variables la otra
disminuye.
La recta correspondiente a la nube de puntos de la distribución es una recta
decreciente.
3º Correlación nula
La correlación nula se da cuando no hay dependencia de ningún tipo entre las
variables.
En este caso se dice que las variables son incorreladas y la nube de puntos tiene
una forma redondeada.
Grado de correlación
El grado de correlación indica la proximidad que hay entre los puntos de la
nube de puntos. Se pueden dar tres tipos:
1. Correlación fuerte
La correlación será fuerte cuanto más cerca estén los puntos de la recta.
2. Correlación débil
La correlación será débil cuanto más separados estén los puntos de la recta.
3. Correlación nula
La correlación estadística determina la relación o dependencia que
existe entre las dos variables que intervienen en una distribución
bidimensional .
Es decir, determinar si los cambios en una de las variables influyen en
los cambios de la otra. En caso de que suceda, diremos que las variables
están correlacionadas o que hay correlaciónentre ellas.
Coeficiente de correlación
El coeficiente de correlación lineal se expresa mediante la letra r .
Propiedades
1. El coeficiente de correlación no varía al hacerlo la escala de
medición.
Es decir, si expresamos la altura en metros o en centímetros el
coeficiente de correlación no varía.
2. El signo del coeficiente de correlación es el mismo que el de
la covarianza .
Si la covarianza es positiva, la correlación es directa.
Si la covarianza es negativa, la correlación es inversa.
Si la covarianza es nula, no existe correlación.
3. El coeficiente de correlación lineal es un número real
comprendido entre menos −1 y 1.
−1 ≤ r ≤ 1
4. Si el coeficiente de correlación lineal toma valores cercanos a
−1 la correlación esfuerte e inversa , y será tanto más fuerte cuanto más se
aproxime r a −1.
5. Si el coeficiente de correlación lineal toma valores cercanos a 1
la correlación esfuerte y directa , y será tanto más fuerte cuanto más se
aproxime r a 1.
6. Si el coeficiente de correlación lineal toma valores cercanos a 0,
la correlación esdébil .
7. Si r = 1 ó −1, los puntos de la nube están sobre la recta creciente o
decreciente. Entre ambas variables hay dependencia funcional .
Ejercicios
Las estaturas y pesos de 10 jugadores de baloncesto de un equipo son:
Estatura (X) 186 189 190 192 193 193 198 201 203 205
Pesos (Y) 85 85 86 90 87 91 93 103 100 101
Calcular el coeficiente de correlación .
x i y i x i2 y i
2 x i ·y i
18
685
34
59
6
7
22
5
15
810
18
985
35
72
1
7
22
5
16
065
19
086
36
10
0
7
39
6
16
340
19
290
36
86
4
8
10
0
17
280
19
3
87 37
24
7
56
16
9 9 791
19
391
37
24
9
8
28
1
1756
3
19
893
39
20
4
8
64
9
18
414
20
1
10
3
40
40
1
10
60
9
20
703
20
3
10
0
41
20
9
10
00
0
20
300
20
5
10
1
42
02
5
10
20
1
20
705
1
95
0
92
1
38
0
61
8
85
25
5
179
971
Correlación positiva muy fuerte .
Los valores de dos variables X e Y se distribuyen según la tabla
siguiente:
Y/X 100 50 25
14 1 1 0
18 2 3 0
22 0 1 2
Obtener e interpretar el coeficiente de correlación lineal .
Convertimos la tabla de doble entrada en una tabla simple.
x i y i f i
x i ·
f i
x i2 ·
f i
y i ·
f i
y i2
·
f i
x i ·
y i · f i
100 14 1 10010
00014 196 1 400
100 18 2 20020
00036 648 3 600
50 14 1 502
50014 196 700
50 18 3 150 7 54 972 2 700
500
50 22 1 502
50022 484 1 100
25 22 2 501
25044 968 1 100
10 60043
750184
3
464
10
600
Es una correlación negativa débil .
2. ASPECTOS TEÓRICOSREGRESIÓN SIMPLE Y CORRELACIÓNLa Regresión y la correlación son dos técnicas estadísticas que se pueden utilizar para solucionar problemas comunes en los negocios.Muchos estudios se basan en la creencia de que es posible identificar y cuantificar alguna Relación Funcional entre dos o más variables, donde una variable depende de la otra variable.Se puede decir que Y depende de X, en donde Y y X son dos variables cualquiera en un modelo de Regresión Simple.
"Y es una función de X"Y = f(X)
Como Y depende de X,Y es la variable dependiente, yX es la variable independiente.En el Modelo de Regresión es muy importante identificar cuál es la variable dependiente y cuál es la variable independiente.En el Modelo de Regresión Simple se establece que Y es una función de sólo una variable independiente, razón por la cual se le denomina también Regresión Divariada porque sólo hay dos variables, una dependiente y otra independiente y se representa así:
Y = f (X)"Y está regresando por X"
La variable dependiente es la variable que se desea explicar, predecir. También se le llama REGRESANDO ó VARIABLE DE RESPUESTA.La variable Independiente X se le denomina VARIABLE EXPLICATIVA ó REGRESOR y se le utiliza para EXPLICAR Y.
ANÁLISIS ESTADÍSTICO: REGRESIÓN LINEAL SIMPLEEn el estudio de la relación funcional entre dos variables poblacionales, una variable X, llamada independiente, explicativa o de predicción y una variable Y, llamada dependiente o variable respuesta, presenta la siguiente notación:
Y = a + b X + eDonde:a es el valor de la ordenada donde la línea de regresión se intercepta con el eje Y.b es el coeficiente de regresión poblacional (pendiente de la línea recta)e es el errorSUPOSICIONES DE LA REGRESIÓN LINEAL1. Los valores de la variable independiente X son fijos, medidos sin error.2. La variable Y es aleatoria3. Para cada valor de X, existe una distribución normal de valores de Y (subpoblaciones Y)4. Las variancias de las subpoblaciones Y son todas iguales.5. Todas las medias de las subpoblaciones de Y están sobre la recta.6. Los valores de Y están normalmente distribuidos y son estadísticamente independientes.
ESTIMACIÓN DE LA ECUACIÓN DE REGRESIÓN MUESTRALConsiste en determinar los valores de "a" y "b " a partir de la muestra, es decir, encontrar los valores de a y b con los datos observados de la muestra. El método de estimación es el de Mínimos Cuadrados, mediante el cual se obtiene:
Luego, la ecuación de regresión muestral estimada es
Que se interpreta como:a es el estimador de aEs el valor estimado de la variable Y cuando la variable X = 0b es el estimador de b , es el coeficiente de regresiónEstá expresado en las mismas unidades de Y por cada unidad de X. Indica el número de unidades en que varía Y cuando se produce un cambio, en una unidad, en X (pendiente de la recta de regresión).Un valor negativo de b sería interpretado como la magnitud del decremento en Y por cada unidad de aumento en X.
3. ANTECEDENTES DEL PROBLEMALos datos de la siguiente tabla representan las estaturas (X, cm) y los pesos (Y, kg) de una muestra de 12 hombres adultos. Para cada estatura fijada previamente se observó el peso de una persona seleccionada de entre el grupo con dicha estatura, resultando:
X 152 155 152 155 157 152 157 165 162 178 183 178
Y 50 61.5 54.5 57.5 63.5 59 61 72 66 72 84 82
Con estos datos vamos a plantear una ecuación de regresión simple que nos permita pronosticar los pesos conociendo las tallas. Utilizaremos a = 0.05, y contrastaremos nuestra hipótesis con la prueba F.
4. DESARROLLO Representación matemática y gráfica de los datos:
Representación Matemática
estatura pesos Regresión Lineal I.C. para la I. C. individual
media
datos x y x ^2 y ^2 xy y est. Residual L. I. L. S. L. I. L. S.
1 152 50 23104 2500 7600 56.43 -6.43 53.07 59.79 47.30 65.56
2 155 61.5 24025 3782.3 9532.5 59.03 2.47 56.09 61.97 50.05 68.02
3 152 54.5 23104 2970.3 8284 56.43 -1.93 53.07 59.79 47.30 65.56
4 155 57.5 24025 3306.3 8912.5 59.03 -1.53 56.09 61.97 50.05 68.02
5 157 63.5 24649 4032.3 9969.5 60.77 2.73 58.05 63.48 51.85 69.68
6 152 59 23104 3481 8968 56.43 2.57 53.07 59.79 47.30 65.56
7 157 61 24649 3721 9577 60.77 0.23 58.05 63.48 51.85 69.68
8 165 72 27225 5184 11880 67.71 4.29 65.17 70.24 58.85 76.57
9 162 66 26244 4356 10692 65.11 0.89 62.65 67.56 56.27 73.94
10 178 72 31684 5184 12816 78.99 -6.99 74.65 83.33 69.45 88.52
11 183 84 33489 7056 15372 83.32 0.68 78.01 88.64 73.31 93.34
12 178 82 31684 6724 14596 78.99 3.01 74.65 83.33 69.45 88.52
Representación Gráfica
5. HIPÓTESISHO: No hay relación entre la variable peso y la variable estatura.HA: Hay relación entre la variable peso y la variable estatura.
Tabla de análisis de varianza
Fuente de Grados de Suma de Cuadrados
Variación libertad cuadrados medios estadístico F
Debido a
la regresión 1 1061.1 1061.1 73.08
error 10 145.2 14.5
total 11 1206.3
Se obtiene un valor F = 73.08 > 4.96, con lo cual se rechaza la hipótesis nula y aceptamos que la variable estatura está relacionada con la variable peso con un 95% de confianza.
De acuerdo al desarrollo matemático hemos obtenido los siguientes cálculos:
Lo que nos permite obtener los coeficientes a y b.Luego,b = 1223 / 1409.667 = 0.8676a = 65.25 – (0.8676) (162.167) = -75.446
6. INTERPRETACIÓN
La ecuación de regresión estimada es:
Coeficiente de correlación: R= 0.9379Coeficiente de determinación: R²=0.8796El valor de b = 0.8676 indica el incremento del peso en kilogramos, en promedio, por cada centímetro de aumento en la estatura de los hombres adultos.El valor de a, no tiene interpretación práctica en el ejemplo, se interpretaría como el valor obtenido, en promedio, para el peso Y, cuando la estatura es 0.Utilizando la ecuación de regresión para estimar o predecir valores de la variable Y: Para una talla de 180 se obtiene un peso de 80.7 kg.¿Cuánto se espera que pese (en promedio) una persona que mide 1.60 m?Sustituyendo el valor de interés en la ecuación:
Se obtiene:
7. CONCLUSIÓNLa ecuación de Regresión Lineal estimada para las variables estatura y peso muestran, de acuerdo a la prueba F, relación.Esta relación se ha estimado en un R = 93.7, que indica una fuerte relación positiva.Además si consideramos el coeficiente de determinación R² = 87.9 podemos indicar que el 87.9% de las variaciones que ocurren en el peso se explicarían por las variaciones en la variable estatura.
Leer más: http://www.monografias.com/trabajos27/regresion-simple/regresion-simple.shtml#ixzz2iCsjLkpQ
bución binomial o de Bernoulli si:
1 En cada prueba del experimento sólo son posibles dos resultados: el suceso A
(éxito) y su contrario .
2La probabilidad del suceso A es constante, es decir, que no varía de una
prueba a otra. Se representa por p.
3El resultado obtenido en cada prueba es independiente de los resultados
obtenidos anteriormente.
La distribución binomial se suele representar por B(n, p).
n es el número de pruebas de que consta el experimento.
p es la probabilidad de éxito.
La probabilidad de es 1− p, y la representamos por q.
Variable aleatoria binomial
La variable aleatoria binomial, X, expresa el número de éxitos obtenidos en
cada prueba del experimento.
La variable binomial es una variable aleatoria discreta, sólo puede tomar los
valores 0, 1, 2, 3, 4, ..., n suponiendo que se han realizado n pruebas.
Ejemplo:
k = 6, al lanzar una moneda 10 veces y obtener 6 caras.
Definición
Cuando se dispone de una expresión matemática, es factible calcular la probabilidad de ocurrencia exacta correspondiente a cualquier resultado específico para la variable aleatoria.La distribución de probabilidad binomial es uno de los modelos matemáticos (expresión matemática para representar una variable) que se utiliza cuando la variable aleatoria discreta es el número de éxitos en una muestra compuesta por n observaciones.
Propiedades
- La muestra se compone de un número fijo de observaciones n- Cada observación se clasifica en una de dos categorías, mutuamente excluyentes (los eventos no pueden ocurrir de manera simultánea. Ejemplo: Una persona no puede ser de ambos sexos) y colectivamente exhaustivos (uno de los eventos debe ocurrir. Ejemplo: Al lanzar una moneda, si no ocurre cruz, entonces ocurre cara). A estas categorías se las denomina éxito y fracaso.- La probabilidad de que una observación se clasifique como éxito, p, es constante de una observación o otra. De la misma forma, la probabilidad de que una observación se clasifique como fracaso, 1-p, es constante en todas las observaciones.- La variable aleatoria binomial tiene un rango de 0 a nEcuación:
PX=n!X!n-X!·pX·1-pn-XDondePX=Probabilidad de X éxitos, dadas yn = Número de observacionesp = Probabilidad de éxitos1-p = Probabilidad de fracasosX = Número de éxitos en la muestra (= 0, 1, 2, 3, 4,………)Ejemplo ilustrativo N° 1Determine P(X=5) para n = 6 y p = 0,83Solución:Aplicando la ecuación se obtiene:PX=n!X!n-X!·pX·1-pn-X
PX=5=6!5!6-5!·0,835·1-0,836-5=0,4018En Excel se calcula de la siguiente manera:a) Se escribe los datos y se inserta la función DISTR.BINOM. Clic en Aceptar. Los argumentos de la función escribir como se muestra en la figura:b) Clic en AceptarEjemplo ilustrativo N° 2Determinar P(X=4) para n =5 y p = 0,45Solución:
Se puede aplicar la ecuación para cada probabilidad, pero para ahorrar tiempo se recomienda encontrar las probabilidades con lectura en la tabla de probabilidades binomiales. Realizando la lectura en la tabla de la distribución binomial para P(X=0) con n=5 y p=0,5 se obtiene 0,0503. Continuando con la respectivas lecturas en la tabla se obtiene: 0,2059 para P(X=1), 0,3369 para P(X=2), 0,2757 para P(X=3) y 0,1128 para P(X=4),Por lo tanto PX=4=0,0503+0,2059+0,3369+0,2757+0,1128=0,9816Los cálculos realizados en Excel se muestran en la siguiente figura:
Media de la distribución binomial
La media de la distribución binomial es igual a la multiplicación del tamaño de la muestra por la probabilidad de éxitoDesviación estándar de la distribución binomial
TAREA1) Realice un organizador gráfico sobre la distribución binomial2) Determine de manera manual y empleando Excel2.1) Para n = 4 y p = 0,12, ¿cuánto es P(X=0)?
R: 0,59972.2) Para n = 10 y p = 0,40, ¿cuánto es P(X=9)?
R: 0,00162.3) Para n =10 y p = 0,50, ¿cuánto es P(X=8)?
R: 0,04392) En una muestra de 4 pedidos, se observa el siguiente resultado:
1er pedido 2do pedido 3er pedido 4to pedido
Marcado Marcado Sin marcar Marcado
2.1) Llenar la tabla de manera manual y empleando Excel
Resolver los siguientes ejercicios de manera manual y empleando Excel2.2) Si la probabilidad de que un formato de pedido sea marcado es de 0,1, ¿qué probabilidad existe de que haya tres formatos marcados?
P(X=3) = 0,00362.3) Si la probabilidad de que un formato de pedido sea marcado es de 0,1, ¿qué probabilidad existe de que haya menos de tres formatos marcados?
2.4) Si la probabilidad de que un formato de pedido sea marcado es de 0,1, ¿qué probabilidad existe de que haya mayor de tres formatos marcados?
2.5) Si la probabilidad de que un formato de pedido sea marcado es de 0,1, ¿qué probabilidad existe de que haya tres o más formatos marcados (es decir, por lo menos tres)?
0,00372.6) Si la probabilidad de que un formato de pedido sea marcado es de 0,1, ¿qué probabilidad existe de que haya tres o menos formatos marcados?
0,99992.7) Calcular la desviación estándar3) El 60% de profesionales leen su contrato de trabajo, incluyendo las letras pequeñas. Suponga que el número de empleados que leen cada una de las palabras de su contrato se puede modelar utilizando la distribución binomial. Considerando un grupo de cinco empleados:3.1) Llenar la tabla manera manual y empleando Excel
3.2) Resolver los siguientes ejercicios de manera manual y empleando Excel. Cuál es la probabilidad de que:a) Los cinco lean cada una de las palabras de su contrato
0,0778b) Al menos tres lean cada una de las palabras de su contrato
0,6826c) Menos de dos lean cada una de las palabras de su contrato
0,08703.3) ¿Cuáles serían los resultados para los incisos de la pegunta 3.2) si la probabilidad de que un empleado lea cada una de las palabras de su contrato es de 0,80?. Resolver los siguientes ejercicios de manera manual y empleando Excel
0,3277; 0,9421; 0,00674) Un examen de estadística de elección múltiple contenía 20 preguntas y cada una de ellas 5 respuestas. Si un estudiante desconocía todas las respuestas y contestó al azar4.1) ¿Cuál es la probabilidad de que conteste correctamente a 5 preguntas?
0,17464.2) ¿Cuál es la probabilidad de que conteste correctamente a lo más 5 preguntas?
0,8042
Leer más: http://www.monografias.com/trabajos85/distribucion-binomial/distribucion-binomial.shtml#ixzz2iCvpzbpG
LECCION 28ªDistribuciones discretas: Binomial
Las distribución binomial parte de la distribución de Bernouilli:
La distribución de Bernouiili se aplica cuando se realiza una sola vez un experimento que tiene únicamente dos posibles resultados (éxito o fracaso), por lo que la variable sólo puede tomar dos valores: el 1 y el 0
La distribución binomial se aplica cuando se realizan un número"n" de veces el experimento de Bernouiili, siendo cada ensayo independiente del anterior. La variable puede tomar valores entre:
0: si todos los experimentos han sido fracaso
n: si todos los experimentos han sido éxitos
Ejemplo: se tira una moneda 10 veces: ¿cuantas caras salen? Si no ha salido ninguna la variable toma el valor 0; si han salido dos caras la variable toma el valor 2; si todas han sido cara la variable toma el valor 10
La distribución de probabilidad de este tipo de distribución sigue el siguiente modelo:
¿Alguien entiende esta fórmula? Vamos a tratar de explicarla con un ejemplo:
Ejemplo 1: ¿Cuál es la probabilidad de obtener 6 caras al lanzar una moneda 10 veces?
" k " es el número de aciertos. En este ejemplo " k " igual a 6 (en cada acierto decíamos que la variable toma el valor 1: como son 6 aciertos, entonces k = 6)
" n" es el número de ensayos. En nuestro ejemplo son 10
" p " es la probabilidad de éxito, es decir, que salga "cara" al lanzar la moneda. Por lo tanto p = 0,5
La fórmula quedaría:
Luego,
P (x = 6) = 0,205
Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10 veces una moneda.
Ejemplo 2: ¿Cuál es la probabilidad de obtener cuatro veces el número 3 al lanzar un dado ocho veces?
" k " (número de aciertos) toma el valor 4
" n" toma el valor 8
" p " (probabilidad de que salga un 3 al tirar el dado) es 1 / 6 (= 0,1666)
La fórmula queda:
Luego,
P (x = 4) = 0,026
Es decir, se tiene una probabilidad del 2,6% de obtener cuatro veces el números 3 al tirar un dado 8 veces.
Distribución binomial
Una forma corriente de descripción de los experimentos aleatorios equiprobables con variable discreta es la distribución binomial. En este tipo de distribución se estudia la probabilidad de que se produzca un cierto resultado, que se describe por medio de dos parámetros: el número de repeticiones realizadas del experimento y la probabilidad individual del suceso aleatorio que se persigue como resultado.
Condiciones para una distribución binomial
Una distribución se denomina binomial cuando se cumplen las condiciones siguientes:
El experimento aleatorio de base se repite n veces, y todos los resultados obtenidos son mutuamente independientes.
En cada prueba se tiene una misma probabilidad de éxito (suceso A), expresada por p. Asimismo, existe en cada prueba una misma probabilidad de fracaso (suceso ), que es igual a q = 1 - p.
El objetivo de la distribución binomial es conocer la probabilidad de que se produzca un cierto número de éxitos. Lavariable aleatoria X, que indica el número de veces que aparece el suceso A (éxito), es discreta, y su recorrido es el conjunto {0, 1, 2, 3, ..., n}.
La distribución binomial se expresa como B (n, p), siendo n el número de veces que se repite el experimento y p la probabilidad de que se produzca un éxito.
Ejemplo de experimento aleatorio descrito por una distribución binomial: al tirar un dado cuatro veces, ¿cuántas veces saldrá el número 6? Este suceso es el «éxito» del experimento.
Función de probabilidad
La distribución binomial se caracteriza porque su función de probabilidad viene dada por la expresión siguiente:
donde r es el número de éxitos asociado al experimento aleatorio.
En una distribución binomial B (n, p) se verifica que:
La probabilidad de que aparezca al menos un éxito en las n repeticiones es igual a:
La probabilidad de que se produzca un éxito como máximo en las n repeticiones se determina como:
Esperanza, varianza y desviación típica
En una distribución binomial denotada por B (n, p), donde n es el número de repeticiones del experimento y p la probabilidad de que se produzca un cierto suceso (éxito), la esperanza matemática de la variable aleatoria X viene dada por la expresión siguiente:
Análogamente, la varianza de la variable aleatoria X, al ser ésta de tipo discreto, se calcula como:
siendo q la probabilidad de no éxito (fracaso). La desviación típica es, como de costumbre, la raíz cuadrada de la varianza:
Ajuste de una distribución binomial
En ocasiones, el cálculo de la probabilidad de una distribución binomial del tipo B (n, p) resulta muy complicado. Según
demostró el matemático francés Abraham de Moivre (1667-1754), la probabilidad de una distribución binomial B (n, p) puede aproximarse por medio de una distribución normal (ver t56) de tipo N (np, ), que resulta particularmente adecuada cuando: El valor de n es muy elevado. Tanto np y nq son que 5. (Obsérvese que cuanto mayor es
n y más se aproxima p a 0,5 tanto mejor es la aproximación realizada).
Para transformar una distribución binomial (de variable discreta) en una normal (de variable continua), es preciso proceder a la siguiente transformación:
Experimento binomial[editar · editar código]
Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los
experimentos es independiente de los restantes (la probabilidad del resultado de un
experimento no depende del resultado del resto). El resultado de cada experimento ha de
admitir sólo dos categorías (a las que se denomina éxito y fracaso). Las probabilidades de
ambas posibilidades han de ser constantes en todos los experimentos (se denotan
como p y q o p y 1-p).
Se designa por X a la variable que mide el número de éxitos que se han producido en
los n experimentos.
Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución de
probabilidad binomial, y se denota B(n,p).
Características analíticas[editar · editar código]
Su función de probabilidad es
donde
siendo las combinaciones de en ( elementos tomados
de en )
Ejemplo[editar · editar código]
Supongamos que se lanza un dado (con 6 caras) 50 veces y queremos conocer la
probabilidad de que el número 3 salga 20 veces. En este caso tenemos una X ~ B(50, 1/6)
y la probabilidad sería P(X=20):
Distribución binomial«Binomial» redirige aquí. Para otras acepciones, véase binomial (desambiguación).
Distribución binomial
Función de probabilidad
Función de distribución de probabilidad
Parámetros número de ensayos (entero)
probabilidad de éxito (real)
Dominio
Función de
probabilidad(fp)
Función de
distribución(cdf)
Media
Mediana Uno de 1
Moda
Varianza
Coeficiente de
simetría
Curtosis
Entropía
Función generadora
de momentos(mgf)
Función
característica
En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el
número de éxitos en una secuencia de nensayos de Bernoulli independientes entre sí, con una
probabilidad fija pde ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se
caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se
denomina éxito y tiene una probabilidad de ocurrencia py al otro, fracaso, con una probabilidad q = 1
- p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y
se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se
convierte, de hecho, en una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p,
se escribe:
La distribución binomial es la base del test binomial de significación estadística.