40
UNIDAD I. MANEJO DE DATOS USANDO ESTADISTICA DESCRIPTIVA PARA LA SOLUCION DE PROBLEMAS. 1.1.1. ESTADISTICA DESCRIPTIVA. * Definición de estadística descriptiva. La estadística descriptiva es una parte de la estadística que se dedica a analizar y representar los datos. Este análisis es muy básico, pero estudio. Aunque hay tendencia a generalizar a toda la población las primeras conclusiones obtenidas tras un análisis descriptivo, su poder inferencial es mínimo y debería evitarse tal proceder. Otras ramas de la estadística se centran en el contraste de hipótesis y su generalización a la población. Algunas de las técnicas empleadas en este primer análisis de los datos se enumeran más abajo en el listado de conceptos básicos. Básicamente, se lleva a cabo un estudio calculando una serie de medidas de tendencia central, para ver en qué medida los datos se agrupan o dispersan en torno a un valor central. * Población tangible – conceptual. La población tangible es cuando los votantes pueden ser identificados y geográficamente ubicados. Existen, sin embargo, poblaciones de otra naturaleza. Considere por ejemplo la población que contiene todos los tiempos de espera posibles cuando una persona va a solicitar un servicio a determinado banco en su hora pico. Desde luego que esta población es infinita, pero no sólo eso, sus elementos ya no pueden ser identificados sino sólo observados mediante, por ejemplo, un proceso de muestreo. Además, los tiempos de espera ya no pueden ser representados por variables discretas, sino que caen dentro de la categoría de lo que hemos llamado variables continuas. La población conceptual: También se conoce con población hipotética es cuando existen otras situaciones donde los integrantes de la población no pueden ser listado, por ejemplo, si se trata de comparar dos políticas de venta de un producto, es

EST. DESCRITIVA

Embed Size (px)

Citation preview

Page 1: EST. DESCRITIVA

UNIDAD I. MANEJO DE DATOS USANDO ESTADISTICA DESCRIPTIVA PARA LA SOLUCION DE PROBLEMAS.

1.1.1. ESTADISTICA DESCRIPTIVA.

* Definición de estadística descriptiva.

La estadística descriptiva es una parte de la estadística que se dedica a analizar y representar los datos. Este análisis es muy básico, pero estudio. Aunque hay tendencia a generalizar a toda la población las primeras conclusiones obtenidas tras un análisis descriptivo, su poder inferencial es mínimo y debería evitarse tal proceder. Otras ramas de la estadística se centran en el contraste de hipótesis y su generalización a la población.

Algunas de las técnicas empleadas en este primer análisis de los datos se enumeran más abajo en el listado de conceptos básicos. Básicamente, se lleva a cabo un estudio calculando una serie de medidas de tendencia central, para ver en qué medida los datos se agrupan o dispersan en torno a un valor central.

* Población tangible – conceptual.

La población tangible es cuando los votantes pueden ser identificados y geográficamente ubicados. Existen, sin embargo, poblaciones de otra naturaleza. Considere por ejemplo la población que contiene todos los tiempos de espera posibles cuando una persona va a solicitar un servicio a determinado banco en su hora pico. Desde luego que esta población es infinita, pero no sólo eso, sus elementos ya no pueden ser identificados sino sólo observados mediante, por ejemplo, un proceso de muestreo. Además, los tiempos de espera ya no pueden ser representados por variables discretas, sino que caen dentro de la categoría de lo que hemos llamado variables continuas.

La población conceptual: También se conoce con población hipotética es cuando existen otras situaciones donde los integrantes de la población no pueden ser listado, por ejemplo, si se trata de comparar dos políticas de venta de un producto, es claro,que lo que se pretende es que las políticas de venta se puedan aplicar a futuros productos("todos los productos producidos en el presente y en el futuro”) y en consecuencia sería imposible en el momento del estudio hacer una lista de ellos, en tales casos se dirá quenuestra población es una población hipotética. Cuando el objetivo es estudiar las características y/o comportamientos de poblaciones finitas, ellas deben estar claramente definidas a través de los criterios deinclusión y exclusión. Pero cuando el estudio intenta sacar conclusiones hacia una poblaciónhipotética lo que se debe describir son las características del grupo sobre los cuales se quiere trabajar.

* Muestra aleatoria simple.

Page 2: EST. DESCRITIVA

En estadística se conoce como muestreo a la técnica para la selección de una muestra a partir de una población.Al elegir una muestra se espera conseguir que sus propiedades sean extrapolables a la población. Este proceso permite ahorrar recursos, y a la vez obtener resultados parecidos a los que se alcanzarían si se realizase un estudio de toda la población.

Cabe mencionar que para que el muestreo sea válido y se pueda realizar un estudio adecuado (que consienta no solo hacer estimaciones de la población sino estimar también los márgenes de error correspondientes a dichas estimaciones), debe cumplir ciertos requisitos. Nunca podremos estar enteramente seguros de que el resultado sea una muestra representativa, pero sí podemos actuar de manera que esta condición se alcance con una probabilidad alta.En el muestreo, si el tamaño de la muestra es más pequeño que el tamaño de la población, se puede extraer dos o más muestras de la misma población. Al conjunto de muestras que se pueden obtener de la población se denomina espacio muestral. La variable que asocia a cada muestra su probabilidad de extracción, sigue la llamada distribución muestral.

* Conveniencia ponderada.

Muestra aleatoria ponderada. Cuando la población incluye un grupo muy pequeño pero esencial, hay el riesgo de que ningún miembro de ese grupo quede dentro de una muestra aleatoria. Tales grupos claves de usuarios de productos son, entre otros, gente corto de vista, duro de oído o con la capacidad reducida del movimiento, véase una lista de tal gente. Otras minorías a menudo significativas originan de religiones, de nacionalidades y de lenguas.

Para asegurar por lo menos algunos de una minoría clave (marcada con x en el diagrama a la derecha) en la muestra, podemos incrementar deliberadamente la razón de la muestra sobre este grupo de especial importancia. Por supuesto que esto generará un desequilibrio en las mediciones que se obtengan a partir de la muestra ponderada, pero será fácil restaurar el equilibro original. Esto se hace así cuando se combinan los resultados; por ejemplo, al calcular la media de todas las mediciones daremos a las mediciones de cada grupo su peso apropiado correspondiente a los porcentajes genuinos en la población.

* Estadística de datos agrupados

Como se ha señalado anteriormente, el objetivo de la estadística descriptiva, es la descripción de los datos y no la inferencia partiendo de los datos.Una población de unidades es un grupo de entidades que tienen alguna característica cuantificable en común.Las unidades pueden ser personas, árboles, bacterias, compuestos químicos, etc.. Pueden ser finitas o infinitas en número. La característica cuantificable puede ser una variable continua o discreta.

Una población de observaciones es un grupo que consiste en los valores numéricos de una característica cuantificable determinada en cada elemento de una población de unidades.

La misma población de unidades tendrá en ocasiones mas de una población de observaciones asociada.Una muestra de unidades es un número finito de unidades procedentes de una población de unidades.Una muestra de observaciones es un número finito de observaciones procedentes de

Page 3: EST. DESCRITIVA

una población de observaciones.Es decir una muestra es una parte de una población que aislamos para estudiarla.

Este concepto es de importancia para el análisis estadístico porque por lo general uno dispone de una muestra de una población para el estudio que intenta realizar. Por ejemplo, si necesitáramos hacer un promedio de todas las alturas de los habitantes de un país de 200.000.000 de habitantes (esta sería la población estadística), es lógico suponer lo engorroso que sería medir la altura de todos. Esto se realiza midiendo las alturas de una muestra de esta población, por ejemplo 10.000 habitantes. Este procedimiento es inductivo ya que el investigador saca conclusiones acerca de la población basándose en el análisis de una muestra de esa población; esto es hacer una inferencia acerca de una población partiendo de una muestra.

Se llama inferencia estadística una conclusión que se refiere a una población de observaciones, obtenida sobre la base de una muestra de observaciones.

Una característica descriptiva global de una población de observaciones se llama parámetro.Una característica descriptiva global de una muestra de observaciones se llama estadígrafo.

* Tipos de poblaciones.

POBLACIÓN: Es el conjunto de todos los posibles elementos que intervienen en un experimento o en un estudio.

CENSO: Al estudio completo de la población.

TIPOS DE POBLACIÓN:

POBLACIÓN FINITA: Es aquella que indica que es posible alcanzarse o sobrepasarse al contar.

Es aquella que posee o incluye un número limitado de medidas y observaciones.

POBLACIÓN INFINITA: Es infinita si se incluye un gran conjunto de medidas y observaciones que no pueden alcanzarse en el conteo.

Son poblaciones infinitas porque hipotéticamente no existe límite en cuanto al número de observaciones que cada uno de ellos puede generar.

Page 4: EST. DESCRITIVA

MUESTRA: Un conjunto de medidas u observaciones tomadas a partir de una población dada. Es un subconjunto de la población.

MUESTRA REPRESENTATIVA: Un subconjunto representativo seleccionado de una población de la cual se obtuvo.

MUESTREO: Al estudio de la muestra representativa.

PARÁMETRO: Son las características medibles en una población completa. Se le asigna un símbolo representado por una letra griega.

ESTADÍSTICO O ESTADÍGRAFO: Es la medida de una característica relativa a una muestra. La mayoría de los estadísticos muestrales se encuentran por medio de una fórmula y suelen asignárseles nombres simbólicos que son letras latinas.

DATOS ESTADÍSTICOS (VARIABLES): Los datos son agrupaciones de cualquier número de observaciones relacionadas.

Para que se considere un dato estadístico debe tener 2 características:

a) Que sean comparables entre sí.

b) Que tengan alguna relación.

VARIABLE: Una característica que asume valores.

CLASES DE DATOS:

VARIABLE CUANTITATIVA O ESCALAR: Será una variable cuando pueda asumir sus resultados en medidas numéricas.

VARIABLE CUANTITATIVA DISCRETA : Es aquella que puede asumir sólo ciertos valores, números enteros.

Page 5: EST. DESCRITIVA

Ejemplo: El número de estudiantes (1,2,3,4)

VARIABLE CUANTITATIVA CONTINUA: Es aquella que teóricamente puede tomar cualquier valor en una escala de medidas, ya sea entero o fraccionario.

Ejemplo : Estatura : 1.90 m

VARIABLES CUALITATIVAS O NOMINALES: Cuando no es posible hacer medidas numéricas, son susceptibles de clasificación.

Ejemplo: Color de autos: rojo, verde, azul.

EXPERIMENTO: Es una actividad planificada, cuyos resultados producen un conjunto de datos.

Es el proceso mediante el cual una observación o medición es registrada.

Ejemplo: ¿Cuál será la preferencia del consumidor ante dos marcas de refresco con similares características en un ambiente armónico y sin publicidad?

1.1.2 Representación grafica de datos:

* Grafica da tallo y hojas.

Gráficos de tallo y hoja: es una forma rápida de obtener una representación visual ilustrativa del conjunto de datos, para construir un diagrama de tallo y hoja primero se debe seleccionar uno ó más dígitos iniciales para los valores de tallo, el dígito o dígitos finales se convierten en hojas, luego se hace una lista de valores de tallo en una columna vertical. Prosiguiendo a registrar la hoja por cada observación junto al valor correspondiente de tallo, finalmente se indica las unidades de tallos y hojas en algún lugar del diagrama, este se usa para listas grandes y es un método resumido

Page 6: EST. DESCRITIVA

de mostrar los datos, posee la desventaja que no proporciona sino los datos, y no aparece por ningún lado información sobre frecuencias y demás datos importantes.

TIENDA | Enero | Febrero | Marzo | abril | mayo | Junio |

A | 800 | 600 | 700 | 900 | 1100 | 1000 |

B | 700 | 500 | 600 | 1000 | 900 | 1200 |

* Distribución de frecuencias.

Distribución de frecuencias es como se denomina en estadística a la agrupación de datos en categorías mutuamente excluyentes que indican el número de observaciones en cada categoría. Esto significa una de las cosas más importantes de la matemática, su estadística con la agrupación de datos. La distribución de frecuencias presenta las observaciones clasificadas de modo que se pueda ver el número existente en cada clase.

Elementos fundamentales para elaborar una distribución de frecuencia:

1) RANGO.

Es una medida de dispersión que se obtiene como la diferencia entre el número mayor y el número menor de los datos.

R = N_max - N_min

Ejemplo.

Dados los números: 5, 10, 12, 8, 13, 9, 15

R= 15- 5

2) AMPLITUD TOTAL.

Simplemente se obtiene sumándole 1 al rango.

AT = (R+1)

3) LAS CLASES.

Están formadas por dos extremos. el menor se llama límite inferior el mayor se llama límite superior. hay distintos tipos de clases.

Ej. Notas (20-26) Edades (20-26.5) Salarios (20-26.99)

Page 7: EST. DESCRITIVA

4)EL NUMERO DE CLASES.

Se determina a través de la formula de stuger, la cual es valida cuando el No de observaciones sea menor o igual a 500. Formula.

Nc= 1 + 3.33log ( N )

Donde:

Nc es el número de clases. N es la cantidad de muestras tomadas.

5) VALOR DEL INTERVALO O AMPLITUD

Se Obtiene por medio de la ecuación de dicta:

Vi = AT / Nc

Donde:

Vi es el valor de intervalo AT es la amplitud total Nc es el número de clase.

* Clases --- limites de clases

Organización de datos agrupados

Limites Reales: Sirven para mantener la continuidad de las clases

Anchura o tamaño del intervalo: es la diferencia entre los límites reales de una clase

Número de clases: es el número total de grupos en que se clasifica la información, se recomienda que no sea menor que 5 ni mayor que 15

Marca de Clase: Es el punto medio del intervalo de clase, se recomienda observar que los puntos medios coincidan con los datos observados para minimizar el error.

Frecuencia: es el número de veces que aparece un valor

Frecuencia Acumulada: Indica cuantos casos hay por debajo o arriba de un determinado valor o límite de clase.

Frecuencia Relativa: Indica la proporción que representa la frecuencia de cada intervalo de clase en relación al total, es útil para comparar varias distribuciones con parámetros de referencia uniformes.

Frecuencia Acumulada Relativa: Indica la proporción de datos que se encuentra por arriba o debajo de cierto valor o límite de clase.

Gráficos de una Distribución de Frecuencias

Page 8: EST. DESCRITIVA

Los gráficos son útiles porque ponen en relieve y aclaran las tendencias que no se captan fácilmente en la tabla, ayudan a estimar valores con una simple ojeada y brinda una verificación gráfica de la veracidad de las soluciones.

Histograma:

Esta formado por rectángulos cuya base es la amplitud del intervalo y tiene la característica que la superficie que corresponde a las barras es representativa de la cantidad de casos o frecuencia de cada tramo de valores, puede construirse con clases que tienen el mismo tamaño o diferente ( intervalo variable). La utilización de los intervalos de amplitud variable se recomienda cuando en alguno de los intervalos , de amplitud constante, se presente la frecuencia cero o la frecuencia de alguno o algunos de los intervalos sea mucho mayor que la de los demás, logrando así que las observaciones se hallen mejor repartidas dentro del intervalo.

Polígono de Frecuencias

Se puede obtener uniendo cada punto medio (marca de clase) de los rectángulos del histograma con líneas rectas, teniendo cuidado de agregar al inicio y al final marcas de clase adicionales, con el objeto de asegurar la igualdad del áreas.

Curvas de frecuencia

No es más que la curva suavizada que se traza sobre el polígono y representa la asimetría y la curtosis que tiene la distribución, permite visualizar un esquema más claro del patrón de datos. Existen varios tipos de curva de frecuencia: Curvas J, Simétricas o Asimétricas (sesgada a la derecha o a la izquierda), Unimodales, Bimodales y Multimodales.

Ojivas: Cuando se trata de relacionar observaciones en un mismo aspecto para dos colectivos diferentes no es posible ejecutar comparaciones sobre la base de la frecuencia, es necesario tener una base estándar, la frecuencia relativa. La ojiva representa gráficamente la forma en que se acumulan los datos y permiten ver cuantas observaciones se hallan por arriba o debajo de ciertos valores. Es útil para obtener una medida de los cuartiles, deciles , percentiles.

1.2.1 MEDIDAS DE TENDENCIA CENTRAL.

Los promedios son una medida de posición que dan una descripción compacta de como están centrados los datos y una visualización más clara del nivel que alcanza la variable, pueden servir de base para medir o evaluar valores extremos o raros y brinda mayor facilidad para efectuar comparaciones.

Es importante poner en relieve que la notación de promedio lleva implícita la idea de variación y que este número promedio debe cumplir con la condición de ser representativo de conjunto de datos.

El promedio como punto típico de los datos es el valor al rededor del cual se agrupan los demás valores de la variable.

Page 9: EST. DESCRITIVA

MEDIA ARITMÉTICA

Es una medida matemática, un número individual que representa razonablemente el comportamiento de todos los datos.

Para datos no agrupados X = S xi / n

Para datos agrupados X = S fi Xi / S fi

donde Xi es la marca de clase para cada intervalo y fi es la frecuencia de clase

Características de la Media:

1. En su cálculo están todos los valores del conjunto de datos por lo que cada uno afecta la media.

2. La suma algebraica de las desviaciones de los valores individuales respecto a la media es cero.

3. La suma del cuadrado de las desviaciones de una serie de datos a cualquier número A es mínimo si A = X

4. Aunque es confiable porque refleja todos los valores del conjunto de datos puede ser afectada por los valores extremos, y de esa forma llegar a ser una medida menos representativa, por lo que si la distribución es asimétrica, la media aritmética no constituye un valor típico.

La media aritmética es el valor obtenido sumando todas las observaciones y dividiendo el total por el número de observaciones que hay en el grupo.

La media resume en un valor las características de una variable teniendo en cuenta todos los casos. Solamente puede utilizarse con variables cuantitativas.

Por ejemplo, las notas de 5 alumnos en una prueba:

Alumno Nota

1 6,0 ·Primero, se suman las notas:

2 5,4 6,0+5,4+3,1+7,0+6,1 = 27,6

3 3,1 ·Luego el total se divide entre la cantidad de alumnos:

4 7,0 27,6/5=5,52

Page 10: EST. DESCRITIVA

5 6,1 ·La media aritmética en este ejemplo es 5,52

La media aritmética es, probablemente, uno de los parámetros estadísticos más extendidos.[2] Se le llama también promedio o, simplemente, media.

LA MODA

La moda es el dato más repetido, el valor de la variable con mayor frecuencia absoluta.[5] En cierto sentido la definición matemática corresponde con la locución "estar de moda", esto es, ser lo que más se lleva.

Su cálculo es extremadamente sencillo, pues sólo necesita un recuento. En variables continuas, expresadas en intervalos, existe el denominado intervalo modal o, en su defecto, si es necesario obtener un valor concreto de la variable, se recurre a la interpolación.

Por ejemplo, el número de personas en distintos vehículos en una carretera: 5-7-4-6-9-5-6-1-5-3-7. El número que más se repite es 5, entonces la moda es 5.

Hablaremos de una distribución bimodal de los datos, cuando encontremos dos modas, es decir, dos datos que tengan la misma frecuencia absoluta máxima. Cuando en una distribución de datos se encuentran tres o más modas, entonces es multimodal. Por último, si todas las variables tienen la misma frecuencia diremos que no hay moda.

Cuando tratamos con datos agrupados en intervalos, antes de calcular la moda, se ha de definir el intervalo modal. El intervalo modal es el de mayor frecuencia absoluta.

La moda, cuando los datos están agrupados, es un punto que divide el intervalo modal en dos partes de la forma p y c-p, siendo c la amplitud del intervalo, que verifiquen que:

Siendo ni la frecuencia absoluta del intervalo modal y ni − 1 y ni + 1 las frecuencias absolutas de los intervalos anterior y posterior, respectivamente, al

Las calificaciones en la asignatura de Matemáticas de 39 alumnos de una clase viene dada por la siguiente tabla (debajo):

Calificaciones | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |

Número de alumnos | 2 | 2 | 4 | 5 | 8 | 9 | 3 | 4 | 2 |

Page 11: EST. DESCRITIVA

LA MEDIANA

La mediana es un valor de la variable que deja por debajo de sí a la mitad de los datos, una vez que éstos están ordenados de menor a mayor.[7] Por ejemplo, la mediana del número de hijos de un conjunto de trece familias, cuyos respectivos hijos son: 3, 4, 2, 3, 2, 1, 1, 2, 1, 1, 2, 1 y 1, es 2, puesto que, una vez ordenados los datos: 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, el que ocupa la posición central es 2:

En caso de un número par de datos, la mediana no correspondería a ningún valor de la variable, por lo que se conviene en tomar como mediana el valor intermedio entre los dos valores centrales. Por ejemplo, en el caso de doce datos como los anteriores:

Se toma como mediana

Existen métodos de cálculo más rápidos para datos más númerosos (véase el artículo principal dedicado a este parámetro). Del mismo modo, para valores agrupados en intervalos, se halla el "intervalo mediano" y, dentro de éste, se obtiene un valor concreto por interpolación.

Cálculo de la mediana para datos agrupados [editar]

Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla del margen derecho).

Así, aplicando la formula asociada a la mediana para n impar, obtenemos X(39+1)/2 = X20 y basándonos en la fórmula que hace referencia a las frecuencias absolutas:

Ni-1< n/2 < Ni = N19 < 19.5 < N20

Por tanto la mediana será el valor de la variable que ocupe el vigésimo lugar. En nuestro ejemplo, 21 (frecuencia absoluta acumulada para Xi = 5) > 19.5 con lo que Me = 5 puntos (es aconsejable no olvidar las unidades; en este caso como estamos hablando de calificaciones, serán puntos)

La mitad de la clase ha obtenido un 5 o menos, y la otra mitad un 5 o más.

Ejemplo (N par)

Las calificaciones en la asignatura de Matemáticas de 38 alumnos de una clase viene dada por la siguiente tabla (debajo):

Calificaciones | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |

Número de alumnos | 2 | 2 | 4 | 5 | 6 | 9 | 4 | 4 | 2 |

xi | fi | Fi |

Page 12: EST. DESCRITIVA

1 | 2 | 2 |

2 | 2 | 4 |

3 | 4 | 8 |

4 | 5 | 13 |

5 | 6 | 19 = 19 |

6 | 9 | 28 |

7 | 4 | 32 |

8 | 4 | 36 |

9 | 2 | 38 |

Calculemos la Mediana:

Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla margen derecho).

Si volvemos a utilizar la fórmula asociada a la mediana para n par, obtenemos X(38/2) = X19 y basándonos en la fórmula que hace referencia a las frecuencias absolutas --> Ni-1< n/2 < Ni = N18 < 19 < N19

Con lo cual la mediana será la media aritmética de los valores de la variable que ocupen el decimonoveno y el vigésimo lugar.

En nuestro ejemplo, el lugar decimonoveno lo ocupa el 5 y el vigésimo el 6, (desde el vigésimo hasta el vigésimo octavo)

con lo que Me = (5+6)/2 = 5,5 puntos.

La mitad de la clase ha obtenido un 5,5 o menos y la otra mitad un 5,5 o más

* Coeficiente de variación.

En estadística el coeficiente de variación o de Pearson, es una medida de dispersión útil para comparar dispersiones a escalas distintas pues es una medida invariante ante cambios de escala. Uno de sus usos más comunes es para expresar la desviación standar como porcentaje de la media aritmética, mostrando una mejor interpretación porcentual del grado de variabilidad que la desviación típica o estandar. Por otro lado presenta problemas ya que a diferencia de la desviación típica este coeficiente es variable ante cambios de origen. Por ello es importante que todos los

Page 13: EST. DESCRITIVA

valores sean positivos y su media de por tanto un valor positivo. A mayor valor de C.V. mayor heterogeneidad de los valores de la variable; y a menor C.V., mayor homogeneidad en los valores de la variable. Suele representarse por medio de las siglas C.V..

Exigimos que:

Se calcula:

Donde σ es la desviación típica. Se puede dar en tanto por ciento calculando:

Propiedades y aplicaciones

El coeficiente de variación es típicamente menor que uno.

Para su mejor interpretación se lo expresa como porcentaje.

Depende de la desviación típica y en mayor medida de la media aritmética, dado que cuando esta es 0 o muy próxima a este valor C.V. pierde significado, ya que puede dar valores muy grandes, que no necesariamente implican dispersión de datos.

El coeficiente de variación es común en varios campos de la probabilidad aplicada, como Teoría de renovación, Teoría de colas y. En estos campos la distribución exponencial es a menudo más importante que la distribución normal. La desviación típica de una distribución exponencial es igual a su media, por lo que su coeficiente de variación es 1. La distribuciones con un C.V. menor que uno, como la distribución de Erlang se consideran de "baja varianza", mientras que aquellas con un C.V. mayor que uno, como la distribución hiperexponencial se consideran de "alta varianza". Algunas fórmulas en estos campos se expresan usando el cuadrado del coeficiente de variación, abreviado como S.C.V. (por su siglas en inglés).

1.2.2. Medios de varidalidad.

Amplitud

Para presentar lo que es la modulación en amplitud, comencemos con una etapa amplificadora, donde la señal de entrada "Eo" se amplifica con una ganancia constante "A". En ese caso la salida del amplificador, "Em", es el producto de A y Eo.

Supongamos ahora que la ganancia de la etapa amplificadora "A" es variable en función del tiempo, entre 0 (cero) y un valor máximo, regresando a 0 (cero). Lo anterior significa, que la etapa

Page 14: EST. DESCRITIVA

amplificadora multiplica el valor de entrada "Eo" por un valor diferente de "A" en cada instante. La descripción efectuada en el proceso anterior, es lo que denominamos Modulación en Amplitud. Por lo tanto, la modulación en amplitud es un proceso de multiplicación y se muestra en la próxima figura. Al multiplicador lo podemos considerar también, como un dispositivo de ganancia controlada por una tensión. En este caso, la entrada de control de ganancia corresponde con la entrada "x". La forma de onda mostrada en la figura pertenece a un modulador balanceado; mas adelante explicaremos esa denominación. En ella podemos observar que la envolvente de "Em", tiene la misma forma que la señal de entrada "Es".

UNIDADII. MANEJO DE LA PROBABILIDAD, PARA LA SOLUCION DE PROBLEMAS.

2.1.1. PROBABILIDAD

* Conteo diagrama de árbol

Mientras mas pequeña sea la desviación típica es más probable. Obtener un valorcercano a la media, mientras mayor sea la desviación típica, es mas probable encontrar u obtener un valor a cercano a la media, mientras mayor sea la desviación, es mas probable encontrar u obtener un valor alejado de la media. Todo esto se resume de la sig. Forma:

La proporción de cualquier conjunto de observaciones que caen dentro de desviaciones típicas, medidas a partir medidas a partir de la media es al menos.

, esto es que estén en y

Donde es cualquier numero mayor 1

Ejemplo

* Permutaciones

El número de permutaciones de n objetos es el número de formas en los que pueden acomodarse esos objetos en términos de orden.

Permutaciones En n Objetos

Permutaciones de n elementos tomando n a la vez es igual a:

nPn = n! = (n) x (n-1) x… x (2) x (1)

Ejemplo

Los cinco individuos que componen la dirección de una pequeña empresa manufacturera serán sentados juntos en un banquete. Determinar el número de diferentes posiciones posibles de los asientos para los cinco individuos.

Page 15: EST. DESCRITIVA

Solución

n Pn = n! = 5! = (5)(4)(3)(2)(1) = 120

Permutaciones En Subgrupo De n Objetos

El número de permutaciones de n objetos tomados r a la vez, donde r es menor que n es igual a:

nPr = n!

(n-r)!

* Combinaciones

En el caso de las combinaciones, lo importante es el número de agrupaciones diferentes de objetos que pueden incurrir sin importar su orden.

Por lo tanto en las combinaciones se busca el número se subgrupos diferentes que pueden tomarse a partir de n objetos.

El número de combinaciones de n objetos tomados r a la vez es igual a:

nCr = n!

r! (n-r)!

Ejemplo

Supongamos que se elegirá a tres miembros de una pequeña organización social con un total de diez miembros para que integren un comité. ¿Cuál es el número de grupos diferentes de tres personas que pueden ser elegidos, sin importar el diferente orden en el que cada grupo podría elegirse?

Solución

nCr =10C3 = n! = 10! =10×9x8×7!=10×9x8=720= 120

Page 16: EST. DESCRITIVA

------- ------- --------- ------ ---

r(n - r)! 3!(10–3)! 3!x7! 3×2x1 6

Combinaciones representando la probabilidad

En términos de combinaciones, frecuentemente podemos determinar la probabilidad de un evento determinado, el número de combinaciones de resultados que incluyen ese evento en comparación con el número total de combinaciones

* Probabilidad.

La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto de resultados) al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos.

* Ley de los números grandes.

La ley de los grandes números es un teorema en probabilidades que describe el comportamiento del promedio de una sucesión de variables aleatorias según el número total de variables aumenta. El teorema describe hipótesis suficientes para afirmar que dicho promedio converge (en los sentidos explicados abajo) al promedio de las esperanzas de las variables aleatorias involucradas. En particular, si todas las variables son idénticamente distribuidas e independientes, el promedio tiende al valor de la esperanza individual. Las leyes de los grandes números implican que el promedio de una muestra al azar de una población de gran tamaño tenderá a estar cerca de la media de la población completa. Varias formulaciones de la ley de los grandes números (y sus condiciones asociadas) especifican la convergencia de formas distintas.

Cuando las variables aleatorias tienen una varianza finita, el teorema central del límite extiende nuestro entendimiento de la convergencia de su promedio describiendo la distribución de diferencias estandarizadas entre la suma de variables aleatorias y el valor esperado de esta suma. Sin importar la distribución subyacente de las variables aleatorias, esta diferencia estandarizada converge a una variable aleatoria normal estándar.

2.1.2 Reglas de la probabilidad.

Page 17: EST. DESCRITIVA

* Espacios muéstrales y eventos a conjuntos.

En estadística se llama espacio muestral al conjunto de todos los posibles resultados individuales de un experimento aleatorio. Se suele representar por Ω.

Sus elementos se representan por letras minúsculas (w1,w2,...) y se denominan eventos o sucesos elementales. Los subconjuntos de Ω se designan por medio de letras mayúsculas (A,B,C,D,...) y se denominan eventos o sucesos. Los sucesos representan los posibles resultados del experimento aleatorio.

Tipos de espacio muestral

Un espacio muestral Ω es discreto, cuando Ω es un conjunto discreto, es decir, finito o numerable; y es continuo, cuando no es numerable.

Particiones

Es posible definir particiones sobre el espacio muestral. Formalmente hablando, una partición sobre Ω se define como un conjunto numerable:

tal que

1.

2.

3.

Ejemplos

Por ejemplo, en el caso del experimento aleatorio "lanzar un dado", el espacio muestral del experimento sería: Ω={1,2,3,4,5,6}. Por otro lado, si cambiamos ligeramente la experiencia pensando en el número resultante de la suma de 2 dados, entonces tenemos 2 espacios muestrales:

Ω={(1,1),(1,2),(1,3),(1,4),(1,5),(1,6),(2,1),(2,2),...(6,6)} = {1,2,3,4,5,6}x{1,2,3,4,5,6}

Ω'={2,3,4,...,12}

La elección del espacio muestral es un factor determinante para realizar el cálculo de la probabilidad de un suceso.

Page 18: EST. DESCRITIVA

* Operaciones con conjuntos.

Operaciones con conjuntos

Sean y dos conjuntos.

Unión

Diagrama de Venn que ilustra

Para cada par de conjuntos A y B existe un conjunto Unión de los dos, que se denota como el cual contiene todos los elementos de A y de B. De manera más general, para cada conjunto S existe otro conjunto denotado como de manera que sus elementos son todos los tales que . De esta manera es el caso especial donde .

Es claro que el hecho de que un elemento x pertenezca a es condición necesaria y suficiente para afirmar que x es un elemento de A o al menos de B. Es decir

Ejemplos: si tenemos los conjuntos

Entonces

Intersección n

Diagrama de Venn que ilustra

Los elementos comunes a y forman un conjunto denominado intersección de y , representado por . Es decir, es el conjunto que contiene a todos los elementos de A que al mismo tiempo están en B:

.

Si dos conjuntos y son tales que , entonces y se dice que son conjuntos disjuntos.

Es claro que el hecho de que es condición necesaria y suficiente para afirmar que y . Es decir

Page 19: EST. DESCRITIVA

* Postulados de la probabilidad.

Desde el punto de vista de la escuela lógica, todos los sistemas tienen en común la relación lógica entre dos proposiciones q/p como relación indefinida (esto es, que sólo está definida por los axiomas o postulados), que se lee “probabilidad de q dado p”. Todo cuanto satisface a estos axiomas será una interpretación de la probabilidad, y cabe esperar el que haya diversas interpretaciones, por ejemplo, las de las axiomáticas de Keynes y Jeffreys, pero todas tienen el mismo punto de arranque, y es la definición anteriormente expresada. Los axiomas o postulados requeridos fueron recogidos por C.D. Broad (1920), y son los siguientes:

I. Dados p y q, hay sólo un valor q/p.

II. Los posibles valores de q/p son todos los números reales en el intervalo (0,1).

III. Si p implica q, entonces q/p = 1.

IV. Si p no implica q, entonces q/p = 0.

V. La probabilidad de q y r dado p es la probabilidad de q dado p multiplicada por la probabilidad de r dado p (axioma conjuntivo).

VI. La probabilidad de q o r dado p es la probabilidad de q dado p más la probabilidad de r dado p menos la probabilidad de q y r dado p (axioma disyuntivo).

Esta axiomática puede considerarse como la antitesis de la teoría de la frecuencia representada por Venn, Von Mises y Reichenbach.

* Probabilidades y posibilidades.

Se habla muy comúnmente en sitios de apuestas, como en las autódromos o hipódromos, de que "las apuestas a tal o cual participante es de x a y", es decir, que las posibilidades de que gane es de x a y. Esta manera de expresarse se refiere al uso de razones.

En términos generales, la posibilidad de que ocurra un evento se determina mediante la razón de la probabilidad de que ocurra a la probabilidad de que no ocurra.

Esto quiere decir que si la probabilidad de que un evento ocurra es p, entonces las posibilidades de que ocurra son x a y, es decir

Tales que x y y son enteros positivos.

Page 20: EST. DESCRITIVA

Por ejemplo: Si se tiran dos monedas normales (no trucadas), la probabilidad de que las dos monedas caigan cara es de ¼. Esto quiere decir si alguien apuesta a que las dos monedas no caen simultáneamente en cara, la posibilidad de ganar la apuesta es dees decir, 3 a 1. |

Hemos de considerar que si es mayor la probabilidad de que no ocurra un evento, entonces se acostumbra mencionar las posibilidades en contra del evento.

Por ejemplo: Si se tira un dado no trucado, sabemos que la probabilidad de obtener un cuatro es 1/6, es decir que la posibilidad de obtener un cuatro es de 1 a 6; pero se acostumbra decir que las posibilidades en contra, esto es, de no obtener un cuatro es de 6 a 1. |

* Reglas de adicción

Regla especial de la adición. Establece que si dos eventos A y B son mutuamente excluyentes la probabilidad de que uno u otro evento ocurra es igual a la suma de sus probabilidades. De lo anterior se puede deducir que la probabilidad de que ocurra A más la probabilidad de que no ocurra A debe sumar 1. A esto se le llama la regla del complemento. Esta regla establece que para determinar la probabilidad de que ocurra un evento se puede restar de 1 la probabilidad de que no ocurra.

La Regla de la Adición expresa que: la probabilidad de ocurrencia de al menos dos sucesos A y B es igual a: P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente P(A o B) = P(A) + P(B) - P(A y B) si A y B son no excluyentes Siendo: P(A) = probabilidad de ocurrencia del evento A P(B) = probabilidad de ocurrencia del evento B P(A y B) = probabilidad de ocurrencia simultanea de los eventos A y B

ejemplo: Si A y B son dos eventos que no son mutuamente excluyentes, entonces P(A o B) se calcula con la siguiente fórmula: P(A o B) = P(A) + P(B) - P(A y B) El Diagrama de Venn ilustra esta regla

ejemplo: En una muestra de 500 estudiantes, 320 dijeron tener un estéreo,

175 dijeron tener una TV y 100 dijeron tener ambos Si un estudiante es seleccionado aleatoriamente, ¿cuál es la probabilidad de que tenga sólo un estéreo, sólo una TV y uno de cada uno? P(S) = 320 /500 = .64. P(T) = 175 /500 = .35. P(S y T) = 100 /500 = .20.

Si un estudiante es seleccionado aleatoriamente, ¿cuál es la probabilidad de que tenga un estéreo o una TV en su habitación? P(S o T) = P(S) + P(T) - P(S y T) = .64 +.35 - .20 = .79.

* Probabilidad de condicional.

Probabilidad condicionada es la probabilidad de que ocurra un evento A, sabiendo que también sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee «la probabilidad de A dado B.

Page 21: EST. DESCRITIVA

No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa o pueden no tener relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le dé a los eventos.

* Eventos independientes.

Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso típico de eventos independiente es el muestreo con reposición, es decir, una vez tomada la muestra se regresa de nuevo a la población donde se obtuvo.

Ejemplo:

lanzar al aire dos veces una moneda son eventos independientes por que el resultado del primer evento no afecta sobre las probabilidades efectivas de que ocurra cara o sello, en el segundo lanzamiento.

* Reglas de la multiplicación.

Se relacionan con la determinación de la ocurrencia de conjunta de dos o más eventos. Es decir la intersección entre los conjuntos de los posibles valores de A y los valores de B, esto quiere decir que la probabilidad de que ocurran conjuntamente los eventos A y B es:

P(A y B) = P(A B) = P(A)P(B) si A y B son independientes

P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes

P(A y B) = P(A B) = P(B)P(A|B) si A y B son dependientes

* Teorema de bayes.

El teorema de Bayes, enunciado por Thomas Bayes, en la teoría de la probabilidad, es el resultado que da la distribución de probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A.

Teorema

Page 22: EST. DESCRITIVA

Sea {A1,A2,...,Ai,...,An} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | Ai). Entonces, la probabilidad P(Ai | B) viene dada por la expresión:

donde:

* P(Ai) son las probabilidades a priori.

* P(B | Ai) es la probabilidad de B en la hipótesis Ai.

* P(Ai | B) son las probabilidades a posteriori.

Esto se cumple

2.2.1 Esperanza Matemática.

* Definición de esperanza matemática.

En estadística la esperanza matemática (también llamada esperanza, valor esperado, media poblacional o media) de una variable aleatoria X, es el número que formaliza la idea de valor medio de un fenómeno aleatorio.

Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible.

Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos hacer el cálculo

y cabe destacar que 3,5 no es un valor posible al rodar el dado. En este caso, en el que todos los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.

Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. Por ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por tanto, considerando los 38 posibles resultados, la esperanza matemática del beneficio para apostar a un solo número es:

Page 23: EST. DESCRITIVA

que es -0,0526 aproximadamente. Por lo tanto uno esperaría, en media, perder unos 5 céntimos por cada euro que apuesta, y el valor esperado para apostar 1 euro son 0.9474 euros. En el mundo de las apuestas, un juego donde el beneficio esperado es cero (no ganamos ni perdemos) se llama un "juego justo".

Nota: El primer paréntesis es la "esperanza" de perder tu apuesta de $1, por eso es negativo el valor. El segundo paréntesis es la esperanza matemática de ganar los $35. La esperanza matemática del beneficio es el valor esperado a ganar menos el valor esperado a perder.

* Uso de la esperanza matematica en la toma de decisiones.

La Investigación de Operaciones o Investigación Operativa, es una rama de las Matemáticas consistente en el uso de modelos matemáticos, estadística y algoritmos con objeto de realizar un proceso de toma de decisiones. Frecuentemente, trata del estudio de complejos sistemas reales, con la finalidad de mejorar (u optimizar) su funcionamiento. La investigación de operaciones permite el análisis de la toma de decisiones teniendo en cuenta la escasez de recursos, para determinar cómo se puede optimizar un objetivo definido, como la maximización de los beneficios o la minimización de costes.

2.2.2 Solucion de problemas de decisión estadística.

LA TEORÍA DE LA DECISIÓN

Es un estudio formal sobre la toma de decisiones. Los estudios de casos reales, que se sirven de la inspección y los experimentos, se denominan teoría descriptiva de decisión; los estudios de la toma de decisiones racionales, que utilizan la lógica y la estadística, se llaman teoría preceptiva de decisión. Estos estudios se hacen mas complicados cuando hay mas de un individuo, cuando los resultados de diversas opciones no se conocen con exactitud y cuando las probabilidades de los distintos resultados son desconocidas.

La toma de decisión es también un proceso durante el cual la persona debe escoger entre dos o más alternativas. Todos y cada uno de nosotros pasamos los días y las horas de nuestra vida teniendo que tomar decisiones. Algunas decisiones tienen una importancia relativa en el desarrollo de nuestra vida, mientras otras son gravitantes en ella.

En los administradores, el proceso de toma de decisión es sin duda una de las mayores responsabilidades. La toma de decisiones en una organización se circunscribe a una serie de personas que están apoyando el mismo proyecto. Debemos empezar por hacer una selección de decisiones, y esta selección es una de las tareas de gran trascendencia.

Page 24: EST. DESCRITIVA

Con frecuencia se dice que las decisiones son algo así como el motor de los negocios y en efecto, de la adecuada selección de alternativas depende en gran parte el éxito de cualquier organización. Una decisión puede variar en trascendencia y connotación.

UNIDAD III. MANEJO DE LAS FUNCIONES DE DISTRIBUCION ESTADISTICAPARA LA SOLUCION DE PROBLEMAS.

3.1.1. Distribución de probabilidad.

* Variables aleatorias discretas y continuas.

Para comprender de una manera mas amplia y rigurosa los tipos de variables, es necesario conocer la definición de conjunto discreto. Un conjunto es discreto si está formado por un número finito de elementos, o si sus elementos se pueden enumerar en secuencia de modo que haya un primer elemento, un segundo elemento, un tercer elemento, y así sucesivamente.[3]

Variable aleatoria discreta: una v.a. es discreta si su recorrido es un conjunto discreto. La variable del ejemplo anterior es discreta. Sus probabilidades se recogen en la función de cuantía (véanse las distribuciones de variable discreta).

Variable aleatoria continua: una v.a. es continua si su recorrido no es un conjunto numerable. Intuitivamente esto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de números reales. Por ejemplo, la variable que asigna la estatura a una persona extraída de una determinada población es una variable continua ya que, teóricamente, todo valor entre, pongamos por caso, 0 y 2,50 m, es posible.[4] (véanse las distribuciones de variable continua)

* Funciones de distribución discretas.

Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo toma valores positivos en un conjunto de valores de X finito o infinito numerable. A dicha función se le llama función de masa de probabilidad. En este caso la distribución de probabilidad es el sumatorio de la función de masa, por lo que tenemos entonces que:

Y, tal como corresponde a la definición de distribución de probabilidad, esta expresión representa la suma de todas las probabilidades desde hasta el valor x.

* Distribución binominal.

En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos independientes de Bernoulli con una probabilidad fija p de ocurrencia del éxito entre los ensayos.

Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro,

Page 25: EST. DESCRITIVA

fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.

Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe:

La distribución binomial es la base del test binomial de significación estadística.

* La distribución hipergeometrica.

En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x () elementos de la categoría A en una muestra de n elementos de la población original.

* La distribución de poisson.

En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta. Expresa la probabilidad de un número k de eventos ocurriendo en un tiempo fijo si estos eventos ocurren con una frecuencia media conocida y son independientes del tiempo discurrido desde el último evento.

Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles).

3.1.2 Las medidas de tendencia, central de una distribución de probabilidad.

* La medida de una distribución de probabilidad.

Media de una Distribución de Probabilidades.-Valor promedio a largo plazo de la variable aleatoria, también es conocido como valor esperado. Esta media es un promedio ponderado, en el que los valores posibles se ponderan mediante sus probabilidades correspondientes de ocurrencia, se calcula con la formula:

Donde P(X) es la probabilidad que puede tomar la variable aleatoria X.

Page 26: EST. DESCRITIVA

* La desviación estándar de una distribución de probabilidad.

Toda distribución de probabilidad es generada por una variable aleatoria x, la que puede ser de dos tipos:

1. Variable aleatoria discreta (x). Se le denomina variable porque puede tomar diferentes valores, aleatoria, porque el valor tomado es totalmente al azar y discreta porque solo puede tomar valores enteros y un número finito de ellos.

Ejemplos:

x Variable que nos define el número de burbujas por envase de vidrio que son generadas en un proceso dado.

x0, 1, 2, 3, 4, 5, etc, etc. burbujas por envase

xVariable que nos define el número de productos defectuosos en un lote de 25 productos.

x0, 1, 2, 3,....,25 productos defectuosos en el lote

xVariable que nos define el número de alumnos aprobados en la materia de probabilidad en un grupo de 40 alumnos.

x0, 1, 2, 3, 4, 5,....,40 alumnos aprobados en probabilidad

Con los ejemplos anteriores nos damos cuenta claramente que los valores de la variable x siempre serán enteros, nunca fraccionarios.

2. Variable aleatoria continua (x). Se le denomina variable porque puede tomar diferentes valores, aleatoria, porque los valores que toma son totalmente al azar y continua porque puede tomar tanto valores enteros como fraccionarios y un número infinito de ellos.

3.2.1 La distribuciones continúas.

Es aquella que puede asumir cualquier valor en un intervalo específico; significa entonces que entre cualquiera de dos valores que puede tomar la V. A. continua, existe un número infinito de valores.

Page 27: EST. DESCRITIVA

Naturaleza de la distribución de una variable continua

Consideremos la representación gráfica del histograma polígono de frecuencias de una muestra de tamaño n. Qué sucede cuando aumentamos el tamaño de la muestra (n), es decir cuando el número de valores de la V. A. continua es muy grande, con:

el número de intervalos de clase (K)?

la amplitud () de los intervalos de clase??

Consecuencias:

El polígono de frecuencias se aproxima a una curva suave que sirve para representar gráficamente las distribuciones de probabilidad de una V. A. continua.

El área total bajo la curva es igual a 1 y, es equivalente al área bajo el histograma.

La frecuencia relativa (probabilidad para n ! ") de ocurrencia para los valores entre dos puntos específicos del eje de las x, es igual área total delimitada por la curva, el eje de las abcisas y las rectas perpendiculares levantadas sobre ambos puntos.

La probabilidad de cualquier valor específico de la variable es cero, por lo que sólo podremos hablar de probabilidad dentro de intervalos.

El cálculo de probabilidad se basa en el cálculo integral del área bajo la curva entre dos puntos cualesquiera del eje de abcisas, generándose la función de densidad de probabilidad.

* La distribución normal.

La distribución normal fue reconocida por primera vez por el francés Abraham de Moivre (1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más profundos y formuló la ecuación de la curva; de ahí que también se la conozca, más comúnmente, como la "campana de Gauss". La distribución de una variable normal está completamente determinada por dos parámetros, su media y su desviación estándar, denotadas generalmente por y . Con esta notación, la densidad de la normal viene dada por la ecuación:

Ecuación 1: | |

que determina la curva en forma de campana que tan bien conocemos (Figura 2). Así, se dice que una característica sigue una distribución normal de media y varianza , y se denota como , si su función de densidad viene dada por la Ecuación 1.

Al igual que ocurría con un histograma, en el que el área de cada rectángulo es proporcional al número de datos en el rango de valores correspondiente si, tal y como se muestra en la Figura 2, en el eje horizontal se levantan perpendiculares en dos puntos a y b, el área bajo la curva

Page 28: EST. DESCRITIVA

delimitada por esas líneas indica la probabilidad de que la variable de interés, X, tome un valor cualquiera en ese intervalo. Puesto que la curva alcanza su mayor altura en torno a la media, mientras que sus "ramas" se extienden asintóticamente hacia los ejes, cuando una variable siga una distribución normal, será mucho más probable observar un dato cercano al valor medio que uno que se encuentre muy alejado de éste.

* Áreas bajo la curva normal.

El estudio detenido que acabamos de realizar, desde el punto de vista del análisis matemático, de las distribuciones normales tipificadas y sin tipificar, nos permitirá aprovechar los conocimientos que la ciencia estadística proporciona acerca de dicha distribución teórica de frecuencias para obtener ciertas conclusiones de tipo cuantitativo, de gran aplicación en el análisis de la uniformidad de las variables psicológicas que tendremos ocasión de llevar a cabo, por ejemplo, en el Anexo 2.

Y así, se tendrá lo siguiente:

Del mismo modo, en la página siguiente pueden verse expresadas, de manera conjunta las diversas áreas existentes bajo una curva de distribución normal tipificada o no en función de las unidades de desviación típica o “standard” que se adicionen a la media aritmética por el eje de abscisas. Esto es:

En la siguiente tabla se presentan las áreas: (multiplicadas por 1.000) bajo la curva de distribución normal. A saber:

De aquí, pueden resolverse las siguientes cuestiones:

a) Área total bajo la curva normal y probabilidad de que la variable psicológica tome un valor cualquiera de su recorrido o campo de variación (de - ).a +

La simple observación de la tabla anterior nos dice que el área bajo la curva normal, desde 0 a 3'9, toma el valor:

0'5499'95 / 1.000 = 0'49995

Por la simetría de la curva de Gauss, ésta es la mitad del área total, que vale la unidad. Por otra parte, la probabilidad de que la variable psicológica en estudio x tome cualquier valor es la certeza absoluta; por ello, su valor es la unidad, en virtud del axioma o postulado que reza que “la probabilidad de un suceso cierto vale 1” (probabilidad total).

b) Área bajo la curva determinada por las ordenadas en los extremos de los intervalos (1, 2) y (-1, -2). ¿Cuál es el valor de la probabilidad de que la variable psicológica x tome un valor comprendido entre 1 y 2? ¿Y entre -2 y -1?

Según puede verse en la tabla anterior, las áreas bajo la curva comprendidas entre el eje de ordenadas (x=0) y las ordenadas x=2 y x=1, son, respectivamente:

Page 29: EST. DESCRITIVA

477 / 1.000 = 0'477 y 341 / 1.000 = 0'341 ;

entonces, el área pedida será la diferencia:

que es también la probabilidad de que la variable psicológica x tome un valor comprendido entre 1 y 2, por la propiedad aditiva del intervalo de integración en las integrales definidas.

El área comprendida entre las ordenadas x = -2 y x = -1 es la misma anterior y la probabilidad de que x tome un valor del intervalo (-2, -1) es también igual, en virtud de la simetría de la figura, a:

y P(-2 < x < -1) = 0'136 .

c) Intervalo (-a, a) cuyas ordenadas extremas delimiten el 50 por 100 del área total existente bajo la curva normal y su expresión probabilística.

Hemos de encontrar ahora un valor x = a, tal que delimite hasta el eje de ordenadas el 25 por 100 del área total (por simetría, el intervalo [-a, 0] delimitará el otro 25 por 100).

Según la tabla, este valor comprendido entre x = 0'6 y x = 0'7, y las áreas respectivas, a saber, 0'226 y 0'258, incluyen la de valor 0'250 pedido.

De la proporción:

obtendremos el valor: a = 0'68, con lo que:

y P(-0'68 < x < 0'68) = 0'50 .

d) Valor de a tal que las colas (áreas a la izquierda de -a y a la derecha de +a) que existen bajo la curva normal sumen el 5 por 100 del área total.

El área de cada cola debe medir el 2'5 por 100 del área total; entonces el valor de a ha de satisfacer la condición:

Según la tabla, este valor de a está comprendido entre 1'9 y 2'0 y se puede estimar según la proporción:

En la práctica, se suelen tomar los valores de -2 y 2 para definir la cola del 5 por 100, o lo que es igual:

P(-2 < x < 2) = 0'95 .

Habida cuenta de su interés para la realización de este tipo de cálculos dada la dificultad de resolver integrales definidas de funciones de densidad normales como las que venimos estudiando en el presente capítulo de nuestro libro, a continuación se presenta una tabla que ofrece las áreas existentes bajo la curva normal tipificada, limitadas por la ordenada z = 0 y cualquier valor positivo de z. A partir de esta misma tabla, se pueden encontrar las áreas comprendidas entre dos ordenadas cualesquiera, utilizando la simetría de la curva de Gauss en relación al eje de ordenadas

Page 30: EST. DESCRITIVA

z = 0. La tabla siguiente se refiere a las áreas hasta z. Por último, seexistentes bajo la curva normal tipificada, desde - incluye también una tabla con los valores de las ordenadas (y) de la curva normal tipificada para los diferentes valores de z.

3.2.2. Aplicaciones de la distribución normal.

Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.

Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana.

En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo valor de p y valores de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una curva en "forma de campana".

En resumen, la importancia de la distribución normal se debe principalmente a que hay muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal.

Caracteres morfológicos de individuos (personas, animales, plantas,…) de una especie, p. ejm. Tallas, pesos, envergaduras, diámetros, perímetros…

Caracteres fisiológicos, por ejemplo; efecto de una misma dosis de un fármaco, o de una misma cantidad de abono.

Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo grupo de individuos, puntuaciones de examen.

Caracteres psicológicos, por ejemplo: cociente intelectual, grado de adaptación a un medio……

Errores cometidos al medir ciertas magnitudes.

Valores estadísticos maestrales, por ejemplo: la media.

Otras distribuciones como la binomial o la de Poisson son aproximaciones normales