67
2014 XXIX Foro Internacional de Estadística, Puebla, Puebla. Sesión de carteles

Sesión de carteles

  • Upload
    ngokien

  • View
    218

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Sesión de carteles

2014

XXIX Foro Internacional de Estadística,

Puebla, Puebla.

Sesión de carteles

Page 2: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Análisis de Confiabilidad

Page 3: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Prueba de Vida Acelerada para Determinar la Estabilidad Operacional de un Controlador PID de

Temperatura

Ponente: Arturo David García Higareda1

Co-autor: Gilberto Alejandro Herrejón Pintor2

1CIMAT,

2Tecnológico de Zamora, Departamento de Ingeniería Electrónica

Resumen

El presente trabajo muestra la conducción de la prueba de vida acelerada con el modelo de riesgo

proporcional aplicada a un dispositivo de control PID (proporcional, integral y diferencial) construido y

desarrollado como parte de la cátedra de las asignaturas de ingeniería industrial a nivel experimental, con

la finalidad de evaluar el nivel de desempeño del prototipo en actividades de control. El control de los

procesos y las operaciones es una de las aplicaciones más importante en el sector industrial. Esto suele

referirse a un sistema automático por retroalimentación con una aplicación de tal importancia que la

mayor parte de los estudiantes a nivel licenciatura incluye en su retícula algún curso o tópico relacionado

con el tema. Un requerimiento importante para un sistema de control es que debe ser estable. Esto

significa que si se aplica una entrada de magnitud finita, entonces la salida debería también ser finita y de

ningún modo infinita, es decir incrementarse dentro de un límite. Por tal motivo, un dispositivo de control

presenta fallas o no es confiable cuando su estabilidad no se cumple y los límites o set points que se

especifican no se mantienen en el intervalo deseado por el usuario. El modelo de prueba de vida acelerada

desarrollado con el fin de estimar los efectos de las covariables que influyen en los tiempos hasta el fallo

de un sistema es el de riesgos proporcionales o proportional hazards model (PH). El modelo ha sido

ampliamente utilizado en el campo de la biomedicina y recientemente, ha habido un creciente interés en

su aplicación en la ingeniería de confiabilidad. En su forma original, el modelo es no paramétrico, es

decir, no se hacen suposiciones acerca de la naturaleza o la forma de la distribución de fallos subyacentes.

En ese sentido, la formulación original es no-paramétrica, sin embargo como una forma paramétrica del

modelo se considera la utilización de una distribución de Weibull a la vida del producto y se procedió con

el análisis de los datos con dos variables: temperatura y voltaje. El controlador PID analógico propuesto

permite a los estudiantes observar de manera independiente la señal producida por cada una de las etapas

del controlador, lo que complementa las explicaciones teóricas. La etapa de potencia se asemeja a las

implementadas en controladores comerciales, lo cual es una aportación adicional del sistema. El proceso

de caracterización del sistema permite comparar el modelo del sistema con los resultados experimentales.

El sistema diseñado cumple el objetivo de acercar al estudiante a todas las etapas del desarrollo de un

sistema de control: definición del problema, modelado, sintonización, implementación y comprobación

experimental. El modelo de vida acelerada de riesgos proporcionales permitió modelar el mecanismo de

control y cuantificar cómo se ve afectado por la temperatura y el voltaje de esta forma se puede continuar

con la fase de pruebas piloto. La predicción de fallas permitió caracterizar el mecanismo de control en

términos de la confiabilidad exhibida a la luz de la fase de prototipo del proyecto.

Page 4: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Análisis de Datos

Page 5: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Análisis Correlacional y Uso de la Distribución t de Student, en el Análisis de Resolución de

Problemas de Matemáticas Básicas en el Área de Administración y Contabilidad, para el Mejor

Aprovechamiento Escolar.

Ponente: Francisca García Chablé1

Coautores: María Concepción Zarracino Mendoza1 y Norma Edith Alamilla López

2

1Instituto Tecnológico Superior de Macuspana, Tabasco.

2Universidad Politécnica del Centro.

Resumen

A nivel nacional e internacional se ha medido el aprovechamiento escolar en el sistema educativo y los

resultados emitidos por las instituciones evaluadoras coinciden con los resultados emitidos por el Instituto

Nacional de Estadística y Geografía (INEGI) en que la materia de mayor reprobación es matemáticas.

Ante las situación descrita se realizó este trabajo de investigación con el objetivo de determinar que la

resolución de problemas enfocados a la administración y contabilidad tienen influencia en el

aprovechamiento escolar en los alumnos que aprenden aritmética, con la hipótesis “ los alumnos de

primer semestre de la carrera de administración que estudian aritmética, enfocada a la resolución de

problemas administrativos y contables, obtienen un mayor aprovechamiento escolar comparados con los

que no lo estudian con ese enfoque". Se realizó un análisis correlacional y la prueba t de Student para

probar la hipótesis planteada. Los resultados obtenidos demostraron que la resolución de problemas

enfocados a la administración y contabilidad influye incrementando el aprovechamiento escolar.

Page 6: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Análisis de Supervivencia y Puntos de Cambio

Ponente: Guadalupe Yoanna Arenas Martínez1

Co-autores: Franciasco Solano Tajonar1 y Hortensia Reyes Cervantes

1

1BUAP, Facultad de Ciencias Físico Matemáticas

Resumen

En este trabajo se da una aplicación de los puntos de cambio en el área del análisis de supervivencia, el

objetivo se centra en estimar los puntos de cambio que tiene la función de riesgo, dichos puntos son

obtenidos mediante el algoritmo Simplex de Nelder-Mead y una prueba de tipo Wald. El

presente trabajo esta ubicado en la línea del análisis de supervivencia, la cual hace uso de modelos

paramétricos para el estudio de fenómenos relacionados con tiempos de vida o tiempos de falla, algunos

son el modelos que se usan en este tipo de análisis son el Exponencial, Weibull, Log-normal, Gamma,

etc. En este caso se supondrá que la función de riesgo que se analiza, se ajusta a una distribución

Exponencial por tramos. En los últimos años el análisis de supervivencia ha desarrollado tópicos

importantes en muchas áreas, especialmente en biología, medicina, ingeniería, epidemiología, etc., con

aplicaciones que van desde estudiar el desarrollo de alguna enfermedad, tiempos de vida en individuos

con enfermedades terminales, falla en maquinaria, durabilidad de electrodomésticos, hasta estudiar la

resistencia de materiales al calor, etc. son solo algunas de las aplicaciones en donde el papel del análisis

de supervivencia y de confiabilidad es importante.

Page 7: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Curvas ROC Y Regresión Logística Conjuntas en el Análisis de Saturación Venosa Central como

Predictor de Severidad para Pancreatitis Aguda

Ponente: Karla Gabriela Ortega Sánchez1

Co-autores: Araceli Pineda Moreno1 y Sergio Morales Polanco

2

1Universidad Veracruzana, Facultad de Estadística e Informática, 2Hospital Adolfo López Mateos del ISSSTE, Gastroenterología

Resumen

Con el fin de dar respuesta a la hipótesis central, que consiste en saber si la saturación venosa central

actúa como predictor de severidad en pacientes que fueron diagnosticados con pancreatitis; como analista

de los datos obtenidos por el medico encargado se utilizó regresión logística para la estimación de

relaciones entre variables que determinan si el paciente presenta pancreatitis severa o leve. La utilización

de curvas ROC (Característica Operativa del Receptor) complementa el análisis y nos proporciona de

manera gráfica la evaluación del rendimiento de los clasificadores, además del desarrollo de un

diagnóstico que permite discriminar entre dos grupos y obtener un punto de corte o criterio que clasifica a

los individuos de interés; así como, evaluar dicha clasificación. Además de indicarnos la probabilidad de

obtener falsos negativos o falsos positivos; es decir, dar un diagnóstico equivocado al correspondiente.

Page 8: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Distribución Normal y Gamma Aplicadas al Análisis de Datos de la Comprensión Lectora

Ponente: Elsa Edith Rivera Rosales1

Coautor: José Jesús Israel Ruiz Benitez1

1Universidad Autónoma De Coahuila, Facultad de Ciencias Físico Matemáticas

Resumen

El presente trabajo aborda un tema actual del currículo universitario pues la probabilidad está inmersa en

la mayoría de los cursos de nivel superior, ya que es tan común hablar de probabilidad como saber si hoy

llegaré temprano o no a la escuela. El trabajo se realiza ante la necesidad de explorar el aprendizaje que

los alumnos del curso de Estadística 1 de la Licenciatura en Matemáticas Aplicadas de la Universidad

Autónoma de Coahuila presentan ante el uso de diversas distribuciones, primordialmente la normal; se

pretende aplicar las distribuciones a un contexto real considerando que el estudio de las distribuciones

continuas tienen múltiples aplicaciones en campos como la industria, medicina, física, procesos de

producción, entre otros. El trabajo surge por buscar ir más allá de la distribución normal, apoyándose

además en la distribución gamma, por lo que se hace uso de técnicas de cálculo avanzado para hacer la

conexión entre las distribuciones, para lo cual es indispensable tener un buen dominio de los métodos

estadísticos y cálculos avanzados para lograr hacer este puente entre distribuciones y lograr aplicarlas al

análisis de datos de la comprensión lectora. Sin duda la probabilidad es un tema que no puede escapar,

pues con las distribuciones de probabilidad se hace un estudio más arduo de la probabilidad; para poder

llegar a dichas distribuciones es importante conocer a fondo el cálculo de probabilidades pues es la

materia prima de todas las distribuciones sin importar que sean discretas o continuas. Históricamente la

probabilidad ha estado presente en muchos fenómenos que no tienen un patrón determinístico sino

aleatorio es así que la matemática y en particular la probabilidad juegan un papel trascendental.

Page 9: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Evaluación de la calidad de tres puntos de explotación de agregados pétreos para la fabricación de

concretos hidráulicos

Ponente: Alfredo Cuevas Sandoval1,a

Co-autores: Flaviano Godinez Jaimes1,b

y Raziel Barragan Trinidad1,a

1Universidad Autónoma De Guerrero

aMateriales de Construcción, UAI,

bMatemáticas

Resumen

El concreto hidráulico es el material de construcción más utilizado en el mundo por su versatilidad,

durabilidad y economía. Se compone básicamente de pasta (agua y cemento) y agregados (arena y grava),

estos últimos por tener propiedades físicas y mecánicas condicionadas por la fuente de procedencia le

imprimen al concreto características particulares específicamente en la resistencia a compresión; la cual

es la medida más común para evaluar su calidad. Se determinó la calidad de tres bancos de agregados y su

efecto en la resistencia a compresión del concreto controlando otros factores en laboratorio. Los

resultados preliminares han permitido llevar a cabo recomendaciones más efectivas a los usuarios,

mejorando la calidad de las obras construidas, y una reducción importante en los costos.

Page 10: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Indicador de Prioridad BID-UV de Problemáticas Sociales que Impactan la Calidad de Vida

Ciudadana: Una Comparación entre Ciudades

Ponente: Consuelo Amador Valencia

1

Co-autor: Claudio Rafael Castro López1

1Universidad Veracruzana, Centro de Estudios de Opinión Y Análisis

Resumen

El rápido proceso de urbanización en muchas ciudades de América Latina y el Caribe (ALC) durante las

últimas décadas ha traído numerosos retos para el desarrollo de la región: a) crecimiento desordenado y

patrones de uso de suelo inadecuados; b) proporción creciente de la población viviendo en condiciones de

pobreza; c) limitación de recursos y capacidades institucionales; y d) crecientes problemas ambientales y

sociales, y aumento de la vulnerabilidad de la población. Los desafíos de la urbanización acelerada

adquieren mayor relevancia en ciudades de tamaño intermedio, donde la población urbana tiende a

asentarse cada vez más. El tratamiento de estos retos exigió el lanzamiento de una nueva iniciativa del

Banco Interamericano de Desarrollo (BID), la Iniciativa Ciudades Emergentes y Sostenibles (ICES),

orientada a contribuir al logro de la sostenibilidad urbana, ambiental y fiscal de ciudades con una

población intermedia en rápido crecimiento. La metodología CES de la iniciativa, procura un desarrollo

integral de las ciudades, donde se ofrezca un alto nivel de calidad de vida de los habitantes, se generen

menores impactos ambientales, y se tenga la capacidad fiscal y administrativa para hacer frente a las

responsabilidades de la gestión urbana. Por todo esto, se realizó un estudio de opinión a los habitantes de

la Zona Metropolitana Xalapa y el Municipio de Campeche por parte del Centro de Estudios de Opinión y

Análisis de la Universidad Veracruzana, para conocer la jerarquización y comparación relativa entre las

distintas problemáticas que se evalúan en la metodología CES. En este trabajo Se presenta un indicador

agregado de priorización ciudadana, construido a partir de percepciones ciudadanas, utilizando métodos

multivariantes de clases latentes y segmentación, para evidenciar su robustez.

Page 11: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Análisis Multivariado

Page 12: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Análisis de Consumo de Drogas entre Universitarios: Comparativo Regional

Ponente: Paola Estefany Fernández Cruz1

Co-autor: Claudio Rafael Castro López1

1Universidad Veracruzana, Centro de estudios de opinión y análisis

Resumen

Entre los jóvenes, el consumo de drogas (legales e ilegales) no solo se ha ido incrementando, sino que, el

primer contacto que se tiene con estas es a una edad cada vez más temprana, este inicio prematuro

incrementa la posibilidad de crear una futura adicción hacia este tipo de sustancias, ocasionando, además

de problemas de salud para quien las consume, problemas sociales, daños a terceros y problemas

económicos. Son muchos los factores que influyen en la predilección de una droga, uno de estos, es la

ubicación geográfica en la que se habita, ya que la cultura, creencias e incluso, la altitud a la que se está,

influyen en el tipo y cantidad de droga que se consume. En el contexto de la Encuesta PERCIBETE en la

Universidad Veracruzana, se presentan análisis estadísticos que permiten obtener comportamientos

regionales de consumo y perfiles de estudiantes en los consumos de drogas legales e ilegales. Se utilizan

diversas técnicas multivariantes con lo que se ha podido retratar las similitudes en cuanto a los hábitos de

consumo entre los estudiantes universitarios.

Page 13: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Análisis Exploratorio Multivariante para Identificar el uso de las Metas de Aprendizaje de la

Estadística en Estudiantes de la Universidad Veracruzana

Ponente: Cecilia Morales Flores1

Co-autores: Cecilia Cruz López1 y Mario Miguel Ojeda Ramírez

1

1Universidad Veracruzana, Facultad de Estadística e Informática

Resumen

En el presente estudio se reporta un estudio exploratorio sobre las Metas de Aprendizaje de la Estadística

en estudiantes que han llevado al menos un curso introductorio de estadística en la Universidad

Veracruzana. A partir de un cuestionario aplicado a 258 estudiantes en las cinco regiones de la institución,

se generó una base de datos y a partir de ella se llevaron a cabo análisis descriptivos y de asociación

multivariante, entre ellos correspondencia múltiple y correlación canónica, el tipo de datos que se tienen

son categóricos, esto se realizó con el propósito de identificar si existe alguna relación entre el uso de las

Metas de Aprendizaje de la Estadística y la carrera que estudian.

Page 14: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Caracterización Estadística de lo que los Adolescentes Quieren Conocer sobre Educación y Salud

Sexual

Ponente: Linette Giovanna Zapata Morales1

Co-autor: María Luisa Hernández Maldonado1

1Universidad Veracruzana, CyTES

Resumen

El objetivo en este trabajo es presentar lo que los estudiantes de nivel medio superior del estado de

Veracruz quieren conocer sobre educación y salud sexual. Para el análisis se utiliza una base de datos de

tipo textual que contiene 4,064 preguntas recolectadas del 2012 al 2014, relacionadas con los temas:

relaciones sexuales, embarazos no planeados, métodos anticonceptivos, infecciones de transmisión sexual

y medidas de autocuidado. Estos se encuentran dentro del programa “Educación y Salud Sexual”

implementado por el Consejo Estatal de Población de la SEGOB, orientando a los adolescentes a través

de charlas informativas, enfocándose al interés que manifiestan ellos en forma de preguntas. Se realiza un

análisis estadístico de textos: palabras característica, respuestas modales y análisis de correspondencia

múltiple. Se observan diferencias en el interés de los adolescentes sobre los diferentes temas.

Page 15: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

El Análisis de Correlación Canónica Dispersa (SCCA): Aplicación en Procesos de Recubrimiento

Automotriz.

Ponente: Mercedes Patricia Flores Ibarra1

Co-autor: Mario Cantú Sifuentes2

1PICYT, COMIMSA,

2COMIMSA, Gerencia de Desarrollo Humano

Resumen

En el presente trabajo de investigación se emplea el análisis de correlación canónica dispersa (SCCA, por

sus siglas en inglés) para establecer una relación entre variables y parámetros en un proceso de

recubrimiento automotriz. Con esto, se estima el efecto que tiene una función de los parámetros, con las

variables de salida del proceso. Además, se establece la región en la que debe tomar valores esta función

para garantizar, estadísticamente, que la variable de calidad del proceso tome valores en los límites

especificados. El caso de estudio se desarrolla en un proceso típico de recubrimiento automotriz, que

consiste en una secuencia de etapas, cada una asociada a un conjunto de parámetros de proceso, mediante

los cuales es posible controlar los valores de las variables de salida. Las variables de salida de cada etapa,

son las variables de entrada de la siguiente. El principal interés es lograr el control del valor de la

apariencia final del producto (característica de calidad de recubrimientos). Con esto se pretende que un

índice de apariencia tome valores dentro de límites especificados por el cliente.

Page 16: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Generación de Muestras Aleatorias con Censura Aleatoria

Ponente: Pedro Enrique Monjardin1

Coautor: Raúl Enrique Villa Diharce2

1Universidad Autónoma de Sinaloa, FCFM,

2CIMAT, Área de Probabilidad y Estadística

Resumen

En confiabilidad y análisis de supervivencia los datos que se analizan son tiempos a la falla. Un rasgo

importante en éstos es la censura, que se presenta cuando no se observa el tiempo de falla y solo se

conoce que éste ocurrió en un intervalo de tiempo o después de algún tiempo determinado. Cuando se

consideran varios modos de falla en un individuo, los datos son multivariados con un cierto patrón de

dependencia entre ellos. Para estudiar las propiedades de los estimadores o de algunas características de

interés, es necesario generar tiempos de vida, univariados o multivariados con algún patrón de censura.

En este trabajo proponemos un procedimiento para generar datos con censura aleatoria. La principal

ventaja de esta propuesta es que no es necesario modificar la distribución de censura cuando se desea

cambiar el nivel de censura en los datos o las distribuciones marginales.

Page 17: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Proceso Metodológico y Aplicación del Análisis Factorial Múltiple para Tablas de Contingencia

Ponente: Herminia Domínguez Palmeros1

Co-autor: María Luisa Hernández Maldonado1

1Universidad Veracruzana, Facultad de Estadística e Informática

Resumen

Este trabajo surge al considerar la carencia de procedimientos computarizados para aplicar el método

Análisis Factorial Múltiple para Tablas de Contingencia (AFMTC), presentado por Bècue y Pagés (1999,

2004). Su valiosa aportación consiste en la representación simultanea de varias estructuras parciales y una

estructura global en un mismo mapa perceptual, centradas todas en el origen, para facilitar su

comparación. El objetivo consiste en codificar en lenguaje R dos algoritmos, uno para la transformación

de datos que permita la aplicación de AFMTC a través del Análisis de Componentes Principales (ACP)

no normado y otro procedimiento que transforme las coordenadas resultantes del ACP para graficarlas en

un mapa perceptual. Se presenta un ejemplo que permite mostrar el procedimiento y los resultados de su

aplicación.

Page 18: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Un estudio Comparativo de Cartas de Control para el Monitoreo Estadístico de Datos

Autocorrelacionados

José Rodolfo Olmos Zepeda1

Co-autores: Mario Cantú Sifuentes1 y Julia Aurora Montano Rivas

2

1UAAAN, Departamento de Estadística,

2UV, Facultad de Estadística e Informática

Resumen

En este trabajo se presenta una comparación del desempeño de dos cartas de monitoreo para procesos

multivariados serialmente correlacionados. Una, no paramétrica, basada en el concepto de profundidad de

datos, la otra es una generalización, para datos autocorrelacionados, de la carta de control T2 de Hotelling.

La comparacion se hace en términos de la Longitud Media de Corrida (ARL). Finalmente se realiza un

estudio de caso.

Page 19: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Diseño de Experimentos

Page 20: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Diseño y Análisis de un Experimento de Transmisión de Microondas a Través de un Material

Granulado para Caracterizar su Contenido de Humedad.

Ponente: José Alejandro Rosendo Robles1

Co-autores: Alberto Arturo Herrera Becerra2, y Oliver Cortés Pérez

2

1ZAMETXIC, Análisis y Modelación,

2UNAM, CCADET

Resumen

La acuametría en una de sus definiciones es la medición del contenido de humedad en material sólido y

líquido, específicamente nuestra motivación va en el sentido de medir por medio de microondas la

cantidad de humedad en material granulado. En la industria hay procedimientos no destructivos para la

medición de agua en material granular, para aquellos con base en microondas el principio básico consiste

en que las microondas penetran en el material granulado humedecido, provocando la rotación de las

moléculas de agua libre. Como resultado la velocidad de las microondas se ralentiza (desplazamiento de

fase) y su intensidad se debilita (atenuación). Estos efectos se miden como una indicación del contenido

de humedad. La propuesta de este trabajo va en el sentido de desarrollar un experimento que tome la

atenuación como variable dependiente de la humedad. En las mediciones para la humedad se calibró el

analizador de redes y en todos los casos se restó la línea base que se trata de la medición de la atenuación

producida por el contenedor de acrílico vació pero lleno de aire ambiente, para que de esta manera se

midiera solo la atenuación producida por la mezcla correspondiente de agua y galena. Se planteó un

diseño experimental con tres factores, la humedad con siete niveles, la frecuencia con 501 niveles de los

cuales de manera aleatoria se tomaron algunas y 4 rotaciones que al ser realizadas sobre la misma muestra

de galena humedecida se puede considerar como un experimento de dos factores con mediciones

repetidas y sin replicación ya que las mediciones repetidas, es decir las rotaciones se realizaron solo sobre

una mezcla de galena humedecida a un cierto nivel, así se llega a un modelo de efectos mixto de una sola

muestra de mediciones repetidas.

Page 21: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Investigación de la plaga del gusano cogollero en el cultivo de maíz mediante la implementación de

una encuesta y un diseño de parcelas divididas

Ponente: Ruth Rodríguez Ramírez

Co-autor: Julia Aurora Montano Rivas

Resumen

El maíz (Zea mays) es un grano dorado nativo de América, pertenece a la familia de gramíneas, su planta

es robusta, de fácil desarrollo y de producción anual. Numerosas investigaciones se han desarrollado

sobre el maíz, económicamente hablando los tipos de maíz más cultivados para grano, forraje y ensilaje

son tres: el dentado, duro y harinoso. Asimismo, se han considerado tipos de maíz menos relevantes en

comparación con los anteriores, pero con importante valor agregado, estos son: maíz reventón, dulce y

ceroso. En este trabajo se propone un diseño experimental para encontrar la combinación de fertilizante e

insecticida con el que se obtiene una mayor producción de maíz. El presente trabajo se llevó a cabo en la

localidad de Los Ángeles, Matías Romero A., Oaxaca, de agosto del año 2013 a Junio del 2014. Se

dividió en dos etapas, la primera consistió en el diseño y aplicación del cuestionario para captar las

opiniones sobre la producción del maíz; dicha encuesta consta de 37 preguntas que se dividieron en cuatro

secciones, las cuales fueron: información general del agricultor encuestado, información sobre

fertilizantes, insecticidas y asesoramiento para sembrar. Como segunda etapa se realizó un experimento

en parcelas divididas en bloques, en terreno perteneciente a la localidad y ubicado cerca del rio Jaltepec.

El experimento a desarrollar obedece algunas interrogantes derivadas de la aplicación de la encuesta.

Page 22: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Sequential Bayesian Analysis of Definitive Screening Experiments

Víctor Aguirre Torres1 y Román de la Vara Salazar

1ITAM, Estadística

Abstract

Sequential Bayesian Analysis of Definitive Screening Experiments Definitive Screening Experiments,

Jones and Nachtsheim (2011), are experimental plans with three levels that allow the estimation of main

effects that are completely independent of two factor interactions, two factor interactions are not

completely confounded with other two factor interactions, and quadratic effects are estimable. The

number of experimental runs is just twice plus one the number of factors of interest. In the literature,

forward stepwise regression, Hamada and Wu (1992), has been used to analyze this kind of experiments.

In this work we show the sequential use of two tools coming from the Bayesian approach to analyze this

kind of experiments, namely: posterior distribution of effects, and posterior probabilities that effects are

active. We show that by combining all three approaches leads to a much better identification of active

effects in the experiment. References Hamada, M., and C. Wu (1992) “Analyzing Designed Experiments

with Complex Aliasing”. Journal of Quality Technology 24, pp. 30-37. Jones, B., and C. Nachtsheim

(2011) “A Class of Three-Level Designs for Definitive Screening in the Presence of Second Order

Effects”. Journal of Quality Technology 43, pp. 1-15.

Page 23: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Significancia de los Métodos ASME B31

Ponente: Génesis Peredo Rivera1

Coautores: Lady Yohanna Beltrán López1 y Edgar Ávila Hernández

1

1Centro de Innovación en Integridad de Infraestructura y Ductos, Corrosión Interior

Resumen

La integridad de ductos y determinación para su funcionalidad, se ha convertido en un tema muy

importante para establecer criterios uniformes y tomar decisiones para el mantenimiento de las tuberías;

dentro de la norma ASME B31, Apéndice G, se describen dos métodos para la determinación de la

presión permisible del ducto, enfocado en la necesidad de generar criterios estándar para reparar o

reemplazar tuberías que presentan defectos, este trabajo realiza una comparación de dos métodos para el

cálculo de la presión permisible en función a la pérdida de espesor del ducto. En una de las “líneas aguas

arriba”, situada en el sureste de México, bajo la técnica de MFL se hallaron tres defectos de desgaste de

tubería, de los cuales uno de ellos ubicado a las 11:46 hrs. no cumplió con el “factor de folias” para el

soporte de la concentración de las tensiones en los extremos de la falla recomendado por la ASME B31,

se realizó el cálculo de las presiones permisibles para este ducto por medio de los métodos ASME B31-G

y RSTRENG-1, soportando al cálculo se realizó un análisis de varianza (ANOVA) con un 95% de

confiabilidad probando la hipótesis de diferencias entre los métodos bajo una distribución F-Fisher, para

un ducto con características específicas, obteniendo un intervalo de confianza para la media de la presión

permisible del ducto.

Page 24: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Estadística Bayesiana

Page 25: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Aplicación de Modelos Bayesianos para el Análisis de Conteos de Linfocitos T CD4+ de Pacientes con

VIH en México

Ponente: Rodrigo Hernández Hernández1

Co-autor: Luis E. Nieto-Barajas1

1ITAM, Estadística

Resumen

El conteo de linfocitos cT CD4+ es el indicador más importante de la progresión de la infección de VIH

hacia el SIDA y un reflejo del estado inmunológico del paciente, por ello es de interés modelar el

comportamiento de estas mediciones y poder hacer predicciones. El objetivo fue la aplicación de dos

modelos de regresión bayesiana al conteo de CD4+ de pacientes con VIH para: 1. Determinar el nivel

medio modelado de CD4+ de cada individuo durante un periodo determinado y 2. Proyectar a futuro su

conteo de CD4+. Se incluyeron 4,578 pacientes del Laboratorio de Diagnóstico Virológico del CIENI con

seguimiento de enero 2008 a diciembre 2011 sin embargo sólo se utilizaron datos de pacientes que tenían

dos o más mediciones. Dado que el número de mediciones varía mucho entre pacientes, se utilizaron

modelos jerárquicos para determinar el nivel medio modelado de CD4+ de cada individuo durante el

periodo de estudio a partir de ciertas variables explicativas. Por otro lado, para las proyecciones se

emplearon modelos con splines que ajustan curvas suavizadas a los CD4+ en función del tiempo. Para

ambos modelos se realizaron 10,000 iteraciones con las cuales se alcanzó la convergencia en ambos

modelos. Finalmente, con el modelo jerárquico ajustado a los datos se obtuvieron niveles medios de

CD4+ modelados con la información completa de la cohorte y las variables explicativas, permitiendo una

clasificación más confiable de los pacientes que mantienen niveles de CD4+ bajos, medios y altos. Con el

modelo de splines se obtuvieron estimaciones de los CD4+ a lo largo del periodo de estudio e incluso

hasta un año después.

Page 26: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Enseñanza y Divulgación de la Estadística

Page 27: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Creación de un Índice de Uso de Metas de Aprendizaje de la Estadística en Profesores de la

Universidad Veracruzana

Ponente: Martha Yanet Domínguez Cortina1

Co-autores: Cecilia Cruz López1 y Mario Miguel Ojeda Ramírez

1

1Universidad Veracruzana, Facultad de Estadística e Informática

Resumen

En este trabajo se creó un índice de qué tanto utilizan las Metas de Aprendizaje de la Estadística los

profesores de la Universidad Veracruzana en cursos de servicio. La recolección de la información se llevó

a cabo a través de un cuestionario que contiene las ocho metas de aprendizaje con respuestas tipo Likert.

Se realizó un análisis exploratorio multivariante y por medio de la Técnica de Componentes Principales

fue creado el índice del uso de las Metas llamado IMA.

Page 28: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

El Enfoque por Competencias para Enseñanza de la Estadística Caso de las Carreras de Ingeniería

Ponente: Estela Domínguez Hernández1

Coautores: José Luis Hernández González1 y Enrique Acoltzi Bautista

1

1Instituto Tecnológico de Apizaco, Ciencias Básicas

Resumen

Actualmente la enseñanza en los diferentes niveles de educación como son medio superior y superior han

reorientado a un enfoque en competencias. En el caso del sistema nacional de institutos tecnológicos

pertenecientes a la DGEST-SEP, se han desarrollado planes de estudios en competencias para los

programas 2009-2010. Sobre este enfoque Vázquez y Caton argumentan que “una sociedad que cambia

con rapidez precisa una formación que capacite personas para actuar en contextos diferentes del que

rodeó a su aprendizaje y no le basta con individuos que almacenen conocimientos que podrían quedar

obsoletos o que, simplemente, estén entrenados para realizar tareas mecánicas”, para ello se requiere

reconstruir la conceptualización de la enseñanza de las ciencias básica, en particular la enseñanza de la

estadística que se ha fortalecido con el desarrollo de prácticas de laboratorio que permitan desarrollar

competencias. Sin embargo, el crecimiento tanto en matricula como de instituciones, no ha sido

equilibrado con los requerimientos de equipo e infraestructura, para ello nos debemos replantear ¿Qué

hacer para desarrollar competencias acordes a las necesidades actuales? Algunas competencias generales

como son analizar y sintetizar información, argumentar lógicamente, establecer analogías entre

situaciones distintas, dar ejemplos particulares de una situación general, abstraer lo general de varios

ejemplos particulares, obtener información cualitativa de datos cuantitativos, expresar de maneras

diferentes pero equivalentes el mismo problema, manejar con precisión el lenguaje matemático y

competencias específicas como: traducir un problema real a un problema de enunciado matemático con

datos e incógnitas, obtener un modelo matemático de un sistema real, discriminar datos relevantes para la

solución de un problema, diseñar estudios experimentales útiles en la resolución de un problema, expresar

gráficamente datos, seleccionar procedimientos y herramientas adecuados de cálculo, calcular soluciones

aproximadas de un problema, utilizar herramientas computacionales para analizar datos, obtener

soluciones y simular el comportamiento de un sistema requiere del uso de algunas “herramientas básicas”

y relativamente “económicas” y cumplir con niveles de desempeño de las competencias que pueden ser

genéricas, interpersonales y profesionales. El instituto tecnológico de Apizaco muestra algunas

características de la enseñanza por competencias para ingenierías.

Page 29: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Estrategias Tecnológicas en el PAE de Estadística Para Contadores

Rufina Georgina Hernández Contreras

UPAEP, PE y DT

Resumen

En el presente trabajo, que se realizó en la Facultad de Contaduría Pública (FCP) de la Benemérita

Universidad Autónoma de Puebla (BUAP), México, se analizó el proceso de aprendizaje-enseñanza de

dos conceptos básicos en la materia de estadística, el Promedio o Media Aritmética y la Desviación

Estándar. Se trató de innovar el proceso de aprendizaje-enseñanza, además de adecuar a las necesidades

actuales, y los requerimientos cada vez mayores de conocimientos estadísticos en la carrera; así como el

aprendizaje y adquisición de habilidades tecnológicas de los alumnos. Al apoyarse en las Tecnologías de

Información y Comunicación (TICs), no se obtuvieron mejoras relevantes en el aprendizaje de los

conceptos promedio y desviación estándar, pero si se obtuvieron mejoras en el interés y motivación de los

alumnos, así como en la obtención de herramientas de apoyo a la aplicación de la estadística, y el apoyo

del propio proceso de aprendizaje-enseñanza, de una materia cada vez más substancial para los

contadores públicos.

Page 30: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

La Varianza de la Mediana Muestral para las Distribuciones Normal, Exponencial Negativa y Pareto

Francisco Sánchez Villarreal

UNAM, Matemáticas

Resumen

La mediana es una estadística de tendencia central, que junto con la media aritmética y la moda se

calculan en el análisis estadístico. La mediana ocupa un lugar destacado en el análisis estadístico no

paramétrico. Para estimar la mediana se ordenan los datos de menor a mayor y se toma la observación

central, si el tamaño de la muestra es impar o el promedio de la dos centrales si es par. La estimación de la

varianza de la mediana es un problema tratado en la literatura (Efron, Bradley, 1985). Una alternativa es

apoyarse en el teorema: Si X1..,Xn son v.a.i.i.d con función de densidad f(x), y función de distribución

F(x), monótona y con valor único para el percentil p, entonces, la distribución asintótica del estimador de

dicho percentil es normal con valor esperado µp y varianza p(1-p) / nf(µp). Este resultado se ejemplifica

por simulación de Monte Carlo para las distribuciones Normal, Exponencial negativa. y Pareto I.

Page 31: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Estadística no paramétrica

Page 32: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Estimación no Paramétrica del Siniestro Ocurrido en Seguros

Ponente: Martin Romero Martínez1

Co-autor: María del Carmen Romero Martínez1

1Instituto Nacional De Salud Pública, Encuestas

Resumen

Un siniestro ocurrido en el mes t, X(t), representa el monto que una compañía de seguros debe pagar para

cubrir las reclamaciones de los siniestros ocurridos en el mes t. Sea X(t,j) el pago en el mes t+j del

siniestro ocurrido en el mes t; entonces, X(t) = X(t,0) + ...+ X(t,N). Así, X(t,N) es conocido hasta después

de transcurridos N meses. El problema que se trata es estimar no paramétricamente a X(t) a partir de la

información disponible hasta el mes t.

Page 33: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Estadística y Ciencias Sociales

Page 34: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Análisis de la Esperanza de Vida en México

Ponente: Javier Santibáñez Cortés1

Co-autores: Jorge Luis Peña Cortez1 y Francisco José Zamudio Sánchez

1

1Universidad Autónoma Chapingo, DEMyC

Resumen

Se presenta un estudio de la esperanza de vida en México a diferentes escalas territoriales, estados y

municipios, y su asociación con la tasa de mortalidad infantil. Para el cálculo de ambos indicadores se usa

la información presentada por el INEGI y las proyecciones de la población del CONAPO. El objetivo del

trabajo es exhibir que para sociedades que han alcanzado un cierto nivel de desarrollo la relación entre la

esperanza de vida y la tasa de mortalidad infantil ya no es tan clara ni significativa. Se plantea como

hipótesis que después de superar un umbral de necesidades sanitarias básicas, el efecto del segundo

indicador sobre el primero es más débil.

Page 35: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Aprendizaje Basado en Proyectos en el Verano de la Investigación

Ponente: Maria De Jesus Barradas Guevara1

Coautor: Mario Miguel Ojeda1

1Universidad Veracruzana, Facultad de Estadística e Informática

Resumen

El verano de la investigación científica tiene como objetivo fomentar entre los estudiantes el interés por la

actividad científica, lo cual consiste en promover y facilitar a los estudiantes de diferentes áreas y lugares

del país de México a realizar un proyecto de investigación durante siete semanas entre el 23 de junio al

22 de agosto, bajo la supervisión de la persona que los guie durante este tiempo. El objetivo de este

trabajo es analizar las variables que más induce al estudiante a investigar y aprender por cuenta propia. De

los estudiantes que tomaron el curso en los años 2012 y 2013 se analizaron, entre otras variables el nivel

de satisfacción del curso, que tanto aprendieron en el curso, si se le hizo difícil estar en el curso durante

el periodo, y que tan difícil fueron los proyectos.

Page 36: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Desarrollo y Delincuencia

Ponente: Javier Santibáñez Cortés1

Coautores: Omar Mata Lemus1 y Francisco José Zamudio Sánchez

1

1Universidad Autónoma Chapingo, DEMyC

Resumen

Se presenta un análisis de las asociaciones entre nivel de desarrollo de la entidades, medido a través de los

índices de desarrollo humano, marginación y rezago social; con el nivel de victimización y percepción de

la seguridad pública, media a través de un conjunto de variables extraídas de la ENVIPE del INEGI. El

trabajo se refiere a información del año 2012 por ser la más actual disponible. Se emplea el análisis de

conglomerados para agrupar los estados del país y tener una comparación más robusta.

Page 37: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Factores más Relevantes que Influyen en la Felicidad

Ponente: Santiago Córdoba Morales1

Coautor: Julia Aurora Montano Rivas1

1Universidad Veracruzana, Facultad de Estadística e Informática

Resumen

Si decimos que la felicidad es el estado emocional que sólo se puede sentir en el presente, entonces

¿cómo podríamos medir la felicidad ya que nos podemos encontrar con personas que en ese momento no

se sienten felices? Existen muchos estudios en los que miden la felicidad a través del bienestar, midiendo

cuánto bienestar hay en un lugar en función de sus recursos utilizados. Adrian G. White (1979), creó un

índice de satisfacción con la vida, donde el bienestar subjetivo se correlaciona fuertemente con la salud, la

riqueza y el acceso a la educación básica. En base a lo anterior, nos damos a la tarea de investigar las

características que más influyen para medir la felicidad en tres regiones del país: la región norte está

conformada por los estados, de Sonora y Coahuila, la región centro está compuesta por Querétaro y el

Distrito Federal y la región sur que la conforman los estados de Veracruz y Quintana Roo, a través de la

técnica de análisis de correspondencia.

Page 38: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Modelo para Evaluar la Formación y Desempeño Docente de Egresados de Instituciones de Educación

Normal

Ponente: Sergio Martín Nava Muñoz1

Coautores: María Antonieta Zuloaga Garmendia1 y Luz Elba Zepeda Jiménez

1

1CIMAT, U Ags

Resumen

El seguimiento de egresados es un punto fundamental para la labor formativa de las Escuelas Normales,

porque es posible establecer parámetros que sirvan de referencia para mejorar la formación de un

profesional de la educación que en el campo laboral manifieste un desempeño eficiente y proyecte una

opinión favorable sobre su quehacer ante las autoridades educativas inmediatas y ante la sociedad. Es por

ello que se hace necesario realizar análisis de la inserción de los egresados en el mercado laboral para

mejorar su oferta de enseñanza y formación. Esta investigación partió del supuesto de que la formación

profesional docente impacta en la eficiencia del desempeño laboral de los egresados de escuelas normales

del Estado de Aguascalientes. Del que se deriva la siguiente pregunta ¿Cómo son las relaciones entre los

factores que intervienen en la formación profesional docente y los factores que determinan la eficiencia

del desempeño laboral de egresados de la generación 2005-2009 de escuelas normales del Estado de

Aguascalientes? El interés por esta generación de egresados es porque fue la primera que participó en el

Examen General de Ingreso al Servicio. Este trabajo tiene como objetivo encontrar la relación entre la

formación profesional de los egresados de la generación 2005-2009 de las escuelas normales del Estado

de Aguascalientes y la eficiencia en su desempeño laboral, así mismo se busca proponer un modelo para

encontrar las relaciones entre los factores que intervienen en la formación y desempeño docente. Los

resultados se obtienen de una encuesta, de la cual se construyen una serie de indicadores que resumen la

formación profesional y el desempeño de los egresados. Estos indicadores se utilizaron para construir un

modelo que relaciona estas variables, que finalmente permite encontrar las relaciones existentes entre los

constructos construidos.

Page 39: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Semaforización de la Calidad de la Atención en los Servicios de Urgencias en Hospitales de Segundo

Nivel de la Ciudad de Durango

Ponente: Edgar Felipe Lares Bayona1

Co-autores: Manuel Rocha Fuentes1, Santiago David Fierro Martínez

2 e Iván González Lazalde

2

1UJED, IIC, Departamento de Cómputo y Estadística,

2ITDurango, Ingeniería Industrial

Resumen

El servicio de salud es un servicio intangible, ya que es el resultado de un esfuerzo ó de una acción, donde

las relaciones interpersonales, las técnicas e instrumentos médicos y la infraestructura adecuada son los

principales enfoques en programas de mejora continua para la atención médica. Objetivo. Identificar la

semaforización de la calidad de la atención en los servicios de urgencias en hospitales de segundo nivel

de la ciudad de Durango. En este estudio descriptivo, transversal, y comparativo, se entrevistó a 325

pacientes que hicieron uso del servicio de urgencias en los hospitales de segundo nivel, como son: el

Instituto de Seguridad y Servicios Sociales de los Trabajadores del Estado (ISSSTE), Hospital General de

Durango (HG) y el Instituto Mexicano del Seguro Social (IMSS), hospitales de segundo nivel ubicados en

la ciudad de Durango. Se encontró que la actividad desarrollada de los médicos en los servicios de

urgencias frente a los pacientes muestra un nivel aceptable de comunicación. Los indicadores que

conforman el rubro de satisfacción, están por debajo del estándar establecido. La semaforización en tres

colores (rojo, amarillo y verde) representa el compromiso de una acción y la continuidad de un

seguimiento en la monitoria de los servicios de urgencias en los hospitales de segundo nivel de la ciudad

de Durango con los estándares establecidos por la Cruzada Nacional de la Calidad de los Servicios de

Salud.

Page 40: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Una Aplicación de la Estadística Textual en una Pregunta Abierta de una Encuesta de Opinión en el

Estado de Veracruz Relacionada con la Violencia Contra las Mujeres

Ponente: Marisol Sánchez Cano1

Coautores: Alma Janett Tenorio Aguirre1 y Marisol Sánchez Cano

1

1Universidad Veracruzana, Centro de Estudios de Opinión y Análisis

Resumen

Más que un conteo de palabras, la estadística textual ha permitido que la información que recogen las

preguntas abiertas en encuestas de opinión tenga un tratamiento sistemático, e.g. permite relacionar las

características generales de los encuestados. El tema relacionado con la violencia de las mujeres es un

tema en el que la recopilación de información es difícil. Algunos expertos señalan que la violencia puede

ser asociada a los estigmas, el miedo, etc. Por esta razón, derivado de una encuesta de opinión en el

estado de Veracruz, se obtuvo información referente a la opinión sobre violencia contra las mujeres donde

los encuestados expresaban su opinión al respecto. Esta información se captó mediante una pregunta

abierta, en el que las respuestas se convierten en datos expresados en cadenas de palabra. Se realizó un

análisis de texto utilizando un software estadístico y métodos de la estadística textual; considerando la

posibilidad de crear grupos de clasificación de las respuestas, así como identificar un perfil de los

informantes considerando las variables sexo y edad.

Page 41: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Variables que Influyen para que un Alumno Egrese en dos Licenciaturas de la BUAP

Ana Luisa Nieto Méndez1

Flaviano Godinez Jaimes2 y Hortensia Reyes Cervantes

1

1BUAP, FCFM,

2UAGro, Matemáticas

Resumen

Las licenciaturas en Matemática y Matemáticas Aplicadas que se ofrecen en la Facultad de Ciencias

Físico Matemáticas de la BUAP tienen cursos en los primeros años en los que frecuentemente sus

estudiantes reprueban. Actualmente es importante determinar los factores que influyen para que un

alumno egrese. En este trabajo se consideran 14 variables asociadas a las calificaciones de los primeros

cursos que un alumno toma, además de sus promedios en cada año que permanece en alguna de las

licenciaturas. Para identificar que variables influyen para que un alumno egrese se usó una Regresión

Logística considerando como variable respuesta a la variable Egreso (= 1/0) si un alumno ha o no

egresado, respectivamente de las licenciaturas en Matemática o Matemáticas Aplicadas y se realizó

selección de variables para identificar dichas variables.

Page 42: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Estadística y Medio Ambiente

Page 43: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Análisis Multivariante para el Estudio de Materia Orgánica dentro de Bromelias

Ponente: Yonatan Aguilar Cruz1

Co-autores: Cecilia Cruz López1 y José García Franco

2

1UV, FEI,

2Instituto de Ecología A.C., Ecología Funcional

Resumen

En trabajos de ecología comúnmente se reporta más de una variable respuesta para unidades

experimentales asignadas a distintos tratamientos. Una herramienta útil para evaluar la respuesta

simultánea del conjunto de variables es el Análisis de Varianza Multivariado (MANOVA). Para conocer

el efecto de la especie de árbol hospedero en los componentes de la materia orgánica almacenada en

bromelias, se seleccionaron nueve árboles (tres por especie) y se colectó la materia orgánica de tres

bromelias sujetas a cada árbol. Se realizó un MANOVA con cuatro variables respuesta (proporción de

hojas, ramas, epifitas y detritos) y tres factores (especies de árboles). Para determinar diferencias entre

grupos se realizaron pruebas de contraste, y para detectar diferencias en cada una de las variables se

utilizaron análisis de varianza univariados. Se concluyó que existe una diferencia significativa de la

proporción de hojas, ramas, epifitas y detritos almacenados en las bromelias cuando éstas se encuentran

en diferentes especies de árboles.

Page 44: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Estimación del Volumen Promedio de Agua Utilizada en la Evacuación de Residuos Líquidos en

Sanitarios

Ponente: Marcos Andrés Jiménez Moreno1

Coautores: Norma Edith Alamilla López2,a

, Reyle Mar Sarao2,b

, y Simón Javier Hernández Gaspar3

1Universidad Tecnológica de Tabasco, Química,

2Universidad Politécnica del Centro

3Universidad Politécnica del Golfo de México, Seguridad y Automatización Industrial

aMecatrónica,

bElectrónica y Telecomunicaciones

Resumen

El agua es uno de los recursos más importantes para las actividades humanas; aunque abunda en nuestro

planeta, solo una pequeña fracción es útil para el consumo humano. De esto se desprende que el uso

racional, responsable y eficiente del agua debe ser una prioridad en cualquier sociedad y país. Una parte

del agua es utilizada con fines sanitarios. En particular, la evacuación de orina en los sanitarios conlleva

el uso del agua, mediante la evacuación de los inodoros. El estado de Tabasco es uno de los más

característicos de la República Mexicana, dado que este posee dos recursos importantes como son: el agua

potable y el petróleo. Sin embargo, en ciertas épocas del año el estado sufre de la falta del vital líquido

(agua), a pesar de que este tenga grandes precipitaciones anuales que en algunas ocasiones pueden

provocar hasta inundaciones y que como consecuencia conlleve a grandes pérdidas económicas, es bien

conocido en la región que durante en el período comprendido entre los meses de abril-julio se presentan

como período de seca, presentándose una gran escasez teniendo un gran impacto en los sectores

domésticos, agrícolas, ganaderos, etc. Por otro lado además de la sequía en ese período, se percibe un uso

excesivo de agua para fines sanitarios, de la misma forma que en otras épocas del año donde abunda el

agua. En el presente trabajo se realiza un análisis estadístico, sobre datos obtenidos mediante una encuesta

realizada a estudiantes de Tabasco de las universidades UPC, UPGM y UTTAB, con el fin de estimar

cuanto del vital líquido es usado para la evacuación de residuos de orina por parte de varones. Con lo

anterior se busca contar con un estudio piloto para la propuesta de una campaña de concientización para

promover el uso de mingitorios que usen menos agua, o bien mingitorios secos o libres de agua. La

metodología anterior se decidió mediante una discusión grupal con base a una tabla de actividades que se

realizan de manera diaria y cotidianamente en una casa habitación. Entre los puntos que se consideraron

importantes, están el conocer el número de hombres existentes en cada domicilio, la veces que se acude al

sanitario a orinar, el uso y existencia de sanitarios con caja con volúmenes diversos, existiendo estos en

un rango de 5 a 20 litros, cajas con sistemas ahorradores de agua, etc., concluyendo que en dicha

actividad el desperdicio de agua es bastante significativo, razón por la cual se decidió realizar un estudio

estadístico. Es importante mencionar que en dicho estado no existe un sistema de monitoreo o control del

volumen de agua que los habitantes consumen y que el costo bimestral es sumamente bajo para la

importancia que contiene este vital liquido, razón por la cual, consideramos que no existe una conciencia

sobre la importancia de su cuidado, control y usos.

Page 45: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Modelación de Valores Extremos de Precipitación Pluvial Usando Modelos VGAM

Ponente: Violeta De La Huerta Contreras1

Coautor: Humberto Vaquera Huerta1

1Colegio de Postgraduados, Estadística

Resumen

La intensidad y periodicidad de lluvias reconocidas como atípicas en nuestro país llaman a un estado de

alerta. Es así que se ha realizado la modelación pluvial de riesgos de inundaciones para la ciudad de

Mèxico y zonas conurbadas; usando la base de registros de precipitación del Clicom con datos de 1921 al

2012. Se emplearon modelos lineales generalizados aditivos vectoriales (VGAM) ajustando a una

distribución de Valores Extremos Generalizada empleando el valor máximo mensual, obteniendo los

niveles de retorno a cien, ochenta, sesenta, y cincuenta meses de doscientas veintiún estaciones

meteorológicas. Utilizando métodos de interpolación espacial (Kriging e IDW) se elaboraron mapas de

riesgos los cuales indican que la incidencia de eventos extremos de precipitación se incrementará sobre

todo en las zonas centro-sur de la Ciudad de México.

Page 46: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Modelos Lineales

Page 47: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Modelo Óptimo para Identificar el Confort Térmico en el Metro de la Ciudad de México Estación

Zapata

Ponente: Julia Aurora Montano Rivas1,a

Coautores: Patricia Díaz Gaspar1,a

e Irving R. Méndez Pérez1,b

1UV,

aFacultad de Estadística e Informática

bCentro de Ciencias de la Tierra

Resumen

En este trabajo se caracteriza el confort o disconfort térmico que perciben los pasajeros del Metro de la

Ciudad de México, estación Zapata, problema que se presenta en condiciones de ventilación natural y

aumento de la temperatura en las horas pico. Por ello, el objetivo es encontrar un modelo de regresión

logística óptimo que permita identificar las variables que influyen en el malestar térmico del usuario

cuando éste se encuentra en el área Andén. Como método de optimización se aplican algoritmos genéticos

y para elegir el mejor modelo nos basaremos en las pruebas de Hosmer y Lemeshow y validación

cruzada.

Page 48: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Uso de Algoritmos Genéticos para Encontrar el Modelo Óptimo de Regresión Logistica

Ponente: Gloria Edith Rodríguez Ramirez1

Coautores: Julia Aurora Montano Rivas1 y Ernesto Pedro Menéndez Ácuña

1,b

1Universidad Veracruzana ,

aFacultad de Estadística e Informática,

bFacultad de Matemáticas

Resumen

Esta investigación tiene como objetivo la optimización del modelo de regresión logística a través de la

técnica algoritmos genéticos. Para ello, se desarrolla un programa en lenguaje R donde tomando como

referencia el grado de los modelos se obtienen 11 clases, de las cuales a través de remuestreos y las

operaciones genéticas se pretende visualizar el o los modelos más significativos. Para aplicación de este

trabajo se utilizó una base de datos con 235 casos en pacientes con padecimientos de hígado graso a los

cuales se les realizó las mediciones de su correspondiente índice de masa corporal.

Page 49: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Cotas para la Varianza del Estimador de Proporciones en el Muestreo por Conglomerados en dos

Etapas con Tamaños Iguales

Alberto Manuel Padilla Terán

Banco De México, Investigación Económica

Resumen

En el problema de estimación de proporciones en el muestreo aleatorio simple es conocido el hecho de

que la varianza de dicho estimador alcanza el máximo cuando la proporción es igual a 0.5. Cuando no se

tiene información de la variable de interés por estimar, puede usarse el valor máximo de la varianza para

el cálculo del tamaño de muestra. Este resultado se extiende al muestreo por conglomerados en dos etapas

con tamaños iguales usando muestreo aleatorio simple en ambas etapas y se construyen expresiones para

las varianzas mínima y máxima, sin considerar proporciones poblaciones iguales a cero o uno, para la

varianza del estimador de proporciones. Las condiciones bajo las cuales se alcanzan los valores mínimo y

máximo dependen del coeficiente de correlación intraclase de la variable de interés, de algunas cantidades

relacionadas con el número de conglomerados en la población y muestra, así como del tamaño de los

conglomerados. A partir de los valores de varianza mínima y máxima, resulta inmediato obtener cotas

para el efecto del diseño y el coeficiente de variación. Las cotas se ilustran con algunos ejemplos.

Page 50: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Diagnóstico de la Parroquia de San Pio X, en la ciudad de Xalapa, Veracruz

Ponente: Diana Elizabeth Valderrábano Pedraza1

Coautor: Minerva Reyes Félix1

1Universidad Veracruzana, Facultad de Estadística e Informática

Resumen

En la actualidad, los tipos de religiones que existen en el mundo van en aumento, no así el número de

fieles de una de las religiones que siempre ha predominado “la religión católica”, que ha visto disminuir

en número a los integrantes de su comunidad. Esta situación constituye una gran preocupación para la

Iglesia Católica, y en este caso para la Parroquia de San Pio X, que se encuentra ubicada en la ciudad de

Xalapa, Veracruz, México; la cual está interesada en tener un diagnóstico de la opinión de los feligreses

sobre los servicios que ofrece e identificar el posicionamiento que tienen como Iglesia en la zona

parroquial que le corresponde. Cabe mencionar que se conoce como zona parroquial a la zona geográfica

en la que se ubica el Templo. Para realizar el estudio, se consideró a los feligreses que asisten a la

Parroquia de San Pio X y a las personas que viven en la zona parroquial delimitada. Además, el estudio

consta de dos etapas, la primera es el diseño del cuestionario dirigido a los asistentes de dicha parroquia y

la segunda el diseño muestral estratificado de acuerdo a la zona parroquial; realizando el levantamiento de

encuestas en ambas etapas. Terminadas las etapas del estudio, se realizó el análisis estadístico que

permitirá a la Iglesia tener mayores elementos para realizar acciones encaminadas a mejorar sus servicios

y a atraer mayor cantidad de fieles.

Page 51: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Encuesta de Salud y Nutrición Infantil en Municipios del Estado de Tabasco

Ponente: Josefina Alvarado Leyva1, a

Coautores: José Reyes Montejo Velázquez1, a

, Lizania De La Cruz De La Cruz

1,a,

Luis Reyes Velázquez1,b

y Fidel Ulín Montejo1,b

1UJAT,

aActuaria,

bMatemáticas

Resumen

En las últimas tres décadas la obesidad ha emergido como una epidemia mundial que afecta todas las

edades y todos los niveles socioeconómicos. Los datos de prevalencia de la obesidad en México tienen

una tendencia ascendente. En este trabajo se ilustran los resultados y análisis preliminares de un estudio

diseñado para conocer las condiciones de salud y nutrición infantil en hogares con niños y niñas menores

de 5 años en municipios del estado de Tabasco. Los objetivos de esta encuesta fueron conocer la

cobertura y utilización de servicios de salud, analizar las condiciones y determinantes de salud y nutrición

en los municipios considerados, y conocer la frecuencia, distribución y tendencia de las condiciones y

determinantes de la salud y nutrición de niñas y niños menores de 5 años. Para tal efecto se empleó una

muestra seleccionada mediante muestreo probabilístico, polietápico, estratificado y por conglomerados,

de acuerdo a la densidad poblacional reportada por el INEGI para cada municipio, conformada por

asentamientos con más de 2500 habitantes. Las variables de interés para este estudio, son las Desnutrición

y obesidad infantil. Para llevar a cabo el análisis del estado de nutrición, se medirá el peso y la talla o

longitud realizadas por personal capacitado y procedimientos estandarizados según protocolos

convencionales. Se registrará el peso y la talla para construir los índices antropométricos. Tablas, cuadros

y gráficos son presentados para ilustrar los resultados y análisis preliminares.

Page 52: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Normalidad Asintótica del Estimador Máximo Verosímil del Tamaño Poblacional bajo la Variante del

Muestreo por Bola de Nieve Propuesta por Félix-Medina y Thompson

Martin Humberto Felix Medina

Universidad Autónoma De Sinaloa, Facultad De Ciencias Físico-Matemáticas

Resumen

Félix-Medina y Thompson (JOS, 2004) propusieron una variante del muestreo por bola de nieve en la

cual se construye un marco muestral incompleto de sitios de reunión de los elementos de la población. Se

toma una muestra de sitios y a los elementos allí encontrados se les pide que nombren a otros elementos.

Estos autores derivaron estimadores máximo verosímiles (EMVs) del tamaño poblacional bajo el

supuesto de que la probabilidad de que una persona sea nombrada por alguna de las encontradas en un

sitio particular (probabilidad de liga) no depende de la persona sino sólo del sitio (hipótesis de

homogeneidad). Posteriormente, Félix-Medina y col. (Proc. Sec. Surv. Res. Meth.-JSM, 2009) y Félix-

Medina y Domínguez-Molina (Proc. Sec. Surv. Res. Meth.-JSM, 20012) derivaron EMVs del tamaño

poblacional bajo modelos que toman en cuenta la heterogeneidad de las probabilidades de ligas. En este

trabajo se considera un modelo general para estas probabilidades y se establecen condiciones que

garantizan la normalidad asintótica del EMV del tamaño poblacional.

Page 53: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Tamaño muestral para preferencias electorales con tres o más candidatos bajo muestreo complejo

Ponente: José Luis Ávila Valdez1,2

Carlos Felipe Henríquez Roldán1

1Universidad de Valparaíso, Facultad de Ciencias,

2Universidad Popular Autónoma del Estado de

Puebla, Área de Matemáticas y Estadística para Ciencias Sociales.

Resumen

Cinco son los elementos fundamentales que determinan el tamaño de muestra: el nivel de confianza

deseado, el error de estimación o margen de error, la varianza de la variable en estudio, la información a

priori acerca de la variable de interés y el plan de muestreo utilizado en la recolección de los datos. A

excepción de la distribución binomial donde el tamaño de la muestra se obtiene considerando “el peor

escenario” para el cliente, cuando la varianza se maximiza, no se requiere de información sobre la

varianza. En cualquier otro caso se requieren los cinco elementos antes mencionados. Por otro lado, el

plan de muestreo pocas veces es considerado en el cálculo del tamaño de la muestra y éste último por lo

general se obtiene como si se tratara de un muestreo aleatorio simple. Existen casos donde el tamaño de la

muestra no se puede obtener de manera cerrada, por ejemplo cuando la distribución multinomial admite

tres o más opciones. En este trabajo se presenta un método para obtener el tamaño de muestra para la

distribución multinomial mediante simulaciones, incorporando el plan de muestreo utilizado a través del

efecto de diseño. Se simulan diferentes escenarios para niveles de confianza del 90%, 95% y 99% y

márgenes de error de 0.01, 0.02, 0.03, 0,04 y 0.05, se asume que las población es suficientemente grande

por lo que no se utiliza factor de corrección para poblaciones finitas y que el muestreo es realizado sin

reemplazo. Finalmente, el método aquí presentado se aplica a la determinación del tamaño de la muestra

para un caso real de una encuesta para evaluar preferencias electorales.

Page 54: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Series de Tiempo

Page 55: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Análisis de Variables Climatológicas del Estado de Tlaxcala

Ponente: Silvia Herrera Cortés1

Coautor: Bulmaro Juárez Hernández1

1BUAP, FCFM

Resumen

El pronóstico de variables climatológicas juega un papel importante en las actividades realizadas por el

hombre, pues le permite prever medidas de adaptación para minimizar los efectos ocasionados por su

variabilidad, cuya causa se le puede atribuir a la variabilidad natural del clima, al cambio climático

generado por la concentración de gases de efecto invernadero en la atmósfera, o ambos. El análisis sobre

comportamiento de las variables climatológicas cuyo registro numérico de sus características son

longitudinales, se puede realizar con series de tiempo cuyo objetivo es el de predecir o pronosticar datos.

En el estudio de las series de tiempo los métodos utilizados en la predicción están basados en el supuesto

de un comportamiento lineal, lo que en condiciones climatológicas no es una realidad, por esto, es

necesario buscar métodos más precisos que permitan hacer pronósticos con un menor margen de error. En

este trabajo se hace un análisis de variables climatológicas del estado de Tlaxcala (temperatura,

precipitación) mediante la metodología de Box-Jenkins para series de tiempo además de realizar una

comparación con resultados obtenidos a través de redes neuronales.

Page 56: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Análisis Espectral Singular de las Series de Tiempo de Precipitación y Temperatura de Riobamba,

Ecuador

Ponente: Sergio Francisco Juárez Cerrillo1

Coautores: Fernando Romero1 y Sergio Hernández González

1

1Universidad Veracruzana, Facultad de Estadística e Informática

Resumen

El Análisis Espectral Singular (AES) es una técnica de desarrollo reciente para analizar series de tiempo.

En esencia, es un análisis de componentes principales en el dominio del tiempo de una serie de tiempo. El

objetivo del AES es extraer información de la dinámica de una serie de tiempo y resulta una herramienta

poderosa para analizar series de tiempo cortas y con mucho ruido. Es por esto que el AES se ha aplicado

ampliamente en geofísica, climatología, meteorología y recientemente en econometría y finanzas. En este

trabajo presentamos brevemente el AES y lo ilustramos con el análisis de la series de tiempo de

precipitación y temperatura mensuales registradas en la ciudad de Riobamba, Ecuador, de 1976 al 2010.

Los cálculos se realizaron con el paquete Rssa de R.

Page 57: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Estimación Basada en Cadenas de Markov Monte Carlo para el Análisis de Series de Tiempo Enteras

Ponente: Eduardo Selim Martínez Mayorga1

Coautor: Ruth Selene Fuentes García1

1UNAM, FC

Resumen

En este trabajo se revisan muchas de las ideas más conocidas en series de tiempo que toman valores en un

espacio a lo más numerable. Se explica por qué algunas de las técnicas estándar en el análisis de series de

tiempo no son adecuadas y las aproximaciones asintóticas se deben considerar de forma muy cuidadosa y

la mayoría de las veces son inadecuadas.

Page 58: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Modelos ocultos de Markov: Una aplicación a las finanzas

Ana Gabriela López Gutiérrez1

Ana Gabriela López Gutiérrez1 y Blanca Rosa Pérez Salvador

1

1UAM-I, Departamento de Matemáticas

Resumen

El modelo de Black-Scholes es un modelo ampliamente utilizado para estimar el precio de las opciones en

el mercado de valores, este modelo se basa en el movimiento Browniano como un proceso evolutivo del

activo subyacente. Sin embargo, el proceso de evolución del activo subyacente siempre está dado en un

entorno no estable, es decir, puede cambiar de "bueno" a "malo", de "malo" a "normal", etc., de manera

aleatoria. Por lo tanto, los valores de las opciones pueden ser afectados por este entorno. Janssen, Manca

y E. Volpe, 2009, propusieron una modificación de la fórmula de Black-Scholes asumiendo el entorno

como una cadena de Markov en la cual se conocen los posibles estados del sistema, pero se desconoce el

estado en el que se encuentra el proceso en el tiempo t, porque permanecen ocultos. A partir de esta

modificación, Luc Tri Tuyen (2010) utiliza los modelos ocultos de Markov para estimar los parámetros de

una cadena de Markov para analizar y predecir fenómenos de series de tiempo. En este trabajo se

presentan los modelos ocultos de Markov aplicados a la modificación de la fórmula de Black-Scholes

propuesta por Janssen, Manca y E. Volpe y lo propuesto por Luc Tri Tuyen.

Page 59: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Simulación, Cómputo y Software Estadístico

Page 60: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Algoritmos Evolutivos para el Diseño T-óptimo

Ponente: Wilfrido Jacobo Paredes García1

Coautor: Eduardo Castaño Tostado1

UAQ, Facultad de Ingeniería

Resumen

En este trabajo se aborda el uso de los llamados algoritmos evolutivos diferenciales y el algoritmo de

colonia artificial de abejas para tratar el problema del diseño T-óptimo para discriminar entre dos modelos

alternativos. Se presentará su implementación usando R y una comparación de estos algoritmos

evolutivos y los métodos clásicos de optimización.

Page 61: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Data Warehouse y Minería de Datos

Ponente: José Antonio Flores Cruz1,a

Coautores: José Luis García Cue1,a

, Yolanda Margarita Fernández Ordoñez1,b

y Reyna Carolina Medina

Ramírez2, c

1Colegio de Postgraduados,

2Universidad Autónoma Metropolitana

aEstadística,

bCómputo Aplicado,

cDepartamento de ingeniería Eléctrica

Resumen

En el presente trabajo se introduce la forma básica de cómo pueden evolucionar e integrarse las

arquitecturas de bases de datos para entregar el valor de la minería de datos a los usuarios finales

Page 62: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Estimación de Densidad por Núcleo (Kernel) para Datos Circulares

Ponente: Isaías Hazarmabeth Salgado Ugarte1

Coautor: Marco Aurelio Pérez Hernández1

1F.E.S. Zaragoza UNAM, Biología (Biometría y Biología Pesquera)

Resumen

La información cuantitativa recabada tomando como referencia a una escala circular ocurre comúnmente

en campos diversos de la actividad humana. Como con las escalas lineales, la distribución es una

característica que debe entenderse para interpretar adecuadamente el mensaje que transmiten los datos.

Una de las herramientas más importantes para analizar la distribución de los datos es la estimación de

densidad por núcleo (kernel) la cual resuelve los problemas del efecto del origen y la discontinuidad de

los histogramas tradicionales, proporcionan guías para escoger la amplitud de intervalo (ventana) y

pueden estructurarse con amplitud variable de ventana para ajustar por abundancia o escasez de

observaciones. En esta contribución y con base en trabajos previos sobre tratamiento estadístico de datos

circulares y lineales, presentamos una serie de programas para llevar a cabo estimaciones de densidad

circular. El primero permite calcular varias reglas prácticas para elegir el ancho de ventana adaptadas (al

considerar la dispersión circular) de reglas para datos lineales y un procedimiento basado en el parámetro

de dispersión de la distribución de von Mises (equivalente circular de la Gaussiana); el segundo permite

estimar la densidad con varias funciones ponderales (kernel o núcleo) tales como uniforme, triangular,

Epanechnikov, cuártica (biponderada), triponderada, Gaussiana y coseno. Este algoritmo despliega los

resultados en forma linear o circular, cuenta y estima modas, antimodas y hace posible generar variables

de densidad y puntos de cálculo (en grados) para uso posterior; el tercero es similar al anterior pero estima

la densidad con la función ponderal de von Mises; el último dibuja gráficos circulares de densidad

personalizados. Presentamos su aplicación sobre varios conjuntos de datos (propios o provenientes de la

literatura). En nuestra experiencia, estos programas proporcionan una herramienta muy poderosa que

lleva a un conocimiento profundo de características importantes de distribución circular tales como

simetría, sesgo y modalidad.

Page 63: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Un Sistema Experto para la Descripción Automatizada de Datos

Paul Ramírez De la Cruz

CIMAT, A. C., Unidad Aguascalientes

Resumen

Las oficinas de estadísticas oficiales y otras entidades relacionadas, producen grandes volúmenes de

tabulados y gráficas descriptivas que ponen a disposición de sus usuarios, ya sea de manera impresa o en

formato electrónico. Esta información, aunque muy importante, puede en ocasiones resultar poco clara

para el usuario ocasional. Se presenta el planteamiento básico de un sistema experto que produce una

explicación de las principales características de un conjunto de datos a partir del conjunto mismo o de un

resumen tabular.

Page 64: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Teoría y Aplicaciones de Valores Extremos

Page 65: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Aplicación de Algunos Métodos para Estimar Medidas de Riesgo Financiero como el VaR y EVaR

Ponente: Jaime Iván Urbina Rugerio1

Coautores: Gabriel Nuñez Antonio1 y Patricia Saavedra Barrera

1

1UAM-I, Departamento de Matemáticas

Resumen

En el presente trabajo se aplican algunos métodos estadísticos para estimar medidas como el Valor en

Riesgo (VaR) y el Valor en Riesgo Condicionado (EVaR). Lo anterior, en el contexto de las pérdidas que

se obtiene al invertir en ciertos portafolios de inversión. Los métodos aplicados son el denominado

varianza-covarianza, el método histórico y el método de picos sobre el umbral, este último asociado a la

metodología de valores extremos. Los procedimientos mencionados se aplican y comparan en dos tipos

de portafolio, uno constituido por 5 acciones del sector de la industria de la construcción que cotizan en la

Bolsa Mexicana de Valores (BMV) y el otro por 3 bonos cupón cero con tasas de rendimiento a 28, 91 y

182 días, respectivamente. Finalmente, se presentan conclusiones con base en el desempeño de cada

método.

Page 66: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Modelación de los Retornos del IPC, 1991-2014 con las Distribuciones Pareto y Pareto Generalizada

Ponente: Genoveva Lorenzo Landa1

Coautor: Sergio Francisco Juárez Cerrillo1

1Universidad Veracruzana, Facultad de Estadística e Informática

Resumen

Se calcula el Valor en Riesgo (VaR) de los retornos negativos del IPC. Tradicionalmente se ha utilizado

la distribución normal para calcular el VaR. Sin embargo esta distribución no es la adecuada para analizar

extremos. Puesto que nos interesan las pérdidas grandes del IPC utilizamos un enfoque de extremos para

lo cual ajustamos a los retornos negativos extremos las Distribuciones Pareto y Pareto Generalizada.

Utilizamos máxima verosimilitud para datos censurados en el caso de la Pareto y máxima verosimilitud

para excedentes sobre umbrales para la Pareto Generalizada. En este trabajo presentamos el ajuste de

ambas distribuciones a los retornos negativos. La siguiente fase es elegir a una distribución, ya sea la

Pareto o la Pareto Generalizada como mejor modelo para los retornos negativos del IPC. Utilizaremos la

medida de bondad de ajuste Valor Promedio Absoluto Escalado como criterio para elegir la distribución.

Finalmente, con el modelo elegido procederemos a calcular el VaR de los retornos negativos del IPC.

Page 67: Sesión de carteles

XXIX Foro Internacional de Estadística, Puebla, Puebla.

Sesión de carteles 2014

Optimización del Logaritmo de la Función de Verosimilitud a Través del Algoritmo Genético

Asael Angel Santiago1

Pedro E. Menéndez Acuña1 y Julia Aurora Montano Rivas

1

1UV, Facultad de Estadística e Informática

Resumen

En este trabajo se pretende maximizar el logaritmo de la función de verosimilitud a través de la aplicación

del algoritmo genético, para la obtención del estimador máximo verosímil de un parámetro, sin tener que

transitar por la solución de una ecuación de verosimilitud. Esta propuesta se ensaya primeramente con

distribuciones que dependan de un solo parámetro: Bernoulli, Poisson y Exponencial. Posteriormente se

considera una situación donde la solución de la ecuación de verosimilitud requiera de un método

numérico para su solución, aplicándose en este caso un método numérico clásico para la solución de la

ecuación de verosimilitud y el algoritmo genético para maximizar la función de verosimilitud. Se simulan

muestras aleatorias de las distribuciones de interés con el objetivo de evaluar la propuesta.