102

Click here to load reader

UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

  • Upload
    utcj

  • View
    256

  • Download
    33

Embed Size (px)

DESCRIPTION

Segunda Edición de UTCJ Theorema, revista enfocada en investigación científica.

Citation preview

Page 1: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015
Page 2: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015
Page 3: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

DIRECTOGobierno del Estado

Lic. César Horacio Duarte Jáquez Gobernador Constitucional del Estado de Chihuahua

Lic. Ricardo Yáñez Herrera Secretario de Educación, Cultura y Deporte

Secretaría de EducaciónPública

Ing. Héctor Arreola Soria Coordinador General de Universidades Tecnológicas y Politécnicas

Universidad Tecnológicade Ciudad Juárez Lic. Ernesto Luján Escobedo Rector

Lic. Víctor Alfonso López Vivar Abogado General

M.A. Jesús Manuel Fabela Rivas Secretario Académico

M.I. Ruth María Ayala Pérez Directora de Administración y Finanzas

M.C. Luis Alberto Colomo Chavoya Director de Vinculación

Lic. Luis Antonio Colorbio Apodaca Director de Planeación y Evaluación

Lic. Salvador Álvarez Mata Director de las carreras: Logística Internacional, Negocios e Innovación Empresarial y Financiera y Fiscal

M.T.I., M.A.D. Luis Alberto Santos Berumen Director de la carrera: Tecnologías de la Información y Comunicación

Ing. Ricardo Pérez Santellana Director de la carrera: Mantenimiento Industrial y Nanotecnología

M.I. Arturo Iván Mendoza Arvizo Director de la carrera: Mecatrónica

M.C. Ana Eréndida Rascón Villanueva Directora de las carreras: Terapia Física y Protección Civil y Emergencias

Ing. Adrián García Martínez Coordinador de las carreras de Energías Renovables y Procesos y Operaciones Industriales

CONSEJO EDITORIAL

Lic. María Teresa Álvarez Esparza Subdirectora de Extensión Universitaria

M.D.O. Jorge Ochoa Luna Jefe del Departamento de Prensa y Difusión Lic. Idalí Meléndez Domínguez Coordinadora del área Editorial

Lic. Carlos Noé González Gutiérrez Revisión Ortográfica

L.D.G. Oscar Jaimes Ortega Diseño Gráfico

RIO

++

+

+

+

Universidad Tecnológica de Ciudad JuárezREVISTA UTCJ THEOREMAEdición No. 2, julio/diciembre 2015Av. Universidad Tecnológica No. 3051Col. Lote Bravo IIC.P. 3265Tels. (656) 649.06.00 a 26Ciudad Juárez, ChihuahuaU t c j . e d u . m x

CONSEJO TÉCNICO Dr. Iván Juan Carlos Pérez Olguín Universidad Tecnológica de Ciudad Juárez Director de Obra

Dr. Manuel Arnoldo Rodríguez Medina Instituto Tecnológico de Ciudad Juárez

Dra. Nancy Angélica Coronel González Universidad Tecnológica de Ciudad Juárez

Dr. Santos Rafael Woder Morales Delphi Connection Systems

Dr. Manuel Iván Rodríguez Borbón Universidad Autónoma de Ciudad Juárez

Dr. Rodrigo Villanueva Ponce Delphi Electrical Centers

Dr. Manuel Alonso Rodríguez Morachis Instituto Tecnológico de Ciudad Juárez

M.C. José Agustín Pérez Limón Instituto Tecnológico de Los Mochis

M.C. Consuelo Catalina Fernández Gaxiola Universidad Tecnológica de Ciudad Juárez

M.I.I. David Oliver Pérez Olguín Instituto Tecnológico de Los Mochis

M.C. Miriam Margarita Ruíz Sánchez Universidad Tecnológica de Ciudad Juárez

Ing. Felipe Augusto Peniche Mendoza Universidad Tecnológica de Ciudad Juárez

+

Page 4: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

CONTENIArtículo arbitrado #1“Impedancia Característica de Guías de Onda Coplanares con Interfaces Dieléctri-cas de SiO2, Si3N4 Y SRO”

Dra. Rebeca Leal Romero M.C. Víctor Enrique Gómez del Villar M.C. Marco Antonio Álvarez Medina M.C. Luis Ernesto Anaya Tiscareño

Artículo arbitrado # 2 “Desarrollo de un Escáner Tridimensional por Triangulación con Luz Blanca”

Ing. David Alonso Rodríguez García Dr. Gerardo Trujillo Schiaffino Dra. Didia Patricia Salas Peimbert Dr. Marcelino Anguiano Morales M.C. Luis Francisco Corral Martínez M.C. Ismael Arturo Garduño Wilches

Artículo arbitrado # 3 “Aplicación Práctica de un Modelo de Ne-gocios: Caso Pinturas Quiroz”

M.I.I. Jorge Adolfo Pinto Santos M.A. Francisco José Meléndez Gurza Dr. Gustavo García Meléndez M.C. Eduardo Rafael Poblano Ojinaga

Artículo arbitrado # 4 “Estabilidad de Nanopartículas de Plata en un Proceso de Floculación”

Dr. Víctor Alfredo Nolasco Arizmendi M.C. Abygail Adarely Martínez Mendoza T.S.U. Haly Surisadday Juárez Pérez

Artículo arbitrado # 5“Prevalencia de Discapacidades Diagnos-ticadas y Atendidas en Fundación Juárez Integra A.C. Periodo 2004 – 2009”

Médico Francisco Rangel Araiza Médico Álvaro Arteaga Ríos Médico Jorge Hernández Sánchez M.C.S.P. Alfredo Alfonso Cábel Acevedo

Artículo arbitrado # 6 “Aplicación de Recocido Simulado con Restricciones a la Administración de Por-tafolios de Inversión”

M.C. Sergio Muñoz González Dr. César Saldaña Carro M.A. Julio César Becerra Díaz M.A. Héctor Martín del Campo Villegas

DO

++

+

+

+

+

+

Artículo arbitrado #7“Sistema para la Manipulación sin Tacto de Documentos Médicos: Kinect Hospitalario”

Dra. Rocío Arceo Díaz Ing. Carlos Roberto Esquivel Briceño Ing. Ismael Agustín Silva Dzib Dr. Mariano Xiu Chan

Artículo arbitrado # 8 “Importancia del Trabajo en Equipo”

Dr. Luis Arnulfo Guerrero Chávez M.S.M. María Dolores Ruiz Gandarilla

Artículo arbitrado # 9 “Importancia de la Simulación Dinámica Molecular de Materiales Amorfos”

M.C. Francisco Javier A. Díaz Camacho

Artículo arbitrado # 10 “Análisis del Factor de Potencia Eléctrico”

Ing. Éder Alberto Flores López Ing. María Yuridia Bahena Landa Dr. José Andrés Alanís Navarro

Artículo arbitrado # 11 “Revisión de Literatura de los Sistemas de Localización de Objetos por Tecnología RFID Híbrida y Nuevas Tecnologías de Ra-diofrecuencia”

M.C. Henry Xochipiltecatl Carreto Dr. Rogelio Álvarez Vargas

+

+

+

+

+

UTCJ THEOREMA REVISTA CIENTÍFICA, año I, No. 2, julio/diciem-bre 2015, es una publicación semestral, editada por la Universidad Tecnológica de Ciudad Juárez, Avenida Universidad Tecnológica #3051, Col. Lote Bravo II, C.P. 32695, Tel. (656) 6490604, www.utcj.edu.mx. Editor responsable: Idalí Meléndez Domínguez. Reserva de Derechos al Uso Exclusivo No. 04-2016-061713532700-203, otorga-do por el Instituto Nacional del Derecho de Autor. ISSN en trámite. Responsable de la última actualización de este número, Departa-mento de Prensa y Difusión, L.D.G. Oscar Jaimes Ortega, Avenida Universidad Tecnológica #3051, Col. Lote Bravo II, C.P. 32695, fecha de la última modificación 30 de enero de 2016.

Las opiniones expresadas por los autores no necesariamente re-flejan la postura del editor de la publicación. Queda prohibida la reproducción total o parcial de los contenidos e imágenes de la pu-blicación sin previa autorización del Instituto Nacional del Derecho de Autor.

2

8

16

24

30

44

52

62

68

76

82

Page 5: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

editorial

+

1 R e v i s t a C i e n t í f i c a

Iniciamos el 2016 con beneplácito por la publicación del segundo número de la UTCJ Theorema Revista Científica, conformada por 11 artículos provenientes de 15 Instituciones de Educación Superior de los Es-tados Unidos Mexicanos, seleccionados mediante un

proceso de revisión por pares.

Actualmente, la Universidad Tecnológica de Ciudad Juárez es considerada la institución más grande del país, dentro del Subsistema de Universidades Tecnológicas y Politécni-cas, en cuanto al número de matrícula; ello se debe al reco-nocimiento de la calidad educativa en sus programas aca-démicos, como lo evidencian las certificaciones concedidas a cada una de las carreras por CIEES y CACECA. El trabajo constante del personal Académico y Administrativo han contribuido a que la Universidad Tecnológica de Ciudad Juárez se posicione en la localidad como la primera opción, para un gran número de prospectos, que buscan una alter-nativa educativa practica a nivel superior, que les permita obtener un mejor posicionamiento laboral al concluir sus estudios.

Aprovecho esta oportunidad para agradecer el respaldo de nuestro Rector, el Lic. Ernesto Luján Escobedo, quien está siempre pendiente de los proyectos de investigación que emprende el personal docente de esta Casa de Estudios.

Dentro de los Programas Educativos de la Universidad Tec-nológica de Ciudad Juárez, se estipula un periodo de Esta-día Industrial, donde los estudiantes realizan un proyecto de investigación aplicada que ayude al sector industrial y/o de servicio a resolver una problemática específica, proyec-tos que surgen como consecuencia de las necesidades par-ticulares de la industria, quienes se acercan a la institución en busca del apoyo.

El éxito en estos proyectos de investigación aplicada ha despertado el interés de un creciente número de Docentes Investigadores de la Institución, que se sienten motivados a compartir los conocimientos y experiencias adquiridos, siendo la revista UTCJ Theorema el escaparate ideal para difundir y compartir estos conocimientos y experiencias, y con ello incentivar la investigación, así como el desarrollo tecnológico en nuestra comunidad.

Para nuestra Universidad es un orgullo que la presente edi-ción de la revista UTCJ Theorema cuente con la participa-ción de 10 entidades federativas del país (Aguascalientes, Chihuahua, Coahuila, Hidalgo, Tlaxcala, Ciudad de México, Estado de México, Quintana Roo, Guerrero y Querétaro; asi-mismo, es un placer mencionar que la primera edición acu-muló, tan solo en el último mes, más de 46 mil descargas. Lo anterior es reflejo de la gran aceptación que ha tenido la publicación, lo que nos motiva a continuar con el proceso de mejora continua y a incrementar el nivel de revisión de los pares, para ofrecer un producto de calidad e interés para la comunidad académica y científica del país, con el objeti-vo de posicionar nuestra publicación dentro de los índices nacionales e internacionales en un corto – mediano plazo.

Sin más preámbulo, los invito a disfrutar de este ejemplar, esperando que alguno de los artículos les sea de interés y de utilidad.

M.A. Jesús Manuel Fabela RivasSecretario Académico

Page 6: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

R e s u m e n : Las características de líneas de transmisión copla-nares utilizando diversas interfaces dieléctricas son estudiadas; ex-presiones analíticas han sido obtenidas utilizando técnicas de mapeo conformal. El análisis aquí presentado se enfoca particularmente a estudiar la impedancia característica de estas líneas de transmisión. Esto permitirá predecir acoplamientos de impedancia de una fuente a la carga cuando se utilizan tales líneas de transmisión en transferen-cias de información en el rango de las microondas. A fin de ser com-patible con los materiales semiconductores, el análisis está limitado al empleo de silicio como material de soporte y al uso de películas dieléctricas tales como el óxido de silicio (SiO2), nitruro de silicio (Si3N4) y óxido de silicio rico en silicio (SRO).

Palabras clave: Línea coplanar, impedancia característica, óxido de silicio, nitruro de silicio y óxido de silicio rico en silicio.

A b s t r a c t : The characteristics of coplanar transmission lines utilizing various dielectric interfaces are studied; analytical ex-pressions have been obtained using conformal mapping techniques. The analysis presented here focuses particularly to study the cha-racteristic impedance of these transmission lines. This will predict couplings impedance source to the load when such transmission lines are used in data transfers in the microwave range. To be com-patible with semiconductor materials, the analysis is limited to the use of silicon as a substrate and the use of dielectric films such as silicon oxide (SiO2), silicon nitride (Si3N4) and silicon oxide rich silicon (SRO).

Keywords: Coplanar line, characteristic impedance, silicon oxide, silicon ni-tride and silicon rich oxide silicon.

I M P E D A N C I A C A R A C T E R Í S T I C A D E G U Í A S D E O N D A C O P L A N A R E S C O N I N T E R F A S E S D I E L É C T R I C A S D E

Dra. Rebeca Leal Romero1, M.C. Víctor Enrique Gómez del Villar2, M.C. Marco Antonio Álvarez Medina3 y M.C. Luis Ernesto Anaya Tiscareño4

1, 2 , 3, 4 Universidad Politécnica de Aguascalientes,

Calle Paseo San Gerardo No. 207, Fracc. San Gerardo

Aguascalientes, Aguascalientes, México, C.P. 20342.

Enviado: 31 de octubre de 2015

Aceptado: 8 de diciembre de 2015

+

+

[email protected]

2R e v i s t a C i e n t í f i c a

2

3 4

SiO Si n SRO

SiO Si n SRO

I M P E D A N C I A C A R A C T E R Í S T I C A D E G U Í A S D E O N D A C O P L A N A R E S C O N I N T E R F A S E S D I E L É C T R I C A S D E ++

yy

Page 7: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Introducción

La Guía de Onda Coplanar (CPW, Coplanar Waveguide) pro-puesta por C. P. Wen en 1969 consiste de un conductor central con dos planos de tierra semi-infinitos a su alrededor, como se observa en la Figura 1, donde “t” representa el espesor de los conductores, “w” el ancho del conductor central y “g” es el ancho de ranu-ra entre el conductor central y los planos de tierra (Wen, 1969). Los grosores y permitividad del substrato determinan la constante dieléctrica efectiva (εeff), impedancia característica (Zo) y la ate-nuación (α) de la línea. Estos parámetros se derivan de técnicas de mapeo conformal (Simons, 2001). Las CPW’s tienen conside-rable atención debido a las ventajas que ofrecen sobre las líneas de microcinta convencionales especialmente para aplicaciones de Circuitos Integrados Monolíticos de Microondas (MMIC, Mono-lithic Microwave Integrated Circuits), por ejemplo con substrato de Arseniuro de Galeo, GaAs (Reyes, 1995), ya que permite la interconexión superficial entre diversos dispositivos tanto activos como pasivos. También se aplican en moduladores electro-ópti-cos, los cuales permiten que una señal de microondas sea aplicada sobre sus electrodos. En el caso de moduladores electro-ópticos, una película de óxido de silicio (como interface dieléctrica) es insertada entre los electrodos y el substrato, con la finalidad de disminuir la diferencia de velocidades óptica-eléctrica; mientras que en el caso de MMIC, evita corrientes de fuga entre el conduc-tor y el substrato.

Por el alto costo del GaAs, se ha optado por sustituirlo por silicio, el cual ofrece algunas ventajas al ser empleado como subs-trato (Bedair, 1992), como son:

Una tecnología madura.

Bajo costo.

Es buen conductor térmico.

Tiene excelente planaridad para todos los desarrollos Flip-Chip.

Fácil interconexión en los niveles del metal.

Facilita la realización de CPW’s, etc.

Figura 1. CPW propuesta por Wen.

Análisis cuasi-TEM de electrodos de microondas

En una guía de transmisión cuasi-TEM (modo de propagación cuasi-transversal electromagnético), el campo eléctrico calcula-do se reduce a un campo electrostático bidimensional, el cálculo de un campo estático proporciona la capacitancia por unidad de longitud C (en F/m) y la inductancia por unidad de longitud £ (en H/m) para la línea de transmisión equivalente (Chung y Chang, 1991). La impedancia característica a frecuencias altas es obteni-da por la siguiente expresión:

Donde Co es la capacitancia en los electrodos, C es la capaci-tancia cuando existe un dieléctrico entre los electrodos y el subs-trato, siendo c la velocidad de la luz.

La razón C/Co es la permitividad relativa efectiva εeff y el índice refractivo de microonda efectivo es obtenido por:

3 R e v i s t a C i e n t í f i c a

++++++

(1)

(2)

Page 8: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Para obtener C y Co se consideran la capacitancia de los elec-trodos sin considerar el dieléctrico Ccp, la reducción de C cuando existe un dieléctrico entre el substrato y el metal Cb y la capaci-tancia incremental de las paredes de los electrodos Ct, estas capa-citancias se observan en la Figura 2.

Figura 2. Esquema de las capacitancias Ccp, Ct y Cb.

donde:

Siendo ε0 la permitividad del espacio libre, εr la permitividad relativa del substrato y (K(k)) / (K(k’)) la integral elíptica com-pleta de primer tipo, dada por Churchil (1992), Spiegel (1991), Wadell (1991) y Collin (1990):

Para

Para donde

En la obtención de las capacitancias Ct y Cb se introducen coe-ficientes empíricos a1, a2, a3, a4, b1, b2, b3, b4 y b5 respectivamente para mejorar su exactitud (Chung y Chang, 1993), por lo tanto, Ct y Cb pueden aproximarse como:

donde:

Por lo tanto C y Co tienen una dependencia simple sobre los parámetros de la línea de transmisión ω, g, t y τb.

En el método de mapeo conformal la atenuación total de la CPW es expresada como la suma de la atenuación debido a las pérdidas dieléctricas en el substrato, a la atenuación debida a las pérdidas por los conductores y a los planos de tierra (Simons, 2001). La constante de atenuación debida a las pérdidas del con-ductor α(f) es obtenida por:

4R e v i s t a C i e n t í f i c a

(3)

(4)

(5)

(6)

(7)

(9)

(8)

(10)

(11)

Page 9: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Donde R(f) es la resistencia en serie por unidad de longitud de la línea de transmisión (Chung y Chang, 1991). Wheeler (1942) y Denlinger (1980) calculan la resistencia usando la regla de induc-tancia incremental.

Donde Rs es la resistencia del conductor. La resistencia en serie R(f) y la constante de atenuación α(f) calculadas son proporcio-nales a la raíz cuadrada de la frecuencia, así para frecuencias altas (donde R<ωL), estas cantidades pueden escribirse como:

Donde y R0 son las constantes de proporcionalidad, α0=R0⁄2Z. A bajas frecuencias estas pérdidas son independientes de la fre-cuencia hasta muy bajas frecuencias (cuando la reactancia llega a ser menor que la resistencia de línea, R>ωL); entonces las pérdi-das nuevamente llegan a ser proporcionales a la raíz cuadrada de la frecuencia.

Resultados

Con el análisis cuasi-TEM, se consideró el empleo de silicio como material de soporte y el uso de películas dieléctricas de di-ferentes grosores (τb) de óxido de silicio (SiO2), nitruro de silicio (Si3N4) y óxido de silicio rico en silicio (SRO); de esta manera se analizó el comportamiento de la impedancia característica (1), la cual se obtuvo como función de la razón w/g, considerando la variación los parámetros geométricos de las CPW’s, en este caso los rangos analizados de la CPW de la Figura 3 fueron 0.8 μm ≥ ω/g ≤ 10 μm, t = 1.3 μm y 0.5 μm ≥ τb≤ 2.9 μm.

Figura 3. CPW con película dieléctrica entre el substrato y el metal.

En la Figura 4 se presenta la gráfica de la impedancia caracte-rística de CPW’s con SiO2 como dieléctrico entre los electrodos y el substrato, así como diferente espesor del dieléctrico.

Figura 4. Impedancia característica para una CPW de silicio y dieléctrico SiO2.

En la Figura 5 se presenta la gráfica de la impedancia caracte-rística de CPW’s con Si3N4 como dieléctrico entre los electrodos y el substrato, así como diferente espesor del dieléctrico.

Figura 5. Impedancia característica para una CPW de silicio y dieléctrico Si3N4.

En la Figura 6 se presenta la gráfica de la impedancia caracte-rística de CPW’s con SRO como dieléctrico entre los electrodos y el substrato, así como diferente espesor del dieléctrico.

5 R e v i s t a C i e n t í f i c a

(12)

(13)

(14)

Page 10: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Figura 6. Impedancia característica para una CPW de silicio y dieléctrico SRO.

Conclusión

De acuerdo a los resultados mostrados en las Figuras 4, 5 y 6, se concluye que se pueden obtener impedancias características similares en las guías de transmisión coplanares al emplear dife-rentes materiales dieléctricos entre los conductores metálicos y el substrato, mediante la variación de los parámetros geométricos de las CPW’s, lo cual resulta de gran interés, ya que dependiendo de la aplicación en la que se requiera emplear líneas coplanares, se tiene la posibilidad de elegir diferentes materiales y dimensiones geométricas que se adapten a la necesidad del usuario.

.

6R e v i s t a C i e n t í f i c a

Page 11: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Bibliografía

+ Wen, C.P., (1969). Co-planar Waveguide: A Surface Strip Transmission Lines Suitable for Nonreciprocal Gyromagnetic Device applications. IEEE Tran-sactions on Microwave Theory and Techniques. 17:1087-1090. ISSN # 0018-9480.

+ Simons, Rainee N. (2001). Coplanar Waveguide Circuits, Components, and Sys-tems. Canada: Wiley Series in Microwave and Optical Enginee-ring. ISBN # 0471161217.

+ Reyes, A.C. (1995). Coplanar Waveguide and Mi-crowave Inductors on Silicon

Substrates. IEEE Transactions on Microwave Theory and Te-chniques. 43:2016-2022. ISSN # 00189480.

+ Bedair, S.S. (1992). Fast, Accurate and Simple Approximate Analytic Formulas for Calculating the Parameters of Supported Coplanar Wavegui-des for (M)MIC’s. IEEE Tran-sactions on Microwave Theory and Techniques. 40:41-48. ISSN # 00189480.

+ Chung, H. y Chang, S.C. (1991). Modelling and Optimization of Traveling-Wave LiNbO3 Interferometric Modula-tors. IEEE Journals of Quantum Electronics. 27:608-617. ISSN # 00189197.

+ Churchil, R.V. (1992). Variable compleja y aplicacio-nes. Madrid: McGraw Hill. ISBN # 8476157304.

+ Spiegel, M.R. (1991). Variable compleja México: Mc-Graw Hill. ISBN # 0070602301.

+ Wadell, Brian C. (1991). Transmission Line Design Han-dbook. London: Artech House Publishers. ISBN # 0890064369.

+ Collin, Robert E. (1990). Field Theory of Guided Waves. 2ª Edition, IEEE Press, 1990.

+ Chung, H., Chang, S. C. (1993). Microwave Properties of Traveling-Wave Electrode in

LiNbO3 Electrooptic Modula-tors. IEEE Journal of Lightwave Technology. 11:1274-1278. ISSN # 07338724.

+ Wheeler, H.A. (1942). Formulas for the skin effects. IEEE Proceeding of the IRE, RFIC Virtual Journal. 30:412-424. ISSN # 00968390.

+ Denlinger, E.J. (1980). Losses of microstrip lines. IEEE Transactions on. Microwave Theory and Techniques. 28:513-522. ISSN # 00189480.

7 R e v i s t a C i e n t í f i c a

Page 12: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

R e s u m e n : En este artículo se describe el desarrollo de un sistema de adquisición y procesamiento de imágenes para la digitalización y recons-trucción computacional de objetos tridimensionales. Este perfilómetro o es-cáner 3D está formado por tres componentes principales: (1) un proyector multimedia con tecnología DLP (Digital Light Processing, en español Pro-cesamiento Digital de Luz) el cual se utiliza para la proyección de patrones de luz blanca estructurada, (2) una cámara CMOS (Complementary Metal Oxide Semiconductor, en español Semiconductor de Óxido Metal Comple-mentario) con una lente de 18 mm para la adquisición de la imagen y (3) una computadora con software especializado para el procesamiento de las imágenes. El sistema desarrollado emplea la fusión de dos técnicas amplia-mente conocidas: la triangulación láser y la proyección de luz estructurada; obteniendo con ello una nueva técnica de proyección por barrido de una línea de luz sin componentes mecánicos móviles.

Palabras clave: Escáner 3D, perfilometría tridimensional y triangulación.

A b s t r a c t : This paper describes the development of an image ac-quisition and processing system for the scanning and computer reconstruc-tion of three-dimensional objects. This profilometer or 3D scanner consists of three main components: (1) a multimedia projector with DLP (Digital Li-ght Processing) technology which is used for projecting patterns of structu-red white light, (2) a CMOS (Complementary Metal Oxide Semiconductor) camera with a lens of 18 mm for image acquisition and (3) a computer with specialized software for processing images. The developed system uses the merger of two widely known techniques: laser triangulation and structured light projection; thereby obtaining a new projection technique by sweeping line of light without moving mechanical components.

Keywords: 3D Scanner, tridimensional profilometry and triangulation.

D E S A R R O L LO D E

P O R T R I A N G U L A C I Ó N C O N L U Z B L A N C A

Ing. David Alonso Rodríguez García1, Dr. Gerardo Trujillo Schiaffino2, Dra. Didia Patricia Salas Peimbert3, Dr. Marcelino Anguiano Morales4, M.C. Luis Francisco Corral Martínez5 y M.C. Ismael Arturo Garduño Wilches6

1,2,3,4,5,6 Instituto Tecnológico de Chihuahua

Ave. Tecnológico #2909, Chi-huahua, Chih., México, 31310.

Enviado: 31 de octubrede 2015

Aceptado: 30 de noviembre de 2015

+

+

[email protected]

8R e v i s t a C i e n t í f i c a

ESCANER TRIDIMENSIONAL

ESCANER TRIDIMENSIONAL

Page 13: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Introducción

Con el vertiginoso avance de los modernos procesos de ma-nufactura, la industria se ha visto en la necesidad de incorporar herramientas tecnológicas de vanguardia que le permitan agilizar y garantizar el desarrollo de productos con una calidad cada vez mayor. Sin duda alguna, una de estas herramientas tecnológicas es la perfilometría 3D que permite medir con exactitud la forma de objetos tridimensionales.

Recientemente, con la evolución de la tecnología computa-cional y el desarrollo de mejores dispositivos de imagen, com-ponentes optoelectrónicos, dispositivos láser y otras fuentes de iluminación; se ha podido llegar a la comercialización de sistemas de medición tridimensional (escáneres 3D) con un desempeño bastante satisfactorio.

Existe una gran variedad de aplicaciones para la perfilometría 3D, por ejemplo la detección de obstáculos de robots móviles, la metrología dimensional de prototipos y productos terminados, la detección de fallas o defectos de fabricación y hasta la preserva-ción de piezas arqueológicas.

Actualmente, en la industria existe la necesidad de medir con precisión y rapidez la forma tridimensional de objetos sólidos, ya sea para acelerar el desarrollo de nuevos productos en base a una reconstrucción tridimensional de un objeto a reproducir (ingenie-ría inversa) o bien para la medición de objetos manufacturados con fines de control de calidad.

Las técnicas comúnmente utilizadas son la proyección de pa-trones de luz estructurada como puede ser observado en los tra-bajos de Chen y Quan (2005); Zhang y Su (2005); Su, Shi, Liu, Wang, Reinchard y Yiu (2005); Zhang, Su, Cao, Li, Xiang, y Chen (2005) ; Tay, Quan, Yu y Huang (2004) y el escaneo por triangula-ción láser presente en los trabajos de McIvor (2002); Muñoz-Ro-dríguez (2008); Asundi y Wensen (1999); Muñoz-Rodríguez, Ro-driguez-Vera y Servín (2000).

Proyección de patrones de luz estructurada

Una de las técnicas de óptica más utilizada para adquirir la información tridimensional de un objeto consiste en proyectar una serie de patrones desfasados de franjas sinusoidales, llama-dos rejillas sintéticas, sobre el objeto que se desea digitalizar. Las franjas deformadas por el objeto son capturadas por una cámara, digitalizadas y utilizadas en la reconstrucción computacional del mismo.

La parte fundamental de la proyección de franjas para la re-construcción tridimensional es el cálculo de fase, el cual está ba-sado en la detección de la fase del patrón de franjas. Este análi-sis proporciona mapas de fase discontinuos, por lo que se hace necesario utilizar algoritmos como la transformada de Fourier o corrimiento de fase para su interpretación. Este último algoritmo

permite determinar la fase del objeto a partir de N imágenes digi-talizadas en intensidad luminosa, al cambiar regularmente la fase en cierta cantidad conocida.

La Figura 1 muestra la secuencia de pasos correspondiente a la digitalización y reconstrucción computacional de un objeto utili-zando esta técnica. La Figura 1a muestra el objeto bajo prueba, la Figura 1b muestra el patrón de franjas proyectado sobre el ob-jeto, la Figura 1c corresponde al mapa de fase envuelta obtenido, la Figura 1d muestra el mapa de fase desenvuelta y finalmente la Figura 1e presenta la reconstrucción computacional del objeto escaneado.

Figura 1. Escaneo 3D por proyección de patrones de luz estructurada.

Esta técnica de escaneo es muy precisa pero requiere de la im-plementación de algoritmos computacionales relativamente com-plejos.

9 R e v i s t a C i e n t í f i c a

Page 14: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Triangulación por barrido de línea láser

Por otro lado, la técnica de escaneo por línea láser usa una delgada línea de luz láser proyectada sobre el objeto bajo prue-ba. Cuando la línea es proyectada, ésta sufre una deformación de acuerdo a la topografía de la superficie del objeto, así solo se re-quiere medir la deformación para recuperar la forma del objeto. La correlación entre la deformación de la línea laser y la forma del objeto se hace generalmente por triangulación.

Para obtener información sobre la forma del objeto completo, se barre la línea láser sobre toda la superficie del objeto por lo cual es necesario un mecanismo de movimiento controlado que permita mover al objeto de manera que la línea laser haga un ba-rrido completo del mismo. La Figura 2 muestra un ejemplo de los resultados obtenidos al emplear esta técnica, en la Figura 2a se observa el objeto de prueba, en la Figura 2b se puede observar la deformación que sufre la línea láser al ser proyectada sobre el ob-jeto, la Figura 2c muestra la imagen procesada para obtener solo la línea deformada y en la Figura 2d se muestra la reconstrucción tridimensional obtenida por la computadora.

Figura 2. Escaneo por triangulación de línea láser.

Los algoritmos computaciones requeridos para esta técnica de escaneo son muy sencillos y rápidos. Sin embargo, requiere de componentes mecánicos y electrónicos para control de movimien-to que generalmente incrementan los costos.

Escáner propuesto

La propuesta de escáner 3D que se presenta en este artículo consiste en combinar las dos técnicas anteriormente descritas, uti-lizando un proyector multimedia para generar una línea de luz blanca que sin requerir de mecanismos o electrónica adicional haga un barrido completo sobre el objeto bajo prueba y luego ana-lizar la deformación de esta línea de luz por simple triangulación.

Montaje experimental

Para el montaje experimental del escáner propuesto solo se re-quieren tres componentes:

Un sistema de proyección.

Un sistema de adquisición de imágenes.

Una computadora.

El sistema de proyección consta de un proyector multimedia marca Toshiba modelo TDP-FF1, se seleccionó este proyector en específico porque utiliza la nueva tecnología de procesamiento digital de luz (Digital Light Processing), la cual presenta como ventaja un mayor contraste en las imágenes y una mínima separa-ción entre pixeles a diferencia de la tecnología de cristal líquido (Liquid Crystal Display), utilizada en la mayoría de los proyecto-res multimedia.

El sistema de adquisición de imágenes consta de una cámara marca Pixelink modelo PL-B774U de 2 mega pixeles con sensor CMOS (Complementary Metal Oxide Semiconductor) y una lente formadora de imágenes tipo doble Gauss de 18mm de longitud focal marca Techspec.

El equipo de computo utilizado consistió en una computadora genérica con procesador Core i7 a 3.6Ghz, 8GB RAM, disco duro de 1TB y tarjeta de video PCI Express de 1Gb. El software de adquisición y de procesamiento para la digitalización 3D está de-sarrollado en el lenguaje de programación LabVIEW®.

La Figura 3 muestra una fotografía de la ubicación de com-ponentes, a excepción de la computadora, en el montaje experi-mental utilizado, donde se puede apreciar que tanto el proyector como la cámara se encuentran colocados de manera ortogonal a la superficie de referencia para el escaneo.

10R e v i s t a C i e n t í f i c a

+++

Page 15: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Figura 3. Montaje experimental.

Modelo matemático

En base a la técnica de triangulación se puede determinar la altura del objeto, se denomina así porque la relación entre el pro-yector, la cámara y el patrón de luz proyectado sobre el objeto forman un triángulo, con lo cual se realiza un análisis trigonomé-trico (Salas-Peimbert, Trujillo-Schiaffino, Mendoza Villegas, Ojeda-González, Almazán-Cuellar y Corral-Martínez, 2007). En primera instancia se calcularon las incógnitas hP correspondiente a la altura del proyector, XP correspondiente a la base del proyec-tor, hC que corresponde a la altura de la cámara y XC correspon-diente a la base de la cámara, en la Figura 4 se puede observar la geometría del arreglo.

Figura 4. Geometría del arreglo.

Dichas incógnitas se determinaron por análisis trigonométri-cos, contemplando que los valores reales se encuentran inmersos en los sistemas ópticos tanto de la cámara como del proyector. Una vez obtenidos los valores se procedió a calcular los ángulos de la línea proyectada en relación al proyector y a la cámara, θP y θC respectivamente. Si se interpreta la proyección de la línea en un punto específico de referencia, la misma sufrirá de un despla-zamiento cuando se encuentre ubicada sobre el objeto, dicha dis-tancia puede ser capturada por la cámara de manera que el punto de referencia y el punto sobre el objeto prolongados a la cámara pueden considerarse paralelos por la mínima diferencia que existe entre ambas distancias, dicha explicación se muestra interpretada en la Figura 5.

Figura 5. Análisis trigonométrico.

11 R e v i s t a C i e n t í f i c a

Page 16: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

En base al diagrama de la Figura 5 y teniendo en cuenta que la línea proyectada está en movimiento, se deben ir calculando en cada desplazamiento de la misma los valores de θP y θC, los cuales son los ángulos de la línea en relación al proyector y la cámara, con lo cual se obtienen los ángulos correspondientes θ1 y θ2 respectivamente, para finalmente determinar la altura del objeto Z que se obtiene gracias a la relación entre los ángulos θ1, θ2 y la distancia X, que es la diferencia entre el punto de referencia con el punto desplazado sobre el objeto. La expresión matemática para determinar la altura del objeto se da en la ecuación (1).

El punto donde se proyecta la línea va haciendo un recorrido li-neal, por lo que cuando la posición de la línea proyectada se ubica normal a la cámara se obtiene la ecuación (2).

Y cuando la posición de la línea, rebasa ese plano se deduce la ecuación (3).

Desarrollo del software

Para llevar a cabo la digitalización se establece una relación de calibración entre proyector y cámara, esto para minimizar cual-quier error relacionado a la lente como la aberración de distorsión o de esfericidad.

Los sistemas por triangulación presentan un punto de referen-cia fijo y en este caso el sistema de referencia está en movimiento, por lo tanto debe existir una relación entre la proyección y la ad-quisición, es decir estos deben de ejecutarse en forma simultánea, por tanto se desarrolla el software por secciones como se observa en la Figura 6.

Figura 6. Procedimiento de reconstrucción.

Procedimiento de captura y procesamiento de imagen

En primera instancia, el barrido de la línea, se da un paso o un desplazamiento seguido de la adquisición de la imagen por cada desplazamiento de la línea, en cada punto de captura se realiza un procesamiento a la imagen con las herramientas de Vision Assis-tant© de LabVIEW® las cuales permiten calcular la altura del objeto al aplicar las ecuaciones (1), (2) o (3) según corresponda. Finalmente se realiza una compilación de los datos obtenidos y se obtiene la digitalización tridimensional del objeto.

Una vez que se inicia el paso continuo de la línea se genera la captura de imágenes en cada paso de la misma. En la Figura 7a se muestra un objeto de prueba el cual es de color blanco mate, en la Figura 7b se muestra la captura de imagen de la proyección de la línea sobre dicho objeto y la Figura 7c muestra el resultado de la imagen ya procesada.

Figura 7. Adquisición y procesamiento.

Luego de la adquisición de imagen, se introduce a un algorit-mo computacional de procesamiento de imágenes para medir los valores detectados de la desviación de la línea de su posición de referencia.

Los valores obtenidos en este procesamiento se introducen en las ecuaciones correspondientes para determinar la altura del ob-jeto en el paso de la línea.

Después de escanear el objeto completo se genera un gráfico tridimensional con la reconstrucción computacional del objeto.

12R e v i s t a C i e n t í f i c a

(2)

(3)

(1)

Page 17: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

13 R e v i s t a C i e n t í f i c a

Resultados obtenidos

La Figura 8 se muestra la reconstrucción tridimensional des-pués de completar el escaneo del objeto bajo prueba, donde se puede observar que los resultados obtenidos fueron muy satisfac-torios.

Figura 7. Reconstrucción tridimensional del objeto.

Además de la representación gráfica mostrada se cuenta tam-bién con los valores numéricos de cada una de las alturas medi-das, lo cual puede ser muy útil para el cálculo de dimensiones y tolerancias.

Conclusión

En este trabajo se presenta el desarrollo de una nueva técni-ca de escaneo tridimensional mediante el barrido de una línea de luz blanca, simultáneo con la adquisición y procesamiento de las imágenes, el cual no utiliza componentes móviles o mecanismos, abaratando costos y evitando que se generen vibraciones que pue-den introducir errores en la medición.

El algoritmo matemático utilizado fue generado por triangula-ción lo que simplifica los cálculos, haciendo muy sencilla y rápida su implementación.

La interfaz de usuario desarrollada es sencilla y amigable, muestra la proyección de la línea y genera un gráfico con la re-construcción del objeto bajo prueba.

Aunque los resultados obtenidos con el objeto de prueba son muy satisfactorios se continúan realizando pruebas adicionales con otros objetos, con diferentes colores y texturas, con el fin de determinar las capacidades del escaneo y una vez concluidas estas pruebas, se procederán a realizar las pruebas de calibración está-tica correspondientes, con el fin de obtener parámetros como la precisión, la exactitud y el rango de error del escáner desarrollado.

Page 18: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Bibliografía

+ Chen, L. y Quan, C. (2005). Fringe projection profilo-metry with nonparallel illumina-tion: a least-squares approach. Optics Letters, 30, 2101–2103. ISSN #0146-9592.

+ Zhang, Q. y Su, X. (2005). High-speed optical measurement for the drumhead vibration. Optics Express, 13, 3110-3116. ISSN #1094-4087.

+ Su, W.H., Shi, K., Liu, Z., Wang, B., Reinchard, K. y Yiu, S. (2005). A large-depth-of-field projected fringe profilometry

using supercontinuum light illumination. Optics Express, 13, 1025-1032. ISSN #1094-4087.

+ Zhang, Q., Su, X., Cao, Y., Li, Y., Xiang, L. y Chen, W. (2005). Optical 3-D shape and deformation measurement of ro-tating blades using stroboscopic structured illumination. Optical Engineering, 44, 113601 (2005). ISSN #0091-3286.

+ Tay, C.J., Quan, C., Yu, T. y Huang, Y.H. (2004). Integra-ted method for 3-D rigid-body displacement measurement using fringe projection. Optical En-gineering, 43, 1152-1159. ISSN #0091-3286.

+ McIvor, A. M. (2002). Nonlinear calibration of a laser stripe profiler. Optical Enginee-ring, 41, 205-212. ISSN #0091-3286.

+ Muñoz-Ridríguez, J.A. (2008). Shape connection by pattern recognition and laser metrology. Applied Optics, 47, 3590-3608. ISSN #1559-128X.

+ Asundi, A. y Wensen, Z. (1999). Unified calibration technique and its applications in optical triangular profilometry. Applied Optics, 38, 3556-3561. ISSN #1559-128X.

+ Muñoz-Rodríguez, J.A., Rodriguez-Vera, R. y Servín, M. (2000). Direct object shape detection based on skeleton ex-traction of a light line. Optical Engineering, 39, 2463–2471. ISSN #0091-3286.

+ Salas-Peimbert, D., Trujillo-Schiaffino, G., Mendoza Villegas, P.G., Ojeda-González, D., Almazán-Cuellar, S. y Corral-Mar-tínez, L.F. (2007). Surfaces relief profilometry of solid objects by sweeping of a laser line. Procee-dings of AIP, 992, 947–950. ISBN #978-0-7354-0511-0.

14R e v i s t a C i e n t í f i c a

Page 19: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

15 R e v i s t a C i e n t í f i c a

Page 20: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

R e s u m e n : Pinturas QUIROZ (empresa MiPyME dedicada a la fabri-cación de recubrimientos, pinturas, esmaltes e impermeabilizantes de reciente creación), está localizada en Torreón, Coahuila. Para la elaboración de su plan estratégico, se apoyó en un modelo de administración estratégica (MAE). El proceso de dirección estratégica consta de tres etapas: (1) formulación, (2) im-plementación y (3) evaluación de la estrategia. Este proyecto se enfoca en la etapa de formulación y la conclusión principal a la que se llegó en este trabajo es que el MAE es un medio útil para identificar la situación actual de la MiPy-ME (en relación a su entorno y a su perfil competitivo) y permitió identificar estrategias y áreas de mejora. Siendo los beneficios directos que se obtuvieron al aplicar el modelo de administración estratégica: la identificación de factores externos y su efecto en la MiPyME, la identificación de las principales fortalezas y las debilidades, las acciones claves para el éxito y la elaboración del mapa estratégico.

Palabras clave: Administración estratégica y plan de negocios.

A b s t r a c t : Paintings QUIROZ (newly created company engaged in the manufacture of coatings, paints, enamels and waterproofing), is located in Torreon, Coahuila. For the preparation of its strategic plan relied on a stra-tegic management model (SMM). The strategic management process consists of three stages: (1) formulation, (2) implementation and (3) evaluation of the strategy. This project focuses on the formulation stage and the main conclusion reached in this paper is that the strategic management model (SMM) is a power-ful tool to identify the current situation of companies MiPyME (in relation to their environment and their competitiveness) and allowed the identification of strategies and areas for improvement. The direct benefits obtained by applying the strategic management model were the identification of external factors and their impact on MiPyME, identification of major strengths and weaknesses, key actions for the success and development of the strategic map.

Keywords: Strategic management model and business plan.

modelo deA P L I C AC I Ó N P R ÁC T I C A D E U N

M.I.I. Jorge Adolfo Pinto Santos 1, M.A. Francisco José Meléndez Gurza 2, Dr. Gustavo García Meléndez3 y M.C. Eduardo Rafael Poblano Ojinaga4

1,3,4 Instituto Tecnológico de la Laguna

Boulevard Revolución y Calza-da Cuauhtémoc s/n

Torreón, Coahuila, México, C.P. 27000.

2 Universidad Autónoma de Coahuila, Unidad TorreónTorreón, Coahuila, México,

C.P. 27000.

Enviado: 27 de octubre de 2015

Aceptado: 18 de dicimebre de 2015

+

[email protected]

+CASo PINTURAS QUIRoZNegoCIoS

+16R e v i s t a C i e n t í f i c a

Page 21: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

17 R e v i s t a C i e n t í f i c a

Introducción

La empresa Pinturas QUIROZ tiene su origen en la ciudad de Torreón, Coahuila, en el seno familiar, y en el mes de noviembre del 2012 comien-za su desarrollo como una empresa, con la llegada de un nuevo socio, desprendiéndose de las costumbres familiares, y se constituye como una sociedad anónima; debido a este cambio, se decide estructurar la organi-zación del negocio, manteniendo el nombre representativo de origen de la familia. Por lo tanto, se decide el nombre de Pinturas QUIROZ como marca representativa. En 2013 se renegocian los pasivos y se da inicio al saneamiento de las finanzas. A principios del 2014 se logra estabilizar su situación empresarial, por lo que se decide realizar una planeación estra-tégica para mantener el rumbo y el crecimiento previsto por la directiva para los próximos años. Actualmente se cuenta con una fábrica con equipo suficiente para surtir a los clientes actuales y con capacidad de crecimiento de hasta 500%, se trabaja con cinco empleados con tecnología básica de bajo costo y una cartera limitada de clientes frecuentes (50 clientes).

Para el año 2015, se desea crecer a tres sucursales (puntos de venta) y la implementación de un laboratorio para el control de la calidad de sus productos. Se está mejorando la presentación del producto con diseño de catálogos y una apariencia atractiva del envase. Asimismo, se está imple-mentando una página de internet para su promoción, contando además con una tienda en línea.

La administración estratégica se define como el proceso de administra-ción que entraña que la organización prepare planes estratégicos y después actúe conforme a ellos. Por lo que consta de elaborar, implementar y eva-luar los diferentes planes de operación propuestos en la elaboración, con

el fin de alcanzar objetivos y metas planteadas. Los objetivos planeados se clasifican por su implementación en corto, mediano y largo plazo. La administración estratégica maneja un presupuesto disponible limitado, por lo que es primordial la correcta aplicación de los recursos a los objetivos planeados, ya que los recursos no serían suficientes para alcanzar metas fuera de presupuesto. La administración estratégica tiene que ser puntual en su aplicación y en sus objetivos a alcanzar y deben de realizarse en un tiempo determinado, ya que sus consecuencias se mantienen a largo plazo, porque los cambios en el ambiente del negocio perduran (Guzmán, 2008).

Declaraciones de la visión y la misión. En la actualidad muchas empre-sas elaboran una declaración de la visión que responda la pregunta ¿qué queremos llegar a ser?. La elaboración de una declaración de la visión se considera a menudo como el primer paso a seguir en la planeación estra-tégica, precediendo incluso al desarrollo de una declaración de la misión. Las oportunidades y amenazas externas se refieren a las tendencias y suce-sos económicos, sociales, culturales, demográficos, ambientales, políticos, legales, gubernamentales, tecnológicos y competitivos que pudieron bene-ficiar o dañar en forma significativa a una empresa del futuro.

Un principio básico de la dirección estratégica es que una empresa requiere plantear estrategias para aprovechar las oportunidades externas y evitar o reducir el impacto de las amenazas externas. Las fortalezas y debilidades internas son las actividades que la empresa puede controlar y cuyo desempeño se califica como excelente o deficiente. Las fortalezas y las debilidades se determinan en relación con los competidores.

17 R e v i s t a C i e n t í f i c a

Page 22: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

El modelo de direcciónestratégica

La dirección estratégica se define como el arte y la ciencia de formular, implementar y evaluar decisiones multifuncionales que le permitan a una organización lograr sus objetivos, enfocándose en integrar la diferentes áreas funcionales (administración, merca-dotecnia,...) para lograr el éxito de la organización. El proceso de dirección estratégica se estudia y aplica mejor usando un modelo que representa cierto tipo de proceso.

Figura 1. Etapas de Planeación Estratégica.

El esquema que ilustra la Figura 1 es un modelo integral am-pliamente aceptado del proceso de dirección estratégica. La iden-tificación de la visión, misión, objetivos y estrategias existentes de una empresa es el punto de partida lógico de la dirección estra-tégica, porque la situación actual de una empresa podría excluir ciertas estrategias e incluso dictar un curso particular de acción (Thomson y Gamble, 2012).

Metodología

Para elaborar el análisis se siguieron los pasos descritos a con-tinuación, los cuales se correlacionan con las etapas del proceso de dirección estratégica (Figura 1):

+ Paso 1. Identificar la visión, misión, obje-tivos y estrategias existentes de la empresa.

+ Paso 2. Auditoría externa, para identificar las oportunidades y amenazas externas de la empresa y elaborar una matriz de evaluación del factor externo (EFE).

+ Paso 3. Auditoría externa, para la elabora-ción de la matriz de perfil competitivo (MPC). La matriz del perfil competitivo identifica los principales competidores de la empresa, así como sus fortalezas y debilidades específicas en relación con la posición estratégica de una empresa en estudio.

+ Paso 4. Auditoría interna, para la identifi-cación de las fortalezas y las debilidades internas de la empresa y elaborar una matriz de evaluación del factor interno (EFI).

+ Paso 5. Preparar una matriz de amenazas, oportunidades, debilidades y fortalezas. La matriz FODA (forta-lezas, oportunidades, debilidades y amenazas) es una herramienta de ajuste importante que ayuda a los gerentes a crear cuatro tipos de estrategias: FO, DO, FA y DA.

+ Paso 6. Acciones claves para el éxito de la empresa y mapa estratégico.

18R e v i s t a C i e n t í f i c a

Page 23: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Resultados y discusión

+ Paso 1. Identificación de la visión, misión, objetivos y estrategias existentes en la empresa:

Visión: Ser líder regional en la preferencia de los pintores para sus soluciones. Y ser considerado dentro

de los liderazgos a nivel nacional en el 2020.

Misión: La producción de pintura para el ramo profesional, con la mejor calidad y precio competitivo

que prefiera el pintor.

Valores: La empresa fundamenta sus esfuerzos basados en el ser humano, el espíritu de servicio, el liderazgo, el trabajo en equipo, la calidad y el alto desempeño.

Objetivos: Estratégicos, financieros, de negocios global, así como también funcionales de apoyo, como producción, mercadotecnia, ventas, finanzas y recursos humanos.

+ Paso 2. Identificar las oportunidades y amenazas externas de la empresa. Elaborar una matriz de eva-luación del factor externo (EFE).

La matriz EFE permitió resumir y evaluar la información de las fuerzas externas dividiéndolas en cinco categorías principales. La matriz EFE se desarrolló según lo especificado por David F. (2003).

Nota: el 2.45 indica que la empresa está reaccionando de manera media en promedio, teniendo mucho camino por delante para la mejora

continua, sobre todo lo relacionado a las amenazas.

+ Paso 3. Elaboración de la matriz de perfil competitivo (MPC).

Con la matriz de perfil competitivo se identificó a los princi-pales competidores de la empresa, así como sus fortalezas y de-bilidades específicas en relación con la posición estratégica. Las clasificaciones se refieren por tanto a las fortalezas y debilidades, donde 4 corresponden a la fortaleza principal, 3 a la fortaleza me-nor, 2 a la debilidad menor y 1 a la debilidad principal. La matriz fue desarrollada siguiendo las especificaciones de David (2003).

Nota: En este momento la empresa se encuentra por debajo de los competidores, por lo que existe un reto importante para mejorar en distintas áreas.

19 R e v i s t a C i e n t í f i c a

Page 24: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

+ Paso 4. Identificación de las fortalezas y las debilidades internas de la empresa y elaborar una matriz de evaluación de factor interno (EFI).

Este paso que constituyó un resumen en la conducción de una auditoría interna de la dirección estratégica es la elaboración de una matriz EFI. Esta herramienta ayuda para la formulación de la estrategia al resumir y evaluar las fortalezas y las debilidades principales en áreas funcionales de una empresa, al igual propor-cionó una base para identificar y evaluar las relaciones entre estas áreas (David F., 2003).

Nota: Se tiene una fortaleza interna promedio de 2.55, estando el área de oportunidades en las debilidades fortaleciéndolas y tratando deeliminarlas.

De manera similar a la matriz EFE y a la MPC, la matriz EFI se elaboró en 5 pasos descritos anteriormente. Sin importar cuantos factores están incluidos en una matriz EFI. El puntaje de valor to-tal varía de 1.0 a 4.0, siendo el promedio 2.5. Los puntajes de va-lor por debajo de 2.5 caracterizan a las empresas que son débiles internamente, mientras que los puntajes por encima a 2.5 indican una posición interna sólida.

+ Paso 5. Preparación de la matriz de forta-lezas, oportunidades, debilidades y amenazas (FODA) y presen-tación de las ventajas y desventajas de estrategias alternativas.

Con la ayuda de la matriz FODA, se crearon estrategias de los cuatro tipos (estrategias FO, DO, FA Y DA), como se indican en la Tabla 4.

20R e v i s t a C i e n t í f i c a

.

Nota: Las estrategias están principalmente enfocadas a la promoción a la variedad de los productos, sus ventajas en precio y desempeño para generar un incremento en las ventas y aumento en la participación del mercado.

Page 25: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

+ Paso 6. Acciones claves para el éxito de la empresa y mapa estratégico.

De los análisis FODA y la determinación MAXI – MINI sobre los aspectos positivos y negativos de la empresa, se puede pun-tualizar las acciones a ejecutar para lograr el éxito dentro de la organización (Tabla 5).

En el mapa estratégico, se definen las estrategias en cuatro áreas claves de la organización (Tabla 6).

21 R e v i s t a C i e n t í f i c a

Page 26: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

22R e v i s t a C i e n t í f i c a

Conclusiones

La aplicación de la metodología propuesta cumplió con su objetivo, es decir, determinar las principales oportunidades y amenazas que enfrenta la empresa, así como detectar fortalezas y debilidades de la misma, lo que facilita el diseño y selección de estrategias de alto impacto, agregando objetividad al proceso de toma de decisiones y permitiendo que las decisiones tomadas tengan un gran impacto en el desempeño de la empresa.

Los resultados de este trabajo incluyen el cálculo de los si-guientes índices:

+ En la matriz EFE, el valor 2.45 indica que la empresa está reaccionando de manera media en promedio, teniendo mucho camino por delante para la mejora continua. Sobre todo en lo rela-cionado a las amenazas.

+ En la matriz MPC, se refleja que en este momento la empresa se encuentra por debajo de los competidores, por lo que existe un reto importante para mejorar en distintas áreas.

+ En la matriz EFI se detecta una fortaleza interna prome-dio de 2.55, estando el área de oportunidades en las debilidades, siendo el objetivo convertilas en fortalezas y tratar de eliminarlas.

+ En la matriz FODA y MAXI-MINI las estrategias están principalmente enfocadas a la promoción a la variedad de los pro-ductos sus ventajas en precio y desempeño, para generar un incre-mento en las ventas y un aumento en la participación del mercado.

Recomendaciones

Se proponen estrategias específicas que contribuyan a maximi-zar el rendimiento, así como la eficacia de las actividades y con esto aumentar el rendimiento de la empresa con la finalidad de ser líder a nivel nacional. Para la selección de estrategias, con la finalidad de mejorar las funciones de investigación y generación de empleos, se recomienda reflejar todas las actividades en pla-nes y programas establecidos, donde se indiquen, al menos, los responsables, fechas de inicio y de terminación de las actividades principales.

Visión propuesta: Ser líder regional en la preferencia de los pintores para sus soluciones. Y ser considerado dentro de los liderazgos a nivel nacional en el 2020.

Misión propuesta: La producción de pintura para el ramo profesional, con la mejor calidad y precio competitivo que prefiera el pintor.

Page 27: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Bibliografía

+ David, F. (2003). Conceptos de Administración Estratégica. Novena Edición, Editorial. Pearson Educación, México D.F.

+ Steiner, G. (1992). Planeación Estratégica: Lo que todo Director debe saber. Decimoquinta Edición, Editorial Compañía Editorial Continental, México D.F.

+ Guzmán Cedillo, Roa M (2008). Apuntes de la material de Planeación Estratégica. Facul-tad de Contaduría y Administra-ción, Universidad Autónoma de Coahuila, Unidad Torreón.

+ Thompson I Peteraf, Gamble I Strickland (2012). Administración Estratégica. Edi-ción 18a, editorial McGraw-Hill. México D.F.

23 R e v i s t a C i e n t í f i c a

Page 28: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

R e s u m e n : Actualmente, el tratamiento de aguas residuales involu-cra a la Nanotecnología, en donde las nanopartículas metálicas son usadas para inhibir el crecimiento de microorganismos. Después de un tratamiento de des-infección con nanopartículas, las mismas deben ser retiradas del agua debido a que los materiales nanoestructurados pueden ser tóxicos para los animales y las plantas. En esta investigación, se demuestra la inestabilidad para nanopartículas de plata en aguas de uso nanotecnológico en un proceso de floculación en el la-boratorio. La concentración de un floculante es variada para precipitar el material nanoestructurado del agua y el plasmón de resonancia superficial de las nanopar-tículas de plata fue seguido alrededor de los 426nm por espectroscopía UV-Vis. De acuerdo a los resultados obtenidos la floculación puede realizarse con 1% de floculante de hierro para remover el nanomaterial; en este caso las nanopartículas de plata pueden tratarse fácilmente por floculación en un tiempo corto.

Palabras clave: Plasmón, tratamiento de agua y coloide.

A b s t r a c t : Actually, water treatment involves the Nanotechnology, metal nanoparticles are used to inhibit microorganisms in water such as silver nanoparticles influence the growth in bacterial and fungal cultures. After that, nanoparticles could be treated because nanostructured materials are toxic for ani-mals and plants. This research demonstrates the wastewater treatment of silver nanoparticles by flocculation technique in solution. Flocculant concentration are varied to precipitate nanostructured material waste and the surface resonan-ce plasmon of silver nanoparticles about 426 nanometers are determinated by UV-Vis spectroscopy. According to the results for flocculation process could be improved with 1% of iron flocculant; in this case silver nanoparticles are treated with an easy method in few seconds.

Keywords: Plasmon, wastewater treatment and colloid.

E S TA B I L I DA D D E N A N O PA R T Í C U L A S D E P L ATA E N U N P R O C E S O D E

Dr. Víctor Alfredo Nolasco Arizmendi1, M.C. Abygail Adarely Martínez Mendoza2 y T.S.U. Haly Surisadday Juárez Pérez3

1,2,3 Universidad Tecnológica de Tula-Tepeji, Av. Universidad Tecno-

lógica No. 1000. El Carmen,Tula de Allende, Hidalgo,

México, C.P. 42830

Enviado: 31 de octubre de 2015

Aceptado: 8 de diciembre de 2015

+

[email protected]

[email protected]

24R e v i s t a C i e n t í f i c a

FLOCULACIÓN FLOCULACIÓN

Page 29: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Introducción

La floculación consiste en la aglomeración de las partículas de mayor tamaño y peso específico llamados flóculos, lo que les per-mite sedimentar con facilidad a los contaminantes. Los objetivos generales de la floculación son reunir microflóculos para formar partículas con mayor peso (superior al del agua) y compactar así el flóculo (Manahan, 2007). Este proceso puede ser utilizado para la remoción de turbiedad orgánica o inorgánica en el agua, elimi-nación de colorantes y de sustancias no deseadas en la solución, como lo pueden ser las nanopartículas de plata. Para llevar a cabo este proceso de una forma más eficiente, es necesario tener en cuenta las diferentes características físicas y químicas del agua, la dosis y concentración efectiva del coagulante, la intensidad y el tiempo de mezcla en la floculación (Manahan, 2007). Al agregar el o los coagulantes a la solución, inmediatamente iniciará una serie de reacciones hidrolíticas las que consisten en adherir iones a la superficie de las partículas presentes en la suspensión, debido a esto las partículas tienen oportunidad de unirse a otras, por co-lisiones sucesivas hasta formar flóculos que van a ir aumentando su tamaño con el tiempo.

La rapidez con que esto ocurre va a depender directamente del tamaño de las partículas con relación al estado de agitación del líquido, de la concentración de las mismas y de su desestabiliza-ción. Los floculantes son polímeros con pesos moleculares muy elevados, los polímeros son moléculas orgánicas solubles en agua formadas por monómeros, repetidos en una cadena larga. Estos floculantes pueden ser de diferente naturaleza: mineral, orgáni-co natural y orgánico de síntesis. Una de las ventajas del uso de floculantes es que la dosificación de estas sustancias se lleva a cabo en concentraciones muy bajas, lo que trae consigo una gran ventaja al compensar el costo del polímero. Además de esta ven-taja, los floculantes están siendo empleados en el tratamiento de agua potable debido a que se produce una menor cantidad de lodos tratables (Manahan, 2007).

Hoy en día se producen nuevas tecnologías a gran escala y mu-chas de ellas, son utilizadas sin antes pasar por una investigación sobre los posibles efectos a corto y largo plazo que tendrán sobre el ambiente (Morán, Martínez, Sant, y Xarau, 2011). La Nano-tecnología es un ejemplo de este caso, por lo tanto debe llevarse a cabo un estudio, así como la evaluación de los diferentes esce-narios en los que podría llegar a tener serías implicaciones. Uno de los hechos que demuestra el riesgo de la materia manipulada a escala nanométrica, es que aunque la cantidad de materia utili-zada para un proceso nanotecnológico sea mínima, el tamaño de las partículas sigue siendo mucho menor, lo suficiente como para penetrar la piel. Se sabe que las sales solubles de plata, especial-mente el nitrato de plata (AgNO3), son letales en concentraciones de hasta 2g. Los compuestos de plata pueden ser absorbidos len-tamente por los tejidos corporales, provocando argiria, que es una intoxicación por plata. En este caso, la plata se deposita tanto en piel como en órganos, otorgando una coloración gris denominada cerulodermia. Las nanopartículas en contacto con el medio que le rodea lograrían tener infinidad de reacciones dependiendo del tipo de nanopartícula, el medio (agua, aire y suelo) y las condiciones del ambiente.

Esas nanopartículas en dichos medios y condiciones, actual-mente son la preocupación y cuestión de estudios e investigacio-nes sobre el impacto que podría llegar a tener al interactuar con el medio ambiente y el humano (Asghari, Lee, Kim, Jeon y Choi, 2012); es por ello que en esta investigación las nanopartículas de plata obtenidas por un proceso de bioreducción química con un extracto de Tillandsia recurvata L., son removidas del agua con un floculante de hierro y el seguimiento de su estabilidad estudiada por espectroscopía ultravioleta visible determinando el plasmón de resonancia superficial del material nanoestructurado.

25 R e v i s t a C i e n t í f i c a

Page 30: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Metodología

Las nanopartículas de plata se obtuvieron realizando una solu-ción 1:1 en volumen de un extracto acuoso de Tillandsia recurvata L., comúnmente llamado heno y una solución de nitrato de pla-ta como precursor metálico en la obtención del material nanoes-tructurado. Para obtener el extracto de Tillandsia recurvata L., se obtiene la planta y se lava con agua corriente, después se corta en trozos de aproximadamente 2cm de largo y se lava con agua destilada, una vez obtenida la planta en trozos, éstos se pesan en una relación de 1% con respecto al volumen de agua utilizado, se lleva a ebullición durante 2 minutos, después el extracto se retira de ebullición, filtra y lleva a temperatura ambiente antes de mezclar con la solución del precursor metálico. La solución de nitrato de plata se preparó a una concentración de 10-3M en agua destilada o de preferencia desionizada. Después de mezclar el precursor metálico y el extracto de la planta, la reacción se lleva acabo a temperatura ambiente durante 48 horas hasta obtener una señal de las nanopartículas alrededor de los 426nm. Para llevar acabo la floculación se utiliza un coagulante comercial marca in-organic ventures el cual contiene agua: 7732-18-5, ácido nítrico: 7697-37-2 y hierro: 7439-89-6; con 10µg/mL de Fe estabilizado con HCl. El seguimiento en la estabilidad de las nanopartículas de plata obtenidas se realiza siguiendo la disminución del máximo de absorción alrededor de los 426nm en un tiempo de 10s y varian-do la cantidad de floculante (6-50µL), en un volumen de 1000µL de nanopartículas de plata en el espectrofotómetro UV-Vis (Ther-moScientific Genesys 10S), en un rango de 190nm a 800nm. Se realizaron mediciones del plasmón de resonancia superficial para nanopartículas de plata, la disminución de la absorbancia con respecto al tiempo (10 segundos) a una concentración de 6µL de floculante de hierro y los cambios en la disminución de la absor-ciones de las nanopartículas con respecto al volumen del floculan-te (6-50µL). La Figura 1 muestra el diagrama del procedimiento utilizado en la metodología de floculación.

Figura 1. Diagrama de metodología utilizado en el proceso de floculación de nanopartículas de plata.

Resultados y discusión

Se obtuvieron nanopartículas de plata después de 48 horas de reacción una vez mezclado el nitrato de plata con una concentra-ción de 10-3M y el extracto de la planta. Al terminar la reacción, la estabilidad del material nanoestructurado se ve afectado en unos cuantos segundos una vez agregado el Fe como coagulan-te, el plasmón de resonancia superficial de las nanopartículas de plata, alrededor de 426nm, disminuye su intensidad debido a que el Fe ha floculado el nanomaterial y lo ha separado del agua, per-diendo su propiedad óptica como material nanoestructurado. En la Figura 2 se muestra el plasmón de resonancia de las nanopartícu-las de plata a 426nm el cual disminuye inmediatamente después de agregar el floculante, en un barrido de 190-800nm hecho en el espectrofotómetro. La reacción y la pérdida de la propiedad óptica se realiza en unos cuantos segundos. En el espectro de absorción de las nanopartículas de plata (nanoAg) también aparecen picos en la región violeta (menor a 400nm) atribuidos a la biomasa del extracto de Tillandsia recurvata L. También en la región violeta aparecen señales atribuidas al floculante una vez agregado en 0, 3, 6, 9, 12 y 15 minutos debidos al HCl o Fe.

Figura 2. Plasmón de resonancia superficial de nanopartículas de plata alrededor de 426nm y la disminución del plasmón con 6µL de floculante de Fe de 0 minutos hasta 15 minutos.

La velocidad con que ocurre la reacción en la floculación es tan alta que le lleva 10 segundos al floculante de Fe para desesta-bilizar con 0.6% en volumen a las nanopartículas y sedimentarlas, esta relación hace apropiado al floculante para desestabilizar a las nanopartículas de plata obtenidas por una bioreducción quí-mica; es de importancia tratar a los materiales nanoestructurados en agua debido a que los nanocoloides pueden estar presentes du-rante varios años como material a escala nanométrica y originar toxicidad en el medio ambiente (Celis, Janor, Forgiarini, Rosen-zweig y García-Rubio, 2015). El floculante de hierro estabilizado en ácido clorhídrico es apropiado para llevar a cabo la remoción

26R e v i s t a C i e n t í f i c a

Page 31: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

del nanomaterial de plata debido a que utiliza una concentración menor al 1% y lo realiza en un tiempo relativamente corto. La Figura 3 muestra disminución de la absorbancia a 425nm en un tiempo de 10 segundos para nanopartículas de plata con 0.6% de coagulante. La pendiente de esta recta tiene un valor de -0.0179 la cual indica la disminución en la absorbancia en un tiempo de 10 segundos e indica que la reacción se esta llevando en un tiempo relativamente corto.

Figura 3. Disminución de la absorbancia con respecto al tiempo (10 segundos) a una concentración de 6µL.

También se han determinado las pendientes para volúmenes desde 7μL a 50μL, las cuales indican los cambios en las veloci-dades de la disminución en las absorbancias de las nanopartículas de plata alrededor de los 426nm en un tiempo de 10 segundos. La Tabla 1 muestra los cambios en las disminuciones de las absorban-cias en plasmones de nanopartículas de plata, la cual no presenta una oscilación significativa en los datos con respecto a la concen-tración del floculante, siendo casi imperceptible el cambio a un volumen de 50μL de floculante que varía de 0.0004 en el cálculo de pendiente, que para el volumen de 7μL.

Tabla 1. Cambios en la disminución de la absorciones de las nanopartículas de plata a diferentes volúmenes de coagulante, se muestra la pendiente que representa el cambio y el coeficiente de correlación para las rectas en 10 segundos.

Hasta el momento se ha comprobado que el Fe estabilizado en HCl es un floculante eficaz para remover las nanopartículas de plata en tiempos de alrededor de 10s y se ha demostrado siguiendo las absorbancias que presenta el plasmón de resonancia caracterís-tico de las nanopartículas por espectroscopía ultravioleta-visible (Safaei-Naeini y Salahi, 2012). Este plasmón es característico para nanopartículas metálicas y es debido a las oscilaciones de elec-trones presentes en metales, en donde el fenómeno se intensifica debido a que los electrones se mueven en volúmenes pequeños, que a nivel nanométrico existe una interacción con la longitud de onda incidente de la región visible en las nanoesferas, también existe plasmón de resonancia para nanopartículas de oro y de pla-tino pero se encuentran alrededor de los 500nm (Płaza, Chojniak y Banat, 2014). En la Figura 4 se muestra la floculación realizada por las nanopartículas con el 1% de floculante, en donde el color amarillo característico de estas nanopartículas de plata desaparece en unos cuantos segundos después de agregar el floculante, en el fondo del frasco se observa el material completamente floculado.

Figura 4. Floculación de nanopartículas de plata con Fe/HCl.

27 R e v i s t a C i e n t í f i c a

Page 32: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Conclusión

La floculación es una alternativa para el tratamiento de nano-partículas de plata coloidales obtenidas por bioreducción química en concentraciones relativamente pequeñas de floculante, en este caso de Fe, en tiempos cortos ocurre una desestabilización y pre-cipitación del nanomaterial removiendo la plata nanoestructurada del agua, lo que vuelve viable el procedimiento para la remoción de nanocoloides de plata en un tiempo corto como para tratarse de mejor forma un residuo a nivel industrial o de laboratorio. El seguimiento de la estabilidad de las nanopartículas de plata se determina por espectroscopía ultravioleta-visible en un proceso de floculación en el laboratorio de caracterización de nanomate-riales, con relativa facilidad.

28R e v i s t a C i e n t í f i c a

Page 33: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

29 R e v i s t a C i e n t í f i c a

Bibliografía

+ Celis, M.T.; Janor, O.; Forgiarini, A.; Rosenzweig, P. y García-Rubio, L. (2015). Efecto de partículas nanométricas sobre las propiedades de suspensiones. Revista Ciencia e Ingeniería. 36 (1): 19-30. ISSN # 1316-7081.

+ Płaza, G.A.; Chojniak, J. y Banat, B.M. (2014). Biosur-factant Mediated Biosynthesis of Selected Metallic Nanoparticles . International Journal of Mo-lecular Sciences. 15 (1):13720-13737. DOI:10.3390.

+ Safaei-Naeini, M.A.F. y Salahi, E. (2012). Suspension stability of titania nanoparticles studied by uv-vis spectroscopy

method . Iranian Journal of Ma-terials Science & Engineering , 9 (1):62-68.

+ Asghari, S.; Johari, S.A.; Lee, J.H.; Kim, Y.S., Jeon, Y.B. y Choi, H.J. (2012). Toxicity of various silver nanoparticles compared to silver ions in Daph-nia magna. Journal of Nanobio-technology. 10 (14):1-11.

+ Manahan, S. (2007). In-troducción a la Química Ambien-tal. España: Editorial Reverté UNAM. ISBN # 968-36-6707-4.

+ Morán, I.; Martínez, J.; Sant, L.M. y Xarau, S.N. (2011). Toxicología Clínica. Madrid, Es-paña: Difusión Jurídica y Temas de Actualidad S.A. ISBN # 978-84-95545-52-7.

Page 34: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

R e s u m e n : Se presentan los resultados de un análisis esta-dístico orientado a detectar la presencia de todas las discapacidades en los beneficiarios que acudieron para valoración y tratamiento en el departamento de Rehabilitación Física en las instalaciones de la institu-ción privada Fundación Juárez Integra, A.C. ubicada en Ciudad Juárez, Chihuahua, atendidas en el periodo 2004 - 2009.

Se realizó un estudio descriptivo, transversal, retrospectivo y cuan-titativo, el cual incluyó los expedientes clínicos elaborados a partir del mes de enero de 2004 a diciembre de 2009. Se revisaron Dos mil 393 expedientes clínicos de primera vez del departamento de Rehabilitación Física, encontrando diferentes discapacidades, entre las más represen-tativas fueron: retraso en el desarrollo psicomotor, con el 34.47%, pa-rálisis cerebral con el 28.79% y discapacidad intelectual con el 19.30%.

Se obtuvo información importante para continuar con la detección y tratamiento temprano de personas con parálisis cerebral y otros tipos de discapacidades, siendo necesario ampliar el registro nacional para ser consultado y compartido por todos los que de una u otra manera están relacionados en esta rama médica, recordando que hasta hoy los referentes que se utilizan son datos recabados en el extranjero.

Palabras clave: Discapacidades y prevalencia en México.

A b s t r a c t : This study shows the statistical results performed to detect the presence of all disabilities in the recipient who was introduced for assessment and treatment in the Department of Physical Rehabilitation at the premises of the Private Institution Juarez Integra Foundation AC of Ciudad Juarez, Chihuahua Attended Between 2004 and 2009 in Juarez In-tegra Foundation, A.C.

P r e va l e n c i a d e l a s D i s c a pac i D a D e s

Médico Francisco Rangel Araiza1 , Médico Álvaro Arteaga Ríos2 , Médico Jorge Hernández Sánchez3 y M.C.S.P. Alfredo Alfonso Cábel Acevedo4

1,2,3 Asociación de Especialistas en Neuro-Rehabilitación, A.C.

4Universidad Tecnológica de

Ciudad Juárez, Av. Universidad Tecnológica # 3051, Colonia Lote

Bravo II, C.P. 32965, Ciudad Juárez, Chihuahua.

Enviado: 30 de octubre de 2015

Aceptado: 8 de diciembre de 2015

[email protected]

Diagnosticadas y Atendidas

30r e v i s t a c i e n t í f i c a

e n F u n dac i ó n J uá r e z i n t e g r a , a . c . , < P e r i o d o 2 0 0 4 - 2 0 0 9 >

+

Page 35: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

A descriptive, cross-sectional, retrospective, quantitative study, which included medical records from January 2004 to December 2009, which were the first time performed. 2,393 records of patients who were seen for the first time were reviewed during this period at physical rehabilitation department. Different disabilities were found and the most representative are as follows: Psychomotor Development Delay, with 34.47%; Cerebral Palsy with Intellectual Disability and 28.79% with 19.30% respectively.

Important to continue the early detection and treatment of people with cerebral palsy and other disabilities information was obtained, the neces-sity to extend the national registry to be accessed and shared by all those who in one way or another work in this branch. Considering that until this day the references that are used are only data collected abroad.

Keywords: Disabilities and prevalence in Mexico.

Introducción

En los Estados Unidos Mexicanos se trabaja cotidianamente, en las instituciones de salud tanto públicas como privadas, en el tratamiento de la discapacidad, pero la información respecto a la prevalencia de los diversos padecimientos en la población es limi-tada, a pesar de que la discapacidad es considerada un problema de salud pública de alto impacto en el país (Urquieta, 2008).

Es por ello que se considera que se requiere realizar investi-gación documental que indique las proporciones de prevalencia de los tipos de discapacidad, ya que generalmente se trabaja con los datos de prevalencia de otros países. Se han establecido linea-mientos generales, como en la Clasificación Internacional de las Deficiencias, Discapacidades y Minusvalías, publicado en 1980, lo que favoreció que la Organización de las Naciones Unidas de-signase el año de 1981 como el Año Internacional de las Personas con Discapacidad, lo cual motivó la publicación en México, en 1997, del Manual de Elaboración de Información Estadística para Políticas y Programas Relativos a Personas con Discapacidad.

En México, se han realizado varios estudios para la detección de personas con discapacidad, como la Encuesta Nacional de In-válidos en 1982 por la Secretaria de Salud, el Conteo de Pobla-ción y Vivienda de 1995 y el Registro Nacional de Menores con Discapacidad del Instituto Nacional de Estadística y Geografía, Desarrollo Integral de la Familia y la Secretaría de Educación Pú-blica (INEGI, 2000). De las cifras nacionales en discapacidad está documentado que existían en el año 2000, 32.6 millones de niños mexicanos y que 236 mil niños, de entre 0 y 14 años, tenían algún tipo de discapacidad, distribuida de la siguiente manera: 35.1% motriz, 33.9% mental, 15.1% visual, 10.3% del lenguaje y el 5.6 % dentro de las discapacidades múltiples, siendo la proporción igual para ambos sexos (INEGI, 2004).

Se señala que la prevalencia por género y edad es mayor en mujeres, así como también se señala que en clases sociales de bajo ingreso económico existe una mayor frecuencia y un mayor índice de mortalidad en los hombres menores a los 50 años; la prevalencia es más frecuente en las mujeres después de los 50 años. En el año 2000, había un 17% de personas de 65 años con discapacidad, siendo el pronóstico para el año 2050 del 30% (Solsona y Viciano, 2004).

+

31 r e v i s t a c i e n t í f i c a

Page 36: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

La Fundación Juárez Integra A.C. es una red de asociaciones civiles no lucrativas, autónomas enlistadas a continuación:

+ Amigos Unidos Contra la Esclerosis Múltiple, A. C. + Asociación de Autismo de Ciudad Juárez, A. C.+ Centro de Audición y Aprendizaje, A. C.+ Centro de Equinoterapia de Ciudad Juárez, A. C.+ Centro para la Integración y Desarrollo de las Personas con Discapacidad Visual, A. C. + Instituto de Desarrollo Down, A. C.

Las cuales atienden discapacidades específicas como alteracio-nes neuromusculares, esclerosis múltiple, autismo, discapacidad auditiva y de lenguaje, discapacidad visual y baja visión, síndro-me de Down, entre otros. Todas las asociaciones participantes en-vían a sus beneficiarios a revisión al departamento de Rehabilita-ción Física para detectar si hay alguna discapacidad concurrente que deba manejarse en ese servicio.

Objetivo del estudio

El estudio tiene la intención de divulgar la prevalencia de dis-capacidades atendidas en el periodo 2004 - 2009 en Fundación Juárez Integra, A.C., para ello fue necesario:

+ Documentar la prevalencia de discapacidades de tipo motriz.

+ Documentar la prevalencia de discapacidades cognitivas.

+ Documentar la prevalencia de discapacidades sensoriales.

32r e v i s t a c i e n t í f i c a

Page 37: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Metodología

Se efectuó un estudio descriptivo, transversal, retrospectivo y cuantitativo en Fundación Juárez Integra, A.C., revisando los expedientes clínicos elaborados a partir de enero de 2004 hasta diciembre de 2009, de primera vez, excluyendo todos aquellos que se encontraban repetidos, así como los que no fueron atendidos por diversas causas.

Las variables utilizadas en esta investigación fueron edad, sexo y tipo de discapacidad (motriz, cognitiva y sensorial).

Se recopiló la información y se creó una base de datos en Mi-crosoft Excel. Para el análisis estadístico se tomaron en cuenta las medidas de tendencia central (moda, media, mediana) y por-centajes.

Resultados

Se revisaron Dos mil 393 expedientes clínicos de primera vez del departamento de Rehabilitación Física; de ellos, 119 be-neficiarios (7.13%) no fueron consultados en la fecha de la cita programada por causas diversas, por ejemplo, falta de medios de transporte, enfermedad concurrente, mal estado del tiempo, ina-sistencia del médico, etc. La distribución de los pacientes atendi-dos por sexo, en la población total fue de un 54.91% hombres y 45.09% mujeres

Figura 1. Distribución de pacientes atendidos por sexo.

El rango por edades, de los pacientes atendidos, oscila desde menor de 1 año hasta mayor a 66 años, distribuyéndose de la si-guiente manera: menor de 1 año 5%, de 1 a 5 años 36%, de 6 a 15 años 32%, de 16 a 35 años 12%, de 36 a 65 años 12% y mayor a 66 años 3%. La Figura 2 presenta los rangos de edades, donde se observa que el 68% de la población estudiada tiene un rango de edad de 1 a 15 años.

Figura 2. Rango de edades.

La Tabla 1 presenta la frecuencia de los diagnósticos por tipo de discapacidad, posterior a la revisión de la totalidad de los ex-pedientes.

Tabla 1. Cantidad y porcentaje de las discapacidades detectadas.

Se observó que el diagnóstico más frecuente fue el retraso en el desarrollo psicomotor con 825 eventos (34.47%), de los cuales el 56.96% fueron hombres y 43.04% mujeres. Seguido por la pará-lisis cerebral, con 689 eventos (28.79%), de los cuales el 56.16% fueron varones y 43.84% mujeres. Considerando los eventos de parálisis cerebral, topográficamente, conforme la disminución de la fuerza motora o parálisis parcial que afecta a los miembros, se encontraron con cuadriparesia 293 personas (42.53%), de las cua-les 53.92% corresponden al sexo masculino y 46.08% al sexo fe-menino; 154 pacientes con diparesia (22.35%), donde 54.54% son varones y 45.46% mujeres; 29 pacientes con triparesia (4.20%), 72.41% varones y 27.59% mujeres; 18 pacientes con monoparesia (2.61%), de los cuales el 61.11% son varones y 38.89% mujeres. En 105 pacientes no se especifican miembros afectados (15.24%), siendo 60% varones y 40% mujeres. Asimismo se encontraron 88 pacientes con hemiplejia (12.77%), de los cuales 49 pacien-tes (55.69%) la presentaron del lado derecho, 57.14% hombres y 42.86% mujeres; 39 pacientes (44.32%) en el lado izquierdo, 56.41% hombres y 43.59% mujeres. En 2 casos no se especificó el lado de afección, siendo la totalidad del sexo femenino (Figura 3, 4 y 5).

33 r e v i s t a c i e n t í f i c a

Page 38: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Figura 3. Topográficamente.

Figura 4. Disminución de la fuerza motora por sexo.

Figura 5. Hemiplejia por sexo.

Fueron identificados 462 pacientes con discapacidad intelec-tual (19.30%), de los cuales 52.81% fueron varones y 47.19% mujeres. Se encontraron 86 casos de evento vascular cerebral (3.59%), 56.98% hombres y 43.02% mujeres.

34r e v i s t a c i e n t í f i c a

Page 39: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Para meningitis o meningoencefalitis, se observaron 75 casos (3.13%), 46.67% hombres y 53.33% mujeres En el trastorno por déficit de atención con y sin hiperactividad, se encontraron 74 ca-sos (3.09%), de ellos el 60.81% fueron varones y el 39.19% muje-res. Los casos de espina bífida. meningocele y mielomeningocele encontrados fueron 66 (2.75%), de ellos el 56.06% pertenecen al sexo masculino y el 43.94% al femenino.

Fueron identificados 48 pacientes con lesión medular (2.01%), siendo el 79.17% de sexo masculino y el 20.83% de sexo femeni-no. Se identificó que muchos de estos casos se relacionaron con herida por arma de fuego, 25 hombres y una mujer, concordante con la violencia social armada que ocurrió en Ciudad Juárez, en el periodo estudiado.

Con respecto a los pacientes con síndrome de Down se encon-traron 36 casos (1.50%), de los cuales el 55.55% fueron de sexo masculino y 44.45% fueron de sexo femenino (Figura 6).

Figura 6. Síndrome de Down.

La esclerosis múltiple se presenta en 32 casos (1.33%) de los beneficiarios, siendo el 37.50% varones y 62.50% mujeres. Se de-tectaron 27 personas con autismo (1.13%) de las cuales el 77.73% fueron del sexo masculino y el 22.27% del sexo femenino. Tras-tornos cromosómicos se detectaron en 22 pacientes (0.92%) sien-do 54.55% masculinos y 45.45% femeninos. Las miopatías detec-tadas fueron de Becker y Duchenne o no específicas y dieron un total de 16 (0.66%) siendo 75% varones y 25% mujeres. Síndrome de West diagnosticados fueron 20 pacientes (0.83%), siendo 55% de sexo masculino y 45% femenino. Síndrome de Guillian Barré se encontraron 10 pacientes (0.42%) de los cuales el 60% fueron hombres y 40% mujeres.

Se detectaron múltiples hallazgos, signos y síntomas, muchos de ellos asociados a otros padecimientos, en particular a la pará-lisis cerebral. Por orden de frecuencia y asociación a esta entidad clínica, se anotan en la Tabla 2, convulsiones, trastornos ortopédi-cos, hidrocefalia, etc. Donde se segmentaron para el analisis mil 668 expedientes del total, estando las proporciones calculadas en base a este número.

35 r e v i s t a c i e n t í f i c a

´

Page 40: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Tabla 2. Hallazgos encontrados en los expedientes.

Discusión

En este estudio descriptivo, transversal, retrospectivo y cuanti-tativo realizado en la población beneficiaria, que asistió a los ser-vicios médicos de la Fundación Juárez Integra, A.C. en el periodo 2004-2009, se muestra que es una institución que está abierta a la atención de la población con algún tipo de discapacidad neu-romotora, sensorial, cognitiva, de lenguaje, por lesión medular, enfermedades cromosómicas y otras.

Por ello, la gran diversidad de diagnósticos encontrados. Sin embargo, al investigar en general la incidencia de las personas con discapacidad atendida, se observa que la edad infantil de 1 a 5 años es la más frecuente con un 36%.

Si relacionamos esta información con lo manifestado por el INEGI, quienes auncian que de 32.6 millones de niños mexica-nos, 236 mil tenían algún tipo de discapacidad, ubicados ellos en el grupo de 0 a 14 años de edad, mostrando esto que la población infantil es altamente vulnerable para la adquisición de algún tipo de discapacidad (INEGI, 2004).

El diagnóstico más frecuentemente registrado fue retraso en el desarrollo psicomotor, con un 49%; sin embargo, por sí mismo, éste no es un diagnóstico congruente, ya que el retraso se puede relacionar tanto con una desnutrición alimenticia como con una privación socio-cultural o con un daño neurológico congénito o adquirido. Referencia que no puede cotejarse en este estudio por no tener en el expediente un registro orientado al diagnóstico dife-rencial de esta discapacidad; asimismo, en los estudios realizados por el INEGI (2004), no se reporta este diagnóstico, y aunque el referido estudio menciona que la discapacidad motriz es la más

frecuente con 35.10%, esto es diferente al analisis realizado en Fundación Juárez Integra, A.C., ya que aquí ocupa el segundo lugar en diagnósticos, cuya frecuencia fue de 689 beneficiarios (41.30%), de los cuales el 56.16% fueron niños y 43.84% fueron niñas.

Entre las causas etiológicas de la parálisis cerebral, en este es-tudio se reportan 400 casos con hipoxia neonatal (23.98%), re-gistrándose en el hombre el 53.75% y en la mujer el 46.25%. Se observa que la hipoxia neonatal sigue siendo reportada como la causa principal de la parálisis cerebral. En otros países, se en-contró que la causa de la parálisis cerebral tiene un componente genético, más detalles de estos estudios pueden ser observados en los trabajos de Freud (1897), Huges (1992), McHale (1999) y Gustavson (1969).

En la parálisis cerebral la hiperbilirrubinemia se encontró en 44 casos (2.63%), de los cuales el 40.91% fueron niñas y 59.09% fueron niños, mostrando un bajo índice en la etiología de este pa-decimiento.

Se observa que la prematurez predispone a la adquisición de una parálisis cerebral, encontrándose 166 casos (9.95%) de niños prematuros, de los cuales 58.43% de los casos fueron hombres y el 41.57% de los casos mujeres, equivalente a lo que sucede en otros lugares, como se puede observar en los estudios de Legido (2003) y Volpe (1998).

36r e v i s t a c i e n t í f i c a

Page 41: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

El INEGI (2004) encontró en segundo sitio la discapacidad intelectual en un 33.90%, mientras que en este estudio no se diag-nosticó la discapacidad intelectual como tal, sólo se reporta la mi-crocefalia en 52 casos (3.12%), padecimiento que prácticamente produce una discapacidad intelectual, desde leve hasta severa.

En tercer lugar, el INEGI (2004) reporta la discapacidad visual con un 15.10% mientras que en esta investigación se encuentran 102 casos (6.12%), de los cuales el 55.88% son hombres y 44.12% mujeres, ocupando el noveno lugar.

En la Fundación Juárez Integra, A.C. se encontraron 373 casos (22.36%) con trastornos de lenguaje, ocupando el tercer lugar de personas atendidas. En cuarto lugar las convulsiones, con 320 ca-sos (19.18%).

Un dato importante de señalar es que 99 niños con parálisis

cerebral, al momento de nacer, requirieron incubadora (5.94%), 61.62% hombres y 38.38% mujeres. Aunque no todos los niños que pasan a la incubadora van a tener parálisis cerebral, algunos de estos niños llegarán a desarrollar esta discapacidad, ya que es considerado un factor de riesgo, debido a que los niños presentan hipoxia neonatal secundaria por diversas causas, como malforma-ciones congénitas, neuro-infecciones, desequilibrios hidroelec-trolíticos o han presentado otros tipos de padecimientos, como la prematurez que generan sufrimiento fetal agudo y/o crónico; en los trabajos de Freud (1897), Huges (1992), Mchale (1999) y Gustavson (1969), se establece que es importante el diagnóstico oportuno y temprano para detectar al niño de riesgo e iniciar una terapia de estimulación temprana.

No se reportó en este estudio el tipo de parálisis cerebral, en el diagnóstico médico, dato que sería muy importante para rela-cionarlo con la topografía de esta discapacidad, la cual en muchos casos sí se establece como tal y con ello determinar la frecuencia de los tipos de parálisis cerebral; sin embargo, se puede inferir que las personas con trastornos neuromotores del tipo de la cuadri-paresia-triparesia-diparesia-hemiparesia-monoparesia, se encuen-tran dentro del síndrome espástico y/o mixto.

En los casos exclusivamente flácidos-coreoatetósicos-atáxicos no se les incluye dentro de la clasificación topográfica, ya que prácticamente todos se encuentran afectados de las cuatro extre-midades, por lo que podríamos determinar que en este estudio se encontraron:

+ 96% de ellos afectados por parálisis cerebral espástica.

+ 2.63% de ellos afectados por parálisis cerebral distónica (coreoatetósica-atetósica).

+ 1.37% afectados por otros tipos de parálisis cerebral.

37 r e v i s t a c i e n t í f i c a

Page 42: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

En la clasificación topográfica, tomada del total de los 689 ca-sos de parálisis cerebral, la cuadriparesia -afectación topográfica de las cuatro extremidades- fue la más frecuente, con 293 casos (42.52%), siguiendo la diparesia –afectación topográfica de las cuatro extremidades, con predominio en miembros inferiores– que afectó a 154 personas (22.35%); en esta clasificación, debió es-tablecerse si la afectación fue de los miembros inferiores o su-periores, ya que tendría que definirse como una diparesia crural para diferenciar mayor afectación en los miembros inferiores, de la diparesia braquial, cuando existe una mayor afectación en los miembros superiores; en el diagnóstico de personas con hemiple-jia –afectación topográfica de un hemicuerpo–, se reportaron 88 casos (12.77%), de las cuales 49 tenían afectación del hemicuerpo derecho (55.69%) y 39 tenían afectación del hemicuerpo izquier-do (44.31%).

La triparesia –afectación topográfica de los miembros infe-riores y uno de los superiores– se presentó en 29 beneficiarios (4.20%) y con monoparesia –afectación topográfica de un solo miembro– difícil de diagnosticar, por no ser tan frecuente y poder confundirse con otras entidades patológicas se detectaron 18 per-sonas (2.61%).

Weitzman (2005) presenta resultados de un estudio con 896 beneficiarios reportados, con edades de 4 meses a 21 años, pro-medio 7 años de edad, donde se encontró a 239 con cuadriple-jia (26.67%), 190 con hemiplejia (21.20%) y diplejía en 186 (20.76%) resultados que, comparados con los nuestros, muestran que si bien la cuadriplejia es la más frecuente, su porcentaje es mucho más alto. Asimismo, Weitzman (2005) encuentra muy poca diferencia entre hemiplejia y diplejía, en tanto que en el estudio de Fundación Juárez Integra, A.C., es más frecuente la paraplejia (22.35%) que la hemiplejia y el porcentaje diferencial se ubica casi al doble (12.77%).

Las personas con cuadriparesia son las que tienen mayor afec-tación corporal, ya que los padres de familia los llevan a este cen-tro de atención muy tardíamente, son las que requerirán de un diagnóstico y tratamiento integral desde el momento en que son ingresadas, ya que la historia de estas personas es la de ser re-chazados y abandonados por no saber cómo atenderlos y tratarlos integralmente. Por ello, Fundación Juárez Integra, A.C. propone darles una terapia integral sin importar el grado de afectación to-pográfica y el grado de severidad –afectación– que tengan, pro-poniendo a la comunidad médica de esta región que se realice un diagnóstico temprano y/o tardío para evitar o disminuir las com-plicaciones musculo-esqueléticas, que les permita adquirir una mejor calidad de vida.

En cuanto a las complicaciones músculoesqueléticas más fre-cuentes en niños con parálisis cerebral se encontraron (conside-rando un total de mil 668 expedientes):

+ 187 casos de pie equino (11.21%).

+ 109 casos de pie plano (6.53%).

+ 84 casos de luxación de cadera (5.04%).

+ 79 casos de cifosis (4.74%).

+ 73 casos de escoliosis (4.38%).

En este estudio no hubo diferenciación entre las complicacio-nes músculoesqueléticas que se dan en la parálisis cerebral es-pástica, coreoatetósica, atáxica y personas con defectos postura-les. Sólo se hizo énfasis en la descripción de las complicaciones músculoesqueléticas, independientemente del defecto postural, requiriendo definirse en próximos estudios la incidencia de estos trastornos en el tipo de parálisis cerebral (Weitzman 2005).

En relación a niños con cirugía ortopédica y parálisis cerebral, se encontraron 130 (7.79%) personas de los mil 668 expedientes, a las que se les realizó una intervención quirúrgica, requiriendo determinarse en otros estudios en qué tipo de parálisis cerebral se realizó la intervención quirúrgica, la región tratada y los resulta-dos obtenidos, ya que es frecuente que estas personas vuelvan a readquirir las complicaciones músculoesqueléticas por las que se realizó la cirugía ortopédica, al no recibir y mantener el tratamien-to de rehabilitación integral.

38r e v i s t a c i e n t í f i c a

Page 43: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Es importante también definir si hubo seguimiento postquirúr-gico, uso de órtesis, terapia física, ocupacional, tiempos y ciclos de tratamiento, dado que es frecuente que estas personas no reci-ban un tratamiento postquirúrgico adecuado, factores facilitadores para la readquisición de contracturas y deformidades.

Se registraron 101 casos (6.06%) con estrabismo, de los cuales no se especificó en el diagnóstico médico si se encontraban en el ojo derecho o izquierdo, con exotropía o endotropía. Siendo más alta la incidencia en los niños (56.44%) que en las niñas (43.56%). Aunque también es necesario determinar en qué tipo de parálisis cerebral se presentaron estos trastornos neuromotores, lo cual es recomendado por Fenichel (2006).

Con nistagmus se reportaron 12 casos (0.72%), sin especificar en qué tipo de trastorno visual se presentó esta complicación, si fue en personas con parálisis cerebral y/o con ceguera exclusiva-mente.

Poo (2008), señala que la tetraplejía espástica es la más grave y que la diplejía espástica es la más frecuente, no siendo así en los resultados del presente estudio. Menciona que la causa perinatal es del 60% al 70%, que hay epilepsia en el 70% de los casos de tetraplejía y sólo en 20% en la diplejía, en tanto que en el presente estudio se encuentra la epilepsia asociada a parálisis cerebral en 198 beneficiarios de un total de 320, lo que nos da un 61.87%, es decir dos de cada tres; detecta como complicaciones las contrac-turas, luxación de cadera, escoliosis y osteoporosis, en tanto que en esta investigación, se encontraron las contracturas, luxación de cadera y la escoliosis, pero además, la cifosis, trastornos pos-turales, pie equino, pie plano y estrabismo. Reporta, asimismo, trastornos sensoriales visuales en 50% y auditivos en 20% de sus casos, siendo los hallazgos en Fundación Juárez Integra, A.C., 65 casos de trastornos visuales, de un total de 102 casos asociados a parálisis cerebral (63.72%) y los auditivos en 42 casos, de un total de 61 (68.85%) que en ambos casos es mayor la incidencia. Poo (2008) establece que el rendimiento cognitivo oscila desde lo normal y que entre 50% y 70% de sus casos hubo retraso mental severo, en contraparte en el presente estudio, hubo 462 casos de discapacidad intelectual pero no se obtuvo el porcentaje en que se asoció a parálisis cerebral. En relación a comunicación y lenguaje Poo (2008) encontró que fueron más comunes en la parálisis ce-rebral discinética y este estudio detectó 373 casos con trastornos del lenguaje, 198 de ellos asociados a parálisis cerebral (53.08%).

Otros autores, consideran por su localización y frecuencia como manifestaciones mayores de la parálisis cerebral: la paráli-sis espástica, la discapacidad intelectual, la epilepsia, la parálisis atáxica y las formas mixtas; como manifestaciones menores: los defectos visuales, disminución de la audición, defectos del len-guaje, hiperquinesia, falta de atención, alteraciones del sueño, dificultad en el aprenidizaje y memoria (Ayulo, 1991), todo lo anterior fue detectado en el presente estudio, salvo los trastornos del sueño, el déficit de memoria y por frecuencia parecen corres-ponder con lo señalado.

En cuanto al trastorno por déficit de atención con y sin hi-peractividad, Pineda y Martínez (2008) reportan prevalencia del 17.10%, siendo la proporción por tipos de 9.40% combinado, 6.70% inatento y 1.00% hiperkinéticoimpulsivo, presentándose con mayor frecuencia en los hombres. Por escolaridad con sexto grado de primaria, se reporta una prevalencia del 15.70% con tras-torno por déficit de atención y 11.40% con trastorno por déficit de atención con hiperactividad. En el caso del análisis realizado en Fundación Juárez Integra, A.C. se encontraron 74 casos de trastor-no por déficit de atención con hiperactividad, de ellos 22 tenían el trastorno por déficit de atención, igual número de hombres y mu-jeres, 52 eran hiperactivos, 65.38% hombres y 34.62% mujeres, lo que hace un promedio de 2.37 varones afectados por cada mujer, lo anterior coincide con lo reportado en la literatura especializada.

Peña y Oloqui (2008) realizaron un estudio sobre parálisis ce-rebral y toxina botulínica, mencionan que tuvieron resultados po-sitivos en el 70% de los casos y efectos adversos leves en 13.10%, el estudio concluye que la atención temprana con esa sustancia se percibe con alta satisfacción tanto de padres, de niños y de profesionales que emplean ese tratamiento, en el caso del estudio realizado en Fundación Juárez Integra, A.C., algunos casos fueron tratados con toxina botulínica tipo A, pero fue mero hallazgo de la investigación y no se tiene evidencia de un empleo sistemático.

39 r e v i s t a c i e n t í f i c a

Page 44: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

40r e v i s t a c i e n t í f i c a

Conclusiones

Después de realizar este estudio, se obtuvo información im-portante para continuar con la detección y tratamiento temprano de personas con parálisis cerebral y otros tipos de discapacidades, siendo necesario ampliar el registro del expediente para determi-nar los tipos de parálisis cerebral, sus complicaciones, el grado de severidad, el tiempo de estancia en la Fundación, sus resultados y altas, así como otra información pertinente.

La Fundación Juárez Integra, A.C., ante la necesidad de esta-blecer una intervención terapéutica que beneficiará a la población con discapacidad neuromotora de Ciudad Juárez, creó un modelo de intervención terapéutico que denomina Rehabilitación Integral con características sui generis, consistente en diagnosticar por el médico especialista en rehabilitación física lo más tempranamen-te posible a las personas con parálisis cerebral, en un segundo tiempo, elaborar un plan terapéutico con objetivos específicos en la recuperación funcional de estas personas. Para ello, se diseña un programa individual el cual es dirigido al terapeuta físico que asiste y trabaja en la Fundación.

Como se sabe, la persona con esta discapacidad, frecuentemen-te, no recibe la atención en el lugar, por lo que se decidió integrar a los padres de familia en esta formación terapéutica para que participe en la elaboración del ejercicio y trabajo diario tanto en el hogar como en las instalaciones de la Fundación, bajo la super-visión del terapeuta físico.

Recomendándose una re-evaluación periódica en la que se ajustan los procedimientos terapéuticos y las metas a alcanzar por el médico especialista en rehabilitación física. Con este método de intervención terapéutica se mantiene un estado de alerta familiar e institucional acerca de las limitaciones, estado y progreso de la persona en rehabilitación. Este procedimiento no se limita exclu-sivamente a las personas con parálisis cerebral sino que se hace extensivo a aquellas discapacidades músculoesqueléticas que re-quieren atención especializada de rehabilitación física.

Durante el proceso de revisión de expedientes de los usuarios con discapacidades múltiples, en el lapso del 2004-2009, se en-contró, en el aspecto del tratamiento, que en algunos de ellos la aplicación de la toxina botulínica tipo A de 500u formaba parte del procedimiento terapéutico integral, que sin embargo, al no haber-se practicado en todos, los casos se señalan como un hallazgo y en un estudio futuro se documentará lo pertinente en todos los casos tratados con este tipo de toxina botulínica.

Page 45: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Bibliografía

+ Anexo CIE-10. Capítulo VI: Enfermedades del sistema nervioso; 9 (G70-G83) Parálisis cerebral y otros síndromes pa-ralíticos

+ Little Club (1959). Me-morandum terminology and clas-sification of cerebral palsy (Mac Keit R, et al. editors). Cereb Palsy Bull. 1: 27-35. vía aérea. Edición 2008 – 2009.

+ Little, W.J. (1862). On the incidence of abnormal partu-rition, difficult labor, premature birth and asphyxia neonatorum on the mental and physical con-dition of the chold, especially in relation to deformities. Transac-tions of the Obstetrical society of London. 3: 293-344.

+ Freud, S. (1897). Die Infantile Cerebrallahmung. In: Nothnagel H, editor. Specielle Pathologie und Therapie. Bd IX, Teil III Vienna Holder. Pp 1-327.

+ Legido, A. y Katsetos, C.D. (2003). Cerebral Palsy: New pathogenetic concepts. Rev. Neurol. 36:157-65.

+ Sanger, T.D.; Delgado, M.R.; Gaebler-Spira, D.; Hallett, M. y Mink, J.W. (2003). Classifi-cation and definition of disorders causing hypertonia in childhood pediatrics. 111:e89-e97.

+ Delgado, M.R. y Le-land, A. (2003). Movement Di-sorders in Children: Definitions, Classifications and Grading Sys-tems. Journal of Child Neurol. 8:S1–S8.

+ Instituto Nacional de Estadística y Geografía (2000). Clasificación de Tipo de Disca-

pacidad. XII Censo General de Población y Vivienda 2000. Gru-po 2-Discapacidades motrices: Subgrupo 210, Subgrupo 220, Subgrupo 299; Grupo 4-Dis-capacidades Múltiples y Otras: Subgrupo 401-422, Subgrupo 430, Subgrupo 499..

+ Volpe, J. (1998). Neu-rologic outcome of prematurity. Arch NeuroI. 55(3):297–300.

+ Weisglas–Kruperus, N.; Uleman–Vleeschdrager y Baerts, W. (1987). Ventricular hemorrha-ges and hipox–ischaemic lesions in preterm infant: neurodevelo-pmental outcome at 31/2 years. Devel Med Child Neurology. 29:623–629..

+ Weisglas–Kruperus, N.; Baerts, W., Smrkovsky, M. y Sauer, P. (1993). Effects of bio-logical an social factors on the cognitive development of very low birth weight children. Pedia-trics 92(5):658–665.

+ Bax, M.; Goldstein, M.; Rosenbaum, P.; Leviton, A.; Pa-neth, N.; Dan, B.; Jacobsson B. y Damiano, D. (2005). Proposed definition and classification of cerebral palsy. Developmental Medicine and Child Neurology. 47:571–576.

+ Hughes, I. y Newton, R. (1992). Genetic aspects of cerebral palsy. Dev Med Child Neurol. 34:806.

+ McHale, D.P.; Mitchell, S.; Bundey, L.; Moynihan, D.A.; Campbell, D.A. y Woods, C.G. (1999). A gene for autosomal recessive symmetrical spastic cerebral palsy maps to chromo-some 2q2425. Am J Hum Genet. 64:S2632.

+ Gustavson M.L.; Hag-berg, H.B. y Sanner, G. (1969).

Identical syndromes of cerebral palsy in the same family. Acta Paediatr Scand. 58:33040.

+ Legido, A.; Clancy, R.R. y Berman, P.H. (1991). Neuro-logic outcome after EEG proven neonatal seizures. Pediatrics. 88:58396.

+ Du Plessis, A.J. y Volpe, J.J. (2002). Perinatal brain injury in the preterm and term newborn. Curr Op Neurol. 15:1517.

+ Greisen G, Vannucci RC. Is periventricular leuko-malacia a result of Hypoxicis-chaemic injury? Biol Neonate 2001; 79: 194200.

+ Volpe, J. (2000). Peri-natal Hypoxic–Ischemic. In Neu-rology of the Newbom. Saunders 40 Ed. Pp 265–318.

+ Rivkin, M. y Volpe, J. (1993). Hipoxic–Ischemic Brain Injury in the Newbom. Seminars in Newbom. 113 (1):30–39.

+ HiII, A. y Volpe, J. (1989). Perinatal asphyxia. clinical aspect. neonatal neu-rology. Clinics in Perinatology. 16(2):435–457.

+ Levitt, Sophie (2002). Tratamiento de la parálisis ce-rebral y del retraso motor. 3era Edición. Ed. Panamericana. Pp 8-10.

+ Arteaga, R.A. y Hernán-dez, S.J. (2010). Comunicación personal.

+ Fenichel, G.M. (2006). Neurología pediátrica clínica. Capítulo 18. Pp. 363-364. 5ta Edición. Editorial Elsevier Saun-ders.

+ Fenichel, G.M. (2006). Neurología pediátrica clínica. Capítulo 14. Pp. 281-282. 5ta Edición. Editorial Elsevier Saun-ders.

+ Fenichel, G.M. (2006). Neurología pediátrica clínica. Capítulo 12. Pp. 269-270. 5ta Edición. Editorial Elsevier Saun-ders.

+ Fenichel, .,M. (2006). Neurología pediátrica clínica. Capítulo 15. Pp. 299-300. 5ta Edición. Editorial Elsevier Saun-ders.

+ Murray, John (1996). Psycholopathologycal aspects of autistic disorders: Overview. The Journal of Psychology. 130:146-154.

+ Encuesta Nacional de Personas con Discapacidad (2001).

+ Clasificación Interna-cional de Deficiencias, Discapa-cidades y Minusvalías (CIDDM). Organización Mundial de la Salud.

+ Clasificación Interna-cional del Funcionamiento, de la Discapacidad y de la Salud (2001). Organización Mundial de la Salud.

+ Solsona, Montse y Vi-ciana, Francisco (2004). Claves en la evolución demográfica en el cambio de milenio. Gaceta Sanitaria. 18:8-15.

+ Weitzman, Mariana (2005). Terapias de Rehabili-tación en niños con o en riesgo de Parálisis Cerebral. Revista Pediatría Electrónica [En línea]. 271:47-52.

41 r e v i s t a c i e n t í f i c a

Page 46: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

+ Poo Arguelles, Pilar (2008). Neurología Pediátrica, en Parálisis Cerebral Infantil. Asociación Española de Pedia-tría. [Libro en línea] Cap. 36. Pp 272-277.

+ Hernando, R. y Ayulo, V. (1991). Parálisis Cerebral In-fantil. Estado actual y posibilida-des futuras de tratamiento. Salud Pública Mexicana. 33:184-189.

+ Pineda Ortiz, L.E y Martínez León, N.C. (2008). Psychologia. Avances de la dis-ciplina. 2: 111-150.

+ Peña-Segura, J.L. y Marco-Oloqui, M. (2008). Aten-ción temprana y toxina botulí-nica. Nuestra experiencia en el siglo XXI. Revista Neurol. (Supl 1):s25-s33.

42r e v i s t a c i e n t í f i c a

Page 47: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

43 r e v i s t a c i e n t í f i c a

Page 48: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

R e s u m e n : En el campo de la optimización, ha tenido gran aceptación la optimización heurística y su aplicación a diferentes áreas del conocimiento. Una de las herramientas más útiles, por su fácil apli-cación, es el método de Recocido Simulado (SA, Simulated Annea-ling); sin embargo, el Recocido Simulado sólo se aplicaba a optimizar funciones sin restricciones, hasta que hace unos años se han desarro-llado algoritmos, los cuales ya incluyen la optimización de funciones con restricciones. Por tal motivo, se presenta la aplicación de Recocido Simulado con Restricciones (CSA, Constrained Simulated Annealing) a la administración de portafolios de inversión utilizando la teoría mo-derna de portafolios de inversión dada por el modelo de Markowitz.

Palabras clave: Optimización, recocido simulado, recocido simulados con res-tricciones, portafolios de inversión y Markowitz.

A b s t r a c t : In the optimization field heuristic optimization and its application to different knowledge fields has been widely accepted. One of the most useful tools, for its easy application is the method of Simulated Annealing (SA), however SA only was applied to optimi-ze functions without restrictions, until a few years ago, some algori-thms have been developed which already consider the optimization of functions with restrictions, for the above mentioned the application of Constrained Simulated Annealing (CSA) is presented to the managing investment portfolios using the modern investment portfolio theory gi-ven by the model of Markowitz.

Keywords: Optimization, simulated annealing, constrained simulated annea-ling, investment portfolio and Markowitz.

A P L I C AC I Ó N D E R E C O C I D O S I M U L A D O C O N R E S T R I C C I O N E S A L A

M.C. Sergio Muñoz González1, Dr. César Saldaña Carro2, M.A. Julio César Becerra Díaz3 y M.F. Héctor Martín del Campo Villegas4

1,2,3,4 Universidad Politécnica de Tlaxcala, Avenida Universidad Poli-técnica de Tlaxcala No. 1, San Pedro

Xalcaltzinco, TepeyancoTlaxcala, Tlaxcala, México,

C.P. 90180.

Enviado: 2 9 de octubre de 2015

Aceptado: 9 de diciembre de 2015

+

+

[email protected]

ADMINISTRACIÓN DE PORTAFOLIOS

44R e v i s t a C i e n t í f i c a

D E I N V E R S I Ó N

ADMINISTRACIÓN DE PORTAFOLIOS

Page 49: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

45 R e v i s t a C i e n t í f i c a

Introducción

Los portafolios de inversión ofrecen la posibilidad de invertir en la bolsa de valores una vez que se conocen los rendimientos de cada una de las empresas que componen el portafolio en un tiempo determinado, de esta manera los históricos se utilizan para esta-blecer el porcentaje de dinero a invertir en cada empresa del por-tafolio, existen infinidad de formas de hacer tal inversión, pero en 1950 Harry Markowitz en su trabajo llamado Análisis de Varianza Media, dio inicio a la teoría moderna de portafolios de inversión (Svetlozar y Rachev, 2008), donde se plantean dos problemas de optimización que permiten administrar un portafolio de inversión bajo los siguientes criterios:

+ De todos los posibles portafolios con una cota inferior en el retorno de la inversión, se encuentra aquel con el mínimo riesgo; es decir, se maximiza la diversificación del portafolio.

+ De todos los posibles portafolios con una cota superior para el riesgo (a un nivel de diversificación), se encuentra aquel con un retorno de la inversión máximo.

Ambos problemas se consideran estacionarios, ya que sólo to-man en cuenta la información generada hasta el momento; sin em-bargo, continuamente el mercado está variando, proporcionando nueva información del valor de los activos financieros, por ende se debe resolver nuevamente el problema para actualizarlo de ma-nera dinámica.

El Recocido Simulado es una herramienta que ha dado buenos

resultados para resolver problemas de optimización multiobjeti-vo no lineal sin restricciones. En la última década se han hecho esfuerzos por desarrollar algoritmos de Recocido Simulado que resuelvan problemas con restricciones, en particular se considera el algoritmo Recocido Simulado con Restricciones, desarrollado por Wah (2007) para aplicarlo en la administración de portafolios de inversión y de esta forma maximizar el beneficio, minimizando el riesgo de la inversión (Tsuzuki, 2012).

La forma como funciona el Recocido Simulado con Restriccio-nes es idéntica al Recocido Simulado, sólo que las restricciones se incorporan a la función objetivo utilizando multiplicadores de Lagrange (Nocedal, 1999) haciendo así una función objetivo más grande, con la desventaja de que los multiplicadores de Lagrange aumentan el número de variables del problema; sin embargo, el método de Markowitz sólo considera dos restricciones lo cual no complica mucho el problema.

Para validar los resultados obtenidos por el Recocido Simula-do con Restricciones, se comparan con los resultados dados por la herramienta de optimización Solver de Excel, ya que es muy común su uso en la solución de este tipo de problemas, además que es de fácil acceso y está disponible en cualquier computadora con MS Office.

Page 50: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Teoría Moderna de Portafolios de Inversión

Una vez que se tiene establecido las “n empresas que confor-man el portafolio de inversión, por ejemplo, al considerar aquellas empresas que tienen rendimientos anormales positivos en el inter-valo de tiempo considerado (Rasmussen, 2003), es decir, las em-presas que tienen rendimientos por encima del mercado, se consi-deran sus rendimientos R1,R2,…,Rn que al ser variables aleatorias cada rendimiento tienen un valor esperado E (Ri ) = μi y como variables del problema de optimización se tiene a los porcenta-jes de inversión w1,w2,…,wn, entonces el rendimiento esperado del portafolio

El riesgo, por otro lado, está definido como la varianza de los retornos de inversión.

La cual se puede reescribir como la ecuación (3).

Donde, w es el vector de los porcentajes de inversión o pesos, w’ es su transpuesta y Σ es la matriz de covarianzas de los retornos de inversión (Rasmussen, 2003).

Los porcentajes de inversión deben cumplir la condición w1+w2+…+ wn= 1 ya que el total de la inversión debe ser igual al dinero que se tiene disponible para invertir. Así en la teoría moderna de portafolios de inversión, se consideran dos variables importantes, el rendimiento y el riesgo, de donde se desprenden los dos problemas a optimizar.

El primero es aquel que de todos los posibles portafolios con un retorno de la inversión R* mínimo establecido, se encuentra aquel que implique el menor riesgo.

Donde μ es el vector de los valores esperados de los rendimien-tos y e es el vector donde todas sus entradas es uno.

El segundo problema se plantea como: de todos los posibles portafolios con un valor máximo establecido para el riesgo R*, se encuentra aquel con un retorno de la inversión máximo.

Cualquiera de los dos problemas planteado implica la optimi-zación de una función con restricciones.

Metodología

Multiplicadores de Lagrange

El método del Recocido Simulado con Restricciones es una ex-tensión del Recocido Simulado (Kirkpatrick, 1983) ya que incor-pora las restricciones impuestas a la función objetivo mediante el uso de multiplicadores de Lagrange (λ) utilizando estrategias bien definidas. De forma general se considera el siguiente problema con restricciones de desigualdad mostrado en la ecuación (6).

Donde cada restricción de (6) se pasa a una de igualdad utili-zando la función valor máximo como se muestra en la ecuación (7).

Y al final cada una de las restricciones se integran a la función objetivo utilizando multiplicadores de Lagrange definiendo con ello una nueva función objetivo (Wang, 2001).

46R e v i s t a C i e n t í f i c a

(1)

(2)

(3)

(4)

(5)

(6)

(7)

(8)

tiene un valor esperado dado por la ecuación (1).

Page 51: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

47 R e v i s t a C i e n t í f i c a

(9)

(10)

(11)

Consideremos primero la ecuación (4) donde se minimiza el riesgo dado un retorno de la inversión mínimo. La restricción

se puede transformar en una restricción de igualdad al utilizar la función valor máximo quedando , así todas las restricciones son ahora restricciones de igualdad excep-to la última que tiene que ver con los pesos positivos, pero en la implementación del recocido Simulado con Restricciones se consideran dentro de un intervalo determinado. Entonces para la ecuación (4) se tiene el siguiente problema de optimización acor-de a la ecuación (8).

De manera similar se incluye las restricciones del problema (5) en la función objetivo dando como resultado la ecuación (10).

Las ecuaciones (9) y (10) son las funciones generalizadas de Lagrange (Nocedal, 1999) y son los problemas de optimización de portafolios de inversión que se resuelven mediante el Recocido Simulado con Restricciones.

Recocido Simulado con Restricciones

De manera general el algoritmo está compuesto por dos proce-sos de optimización, en el primero se minimiza la función objetivo en función del vector de variables w y en el segundo se maximiza la función objetivo con respecto a los multiplicadores de Lagran-ge (λ), se hace una diferencia entre ambos procesos debido a que estos se perturban una vez, por diez que se perturba w.

Una vez que todos los parámetros y multiplicadores de La-grange han sido perturbados y se ha generado un nuevo vector solución, el sistema es enfriado (la temperatura disminuye) y este modelo es introducido nuevamente al algoritmo hasta que se cum-pla algún criterio para terminar el proceso.

El proceso del Recocido Simulado con Restricciones fue pro-puesto por Wah (2007) y está definido en el siguiente algoritmo:

1 Procedimiento del Recocido Simulado con Restricciones.2 Inicializa un punto inicial y=(y0,λ0).

3 Inicializa una temperatura inicial T=T0 y un rango de

enfriamiento 0 < α < 1.

4 Escoger NT (número de evaluaciones antes del cambio de temperatura).

5 While la condición de paro no es satisfecha do.

6 For k=1 to NT do.

7 Por diez veces generar un nuevo punto y’ usando g(yk,T).

8 Aceptar y’ con probabilidad AT (y,y’).

9 Generar un nuevo punto λ’ usando g (λk,T).

10 Aceptar λ’ con probabilidad AT (λ,λ’).

11 End for.

12 Reducir la temperatura T=α×T.

13 End while.

14 Fin procedimiento.

El algoritmo del Recocido Simulado con Restricciones presen-tado esta diseñado para minimizar funciones, en el caso de (5) sólo se multiplica la función objetivo por menos uno y se puede utilizar el mismo algoritmo, es importante decir que el Recocido Simulado con Restricciones está compuesto de dos procesos im-portantes uno de minimización en las variables w y otro de maxi-mización en los multiplicadores de Lagrange (λ).

En el proceso del algoritmo del Recocido Simulado con Res-tricciones se debe perturbar la solución para generar una nueva, la cual puede ser aceptada o rechazada, se podría generar una solu-ción de forma aleatoria en todo el espacio de búsqueda, pero eso no sería del todo eficiente y se propone cotas dinámicas que ex-panden o contraen el espacio donde se genera una nueva solución dentro del espacio de búsqueda general.

Mediante la ecuación (11) se genera un nuevo punto al variar cada una de los componentes del vector de variables y el de pa-rámetros, donde θi se distribuye uniformemente en el intervalo [-σi,σi ] (Corona, 1987) y ηi en [ -ϕj,ϕj ] (Wah, 2007), los cuales se modifican dinámicamente antes de cada cambio de temperatura mediante la ecuación (12).

Page 52: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

48R e v i s t a C i e n t í f i c a

Para la primera parte de (12) se consideran los siguientes valo-res: β0=2, β1=2, Pu=0.6, Pv=2 y Pi es la razón entre los rechazados y los aceptados en cada cambio de temperatura. En el caso de ϕ, qj se calcula mediante (13) donde ϕj se ajusta al modificar qj de acuerdo a que tan rápido cambia h(y)j con respecto a T.

Donde h1=max (R*-w∙μ,0) y h2=w∙e-1, que son las restricciones de igualdad en el problema (4), en el caso del problema (5) h1=-max (w’ Σw-R*,0) y h2=w∙e-1.

Los parámetros que se consideran en (13) son: η0=1.25, η1=0.8, τ0=1.0 y τ1=0.01 (Wang, 2001).

Si definimos δ(w)=L(w’,λ) - L(w,λ) y δ(w)=L(w,λ’) - L(w,λ), cualquier nuevo punto que no minimice o maximice la función objetivo según sea el caso, deberá aceptarse de acuerdo a la proba-bilidad que se muestra en (12) que se conoce como regla clásica o criterio de metrópolis (Kirkpatrick, 1983). Por último, para definir el número de iteraciones antes de cada cambio de temperatura se utiliza la regla NT= max (100,5*(10*n + m)), donde n es el núme-ro de variables y m es el número de multiplicadores de Lagrage que en este caso son dos (Corona, 1987).

Resultados

Se aplica el Recocido Simulado con Restricciones a los precios históricos de trece años de las acciones de ocho empresas que co-tizan en la Bolsa Mexicana de Valores, tomando los rendimientos mensuales como el incremento de sus precios con respecto al pre-cio anterior, se calcula la media de los rendimientos y la matriz de covarianzas de los mismos como datos de entrada del algoritmo, cabe señalar que se restringe el monto máximo a invertir en cada empresa al 70% por lo que los pesos se consideran en el intervalo de [0,0.7] y de esta manera propiciar una mayor diversificación. El algoritmo del Recocido Simulado con Restricciones es compa-rado con el método llamado evolutivo que se incluye en Solver de Excel.

Para el problema (4) de minimizar el riesgo dado un rendimien-to fijo, el problema tiene solución para rendimientos menores al 4% mensual de acuerdo a los rendimientos de las empresas, es decir, el portafolio puede a lo más brindar el 4% de rendimiento a diferentes valores de riesgo.

Figura 1: Comparación del rendimiento contra riesgo, de los resultados obtenido por Recocido Simulado con Restricciones y Excel Solver, para el problema de minimizar el riesgo a un nivel de rendimiento dado.

(12)

(13)

(14)

Page 53: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

En la Figura 1 se muestra el rendimiento y el riesgo dado por el Recocido Simulado con Restricciones y por Excel Solver para diferentes corridas al 4% de rendimiento fijo. Se observa que el Recocido Simulado con Restricciones es un método más estable en ambos aspectos, puesto que tiene un coeficiente de variación (CV) del 1.81% en el rendimiento y en el riesgo del 9.55%; que en comparación con Excel Solver, el coeficiente de variación es del 9.18% para el rendimiento y de 36.15% en el riesgo. Si considera-mos el promedio del rendimiento ambos cumplen con la cota para éste, el Recocido Simulado con Restricciones tiene en promedio 0.0406 mientras que Excel Solver de 0.0434, lo que representa un incremento del 6.88% de rendimiento para Excel Solver en comparación con el Recocido Simulado con Restricciones; por otro lado al considerar el riesgo Excel Solver en promedio estima el riesgo en 0.0306, que es 41.68% más del riesgo promedio de 0.0216 obtenido por el Recocido Simulado con Restricciones. Es razonable pensar que a mayor rendimiento se tiene un mayor ries-go, pero el incremento en el rendimiento promedio entre ambos métodos de 6.88% no se compara con el incremento del 41.68% en el riesgo, por lo que Excel Solver estima mejores rendimientos pero con mucho mayor riesgo.

Para el problema de optimización (5) donde se maximiza el retorno de la inversión dado un riesgo fijo, el valor mínimo de riesgo de acuerdo a los históricos de los rendimientos para el cual se puede tener una solución factible es del 1.7%. En este caso se hicieron diferentes corridas considerando un riesgo fijo del 8%.

Figura 2: Comparación del rendimiento contra riesgo de los resultados obte-nido por Recocido Simulado con Restricciones y Excel Solver, para el problema de maximizar el rendimiento dado un nivel de riesgo fijo.

En la Figura 2 se puede apreciar que el Recocido Simulado con Restricciones es también en este caso un método más estable puesto que el coeficiente de variación para el rendimiento es del 0.06% y 0.25% para el riesgo, los cuales son pequeños en com-paración con el coeficiente de variación del 3.97% y 21.93% de Excel Solver, lo que representa variaciones significativas de un poco más del 60% para Excel Solver contra el Recocido Simu-lado con Restricciones. Por otro lado el Recocido Simulado con Restricciones estima en promedio un riesgo del 0.0451 y un ren-dimiento del 0.0486, que al compararlo con Excel Solver, que en promedio estima un riesgo del 0.0234 y un rendimiento del 0.0361 provee así resultados totalmente diferentes, sin embargo, el reco-cido simulado con Restricciones tiene un incremento del 92.4% con respecto a Excel Solver en el riesgo y 34.62% en el rendi-miento, implicando que Excel Solver tiene un mejor rendimiento conforme al riesgo estimado, se puede observar en la Figura 2 que el rendimiento es similar al riesgo en cantidad para el Recocido Simulado con Restricciones pero el rendimiento en Excel Solver es mayor que el riesgo.

49 R e v i s t a C i e n t í f i c a

Page 54: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Conclusiones

Como anteriormente se observó, el Recocido Simulado con Restricciones es un método más estable en las soluciones que Ex-cel Solver, en general ambos cumplen con la optimización de la función objetivo acorde a las restricciones establecidas; sin em-bargo, el Recocido Simulado con Restricciones muestra un mejor desempeño al resolver el problema (4) ya que el nivel de riesgo calculado, aproximadamente del 2%, da rendimientos estables, alrededor del 4%, mientras que Excel Solver en algunos casos calcula un riesgo del 4% con rendimientos del 4.8%. Recordemos que lo importante en este caso es minimizar el riesgo lo cual hace mejor el Recocido Simulado con Restricciones.

Caso contrario sucede con el problema (5), el Recocido Simu-lado con Restricciones estima niveles de riesgo y rendimiento si-milares, alrededor del 4.5%, lo que no sucede con Excel Solver, que calcula rendimientos alrededor del 3.5% con riesgo aproxi-mado de 2.2%, demostrando que Excel Solver tiene mejor desem-peño que el Recocido Simulado con Restricciones en el sentido de inversión puesto que Excel Solver da mejores rendimientos en comparación con el riesgo. En este caso el problema es maximizar los rendimientos, dando el Recocido Simulado con Restricciones mejores resultados pero con el inconveniente que presenta un ni-vel de riesgo alto.

Ambos algoritmos cumplen con las restricciones y resuelven

los problemas planteados, sin embargo el Recocido Simulado con Restricciones es más confiable en sus soluciones, es decir, no cambian bruscamente conforme se cambian las condiciones iniciales, caso que no ocurre con Excel Solver. Acorde a los resul-tados, el Recocido Simulado con Restricciones es un mejor algo-ritmo si la intención es resolver el problema de minimizar riesgo dado un rendimiento fijo y Excel Solver es mejor para resolver el problema de maximizar el rendimiento dado un riesgo fijo.

50R e v i s t a C i e n t í f i c a

Page 55: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Bibliografía

+ Corona, M. M. (1987). Minimizing Multimodal Func-tions of Continuous Variables with the “Simulated Annealing” Algorithm. ACM Transactions on Mathematical Software, 13(3), 262-280. ISSN # 0098-3500

+ Wah, B.W. (2007). Simulated annealing with asymptotic convergence for non-linear constrained optimization. Journal of Global Optimization, 39(1), 1-37. ISSN # 0925-5001.

+ Nocedal, S.W. (1999). Numerical Optimization. Sprin-

ger Verlag. ISBN # 0387303030.

+ Kirkpatrick, G. C. (1983). Optimization by Si-mulated Annealing. Science, 220(4598), 671-680. ISSN # 0036-8075.

+ Ingber, L. (1989). Very fast simulated re-annealing. Journal of mathematical and computer modelling. 12(8), 967-973. ISSN # 0895-7177..

+ Maringger Dietmar. (2005). Portfolio Management with Heuristic Optimization. Netherlands: Springer. ISBN # 0-387-25852-3.

+ Amenc, V. L. (2003). Portfolio Theory and Perfor-mance Analysis. England: Wiley. ISBN # 0-470-85874-5.

+ Rasmussen, M. (2003). Quantitative Portfolio Optimiza-tion, Asset Allocation and Risk Managenment. New York, United States of America: Palgrave Macmillan. ISBN # 1-4039-0458-8.

+ Svetlozar, T. y Rachev, S.V. (2008). Advanced Stochastic Models, Risk Assessment, and Portfolio Optimization. New Jersey, United States of Ameri-ca: John Wiley & Sons. ISBN # 047005316X.

+ Tsuzuki, M. D. (2012). Simulated Annealing Advances, Applications and Hybridizations. Rijeka, Croatia: InTech. ISBN # 978-953-51-0710-1.

+ Wang, T. (2001). Global Optimization for Constrained Nonlinear Programing. Illinois, United States of America: Urba-na Illinois Thesis.

+ Brun, M. M. (2008). Análisis y Selección de Inversio-nes en Mercados Financieros. Barcelona: Bresca Editorial. ISBN # 9788496998759.

51 R e v i s t a C i e n t í f i c a

Page 56: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

R e s u m e n : El sistema Kinect Hospitalario brinda una alternativa para que el personal que labora en los quirófanos pueda visualizar, mani-pular y acceder a información del paciente mediante la tecnología Kinect y software especializado, la cual captura los movimientos del usuario y los traduce en acciones dentro del sistema. El sistema Kinect Hospitalario tiene la capacidad de conectar al sistema administrativo del hospital y así obtener la información del paciente, la cual puede ser su historial, estudios realizados e imagenología. La metodología utilizada en el proyecto fue el prototipado evolutivo, ya que durante el ciclo de vida del proyecto, las tec-nologías que se usaron no estaban liberadas por lo que se fueron analizando y aplicando conforme se estudiaban y salían al mercado. Como resultado obtenido, se logró utilizar la plataforma Kinect 2.0 en conjunto con el fra-mework.net para Windows 8.1, el cual permitió ejecutar acciones del siste-ma sin tacto y con comandos de voz.

Palabras clave: Kinect, manipulación sin tacto, prototipado evolutivo y con-trol por voz.

A b s t r a c t : Kinect hospital system provides an alternative to staff working in operating rooms can visualize, manipulate and access patient information by Kinect technology and specialized software, which captures the user’s movements and translates them into actions within the system. Kinect hospital system has the ability to connect to the hospital’s admi-nistrative system and obtain patient information which may be its history, studies and imaging. The methodology used in the project was evolutionary prototype, as during the life cycle of the project, the technologies that were used were not released so they were analyzing and applying as they studied and went to market. As a result, we were able to use the Kinect 2.0 platform in conjunction with the framework.net for Windows 8.1, which allowed the system to execute actions without touch and voice commands.

Keywords: 8-Disciplines, quality defects and manufacturing systems.

S I S T E M A PA R A L A

D E D O C U M E N TO S M É D I CO S : K I N E C T H O S P I TA L A R I O

Dra. Rocío Arceo Díaz1, Ing. Carlos Roberto Esquivel Briceño2, Ing. Ismael Agustín Silva Dzib3 y Dr. Mariano Xiu Chan4

1,3Universidad Tecnológica de Cancún, Carretera

Cancún-Aeropuerto, Km. 11.5, S.M. 299, Mz. 5 Lt. 1, tel. 998 881 19

00, ext. 1260

2 Centro de investigación en computación del IPN

Av. Juan de Dios Batiz, Esq. Miguel Othón de Mendizábal S/N, Nueva Industrial Vallejo, Gustavo

A. Madero, 07738, tel 55 57 29 6000 Ciudad de México, D.F

4 Universidad Politécnica de Quintana Roo

Av. Arco Bicentenario, Mza. 11, Lote 1119-33, Sm 255, 77500

Cancún, Q.R.

Enviado: 29 de octubre de 2015

Aceptado: 1 de diciembre de 2015

+

+

[email protected] [email protected]

[email protected]@gmail.com

MANIPULACIÓN SIN TACTO

52R e v i s t a C i e n t í f i c a

MANIPULACIÓN SIN TACTO

Page 57: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Introducción

Las cirugías son ahora comúnmente ejecutadas en los hospita-les, sin embargo una cirugía conlleva varios riesgos hacia el pa-ciente, el principal de ellos es la Infección del Sitio Quirúrgico (ISQ) (Baridó Murguía, 2010). En la actualidad se realizan millo-nes de intervenciones quirúrgicas al año, estadísticas del Institu-to Mexicano del Seguro Social (IMSS) mencionan que en el año 2010 se realizaron aproximadamente 4 millones de cirugías en el país. El 10% de los pacientes que se sometieron a cirugías sufrió de complicaciones médicas relacionadas con la Infección del Sitio Quirúrgico, es decir, 400 mil pacientes sufrieron de una infección relacionada al proceso de su tratamiento quirúrgico.

Existen tres causas principales por las que un paciente presenta eventos adversos al someterse a una cirugía, las relacionadas con los medicamentos, con las infecciones de heridas y con complica-ciones técnicas. El 14% de estas complicaciones suelen ser por in-fecciones de heridas, las cuales son causadas por una mala higiene del personal médico o del área de trabajo.

A continuación se presenta una tabla comparativa del impacto de la Infección del Sitio Quirúrgico (Kimberly-Clark de México, 2009).

Tabla 1. Impacto de la Infección del Sitio Quirúrgico.

Analizando estas cifras, las organizaciones de la salud se han preocupado por reducir el impacto de la Infección del Sitio Qui-rúrgico en pacientes. Los métodos normalmente involucran una higiene y un cuidado extremo de parte del cirujano y su equipo, sin embargo sigue existiendo el riesgo de que el área de trabajo no esté esterilizada y el cirujano entre en contacto con ella. Una causa de esto es que el cirujano necesita revisar cierta información del paciente durante la cirugía, así como utilizar ciertas herramientas o una computadora, que no siempre se encuentran esterilizadas.

53 R e v i s t a C i e n t í f i c a

$5,038 dólares

Page 58: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Cabe mencionar que se tomaron las estadísticas del IMSS, ya que clínicas privadas no brindan información al respecto.

Para solucionar la problemática de infección por manipulación de instrumentos se consideró a Kinect, para el desarrollo de la aplicación que permitiera la interacción con la computadora sin tacto, ya que es un controlador de juego libre y de entretenimien-to desarrollado por Alex Kipman para la consola de videojuegos Xbox 360 y desde junio del 2011 para PC a través de Windows 7 y Windows 8 (Microsoft, 2012).

Justificación

Este trabajo presenta el desarrollo de una solución a los pro-blemas de Infección del Sitio Quirúrgico, la solución está basada en la plataforma Kinect 2.0, que Microsoft proporciona junto con su consola de videojuegos Xbox One. Kinect es un dispositivo, inicialmente pensado como un simple controlador de juego, que gracias a los componentes que lo integran: sensor de profundidad, cámara RGB, array de micrófonos y sensor de infrarrojos (emisor y receptor), es capaz de capturar el esqueleto humano, reconocerlo y posicionarlo en el plano. Kinect permite a los usuarios controlar e interactuar con la consola sin necesidad de tener contacto físico con un controlador de videojuegos tradicional, mediante una in-terfaz natural de usuario que reconoce gestos, comandos de voz y objetos e imágenes. El kit de desarrollo de software de Kinect permite a los desarrolladores crear aplicaciones que soportan el gesto y reconocimiento de voz, utilizando tecnología de sensor Kinect en equipos con Windows 7, Windows 8 y Windows 8.1. Se prefirió la versión Kinect 2.0 porque ofrece grandes mejoras en comparación a la versión Kinect 1.0, entre las características me-joradas destacan la incorporación de una cámara de 1920x1080, un aumento en el área de visión, detección de movimientos, detec-ción de comando de voz, detección por medio de infrarrojos que permite localizar a las personas en ambientes sin luz, aumento en la detección de profundidad, entre otras cosas, lo que permitiría la interacción de los médicos de una manera más fluida y sencilla (Brekel, 2013).

Microsoft también lanzo un kit de desarrollo de software para su dispositivo Kinect 2.0, llamado Kinect for Windows, con el cual abre las puertas a los usuarios para desarrollar aplicaciones de computadora, lo que permite la programación de la aplicación de acuerdo a las necesidades detectadas.

Utilizando el dispositivo y su kit de desarrollo, se puede imple-mentar un software que permita a los cirujanos no tener contacto con ningún computador de la sala, además de las herramientas que estén esterilizadas, ya que podrá manipular una computadora sin necesidad de tocarla, pudiendo así obtener información del paciente en cualquier momento que se requiera.

54R e v i s t a C i e n t í f i c a

Page 59: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Metodología

El desarrollo del proyecto fue realizado en las instalaciones de la Universidad Tecnológica de Cancún a solicitud y convenio de la empresa EyeSoft, S.A. de C.V. patrocinado por la misma empresa y por el Consejo Nacional de Ciencia y Tecnología, al ser beneficiado con el apoyo dado en la convocatoria PROINNOVA 2014 con clave 211507.

El sistema Kinect Hospitalario se desarrolló bajo el ciclo de vida de prototipado evolutivo, debido a que era necesario desa-rrollar partes del proyecto rápidamente para comprender con fa-cilidad y aclarar ciertos aspectos que debían ser tratados con la gente especializada de la empresa EyeSoft y los expertos del área médica contratados por dicha empresa.

Si no se conoce exactamente como desarrollar un determina-do producto o cuáles son las especificaciones de forma precisa, suele recurrirse a definir especificaciones iniciales para hacer un prototipo parcial o provisional, donde el objetivo es lograr un pro-ducto intermedio, antes de realizar el producto final, para cono-cer mediante el prototipo como responderán las funcionalidades previstas para el producto final. El prototipo funcional evolutivo desarrolla un comportamiento que satisface los requisitos y ne-cesidades que se han entendido claramente. Realiza por tanto un proceso real de datos, para contrastarlo con el usuario. Se va mo-dificando y desarrollando sobre la marcha según las apreciaciones del cliente. Esto ralentiza el proceso de desarrollo y disminuye la fiabilidad, puesto que el software está constantemente variando pero, a la larga, genera un producto más seguro en cuanto a la satisfacción de las necesidades del cliente (Lawrence, 2002).

Se utilizó el modelo basado en prototipos porque este es em-pleado mayoritariamente en el desarrollo de productos con inno-vaciones importantes, o en el uso de tecnologías nuevas o poco probadas, como lo es el uso del Kinect for Windows versión 2.0, en las que la incertidumbre sobre los resultados a obtener, sobre el comportamiento, impiden iniciar un proyecto secuencial.

La ventaja del ciclo de vida basado en prototipos se fundamen-ta en que es el único apto para desarrollos en los que no se cono-ce a priori las especificaciones o la tecnología a utilizar. Como contrapartida por este desconocimiento, tiene la desventaja de ser altamente costoso y difícil para la administración temporal (usr.code, 2013).

En cuanto a la metodología que se siguió para el desarrollo de la aplicación:

1. Revisión de literatura; en esta fase se realizó la revisión de documentación acerca de las posibilidades de desarrollo de aplicaciones con Kinect 1.0, además de estudiar los procedimien-tos de seguridad e higiene en quirófanos para determinar las nece-sidades de interacción sin tacto por parte del personal médico.

2. Documentación de requerimientos; se realizó el análisis en conjunto con la empresa EyeSoft, detectando las necesidades del personal médico en quirófanos, determinándose en esta etapa que la aplicación debería contener el expediente del paciente, la información general, la sección de búsqueda, la historia clínica, la imagenología y los análisis clínicos.

3. Selección del Software SDK; para poder determinar el SDK a utilizar se realizó el análisis de las capacidades de interac-ción contenidas en Kinect 1.0 y Kinect 2.0, en esta fase se decidió trabajar con Kinect 2.0, a pesar de su reciente lanzamiento y nula documentación, para aprovechar las ventajas de mejoras incorpo-radas a la versión.

4. Diseño del software; conforme se realizó el análisis, se presentaron los casos de uso para evaluación, así como el desa-rrollo de cada módulo de interacción y el desarrollo del prototipo, hasta llegar a la versión final.

55 R e v i s t a C i e n t í f i c a

Page 60: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Desarrollo

En los requerimientos iniciales del área médica se contempló como usuario único del sistema, al médico encargado del área de quirófano; por lo cual la interacción de todos los componentes del sistema están bajo el control del usuario único, estos componentes de interacción están definidos como se muestra en el siguiente diagrama de casos de uso.

Figura 1. Caso de uso usuario único.

Se integraron las siguientes expresiones y gestos de la mano disponibles en Kinect 2.0, que es capaz de reconocer algunas ex-presiones faciales, actividades de manos y accesorios básicos.

Eyes closed (Ojos cerrados).

Eyes looking away (Mirar a otra dirección).

Mouth open (Boca abierta).

Mouth moved (Movimiento de boca).

Glasses accessory (Reconocimiento de lentes).

Happy expression (Expresión feliz).

Neutral expression (Expresión normal).

De la misma manera puede reconocer estados básicos de las manos (Hand state), tales como:

Open (Abrir).

Close (Cerrar).

Lasso (Gesto de dos dedos).

Unknow (Desconocido).

Not tracked (No encontrado).

Reconocimiento de voz.

56R e v i s t a C i e n t í f i c a

+

+

+

+

+

++

+

+

+

+

+

+

Page 61: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Kinect 2.0 presenta una significativa mejora en el reconoci-miento de voz, es capaz de diferenciar a la persona que se encuen-tra hablando entre las demás que se encuentren capturadas por el sensor, lo que evita la pérdida de sincronización al momento del reconocimiento de voz.

El desarrollo de la aplicación fue realizada con el kit de desa-rrollo de software, utilizando el patrón de diseño Modelo Vista Vista Modelo (MVVM) porque en este patrón de diseño se se-paran los datos de la aplicación, la interfaz de usuario, pero en vez de controlar manualmente los cambios en la vista o en los datos, estos se actualizan directamente cuando sucede un cambio en ellos, por ejemplo si la vista actualiza un dato que está presen-tando se actualiza el modelo automáticamente y viceversa.

Resultados

A continuación se presenta el análisis de los resultados relacio-nados con los objetivos establecidos:

Estudio del estado del arte; la investigación realizada sobre la nueva tecnología que representa Kinect 2.0 y su kit de desarrollo de software (SDK) permitió obtener informa-ción que facilitó entender el funcionamiento y el potencial que se puede aprovechar en el uso de este equipo para el proyecto, de esta manera se realizó el desarrollo del software obteniendo los resultados esperados.

Investigar la información quirúrgica normalmente consultada; la empresa EyeSoft rea-lizó un estudio de la información e imágenes que son demandadas actualmente en los procesos quirúrgicos, siendo el autor intelec-tual del proyecto y el encargado de realizar la investigación, de la cual únicamente compartieron la información necesaria para el desarrollo del proyecto, esto fue por la naturaleza sensible de la información.

Diseñar el software de interacción: Se diseñaron las pantallas principales del sistema permitiendo la vi-sualización de las imágenes e información del paciente, se ha de-sarrollado el prototipo del sistema con la implementación comple-ta de la interfaz gráfica de usuario y con la interacción sin tacto, con respecto a la integración de control por voz, se han realizado avances significativos a través de la implementación de servicios web para el acceso a los datos contenidos en la base de datos; esta etapa no se considera concluida debido a que la interfaz de pro-gramación de aplicaciones de control por voz de Microsoft aún se encuentra en una versión beta y se colabora con los desarrollado-res de la misma con pruebas del sistema e identificación de bugs en el sistema de errores de Kinect 2.0.

Realizar el software de reconocimiento de voz y movimientos; se interpretaron los movimien-tos directamente con el sensor con un SDK Preview de Microsoft transfiriendo la información necesaria que reconocerá el software de interacción. Se logró manipular el sistema pero la empresa Mi-

crosoft lanzo el sensor Kinect con el kit de desarrollo que incluye soporte para la interacción con los controles de Windows de ma-nera completa, no así con el reconocimiento de voz, esperando a futuro que Microsoft incluya soporte de voz en el SDK Kinect for Windows, por lo pronto solo se han incorporado comandos de voz básicos como abrir, cerrar, acercar, alejar y dividir, mismos co-mandos con los que el médico puede interactuar con la aplicación sin necesidad de las manos.

El médico interactúa con la aplicación con sus manos y el mo-vimiento de las mismas, no se requiere ningún aditamento espe-cial, solo estar en el campo de visión de Kinect, una vez que el médico se pone al frente y es reconocido puede mover las manos e interactuar con la pantalla, acercar, alejar, dividir, cerrar, esta in-teracción se da de manera natural como si la mano fuera el cursor.

57 R e v i s t a C i e n t í f i c a

Page 62: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

58R e v i s t a C i e n t í f i c a

A continuación se presentan las pantallas principales del siste-ma desarrollado:

La Figura 2 presenta la pantalla principal del sistema, permite visualizar el alfabeto e interactuar con el sistema a través del sensor o por medio de comandos de voz de forma que el usuario se le facilite la interacción con los controles. Al presionar alguna letra se despliega una lista de pacientes precargados que empiecen con la letra presionada.

Figura 2. Pantalla 01 - Búsqueda de paciente.

Cabe mencionar que puede estar precargada la información del paciente, no es necesario realizar la búsqueda cada vez que se inicie la aplicación en el quirófano, el médico puede acceder a la información ya lista y solo ingresar a los detalles que requiera en su momento.

La Figura 3 presenta el resultado obtenido después de presio-nar una letra o decir un comando correcto, permite visualizar los nombres y folios. Para su máxima visualización también se pre-senta una ilustración y el usuario tiene facilidad de desplazarse. El usuario presiona un usuario o menciona el comando correcto para navegar al menú principal del paciente seleccionado.

Figura 3. Pantalla 02 - Búsqueda de paciente.

La Figura 4 presenta el menú principal del paciente selecciona-do, permite visualizar los 4 módulos del paciente con el propósito de no saturar los módulos y aprovechar el espacio en ellos.

Figura 4. Pantalla 03 - Búsqueda de paciente.

La Figura 5 presenta la información general del paciente, esté módulo permite visualizar datos. Cuenta con una barra de despla-zamiento que manipula la ventana con desplazamiento de arriba hacia abajo y viceversa para proporcionar una amplia visualiza-ción de controles grandes.

Figura 5. Pantalla 04 - Información general.

La Figura 6 presenta la pantalla de historia clínica, el usuario visualiza el historial clínico del paciente, permite desplazarse de arriba hacia abajo y viceversa para su amplia visualización.

Figura 6. Pantalla 05 - Historia clínica.

Page 63: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

La Figura 7 presenta la pantalla de imagenología, permite vi-sualizar una o varias imágenes para la comparación entre ellas, cuenta con una barra de desplazamiento lateral que presenta una serie de imágenes que tiene el paciente para arrastrar y determinar el espacio a mostrar. El usuario selecciona o menciona el comando correcto para la división de pantalla.

Figura 7. Pantalla 06 - Imagenología.

Conclusiones

Se desarrolló la aplicación Kinect Hospitalario utilizando el framework.net para Windows 8.1 el cual permite realizar búsque-das de pacientes, acceder a su historial médico, consultar sus aná-lisis clínicos, mostrar la imagenología mediante varios esquemas y poder realizar comparaciones entre los diferentes estudios con-tenidos en el expediente del paciente, todo ello en una interacción sin tacto o por voz.

Se logró implementar la interacción con el sistema y el usuario mediante un dispositivo Kinect 2.0, permitiendo realizar acciones mediante gestos sin necesidad de tocar algún dispositivo de entra-da. Asimismo se realizó un servicio web para capturar las señales de voz, la cual es filtrada utilizando un diccionario de palabras y permitiendo detectar un patrón que se traduce en comandos que realizan determinadas tareas dentro del sistema. Cabe destacar que el sistema funciona con los dispositivos de entrada tradicio-nales como teclado y mouse, pero está diseñado para que no se requieran estos dispositivos.

Se realizaron pruebas de funcionalidad con resultados satisfac-torios, en donde los usuarios pudieron interactuar con el sistema permitiendo acceder a los datos del paciente de manera fluida y sin necesidad de tocar algún dispositivo, logrando así el objetivo principal que es que el usuario no se vea contaminado al interac-tuar con otros instrumentos que no estén debidamente esteriliza-dos.

En cuanto a las limitaciones de la aplicación, mismas que es-tán provocadas por la versión del software Kinect 2.0 y su kit de desarrollo de software (SDK) están la falta de inclusión de otros comandos de voz, como buscar, seleccionar, decir el nombre del paciente para que la búsqueda sea inmediata y tener un comando de voz por cada interacción de movimiento existente. Puede haber interacción de dos usuarios reconocidos por Kinect, mientras per-manezcan en el campo de acción, sin embargo es recomendable que sea un usuario único el que interactúe.

Con los resultados obtenidos se espera que al implementar el sistema en los quirófanos de los hospitales se reduzca la tasa de infecciones en pacientes que son intervenidos quirúrgicamente hasta en un 80 por ciento, dado que se considera como riesgo principal la Infección del Sitio Quirúrgico (ISQ), por manipula-ción de herramientas, utensilios o materiales no esterilizados, lo que se evita con el sistema que permita acceder a información del paciente sin necesidad de tocar ningún elemento.

El sistema fue aprobado por la empresa EyeSoft ya que cubre todos los requerimientos determinados en el análisis, cumple con los objetivos planteados y es una solución innovadora a la proble-mática planteada.

59 R e v i s t a C i e n t í f i c a

Page 64: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

60R e v i s t a C i e n t í f i c a

Bibliografía

+ Sandoval, R. (2009). Municipios: Dinero y TIC. Portal Ciudadano. México: Reforma.

+ Sells, C., & Griffiths, I. (2009). WPF. Madrid: Anaya Multimedia-Anaya Interactiva. ISBN #9788441525917

+ Shari Lawrence Pflee-ger, E. Q. (2002). Ingeniería del software: teoría y práctica. Pren-tice Hall. ISBN #9789879460719

+ usr.code. (05 de 2013). From http://img.redusers.com/: http://img.redusers.com/image-nes/libros/lpcu097/capitulogra-tis.pdf

+ Boyce, J., Shapiro, J., & Tidrow, R. (2014). Windows 8.1 Bible. Indianapolis: John Wiley & Sons, Inc. ISBN 10 #111883531

+ Brennan, W. (2011). Microsoft Expression Blend 4 Unleashed. Pearson Education. ISBN-13 #978-0-672-33107-7

+ Heddle, B. (n.d.). http://blogs.windows.com/internatio-nal/b/latam/archive/2013/05/23/la-nueva-generaci-243-n-del-sensor-kinect-para-windows-lle-gar-225-el-pr-243-ximo-a-241-o.aspx. (Director Kinect para Windows) Retrieved 09 de junio de 2014 from http://blogs.win-dows.com/international/b/latam/archive/2013/05/23/la-nueva-ge-neraci-243-n-del-sensor-kinect-

para-windows-llegar-225-el-pr-243-ximo-a-241-o.aspx

+ Gabillaud, J. (2013). SQL Server 2012, Administra-ción de una base de datos tran-saccional con SQL Management Studio. Barcelona: ENI. ISBN #9781118441701

+ Iacono, M. (2009). Silverlight. Buenos Aires: MP Ediciones.

+ Katrib Mora, M., del Valle Matos, M., Sierra Zaldívar, I., & Hernández Saa, Y. (2009). Windows Presentation Founda-tion. Madrid: Laurna Ediciones.

+ México, K. C. (2010). Informe Anual 2009, 36.

+ México, p. (n.d.). http://www.pcworld.com.mx/Articulos/13303.htm. Retrieved 09 de junio de 2014 from http://www.pcworld.com.mx/Articu-los/13303.htm

+ Microsoft. (2012).http://www.kinectfordevelopers.com/es/2012/11/06/que-es-el-disposi-tivo-kinect/

+ Microsoft. (2014). http://www.visualstudio.com/es-es/explore/application-de-velopment-vs. Retrieved 08 de junio de 2014 from http://www.visualstudio.com/es-es/explore/application-development-vs

Page 65: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

61 R e v i s t a C i e n t í f i c a

Page 66: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

R e s u m e n : La naturaleza gregaria y social del ser humano, busca de forma activa la relación con su entorno, con variados propósitos, fun-damentalmente para el logro de metas. Las empresas han reconocido, de una forma cada vez mayor, los beneficios que el trabajo en equipo ofrece y han incluido dentro de sus estrategias su uso. Sin embargo no cuentan con las estrategias apropiadas para el desarrollo de la madurez de los grupos que forma y por ello, los beneficios no se dan. Es importante conocer y establecer dichas estrategias y los elementos o factores clave que las com-ponen, para lograr que el trabajo en equipo se presente y se logren las metas propuestas.

Palabras clave: Trabajo en equipo, madurez y metas.

A b s t r a c t : The human been is gregarious and social, searching in active way the relationship with is environment, with several purposes, pursuing his goals. Companies have recognized increasingly the teamwork benefits and have adopted its strategies to apply them. However, the com-panies ignore the appropriate strategies to maturity groups development and therefore, so the benefits will not be accomplished. It is important become aware and establish those strategies and their elements or key factors to be able to reach to create work teams and reach the desired goals.

Keywords: Teamwork, maturity and goals.

I M P O R TA N C I A D E L

Dr. Luis Arnulfo Guerrero Chávez1 y M.S.M. María Dolores Ruiz Gandarilla2

1,2 Instituto Tecnológico de Chihuahua

Av. Tecnológico, 2909Chihuahua, Chihuahua,

México, C.P. 31310

Enviado: 30 de octubre de 2015

Aceptado: 7 de diciembre de 2015

+

+

[email protected]

TRABAJO ENEQUIPO

62R e v i s t a C i e n t í f i c a

EQUIPO

Page 67: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Introducción

En los valores de la Ford Motor Company es posible encontrar la siguiente declaración: “Nuestra gente es la fuente de la fuer-za. Ellos proveen nuestra inteligencia corporativa y determinan nuestra reputación y vitalidad. El involucramiento y trabajo en equipo son nuestros valores centrales”. Asimismo, dentro de sus principios guía se encuentra que “El involucramiento de nuestros empleados es nuestra forma de vida. Somos un equipo. Debemos tratarnos unos a otros con respeto”. Como Ford, muchas grandes corporaciones establecen dentro de su misión, visión y principios guías, la prioridad que para ellas significa su gente y la aplicación del trabajo en equipo, más que una iniciativa o una herramienta, es un estilo de vida para el logro de sus metas (Satterfield, 2014).

Un estudio realizado desde el 2005 al 2014, determinó que el interés de las empresas, ubicadas en la ciudad de Chihuahua, por el trabajo en equipo ha crecido de un 14% en junio de 2005 a un 26% en mayo de 2014, pero aunque muchas de esas empresas in-cluyen dentro de las características que solicitan al personal que van a contratar el trabajo en equipo, en una encuesta aplicada a empresas que requieren trabajo en equipo, se determinó que no cuentan con el conocimiento y las estrategias requeridas para lo-grar el desarrollo de sus grupos, y con ello, obtener los beneficios buscados (Guerrero, Delgado y Sánchez, 2014), porque piensan que por el solo hecho de ponerlos a trabajar juntos, su proceso de desarrollo se completará, pero el desarrollo de los grupos es un proceso que tiene fecha de inicio, pero no de término, en el cual hay que desarrollar las habilidades que requieren sus integran-tes, que si no se adquieren, no podrán alcanzar su potencial como equipo y lograr sus metas (Harper y Harper 1994).

La madurez de un grupo se define como la etapa de desarro-llo en que se encuentra un grupo de trabajo, que debe medirse en porcentaje, indicando su grado de productividad, motivación y satisfacción personal. Por otro lado, un grupo maduro, al ser efi-caz en el logro de sus metas, deberá también ser muy productivo (Schein, 1973).

Cada ser humano se desarrolla en un contexto social, económi-co y político, donde aprende y expresa sus habilidades en base a sus capacidades y actitudes.

Cada individuo proviene de un ambiente diferente, con una cultura particular, el cuál le da una perspectiva independiente de los demás miembros del grupo al que se integra. La cultura es un sistema aprendido que comprende conducta, actitudes, creencias, valores y normas compartidos por un grupo de personas (Wilson, 2007).

La diversidad cultural en los grupos es reconocida por la ma-yoría como una ventaja importante de los grupos. Los miembros de algunos grupos van más allá de tolerar las diferencias y usarlas para crear un mejor resultado en la asignación. La clave para hacer que suceda parece estar principalmente en el liderazgo aplicado, a la comunicación efectiva, a los roles aplicados por cada uno de los integrante y al involucramiento en la toma de decisiones.

Dr. Luis Arnulfo Guerrero Chávez1 y M.S.M. María Dolores Ruiz Gandarilla2

63 R e v i s t a C i e n t í f i c a

Page 68: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Desarrollo

¿Por qué trabajar en equipo?

El desarrollo de la tecnología y prestación de servicios en el entorno económico actual, representa para las empresas una opor-tunidad de implantar mejoras y cambios para ser más competitivos y mantenerse activos en el mercado. Sin embargo para lograr tales mejoras es inminente que el ritmo y la velocidad del trabajo se vean afectados; por ello es de vital importancia buscar estrategias y mejores procesos considerando los recursos con que se cuenta.

El recurso humano se ha convertido en la principal estrategia para procesar los cambios y mejoras de forma efectiva. Entonces el trabajo en equipo se ha consolidado como la estrategia funda-mental para lograr el desarrollo y crecimiento de las organizacio-nes. Un error muy común en las organizaciones es que, aunque quieren crear grupos efectivos, no proporcionan el desarrollo co-rrecto para construirlos; tienen la idea equivocada de que con solo poner a las personas a trabajar juntas, se convertirán automática-mente en un equipo de trabajo. El desarrollo de equipos de trabajo efectivos es un proceso, en el cuál existen muchas habilidades que es necesario proporcionarle a la gente, de tal manera que si no las obtienen, el equipo nunca alcanzará todo su potencial en términos de productividad y satisfacción en el trabajo (Harper y Harper, 1994).

¿Qué es un equipo de trabajo?

Un equipo es un grupo de trabajo que ha alcanzado un nivel más alto de calidad, ha desarrollado cohesión entre sus miembros, crea un proceso de trabajo crítico, proporciona liderazgo para su propio desarrollo y desempeño (Kinlaw, 1991).

Un grupo de trabajo se define como la serie de tres o más in-dividuos que interactúan sobre algún problema común o meta interdependiente y que pueden ejercer influencia mutua entre sí (Wilson, 2007), también se conoce a un equipo de trabajo como un número pequeño de personas con habilidades complementarias que están comprometidos con un propósito común, con metas de desempeño y con una propuesta por las que se consideran mutua-mente responsables (Katzenbach y Smith, 2002).

Factores que afectan el desempeñodel equipo de trabajo

Los factores motivacionales establecidos por Abraham Maslow y los factores motivacionales e higiénicos definidos por Frederick Herz-berg inciden solo en la motivación de los individuos, pero existen otros factores que influyen directamente en el desempeño de un equi-po de trabajo. De acuerdo a la teoría de Herzberg, existen dos factores que orientan el comportamiento de las personas (Herzberg, 1959).

El primero corresponde a los factores higiénicos o factores de insatisfacción que son los salarios, tipo de dirección o supervisión que las personas reciben de sus superiores, las condiciones físicas y ambientales de trabajo, políticas y reglamentos de la empresa. Según Herzberg (1959), cuando los factores higiénicos son ópti-mos, evitan la insatisfacción de los empleados y cuando los facto-res higiénicos son pésimos provocan insatisfacción.

El segundo contempla los factores motivacionales o de satis-facción, los cuales están bajo el control del individuo, ya que se relaciona con lo que él hace y desempeña. Los factores materiales involucran sentimientos relacionados con el crecimiento indivi-dual, el reconocimiento profesional y las necesidades de autorrea-lización que desempeña en su trabajo. Las tareas y cargos son di-señados para atender a los principios de eficiencia y de economía, suspendiendo oportunidades de creatividad de las personas. Esto hace perder el significado psicológico del individuo, el desinterés provoca la desmotivación ya que la empresa solo ofrece un lu-gar decente para trabajar. El comportamiento de las personas bajo los factores motivacionales, de acuerdo a Maslow, es mucho más profundo y estable cuando los factores son óptimos, como son los logros, el reconocimiento, la independencia, la promoción el crecimiento, la madurez y la consolidación.

Se define la madurez como la etapa, medida en porcentaje, de desarrollo en que se encuentra un grupo. Establece que un grupo maduro, será más eficaz y productivo, tendrá una gran motivación, satisfacciones personales y una alta moral grupal cuando alcance un alto grado de madurez (Schein, 1973). La Figura 1 presenta el modelo integral y dinámico para el desarrollo de grupos de trabajo propuesto por Guerrero (2013).

64R e v i s t a C i e n t í f i c a

Page 69: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Figura 1. Modelo integral y dinámico para el desarrollo de grupos de trabajo.

De acuerdo al modelo integral y dinámico para desarrollo de grupos de trabajo, que está compuesto por cuatro fases (formación, integración, desarrollo y consolidación), nueve factores (mencio-nados adelante) y tres enfoques de evaluación (por el supervisor, por un asesor externo y por el mismo grupo de trabajo); un grupo de trabajo debe pasar por cuatro fases en su camino hacia la au-tonomía (Guerrero, 2013), fases que se muestran en la Figura 2.

Figura 2. Proceso de desarrollo de un grupo de trabajo.

El modelo integral y dinámico, propuesto por Guerrero (2013), establece que para determinar el nivel de desarrollo de un grupo de trabajo, debe calcularse la madurez; para ello encontró que la madurez es función de nueve factores:

+ Liderazgo adecuado al crecimiento del grupo.

+ Buena comunicación.

+ Roles y responsabilidades bien definidos.

+ Clima laboral favorable.

+ Objetivos y metas claros.

+ Resolución de problemas.

+ Revisión del avance.

+ Toma de decisiones.

+ Creatividad.

Es decir:

Madurez = ƒ (Liderazgo, comunicación, roles y responsabi-lidades, clima laboral, objetivos y metas, solución de problemas, revisión del avance, toma de decisiones y creatividad).

Para ello, diseñó un instrumento válido (validez de constructo r = 0.8176 ) y confiable (alfa de Cronbach α = 0.805) y contrastó la madurez medida a los grupos (variable dependiente) contra los re-sultados de los grupos de trabajo (variables independientes) como calidad, entrega, productividad y desperdicio, logrando correla-ciones superiores a 0.7, como puede verse en el caso de la gráfica de correlación de madurez – calidad presentado en la Figura 3.

Figura 3. Relación entre la madurez -calidad y los resultados de un grupo de trabajo.

De tal manera que concluyó que si la madurez es función de los factores y los resultados son función de la madurez, entonces los resultados serán función de los factores, por lo que la supervi-sión y la gerencia de las empresas deben concentrarse en mejorar los factores y los buenos resultados, logro de las metas, se darán como consecuencia:

Si la Madurez = ƒ (factores) y los Resultados = Madurez, entonces los Resultados = ƒ (factores)

Al mismo tiempo, Guerrero (2013) mide con el instrumento mencionado, la penetración de cada factor en cada fase del mo-delo y encuentra en qué factor deberá concentrarse el grupo de trabajo para continuar madurando (Figura 4).

65 R e v i s t a C i e n t í f i c a

Page 70: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

66R e v i s t a C i e n t í f i c a

Figura 4. Penetración de los factores de un grupo de trabajo.

Resultados y conclusiones

Los resultados logrados con la aplicación del modelo integral, dinámico y su instrumento válido y confiable, demuestran que la madurez de un grupo de trabajo, es decir, su grado de desarrollo, está ampliamente relacionada con los nueve factores propuestos y como los resultados del grupo de trabajo en términos de calidad, cumplimiento del programa de producción, de la generación de desperdicios y de su productividad, correlacionan en gran medida con la madurez calculada; entonces, en lugar de que la supervisión y la gerencia se enfoquen al cumplimiento de los métricos, deben dedicar sus esfuerzos a acrecentar el nivel de los factores y los resultados vendrán por añadidura.

La importancia de trabajar en equipo sobrepasa cualquier obje-tivo, estrategia, proceso o programa de una organización, ya que es una realidad que el recurso humano es el activo más valioso de cualquier organización.

Siendo que el ser humano, por su misma naturaleza gregaria, complementa con sus características naturales a todos aquellos que lo rodean, presenta un gran beneficio en el ámbito social, comercial, de servicio o productivo. Sin embargo, es necesario complementar ese interés y cuidado por la gente, con un sistema que garantice que los esfuerzos tendrán resultados que incidan en el logro de las metas de esas organizaciones. Sistemas como el modelo integral y dinámico para desarrollo de grupos de trabajo, llevado a la práctica consciente y comprometida, coadyuvarán a que ello se logre.

Page 71: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

67 R e v i s t a C i e n t í f i c a

Bibliografía

+ Guerrero Chávez, Luis Arnulfo, Delgado Ontiveros, María Elena y Sánchez Santia-go, Pedro (2014). El Trabajo en Equipo en las Empresas de la ciudad de Chihuahua. Querétaro, México. I Congreso Internacional de Investigación y de Redes de Colaboración COI-INRECO 2014. 153-169. ISBN # 978-607-8324-16-3.

+ Guerrero, Luis. (2013). Modelo Integral y Dinámico para Desarrollo de Grupos de Trabajo. Chihuahua, México. Editorial Gestoría. ISBN # 978-607-833-00-4.

+ Harper Ann, Harper Bob (1994). Team Barriers. U.S.A. MW Corporation. ISBN # 978-1880859032

+ Herzberg, Frederick (1959). Teoría de los dos facto-res. Universidad de UTAH.

+ Katzenbach, Jon y Smith, Douglas. (2002). La sa-biduría de los equipos. México. CECSA. Pp 39. ISBN # 968-26-1282-9.

+ Kinlaw, DC. (1991). Developing superviser work teams: Building quality and the competitive edge. Lexington, MA: Lexington Books.ISBN # 978-0669249835.

+ Schein, Edgar H. (1973). Consultoría de procesos: su papel en el desarrollo organi-zacional. Prentice Hall. Tarjeta del catálogo de la Biblioteca del Congreso de los E.U.A.: 72-91855.

+ Statterfield, Douglas (2014). Core Values: Ford Motor Company. The Leader Maker. http://www.theleadermaker.com/core-values-ford-motor-com-pany/

+ Wilson, L. Gerard (2007). Grupos en contexto: lide-razgo y participación en grupos pequeños. University of South Alabama.McGraw-Hill. ISBN # 978-9701061541.

Page 72: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

R e s u m e n : El estudio de las aleaciones metálicas amorfas ha llamado la atención de muchas aplicaciones tecnológicas, debido a que pre-sentan buenas propiedades mecánicas y físicas, mejoran la resistencia a la corrosión y tienen menor densidad comparado con las aleaciones que tie-nen estructuras cristalinas. Se han diseñado simulaciones computacionales que permiten estudiar, modelar, predecir y comprender fenómenos físicos complejos. La técnica de simulación que permite estudiar la estructura y composición de los materiales es la dinámica molecular, que surge como una alternativa a ser utilizada cuando no se cuenta con equipos de prueba para caracterizar los materiales, los costos por pruebas son altos y los tiem-pos de proceso disminuyen la velocidad de respuesta a los requerimientos por mejorar las aleaciones actuales.

Palabras clave: Amorfas, simulaciones computacionales, dinámica molecular y caracterización.

A b s t r a c t : The research on metallic amorphous alloys has inte-rested several technological applications as they have improved mechani-cal and physical properties, corrosion resistance and they have also lower density compared to the alloys that have a crystalline structure. Now a days the design of computing simulation has allowed to studying, modeling, pre-dicting and bearing in mind about the physical complex phenomenon. The simulation technique that allows to study the structure and composition of the materials is the molecular dynamics, which is an alternative when the researcher does not have a laboratory with the necessary equipment in order to characterize the materials, the high cost of testing is and the processing times to reduce the progress of the present alloys.

Keywords: Amorphous, computing simulation, molecular dynamics and characterize.

68

I M P O R TA N C I A D E L A S I M U L AC I Ó N

M.C. Francisco Javier A. Díaz Camacho1

1 Tecnológico de Estudios Supe-riores de Jocotitlán

Carretera Toluca-Atlacomulco km. 44.8, Ejido de San Juan y San

Agustín. Jocotitlán, Edo. de México. C.P. 50700

Enviado: 31 de octubre de 2015

Aceptado: 8 de diciembre de 2015

+

+

[email protected]

DINÁMICA MOLECULAR

R e v i s t a C i e n t í f i c a

D E M AT E R I A L E S A M O R F O S

DINÁMICA MOLECULAR

Page 73: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

69

Introducción

Desde la perspectiva de simulaciones computacionales de Di-námica Molecular*, se puede modelar y estudiar la estructura, me-canismos de deformación y el comportamiento de los materiales ante cargas externas, gracias al conocimiento de la trayectoria de los átomos durante la simulación (Casas, 2010).

Se pueden generar metodologías para realizar simulaciones que permitan obtener aleaciones amorfas usando Dinámica Mole-cular diseñando modelos amorfos a partir de sus fases cristalinas.

Los vidrios metálicos han sido estudiados durante décadas, particularmente en la última, con cientos de artículos publicados y mucha expectativa en los descubrimientos actuales y futuros, siendo un campo de investigación con mucha actividad en el pre-sente (Lozada, 2013).

Una aleación metálica amorfa o vidrio metálico es aquella en la que los átomos que la conforman se encuentran distribuidos de forma aleatoria (Casas, 2010), a diferencia de una aleación cris-talina donde los átomos se encuentran ordenados periódicamente como se muestra en la Figura 1. Existe un creciente interés en fabricar nuevos materiales por diversas técnicas que impliquen costos económicos cada vez menores.

Figura 1. Diferencias en la estructura cristalina y amorfa.

Durante las últimas décadas ha crecido el interés por las in-vestigaciones teóricas y experimentales de estructuras a escalas mesoscopicas así como de la microestructura de materiales des-ordenados (Medina, 2010). Ello con el objetivo de obtener mejo-res propiedades físicas que los sólidos convencionales, así como el control de las mismas. Dentro de estos nuevos materiales se encuentran las aleaciones metálicas amorfas y nanocristalinas en particular, de inusuales propiedades físicas y químicas y con po-tenciales aplicaciones tecnológicas.

*El software utilizado para realizar las simulaciones es “Ma-terials Studio” de Accelrys y está disponible a cargo del Profesor Martin Reich del Departamento de Geología de la Universidad de Chile, con conexión al cluster computacional de la Universidad de Michigan, Ann Arbor, Estados Unidos (Casas, 2010). Las simula-ciones de Dinámica Molecular se realizan utilizando el software Materials Studio 4.1 de Accelrys Software Inc., el cual permite realizar las simulaciones y ofrece herramientas avanzadas de vi-sualización y análisis de datos post-simulaciones.

DINÁMICA MOLECULAR

R e v i s t a C i e n t í f i c a

Page 74: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Los materiales amorfos metálicos o vidrios metálicos (Casas, 2010) son sistemas o aleaciones metálicas que carecen de un or-denamiento periódico de largo alcance de sus átomos. En estos materiales no existe el concepto de celda primitiva o grupo espa-cial de simetría. Los difractogramas típicos de los rayos X no pre-sentan picos bien definidos, más bien en muchos casos consisten de una sucesión de halos que están relacionados con la distribu-ción promedio de las distancias interatómicas.

Algunos métodos para sıntetizar materiales nanocristalinos son similares a aquellos usados para obtener aleaciones amorfas. La manipulación controlada del tamaño de grano, morfología y textu-ra se puede obtener modificando apropiadamente las variables que controlan los dispositivos de síntesis. Los principales métodos de preparación de materiales nanocristalinos son: condensación de gas inerte, solidificación rápida, electrodeposición, reacciones químicas, desvitrificación y mecano-síntesis (Koch, 2007).

Las aleaciones metálicas amorfas y nanocristalinas son siste-mas en estados metaestables con interesantes propiedades mecáni-cas, químicas y magnéticas para potenciales aplicaciones tecnoló-gicas actuales. Medina (2010) enuncia que los materiales amorfos son sistemas caracterizados por el desorden estructural y químico; es decir, no presentan orden de largo alcance, pero mantienen un orden de corto alcance (Figura 2). Mientras los materiales nano-cristalinos son definidos por cristalitos, con dimensiones menores a 100 nanómetros y contornos de grano o interfaces compuestas por aleaciones desordenadas (principalmente soluciones sólidas y aleaciones amorfas).

Figura 2. En la imagen del lado izquierdo es representado el orden de largo alcance y en el lado derecho el orden de corto alcance en el dióxido de silicio en estado cristalino y amorfo respectivamente.

Debido a la ausencia de orden de largo alcance, los materia-les amorfos presentan varias propiedades únicas. La carencia de una estructura cristalina ordenada conduce a la ausencia de con-tornos de grano, dislocaciones y fracturamiento. La carencia de contornos de grano dentro del bulk o placa sólida en bulto y en la superficie hace que no se encuentren sitios atómicos que sean propensos a una reacción química, de tal forma que tienen una alta resistencia a la corrosión (Casas, 2010). Los responsables de la deformación plástica en los materiales cristalinos metálicos, son las dislocaciones, pero estas se realizan en los planos atómicos, pero ante su ausencia en los materiales amorfos, estos tienen mu-cha mayor resistencia a la deformación que los materiales cristali-

nos. Una de las más notables características de las fases amorfas, investigada en la última década, son los comportamientos magné-ticos complejos que dan origen a materiales magnéticos duros y blandos (Díaz, 2012).

Metodología

En la actualidad las simulaciones computacionales se han trans-formado en una poderosa herramienta que permite modelar, pre-decir y comprender sistemas físicos de interés. La capacidad de obtener resultados concretos está estrechamente relacionada con la complejidad del modelo físico y el grado de precisión que desea obtener. Las simulaciones de fenómenos físicos utilizando avan-zadas técnicas de programación y computación permiten abarcar problemas complejos y verificar la validez de las aproximacio-nes realizadas con los resultados teóricos y numéricos. Además se puede extender el dominio de teorías de las cuales es posible extraer resultados verificables experimentalmente, al tener a dis-posición una herramienta alternativa y complementaria a las ya conocidas. En resumen, como se muestra en la Figura 3 se puede utilizar una simulación computacional para verificar la validez del modelo comparando los resultados numéricos con los experimen-tales (Casas, 2010).

Figura 3. Conexión entre teoría, realidad y simulaciones computacionales.

70R e v i s t a C i e n t í f i c a

Page 75: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

De acuerdo a Casas (2010), se exponen a continuación los pa-sos generales de la Simulación de Dinámica Molecular, que fue-ron propuestos originalmente por Allen (2004):

Paso 1: Inicialización. De acuerdo a las capacida-des computacionales se fijan el número de átomos con los cuales se trabajará en la simulación y el tamaño de la caja de simulación. Se fija el tiempo que durará la simulación (t max) y el paso de tiempo con el que se realizarán cada uno de los cálculos δt. Junto con lo anterior se fija el tipo de ensamble que se utilizará durante la simulación, con esto se fijan la presión, temperatura, volumen o densidad y las condiciones de borde. También se elige el tipo de potencial que gobernara el modelo.

Paso 2: Posiciones y velocidades iniciales. Se fi-jan las posiciones y velocidades iniciales para todos los átomos que forman el modelo.

Paso 3: Fuerzas. Se realiza el cálculo de las fuer-zas de interacción mediante el uso de los potenciales que gobier-nan el modelo en simulación.

Paso 4: Resolución de las ecuaciones de movi-miento. Se resuelven las ecuaciones de movimiento para todos los átomos usando un algoritmo de integración numérica, obteniendo la posición y velocidad de los átomos para cada paso de la simu-lación.

Paso 5: Se calculan las magnitudes de interés y se realiza la pregunta si el tiempo de simulación t +δ t t max. Si el tiempo de simulación es menor que t max se vuelve al paso 3, en caso contrario se termina la simulación.

Efectuar estudios de comportamientos estructurales de los materiales implica el manejo eficiente del software, contar con equipo de precisión para analizar los modelos amorfos, así como una alta preparación académica en la materia para saber analizar e interpretar los resultados obtenidos, sobre todo de física teórica, termodinámica y de ciencia de materiales. En la formulación del modelo se consideran todos los parámetros necesarios para reali-zar una simulación y no se podrá dejar de fuera ninguno.

De acuerdo a un estudio realizado por Casas (2010) sobre Si-mulación de Dinámica Molecular de aleaciones amorfas de Cu-Zr-Al, en primer término se generaron los modelos de aleaciones amorfas empleando diferentes composiciones químicas de los ele-mentos de aleación Zr y Al validados en la bibliografía disponible. Después se realizó un calentamiento arriba de la temperatura de fusión. Posteriormente se simuló un enfriamiento a 273ºK para obtener los modelos amorfos. Con este estudio se concluye que al realizar una Simulación de Dinámica Molecular se pueden obtener las posiciones de los átomos que conforman un determinado mate-rial, de lo cual se puede extraer importante información estructu-

ral, la que puede ser analizada mediante funciones de distribución radial, análisis de poliedros de Voronoi y difracción de rayos X. Los dos primeros análisis se pueden obtener a partir de una Simu-lación de Dinámica Molecular (Bailey, Schiotz y Jacobsen, 2004).En el trabajo de Casas (2010) se explican estos tres análisis.

Complementando se puede estudiar el comportamiento de los materiales ante cargas externas, gracias al conocimiento de la tra-yectoria de los átomos durante la simulación. Otro análisis co-rresponde al de los mecanismos de deformación de los modelos amorfos ante un esfuerzo de corte.

El análisis y las interpretaciones de los resultados no se podrán hacer sin tener las bases suficientes de la materia, por ejemplo, la Dinámica Molecular analiza los potenciales de interacción que existe entre los átomos que forman un determinado material, co-nociéndose así la posición y velocidad de cada átomo del material en cada instante. La calidad de los resultados de la simulación depende directamente de si el potencial interatómico refleja real-mente la interacción entre los átomos (Cheng, Cao y Sheng, 2008).

71 R e v i s t a C i e n t í f i c a

Page 76: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

72R e v i s t a C i e n t í f i c a

Otras aportaciones que fundamentan la simulación dinámica

Simular significa representar o hacer parecer algo que no es o no sucede en realidad (White, Luque, Budarin, Clark y Mac-quarrie, 2009) y efectivamente, en las simulaciones computacio-nales se busca, mediante algoritmos, representar y reproducir un fenómeno que no ha sucedido en realidad. La correlación de lo simulado con la realidad es función exclusiva del modelo matemá-tico. Entre mayor sea la semejanza de lo simulado con la realidad y con las implicaciones de esta, mejor será el modelo empleado (Santiago, 2011).

Las simulaciones conocidas como ab initio o cuánticas ab ini-tio son un ejemplo de simulaciones de teoría pura, que no utilizan datos experimentales, que se basan exclusivamente en la teoría cuántica para simular el comportamiento de un sistema a nivel atómico. Los algoritmos creados con las ecuaciones de la teoría cuántica suelen ser muy demandantes computacionalmente y esta demanda aumenta, casi siempre, cúbicamente con el número de átomos simulados (Santiago, 2011). Por esta razón, en las técni-cas ab initio se simulan normalmente menos de 500 átomos. Las simulaciones que no son ab initio emplean mayor número de áto-mos en sus simulaciones, como las planteadas en Gómez (2010), en donde se generaron modelos amorfos de Cu50Zr50 de 2,662 áto-mos a partir de un modelo cristalino que corresponde a 11x11x11 veces la celda unitaria.

El desarrollo tecnológico orientado a la manipulación y crea-ción de sistemas nanométricos, de tanto interés económico y aca-démico, se vale de las simulaciones ab initio para desarrollar, es-tudiar y comprender estructuras y fenómenos que se manifiestan a esa escala. Los resultados presentados en estos estudios solo son predictivos, no por ser producto de una simulación, sino porque pudieran no encontrarse resultados experimentales que describan sistemas semejantes a los simulados. De esta manera se puede contribuir al campo del conocimiento de nuevos materiales.

La nanociencia pretende manipular la materia a escala atómica y molecular. En este sentido, la nanociencia no tiene límites, po-tencialmente toda la materia, es decir, todo aquello constituido por átomos, puede ser manipulado: metales, no metales, semimetales; cualquier elemento de la tabla periódica, cualquier compuesto, cualquier solución, cualquier estructura (Santiago, 2011).

¿Qué es lo que hace tan diferente a la materia cuando se ma-nipula a escala nanométrica? Se sabe que cuando se manipula la materia a esta escala, se manifiestan variaciones en las propieda-des eléctricas, ópticas, magnéticas y químicas Moriarty (2001).

Se podrían describir estas simulaciones por ordenador como una técnica de microscopio virtual con alta resolución temporal y espacial. Considerando que es posible tomar instantáneas de las estructuras, que no podrían tomarse en experimentos convencio-

nales y permitiendo el acceso a todas las escalas de tiempo y mo-vimiento con resolución atómica (Aliseda, 2011). Por lo tanto, la Dinámica Molecular permite a los científicos escudriñar en el mo-vimiento de los átomos individuales de un modo que no es posible en experimentos de laboratorio. Para realizar estas simulaciones, es necesaria la representación en el ordenador de todos los átomos y moléculas que intervienen en el proceso. Estas simulaciones conllevan un gran consumo de recursos, tanto de memoria como de capacidad de procesamiento.

La UIB (2003) describe que esta técnica permite calcular las

trayectorias (las diferentes posiciones de las partículas en fun-ción del tiempo) de los átomos o partículas que forman la mate-ria y esto nos permite simular el comportamiento microscópico del sistema. A partir de ese conocimiento se pueden obtener los valores de diferentes propiedades macroscópicas (tanto estáticas como dinámicas). En las Simulaciones de Dinámica Molecular se asume que la dinámica de las partículas (átomos, moléculas,...) está gobernada por las leyes de la mecánica clásica, es decir el movimiento de las partículas se realiza de acuerdo con las leyes de Newton del movimiento. Se puede indicar que las Simulaciones de Dinámica Molecular consisten en la integración de las ecua-ciones de movimiento de Newton para determinar cómo varía la posición de las partículas en función del tiempo.

Discusiones

Por tratarse de un estudio teórico de investigación que preten-de aportar a los estudiantes e investigadores una panorámica de la simulación dinámica en materiales metálicos amorfos, se ex-ponen como resultados de la investigación los comportamientos atómicos que se esperan con la simulación de cualquier aleación metálica que el investigador desee desarrollar en la innovación de los materiales ya existentes.

Se muestra en la Figura 4, de acuerdo a Casas (2010), un mo-delo de representación donde Cu son las esferas rojas y Zr corres-ponde a las esferas celestes.

Figura 4. Modelos de simulación.

Page 77: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

De acuerdo a la metodología, los modelos de cristales fueron calentados mediante simulación a 2,000ºK, temperatura mayor a la temperatura de fusión para estas aleaciones, durante 100ps a un paso de simulación 0.5fs con condiciones de borde periódica en las tres dimensiones y en un ensamble NPT (sistema que man-tiene constante el número de átomos N, presión y temperatura), luego fueron enfriados a una tasa de enfriamiento de 1,013K/s hasta llegar a 273ºK donde se mantuvieron por 100ps para relajar la estructura de los modelos, siguiendo el perfil de temperatura mostrado en la Figura 5, evitando que las aleaciones cristalicen (Casas, 2010).

Figura 5. Ciclo Térmico de Amorfización.

A continuación se muestra en la Figura 6 un resumen de las evoluciones de las simulaciones desde el estado inicial del cristal, calentamiento y al final del enfriamiento.

Figura 6. Amorfización de 2,662 átomos.

Siguiendo la metodología indicada, estos modelos son analiza-dos posteriormente aplicando las funciones de distribución radial, los poliedros de Voronoi (los diagramas de Voronoi son herra-mientas fundamentales dentro de la geometría computacional, ya que almacenan información importante referente a la proximidad entre puntos) y la difracción de rayos X. Una vez terminada esta simulación, se procede a aplicar la prueba de corte al modelo ini-cial (Figura 7) y después de la deformación son analizados nue-vamente.

Figura 7. Deformación de cristal de 2,662 átomos.

Conclusiones

Manipular la materia a nivel atómico en prácticas de simula-ción nos ofrece hoy en día grandes beneficios para desarrollar e innovar nuevos materiales. El hacerlo requiere de amplios cono-cimientos en física teórica y en ciencia de materiales. La interpre-tación de resultados es especializada y precisa, sobre todo para la formulación de los modelos a practicar. La simulación no se queda únicamente en la interpretación, tiene un destino más profundo hacia la comparación con datos experimentales y bibliográficos. El contar con el software e instrumentación especializada es la desventaja de centros de estudio, quienes tienen que buscar la vin-culación con centros de investigación que permitan al estudiante y al personal de investigación lograr cumplir con sus objetivos. La aplicación de esta técnica es amplia en los centros de inves-tigación de nuevos materiales que buscan innovar y mejorar los productos actuales que se emplean en la industria y en el mundo moderno de la manufactura.

73 R e v i s t a C i e n t í f i c a

.

Page 78: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Bibliografía

+ Casas, C.A. (2010). Si-mulación dinámica molecular de aleaciones amorfas de Cu-Zr-Al. Universidad de Chile. Pp. 1-30.

+ Lozada, O. (2013). Cinética de cristalización de una aleación binaria vítrea base Cu. México: UNAM.

+ Medina, J.J. (2010). Estudio de las fases amorfas y nanocristalinas del sistema Fe2Zr obtenidas por técnicas de mecano síntesis. Lima, Perú. Fa-cultad de Ciencias, Pp. 1-6.

+ Koch, C. (2007). Na-nostructured materials. William Andrew Publishing. Norwich, N.Y., U.S.A.

+ Díaz, J.A. (2012). Estu-dio del sistema Aluminio-Silicio líquido y amorfo. UNAM, IX.

+ Allen, M.P. (2004). NIC Series. Vol. 23. Pp 1-28. ISBN # 3-00-012641-4.

+ Bailey, N.P.; Schiotz, J. y Jacobsen, K.W. (2004). Physi-cal Review, B69. 144205.

+ Cheng, Y.Q.; Cao, A.J. y Sheng, H.W. (2008). E.Ma. Acta materialia. 56. 5263-5275.

+ White, R.J.; Luque,R.; Budarin, V.L.; Clark, J.H. y Macquarrie, D.J. (2009). Su-pported metal nanoparticles on porous materials: methods and applications. Chem. Soc. Rev. 38:481-494.

+ Santiago, C.U. (2011). Simulación de sistemas metálicos amorfos y porosos de elementos nobles. UNAM. Pp. 13-17.

+ Moriarty, P. (2001). Nanostructured materials. Rep. Prog. Phys., 64:297-381.

+ Aliseda, F.J. (2011). Diseño de un simulador de diná-mica molecular en CORBA. Ma-drid: Universidad Carlos III, 2.

+ UIB-Universidad de LES ILLES BALEARS (2003). Simulaciones de dinámica mo-lecular. Capítulo 3. QFC-T3, 27-28.

74R e v i s t a C i e n t í f i c a

Page 79: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

75 R e v i s t a C i e n t í f i c a

Page 80: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

R e s u m e n : En este documento, se presenta el estudio del factor de potencia que se realizó a una institución que trabaja en tarifa HM de la Comisión Federal de Electricidad (CFE), la cual corresponde a la tarifa horaria para un servicio general en media tensión con demanda de hasta 100 kW. El factor de potencia es un parámetro esencial para medir la calidad y la cantidad de la utilización de la energía eléctrica en relación a la potencia instalada. En este trabajo, se presenta un análisis estadístico del factor de po-tencia del año 2014, así como un estudio de la relación a través del cálculo del coeficiente de correlación lineal entre diferentes parámetros eléctricos asociados al factor de potencia y algunas medidas para corregirlo. Se realizó el cálculo del coeficiente de correlación lineal para determinar la relación entre la demanda máxima de potencia, el factor de potencia y el factor de carga de la instalación eléctrica. El coeficiente de correlación lineal entre las variables de demanda máxima y factor de potencia es de 57.40%, mientras que el coeficiente de correlación lineal entre el factor de potencia y el factor de carga es de 57.10%

Palabras clave: Factor de potencia, factor de carga, consumo de ener-gía y coeficiente de correlación lineal.

A b s t r a c t : The purpose of this paper is to present the study of the power factor observed in an institution that works at an HM rate of the Co-misión Federal de Electricidad (CFE), which corresponds to the hour rate of a medium-tension general service with a demand of up to 100 kW. The power factor is an essential parameter to measure the quality and quantity of the use of electricity according to the installed power. This work presents a statistical analysis of the power factor in 2014, as well as a study

76

A N Á L I S I S D E L

Ing. Éder Alberto Flores López 1, Ing. María Yuridia Bahena Landa 2 y Dr. José Andrés Alanís Navarro3

1,2,3 Universidad Politécnica del Estado de Guerrero

Taxco de Alarcón, Guerrero, México, C.P. 40321

Enviado: 31 de octubre de 2015

Aceptado: 7 de diciembre de 2015

+

[email protected]

R e v i s t a C i e n t í f i c a

factor de potencia

E L É C T R I CO

Page 81: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

77

of the relationship through the calculus of the lineal correlation coefficient among different electrical parameters linked to the power factor and some measurements to correct it. The calculus of the lineal correlation coefficient was made to determine the relationship between the maximum power demand, the power fac-tor and the charge power of the electrical installation. The lineal correlation coefficient between the maximum demand variables and the power factor is 57.40%, on the other hand the lineal co-rrelation coefficient between the power and the charge factor is 57.10%.

Keywords: Power factor, charge power, energy consumption and li-neal correlation coefficient.

Introducción

La potencia eléctrica que demanda un aparato eléctrico es una transferencia de energía eléctrica por unidad de tiempo (Joule por segundo), ésta se relaciona con la intensidad de corriente eléctrica (I), la tensión eléctrica (V) y el ángulo de fase entre ambas señales ( ). Existen tres tipos de potencia eléctrica, éstas son:

Potencia activa (P): Es la potencia que se aprove-cha para ser transformada en diferentes tipos de energía (térmica, mecánica, lumínica, etc.), su unidad es el Watt (W).

Potencia reactiva (Q): Es la potencia que se uti-liza para la generación de campos eléctricos y magnéticos, mas no para generar trabajo eléctrico útil, su unidad es Volt-Ampere reactivo (VAr).

Potencia aparente (S): Es el vector resultante del triángulo de potencias, su unidad es Volt-Ampere (VA).

+

R e v i s t a C i e n t í f i c a

(3)

(1)

(2)

Page 82: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

En el caso ideal, no existe un ángulo de fase entre las señales de tensión y corriente eléctrica, es decir, cuando = 0°, esto im-plica que la potencia activa (P) es máxima debido a que cos = 1; mientras que la potencia reactiva (Q) es mínima, ya que sen = 0.

El factor de potencia de una carga, que representa la energía total que consume la instalación, está dado por la relación entre la potencia activa y la potencia aparente, ver ecuación (4); es decir, el cociente entre la cantidad de energía utilizada y la cantidad de energía disponible en un momento determinado. Si las señales de corriente y tensión eléctricas son señales perfectamente sinusoi-dales, el factor de potencia es igual a la función coseno del ángulo de fase ( ) entre ellas. Numéricamente, el factor de potencia oscila entre valores de 0 a 1 para indicar la mínima y máxima utilización de la energía, respectivamente. Cuando el factor de po-tencia es menor a 0.9, la CFE cobra una penalización económica por el deficiente aprovechamiento de la energía; cuando el factor de potencia es mayor a 0.9, realiza una bonificación, y si el factor de potencia es igual a 0.9 la CFE no penaliza ni bonifica econó-micamente al usuario (CFE, 2015). La adecuada administración del consumo de energía se ve reflejada en el pago por el consumo de la misma. La instalación de bancos de capacitores permite al consumidor reducir el gasto económico al mantener el nivel de consumo de potencia reactiva por debajo del valor de penaliza-ción, porque el banco de capacitores corrige el desfase entre las señales de tensión y corriente eléctrica (sen = 0). La adecuada gestión de la energía eléctrica tiene un efecto positivo sobre el medio ambiente debido a que comúnmente la energía es generada por turbinas cuyos combustibles son hidrocarburos que generan gases de efecto invernadero; es decir, cuando existe un eficiente consumo de la energía eléctrica se reduce el impacto ambiental.

En el triángulo de potencias de la Figura 1 se muestra una re-ferencia gráfica de qué es el factor de potencia, definido como la función cos y la relación entre las potencias P, Q y S en un cir-cuito de corriente alterna (Schneider, 2010). Cuando el factor de potencia tiende a 1, implica que Q < P, ver ecuación (4).

Figura 1. Triángulo de potencias.

Caso de estudio

En la Figura 2 se presentan los datos del factor de potencia eléctrico y el factor de carga, expresados como porcentaje, para cada mes del año. El factor de carga es un número que indica el porcentaje de utilización de la demanda contratada durante un mes, en este caso la demanda contratada es de 280 kW. Se ob-serva una tendencia entre ambos parámetros eléctricos, excepto en el mes de mayo. Para determinar la correlación entre dichos parámetros se realizó el cálculo del coeficiente de correlación, el cual permite mostrar la interrelación entre dos variables (Devore, 2008). El coeficiente de correlación lineal es de 57.10%, lo cual indica una correlación moderada entre ambos parámetros eléctri-cos.

Figura 2. Factor de potencia y factor de carga mensuales.

En la Figura 3 se presenta la información de la demanda máxi-ma de potencia expresada en kilowatt (kW) de potencia eléctrica y el factor de potencia eléctrico expresado como porcentaje de cada mes del año. Se observa una tendencia entre ambos parámetros eléctricos, excepto en los meses de abril, julio y agosto. El coefi-ciente de correlación lineal es de 57.40%.

Figura 3. Demanda máxima y factor de potencia mensuales.

(4)

78R e v i s t a C i e n t í f i c a

Page 83: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Análisis estadístico

En la Figura 4 se muestra el histograma del análisis estadístico del factor de potencia, se observa una frecuencia mayor para los valores entre 75% y 80% y sólo un valor entre 45% y 50%. El valor máximo registrado en el análisis está por debajo del valor que impone la CFE para evitar la penalización. En la Tabla 1 se presenta el resumen de las medidas de tendencia central y de dis-persión (Spiegel y Stephens, 2009).

Figura 4. Histograma del factor de potencia.

Tabla 1. Resumen de las medidas de tendencia central y de dispersión del factor de potencia.

Conclusiones

Los valores de las medidas de tendencia central obtenidos a partir del análisis estadístico del factor de potencia son: una me-dia = 71.30%, la mediana = 74.40% y no presentan moda. En cuanto a las medidas de dispersión, los datos tienen una amplitud de 39%, una desviación estándar s = 10.2%, una varianza s2 = 104.1%, un coeficiente de variación CV = 14%, un sesgo negativo Sg = -1.44 y un coeficiente de kurtosis k = 2.86, lo cual co-

rresponde a una distribución leptocúrtica, es decir con una forma puntiaguda.

El coeficiente de correlación lineal entre las variables de demanda máxima y factor de potencia es de 57.40%, mientras que el coefi-ciente de correlación lineal entre el factor de potencia y el factor de carga es de 57.10%; ambos parámetros presentan una correla-ción moderada con el factor de potencia. Para aumentar el factor de potencia se recomienda aumentar el factor de carga, debido a que éstas son proporcionales, aunque esto implica un aumento en la facturación por concepto de energía. Otra alternativa es solici-tar una reclasificación ante la CFE con el objetivo de ajustar el consumo a la demanda máxima de la instalación, o solicitar a la CFE una reducción de la demanda contratada, con el objetivo de aumentar el factor de carga, sin aumentar el consumo de energía.

79 R e v i s t a C i e n t í f i c a

Page 84: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Bibliografía

+ CFE (2015). Factor de potencia. 2015-10-30, de Co-misión Federal de Electricidad Sitio web: http://www.cfe.gob.mx/industria/ahorroenergia/lists/ahorro%20de%20energa/attach-ments/3/factordepotencia1.pdf

+ Devore Jay L. (Séptima edición: 2008). Probabilidad y Estadística para Ingeniería y Ciencias. Learning Editores, S.A. de C.V., Av. Santa Fe núm. 505, piso 12 Col. Cruz Manca, Santa Fe. C.P. 05349, México, D.F.

+ Schneider Electric Es-paña, S.A. (Cuarta edición: abril de 2010). Guía de diseño de instalaciones eléctricas. España: Tecfoto, S.L. Ciutat de Granada, 55. 08005 Barcelona. ISBN #84-609-8658-6.

+ Spiegel M. y Stephens L. (2009). Estadística. México: Mc Graw Hill.

80R e v i s t a C i e n t í f i c a

Page 85: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

81 R e v i s t a C i e n t í f i c a

Page 86: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

R e s u m e n : Este trabajo es una revisión de literatura de la loca-lización de objetos por tecnología Radio Frequency Identification (RFID) híbrida, se presenta un análisis de diferentes artículos donde se observa la viabilidad, los retos de esta tecnología, casos de aplicación y las nuevas oportunidades, mediante la búsqueda en bases de datos, patentes, sitios co-merciales y journals web, desde el año 1997 al 2015. Se revisa el uso de sis-temas de radio frecuencias híbridos que proponen mejorar los sistemas de localización, al final se plantean líneas de investigación y oportunidades en las nuevas tecnologías de radiofrecuencia emergentes como la Ultra Wide Band (UWB) y RuBee.

Palabras clave: RFID, localización y RFID híbrida.

A b s t r a c t : This paper is a literature review of the location of objects by Radio Frequency Identification (RFID) hybrid, an analysis of di-fferent items where viability is observed, the challenges of this technology, application cases and new opportunities are presented by search databases, patents, trade sites and web journals, from 1997 to 2015 the use of hybrid radio frequency systems that aim to improve tracking systems is reviewed at the end lines of research involved and new opportunities in emerging RF technologies such as Ultra Wide Band (UWB) and RuBee.

Keywords: RFID, location and RFID hybrid.

82

R E V I S I Ó N D E L I T E R AT U R A D E LO S S I S T E M A S D E LO C A L I Z AC I Ó N D E O B J E TO S P O R

M.C. Henry Xochipiltecatl Carreto1,3 y Dr. Rogelio Álvarez Vargas2

1Alumno del Posgrado CIATEQ Hidalgo.

2 CIATEQ Querétaro. 3 Nemilis S.R. L de M.I.

Enviado: 31 de octubre de 2015

Aceptado: 7 de diciembre de 2015+

+

[email protected]

R e v i s t a C i e n t í f i c a

TECNOLOGÍA RFIDY NUEVAS TECNOLOGÍAS DERADIOFRECUENCIA

TECNOLOGÍA RFIDY NUEVAS TECNOLOGÍAS DERADIOFRECUENCIA

Page 87: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

83

Introducción

La localización de objetos es una tarea importante en el cam-po de la computación [1] que ha utilizado diferentes tecnologías para ubicar y situar entidades desde infrarrojos, ultrasonido, video cámara, campo electromagnético hasta la Radio Frecuencia (RF) con el uso de etiquetas pasivas y activas.

El objetivo de este trabajo es una revisión de la literatura de la tecnología de Radio Frecuencia (RF) activa, en especial el uso de tecnologías RF híbridas en algoritmos, redes, métodos, hard-ware (RFID pasiva, activa, GPS, ZigBee y BlueTooth), así como nuevas tecnologías de radio (RuBee, Ultra Wide Band - UWB, Unidad de Medición Inercial - Sistemas Microelectromecanicos IMU-MEMS,...) para observar la viabilidad, los retos de esta tec-nología, casos de aplicación y nuevas oportunidades. La hipótesis a comprobar es que los sistemas híbridos de localización presen-tan mayor eficiencia al combinar dos tipos de RF u otra tecnolo-gía para mejorar las capacidades de localización de objetos. Esto debido a que actualmente los sistemas de localización presentan oportunidades de mejora en precisión, alcance, gestión de energía y velocidad de tratamiento de datos.

Materiales y métodos

Se realizó una investigación bibliográfica en artículos del año 1997 al 2015 de la base de datos de ScienceDirect, Journal Cam-bridge, EBSCO HOST, IEEE Explore, ASTM, Emerald Insight, 10 patentes obtenidas del buscador de patentes PATENTSCOPE – WIPO, Google Patent Search e IMPI y sitios de empresas comer-cializadoras de sistemas Radio Frequency Identification – RFID, basándose en uno de los cuatro modelos según [2] y tomando el modelo de seguimiento de objetos (RFID activo) [2 y 3] y lecto-res cercanos [4, 5 y 6] se desprenden seis tópicos:

+ Monitoreo por Radio Frecuencia.

+ Seguimiento y localización de objetos.

+ Nuevas tecnologías de localización.

+ Tecnologías híbridas.

+ Algoritmos de localización.

+ Hardware.

R e v i s t a C i e n t í f i c a

Page 88: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Desarrollo

Monitoreo por radio frecuencia

El ciclo de vida de la tecnología [7, 8 y 9] también aplica para la tecnología RF. Para el caso de la RFID, en especial la RFID pasiva se encuentra en la etapa de madurez, como lo presenta el estudio de [10]. Para el caso de los RFID activos se observa creci-miento-madurez, la tecnología de localización RFID activo tiene 273 publicaciones. En la Figura 1 se observa una disminución de publicaciones del 6.23% en el 2015-2014 comparado con el 2013-2012.

Figura 1. Comportamiento de publicaciones sobre localización con RFID activo.

La disminución ocurre con el aumento de investigaciones en UWB, WiFi y BlueTooth en los últimos dos años y a que requiere de implementar infraestructura para llevar a cabo la localización.

En el resultado de la búsqueda en bases de datos se observa el uso en un 38.5 % de la tecnología RFID, 15.4% integrando video y 46.1 % integrada con otras tecnologías (Mobilarea, RadarSat-2, Moving Object Databases – MOD, Scalable Traking Using Ne-tworked Sensors – STUN, TCP/IP, Moving Object Alarm Sys-tem- MOAS).

La Figura 2 muestra que el uso de RFID para localización es el más usado por encima del video.

Figura 2. Comportamiento de publicaciones sobre Monitoreo por Radio Frecuencia.

Las otras tecnologías integradas buscan ser eficientes tanto en exactitud como en recursos, utilizando la infraestructura disponi-ble de las Wireless Local Area Network (WLAN) como el WiFi que tiene un crecimiento importante, con infraestructura ya ins-talada y esto permite reducir el costo en la implementación de la localización.

Seguimiento y localización de objetos

Se observa el uso en un 81% del RFID (41% Near Field Com-munication - NFC, 40% Ultra High Frequency – UHF y 1% en Semi activos), siendo el 19% restante de otras tecnologías (Global Telematic Transport System - GTTS, Global Positioning System - GPS, WiFi, Video,…).

En la Figura 3 se observa el porcentaje de uso entre RFID NFC y UHF, debido a las aplicaciones híbridas y las ventajas en precio que presenta el NFC y alcance de UHF.

Figura 3. Comportamiento de publicaciones sobre seguimiento y localización de objetos.

Nuevas tecnologías de localización

Las tecnologías RF que se encuentran en introducción son BlueTooth, Zigbee, UWB, y RuBee, entre otras.

Bluetooth tiene 173 publicaciones, se observa un crecimiento del 14% con respecto al periodo 2013-2012.

En la Figura 4 se puede observar el crecimiento del 14% de los años 2015-2014 con respecto al 2013-2012, debido al uso de las mejoras en la tecnología a partir del BlueTooth 4.0, al reducir el consumo de energía BlueTooth Low Energy (BLE), con alcance de 100 metros y a su uso común en Smart Phones.

84R e v i s t a C i e n t í f i c a

Page 89: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Análisis estadíFigura 4. Comportamiento de publicaciones sobre BlueTooth.stico

El crecimiento también se debe al incremento en aplicaciones basadas en Smart Phone y con integración en Tags RFID pasivos. Su atención va de aparatos móviles, industria, seguridad y siste-mas expertos.

Las tecnologías de localización RF WiFi, por su parte tiene una gran actividad en los últimos años, con 121 publicaciones. En la Figura 5 se muestra el número de publicaciones sobre WiFi, se observa el crecimiento en publicaciones en gran medida por el hecho de que no requiere agregar infraestructura para la localiza-ción al interior.

Figura 5. Comportamiento de publicaciones sobre WiFi.

Se observa un crecimiento actual del WiFi del 13% del 2015-2014 con respecto al periodo del 2013-2012. Sus aplicaciones son parecidas al BlueTooth pero tiene una gran integración a la Tag de tecnología RFID. En las empresas líder de tecnologías de la Información (TI) mundiales, se observa una tendencia a utilizarlo como estándar de localización.

La tecnología de localización en RF ZigBee, apenas cuenta con 50 publicaciones, de las cuales el mayor porcentaje se centra en los últimos dos años. En la Figura 6 se puede ver el porcentaje por periodo.

85 R e v i s t a C i e n t í f i c a

Page 90: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

86R e v i s t a C i e n t í f i c a

Figura 6. Comportamiento de publicaciones sobre ZigBee.

Asimismo se observa en esta tecnología un crecimiento vigo-roso en los cuatro últimos años, esto se debe a que hay más de-sarrollos en esta tecnología aplicada a redes y sistemas expertos, utilizándose como red de sensores y en menor medida con la inte-gración a la tecnología RFID como lector.

La tecnología de localización RF UWB, tienen la mitad de pu-blicaciones que el ZigBee, apenas 25, el 52% de las publicaciones son en los últimos cuatro años. La Figura 7 muestra el porcentaje de crecimiento de casi el 20% de los últimos dos años comparado con el 2013 y 2012.

Figura 7. Comportamiento de publicaciones sobre UWB.

La UWB tiene similares aplicaciones que el Bluetooth, la cual es usada en gran medida para interactuar con la tecnología RFID en aplicaciones de cadena de suministro y red de sensores. Las virtudes que presenta son una mediana duración de batería, no tiene el problema tan acentuado de rebote o absorción de señal en metal, agua u otros objetos absorbentes de RF, buena precisión, alta estabilidad y quizá el punto en contra sea un corto alcance [11].

Las tecnologías de localización RF RuBee, tiene tan solo cua-tro publicaciones y todas se encuentran en los últimos cuatro años. La tecnología RuBee se observa en aplicaciones de localización y sistemas expertos, interactúa en gran medida con la tecnología RFID para redes, cadena de suministros y salud, tiene un mejor desempeño que la ZigBee y soporta mayor densidad de Tags.

En la Figura 8, se muestra el concentrado de las publicaciones, donde se observa que aun cuando las investigaciones de RFID activa son numerosas, las que presentan un mayor crecimiento y representan una buena oportunidad de investigación son las basa-das en otras tecnologías RF como son ZigBee, WiFi y en menor medida RuBee, UWB y Bluetooth.

Figura 8. Comportamiento de publicaciones sobre localización con RF.

En la Figura 9 se observa el concentrado de aplicaciones de localización; resalta que varias de las tecnologías apuntan a la localización de dispositivos móviles en mayor medida sin perder de vista la integración de sistemas expertos (Inteligencia artifi-cial, Big Data, ERP) debido a los problemas de localización por las características de la tecnología RF (Línea de visión, objetos absorbentes de señal, alimentación de los dispositivos, gestión de gran cantidad de datos,…).

Page 91: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Figura 9 Aplicaciones de localización en las tecnologías RF.

Tecnologías RFID híbridas (TRH)

Las TRH se encuentran con la combinación y/o modificación de algoritmos, redes, modelos y/o hardware; se observan en mayor medida en las patentes, también se observan en aplicaciones rea-les, donde buscan solucionar al menos seis temas:

1. Gestión de energíaLas patentes [12, 13, 14 y 15] muestran el uso de un sistema

RFID híbrido mediante Tags pasivos y activos, para recargar y conservar energía, además de aumentar la gamma de transmisión de señal, esto para prolongar la vida útil del dispositivo, evitando la energización continua del Tag. El artículo presentado por [16] muestra una red híbrida basada en RFID que mejora la gestión de energía cuando hay interferencia de otra red WiFi; [11] men-ciona que una mejor forma de gestionar energía es usando Tags pasivos con ZigBee, [17] propone un sistema que combina el Tag pasivo y activo del sistema RFID similar a las patentes [12, 13, 14 y 15] para un mejor manejo de la energía basado en un híbrido de Wireless Identification and Sensing Platform (WISP), con un Hybrid Power Management Unit (HPMU) para realizar tres mo-dos de energía (pasivo y carga, semi-pasivo localización y modo apagado).

2. Evitar colisiones de señalLa patente [18] presenta un Tag activo RFID - UWB y la im-

plementación del Media Access Control (MAC) para reducir la posibilidad de colisión de señales, esto para reducir el costo. En el artículo [19] se menciona un sistema híbrido para evitar la coli-sión de señales denominado T-GDFSA, el cual reduce la potencia en los dispositivos cuando se produce una colisión, esto cuando se tiene presencia de una red WiFi con el estándar IEEE 802.15.4. que le da una mayor eficiencia, [20] propone un sistema parecido a [19] donde presenta un sistema híbrido anticolisión que mejora

el rendimiento del sistema en comparación con las técnicas an-ti-colisión de ALOHA y el método árbol-binario.

3. Reducir el error de localización

La patente [21] muestra un sistema RFID activo, el cual se apo-ya de múltiples dispositivos para la localización entre ellos: an-tenas, lectores, switches de computadora y disparadores de señal, utilizando baja y alta frecuencia con el fin de proveer un menor error en la localización. Un artículo de [22] presenta un sistema híbrido compuesto de una antena que lee tanto Super High Fre-quency (SHF) RFID como luz, mediante un sensor óptico para re-cibir comunicación y como fuente de poder para el transpondedor. [23] presenta un sistema basado en Inertial Navigation System (INS) con sensores y nodos ZigBee usando algoritmos Particle Filter (PF) y Pedestrian para navegar, hay una mejora en la locali-zan y tiene un costo menor que utilizar UWB.

4. Mejorar la ubicaciónLas patentes [24, 25, 26 y 27] muestran una clara intensión de

localización mediante RF, para ello utilizan un sistema híbrido donde se espera ubicar el Tag utilizando dos tipos de protocolos de señales RFID Activo y Bluetooth para la primera, RFID activo y GPS para la segunda (RFID, GPS, Global System for Mobile Communication - GSM, Geographical Information System - GIS y laser).

En el evento IPSN-2015 [28] el uso de WiFi se observa en una gran cantidad de opciones de localización, integrando sensores, BlueTooth y otras tecnologías RF con el fin de aumentar la exac-titud en la localización. Se han observado tendencias de que la tecnología de localización tendrá soporte en el WiFi.

Existen otras tecnologías para la localización mediante mag-netismo y la integración de red de sensores, se observa el uso de Inertial Measurement Unit (IMU) en Microelectromechanical Systems (MEMS), con la fusión de sensores para especificar a nivel de sistema la exactitud en la orientación usando velocidad, fuerzas gravitacionales, acelerómetros y giroscopios integrados (emulando la navegación de aeronaves) en lo denominado nave-gación por estima, realizando cálculos en seis dimensiones como ejes de navegación. También es importante recalcar que el uso de la UWB, y BlueTooth se vislumbran como tecnologías de so-porte de segundo nivel para integrar sensores o la comunicación con WiFi, además de la integración de sensores geomagnéticos, electromagnéticos para obtener niveles de voltaje de acuerdo a la deformación de este (Geophones).

La Figura 10 muestra las principales tecnologías utilizadas para la estimación de distancia con sistemas híbridos utilizando la infraestructura existente como WiFi y BlueTooth.

87 R e v i s t a C i e n t í f i c a

Page 92: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Figura 10. Tecnología de estimación de la distancia híbrida sin diseño de infraestructura.

Se observa el uso en general de WiFi cuando en la mejora de la ubicación no se agrega infraestructura, aparece entonces sistemas híbridos de localización basados en WiFi con la integración de sensores, BlueTooth, UWB y otras tecnologías RF con el fin de aumentar la exactitud en la localización.

En la Figura 11 se muestran las principales tecnologías de lo-calización híbridas cuando se agrega la infraestructura para la lo-calización.

Figura 11. Tecnología de estimación de la distancia híbrida con diseño de infraestructura.

La Figura 11 muestra otras tecnologías para mejorar la locali-zación, integrando magnetismo, red de sensores, Inertial Measu-rement Unit (IMU) en Microelectromechanical Systems (MEMS), con la fusión de sensores para especificar a nivel de sistema la exactitud en la orientación. También se pretende mejorar la loca-lización usando velocidad, fuerzas gravitacionales, acelerómetros y giroscopios integrados que permiten emular la navegación de aeronaves, en lo denominado navegación por estima realizando cálculos en 6 dimensiones como ejes de navegación.

En el artículo de [29] se presenta un sistema de análisis neu-

ral para optimizar la posición en 3D; [20] utiliza un sistema ba-

sado en ZigBee y RFID pasivo donde la combinación de estas tecnologías permite crear una red que estima la posición a bajo costo; [30] analiza el ROI (Return on Investment) de implemen-tar un sistema RFID/MEMS, donde concluye que es viable y su implementación muestra ahorros; [31 y 32] por su parte propo-nen por separado un sistema basado en RFID pasivo y Wireless Local Area Network (WLAN) buscando reducir el costo del sis-tema, mejorar la ubicación y reducir el consumo de la energía, [32] además usa Fingerprinting y basa su sistema en el estándar IEEE 802.11 aprovechando la medición del RSS; [33] por su parte propone un sistema híbrido escalable basado en RFID y el algorit-mo Simultaneous Localization and Mapping (SLAM) utilizando también RSS con un nivel de precisión de 0.3 metros; [34] pre-senta una antena para un sistema híbrido pasivo RFID UHF/UWB para leer un dispositivo RFID UHF-UWB; [35] utiliza sistema de seguimiento híbrido con alta exactitud y bajo costo computacional basado en Tags pasivos usando algoritmo PF y Weighted Centroid Localization (WCL).

5. Gestión de recursos y análisis de decisión

En [36] se utiliza un Multiple Criteria Decision Making (MCDM) con una combinación de sistema complejo de optimi-zación multicriterio denominado VIKOR, un Decision Making Trial And Evaluation Laboratory (DEMATEL) para desarrollar un modelo que mejora la decisión del uso de los activos médicos; [37] desarrolla un modelo híbrido denominado Cellular Based Approach Algorithm for Duplication Detection and Elimination (CBADE) para limpiar datos y evitar su duplicación arrojados por los RFID leídos esto en el sector salud; [38] utiliza RFID pasivos y activos como sensores soportados por una red ZigBee para crear una red de sensores híbrida basada en el estándar IEEE 802.15 para la logística de un centro de ayuda humanitario. En lo que se refiere a empresas [29] menciona que el Departamento de Defensa de los Estados Unidos desarrolla un Tag híbrido que incluye un RFID activo, GPS, satélite y sensores cuyo objetivo es dar seguimiento a bienes en cualquier lugar dentro de una cadena de suministro global.

6. Privacidad y seguridad[40] Mejora la privacidad de los Tags RFID con un esquema

de autentificación híbrido basado en la encriptación Rabin Pu-blic-key.

Algoritmos de localización

La precisión de la localización es lograda gracias a la inte-gración de algoritmos que permiten mejorar la estimación de la posición y/o la distancia, por el tipo de medición y su naturaleza son aplicables algunos tipos de algoritmos, así para necesidades

88R e v i s t a C i e n t í f i c a

Page 93: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

de tiempo real se utilizan algoritmos como Trilateration, para apli-caciones donde se requiere observar la trayectoria del objeto se requieren de algoritmos más complejos y el uso de herramientas de software más robustas como bases de datos y análisis de infor-mación.

En la Figura 12 se muestran los diferentes algoritmos de loca-lización usados para la estimación de distancia y localización sin agregar infraestructura.

Figura 12. Hardware para la estimación de la distancia.

Aunque difieren poco entre aplicaciones integrando infraes-tructura y la pre instalada, es posible hacer notar que el algoritmo más usado para aplicaciones sin integración de infraestructura es el Particle Filter (PF) o también denominado Sequential Monte Carlo (SMC) que basa su funcionamiento estimando el estado interno de los sistemas con las perturbaciones aleatorias propias de un sistema aleatorio, se observa también el Pedestrian Dead Reckoning (PDR) el cual reduce la estimación del error mediante la estimación del siguiente punto dado observando mediciones, valores como aceleración, giro y datos magnéticos [40], el Finger-printing es otro algoritmo muy usado el cual crea una distribución de la potencia de la señal, usa el mapa de las distribuciones para predecir la localización con la potencia de la señal leída [41] y el algoritmo Trilateration se observa mucho más práctico, ya que puede utilizar el Received Signal Strength Indication (RSSI) para estimar la distancia entre el emisor y receptor o bien el tiempo de llegada, Time of Arrival (ToA), o el tiempo de vuelo, Time of Flight (ToF), buscando la intersección de las señales, este puede funcionar con un solo emisor y receptor o bien agregar más dispo-sitivos para estimar de mejor manera la distancia.

En sistemas donde se agrega infraestructura se observa el uso de Time of Arrival Estimation (TDOA) la cual estima la posición del objeto a través de observar la diferencia en el tiempo de lle-gada de la señal entre antenas o sensores distribuidos. También se observa el ToA ó ToF. Véase la Figura 13.

Figura 13. Algoritmos para la estimación de la distancia.

Se utilizan otros algoritmos en menor número como Non-Uni-form Sequence Based Localization (NU-SBL), Phase-Locked Loop (PLL), Fast Fourier Transform (FFT), Sebastian Ma-dgwick’s, SLAM, SpotON, Time Division Multiple Access (TDMA), Gaussian Process (GP), Extended Kalman Filter (EKF), Medium Access Control (MAC), Wireless Network Localization (WNL), Two Way Ranging (TWR) usado por UWB, ToF y Radio Interferometric Localization (RIL).

Así como lo menciona [42] se observa el uso mayor de la téc-nica de localización utilizando ToA, TDoA y ToF, [43] algunos se centran en algoritmos de seguridad para sistemas RFID, [44] apli-ca Body Area Network (BAN) utilizando Sensor Nodes (SNs) y Wireless, [45] presenta un sistema de seguimiento en tiempo real para el monitoreo de vibración utilizando Real Time Location Systems (RTLS) y UWB, utilizando la técnica de Angle of Arrival (AoA), TDoA y Tag; [46] usa para la localización RFID activo.

En [47] se hace uso de células para leer el RSSI de cada RFID

con métodos de posicionamiento por triangulación y lectura del RSSI con el modelo logarítmico, polinomial, Cercanía del Origen (CoO) y Fingerprinting con RSSI.

Por lo observado anteriormente el PDR, Fingerprinting, PF y Trilateriation son los algoritmos más utilizados después de ToA, TDoA y ToF para establecer la posición.

En [3] se señala que a pesar de las tecnologías RF ya tienen numerosos artículos de investigación se puede observar que aún hay mucha investigación por realizar, en el campo del uso de tec-nologías como el láser, el geomagnetismo y la fusión de sensores tienden a dar mejor estimación y precisión.

En la web se observa que la tecnología RuBee y BueTooth ha sido desarrollada comercialmente de tal forma que ya tienen di-versos productos que se utilizan con RFID activos, WiFi y Smart Phones, agregando la tecnología Anti Thef.

89 R e v i s t a C i e n t í f i c a

Page 94: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

En este review se puede observar que, de las cinco tecnologías pujantes en la localización, la Wifi, RFID, ZigBee están adqui-riendo una mayor importancia y apoyo por su accesibilidad y de-sarrollo de aplicaciones entre usuarios, la UWB gracias a su banda de transmisión permite hacer medición de distancia sin tener el problema de objetos que se interpongan y la RuBee hasta el mo-mento esta siendo propuesta por los nuevos fabricantes.

En los magazines encontrados en la web se muestran diferentes tecnologías para la localización de objetos siendo una con ma-yores ventajas la Rubee contra la RFID activa y la propia UWD.

Hardware

El hardware en la localización de objetos se utiliza para reali-zar la medición de la distancia, identificar al objeto y establecer comunicación. El hardware representa también una tendencia al usar el Smart Phone, microcontroladores y otro elemento hardwa-re (TMote Sky, Arduino, Intel 5300 WiFi NIC, DiZiC y DecaWa-ve, etc.) con casi el mismo nivel de importancia. Ver Figura 14.

Figura 14. Hardware para la estimación de la distancia sin agregar infraestructura.

Se utiliza el Smart Phone para la localización tanto si se tiene infraestructura o si se carece de ella, su uso también se ve en com-binación con otras tecnologías de soporte WiFi, BlueTooth o RF. Como se observa en la Figura 15.

Figura 15. Hardware para la estimación de la distancia agregando infraestructura.

Cuando se va a integrar la infraestructura, el uso común de hardware son los microcontroladores, tabletas de experimentación y sistemas hardware libre, integrando módulos RF y sensores. Mención especial es el uso del transreceptor UWB Decawave, ya habilitado para aplicaciones de localización de bajo costo para aplicaciones de localización en interiores y exteriores en tiempo real RTLS.

Tendencias

Las tendencias según [3, 45, 46, 47 48, 49, 51 y 52] para los sistemas RFID son:

+ Sistemas de soporte de decisiones para los sistemas RFID.

+ Estandarizar las frecuencias y códigos para un natural uso global.

+ Integrar toda la cadena de producción para observar los beneficios (ERP y sistemas expertos).

+ Robustecer la tecnología y la infraestructura RFID.+ Integrar los datos de los RFID activos y pasivos.+ Paquetes inteligentes, compras automáticas, reciclado

inteligente y mayores oportunidades en marketing.+ Aumentar la seguridad en los cuidados médicos, redu-

ciendo errores [50, 51, 52, 53 y 54].+ Sistemas de tráfico dinámico mediante sistemas expertos, Dynamic and Automatic Traffic Light Control

Expert System (DATLCES) [52, 53, 54 y 55].+ Mejora en la capacidad de seguimiento y rastreo.

90R e v i s t a C i e n t í f i c a

Page 95: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Una línea de investigación factible es desarrollar tecnología RF, para poder “acortar” y “suministrar” hardware para los siste-mas de localización, sin tener que esperar a que comercialmente existan los kits de desarrollo para probar las hipótesis de investi-gación, estas tecnologías independientemente de que generan artí-culos novedosos, estarían creando nuevas formas de localización no solo a la utilización y modificación del hardware/software, se estaría desarrollando tecnología RF con mejores prestaciones que con las que actualmente trabaja el grueso de los investigadores.

Otra línea de investigación factible y necesaria sería el desa-rrollo de nuevos algoritmos que permitan hacer el seguimiento y monitoreo del RFID activo de manera más eficiente que los mos-trados en este estudio, además de integrar el RFID a los Data Wa-rehouse, Business-Intelligence y el manejo del Big Data de varios terabytes generados al día según lo menciona [45, 46, 47 y 48].

Casos de aplicación

Como lo menciona el artículo [55] la revolución en la tecnolo-gía de locación en interiores es inversa a la exterior, el 2015 será el año detonante de esta tecnología. Existe una apremiante nece-sidad entre las empresas líderes mundiales en tecnologías de la información por hacerse de la tecnología de localización interior y lo hacen de varias formas.

Comprando Startups

APPLE independientemente de comercializar el sistema Ibeacon con RSS. Wifislam, Wirefarer se suman a las próximas adquisiciones, bajo la tecnología WiFi y

Smart Phone, APPLE también lanzó una APP para localización de interiores a finales de octubre del 2015.

Cisco ha adquirido ThinkSmart Technologies StartUp irlandesa de análisis de datos de localización por WiFi.

Hewlett-Packard Co (HP) adquiere Aruba Networks Inc., fabricante de infraestructura WiFi, que a su vez

había adquirido a Meridian, una de las más fuertes compañías Startup de localización de interiores por WiFi. (http://meridianapps.com/).

Cooperación entre empresas:

INFOSOFT en colaboración con MEPA desarrollan tecnología basada en IOS y Android para la localización de objetos en interiores.

La Universidad de Washington y ESRI, empresa desarrolladora de software GIS, utilizan aplicaciones en conjunto con un GIS para la localización en interiores, con la tecnología ZigBee.

AT&T, Sprint, T – Mobile y Verizon Wireless, Association of Public Safety Communications Officials (APCO) y la National Emergency Number Association (NENA), desarrollan desde el 2011 mediante tecnología móvil, la localización en interiores en 3D mapeado por GIS, con el uso del Smart Phone.

Desarrollos

La universidad de Oxford desarrolla ISIS, un sistema de localización basado en Wi-Fi, Access Point (AP), RSSI, Fingerprinting, Software Development Kit (SDK) y API, esto para la administración de la cadena de suministro.

Nanyang Technological University (NTU) ya ha desarrollado un sistema funcional de localización en interiores en el 2012.

ABI desarrolló un sistema basado en UWB y etiquetas.

Sasken muestra un servicio de localización basado en Smart Phone.

Gestionando talento

Microsoft realiza año con año un evento donde reúne a las universidades y centros de investigación para mostrar sus avances denominado International Conference on Information Processing in Sensor Networks (IPSN) [28] donde se observan las investigaciones en un concurso que determina que sistema tiene un mejor desempeño y exactitud.

91 R e v i s t a C i e n t í f i c a

+

+

+

+

+

+

+

+

++

+

Page 96: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

92R e v i s t a C i e n t í f i c a

Conclusiones

Basándose en el número de publicaciones se observa que las investigaciones de RFID para monitoreo de objetos se están in-crementando, así como el número de StartUps creadas/compradas y la realización de diferentes eventos a nivel mundial donde se exponen las tecnologías relacionadas con la temática.

Se observa que la tecnología NFC tiene la misma importancia que la UHF, debido esto a que en la NFC se requiere menor con-sumo de energía que la UHF y se observa en varias aplicaciones donde sistemas híbridos combinan las fortalezas de las tecnolo-gías pasivas y activas.

Las nuevas tecnologías de RF como BlueTooth, ZigBee, UWB y RuBee muestran un importante avance en el número de inves-tigaciones al mejorar las capacidades técnicas en la medición de distancias, se observa que el incremento del uso de la tecnología es directamente proporcional a la venta de kits de desarrollo como UWB, ZigBee y BlueTooth.

Los sistemas híbridos que combinan diferentes tecnologías, algoritmos y modelos tienden a tener una mejor precisión y des-empeño que otras tecnologías. De ahí que las patentes incluyan sistemas híbridos con ambas tecnologías RFID (activa y pasiva), para compensar las deficiencias de cada una de ellas y aprovechar sus bondades.

El estudio de los algoritmos de localización se centra en el tiempo de arribo de la señal (RSSI) y en algoritmos que no con-suman tantos recursos de cómputo. También se observa el uso de diferentes algoritmos de acuerdo al tipo y nivel de infraestructura. Resalta la importancia de los algoritmos Fingerprinting, PF y Tri-lateration como los más usados.

Finalmente se observa una tendencia muy importante para usar la tecnología WiFi y el SmartPhone para localización impulsa-do por las grandes compañías de tecnologías de la información, recientes investigaciones y desarrollos debido en gran medida a que tienden a utilizar la infraestructura WiFi que existe en casas, empresas y el uso casi generalizado del Smart Phone.

La hipótesis propuesta al principio es aceptada con la demos-tración de las patentes y artículos mostrados en el apartado de tecnologías RFID híbridas.

Page 97: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

93 R e v i s t a C i e n t í f i c a

Bibliografía

+ [ 1 ] KIM Y, SUK-YOUNG L., 2014 , Energy-effi-cient wireless hospital sensor networking for remote patient monitoring, Information Scien-ces, Volume 282, 20 October 2014, Pages 332-349.

+ [ 2 ] GARRIDO S. Contribution of RFID technology to better management of fashion supply chains Department of Bu-siness and Economics, Univer-sity of Beira Interior, Covilha˜, Portugal.

+ [ 3 ] RINGSBERG H., 2013,Effects on logistic operations from RFID- and EP-CIS-enabled traceability, British Food Journal, Vol. 116 Iss 1 pp. 104 - 124 Permanent link to this document: http://dx.doi.org/10.1108/BFJ-03-2012-0055 Downloaded on: 20 July 2015, At: 19:01 (PT).

+ [ 4 ] ZHAO Y., LIU Y., LIONEL M,. 2007. VIRE: Active RFID-based Localization Using Virtual IEEE Explore Elimina-tion Department of Computer Science and Engineering The Hong Kong University of Science and Technology, Hong Kong.

+ [ 5 ] BAHL P., PAD-MANABHAN V. N., 2000, RA-DAR: An In-Building RF-based User Location and Tracking System, in Proceedings of IEEE INFOCOM.

+ [ 6 ] YIN J., YANG Q., NI L.M., 2005, Adaptive Temporal Radio Maps for Indoor Location Estimation, Proc. of the 2005 IEEE Annual Confe-rence on Pervasive Computing and Communications (PerCom 2005), Hawaii, pp. 85-94, March 2005.

+ [ 7 ] TAGHABONI F.,

TRAPPEY C., HSIN T, 2009, An exploratory RFID patent analy-sis, Management Research News, Vol. 32 Iss 12 pp. 1163 - 1176 Permanent link to this document: http://dx.doi.

+ [ 8 ] ERNST, H. 1997, The use of patent data for te-chnological forecasting: the diffusion of CNC technology in the machine tool industry, Small Business Economics, Vol. 9, pp. 361-81.

+ [ 9 ] HSU, F.C. 2006, Intelligent patent document analysis based on clustering and categorization methods, PhD thesis, Department of Industrial Engineering and Engineering Management, National Tsing Hua University, Hsinchu.

+ [ 10 ] TRAN N, MI-CHAEL R. 2009. Active compo-site RFID tag for object localiza-tion and instruction Patente US 8094012 B1.

+ [ 11 ] CASTANO, B.; RODRIGUEZ-MORENO, M. , 2010. A ZigBee and RFID hybrid system for people moni-toring and helping inside large buildings. Industrial Electro-nics & Applications (ISIEA), Pages: 16 - 21, DOI: 10.1109/ISIEA.2010.5679504.IEEE Con-ference Publications.

+ [ 12 ] BEIGEL M., TUTTLE J., 2005. Semi-active RFID tag and related processes, Patente US 8237561 B2.

+ [ 13 ] UNG K., 2013, Active rfid tag with passive interrogator Pa-tente WO 2014107267 A1, US20140183261 Boeing.

+ [ 14 ] BAUCHOT F., CLEMENT J., MARMIGERE G., PICON J., 2013. Location locali-zation, Patente US 8362877 B2,

US8207820, US20090315679, US20120218088, IBM.

+ [ 15 ] PEEN O., 2007, System and method of tracking objects, Patente WO 2011084104 A1, Agency For Science, Techno-logy And Research.

+ [ 16 ] NEDELCU A., DUGULEANA M., SANDU F., 2014. Evaluating the Energy Overhead Generated by Interfe-rences within the 2.4 GHz Band for a Hybrid RFID Network, ScienceDirect. 24th DAAAM International Symposium on Intelligent Manufacturing and Automation, 2013.

+ [ 17 ] DONG Y., WIC-KRAMASINGHE A., XUE H., AL-SARAWI S., RANASINGHE D., A Novel Hybrid Powered RFID Sensor Tag. Auto-ID Lab, School of Computer Science,S-chool of Electrical and Electro-nic Engineering, University of Adelaide, 5005 Adelaide, Aus-tralia.

+ [ 18 ] RAPHAELI D., KAPLAN G., MENKES A., SELA G., MARINOV I., RAM U., 2007. Array of very light readers for active rfid and lo-cation applications, Patente US 20100164690 A1, EP2115714A2.

+ [ 19 ] YANG J., WANG Y., CAI Q., ZHAN Y. 2015. A Novel Hybrid Anticollision Al-gorithm for RFID System Based on Grouped Dynamic Framed Recognition and Binary Tree Recursive Process. International Journal of Distributed Sensor Networks. 8/26/2015, Vol. 2015, p1-12. 12p.

+ [ 20 ] MEYER J., FRANKE S., GECK B., OVER-MEYER L., 2013. Hybrid antenna design for an optically powered SHF RFID transponder

applicable in metals. Research Paper. International Journal of Microwave and Wireless Tech-nologies, 2013, 5(3), 241–247.Cambridge University Press and the European Microwa-ve Association, doi:10.1017/S1759078713000585.

+ [ 21 ] , 2014, Indoor positioning system based on active multifunctional RFID tags, Patente CN 103777174 A.

+ [ 22 ] CHOI, S., LEE, J., KIM S., TCHAH, K., 2010. Hybrid anti-collision method ba-sed on maximum throughput for RFID system. Academic Journal. Electronics Letters. 9/16/2010, Vol. 46 Issue 19, p1346-1348. 3p. 1 Chart, 3 Graphs. DOI: 10.1049/el.2010.1304.

+ [ 23 ] Wang, H., Bauer, G., Kirsch, F., Vossiek, M., 2013. Hybrid RFID system-based pedestrian localization: A case study. Positioning Navigation and Communication (WPNC), Pages: 1 - 6, DOI: 10.1109/WPNC.2013.6533296. IEEE Conference Publications.

+ [ 24 ] BRIDGELALL R., 2004, Hybrid bluetooth/RFID based real time location tracking Patente US 6717516 B2, DE60141385D1. Symbol Technologies.

+ [ 25 ] MCBRIDE W., 2012, RFID-based person loca-tion device, Patente US 8253570 B1, McBride.

+ [ 26 ] CHAN K., 2009, Method and system for tracking objects using Global Positioning System (GPS) re-ceiver built in the Active Radio Frequency ID (RFID) receiver, Patente US 20090309731 A1, Kwok Wai Chan.

Page 98: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Bibliografía

+ [ 27 ] SOLIMAN S., System and method for 3-D position determination using RFID, Patente US 7489240 B2, CN101208728A. Qualcomm.

+ [ 28 ] MICROSOFT INDOOR LOCALIZATION COMPETITION - IPSN 2015 http://research.microsoft.com/en-us/events/indoorloccompeti-tion2015/

+ [ 29 ] JACHIMCZYK, B., DZIAK, D., KULESZA, W., 2014. RFID - Hybrid Scene Analysis-Neural Network sys-tem for 3D Indoor Positioning optimal system arrangement approach. Instrumentation and Measurement Technology Con-ference (I2MTC) Proceedings, 2014 IEEE International.

+ [ 30 ] DOERR K., GA-TES W., MUTTY J., 2006. A hy-brid approach to the valuation of RFID/MEMS technology applied to ordnance inventory. Inter-national Journal of Production Economics, Volume 103, Issue 2, October 2006, Pages 726-741.

+ [ 31 ] HASANI M., TALVITIE J., SYDÄNHEIMO L., LOHAN E., UKKONEN L. 2015. Hybrid WLAN-RFID Indoor Lo-calization Solution Utilizing Tex-tile Tag. IEEE ANTENNAS AND WIRELESS PROPAGATION LETTERS, VOL. 14, 2015.

+ [ 32 ] SPINELLA S., IERA A., MOLINARO A., 2010. On Potentials and Limitations of a Hybrid WLAN-RFID Indoor-Positioning Technique. Hindawi Publishing Corporation, Inter-national Journal of Navigation and Observation. Volume 2010, Article ID

+ [ 33 ] FORSTER C., SABATTA D., SIEGWART R., SCARAMUZZA D., 2013. RFID-Based Hybrid Metric-To-pological SLAM for GPS-denied Environments. IEEE Internatio-nal Conference on Robotics and Automation (ICRA). Karlsruhe, Germany, May 6-10.

+ [ 34 ] CRUZ C., COS-TA J., FERNÁNDEZ C., 2013. Hybrid UHF/UWB Antenna for Passive Indoor Identification and Localization Systems. IEEE Transactions on Antennas & Propagation. Jan2013, Vol. 61 Issue 1, p354-361. 8p.

+ [ 35 ] YANG L., CAO J., ZHU W., 2012. A Hybrid Method for achieving High Accuracy and Efficiency in Object Tracking using Passive RFID. 2012 IEEE International Conference on Pervasive Computing and Com-munications, Lugano.

+ [ 36 ] LU M., LIN S., TZENG G., 2013. Improving RFID adoption in Taiwan’s heal-thcare industry based on a DE-MATEL technique with a hybrid MCDM model. Decision Support Systems 56 (2013) Elsevier. Ins-titute of Management Science, National Chiao-Tung University, 1001, Ta-Hsueh Road, Hsin-Chu 300, Taiwan.

+ [ 37 ] ANNY LEEMA A., HEMALATHA M., 2012. Pro-posed prediction algorithms ba-sed on hybrid approach to deal with anomalies of RFID data in healthcare.Karpagam University, Coimbatore, India.

+ [ 38 ] YANG H., YANG L., YANG S., 2011. Hybrid Zig-bee RFID sensor network for hu-manitarian logistics centre ma-nagement. Journal of Network and Computer Applications, Volume 34, Issue 3, May 2011,

Pages 938-948.

+ [ 39 ] RYU E., TAKAGI T., 2009. A hybrid approach for privacy-preserving RFID tags. Journal Computer Standards & Interfaces archive Volume 31 Issue 4, June, 2009 Pages 812-815. Elsevier Science Publishers B. V. Amsterdam, The Nether-lands, The Netherlands.

+ [ 40 ] QUA X, MAT-SUSHITAB D., YOSHIDAC T., HAND M., 2012, Case study on father–child communication in Chinese urban apartment houses through active RFID technology. Received 15 August 2011, Accep-ted 28 Septiembre 2011, Availa-ble online 24 April 2012. Open Access funded by Higher Educa-tion Press Limited Company.

+ [ 41 ] FUHR P, RIDGE O., 2008. National Laboratory Sensors. “Asset Tracking in Industrial Settings—A Re-view of Wireless Technologies Part 3: RSSI-, RuBee-, and UWB-Based Systems“ Página WEB. 2008. http://www.sen-sorsmag.com/networking-com-munications/asset-tracking/asset-tracking-industrial-settings%E2%80%94a-re-view-wireless-technol-1500. (27/05/2015).

+ [ 42 ] KIM Y, LEE S., 2014, Energy-efficient wireless hospital sensor networking for remote patient monitoring, Infor-mation Sciences, Volume 282, 20 October 2014, Pages 332-349.

+ [ 43 ] SHIAU J, HSU J., CHIA Y., System and method for positioning active RFID tag, Patente US 8339243 B2, WO2008104981A2, WO2008104981A3. Sandlinks.

+ [44 ] FU Q., RETS-CHER G., Active RFID Tri-

lateration and Location Fin-gerprinting Based on RSSI for Pedestrian Navigation, (Institute of Geodesy and Geophysics, Vienna University of Technology, Austria).

+ [ 45 ] RANKY P., 2006, An introduction to radio frequen-cy identification (RFID) methods and solutions, Assembly Auto-mation, Vol. 26 Iss 1 pp. 28 - 33 Permanent link to this document: http://dx.doi.

+ [ 46 ] MEHRJERDI Y., 2011, RFID and its benefits: a multiple case analysis, Assembly Automation, Vol. 31 Iss 3 pp. 251 - 262 Permanent link to this document: http://dx.doi.

+ [ 47] CONNOLLY, C., 2007, Sensor trends in proces-sing and packaging of foods and pharmaceuticals, Sensor Review, Vol. 27 No.

+ [ 48 ] JANSEN, R., KRABS, A., 1999, Automatic identification in packaging: radio frequency identification in multiway systems, Packaging Technology and Science, Vol. 12 No. 5, pp. 229-34.

+ [ 49 ] KOHN, C., HENDERSON, C.W., 2004, RFID-enabled medical equi-pment management programs to reduce costs, Managed Care Weekly Digest, Vol. 5, pp. 94-5.

+ [ 50 ] WEN, W., 2008, A dynamic and automatic traffic light control expert system for solving the road congestion pro-blem, Journal of Expert Systems and Applications, Vol. 34, pp. 2370-81.

94R e v i s t a C i e n t í f i c a

org/10.1108/01445150610645639 Downloaded on: 20 July 2015, At: 19:03 (PT).

org/10.1 108/01445151111150596 Down loaded on: 20 July 2015, At: 19:

01 (PT).

Page 99: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

Bibliografía

+ [ 51 ] Yilmaz, A., Ja-ved, O., and Shah, M. 2006. Object tracking: A survey. ACM Comput. Surv. 38, 4, Article 13. (Dec. 2006), 45 pages. DOI = 10.1145/1177352.1177355 http://doi.acm.org/10.1145/1177352.1177355.

+ [ 52 ] YUYA M, Kei H., Katsuhiko K., Nobuo K., 2014. Pedestrian Dead Reckoning Ba-sed on Human Activity Sensing Knowledge, UBICOMP ‘14 AD-JUNCT, SEPTEMBER 13 - 17, 2014, SEATTLE, WA, USA.

+ [ 53 ] NAVARRO E., Peuker B., Quan M., Clark C., Jipson J., Wi- Fi Localization Using RSSI Fingerprinting, Computer Engineering, Califor-nia Polytechnic State University; USA.

+ [ 54 ] LO N.W., YEH K., YEOB C. 2008, New mutual agreement protocol to secure mobile RFID-enabled devices. Information Security Technical Report, Volume 13, Issue 3, Au-gust 2008, Pages 151-157.

+ [ 55 ] Wallenstein C., 2015. Move Over GPS: Get Ready for Indoor Location. Business NH magazine.Mar 30, 2015.

95 R e v i s t a C i e n t í f i c a

Page 100: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

MANUALCONSEJO EDITORIALM I S I Ó NEl objetivo principal del Consejo Editorial es divulgar mediante una

revista de corte científico, de publicación semestral, todos aquellos logros realizados por los investigadores de nuestra Universidad y sus aportaciones a beneficio de la sociedad.

V I S I Ó NCon la difusión de estos avances obtendremos el reconocimiento de la comunidad y lograremos el posicionamiento de la Universidad Tecnológica de Ciudad Juárez, en áreas de desarrollo científico.

ATRIBUCIONESl .- El Consejo Editorial tiene como objetivo cuidar y promover la ima-gen y prestigio de la UTCJ.

II.- Realizar la corrección de estilo y todos los cambios ortográficos y de redacción que sean necesarios para mejorar la calidad de los artículos a publicar.

III.- Verificar que todas las obras cuenten con los requisitos editoria-les que marca nuestro Manual de Estilo y Normas de Publicación.

IV.- Contribuir en la difusión y distribución de nuestra revista cien-tífica.

V.- Evaluar y supervisar el proceso editorial.

VI.- Vigilar la calidad de las obras que lleven el sello editorial.

LINEAMIENTOSI.- Los artículos que se publiquen serán responsabilidad del autor. II.- Cada artículo deberá contar con las siguientes características y lineamientos editoriales: a) Tener como base los resultados de una investigación científica, original y relevante.b) Una vez publicado el artículo, los derechos de autor pasan a la Universidad Tecnológica de Ciudad Juárez. c) Cubrir parte del estado de conocimiento vigente.d) Estar escritos con un lenguaje adecuado y que atiendan la serie de condiciones formales y de contenido propio de un texto científico.

Es importante que cada trabajo de investigación cuente con crédito de autor y/o colaboradores, crédito de fotografías (si las hay) y un correo electrónico.

FORMATOS DE ENTREGAEl material tiene que ser entregado en procesador de texto WORD, con letra tipo Arial, a 12 puntos, con espacio sencillo y alineación a la izquierda.

Formato carta, extensión mínima 3 cuartillas y un máximo de 10, incluyendo notas y bibliografía. Utilizar sangría francesa al inicio de cada párrafo. Márgenes de 3 cm. superior y 2.5 cm. de derecha e izquierda. Todas las páginas deberán estar enumeradas en secuencia, comen-zando por la portada.

ESTILO

++

+

+

+

Las siglas deben venir en su forma destacada (p. ej. UTCJ, Universi-dad Tecnológica de Ciudad Juárez). Señalar la naturaleza del trabajo: artículo de investigación, avance, etc. El título de la obra debe ser colocado en la parte superior del docu-mento, en forma centrada, destacado con negritas. Todos los textos deben incluir nombre completo del autor y/o colaboradores, grado académico y área de especialización, así como también un correo electrónico. Los nombres de los autores deben de aparecer en el orden de sus contribuciones.

Anexar en el trabajo de investigación un currículum de autor (es). El solicitante y/o autor se compromete a estar disponible para aten-der cualquier asunto relacionado con su obra.

En todos los casos, los manuscritos entregados no serán devueltos.

La fecha de entrega del material será determinado por el editor y este a su vez se lo hará del conocimiento al autor.

El autor debe incluir un resumen breve de los contenidos del artículo.

Los trabajos deberán enviarse al correo electrónico: [email protected]

Para mayor información comunicarse altel. 656 6490604.

96

Page 101: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015

ESTRUCTURA DEL artículo

Título en inglés y español

No debe ser mayor a 15 palabras y describir el contenido del artículo de una forma clara, exacta y concisa.

Abstractos

Incluir los resúmenes en español y en inglés (abstract), de 150 palabras, cada uno. Debe de indicar clara y brevemente el propósito de la investigación, de los procedimientos básicos, de los resultados y de las conclusiones principales. Evite el uso de abreviaturas y de términos altamente especializados en el extracto.

Palabras clave

Presentar cinco palabras clave, en inglés y en español, estos térmi-nos deben de aparecer debajo del resumen, en la misma página. Se pueden utilizar palabras solas o términos compuestos.

Abreviaturas

Las abreviaturas deben de ser definidas la primera vez que se men-cionan. Si fuera esto en el resumen, entonces debe de definirse de nuevo en el cuerpo principal del texto.

Introducción

Este apartado plantea el propósito del artículo sin un despliegue extensivo del tema, utilizando solo las referencias más pertinentes. Indique las razones que motivaron a la investigación y cuando corresponda, dé cuenta de la hipótesis postulada.

Materiales y métodos

Se describe el diseño de la investigación y se explica cómo se llevó a la práctica, justificando la elección de métodos, técnicas e instru-mentos, si los hubiera, teniendo en cuenta la secuencia que siguió la investigación.

Resultados

Se describen los resultados del estudio, resaltando los hallazgos relevantes (incluso los resultados contrarios a los objetivos propues-tos, si es el caso). Los resultados se presentarán utilizando texto, tablas e ilustraciones.

Discusión

Interpretación de los resultados y su significado sobre el trabajo de otros autores.

Agradecimientos

Al patrocinio o proyecto son lo más breve posible.

Las tablas y figuras

A fin de garantizar los más altos estándares para la calidad de las ilustraciones, estás deben de ir a una resolución de 300 dpi´s. Las figuras deben de ser claras y fáciles de leer.

+ Figuras numeradas, en número arábigo seguido de pie de figura para la parte inferior de cada una de ellas e insertadas dentro del cuerpo del artículo y no al final de este.

Las tablas tienen que ser menores de 17 cm. x 20 cm., enlistadas en números arábigos y tener un título, y/o leyenda en la parte superior para explicar cualquier abreviatura utilizada en ella, del mismo modo estar insertas dentro del cuerpo del artículo.

Fotografías e ilustraciones

Todo material de foto e ilustraciones deben de enviarse en un ar-chivo del artículo. Como también en formato aparte JPG o PSD, con una resolución mínima de 300 dpi´s, en tamaño real.

Tanto las tablas, figuras, fotografías e ilustraciones se entregarán en procesador Excel.

Citación

Para la citación textual larga, de 40 palabras o más, es necesario se-parar el texto citado y disminuir el tamaño de la tipografía un punto. Del mismo modo, se deben aumentar los márgenes laterales 1 cm. y colocar inmediatamente después (autor, año), al que se cita.

Fecha

Se cita al final del trabajo, precedido del lugar donde se redactó el original.

Referencias bibliográficas

La exactitud de las referencias es responsabilidad de los autores. Se incorpora al final del artículo, numeradas, incluyendo en orden alfabético todas las obras citadas en el texto y en los pies de página. El autor debe revisar cuidadosamente que no hay omisiones e inconsistencias entre las obras citadas y la bibliografía. La redacción se presenta de la siguiente manera:

Nombre del autor y colaboradores (en su caso), comenzando con el apellido paterno, seguido de los nombres. Año de la publicación entre paréntesis. Título del libro en itálicas (cursivas). Edición (de la segunda en adelante). Casa editorial, ciudad de publicación, país y páginas totales.

Ejemplo de referencias:

Libro: Wiener, Norbert, Cibernética: o el control y la comunicación en animales y máquinas, Barcelona, Tusquets, 2003. Artículo de revista: Ádem, José, 1991, ´Algunas consideraciones de la prensa en México´, Avances y Perspectiva, vol. 10, abril-junio pp. 168-170

Páginas web:Ramírez, E., 2012, Economía futura en América Latina. Recuperado de http://www.economico-online.com.

97

Page 102: UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015