Upload
hoangtruc
View
220
Download
2
Embed Size (px)
Citation preview
Revista de la Universidad Nacional Experimental Politécnica “Antonio José de Sucre”
Puerto Ordaz, Venezuela - Depósito Legal pp 1997 02B081-ISSN 1316-4821
Volumen 13, Nº 52 - Septiembre 2009.
NOTAS TÉCNICAS - Calendario de eventos - Ferias, salones y exposicionesNOTAS TÉCNICAS - Calendario de eventos - Ferias, salones y exposiciones
CONTROL DE PROCESOS
EFICIENCIA EMPRESARIAL
ENSEÑANZA DE LA MATEMÁTICA
ERGONOMÍA
SIMULACIÓN
Alfonso Alfonsi, Jesús Pérez,
Vicente Coll Serrano, Olga Blasco Blasco,
Esther María Morales Urbina,
Eliana del Valle Rodríguez, Crisdalith Cachutt,
Eduardo E. Vargas, Emilio Aravena,
Herman Fernández, Abelardo Martínez, Víctor Guzmán,
María Isabel Giménez,
Sistema de control en tiempo real para una planta pilotousando software libre
Situación de la industria textil en España ante la liberalizacióndel Sector: una visión desde el punto de vista de la eficienciay del tamaño de las empresas
Los conocimientos previos y su importancia para lacomprensión del lenguaje matemático en la EducaciónSuperior
Demanda biomecánica en el ensamblaje de un vehículocompacto
Simulación mediante PSPICE de un modelo simplificado y dealta eficiencia de una batería de plomo - ácido
DIRECTORIO DE LA REVISTA UNIVERSIDAD,CIENCIA Y TECNOLOGÍA
Directora
Editor
Comité Editorial
Dra. Minerva Arzola
Dr. Federico Genolet
(en orden Alfabético)Lic. María Isabel BlancoDra. Elena de CárdenasDr. Rudy CastilloDr. Ángel CustodioDr. Ángel DuarteDr. Héctor FernándezIng. María FerrerDr. Federico GenoletDr. Rafael GuevaraLic. Huáscar GuilarteLic. Carolina SánchezMSc. Sady Zurita Rávago
Los artículos, opiniones y colaboraciones que se publican en esta revista no representan necesariamente la filosofía informativa ni institucional de la UNEXPO ypodrán ser reproducidos previa autorización del Editor. En caso de reproducción se agradece citar la fuente y enviar ejemplares del medio utilizado a la UNEXPO, ala siguiente dirección: Dirección de Investigación y Postgrado, UNEXPO, Vicerrectorado Puerto Ordaz, Alta Vista Sur, Urb. Villa Asia, Final de calle China, Apdo.Postal 78, Puerto Ordaz, Edo. Bolívar, Venezuela, Telf./fax (0286)962.52.45-961.13.82 [email protected], [email protected]
• Autoridades Nacionales de UNEXPO
• Vice – Rectorado Puerto Ordaz
Lic. Rita Añez, RectoraProf. Fraisa Codecido, Vice-Rectora AcadémicaDra. Mazra Morales, Vice-Rector AdministrativaProf. Magly de Peraza, Secretaria
Dr. Ovidio León Lara, Vice-RectorDr. Carlos Pietri, Director AcadémicoIng. Miguel Leyton, Director AdministrativoDra. Minerva Arzola, Dir. Investigación y Postgrado
• Colaboradores
• Administración y transcripciones
Secciones Calendarios de Eventos y Ferias,Salones y Exposiciones:
Traducciones:
Dr. Ángel Duarte
Sr. Héctor NúñezMsc. Martha Chópite.
T.S.U Zorelys Romero
Concepto y Diseño Gráfico:
Composición:
Impresión:
Lic. Jesús Pérez Quijada
Aureal Ars, C.A.
Imprenta Universitaria UNEXPO Puerto Ordaz
Vol. 13, Nº 52, septiembre 2009Revista trimestral editada por la Universidad Nacional ExperimentalPolitécnica “Antonio José de Sucre”, UNEXPO,Vicerrectorado Puerto Ordaz.
• Actualidad Iberoamericana• Aluminium Industry Abstracts• Corrosión Abstracts• CSA Engineering Research Database• CSA Materials Research Database with METADEX• CSA Recent References Related to Technology• CSA Technology Research Database• Environment Abstracts• LATINDEX• Mechanical & Transportation Engineering Abstracts• METADEX• REVENCYT• Colección SciELO Venezuela (www.scielo.org.ve)
• Ulrich’s Internacional Periodicals Directory
INDIZADA EN:
REGISTRADA EN:
Publicación Financiada por:• FONACIT• FUNDACITE Bolívar• UNEXPO, Vicerectorado Puerto Ordaz
Año 2009Suscripción
AnualEjemplar
Precio de venta (Bs.)
Personas naturales
Instituciones Externas
Exterior
Profesores UNEXPO Puerto Ordaz BsF. 5,00 20,00Región Guayana BsF. 5,50 22,0Resto del País BsF. 6,00 24,00
BsF. 7,50 30,00
US$ 15 US$ 60
Nuestra Portada:
Fuente:
Jacinto Convit, Nacido en Caracas el 11 deSeptiembre de 1913, doctor en CienciasMedicas en la Universidad Central deVenezuela en 1938 ha contribuido alconocimiento y tratamiento deenfermedades infecciosas tales como lalepra y leshmaniasis.
http://jacintoconvit.blogspot.com/
CENTROS DE INVESTIGACION ACTIVOS AÑO 200UNEXPO PUERTO ORDAZ
99
Prof. María Viloria [email protected]
Prof. Noris Valdez [email protected]
Prof. Luisa Boet [email protected]
Elizabeth Lezama
Lic. Luis García [email protected]
Prof. Lácides Pinto [email protected]
8 Investigaciones de Sistemas Eléctricos de potencia C.I.S.E.P. Ing. Alexis Díaz [email protected]
9 Investigaciones Electromagnéticas y Sistemas de Alta Tensión C.I.E.M.A.T. Ing. Mazra Morales [email protected]
10 Automatización y Control CENAYC Ing. Euclides Lyon [email protected]
11 Interdisciplinario de Investigación Aplicada a la Ingeniería Ing. Franklin Mendoza [email protected]
12 Mantenimiento Productivo Total Ing. Dario Silva [email protected]
13 Ingeniería Biomédica C.I.B Dr. Wilfredo [email protected]
14 Electrónica de Potencia y Accionamientos C.E.P.A.C. Ing. Hermán [email protected]
15 Instrumentación y Control C.I.C. Dr. Ángel Custodio [email protected]
16 Investigación en Redes e Información C.I.R.I. Prof. Alicia Ramos [email protected]
17 Diseño Microelectrónico Zulay Franco [email protected]
18 Diseño y Mecanizado CEDYMEC Ing. Jesús [email protected]
19 Estudios Energéticos C.E.E. Ing. Edgar Gutiérrez [email protected]@unexpo.edu.ve
20 Ingeniería de Fabricación C.I.F. Dr. Angel Duarte [email protected]
21 Microscopía Electrónica C.M.E. Prof. Victor Maizo [email protected]
22 Tecnología Mineral C.T.M.
23 Soldadura y Desarrollo de Materiales C.S.D.M. Prof. Luz E. Salazar [email protected]
24 Corrosión y Biomateriales CECOB Dra. Linda Gil
Coordinador
Dr. Rafael Guevara [email protected]
Ricardo [email protected]
Prof. Miguel [email protected]
26 Procesos Siderúrgicos Dr. Jesús López [email protected]
27 Fundición Prof. Aguedo [email protected]
28 Investigación y Desarrollo Industrial Dr. Miguel Núñez [email protected]
29
30
Desarrollo Gerencial
CITADER
Dra. Minerva Arzola
Andis Rodriguez [email protected]
25 Materiales Cerámicos y Refractarios
Nº Centros
1 Difracción de Rayos X
2 Investigaciones Educativa
3 De Idiomas
4 De Investigación de Ambiente, Salud y Nuevas Tecnologías
5 Investigaciones Socio Histórico de la Región Guayana
6 Transdisciplinario de Investigaciones
7 Redes Neuronales Artificiales y Robótica
Volumen 13, Nº 52, septiembre 2009. pp 189-198 189
SISTEMA DE CONTROL EN TIEMPO REAL PARA UNAPLANTA PILOTO COMPACTA USANDO SOFTWARE LIBRE
Alfonsi, Alfonso Pérez, Jesús
Resumen: Un sistema de control en tiempo real se desarrolla en una planta piloto integrada por componentes
industriales con fines académicos y de investigación, utilizando la metodología HOOD, Linux/Ubuntu como
sistema operativo y Ada 2005 como soporte de ejecución. En el diseño lógico, hay nueve descomposiciones
jerárquicas para el control individual y multivariable en lazo abierto y cerrado, de tres lazos: caudal, presión
en la bomba y nivel en el tanque 2, con controladores deadbeat. En el diseño físico, se utiliza un planificador
guiado por prioridades, y se aplica los análisis basados por utilización y en tiempo de respuesta, manifestando
que las tareas tienen sus plazos garantizados, siendo esta condición necesaria y suficiente. Para el diseño
detallado se generan paquetes, funciones, procedimientos y tareas. Finalmente en la fase de pruebas, se hacen
experiencias en lazo abierto y cerrado. Las variables fueron validadas lógica y temporalmente. El sistema
presenta un error en estado permanente y componente oscilatoria entre instantes de muestreo despreciables,
existiendo los efectos del retardo computacional. Los códigos del sistema, son un aporte para el diseño de
sistema de control en tiempo real asistido por computadora utilizando software libre.
Palabras Clave: Sistemas de control discreto/ Sistemas de tiempo real/ Software libre.
REAL-TIME CONTROL SYSTEM FOR A COMPACT PILOT PLANT USING OPEN SOURCE SOFTWARE
Abstract: A real-time control system is developed in a pilot plant integrated by industrial components with
academic aims and of investigation. Using HOOD methodology, Linux/Ubuntu like operating system and
like run supports Ada 2005. In the logical design, there are nine hierarchical decompositions for the individual
control and multivariable in open and closed loop, of three loops: flow, pressure in the bomb and level in the
tank 2, with deadbeat controllers. In the physical design, a scheduler is used guided by priorities, applying the
based analyses for utilization and in response time, manifesting that the tasks have their guaranteed terms,
being this necessary and enough condition. For the detailed design packages, features, procedures and tasks
are generated. Finally in the phase of tests, experiences in open and closed loop become. The variables were
validate logics and temporarily. The system presents an error in permanent state and oscillatory component
among worthless sampling instants, the effects existing of the computational delay. The codes of the system
are a contribution for the design of control system of real time computer-aided using open source software.
Keywords: Discrete Control system/ Open Source Software/ Real Time System.
Manuscrito finalizado en Barcelona, Edo. Anzoátegui, Venezuela el 2009/02/16, recibido el 2009/03/23, en su forma final (aceptado) el 2009/05/27. El MSc.
Alfonso S. Alfonsi es Profesor Asociado del Dpto. de Computación y Sistemas de la UDO, Núcleo de Anzoátegui, Barcelona, Edo. Anzoátegui, Venezuela,
telef. 58-281-4203257, correo electrónico [email protected]. El Dr. Jesús A. Pérez es Profesor Titular del Instituto Universitario Tecnológico de la Victoria,
Edo. Aragua y del Postgrado en Instrumentación de la Facultad de Ciencias de la Universidad Central de Venezuela, telef. 58-212-6051198, correo electrónico
I. INTRODUCCIÓN
Los sistemas de control por computadora son definidos de
tiempo real por el hecho de realizarse con herramientas
computacionales tradicionales, cualquier lenguaje de
programación y/o por minimizar el tiempo de respuesta de un
conjunto de procedimientos. Entonces es necesario utilizar las
condicionantes en la implementación de este tipo de sistemas
en los que el tiempo es fundamental.
En esta entrega se desarrolla un sistema capaz de manejar en
tiempo real, lazos individuales y multivariable de una Planta
Piloto Compacta (PPC) construida con componentes
industriales [1], que sirve como contribución a la educación e
investigación en el área de control e instrumentación, Fig. 1,
usando metodologías y herramientas computacionales acordes
con este tipo de sistemas y de libre distribución.
190
Volumen 13, Nº 52, septiembre 2009. pp 189-198
Figura 1.- Planta Piloto Compacta
En la literatura se consiguen aportes en esta dirección.
Balbastre [2] puntualiza la integración del tiempo real y el
control industrial atacando la línea del análisis del retardo de
un sistema de control. Torres [3] utiliza a HOOD para el
diseño de una planta piloto de ensamblaje. Un trabajo
interesante está en [4], que hace un acercamiento del control
y tiempo real desde el punto de vista del codiseño. Seto [5]
perfila uno de los primeros trabajos en esta área del
conocimiento integrando la planificación de tareas a un
sistema de control. En [6] se desarrolla un sistema de control
en tiempo real que permite la simulación de los lazos
involucrados en una planta piloto.
El artículo está estructurado como sigue: En la sección
siguiente, el desarrollo del sistema con HOOD y las
herramientas computacionales utilizadas, los resultados para
luego hacer la discusión de los mismos, culminando con las
conclusiones y las respectivas referencias.
II. DESARROLLO
Se siguen los pasos sugeridos en el método de diseño
orientado a objetos estructurados para sistemas de tiempo real
estricto HRT-HOOD [7], proceso iterativo centrado en la etapa
de diseño (Fig. 2) de amplia utilización en esta área.
Figura 2.- Proceso de desarrollo iterativo
En las aplicaciones en tiempo real se considera el soporte
debido al sistema operativo, siendo la base el Ubuntu, basado
en Debian [8]. Como soporte sobre la ejecución específica se
escoge el Ada 2005, debido a que incluye en su definición
librerías para tiempo real, y otros requisitos como
concurrencia, manejo de excepciones, gestión de tiempo,
acceso a interfaces, portabilidad, gestión de interrupciones
(acceso a bajo nivel) y modelo de datos orientado a objetos y
agentes [9]. Como compilador se usa, el GNAT GPL
(acrónimo de GNU New York University Ada Translator) [10].
1. Requisitos
Se definen los funcionales y no funcionales, tomando como
caso de estudio la PPC [1] manejada por una computadora
Pentium III de 450 MHz. Tiene una aplicación en LabViewTM
bajo WindowsTM, ubicada en el Laboratorio de
Instrumentación de la Facultad de Ciencias de la Universidad
Central de Venezuela. Consta de dos tanques (T1 y T2), dos
bombas a la salida de cada uno de ellos (B1 y B2), varios
equipos de medición y tres válvulas neumáticas para las
acciones de control (FCV-01, PCV-03 y LCV-04). Todas las
salidas de los medidores pasan por acondicionadores de señal
y entran a la computadora, donde está el programa de
aplicación con instrumentos virtuales que contempla: manejo
manual de la planta, determinación de la respuesta al escalón
y uso de instrumentos de medición.
1.1 Requisitos funcionales
Se puede dividir en dos componentes: operación real e
interacción con el operador. Todos los eventos deben ser
almacenados en un archivo de datos y recuperados cuando así
lo requiera el operador, para su posterior estudio, utilizando un
computador Pentium IV de 1,2 GHz.
Operación Real. Permitirá la operación en tiempo real de los
diferentes lazos abiertos o cerrados (individual o
multivariable) que conforman la planta: caudal en la tubería,
presión en B1, nivel en T2. También se encuentra el control de
seguridad de las bombas. Para operar físicamente el sistema se
debe realizar programas puentes entre las dos computadoras,
como instrumentos virtuales, funciones o procedimientos que
permitan esta comunicación.
Con respecto a los controladores se utilizan los pasos
desarrollados en [11], quedando las funciones de
transferencia:
Caudal
(1)
191
Alfonsi, A., Pérez, J. Sistema de control en tiempo real para una planta piloto compacta usando software libre
Presión B1:
(2)
Nivel en T2:
(3)
Con respecto al control de bombas, no deben salir de los límites
de seguridad y se encuentran en los diferentes lazos de operación.
Así será su operación: Para T1, se verifica que está abierta la
válvula FCV-02 y PCV-03, entonces la Bomba B1 estará en
funcionamiento. Para T2, se compara el nivel de T2 obtenido por
LTI-04 con el nivel máximo y mínimo, si es verdadera la
operación, y está abierta la válvula LCV-04, entonces la Bomba
B2 estará en funcionamiento.
Interacción con el Operador. Todo el sistema es monitoreado
por un operador quien podrá manipular todos los elementos que
conforman la PPC en tiempo real.
La relación entre el sistema y los dispositivos externos se muestra
en la Fig. 3. Figura 3.- Relación entre el sistema y los dispositivos externos
1.2 Requisitos no funcionales
Para estos requisitos se toman los temporales, períodos y tiempo de cómputo, dejando para otra entrega la confiabilidad. La operación
sobre dispositivos es realizada por manejadores implementados como tareas, definidas siguiendo el patrón presentado en [12], Tabla I.
Tabla I. Tipos y definición de tareas
Nomenclatura de los subíndices: T: identificación de la tarea, C: tiempo de cómputo, P: período, D: plazo de finalización, PR:
prioridad, i: número de la tarea, l: lectura, s: sistema, c: control, e: escritura, m: monitorización.
2. Arquitectura del Sistema
El diseño de la arquitectura se define en dos fases, la primera el diseño de la arquitectura lógica [7] que se avoca a la definición de
compromisos con los requisitos funcionales, y la segunda, la arquitectura física donde se incorporan los requisitos temporales y la
planificación.
2.1 Arquitectura lógica
Descomposición de primer nivel. Los requisitos funcionales sugieren nueve (9) subsistemas, según se muestra en la Fig. 4.
192
Subsistema Consola. Responsable de la interfaz con el
operador, al invocar Opreal. Llama a las operaciones:
RL_Abierto de rlazo_abierto y RL_Cerrado de rlazo_cerrado.
Subsistema r_lazo_abierto y r_lazo_cerrado. Aquí se
encuentran las tareas periódicas necesarias para operar
físicamente los diferentes lazos de la PPC, y están los
controladores discretos de los tres lazos planteados.
Otros Subsistemas. El subsistema control_bombas es el
responsable del procedimiento de seguridad para el
funcionamiento de las bombas B1 y B2. El Subsistema
apertura_val es el responsable de establecer los
porcentajes de apertura en las diferentes válvulas de
control; tiene tres operaciones: Xcaudal, XPresion y
XNivel. El Subsistema setpoint es el responsable para
establecer los puntos de operación de la PPC en lazo
cerrado, tiene tres operaciones: REFECaudal,REFEPresion y REFENivel. El Subsistema vars es el
responsable de alojar las variables que se utilizan en el
sistema, debe ser protegido y tiene veinte (20)
operaciones. El Subsistema medidas es el responsable de
las lecturas a los diferentes dispositivos instalados en la
PPC, aquí se desarrolla los manejadores de los puertos de
comunicación. El Subsistema actuador es el responsable
de enviar la señal de las aperturas de las válvulas de
control (LVC-04, PVC-03, FVC-02) y de accionar el
encendido apagado de las bombas. Aquí se desarrollan los
manejadores del puerto de comunicación. Tiene siete
operaciones agrupadas en la configuración del puerto de
entrada (abrir o cerrar) y la transmisión de la magnitud de
la señal de control tanto individual como multivariable.
Volumen 13, Nº 52, septiembre 2009. pp 189-198
Figura 4.- Descomposición jerárquica de primer nivel
193
2.2 Arquitectura Física
La operación del sistema es realizada por paquetes y tareas
definidas en la Tabla I, siendo sus requisitos temporales:
tiempos de cómputo y períodos.
Tiempos de cómputo y períodos. Los tiempos de cómputo se
obtienen analizando el código ejecutable. El código se
descompone en bloques secuenciales, calculando el tiempo de
ejecución de cada uno de ellos, y tomando el mayor, usando
las funciones del paquete Calendar y Real_Time, librerías
básicas de Ada de tiempo real, específicamente el
procedimiento Split y la función To_Duration [9]. En cuanto
a los períodos, se resolvió guiar sus magnitudes por el período
de muestreo y sincronización de los computadores asociados
al proyecto; hay transmisión de datos desde los sensores de la
PPC hasta que ingresan en los arreglos respectivos en el
computador donde se hospeda el sistema.
Prioridades. Ada permite la programación prioridades y se
declara con la directriz de compilación pragma [9].
Implementación de las tareas. La planificación se realiza
usando un planificador guiado por prioridades, dándole más
prioridad a las tareas de lectura. Para la comunican de las
variables entre las tareas se implementa el método de variables
compartidas, que permite un mecanismo de exclusión mutua
en secciones críticas con objetos protegidos.
Análisis de planificabilidad del sistema. Primero se utiliza
la condición suficiente de planificabilidad de un sistema en
tiempo real con las restricciones monotónicas de frecuencia,
es decir, planificador expulsivo con asignación de mayor
prioridad a las tareas más frecuentes, tareas periódicas e
independientes y plazos iguales a los períodos [13]. U(n)
representa la utilización máxima para que la planificabilidad
de un sistema de n tareas esté garantizada.
(4)
Luego se aplica la ecuación del tiempo de respuesta [13],
siendo la suma del tiempo de cómputo más la interferencia
que sufre por la ejecución de tareas más prioritarias que se
puedan ejecutar o activar al mismo tiempo, que se resuelve
mediante la siguiente relación de recurrencia:
(5)
3. Diseño Detallado
En esta fase se codifican los paquetes, funciones y
procedimientos para la operación de la PPC en lazo abierto o
lazo cerrado, para así cumplir con los objetivos planteados,
siguiendo las descomposiciones jerárquicas de la arquitectura.
Se presentaran a continuación los paquetes necesarios en lazo
cerrado. Todos los códigos del sistema se encuentran en [12].
El paquete Con_Sim ofrece un ingreso a la operación real con
la PPC, por el procedimiento Opreal. El paquete
R_lazo_cerrado tiene la función de ofrecer tareas que ejecuten
los diferentes lazos cerrados (individuales o multivariables),
su acceso es por la tarea OP_PRIN_C, dando entrada por
RL_Cerrado. A continuación se muestra un trozo de la
especificación de lazo_cerrado.ads, referente al caudal.
package r_lazo_cerrado istask OP_PRIN_C is
entry RL_Cerrado; -- Entrada a lazo cerrado
end OP_PRIN_C;
…
task C_CAUDAL is
pragma Priority (system.Priority'_last);
entry C_Flujo;
end C_CAUDAL;
task REAL_RQ ispragma Priority (system.Priority'_last-1);
entry Caudal_rr;
end REAL_RQ;
task CTRLR_CAUDAL ispragma Priority (system.Priority'_last-2);
entry CR_Caudal;
end CTRLR_CAUDAL;
…
end r_lazo_cerrado;
La tarea CTRLR_CAUDAL es donde se implementa el
controlador digital, su código puede ser modificado para
adaptarlo a otro algoritmo de control, sin necesidad de
cambiar todo el sistema. A continuación se presenta el cuerpo
de esta tarea:
task body CTRLR_CAUDAL isQct, SPQC, e1Q, e0Q, S1Q, S0Q: Float:= 0.0;
Proxima_Vez: Time;begin
accept CR_Caudal; -- Entrada de la tarea
Fin:= Var.RSALIR;
while (Fin=false) loopVar.LeerCaudal (Qct);-- Leer caudal de la PPC
SPQC:=Var.retor_RQ; -- Leer el setpoint indicado
e1Q:= SPQC - Qct; -- Magnitud del error
-- Controlador lazo de caudal --
Alfonsi, A., Pérez, J. Sistema de control en tiempo real para una planta piloto compacta usando software libre
194
S1Q:= S0Q + 263.1578*e1Q - 261.10526*e0Q;
S0Q:= S1Q;
e0Q:= e1Q;
Var.Apertura_Q (S1Q); -- Nueva apertura FCV-02
Visor.Escribe_Dato (S1Q);new_line;
Proxima_Vez:=Clock + Intervalo; -- Próximo período
delay until Proxima_Vez; -- Esperar
Fin:= Var.RSALIR;
end loop;
end CTRLR_CAUDAL;
El paquete VARS implementa la comunicación de variables
mencionada anteriormente. A continuación se muestra un
trozo de la especificación del paquete.
package VARS isprotected type VARIABLES is
procedure PonerCaudal (valor: in float);procedure LeerCaudal (valor: out float);…
privateQs,PB1s,NT2s:float;
…
end VARIABLES;
end VARS;
Otros paquetes del sistema. Se desarrollan paquetes
siguiendo la descomposición jerárquica de primer nivel
presentado en la Fig 4.
4. Resultados
De los requisitos no funcionales, los períodos y cálculos
temporales se presentan en la Tabla II. Como ejemplo de
cálculo, un bloque de 8 códigos arroja un tiempo de cómputo
aproximado de 0,168 ms.
Aplicando el análisis basado en la utilización con 12 tareas, el
cálculo usando (4) es:
En la Fig. 5 se muestra el diagrama temporal de ejecución, y
en la Tabla III se presenta el cálculo del tiempo respuesta,
usando (5).
Volumen 13, Nº 52, septiembre 2009. pp 189-198
Figura 5.- Diagrama de planificación de las tareas del sistema
195
Tabla III.- Cálculo del tiempo de respuesta (w) Fase de PruebasSe ejecutaron diferentes experiencias en la obtención de las
señales de salida del caudal, presión en la bomba 1 y nivel en
el tanque 2 de la PPC, realizando pruebas de funcionamiento
controlados a cada lazo, tanto abierto como cerrado.
Prueba de Lazo Abierto. El procedimiento es el siguiente:
Ejecutar la aplicación del computador bajo Linux. Invocando
a main desde el Terminal y el sistema guía al operador. Se
ingresa la apertura de la válvula FCV-02, en este caso 40%.
Luego enciende la bomba y el sistema entra en ejecución. En
la Fig. 6 se muestra la salida del sistema. También se realizan
pruebas del lazo de presión y nivel.
Prueba de Lazo Cerrado. El procedimiento es similar al
anterior, sólo que pide ingresar la referencia de caudal, en este
caso 19,41 LPM. Luego enciende la bomba y el sistema entra
en ejecución. Se presenta la salida de la respuesta de este lazo
y la entregada por simulación de [6], Fig. 7. La respuesta del
lazo de presión y nivel se muestra en las Figuras 8 y 9.
Alfonsi, A., Pérez, J. Sistema de control en tiempo real para una planta piloto compacta usando software libre
Tabla II.- Períodos y plazos de finalización para las tareas
196
Volumen 13, Nº 52, septiembre 2009. pp 189-198
Figura 6. Salida del sistema Lazo Abierto del Caudal
Figura 7. Respuesta lazo cerrado del Caudal Figura 8. Respuesta lazo cerrado Presión
197
Figura 9. Respuesta lazo cerrado Nivel
5. Discusión de resultados
Del análisis por utilización, se extrae que el sistema no es
planificable. Ello no significa que si el sistema tiene una
mayor utilización no pueda ser planificable, sino que es
suficiente comprobar la inecuación (4) para asegurar que el
sistema es planificable bajo rate monotonic. En la Fig. 5 se
demuestra que las tareas cumplen sus plazos, debido a la
armonicidad de sus períodos, y los resultados de la Tabla III
lo confirman, ya que este tiempo es la suma del tiempo de
cómputo más la interferencia que sufre por la ejecución de
tareas más prioritarias que se puedan activar al ejecutar o
activar al mismo tiempo, siendo ésta una condición suficiente
y necesaria.
Del diseño detallado, se recoge que se realizaron nueve
paquetes activos en Ada, y se ejecutaron según la
planificación basada en prioridades. Las tareas utilizan un
recurso compartido para almacenar las variables del
proceso, usando paquetes protegidos y privados evitando el
bloqueo.
Las experiencias realizadas arrojan lo siguiente: el manejo en
lazo abierto del caudal, con una apertura de FCV-02 de 40%
llega a 19,41 LPM, Fig. 6. También se realizaron pruebas con
la presión, abriendo la PCV-03 en 40% y la FCV-02 en 0%,
alcanzando 27.68 psi; el nivel por su parte, con una apertura
de LVC-04 de 40% y FCV-02 en 0%, el sistema monitores
una disminución pasando por 20 cm en el tiempo previsto para
ello. Es decir, el sistema maneja lógica y temporalmente la
PPC.
De las Figuras 7, 8 y 9 se desprende que el comportamiento en
lazo cerrado es el esperado, observándose que las salidas
presentan un error debido a la comunicación del dato, y el
error en estado permanente y el componente oscilatorio es
despreciable, alcanzando las referencias aportadas por el
operador.
En la literatura hay propuestas y aplicaciones que utilizan
metodologías y herramientas propias en el desarrollo de
sistemas en tiempo real, la gran mayoría en forma parcial
como el ofrecido en [2] en el que se utiliza a HOOD sólo en
el diseño de la arquitectura, y otras en las que se apoya la
utilización total, como en [16] que usan herramientas para
el desarrollo de sistemas de control de libre distribución,
como COMEDI, Scilab y el sistema operativo de tiempo
real RTAI. El aporte del presente trabajo utiliza a HOOD en
todas sus etapas de diseño, confeccionando luego los
subsistemas en Ada 2005, lenguaje con directrices de
tiempo real, bajo el sistema operativo Linux/Ubuntu,
herramientas de libre distribución. Como próxima entrega
se utilizará un núcleo de sistema operativo en tiempo real,
ya sea RTAI o MaRTE, con el propósito de cubrir
completamente los requerimientos temporales del sistema
y el análisis de confiabilidad.
III. CONCLUSIONES
1. Se entregan nueve descomposiciones jerárquicas que se
transformaron en código para desarrollar los
procedimientos, funciones y tareas del sistema.
2. Se aplicó el análisis basado por el factor de utilización y el
tiempo de respuesta, dando como resultado que las tareas
cumplen con sus plazos de finalización, siendo ésta una
condición necesaria y suficiente para validar la
planificabilidad.
3. Finalmente en la fase de pruebas, se desarrollan las
experiencias en lazo abierto y cerrado, desde el punto de
vista lógico y temporal, arrojando resultados favorables
debido a la garantía que ofrece los períodos de activación
y tiempo de respuesta de cada tarea.
4. Entonces se dispone de un programa en tiempo real, con
códigos generados en Ada 2005, que puede ser utilizado
como plantilla para generar otras situaciones, siendo éste
Alfonsi, A., Pérez, J. Sistema de control en tiempo real para una planta piloto compacta usando software libre
198
un aporte en el diseño de sistemas de control en tiempo
real utilizando software libre.
IV. REFERENCIAS
1. García, A. Desarrollo y construcción de una Planta Piloto
manejada por computadora. Trabajo Especial de Grado
Maestría. Caracas, Facultad de Ciencias, UCV, octubre de
2004. 181p.
2. Balbastre, P., Lluesma, M. y Ripio, I. Análisis y
compensación de los retardos de planificación en sistemas
de control. Rev. Iberoamericana de Automática e
Informática Industrial, vol. 3, Nº 2, abril 2006, pp. 40-49.
3. Torres, D. y Romero, C. Diseño de una planta piloto de
ensamblaje automotriz a partir de un estilo de diseño top-
down. Rev. Colombiana de Tecnologías de Avanzada.
[online]. 2003, vol. 1, [citado el 12 de diciembre de 2008].
Disponible en:
http://www.waset.org/pwaste/v21/v21-10.pdf
4. Martínez, D. et al. Codiseño de un sistema de control en
una red para regular la velocidad de un motor DC. El
hombre y la máquina. [online]. julio 2005, Nº 25, [citado
el 17 de abril 2008], pp. 44-50. Disponible en:
http://redalyc.uaemex.mx/redalyc/pdf/478/47802505.pdf
5. Seto D. et al. On Task schedulability in real-time control
systems. In: Proceedings 17th IEEE Real-Time Systems
Symphosium, Washington, 1996, pp. 13-21.
6. Alfonsi, A. y Pérez, J. Modelo y control de tiempo real.
Caso: Planta Piloto Compacta-UCV. In: CD Memorias del
XIII Congreso Latinoamericano de Control Automático/VI
Congreso Venezolano de Automatización y Control.
Mérida, Venezuela. noviembre 2008, pp. 298-304.
7. Burns, A. and Wellings, A. HRT-HOOD. A Structured
Design Method for Real-Time Systems. Journal Real-
Time Systems, Vol 6, Nº 1, 1994, pp. 73-114.
8. Ubuntu. “Ubuntu Feisty Fawn ver. 7.04”. Oficial Page of
Ubuntu. April 2007. Available in:
http://www.ubuntu.com
9. ISO/IEC. Ada Reference Manual.
ISO/IEC 8652:200y(E).Ed 3, 2006. Available in:
http://www.adaic.com/standards/05rm/html/
RM-TTL.html
10. GNAT GPL. GNAT GPL user’s guide. AdaCore. Free
Software Foundation, ver. 2007. (30/03/07), (2007).
Available in:
http://www.adaic.com/standards/05rm/
html/RM-TTL.html
11. Alfonsi, A. y Pérez, J. Modelo y control asistido por
computadora de un sistema industrial. Caso: Planta Piloto
Compacta-UCV”. Revista UCT, Vol 13, Nº 50, marzo
2009, 43-50.
12. Alfonsi, A. y Pérez, J. Control de tiempo real aplicado a la
Planta Piloto Compacta-UCV. Trabajo de Grado de
Maestría. Caracas, Facultad de Ciencias, UCV, mayo
2008, pp. 304.
13. Buttazzo, G. Rate Monotonic vs. EDF: Judgment
day. Real-Time Systems, Vol. 6, Nº 29, 2005, pp. 5-
26.
14. Flores, J., Díaz, E. y Cabezas, Y. Simulación y control en
cascada de una planta POMTM en tiempo real con RTAI-
LAB. In: CD Memorias del XIII Congreso
Latinoamericano de Control Automático/VI Congreso
Venezolano de Automatización y Control. Mérida,
Venezuela. noviembre 2008, pp. 852-859.
Volumen 13, Nº 52, septiembre 2009. pp 189-198
Volumen 13, Nº 52, septiembre 2009. pp 199-210 199
SITUACIÓN DE LA INDUSTRIA TEXTIL EN ESPAÑA ANTELA LIBERALIZACIÓN DEL SECTOR: UNA VISIÓN DESDE
EL PUNTO DE VISTA DE LA EFICIENCIA Y EL TAMAÑO DE LAS EMPRESAS.
Coll Serrano, Vicente Blasco Blasco, Olga
Resumen: Actualmente, la industria textil en España atraviesa por una profunda crisis. Un gran número de
empresas han cesado su actividad y el número de empleos que diariamente se pierden en la industria es
elevado. Las empresas textiles españolas deben hacer frente a una competencia cada vez más intensa y
agresiva, basada fundamentalmente en una estrategia de bajo coste. En la última década del siglo XX, la
evaluación de la eficiencia ha adquirido un gran interés en el ámbito empresarial, especialmente en entornos
altamente competitivos. En este trabajo se evalúa la eficiencia productiva del textil español mediante el
Análisis Envolvente de Datos (DEA) y se investiga la existencia de diferencias en función del tamaño
organizativo. El propósito del trabajo es establecer la capacidad de la industria textil española, en términos
de eficiencia técnica, para hacer frente al incremento de la competencia proveniente de países como China,
India, Pakistán, Vietnam, etc. Con tal finalidad, para evaluar la eficiencia productiva se ha contado con
información contable correspondiente al cierre del ejercicio económico 2003 para un total de 1296 empresas.
La utilización eficiente de los recursos productivos representa una estrategia que permite a la empresa mejorar
su rentabilidad, sin embargo los resultados obtenidos indican que, en general, los niveles de eficiencia
alcanzada por las empresas textiles españolas son bajos, siendo necesario promover importantes mejoras en
la industria.
Palabras clave: Industria textil/ Competitividad/ Eficiencia productiva/ Análisis Envolvente de Datos/ DEA/
Información contable.
THE SPANISH TEXTILE INDUSTRY BEFORE THESECTOR’S LIBERALIZATION. AN ANALYSIS BASED ON
THE TECHNICAL EFFICIENCY AND THE SIZE OF THE FIRMS.
Abstract: The Spanish textile industry is in crisis as a result of increasing competition. The productive
efficiency of the firms is established by the direct determinant of their level of competitiveness (Roca and Sala,
2005). Using accounting information, Data Envelopment Analysis (DEA) is employed to assess the
productive efficiency of small and mid-size Spanish textile firms. Therefore, bearing in mind the size of the
firm, the principal aim of the analysis conducted consists in evaluating the position of the Spanish textile
industry, in terms of efficiency, in order to deal with increasingly more intense and aggressive competition
from such countries as China, India, Pakistan and Vietnam, largely as a result of low prices. Of the seven
textile sub-sectors established by CNAE-93, the results obtained indicate that efficiency levels are low,
making it necessary to promote significant improvements in consumption product factors.
Keywords: Textile Industry/ Competitiveness/ Productive Efficiency/ Data Envelopment Analysis/ DEA/
Accounting Information.
Manuscrito finalizado en Valencia , España el 2008/07/01, recibido el 2008/08/07, en su forma final (aceptado) el 2009/07/16. El Dr. Vicente Coll Serrano es
Profesor del Área de Métodos Cuantitativos para la Economía y la Empresa, Dpto. de Economía Aplicada, Facultad de Economía, Universidad de Valencia,
Avda. Tarongers s/n Edificio Departamental Oriental 46021 Valencia, España, telef 34-963828640, fax 34-963828415, correo electrónico [email protected].
La Dra. Olga Blasco Blasco es también Profesora en la misma Área de la misma Universidad, mismos telef. y fax, correo electrónico [email protected].
1. INTRODUCCION.
La industria textil representa una agrupación industrial con
un peso relativamente importante en la manufactura
española. Según información del INE (Instituto Nacional
de Estadística), en el año 2003 la industria “Textil,
confección, cuero y calzado” ocupaba el noveno puesto en
cuanto a generación de riqueza, representando el 5,61% del
total del valor añadido de la manufactura. Pero en lo
referente a ocupación se situaba en tercera posición al
suponer el 10,22% del total del empleo industrial, sólo
superada por “Metalurgia y fabricación de productos
metálicos” (15,19%) y “Alimentación, bebida y tabaco”
(14,06%).
Volumen 13, Nº 52, septiembre 2009. pp 199-210
200
Actualmente la industria textil española está atravesando una
profunda crisis. A este respecto, hay que tener en cuenta que
a finales del año 1995 se decidió la abolición del sistema de
cuotas a la importación de productos textiles y el 1 de enero
de 2005 finalizó el denominado Acuerdo Multifibras, que
protegía al sector textil de los países industrializados de la
competencia asiática. Para ilustrar el efecto de estos
acontecimientos pueden considerarse algunos datos recientes.
Según Euratex, la patronal del textil europeo, cada día se
pierden 1.000 empleos y 50 empresas en la Unión Europea
(UE), con una proyección de un millón de puestos de trabajo
volatilizados hasta finales de 2006, ante la avalancha de
productos textiles llegados de China. Para Filiep Libeert,
presidente de Euratex, sólo en 2004 el sector perdió 165.000
empleos y 11.500 empresas en la UE. En España, puede
decirse que para la mayor parte de las empresas textiles la
verdadera crisis comenzó en 2004; este año desaparecieron
800 empresas y 35.000 empleos; el 2005 se saldó con el cierre
de casi el 10% de las 7.000 empresas textiles y otros 19.000
empleos.
En entornos altamente competitivos la evaluación de la
eficiencia ha adquirido en los últimos años un gran interés en
el ámbito empresarial. La utilización eficiente de los recursos
productivos representa una estrategia que permite a la empresa
mejorar su rentabilidad [1]. Así, el principal objetivo de este
trabajo consiste en evaluar la capacidad de la industria textil
española, en cuanto a la eficiencia productiva se refiere, para
hacer frente a la cada vez más intensa y agresiva competencia
-fundamentalmente basada en el bajo coste- de países como
China, India, Pakistán, Vietnam, etc.
El nivel de eficiencia productiva de las empresas se erige en
un determinante directo de su nivel de competitividad [2], en
un elemento de especial importancia para el análisis del
posicionamiento competitivo de las empresas así como un
determinante esencial de sus estrategias [3]. Ahora bien, hay
que tener presente que la eficiencia no agota el conjunto de
estrategias para ser competitivos ([4] y [5]).
El trabajo se estructura como sigue. En el apartado 1 se hace
referencia al concepto de eficiencia y tamaño organizativo.
Los apartados 2 y 3 se dedican, respectivamente, a la
exposición de la metodología y a las variables utilizadas para
definir la eficiencia productiva. La discusión de los principales
resultados obtenidos es el objeto del apartado 4. El trabajo
finaliza con un apartado dedicado a conclusiones.
II. DESARROLLO
1. Eficiencia y tamaño emprearial.
El objetivo principal de este trabajo consiste en evaluar la
capacidad de la PYME (pequeña y mediana empresa) textil
española, en términos de eficiencia productiva, para hacer
frente a la cada vez más intensa y agresiva competencia a la
que se encuentra sometida así como en contrastar, en los
distintos subsectores de actividad, la influencia que tiene el
tamaño empresarial sobre la eficiencia técnica. Varias son las
razones que han llevado a considerar como unidad de análisis
la PYME, entre las que cabe destacar:
a) Suponen prácticamente el 98% del total de las empresas de
la industria textil.
b) Son las que en mayor medida sufren los efectos de la crisis
por la que atraviesa el sector dada su limitada capacidad de
reacción. Una de las variables organizativas que influye
en la reacción ante la crisis es la cantidad de recursos no
comprometidos que la empresa pueda tener en el período
de declive [6] y es evidente que esta capacidad
corresponde a las empresas de mayor tamaño. Como
aspecto a favor de la PYME, la flexibilidad.
c) El número de grandes empresas especializadas disponible
en cada grupo textil resultaba insuficiente para poder
aplicar DEA.
Se define la eficiencia técnica o productiva como la capacidad
que tiene una empresa para obtener el máximo output a partir
de un conjunto dado de inputs, y se obtiene al comparar el
valor observado de cada empresa con el valor óptimo que
viene definido por la frontera de producción estimada
(isocuanta eficiente). Para cuantificar la eficiencia productiva
de la industria textil se aplica, como se describe en el siguiente
apartado, el análisis envolvente de datos (DEA, acrónimo de
Data Envelopment Analysis), considerándose en la evaluación
cada uno de los 7 subsectores en que la clasificación de
actividades económicas CNAE-93 subdivide la industria.
En el trabajo también se profundiza en la relación entre
eficiencia productiva y tamaño de la empresa. Algunos autores
detectan un vínculo positivo entre estas dos dimensiones ([7],
[8], [9]), otras investigaciones defiende una relación negativa
([10], [11]) y, finalmente, determinados trabajos no encuentran
ninguna relación significativa ([12], [13], [14]).
La relación entre tamaño y otras características de la
organización (en este caso, eficiencia productiva) está influida
tanto por la forma de conceptuar como de medir el tamaño [15].
Por tanto, la manera de definir y medir el tamaño organizativo
es una cuestión básica, porque los resultados de las
investigaciones pueden variar en función de la conceptuación y
medición de la variable [16]. De acuerdo con la Recomendación
de la Comisión Europea, de 6 de mayo de 2003, sobre la
definición de microempresas y pequeñas y medianas empresas
(en vigor desde el 1 de enero de 2005), las medianas empresas
tienen entre 50 y 249 trabajadores y, o bien un volumen de
negocios de hasta 50 millones de euros o bien un balance general
de hasta 43 millones de euros; las pequeñas empresas tienen
entre 10 y 49 trabajadores y, o bien un volumen de negocioso o
un balance general de hasta 10 millones de euros; y las
microempresas tienen menos de 10 trabajadores y un límite de
2 millones de euros de volumen de negocios o balance general.
Coll, V., Blasco, O. Situación de la industria textil en España ante la liberalización del sector
201
No obstante, en esta aplicación se considerará como medida
del tamaño de la empresa únicamente el número de
trabajadores, que por otra parte es la medida más empleada
en la literatura. Así pues, una empresa se considerará de
tamaño micro si tiene menos de 10 empleados, de tamaño
pequeño si tiene entre 10 y 49 empleados y de tamaño
mediano si tiene entre 50 y 250 empleados.
2. Método
DEA es una técnica de programación matemática que permite
la construcción de una superficie envolvente, frontera
eficiente o función de producción empírica, a partir de los
datos observados para el conjunto de Unidades objeto de
estudio -empresas textiles-. Aquellas empresas que determinan
la envolvente son calificadas como eficientes y las que no
permanecen sobre la misma son consideradas ineficientes.
DEA permite la evaluación de la eficiencia relativa de cada
una de las empresas (para más detalles puede consultarse
[17]).
Entre las principales ventajas de la metodología DEA cabe
destacar su capacidad de manejar situaciones de múltiples
inputs y outputs ([18], [19]) expresados en distintas unidades
de medida [20]. Además, se trata de una técnica no-
paramétrica y, por tanto, no supone ninguna forma funcional
que relacione inputs y outputs, ni supone una distribución de
la ineficiencia [21].
El modelo DEA-CCR [22] input orientado busca, dado el
nivel de outputs, la máxima reducción proporcional en el
vector de inputs mientras permanece en la frontera de
posibilidades de producción. Una Unidad no es eficiente si es
posible disminuir cualquier input sin alterar sus outputs. Este
modelo, que permite evaluar la eficiencia relativa de cada una
de las n empresas consideradas a partir de s outputs y m inputs
observados, puede expresarse en su forma envolvente como:
(DEA-CCR)
donde Y es una matriz de outputs de orden (s×n); y0
representa el vector output de la empresa que está siendo
evaluada; X es una matriz de inputs de orden (m×n); x0
representa el vector inputs de la empresa considerada, es el
vector (n×1) de pesos o intensidades, y denota la puntuación
de eficiencia (técnica) de la empresa evaluada. Si la solución
óptima del problema anterior resulta ser =1 y todas las
holguras output ( sr+* ) e input ( sr
-* ) son cero, entonces la
empresa evaluada será eficiente en relación con las otras,
puesto que no será posible encontrar ninguna empresa o
combinación lineal de empresas que obtenga al menos el
output de la empresa en cuestión utilizando menos factores.
En caso contrario la empresa es ineficiente, pues será posible
obtener, a partir de los valores , una combinación de
empresas que funcione mejor que aquella objeto de
evaluación.
El modelo DEA-CCR es formulado suponiendo que la
tecnología satisface, entre otras, la propiedad de rendimientos
constantes a escala, obteniéndose una medida de eficiencia
técnica global (ETG). [23] relajan este supuesto al permitir
que la tecnología presente rendimientos variables a escala al
introducir la restricción de convexidad , eliminando
de esta forma la influencia de la escala de producción. La
medida de eficiencia así obtenida es una medida de eficiencia
técnica pura (ETP). Se trata de medidas de eficiencia técnica
netas de cualquier efecto escala. La forma envolvente del
modelo DEA-BCC input orientado puede escribirse de la
siguiente forma:
(DEA-BCC)
La empresa evaluada será calificada como eficiente (ETP),
según la definición de Pareto-Koopmans, si y solo si en la
solución óptima: a) = 1 y b) las variables de holguras son
todas nulas, es decir, s+* = 0 y s-* = 0.
3. Variables y datos.
En este apartado se centra la atención en la selección de las
variables input y output a las que se recurre en este estudio
para definir y evaluar la eficiencia productiva de una
determinada empresa textil; y se hace una breve referencia al
procedimiento seguido hasta obtener el número de empresas
textiles que finalmente fueron analizadas.
3.1 Selección de las variables.
La selección de las variables input/output es una cuestión de
vital importancia a la hora de evaluar la eficiencia de un
conjunto de empresas mediante DEA; por tanto, decidir qué
input/s y output/s son considerados en el análisis no es, nunca
debe serlo, un tema baladí [24].
En esta aplicación se recurre a información contable contenida
202
en la cuenta de pérdidas y ganancias y balance de situación
para evaluar la eficiencia técnica de las PYMES textiles
españolas. En la literatura puede encontrarse una gran
disparidad de variables, [25] proporciona un completo
resumen de las variables contables más usadas en el análisis
de eficiencia frontera.
Respecto a lo que podría considerarse como antecedentes
más directos de la presente investigación, [26] usan DEA
para evaluar 29 empresas textiles canadienses a partir de
datos reales relativos al valor de las ventas (output) y
número de empleados e inversión media anual de los
últimos 10 años (inputs); y [24], que realiza una
comparación en términos de eficiencia y productividad de la
industria textil europea en el periodo 1996-1998, recurre al
beneficio de explotación como proxy del resultado del
proceso de transformación y venta que tiene lugar en la
empresa, que emplea como principales factores productivos
(inputs) el factor capital (activo tangible y otro activo fijo)
y trabajo (número de empleados).
En esta aplicación se ha optado por seleccionar, siguiendo la
propuesta de [5], un total de tres inputs: activo total, número
de empleados y coste de materiales; y un único output, el valor
añadido. A continuación se define cada una de estas variables:
Activo total: Engloba todos los elementos (bienes y derechos
evaluables económicamente) que influyen positivamente en
la situación patrimonial de la empresa.
Activo fijo: Conjunto de elementos patrimoniales cuya
permanencia es, en principio, superior al de un ejercicio
contable, es decir que están adscritos al ciclo de estructura
de la empresa. Incluye las inmovilizaciones inmateriales,
materiales y financieras, así como los deudores por
operaciones de tráfico a largo plazo.
Activo circulante: Conjunto de valores en los que la
empresa ha invertido fondos por exigencias de la actividad
que ha de desarrollar, pero que carecen de carácter de
permanencia. Incluye existencias, deudores, otros activos
líquidos y tesorería.
Número de empleados: Se refiere al conjunto de personas,
fijas o eventuales, que en el año de referencia (2003) se
encuentran trabajando en la empresa.
Coste de materiales (Coste de mercaderías y materias primas):
Este concepto recoge las compras netas (es decir, una vez
descontados los rappels y devoluciones de compras) de
materias primas (bienes adquiridos para su transformación en
el proceso productivo) efectuadas por la empresa durante el
año de referencia, disminuidas o aumentadas por el importe de
la correspondiente variación de existencias (según sea ésta
positiva o negativa).
Valor añadido: Es el valor que obtiene la empresa en su
actividad principal, tras descontar el coste necesario para
su realización, es decir, representa los recursos generados
por la actividad de los factores productivos internos de
la empresa (capital y trabajo). Se calcula como la
diferencia entre los ingresos de explotación (importe neto
de la cifra de negocios + otros ingresos de explotación)
y los consumos de explotación y otros gastos de
explotación.
Por disponibilidad, los datos utilizados se refieren al
cierre del ejercicio económico del año 2003 y han sido
extraídos de la base de datos Sabi, elaborada por Bureau
Van Dijk. A excepción de la variable relativa al personal,
las restantes se encuentran expresadas en miles de euros
corrientes.
3.2 Depuración de datos.
Inicialmente se contó con un total de 2236 empresas cuya
actividad principal se encuadraba en alguno de los siete
subsectores en que la clasificación de actividades CNAE-93
divide la industria textil. DEA “exige” que las empresas sean
comparables, en el sentido que todas ellas consumen los
mismos inputs (en diferentes cantidades) para producir el
mismo conjunto de outputs (en distintas cantidades) [27].
Por esta razón, la muestra inicial de empresas fue sometida
a un proceso de depuración. Entre otras acciones, se
eliminaron aquellas empresas que: a) se consideraron
empresas diversificadas, al presentar actividad en otro sector
y/o en más de un subsector textil, por carecer de criterio para
asignar recursos y valor añadido a cada una de las distintas
actividades empresariales realizadas, un total de 663; b) 277
empresas no proporcionaban información completa de las
variables input/output, o mostraban valores nulos o
negativos, o se encontraban en situación de “en liquidación”,
etc.
El número de empresas con las que finalmente se ha contado
para llevar a cabo la evaluación de la eficiencia de la industria
textil española ha sido de 1296, distribuyéndose entre los
diferentes subsectores textiles, y según tamaño, tal y como se
muestra en la Tabla I.
Tabla I. Distribución de empresas según tamaño ysubsector textil de actividad.
Volumen 13, Nº 52, septiembre 2009. pp 199-210
203
4. Eficiencia productiva de la PYME textil española:discusión de los principales resultados.
En este trabajo se pretende evaluar la eficiencia
productiva de la industria textil española y relacionar ésta
con el tamaño de la empresa. Con tal finalidad, en cada
subsector textil se ejecutó el modelo DEA-CCR y DEA-
BCC para determinar, por separado, las fronteras
eficientes de las empresas de tamaño micro, pequeño y
mediano. Para ello, se ha utilizado el siguiente software:
DEA Solver ([28]), DEAP ([29]) y Frontier Analyst. Para
decidir entre ambos modelos (DEA-CCR y DEA-BCC) se
sigue la propuesta de [30], de forma que si la mayoría de
las empresas aparecen con la misma puntuación de
eficiencia en ambos supuestos puede trabajarse con
rendimientos constantes a escala, sin necesidad de
preocuparnos por el hecho de que la ineficiencia escala
confunda la medida de eficiencia técnica. Los resultados
obtenidos indican que, de acuerdo con este método, puede
suponerse que la naturaleza de los rendimientos a escala
de la tecnología de producción es de tipo variable, y esto
en todos los subsectores textiles.
Por esta razón, en la Tabla II se muestran las puntuaciones
medias de eficiencia técnica pura (ETP, eficiencia productiva
neta de efecto escala) obtenidas al segmentar cada subsector
textil atendiendo al tamaño empresarial y las puntuaciones
medias de eficiencia derivadas de la escala de operación
(eficiencia escala). Las ineficiencias de escala se originan al
producir en un nivel de escala que no es óptimo, considerando
como tal el que se obtiene de reescalar la actividad de las
empresas eficientes (ETG=1). La eficiencia escala es obtenida
como el cociente entre la eficiencia técnica global (ETG) y la
eficiencia técnica pura (ETP). En la Tabla III puede
consultarse la distribución de empresas según la naturaleza de
los rendimientos a escala (constantes, crecientes o
decrecientes) en los que localmente opera cada una de las
empresas analizadas.
Tabla II. Eficiencia productiva y escala media (en %) según tamaño y subsector textil.
Tabla III. Distribución de frecuencias de la puntuación de eficiencia escala.
Coll, V., Blasco, O. Situación de la industria textil en España ante la liberalización del sector
204
En general, la industria textil española presenta una elevada
ineficiencia productiva. Los análisis realizados indican que,
en promedio, la eficiencia (ETP) de la industria textil se
mueve entre el 89,06% de Fabricación de artículos en tejidos
de punto y el 73,13% de Acabados Textiles. En la Tabla IV se
facilita, a modo de resumen, la distribución de frecuencias de
la puntuación de eficiencia de acuerdo al grupo de actividad
textil y el tamaño de las empresas.
Tabla IV. Distribución de frecuencias de la puntuación de eficiencia técnica pura según tamaño y subsector de actividad.
Por otra parte, tal y como puede observarse en la Tabla II, la
ineficiencia escala tiende a disminuir conforme aumenta el
tamaño de la empresa, con la excepción de las pequeñas y
medianas empresas en Preparación e hilado de fibras textilesy las micro y pequeñas en Fabricación de artículos en tejidosde punto que presentan, en media, puntuaciones muy
similares. Además, en todos los subsectores textiles la gran
mayoría de empresas, y especialmente las micro, opera
localmente en tramos de la frontera de mejor práctica (frontera
eficiente) caracterizada por rendimientos crecientes a escala
(ver Tabla III). El porcentaje de pequeñas empresas que
presentan rendimientos decrecientes a escala se sitúa entre el
10,81% de Fabricación artículos en tejidos de punto y el
34,33% de Preparación e hilado de fibras textiles y el de
medianas entre el 2,04% de Fabricación de tejidos textiles y
el 33,33% de Fabricación de artículos confeccionados contextiles. En consecuencia, los resultados obtenidos indican que
gran parte de las empresas textiles se encuentran o bien por
debajo o bien por encima de su tamaño óptimo o ideal.
La (in)eficiencia productiva es atribuible a la (in)eficiencia en
la gestión del proceso productivo de las empresas evaluadas,
y dado que la metodología utilizada proporciona una medida
radial de eficiencia, el índice asignado a cada una de las
empresas evaluadas indicará la reducción equiproporcional
para los componentes del vector de inputs (Activo total,
Número de empleados y Coste de materiales) que debería
promoverse para convertirla en eficiente; esto es, para situarla
sobre la frontera de mejor práctica. Haciendo extensivo este
razonamiento, las microempresas de Preparación e hilado defibras textiles, por ejemplo, deberían reducir como mínimo
los recursos empleados en un 25,7% dado su valor añadido
generado, las pequeñas empresas de este subsector deberían
hacerlo en un 28,08% y las medianas en un 22,84%. De
manera análoga se interpretaría la Tabla II para los restantes
subsectores textiles.
Volumen 13, Nº 52, septiembre 2009. pp 199-210
205
En las Tablas V a VII pueden consultarse los porcentajes
medios de mejora potencial a experimentar por las micro,
pequeñas y medianas empresas de cada subsector textil para
eliminar la ineficiencia productiva y de esta forma llegar a ser
eficiente. El signo negativo en las variables inputs indica una
reducción en el consumo de factor y el signo positivo en la
variable output indica la mejora adicional a promover para
llegar a ser eficiente.
Observando de nuevo la Tabla II, las empresas de tamaño
mediano son las más eficientes en todos los subsectores
textiles. Tras estas, las pequeñas aparecen como las más
eficientes en Fabricación de tejidos textiles, Fabricación deartículos confeccionados con textiles y Otras industriastextiles y las microempresas en los restantes subsectores, a
saber: Preparación e hilado de fibras textiles, Acabadotextiles, Fabricación tejidos de punto y Fabricación deartículos en tejidos de punto.
Las micro, pequeñas y medianas empresas de Fabricación deartículos en tejidos de punto son, en promedio, las más
eficientes de la industria textil española.
Coll, V., Blasco, O. Situación de la industria textil en España ante la liberalización del sector
206
A partir de la evaluación de eficiencia realizada, parece que
las micro y pequeñas empresas no son capaces de trasladar
(y aprovechar) al ámbito de la gestión productiva las
ventajas que se les suelen atribuir en virtud de su tamaño,
entre otras: la flexibilidad, que les permite adaptarse y
mejorar con mayor facilidad que las empresas de mayor
tamaño; y la menor dificultad de aceptar e implementar
cambios ([31], [4]).
Como uno de los objetivos del trabajo era estudiar, y
comparar, la incidencia del tamaño de la empresa en la
eficiencia, a continuación nos preguntamos: ¿existen
diferencias estadísticamente significativas en la eficiencia
productiva según el tamaño organizativo?.
Para responder a esta pregunta, en cada subsector textil se ha
realizado un análisis de la varianza (ANOVA), que es una
prueba estadística que permite comparar medias de k grupos
(tres en este caso: micro, pequeñas y medianas empresas). El
modelo de ANOVA exige el cumplimiento de una serie de
supuestos, entre ellos, la homogeneidad o igualdad de
varianzas en las poblaciones orígenes de los grupos. Así pues,
lo primero es comprobar este supuesto mediante la prueba de
Levene (ver Tabla VIII).
Interpretando los resultados de la prueba de Levene:
• En Preparación e hilado de fibras textiles, Fabricación de tejidos textiles, Acabado de textiles y Fabricación de tejidosde punto puede asumirse homocedasticidad.
Los resultados del ANOVA para estos cuatro subsectores, que se muestran en la Tabla IX, indican que no existen
diferencias significativas al 5% en la eficiencia productiva según se trate de micro, pequeñas o medianas empresas en
los dos primeros (Preparación e hilado de fibras textiles y Fabricación de tejidos textiles) pero sí en los dos últimos
(Acabado de textiles y Fabricación de tejidos de punto).
• En Fabricación de artículos confeccionados con textiles, Otras industrias textiles y Fabricación artículos en tejidosde punto no puede asumirse homocedasticidad. En consecuencia, para estos subsectores textiles se obtuvieron los
estadísticos de Brown-Forsythe y Welch para contrastar la igualdad de las medias (Tabla X).
Volumen 13, Nº 52, septiembre 2009. pp 199-210
207
Como puede verse en la Tabla X, la prueba de Welch indica,
en todos los casos, la existencia de diferencias significativas
al 5% en eficiencia productiva.
Por tanto, llegados a este punto interesa conocer, para aquellos
subsectores textiles en los que se ha aceptado la existencia de
diferencias en eficiencia productiva según tamaño (todos salvo
Preparación e hilado de fibras textiles y Fabricación detejidos textiles), entre qué tamaños se dan dichas diferencias,
y la dirección de la misma. Para ello recurrimos, en esta
ocasión, a realizar la prueba HSD de Tuckey (cuando pueda
asumirse varianzas iguales) y de Games-Hawell (cuando no
pueda asumirse varianzas iguales). Los resultados de estas
pruebas permiten concluir que:
• En Acabado de textiles: Existen diferencias
significativas en eficiencia productiva entre las micro y
las pequeñas, y entre las medianas y las pequeñas
empresas. No existen diferencias estadísticamente
significativas entre las micro y medianas empresas. En
este subsector puede decirse que, según el tamaño, las
empresas más eficientes son las medianas, seguidas por
las microempresas (aunque como se ha dicho no existen
diferencias significativas). Las pequeñas empresas son
las más ineficientes.
• En Fabricación de artículos confeccionados con textiles,Fabricación de tejidos de punto y Fabricación de artículosen tejidos de punto únicamente se observan diferencias
entre las pequeñas y medianas empresas. En estos tres
subsectores textiles las medianas empresas presentan la
mayor eficiencia productiva. Si bien puede decirse que no
existen diferencias estadísticamente significativas entre las
micro y pequeñas empresas así como tampoco entre las
micro y medianas empresas, las microempresas son, tras
las medianas, las más eficientes en Fabricación de tejidosde punto y Fabricación de artículos en tejidos de punto, ylas pequeñas en Fabricación de artículos confeccionadoscon textiles.
• En Otras industrias textiles: Las diferencias en
eficiencia se observan tanto entre las micro y
medianas empresas como entre las pequeñas y
medianas. No existen diferencias estadísticamente
significativas entre las micro y pequeñas empresas.
Los resultados indican que en Otras industrias textiles
nuevamente las medianas empresas son las que
presentan, por término medio, una mayor eficiencia
productiva, seguidas por las micro y las pequeñas, que
son las más ineficientes.
III. CONCLUSIONES.
En esta aplicación se ha evaluado la eficiencia técnica,
definida a partir de tres variables inputs (Activo total,
Número de empleados y Coste de materiales) y una output
(Valor añadido), de un total de 1296 empresas textiles
especializadas.
1. Se ha calificado la industria textil española como una
industria que presenta una elevada ineficiencia
productiva (atribuible a la gestión del proceso
productivo).
2. En cuanto a la eficiencia escala, se ha observado que
la ineficiencia escala tiende a disminuir conforme
aumenta el tamaño de la empresa y que el tamaño de
la gran mayoría de empresas es inadecuado, ya sea
porque este se encuentra por encima o por debajo del
óptimo. El porcentaje de empresas que opera en la
escala óptima (rendimientos constantes a escala) en
muy reducido.
3. En general, el subsector textil que por término medio
presenta una mayor ETP, con una puntuación de
89,06%, es Fabricación de artículos en tejidos de
punto.
4. Segmentando en cada subsector textil las empresas de
acuerdo a su tamaño, medido a través del número de
empleados, en todos los casos las medianas empresas
son calificadas como las más eficientes. Con todo, la
mejora potencial a experimentar por este tipo de
empresa se sitúa, como valores mínimos, entre el
3,55% y el 25,7%.
Coll, V., Blasco, O. Situación de la industria textil en España ante la liberalización del sector
208
5. Como es habitual en este tipo de análisis, se ha
considerado que bajos niveles de eficiencia corresponde a
situaciones de desequilibrio que sería bueno corregir en el
sector.
6. Las empresas poco eficientes deben esforzarse para alcanzar
mejores cotas de eficiencia bajo riesgo de desaparición.
7. Considerado el sector en su conjunto, un bajo nivel medio
de eficiencia no debe ser percibido siempre de forma
peyorativa, sino más bien parece que es lo que debe ocurrir
en sectores dinámicos, con avances importantes, con
empresas líderes que “tiran” del sector, que destacan y que,
precisamente por ello, (puesto que la eficiencia de una
empresa siempre se mide en términos relativos, y en
comparación con las más eficientes) “colocan” a las otras en
situación de desventaja.
8. Un sector en el que la eficiencia media fuera del 100%
significaría que todas las empresas han alcanzado el mismo
nivel de eficiencia y que ninguna de ellas plantea una
alternativa diferenciada capaz de motivar al resto. Sería un
sector acomodado, sin innovación ni desarrollo ([5]).
9. Sólo en Preparación e hilado de fibras textiles y Fabricación
de tejidos textiles no se han detectado diferencias
significativas en eficiencia productiva según se tratase de
micro, pequeñas o medianas empresas.
10. En el resto de subsectores textiles en todos los casos las
medianas empresas aparecen como las más eficientes.
IV. PERSPECTIVAS
Como se dijo en la introducción, la eficiencia no agota el
conjunto de estrategias para ser competitivos. Sin embargo, en
la industria textil parece conveniente, dados los resultados en
eficiencia productiva y escala obtenidos en este trabajo, aunar
esfuerzos orientados tanto a mejorar la eficiencia (reconversión
del sector, redimensionamiento de la estructura, reorientación
de la actividad empresarial, modernización de procesos
productivos, innovación de proceso, introducción de nuevas
técnicas de gestión, formación, reformas laborales y fiscales,
etc.) como a generar y/o potenciar aspectos diferenciadores que
protejan el sector y permitan sustentar mayores costes relativos
al ofrecer “algo más” a los consumidores o usuarios
(investigación y desarrollo, formación, diseño, innovación de
producto, etc.).
El planteamiento del trabajo que hemos presentado puede ser
ampliado a partir de las posibles limitaciones del mismo. En
este sentido, las futuras cuestiones a investigar pueden
enfocarse desde distintos ámbitos. Así, por ejemplo, cabría
estudiar con detalle cómo ha evolucionado en los últimos años
la eficiencia productiva de la industria textil y comparar los
resultados obtenidos antes y después de la liberalización del
sector. Directamente relacionado con el anterior, sería entonces
interesante en una segunda etapa del análisis tratar de explicar
la (in)eficiencia de la industria a través de variables tales como:
inversión en I+D, propensión exportadora de las empresas
(internacionalización), pertenencia a grupo empresarial,
tamaño, edad, etc. Además, la metodología utilizada permite
identificar las empresas de mejor práctica (las que determinan
la frontera eficiente) de manera que el estudio del perfil de éstas
puede servir de base para el diseño de la estrategia de las menos
eficientes.
V. REFERENCIAS.
1. Sellers, R., Nicolau, J.L. y Mas, F.J. (2002), “Eficiencia en
la distribución: Una aplicación en el sector de agencias de
viaje”. Working paper, serie ED, nº 17. Instituto Valenciano
de Investigaciones Económicas (IVIE).
2. Roca, O. y Sala, H. (2005), “Producción, empleo y
eficiencia productiva de la empresa española: Una
radiografía a partir de SABE”. Boletín Económico del ICE,
Num. 2857, 21-38.
3. Duch, N. (2006), “Posición competitiva y estrategias de las
empresas catalanas. Análisis del Programa Créixer (2003-
2005)”. Documents de treball. CIDEM, Generalitat de
Catalunya.
4. Esteban, J.; Coll, V. y Blasco, O.M. (2005),
“¿Competitividad e innovación en la micro y pequeña
empresa? Retos previos a superar”. Estudios de Economía
Aplicada, 23(3), 559:583.
5. Coll, V. y Blasco, O.Mª. (2007), “Evaluación de la eficiencia
de la industria textil española a partir de información
económico-financiera: Una aplicación del análisis
envolvente de datos”. Revista de Investigación Operacional,
28(1).
6. Pla, J., Puig, F. y Linares, E. (2007), “Crisis, actitudes
directivas y estrategia en los sectores manufactureros
tradicionales: el sector textil español”. Universia Business
Review, 14, 68-83.
7. Sheu H.J y Yang C.Y. (2005), “Insider Ownership and Firm
Performance in the Electronics Industry: A Technical
Volumen 13, Nº 52, septiembre 2009. pp 199-210
209
Efficiency Perspective”. Managerial and Decision
Economics, 62, 307-318.
8. Cheng, Y-S. y Lo, L. (2004), “Firm Size, Technical
Efficiency and Productivity Growth in Chinese
Industry”. Working papers Nº.144, Department of
Economics, School of Oriental and African Studies,
University of London.
9. Berger, A.N.; Hancock, D. y Humphrey, D.B. (1993),
“Bank Efficiency Derived From the Profit Function”.
Journal of Banking and Finance, 17, 317-347.
10. Kaparakis, E.I.; Miller, S.M. y Noulas, A.G. (1994),
“Short Run Cost in Efficiency of Commercial Banks: A
Flexible Stochastic Frontier Approach”, Journal of
Money, Credit and Banking, 26, 875-893.
11. Hermaln, B.E. y Wallace, N.E. (1993), “The
Determinants of Efficiency and Solvency in Savings and
Loans”. Rand Journal of Economics, 15, 361-381.
12. Mester, L.J.(1993), “Efficiency in the Savings and Loan
Industry”. Journal of Banking and Finance, 17, 267-286.
13. Mester, L.J. (1996), “A Study of Bank Efficiency Taking
into Account Rois-Preferences”, Journal of Banking and
Finance, 20, 1025-1045.
14. Pi, L. y Timme, S.G. (1993), “Corporate Control and
Bank Efficiency”. Journal of Banking and Finance, 17,
515-530.
15. Kimberly, J.R. (1976), "Organizational size and the
structuralist perspective: A review, critique, and
proposal". Administrative Science Quarterly, 21, 571-
597.
16. Camisón, C., et al., (2003), “Marco conceptual de la
relación entre la innovación y el tamaño organizativo”.
Estrategias, Conocimientos e Innovación, 19, octubre-
noviembre 2003.
17. Coll, V. y Blasco, O.Mª. (2006), Evaluación de la
eficiencia mediante el Análisis Envolvente de Datos.
Una introducción a los modelos básico. Grupo de
investigación Eumed. Universidad de Málaga
(España). Disponible en:
http://www.eumed.net/libros/2006c/197/
18. Restzlaff-Roberts, D. L. y Morey, R.C. (1993), “A goal-
programming method of stochastic allocative data
envelopment analysis”. European Journal of Operational
Research, 71(3), 379-397.
19. Stolp, C. (1990), “Strengths and Weaknesses of Data
Envelopment Analysis. An Urban and Regional
Perspective Computers”. Environment and Urban
Systems, 14(2), 103-116.
20. Charnes, A.; et al., (1994), Data Envelopment Analysis:
Theory, Methodology and Applications. Kluwer
Academic Publishers. Boston.
21. Banker, R.D.; Gadh, V.M. y Gorr, W.L. (1993), “A Monte
Carlo Comparison of Two Production Frontier
Estimation Methods: Corrected Ordinary Least Squares
and Data Envelopment Analysis”. European Journal of
Operational Research, 67( 3), 332 -343.
22. Charnes, A., Cooper, W.W. y Rhodes, E. (1978),
“Measuring the Efficiency of Decision Making Units”.
European Journal of Operational Research, 2, 429-444.
23. Banker, R.D.; Charnes, A. y Cooper, W.W. (1984),
“Some Models for Estimating Technical and Scale
Ineffiencies in Data Envelopment Analysis”,
Management Science, 30(9), 1078-1092.
24. Coll, V. (2003). Eficiencia y Productividad de la
Industria Textil Europea desde la Perspectiva del
Análisis Envolvente de Datos. Tesis doctoral no
publicada. Facultad de Economía. Universidad de
Valencia. España.
25. Prior, D. (2002), Generación de tesorería, eficiencia y
competitividad en la empresa catalana: comparación
internacional. Documento de Economía Industrial, 16.
Centre d´Economia Industrial (CEI).
26. Chandra, P; et al., (1998), “Using DEA to Evaluate 29
Canadian Textile Companies –Considering Returns to
Scale”. International Journal of Production Economics,
54, 129-141.
27. Pastor, J.T. (2000), “Global Efficiency Measures in
DEA”. II Oviedo Workshop, Oviedo, Spain.
28. Zhu, J. (2002). Quantitative Models for Performance
Evaluation and Benchmarking: DEA with spreadsheets
and Excel Solver. Kluwer Academic Publishers.
Boston.
29. Avkiran, N.K. (1999), Productivity analysis in the services
sector with data envelopment analysis. Brisbane, Australia.
Coll, V., Blasco, O. Situación de la industria textil en España ante la liberalización del sector
210
30. Coelli, T. (1996), “A Guide to DEAP Version 2.1: A Data
Envelopment Analysis (Computer) Program”. Centre for
Efficiency and Productivity Analysis. University of New
England.
31. Damanpour, F. (1996), “Organizational complexity and
innovation: developing and testing multiple
contingency models”. Management Science, 42 (5),
693-716.
Volumen 13, Nº 52, septiembre 2009. pp 199-210
211Volumen 13, Nº 52, septiembre 2009. pp 211-222
LOS CONOCIMIENTOS PREVIOS Y SU IMPORTANCIAPARA LA COMPRENSIÓN DEL LENGUAJE
MATEMÁTICO EN LA EDUCACIÓN SUPERIOR.
Morales Urbina, Esther María
Resumen: Este estudio, enmarcado dentro de la metodología cualitativa, se situó en la perspectiva de la
investigación-acción colaborativa, en la que se unieron profesores y estudiantes en un proceso de
reconocimiento y comprensión de la dinámica que gira alrededor del proceso de enseñanza y aprendizaje
de Matemática I, en la Universidad Nacional Experimental Politécnica “Antonio José de Sucre”,
Vicerrectorado Puerto Ordaz. Los profesores colaboradores planificaron una serie de acciones en sus ámbitos
de actuación y de acuerdo a sus necesidades, entre ellas, se diseñó un plan estratégico de acción para mejorar
los conocimientos previos de los estudiantes que ingresan a la universidad. Se buscó interpretar las
implicaciones de esos cambios en su desarrollo y valorar las transformaciones. En este desarrollo, se
demostró que la consideración y/o evaluación de los conocimientos iniciales ayuda al docente a determinar
el grado de profundidad con que se debe tratar un nuevo tema, reforzarlo o incorporarlo si se considera
importante su dominio para comprender un nuevo conocimiento. Asimismo, el diseño de situaciones de
aprendizaje, considerando las estructuras anteriores que el estudiante dispone y su actitud hacia el proceso
de aprendizaje, le permite asimilar y acomodar nuevos significados del objeto de aprendizaje y nuevas
operaciones asociadas a él.
Palabras clave: Innovación educativa/ Evaluación del aprendizaje/ Aprendizaje de la matemática/
Investigación-acción colaborativa/ Enseñanza superior.
BACKGROUND KNOWLEDGE AND ITS IMPORTANCE INMATHEMATICAL LANGUAGE COMPREHENSION IN
HIGHER EDUCATION
Abstract: This work, wich is within the qualitative methodology frame, was developed in the collaborative
research-action perspective, in wich teachers and students were involved in a recognition and comprehension
of the dynamic surrounding a teaching-learning of Mathematics I (the first course in engineering disciplines),
at UNEXPO-VRPO. Collaborators teachers planned different actions in their respective acting field
according to their necessities. A strategic plan for improving the new student background was designed. It
was intended to interpret these changes implications and evaluate their results. In this context, it was shown
that the background evaluation helps the teacher to determine the proper depth level for treating a new topic,
by emphasizing it or including by incorporating new elements, if its domain is considered important for
comprehension of the new topic. In a similar way, it was shown that the learning situations design,
considering the previous structures known by the students and their attitude towards learning process, allows
to assimilating and accommodating new learning object meaning, and new operations associated to them.
keywords: Educational Innovation/ Learning Evaluation/ Mathematics Learning/ Investigation-action
collaborative/ University Education.
I. INTRODUCCIÓN
La matemática es una asignatura fundamental en la formación
de los ingenieros. En el caso del Vicerrectorado Puerto Ordaz,
está tipificada como una “asignatura crítica”. La
incorporación de los docentes de Matemática I como agentes
principales de cambio en la vida universitaria, altamente
comprometidos con la actividad pedagógica, a un proyecto
de esta naturaleza, condujo a elevar los niveles de conciencia
sobre la problemática que vive la universidad en esta área,
donde los principales afectados son los estudiantes que ellos
atienden.
Manuscrito finalizado en Ciudad Guayana, Venezuela, el 2009/02/10, recibido el 2009/03/25, en su forma final (aceptado) el 2009/06/22. La Dra. Esther
María Morales Urbina es Profesor de Matemática a dedicación exclusiva, Categoría Asociado en la Universidad Nacional Experimental Politécnica (UNEXPO)
Vicerrectorado Puerto Ordaz, teléfonos 0286-9226705, correo electrónico [email protected].
212
Por ende fue imperativo promover los cambios que este
contexto exigía. Y es, precisamente, el docente, uno de los
actores que, debía cambiar, pasando de ese papel transmisor
a uno de mediador activo y promotor de toma de decisiones y
autonomía en sus estudiantes, para facilitar en ellos el
aprender a aprender.
La propuesta de intervención se centró, en la construcción e
implementación de planes estratégicos de acción que
mejoraran los procesos de evaluación de los aprendizajes de
Matemática I, desde la organización de un seminario detrabajo colaborativo, donde los profesores desarrollen
experiencias novedosas para la producción de aprendizajes
significativos.
En razón de lo anterior, en este trabajo, se planteó, entre otras,
la siguiente interrogante: ¿Qué cambios son necesarios en el
sistema de evaluación de la asignatura Matemática I, para
mejorar los conocimientos previos de los estudiantes
universitarios?, por lo que en la presente exposición solo se
hará referencia a los resultados obtenidos con relación a esta
área de mejora.
II. DESARROLLO.
1. Antecedentes
Durante los últimos 20 años, las investigaciones en la
educación matemática han estado marcadas por el paradigma
constructivista. Las ideas claves de este paradigma provienen
o tienen sus raíces en las investigaciones de muchos autores,
entre los cuales se destacan: Piaget, Wallon, Vygotsky, Bruner,
Dewey, Gagné, Ausubel, Novak y Henesian, entre otros.
Todos ellos han coincidido en que aprender cualquier
contenido escolar supone, desde la concepción constructivista,
atribuir un sentido y construir los significados implicados en
dicho contenido, y que esta construcción no se lleva a cabo
partiendo de cero.
La concepción constructivista del aprendizaje se sustenta en
la idea de que la finalidad de la educación que se imparte en
la escuela es promover los procesos de crecimiento personal
del alumno en el marco de la cultura del grupo al que
pertenece. Bajo esta perspectiva, el aprendizaje ocurre sólo si
se satisfacen una serie de condiciones: que el alumno sea
capaz de relacionar de manera no arbitraria y sustancial la
nueva información con los conocimientos, experiencias
previas y familiares que posee en su estructura de
conocimientos, que tiene la disposición de aprender
significativamente y que los materiales o contenidos de
aprendizaje tienen significado potencial o lógico.
Al respecto, Miras (1999:47) señala: “el alumno construye
personalmente un significado (o lo reconstruye desde el punto
de vista social) sobre la base de los significados que ha podido
construir previamente. Justamente, gracias a esta base, es
posible continuar aprendiendo, continuar construyendo
nuevos significados”.
Por lo tanto, en el ámbito educativo, debe tenerse en cuenta
que, si los alumnos tienen procesos individuales y esquemas
de pensamiento previos, los docentes deben promover
ambientes de aprendizaje donde las actividades de
exploración, reto y descubrimiento para el alumno sean más
importantes que la enseñanza en sí. De esta manera, el
estudiante se convierte en el protagonista del aprendizaje y no
el docente. Desde esta postura, el docente requiere de una gran
capacidad para observar y explorar las reacciones que van
teniendo los alumnos en sus experiencias de aprendizaje para
no adulterar el proceso de construcción individual
(Labinowicz, 1986).
En relación con estas ideas, lo más importante es saber que
un alumno no es una hoja en blanco. Sus experiencias
formativas van con él. Lo que puede aprender está restringidopor sus concepciones iniciales: las situaciones que se le han
propuesto y las estrategias que se le han dado para actuar sobre
estas situaciones.
Por lo tanto, resulta apropiado tener en cuenta los
conocimientos iniciales de los estudiantes y establecer una
relación coherente entre lo que los alumnos saben y los nuevos
conocimientos. En caso contrario, se generarían dificultades
innecesarias y falta de confianza de los alumnos para afrontar
el nuevo conocimiento.
Sin embargo, no se trata de indagar exactamente todo lo que
un alumno sabe -cosa bastante inviable según Barberà
(1999a)-, sino de determinar los conocimientos iniciales de
los alumnos para un nuevo aprendizaje y evitar suposiciones.
Por ejemplo, en el caso de los estudiantes que ingresan a las
carreras de ingenierías, por ser bachilleres en ciencias o
egresados de carreras técnicas, pensar, sin haber aplicado los
instrumentos adecuados de evaluación inicial, que ya vienen
fortalecidos en los conocimientos matemáticos básicos; o que,
si se le presenta alguna dificultad al docente para evaluar o
saber los conocimientos iniciales de sus alumnos, que son muy
distintos y extraordinariamente variados de unos a otros,
concluir lo más fácil: “no saben nada”.
En el caso particular del aprendizaje de las Ciencias, juegan
un papel fundamental las ideas previas de los alumnos; por lo
que es necesario profundizar en sus estructuras cognitivas para
enriquecerlas y reorganizarlas. El punto de partida es la toma
de conciencia y la explicitación de las relaciones entre los
modelos interpretativos que les proporciona la Ciencia y sus
propias concepciones alternativas (Pozo y Gómez Crespo,
1998). Este aprendizaje involucra el desarrollo de diferentes
capacidades que se relacionan con los tres tipos de contenidos:
conceptuales, procedimentales y actitudinales. Por esta razón,
no se pueden aislar a la hora de planificar la enseñanza y de
Volumen 13, Nº 52, septiembre 2009. pp 211-222
213
averiguar acerca de los conocimientos y dificultades de los
alumnos en relación con una temática determinada. Es a partir
de cada contenido conceptual específico de una disciplina
científica que se pueden y se deben trabajar los diferentes
cambios procedimentales, actitudinales y conceptuales.
En este sentido, la concepción constructivista señala tres
elementos básicos (que se interrelacionan) que determinan lo
que se denomina el estado inicial de los alumnos (Miras, 1999:
48-50): “La disposición de los alumnos frente alaprendizaje…Las capacidades, instrumentos, estrategias yhabilidades de las que disponen los alumnos para llevar acabo el proceso…Los conocimientos previos”.
Es por ello, que los docentes tendrían una visión incompleta
de los procesos de aprendizaje, si no tuvieran en cuenta,
además, de las dificultades cognitivas particulares de sus
estudiantes, el contexto social y cultural en que se desarrollan
estos procesos. En efecto, como se ha podido apreciar
anteriormente, los alumnos también toman en cuenta el
sistema de enseñanza en el que se encuentran, sus normas y
costumbres, y las expectativas y conjeturas del profesor
respecto a ellos, concretadas en relaciones, formas de
evaluación, etc.
En este caso, la labor del docente consistiría en diseñar y
presentar situaciones de aprendizaje que, considerando las
estructuras anteriores que el estudiante dispone, le permitan
asimilar y acomodar nuevos significados del objeto de
aprendizaje y nuevas operaciones asociadas a él. Por supuesto,
esto sería imposible de lograr si el docente no considera la
disposición para aprender que poseen los estudiantes, y así
partir entonces de los conocimientos previos de los alumnos,
cuestionarlos para mejorarlos, modificarlos o construir
nuevos, para luego propiciar que estos significados se
compartan con el resto de alumnos, el profesor y los textos,
para que así el estudiante llegue a una construcción personal,
pero también social, del conocimiento.
2. Metodología
Este trabajo de intervención se ha enmarcado principalmente
dentro de la metodología cualitativa, bajo una perspectiva
interpretativa, asumiendo como fundamento el desarrollo de
un proceso de análisis participativo, en el que se han unido
docentes y estudiantes en un proceso de reconocimiento y
comprensión de la dinámica que gira alrededor del proceso de
enseñanza y aprendizaje de Matemática I. También se asumió
un enfoque cuantitativo, para el análisis de los resultados
iniciales que arrojaron las aplicaciones de las pruebas
diagnósticas de Matemática I (evaluación de los
conocimientos previos de los estudiantes).
Para ello se ha seleccionado la investigación-acción
colaborativa, considerada por Escudero (1989:194) como:
“una práctica de indagación en el aula que ha de inspirarse en
ciertos criterios generales de orientación en vez de un conjunto
de pasos y procedimientos a aplicar”.
El equipo de trabajo, se ha preocupado por estudiar los por
qué y los para qué de algunos elementos ligados a la práctica
educativa, con la finalidad de comprenderla, transformarla y
mejorarla, produciendo cambios significativos a diferentes
niveles (personales, institucionales, curriculares, etc.).
En la Figura 1, se presenta de forma esquematizada, las fases
o momentos que se han considerado, para llevar a cabo esta
investigación-acción colaborativa (tomada y adaptada de
Colás y Buendía, 1992:297).
Morales, E. Los Conocimientos previos y su importancia para la comprensión del lenguaje matemático
Figura 1. Fases de la investigación-acción colaborativa llevada a cabo
214
La investigación-acción colaborativa se ha desarrollado
siguiendo un modelo en espiral en ciclos sucesivos que
incluyen primeramente un diagnóstico o descripción de la
situación inicial, a partir de la cual, se da la planificación,
acción, observación y reflexión o evaluación, que organizan
el método o vía de obtención del conocimiento, que desde la
perspectiva metodológica cualitativa no es tan secuencial, sino
que describe avances y retrocesos para la comprensión del
objeto de estudio. Esto es, por ser una metodología flexible,
refleja la posibilidad de volver cuantas veces sea necesario
sobre los datos, reinterpretarlos y contrastarlos con nuevas
fuentes.
Es oportuno destacar que la reflexión y la planificación están
directamente vinculadas al discurso teórico del profesorado,
mientras que la observación y la acción son fases que se
vinculan directamente con la práctica del docente en el aula.
Además, ha de resaltarse nuevamente que estos cuatro
momentos entran en juego en torno a una “preocupación
temática”, una preocupación que debe ser compartida por
todo el equipo colaborativo, alrededor de la cual se somete
una idea o una propuesta a la prueba de la práctica en un
contexto educativo particular del aula, con la intención de
mejorar el proceso de enseñanza-aprendizaje. Para ello, los
profesores explican y aclaran sus perspectivas sobre los
acontecimientos del aula, destacando las áreas que hay que
cambiar o mejorar y que efectivamente deberán ser
diagnosticadas como tales, por el equipo docente. A partir de
aquí, los profesores elaboran sus propias soluciones respecto
a los problemas que se presentan, definiéndolos previamente
sobre la base de la autocomprensión del trabajo docente, es
decir, se pasa a la elaboración de planes estratégicos de
acción, que deben tener la suficiente flexibilidad para asumir
los imprevistos y adaptarse a ellos. Luego, se llevan a la
práctica recogiendo todos los datos posibles sobre sus efectos,
se realizan los análisis y las conclusiones, sirviendo de base
para iniciar un segundo ciclo en el que se reajusta el plan
inicial o se incorporan aspectos nuevos y se vuelve a poner
en práctica.
En general, el propósito principal de esta investigación ha sido
generar reflexiones sobre las prácticas educativas de la
Matemática I, con el objeto de mejorar la calidad de los
aprendizajes matemáticos. Para ello se plantearon una serie
de objetivos específicos entre los cuales sólo se destacan, en
esta presentación, los relacionados exclusivamente con el área
de mejora “nivelación de conocimientos previos”:
1. Determinar y diseñar de forma colaborativa un plan
estratégico de acción encaminado a la mejora de los
conocimientos previos de los estudiantes.
2. Implementar el plan estratégico de acción.
3. Valorar y reajustar la implementación de los cambios
definidos en el plan estratégico de acción desde la visión
de los docentes colaboradores y estudiantes.
Adicionalmente, se han planteado una serie de operaciones o
actividades para dar respuesta a cada uno de los objetivos y
las diferentes técnicas e instrumentos previstos y llevados a
cabo para recoger la información (Tabla I).
Tabla I. Detalles de las operaciones o actividades realizadas durante el desarrollo de la investigación
Volumen 13, Nº 52, septiembre 2009. pp 211-222
215
3. Los resultados y su discusión.
Siguiendo la metodología antes mencionada y en función de
las características de esta investigación, en este apartado se
presentan en paralelo los resultados obtenidos y su discusión,
ya que se trata de una investigación que según sus objetivos
específicos, luego de diseñar un plan estratégico de acción
(ver Tabla II), se implementa y se va observando y evaluando
simultáneamente, repitiendo nuevamente el ciclo para ir
ajustando los cambios. A partir de este momento, se da inicio
a este análisis con los resultados cuantitativos de la aplicación
de la prueba diagnóstica de Matemática I, aplicada a todos los
estudiantes inscritos en los cursos de matemática de los
profesores colaboradores.
Tabla II. Plan estratégico de acción
Morales, E. Los Conocimientos previos y su importancia para la comprensión del lenguaje matemático
216
Figura 2. Porcentaje de estudiantes que respondieron Sí o No a la pregunta¿Te gusta la matamática? (semestre 2004-II)
Figura 3. Porcentaje de estudiantes que respondieron Sí o No a la pregunta¿Te gusta la matamática? (semestre 2005-I)
Volumen 13, Nº 52, septiembre 2009. pp 211-222
En las Figuras 4 y 5, se exponen los resultados promedios
(en %), del total de estudiantes que respondió “Sí” o “No”
a la pregunta: ¿Te gusta la matemática? En ambos gráficos,
se puede observar que en los semestres 2004-II y 2005-I,
el 90 % y el 87,33 % (respectivamente) un alto porcentaje
de todos los estudiantes encuestados declaró tácitamente
que sí le gustaba la matemática, lo que hizo suponer que
la mayoría de los estudiantes encuestados manifestaron
una alta aceptación y agrado por el estudio de la
matemática.
217
Por otra parte, se pudo constatar, en algunas apreciaciones
posteriores, realizadas en forma escrita por algunos
estudiantes (informantes claves), que mantenían una visión
positiva con relación a su aceptación y agrado por el
aprendizaje de la matemática: “En lo personal, la cátedra amí me gusta mucho, el ser una ciencia exacta, para mísignifica mucho y llama la atención, y en nuestro mundo todose mueve gracias a las matemáticas” (Fragmentos tomados
del instrumento carta a un amigo).
Otro aspecto que vale la pena resaltar es que, en ambos
registros, el porcentaje más bajo de aceptación (en ambos
períodos) se corroboró en la sección M9 de Matemática I, que
estaba constituida exclusivamente por alumnos repitientes. Esto
hizo suponer que la experiencia negativa, de la no aprobación
de la asignatura, pudo estar relacionada con la aceptación y
agrado de los estudiantes por el aprendizaje de la matemática.
Aspecto que se evidenció en los discursos posteriores de los
estudiantes repitientes (informantes claves): “En general, creoque estoy en un curso, donde a pesar de que somos repitientes,nos están tomando más en cuenta, ya que ésta es la tercera vez
que la estoy viendo y por primera vez, veo que alguien nos tomaen cuenta, hasta para opinar sobre la evaluación o para hacerun cambio de fecha de examen. Esto es muy positivo, por lomenos, a mí me ha motivado mucho ese cambio, inclusivepuedo decir que antes no me gustaba para nada esta materia,ahora veo que todo gira alrededor de ella” (Fragmentos
tomados del instrumento carta a un amigo).
Por otra parte, en este diagnóstico inicial, también se realizó
un análisis comparativo (en %) de los promedios generales de
calificaciones obtenidas por los alumnos en los estudios de
matemática de bachillerato con las calificaciones obtenidas en
la prueba diagnóstica de Matemática I. Con el fin de tener una
visión general de este hecho y por lo extenso de la
información recolectada, se elaboró un gráfico resumen que
recogió los resultados generales (ver Figura 6), donde se
comparan los porcentajes de estudiantes que obtuvieron un
promedio de calificaciones de matemática de bachillerato
entre 15 y 18 puntos, con los porcentajes de estudiantes que
obtuvieron en la prueba diagnóstica calificaciones inferiores
o iguales a los nueve puntos (entre 00-09 puntos).
Figura 4. Porcentaje de estudiantes que respondieron Sí o No a la pregunta¿Te gusta la matamática? (semestre 2005-I)
Morales, E. Los Conocimientos previos y su importancia para la comprensión del lenguaje matemático
218
El análisis de estos resultados permitió establecer que el 72
% del total de los estudiantes que ingresaron a la UNEXPO
en el semestre 2004-II tenían un promedio de calificaciones
en matemática que oscilaba entre 15 y 18 puntos, mientras el
77 % del total de estos estudiantes salió aplazado en la prueba
diagnóstica (entre 00 y 09 puntos), lo que se reflejó en forma
análogo, como se verá más adelante en los siguientes
semestres académicos, lo que representa una baja correlación
con los promedios de calificaciones obtenidos en matemática
de bachillerato.
Algunas explicaciones posibles a las situaciones de este bajo
rendimiento son las siguientes:
1. El nivel de exigencia de la prueba diagnóstica puede ser
mayor al que están acostumbrados los estudiantes.
2. El tiempo de ejecución de la prueba diagnóstica es muy
corto para el ritmo de trabajo que se acostumbra en
bachillerato.
3. Una parte de la prueba exigió habilidades para leer
información en variadas modalidades de presentación
(lenguaje escrito en palabras, simbólico, gráfico,
esquemático, algorítmico, etc.), para interpretar, relacionar
y hacer inferencias; habilidades que se adquieren bajo
esquemas de enseñanza basados en estrategias de
procesamiento de información, al parecer ausentes en la
educación media.
4. Los conocimientos previos de matemática que traen los
estudiantes de su educación media no son satisfactorios
para responder a las demandas académicas de la asignatura
Matemática I.
Ante estos resultados (numéricamente alarmantes), el equipo
de investigación realizó de forma compartida un análisis más
descriptivo de los errores generales más comunes reflejados
por los estudiantes en las diferentes respuestas a las pruebas
diagnósticas. El análisis de estos resultados permitió
establecer que la mayoría de los estudiantes identificaron
claramente, en la mayor parte de los problemas planteados, lo
que se pretendía alcanzar para encontrar las soluciones. Este
hecho se corroboró al observar los intentos de solución y el
abordaje que hicieron los estudiantes a los problemas. Con
excepción del problema de planteamiento lingüístico, cuyo
principal obstáculo de solución fue su representación inicial
(ausencia de representación y analogía), siendo ésta la
pregunta menos tratada.
En general, el conocimiento conceptual demostrado por los
estudiantes en la prueba diagnóstica fue confuso
(conocimientos básicos de números reales) y el conocimiento
de procedimientos matemáticos, ausentes de procesos
descriptivos y explicativos. Así mismo, se constató que no
mostraron dominio de estrategias para resolver problemas y
su nivel de conformidad con las explicaciones se quedó en la
repetición de las mismas afirmaciones que se solicitó
justificar.
Posteriormente a estos hechos se implementaron diferentes
estrategias para favorecer dichos conocimientos básicos, las
cuales fueron señaladas en el Plan estratégico de acción de la
Tabla II, por lo que con el propósito de saber qué opinión
tenían los estudiantes sobre estas valoraciones y apreciaciones
iniciales, y de conocer cómo percibieron las mejoras
introducidas en el proceso de enseñanza y aprendizaje de
Matemática I, se aplicó a ciertos informantes claves las
técnicas: carta a un amigo y las entrevista semi-estructurada
grupal. A partir de los resultados analizados, se construyeron
las expresiones gramaticales (constructos) representativas de
los diferentes discursos de los estudiantes, lo que permitió
establecer las siguientes conclusiones:
Existe insuficiente articulación entre los contenidos previos
a la universidad y los que se imparten en la actualidad o en la
enseñanza precedente. No se logró un aprendizaje profundo
que permita la continuidad en la complejidad de los
contenidos. A las preguntas: ¿cómo les va en la universidad?,
¿cómo les va con las asignaturas y los compañeros de clase?,
algunos estudiantes señalaron: “Al momento de llegar a launiversidad me di cuenta que implicaba un sistema muchomás complejo y exigente de lo que pensaba. La base que trajeno fue muy buena, y realmente me ha costado muchoadaptarme, aunque por fin me estoy adaptando” (Fragmento
tomado del instrumento carta a un amigo).
A través de los fragmentos, se pudo interpretar que la mayoría
de los estudiantes consideraron que su preparación previa en
los contenidos de la asignatura matemática no era satisfactoria
para responder a las exigencias de la complejidad de los
contenidos de Matemática I; no están preparados ante el nuevo
aprendizaje: “El problema más grande que he enfrentado esla base, por ello creo que no me fue muy bien en las primerasevaluaciones” (Fragmento tomado del instrumento carta a un
amigo).
De esta manera se observó cómo aquellos estudiantes que
autovaloraron su aprendizaje como deficiente reconocieron, al
principio de la experiencia, la existencia de algunas barreras
que les impedía un buen desempeño en la matemática y
adjudicaron algunos fracasos (el no salir bien en las
evaluaciones) a razones intrínsecas (conocimientos previos) o
extrínsecas (la enseñanza precedente, la complejidad de los
temas de matemática, el tiempo sin estudiar, etc.): “…hay cosasque no había visto en el liceo”, “He encontrado muchasdificultades en muchos temas, pero esto se debe a que en el liceodonde cursé bachillerato me daban la materia de una maneramuy superficial comparada con la matemática que veo ahora…(Fragmentos tomados del instrumento carta a un amigo).
Por otra parte, se encontraron opiniones de estudiantes que
Volumen 13, Nº 52, septiembre 2009. pp 211-222
219
reconocieron que, a pesar que las exigencias del nuevo sistema
son superiores a las del nivel de educación media, lograron
superar dichas exigencias y se autovaloran con un buen
aprendizaje: “Al principio, cuesta un poco adaptarse, sobretodo cuando no se viene bien preparado; pero, con el tiempo,se aprende sobre las nuevas formas de estudiar, porque no esigual como se estudiaba en el colegio” (Fragmento tomado
del instrumento carta a un amigo).
Al contrastar estas evidencias con los discursos colectivos,
encontrados en las entrevistas grupales, se encontraron unos
discursos compartidos que no se alejaban de esta realidad y
que ratificaban los aspectos aquí tratados: “Yo quería decirque, al principio, yo sentí un choque muy grande, me refieroentre lo que vimos en bachillerato y lo nuevo de launiversidad…” (Fragmento tomado de la entrevista semi-
estructurada grupal).
De modo que, los estudiantes incorporaron una nueva variable
dentro de sus apreciaciones que, según ellos, los había
afectado en su desempeño, como: los paros estudiantiles o
interrupciones de clase en la universidad, destacando
nuevamente, a través de los discursos compartidos, que la no
aprobación de la asignatura estaba ligada directamente al
hecho de no superar el aprendizaje de los conocimientos
matemáticos básicos de números reales.
Por otra parte, se localizaron discursos de otros estudiantes
que se autovaloraron con un buen aprendizaje en la asignatura
Matemática I, y que reconocieron y valoraron positivamente
las acciones que pusieron en práctica sus profesores para
favorecer la nivelación de los conocimientos previos: uso de
la heurística V de Gowin y del material didáctico de números
reales, el uso del interrogatorio como estrategia de valoración
de conocimientos previos, continuidad entre los objetivos y
reforzamiento en cada clase de lo tratado en la anterior.
Evidencia de ello son los siguientes fragmentos tomados de
la entrevista semi-estructurada grupal: “Es cierto, profesora,el dominio de la base era importante y creo que eso más bienme ayudó a mí, ya que los trabajos que hicimos en clase conel material de números reales y esa bendita V de Gowin nosayudó mucho”, “…comparto la idea de que la nivelación fuemuy positiva, además que eso no se dio solo al principio sinoen cada clase, me refiero a que la profesora retomaba en cadaclase lo previo”, “Es cierto, eso permitió ver la continuidadde un objetivo con otro, la relación de un contenido con otro”(Fragmentos tomados de la entrevista semi-estructurada
grupal).
Así mismo, otros estudiantes señalaron que el tiempo que se
dedicó para nivelar los conocimientos previos de números
reales no había sido suficiente. Sin embargo, hay quienes
apuntan que el haberle dedicado mucho más tiempo a la
nivelación hubiese perjudicado el tiempo de tratamiento y
desarrollo de los otros temas del programa de Matemática I.
Es oportuno destacar, que para el segundo ciclo de acción, se
tomaron en consideración algunos de los resultados obtenidos
de la aplicación de la primera prueba diagnóstica (semestre
2004-II), por lo que, se realizaron algunos cambios en la
reestructuración y conformación de la segunda prueba
diagnóstica a aplicar en este segundo ciclo. Se realizaron
algunas variaciones, a nivel de redacción de algunas preguntas,
no de estructura (preguntas de desarrollo) o habilidades
cognoscitivas (aplicación, inferencia, análisis, argumentación,
etc.), sino de contenidos, por ejemplo, se cambió el problema
lingüístico (pregunta menos respondida) por otra que se
consideró de más fácil representación (ya que fue el obstáculo
más importante para su correcta solución). En las otras
preguntas, aunque fueron cambiados los problemas se
mantuvieron las mismas exigencias cognoscitivas, pero, se
disminuyó el número de acciones, con la intención de
minimizar algunas suposiciones que se habían planteado con
relación al tiempo de ejecución y el grado de complejidad.
El análisis de estos nuevos resultados, permitió establecer
que el 75 % del total de los estudiantes que ingresaron a la
UNEXPO en el semestre 2005-I poseía un promedio de
calificaciones en matemática que oscila entre 15 y 18
puntos, mientras que el 63 % del total de estos estudiantes
salió aplazado en la prueba diagnóstica (entre 00 y 09
puntos), lo que sigue representando una baja correlación
con los promedios de calificaciones obtenidos en
matemática de bachillerato. Aún así, vale destacar que el
porcentaje de estudiantes aplazados en la prueba
diagnóstica de semestre 2005-I (63,43 %) es inferior al
porcentaje de estudiantes aplazados en la prueba
diagnóstica del semestre 2004-II (77 %).
En consecuencia, se pudo constatar nuevamente, que a pesar
que se realizaron cambios a la prueba diagnóstica (con
respecto a su estructuración y conformación), los resultados
fueron análogos a los obtenidos en su primera aplicación
(semestre 2004-II), por lo que, se mantuvieron algunas las
explicaciones que se plantearon para dar respuesta a las
situación de bajo rendimiento en dicha prueba.
Por otra parte, se consideraron otras explicaciones posibles a
la situación del cambio en el porcentaje del número de
aplazados: de 77% a 63,43% en los semestres 2004-II y
semestre 2005-I, respectivamente):
1. El grado de complejidad de las preguntas (cambio de
prueba).
2. La información previa que recibieron los estudiantes a
través de la implementación de curso de inducción:
contenidos a evaluar, estructura de la prueba, etc.
3. El tiempo de duración de la prueba (se cambió el tiempo;
de 45 min. a 60 min.).
Morales, E. Los Conocimientos previos y su importancia para la comprensión del lenguaje matemático
220
Estos análisis que se realizaron a los diferentes resultados de
la aplicación de las pruebas diagnósticas (semestres 2004-II
y 2005-I) ratifican las ideas que se tiene acerca de la ausencia
de aprendizaje comprensivo (aprendizaje significativo) en los
estudios de bachillerato y del énfasis que en ese nivel se pone
en una enseñanza basada casi exclusivamente en procesos de
automatización y aprendizajes memorísticos.
Nuevamente con el propósito de saber qué opinión tenían los
estudiantes sobre cómo percibieron las mejoras introducidas,
se aplicó a ciertos informantes claves otra entrevista semi-
estructurada grupal. El análisis de estos resultados,
constataron los hallazgos obtenidos en la primera aplicación,
destacando además, que al poseer información de los
conocimientos previos antes de un nuevo aprendizaje les había
servido a los alumnos para comprometerse más con su proceso
de aprendizaje. Por otra parte, manifestaron nuevamente que
la implementación de la estrategia heurística V de Gowin,
como método principal para resolver problemas, fue una
estrategia muy adecuada para facilitar el reforzamiento de los
conocimientos previos y, en consecuencia, su nivelación: “…cuando la profesora revisaba la solución de los problemas, através de la V, se podía dar cuenta directamente dóndeestábamos fallando y nos podía reforzar más fácilmente. Porotra parte, si estábamos trabajando en grupo y estábamosdiscutiendo sobre la solución de un problema a través de laV, el resto de los compañeros que tenían mayor dominiocolaboraba con nuestro aprendizaje, ya que se veía obligadoa revisar y corregir nuestros errores, para poder entregar unbuen resultado”.
Los estudiantes, consideraron que el análisis individual y/o
compartido de los errores cometidos en las evaluaciones
favoreció el reforzamiento de los conocimientos previos y, en
consecuencia, su nivelación. Reconocieron a su vez que, en
la medida que se fueron involucrando en el proceso de
evaluación compartida, en esa medida aprendieron más,
fueron más concientes de lo que estaban haciendo y de cómo
se estaban comunicando: “También nos pedía quevaloráramos nuevamente el examen, luego de haberlopresentado, para analizar los errores cometidos; y, casisiempre, lo resolvía en el pizarrón para terminar de reforzarsobre las fallas cometidas”.
También se encontraron discursos compartidos, generados
exclusivamente por alumnos que estaban repitiendo la
asignatura de Matemática I, quienes manifestaron: “Yo, en unaparte, agradezco que me haya quedado, me sentí más capazde asumir los retos, y creo que con esta experiencia uno comoque tiene la certeza de que no vuelve a pasar por lo mismo”.
Los estudiantes estaban convencidos de que la experiencia
previa que se adquiere, cursando por primera vez la
asignatura, los ayuda a enfrentar los nuevos retos académicos.
Pensamos que esta posición es significativa, ya que estas
opiniones son el producto de comportamientos que no
favorecieron la adquisición de conocimientos previos a la
universidad, ni en su momento de haber cursado la materia
por primera vez, y que corrobora lo importante de lograr una
madurez cognoscitiva para poder enfrentar los nuevos retos
académicos.
De la misma manera, señalaron que la no aprobación de la
asignatura está ligada al hecho de no superar el aprendizaje
de los conocimientos previos. Una muestra de ello fueron las
respuestas proporcionadas por los estudiantes a la pregunta:
¿Ustedes lograron nivelar los conocimientos previos?: “Claro,es la única forma de avanzar en la materia”, “Es verdad.Creo que, de mi parte, sí. Si no fuera así, no hubiese aprobadomatemática, ya que es difícil avanzar en esta materia sin losconocimientos previos”.
En líneas generales, se ha corroborado en los diferentes
discursos que los estudiantes pueden percibir que los
resultados que obtienen en el proceso de enseñanza y
aprendizaje son atribuibles a características in¬ternas:
responsabilidad, capacidad o esfuerzo, etc: o a causas
externas: dificultad en la tarea, características del entorno,
estrategias de enseñanza y aprendizaje, etc.
Los comentarios anteriores son argumentos para justificar el
papel central que juegan los esquemas de conocimientos
previos de los alumnos en la adquisición de conocimientos y,
en consecuencia en los procesos de enseñanza y aprendizaje,
cuya organización debe estar estructurada en función de ello.
Por lo tanto, el diseño de situaciones de aprendizaje,
considerando las estructuras anteriores de que el estudiante
dispone, representa para ellos la oportunidad de reconocer sus
potencialidades y debilidades básicas ante el nuevo hecho
educativo: asimilar y acomodar nuevos significados; de igual
modo, la oportunidad de valorar positivamente las acciones
implementadas por sus profesores para favorecer dicho
aprendizaje.
Este análisis abre camino a la necesidad de considerar en el
currículum la formación de la imagen propia. En una cultura
tan variada como la de hoy, hay que encontrar la manera de
diferenciar la instrucción de acuerdo a las características y
diferencias de los alumnos para hacer más manejable el
problema de llegar a todos los estudiantes y a la vez hacer
más realizables los objetivos.
III. CONCLUSIONES
1. El análisis de los resultados de la aplicación de la prueba
diagnóstica de Matemática I, permitió establecer que el
72 % y el 75% del total de los estudiantes que ingresaron
a la UNEXPO en los semestres 2004-II y 2005-I
(respectivamente) tenían un promedio de calificaciones
en matemática que oscilaba entre 15 y 18 puntos,
mientras el 77 % y 63% (respectivamente) del total de
Volumen 13, Nº 52, septiembre 2009. pp 211-222
221
estos estudiantes salió aplazado en la prueba diagnóstica
(entre 00 y 09 puntos), lo que representa una baja
correlación con los promedios de calificaciones
obtenidos en matemática de bachillerato. Vale destacar
que el porcentaje de estudiantes aplazados en la prueba
diagnóstica de semestre 2005-I (63,43 %) es inferior al
porcentaje de estudiantes aplazados en la prueba
diagnóstica del semestre 2004-II (77 %).
2. Otro análisis más profundo a ambas pruebas, permitió
establecer que el conocimiento conceptual demostrado
por los estudiantes en dicha prueba fue confuso
(conocimientos básicos de números reales) y el
conocimiento de procedimientos matemáticos, ausentes
de procesos descriptivos y explicativos.
3. De igual modo, se constató que los estudiantes no
mostraron dominio de estrategias para resolver
problemas y su nivel de conformidad con las
explicaciones se quedó en la repetición de las mismas
afirmaciones que se solicitó justificar.
4. En conclusión, los estudiantes mostraron una falta de
dominio en los prerrequisitos básicos de números reales,
ausencia de desarrollo de habilidades de procesamiento
y de comunicación de información; conocimientos
indispensables para la comprensión y el estudio de los
temas del Álgebra y el Cálculo.
5. Desde la perspectiva de análisis de los estudiantes y
profesores, se reconoce que existe insuficiente
articulación entre los contenidos previos a la universidad
y los que se imparten en la actualidad en los cursos de
Matemática I. Esto impide que se logre un aprendizaje
profundo que permita la continuidad en la complejidad
de los contenidos. Igualmente, se observan opiniones de
estudiantes que autovaloraron su aprendizaje como
deficiente y reconocieron la existencia de algunas
barreras que les impidió un buen desempeño en la
matemática y adjudicaron algunos fracasos (el no salir
bien en las evaluaciones) a razones intrínsecas
(conocimientos previos) o extrínsecas (la enseñanza
precedente, la complejidad de los temas de matemática,
el tiempo sin estudiar, etc.).
7. En general, tanto estudiantes como profesores
reconocieron que existe un cambio radical entre el
sistema de estudios del bachillerato y el sistema
universitario, lo que afecta significativamente la
adaptación y el desempeño estudiantil en la asignatura
Matemática I.
8. Los estudiantes destacaron que fue muy positivo que sus
profesores hubiesen considerado y evaluado los
conocimientos iniciales antes del comienzo de un nuevo
tema (ya sea a través de la prueba diagnóstica y/o con
preguntas verbales), aseverando que dicha información
es de significativa importancia para que sus profesores
determinen el grado de profundidad con que debe
tratarse un nuevo tema, reforzarlo o incorporarlo si se
considera importante para comprender un nuevo
conocimiento. Por otra parte, destacaron que dicha
información les sirvió para reconocer sus
potencialidades y debilidades básicas ante el nuevo
hecho educativo, así como también para comprometerse
más con su proceso de aprendizaje.
10. Los estudiantes repitientes, por su parte, afirman que la
no aprobación de la asignatura matemática está más
ligada al hecho de no superar el aprendizaje de los
conocimientos previos.
11. Asímismo, señalaron que la experiencia previa que se
adquiere, cuando cursan por primera vez la asignatura,
los ayuda a enfrentar los nuevos retos académicos. Se
piensa que esta posición es significativa, ya que estas
opiniones son el producto de comportamientos que no
favorecieron la adquisición de conocimientos previos a
la universidad, ni en su momento de haber cursado la
materia por primera vez, y corrobora lo importante de
lograr una madurez cognoscitiva para poder enfrentar los
nuevos retos académicos.
12. En síntesis, los estudiantes valoraron positivamente las
diferentes acciones que pusieron en práctica sus
profesores para favorecer la nivelación de los
conocimientos previos: uso de la heurística V de Gowin
y del material didáctico de números reales, el uso del
interrogatorio como estrategia de valoración de
conocimientos previos, continuidad entre los objetivos y
reforzamiento en cada clase de lo tratado en la anterior.
En otras palabras, los estudiantes, consideraron que se
favoreció el reforzamiento de la nivelación de los
conocimientos previos y, en consecuencia, su nivelación.
Reconocieron a su vez que, en la medida que se fueron
involucrando en el proceso de evaluación compartida, en
esa medida aprendieron más, fueron más concientes de
lo que estaban haciendo y de cómo se estaban
comunicando.
IV. REFERENCIAS.
1) Miras, M. Un punto de partida para el aprendizaje de
nuevos contenidos: Los conocimientos previos. En C.
Coll, E. Martín, T. Mauri, M. Miras, J. Onrubia, I. Solé, y
A. Zabala: El constructivismo en el aula. Barcelona,
Graó.1999, pp. 47-63.
2) Labinowicz, Ed. (1986). Introducción a Piaget.
Pensamiento, aprendizaje, enseñanza. EEUU, Ed. Addison
Wesey Iberoamericana.
Morales, E. Los Conocimientos previos y su importancia para la comprensión del lenguaje matemático
222
Volumen 13, Nº 52, septiembre 2009. pp 211-222
3) Barberà, E. Evaluación de la enseñanza, evaluación del
aprendizaje. Barcelona, editorial. EDEBÉ, 1999,
p. 239.
4) Pozo, J. I. y Gómez Crespo, M. A. (1998). Aprender y
enseñar ciencia. Madrid: Morata.
5) Escudero, J. M. El centro como lugar de cambio educativo:
la perspectiva de colaboración. Actas. I CIOE. Barcelona.
Nº 1, 1989, 189-221.
6) Colás, M. P. y Buendía, L. Investigación educativa.
Sevilla, Alfar, 1992, p. 362.
Volumen 13, Nº 52, septiembre 2009. pp 223-230 223
DEMANDA BIOMECÁNICA EN EL ENSAMBLAJE DE UN VEHÍCULO COMPACTO
Rodríguez, Eliana del Valle Vargas, Eduardo E. Aravena, Emilio Cachutt, Crisdalith.
Resumen: Con el objeto de valorar la demanda biomecánica del ensamblaje de un vehículo compacto, se
realiza un estudio de corte transversal que utiliza las metodologías Suzanne Rodgers y REBA para identificar
situaciones críticas y paralelamente, establecer cuál de estas herramientas resulta más apropiada para la
realidad de la empresa. La evaluación multitarea de la carga física se emplea para estimar el nivel de riesgo
ponderado del conjunto de actividades que ejecutan los trabajadores. Los resultados muestran que la mayoría
de las operaciones tienen un moderado nivel de riesgo a lesiones del sistema osteomuscular. Hay evidencia
estadística para afirmar con una significancia del 1%, que existe diferencia significativa entre Rodgers y
REBA y se concluye que éste último debe utilizarse para la evaluación biomecánica por ser sensible a los
factores de riesgo presentes en la ejecución de las tareas. Finalmente se plantean recomendaciones técnicas
y administrativas a las disconformidades detectadas.
Palabras Clave: Biomecánica/ Metodología Suzanne Rodgers/ Método REBA/ Riesgo músculo esquelético.
BIOMECHANICAL DEMAND ON COMPACT VEHICLE ASSEMBLY
Abstract: To assess the biomechanical demand on compact vehicle assemblies, a transversal study was
carried out using Suzanne Rodgers and REBA methodologies to identify critical situations while establishing
which of these tools is more appropriate for the company’s needs. Multibody assessment of physical load is
employed for estimating weighed risk levels on the set of tasks performed by workers. Results show that
most tasks pose moderate risk levels in causing lesions on the osteomuscular system. Statistically significant
existing evidence of 1% confirms there is a significantly difference between Rodgers and REBA, and thus
it can be concluded that the latter should be implemented for assessing biomechanics since it is sensitive to
risk factors in task execution. Finally, technical and administrative recommendations are proposed for the
detected disagreements.
Keywords: Biomechanics/ Suzanne Rodgers Methodology/ REBA Method/ Muscle-skeletal isk
Manuscrito finalizado en Valencia, Venezuela, el 2008/08/21, recibido el 2008/09/23, en su forma final (aceptado) el 2008/12/01. La MSc. Eliana del Valle
Rodríguez Márquez es Docente Ordinario a Dedicación Exclusiva en la Escuela de Ingeniería Industrial, Facultad de Ingeniería, Universidad de Carabobo,
telefax oficina 0241-8672843, correo electrónico [email protected]. El MSc. Crisdalith Cachutt Alvarado es Docente Ordinario a Tiempo
Completo en la misma Escuela, mismo telefax, correo electrónico [email protected]. El Ing. Eduardo Enrique Vargas Cano es igualmente Docente
Ordinario a Tiempo Completo, en el Dpto. de Estudios Básicos, Facultad de Ingeniería, Universidad de Carabobo, mismo telefax, correo electrónico
[email protected]. El Ing. Emilio Aravena Salas es Investigador Novel en la Unidad de Estudios Ergonómicos de la misma Universidad, mismo
telefax, correo electrónico [email protected]
I. INTRODUCCIÓN
Investigaciones científicas han encontrado que la mayoría de
los desórdenes del sistema osteomuscular tienen etiología
multifactorial [1], así pues se han detectado relaciones con
factores de riesgo físico [2, 3, 4, 5, 6, 7, 8], fisiológicos [9] y
psicosociales [10, 11, 12, 13] con este tipo de patologías. Sin
embargo, siguen siendo los problemas asociados a la carga
postural, repetitividad y grandes esfuerzos musculares los de
mayor aporte en la etiología de dichos desórdenes. Rodríguez
y Cols. [14] en una investigación realizada en el sector
automotriz, mostraron que la biomecánica se sitúa en un
renglón preponderante en la magnitud del nivel de riesgo
cuando se usa un instrumento de carácter integral para evaluar
un puesto de trabajo, seguido de los aspectos fisiológicos,
esfuerzo percibido y factores psicosociales.
En este sentido parece insoslayable que el primer paso para la
erradicación paulatina de las lesiones músculo esqueléticas
(LME) asociadas al trabajo, sea la estimación de la demanda
biomecánica que las tareas suponen. Es importante destacar
que ningún método específico podrá dar solución a todo, pero
la escogencia de aquel con mayor sensibilidad a las
situaciones particulares que se presentan en la actividad en
Volumen 13, Nº 52, septiembre 2009. pp 223-230
224
estudio, podrá sin lugar a dudas colaborar con la adecuación
ergonómica del puesto de trabajo [15].
La evaluación de la demanda biomecánica de las actividades
(así como de todos los factores de riesgo presentes en los
puestos de trabajo), además de ser una obligación del
empleador en el marco legal venezolano, provee para las
empresas una oportunidad para fijar un orden de prioridades
de atención, pues de esta manera se pueden ofrecer soluciones
de manera más expedita a aquellos casos en situaciones
críticas, aun cuando éstos no tengan ya manifestaciones claras
de problemas osteomusculares e inclusive, se puede combinar
esta información con la proporcionada por el servicio médico
para programar las intervenciones.
El propósito de este estudio es evaluar la demanda
biomecánica de las tareas de ensamblaje de un vehículo
compacto de una ensambladora ubicada en Valencia, Estado
Carabobo, utilizando para ello el método Suzanne Rodgers
[16] y la metodología REBA [17], para de esta forma poder
identificar operaciones que requieren modificaciones urgentes
para disminuir su impacto negativo en la salud de los
trabajadores y además, establecer cuál de los métodos parece
más apropiado para la realidad de la empresa. Asímismo, dado
que los trabajadores ejecutan una variedad de subtareas
durante el tiempo de ciclo de la operación y que cada una
impone un nivel de riesgo a LME distinto, se utiliza la
evaluación multitarea de la carga física [18] para estimar el
nivel de riesgo ponderado de este conjunto. Finalmente se
plantean soluciones técnicas y administrativas que
necesariamente deben combinarse con estudios sistémicos
para aquellos casos críticos y que deben ser ampliamente
discutidas con los participantes del proceso de producción
para garantizar su éxito.
II. DESARROLLO
1. Materiales y métodos
El estudio se corresponde con una investigación de tipo
descriptivo, de corte transversal, de carácter exploratorio en
la cual se evaluaron las estaciones de trabajo pertenecientes a
una línea de ensamblaje de un vehículo compacto en una
empresa ubicada en Valencia, Estado Carabobo, Venezuela.
La población estuvo conformada por la totalidad de los
trabajadores de la línea de producción (246 operarios)
quienes voluntariamente aceptaron participar en el estudio de
acuerdo a la Declaración de Helsinski de 1983. La demanda
biomecánica de las actividades fue evaluada con los métodos
Suzanne Rodgers y Rapid Entire Body Assessment (REBA)
con apoyo en la técnica de la filmación en tiempo real. En
este sentido se filmaron 1513 elementos de trabajo
(operaciones) teniendo en consideración los siguientes
aspectos [19]:
• Se mantuvo la imagen del trabajador dentro del campo
visual durante toda la filmación y ésta se mantuvo estable
para observar la integridad de los movimientos efectuados
por el sujeto.
• La duración de la filmación estuvo directamente
relacionada con la duración de un ciclo de trabajo o más.
Posteriormente, la filmografía fue analizada de la siguiente
forma:
• Se dividió el tiempo de ciclo en elementos racionales de
corta duración en los cuales los operarios realizan
actividades específicas. Posteriormente, el tiempo de
duración de este elemento se subdividió en 10 o más partes
iguales (dependiendo de su duración) y este valor
determinó la cantidad de segundos entre una observación
y otra.
• Cada imagen observada fue analizada a través de los
métodos Rodgers y REBA.
Posteriormente se realizó una evaluación multitarea de la
carga física basada en la obtención de los valores medios
ponderados de los tiempos de exposición a cada elemento de
trabajo y el método ergonómico REBA.
Los datos arrojados por los métodos REBA y Rodgers fueron
analizados estadísticamente, para verificar si existen
diferencias significativas entre los resultados arrojados por los
dos instrumentos distintos.
Por último, para corregir los problemas detectados, se hacen
recomendaciones técnicas y administrativas que se clasifican
en cinco categorías:
• Equipo: diseñar nuevos dispositivos o mejora de los
existentes, que faciliten la ejecución actual de las
actividades, disminuyendo los riesgos disergonómicos.
• Método: cambiar de secuencia de actividades y/o
eliminación actividades innecesarias, con el propósito de
eliminar reprocesos y posturas disergonómicas.
• Postura: educar al operario en las posturas más adecuadas
para realizar las actividades inherentes al trabajo.
• Condiciones antropométricas: adaptar las condiciones del
puesto de trabajo a las características antropométricas del
trabajador, con el fin de disminuir el compromiso postural
.
• Rediseño: rediseñar el puesto de trabajo, integrando
mejoras de equipo, método, postura y condiciones
antropométricas simultáneamente
Rodríguez, E. et al. Demanda biomecánica en el ensamblaje de un vehículo compacto
225
2. Métodos de evaluación de la demanda biomecánica
Método Suzanne Rodgers:
Este es un método de análisis ergonómico que estudia tres
factores importantes: el nivel de esfuerzo, su duración antes
de la relajación (o antes de pasar a un nivel de menor esfuerzo)
y la frecuencia de la activación de los músculos para efectuar
la actividad. Con estos parámetros se estima el nivel de fatiga
muscular que se produce en las siguientes partes del cuerpo:
cuello, hombros, espalda, brazos-codos, muñecas-manos-
dedos, piernas-rodillas, tobillos-pies-dedos.
El nivel de esfuerzo está referido al requerido para realizar la
tarea, y para ello se tienen tres clasificaciones: ligero,
moderado o fuerte, éstas aplicarán según descripciones
cualitativas para cada parte del cuerpo. Asímismo, por
duración del esfuerzo se entiende el tiempo que un músculo
de las partes del cuerpo antes mencionadas, permanece activo
de manera contínua, y se clasifica como sigue: duración menor
a 6 segundos, entre 6 y 20 segundos y más de 20 segundos.
En cuanto a la frecuencia, esta variable se mide para un grupo
de músculos y para un nivel de esfuerzo específico, y se
clasifica también en tres categorías: menos de una repetición
por minuto, de 1 a 5 repeticiones por minuto, y de 5 hasta 15
repeticiones por minuto.
Con esta metodología se establece la prioridad de cambio de
una actividad en función de la combinación de los valores
obtenidos a través de los tres factores estudiados: el nivel de
esfuerzo, la duración del mismo y la frecuencia.
Método Rapid Entire Body Assessment (REBA)
El Método REBA es una herramienta para el análisis postural
de puestos de trabajo diseñada en el año 1995 por Dr. Sue
Hignett y Dr Lynn Mc Atamney. Se fundamenta en un sistema
de análisis postural sensible a riesgos músculo-esqueléticos
en una variedad de tareas, basado en la división del cuerpo
humano en segmentos que pueden ser codificados
individualmente, con referencia a planos de movimiento.
El REBA provee de un sistema de escala para actividades
musculares causadas por cambios rápidos, carga estática o
dinámica y posturas inestables. Además, incluye un
concepto novedoso al reflejar la importancia del
acoplamiento o agarre en el manejo de herramientas o
controles. Los resultados de aplicación de la metodología
son niveles de riesgo a LME con un indicador de urgencia.
El REBA divide el cuerpo en diferentes posturas, para lo
cual establece dos grandes grupos: El Grupo A, que
involucra el tronco, el cuello y las piernas, con el que se
puede establecer un total de 60 combinaciones de posturas
para estos miembros del cuerpo. Y el Grupo B, que
involucra los brazos, antebrazos y muñecas, para los cuales
se establecen hasta 36 combinaciones de posturas. Estas
combinaciones se establecen en tablas que generan un
índice en cada uno de los grupos y al cual se debe añadir un
factor por Fuerza o Carga y otro factor por las
características de la actividad que se realiza, estableciéndose
así el índice de REBA que indicará el nivel de acción
asociado a un nivel de riesgo a LME.
Evaluación Multitarea de la Carga Física
La evaluación multitarea de la carga física es una metodología
basada en el hecho que la mayoría de las actividades laborales
están compuestas por sub-tareas con duración y compromisos
posturales distintos y que la presencia de una postura forzada
en una de estas sub-tareas no es compensable con una postura
no forzada. En este sentido, el método combina los tiempos
de duración de elementos racionales de trabajo (también
llamados subtareas) y sus respectivos compromisos posturales
descritos a través del método ergonómico REBA.
Al igual que el método original, la evaluación multitarea
contempla la valoración de las siguientes estructuras
corporales: hombro, codo, mano-muñeca, columna cervical,
columna lumbar y posición de las piernas. Se incluyen además
aspectos como la adición de puntos por el manejo de cargas
y/o la aplicación de fuerza y calidad del acoplamiento. Una
vez obtenidos los valores medios ponderados de cada una de
las variables mencionadas se hace uso de las tablas
determinantes descritas por Hignett y McAtamney, obteniendo
el nivel de riesgo a LME según REBA.
La razón para utilizarlo es la inclusión de una ponderación
temporal que tiene en cuenta el tiempo de exposición a una
postura concreta, y, por lo tanto, el resultado final guarda
relación con la exposición. Por otra parte, se señalan como
ventajas la sencillez de la evaluación que se realiza con el
método y su posibilidad de uso en la mayoría de las tareas
desarrolladas en la actividad laboral, entre otras.
Los métodos descritos anteriormente fueron aplicados en la
evaluación de los puestos de trabajo que se muestran en la
Tabla I.
Tabla I: Puestos de trabajo a evaluar
226
3. Resultados
3.1 Evaluación del Compromiso Biomecánico según elMétodo Suzanne Rodgers
Se pudo verificar que para el área de soldadura por
electropunto, el 52.59% de las operaciones se presentan con
riesgo moderado a LME. Esto se debe básicamente a la
ejecución de tareas sobre matrices de ensamble, con
máquinas de gran tamaño y peso que deben ser manipuladas
por los operarios bajo posturas que implican flexión de
miembros superiores y lateralización de cuello. Para el caso
de las actividades de repunteo, debe mencionarse que las
tareas son muy similares a las ejecutadas en el área de
electropunto. Sin embargo, el vehículo pasa a través de una
línea de ensamble en lugar de las matrices, por lo que las
operaciones se realizan con pistolas de soldadura más
pequeñas que requieren menor aplicación de fuerza. Esto
provoca que el 74,36% de las tareas se ubiquen en la
categoría de nivel de riesgo leve a LME.
Para las áreas de acabado metálico y pintura, los compromisos
biomecánicos descritos por el método Rodgers, son muy
similares. 85,71% de las operaciones de acabado metálico se
clasifican como de leve nivel de riesgo a LME al igual que el
61,09% de las provenientes del área de pintura. Esto se debe
a la poca exigencia en términos de aplicación de fuerza o
levantamiento de cargas que conllevan las actividades
realizadas en estas áreas. En la Tabla II puede observarse el
compromiso biomecánico según el método Rodgers de
algunas actividades típicas de cada área.
En cuanto al área de vestidura, la mayoría de las operaciones
también se ubican en la categoría de nivel de riesgo leve a
LME (73,79%), pues se trata de tareas que involucran
pequeños esfuerzos musculares para la instalación de
accesorios tales como gomas, esponjas antirruido, clips de
sujeción, y pequeños tornillos.
Tabla II: Compromiso Biomecánico de una tarea típica según el método Suzanne Rodgers
A: Puntuación de cuello
B: Puntuación de Hombros
C: Puntuación de Espalda
D: Puntuación de Brazos y codos
E: Puntuación de Muñecas, manos, y dedos
F: Puntuación de Piernas, rodillas, tobillos, pies y dedos.
Volumen 13, Nº 52, septiembre 2009. pp 223-230
227
En las áreas de monorriel y línea final se trata de operaciones
de ajuste de componentes críticos de la unidad, tales como
suspensión trasera, cauchos, tubo de escape y cuadratura de
puertas. Se observa que para monorriel, el 60,60% de las
tareas describen un nivel leve de riesgo a LME, mientras que
para línea final, el 52,38% de las tareas se ubican en la
categoría de riesgo moderado. Se destacan las operaciones de
colocación y ajustes finales a los amortiguadores, torque a
tornillos de suspensión trasera y ajustes finales de la
instalación del motor como actividades de alto riesgo a LME,
básicamente por exigir esfuerzos musculares importantes en
posturas no neutrales.
3.2 Evaluación del Compromiso Biomecánico según elMétodo REBA
En cuanto al compromiso biomecánico descrito por el método
REBA, para el área de soldadura por electropunto, se observa
a un 51,79% de las tareas con nivel de riesgo moderado,
siendo las estructuras más comprometidas hombros, cuello y
tronco. En la Tabla III, se puede apreciar el compromiso
biomecánico de una tarea típica del área. En la zona de
repunteo, el REBA califica al 58,98% de las tareas como de
riesgo moderado, destacándose en la mayoría de los casos,
actividades que involucran flexión de tronco entre 20 y 60°,
acompañadas de lateralización de cuello. En referencia a la
zona de acabado metálico, el 38,46% de las tareas también se
presentan como de moderado riesgo a LME.
La aplicación del REBA al área de pintura refiere
compromisos biomecánicos para el 48,89% de las
operaciones, en la categoría de bajo riesgo y el 48,45% en
la de riesgo moderado. En su mayoría, las actividades
involucran movimientos repetitivos de miembros superiores
con flexión de hombros entre 45° y 90°. Esta situación se
presenta principalmente en las operaciones de limpieza y
preparación del vehículo para ser pintado, en la aplicación
de fondos anticorrosivos y esmaltes, y en las áreas de
limpieza final.
Tabla III: Compromiso Biomecánico según el método REBA
A1: puntuación tronco, A2: puntuación cuello, A3: Puntuación piernas, A4: Puntuación fuerza y/o carga, A: total puntuación
Grupo A. B1: puntuación hombro, B2: puntuación codo, B3: puntuación muñeca, B4: acoplamiento, B: total puntuación Grupo
B. C: Puntuación integrada A y B. Act: puntaje adicional dado por las características de la actividad. REBA: Nivel de riesgo
a LME según REBA.
Rodríguez, E. et al. Demanda biomecánica en el ensamblaje de un vehículo compacto
El área de vestidura presenta una carga postural que para el
45,15% de los casos se ubica en la categoría de riesgo
moderado pues, por lo general, las actividades requieren de
movimientos de dorsoflexión y lateralización de cuello
acompañados de flexión de hombros. En las zonas de
monorriel y línea final, la demanda biomecánica se sitúa en
la categoría de moderado para el 39,39% y para el 52,38%
respectivamente. Resaltan nuevamente como actividades de
alta criticidad las relativas a la colocación y ajustes finales a
los amortiguadores, torque a tornillos de suspensión trasera y
ajustes finales de la instalación del motor. Sin embargo, el
método REBA también clasifica a las actividades de
instalación de molduras, alfombras y aislantes en puertas,
como de alto nivel de riesgo a LME.
228
3.3 Evaluación Multitarea de la Carga Física
La evaluación multitarea de la carga física mostró que el
69,57% de los trabajadores del área de soldadura por
electropunto operan bajo un esquema de actividades de nivel
ponderado de riesgo a LME considerado como moderado, ver
Tabla IV. En esta misma situación se ubican las áreas de
pintura, vestidura, monorriel y línea final. Es relevante
mencionar que estos resultados están asociados a la
combinación de tareas que en su mayoría exigen compromisos
posturales importantes (no muy disímiles entre sí) y tiempos
de ciclo de las tareas en los cuales no se ofrecen oportunidades
para la recuperación de las estructuras involucradas. Sólo las
áreas de repunteo y acabado metálico, muestran
comportamientos de bajo riesgo ponderado a lesiones del
sistema osteomuscular.
Tabla IV: Compromiso Biomecánico de las actividades estudiadas
3.4 Análisis Estadístico
Haciendo uso del coeficiente de Correlación de
Spearman, el cual es una medida del grado de asociación
entre dos variables y que para la data estudiada arrojó un
valor de rS = 0,447, puede afirmarse con un nivel de
significación del 1%, que ambos métodos son uniformes
en cuanto a la evaluación biomecánica que hacen sobre
las tareas.
Por otra parte, con la intención de identificar si existe
diferencia significativa en la evaluación del compromiso
biomecánico según los métodos REBA y Rodgers, se aplicó
la prueba de rangos con signo de Wilcoxon, obteniendo un
valor para el estadístico de contraste z = 8,114 para la
diferencia “REBA – Rodgers”. Esto indica que existe
suficiente evidencia estadística para afirmar que el método
REBA tiene una valoración mayor (más severa) en cuanto al
nivel de exigencias requerido para la ejecución de una
actividad que el método Rodgers a un nivel de significación
del 1%, por lo que resulta conveniente utilizar el método
REBA para la evaluación biomecánica ya que es más sensible
en la valoración de los riesgos presentes en la ejecución de las
tareas.
4. Oportunidades de mejora detectadas
Una vez realizada la evaluación biomecánica, se identificó
una serie de oportunidades de mejora a cada actividad que se
encontró en situación de riesgo. Es así como se plantearon
798 recomendaciones para el ensamblaje del vehículo
compacto que pueden disgregarse tal y como se muestra en
la Tabla V.
Volumen 13, Nº 52, septiembre 2009. pp 223-230
229
Para el área de electropunto las recomendaciones están
dirigidas al rediseño del equipo en, este caso las pistolas de
soldadura, no ofrecen posibilidades para una adaptación con
el hombre y obligan a éste a la admisión de posturas no
neutrales durante prolongados períodos de tiempo. En este
sentido, la ubicación de los controles de mando es uno de los
aspectos en los cuales se hace mayor énfasis.
En las áreas de repunteo y acabado metálico, las propuestas
están dirigidas al cambio de equipos que en su mayoría
también están compuestos de pistolas de soldadura. No
obstante, es pertinente mencionar que si bien es cierto que en
la mayoría de los casos se observó exigencia de las
actividades, también es cierto que en algunos casos la ausencia
de higiene postural conduce al operador a asumir posturas de
alto compromiso sin que éstas fuesen realmente exigidas por
la tarea que realiza. Por tal motivo, se hacen recomendaciones
dirigidas al fomento de una cultura postural que permita a las
soluciones técnicas brindar el resultado esperado.
Esta necesidad de educación postural se hace más clara para
las áreas de pintura, vestidura y línea final, en la cuales la
mayoría de las propuestas están asociadas a este rubro, así
como también con el cambio de deficientes métodos de trabajo
que pueden causar daños al sistema osteomuscular. Es así
como se recomienda la sustitución de equipos y herramientas
para disminuir los niveles de nocividad encontrados y
paralelamente, realizar un nuevo balance de actividades de tal
manera que sean parejas las demandas de los trabajadores. La
sustitución o modificación de algunas facilidades mecánicas
existentes en las líneas también son sugeridos.
Para el área de monorriel, la necesidad de corregir situaciones
de alto compromiso muscular en posturas no neutrales,
originan que el 55,6% de las mejoras estén asociadas al
cambio y/o rediseño de los equipos y herramientas, así como
también de los métodos de trabajo. Se destaca aquí el sentido
en el que se mueve la unidad a través de la línea, pues en
buena parte de este sector los operarios permanecen debajo
del vehículo suspendido, por lo que los ajustes se realizan con
movimientos de hiperflexión de hombros y codos
acompañado de torsión y/o lateralización de tronco con
torquímetros de gran tamaño y potencia.
5. Discusión
Luego de la evaluación biomecánica de las tareas se observa
como las de mayor criticidad son las relativas a la colocación
y ajustes finales a los amortiguadores, torque a tornillos de
suspensión trasera, ajustes finales de la instalación del motor,
instalación de molduras, alfombras y aislantes en puertas. El
denominador común de todas estas actividades es el
compromiso de la columna lumbar. En este sentido, es
pertinente recordar que esta clase de postura se constituye
como uno de los factores de riesgo más importantes en la
aparición de lesiones en la parte baja de la espalda. Otro punto
a considerar es la condición de bipedestación prolongada a la
cual está sometida la totalidad de los sujetos evaluados, pues
investigaciones científicas han podido encontrar que la postura
de pie combinada con otro grupo de factores de riesgos físicos,
incluyendo por supuesto el tiempo de exposición, incrementa
el riesgo de prevalencia de las lumbalgias [20, 21, 22].
En cuanto a los modelos utilizados para la evaluación
biomecánica, el Rodgers resultó ser sensible a aquellas tareas
que implican esfuerzos musculares importantes. El REBA por
su parte, parece ser más específico para los casos en los cuales
el compromiso es, en buena parte postural, no obstante muestra
versatilidad al poder realizar ajustes por aplicación de fuerza,
calidad del agarre, carga estática y movimientos repetitivos.
El análisis estadístico evidencia dos aspectos importantes. El
primero, que los métodos Rodgers y REBA son uniformes en
la evaluación biomecánica. Y Segundo, que con el nivel de
significancia del 1%, el método REBA tiene una valoración
más severa que el método Rodgers, por lo que resulta
conveniente utilizar el método REBA para la evaluación
biomecánica en la muestra estudiada.
Luego del procesamiento estadístico, es importante considerar
el momento tecnológico que atraviesa la empresa
ensambladora. En este sentido se pudo verificar como se han
ido corrigiendo paulatinamente los problemas asociados con
la manipulación de cargas y aplicación de fuerza a través de
la incorporación de facilidades. Sin embargo, persisten
ampliamente los compromisos posturales. Por tal razón,
parece más prudente utilizar REBA para la evaluación
Tabla V: Oportunidades de mejora detectadas
Rodríguez, E. et al. Demanda biomecánica en el ensamblaje de un vehículo compacto
230
biomecánica de las tareas, al ser éste mucho más sensible a
los factores de riesgo presentes en las líneas de trabajo.
La evaluación multitarea de la carga física permitió fijar un orden
de prioridades de atención a los problemas detectados y además
se constituye como una excelente herramienta para reorganizar
las demandas de trabajo entre los operadores. La posibilidad de
combinar estos resultados con la morbilidad músculo esquelética
que puede proporcionar el servicio médico es imprescindible
para planificar correctamente las intervenciones. En este punto
es pertinente mencionar que las recomendaciones planteadas no
brindaran el beneficio esperado sino son ampliamente discutidas
con los protagonistas del proceso.
III. CONCLUSIONES1. La aplicación de los modelos de valoración de la demanda
biomecánica en una línea de ensamblaje de un vehiculo
compacto permitió, en primer término, identificar tareas
en condiciones de nocividad que deben ser prontamente
mejoradas en pro de la salud de los trabajadores.
2. El estudio minucioso de la aplicación de cada modelo
también permitió destacar las bondades que cada una de
estas herramientas ofrecen en términos de variables
incluidas en el análisis.
3. El procesamiento estadístico de la información y el estudio
de los factores de riesgo presentes en la línea de ensamblaje
muestran que el método REBA tiene una valoración más
severa que el método Rodgers, por lo que resulta conveniente
utilizar el primero para el estudio de los compromisos del
sistema osteomuscular en dichos puestos de trabajo.
4. Finalmente, es necesario destacar la importancia de la
valoración multitarea de la carga física para establecer las
prioridades de la intervención conjuntamente con la
opinión de os trabajadores.
IV. REFERENCIAS1. Daniellou, F. (2007). La Prevención de los desórdenes
músculo esqueléticos: ampliar los márgenes de maniobra
de todos. Proceedings del 2º Congreso de la Unión
Latinoamericana de Ergonomía. Bogotá.
2. Piedrahita, H. (2003). Perception of musculoskeletal
symtomps in cold exponed and non – cold exposed
workers. Master´s Thesis. Lulea University of Technology.
3. Bernard, BP. (1997). A Critical Review of Epidemiologic
Evidence for Work-Related Musculoskeletal Disorders of
the Neck, Upper Extremity, and Low Back. Centers for
disease control and prevention (NIOSH). NIOSH
Publication No. 97-141.
4. Hagberg, M., et al., (2006). The association between whole
body vibration exposure and musculoskeletal disorders in
the Swedish work force is confounded by lifting and
posture. International conference on whole-body vibration
injuries, Journal of sound and vibration, Vol. 298, No 3
(14 ref.), pp. 492-498
5. Wigley, RD, De Groot, JA, Walls, C (2007). Contribution
of vibration to musculoskeletal disorders in New Zealand.
Intern Med J 2007 Dec; 37(12), pp. 822-5.
6. Brinckmann, P, MH Pope (1990). Effects of repeated loads
and vibration. En The Lumbar Spine, dirigido por J
Weinstein y SW Weisel. Filadelfia: WB Saunders.
7. Roberts, S, Jill P.G. Urban (2001). Discos intervertebrales.
Enciclopedia de salud y seguridad en el trabajo.
Riihimâki, H., (2001). Región Lumbar. Enciclopedia de
Salud y Seguridad en el Trabajo. Pág. 6.11-6.15
9. Manero, R., (2005). Un Modelo Simple para la evaluación
integral del riesgo a Lesiones músculo – esqueléticas.
Mapfre Medicina. Nº 16, pp. 86-94.
10. Krause, N., et al., (1997). Psychosocial job factors
associated with back and neck pain in public transit
operators. Scand J Work Environ Health, 23, pp. 179-86.
11. Aptel, M., (2001). TMS du membre supérieur liés au
travail: des connaissances établies pour construire la
prevention. Quels facteurs de risques ? Quels liens avec le
stress?. Prévenir les TMS, mieux articuler santé et
organisation du travail. Actes du colloque, 27 et 28
novembre 2001, Paris.
12. Davis, K., Heaney C (2000). The relationship between
psychosocial work characteristics and low back pain:
underlying methodological issues. Clinical Biomechanics,
Vol. 15, Nº 6, pp. 389-406.
13. Devereux, JJ., Vlachonikolis, IG, Bucle, PW., (2002).
Epidemiological study to investigate potential interaction
between physical and psychosocial factors at work that
may increase the risk of symptoms of musculoskeletal
disorder of the neck and upper limb. Vol. 59. Número 4.
14. Rodríguez, E., (2007). Estudio ergonómico en el sector
automotriz venezolano. Trabajo presentado en el IX
Congreso Internacional de Ergonomía. SEMAC. México.
15. Rodríguez, E., (2007). Ergonomía. Serie 1 de Cuadernos
de Ingeniería Industrial. Escuela de Ingeniería Industrial.
Universidad de Carabobo. Venezuela. pp. 06-11
16. Rodgers, S., (1992). Functional job evaluation technique
in Ergonomics. Occupational Medicine: State of the Art
Reviews. Vol 7, pp. 679-711.
17. Hignett, S., McAtamney, L., (2000). Rapid Entire Body
Assessment (REBA). Applied Ergonomics. No. 31.
18. Idoate García, VM, Pollán, Rufo, M., (2003). Evaluación
Multitarea de la Carga Física MAPFRE Seguridad, Nº 90.
Segundo trimestre 2003
19. Malchaire, JB., et al. (1999). Risk prevention and control
strategy for upper limb musculoskeletal disorders.
Newsletter of the European Trade Union Technical Bureau
for Health and Safety, N° 11-12, pp. 27-31.
20. Punnet, L., et al. (2004) Ergonomic stressors and upper
extremity musculoskeletal disorders in automobile
manufacturing: a one year follow up study. Occup.
Environ. Med, N° 61, pp. 668 – 674.
21. Xu, Y., et al. (1997) Work environment and low back pain:
the influence of occupational activities. Occup. Environ.
Med, Vol. 54, No. 10, pp. 741-745
22. Escalona, E., (2000) Factores de riesgos ocupacionales y
consideraciones de género en los estudios epidemiológicos
de las lumbalgias. Salud de los trabajadores, Vol. 8, Nº 1,
pp.51-75
Volumen 13, Nº 52, septiembre 2009. pp 223-230
231
SIMULACIÓN MEDIANTE PSPICE DE UN MODELOSIMPLIFICADO Y DE ALTA EFICIENCIA DE UNA
BATERÍA DE PLOMO - ÁCIDO
Fernández, Herman Martínez, Abelardo Guzmán, Víctor Giménez, Maria
Resumen: Se presenta un nuevo modelo de una batería de plomo-ácido con un número reducido de
elementos, menor tiempo de procesamiento, de alta eficiencia, con capacidad para admitir la parametrización
de las resistencias de carga y descarga y de fácil adaptabilidad a otras herramientas de simulación. Para
comprobar el funcionamiento del modelo se aplica una fuente externa que permite evaluar los modos de
funcionamiento en carga y descarga. El ensayo de simulación demuestra una respuesta satisfactoria del
modelo en los modos de carga y descarga, con una eficiencia que supera el 99%. Además se establecen
comparaciones con otros modelos desarrollados, destacando sus ventajas y desventajas.
Palabras clave: Baterías de plomo – ácido / Modelaje de baterías / Simulación de batería / Fuentes
controladas / Bloques funcionales.
PSPICE SIMULATION OF A SIMPLIFIED AND HIGHLYEFFICIENT LEAD-ACID BATTERY MODEL
Abstract: A new lead-acid battery model is presented, with a reduced component count, lower processing
time, high efficiency, able to parametrize the charge and discharge resistances and easily adaptable to other
simulation platforms. To prove the model, an external supply is used to evaluate the charge and discharge
operating modes. The simulated test shows the satisfactory model response in the charge and discharge
modes, with over 90% efficiency. Furthermore comparisons are made with other models, underlaying its
advantages and disadvantages.
Keywords: Lead-acid batteries / Battery modeling / Battery simulation / Controlled sources / Function
blocks.
Volumen 13, Nº 52, septiembre 2009. pp 231-237
Manuscrito finalizado en Puerto Ordaz, Venezuela el 2008/01/25, recibido el 2008/02/14, en su forma final (aceptado) el 2009/02/01. El Dr. Herman Fernández
es Profesor Titular en el Dpto. de Electrónica de la Universidad Nacional Experimental Politécnica “Antonio José de Sucre”, UNEXPO Vicerrectorado Puerto
Ordaz, Telefax 0286-9621205, correo electrónico [email protected]. El Dr. Abelardo Martínez Iturbe es Profesor Titular en el Centro de Estudios
Superiores de la Universidad de Zaragoza, España. Teléfono 34-976-761974, fax 34-976-762111, correo electrónico [email protected]. Los Dres.
Víctor Guzmán Arguis y María Isabel Giménez son Profesores Titulares en el Dpto. de Electrónica y Circuitos, Universidad Simón Bolívar, Sartenejal, Baruta,
Caracas, teléfono 0212-9063677, fax 0212-9063631, correos electrónicos [email protected]. [email protected]. respectivamente.
I. INTRODUCCIÓN
Se ha reportado una gran variedad de modelos para
representar los modos de funcionamiento de las baterías de
plomo-ácido. Si bien es cierto que se ha conseguido producir
modelos simplificados de baterías, basados en circuitos
sencillos formados por resistencias, diodos y un condensador
como elemento de almacenamiento [1]-[2], que pueden ser
simulados en gran parte con las herramientas de simulación
disponibles, dichos modelos requieren, por su misma
topología, de una asignación directa de los parámetros
comerciales de una batería: el voltaje en sus terminales y la
capacidad de carga.
Ya se ha reportado un modelo de una batería basada en fuentes
dependientes y bloques funcionales, que admite estos
parámetros como variables de entrada al mismo [3]. Aunque
los ensayos con este modelo demostraron un funcionamiento
correcto en los distintos modos de operación, su estructura está
formulada utilizando interruptores controlados por tensión,
fuentes dependientes de voltaje y corriente, fuentes de corriente
tipo espejo y una cantidad importante de objetos de tratamiento
analógico (sumadores, restadores y elementos de retardo). Por
otra parte, los valores de las resistencias de carga y descarga
que utiliza el modelo deben ser calculados previamente a la
puesta en marcha del programa, por no emplear el comando
de asignación por vía de parámetros externos, lo cual resulta
engorroso cuando se requiere examinar los efectos de los
cambios en las resistencias en forma dinámica (paramétrica).
La eficiencia alcanzada por este modelo fue menor al 85%, con
un tiempo de corrida considerable y de difícil portabilidad a
otras herramientas de simulación.
232
Volumen 13, Nº 52, septiembre 2009. pp 231-237
Para lograr obtener un modelo más eficiente, en este
desarrollo se ha reducido el número de fuentes dependientes
de voltaje gobernadas por tensión, y se han eliminado los
interruptores controlados por voltaje y las fuentes tipo espejo
de corriente. Con el fin de verificar la efectividad del modelo
propuesto respecto a la primera versión, se realiza un ensayo
de carga y descarga de la batería, en el que se demuestra su
mayor eficiencia y un menor tiempo de procesamiento por
parte de la herramienta de simulación.
En el presente trabajo se expone un resumen de las ecuaciones
usadas para la simulación de una batería de plomo – ácido, se
discute el modelo propuesto, se obtiene su respuesta en los
modos de carga y descarga, se realizan las mediciones de la
eficiencia de la batería y finalmente, se establecen las
comparaciones con otros modelos y se exponen las
conclusiones.
II. DESARROLLO
1. Ecuaciones del modelo de una batería de plomo-ácido
Con el análisis detallado de las ecuaciones que definen el
modelo de las baterías de plomo-ácido realizado por Castañer
[4], en la Tabla I se han resumido las ecuaciones que definen
el voltaje y la resistencia durante los modos de carga y
descarga.
Tabla I. Ecuaciones del modelo de una batería de plomo-ácido [4].
233
Fernández, H. et al. Simulación mediante Pspice de un modelo simplificado y de alta eficicencia de una batería
2. Desarrollo del modelo
Una contribución de este trabajo es la propuesta de un
esquema simplificado para el modelo de la batería que pueda
ser usado por la mayoría de las herramientas de simulación
capaces de admitir fuentes controladas y bloques matemáticos
de operaciones fundamentales [5]. La Fig. 1 ilustra el modelo
desarrollado, basado en los bloques de procesamiento
analógicos disponibles en la librería del Pspice. El modelo
propuesto puede ser usado directamente en la mayoría de los
programas de simulación que utilizan fuentes controladas y
bloques funcionales (PSpice, PSIM, PSCAD, etc.).
Fig. 1 Modelo en bloques de fuentes controladas y bloques funcionales.
234
Tabla II. Parámetros de la simulación
Para validar el funcionamiento del modelo se ha considerado un proceso de carga – descarga empleando una fuente de corriente
bipolar en la entrada del circuito descrito en la Fig.1.
La fuente de intensidad Iext se usa para comprobar el proceso
de carga de la batería de acuerdo a los parámetros asignados
como el voltaje de la batería, el número de celdas en serie, ns,
la capacidad Ah y el estado de carga inicial, SOC1. Los
elementos Dcarg, F2, Rcarga, Rcmeg, Ercarga y Ecargarepresentan el circuito de carga de la batería. El conjunto F2– Rcarga – Ercarga modela la resistencia de carga R1. Debido
a las restricciones del programa Pspice, que no permite asignar
directamente variables calculadas en los nodos del circuito
como parte de los parámetros del modelo de la resistencia
disponible en la librería del Pspice, se ha representado la
resistencia de carga con una topología formada por una fuente
de corriente controlada por corriente, F2, actuando en
configuración tipo “espejo de intensidad”, para producir un
voltaje equivalente en la resistencia 1Ω, de magnitud igual al
valor de corriente proveniente de la fuente externa conectada
en la entrada del banco de baterías. La caída de voltaje en la
resistencia se aplica como entrada a la fuente de voltaje
controlada por voltaje, Ercarga, que genera un voltaje de salida
de acuerdo a la ecuación que determina la resistencia de carga
de la batería. Los terminales de salida del módulo Ercarga
están conectados en serie con la fuente Ecarga. Este conjunto
de partes (exceptuando la fuente Ecarga) permite representar la
resistencia de carga en función del valor del estado de carga
calculado por el propio modelo, el número de celdas
conectadas en serie y el estado de carga inicial; estos dos
últimos parámetros debe ser asignados externamente al
modelo mediante la instrucción “PARAMETERS”.
Es necesario incluir la resistencia Rcmeg para evitar el “error de
flotación” que genera Pspice cuando detecta un nodo flotante
respecto al terminal común del circuito. Cuado se detecta esta
situación, la corrida del programa es abortada
automáticamente.
El voltaje de carga interno de la batería se describe mediante
la fuente dependiente Ecarga. El circuito de descarga de la
batería se modela de manera similar, tomando en
consideración la polaridad de la corriente de descarga que
circula a través de Desc, cuando se aplica una fuente externa.
Es importante destacar que este modelo se basa en la
existencia en Spice de las fuentes dependientes de voltaje
controladas por voltaje, denominadas fuentes tipo “E” en el
programa. El valor de la tesión de salida de estos elementos
se define sobre la base de fórmulas que contienen valores
constantes, variables provenientes calculadas en los nodos del
circuito y parámetros externos asignados mediante el
comando “PARAMETERS” del programa.
Esto permite definir el circuito para obtener el estado de carga
de la batería, SOCN, a partir de la ecuación del estado de carga,
tomando en cuenta el voltaje, Vbat, la corriente de la batería,
Ibat y el estado inicial de carga, SOC1. El estado de carga del
banco de baterías es calculado por los bloques aritméticos
integradores (bloques de forma triangular) mostrados en la
Fig.1; el término del estado de carga en el instante anterior (t-
τ), es calculado por el bloque de procesamiento d/dt.
Para comprobar la respuesta del modelo se ha realizado un
ensayo usando los datos reportados en la Tabla II y
considerando que la celda es de 2,148V.
Volumen 13, Nº 52, septiembre 2009. pp 231-237
3. Presentación y Discusión de Resultados
Para evaluar el proceso de carga, se aplica una fuente de
corriente de +10A. Se ha asignado un valor inicial de estado
de carga, SOC1=0,5. Los resultados obtenidos se ilustran en
la Fig. 2a. En dicha figura se aprecia como la batería alcanza
un estado de carga de 0,951 al transcurrir aproximadamente 5
horas. Este valor se corresponde con el valor de tiempo
necesario para que la batería se cargue a 2,148V, tomando en
cuenta el estado inicial del 50%. La energía transferida a la
batería durante el proceso de carga es de 531,261Kwh.
Cuando se somete la batería a un proceso de descarga, se
toman nuevamente los valores al cumplirse 5 horas del
proceso. Como se puede apreciar en la Fig.2b, la batería se
descarga nuevamente alcanzando un SOC1=0,5. La energía
extraída de la batería es de 530,500Kwh.
235
Fig. 2 Circuito de prueba del modelo con fuente de corriente senoidal y resistencia para ajustar el valor inicial decarga. Evolución de las variables Intensidad de descarga, Energía devuelta y Estado de carga durante los períodos
de carga y descarga. (a) Período de carga. (b) Período de descarga.
(a)
(b)
Fernández, H. et al. Simulación mediante Pspice de un modelo simplificado y de alta eficicencia de una batería
236
La eficiencia calculada durante el proceso de carga-descarga
simulado con el nuevo modelo ha sido del 99,85%, lo cual
demuestra un comportamiento del modelo acorde con los
valores asignados en el ensayo y con los resultados obtenidos
en trabajos anteriores, donde la eficiencia conseguida varió
entre el 90% [6] y cerca del 100% [7].
La Tabla III resume un estudio comparativo del modelo
simplificado respecto a la primera versión. Ambos modelos
funcionan adecuadamente, sin embargo, se aprecia que el modelo
simplificado ofrece mejoras significativas respecto al modelo de
bloques funcionales, en cuanto al tiempo de simulación, número
de elementos y portabilidad a otros programas.
Tabla III. Comparación de los modelos basados en bloques funcionales
Comparándolo con el modelo desarrollado por Castañer (Tabla IV), el modelo simplificado es ahora aproximadamente igual
en cuanto al número de partes. Sin embargo, el modelo propuesto en este trabajo se puede adaptar más fácilmente a otras
herramientas computacionales que dispongan de bloques de procesamiento aritméticos.
El modelo desarrollado permite asignar los parámetros de capacidad de carga de la batería en Ah y del estado inicial de carga
de la misma, necesarios para determinar el tiempo de respaldo que puede suministrar un banco de baterías cuando se usa como
parte de un vehículo eléctrico, una fuente de alimentación ininterrumpida o un sistema fotovoltaico [8]- [10].
Tabla IV. Comparación Castañer – Modelo mejorado
Volumen 13, Nº 52, septiembre 2009. pp 231-237
237
III. CONCLUSIONES
1. Usando los elementos disponibles en la librería “ABM”
del Pspice, se ha podido representar una resistencia
variable usando fuentes dependientes de voltaje y
corriente.
2. Además de aceptar parámetros externos fijados por el
usuario, cambia su magnitud de acuerdo al valor registrado
en los nodos del circuito.
3. El modelo de la batería de plomo – ácido, trabaja
satisfactoriamente.
4. Para la evaluación del modelo sólo se requieren asignar
parámetros como la tensión de la celda, el valor Ah y el
estado inicial de carga.
5. Este modelo permite demostrar la evolución de los estados
de carga y descarga del banco cuando se aplica una fuente
que obliga a conmutar entre dichos estados
dinámicamente.
6. El modelo desarrollado permite asignar los parámetros de
la capacidad de la batería en Ah y del estado inicial de
carga del conjunto, necesarios para determinar el tiempo
de respaldo que proporciona la energía disponible en la
batería.
7. Este es uno de los elementos más importantes cuando se
trata de modelar la operación global de sistemas complejos
tales como cargadores de baterías, fuentes de alimentación
ininterrumpida, sistemas fotovoltaicos, etc.
IV. REFERENCIAS
1. Salameh, Z., Cassacca, M., and Lynch W. “A
Mathematical Model for Lead-Acid Batteries
Determination of Lead-Acid Battery ”. IEEE Trans. On
Energy Conversion, vol. 7, No. 1, March 1992, pp. 93-97.
2. Casacca, M., and Salameh, Z. “Determination of Lead-
Acid Battery Capacity Via Mathematical Modeling
Techniques”. IEEE Trans. On Energy Conversion, vol.
7, No. 3, September 1992, pp. 442-446.
3. Fernández, H., et. al. “Modelaje y simulación de una
batería de plomo-ácido mediante fuentes dependientes de
voltaje-corriente y bloques funcionales”. Universidad,
Ciencia y Tecnología, Marzo 2005, Nº33, Vol.9, pp.35-41.
4. Castaner. L. and Silvestre, S. “Modelling Photovoltaic
Systems”, Wiley, London 2002, pp. 117-131.
5. Fernández, H. “Contribución al diseño de células de
generación mixta eólica y fotovoltaica para ser usadas en
emplazamientos aislados”. Tesis de doctorado en
Ingeniería Electrónica. Universidad de Zaragoza.
Septiembre 2007, pp.48-55.
6. Krim F. “A novel intelligent battery charge controller for
stand-alone PV system”. EPE Conference, EPE, Gratz
2001, pp 1-9.
7. Gergaud O, et al. “Energy modeling of a lead-acid battery
within hybrid wind/photovoltaic systems”. EPE
Conference, EPE, Toulouse 2003, pp 1-10.
8. García J. F., et al. “El vehículo eléctrico, tecnología,
desarrollo y perspectivas de futuro”. Mc. Graw Hill,
Madrid, 1997, pp.136-155.
9. Gualda J. “Sistemas de alimentación ininterrumpida.
“Electrónica y automática industriales”. Mundo
electrónico. Barcelona, España, 1979, pp.139-153.
10. Gualda J.A., Martínez S., y Martínez P. “Electrónica
industrial. Técnicas de potencia”. Alfaomega, Madrid,
1992, pp. 444-456.
Fernández, H. et al. Simulación mediante Pspice de un modelo simplificado y de alta eficicencia de una batería
Volumen 13, Nº 52, septiembre 2009. pp 239-249 239
PROPUESTA DE UN MECANISMO DE MEDICIÓN DE LASVARIABLES QUE AFECTAN LA EFICIENCIA DE LAS
INSTITUCIONES PÚBLICAS ENCARGADAS DEGENERAR BIENESTAR SOCIAL: CASO VENEZUELA
Viloria Silva, Amelec Vásquez Stanescu, Carmen Miguel Ángel, Núñez
Resumen: La investigación tiene por objeto desarrollar un mecanismo de medición que permita responder a
una pregunta que toda sociedad organizada se hace constantemente ¿Están bien administrados los recursos
económicos del estado para la generación de bienestar social? La metodología consiste en la selección de una
serie de variables socioeconómicas que permitan medir la eficiencia y la productividad del Estado Venezolano
en la administración de su producto interno bruto, gasto público y social, para la generación de empleo,
alfabetización, incremento de la esperanza de vida, disminución del nivel de pobreza, etc. La herramienta
utilizada para la determinación de la eficiencia es el Análisis Envolvente de Datos (DEA), mientras que para
la productividad es el Índice de Malmquist. El porcentaje de ineficiencia obtenido fue establecido como una
cuantificación del conjunto de vicios (corrupción, burocracia, etc.) que afectan a las instituciones públicas
encargadas de generar bienestar social. El aporte al conocimiento de este trabajo radica en que el método
utilizado permite una medida real de los vicios y no una simple percepción de los mismos, análisis de
sensibilidad, bajo costo y alta adaptación a cualquier periodo y región que se desee evaluar.
Palabras clave: Productividad/ Eficiencia/ Análisis Envolvente de Datos/ Índice de Malmquist/ Bienestar
Social.
PROPOSAL OF A MECHANISM OF MEASURINGVARIABLES THAT AFFECT THE EFFICIENCY OF PUBLIC
INSTITUTIONS IN CHARGE OF GENERATING SOCIALWELLBEING: VENEZUELA CASE
Abstract: The research has for object to develop a mechanism of measurement that allows to answer to a
question that all organized society does to herself constant. Are the economic resources of the state well
administered for the generation of social well-being? The methodology consists of the selection of a series
of socioeconomic variables that allow to measure the efficiency and the productivity of the Venezuelan state
in the administration of his internal brute product, public and social expenditure, for the generation of
employment, literacy, increase of the life expectancy, decrease of the level of poverty, etc. The tool used for
the determination of the efficiency is the Data Envelopment Analysis (DEA), whereas for the productivity
is Malmquist's Index. The percentage of inefficiency obtained was established as a quantification of the set
of vices (corruption, bureaucracy, etc) that concern to the public institutions established for to generate social
well-being. The contribution to the knowledge of this work takes root in that used method allows a real
measure of the vices and not a simple perception of the same ones, a analysis of sensibility of the dates, a
low cost and adjustment high to any period and region that we want to evaluate.
Keywords: Productivity/ Efficiency/ Data Envelopment Analysis (DEA)/ Malmquist's Index/ Social
Wellbeing.
Manuscrito finalizado en Barquisimeto, Venezuela, el 2008/03/15, recibido el 2009/02/13, en su forma final (aceptado) el 2009/03/23. La Ing. Amelec Jesús
Viloria Silva es Profesor Contratado de la Universidad Nacional Experimental de las Fuerzas Armadas (UNEFA), Calle 51 con Carrera 19 y 20, Barquisimeto-
Edo. Lara, Venezuela, teléfonos: 0412-4263386, correo: [email protected]. La Dra. Carmen Luisa Vásquez Stanescu es Profesora Asociada en el
Departamento de Ingeniería Eléctrica de la Unexpo, Vicerrectorado Barquisimeto, Av. Corpahuaico con Av. Lagalle, Barquisimeto, Edo. Lara, Venezuela,
teléfonos: 0251-4414654, correo electrónico [email protected]. El Dr. Miguel Ángel Núñez Bottini es Profesor jubilado de la Unexpo,
Vicerrectorado Puerto Ordaz, Final Calle China, Villa Asia, telefax: 0286-9611579, correo electrónico [email protected].
Este trabajo fue presentado en el Congreso ASEPELT, realizado el 18, 19 y 20 de junio de 2008 en la Facultad de Economía IQS, Universidad Ramón Llull.
Barcelona, España. Ha sido autorizada su publicación en nuestra Revista Universidad, Ciencia y Tecnología por el Dr. Carlos Muslares, Representante de
ASEPELT, institución que tiene Derechos de coautoría de este trabajo.
NOTA TÉCNICA
Volumen 13, Nº 52, septiembre 2009. pp 239-249
240
I. INTRODUCCIÓN
En muchas ocasiones se está sentado frente al televisor y se
escucha repetidas veces versiones sobre la evolución
económica de la nación. “vamos por un camino equivocado”,
“estamos mal pero vamos bien”, “los niveles de pobreza han
disminuido drásticamente en estos últimos años”, entre otros.
Las anteriores son partes de las diversas opiniones que
proyectan amplios matices positivos y negativos acerca de la
utilización de los recursos financieros del estado.
Probablemente usted estará pensando ¿Existirá una técnica
que desde el punto de vista científico permita corroborar o
desmentir las anteriores aseveraciones? y ¿Por qué no
utilizarla?
En un primer momento la lógica dice que se debería calcular
la relación entre el dinero que produce la nación y el bienestar
social que se refleja en sus habitantes. Sin embargo, el
problema va más allá, debido a que no todo lo que se produce
puede y debe ser sólo para uso social, también existen
aspectos de tipo macroeconómico que hay que cubrir y que
han sido parte de la historia de los países latinoamericanos,
por ejemplo la deuda externa.
Entonces, ¿Qué técnica utilizar? Una solución pudiese ser el
Análisis Envolvente de Datos (DEA, por sus siglas en inglés),
el cual constituye una excelente metodología basada en la
programación lineal, cuyo objetivo es medir y comparar la
eficiencia de varios procesos productivos similares en un
determinado período de tiempo.
Para comprender un poco la técnica DEA, imagínese lo
siguiente: dos (2) hermanos con las mismas capacidades
físicas que deciden competir en una prueba de atletismo
regional, evidentemente el entorno será el mismo para ambos
(la misma intensidad de calor, dirección del viento, etc.).
Ahora bien, suponga que en el instante de tiempo en el cual
uno de los hermanos cruza la línea de meta, el otro se
encuentra a una distancia de 5.
Es obvio que el más eficiente fue el hermano ganador, ya
que supo utilizar los mismos recursos que poseía el otro
para obtener el triunfo. ¿Eso quiere decir que el perdedor
no fue eficiente?, la respuesta es no, ya que desde la salida
hasta la meta el logró recorrer una cierta distancia, pero, le
faltó 5 m para conseguir la misma eficiencia que su
hermano, quien por haber ganado se dice que obtuvo el
máximo rendimiento.
Siguiendo con el ejemplo anterior, si ahora se desea
representar a los hermanos en el instante en el cual se produjo
la victoria, lo más seguro es que se dibujaran como puntos en
un plano y, a la línea meta justo donde se encuentra el
hermano ganador, si es un modelo a escala, el perdedor se
representaría a 5 m de ella.
Figura 1. Modelo DEA Básico (Cero o CCR).
En la Figura 1, la mayor eficiencia está simbolizada por la
distancia que va de la línea de salida a la línea meta (frontera
eficiente), donde se encuentra el hermano ganador, y la
distancia radial que va desde el perdedor al ganador representa
la eficiencia que le faltó al primero para lograr el triunfo, es
decir, el grado de ineficiencia. Lo anterior es el procedimiento
que sigue el DEA.
Por otra parte, si los hermanos compitieran nuevamente en
otro período de tiempo y se quisiera comparar la eficiencia
obtenida por cada uno de ellos con respecto a sus propias
eficiencias en la carrera inicial, se tendría que utilizar el Índice
de Productividad de Malmquist.
Ahora bien, el presente trabajo pretende cuantificar a través
del DEA y el Índice de Malmquist, la eficiencia y la
productividad respectivamente del Estado Venezolano en la
utilización de su producto interno bruto (PIB), gasto social y
público para generar bienestar humano.
El objetivo es utilizar las medidas de ineficiencia obtenidas a
través del DEA para cuantificar las variables (corrupción,
burocracia, etc.) que afectan la eficiencia de las instituciones
públicas encargadas de generar el bienestar social de una
nación, y por ende, responder a la interrogante que toda
sociedad organizada se hace ¿Están bien administrados los
recursos económicos del estado?
En una primera parte, se define la productividad y los
elementos que la componen, para luego pasar a
conceptualizar formalmente la técnica DEA y el Índice de
Malmquist. En la metodología se muestran los programas
computacionales utilizados para la resolución de los
sistemas de ecuaciones lineales. En la etapa de los
resultados se señalan las variables socioeconómicas
seleccionadas que sirven de entradas y salidas al proceso de
cuantificación. Finalmente, se presenta una serie de tablas
con los datos obtenidos tras la medición propuesta al caso
del Estado Venezolano.
Viloria, A. et al. Propuesta de un mecanismo de medición para el conjunto de vicios que afectan a las instituciones
241
II. DESARROLLO
1. La productividad y sus elementos básicos
La Figura 2 muestra la integración de los tres (3) principales
factores que componen la productividad: lo económico, lo
humano y la producción, cada uno de ellos relacionados entre
si.
Figura 2. Esquema de los factores e interrelaciones que componen a la productividad.
El dinero por su parte, permite justipreciar el trabajo del
hombre, quien a su vez genera productos y servicios a un
contexto cada día más exigente. Mientras que el entorno crea
demanda, la tecnología evoluciona repercutiendo en
conocimiento para el hombre, quien administra el dinero
producido para impactar en la sociedad [1].
¿Qué criterios permiten saber si un proceso es productivo?
Siguiendo el esquema de la Figura 2, se encuentra que para
medir la productividad es necesario cuantificar los cuatro (4)
indicadores siguientes: sobre el recuadro que representa la
producción se puede medir la máxima relación
producto/trabajo como la eficiencia del proceso, mientras que
la relación producto/demanda se interpreta como su
efectividad.
Ahora bien, la eficacia definida como el logro de objetivos
económicos que brindan crecimiento, tanto al hombre como
al aspecto tecnológico, se visualiza entre los recuadros dinero,
producción y entorno (en el sentido de las manecillas del
reloj). En dirección contraria, se concibe la relevancia como
el desempeño administrativo que causa impacto en la
sociedad.
2. El análisis envolvente de datos y sus modelos
En términos técnicos, el modelo tiene como objetivo construir
una frontera de eficiencia cuando se desconocen relaciones
funcionales entre las entradas y las salidas que intervienen en
un problema. Pero, ¿Cómo construir esa frontera cuando se
manejan distintas variables de entrada y salida? Para ello se
debe empezar por establecer las limitaciones que posee esta
metodología, entre las cuales se encuentran [2]:
• La exigencia de que las unidades analizadas sean
homogéneas para evitar que la ineficiencia de una unidad
se deba a la no uniformidad en la escala de producción o
al mal uso de las entradas y las salidas que caracterizan a
la unidad.
• Para homogenizar las dimensiones de las entradas y las
salidas a la unidad, se debe introducir un sistema de pesos
adecuados que las normalice. En algunas ocasiones esas
ponderaciones resultan en valores nulos o muy pequeños
que pueden minimizar o cancelar una variable relevante.
• Cualquier alejamiento de la frontera de eficiencia de
alguna asignación de recursos y productos se supone que
es por la ineficiencia de la unidad productiva, y no por
perturbaciones aleatorias.
• La confiabilidad depende del número y relevancia de las
variables de entrada, salida y unidades a utilizar.
Por otra parte, se supone que una unidad necesita uno o varios
recursos para obtener uno o varios productos, utilizando la
definición clásica se puede definir la eficiencia con la
ecuación (1) [3]:
Para resolver el problema de la homogeneidad [3], se
normaliza tanto el numerador como el denominador de la
ecuación (1), resultando la (2):
En manera general este cociente se puede expresar en forma
explicita con la ecuación (3):
(1)
(2)
(3)
242
Donde:
= eficiencia observada.
= peso asociada al r-ésimo producto o salida.
= peso asociado al i-ésimo insumo o entrada.
= cantidad del r-ésimo producto o salida
en la j-ésima unidad.
= cantidad del i-ésimo insumo o entrada
en la j-ésima unidad.
Por lo tanto, el problema asociado a la ecuación (3) es
encontrar un conjunto adecuado de pesos que la satisfagan.
Modelo Cero o (CCR)
Siguiendo con el ejemplo inicial de los dos (2) atletas, es obvio
que la relación salida/entrada para el hermano ganador es
mayor que para el perdedor, lo que indica de manera general
que aquellos objetos de estudio que se ubican en la frontera
eficiente serán los que posean la máxima relación
salida/entrada.
¿Qué técnica permite lograr las mediciones anteriores?, esa
fue una pregunta que se hizo E. Rhodes (1978) en su tesis
doctoral, dirigida por W. Cooper. Ellos plantearon la
utilización de la técnica de programación matemática para tal
fin y a su vez, indicaron que en el momento de realizar la
maximización de la función, era necesario establecer una serie
de restricciones, tales como [4]:
• Las relaciones ponderadas salidas/entradas deberían ser
menor que uno, ¿Por qué? Esto para que el radio de
eficiencia no supere a la unidad.
• Los pesos para cada variable de entrada o salida deben ser
valores mayores o iguales a cero.
La eficiencia relativa orientada a la salida, se define como el
cociente entre la distancia del eje de entradas (eficiencia 0) a
una unidad cualquiera y la distancia del eje de la entradas a la
frontera eficiente. Mientras que la eficiencia relativa,
orientada a las entradas es conceptualizada como el cociente
entre la distancia de una unidad dada al eje de las salidas (cero
recursos) y la distancia de la frontera al eje de las salidas [2].
Es de hacer notar que el hecho de que las ponderaciones en
algún momento dado puedan asumir un valor de cero (0),
representa una posibilidad, que una variable de carácter
importante sea anulada. Este problema lo resuelve A. Charnes
(1978), cuando incorpora al modelo de E. Rhodes (1978) la
restricción de que cada una de las ponderaciones era mayor a
una pequeña cantidad positiva [5]. El modelo en su forma
lineal se muestra a continuación:
Maximizar:
Sujeto a:
Es una constante que en la mayoría de programas se asume
como 10-6, este modelo en la práctica no es comúnmente
utilizado para calcular la eficiencia si no su dual asociado [3].
Minimizar:
Sujeto a:
Donde:
= eficiencia observada de la j-ésima unidad.
= son las ponderaciones obtenidas para la j-ésima unidad,
del programa lineal original.
y = variables de holgura y artificiales, introducidas para
transformar las desigualdades en igualdades.
(4)
(5)
(6)
(7)
(8)
(9)
(10)
Volumen 13, Nº 52, septiembre 2009. pp 239-249
Toda esta información puede parecer abstracta, pero brinda
los valores de eficiencia buscados. La combinación de las
ecuaciones anteriores permite determinar aquella unidad que
bajo un nivel fijo de recursos tenga el mejor nivel de
producción o, dado un nivel de producción, utilice la menor
cantidad de recursos. En términos generales [2].
• Si la j-ésima unidad es ineficiente, porque es
posible hallar otra unidad que genere mejores niveles de
productividad.
• Es posible que , porque siempre se puede asignar
el valor de y al resto de ponderaciones el valor
de cero.
Este modelo proporciona la eficiencia global, que es la suma
de la eficiencia de escala y la técnica pura [2]. A su vez, define
la eficiencia como una razón constante entre los recursos
utilizados por la unidad y los productos o salidas que obtiene,
es decir, si se aumenta en un valor x las entradas del sistema,
las salidas aumentarán en un mismo valor x.
Modelo Uno o (FG)
Supóngase que en la carrera de atletismo anterior, el hermano
ganador quedó empatado con una tercera persona cuyas
condiciones físicas estaban por encima de las suyas. Se puede
decir que el primero sigue siendo el más eficiente porque con
menos recursos obtuvo la misma salida. Sin embargo, ambos
personajes llegaron a la meta, es decir se encuentran en la
frontera eficiente. Lo anterior se ilustra en la Figura 3:
Figura 3. Modelo Uno o FT.
Esto implica que el cociente salida/entrada es mayor para
el hermano ganador que para el tercer participante, pero,
si al igual que en el modelo anterior para calcular el
porcentaje de eficiencia relativa, se divide la distancia
vertical de una unidad cualquiera al eje de entradas
(eficiencia 0), entre la distancia de esa misma unidad a la
frontera eficiente, se encontrará que para todos los puntos
ubicados en la frontera, dicho valor será igual a la unidad.
Por lo tanto, se concluye que el punto 1 y 3 poseen la
misma eficiencia relativa. Es decir que para cualquier
unidad ubicada por debajo de la frontera su eficiencia será
menor que uno.
Lo anterior, fue representado por R. Fare y A. Grosskopf
(1985), agregando al modelo DEA original una nueva
restricción [6].
Donde es la eficiencia relativa de la j-ésima unidad. Este
modelo proporciona la eficiencia global, que se define como
una razón variable creciente [2], es decir a medida que se
aumenta en un valor x las entradas, aumenta en un valor
mayor que x las salidas.
Modelo Dos o (ST)
Continúese comparando los tres (3) atletas presentados
en los modelos anteriores, pero, esta vez tómese como
criterio de frontera eficiente aquellos personajes que
utilizaron la mínima cantidad de recursos para lograr una
salida dada. Entonces, ambos hermanos (el ganador y el
perdedor) estarían ubicados en la frontera eficiente y la
eficiencia del tercero sería comparada con la de ellos. Ver
Figura 4.
Figura 4. Modelo Dos o ST.
Si se calcula la eficiencia como se ha venido haciendo, pero
esta vez con orientación a las entradas, se puede observar que
la eficiencia relativa para el punto 1 y 2 es la misma (uno).
Mientras que la eficiencia relativa para el punto tres (3) será
mayor que uno (1).
En términos generales lo anterior es cierto, cuando se calculan
(11)
Viloria, A. et al. Propuesta de un mecanismo de medición para el conjunto de vicios que afectan a las instituciones
243
244
eficiencias relativas de cualquier unidad de producción,
tomando como referencia de frontera eficiente aquéllas que
utilicen la menor cantidad de recursos para una salida dada.
Esto fue representado por L. Seiford y R Thrall (1990),
agregando la siguiente restricción al modelo original [7]:
Este modelo proporciona la eficiencia global, y la define como
escala variable decreciente [2], es decir, si se aumenta una
entrada en un valor x, la salida aumentará en un valor menor
que x.
Modelo Tres o (BCC)
Para finalizar con la explicación acerca de los modelos
primales de la técnica DEA, supóngase la hora que la frontera
se teje alrededor de aquellas unidades que han alcanzado las
mayores salidas para unos recursos dados, y las menores
entradas para un determinado producto. Entonces, si se
representa a los tres atletas originales, se tendrá que todos
estarán ubicados en la frontera eficiente, tal y como se muestra
en la Figura 5.
Figura 5. Modelo Tres o BCC.
Según la Figura 5, la eficiencia relativa expresada como una
distancia a los ejes siempre será menor o igual a uno, con
respecto a la frontera que corresponde a las unidades que
utilizaron menores recursos y, mayor que uno, con respecto a
las unidades que consiguieron las mayores salidas. Lo
anterior, fue representado por R. Banker, A. Charnes y W.
Cooper (1984), agregando la siguiente restricción al modelo
original DEA [8]:
Este modelo proporciona la eficiencia técnica pura, a
escala de rendimiento no constante [2]. Es decir que para
un aumento en un valor x de la entrada, se puede obtener
un aumento de las salidas en un valor menor, mayor o
igual que x.
3. El índice de productividad de Malmquist
El índice de Malmquist se utiliza para medir la eficiencia de
una misma unidad en dos (2) periodos de tiempo diferentes.
Su cálculo se realiza utilizando la ecuación (15) [9]:
Los factores importantes a considerar en este índice son la
eficiencia marcada con el superíndice Dt+1 y el subíndice Tt+1,
que corresponde al factor k0 de un modelo CCR para una
unidad en evaluación, teniendo en cuenta los datos del
segundo período a evaluar. El segundo factor es aquel
marcado con Dt y el subíndice Tt corresponde al factor de un
modelo CCR para la unidad de evaluación, teniendo en cuenta
los datos del primer período a valorar. Las restantes eficiencias
(la marcada con el superíndice Dt+1 y Dt , así como el subíndice
Tt y Tt+1 respectivamente) corresponden al factor k0 de un
modelo CCR para la unidad en evaluación, empleando los
datos del primer período en evaluación al lado izquierdo de
las ecuaciones y del segundo periodo al lado derecho y
viceversa, correspondientemente a las últimas dos (2)
eficiencias mencionadas [9].
La primera parte del índice de Malmquist, denominada
cambio en eficiencia técnica, representa el cambio en la
eficiencia de uso de los insumos (entradas) para entregar
productos (salidas). Un valor mayor que 1, implica que la
unidad de producción ha mejorado el uso de entradas para
producir salidas, mientras que un valor igual a 1, implica que
no ha habido ninguna mejoría. Por el contrario una medida
menor que 1 implica que la unidad de producción es menos
eficiente en el uso de las entradas para producir salidas.
La segunda parte del índice de Malmquist, denominada
cambio de eficiencia de la industria, captura el cambio en la
frontera de la industria. Su interpretación en términos de los
resultados obtenidos es contraria al caso de la primera parte
del indicador, pues una mejora en los niveles de la frontera,
reportará un valor menor que uno y viceversa [9].
A su vez, el índice de Malmquist se descompone según Fare,
Grosskopf, Lindaren y Ross (1989 y 1992), en: cambio de
eficiencia relativa y cambio de eficiencia técnica. Por su parte,
Fare, Grosskopf, Norris y Zhang (1994), consideran
rendimientos variables a escala y descomponen el índice en:
(12)
(14)
(13)
Volumen 13, Nº 52, septiembre 2009. pp 239-249
245
cambio eficiencia relativa, cambio de eficiencia técnica pura
y cambio de eficiencia de escala [2].
4. Metodología
La metodología consiste en la selección de una serie de
indicadores socioeconómicos que permiten definir a través de
la aplicación de la técnica DEA la eficiencia o ineficiencia del
Estado Venezolano en la generación de bienestar social. Se
toman como muestras los datos de indicadores sociales entre
la década 1996 – 2006. Éstos son obtenidos de La Comisión
para el Desarrollo de América Latina y el Caribe (CEPAL)1,
La Organización de las Naciones Unidas (ONU)2 y del
Instituto Nacional de Estadística Venezolano (INE)3.
Utilizando los siguientes programas computacionales se
resuelven las ecuaciones:
• Efficiency Measurement System (EMS), version 1.3, de laHolger Scheel. Para el cálculo del índice de Malmquist y
la supereficiencia.
• Ábaco PL, versión 1.0, de la UNEXPO. Para el cálculo de
las eficiencias de todos los modelos [10].
• Ábaco DEA, versión 1.0, de la UNEXPO. Para la
verificación de los resultados obtenidos con EMS y Ábaco
PL, modelos 0 y 3 [11].
Cabe destacar, que al utilizar la técnica DEA para el cálculo
de eficiencias de diferentes periodos de tiempo es necesario
deflacionar los datos aun mismo tiempo de referencia usando,
por ejemplo, el Índice de Laspeyres [2]. Para el caso que nos
atañe todas las variables en Bolívares son llevadas al año base
2000, para evitar errores debido al factor inflación. Por otra
parte, el avance tecnológico promueve un cambio en la
frontera eficiente, por lo que resulta inexacto muchas veces
calcular eficiencia para periodos de tiempo largos utilizando
DEA. Por ello, en este trabajo se demuestra con la aplicación
de la descomposición del índice de Malmquist que no existe
un cambio técnico significativo durante el periodo analizado.
4. Resultados obtenidos
En las tablas I y II se indican las variables de entrada y salida
seleccionadas para la determinación de los elementos que
afectan la eficiencia de las instituciones públicas. Las entradas
se establecen per cápita, para incluir el aumento en el número
de habitantes por año.
Tabla I. Variables de entrada con base al año 2000 para los modelos DEA
1 Ver página Web: http://www.un.org/spanish/esa/progareas/stats.html2 Ver página Web: http://www.eclac.cl/ddpe/3 Ver página Web: http://www.ine.gov.ve/
Tabla II. Variables de salida de tipo social para los modelos DEA
Viloria, A. et al. Propuesta de un mecanismo de medición para el conjunto de vicios que afectan a las instituciones
246
Los resultados se procesan para cada año del periodo 1996 –
2006. En la tabla 3, se reportan las eficiencias
correspondientes a los cuatro (4) modelos DEA primales, así
como el calculo de la eficiencia de escala, expresada como
una razón entre la eficiencia global de modelo 0 y la
eficiencia técnica pura del modelo 3. El retorno, puede ser
constante (A), creciente (B) o decreciente (C), tal como se
indica en la tabla III.
Tabla III. Eficiencias en la utilización del gasto social, Venezuela, periodo 1996 – 2006
Tabla IV. Ineficiencias en la utilización del gasto social, Venezuela, periodo 1996 – 2006
El cálculo de los cambios en la productividad y de las distintas
eficiencias en el periodo de estudio, es realizado utilizando el
índice de Malmquist y las descomposiciones de Fare,
Grosskopf, Lindaren y Ross (1989 y 1992), y de Fare,
Grosskopf, Norris y Zhang (1994). En la tabla V, se presentan
los valores obtenidos.
Volumen 13, Nº 52, septiembre 2009. pp 239-249
Por su parte, las ineficiencias por años se relejan en la tabla
IV las cuales representan la diferencia existente entre el 100%
correspondiente a la frontera estocástica y el valor de
eficiencia obtenida para cada modelo en la tabla III.
247
Tabla V. Descomposición del índice de Malmquist para generación de bienestar social
5. Discusión de resultados
La eficiencia global indica la relación que existe entre los
recursos utilizados en un año hipotético (que se considera
posee una economía de escala constante) y los recursos
consumidos en los años que son objetos de estudio; ambos
con los mismos productos generados. Como en el año
hipotético de referencia no se están considerando las
deseconomías, es evidente que este utiliza menos recursos que
un año del periodo real 1996-2006, por lo tanto, las eficiencias
reflejadas en los resultados son menores o iguales que la
unidad, siempre y cuando la orientación sea hacia las entradas.
Según la tabla III, al año 1998 le corresponde la mayor
eficiencia en la utilización de los recursos para producir
bienestar social. Mientras, que los años 2003 al 2006,
evidencian una drástica disminución de la eficiencia técnica,
global y de escala. Si se analiza los datos se puede observar
que entre los años anteriormente nombrados se ha estado
incrementado el gasto social, pero sin embargo, los resultados
no han sido proporcionales con lo esperado. El cálculo de las
supereficiencia para la tabla III no es relevante, ya que solo
existe una unidad ubicada en la frontera eficiente.
Inversamente a los datos anteriores la tabla IV muestra los
valores de ineficiencias para cada año de la década de estudio,
en esta se puede observar como en los años que van del 2004
al 2006 las ineficiencias para generar bienestar social se han
incrementado drásticamente con respecto a los valores
obtenidos en otros años de la tabla IV. Los valores mínimos
correspondieron a los años 1996 y 1998.
Las ineficiencias calculadas en la tabla IV pueden serinterpretadas como una cuantificación del conjunto de vicios
(corrupción, burocracias, partidismos, etc.) que afectan a lasinstituciones públicas del país y que no permiten impactarestructuralmente en la calidad de vida de sus habitantes, apesar del inminente incremento en el gasto social por partedel estado.
En la Figura 6 se muestra la evolución del conjunto de vicios
que han afectado a las instituciones financieras venezolanas
durante la década 1996-2006 utilizando las ineficiencias de
escala presentadas en la tabla IV.
Figura 6. Evolución del conjunto de vicios que afectan alas instituciones públicas venezolanas, década 1996-2006
La tabla V muestra la variación de la productividad en la
utilización de recursos para producir impacto social. En ella,
los periodos 1997-1998, 2001-2002, 2002-2003, evidencian
un aumento de productividad en un 35,15%, 13,97% y 1,82%
respectivamente. La caída más pronunciada del índice ocurrió
del 2005 al 2006.
Viloria, A. et al. Propuesta de un mecanismo de medición para el conjunto de vicios que afectan a las instituciones
248
El progreso tecnológico se mantuvo estancado durante la
década de estudio ya que se mantiene constante el valor de la
eficiencia técnica relativa. Por su parte, la alta productividad
del periodo 1997-1998 corresponde a un aumento en la
eficiencia de escala y técnica, lo que implica un acercamiento
a la frontera tecnológica, sin embargo, no ha sido lo
suficientemente significativa como para manifestarse en un
progreso técnico. Se puede decir entonces que en la década
1996-2006 no se produjo una variación significativa entre la
distancia de la frontera tecnológica de rendimientos constantes
de un año anterior a uno posterior.
Es de hacer notar que el cambio de eficiencia de escala,
representa el cociente entre: el valor de la función distancia
que satisface rendimientos constantes y variables. Ahora bien,
como dicho valor no sufre modificaciones para el periodo
señalado, se puede decir que la relación se mantuvo constante.
De lo anterior se determina que:
• Las variaciones de eficiencias en la utilización del gasto
social muestran que una misma cantidad de dinero para un
año determinado no se manifiesta en un retorno igual o
superior para otro año. Según la descomposición del índice
de Malmquist no está ocurriendo un progreso tecnológico
significativo que pueda causar las anteriores variaciones,
por lo tanto, estas fluctuaciones se adjudican a una mala
administración del dinero e incluso se podrían tomar como
una medida de los vicios de las instituciones responsables
que no permite que el gasto social cumpla su cometido.
• Los cambios en los índices de Malmquist fueron
proporcionales a los cambios de eficiente registrado por la
técnica de Análisis Envolvente de Datos.
• La utilización de la técnica DEA para medir la eficiencia
de periodos de tiempo se ve afectada por el movimiento
de la frontera eficiente debido a un progreso tecnológico.
En el presente caso se supuso que la frontera permanecía
invariable con el tiempo, hecho que posteriormente se
demostró con la descomposición del índice de Malmquist
donde se puede observar que no ocurre ningún cambio
significativo en el progreso técnico o tecnológico de la
nación, que afectase directamente las variables utilizadas.
• La flexibilidad y capacidad de adaptación representan
ventajas asociadas a la metodología DEA. Sin embargo,
también se ve afectada por limitaciones. La estimación de
la frontera DEA y los índices de eficiencia se ven
influenciados por los siguientes aspectos: heterogeneidad
de las unidades evaluadas; omisión (inclusión) de inputs y
outputs relevantes (irrelevantes); errores de medida en las
variables; existencia de outliers (unidades que se localizan
en la frontera por razón del alto rendimiento en uno sólo o
en número reducido de factores). La flexibilidad que se
asocia al modelo DEA al construir una frontera empírica de
eficiencia sin necesidad de establecer hipótesis sobre la
forma funcional, se ve contrarrestado por la influencia que
tiene sobre los resultados el conjunto de observaciones y la
especificación del modelo (selección de inputs y outputs).
Una especificación incorrecta del modelo puede conducir a
obtener una distribución sesgada del término ineficiencia.
El problema yace en la inexistencia de procedimientos
estandarizados para la construcción de modelos DEA.
6. Conclusiones
La ineficiencia medida a través de la técnica DEA para las
instituciones públicas se estableció como el conjunto de vicios
(corrupción, burocracias, etc.) que afectan la generación de
bienestar social por parte de dichos organismos.
Finalmente, es oportuno señalar que una mayor información
sobre los inputs y outputs que intervienen en la metodología
aplicada; concentrar el análisis en un sector determinado para
la generación de bienestar social (para reducir la
heterogeneidad de las observaciones); y un análisis
incorporando un horizonte temporal más dilatado, fortalecería
los resultados obtenidos.
Referencias.
1. Núñez, M. (2006): Ingeniería de la Productividad,
Universidad Nacional Experimental Politécnica Antonio
José de Sucre, Venezuela.
2. Coll, V. y Blasco, O. (2006): Evaluación de la Eficiencia
Mediante Análisis Envolvente de Datos: Introducción a
los Modelos Básicos, Universidad de Valencia, España.
3. Beltrán, V. (2004): Conjunto de Productividad para
Problemas de Análisis Envolvente de Datos, Universidad de
Puerto Rico recinto universitario de Mayagüez, Puerto Rico.
4. Rhodes, E. (1978): Data Envelopment Analysis and
Related Approaches for Measuring the Efficiency of
Decision-Making Unit with Application to Program Follow
Through U. S. Education, Ph. D. thesis, Carnegie-Mellon
University School of Urban and Public Affair, USA.
5. Charnes, A. Cooper, W. y Rhodes, E. (1978): Measuring
the efficiency of decision making unit, European Journal
of Operation Research 2, pp. 429–444.
6. Färe, R. y Grosskopf, S. (1985): A non-parametric cost
approach to scale efficiency, Scandinavian Journal of
Economics 87, pp. 35-50.
7. Seiford, L. y Thrall, R. (1990): Recent development in
DEA, the mathematical programming approaches to
frontier analysis, Journal of Econometrics 46, pp. 7-38.
Volumen 13, Nº 52, septiembre 2009. pp 239-249
249
8. Banker, R. Charnes, A. y Cooper, W. (1984): Some models
for estimating technical and scale inefficiencies in data
envelopment analysis, Management Science 30, pp. 1078-
1092.
9. Rojas, J. (2000): Aplicación de Análisis Envolvente
de Datos a la Evaluación de Eficiencia en Gastos
Administrativos para la Industria de Seguros
Generales de Colombia, Universidad de los Andes,
Colombia.
10. Pico J. (2004): Ábaco DEA, Universidad Nacional
Experimental Politécnica Antonio José de Sucre, Venezuela.
11. Núñez, M y Pico J. (2004): Ábaco PL, Universidad Nacional
Experimental Politécnica Antonio José de Sucre, Venezuela.
Viloria, A. et al. Propuesta de un mecanismo de medición para el conjunto de vicios que afectan a las instituciones
250
DISEÑOS DE CIRCUITOS ELECTRÓNICOS DIGITALESUTILIZANDO LA TECNOLOGÍA FPGA
Rojas, Leireny Franco M, Zulay E Pateti M, Antonio S
Resumen: El objetivo fundamental de esta investigación fue implementar en la tarjeta XSV-800 una interfaz
teclado PS/2-monitor VGA, utilizando la tecnología FPGA y el lenguaje VHDL. Para su realización el
procedimiento básico seguido fue establecer las bases teóricas sobre estas tecnologías y la tarjeta XSV-800,
tal que permitieran construir los diseños necesarios para lograr la aplicación deseada. La investigación llevada
a cabo propone alternativas de cambio en las herramientas utilizadas para efectuar los diseños electrónicos.
El desarrollo de esta investigación permitió comprobar que las tecnologías FPGA y el lenguaje VHDL
constituyen unas herramientas versátiles y flexibles de diseño, permitiéndole al que las maneja realizar
complejos diseños electrónicos en menor tiempo.
Palabras clave: XSV-800/ Interfaz/ Teclado PS/2/ Monitor VGA/ Tecnología/ FPGA/ VHDL.
DESIGN OF DIGITAL ELECTRONIC CIRCUITS USINGFPGA TECHNOLOGY AND VHDL LANGUAGE
Abstract: The primary objective of this research was to implement on the card XSV-800 VGA PS/2-monitor
keyboard interface, using FPGA technology and VHDL language. To realise the basic procedure followed
was to establish the theoretical underpinnings of these technologies and XSV-800 card, allowing it to build
the designs necessary to achieve the desired application. An investigation conducted proposed options for
change in the tools used for making electronic designs. The development of this investigation revealed that
the technologies and FPGA VHDL language tools are versatile and flexible design, allowing it to perform
complex that handles electronic designs in less time.
Keywords: XSV-800/ Interface/ PS / 2/ VGA Monitor/ FPGA/ VHDL.
Volumen 13, Nº 52, septiembre 2009. pp 250-258
Manuscrito finalizado en Ciudad Guayana, Venezuela, el 2009/02/05, recibido el 2009/03/23, en su forma final (aceptado) el 2009/03/30. La Ing. RojasLeireny, La MSc. Zulay Franco y el MSc. Antonio Pateti, desempeñan sus actividades en el Centro de Diseño Microelectrónica, Departamento de Electrónicaen la Universidad Nacional Experimental Politécnica Antonio José de Sucre (UNEXPO) Vicerrectorado Puerto Ordaz. Correos electró[email protected]; [email protected]; [email protected]. respectivamente.
I.- INTRODUCCIÓN
En la actualidad, el requerimiento es integrar diseños
complejos en espacios cada vez más pequeños y hacerlo en el
menor tiempo posible. Por esta razón, es importante la
enseñanza de nuevas tecnologías de diseño que permitan
concentrar una gran lógica digital en un único circuito
integrado y manejar tiempos de respuesta instantáneos. Dos
de estas tecnologías son los dispositivos lógicos programables,
FPGA (Field Programmable Gate Array) y el lenguaje de
descripción de hardware, VHDL (Very High Speed Integrated
Circuits Hardware Description Language).
Para estudiar estas tecnologías FPGA y VHDL se implementó
una interfaz que permite manejar los puertos PS/2 y VGA de
la tarjeta de desarrollo XSV-800, a través de un teclado y un
monitor.
II. DESARROLLO
1. Etapas del proceso de diseño con dispositivos lógicosprogramables
El proceso de diseño con dispositivos lógicos programables o
PLDs, utilizando como lenguaje de descripción de hardware
el VHDL, se puede dividir en cinco etapas bien definidas,
como se observan en la Figura 1.
Figura 1. Etapas básicas en el proceso de diseño con PLDs
NOTA TÉCNICA
251
1.1 Definición de los requerimientos del diseño
Antes de empezar a escribir líneas de código, lo primero es
tener una idea clara de los objetivos y requerimientos o
especificaciones del diseño, lo cual se logra respondiendo
preguntas como las siguientes: ¿qué funcionalidad debe tener
el diseño?, ¿para qué sirve?, ¿cuáles son los tiempos
requeridos para la inicialización o la relación reloj-salida?,
¿cuál es la frecuencia máxima de operación?, ¿cuáles son los
caminos críticos?... Responder de forma apropiada a éstas y
otras preguntas permite elegir una metodología de diseño y
una arquitectura de dispositivo adecuada.
1.2 Descripción del diseño en VHDL
La descripción del diseño se subdivide en dos fases:
formulación y codificación del diseño.
• Formulación del diseño
A partir de las especificaciones se debe decidir una
metodología para describir el diseño más eficientemente.
Existen tres tipos de metodología de diseño: top-down,
bottom-up y flat. Las dos primeras implican el crear
estructuras jerárquicas, mientras que la última ve el diseño
como un todo. La explicación de ellas es la siguiente:
Metodología top-down: divide el diseño en componentes
funcionales. Cada componente tiene entradas y salidas
específicas y desarrolla una determinada función. Cada
componente se describe mediante cajas y existen diferentes
niveles. Los niveles permiten clarificar la interconexión entre
los diferentes componentes.
Metodología bottom-up: supone exactamente lo contrario que
la metodología top-down, definiendo y diseñando
componentes individuales, se van uniendo para componer el
diseño completo.
Metodología flat: es aquella en la que los detalles de los
componentes son definidos en el mismo nivel que las
interconexiones entre ellos. Es la que se considera más
apropiada para diseños pequeños, donde el disponer de los
detalles de la estructura interna de un componente funcional
no distrae del diseño global a nivel de chip.
• Codificación del diseño
Seguidamente a la decisión de la metodología a ser aplicada,
se describen diagramas de flujo o de bloque, con el lenguaje
de descripción elegido, cuidando la sintaxis y la semántica
utilizadas.
1.3 Simulación del código fuente
La simulación del código fuente permite depurar errores
funcionales antes de la implementación o síntesis final del
diseño.
1.4 Síntesis, optimización y ajuste del diseño
• Síntesis
Se define como la traducción de la descripción de un diseño a
una representación de circuito de bajo nivel, como un netlist,
es decir, es el proceso por el cual se crean netlist o ecuaciones
a partir de descripciones de diseño, en principio abstractas. El
proceso de síntesis depende de la tecnología empleada, lo que
significa que el paso de una descripción en VHDL hacia un
conjunto de netlist es diferente de un dispositivo a otro. El
proceso de síntesis convierte el diseño a unas estructuras de
datos internas, traduciendo el “comportamiento” descrito en
alto nivel a una descripción de nivel de transferencia de
registros (register-transfer level: RTL). La descripción RTL
especifica registros, señales de entrada y salida con la
respectiva lógica combinacional entre ellas. Algunas
herramientas de síntesis traducen estructuras de datos en
funciones lógicas optimizadas según la arquitectura elegida,
buscando qué partes de la lógica diseñada se puede sustituir
por estas estructuras.
• Optimización
El proceso de optimización depende de tres variables o
constraints: la forma de las expresiones booleanas, el tipo de
recursos disponibles y las directivas de síntesis utilizadas,
tanto automáticas como propias del usuario. Algunas formas
funcionales se implementan mejor en unos recursos que en
otros.
La optimización de estructuras PLD implica la simplificación
de las expresiones lógicas a una suma mínima de términos
producto, además también se optimiza el número de literales.
Para ello se utilizan técnicas de simplificación de la forma
canónica en una suma de términos producto. La optimización
para FPGAs típicamente requiere que la lógica se exprese en
otra forma. Se busca entonces factores comunes que se puedan
utilizar en diferentes partes del diseño.
• Ajuste del diseño
El ajuste es el proceso por el que se toma la lógica producida
por la síntesis y la optimización y se coloca en un dispositivo
lógico, transformando la lógica, de ser necesario, para obtener
el mejor ajuste. Ajuste es un término utilizado habitualmente
para describir el proceso de colocar los recursos en
arquitecturas del tipo CPLD. Cuando la arquitectura es una
FPGA el proceso se suele denominar “Placing and Routing”,
Rojas, L., Franco, Z., Pateti, A. Diseños de circuitos electrónicos digitales utilizando la tecnología FPGA
252
Volumen 13, Nº 52, septiembre 2009. pp 250-258
ya que se colocan bloques lógicos en diferentes células de la
FPGA y posteriormente se interconectan entre sí o hacia
bloques de entrada/salida (I/O).
1.5 Programación del dispositivo
La programación del dispositivo es la etapa final del proceso
de diseño con dispositivos lógicos programables. A través de
esta fase se programa el PLD con el diseño realizado en
lenguaje de descripción de hardware, colocando en
funcionamiento la aplicación deseada.
2. Diseño de una interfaz que permite manejar los puertosPS/2 y VGA de la tarjeta de desarrollo XSV-800
La metodología seguida se basó en cumplir con las etapas que
definen el proceso de diseño con dispositivos lógicos
programables descrito en la sección anterior.
2.1 Definición de los requerimientos del diseño
La vista frontal del teclado utilizado en este diseño se muestra
en la Figura 2.
Figura 2. Imagen de la vista frontal del teclado utilizado en el proyecto
Figura 3. Representación del proceso que ejecuta la implementación
De las teclas admitidas, la implementación no contempla aquellos caracteres que para obtenerlos requieren que la tecla Alt Gr
sea presionada previamente. La aplicación acepta con su funcionamiento normal el uso de las teclas Bloq Mayus, Backspace,
Enter e Intro. También acepta las teclas Shft derecho, Shft izquierdo y Bloq Num pero no con su modo de operación normal.
En lo referente a las características de los caracteres al ser mostrados en el monitor VGA, son de un tamaño de 16x16 píxeles,
de color negro y se muestran sobre un fondo blanco. Por otro lado, la resolución de la pantalla del monitor VGA utilizada es
de 800x600 píxeles y la frecuencia máxima de operación para el diseño es de 50 MHz.
Con las especificaciones del diseño se procedió a puntualizar la idea general de cómo desarrollar la implementación, que fue
básicamente la siguiente: guardar en la memoria SRAM de la tarjeta los datos, en formato hexadecimal, que representan a los
caracteres admitidos por la aplicación, y crear un módulo que se encargue de leer los que corresponden a la tecla presionada,
previamente identificada por su scancode, para luego escribirlos en el espacio de memoria destinado para almacenar la
información a mostrar en el monitor VGA. De modo general, este proceso se presenta en la Figura 3.
253
La metodología utilizada para realizar el diseño fue la
metodología top-down, ya que para lograr la aplicación
planteada lo más conveniente fue dividir el diseño en
componentes, cada uno de los cuales con una función
específica, de forma tal que la interconexión de éstos
constituyera el módulo de mayor jerarquía de la
implementación. De esta manera, el diseño se separó en los
siguientes bloques:
Un componente cuya función es obtener el código scancode
de la tecla presionada.
Un componente cuya función es obtener la dirección de la
memoria SRAM de la tarjeta XSV-800 a partir de la cual se
encuentran los datos que representan al carácter de la tecla
presionada.
Un componente cuya función es escribir la información del
carácter de la tecla presionada en el área de la memoria SRAM
que corresponde al monitor VGA.
Un componente cuya función es generar las señales que
permitan visualizar en el monitor VGA los caracteres escritos
con el teclado PS/2.
Un componente cuya función es generar automáticamente la
señal de reset de entrada a los demás componentes.
2.2 Codificación del diseño
Una vez conocidas las especificaciones del diseño y la
metodología a emplear, se procede a describir en lenguaje
VHDL los componentes diseñados para construir la
aplicación. Para esto se utilizó el software Webpack 4.1,
iniciando por el módulo de mayor jerarquía y continuando con
los de menor jerarquía.
En la Figura 4 se muestra el módulo principal del proceso y,
por tanto, representa el top. Tiene por función interconectar
los bloques que componen el diseño de modo de construir la
aplicación. Teclado.vhd trabaja a la frecuencia máxima de
operación de 50 MHz. El símbolo esquemático de este módulo
se muestra en la Figura 4 y la explicación de los puertos de
entrada y salida que lo definen se da a continuación.
Figura 4. Símbolo esquemático del módulo Teclado.vhd
Puertos de entrada:
clk: es la entrada del reloj principal de la tarjeta XSV-800.
ps2_clk: a través de este entra la señal de reloj del teclado de puerto PS/2 que tiene frecuencia de 10 kHz.
ps2_datos: esta entrada acepta los datos enviados serialmente desde el teclado de puerto PS/2.
Puertos de salida:
cs: señal de activación de la memoria SRAM de la tarjeta XSV-800.
oe: señal de activación de la memoria en modo de lectura.
we: señal de activación de la memoria en modo de escritura.
Rojas, L., Franco, Z., Pateti, A. Diseños de circuitos electrónicos digitales utilizando la tecnología FPGA
254
blankn: pulso de blanqueo dirigido al monitor VGA.
RDn: habilita la lectura de datos en la memoria interna de la RAMDAC y es activo en bajo. Siempre se mantiene en ‘1’ pues
para programar la RAMDAC no es necesario leer datos.
WRn: es activo en bajo y habilita la escritura de datos en la memoria interna de la RAMDAC para la programación de ésta.
hsync: pulso de sincronización horizontal del monitor VGA.
vsync: pulso de sincronización vertical del monitor VGA.
triste: señal para desactivar el puerto ethernet PHY de la tarjeta XSV-800.
pixelclk: señal de reloj de la RAMDAC.
banme_izq: deshabilita el banco izquierdo de memoria de la tarjeta XSV-800.
flash: deshabilita la memoria flash de la XSV-800.
p_cargado: indica que el programa esta cargado en la FPGA.
direccion(18:0): es la dirección, bien sea para la lectura o para la escritura, de la memoria SRAM de la tarjeta XSV-800. 0 es
la posición menos significativa.
Puertos de entrada-salida:
datos(7:0): son los datos leídos desde la memoria o a escribir, correspondientes a la información de los píxeles de cada carácter
a mostrar. 0 es la posición menos significativa.
RAMDACD(7:0): los datos de 8 bits son transferidos dentro y fuera de la RAMDAC sobre este bus bidireccional para la
programación de ésta. 0 es la posición menos significativa.
RS(2:0): la combinación de los tres bits que lo conforman especifica a qué registro direcciona la interfaz MPU de la RAMDAC
para la programación de ésta.
En la Figura 5 se muestran los bloques que forman a Teclado.vhd .
Figura 5. Bloques.vhd que conforman a Teclado.vhd.
Volumen 13, Nº 52, septiembre 2009. pp 250-258
255
Adicionalmente al diseño anterior fue necesario desarrollar
dos bloques que no forman parte del top del diseño
Teclado.vhd. Grabar_sram_fondo.vhd que tiene por función
grabar a partir de la dirección cero del banco derecho de la
memoria SRAM de la tarjeta XSV-800 el fondo blanco sobre
el que se ven los caracteres en la pantalla del monitor VGA y
. Grabar_sram_letras.vhd que tiene como finalidad grabar a
partir de la dirección 490.000 del mismo banco de memoria
la lista que contiene los datos de los caracteres válidos para
mostrar .Estos módulos operan a una frecuencia de 1 MHz la
cual se obtiene a través de un divisor de la señal de reloj de
50 Mhz.
Además de crear los módulos Grabar_sram_fondo.vhd y
Grabar_sram_letras.vhd fue necesario desarrollar en Labview
7 interfaces que proporcionarán comunicación entre la PC y
la FPGA, de modo que junto con estos bloques se lograra
grabar y leer el fondo blanco de la pantalla del monitor VGA
y los caracteres en la memoria de la tarjeta XSV-800.
2.3 Simulación del código fuente
Luego de la codificación de los diseños realizados, el paso
siguiente fue la simulación para corregir los errores
funcionales antes de la implementación. Esta simulación se
realizó a través del software Modelsim 5.7c con los vectores
de prueba construidos utilizando la interfaz gráfica que para
ello ofrece Webpack 4.1.
2.4 Síntesis, optimización y ajuste del diseño
Seguidamente a la simulación, se realizó la fase de conversión
del lenguaje de descripción de hardware de los
correspondientes módulos a lógica de compuertas, haciendo
uso de la herramienta FPGA Express del software Foundation
4.1i. El éxito de esta conversión depende del modo de
descripción del bloque.vhd. El software FPGA Express
permite verificar si hubo errores en la síntesis del diseño y la
lógica utilizada. Como resultado de este paso, luego del
chequeo y corrección de las fallas encontradas, se obtuvo el
archivo .edf.
Por otro lado, se creó el archivo .ucf que contiene la
configuración de los pines asignados a los puertos de entrada
y salida del módulo top del diseño. Los archivos .edf y .ucf se
utilizaron para generar el archivo de programación .bit con la
herramienta Design Manager de Foundation 4.1i.
2.5 Programación del dispositivo
El archivo .bit obtenido en la fase anterior fue cargado a la
FPGA de la tarjeta XSV-800, con el software XSTOOLs 4.0,
para su programación a través del puerto paralelo.
La programación del dispositivo constituye la última etapa del
proceso, la de implementación, que es la que se repite en cada
puesta en marcha de la aplicación. Para esta fase es necesario
tener los siguientes materiales:
1 tarjeta XSV-800.
1 teclado de puerto PS/2.
1 monitor VGA de 15 pulgadas.
1 fuente de computadora ATX, es la más recomendada, o una
fuente que suministre 9 VDC y al menos 1.5 A, con conector
de 2.1 mm de diámetro y centro positivo.
1 PC con los softwares utilizados.
1 cable de puerto paralelo.
Archivo .bit del top del diseño.
Archivo .bit de Grabar_sram_fondo.vhd.
Archivo .bit de Grabar_sram_letras.vhd.
Archivo .txt con los caracteres en formato hexadecimal a
grabar en la memoria de la tarjeta XSV-800.
Archivo .bmp con la imagen del fondo a mostrar en el monitor
VGA.
Las interfaces Grabar_fondo.vi y Grabar a la sram.vi, y la
función Grabar Sram.vi.
Los pasos para la implementación del diseño son:
Paso 1: Suministrarle energía a la tarjeta XSV-800.
Paso 2: Configurar el oscilador programable de la tarjeta
XSV-800, con GXSSETCLK, para que su frecuencia de
trabajo sea de 50 MHz.
Paso 3: Realizar un test a la tarjeta con GXSTEST para
verificar su correcto funcionamiento.
Paso 4: Luego de superado el paso anterior, descargar a la
tarjeta XSV-800 el archivo dwnldpar.svf para programar la
CPLD que contiene.
Paso 5: Descargar a la tarjeta XSV-800 el archivo .bit de
Grabar_sram_fondo.vhd.
Paso 6: Ejecutar la interfaz Grabar_fondo.vi para grabar en
la memoria SRAM de la tarjeta el fondo a mostrar en la
pantalla del monitor VGA.
Rojas, L., Franco, Z., Pateti, A. Diseños de circuitos electrónicos digitales utilizando la tecnología FPGA
256
Paso 7: Descargar a la tarjeta XSV-800 el archivo .bit de
Grabar_sram_letras.vhd.
Paso 8: Ejecutar la interfaz Grabar a la sram.vi para grabar en
la memoria SRAM de la tarjeta los caracteres a mostrar en el
monitor VGA.
Paso 9: Descargar a la tarjeta XSV-800 el archivo .bit del top
del diseño.
Paso 10: Conectar el teclado de puerto PS/2 y el monitor
VGA a la tarjeta sin desconectar el cable que la comunica con
la PC pues se desprogramaría la FPGA.
Paso 11: ¡Iniciar la escritura de caracteres con el teclado!
Los pasos 5 y 6 pueden intercambiarse con los pasos 7 y 8 sin
problema, siempre que estos cuatro se realicen antes del paso
9, de no ser así se vería cualquier tipo de imagen en la pantalla
del monitor VGA menos la esperada. La Figura 5 muestra los
dispositivos conectados a la tarjeta XSV-800 en la etapa de
implementación.
Figura 5. Dispositivos conectados a la XSV-800 en la implementación
3. Resultados y discusión
El desarrollo de esta investigación trajo como resultado la
implementación de una interfaz que permite manejar el puerto
PS/2 y el VGA de la tarjeta XSV-800, a través de un teclado y
un monitor. Esta interfaz admite la posibilidad de escribir
caracteres desde el teclado y mostrarlos en el monitor VGA en
tiempo real, usando como medio de comunicación entre ambos
la XSV-800. En la Figura 6 se observa la implementación en
funcionamiento junto con los equipos básicos por los que
físicamente esta constituida, el teclado PS/2, el monitor VGA,
la fuente de poder de 9 VDC y la tarjeta XSV-800.
Figura 6. Equipos básicos necesarios para la aplicación
En el desarrollo de la aplicación también se obtuvo como
resultado dos interfaces entre la FPGA de la XSV-800 y la PC:
Grabar_fondo.vi que permite grabar en la memoria SRAM de
esta tarjeta el fondo blanco sobre el que se muestran los
caracteres en el monitor VGA, y Grabar a la sram.vi que
permite grabar en la memoria los caracteres a mostrar. Los
paneles frontales de estas interfaces se muestran en las Figuras
7 y 8. Funcionan automáticamente con sólo presionar el botón
Grabar fondo o Grabar los caracteres, según sea el caso, y
elegir en la ventana de diálogo que aparece el archivo que
contiene la información a guardar.
Figura 7. Panel frontal de la interfaz Grabar_fondo.vi
Volumen 13, Nº 52, septiembre 2009. pp 250-258
257
Figura 8. Panel frontal de la interfaz Grabar a la sram.vi
El desarrollo de esta investigación permitió comprobar que
las tecnologías FPGA y el lenguaje VHDL constituyen unas
herramientas de diseño versátiles y flexibles, permitiéndole al
que las maneja realizar complejos diseños electrónicos en
menor tiempo.
III.- CONCLUSIONES
1. Posterior al análisis del funcionamiento de los distintos
dispositivos involucrados en este proyecto, como son el
teclado PS/2, el monitor VGA y el puerto PS/2, los bancos
de memoria SRAM, el puerto VGA y la RAMDAC de la
tarjeta XSV-800, se consiguió diseñar los diversos
módulos en VHDL que permitieron finalmente la
implementación en el sistema de desarrollo XSV-800 de
una interfaz que admite la posibilidad de escribir
caracteres en un teclado de puerto PS/2 y mostrarlos en un
monitor VGA en tiempo real, utilizando para el diseño las
tecnologías FPGA y el lenguaje de descripción de
hardware VHDL. De esta manera, se logró cumplir los
objetivos trazados al inicio de esta investigación.
2. Adicionalmente, también se logró la implementación de
dos interfaces entre la FPGA de la XSV-800 y la PC que
permiten grabar datos en la memoria SRAM de esta
tarjeta. La primera, Grabar_fondo.vi, permite grabar el
fondo blanco sobre el que se muestran los caracteres en el
monitor VGA, y la segunda, Grabar a la sram.vi, permite
grabar los caracteres a mostrar.
3. A través de la aplicación realizada se pudo constatar que
para una misma tecla existe diferencia entre el código
scancode enviado por un teclado y el enviado por otro, lo
cual depende de la marca del teclado, su lugar de
fabricación y el número de teclas que éste contenga.
IV. BIBLIOGRAFÍA
1. Universidad de Zaragoza. (2000a). Circuitos lógicos
programables. Disponible: http://eupt2.unizar.es/
asignaturas/ittse/sistemas_electronicos_digitales/
Cuatrimestre1/04tema/04teoria.pdf [Consulta: 2005,
Septiembre 17]. [Documento en línea]
2. Aguirre Echánove, M. Á., Noel Tombs, J. y Muñoz
Chavero, F. (s.f.). Lenguajes de alto nivel para diseño de
circuitos integrados digitales [Documento en línea].
Disponible: http://www.gte.us.es/usr/aguirre/Apuntes.pdf
[Consulta: 2005, Septiembre 17].
3. Boluda, J. A. (2004). Periféricos I: Controlador de
pantalla VGA [Documento en línea]. Disponible:
http://mural.uv.es/justcal/AEC0405/
p1/P1_AEC_04_05.pdf [Documento en línea]
[Consulta: 2005, Mayo 20]
4. Brooktree Corporation. (1996). Bt481A Disponible:
http://alaxy.uci.agh.edu.pl/~jamro/xsv/org/RamDAC.pdf
[Consulta: 2005, Julio 12]
5. Chapweske, A. (2003). The PS/2 mouse/keyboard
protocol [Documento en línea]. Disponible:
http://www.computer-engineering.org/ps2protocol
[Consulta: 2005, Mayo 24] Escuela Politécnica Superior
UAM. (2004).
6. Partis, A. y Peddersen, J. (2001). VHDL XSV board
interface projects: VGA out [Documento en línea].
Disponible: http://www.itee.uq.edu.au/~peters/xsvboard/
index.html [Consulta: 2005, Mayo]
7. Torres Valle, F. J. (s.f.). Dispositivos lógicos programables
[Documento en línea]. Universidad autónoma de
Guadalajara Disponible: http://www.uag.mx/214/
II_DISPOSITIVOS_LOGICOS_PROGRAMABLES.pdf
[Consulta: 2005, Septiembre 17]
8. Universidad de Zaragoza. (1999). Lenguaje VHDL
[Documento en línea]. Disponible: http://eupt2.unizar.es/
asignaturas/ittse/sistemas_electronicos_digitales/
Cuatrimestre1/05tema/05anexo.pdf [Consulta: 2005,
Septiembre 17]
9. Universidad de Zaragoza. (2000b). Diseño con PLD
[Documento en línea]. Disponible: http://eupt2.unizar.es/
asignaturas/ittse/
sistemas_electronicos_digitales/Cuatrimestre1/05tema/05
teoria.pdf [Consulta: 2005, Septiembre 17]
10. Vanden Bout, D. (2004). VGA generador for the XSA
boards [Documento en línea]. Disponible:
Rojas, L., Franco, Z., Pateti, A. Diseños de circuitos electrónicos digitales utilizando la tecnología FPGA
258
Volumen 13, Nº 52, septiembre 2009. pp 250-258
http://www.xess.com/appnotes/an-101204-vgagen.pdf
[Consulta: 2005, Mayo 19]
11. XESS Corporation. (2001). XSV board V1.1 manual
[Documento en línea]. Disponible: http://www.xess.com/
manuals/xsv-manual-v1_1.pdf [Consulta: 2005, Julio 08]
12. XESS Corporation. (2005). XSV-800 Virtex prototyping
board with 2.5V, 800,000-gate FPGA [Página Web en
línea]. Disponible: http://www.xess.com/ prod014_4.php3
259
ESTUDIO DE PUESTA A TIERRA DE INSTALACIONES HOSPITALARIAS
Rodríguez, Leonardo Acevedo, Rubén Saxton, Gustavo
Resumen: La Empresa ENELBAR tiene entre sus objetivos principales prestar apoyo técnico a las
Instituciones del estado con el fin de garantizar su desarrollo tecnológico. En el siguiente trabajo se presentan
dos estudios del Sistema de Puesta a Tierra (SPT) realizados en el Hospital Central Antonio María Pineda
por la empresa. Uno consiste en la evaluación del SPT actual del área de instalación de los equipos de Rayos
X, Tomografía y Transformadores existentes, mediante el uso del Telurómetro y la aplicación del método
del 62 %, que permite determinar con gran exactitud la resistencia del SPT, para verificar que dicho valor se
encuentre dentro de los niveles normalizados. El otro estudio consiste en determinar la resistividad (ρ) del
suelo del área donde se ubicará el equipo de Resonancia Magnética, mediante el uso del Telurómetro y la
aplicación del método Wenner. Ambos estudios se realizan con la finalidad de formular recomendaciones
para el diseño de un SPT, que garantice la seguridad del personal médico, el correcto funcionamiento de las
protecciones y el acoplamiento magnético.
Palabras clave: Sistema de Puesta a Tierra (SPT)/ Resistividad del Suelo (ρ)/ Telurómetro/ Método Wenner.
Abstract: ENELBAR, as one of its main objects, provides technical support to state´s institutions, in order
to guarantee their technical development. This work presents two studies of Grounding System, developed
by the company at the Antonio María Pineda Central Hospital. One consists of the Grounding System
evaluation at the current installation area of X-ray and Tomography equipments, as well as transformers,
using a noises tester and the 62% method, which allows to determine the resistance of the Grounding System
with great precision, in order to verify its value and correspondence with normalized levels. The other study
determines the soil resistivity (ρ) of the Magnetic Resonance equipment area, using a noises tester and
Wenner method. Both studies were performed to formulate recommendations for the design of an adequate
Grounding System ensuring correct performance of protections and magnetic compatibility.
Index Term: Grounding System, Soil Resistivity, noises tester, Wenner Method.
NOTA TÉCNICA
Volumen 13, Nº 52, septiembre 2009. pp 259-264
Manuscrito finalizado en Barquisimeto, Edo. Lara, Venezuela el 2009/02/10, recibido el 2009/03/16, en su forma final (aceptado) el 2009/06/10. El Ing.Leonardo Rodríguez es Ingeniero de Construcciones en la C.A. Energía Eléctrica (ENELBAR) de Barquisimeto, telef. 58-251-2303051, fax 58-251-2303398,correo electrónico [email protected]. El MSc. Rubén A. Acevedo R. es Jefe del Departamento de Control Administrativo de Obras enENELBAR, Barquisimeto, telef. 58-251-2303336, fax 58-251-2303398, correo electrónico [email protected]. El Ing. Gustavo Saxton es Jefe de Secciónde Mantenimiento de Redes en ENELBAR, telef 58-251-2303926, fax 58-251-2303398, correo electrónico [email protected].
I. INTRODUCCIÓN
En atención al requerimiento del Hospital Central Antonio
María Pineda, se realizó una inspección inicial a las
instalaciones el día 03 de agosto del año 2007, en conjunto
con el personal técnico de esta institución, quienes se
comprometieron en buscar información sobre las
características técnicas de todos los equipos con los que será
dotado dicho Centro Asistencial.
El día 15 de agosto del año 2007 se realizó una segunda
inspección, debido a que actualmente se está ejecutando la
instalación de tres equipos de radiología. En dicha inspección,
el personal del Hospital Central Antonio María Pineda se
comprometió a realizar las siguientes gestiones:
• Verificar la existencia y estado de las tres acometidas
necesarias para dar servicio a los equipos a ser instalados
en las áreas de Traumatología, Emergencia y Radiología.
Dichas acometidas deben ser exclusivas para cada punto
de servicio de las tres áreas mencionadas, con conductor
de calibre adecuado para suministrar la carga necesaria en
cada instalación y con niveles de caída de tensión
permitidos por los equipos de radiología.
• Suministrar información sobre las especificaciones técnicas
de los tres equipos que serán instalados (Tensión de Servicio,
Potencia en KVA, Tipo de Sistema, entre otros).
• Gestionar la adquisición de transformadores secos de
Tensión 208V en el lado primario, con tensión secundaria
y capacidad de acuerdo a las características de cada equipo
a ser instalado o el recomendado por el fabricante.
Este centro asistencial en la actualidad está alimentado en 24
kV por el circuito Cemento y en 4,16 kV por el circuito
Falcón. Posee una capacidad total instalada de 3750 kVA en
120-208 V y 225 kVA en 240-416 V, repartida en siete (7)
bancos de transformadores, tal como se muestra en la Tabla I.
260
Tabla I. Capacidades de los Bancos de Transformadores
Con el estudio de puesta a tierra planteado en este estudio, se
busca el correcto funcionamiento de las protecciones de los
equipos, la seguridad del personal que manipula el equipo y
garantizar la compatibilidad magnética, todas estos objetivos
fundamentales de los Sistemas de Puesta a Tierra.
II. DESARROLLO
1. Levantamiento de Información en campoPara la atención del requerimiento del Hospital Antonio María
Pineda, se realizó una tercera inspección a las instalaciones
por parte del personal del Departamento de Estudios de
Distribución de ENELBAR, en compañía del personal técnico
de la institución, el día 05 de Septiembre del 2007 en horas
de la mañana. En ella se evaluaron las siguientes áreas:
• Sala de Rayos X de la unidad de Traumatología.
• Salas de Rayos X de la unidad de Radiología.
• Sala de transformación ubicada en la cercanía de la Av. Libertador.
• Área destinada a la construcción de la sala que albergará el
equipo de Resonancia Magnética.
A. Sala de Rayos X de la unidad de TraumatologíaSe observaron las siguientes condiciones:
• No está instalada la acometida de la sala.
• No está creado el punto de alimentación del equipo de
Rayos X, que ya está ubicado en la sala.
• Todas las paredes, marcos y puertas de la sala contienen
placas de plomo para la protección radiológica del personal,
según especificaciones.
B. Sala de Rayos X N° 1 de la unidad de RadiologíaSe observaron las siguientes condiciones:
• La Sala dispone del punto de alimentación del equipo de
Rayos X, (3 conductores calibre # 2/0 AWG,
correspondiente a las fases del sistema y 1 conductor calibre
# 8 AWG, correspondiente al neutro del sistema), el cual
puede verse en la Fig. 1.
• Las paredes y la puerta contienen placas de plomo para la
protección radiológica del personal médico, según
especificaciones, además de disponer del cubículo
destinado para la ubicación del punto de control del equipo
y de mantener aún los rieles para la movilización del
equipo de Rayos X.
C. Sala de Rayos X N° 2 de la unidad de RadiologíaSe observaron las siguientes condiciones:• La Sala dispone del punto de alimentación, de donde se
alimentan los circuitos de tomacorrientes y al equipo de Rayos
X de la sala, mediante conductores calibre # 10 AWG y calibre
# 4 AWG, tal como puede verse en la Figura N° 2.a.
• El cajetín de alimentación (fusiblera tipo cartucho) contiene
sólo dos fusibles de los tres necesarios (uno por fase).
• El cajetín de alimentación está conectado a tierra, tal como
se puede ver en la Figura 2.b.
• Al igual que la sala de Rayos X N° 1, tanto las paredes como
la puerta contienen placas de plomo para la protección
radiológica del personal médico, según especificaciones;
además de disponer del cubículo destinado para la ubicación
del punto de control del equipo de Rayos X.
(a)
(b)
Fig. 2. (a) Punto de alimentación de la sala. (b) Conexión a tierra del cajetín de alimentación.
Volumen 13, Nº 52, septiembre 2009. pp 259-264
Fig. 1. Punto de alimentación de la sala de rayos x de la unidad de radiología.
261
D. Sala de Transformación
En la sala se encuentra la celda de 24 kV y tres bancos de
transformadores: dos de 1500 kVA, 120-208 V (3x500 kVA)
y uno de 150 kVA, 240-416 V, (3x50 kVA). Se apreciaron las
siguientes condiciones:
• En la parte periférica exterior de la sala de transformación
se encontró la conexión de conductores calibre # 2/0 AWG
de cobre soldados con ramificaciones, perteneciente a la
puesta tierra del tomógrafo, que no cumple con la
profundidad recomendada para tal fin (entre 0,3 m y 0,5
m), es decir, en la superficie del terreno. (ver Figura N° 3).
Fig. 3. Electrodo de puesta a tierra del exterior de la sala de transformación.
• En el interior de la sala de transformación, específicamente
donde se hallan los bancos de transformadores de 3 x 500
kVA y 3 x 50 kVA, se encontró instalado un equipo de
medición MEMOBOX 300, con el fin de medir la
disponibilidad de carga del banco, que está destinado a la
alimentación exclusiva del equipo de tomografía, (ver
Figura N° 4).
Fig. 4. Equipo de medición Memobox 300.
• La configuración de los bancos de transformadores es
estrella-estrella (Y-Y) con neutro solidamente puestos a
tierra.
• El sistema de puesta a tierra de los bancos de
transformadores consta de siete (7) barras de cobre 5/8”,
no dispuestas equidistantemente, unidas entre sí por
alambre de cobre # 4 AWG mediante conectores, que están
sobre la superficie del suelo, lo que disminuye su
efectividad.
• Se observó que dos de las barras de cobre pertenecientes
al sistema de puesta a tierra de los bancos de
transformación están en contacto directo con el concreto
y sobresalen del nivel del piso. No cumplen con la
profundidad recomendada (entre 0,3m y 0,5 m).
• No se pudo realizar la medición de la resistencia del
sistema de puesta a tierra de la sala de transformación, ya
que no se dispuso del espacio recomendado para realizar
las mediciones (9,6 m entre electrodos del telurómetro).
E. Área destinada a la construcción de sala que albergará elequipo de resonancia magnética
En compañía del personal técnico de la institución se pudo ver
el área destinada para la construcción de la sala donde estará
contenido el equipo de resonancia magnética. Además, se
informó que no está planteado iniciar su construcción en un
corto plazo. Actualmente se encuentra material de
construcción y de desecho perteneciente a otra construcción,
por lo que se realizó una medición preliminar de la resistividad
del suelo para estudio y posterior comparación, una vez que
se haya preparado el área para la construcción de la sala.
2. Metodología
Mediciones de parámetros de puesta a tierra
En el diagnóstico de las condiciones se realizaron mediciones
de capacidad de los bancos de transformadores, resistencia de
puesta a tierra y resistividad del suelo.
A.- Capacidad del banco de transformadores de 3 x 50 kVA
De las mediciones realizadas al banco de transformadores de
3 x 50 kVA, 240- 416 V con el equipo de medición
MEMOBOX 300 durante siete días (según lo especificado en
NCSDE), se determinó que la carga máxima consumida es de
2,5 kVA, pero este valor no representa la carga máxima real
demandada, ya que, según indicaciones aportadas por el
personal técnico del Hospital, el valor pico de la carga
consumida por el equipo de tomografías en el momento del
Rodríguez, L., Acevedo, R., Saxton, G. Estudio de puesta a tierra de instalaciones hospitalarias
262
disparo llega a ser de aproximadamente 120 kVA. Se presenta
en intervalos de tiempo extremadamente cortos (ms), mientras
que el equipo de medición realiza las lecturas promediadas
cada diez (10) minutos (según lo especificado en NCSDE), lo
cual imposibilita tener una lectura real de la carga máxima
consumida por el equipo de tomografías y por ende de la
capacidad de carga disponible en el banco de transformadores
de 3 x 50 kVA.
B.- Resistencia del sistema de puesta a tierra del equipo detomografías
Debido a la importancia del equipo de tomografías y a su alto
costo, se hace prioritario que disponga de un adecuado y
efectivo sistema de protección, donde el sistema de puesta a
tierra del equipo juega un papel primordial. Tomando en
cuenta lo antes expuesto, se realizaron mediciones de la
resistencia (R) del actual sistema de puesta a tierra del equipo,
mediante la aplicación del método del 62 % o de los tres
puntos con el Telurómetro, obteniéndose los valores que se
muestran en la Tabla II:
Tabla II. Resistencia del sistema de puesta a tierra del Tomógrafo
Los valores de resistencia del sistema de puesta a tierra
expuestos en la tabla anterior, cumplen con lo recomendado
en la bibliografía [1], para los equipos electrónicos sensibles,
en los que se estipula que dicho valor no debe exceder los 5
Ω. Este resultado muestra claramente el buen estado del
sistema de puesta a tierra del equipo de tomografías, lo cual
aumenta la seguridad del equipo y del personal médico que lo
manipula.
C.- Resistividad (ρ) del suelo del área destinada a laconstrucción de la sala que albergará el equipo de resonanciamagnética
Como se expuso anteriormente, se programó una medición
preliminar de la resistividad del suelo con el fin de estudiar
sus condiciones y de comparar una vez acondicionado el
terreno para la construcción de la sala. Estas mediciones se
realizaron aplicando el método de Wenner o de los cuatro
puntos con un Telurómetro, obteniendo los valores que se
muestran en la Tabla III:
Tabla III. Resistividad del suelo
Como se pudo observar en la tabla anterior, los valores de
resistividad del suelo son menores a los valores de resistividad
eléctrica típica de suelos arcillosos de características similares
al presente en el área (50 Ω.m), condición que favorece elbuen funcionamiento del sistema de puesta a tierra. Estos
valores de resistividad se calcularon aplicando la fórmula [1]
[1]
Donde:
a: distancia entre electrodos (m).
R: valor de resistencia aportado por el Telurómetro (Ω).
3. RECOMENDACIONES PRESENTADAS.
Después del análisis de las condiciones observadas y las
mediciones realizadas, se realizan las siguientes
recomendaciones para la alimentación de equipos médicos y
su diseño del sistema de puesta a tierra:
A.- Salas de Rayos X
1. Establecer que los tomacorrientes tengan conexión a tierra
para corrientes de falla mediante la instalación de
canalizaciones metálica o a través de la envoltura del cable
(según la norma 517.13 A del Código Eléctrico Nacional).
[2]
2. Conectar a tierra los terminales de puesta a tierra de los
tomacorrientes y todas las superficies conductivas que no
transporten corriente de equipos fijos, que puedan ser
energizados, que estén sujetos a contacto personal y que
operen sobre los 100 V, con conductor de cobre aislado,
instalado en canalizaciones metálicas con los conductores
del circuito ramal que alimenta a los tomacorrientes (según
la norma 517.13. B del Código Eléctrico Nacional). [2]
3. Conectar la barra de puesta a tierra del tablero de
distribución de la sala a la barra de puesta a tierra del
tablero principal del área con conductor de calibre no
menor a 10 AWG (según la norma 517.14 del Código
Eléctrico Nacional). [2]
4. Instalar “los tubos de rayos X para que se encuentren
instalados dentro de envolventes puestas tierra. Para aislar
la alta tensión del recubrimiento de puesta a tierra se
Volumen 13, Nº 52, septiembre 2009. pp 259-264
263
pueden usar medios aislantes tales como: aire, aceite gas
o cualquier otro medio. La conexión del equipo de alta
tensión a los tubos de rayos X debe hacerse con cables de
alta tensión apantallados”, (norma 517.78. A del Código
Eléctrico Nacional). [2]
5. Conectar a tierra los controles, mesas, soportes de tubos,
tanques de transformadores, cables armados, cabeza de
tubos de rayos X, etc, (según la norma 517.78. C del
Código Eléctrico Nacional). [2]
6. Tomando en cuenta los resultados de las mediciones
realizadas a los bancos de transformadores de 3 x 500
kVA, donde se determinó que ambos bancos disponen de
aproximadamente 900 kVA de reserva, alimentar los
equipos de Rayos X a través de los bancos de
Transformadores de 3 x 500 kVA mediante 3
transformadores trifásicos secos de 208- 416 V y 50 kVA
o mas (cada uno), ubicados en la sala de transformación,
para así disminuir las caídas de tensión que se pudiesen
producir en los conductores del lado primario del
transformador seco.
7. Dada la importancia de los equipos de Rayos X en el
tratamiento oportuno de los pacientes, usar los dos bancos
de transformadores de 3 x 500 kVA, para habilitar un
alimentador de respaldo mediante un interruptor de
transferencia, que permitirá mantener en funcionamiento
los equipos en caso de que el banco de transformadores de
la alimentación principal salga de servicio por falla, como
se muestra en la Fig. 5.
Fig. 5. Diagrama de Conexión de Alimentadores de los Equipos de Rayos X.
B.- Sistema de puesta a tierra del equipo de tomografía
1. Aumentar la profundidad del sistema de puesta a tierra, de
manera tal que se encuentre entre 0,3 y 0,5 m de profundidad,
para mejorar las características del sistema, ya que en las
condiciones actuales es menos efectivo y está expuesto a daños
mecánicos que pueden ser provocados por cualquier causa
externa, disminuyendo de esta manera la seguridad, tanto del
equipo, como del personal médico sujeto a contacto él.
C.- Sistema de puesta a tierra de los bancos de transformación
1. Cubrir las terminaciones de las barras de cobre, así como
el conductor de cobre calibre # 4 AWG de conexión entre
ellas con tierra compactada, ya que esto permitirá
aumentar la efectividad del sistema de puesta a tierra en
caso de fallas. Al sepultar las terminaciones de las barras
y los conductores de conexión (electrodos horizontales) se
disminuye la resistencia de puesta a tierra del sistema,
reduciendo el tiempo de descarga de corrientes de falla, ya
que la resistividad eléctrica de la tierra es menor que la
resistividad eléctrica del aire.
2. Separar entre las barras de cobre de manera que sea de
aproximadamente dos veces la longitud de la barra.
D.- Sistema de puesta a tierra del equipo de resonanciamagnética
Tomando en cuenta que se construirá una sala para la
ubicación de un equipo de resonancia magnética, se hacen las
siguientes recomendaciones:
1. Tomar en cuenta las mismas recomendaciones hechas para
el sistema de puesta a tierra de las salas de Rayos X.
2. Dado que el equipo de Resonancia Magnética es un equipo
electrónico sensible de alta frecuencia, construir bajo el
piso de la sala donde se ubicará, una malla reticulada de
conductores de cobre, dimensionada de acuerdo al área
(m2) del piso y los cálculos realizados, con el fin de
disminuir el ruido y las perturbaciones magnéticas en el
equipo. La retícula deberá tener una separación entre 30
cm y 60 cm, y estar conectada a una tríada (triángulo
equilátero construido por conductores de cobre desnudo
calibre # 2/0 AWG y barras de cobre de 5/8” de diámetro
y 2,4 m de alto), mediante un conductor de cobre aislado
THW # 2 unidos por conectores de cobre certificados o
soldadura exotérmica, como se muestra en la Fig. 6.
Fig. 6. Malla reticulada de puesta a tierra para equipos electrónicos de alta frecuencia.
Rodríguez, L., Acevedo, R., Saxton, G. Estudio de puesta a tierra de instalaciones hospitalarias
264
3. Se recomienda que la separación ente las barras de cobre
sea de una distancia no menor a 5 m (aproximadamente 2
veces a longitud de las barras), ya que mediante la
aplicación de la fórmula que se presenta a continuación
[1]. Se pudo constatar que el valor de resistencia del
sistema de puesta a tierra de la configuración recomendada
es de 3,4482 Ω, que cumple con el valor recomendado
para equipos electrónicos sensibles (5 Ω).
[1]
Donde:
R: resistencia del sistema de puesta a tierra (Ω).
ρ: resistividad del suelo (Ωxm).l: longitud de las barras (m).
a: diámetro de la barra de cobre (m).
D: distancia entre las barras de cobre (m).
4. Conectar la barra de puesta a tierra del tablero de
distribución de la sala a la malla reticulada.
5. Conectar todas las partes metálicas conductoras del equipo
(por las que no debe circular corriente) a la malla
reticulada de puesta a tierra.
III. CONCLUSIONES
1. Sobre la base de las condiciones observadas, las mediciones
realizadas durante la inspección al Hospital Antonio María
Pineda, así como los conocimientos técnicos y el Código
Eléctrico Nacional vigente (sección 517), se puede concluir
que, con la aplicación de las recomendaciones hechas para el
sistema de puesta a tierra de las salas de Rayos X, equipos de
tomografía, sala de transformación y futura sala de
Resonancia Magnética del Hospital Antonio Maria Pineda, se
garantizará el cumplimiento de los objetivos fundamentales
de un sistema de puesta a tierra:
• Seguridad de las personas.
• Protección de las instalaciones.
• Compatibilidad magnética.
2. En cuanto a la fuente de alimentación de los equipos
médicos, se concluye que la mejor alternativa es alimentar a
través de los bancos de transformadores de 1500 kVA,
mediante transformadores trifásicos secos 208-416 V de 50
kVA o más.
IV. REFERENCIAS
1. Favio Casas Ospina. “Tierra Soporte de la Seguridad
Eléctrica”. SEGELECTRICA, 1998.
2. Código Eléctrico Nacional. FONDONORMA 200:2004.
Organización gráfica Capriles. Caracas, Venezuela, 2005.
7ma revisión.
Volumen 13, Nº 52, septiembre 2009. pp 259-264
186
Dr. Genni Aguilar - Hosp. de Clínicas Caroní, Pto. Ordaz
Dr. Jesús Andrade - LUZ Maracaibo
Dra. Minerva Arzola - UNEXPO Pto. Ordaz
Dr. Máximo Benavides - UNEXPO Pto. Ordaz
Dra. María C., Blanco - UNEXPO Barquisimeto
MSc. José Borjas - UNEXPO Pto. Ordaz
MSc. Antonio Bravo-UNET
Dr. Edwuin Carrasquero - UCV
Dr. José Contreras - ULA
Dr. Roberto Corral - Universidad de La Habana
Dr. Julio Cruz - USB
Dr. Ángel Custodio - UNEXPO Pto. Ordaz
Dra. Mayra D’Armas- UNEXPO Pto. Ordaz
Dr. Ramón Depool - UNEXPO Barquisimeto
Dr. Héctor Fernández - UNEXPO Pto. Ordaz
Dr. Herman Fernández - UNEXPO Pto. Ordaz
Dr. José Folgueras - ICID, La Habana
MSc. Zulay Franco - UNEXPO Pto. Ordaz
Dr. Luis Galván- USB
Dr. Francisco García Sanchez - USB
Dr. Luis García - UNEXPO Pto. Ordaz
Dr. Oswaldo García - Universidad de Matanzas
“Camilo Cien Fuegos”, Cuba
MSc. Charlo González - UNEXPO Pto. Ordaz
Ing. Dosinda González- USB
Dra. Gema González - IVIC
MSc. Jesús González - UNEXPO Pto. Ordaz
Dr. Leonardo González - UNEXPO Pto. Ordaz (jub)
Dr. Rafael Guevara - UNEXPO Pto. Ordaz
Dr. Víctor Guzmán - USB
Dr. Diego Jugo - ULA
Dr. Jesús López - UNEXPO Pto. Ordaz
Dra. Gertrudis Márquez - VENALUM
Dr. Jairo Márquez - ULA
Dra. Olga Márquez - ULA
Dr. Dimas Mavares - UNEXPO Barquisimeto
MSc. Franklin Mendoza - UNEXPO Pto. Ordaz
Dra. Gaudys Mendoza - UNEXPO Barquisimeto
Dr. Agustín Mejías - Universidad de Carabobo
Dra. Ingrid Montezuna - UNEXPO Barquisimeto
MSc. Scandra Mora - UNEXPO Pto. Ordaz
Dr. Luis Moreno - Royal Institute of Technology, Suecia
Dr. Jorge Mostany - USB
MSc. Ángel Olivier - UNEXPO Pto. Ordaz
Dr. Adelmo Ortiz Conde - USB
Ing. Mauricio Paletta - UNEG Puerto Ordaz
Dr. Gianfranco Passariello - USB
Dr. Dester Perdomo - CUJAE, La Habana
Dra. Olga Prado - SIDOR
Dr. Eli Saúl Puchi - UCV
MSc. Richard Resplandor - UNEXPO Pto. Ordaz
Dra. Rosa Reyes - USB
Dr. Ernesto Rodríguez Denis - ISPJAE, La Habana
MSc. Gonzalo Rodríguez - EDELCA, Caracas
Ing. Luis Rojas Malavé - UNEXPO Barquisimeto
Dr. Rubén Rojas - ULA
Dr. Luis Rosales - UNEXPO Pto. Ordaz
Dr. Augusto Ruiz - USB
Dr. José Ramón Rus - Fund. Inst. de Ingeniería, Caracas
MSc. Luz Esther Salazar - UNEXPO Pto. Ordaz
Ing. José Sánchez Medina - UNEXPO Pto. Ordaz
Dra. Amarilis Sandry - UNEXPO Barquisimeto
Dr. José Sarabia - UNEXPO Barquisimeto
Dr. Benjamín Scharifker - USB
Dra. Mariana Staia - UCV
Dr. Nando Troyani - UDO Pto. La Cruz
Dra. Cármen Luisa Vásquez - UNEXPO Barquisimeto
Ing. Luis Velásquez - UNEG Puerto Ordaz
Dra. Sara Wong - USB
Árbitros
267
CALENDARIO DE EVENTOS
Volumen 13, Nº 52, septiembre 2009
Congreso
Iberoamericano
de Seguridad
Informática
268 Volumen 13, Nº 52, septiembre 2009.
Sección Fija preparada por el Dr. Ángel DuarteEl Dr. Ángel Duarte es Profesor Agregado en el Dpto. de Ingeniería Mecánica de la UNEXPO, Vicerrectorado Puerto Ordaz,
correo electrónico [email protected] y [email protected]
CONTENIDO
186
187
189
199
223
211
231
238
239
250
259
265
267
269
271
Vol. 13, Nº 52, septiembre 2009ISSN 1316-4821
Árbitros
Editorial
CONTROL DE PROCESOSAlfonso Alfonsi, Jesús Pérez,Sistema de control en tiempo real para una planta piloto usando software libre
EFICIENCIA EMPRESARIALVicente Coll Serrano, Olga Blasco Blasco, Situación de la industria textil en España ante laliberalización del Sector: una visión desde el punto de vista de la eficiencia y del tamaño de las empresas
ENSEÑANZA DE LA MATEMÁTICAEsther María Morales Urbina, Los conocimientos previos y su importancia para lacomprensión del lenguaje matemático en la Educación Superior
ERGONOMÍAEliana del Valle Rodríguez, Crisdalith Cachutt, Eduardo E. Vargas, Emilio Aravena,Demanda biomecánica en el ensamblaje de un vehículo compacto
SIMULACIÓNHerman Fernández, Abelardo Martínez, Víctor Guzmán, María Isabel Giménez, Simulación mediante PSPICE de un modelo simplificado y de alta eficiencia de una batería de plomo - ácido
Normas de Arbitraje
NOTAS TÉCNICAS
Amelec Jesús Viloria Silva, Carmen Luisa Vásquez Stanescu, Miguel Ángel Núñez Bottini,Propuesta de un mecanismo de medición para el conjunto de vicios que afectan a lasInstituciones Públicas encargadas de generar bienestar social: Caso Venezuela
Leireny Rojas, Zulay Franco M., Antonio S. Pateti M.,Diseños de circuitos electrónicos digitales utilizando la tecnología FPGA
Leonardo Rodríguez, Rubén Acevedo, Gustavo Saxton, Estudio de puesta a tierra de instalaciones hospitalarias
Noticias de FUNDACITE Guayana
Calendario de eventos
Ferias, Salones y Exposiciones
Normas de Publicación
185
187
EDITORIAL
Volumen 13, Nº 52, septiembre 2009.
UN ADIOS A NUESTRO EDITOR FEDERICO GENOLET
El Dr. FEDERICO GENOLET se desempeñó como EDITOR de la Revista
Universidad, Ciencia y Tecnología, desde hace 13 años, hasta el día de su
fallecimiento el pasado 23 de septiembre.
De Federico, recordamos su fortaleza, su vitalidad, su honestidad, su trato siempre amable
y cordial. Su empeño por mantener a la Revista Universidad, Ciencia y Tecnología, en
la más alta clasificación dada por FONACIT a las revistas venezolanas. Para el año 2004,
Universidad Ciencia y Tecnología llegó a estar ubicada entre las cuatro mejores revistas
científicas de Venezuela.
Recordamos su empeño por mantener la revista indizada en los mejores Índices
Latinoamericanos y mundiales. Nos dejó la revista indizada en: Actualidad Iberoamericana,
Aluminium Industry Abstracts, Corrosión Abstract, CSA Engineerig Research Database
with METADEX, CSA Recent References Related to Technology, CSA Technology
Research Database, Environment Abstracts, LATINTEX, Mechanical & Transportation
Engineering Abstracts, METADEX, REVENCYT. Fundamental y reconocida su labor al
frente de la revista porque no está enmarcada en un área específica, sino en diversas áreas.
Siempre pendiente, siempre actualizado, siempre preocupado porque su eterna e
inseparable Zorelys, asistiera a los talleres y cursos que tenían que ver con revistas
científicas. Cada detalle contaba para mantener Universidad, Ciencia y Tecnología en un
sitial de honor.
Sus cursos y talleres de redacción de artículos científicos forman parte de su gran aporte a
nuestra Universidad, a nuestros investigadores. Contribuyó enormemente al desarrollo
científico de nuestros docentes.
Su dureza a la hora de dar un veredicto sobre un artículo fue una enseñanza que no se
supo aprovechar, Federico siempre tenía la razón: acertado en sus comentarios, crítico a la
hora de opinar sobre un determinado artículo habla por sí solo del amplio conocimiento que
tenía sobre distintas áreas del quehacer científico-tecnológico. Era el Editor por excelencia.
Volumen 13, Nº 52, septiembre 2009.188
Su afán de mantener la revista en un nivel preponderante lo llevaron a ser muy riguroso con
la calidad de los artículos. FEDERICO nos deja la Revista Universidad Ciencia yTecnología, entre las mejores según la clasificación de FONACIT y lo más importante:
Universidad Ciencia y Tecnología es tipo “A”, clasificación que la ubica como revista
internacional. Enorme satisfacción!! cuando FONACIT clasificó a Universidad, Cienciay Tecnología como Tipo “A”. Fue riguroso a la hora de respetar la fecha de publicación
de la revista, conocía muy bien que uno de los parámetros importantes para mantener la
indización es la puntualidad de la impresión en las fechas previstas.
FEDERICO únicamente se le veía preocupado cuando no había suficientes artículos para
completar una edición de la revista. Aun así, Universidad, Ciencia y Tecnología siempre
salía puntualmente.
Esta Edición de Universidad, Ciencia y Tecnología, la dejó completa. No contábamos
que nos dejaría la dura tarea de dedicarle el editorial, como una manera de reconocer su
labor, su influencia en la revista, en nuestros investigadores, en nuestra Universidad. De
despedirlo como Editor, nuestro Editor, eternamente FEDERICO.
DRA. MINERVA ARZOLADirectora UCT
Dirección de Investigación y Postgrado
269
FERIAS, SALONES Y EXPOSICIONES
Volumen 13, Nº 52, septiembreo 2009.
270
Sección Fija preparada por el Dr. Ángel DuarteEl Dr. Ángel Duarte es Profesor Agregado en el Dpto. de Ingeniería Mecánica de la UNEXPO, Vicerrectorado Puerto Ordaz,
correo electrónico [email protected] y [email protected]
Volumen 13, Nº 52, septiembre 2009.
238
NORMAS DE ARBITRAJE
Transcribimos a continuación los parámetros bajo los cuales
son evaluados por nuestro Árbitros los artículos que recibimos
para publicar, con el propósito que los autores los tengan en
cuenta antes del envío de sus contribuciones
1. Título:¿Incluye información de lo que trata el artículo?
¿Su extensión es apropiada?
2. Resumen:¿Es una representación concisa del artículo?
¿Tiene el formato adecuado?
¿Presenta los Objetivos, Métodos,
Resultados y Conclusiones?
¿Su extensión es apropiada (máx. 200 palabras)?
3. Palabras Clave:¿Son adecuadas al artículo?
¿Añadiría alguna que fuese relevante?
Si la respuesta fuese afirmativa, ¿Cuál o cuales?
4. Introducción:¿Presenta el problema que motivó la investigación?
¿Indica qué se hizo en la investigación?
¿Hace referencia sucinta a la metodología empleada?
¿Presenta cómo esta organizado el
desarrollo del artículo?
5. Metodología:¿Están los métodos empleados claramente descritos?
¿Son el diseño experimental y los métodos utilizados
los más apropiados para alcanzar los objetivos?
¿Es posible duplicar la investigación con
los elementos expuestos en esta sección?
¿Son apropiados los métodos estadísticos utilizados?
6. Resultados:¿Presentan información pertinente a los
objetivos del trabajo?
¿Son presentados de manera adecuada y coherente?
¿Tienen suficiente detalle como para
justificar las conclusiones?
7. Discusión:¿Existen errores de interpretación de
los datos presentados?
¿Es relevante toda la discusión?
¿Hay aspectos importantes de los resultados
que no son discutidos?
¿Se repite información de la sección de resultados?
¿Se hacen afirmaciones no sustentadas por
los datos u otros autores?
¿Se presentan conclusiones con los
argumentos que lo soportan?
8. Conclusiones:¿Son un resumen de las conclusiones lógicas
del trabajo basadas en la discusión?
9. Referencias Bibliográficas:¿Existe correspondencia entre las referencias
citadas en el texto y esta sección?
¿Las referencias citadas son todas necesarias?
¿Falta alguna referencia de relevancia?
Si la respuesta fuese afirmativa, ¿cuál o cuáles?
10. Tablas:
¿Son todas necesarias?
¿Duplican la información presentada en el
texto o en las figuras?
¿Puede alguna de ellas ser tranformada en gráfico
para resumir o facilitar la comprensión de lo datos?
¿Están demasiado recargadas de información?
¿Son las leyendas una buena descripción de ellas?
11. Figuras:¿Son todas necesarias?
¿Aportan información importante?
¿Son las leyendas una buena descripción de ellas?
12. Extensión del artículo:¿Puede ser acortado sin perder calidad
o información relevante?
13. Pertinencia:¿Es un trabajo original?
¿Representa el artículo un aporte al
conocimiento científico?
14. Calidad:¿En general, el estilo del manuscrito tiene
calidad para ser publicado?
¿Pudiera mejorarse el manuscrito en alguna forma?
15. Veredicto: El manuscrito es:Publicable sin modificaciones
Publicable con modificaciones menores
Publicable con modificaciones importantes
No es adecuado para esta revista.
16. Modificaciones recomendadas:Por favor haga sus comentarios detallados en la página adicional
Condensar / eliminar partes del texto
Suprimir figuras y/o tablas Reorganizar
Redactar de nuevo el texto
Redactar de nuevo el resumen
Revisar las referencias
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
SI NO
Volumen 13, Nº 52, septiembre 2009.
271
“Universidad, Ciencia y Tecnología” (UCT), es una
publicación, indizada y arbitrada, que se edita en cuatro
números anuales que constituyen un volumen, siendo marzo,
junio, septiembre y diciembre los meses de publicación. La
revista está destinada a dar a conocer, dentro y fuera del país,
las realizaciones científicas y tecnológicas de la UNEXPO, así
como las que se realicen en otras universidades y centros de
investigación industrial en el país y en el exterior, en las
especialidades de Ingeniería Eléctrica, Ingeniería Electrónica,
Ingeniería Metalúrgica, Ingeniería Mecánica, Ingeniería
Industrial, Bioingeniería, Ambiente, Ciencias de la Ingeniería,
Mecatrónica, Telecomunicaciones, Rural, Ferroviaria,
Energética e Hidráulica y áreas conexas.
1. Condiciones GeneralesLas contribuciones técnicas que se publiquen deberán estar
enmarcadas en los requisitos fijados por la presente norma y
aceptadas por el Comité Editorial.
Los trabajos publicados en UCT son de su propiedad, con las
excepciones que se estipulan en el Convenio de Publicación y
no podrán ser reproducidos por ningún medio sin la
autorización escrita del Editor.
Los autores deberán indicar nombre y apellido, título
académico, lugar de trabajo, cargo que desempeñan y dirección
completa, incluyendo teléfono, fax y correo electrónico.
2. ContribucionesEl Comité Editorial acepta seis tipos de contribuciones para
publicación: Artículos Técnicos, Artículos de Ingeniería
Aplicada, Comunicaciones, Revisiones, Notas Técnicas y
Cartas al Editor
2.1. Artículos TécnicosSon aquellas contribuciones que además de informar novedades
y adelantos en las especialidades que abarca UCT, son el
resultado de un trabajo de investigación, bien sea bibliográfico
o experimental, en el que se han obtenido resultados, se
discutieron y se llegaron a conclusiones que signifiquen un
aporte innovativo en Ciencia y Tecnología.
2.2. Artículos de Ingeniería Aplicada
Son el resultado de trabajos de grado (Especialización, Maestría
y Doctorado) o de investigación en el ámbito universitario e
industrial, bien sea experimental y/o no experimental, que
signifiquen un aporte tecnológico para la resolución de
problemas específicos en el sector industrial.
2.3. Comunicaciones
Son reportes de resultados originales de investigaciones de
cualquier campo de las ciencias básicas o aplicadas, dirigidas a una
audiencia especializada. Podrán ser hasta de ocho (8) cuartillas
2.4. RevisionesSon artículos solicitados por invitación del Comité Editorial y
comentan la literatura más reciente sobre un tema
especializado.
2.5. Notas TécnicasSon aquellas contribuciones producto de investigaciones
destinadas a informar novedades y/o adelantos en las
especialidades que abarca UCT. Podrán presentarse en una
extensión máxima de diez (10) cuartillas, incluyendo un
máximo de 10 figuras y tablas, las que deberán cumplir las
condiciones que para ellas se establece en el ítem 5.
2.6. Cartas al EditorSon aquellas que reportan una idea sin entrar en detalles
El Comité Editorial se reserva el derecho de seleccionar los
Artículos Técnicos y los Artículos de Ingeniería Aplicada
consignados para publicación, después de consultar por lo
menos a dos árbitros.
Los artículos remitidos para su publicación tienen que ser
inéditos. No serán aceptados aquellos que contengan material
que haya sido reportado en otras publicaciones o que hubieran
sido ofrecidos por el autor o los autores a otros órganos de
difusión nacional o internacional para su publicación.
3. Presentación
Todas las contribuciones deberán prepararse en procesador de
palabras Microsoft Office Word® 2003 o anterior
mecanografiadas a doble espacio en papel tamaño carta, tipo
de letra Times New Roman, tamaño 10, con márgenes de por
lo menos 2,5 cm, anexando su versión digital.
Los Artículos Técnicos y los de Ingeniería Aplicada deberán
tener una extensión máxima de 20 páginas, incluyendo un
máximo de 10 ilustraciones (figuras + tablas) (Ver ítem 5)
4. Composición
Los Artículos Técnicos y de Ingeniería Aplicada deberán
ordenarse en las siguientes secciones: Título en español,
Nombre completo de los autores, Resumen en castellano y
palabras clave, Titulo en inglés, Resumen en inglés (Abstract)
y “Key words”, Introducción, Desarrollo, Conclusiones,
Referencias Bibliográficas.
a) Título en español. Debe ser breve, preciso y codificable,
sin abreviaturas, paréntesis, fórmulas ni caracteres
desconocidos, que contenga la menor cantidad de palabras
que expresen el tema que trata el artículo y pueda ser
registrado en índices internacionales. El autor deberá
indicar también un título más breve para ser utilizado como
encabezamiento de cada página.
NORMAS DE PUBLICACIÓN
Volumen 13, Nº 52, septiembreo 2009.
272
b) Nombre completo de los autores. Además de indicar
nombre y apellido de los autores, en página aparte se citará
título académico, lugar de trabajo, cargo y dirección completa,
incluyendo teléfono, fax y correo electrónico.
c) Resumen en castellano y palabras clave, señalando en
forma concisa los Objetivos, Metodología, Resultados y
Conclusiones más relevantes del estudio, con una extensión
máxima de 200 palabras. No debe contener abreviaturas ni
referencias bibliográficas y su contenido se debe poder
entender sin tener que recurrir al texto, tablas y figuras. Al
final del resumen incluir de 3 a 10 palabras clave que
describan el tema del trabajo, con el fin de facilitar la inclusión
en los índices internacionales
d) Título, Resumen y Palabras clave en inglés (Abstract ykey words). Es la versión en inglés de Título, Resumen y
Palabras Clave en castellano.
e) INTRODUCCIÓN. En ella se expone en forma concisa el
problema, el objetivo del trabajo y se resume el fundamento
del estudio y la metodología utilizada. Se debe hacer mención
además al contenido del Desarrollo del artículo.
f) DESARROLLO. Se presenta en diversos capítulos.
• Métodos y Materiales: donde se describe el diseño de
la investigación y se explica cómo se llevó a la práctica,
las especificaciones técnicas de los materiales, cantidades
y métodos de preparación.
• Resultados: donde se presenta la información y/o
producto pertinente a los objetivos del estudio y los
hallazgos en secuencia lógica
• Discusión de resultados: donde se examinan e
interpretan los resultados y se sacan las conclusiones
derivadas de esos resultados con los respectivos
argumentos que las sustentan.
g) CONCLUSIONES. En este capítulo se resume, sin los
argumentos que las soportan, las conclusiones extraídas en la
Discusión de los Resultados, expresadas en frases cortas,
sucintas.
h) REFERENCIAS BIBLIOGRÁFICAS (o simplementeREFERENCIAS). Debe evitarse toda referencia a
comunicaciones y documentos privados de difusión limitada,
no universalmente accesibles. Las referencias deben ser
citadas y numeradas secuencialmente en el texto con números
arábigos entre corchetes. (Sistema Orden de Citación) Al final
del artículo se indicarán las fuentes, como se expresa a
continuación, en el mismo orden en que fueron citadas en el
texto, según se trate de:
Libros: Autor (es) (apellido e iniciales de los nombres), título
del libro, número de tomo o volumen (si hubiera más de uno),
número de edición (2da en adelante), lugar de edición
(ciudad), nombre de la editorial, año de publicación,
número(s) de página(s).
Artículos de revistas: Autor(es) del artículo (apellido e
iniciales de los nombres), título del artículo, nombre de la
revista, número del volumen, número del ejemplar, fecha de
publicación, número(s) de página(s).
Trabajos presentados en eventos: Autor(es), (apellido e
iniciales de los nombres), título del trabajo, nombre del
evento, organizador del evento, lugar, fecha, número(s) de
página(s).
Publicaciones en medios electrónicos: si se trata de
Información consultada en Internet, se consignarán todos los
datos como se indica para libros, artículos de revista y trabajos
presentados en eventos, agregando página Web y fecha de
consulta; si se trata de otros medios electrónicos, se indicarán
los datos que faciliten la localización de la publicación.
En cualquiera de los casos, si los autores fueran más de tres,
citar solamente al primero y añadir a continuación “et al”.
5. Ilustraciones. Incluir en el texto un máximo de 10 (diez)
ilustraciones (Figuras + Tablas)
5.1. FigurasTodos los gráficos, dibujos, fotografías, esquemas deberán ser
llamados figuras, presentados en blanco y negro y numerados
con números arábigos en orden correlativo, con la leyenda
explicativa que no se limite a un título o a una referencia del
texto en la parte inferior y ubicadas inmediatamente después
del párrafo en que se citan en el texto.
Las fotografías deben ser nítidas y bien contrastadas, sin zonas
demasiado oscuras o extremadamente claras.
5.2. TablasLas tablas deberán numerarse con números romanos y
leyendas en la parte superior y ubicarse también
inmediatamente después del párrafo en que se citan en el
texto. Igual que para las figuras, las leyendas deberán ser
explicativas y no limitarse a un título o a una referencia del
texto.
6. UnidadesSe recomienda usar las unidades del Sistema Métrico
Decimal. Si hubiera necesidad de usar unidades del sistema
anglosajón (pulgadas, libras, etc.), se deberán indicar las
equivalencias con el Sistema Métrico Decimal.
7. Siglas y abreviaturasSi se emplean siglas y abreviaturas poco conocidas, se indicará
su significado la primera vez que se mencionen en el texto y
en las demás menciones bastará con la sigla o la abreviatura.
8. Fórmulas y EcuacionesLos artículos que contengan ecuaciones y fórmulas en
caracteres arábigos deberán ser generadas por editores de
ecuaciones actualizados con numeración a la derecha.
Volumen 13, Nº 52, septiembre 2009.
265
NOTICIAS DE FUNDACITE BOLÍVARCIENCIA, TECNOLOGÍA E INDUSTRIAS INTERMEDIAS
Por el desarrollo de Ciudad GuayanaSinergia Universidad - Industrias
En el marco del 20° aniversario de
Fundacite Bolívar, el Programa de
Materiales (Promat), de esta institución,
organizó el Encuentro de Centros y
Laboratorios del Área de Materiales, que
en esta ocasión arribó a su 6ta Edición,
trayendo a la palestra pública un tema de
gran importancia para la región: el Taller
sobre “Sinergia Universidad – Industrias”,
una espacio de encuentro para la
integración de ambos sectores, en aras de
la articulación y trabajo conjunto para el
desarrollo de investigaciones y proyectos
de interés común.
El evento se realizó en la sede de
Investigación y Postgrado de la Unexpo y
tuvo como facilitador al Dr. Jean Louis
Salager, fundador del Laboratorio de
Formulación, Interfases, Reología y
Procesos de la Universidad de Los Andes,
ganador del Premio Nacional de Ciencias
(mención investigación tecnológica), el
Premio Simón Bolívar (por la excelencia
académica), el Premio Nacional de la
Academia Venezolana de Ciencias Físicas, Matemáticas y Naturales; y de
Palmes Academiques del Gobierno francés.
El Coordinador de Promat, el Dr. Humberto Jiménez, mencionó que el Taller
“Sinergia Universidad- Industrias” tiene como propósito facilitar la consecución
de sinergias en las que el conocimiento y el “saber hacer” existente en la
universidad, pueda ayudar a resolver problemas específicos, contribuyendo al
desarrollo del sector industrial, conscientes que el complejo de las industrias
requiere de la optimización de los procesos y productos, en particular en materia
de innovación, investigación y desarrollo. Agradeció el apoyo brindado por el
Laboratorio de Investigación y Corrosión de la Unexpo, en especial a la Dra.
Linda Gil, y a la Ing.. Gertrudis Márquez de C.V.G. Venalum, instituciones que
hicieron posible el éxito de este evento.
Además, el Dr. Jiménez señaló que este tipo de encuentros permite reforzar el
sector investigación, basado en las estadísticas de un investigador por cada 10
mil habitantes, de los cuales tan sólo el 1,64% del total de investigadores
acreditados por el Ministerio del Poder Popular para Ciencia, Tecnología e
Industrias Intermedias, pertenece al estado Bolívar, situación que desde su óptica
amerita atención y por supuesto, la cooperación eficaz de grupos
multidisciplinarios para contribuir a que el tejido industrial sea robusto,
económicamente sostenible y ambientalmente sustentable.
Dr. Humberto Jiménez
Dr. Jean Louis Salager
266 Volumen 13, Nº 52, septiembre 2009.
El Dr. Salager expresó que las sinergia entre las universidades
e industrias es de gran relevancia debido a que las acciones
de estos sectores se deben complementar. Sólo así lo que se
hace desde la universidad puede resolver lo que se necesita
desde las industrias, en especial cuando en las industrias se
llega a comprender que lo más útil no es precisamente lo más
valioso y en las universidades se desarrolla aquello que es más
interesante y no lo más básico.
El Dr. Salager destacó como efectos complementarios entre
estas dos vertientes: los conocimientos acumulados en la
universidad y la experiencia acumulada desde las industrias;
disponibilidad de tiempo en la universidad y limitaciones de
uso de tiempo en las industrias; carencia de recursos
materiales en la universidad y la disponibilidad de recursos
materiales en las industrias y; capacidad potencial de
innovación en la universidad y necesidad insatisfecha de
innovación en la industrias.
Aunado a ello, el Dr. Salager enfatizó que todos los
investigadores, desde la universidad, deben preguntarse: ¿A
qué trabajo original y también importante debo dedicar mi
tiempo?. Y para hallar la respuesta deben consultar a las
industrias, estás tienen que poseer áreas estratégicas para
desarrollar investigación, de esta manera quien investiga no
pierde el tiempo en proyectos que nunca llegarán a concretarse
y las industrias invierten en opciones eficaces para mejorar su
gestión, dándole además la oportunidad al investigador de
integrarse al campo de trabajo.
Es necesario informar que toda esta interacción entre la
universidad y la industria es estimulada, apoyada y fortalecida
a través de los planes del Gobierno Bolivariano, entre los
cuales destacan: la creación del Mppctii y el Programa PIN
Nacional, Programa Agendas del Fonacit, Programa Pdvsa
Intevep – Universidades, Programa de Diagnóstico para
Empresas, Subvenciones para cooperación Universidad –
Industrias, el Centro Nacional de Tecnología Química y la Ley
Orgánica de Ciencia, Tecnología e Innovación.
Para concluir, el Dr. Salager recalcó que “la universidad y las
industrias deberían empezar a trabajar juntas, a utilizarse la
una a la otra porque es una cuestión de supervivencia y de
competitividad para ambos sectores. Y porque es posible”.
Prensa Fundacite Bolívar.