138
ESPECIFICACIONES PARA LA PRUEBA DE COMPRENSIÓN LECTORA PARA LOS NIVELES INICIALES DEL CENTRO LATINOAMERICANO (CLAM) DE LA PONTIFICIA UNIVERSIDAD JAVERIANA NÉSTOR JULIÁN GUEVARA LUQUE LAURA VANESSA QUIÑONEZ DUARTE Trabajo de grado para optar al título de Licenciados en Lenguas Modernas PONTIFICIA UNIVERSIDAD JAVERIANA FACULTAD DE COMUNICACIÓN Y LENGUAJE LICENCIATURA EN LENGUAS MODERNAS BOGOTÁ 2016

ESPECIFICACIONES PARA LA PRUEBA DE COMPRENSIÓN …

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

ESPECIFICACIONES PARA LA PRUEBA DE COMPRENSIÓN LECTORA PARA LOS

NIVELES INICIALES DEL CENTRO LATINOAMERICANO (CLAM) DE LA

PONTIFICIA UNIVERSIDAD JAVERIANA

NÉSTOR JULIÁN GUEVARA LUQUE

LAURA VANESSA QUIÑONEZ DUARTE

Trabajo de grado para optar al título de

Licenciados en Lenguas Modernas

PONTIFICIA UNIVERSIDAD JAVERIANA

FACULTAD DE COMUNICACIÓN Y LENGUAJE

LICENCIATURA EN LENGUAS MODERNAS

BOGOTÁ

2016

ESPECIFICACIONES PARA LA PRUEBA DE COMPRENSIÓN LECTORA PARA LOS

NIVELES INICIALES DEL CENTRO LATINOAMERICANO (CLAM) DE LA

PONTIFICIA UNIVERSIDAD JAVERIANA

NÉSTOR JULIÁN GUEVARA LUQUE

LAURA VANESSA QUIÑONEZ DUARTE

Trabajo de grado para optar al título de

Licenciados en Lenguas Modernas

Asesor

Begoña Martin Alonso

PONTIFICIA UNIVERSIDAD JAVERIANA

FACULTAD DE COMUNICACIÓN Y LENGUAJE

LICENCIATURA EN LENGUAS MODERNAS

BOGOTÁ

2016

RESUMEN

Esta investigación intenta responder a la pregunta sobre qué características debe cumplir

la prueba de comprensión lectora para clasificar a los estudiantes en los niveles iniciales del

CLAM. Sumado a esto, partiendo de un antecedente encontrado en una tesis de postgrado sobre

este examen, esta resalta la importancia de incluir los contenidos del PCIC y el MCER. Como

respuesta, este trabajo plantea una propuesta de especificaciones por medio de la aplicación de

conceptos tales como evaluación, medición y prueba, evaluación de la comprensión lectora,

evaluación y el MCER, el enfoque por tareas en el modelo de fases para la confesión de un

examen por Bordón (2006, tomado de Ferreira, Vine, & Elejalde, 2013) y el modelo de

especificaciones de Luoma (2004). Asimismo, se evaluó la propuesta con cuatro expertos en el

área de evaluación y español como lengua extranjera (ELE). A modo de conclusión, los

resultados mostraron que, si bien se acierta en cuanto a los contenidos de las especificaciones, es

necesario hacer aún más preciso el planteamiento de esta herramienta.

Palabras clave: Comprensión lectora, evaluación de la comprensión lectora, español

como lengua extranjera (ELE), Marco Común Europeo de Referencia (MCER) y

especificaciones de un examen.

ABSTRACT

This research attempts to answer the question of which characteristics the reading

comprehension placement test must have for CLAM students in A1 and A2 levels. It highlights

the importance of including contents from the PCIC and CEFR based on a previous master

investigation. In response, this paper presents a specification proposal through the application of

concepts such as evaluation, measurement and testing, assessing reading comprehension,

assessment and CEFR, the approach tasks through the model proposed by Bordón (2006, tomado

de Ferreira, Vine, & Elejalde, 2013) and the specifications model by Luoma (2004).

Furthermore, this proposal was evaluated by four experts in the area of evaluation and Spanish as

a foreign language (ELE). In conclusion, the results showed that although the specifications

contents are precise, it is necessary to make further clarification upon this tool.

Keywords: Reading comprehension, reading assessment, Spanish as a foreign language (ELE),

Common European Framework of Reference (CEFR) and test specifications.

TABLA DE CONTENIDO

1. INTRODUCCIÓN...............................................................................................................1

2. SITUACIÓN PROBLEMÁTICA ........................................................................................3

2.1. Interrogante ...................................................................................................................7

3. JUSTIFICACIÓN................................................................................................................7

3.1. Antecedentes .................................................................................................................7

3.2. Importancia ................................................................................................................. 18

4. OBJETIVOS DE INVESTIGACIÓN ................................................................................ 19

4.1. Objetivo general .......................................................................................................... 19

4.2. Objetivos específicos .................................................................................................. 19

5. MARCO TEÓRICO .......................................................................................................... 20

5.1. Evaluación, medición y prueba.................................................................................... 20

5.2. La utilidad de un test ................................................................................................... 25

5.3. Comprensión lectora ................................................................................................... 28

5.4. Evaluación de la comprensión lectora.......................................................................... 31

5.5. El MCER y la evaluación ............................................................................................ 36

5.6. Enfoque por tareas ...................................................................................................... 38

5.7. Especificaciones del examen ....................................................................................... 40

6. MARCO METODOLÓGICO ............................................................................................ 42

6.1. Tipo de investigación .................................................................................................. 42

6.2. Ruta metodológica ...................................................................................................... 45

6.3. Contexto e informantes ............................................................................................... 47

6.4. Herramientas para la recogida de datos ....................................................................... 48

6.4.1. Entrevista ............................................................................................................. 48

6.4.2. Cuestionario ......................................................................................................... 49

6.5. Resultados de la investigación ..................................................................................... 51

6.5.1. Resultados de la fase previa ................................................................................. 51

6.5.2. Resultados de la fase de diseño ............................................................................ 56

6.5.3. Resultados de la Fase de experimentación ............................................................ 66

6.5.4. Resultados de la Fase de recapitulación ................................................................ 77

7. CONCLUSIONES ............................................................................................................ 82

8. LIMITACIONES Y RECOMENDACIONES ................................................................... 85

9. BIBLIOGRAFÍA .................................................................................................................. 88

ANEXOS .................................................................................................................................. 94

TABLA DE IMÁGENES

IMAGEN 1. TEXTO NÚMERO 1 DEL EXAMEN DE CLASIFICACIÓN (COMPRENSIÓN LECTORA). ............ 4

IMAGEN 2. TEXTO NÚMERO 2 DEL EXAMEN DE CLASIFICACIÓN (COMPRENSIÓN LECTORA). ............ 6

IMAGEN 3. TEXTO NÚMERO 1 DEL EXAMEN DE CLASIFICACIÓN (COMPRENSIÓN LECTORA). ............ 7

IMAGEN 4. TEXTO NÚMERO 4 DEL EXAMEN DE CLASIFICACIÓN (COMPRENSIÓN LECTORA). ............ 7

IMAGEN 5. ÍTEMS DE OPCIÓN MÚLTIPLE PARA RESPONDER EL PRIMER TEXTO DEL EXAMEN DE

CLASIFICACIÓN (COMPRENSIÓN LECTORA). ........................................................................... 9

IMAGEN 6. EJEMPLO TAREA A1 (OPCIÓN MÚLTIPLE) ................................................................... 65

IMAGEN 7. EJEMPLO TAREA A1 (ÍTEM DE RELACIONAR) ............................................................. 67

IMAGEN 8. EJEMPLO TAREA A1 (ÍTEM DE COMPLETAR) .............................................................. 68

IMAGEN 9. EJEMPLO EXTENSIÓN DE TEXTO A2 DELE ................................................................ 69

IMAGEN 10. EJEMPLO TAREA A2 (OPCIÓN MÚLTIPLE) ................................................................ 88

IMAGEN 11. EJEMPLO TAREA A2 (ÍTEM DE RELACIONAR) ........................................................... 90

TABLA DE TABLAS

TABLA 1. CONSTRUCTOS COMPRENSIÓN ESCRITA A1 Y A2 ......................................................... 60

TABLA 2. CONTENIDOS DE LA PRUEBA COMPRENSIÓN LECTORA A1 Y A2 ................................... 62

TABLA 3. TAREAS E ÍTEMS PARA EL NIVEL A1 ............................................................................ 63

TABLA 4. CRITERIOS DE EVALUACIÓN NIVELES A1 Y A2 ............................................................ 71

TABLA 5. SECCIÓN 1: PROPÓSITO DE LA PRUEBA ........................................................................ 74

TABLA 6. SECCIÓN 2: DESCRIPCIÓN DEL CANDIDATO ................................................................. 75

TABLA 7. SECCIÓN 3: NIVELES DE LA PRUEBA ............................................................................ 76

TABLA 8. SECCIÓN 4: NÚMERO DE SECCIONES DE LA PRUEBA ..................................................... 78

TABLA 9. SECCIÓN 5: CONTENIDOS TRATADOS POR SECCIÓN ...................................................... 79

TABLA 10. SECCIÓN 6: COMPLEJIDAD DE LA TAREA POR SECCIÓN ............................................... 80

TABLA 11. SECCIÓN 7: NÚMERO DE TAREAS POR SECCIÓN .......................................................... 81

TABLA 12. SECCIÓN 8: DURACIÓN DE TAREA POR SECCIÓN ......................................................... 82

TABLA 13. SECCIÓN 9: LONGITUD DE TEXTO POR SECCIÓN ......................................................... 83

TABLA 14. SECCIÓN 10: ESCALA DE EVALUACIÓN ...................................................................... 84

TABLA 15. TAREAS E ÍTEMS PARA EL NIVEL A2 .......................................................................... 87

TABLA DE ANEXOS

ANEXO 1. TRANSCRIPCIÓN ENTREVISTA A BEGOÑA MARTÍN SOBRE EL PERFIL DE

LOS ESTUDIANTES DE CLAM (01 MARZO 2016) REALIZADA POR YHOSEP BARBA &

DANIELA MEYBERG, 2016 ........................................................................................................102

ANEXO 2. HERRAMIENTA PARA VALIDAR ..................................................................................108

ANEXO 3. TAREAS PARA EL NIVEL A1 ...............................................................................116

ANEXO 4. TAREAS PARA EL NIVEL A2 ...............................................................................118

ANEXO 5. ESPECIFICACIONES PARA LOS NIVELES A1 Y A2 ..........................................121

ANEXO 6. CORRECCIÓN CUESTIONARIO ..........................................................................126

ANEXO 7. CORRECCIÓN TAREAS A1 ..................................................................................134

ANEXO 8. CORRECCIÓN TAREAS A2 ..................................................................................137

ANEXO 9. CORRECCIÓN ESPECIFICACIONES ...................................................................139

1

1. INTRODUCCIÓN

El Centro Latinoamericano (CLAM) de la Pontificia Universidad Javeriana (PUJ) ofrece

un programa de español para extranjeros por medio de 12 cursos que se enmarcan en la

enseñanza comunicativa por medio de tareas.

El CLAM, para clasificar a los candidatos en uno de los doce niveles del programa,

utiliza una prueba de clasificación o de nivel que fue creada entre 1997 y 1998 por profesores de

esta institución. Este examen consta de cuatro secciones que evalúan las cuatro destrezas de la

lengua (comprensión lectora, comprensión oral, producción escrita y producción oral) en

conjunto con la gramática y el vocabulario. En 2002, después de la aparición del Marco Común

Europeo de Referencia (MCER) se reajustaron los criterios de clasificación del examen. Sin

embargo, no se modificaron sus contenidos ni su estructura.

Desde este planteamiento, en la universidad han surgido diferentes trabajos que buscan

responder a la problemática descrita. Entre estos, se destaca el trabajo realizado por estudiantes

de la Maestría en ELE quienes proponen tareas para la prueba oral. No obstante, en este trabajo

investigativo de pregrado solo se pretende crear una propuesta de especificaciones de examen

para los niveles iniciales A1.1, A1.2, A2.1 y A2.2. en la comprensión lectora. Este interés surge

después de analizar la prueba actual del CLAM y de consultar la entrevista hecha por los

estudiantes de la Maestría en Lingüística Aplicada del Español como Lengua Extranjera a la

antigua directora del CLAM (Santamaría & Bejarano, 2014).

Como resultado de este análisis se hace evidente que la herramienta actual de evaluación

presenta un desajuste entre los contenidos, la metodología de los programas y los criterios de

evaluación diseñados por nivel del MCER. A su vez, muestra que los textos utilizados dentro de

la prueba no están actualizados y que las actividades del examen no permiten al aspirante

2

demostrar de manera más acertada sus habilidades para la comprensión de textos. Es en este

contexto donde se hace necesario el diseño de una nueva prueba de comprensión escrita.

Como respuesta, decidimos hacer una propuesta de especificaciones de prueba para los

niveles iniciales que, si bien no resulta en la prueba como producto total final, aporta un

instrumento de guía para aquél que vaya a confeccionarla en su totalidad. Las especificaciones

están pensadas bajo el modelo de fases para la confesión de un examen por Bordón (2006,

tomado de Ferreira, Vine, & Elejalde, 2013). Sumado a esto, se realiza una propuesta de tareas

donde las especificaciones diseñadas son aplicadas y puestas en contexto.

Este documento se divide en cinco secciones. La primera sección presenta los hechos

problemáticos que sustentan la necesidad de crear una propuesta de especificaciones que

contribuyan a una nueva prueba de comprensión escrita. La segunda sección muestra otras

investigaciones que abordan, desde contextos diferentes, la problemática de este trabajo

investigativo y se expone la importancia de este proyecto. En la tercera sección, se presentan los

fundamentos teóricos que sientan las bases de esta propuesta. En la cuarta sección, se presenta

primeramente el modelo de la ruta metodológica y el paradigma a seguir para el diseño de las

especificaciones. En la quinta sección, se aplica el modelo de Bordón (2006, tomado de Ferreira,

Vine, & Elejalde, 2013) y se presentan los resultados del proceso de diseño de las

especificaciones y validación de las mismas por parte de expertos. Para finalizar, en la sexta

sección, se presentan las limitaciones y propuestas para futuros trabajos que surgen de este

trabajo de grado en conjunto con las conclusiones parciales del trabajo aquí consignado.

3

2. SITUACIÓN PROBLEMÁTICA

Las estadísticas actuales muestran que el español se ha posicionado a nivel mundial y que

tanto su enseñanza como su aprendizaje, a modo de lengua extranjera, se están incrementando

continuamente. El informe titulado El Español: una lengua viva, realizado por el Instituto

Cervantes (2015), plantea que la población mundial de habla hispana crecerá; se estima que para

el año 2030 el 7.5% hablará español. Asimismo, manifiesta que alrededor de 20 millones de

alumnos estudiarán español como lengua extranjera gracias a factores económicos, académicos y

de interés social (Instituto Cervantes, 2015).

La cifra de estudiantes de español como Lengua Extranjera (ELE) aumenta al igual que

los programas de enseñanza de ELE, especialmente en contextos hispanohablantes, entre los

cuales Colombia no es la excepción. Hoy en día, se ofrecen programas en más de 30

universidades y otras instituciones educativas en varias ciudades del país como Bogotá,

Medellín, Cali, Bucaramanga, Popayán, Barranquilla, Cartagena e Ibagué (De Mejía, López,

Cruz, Flaborea & Guzmán, 2009). Ciudades que anualmente reciben cerca de 200 extranjeros de

varias partes del mundo (De Mejía et al., 2009). Estos programas educativos siguen el enfoque

comunicativo y por tareas. Además, se organizan en diferentes niveles o módulos donde se busca

que tengan equivalencia con el Marco Común Europeo de Referencia -MCER- (De Mejía et al.,

2009).

Entre estos programas de enseñanza de español como lengua extranjera se encuentra el

programa del Centro Latinoamericano (CLAM) de la Pontificia Universidad Javeriana (PUJ).

Este centro cuenta con más de 42 años de experiencia y constituye una de las instituciones

colombianas más antiguas dedicadas a la enseñanza del español como lengua extranjera. Debido

a su trayectoria, el CLAM se destaca en este campo en Colombia.

4

Este centro ofrece un programa de español para extranjeros que consta de 12 cursos

generales de lengua y cultura que permiten alcanzar el nivel C2 de competencia lingüística según

el MCER. El objetivo principal de los cursos es poder desarrollar o mejorar en los estudiantes su

capacidad para comunicarse de manera correcta y eficaz en contextos reales de lengua y

adentrarlos en algunos aspectos de la cultura colombiana y latinoamericana (CLAM, 2015). Para

agrupar a los estudiantes en los diferentes niveles del centro, la PUJ utiliza un examen de

clasificación que fue diseñado en 1997 el cual que evalúa las 4 habilidades fundamentales en una

lengua (comprensión lectora, comprensión oral, producción escrita y producción oral), la

gramática y el vocabulario.

En cuanto al examen de clasificación de la comprensión lectora, este consta de 4 textos

cada uno con sus respectivas preguntas, de la 105 a la 129. En total se evalúan 24 preguntas de

opción múltiple (a-d). En la siguiente imagen se puede ver cómo a partir de un texto

normalmente contextualizado en la ciudad de Bogotá se plantean preguntas de opción múltiple:

Fuente: CLAM (1997)

Después de analizar esta prueba y consultar la entrevista hecha por los estudiantes de la

Maestría en Lingüística Aplicada del español como Lengua Extranjera a la antigua directora del

Imagen 1. Texto número 1 del examen de clasificación (comprensión lectora).

5

CLAM (Santamaría & Bejarano, 2014), se establece que la actual prueba de comprensión lectora

presenta tres hechos problemáticos que hacen pertinente desarrollar un nuevo examen de

clasificación de comprensión lectora en el CLAM. El primer hecho problemático radica en que la

reciente prueba de comprensión lectora es del año 1997 y presenta un desajuste entre los

contenidos y la metodología de los programas. El segundo hecho problemático consiste en que

los textos utilizados dentro de la prueba no están actualizados de acuerdo a la realidad

sociocultural del país. Finalmente, el tercer hecho problemático reside en que las actividades del

examen no permiten al alumno demostrar asertivamente sus habilidades para la comprensión de

textos al responder a las preguntas planteadas.

Retomando el primer hecho problemático, se puede afirmar que la actual prueba de

comprensión lectora es muy antigua lo cual causa una discrepancia entre los contenidos y la

metodología de los programas. Efectivamente, como se ha mencionado antes, el examen fue

diseñado en el año 1997 y sus contenidos no se han modificado desde entonces (Santamaría &

Bejarano, 2014, anexo entrevista a la directora académica del CLAM, Nancy Agray). Los

contenidos de los programas, por su parte, se renovaron en el año 2013. Por consiguiente, se

percibe un posible desajuste entre lo que se está enseñando hoy en día y lo que mide la prueba

actual de clasificación. En este punto, es importante mencionar que las pruebas de clasificación

«deben basarse en los aspectos del programa enseñados por la institución» (Alderson, Clapham

& Wall, 1995, p.11) y «deben estar específicamente relacionadas con un determinado programa»

(Brown, 2004, p.10).

Por otro lado, debido a que los programas del CLAM adoptan un enfoque comunicativo,

en particular el enfoque por tareas para la enseñanza de ELE (anexo 1), puede decirse que existe

un desajuste también en la metodología utilizada en la prueba como hemos visto con anterioridad

6

(imagen 1), dado que el actual examen de clasificación no utiliza tareas comunicativas que lleven

al candidato a integrar el conocimiento formal del lenguaje. Es decir, la actual prueba de

clasificación no plantea tareas como unidad de centro de planeación en la enseñanza ni promueve

actividades significativas.

Fuente: CLAM (1997)

El segundo hecho problemático reside en que los textos utilizados dentro de la prueba de

comprensión lectora están desactualizados y, por consiguiente, no responden a la realidad actual

sociocultural del país. Pozzo (2010) defiende la incorporación de aspectos interculturales en la

evaluación en ELE y menciona que para ello es necesario presentar a los estudiantes eventos

presentes en cualquier ciudad de sus países que puedan relacionarse con el contexto hispano

donde estén. Por el contrario, la actual prueba del CLAM utiliza textos donde se evidencia el

contexto social y cultural de la ciudad de Bogotá de hace algunos años. Además, no incluye

temas interculturales lo cual ocasiona que la prueba esté desactualizada y esto hace que los

estudiantes que están inmersos en el verdadero entorno social no puedan establecer las

Imagen 2. Texto número 2 del examen de clasificación (comprensión lectora).

7

diferencias y semejanzas entre los aspectos socioculturales del contexto de inmersión y su país

de origen.

2.1. Interrogante

¿Qué características debe cumplir la prueba de comprensión lectora para clasificar a los

estudiantes en los niveles iniciales del CLAM?

3. JUSTIFICACIÓN

3.1. Antecedentes

A modo de ejercicio investigativo consultamos diferentes trabajos con relación directa o

indirecta a la enseñanza del español como Lengua Extranjera (ELE), al diseño de exámenes de

clasificación, a la evaluación en ELE y a la evaluación de la comprensión escrita. A

Imagen 2. Texto número 1 del examen de clasificación

(comprensión lectora). Imagen 1. Texto número 4 del examen de clasificación

(comprensión lectora).

8

continuación, se hará una breve descripción de 5 investigaciones consideradas para el presente

trabajo, las cuales sirvieron de guía, soporte o ayuda en el proceso investigativo.

En primera instancia, el trabajo realizado por Fernández y Pozzo (2012) titulado El

fenómeno del español como lengua internacional. Reflexiones sobre el componente cultural en

la enseñanza, tiene como propósito analizar el creciente desarrollo de la lengua española como

lengua internacional desde dos perspectivas: la enseñanza de ELE desde lo comercial y la

búsqueda de legitimización del estatus del español en comparación con otras segundas lenguas

(L2). Así mismo, en el desarrollo de esta investigación, al comparar distintas posturas presentes

en los manuales de los alumnos, nace el interés del por qué incluir el componente cultural en la

enseñanza de ELE.

En los últimos años el crecimiento del español ha sido notorio, tanto así que ha llegado a

ser considerada por muchos como la segunda lengua de comunicación internacional después del

inglés, dicen los autores. El artículo presenta el fenómeno de expansión económica del español

partiendo de dos puntos diferentes: la expansión con relación a otras lenguas con las que

interacciona en países hispanohablantes y la expansión respecto a lenguas que priman

internacionalmente y con las cuales compite en el mercado de la enseñanza de lenguas

extranjeras.

En el análisis se evidencia en el mercado de las lenguas extranjeras (tales como el inglés,

el francés, el chino, entre otras) la producción de materiales didácticos, la formación de

profesores, la creación de instituciones y la planificación de exámenes y certificaciones de los

mismos. En cuanto al material de ELE, el artículo menciona que en esta área España es quien

produce la mayor parte de los textos de enseñanza en comparación a los países de América.

9

En la enseñanza de ELE hay dos focos respecto a los cuales se direcciona la competencia

de estatus o ‘batalla del idioma’1: la competencia entre los distintos registros del español y las

diferentes culturas que se transmiten al estudiante de ELE. En el componente cultural de los

manuales de ELE, se muestra una preferencia por ciertas variantes geográficas del español al

igual que por ciertos países: España se muestra como punto de referencia de la lengua y al incluir

otros países de habla hispana se utiliza una aproximación más turística que inclusiva. Cabe

aclarar que estos resultados se establecen de esta manera debido a la producción mayoritaria de

material en ELE creado por entidades españolas y al poco material propio de ELE difundido por

parte de los países hispanohablantes de América.

Esta investigación es relevante puesto que expone parte de la realidad del español como

lengua extranjera respecto al trato académico, comercial y cultural. Si bien trata su creciente

posicionamiento como lengua de encuentro, lengua global y lengua como recurso económico, el

artículo también menciona la reciente preocupación por el componente cultural de los manuales

de ELE y la forma en que este se presenta a los estudiantes de ELE. De igual manera, este

artículo muestra que es importante desarrollar material propio en ELE en Latinoamérica tanto

para competir en el mercado como para promover la cultura latinoamericana. En cuanto a nuestra

investigación, el artículo nos insta a crear material de ELE cuyos contenidos obedezcan a nuestro

contexto colombiano para así promover desde la comprensión lectora y la comprensión

sociocultural de nuestra cultura desde una situación base real.

Abordando la línea de la interculturalidad, Pozzo (2010) en su artículo de análisis titulado

Interculturalidad y evaluación en ele: fundamentos teóricos y propuestas para su desarrollo en

1 Término introducido por Del Valle y Gabriel Stheeman (2002) al referirse a la batalla necesaria en la cual unos

idiomas suben y otros bajan.

10

el aula alude a la evaluación de ELE desde una perspectiva intercultural por parte de los dos

agentes involucrados en el proceso de evaluación: el aplicante y la institución que la aplica.

El objetivo del documento es contribuir al desarrollo de una conciencia intercultural en el

evaluador y el evaluado. Como primera medida, hace una aproximación al campo de la

evaluación en ELE donde la interculturalidad se ve plasmada en un doble plano: por una parte,

como acreditación y certificación y, por otra parte, como proceso permanente y formativo.

Del mismo modo, la autora menciona que la interculturalidad se hace presente de diversas

formas: en la elección de las variedades a enseñar, la inclusión de la cultura como parte

fundamental en la enseñanza de una lengua y la implementación de una perspectiva pedagógica

que promueva el desarrollo de la consciencia intercultural. En cuanto a la evaluación per se,

Pozzo (2010) menciona que esta constituye un fenómeno amplio y multifacético que se aborda

desde distintas perspectivas, según el momento, ya sea inicial, continuo o final, y según la

finalidad, la cual puede ser diagnóstica, formativa o sumativa.

El panorama más complejo mencionado es el encuentro lingüístico-cultural entre

evaluador y evaluado, nativo y no nativo. En esta relación, el concepto de interculturalidad se

define en relación con dos referentes como acontecimiento o escenario -en cuanto a interacción-

y como el objeto de estudio que es motivo de evaluación -la forma de interactuar-. Estos aspectos

en la acreditación conducen precisamente a la “consciencia intercultural”, definida por el MCER

como «el conocimiento, la percepción y la comprensión de la relación entre el ‘mundo de origen’

y el ‘mundo de la comunidad’ objeto de estudio» (MCER, 2002, p. 101).

Para aplicar la interculturalidad en la evaluación de ELE es necesario presentar a los

estudiantes eventos que tengan lugar en cualquier ciudad de sus países, que puedan relacionarse

con el contexto hispano donde se encuentren. En este postulado se hace especial énfasis en el

11

hecho de que la información dada sea actual ya que esta condición de realidad es la que permite

establecer relaciones relevantes y reales entre ambos contextos. Más allá de qué temas sean

tratados en cada sección, está la necesidad de tener en cuenta el rol participativo que se asigna al

aprendiz en el proceso de evaluación, los temas relacionados a las problemáticas mundiales que

promueven el conocimiento del mundo hispano y la reflexión que vincula al mundo de la lengua

meta con la lengua materna.

En este sentido, la autora muestra la interculturalidad como un encuentro de culturas que

va más allá de la convivencia superficial de las mismas. Relacionado a esto, y debido a la

creciente internacionalización actual, ella propone dar espacio a los procesos de certificación por

medio del reconocimiento de todos los tipos de conocimientos adquiridos; donde se dé

constancia escrita de las habilidades interculturales a la hora de usar la lengua en un contexto

hispanohablante por parte del usuario. También, habla de la obligación de concebir una

evaluación global en sintonía con la comprensión de la naturaleza de la comunicación

intercultural.

Esta investigación es relevante debido a que respalda nuestra problemática,

específicamente nuestro segundo hecho problemático. Es decir, esta autora sostiene la

importancia de incluir el componente intercultural en las tareas de evaluación, en nuestro caso,

en la selección de textos para la evaluación de la comprensión escrita. De igual manera, este

artículo demuestra que para certificar un conocimiento global en ELE es necesario trabajar

contenidos interculturales que vayan más allá de solo el dominio de la lengua.

Por otra parte, artículo de análisis ¿Qué es una prueba de nivel? Definición, objetivos y

factores que hay que tener en cuenta en su elaboración (Natalías, 2008) tiene como propósito

12

reunir los criterios que, a juicio de la autora, han de seguirse para elaborar una prueba de nivel en

el campo del Español como Lengua Extranjera.

El artículo hace un análisis y lista los elementos base que se deben tener en cuenta a la

hora de elaborar pruebas de nivel con relación a cada destreza lingüística: comprensión oral,

comprensión escrita, producción oral y producción escrita. Todo el filtro de información se hace

bajo los ejes centrales de evaluación que, según Natalías (2008), son los conocimientos, y, a su

vez, el uso de lengua por parte del estudiante los cuales permiten clasificarlo en el nivel de

lengua en el que este debe estar. Para esta revisión se toman en cuenta términos y lineamientos

propuestos por autores como Tenbrink (1981), Bordón (2006, tomado de Ferreira, Vine, &

Elejalde, 2013), Alderson et al. (1998), Caroline Clapham y Dianne Wall (1998).

En conjunto con Bordón (2006, tomado de Ferreira, Vine, & Elejalde, 2013), Natalías

(2008) establece que la realización de la prueba debe ser llevada a cabo por un equipo que, como

primera tarea, delimite los objetivos de la prueba, los contenidos de esta y los descriptores por

nivel de proficiencia del MCER que obedezcan, de igual manera, a los contenidos del programa

de ELE de la institución que la realice. En este apartado, Natalías (2008) hace especial énfasis en

la importancia de la relación entre el MCER, el programa de lengua de la institución y la

herramienta de evaluación para mejorar los procesos y la fiabilidad de la evaluación de la lengua.

El análisis muestra los ítems objetivos que pueden tenerse en cuenta en los test de

evaluación al igual que sus ventajas y consecuencias en la evaluación y en el estudiante a la hora

de presentar el examen en todas las destrezas lingüísticas. Entre estos se encuentran el test de

elección múltiple, el cloze test, el cloze test selectivo y el C-test a la hora de hablar de la

comprensión lectora. Respecto a los últimos tres tipos de test existe una dificultad; la elección de

un texto, ya que estos pueden resultar muy complejos para un nivel inicial o muy fáciles para el

13

nivel avanzado. Con base a Tenbrink (1981), la autora recomienda hacer un test largo puesto que

la longitud del test da indicios de fiabilidad.

Así mismo, describe que es necesario someter el examen de nivel a prueba con hablantes

nativos para así constatar que solo hay una respuesta correcta. Otra alternativa para comprobar

que el examen de nivel es acertado es hablar con los evaluados respecto a si creen que en

realidad la prueba los clasificó, en cuanto a su opinión personal, en el nivel de lengua asignado.

Esta investigación es relevante, ya que este artículo aporta indicios respecto a la clase de

ítems que deberían implementarse a la hora de evaluar la comprensión escrita. De igual manera,

a la hora de establecer el MCER como lineamiento de selección de contenidos, el artículo

muestra cómo puede utilizarse como soporte para el diseño de tareas de evaluación y validación

de las mismas. Sumado a esto, este artículo sustenta el primer hecho problemático ya que

sostiene que el examen de clasificación debe que estar alineado a los programas que lo

implementen, además ayuda a definir qué es y en qué consiste un examen de clasificación.

Por su parte, la investigación Criterios pragmáticos y socioculturales para la selección

de textos y géneros discursivos en un examen de certificación de nivel inicial (a2-n) de lengua

española para trabajadores inmigrantes (Baralo & Guerra, 2011) se produjo como respuesta a

las dificultades comunicativas de la creciente población inmigrante en el sector laboral que

requiere certificación de nivel de lengua en ELE en España.

En esta investigación se diseña un examen, al que se le nombra DILE2 (Diploma inicial

en lengua española) de nivel A2 para trabajadores inmigrantes que están adquiriendo la lengua

española como lengua extranjera. El diseño se basa en los principios teóricos y los requisitos

sobre evaluación del MCER y los niveles de evaluación de lengua de las asociaciones de

2 En la actualidad llamado LETRA (Lengua Española para Trabajadores Inmigrantes).

14

examinadores ALTE (Association of Language Testers in Europe) y EALTA (European

Association for Language Testing and Assessment) del Consejo de Europa. Así mismo, esta

prueba responde a las necesidades comunicativas reales del grupo meta las cuales se

identificaron con base en estudios etnolingüísticos que permitieron determinar lo que los

hablantes nativos demandaban del inmigrante en una situación comunicativa real en el ámbito

laboral, institucional y administrativo.

En la fase de investigación se estudiaron documentos como el MCER y el Plan Curricular

del Instituto Cervantes (PCIC); los niveles de lengua ALTE y EALTA; y se consultaron fuentes

como el CEPI (Centros de Participación e Integración de la Comunidad de Madrid), centros de

formación de Cruz Roja y otras ONG donde se conoció la situación del aprendizaje de la lengua

en centros de acogida e integración por parte de profesores voluntarios.

El examen de certificación DILE consta de 4 apartados correspondientes a cada una de

las destrezas lingüísticas comunicativas: comprensión lectora, comprensión audiovisual,

expresión e interacción escrita, y expresión e interacción oral. Así mismo, se elaboró un

documento con las especificaciones del examen DILE en el que se detallaron las capacidades

evaluadas en cada prueba, la descripción de las tareas y sus ítems, al igual que los géneros

discursivos que sirven de estímulo inicial a las tareas individuales.

Para la selección de los textos escritos en la prueba de comprensión lectora, se observó y

consultó a personas que trabajan con inmigrantes de forma cotidiana con el fin de determinar qué

tipos de textos tendrá que producir el candidato del examen en la vida real y qué se le exigirá al

respecto para la comprensión y la expresión comunicativa. En la fase de diseño del examen

DILE, se tomó la decisión de seleccionar géneros que promovieran la interacción escrita y que

15

estimularan las tareas de la comprensión escrita correspondientes al nivel de lengua escogido

según los parámetros del MCER.

A continuación, se programaron distintas tareas de comprensión lectora con el propósito

de que el candidato demostrara que podía leer con diferentes objetivos y comprender la idea

general o la función comunicativa del texto para así conseguir información específica o para

inferir ideas no explícitas (Ottonello & Infante, 2011).

En la etapa de verificación del examen, se utilizó el Alfa de Cronbach para comprobar la

fiabilidad de los textos e ítems diseñados para el examen. Como resultado, esta escala demostró

que la selección de textos y géneros discursivos contribuyó a que el examen DILE tuviera

realmente un carácter útil comunicativo aplicado a las necesidades reales de comunicación de los

trabajadores hablantes no nativos de español.

Esta investigación es relevante para el presente proyecto investigativo ya que nos explica

cómo hacer un análisis de necesidades del contexto para plantear el constructo (objeto a evaluar),

desarrollar tareas a partir del MCER, y plantear las especificaciones del examen con relación al

constructo en la comprensión lectora. Además, brinda herramientas para diseñar tareas

comunicativas para la evaluación de la comprensión lectora y da pautas sobre el tipo de

preguntas para evaluar esta habilidad.

El artículo investigativo Hacia una prueba de nivel en español como lengua extranjera

(Ferreira, Vine & Elejalde, 2013) tiene como finalidad presentar el proceso de planificación,

creación e implementación de una prueba de nivel en ELE. El objetivo principal de este trabajo

es crear dos formatos de la prueba (A y B) y evaluar el comportamiento de estos mismos en la

aplicación para evaluar el nivel B1.

16

Esta investigación se realizó en Chile, donde el programa de ELE de la Universidad de

Concepción (ELE-UDEC) da cursos trimestrales a sus estudiantes de intercambio. A la hora de

entrar al programa se pide a los estudiantes un nivel de lengua B1 según los parámetros del

MCER. Para verificar que estos estén efectivamente en este nivel se diseñó una prueba de nivel

para evaluar la proficiencia en ELE de modo que se pudiera constatar que los estudiantes habían

adquirido los contenidos tanto gramaticales como léxicos de este nivel. De igual forma, los

resultados arrojados por esta prueba contribuyeron a la correcta distribución de los estudiantes en

cursos equilibrados de acuerdo con sus resultados y habilidades con la lengua.

En la fundamentación teórica de esta investigación se maneja el concepto de evaluación

entendida como «una operación indisociable de todo proceso de enseñanza y aprendizaje»

(Pastor, 2003 citado en Ferreira, Vine & Elejalde, 2013, p. 3) cuyo objetivo es medir la

apropiación del conocimiento lingüístico según el tipo de prueba que se use.

Se menciona que, gracias al enfoque comunicativo, la evaluación dejó de ser solo una

manera de medir el conocimiento lingüístico en un estudiante y ahora también tiene como

objetivo mejorar los procesos de aprendizaje, evaluar la actuación lingüística y la competencia

comunicativa. Al citar a Hymes (1971) los autores hacen énfasis en la necesidad de incluir una

visión sociocultural en la competencia comunicativa a la hora de usar la lengua. Por

consiguiente, es necesario la intervención de competencias lingüísticas, sociolingüísticas y

pragmáticas que se verán manifestadas en las destrezas de tipo interpretativas como la

comprensión oral y escrita.

En cuanto a la confección de una prueba, se menciona que esta es un instrumento para

obtener información y que es efectiva cuando se consideran los criterios pertinentes para su

elaboración y utilización. Por este motivo, los autores presentan una breve descripción de las

17

distintas fases de confección de una prueba de Bordón (1991, 2006) como modelo a seguir. De

igual manera, se plantea la problemática de que, si bien existen diferentes tipos de pruebas en el

área de ELE, cada una de estas obedece a necesidades y contextos específicos, razón por la cual

es difícil aplicarlas dentro de contextos para los cuales no fueron diseñadas (Natalías, 2008,

citado en Vine & Elejalde, 2013).

Dentro de las fases de Bordón (2006, tomado de Ferreira, Vine, & Elejalde, 2013)

encontramos la fase previa, la fase de diseño, la fase de experimentación y la fase de

recapitulación. En la fase previa de esta investigación se estableció el objetivo del instrumento, el

perfil de los estudiantes y las secciones que tendría la prueba: comprensión auditiva y lectora,

producción oral y escrita, gramática y léxico. Así mismo, se hizo una revisión de pruebas para la

evaluación de ELE y se tomó como referente la prueba DELE de nivel B1.

En la fase de diseño, se precisaron los contenidos, los temas y la cantidad de ítems según

el modelo de distribución propuesto por Bordón (2006, tomado de Ferreira, Vine, & Elejalde,

2013) en función del perfil del candidato. En la fase de experimentación y evaluación del

instrumento se hizo una revisión de cada ítem por parte de un equipo de especialistas con el

propósito de hacer los ajustes pertinentes antes de hacer la prueba piloto. Al finalizar este último

paso, se habilitó el instrumento para ser aplicado. Los resultados de la prueba en sus dos

formatos en el 2012 y el 2013 reflejaron que el instrumento permitió distinguir y determinar

asertivamente el nivel de lengua B1 según el MCER de los estudiantes antes de dar inicio al

curso del programa de la universidad.

Este trabajo es importante debido a que presenta una propuesta de instrumento de

evaluación en el área de ELE basada en la ruta metodológica de Bordón, la cual se seguirá

18

también en esta investigación. Así mismo, presenta las características que debe tener el examen

de nivel; en nuestro caso específico, la prueba de comprensión lectora.

3.2. Importancia

En vista de que el campo de investigación en evaluación ha sido poco abordado y tratado

en la enseñanza de lenguas extranjeras y particularmente en el español (Puig, 2008) y que esta ha

sido vagamente explorada en Colombia (De Mejía et al., 2009), se podría afirmar que la presente

investigación podría contribuir a este campo del conocimiento concretamente al desarrollo de las

especificaciones de un examen de clasificación.

De la misma manera, se ha evidenciado que existe poco material colombiano asociado a

la enseñanza, al aprendizaje y a la evaluación de ELE. Además, los materiales que se encuentran

han sido desarrollados principalmente en España o en Estados Unidos (De Mejía et al., 2009,

Fernández & Pozzo, 2012). Proponer un proyecto investigativo como el presente establece un

aporte investigativo en Colombia sobre la indagación y diseño de materiales de español como

lengua extranjera.

Finalmente, este trabajo podría contribuir a una de las líneas de investigación de la

Facultad de Comunicación y Lenguaje, ya que trata un campo importante dentro de la

Lingüística Aplicada y el de evaluación en español como lengua extranjera, además hace parte

de un proyecto más grande del Departamento de Lenguas que tiene como objetivo principal el

diseño del nuevo examen de clasificación del CLAM en la Pontificia Universidad Javeriana.

Gracias a la creación de las especificaciones, los futuros trabajos de investigación tendrán un

modelo de referencia sobre el cual seguir construyendo conocimiento en el área. Tal y como

menciona Luoma (2004), los tipos de especificaciones nos permitirán dar un sentido y un orden

más concreto de los contenidos de las pruebas y a su vez establecer qué hay en las mismas. La

19

creación de las especificaciones es un aspecto fundamental y de gran ayuda a la hora de crear un

examen, ya que nos permitirá poder tener una guía del orden y también poder establecer los tipos

de documentos, preguntas y tareas que debe contener el examen.

Los aspectos mencionados anteriormente, tienen como objetivo evidenciar la importancia

del presente proyecto de investigación tanto a nivel nacional como a nivel institucional e

internacional. Por esta razón, con el fin de estructurar el presente trabajo investigativo se ha

decidido plantear un objetivo general de investigación y unos objetivos específicos que guíen la

realización de este proyecto. Estos se presentan a continuación.

4. OBJETIVOS DE INVESTIGACIÓN

4.1. Objetivo general

Diseñar las especificaciones para el examen de clasificación de comprensión lectora en

los niveles iniciales (A1.1, A1.2, A2.1, A2.2) del Centro Latinoamericano de la Pontificia

Universidad Javeriana (con una propuesta inicial de tareas).

4.2. Objetivos específicos

1. Analizar las necesidades y características de la población.

2. Determinar los objetivos que se van a evaluar en la prueba para cada uno de los niveles

(A1.1, A1.2, A2.1, A2.2).

3. Establecer tipo de tareas e ítems a desarrollar para evaluar los niveles (A1.1, A1.2, A2.1,

A2.2).

4. Establecer los criterios de evaluación.

5. Validar las especificaciones con expertos para comprobar así la veracidad, precisión y

especificidad de los contenidos de las especificaciones de la prueba.

6. Diseñar una propuesta de tareas a partir de las especificaciones que permita ubicar a los

20

estudiantes en los concernientes niveles iniciales del CLAM (A1.1, A1.2, A2.1, A2.2).

5. MARCO TEÓRICO

A la hora de establecer relaciones entre la problemática ya expuesta y el objetivo de este

trabajo investigativo: crear las especificaciones del examen de clasificación para la prueba de

comprensión escrita en los niveles iniciales del CLAM, fue necesario hacer una búsqueda de

conceptos que encausaran el desarrollo de la investigación hacia la realización de la propuesta

final. Por este motivo, se hizo una delimitación teórica de los conceptos: evaluación, medición y

prueba, utilidad de un test, comprensión escrita, evaluación de la comprensión escrita, MCER y

evaluación, enfoque por tareas y especificaciones de un examen.

5.1. Evaluación, medición y prueba

Para entender bien el concepto de evaluación primero es necesario hacer una distinción

entre esta y los conceptos de medición y prueba. Aunque en muchas ocasiones se usan estos

términos indiscriminadamente, existen diferencias entre estos al igual que diferentes

implicaciones en la enseñanza y evaluación de lenguas (Brown, 1990).

En primer lugar, Richards et al. (1985, citado en Pastor, 2003), en el Diccionario de

Lingüística Aplicada y Enseñanza de Lenguas, definen la evaluación básicamente como la

recogida sistemática de información con el propósito de tomar decisiones por medio de métodos,

que pueden ser tanto cuantitativos como cualitativos. Respecto a esto, Weiss (1972, citado en

Brown, 1990) añade que entre más confiable y relevante sea la información recogida es más

probable que se tome una buena decisión. De igual forma, Brindley & Chapelle (2010) añaden

que esta es un proceso continuo que encierra un dominio muy amplio y hace referencia al acto de

recolectar información para hacer juicios respecto al conocimiento de los estudiantes de una

lengua y su habilidad para usarla.

21

Dentro del concepto de evaluación «es preciso tener en cuenta que la manera de entender

la evaluación de los aprendizajes varía sustancialmente según cual sea la teoría del aprendizaje

en que se ampara el enfoque o método didáctico» (CVC, s.f.). A medida que los enfoques

metodológicos han venido transformándose, los procesos de evaluación también. De esta

manera, estos han cambiado sus objetivos basados en las concepciones de comunicación y uso de

la lengua (Ferreira, Vine & Elejalde, 2013). Por ejemplo, en el método tradicional el proceso de

evaluación se veía solo a través de un examen final en el que se buscaba verificar que el alumno

hubiese aprendido los contenidos lingüísticos enseñados, como resume Diez (s.f.). Por otra parte,

también añade que en el método audio-oral la evaluación era un poco más objetiva y rigurosa por

medio de preguntas con respuestas determinadas.

En este proceso la evaluación era una herramienta y llegó a adquirir un carácter

científico. Años después en el enfoque comunicativo, el cual tuvo y tiene gran influencia

actualmente, la evaluación empieza a verse como un medio de mejoramiento de los procesos de

aprendizaje ya que esta permite tomar decisiones que modifican el proceso en sí. En este último

caso, al verse la lengua como un instrumento de comunicación más allá de una agrupación de

estructuras lingüísticas, se ha tenido que buscar una forma de evaluar el uso de la lengua y el

enfoque pasó de medir la competencia y los conocimientos a medir la actuación y la habilidad en

la L2.

En función de evaluar, es necesario hacer distinción entre evaluación formativa y

sumativa. Por un lado, según Brown (2004) la evaluación formativa trata de medir a los

estudiantes en el proceso de formación de sus competencias y habilidades con el objetivo de

ayudarles a continuar su proceso de adquisición de conocimiento. Esta se lleva a cabo durante el

curso y sus resultados sirven para que el profesor ofrezca ayuda oportuna o para que cambie el

22

énfasis del curso, si fuera necesario (Arias & Maturana, 2005). Sumado a esto, el Instituto

Cervantes añade que se trata de «un proceso continuo de acopio de información sobre el alcance

del aprendizaje, así como sobre los puntos fuertes y débiles, que el profesor puede introducir en

su planificación del curso (…)» (2002). En definitiva, los objetivos de la evaluación formativa

son «la regulación pedagógica, la gestión de errores y el refuerzo de los éxitos y se logra a partir

de la retroalimentación y la autoevaluación» (Jorba & Casellas, 1997, citado en Arias &

Maturana, 2005, p. 6).

Por otro lado, Brown (2004) afirma que la evaluación sumativa apunta a medir o resumir

lo que un estudiante ha alcanzado y usualmente ocurre al final de un curso o unidad. Arias,

Maturana & Restrepo (2012) establecen que el concepto de evaluación sumativa se construyó

con base en la propuesta de Hadji (1997). En su propuesta, la evaluación sumativa «se lleva

acabo cuando ya se han finalizado ciertos momentos de instrucción y aprendizaje, y su propósito

es verificar los logros alcanzados por los estudiantes y se caracteriza por el momento en que se

realiza y por su propósito» (Hadji, 1997 citado en Arias & Maturana, 2005, p. 30). Este tipo de

evaluación es importante a la hora de constatar qué aprendió el estudiante al final de un ciclo. Se

basa en los resultados del conocimiento lingüístico de la lengua extranjera, no en los procesos

(Jorba & Casellas, 1997 citado en Arias & Maturana, 2005)

Por último, el campo de la evaluación también se ve influenciado por la entidad que la

realiza, el contexto, el tipo de población, los propósitos de evaluación y demás agentes

implicados en este proceso. Por esta razón, las prácticas evaluativas para recoger información se

realizan en diferentes ámbitos y varían en su propósito. Así, las tareas o procedimientos

evaluativos empleados para conseguir dicha información varían dependiendo de la definición

que se tenga de la lengua y del qué, cómo, cuándo y para qué se va a evaluar y se delimita en

23

función de la lengua y los propósitos del aprendizaje o enseñanza (Arias & Maturana, 2005;

Ferreira, Vine & Elejalde, 2013).

En segundo lugar, para Brown (1990) la medición es el proceso de cuantificar las

características de una persona según procedimientos y reglas explícitas. Aquí el propósito es

evidenciar el grado de dominio del estudiante sobre el constructo del objeto a evaluar. De

acuerdo a este autor, hay tres términos que delimitan el proceso de medición: cuantificación,

características y reglas y procedimientos. La cuantificación, en términos sencillos, consiste en

asignar números o representaciones visuales, categorías o clasificaciones al objeto a evaluar con

el propósito de analizar e interpretarlos para así medir.

En cuanto a las características, se puede asignar números a las particularidades físicas y

mentales de una persona, entre estas características se pueden encontrar términos tales como

aptitud, actitud, inteligencia, fluidez al hablar, entre otros. En este contexto, por habilidad se

entiende el hecho de estar apto para hacer algo. Es importante mencionar que lo que se pretende

calificar son los atributos de la persona y no la persona en sí. Por otra parte, al referirse a las

reglas y procedimientos, la medición debe hacerse de acuerdo a reglas y métodos establecidos.

Para que estos se consideren medición, es necesario que sean replicables en otros contextos

(García, 2002).

En tercer lugar, Carroll (1948, citado en Brown, 1990) define la prueba como «un

procedimiento para provocar ciertos comportamientos sobre los cuales se puede hacer

inferencias sobre ciertas características de un individuo» (p. 20). Brown (1990) dice que en sí

una prueba es un instrumento de medición diseñado para provocar muestras específicas del

comportamiento de un individuo y que necesariamente cuantifica las características del mismo

según un procedimiento específico. Richards et al., (1985 citado en Pastor, 2003) concuerdan en

24

que una prueba es el procedimiento por medio del cual se miden habilidades, conocimiento o

actuación. Por último, Brindley & Chapelle (2010) sostienen que las pruebas son una

herramienta útil dentro de los muchos procesos y tareas que se pueden utilizar para evaluar a un

estudiante.

Dentro de la definición de prueba, Brown (2004) establece cinco características. En

primer lugar, una prueba es un método. Es decir, un instrumento que debe ser diligenciado por el

interesado en tomar el examen. Este método debe ser explícito y estructurado. En segundo lugar,

una prueba debe medir. Algunas pruebas pueden medir habilidades generales mientras que otras

pueden medir habilidades específicas. En tercer lugar, una prueba debe medir la habilidad, el

conocimiento y el desempeño de un individuo y, para esto, es fundamental tener en mente quién

es el individuo. En cuarto lugar, una prueba mide el desempeño del individuo que la realiza ya

sea por habilidades o competencias lingüísticas. En última instancia, una prueba mide un

dominio base específico. En este orden de ideas, una prueba bien construida es un instrumento

que aporta una medición precisa de quien hace la prueba en un área determinada.

Dado que las pruebas son instrumentos que giran en torno a propósitos específicos

encontramos distintos tipos de pruebas. En el área de enseñanza y aprendizaje encontramos

pruebas de aptitud lingüística, pruebas de proficiencia, pruebas de rendimiento, y pruebas de

nivel.

Según Pastor (2003) las pruebas de aptitud lingüística miden la capacidad de un individuo

para adquirir una L2 por medio de la medición de la memorización, la inferencia de significados,

la capacidad de decodificar gramática y la identificación de fonemas. Las pruebas de proficiencia

son las que miden el dominio y el conocimiento de un individuo en una L2 y no se diseñan

teniendo en cuenta ningún programa concreto de enseñanza. Las pruebas de rendimiento evalúan

25

los conocimientos adquiridos en un curso específico de una lengua meta y miden cuánto

aprendió un estudiante en un programa. Por último, la prueba de nivel es la que permite clasificar

a un estudiante o individuo en el estadio que le corresponde de un curso o programa de estudios.

Sumado a esto último, una prueba de nivel como procedimiento también mide las habilidades, el

conocimiento lingüístico y/o la actuación del aprendiz de la lengua (Pastor, 2003 Citado en

Ferreira, Vine & Elejalde, 2013).

Así mismo, Natalías (2008) menciona que una prueba de nivel debe servir para dos

objetivos. Por una parte, para asignar al estudiante el nivel que le corresponde, lo cual se logra

por medio de la corrección de los resultados del examen. Y, por otra parte, esta prueba sirve para

determinar las necesidades de los estudiantes que van a ingresar a cada nivel y los estudiantes

que los van a integrar.

Esta prueba como instrumento es importante a la hora de iniciar un proceso nuevo de

aprendizaje de una L2 ya que, como menciona Natalías (2008), ayuda al profesor a identificar los

puntos débiles del grupo al que va a enseñar, le da pistas para buscar estrategias de enseñanza

para su contexto y le permite conocer cuáles son los contenidos y habilidades que los alumnos

dominan y sobre los que no es necesario hacer demasiado énfasis. Estas características hacen

que, por medio de esta prueba, la evaluación sea formativa e incida directamente en el ejercicio y

mejoría de la enseñanza y aprendizaje del programa que la implemente.

5.2. La utilidad de un test

Bachman y Palmer (1996) plantean que el factor más importante cuando se diseña una

prueba es el uso para el cual la prueba está destinada. Los autores llaman utilidad a esta cualidad.

Bachman (1990) afirma que el hecho de diseñar o aplicar un test, no implica que éste sea útil.

Por esta razón, los autores, Bachman y Palmer (1996), proponen un modelo de seis cualidades

26

que sienta las bases teóricas para evaluar no solamente el diseño y el uso de un test sino también

todos los aspectos de su diseño, aplicación y utilidad para un determinado propósito. Las

cualidades son: la fiabilidad, la validez del constructo, la autenticidad, la interactividad, el

impacto y la viabilidad (Bachman & Palmer, 1996).

La primera cualidad es la fiabilidad, definida por Bachman & Palmer (1996) como la

consistencia en la medición. Es decir, la igualdad que arrojan los resultados del examen a pesar

de que se aplique en momentos o lugares distintos y/o se evalúe por diferentes examinadores.

La segunda cualidad es la validez de constructo. Para poder entender de qué se trata,

primero es importante definir que es un constructo. Según Alderson (2000) es un concepto

psicológico que se deriva de una teoría de la habilidad que se evalúa. Es decir, se habla de

constructo cuando se refiere a un proceso cognitivo que no puede medirse u observarse de

manera directa (Brown, 2004). «Ejemplos de constructos son la inteligencia, la motivación para

un fin, la ansiedad, el aprovechamiento, la actitud, el dominio y la comprensión de lectura»

(Alderson, 1995, citado en Pärna, 2015). Por esta razón, la dificultad de los exámenes reside,

entre otras cosas, en poder demostrar que lo que se midió es efectivamente el constructo en

cuestión.

Por otro lado, Bachman & Palmer (1996) manifiestan que la validez del constructo

permite que los resultados de un examen muestren si este es realmente un parámetro significativo

de evaluación a la hora de tomar decisiones y establecer si los estudiantes tienen o carecen de la

habilidad o conocimiento relacionado con lo que se quiere evaluar. Por ejemplo, la validez del

constructo permite determinar si una persona cuenta con la competencia para leer o redactar

cierto tipo de textos. Siguiendo la línea de pensamiento de Moore, Andrade & Matamoros

(2009), los diseñadores de un examen, cuyo objetivo es medir un conocimiento o habilidad,

27

deben establecer el modo de interpretación de los resultados. Al igual que, deben especificar cuál

es el sustento que apoya tal interpretación de los resultados; «un examen es diseñado con una

finalidad específica; pues bien, la validez es el indicador de que se está midiendo únicamente lo

que se desea medir» (Bachman & Palmer, 1996).

La tercera categoría en la utilidad de un test es la autenticidad. Para Bachman & Palmer

(1996), al igual que Moore, Andrade & Matamoros (2009), esta está en la correspondencia entre

las tareas del examen y el dominio de la lengua en situaciones sociales reales donde se haga uso

de la lengua meta. En otras palabras, la tarea que pone a prueba la competencia del estudiante

«debe reflejar o asimilarse a una tarea en la vida real, en la que tendrá que hacer uso de la lengua

meta» (Moore, Andrade & Matamoros, 2009, p.455).

En cuarto lugar, es necesario determinar su interactividad. Es decir, «el grado en el cual

las características individuales de la persona a ser evaluada y la tarea de una prueba deben ser

identificadas para establecer una relación entre lo que se está evaluando y el conocimiento de la

persona» (Bachman & Palmer, 1996, p. 12).

La quinta categoría es el impacto o como la definen Bachman & Palmer (1996)

consecuencias. Es llamado impacto ya que los examinadores toman como base los resultados

obtenidos en las diferentes pruebas para tomar decisiones respecto a los procesos de enseñanza y

aprendizaje. Estas pueden dar resultados favorables, neutros o no favorables provocando así

consecuencias para el estudiante o la institución que realiza el proceso de evaluación.

Finalmente, la sexta cualidad es la viabilidad. Se trata de la relación entre los recursos

necesarios para llevar a cabo la prueba y los recursos disponibles (Bachman & Palmer, 1996).

Este aspecto de la utilidad indica qué tan factible es su realización. De acuerdo con Moore,

Andrade & Matamoros (2009), aquí entran en consideración los recursos humanos necesarios

28

para la planificación y evaluación de la prueba -y sus resultados-, los materiales requeridos para

esta y, por último, el tiempo total del proceso. Tener en mente estas consideraciones ayudará a

establecer los diferentes parámetros que deben tenerse en cuenta a la hora de diseñar y

desarrollar el examen específico a los estudiantes.

5.3. Comprensión lectora

Para abordar el concepto de la destreza de la comprensión lectora primero debemos

definir qué es leer. En un principio, leer se consideraba principalmente como el resultado exitoso

de la decodificación de un código social escrito. Sin embargo, hoy en día se ve como «un

proceso de recepción e interpretación de información escrita por medio del reconocimiento y

procesamiento de los niveles morfológico, fonológico, sintáctico y semántico al igual que de los

niveles discursivos que varían según los intereses de cada lector» (Carrell & Grabe, 2010). Esta a

su vez requiere de «la aplicación específica de destrezas de procedimiento y estrategias

cognitivas» (Flor, 1983 citado en Pérez, 2005, p. 122).

De esta manera, Pérez (2005) menciona que hoy en día se ha establecido que el

conocimiento se almacena en estructuras de conocimiento y que al momento de comprender un

texto estas intervienen en la medida en que la información dada por el texto se integra a estas

creando, modificando, elaborando e integrándolas, razón por la que se concede un alto nivel de

importancia a los procesos de inferencia en la comprensión lectora.

En cuanto a lo social, la comprensión escrita constituye una actividad comunicativa

situada. Ibáñez (2012) señala que cada persona, a la hora de leer un texto, parte de una situación

comunicativa específica que establece unas finalidades y objetivos específicos ligadas al

contexto. De igual forma, Ibáñez (2012) menciona que:

En cuanto a su naturaleza cognitiva, la comprensión del discurso escrito constituye un proceso

complejo, que se conforma por medio de procesos psicolingüísticos, que se sustentan en una

29

variedad de procesamientos cognitivos de orden inferior -atención, percepción y memoria- y de

orden superior -toma de decisiones, monitoreo, reflexión, entre otros-. (p.25).

En este último punto, la comprensión es el resultado de la interacción del lector con el

texto y se centra más en el proceso seguido por el lector durante la lectura que en el producto

final de ésta. Si bien leer es un proceso receptivo, visual y mental en el que el lector decodifica y

relaciona significados y no participa directamente, sino que es receptor del texto, en este también

este analiza, profundiza e infiere el contenido que es interpretado y cuestionado por medio de la

interacción con el texto y el contexto (Dolores, 2012; Gallet, 1981; Ibáñez, 2012). Por

consiguiente, se trata de una destreza tanto receptiva como productiva.

En las estrategias de razonamiento, Pérez (2005) menciona que el lector construye el

significado de un texto cuando utiliza los esquemas y estructuras de conocimiento que evoca

gracias al contexto. Las estrategias de monitoreo y seguimiento de los procesos propios de

comprensión ayudan a identificar y corregir el proceso de comprensión permitiendo y ayudando

a que éste se lleve adecuadamente al interactuar con el texto desde la experiencia personal y el

contexto.

En cuanto a las estrategias de referenciación de conocimiento, se concede un lugar

importante al conocimiento previo (en inglés: background knowledge) puesto que en la medida

que el lector lo posee, mayor es su conocimiento y apropiación de las palabras y su utilización.

Igualmente, se incrementan sus posibilidades para hacer inferencias y mejora capacidad para

crear modelos asertivos de significado (Feeley, Werner, & Willing, 1985, citado en Pérez, 2005;

Bruner, 1990).

Por otro lado, el lector, en una L2, al leer o buscar comprender una lectura emplea

distintos mecanismos o estrategias de lectura (Alderson, 2000): lectura específica o focalizada

(scanning), lectura global (skimming), lectura extensiva o para la comprensión y lectura para el

30

aprendizaje. La lectura global se usa para llegar a un entendimiento general al pasar la vista por

el texto para así obtener la esencia del mismo (Carrell & Grabe, 2010; Instituto Cervantes, 2015).

La lectura focalizada busca el reconocimiento visual de números, palabras o frases claves sin

poner especial atención a la totalidad de la información, esto según los intereses específicos del

lector; por esto no hay un procesamiento semántico (Carrell & Grabe, 2010; Instituto Cervantes,

2015). La lectura extensiva busca la comprensión total del texto (Carrell & Grabe, 2010). Por

último, la lectura intensiva consiste en comprender detalles particulares de un texto (Carrell &

Grabe, 2010; Instituto Cervantes, 2015). También existe la lectura crítica, en esta se lee con el

propósito de evaluar el texto, analizando la calidad literaria, la actitud del autor, etc. (Instituto

Cervantes, 2015).

Sumado a esto, al explicar los procesos de comprensión han surgido diferentes modelos

teóricos explicativos, entre los cuales destacan el modelo ascendente o bottom-up (Gough, 1972

citado en Diez, s.f.), el modelo descendente o top-down (Goodman, 1962; Smith, 1973 citado en

Diez, s.f.) y el modelo interactivo (Carrell, Devil et al., 1988 citado en Diez, s.f.).

El modelo ascendente está centrado en el texto donde, desde propuestas psicológicas

conductistas, se ve la lectura como un proceso ascendente donde a partir de la comprensión

individual de las palabras se llega a la comprensión total del texto. Por el otro lado, el modelo

descendente se centra en el lector donde este es el protagonista y al ir leyendo aplica sus

habilidades de interpretación, busca pistas para entender, hace predicciones que corrige o

confirma a lo largo de su lectura. Finalmente, el modelo interactivo se orienta tanto al texto como

al lector donde la información del texto se combina con los conocimientos previos del lector en

conjunto con la información del texto que a su vez se combina con los conocimientos previos del

lector y construye nuevo conocimiento.

31

En la comprensión de un texto, tal y como propone Pérez (2005), hay 5 niveles de

comprensión y es necesario que el texto sea considerado como un todo. En el primer nivel, está

la comprensión literal donde el lector debe reconocer y recordar la información en su medida

más puntual. El segundo nivel, concierne a la reorganización de la información, aquí lo

importante es ordenar las ideas y la información mediante procesos de clasificación y síntesis. En

el tercer nivel, está la comprensión inferencial donde el lector precisa relacionar su experiencia

personal y realizar conjeturas e hipótesis. Este nivel permite la interpretación del texto partiendo

del conocimiento del lector. El cuarto nivel, corresponde a la lectura crítica o juicio valorativo

donde la reflexión frente al contenido del texto tiene lugar. En el quinto, y último lugar, está el

nivel de apreciación lectora donde se hace referencia al impacto psicológico y estético del texto;

aquí el lector realiza relaciones lógicas e inferencias respecto al texto.

5.4. Evaluación de la comprensión lectora

En la comprensión escrita el objeto a evaluar es:

La capacidad del alumno para extraer el sentido global de los textos en relación con los temas

especificados en el bloque de contenido temático, al igual que la capacidad del alumno para

entender información específica según los contenidos descritos en cada nivel (García Santa-

Cecilia, 1995, p. 170).

Es por esto que, a la hora de analizar la evaluación de la compresión lectora, según Pérez

(2005), es necesario establecer en primer lugar los objetivos de la lectura a evaluar -los cuales

pueden ser la comprensión de ideas principales, el reconocimiento de información específica, la

identificación de intenciones comunicativas o demás- ya que de estos dependen los procesos y

procedimientos de evaluación.

Respecto a lo mencionado anteriormente, las técnicas o métodos de evaluación son

medios para conseguir aspectos específicos que se quieren evaluar en la comprensión escrita y se

32

plantean usualmente por medio de preguntas o ítems donde se llenan vacíos de información

(Alderson, 2000). Existen dos grupos de técnicas utilizadas en la evaluación de la comprensión

escrita: las de tipo abierto, las cuales implican la producción escrita u oral por parte del sujeto a

evaluar, y las de tipo cerrado, las cuales requieren la elección desde un conjunto de opciones.

Actualmente, existe un debate entre cuáles métodos o técnicas de tipo cerrado y abierto son las

más adecuadas para la evaluación de la comprensión escrita, sobre todo respecto a las de carácter

cerrado.

Una de las críticas más destacadas en contra de esta es que no es posible distinguir si la

respuesta del evaluado es producto de la comprensión del texto o de otros procesos cognitivos

como los de resolución de problemas o incluso del azar (Alderson, 2000). Por otra parte, Bennett

(1993, citado en Ibáñez, 2012, p.29) señala que aún «no se ha probado empíricamente que las

técnicas de carácter abierto sean mejores que las de carácter cerrado». De igual manera, Bennett

(1993, citado en Pérez, 2005) apunta que las tareas con preguntas elaboradas miden destrezas

diferentes de las que miden las tareas con preguntas de respuesta múltiple.

A pesar de estas discusiones, es necesario resaltar que no existe una técnica mejor que

otra para evaluar la comprensión escrita. De modo que «será tarea y desafío del evaluador

seleccionar la técnica más apropiada al momento de diseñar y construir un instrumento, en virtud

del constructo a medir y de los textos a utilizar» (Ibáñez, 2012, p.32). Dentro de las técnicas más

utilizadas están las siguientes:

33

TÉCNICAS DE EVALUACIÓN DE TIPO ABIERTO

Cloze: Pruebas en las que se suprimen algunas palabras de un texto de forma mecánica.

Generalmente se utilizan para medir la coherencia global del texto (Alderson, 2000).

Cloze intencionado: Pruebas en las que se suprimen algunas palabras de un texto de forma

mecánica. Se utiliza para medir la coherencia local de un texto (Nuttall, 1996).

Respuesta abierta corta: Se presenta una pregunta cuya respuesta es SÍ o NO. Esta técnica se

utiliza para medir la identificación de la información literal (Alderson, 2000).

Respuesta abierta larga: Se presenta una pregunta cuya respuesta debe ser sustentada por la

información dada en el texto. Esta técnica puede ser utilizada para medir diferentes constructos

(Parodi, 2007).

Resumen: Se solicita al evaluado producir un texto breve donde dé cuenta de las ideas

principales del texto. Esta técnica sirve para medir la macroestructura del texto (Parodi, 2007).

TÉCNICAS DE EVALUACIÓN DE TIPO CERRADO

Cloze invertido: Se presenta un texto con palabras de más. El propósito es eliminar las

palabras que no contribuyen al sentido del texto. Esta técnica se utiliza generalmente para

medir la macroestructura (Nuttall, 1996).

Opción múltiple: Se presenta varias alternativas de respuesta y el evaluado debe elegir la

correcta. Esta técnica se utiliza para medir diferentes constructos (Alderson, 2000).

Resumen incompleto: Se presenta un resumen en donde el total de las ideas principales no se

encuentra presente. La tarea del lector es incluir las ideas faltantes. Esta técnica se utiliza para

medir la generación de la macro estructura.

Verdadero y falso: Se presenta una afirmación con relación a una idea presentada en el texto;

el evaluado debe decidir si es verdadera o falsa. Esta técnica se utiliza para medir la

identificación de información literal pero también se puede acomodar a otros constructos

(Pérez, 2005).

En adición, Pérez (2005) menciona que los lectores, partiendo de su experiencia

individual, reaccionan de manera diferente a un mismo tipo de texto, sumado a esto, su

34

comprensión está condicionada por el tipo de texto que se les presente, esto debido a que «cada

tipo de género tiene su propio set de convenciones y reglas estructurales» (Brown, 2004, p. 186).

Brown (2004) también menciona que cada tipo de género permite al lector aplicar cierto tipo de

esquemas que le ayudarán a encontrar el significado acertado del texto. Adicionalmente, afirma

que la validez del contenido de un proceso de evaluación en la comprensión lectora se establece

en gran medida por medio del género de un texto.

Al hablar de los textos en sí, Ibáñez (2012) menciona que los textos descriptivos

presentan situaciones ya establecidas y hacen énfasis en las características totales del personaje

del texto. En cuanto a los textos narrativos, dice que estos hacen referencia a uno o más

personajes centrales y relatan los acontecimientos que les suceden en un momento determinado

mientras se describe la relación interna de los sujetos. Por otra parte, los textos expositivos

presentan relaciones lógicas entre los acontecimientos que se exponen y tienen como objetivo

informar, explicar o persuadir al lector. De estos textos, es la narración la que más apela al

conocimiento previo ya que su contenido está relacionado con las experiencias previas del lector

lo cual a su vez permite crear más inferencias. No en tanto, son los textos de exposición los que

presentan el escenario perfecto para señalar e identificar diversos tipos de relaciones de

coherencia.

A la hora de escoger los textos Pérez (2005) menciona que es necesario: el análisis del

texto en términos de su contenido y estructura, y el estudio de la interacción entre autor del texto

y el lector. Respecto a los contenidos y estructuras del texto, hay variables que afectan la

comprensión del texto como:

La longitud del texto, la densidad de la información, la cantidad de información nueva, la

densidad de los argumentos o proposiciones, el nivel de concreción del texto, el grado de interés

35

del mismo, la capacidad del lector para identificarse con el personaje del texto, lo explícito de la

información y el grado de cohesión del texto. (Pérez, 2005, p, 131).

Respecto a la interacción entre texto y lector, se establece que es necesario que el texto

tenga una función comunicativa, una carga de vocabulario adecuada para el nivel del estudiante

y que haya un ajuste cultural. Referente a lo último, es necesario que haya un lenguaje o sistema

de referentes cercanos a la cultura del lector que realizará el examen y que haya coherencia entre

la prueba de lectura, las instrucciones dadas y las características de la tarea donde se especifica

que es lo que se espera del alumno. En esta medida, es sumamente importante tener en cuenta

estas dos líneas ya que de no ser atendidas podrían influenciar negativamente los procesos de

comprensión del lector y por ende la evaluación de la misma haciéndola invalida.

Como se ha mencionado anteriormente, dependiendo de los estadios del proceso de

comprensión y el objeto a evaluar en cada uno se utilizan técnicas de evaluación específicas.

Ibáñez (2012) propone un formato donde se relacionan estas técnicas y los textos cuyo género

literario facilita la medición del proceso de la comprensión escrita, estos se pueden observar en la

siguiente tabla:

Fuente: Ibáñez (2012).

36

5.5. El MCER y la evaluación

El Marco Común Europeo de Referencia (MCER) fue creado por el Consejo de Europa

en el 2001. Este tenía como propósito proporcionar transparencia en los procesos de enseñanza,

aprendizaje y evaluación de las lenguas extranjeras. Este documento, a pesar de que nació para

dar respuesta a los problemas específicos de Europa, también se utiliza en otros lugares, entre los

cuales se encuentra Colombia, en este caso el CLAM.

El MCER, menciona (Cáceres, 2002), es un documento técnico y extenso, de naturaleza

descriptiva, más no prescriptiva, donde se desarrollan temas sobre las lenguas y los factores que

inciden en el aprendizaje de ellas. Partiendo de esto, en su contenido se realiza un conjunto

básico de recomendaciones sobre el aprendizaje, la enseñanza y la evaluación de las lenguas

extranjeras. Por consiguiente, el objetivo principal de este documento es «poder establecer una

base común, con un metalenguaje común que al mismo tiempo es flexible y se puede adaptar a

los diferentes contextos educativos» (Cáceres, 2002, p. 278) para la elaboración de programas y

manuales, diseños y reformas curriculares, formación de profesores y la evaluación de las

competencias en las lenguas en toda Europa (Cáceres, 2002).

Así mismo, el MCER establece los seis niveles de competencia en un idioma, desde

“principiante” a “avanzado”: A1 y A2, B1 y B2, C1 y C2, niveles utilizados en la clasificación

de los estudiantes de las diferentes lenguas. De igual manera, mediante una escala de evaluación,

este describe para cada nivel lo que los usuarios de un idioma deberían ser capaces de hacer en

términos de comprensión lectora, comprensión escrita, producción oral y producción escrita.

Para nuestra investigación fue muy importante el MCER, ya que nos dio las bases

fundamentales para establecer aspectos relevantes durante el proyecto trabajado. Para poder

comenzar a relacionar los contenidos establecidos por MCER haremos un breve resumen de los

37

capítulos que han sido objeto de estudio. Los capítulos tomados como referencia y que fortalecen

el entendimiento en la elaboración del nuevo de diseño de la prueba fueron los siguientes: el

capítulo 3, el capítulo 5, el capítulo 7 y, el capítulo más importante para nuestra investigación, el

9.

Para comenzar, en el tercer capítulo se introducen los niveles de referencia (del A1 al C2)

y las escalas comunes de referencia: escala global, la escala de autoevaluación y la escala de

aspectos cualitativos de la lengua. En el quinto capítulo, se encuentran las especificaciones

detalladas de la competencia general y la competencia comunicativa. El séptimo capítulo

presenta el rol de las tareas en la enseñanza de lenguas. Y, para finalizar en cuanto a los intereses

de esta investigación, está el noveno capítulo el cual expone los propósitos de la evaluación, sus

características y sus tipos. Respecto a la evaluación, el capítulo 9 nos muestra las diferentes

escalas donde se establece que es lo que debe saber y lo que se debe evaluar a la hora de

establecer el nivel en que se encuentre cada estudiante. También, nos muestra las clases de

evaluación que el profesor puede utilizar a la hora de evaluar al alumno.

Por otro lado, Cáceres (2002) nos habla de la dimensión vertical y horizontal. Por una

parte, la dimensión vertical, se refiere a los seis niveles de referencia de la lengua. Por la otra

parte, la dimensión horizontal hace referencia a las categorías de la lengua: las competencias

generales, la competencia comunicativa, las tareas y estrategias, las actividades comunicativas de

la lengua, los textos, los ámbitos, entre otros (Puig, 2008, Casanovas & Puig, 2013). El cruce de

estas dos dimensiones da forma a una serie de escalas que describen lo que el alumno es capaz de

hacer en cada uno de los seis niveles respecto a las competencias lingüísticas. Las escalas y el

enfoque adoptado por el MCER pueden facilitar la definición del concepto de lengua a evaluar y

la descripción de las habilidades, al igual que la definición de los objetivos de un examen y el

38

diseño de criterios de corrección.

Por otra parte, Según Soler (2006), la evaluación es un concepto importante en el

desarrollo del documento del Consejo de Europa. Sin embargo, el MCER no es un manual donde

se vean las instrucciones para la creación de exámenes ni los programas que son utilizados

dentro de un instituto de lenguas. Se trata de una guía que invita al análisis de los aspectos como:

la planeación, diseño y evaluación a la hora de crear un material o un examen para evaluar a un

estudiante que quiere aprender español.

A su vez, según Puig (2008, citado en Santamaría & Bejarano, 2014), el MCER tiene

muchos inconvenientes, es decir este documento desde su creación en el 2001 ha tenido aspectos

negativos que hacen que algunos aspectos mencionados en él no sean tomados en cuenta y a la

vez sean criticados. Esto se debe a que estos aspectos no se corresponden de una manera

adecuada con el propósito inicial de la creación de este documento; enseñar, aprender y evaluar

los conocimientos de un idioma.

En conclusión, el MCER, más allá de algunos de sus problemas internos, es útil como

herramienta a la hora de establecer los contenidos de los exámenes –en cuanto a temáticas y

nivel de lengua-, la evaluación de los mismos, la interpretación de sus resultados, hechos que lo

convierten en una guía práctica para la enseñanza, aprendizaje y evaluación de las L2.

5.6. Enfoque por tareas

A finales de la década de 1960 algunos lingüistas como C. Carolin y H. Widdowson

empezaron a manifestar que el aprendizaje de las lenguas debía girar en torno al desarrollo de la

competencia comunicativa (AA. VV., 2008). Dado que se empezó a tomar en cuenta la

interacción real fuera del aula de clase y, a su vez, el aprendizaje y la enseñanza de lenguas

extranjeras dentro del aula, se creó y comenzó a incrementar el uso del enfoque de tareas.

39

Respecto a este, Stern (citado en Estaire, 2010) clasifica los enfoques comunicativos en dos

grandes grupos: por una parte, los enfoques comunicativos de tipo L (lingüísticos) y, por la otra

parte, los enfoques comunicativos de tipo P (psicolingüísticos).

En Estaire (2010) se encuentra que los enfoques de tipo lingüístico (L) crean actividades

comunicativas a partir de contenidos lingüísticos provenientes de un análisis de la lengua

siguiendo la secuencia PPP (presentación, práctica y producción). Por otra parte, este autor

menciona que los enfoques de tipo psicolingüístico (P) diseñan una serie de tareas comunicativas

que parten de los procesos psicolingüísticos de aprendizaje del alumno. Adicionalmente, Estaire

& Zanón (1990, citados en Estaire, 2010), exponen que el enfoque comunicativo de tipo

psicolingüístico busca desarrollar la competencia comunicativa, por medio de unidades y tareas,

con el objetivo de no solo integrar el conocimiento formal del lenguaje sino también el

conocimiento instrumental. Esto con el fin de lograr la comunicación y la interacción en

contextos reales y en situaciones específicas.

Es aquí donde es conveniente aclarar que se entiendo por tareas. Según Long (citado en

Estaire, 2010) las tareas son «todo aquello que solemos hacer en nuestra vida diaria, en el

trabajo, en el tiempo libre, o en cualquier otro momento» (p.4). En otras palabras, las tareas se

definen como cualquier actividad donde se utilice la lengua. Por ejemplo, ir al colegio, ir a

tomarse un café, ir al cine, ir a jugar con los amigos etc. Igualmente, el MCER, define que una

tarea es «cualquier acción intencionada que un individuo considera necesaria para conseguir un

resultado concreto en cuanto a la resolución de un problema, el cumplimiento de una obligación

o la consecución de un objetivo» (Instituto Cervantes, 2002, p.10). Sumado a esto, Breen (citado

en Estaire, 2010) define la tarea como «un plan estructurado para la creación de oportunidades

para el desarrollo de conocimientos y capacidades implicados en el uso de una nueva lengua

40

durante la comunicación» (p. 6).

Para Ellis (2003, citado en Estaire, 2010) una tarea para ser considerada un instrumento

de enseñanza y aprendizaje debe: En primer lugar, ser vista como un plan de trabajo por medio

de la cual se trabajen procesos de enseñanza/aprendizaje dentro de un ámbito educativo. En

segundo lugar, debe prestar atención al significado para así poder utilizar los recursos

lingüísticos que se dan dentro del proceso y la forma de los componentes de la lengua. En tercer

lugar, debe plantearse en un contexto real donde el estudiante pueda hacer un uso real de la

lengua que está aprendiendo. En cuarto lugar, debe en sí misma actividades comunicativas claras

y bien definidas. En quinto, y último lugar, debe ser evaluable a través del proceso mismo de

aprendizaje.

5.7. Especificaciones del examen

En palabras de Alderson, Clapham & Wall (1998), las especificaciones de examen son un

documento que permite conocer el qué evalúa un examen y el cómo lo evalúa. Por otro lado, es

también el plan que deben seguir quienes redactan el examen y los ítems que establecen la

validez del constructo de la prueba. A su vez, las especificaciones de examen son necesarias para

aquellos que analizan y supervisan el trabajo de los desarrolladores de los ítems y también para

aquellos que evalúan la prueba. De igual manera, estás son una fuente valiosa de información

para los editores que quieren producir libros relacionados con la prueba.

Las especificaciones de examen varían según el público al que vayan este vaya dirigido.

Es importante que se establezca una exposición de los fundamentos teóricos y se proporcione el

objeto con el cual se ha elaborado la prueba para que los responsables de la validación de las

pruebas puedan hacer su trabajo.

Según Luoma (2004) las especificaciones se dividen en tres categorías: constructo, tareas

41

y evaluación. Las especificaciones del constructo, determinan la relación que existe entre la

teoría ideal de la habilidad que se va a evaluar, su implementación concreta con las traes y, por

último, los criterios de evaluación. En las especificaciones de las tareas, se pretende establecer

las tareas que serán utilizadas para poder evaluar la habilidad, en este caso la comprensión

lectora. En estas especificaciones, se establecen particularmente los referentes que serán tomados

como base para evaluar la tarea (tipo de tarea, tipos de textos, extensión de los textos y la

comprensión de cada uno, etc.). Por último, las especificaciones de la evaluación pretenden

desarrollar los criterios de evaluación de la habilidad a evaluar tomando como bases los

contenidos establecidos y el porcentaje dado a cada tarea.

En cuanto al contenido de las especificaciones, éstas deben contemplar la siguiente

información (Alderson et al., 1998):

1. Función del examen (prueba de nivel, de diagnóstico, de progreso, de

rendimiento, de proficiencia)

2. Concepción de la lengua de la que se parte

3. Objetivos a evaluar

4. Perfil del candidato de la prueba

5. Partes del examen, habilidades que formarán parte del mismo, tiempo y

puntuación de cada una de ellas

6. Fuentes y tipo de texto en cada parte del examen

7. Número de tareas y número y tipo de ítems para cada parte del examen.

8. Instrucciones para la ejecución de las tareas (determinar si se dan en la lengua

meta o en la lengua del candidato)

9. Destrezas y micro destrezas lingüísticas que se evaluarán en cada habilidad

42

10. Criterios de evaluación de las distintas habilidades

Otra característica de las especificaciones de examen es que ellas deben prever el tipo de

ensayos a realizar para poder determinar la calidad de los ítems redactados. Además, las

especificaciones deben formar parte del proceso evaluativo y, a su vez, ser parte del proceso de

la administración del examen y la obtención de los datos como los resultados finales para la

creación de las conclusiones en el proceso de enseñanza/aprendizaje (Alderson et al., 1998). De

esta manera, tener claridad sobre las especificaciones aporta no solo a la confección del examen

sino también a la validación del mismo, sus resultados y el aprovechamiento de estas tanto en el

aula de clase como en el campo académico.

6. MARCO METODOLÓGICO

Como se ha mencionado anteriormente, el presente trabajo tiene como objetivo presentar

una propuesta de especificaciones de la prueba de comprensión lectora para clasificar a los

candidatos en los niveles iniciales del CLAM. Para alcanzar el propósito inicial, se ha propuesto

una serie de pasos a seguir en el proceso investigativo. Igualmente, se ha hecho una consulta

concisa de investigaciones relacionadas con la situación problemática planteada al principio de

este trabajo y, a la vez, un recorrido teórico por los conceptos que son de mayor importancia para

este proyecto investigativo. Finalmente, este capítulo tiene como propósito definir el tipo de

investigación, la ruta metodológica y las herramientas de recolección de información que

permitirán llegar a la construcción de las especificaciones de la prueba.

6.1. Tipo de investigación

A la hora de posicionarse frente al objeto de un trabajo investigativo, podemos encontrar

diferentes posturas de acuerdo con los intereses específicos de cada investigador. En cuanto al

campo de segundas lenguas, existen distintas maneras de abordar una investigación; entre ellas

43

se encuentran: la investigación teórica, la investigación aplicada y la investigación práctica

(Seliger & Shohamy, 1989).

Para comenzar, la investigación teórica tiene como objetivo construir nuevas teorías, la

mayoría abstractas, acerca de un tema en particular relacionado con el aprendizaje de lenguas.

Por otro lado, la investigación aplicada pretende hacer uso de las investigaciones teóricas y el

conocimiento ya construido para aplicarlo a problemas de investigación ya propuestos. Por

último, la investigación práctica, como su propio nombre indica, se centra en los aspectos

prácticos de un proyecto en un tema específico; este tipo de investigación retoma los hallazgos

de lo teórico y los aplica con el fin de encontrarles una utilidad en contextos y situaciones

específicas (Seliger & Shohamy, 1989).

En lo que respecta a nuestra investigación, el objetivo es aterrizar los conceptos teóricos

de comprensión escrita, evaluación de la comprensión escrita, examen de nivel, prueba de

comprensión lectora, especificaciones de un examen, entre otros conceptos (véase apartado 5) en

el contexto específico del CLAM y desarrollar una propuesta de especificaciones para evaluar

los niveles iniciales de los estudiantes en ELE en la comprensión lectora. Es por este motivo que,

en el marco de este trabajo, es indispensable «una vinculación inseparable entre el ‘saber y el

hacer’, pretendiendo que la teoría se enfoque en sus aplicaciones» (Vargas, 2009, p.160). En

definitiva, para lograr el objetivo de esta investigación es necesario hacer una investigación

práctica-aplicada.

La investigación práctica-aplicada, según Vargas (2009), trata «experiencias de

investigación con el propósito práctico de resolver o mejorar una situación específica o

particular, para comprobar un método o modelo mediante la aplicación innovadora y creativa de

una propuesta de intervención» (p.162). Sumado a esto, Vargas (2009) dice que este tipo de

44

investigación se enfoca en diagnósticos que implican el uso de herramientas tales como

encuestas, entrevistas o cuestionarios con el propósito de indagar sobre cuáles son las verdaderas

necesidades o problemas del contexto en el que se intervendrá.

De igual manera, Vargas (2009) menciona que el resultado final de este tipo de

investigación se ve en propuestas donde se definen políticas institucionales, documentos de

acceso y propuestas para el desarrollo de prácticas, producción de material, métodos o técnicas

de evaluación. Como se ha mencionado anteriormente, en nuestro caso es el diseño de las

especificaciones del examen de clasificación A1 y A2 en la comprensión lectora del CLAM ya

que el examen que se usa actualmente se diseñó en 1997 y presenta varios problemas (véase

apartado 3).

En adición, es necesario incluir el paradigma de investigación; se pueden hacer dos

grandes distinciones: investigación cuantitativa y cualitativa.

Po una parte, la investigación cuantitativa parte de problemas y objetivos definidos clara

y previamente. Utiliza instrumentos de recolección de información y medición de variables muy

estructurados con el fin de asegurar la confiabilidad y validez de los datos. Por la otra parte, el

enfoque cualitativo «desarrolla objetivos de comprensión de diversos fenómenos socioeducativos

y de transformación de la realidad hecho que permite a la investigación dirigirse a la

comprensión, transformación, cambio y toma de decisiones» (Sandín, 2003, citado en Hernández

& Opazo, 2010, p.4). En esta línea, se pretende comprender la singularidad del objeto de

investigación dentro de su propio contexto con una mirada a la transformación y mejoramiento

del mismo a través de la interpretación de sus propias características y en sus propios términos.

Martínez (2011) menciona, dentro de las características principales de este tipo de investigación,

45

la metodología holística y el uso de datos descriptivos procedentes de fuentes de primera mano

tales como las entrevistas, la observación, las encuestas, entre otras.

Debido a la naturaleza de este proyecto de investigación es necesario tomar como base la

investigación práctica-aplicada bajo el paradigma cualitativo. Esto puesto que, con base en los

resultados del análisis de la población específica y la descripción de la problemática objeto de

este proyecto, es necesario aplicar la teoría pertinente en evaluación para la solución de los

problemas identificados a los cuales se pretende dar respuesta con este trabajo mediante el diseño

las especificaciones del nuevo examen de clasificación en la compresión escrita del CLAM.

Además, los métodos de recolección de información que se utilizaron en este estudio - tales

como entrevistas, análisis de programas, análisis de documentos y cuestionarios- son

herramientas orientadas al cambio y toma de decisiones lo cual es complemento vital de la

investigación aplicada-práctica y cualitativa.

6.2. Ruta metodológica

A la hora de planificar la elaboración de un examen es necesario tener en cuenta diversos

aspectos que afectan la selección y la pertinencia de los contenidos, los temas, la cantidad y

clases de ítems, entre otros factores. Para esto, hemos tomado como ejemplo el modelo de

confección de un examen de Bordón (2006, tomado de Ferreira, Vine & Elejalde, 2013).

Bordón (2006, tomado de Ferreira, Vine & Elejalde, 2013) propone cuatro fases para el

diseño de un examen: fase previa, fase de diseño, fase de experimentación y fase de

recapitulación (véase Tabla 1).

46

Fuente: Hacia una prueba de nivel como lengua extranjera (Ferreira, Vine y Elejalde, 2013).

En nuestra ruta metodológica tendremos en cuenta todas las fases propuestas por Bordón

(2006, tomado de Ferreira, Vine, & Elejalde, 2013). Pese a que este modelo fue planteado para el

diseño de exámenes, nos parece pertinente su uso en este caso específico puesto que nos es útil

para guiar el diseño de las especificaciones que al fin y al cabo son el bosquejo de la prueba.

De esta manera, en la fase previa, como punto de partida se estableció el objetivo de la

prueba a partir de la definición de la problemática. En segundo lugar, se estableció el perfil de

los estudiantes de español lengua extranjera que vienen a estudiar español en el CLAM mediante

una entrevista realizada a una profesora del CLAM. En tercer lugar, se analizaron los programas

de español del CLAM y los manuales Aula Internacional 1 y 2 que se utilizan en el centro para

los niveles iniciales con el fin de seleccionar el tipo de tareas que puede contener el examen en la

comprensión lectora. En cuarto lugar, se definió lo que el alumno es capaz de hacer (constructo)

Tabla 1. Fases en la confección de un examen según Bordón (2006)

47

en los niveles 1, 2, 3 y 4 del ELE del CLAM mediante la consulta de los programas del CLAM,

Aula Internacional 1 y 2 y las escalas del MCER.

En la fase de diseño, se precisaron: los contenidos, número y tipo de tareas, número de

ítems, contenidos lingüísticos, y criterios de evaluación de las especificaciones de la prueba. De

igual forma, se seleccionaron los tipos de texto, la longitud de los mismos y el tiempo de

ejecución de la prueba. Para ello, se tuvieron en cuenta las necesidades de los candidatos y su

perfil, los contenidos del PCIC, las escalas del MCER, los libros Aula Internacional y las

recomendaciones de Ottonello & Infante (S.f.), Natalías (2008), Ibáñez (2005), Pérez (2005),

entre otros (Véase apartado 5.2).

En la fase de experimentación, se hizo una consulta a 4 expertas del CLAM mediante un

cuestionario cerrado para la validación de las especificaciones desarrolladas y una propuesta de

tarea para medir los niveles A1.1 y A1.2 en la comprensión de lectura. Por último, en la fase de

recapitulación, se realizaron los cambios y mejoras necesarias a las especificaciones y a la tarea

propuesta a partir de los resultados obtenidos en la fase de experimentación.

6.3. Contexto e informantes

Para este trabajo se contó con la participación de cuatro profesoras de la Facultad de

Comunicación y Lenguaje de la Pontifica Universidad Javeriana (Bogotá). Gracias a la

trayectoria con la que cuentan estas profesoras en la enseñanza y evaluación de ELE, se

consideró oportuna su participación en el proceso de validación de las especificaciones y el

modelo de tarea propuesto para la prueba de comprensión lectora.

La primera profesora, antropóloga egresada de la Universidad de los Andes, cuenta con

una extensa formación profesional en el área de español como Lengua Extranjera, es profesora

en el área de ELE de la Facultad de Comunicación y Lenguaje y evaluadora acreditada de los

48

exámenes DELE. La segunda profesora, cuenta con una trayectoria superior a 40 años en la

enseñanza y evaluación en ELE y, actualmente, trabaja como profesora en esta área. Sumado a

esto, es evaluadora acreditada de los exámenes DELE. La tercera profesora, se ha dedicado a las

áreas de la traducción, la enseñanza de lenguas extranjeras y el diseño de materiales. Es egresada

de la Universidad de los Andes, fue coordinadora del CLAM y cuenta con la experiencia del

diseño de los exámenes dentro del Centro Latinoamericano. Por último, la cuarta profesora,

egresada de la Universidad Nacional de Colombia en Filología e Idiomas español e inglés,

cuenta con dos maestrías y una especialización en enseñanza de español como lengua extranjera.

Fue coordinadora del CLAM hasta 2014 y cuenta con una trayectoria de más de diez años como

profesora de ELE (Colciencias, 2016).

6.4. Herramientas para la recogida de datos

6.4.1. Entrevista

La entrevista es una herramienta de gran importancia en las investigaciones cualitativas

para obtener datos sobre un tema o interrogante específico. Ésta se define como «una

conversación que se propone un fin determinado distinto al simple hecho de conversar» (Díaz-

Bravo, et al., 2013, p. 163). En el marco de este trabajo investigativo, se implementó una

entrevista semiestructurada. Este tipo de entrevistas se rige bajo ciertos parámetros, entre los que

se encuentran: la toma de datos personales considerados apropiados para la investigación;

preguntas agrupadas por categorías o temas de interés; libertad de tratar temas alternos que se

consideren importantes por parte del entrevistado; la profundización de aspectos relevantes para

la investigación, entre otros. (Díaz-Bravo et al., 2013).

La entrevista se realizó a una profesora de ELE de la PUJ por parte de Barba & Meyberg

(2016), dos estudiantes de la Licenciatura de Lenguas Modernas de esta Universidad, con el

49

propósito de recoger información acerca del perfil del alumno que viene a estudiar español como

lengua extranjera en el CLAM.

Las preguntas de esta entrevista buscaban obtener datos etnográficos de los estudiantes

como: edad, nacionalidad, sexo, profesión, intereses de estudio, problemáticas a la hora de

aprender el español, entre otros. Los resultados obtenidos mediante la entrevista se utilizaron

para definir el perfil del candidato de la prueba en las especificaciones (véase apartado 7.2).

6.4.2. Cuestionario

Como instrumento para validar las especificaciones y el modelo de tareas propuestas para

la prueba de comprensión lectora en los niveles iniciales, se realizó un cuestionario cerrado de

diez secciones, cada una con diferente número de preguntas. En total, se desarrollaron 38

preguntas.

Cada sección buscaba validar diferentes contenidos de las especificaciones. A

continuación, se hace explicito el qué medían cada una de ellas: la sección 1, si el propósito de

las especificaciones correspondía con el propósito del CLAM; la sección 2, si la descripción del

candidato correspondía con el perfil de ingreso de los alumnos del programa del CLAM; la

sección 3, si los niveles de la prueba descritos se corresponden con los niveles del CLAM; la

sección 4, si el número de secciones de la prueba es adecuado para clasificar a los estudiantes;

la sección 5, si los contenidos tratados por sección se corresponden con los contenidos de los

programas; la sección 6, si la complejidad de la tarea por sección se ve en las tareas diseñadas;

la sección 7, si el número de tareas por sección es suficiente para clasificar a los estudiantes en

los niveles iniciales del CLAM; la sección 8, si la duración de tarea por sección es adecuada; la

sección 9, si la longitud de texto por sección se adecua al nivel; y, por último, la sección 10 se

pregunta si los criterios de evaluación son claros y relevantes.

50

El cuestionario se diseñó con la finalidad de validar las especificaciones por parte de las

cuatro expertas del CLAM. En definitiva, el objetivo principal de esta validación consistía en

revisar los contenidos, la pertinencia y la adecuación de las especificaciones, al igual que la tarea

propuesta.

Según Sierra (1994, citado por Corral de Franco, 2010) el cuestionario «es un

instrumento que consiste en aplicar a un determinado público una serie de preguntas o ítems

sobre un problema definido de investigación sobre el cual deseamos conocer algo» (p.156). Por

otra parte, Malhotra (1997, citado por Corral de Franco, 2010) menciona que un cuestionario

debe tener tres objetivos a la hora de su aplicación.

El primero de ellos, plantea que la información deseada se debe obtener por medio de

preguntas específicas fáciles de responder. El segundo, nos habla sobre el hecho de que este tipo

de herramienta debe incentivar al informante a contestar todo el cuestionario. El tercero, y

último, nos habla sobre la necesidad de adaptar las preguntas en un formato o escala donde no

haya confusiones a la hora de responder.

Para realizar el cuestionario, se tomó como modelo la escala tipo Likert, esta se llama así

por Rensis Likert, quien publicó un informe describiendo su uso en el año 1932. Esta escala de

evaluación se utiliza comúnmente en cuestionarios y encuestas de investigación. Consiste en «un

conjunto de ítems que se configuran bajo la forma de afirmaciones o juicios ante los cuales se

solicita la reacción (favorable o desfavorable, positiva o negativa) de los encuestados» (Malave,

2007, p.3). En nuestro caso, se diseñó una escala de 5 puntos: totalmente de acuerdo, de acuerdo,

parcialmente de acuerdo/ desacuerdo, en desacuerdo y totalmente en desacuerdo. En la escala se

incluye un punto medio, esta opción es fundamental para que el encuestado haga explicito su

punto de indecisión y/o neutralidad respecto a la pregunta hecha.

51

Adicionalmente, en la construcción del cuestionario es necesario crear una escala de

Likert simétrica para saber con exactitud que aquellos a quienes se aplicó la encuesta respondan

precisa y adecuadamente (Malave, 2007). Es decir, una escala que tenga el mismo número de

categorías positivas y negativas. Por consiguiente, en nuestro cuestionario en cada sección se

desarrolló una pregunta en afirmativo y otra en negativo para constatar que los encuestados estén

respondiendo no al azar sino atentamente. Un ejemplo de estas preguntas:

Duración de tarea por sección:

El tiempo que se proporciona es suficiente para que el estudiante pueda

completar la tarea. (positiva)

El tiempo de respuesta es insuficiente y por consiguiente puede condicionar al

estudiante a responder precipitadamente. (negativa)

Con esta herramienta y este planteamiento de preguntas, se busca que la herramienta de

validación de la propuesta de esta investigación que se implementa en esta fase aporte la mayor

cantidad de herramientas para reafirmar o replantear el diseño de las especificaciones. Esto con

el propósito de confeccionar asertivamente la prueba de comprensión escrita para los niveles

iniciales.

6.5. Resultados de la investigación

6.5.1. Resultados de la fase previa

6.5.1.1. Objetivo de la prueba

En esta primera fase, como punto de partida para el diseño de las especificaciones

(Luoma, 2004), se estableció el objetivo de la prueba. Para ello, se partió de la definición de la

problemática en la que se constató que es necesario desarrollar una nueva prueba de comprensión

lectora para clasificar a los estudiantes en los doce niveles de ELE que imparte el CLAM (véase

52

problemática). Debido a la naturaleza del trabajo de grado y algunas limitaciones (Véase

apartado 8), se decidió dar respuesta solamente a los niveles iniciales.

De esta manera, el objetivo de la prueba consiste en evaluar la proficiencia de los

estudiantes en la destreza lectora en el nivel A1 (A1.1 & A1.2) y A2 (A2.1 & A2.2) con el fin de

clasificarlos en los niveles de ELE establecidos en el programa del CLAM los cuales son

Español 1 para A1.1, Español 2 para A1.2, Español 3 para A2.1 y Español 4 para A2.2 y Español

5 para B1.1.

6.5.1.2. Perfil del candidato

Para establecer el perfil de los estudiantes, se realizó una entrevista a la profesora Martín

(2016) quien hizo un estudio en 2015, como parte de su tesis doctoral, sobre el perfil de los

estudiantes que ingresan al programa de ELE del CLAM (véase apartado 6.4.1). A partir de

material recogido del 2010 al 2015 con dos tipos de documentos -hojas de inscripción y fichas de

exámenes de clasificación oral-, se obtuvo información sobre la nacionalidad, edad, profesión e

intereses de estudio de los candidatos.

El estudio determinó que el perfil de los estudiantes que llegan a presentar el examen de

clasificación del CLAM es muy variado, los alumnos provienen de países muy diversos: Suiza,

Haití, Brasil, Holanda, Francia, entre otros. A pesar de este hecho, las nacionalidades más

comunes son la estadounidense, la coreana, la japonesa y la alemana. Referente a la edad, hay un

rango muy diverso dado que se inscriben tanto adolescentes (16-20 años) como personas

mayores. No obstante, las edades más frecuentes oscilan entre los 21 a los 30 años. Respecto a

las motivaciones que incitan a estos estudiantes a aprender español en el CLAM, el estudio

resaltó las necesidades académicas o laborales puesto que la mayoría viene a Bogotá a estudiar y

a trabajar en empresas extranjeras.

53

6.5.1.3. Posibles tareas para la prueba de clasificación

Se seleccionaron las posibles tareas que podría tener el examen de clasificación. Para

ello, se hizo una revisión completa de los programas de español 1, 2, 3 y 4 del CLAM de los

manuales Aula Internacional 1 y 2 y del MCER.

En primer lugar, se consultó el MCER (2002) para ver en qué ámbitos se podría

comunicar el alumno y, por ende, enmarcar las tareas. Consideramos que es un paso necesario ya

que como el propio MCER establece, los ámbitos son las áreas de interés en que se organiza la

vida social y señala que ayudan «a la selección de situaciones, propósitos, tareas, temas y textos

que configuran los materiales y las actividades evaluativas del examen» (MCER, 2002, p.49).

Estos ámbitos se organizan, según el MCER, en el ámbito personal, ámbito profesional, ámbito

público y ámbito educativo.

Dentro de este trabajo investigativo, y gracias a los resultados obtenidos en el paso

anterior, se consultaron los ámbitos del MCER para enmarcar las tareas de la prueba de

clasificación. Los ámbitos que consideramos oportunos dado el nivel de las tareas son los

ámbitos personal, profesional y educativo. En cuanto al primero, se tiene en cuenta la vida

privada del candidato (familia) y la vida social (amigos). El ámbito profesional, por otra parte, se

contempla el lugar donde el candidato desarrolla su vida laboral a través de contenidos

relacionados con empresas, oficinas, almacenes, entre otros. Finalmente, el ámbito educativo

considera los espacios donde el individuo complementa o promueve su aprendizaje (escuelas y

colegios, facultades, centros de formación continua, laboratorios, entre otros).

En segundo lugar, se consultaron las tareas presentes en los programas de los niveles 1, 2,

3 y 4 del CLAM, así como las diferentes tareas de comprensión lectora que aparecen en los

manuales de Aula Internacional 1 y 2.

54

Como resultado de esta búsqueda teórica, se seleccionaron las siguientes tareas que

servirán de modelo para desarrollar la propuesta de tarea.

Nivel A1.1 MCER

Tarea 1 Llenar formatos de información personal ubicando las respuestas ya dadas

en la casilla correspondiente. Ámbito personal

Tarea 2 Leer pequeños enunciados de personas famosas mundialmente y

relacionarlos con sus respectivas fotos.

Ámbito

profesional

Tarea 3 Leer la descripción de una ciudad específica y crear un texto en el que

describan su ciudad.

Ámbito

profesional

Nivel A1.2 MCER

Tarea 1 Leer la descripción de una familia y según las preguntas establecer los

lazos familiares entre los personajes.

Ámbito

personal

Tarea 2 Leer información sobre platos típicos y relacionarlos con sus respectivos

países.

Ámbito

personal

Tarea 3 Leer la descripción de un barrio específico y presentar las características

básicas de este (mencionar parques, museos, etc.).

Ámbito

educativo

Nivel A2.1 MCER

Tarea 1 Organizar la historia de la vida de un personaje determinado según

el orden cronológico de los datos. Ámbito educativo

Tarea 2 Comparar dos textos que hablen sobre tipos de viviendas de dos

culturas diferentes y describir las diferencias.

Ámbito personal y

profesional

Tarea 3 Leer un texto sobre los intereses de las personas en cada país y

responder las preguntas.

Ámbito personal y

educativo

55

Nivel A2.2 MCER

Tarea

1

Leer un artículo sobre medicina no tradicional y describir los

usos del objeto en cuestión. Ámbito profesional

Tarea

2

Leer un artículo sobre la experiencia de un extranjero en

Colombia e identificar qué afirmaciones son falsas o

verdaderas.

Ámbito personal,

profesional y

educativo

Tarea

3

Leer un artículo sobre la gastronomía de un país y compararlo

con el del país de origen.

Ámbito personal y

educativo

6.5.1.4. Definición del constructo (habilidades)

Por último, y como resultado de los pasos anteriores, se estableció el constructo a evaluar

en cada nivel de lengua. Es decir, se especificó qué habilidades debe tener el alumno en cada uno

de los 4 niveles iniciales del CLAM.

Para llegar a estos postulados, fue necesario revisar los objetivos de los programas de

español del CLAM para niveles iniciales, los contenidos de los libros de Aula internacional 1 y

2, y los descriptores de las escalas del MCER: 1. Niveles comunes de referencia: escala global, 2.

Niveles comunes de referencia: cuadro de autoevaluación, 3. Escalas DIALANG.

Tabla 1. Constructos comprensión escrita A1 y A2

COMPRENSIÓN LECTORA

A1.1

El estudiante es capaz de comprender, leyendo frase por frase, palabras básicas y

corrientes en textos muy breves y sencillos (letreros, formularios, imágenes, anuncios)

para satisfacer necesidades de tipo inmediato (información personal básica: nombre,

domicilio, nacionalidad, edad, e intereses).

56

A1.2

El estudiante es capaz de comprender y relacionar información en textos breves y

sencillos de carácter descriptivo e informativo (notas personales, menús, anuncios

publicitarios y horarios, sobre todo si hay apoyo visual) para satisfacer necesidades de

tipo inmediato (rutinas, vivienda, gustos, etc.).

A2.1

El estudiante es capaz de encontrar información específica en textos sencillos (correos

electrónicos, formularios, pedidos, cartas básicas personales y de confirmación, etc.) que

traten temas cotidianos relacionados con áreas de experiencia que le son especialmente

relevantes (sobre sí mismo y su familia, ocio, lugares de interés, ocupaciones, etc.).

A2.2

El estudiante es capaz de localizar y aislar información específica con respecto a normas

de seguridad (en lugares públicos y de trabajo); comprender indicaciones para ir a un

lugar e instrucciones sencillas (sobre aparatos, recetas, etc.). Así mismo, comprende

artículos breves de periódico que describen hechos determinados.

Fuente: Aula internacional 1 y 2, MCER PCIC, (Elaboración propia).

6.5.2. Resultados de la fase de diseño

En esta fase se precisaron los contenidos lingüísticos y no lingüísticos, número y tipo de

tareas, número de ítems, tipos de texto, longitud del texto, y criterios de evaluación de las

especificaciones de la prueba de comprensión lectora para los niveles iniciales.

6.5.2.1. Contenidos lingüísticos y no lingüísticos

En primer lugar, se establecieron los contenidos lingüísticos y no lingüísticos que se van

a evaluar mediante la prueba de clasificación. Para ello, teniendo en cuenta los programas del

CLAM (1- 4), el PCIC y el Aula Internacional 1 y 2, se escogieron los contenidos gramaticales,

lexicales, funcionales y culturales.

57

Tabla 2. Contenidos de la prueba comprensión lectora A1 Y A2

Contenidos Comprensión Lectora A1 (A1.1, A1.2)

Funcionales

Dar información personal

Expresar gustos e intereses

Expresar conocimiento

Gramaticales

Verbos regulares en indicativo y uso de los artículos

Uso de la forma impersonal ‘se’, algunas construcciones de verbo conjugado +

infinitivo y los cuantificadores ‘muy’ o ‘mucho’

Léxicos Relativo a información personal básica, gustos, intereses

Tipos de texto Informativo y descriptivo

Culturales Reconocimiento de la diversidad cultural

Fuente: Aula internacional 1 y 2, MCER PCIC, (Elaboración propia).

Contenidos Comprensión Lectora A2 (A2.1, A2.2)

Funcionales

Describir, narrar experiencias, expresar conocimiento

Expresar deseos o sentimientos

Dirigirse a alguien

Gramaticales Verbos irregulares en presente, verbos en pretérito indefinido, pretérito perfecto

simple e imperfecto, y formas de ‘estar’ + gerundio en pasado

Léxicos Relativo a información personal, viajes, lugares, comidas, actividades que realizan en

el diario vivir

Tipos de texto Descriptivos y narrativos

Culturales Percepción básica de las diferencias culturales, aproximación cultural

Fuente: Aula internacional 1 y 2, MCER PCIC, (Elaboración propia).

58

6.5.2.2. Tareas e ítems

Alderson et al. (1998) establecen que los responsables de la elaboración de la prueba

deberían usar ítems variados para su construcción, es decir; no desarrollar la misma cantidad ni

tipo de ítems para cada sección.

Para el nivel A1 (A1.1) se establecieron los siguientes tipos y números de tareas e ítems.

Tabla 3. Tareas e ítems para el nivel A1

Complejidad de tarea Guiada

No. de tareas 3 (de opción múltiple, relacionar o completar)

No. de ítems total 11

No. de ítems por tarea

Actividad 1: 3 de complejidad baja (A0 PRINCIPIANTE)

Actividad 2: 4 de complejidad media (A1.1 AVANZADO)

Actividad 3: 4 de complejidad alta (A1.2 SUPERIOR )

Duración de la tarea 20 minutos

Fuente: Aula internacional 1 y 2, MCER PCIC, (Elaboración propia)

Como podemos observar en la tabla, se establecieron tres tareas para medir el nivel A1:

la primera, de complejidad baja; la segunda, de complejidad media y, la última, de complejidad

alta. En la primera tarea, se proponen preguntas de opción múltiple. Para la tarea de complejidad

media, se utilizaron preguntas de relacionar. Por último, en la tarea de complejidad alta, se

escogieron preguntas donde se requiere completar con información.

Alderson y Banerjee (2002) sostienen que la dificultad del ítem no necesariamente está

relacionada con el nivel de la habilidad sino con el tipo de ítem que puede medir un aspecto

específico de una destreza en la comprensión lectora.

De esta manera, para la tarea de complejidad baja, se desarrollaron preguntas de opción

múltiple dado que se presenta como una de las técnicas más apropiadas para buscar que el

59

estudiante comprenda información específica en función de satisfacer las necesidades inmediatas

como información personal básica (nombre, domicilio, nacionalidad, etc.) y para que identifique

palabras aisladas y su relación con el sentido global del texto.

Este tipo de ítem permite medir la construcción de la microestructura, también llamada

coherencia local por Sanders & Spooren (2001), Louwerse (2002, 2004) Louwerse & Graesser

(2006) y Sanders & Pander (2006), en los procesos de comprensión escrita. En la coherencia

local «el lector establece procesos de orden semántico relacionados directamente con procesos de

decodificación explicita e implícita a partir de la información textual» (Ibáñez, 2012, p.26).

De este modo, como expone Pierce (1992, citado en Alderson et al., 1998), la selección

múltiple al plantear una pregunta (enunciados) con varias posibles respuestas (opciones) de las

cuales una es la correcta y las restantes (distractores) son probables o parcialmente correctas,

permite observar la capacidad del lector para identificar información u/o palabras específicas en

función de la pregunta y coherencia global del texto.

Adicionalmente, Pierce (1992, citado en Alderson et al., 1998) menciona que el

enunciado debe expresarse con precisión dejando en claro cuál es la finalidad del ejercicio para

así evitar ambigüedades. En cuanto a la respuesta, el autor menciona que las opciones deben ser

breves para evitar que la respuesta correcta sea la más larga. Es importante que las opciones

dadas estén planteadas en el mismo formato, es decir, todas deben ser sustantivos, verbos u

oraciones entre otros. Al hablar de distractores, Pierce (1992, citado en Alderson et al., 1998)

hace énfasis en que estos deben ser falsos pero posibles ya que de esta manera confunden a los

alumnos a la hora de responder y les obliga a pensar y ser conscientes de seleccionar la respuesta

correcta.

60

De acuerdo con las recomendaciones de estos autores, se propusieron como modelo 3

ítems de opción múltiple para la primera actividad.

Imagen 6. Ejemplo tarea A1 (opción múltiple)

Fuente: (Elaboración propia).

Para la tarea de complejidad media, se utilizó una pregunta de relacionar; nos referimos al

ítem en los que se da a los estudiantes una lista de posibles respuestas que tienen que emparejar,

en este caso, con imágenes extraídas del texto. Según Alderson et al. (1998) dentro de estas

clases de ítems al estudiante se le debe dar más de una opción a la hora de emparejar, es decir si

hay 4 frases o palabras se deberían dar 6 imágenes con las que el estudiante pueda emparejar

cada frase.

Este tipo de ítem permite observar si el estudiante es capaz de transferir información

textual y relacionarla con referencias visuales. De igual forma, por medio de esta técnica de

evaluación es posible mirar si el estudiante conoce el significado de una palabra, para esto es

necesario que las imágenes sean claras y que no den pie a confusiones semánticas.

61

Siguiendo las recomendaciones de este autor, se propusieron 4 ítems como modelo para

la segunda actividad.

Imagen 7. Ejemplo tarea A1 (Ítem de relacionar)

Fuente: (Elaboración propia).

Por último, escogimos para la complejidad alta tareas de completar. En estas tareas el

objetivo es que el estudiante llene o complete con palabras un fragmento tomado del texto real

establecido anteriormente. La complejidad de la respuesta es alta ya que el estudiante debe llenar

el espacio con la palabra correcta (Alderson et al., 1998).

Alderson et al. (1998) mencionan también que este tipo de tareas permiten evaluar

aspectos lingüísticos tales como la gramática (verbo y sujeto, sustantivos, adjetivos, uso de

plural, entre otros) y la comprensión de lectura. A su vez, la mayor dificultad que tiene este tipo

de tarea radica en poder llevar a los estudiantes a escribir la palabra o palabras esperadas en cada

62

espacio. Es aquí donde el redactor debe plantear las respuestas de tal modo que no haya sino una

única respuesta posible. Alderson et al. (1998) subrayan que para una mayor fiabilidad en la

corrección es importante reducir el número de respuestas alternativas. De acuerdo con las

recomendaciones de estos autores se diseñaron 4 ítems (véase imagen 8)

Imagen 8. Ejemplo tarea A1 (Ítem de completar)

Fuente: (Elaboración propia).

6.5.2.3. Textos: tipos y extensión

6.5.2.3.1. Extensión de los textos

Según los parámetros del examen DELE se realizó una aproximación para establecer la

longitud de los textos. Para el nivel A1 (A1.1 - A1.2) un texto entre 150-200 palabras y para el

nivel A2 (A2.1-A2.2) una longitud de 200 a 300 palabras.

De igual forma, Ibáñez (2012) sustenta que la extensión de los textos no debe determinar

la selección de los textos. Por el contrario, la extensión de los mismos debe estar subordinada al

constructo que se desea medir en cada nivel. Además, los exámenes DELE para los niveles

iniciales establece que cada texto depende de la tarea, pero en general la extensión de los textos

es proporcional al nivel que se quiere evaluar (véase imagen 9).

63

Imagen 9. Ejemplo extensión de texto A2 DELE

Fuente: Exámenes DELE (2014).

6.5.2.3.2. Tipos de texto en cada nivel

Gracias a la recolección de información en el PCIC, se establecieron los anteriores

tipos de texto y los temas que se iban a tratar dentro de los mismos.

Para el caso del nivel A1, se mencionan formatos tales como letreros, notas personales,

anuncios publicitarios, formularios, menús y horarios. En el apartado mencionado estos hacen

partes de dos tipos de textos: informativos y descriptivos. Por este motivo, se establecieron estos

dos como un criterio de selección de material para las tareas.

Por otra parte, en el nivel A2 los formatos de textos mencionados son correos

electrónicos, instrucciones sobre aparatos, recetas, pedidos, artículos breves de periódicos, cartas

básicas personales y de confirmación. Estos formatos pertenecen a los textos descriptivos y

narrativos, razón por la cual estos 2 tipos de texto se plantearon como requisito en la selección de

material para las tareas de nivel A2.

64

6.5.2.4. Tiempo para cada sección

Para establecer el tiempo de lectura y respuesta por cada sección, se consultaron los

exámenes DELE para los niveles correspondientes. En estos exámenes, la duración de cada

prueba varía dependiendo de la cantidad de tareas establecidas y a su vez de la cantidad de ítems

a evaluar por cada una. En general, para las pruebas del DELE nivel A1 hay 4 tareas, cada una de

ellas con una duración 11 minutos, por tanto, un total de 45 minutos. En cuanto a las pruebas de

nivel A2, nos habla de 5 tareas, cada una de ellas con una duración de 12 minutos, por tanto, un

total de 60 minutos.

Tomando como base esos criterios de tiempo y las características de nuestra prueba, se fijó,

por un lado, un tiempo de 20 minutos para desarrollar las tres tareas del nivel A1 (A1.1 - A1.2).

Por otro lado, para el nivel A2 (A2.1 - A2.2) se dio un tiempo de 30 minutos para la realización

de las 2 tareas debido a la extensión del texto. Cuando anteriormente mencionamos las

características de nuestra prueba nos referimos a que se trata de una prueba para clasificar en

doce niveles, no para medir un único nivel como los DELE. Es decir, en la prueba completa del

CLAM se deberán medir los 12 niveles que imparte el centro. Por consiguiente, no se pueden

diseñar tareas muy extensas porque pondríamos en entredicho la viabilidad del examen.

6.5.2.5. Criterios de evaluación

En cuanto a los criterios de evaluación, se siguió la fórmula establecida por Alderson et al.

(1998). Esta nos dice que cada ítem por sección tiene un valor de un punto y que si el estudiante

completa satisfactoriamente el 70 % de las repuestas por sección aprueba el nivel que dicha sección

pretende evaluar. En nuestra prueba, no obstante, no se mide solo un nivel sino cinco: A0, A1.1,

A1.2, A2.1 y A2.2. Al aprobar el 70 % de uno de estos niveles, se clasificará al estudiante en el

nivel de proficiencia siguiente/superior puesto que ya tiene los conocimientos necesarios del nivel

65

anterior.

Por estas características de nuestra prueba, es necesario aclarar que los puntos adquiridos

por las respuestas correctas son acumulativos, en la medida que se alcance el mínimo requerido se

clasificará al estudiante en los niveles A1.1, A1.2, A2.1, A2.1 y B1.1. De esta manera, se establece

que el margen de puntos requeridos para aprobar un nivel y ser clasificado en el siguiente es:

Tabla 4. Criterios de evaluación niveles A1 y A2

Medición (70%) Nivel de proficiencia Nivel a clasificar

3 ítems: 2 ítems A0 (0-4 ítems correctos) A1.1

7 ítems : 5 ítems A1.1 (5-7 ítems correctos) A1.2

11 ítems : 8 ítems A1.2 (8-11 ítems correctos) A2.1

17 ítems : 12 ítems A2.1 (12-16 ítems correctos) A2.2

24 ítems : 17 ítems A2.2 (17-24 ítems correctos) B1.1

Fuente: (Elaboración propia).

➔ El número de ítems que buscan medir el nivel de proficiencia A0 es de 3. Para decir que el

estudiante en efecto tiene este nivel, este debe aprobar el 70% de las preguntas lo cual vendría

siendo 2 ítems. Por consiguiente, si el estudiante tiene de 0 a 4 ítems correctos este se

clasificará en el nivel A1.1. En caso dado de que el estudiante no consiga un solo punto de

esta sección, este se clasificara en A1.1 puesto que no existe un nivel 0 en el programa del

CLAM.

➔ El número de ítems que buscan medir el nivel de proficiencia A1.1 es de 7. Es decir, 3 del nivel

A0 y 4 del nivel A1.1 (aprendizaje acumulativo). Para decir que el estudiante en efecto tiene

este nivel, este debe aprobar el 70% de las preguntas lo cual vendría siendo 5 ítems. Por

consiguiente, si el estudiante tiene de 5 a 7 ítems correctos este se clasificará en el nivel A1.2.

66

➔ El número de ítems que buscan medir el nivel de proficiencia A1.2 es de 11. Estos incluyen 7

ítems de los niveles A0 y A1.1 y 4 ítems de nivel A1.2. Para decir que el estudiante en efecto

tiene este nivel, este debe aprobar el 70% de las preguntas lo cual vendría siendo 8 ítems. Por

consiguiente, si el estudiante tiene de 8 a 11 ítems correctos éste se clasificará en el nivel A2.1.

➔ El número de ítems que buscan medir el nivel de proficiencia A2.1 es de 17. Es decir, 11 de

niveles A0, A1.1, A1.2 y 6 del A2.1. Para decir que el estudiante en efecto tiene este nivel,

este debe aprobar el 70% de las preguntas lo cual vendría siendo 12 ítems. Por consiguiente,

si el estudiante tiene de 12 a 16 ítems correctos este se clasificará en el nivel A2.2.

➔ El número de ítems que buscan medir el nivel de proficiencia A2.2 es de 24, los ítems son

sumativos durante la prueba. Es decir, 17 de niveles A0, A1.1, A1.2, A2.1 y 7 ítems para el

A2.2. Para decir que el estudiante en efecto tiene este nivel, este debe aprobar el 70% de las

preguntas lo cual vendría siendo 17 ítems. Por consiguiente, si el estudiante tiene de 17 a 24

ítems correctos este se clasificará en el nivel B1.1.

6.5.3. Resultados de la Fase de experimentación

La fase de experimentación nos permitió comprobar la validez de las especificaciones de

la prueba de comprensión lectora y el modelo de tarea propuesto para el nivel A1. En concreto,

se validó la claridad de las tareas, el número de ítems por sección, la longitud del texto, los

criterios de evaluación, la tipología de los textos, la disponibilidad de tiempo para cada sección y

perfil del candidato.

Para ello se pidió a 4 expertas de la Facultad de Comunicación y Lenguaje que

respondieran a un cuestionario de escala tipo “Likert” (véase apartado 6.4.2). Se le proporcionó a

cada una de ellas las especificaciones de cada nivel, la tarea para el nivel A1, el cuestionario

como herramienta de evaluación y validación.

67

En primer lugar, se analizaron las respuestas del cuestionario. No obstante, de las cuatro

evaluadoras, solo tres respondieron al cuestionario ya que una de ella solo aportó

retroalimentación cualitativa. A continuación, se presentan los resultados obtenidos por cada

sección del cuestionario.

La sección número uno Propósitos de las especificaciones, buscó evaluar dos aspectos en

específico: que las especificaciones cumplieran el propósito de clasificar a los candidatos en los

niveles iniciales del CLAM y que estas fueran claras para el docente. El primer aspecto se

cumple: tres de las tres evaluadoras están de acuerdo con este postulado (véase tabla 5). Sin

embargo, a la hora de evaluar la forma en que las especificaciones son planteadas las evaluadoras

muestran que éstas no son claras para el docente y solo una de ellas manifiesta que para ella sí lo

son (véase tabla 5). Comentarios tales como «Me parecen particularmente confusas las

especificaciones sobre “criterio de evaluación”» (Sujeto 3, comentario escrito, 15 de abril de

2016) hicieron evidente a lo largo del cuestionario y revisión de las especificaciones que faltó

precisión respecto a algunas partes de los contenidos de la herramienta. En efecto, se comprobó

que había algunas partes que requerían más desarrollo y precisión (por ejemplo, los criterios de

evaluación).

Tabla 5. Sección 1: Propósito de la prueba

Pregunta Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Rts

Las especificaciones propuestas orientan de

manera clara y específica al docente. 5 2 2 N. R. 5

Una prueba basada en estas

especificaciones sesga la actuación del

estudiante.

4 1 1 N. R. 1

68

Una prueba basada en estas

especificaciones responde a los requisitos

para clasificar a los estudiantes en los

niveles iniciales (A0, A1.1, A1.2, A2.1 y

A2.2).

5 4 2 N. R. 5

Las especificaciones podrían ser

interpretadas erróneamente por el docente

dado que no son claras ni precisas.

2 5 4 N. R. 1

Estas especificaciones no responden a las

necesidades educativas de los estudiantes

de los niveles iniciales del CLAM.

2 2 2 N. R. 1

Fuente: (Elaboración propia).

En cuanto a la sección número dos, Descripción del candidato, el foco de evaluación giró

en torno a si la descripción del perfil de los candidatos era acorde al perfil de los mismo en el

CLAM y si esta información era pertinente para escoger los contenidos de la prueba. Los

resultados mostraron que dos de las expertas estaban de acuerdo y una de ellas totalmente de

acuerdo con que estos dos presupuestos se cumplían en las especificaciones (véase tabla 6). No

obstante, la sujeto 2 recomendó reorganizar la información aportada en el perfil de la

herramienta para dar más claridad.

Tabla 6. Sección 2: Descripción del candidato

Pregunta Sujeto

1

Sujeto

2

Sujeto

3

Sujeto

4 Rts

La descripción del candidato

coincide con las características de

los estudiantes extranjeros que

llegan al CLAM.

4 4 5 N. R. 5

69

La descripción del candidato aporta

al docente información para

desarrollar los contenidos de la

prueba.

2 4 4 N. R. 5

La descripción del candidato no se

ajusta a las características de los

estudiantes extranjeros que llegan al

CLAM.

2 2 1 N. R. 1

Fuente: (Elaboración propia).

La sección número 3, tenía el objetivo de evaluar los constructos de los niveles A1.1,

A1.2, A2.1 y A2.2. Esto teniendo como base sus componentes, la complejidad de los contenidos

en relación a nivel y, por último, la claridad y precisión de los mismos. Los resultados mostraron

que dos evaluadores estaban de acuerdo con los tres componentes anteriormente mencionados.

En relación al aspecto de complejidad, la sujeto 2 mencionó: «En mi opinión el grado de

complejidad no la da el tema 'per se' sino el contenido, como se presenta ese contenido y la

pregunta que se hace.» Si bien las especificaciones dan un tema sobre el cual girará el desarrollo

de la prueba para cada nivel, estas también muestran que subtemas se trabajarán en específico, de

igual manera, delimitan la complejidad de la tarea al mencionar qué tipo de tarea se utilizará, qué

contenidos lingüísticos se evaluarán, qué tipo de textos se utilizarán. De modo tal, que también

guían al que desarrollará la prueba para que este sepa cómo presentar los contenidos.

En cuanto a los contenidos del constructo, la sujeto 2 mencionó que lo relacionado con el

constructo le pareció apropiado para definir lo que debe hacer el estudiante en cada nivel.

Igualmente, las tres expertas respaldaron este comentario al manifestar que estaban de acuerdo

respecto a que los constructos por nivel eran los apropiados (véase tabla 7).

Por otro lado, al tratar la claridad y precisión de los constructos el cuestionario mostró que

sí eran claros y precisos pero que era necesario añadir un constructo para el nivel A0 y otro para

70

el nivel B1 (nivel en el que se clasificará al estudiante que apruebe satisfactoriamente la prueba

A2.2). La necesidad de incluir estos dos constructos la sustentó la sujeto 3 al decir que «no se

describe el nivel A0 y sin embargo es el nivel al que apunta la actividad 1». Al pensarse las

especificaciones para clasificar al candidato en los niveles iniciales, es necesario también pensar

en la posibilidad de que algunos de estos llegaran a aprender español desde cero o que quizá su

nivel de lengua no alcanza a ser A1.1. Por este motivo, se decidió crear un constructo para el

nivel A0 y uno para B1.1 con el fin de hacer este apartado más claro y preciso (véase apartado

6.5.4).

Tabla 7. Sección 3: Niveles de la prueba

Pregunta Sujeto

1

Sujeto

2

Sujeto

3

Sujeto

4 Rts

El constructo objeto a evaluar de cada

nivel es apropiado en la medida que

contempla lo propuesto por el CLAM, el

MCER y el PCIC.

4 5 5 N. R. 5

Las especificaciones no abordan el

mínimo de los contenidos que debe

manejar un estudiante de niveles

iniciales.

2 1 5 N. R. 1

Hay diferencias claras entre el grado de

complejidad de un nivel y otro. 4 5 5 N. R. 5

Las especificaciones de cada constructo

no permiten al profesor tener claro el

objeto a evaluar en cada nivel.

2 2 1 N. R. 1

En los niveles de la prueba se podrían

tratar temas de menor complejidad con el

objetivo de que los estudiantes

respondan con mayor eficiencia.

2 1 1 N. R. 1

Fuente: (Elaboración propia).

71

La sección número 4, Número de secciones de la prueba, busca evaluar si el número de

secciones por prueba es la adecuada y, a su vez, si las secciones establecidas en las

especificaciones están acordes con los niveles que se van a trabajar para la prueba de

comprensión lectora. Solo dos evaluadoras estuvieron de acuerdo con el número de secciones. La

sujeto 2 al decir que «Dado que esta prueba es de clasificación y no de evaluación, bien se podría

dejar una sola sección en cuyo caso aumentaría un poco el número de actividades a realizar»,

comentario que nos indica que no está de acuerdo con las otras opiniones (véase tabla 8).

Tabla 8. Sección 4: Número de secciones de la prueba

Pregunta Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Rts

El número de secciones de la prueba es

adecuado para clasificar a los

estudiantes en los niveles iniciales del

CLAM (A1.1, A1.2, A2.1, A2.2 y

B1.1).

4 2 1 N. R. 5

El número de secciones de la prueba

debería reducirse a uno solo ya que a

través de una comprensión escrita

sencilla se puede saber exactamente en

cuál de los cuatro niveles está el

candidato.

2 4 1 N. R. 1

El número de secciones de la prueba

debería ser cuatro; una para cada nivel

(A1.1, A1.2, A2.1, A2.2), con el

propósito de no excluir a ninguno de

ellos.

2 2 5 N. R. 1

El número de secciones de la prueba no

es el adecuado para clasificar a los

estudiantes en los niveles iniciales del

CLAM (A1.1, A1.2, A2.1, A2.2 y

B1.1).

4 2 5 N. R. 1

Fuente: (Elaboración propia).

72

En la sección número cinco, Contenidos tratados por sección, se buscó abordar la

correspondencia entre los contenidos lingüísticos y no lingüísticos de las especificaciones en

relación a los programas del CLAM y el aspecto intercultural. Si bien los contenidos

comunicativos y lingüísticos de cada sección eran acordes a los contenidos de los tres

documentos mencionados anteriormente, hecho que se vio en que las tres expertas estuvieron de

acuerdo en este aspecto (véase tabla 9), los resultados en cuanto a desarrollo del aspecto

intercultural no fueron claros.

La sujeto 1 mencionó que «el desarrollo de la competencia no sería un objeto de una

prueba de clasificación» y si bien estamos de acuerdo, hacemos claridad en que en ningún

momento se buscó desarrollar esta competencia a lo largo del examen. En realidad, el objetivo

principal fue observar por medio de la inclusión y manejo de distintos de temas como el

candidato lidiaba con contenidos que le son afines desde la perspectiva de otro contexto. Por

consiguiente, se concluye que la pregunta no estaba bien formulada. Por otro lado, la sujeto 3

pregunto «¿Se "desarrolla" la competencia intercultural en unos contenidos?» A esto

respondemos que no, simplemente se observa la competencia intercultural por medio del

contenido u origen de los textos escogidos para la prueba. Debido a estos comentarios, se hace

necesario replantear los enunciados que pretenden evaluar el aspecto intercultural (véase

apartado 6.5.4).

Tabla 9. Sección 5: Contenidos tratados por sección

Pregunta Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Rts

Los contenidos comunicativos y

lingüísticos de cada sección representan

los establecidos por el CLAM, el PCIC

y el MCER para los niveles iniciales.

4 4 4 N. R. 5

73

Los contenidos propuestos permiten el

desarrollo de la competencia

intercultural.

2 5 1 N. R. 5

Las temáticas tratadas por sección están

acordes con la descripción de cada

nivel.

4 3 1 N. R. 5

Los contenidos comunicativos y

lingüísticos de cada sección no

representan los contenidos a trabajar en

niveles iniciales propuestos por el

CLAM, el PCIC y el MCER.

2 2 3 N. R. 1

Fuente: (Elaboración propia).

La sección 6, Complejidad de la tarea por sección, se pensó con el propósito de evaluar

la correspondencia entre las tareas y los contenidos establecidos y si se veía una gradación de la

dificultad de las tareas. Respecto al primer objeto de evaluación, 2 expertas mencionaron estar de

acuerdo con que hay coherencia entre lo que se quiere medir y la manera de medirlo. En cuanto

al aspecto de la complejidad, las tres evaluadoras expresan estar de acuerdo con que los

contenidos y su dificultad son los adecuados. Por último, dos de las expertas mencionan estar de

acuerdo con que en efecto hay diferenciación entre las tareas que pretenden evaluar los niveles

iniciales.

Tabla 10. Sección 6: Complejidad de la tarea por sección

Pregunta Sujeto

1

Sujeto

2

Sujeto

3

Sujeto

4 Rts

Las tareas propuestas permiten abordar

contenidos temáticos y lingüísticos

correspondientes a los niveles iniciales.

4 4 2 N. R. 5

La complejidad de las tareas no es adecuada

para un estudiante de español de nivel inicial. 2 1 1 N. R. 1

74

No hay una gradación adecuada en las tareas

que pretenden evaluar los niveles iniciales. 2 2 5 N. R. 1

El nivel de complejidad de las tareas va de

acuerdo con el nivel de complejidad del nivel a

evaluar.

4 4 4 N. R. 5

Fuente: (Elaboración propia).

La sección 7, Número de tareas por sección, buscó evaluar que las 5 tareas, tres para A1

y la dos para A2, fueran suficientes para clasificar al candidato en los niveles iniciales. Respecto

a esto, solo dos de las evaluadoras estuvieron de acuerdo con que la cantidad de tareas era

suficiente para evaluar el nivel A1. En los comentarios las evaluadoras recomendaron presentar

la propuesta de tarea para A2 para ver cómo se desarrollaba.

Tabla 11. Sección 7: Número de tareas por sección

Pregunta Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Rts

El número de tareas por sección es

conveniente para evaluar la actuación

del estudiante y, de esta forma, ubicarlo en uno de los niveles

iniciales del CLAM.

4 4 1 N.R. 5

El número de tareas es exagerado

teniendo en cuenta las demás pruebas

del examen de clasificación del CLAM que el estudiante debe

desarrollar (comprensión escrita y

oral y expresión escrita y oral)

2 3 1 N.R. 1

El número de tareas por sección no

es suficiente para evaluar la actuación del estudiante y, en este

sentido, no se podrá ubicarlo en uno

de los niveles iniciales.

2 2 5 N.R. 1

Fuente: (Elaboración propia).

75

La sección 8, Duración de tarea por sección, quiso apuntar a si el tiempo dado en la

prueba tanto para leer y responder era suficiente para evaluar la comprensión lectora. En esta

sección, las tres evaluadoras estuvieron de acuerdo con que la cantidad de tiempo era el

apropiado (véase tabla 12). Sumado a esto, hicieron preguntas sobre algunos detalles. La sujeto 4

preguntó en las especificaciones de la sección A1 «duración de la tarea: 20 min. ¿Si son tres

tareas son 60 minutos?» a esto respondemos que no: para la sección A1 son 20 minutos en el

comprendido total y en la sección A2, 30 minutos. De igual forma, la sujeto 4 preguntó por

«cuáles fueron los criterios para establecer la duración de la tarea». En cuanto a esto, revisamos

las pruebas DELE A1 y A2 (Diplomas de Español como Lengua Extranjera)

Tabla 12. Sección 8: Duración de tarea por sección

Pregunta Sujeto

1

Sujeto

2

Sujeto

3

Sujeto

4 Rts

El tiempo que se proporciona es suficiente

para que el estudiante pueda completar la

tarea.

4 4 5 N.R. 5

El tiempo de respuesta debería reducirse

teniendo en cuenta las demás tareas del

examen.

2 2 1 N.R. 1

El tiempo de respuesta es insuficiente y

por consiguiente puede condicionar al

estudiante a responder precipitadamente.

2 2 1 N.R. 1

Fuente: (Elaboración propia).

La sección 9, Longitud de texto por sección, buscó mirar si el número de palabras en los

textos para cada nivel era el adecuado. Los resultados mostraron que las tres expertas estaban de

acuerdo con que la longitud de los textos era pertinente para los niveles en los que se quiere

clasificar.

76

Tabla 13. Sección 9: Longitud de texto por sección

Pregunta Sujeto

1

Sujeto

2

Sujeto

3

Sujeto

4 Rts

El número de palabras que el estudiante debe leer

no es suficiente para evaluar su dominio de la

lengua.

2 2 1 N.R. 1

El número de palabras que se demanda es

demasiado alto teniendo en cuenta lo que puede

producir el estudiante de niveles iniciales.

2 1 N.R. 1

El número de palabras que se demanda es

demasiado alto teniendo en cuenta lo que puede

comprender el estudiante de niveles iniciales.

2 2 1 N.R. 1

Fuente: (Elaboración propia).

Por último, la sección 10, Escala de evaluación, apuntó a que se evaluara si los criterios

de evaluación eran apropiados y claros para evaluar las tareas de comprensión escrita. Los

resultados no dan claridad al respecto: de dos evaluadoras que dan respuesta solo una de estas

está de acuerdo con que la escala es apropiada. La sujeto 2 menciona «¿Cuales niveles? ¿Cuál

escala? En el documento no se incluyó ni la escala holística, ni la detallada». Este hecho muestra

la inconformidad de las expertas respecto a este tema. Para esto aclaramos que nuestros criterios

de evaluación giran en torno al número de ítems correctos e incorrectos para medir el nivel de

proficiencia de un candidato para después clasificarle en el nivel al cual entrará a cursar.

Probablemente las especificaciones de los criterios no fueron los suficientemente claras para los

evaluadores.

77

Tabla 14. Sección 10: Escala de evaluación

Pregunta Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Rts

La escala propuesta no permite valorar la

actuación lingüística del estudiante en los

niveles iniciales del CLAM.

4 N.R. 5 N.R. 1

Los criterios seleccionados (si el candidato

tiene 0-4 ítems correctos, se clasifica en

A1.1, si tiene 5-7 ítems correctos, se

clasifica en A1.2, si tiene 8-11 ítems

correctos, se clasifica en A2.1) permiten

evaluar la habilidad lingüística del

estudiante.

4 N.R. 1 N.R. 5

La herramienta de evaluación diseñada

ofrece la posibilidad de ubicar al

estudiante en los niveles iniciales del

CLAM.

4 N.R. 2 N.R. 5

Los rangos establecidos y el número de

ítems propuestos no son suficientes para

medir la habilidad lingüística del

estudiante en los cuatro niveles iniciales

del CLAM.

2 N.R. 5 N.R. 1

Fuente: (Elaboración propia).

6.5.4. Resultados de la Fase de recapitulación

Al finalizar la fase de experimentación y analizar los resultados y comentarios acerca de

las especificaciones de la comprensión lectora, decidimos hacer una serie de cambios y mejoras

respecto a: los constructos a evaluar, los contenidos lingüísticos y no lingüísticos, el formato y

presentación de algunos contenidos de las tareas, los criterios de evaluación y las tareas para los

niveles A1 y A2.

Para empezar, en cuanto a los constructos a evaluar, el sujeto 3 sugirió en sus

comentarios que era necesario establecer un constructo para el nivel A0: «no se describe nivel

A0; sin embargo, es el nivel al que apunta la actividad 1» (Sujeto 3, comentario escrito, 15 de

78

abril de 2016). Al analizar este comentario, notamos que si bien incluíamos en nivel A0 a la hora

de medir la competencia del candidato para clasificarlo en el nivel A1.1 (véase apartado 6.5.2.5),

no había un constructo explícito que permitiera al evaluador contrastar los resultados de la

prueba con el constructo para verificar que en realidad la competencia del estudiante se ubicara

en este nivel. Paso seguido, se procedió a revisar el PCIC, el MCER y el Aula internacional 1,

definimos el constructo de la siguiente manera:

Nivel A0

El estudiante es capaz de entender muy pocas palabras básicas y aisladas

parecidas a las de su lengua materna.

Sumado a esto, el sujeto 3 observó igualmente que el constructo de nivel B1.1 no estaba

descrito en las especificaciones: «en el enunciado no se incluye el nivel B1.1» (Sujeto 3,

comentario escrito, 15 de abril de 2016). No en tanto, este es el nivel en el que se clasifica el

estudiante que aprueba satisfactoriamente el nivel A2.2 (véase apartado 6.5.2.5). Después de

haber hecho el mismo proceso que se hizo con el nivel A0, al revisar los documentos de

referencia, se definió el nivel B1.1 de la siguiente manera:

Nivel B1.1

El estudiante es capaz de comprender textos cotidianos relacionados a su

área de trabajo (cartas, faxes, correos electrónicos, confirmaciones,

reclamaciones y solicitudes de trabajo). Así mismo, comprende textos

descriptivos identificando acontecimientos, sentimientos y deseos.

Respecto a los contenidos no lingüísticos, la sujeto 2 preguntó acerca de los elementos

culturales a evaluar. En relación a esto, se aclaró que el propósito de contemplar estos elementos

79

no era evaluarlos sino incluirlos en el desarrollo y selección de los textos. Este comentario se

amplía en la fase de experimentación (véase apartado 6.5.3).

En cuanto al formato y presentación de algunos contenidos de las tareas, comentarios

tales como «no es conveniente en términos del formato mezclar imágenes animadas con reales en

el mismo ejercicio» (Sujeto 2, comentario escrito, 15 de abril de 2016) y «¿Noche o atardecer?

La imagen no es clara» (Sujeto 2, comentario escrito, 15 de abril de 2016) hicieron hincapié en el

formato de las imágenes utilizadas para ilustrar los ejercicios. Por parte del primer comentario,

desde la experiencia de la experta se nos recomendó mantener una sola configuración/formato de

imagen hecho por el cual decidimos unificar todas imágenes manejando un concepto animado.

Sumado a esto, el segundo comentario sugiere que las imágenes no deben dar pie a

malinterpretaciones razón por la cual modificamos la imagen F. (véase anexo 7)

En lo relacionado con los criterios de evaluación, dos de las expertas comentaron que

faltaba claridad en cuanto al planteamiento de estos. La sujeto 2 mencionó «¿qué niveles? ¿Cuál

escala? En el documento no se incluyó ni la escala holística, ni la detallada» (comentario escrito,

15 de abril de 2016). Adicionalmente, la sujeto 3 mencionó: «me parecen particularmente

confusas las especificaciones sobre criterios de evaluación» (comentario escrito, 15 de abril de

2016). Aunque la escala ya había sido planteada dentro de las especificaciones, éstas no eran

claras y no daban claridad sobre el proceso de medición y el proceso de clasificación. Como

respuesta a estos comentarios se clarificaron los criterios de evaluación (véase apartado 6.5.3)

«No hay sección A2» mencionó la sujeto 2 (comentario escrito, 15 de abril de 2016) en

sus comentarios acerca del número de tareas por sección. En el apartado de limitaciones,

mencionamos que una limitante para diseñar esta sección fue el tiempo en el momento en que

80

pasamos los documentos en manos de los evaluadores. No obstante, la tarea A2 se diseñó para

poner contexto las especificaciones de esta prueba (véase anexo 4)

Para el nivel A2 se propusieron las siguientes tareas e ítems:

Tabla 15. Tareas e ítems para el nivel A2

Complejidad de

tarea Semi-guiada

No. de tareas 2 (de opción múltiple y relacionar )

No. de ítems total 13

No. de ítems por

tarea Actividad 1: 6 ítems de complejidad media (A2.1 AVANZADO) Actividad 2 : 7 ítems de complejidad alta (A2.2 SUPERIOR )

Duración de la

tarea 30 minutos

Fuente: (Elaboración propia).

Como podemos observar en la tabla, en el nivel A2 (A2.1 y A2.2) se establecieron 2

tareas a evaluar, la primera de complejidad media y la segunda de complejidad alta.

En la tarea de complejidad media, se propusieron preguntas de opción múltiple, en este

caso el número de ítems a desarrollar son 6. La complejidad del ítem no radica en el mismo ‘per

se’ si no en el planteamiento de las preguntas y respuestas. Según Alderson et al (1998) en este

caso las preguntas deben contener distractores muy similares a la respuesta correcta para

establecer el nivel de complejidad. En esta tarea se tomó como base lo anterior para proporcionar

una de complejidad media ya que lo que se quiere evaluar debe tener en contenido de preguntas

más complejo para que los estudiantes tengan una mayor complejidad a la hora de responder;

contrario a la primera tarea propuesta para el nivel A1.

81

Como modelo, se diseñaron 6 ítems de opción múltiple.

Imagen 10. Ejemplo tarea A2 (Opción múltiple)

Fuente: (Elaboración propia).

En el caso de las preguntas de complejidad alta, se propuso la técnica de relacionamiento

de contenido, consiste en relacionar una frase que resume el contenido de un párrafo, con el

párrafo del texto. Al plantear este ítem, se busca evaluar no solo la identificación de ideas

generales y específicas sino también un nivel más alto de comprensión escrita: la

macroestructura, donde «la construcción de esta estructura de representación global del texto

involucra la eliminación, la generalización y construcción de nueva información a partir de las

proposiciones componentes de la microestructura» (Ibáñez, 2012, p.26). Puesto que se busca

evaluar si el estudiante es capaz de localizar, interpretar y aislar información específica, este tipo

de ítem resulta apropiado. Por medio de las preguntas planteadas, el propósito de evaluación va

más allá de la decodificación del texto y busca que el estudiante empareje la idea principal con el

contenido de cada párrafo midiendo así su nivel de síntesis de lectura.

82

Siguiendo las recomendaciones de estos autores se diseñaron 7 ítems como modelo de

prueba para la comprensión lectora.

Imagen 11. Ejemplo tarea A2 (Ítem de relacionar)

Fuente: (Elaboración propia).

7. CONCLUSIONES

Este trabajo de grado se llevó a cabo con la intención de crear una propuesta de

especificaciones para la prueba de comprensión escrita en los niveles iniciales (A1, A2) para así

responder a la problemática y la necesidad de crear un nuevo examen de clasificación del

CLAM. A continuación, se presentan las conclusiones que emergieron al finalizar el trabajo de

investigación. Estas están relacionadas con el cumplimiento del objetivo principal, los

aprendizajes, los aportes y sugerencias para futuras investigaciones.

Para crear una propuesta de especificaciones que incluyera y cumpliera con los aspectos a

mejorar de la prueba actual de clasificación del CLAM, fue necesario hacer entrevistas para

83

establecer las necesidades y características de la población a la cual se aplicaría la prueba. En

conjunto, se realizó una revisión teórica y conceptual en cuanto a evaluación, comprensión

lectora, ítems y prueba de nivel o clasificación. A modo de complemento, se hizo una revisión de

documentos para establecer los constructos de los niveles iniciales, tales como el MCER, el

PCIC, los contenidos por cursos del CLAM, las pruebas DELE y el Aula Internacional 1y 2.

Después de los procedimientos anteriores, empezamos el proceso de planificación, diseño,

validación y aplicación basados en el modelo de Bordón (2006, tomado de Ferreira, Vine, &

Elejalde, 2013) donde materializamos la búsqueda teórica previa a esta fase.

En la fase de validación contamos con la ayuda de 4 expertas en el campo de evaluación de

ELE, las cuales, por medio de un cuestionario tipo Likert, retroalimentaron las especificaciones

para nivel A1 y A2 a la par que la propuesta de tarea A1. Por cuestiones de tiempo, no se pudo

pasar la propuesta d tarea A2, sin embargo, esta se elaboró. Después de haber recibido la

retroalimentación y haber mejorado las especificaciones y tareas pensamos que implementar las

tareas en un escenario autentico de evaluación con estudiantes de ELE habría permitido ampliar

la verificación de la validez de la propuesta, no en tanto, el lapso de tiempo con el que se contaba

no era el preciso. Sin embargo, el objetivo principal de validar las especificaciones con los

expertos se logró.

Esta investigación hizo evidente que la falta de antecedentes disponibles en esta área es un

factor crucial para el desarrollo de mejores propuestas de especificaciones; se necesita consultar

trabajos en donde se pueda ver el comportamiento de la teoría en la vida práctica inmediata.

Cuando analizamos los recursos necesarios para llevar a cabo la prueba y los recursos

disponibles para el diseño de las especificaciones, nos dimos cuenta de que existe toda la teoría

necesaria para desarrollarlas, no hay material publicado suficiente para tomar como modelo.

84

Debido a la naturaleza de nuestra condición –estudiantes de pregrado- y nuestra falta de

experiencia en temas tales como evaluación y enseñanza de ELE, nos fue difícil apelar a recursos

más allá de la teoría. Este hecho condicionó algunos aspectos del trabajo, en especial en la fase

de diseño pues no había un referente para continuar y enriquecer nuestra propuesta.

Por otro lado, en relación con la validez de la propuesta implementada es importante resaltar

que probar las especificaciones hubiera dado oportunidad de observar que en definitiva la

propuesta servía para medir el constructo en el contexto real de aplicación. Esto presentó un

inconveniente y es que no se pudo probar la fiabilidad de la propuesta lo que genera que no

pueda determinarse la validez total de las especificaciones pues un test «un test (en este caso las

especificaciones del test) no puede ser válido si no es fiable» (Alderson et al., 1995, p. 187).

Sumado a esto, en cuanto a las especificaciones como producto, resultó que, si bien estas

tenían todo lo necesario en cuanto a componentes, estas no eran del todo claras para el docente o

el encargado de confeccionar la prueba. Se comprobó que había algunas partes que requerían

más desarrollo y precisión, como por ejemplo los criterios de evaluación. Aquí la dificultad

radicó en cuanto al planteamiento. Lo cual es un problema ya que uno de os requisitos básicos de

las especificaciones de un examen es la claridad de los contenidos para evitar las ambigüedades

y complicaciones en su uso.

De igual manera, el no hacer la prueba piloto de las tareas afectó la validación de nuestros

criterios de evaluación. Nuestra propuesta gira en torno al número de ítems correctos para medir

el nivel de proficiencia de un candidato con el fin de clasificarle en el nivel al que entrará, este

planteamiento surgió del modelo de criterios de evaluación de Alderson et al. (1998). Hay que

tener en cuenta que los criterios de evaluación de este autor tienen el propósito de establecer el

resultado del total de una prueba que cuenta con las cuatro habilidades. Si bien este modelo se

85

aplica en esta escala más pequeña, es decir, en una sección que evalúa los niveles A1 y A2 de

una prueba de nivel en l competencia de comprensión escrita, es necesario verificar que el

modelo sigue siendo válido y por ende que ayuda a medir la destreza del candidato y a

clasificarlo en el programa.

Creemos que es pertinente en trabajos futuros crear no solamente la propuesta de

especificaciones para la prueba de comprensión lectora para los niveles B1, B2, C1 y C2 sino

también probarlas con los estudiantes para validar en su totalidad las propuestas y los criterios de

evaluación.

8. LIMITACIONES Y RECOMENDACIONES

Durante el desarrollo de este trabajo de investigación se evidenciaron algunas limitaciones

relacionadas a la dificultad de precisar la definición de ciertos conceptos, con la accesibilidad a

antecedentes relacionados con la problemática, con el desarrollo de la propuesta de tarea para el

nivel A2 (A2.1, A2.), con la validación de las especificaciones, con que las especificaciones solo

se centraron en los niveles iniciales A1 (A1.1, A1.2) Y A2 (A2.1, A2.2), y por último, sobre la

verificación de la fórmula establecida en los criterios de evaluación.

Para empezar, existe una cantidad de teoría disponible sobre exámenes de clasificación,

evaluación en segunda lengua, comprensión escrita y enfoque por tareas muy grande. A la hora

de seleccionar lo que más convenía a nuestro proyecto hubo que hacerse una síntesis de

información muy consiente. En su mayoría, la teoría venía de contextos no hispanohablantes y en

los procesos de traducción de la teoría tuvo que tenerse mucho cuidado, lo cual, en cuestiones de

tiempo no fue muy beneficioso. Además, en el campo de español como lengua extranjera se

encontró poca teoría aterrizada en el contexto de nuestra investigación.

86

Paralelamente, otra limitante que afecto el proceso de investigación desde el principio fue la

escasez de investigaciones disponibles. A la hora de buscar antecedentes respecto al diseño de

pruebas de nivel los resultados fueron pocos, esto implicó que hubiera que partir en cierta

manera desde ceros en aspectos tales como el diseño de las especificaciones en el área de la

evaluación de la comprensión de lectura o la aplicación de una propuesta de criterios de

evaluación para evaluarla. Si bien la teoría está disponible, no encontramos proyectos donde esta

se implementará o retroalimentara desde su misma aplicación, hecho que redujo nuestra visión

del tema.

Por otra parte, el no haber desarrollado y evaluado la propuesta de tarea para los niveles A2.1

y A2.2 por falta de tiempo limito el trabajo investigativo. Al no diseñarse esta tarea no se pudo

recibir retroalimentación respecto a la elaboración de esta propuesta y su validación no fue tan

exhaustiva como en el caso de la tarea A1. De igual modo, acerca del proceso de validación de

las especificaciones, lo ideal hubiera sido que estas no solamente hubieran sido validadas por

parte de los expertos. Probar la tarea con los estudiantes de niveles iniciales del CLAM hubiera

ayudado a establecer si las tareas eran claras y acordes a estos niveles.

Si bien en la evaluación de las expertas nos valimos de su conocimiento y su experiencia en

el campo de evaluación en ELE para validar la propuesta, los constructos a evaluar y los criterios

de evaluación, no pudimos recolectar información sobre la manera en que los candidatos

respondían los ítems, sus estrategias para responder a estos y su percepción de la prueba en

cuanto a tiempo, dificultad y objetivo. En este sentido, no pudimos ir más allá de la aplicación de

la teoría y la construcción teórica del conocimiento.

A su vez, las especificaciones fueron desarrolladas solo para los niveles iniciales y es

importante también desarrollarlas para los demás niveles correspondientes al programa que

87

ofrece el CLAM, es decir, para los niveles B1, B2, C1 y C2. Esto representa una limitante en la

medida que al reducirse todo a la escala de solo los niveles iniciales A1 y A2 se deja un gran

vacío puesto que el proceso de clasificación es ascendente y se corta el proceso.

Finalmente, se evidenció que la propuesta de criterios de evaluación para la comprensión

escrita es tentativa: se tendrá que retomar y revisar una vez se hayan diseñado las demás pruebas

de comprensión oral, expresión oral y producción escrita para comprobar su validez en el

formato total de una prueba completa de clasificación.

88

9. BIBLIOGRAFÍA

AA. VV. (2008). «Enfoque comunicativo». Diccionario de términos clave de ELE. Recuperado

de:https://cvc.cervantes.es/ensenanza/biblioteca_ele/diccio_ele/diccionario/enfoquecomu

nicativo.htm

Alderson, J. (2000). Assessing Reading. Cambridge, England: Cambridge University Press.

Alderson, J. C., & Banerjee, J. (2002). Language testing and assessment (Part 2). Language

teaching, 35(2), 79-113.

Alderson, J. Wall, D. & Clapham, C. (1998). Exámenes de idiomas: elaboración y evaluación.

Cambridge, England: Cambridge University Press.

Andrade, H., Matamoros, M. & Moore, H. (2009). El concepto de la utilidad en el diseño de una

prueba de comprensión de lectura en la lengua extranjera. Tiempo de Educar, 10 (20)

447-484. Recuperado el 15 de Febrero de 2016 de:

http://redalyc.org/articulo.oa?id=31112987007

Arias, C.; Maturana, L.; (2005). Evaluación en lenguas extranjeras: discursos y prácticas.

Lenguaje y cultura, 10 (16), 63-91. Recuperado el 24 de febrero de:

http://www.redalyc.org/articulo.oa?id=255020409003 y

http://www.redalyc.org/articulo.oa?id=255020409003

Bachman, L. F. (1990). Fundamental considerations in language testing. Oxford

University Press.

Bachman, L. F., & Palmer, A. S. (1996). Language testing in practice: Designing and developing

useful language tests (Vol. 1). Oxford University Press.

Baralo, M., & Guerra, M. (2011). Criterios pragmáticos y socioculturales para la selección de

textos y géneros discursivos en un examen de certificación de nivel inicial (A2-n) de

89

lengua española para trabajadores inmigrantes. In Del texto a la lengua: La aplicación de

los textos a la enseñanza-aprendizaje del español L2-LE (pp. 201-212). Asociación para

la Enseñanza del Español como Lengua Extranjera.

Bravo, L. et Al. (2013). La entrevista, recurso flexible y dinámico. Investigación en educación

médica, 2(7), 162-167.

Bierbrauer, S.; Carranza, R.; Furlan, M. (2008). Diseño, análisis y evaluación de un examen de

nivel de ele. IV Coloquio CELU Universidad Nacional del Litoral, 8 y 9 de agosto de

2008. Argentina. Recuperado el 24 de Febrero de:

http://www.celu.edu.ar/sites/www.celu.edu.ar/files/images/stories/pdf/coloquios/4_coloq

uio/cc_p_diseno_analisis_y_evaluacion_carranza_bierbrauer_furlan.pdfhttp://www.celu.

edu.ar/sites/www.celu.edu.ar/files/images/stories/pdf/coloquios/4_coloquio/cc_p_diseno_

analisis_y_evaluacion_carranza_bierbrauer_furlan.pdf

Brindley, G; Chapelle, C.; (2010). Assessment. En Norbert Schmitt. (Ed.). An Introduction to

Applied Linguistics (pp. 247 – 267). Gran Bretaña: Hodder Arnold Press.

Brown, H. D. (2000). Principles of language learning and teaching. (4th Ed.). New York:

Longman.

Brown, H. D. (2004). Language assessment: Principles and classroom practices. Allyn &

Bacon.

Camilloni, a. Y otras (1998), La calidad de los programas de evaluación y de los instrumentos

que los integran, en: La evaluación de los aprendizajes en el debate didáctico

contemporáneo, Buenos Aires, Paidós.

Carrell Patricia L. & Grabe William (2010). Reading. En Norbert Schmitt. (Ed.), An Introduction

to Applied Linguistics (pp. 215 – 231). Gran Bretaña: Hodder Arnold Press.

90

Casanovas. N, & Puig, S. (2013) Pautas para la evaluación del Español como lengua extranjera.

Editorial Edinumen, España.

Cáceres, L. (2002). Una aproximación al MCER: principales contenidos, aportaciones y

consecuencias prácticas. Actas XLI (AEPE). España

Canela, Ó. S. (2006). La evaluación de ele y el marco común europeo de referencia. Foro de

Profesores de E/LE, 4.

Corral de Franco, Y. J. (2010). Diseño de cuestionarios para recolección de datos.

De Mejía, A. M., López, A. A., Cruz, F., Flaborea, R., & Guzmán, M. (2009). Informe del

estudio sobre los exámenes en español como lengua extranjera administrados en

Colombia. Centro de Investigación y Formación en Educación, (CIFE) Instituto Caro y

Cuervo. Bogotá: Universidad de los Andes.

Díaz-Bravo, L., Torruco-García, U., Martínez-Hernández, M., & Varela-Ruiz, M. (2013). La

entrevista, recurso flexible y dinámico. Investigación en educación médica, 2(7), 162-

167.

Diez Susana (s.f.) La destreza de comprensión lectora en ELE: aproximación teórica y

propuestas didácticas. Recuperado de:

https://www.academia.edu/17781110/La_destreza_de_comprensi%C3%B3n_lectora_en_

ELE_aproximaci%C3%B3n_te%C3%B3rica_y_propuestas_did%C3%A1cticas

Estaire, S. (2010). Principios básicos y aplicación del aprendizaje mediante tareas. Revista e

didáctica español como lengua extranjera. Marco ELE.

Estaire, S. y Zanón, J. (1990). El diseño e unidades didácticas mediante tareas:principios y

desarrollo. Comunicación, Lenguaje y Educación. 7.

91

Ferreira A., Vine A. & Elejalde J. (2013). Hacia una prueba de nivel en español como lengua

extranjera. RLA.

García, S. (2002). La Validez y la Confiabilidad en la Evaluación del Aprendizaje desde la

Perspectiva Hermenéutica. Revista de Pedagogía, 23(67), 297-318. Recuperado en 31 de

agosto de 2017, de http://www.scielo.org.ve/scielo.php?script=sci_arttext&pid=S0798-

97922002000200006&lng=es&tlng=es.

Hernández, R., & Opazo, H. (2010). Apuntes de análisis cualitativo en educación. Recuperado

el, 12.

Instituto Cervantes, 2002. Traducción del Common European Framework of Reference for

Languages: Learning, Teaching, Assessment. Strasbourg: Council of Europe, 2001.

Disponible en: http://cvc.cervantes.es/obref/marco

Revista de lingüística teórica y aplicada, 51(2), 73-103. Recuperado en 10 de diciembre de 2015,

de: http://www.scielo.cl/scielo.php?script=sci_arttext&pid=S0718-

48832013000200005&lng=es&tlng=es.

10.4067/S0718-48832013000200005.

Ibáñez, R. (2012). La comprensión del discurso escrito: Una propuesta

teórico-metodológica para su evaluación. Revista signos, 45(78), 20-43.

Janssens, G., & Meier, V. (2013) Establecimiento de ajuste y desempeño en exámenes de

clasificación de acuerdo con necesidades locales. Bogotá, Colombia: 15 (1), p. 100 - 113

Leal Rodríguez, S. (2009). Diseño de un examen de

nivel de español para aprendices adultos inmigrantes. Memoria de Master, Universidad

Nebrija.

92

Luoma, S. (2004). Assessing speaking. Cambridge, United Kindom: Cambridge

University Press.

Malave, N. (2007). Escala tipo likert. Trabajo modelo para enfoques de investigación acción

participativa. Programas Nacionales de Formación. Universidad Politécnica

Experimental de Paria. República Bolivariana de Venezuela.

Martínez, J. (2011). Métodos de investigación cualitativa. Bogotá, Colombia: silogismo (8).

Meyberg, D. & Barba, Y. (2016). Propuesta de especificaciones para el examen de clasificación

de expresión escrita en niveles iniciales (a1 y a2) para el Centro Javeriano de Lenguas

(Bachelor's thesis, Facultad de Comunicación y Lenguaje).

Molon, S.I. (1995). A questão da subjetividade e da constituição do sujeito nas reflexões de

Vygotsky. Dissertação de Mestrado, Pontifícia Universidade Católica de São Paulo.

Natalías, V. E. (2008). ¿Qué es una prueba de nivel?: definición, objetivos y factores que hay

que tener en cuenta en su elaboración. En La evaluación en el aprendizaje y la enseñanza

del español como lengua extranjera/segunda lengua: XVIII Congreso Internacional de la

Asociación para la Enseñanza del Español como lengua Extranjera (ASELE): Alicante;

servicio de Publicaciones.

Nuttall, C. (1996). Teaching reading skills in a foreign language. Heinemann, 361 Hanover

Street, Portsmouth, NH 03801-3912.

Ottonello, M. B., & Infante, R. G. (2011). Criterios pragmáticos y socioculturales para la

selección de textos y géneros discursivos en un examen de certificación de nivel inicial

(a2-n) de lengua española para trabajadores inmigrantes. Universidad Nebrija

Pärna, L. L. (2015). La elaboración de la prueba de nivel del español A1-B1 para el usuario

estonio. Prueba de nivel del español A1-B1 (Doctoral dissertation, Tartu Ülikool).

93

Parodi, G. (2007). El discurso especializado escrito en el ámbito universitario y profesional:

Constitución de un corpus de estudio. Revista signos, 40(63), 147-178.

Pastor C. Susana (2003). La evaluación del proceso de aprendizaje de segundas lenguas. En

Perspectivas teóricas y metodológicas: lengua de acogida, educación intercultural y

contextos inclusivos (pp. 503– 514). Madrid: Comunidad de Madrid, Consejería de

Educación.

Puig, F. (2008). La evaluación, un reto. Monogáficos. Marco ELE Evaluación, (7), 2-3.

Pozzo, M. I. (2010). Interculturalidad y evaluación en ele: fundamentos teóricos y propuestas

para su desarrollo en el aula. Argentina.

Santa-Cecilia, Á. G. (1995). El currículo del español como lengua extranjera. Madrid: Editorial

Edelsa.

Seliger, H. & Shohamy, E. (1989). Second language research methods. Oxford University Press.

Soler, O. (2008). Diferentes enfoques para en la evaluación de lenguas mediante

tareas. Monográficos Marco ELE Evaluación, (7), 111-121.

Torrecillas, A. B., Guerrero, M. D. C., Lozano, G., & Cuadrado, A. S. (2012). Diseño y

validación de las pruebas de nivel del CLM de la Universidad de Granada. (2):

Presentación de las pruebas. In Actas del VII Congreso ACLES: Multilingüismo en los

centros de lengua universitarios: evaluación, acreditación, calidad y política lingüística

(pp. 26-37).

Pérez, M. J. (2005). Evaluación de la comprensión lectora: dificultades y limitaciones. Revista

de Educación, (1), 121-138

Vargas, Z. R. (2009). La investigación aplicada: una forma de conocer las realidades con

evidencia científica. Educación, 33(1).

94

ANEXOS

Anexo 1. Transcripción entrevista a Begoña Martín sobre el perfil de los estudiantes del CLAM (01 MARZO 2016)

Realizada por Yhosep Barba & Daniela Meyberg, 2016

Begoña Martin: Para mi tesis doctoral estoy haciendo un análisis de necesidades del perfil de

estudiantes que han venido al centro, al centro javeriano de lenguas, desde 2010 a 2015. ¿Vale?

Entonces se tomaron 5 años de estudio. Entonces, para llegar a definir el perfil de estudiantes se

tomaron 2 documentos: por un lado, se recogieron las hojas de inscripción. Bien, entonces en las

hojas de inscripción de los estudiantes encontramos información de la nacionalidad, la edad, la

profesión y el sexo. Bien, entonces se tomaron los datos por un lado de que nacionales eran las

de más demanda o las que más venían, el de la profesión y el sexo y la edad.

Por otro lado, también se tomó la ficha de los exámenes de clasificación, entonces la ficha de los

exámenes de clasificación oral hay, no sé si la habéis visto, pero tienen que rellenar el nombre,

las necesidades, entonces también se recopiló información lo mismo de 2015 y 2010 sobre los

motivos e intereses para estudiar español, ¿listo? Yo creo que entonces el que más nos interesa es

este dónde vemos más o menos… ¿Por qué esto no se va para atrás?

Yhosep: ¡No, dale atrás y dale clic ahí donde dice… ya!

Begoña: ah listo, vale, entonces vamos a ver si me deja. Bien, bueno pues entonces vamos a

empezar con el análisis de 2015. El análisis de 2015 no está terminado ¿vale? Pero entonces por

ejemplo en el análisis de 2014 tenemos que había un total de 113 estudiantes. Según he hablado

con otras personas del Centro, por ejemplo, Nancy Agray y Carolina Valderrama, ellas tienen un

registro mayor de estudiantes. ¿Qué significa? Pues significa que a los mejor pue hay

documentos que se han perdido, yo solo os digo lo que he encontrado abajo ¿vale? Entonces en

el 2014 por ejemplo había 113, se registraron 113 estudiantes. De los pues si hay más hombres

que mujeres, pero realmente la diferencia es muy poquita ¿vale? Entonces 62 – 51 no es muy

dispar.

En cuanto a la nacionalidad, pues veo que la nacionalidad la mayoritaria es la de Estados Unidos

con 24 seguida de la de la República de Corea que son 21 y Alemania que son 13. LÑ amatoria

viene a estudiar español porque tenemos 27 registrados para 2014 Aunque también vemos como

95

está casilla normalmente la rellenan. ¿Vale? entonces habría que establecer estadísticamente que

es lo que se estaba contando; el resultado de esos resultados que todavía me queda pendiente.

Vale entonces de momento podríamos decir que son principalmente de la República de Corea, de

Estados Unidos, que son hombres y son principalmente estudiantes

Vale, ¿cuál es el rango de edad?, bueno estamos hablando de 21 o 25 años, vale, pero en general

también vemos que en segundo lugar estarían de 16 a 30 y después de 31 a 35, entonces

podríamos decir que es un alumnado joven. ¿Vale? Bien, eso sería como el análisis 2015.

Entonces nos vamos al 2013. En el 2013 por ejemplo vinieron 109 estudiantes, se registraron 109

estudiantes. De nuevo, Estados Unidos es la nacionalidad que de donde más vienen, también

tenemos República de Corea con un 18 y Japón. ¿Vale? Pero vemos como que se repiten las

constantes: principalmente son de Estados Unidos y son de Japón. De nuevo, más hombres que

mujeres, pero tampoco hay muchísima diferencia puede que un poquito más y, principalmente,

vienen a ser estudiantes.

Tanto en el 2014 como en el 2013 vemos que también se repite mucho lo de religioso y veremos

como en los años 2012 y 2011 era muy común que viniesen Jesuitas a estudiar español lengua

extranjera ¿Bien? y otra vez el rango de edad el más frecuente es de 21 a 25 años, aunque

también tenemos de 26 a 30 y de 31 a 35 hay muchos. O sea que de nuevo el 2013 suelen ser

alumnos bastante jóvenes ¿Vale? repito que todavía ser y hacer un análisis estadístico bien hecho

porque también ahí hay más personas mayores ¿Vale? También Vinieron al centro a estudiar

personas mayores, pero de momento las personas mayoritarias son las personas jóvenes.

Por ejemplo, en el año 2012, de nuevo Estados Unidos con 30, República de Corea con 20 y

ahora aquí surge Alemania. Van saliendo cada año otras nacionalidades como por ejemplo en el

2013 ¿cuál era? Japón que aparecía. En el 2012 aparece Alemania, vienen muchos estudiantes de

Alemania, también suelen ser más hombres que mujeres. En el 2012 vinieron 120 a 119

estudiantes que se registraron y, Estados unidos, Corea, y vemos que también prima lo de

estudiante, hay muchísimos estudiantes ¿Vale? que vienen principalmente a estudiar. Aquí hay

también religiosos que serían 10 aunque también es bastante elevado el número de ausencias que

serían 17.

96

Franja de estudiantes, aquí por ejemplo tendríamos de 21 a 25 de 26 a 30 y de 31 a 35. O sea que

seguimos repitiendo la misma característica: sigue siendo alumnos jóvenes ¿Vale? En el 2011,

por ejemplo, sigue siendo tenemos 89 estudiantes registrados solamente sigue siendo Estados

Unidos y la República de Corea: las nacionalidades con más peso. Más hombres que mujeres

otra vez se repite, más estudiantes, y también tenemos como profesores y religiosos son también

profesiones que hemos visto en los otros años ¿Vale? pero la mayoría son estudiantes, y de

nuevo tendríamos un perfil joven de estudiantes ¿Vale?

Aquí se abre otra nueva categoría de 15 a 20 años lo cual también me preocupa; o sea que viene

gente con menos de 18 años ¿Bien? Y tenemos lo de religioso que os he contado también. Por

último, en el año 2010: lo mismo, Estados Unidos es la nacionalidad con más estudiantes,

también Alemania, China y República de Corea, pero sin lugar a dudas Estados Unidos con un

48 ¿Vale? Aquí en este año hay más mujeres que hombres, pero poquita diferencia.

Seguimos hablando de más estudiantes y también una franja edad bastante joven 21a 25 años que

es la más repetida. Entonces, en conclusión, todos estos análisis necesitan, es decir toda esta

información que sabéis que es mucha, necesita hacer unos análisis estadísticos rigurosos; de

momento solamente estamos viendo cálculos en Excel listo, pero bueno por lo menos podemos

ver que las constantes se repiten: que son estudiantes jóvenes, que normalmente vienen con fines

de estudiar y qué son principalmente de Estados Unidos, aunque tenemos bastantes de Corea.

¿Vale? Yo creo que sí sería como más o menos los datos más característicos de la población

¿preguntas tenéis?

Daniela Meyberg: En general ¿los estudiantes llegan con nivel inicial? O por ejemplo ¿llegan ya

con nivel tipo B1, B2? Porque pues hay unos que ya han estudiado, pero pues ¿la mayoría llegan

para entrar a los niveles iniciales o con ciertos conocimientos de la lengua?

Begoña Martin: Pues eso también lo estoy registrando ¿Vale? os he dicho que había tomado

también atrás otras fichas de examen de clasificación y aquí, en las fichas de exámenes de

clasificación, estoy anotando qué nivel se le estaba dando al alumno ¿Vale? Tanto en la prueba

oral como en la prueba escrita. No es un análisis todavía de esos datos ¿Vale? porque no pues

tenía que hacer otras cosas, pero realmente y pocas ocasiones vienen con nivel cero yo diría, pero

97

sí que vienen principalmente con niveles iniciales. Pero es muy apresurado como para decir yo y

establecer una conclusión porque todo eso simplemente lo estoy…

Por ejemplo, el análisis de 2013, o sea si vemos se habría que contar, por ejemplo, es que estos

son muchos datos chicos ¿Vale? Todavía no he hecho un análisis de cuánto sería la media,

todavía lo tengo ahí pero no lo he calculado entonces no sabría deciros. Yo diría que

principalmente son niveles iniciales intermedios ¿Vale? De niveles altos no se le ve mucha

gente, pero estas son conclusiones que yo os he traído un poco de la observación, pero no de

nada estadísticamente ¿Vale?

Daniela Meyberg: Respecto a la descripción de los estudiantes como agente social intercultural

pues primero ¿puedes hacernos una descripción de los estudiantes como agente social?

Begoña Martin: Pues eso lo deberías Buscar en el plan curricular (PCIC) y en el marco común

europeo referencia (MCER). Es decir, yo lo que puedo deciros con base en mis análisis es que

realmente… Es que esto todo de verdad que lo he hecho, pero es que esto todavía necesita

meterle mucha mano chicos. Entonces, por ejemplo, así a primera vista estas son como las

necesidades que yo que ellos tienen y los intereses para estudiar español, estamos en el 2012,

entonces aquí es curioso porque aquí por ejemplo empieza a salir como un estudiante que

empieza a trabajar ¿Vale? Entonces los intereses son estudiar-vivir, estudiar y trabajar…

Daniela Meyberg: Pero también son hartísimos los que no contestan

Begoña Martin: Son hartísimos los que no contestan efectivamente

Yhosep Barba: Pero ¿Por qué no contestan?

Begoña Martin: Pues porque esa ficha, por ejemplo, en este caso, que es la ficha del examen de

clasificación, eso lo rellena el entrevistador en la primera entrevista entonces ese dato se le

perdió al entrevistador ¿Vale? entonces por eso hay muchísimos en blanco. Por eso se tiene que

hacer un buen análisis estadístico para decir o sea de 24 pero oye que es que en blanco por

ejemplo aquí en blanco no contestan son 21.

Entonces yo tengo 21 que quieren venir a estudiar, pero también que no contestan entonces pues

vale. Por eso yo os digo que se necesita para bastantes análisis rigurosos ¿Vale? que todavía yo

98

no lo he hecho. Pero realmente, por ejemplo, yo me acuerdo, que es muy comunicativo el

general las necesidades de estos estudiantes es para comunicarse, para vivir, por motivos

profesionales y hay muchos también que vienen para ver si nuestro perfil de estudiantes es

principalmente estudiante, como hemos visto antes, pues una de sus necesidades será estudiar

¿Vale? Pero también empieza a salir que vienen a trabajar porque ese es otro perfil que en la

otra hoja no habéis oído tanto pero también hay muchos estudiantes que son empresarios ¿Vale?

Entonces eso también hay que tenerlo en cuenta ¿Más preguntas?

Daniela Meyberg: Por ejemplo, respecto a las habilidades ¿En qué habilidades tienden a ser más

fuertes y en cuáles no?

Begoña Martin: ¿En cuáles habilidades tienen a ser más fuertes y en cuales no? Qué difícil eso

Daniela, eso no sé decírtelo porque yo no tengo datos recogidos de eso. Eso depende también del

estudiante o sea por ejemplo hay muchos estudiantes por ejemplo estamos hablando los coreanos

los coreanos por ejemplo tiene mucha dificultad a la hora de comunicarse, pero son muy buenos

en gramática ¿Vale? Pero tienen muchas falencias a la hora de practicar vocabulario, aprender

vocabulario y sobre sobre de comunicarse en la expresión oral y expresión escrita, entonces

también depende un poquito de la nacionalidad.

Por ejemplo, hay estudiantes que vienen y que vienen con novia, algunos estudiantes que vienen

ennoviados, no sé qué tienen las colombianas. Entonces ellos, por ejemplo, son súper buenos

hablando pues hablan, se comunican pero con muchos errores gramaticales entonces ahí hay un

poquito de todo pero si es verdad que por lo general haciendo así un análisis por encima no

riguroso, que eso tenéis que decirlo bien claro, me parece que son alumnos que vienen para vivir,

o sea para comunicarse y para aprender entonces realmente está muy en consonancia con ese

agente social, hablante intercultural que promueve el Centro Latinoamericano ¿Listo?

Daniela Meyberg: Por ejemplo, dices que los coreanos son los que tienen más problemas como

para hablar digamos o sea en la parte oral no tanto en la gramática ni en lo escrito y por ejemplo

¿Los estadounidenses?

Begoña Martin: Bueno, los estadounidenses, depende. Los estadounidenses por ejemplo

también tienen problemas… no sé es que hay quienes empiezan o sea que se comunican, pero

99

con muchos errores los estadounidenses por ejemplo tienen muchos errores de gramática suelen

ser bastante malillos en gramática. Pues entonces a lo mejor por ejemplo pueden comunicarse,

pero con muchas incorrecciones, pero no sabría así decirte… Tendría que hacer un análisis… Te

lo digo es más por mi experiencia; generalizar es un poco difícil pero bueno es que es lo que yo

cuando estaba definiendo el perfil de estudiantes yo decía: ¡No! los estudiantes es lo que más

cuenta, pero aquí es donde yo digo: tengo que hacer un análisis más riguroso, porque yo estoy

segura si hay dos perfiles claros en esta universidad que son: estudiantes y trabajadores.

Hay muchos trabajadores porque hay, porque hay muchos, pero ¿qué pasa? Y es que esa

categoría no me está saliendo porque tengo consultor, diplomático, administrador financiero,

gerente… Entonces me sale uno, uno y uno; toda esa categoría la tendré que unificar ¿Vale? Por

eso digo que hace falta un análisis un poquito más riguroso qué de primera pues nos dé

información sobre lo que tenemos pero que realmente habría que hacerlo de manera más

rigurosa. Bueno ¿Más preguntas chicos? ¿No?

Entonces en definitiva podemos decir que son alumnos jóvenes entre los 20 y los 35 años

¿verdad? Que son alumnos principalmente que vienen de los Estados Unidos, aunque también

vemos que vienen muchos de Corea. En cuanto a las profesiones, lo que más sale son

estudiantes, aunque también hay muchas profesiones relacionadas con el trabajo que todavía no

se han agrupado en el análisis de datos ¿Vale? pero creemos que es también un perfil muy

importante porque cuando analizamos las necesidades después de estudiantes tenemos que

trabajar es una constante ¿Vale? Entonces realmente comunicarse, estudiar y trabajar son las 3

constantes qué podríamos decir de momento que se repiten en estos estudiantes.

Daniela Meyberg: Y pues también nos gustaría saber cómo ¿Cuáles son los problemas de los

alemanes? pues como decíamos de los coreanos es la gramática y así… porque no sé sería como

importante saber al menos qué problemas presentan estas tres nacionalidades que son como las

que más vienen a estudiar español.

Begoña Martin: Pero ¿con qué fin? O sea, que yo sepa que los estadounidenses y que los

alemanes también tienen esas problemáticas ¿con qué sentido me ayudarían a mí a diseñar un

examen?

100

Daniela Meyberg: Pues no sé puede que… pues a mí particularmente me da curiosidad y quizás

nos pueda servir

Begoña Martin: Claro, porque por ejemplo lo que me sirve a mí para el diseño de un examen es

ver porque esta gente está estudiando y vemos que son fines como para trabajar o para estudiar y

realmente ahí están las temáticas, pero en cuanto a los problemas, valdría más para clase

alemanes.

Pues los alemanes en general para mí, desde mi punto de vista, no tiene ningún tipo de problema,

los alemanes son muy seguros rigurosos entonces en cuanto a nivel de corrección usualmente son

impecables también hablando, escribiendo son muy buenos al igual que los holandeses. Son

personas normalmente con mucha facilidad para los idiomas pues ellos tienen buen dominio de

alemán del inglés y eso se les nota a la hora de aprender español. Desde mi punto de vista los

estadounidenses son bastante problemáticos y los coreanos ¿Vale? pero sería ya como diferentes

¿ya está chicos?

Yhosep Barba: sí gracias.

Begoña Martin: De nada.

101

Anexo 2. Herramienta para validar

Validación de las especificaciones del examen de comprensión escrita del CLAM - niveles

iniciales

A continuación, se presenta una herramienta con la que usted, en calidad de experto en ELE,

podrá ayudarnos a validar las especificaciones del examen de comprensión lectora para los niveles

iniciales del CLAM. Por favor, lea cuidadosa y atentamente los siguientes enunciados y determine

su grado de acuerdo o desacuerdo con cada uno de ellos.

1 2 3 4 5

Totalmente en

desacuerdo

En desacuerdo Indiferente De acuerdo Totalmente de

acuerdo

Agradecemos de antemano su preciado tiempo y su sincera colaboración.

1. Propósito de las especificaciones

Ítems 1 2 3 4 5

Las especificaciones propuestas orientan de manera clara y específica al

docente.

Una prueba basada en estas especificaciones sesga la actuación del

estudiante.

Una prueba basada en estas especificaciones responde a los requisitos

para clasificar a los estudiantes en los niveles iniciales (A0, A1.1, A1.2,

A2.1 y A2.2).

Las especificaciones podrían ser interpretadas erróneamente por el

docente dado que no son claras ni precisas.

Estas especificaciones no responden a las necesidades educativas de los

estudiantes de los niveles iniciales del CLAM.

102

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

2. Descripción del candidato

Ítems 1 2 3 4 5

La descripción del candidato coincide con las características de los

estudiantes extranjeros que llegan al CLAM.

La descripción del candidato aporta al docente información para

desarrollar los contenidos de la prueba.

La descripción del candidato no se ajusta a las características de los

estudiantes extranjeros que llegan al CLAM.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

3. Niveles de la prueba

Ítems 1 2 3 4 5

El constructo objeto a evaluar de cada nivel es apropiado en la medida

que contempla lo propuesto por el CLAM, el MCER y el PCIC.

Las especificaciones no abordan el mínimo de los contenidos que debe

manejar un estudiante de niveles iniciales.

Hay diferencias claras entre el grado de complejidad de un nivel y otro.

103

Las especificaciones de cada constructo no permiten al profesor tener

claro el objeto a evaluar en cada nivel.

En los niveles de la prueba se podrían tratar temas de menor complejidad

con el objetivo de que los estudiantes respondan con mayor eficiencia.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

4. Número de secciones de la prueba

Ítems 1 2 3 4 5

El número de secciones de la prueba es adecuado para clasificar a los

estudiantes en los niveles iniciales del CLAM (A1.1, A1.2, A2.1, A2.2

y B1.1).

El número de secciones de la prueba debería reducirse a uno solo ya que

a través de una comprensión escrita sencilla se puede saber exactamente

en cuál de los cuatro niveles está el candidato.

El número de secciones de la prueba debería ser cuatro; una para cada

nivel (A1.1, A1.2, A2.1, A2.2), con el propósito de no excluir a ninguno

de ellos.

El número de secciones de la prueba no es el adecuado para clasificar a

los estudiantes en los niveles iniciales del CLAM (A1.1, A1.2, A2.1,

A2.2 y B1.1).

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

104

______________________________________________________________________________

_______________________________________________________________

5. Contenidos tratados por sección

Ítems 1 2 3 4 5

Los contenidos comunicativos y lingüísticos de cada sección representan

los establecidos por el CLAM, el PCIC y el MCER para los niveles

iniciales.

Los contenidos propuestos permiten el desarrollo de la competencia

intercultural.

Las temáticas tratadas por sección están acordes con la descripción de

cada nivel.

Los contenidos comunicativos y lingüísticos de cada sección no

representan los contenidos a trabajar en niveles iniciales propuestos por

el CLAM, el PCIC y el MCER.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

6. Complejidad de la tarea por sección

Ítems 1 2 3 4 5

Las tareas propuestas permiten abordar contenidos temáticos y

lingüísticos correspondientes a los niveles iniciales.

La complejidad de las tareas no es adecuada para un estudiante de

español de nivel inicial.

105

No hay una gradación adecuada en las tareas que pretenden evaluar los

niveles iniciales.

El nivel de complejidad de las tareas va de acuerdo con el nivel de

complejidad del nivel a evaluar.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

7. Número de tareas por sección

Ítems 1 2 3 4 5

El número de tareas por sección es conveniente para evaluar la actuación

del estudiante y, de esta forma, ubicarlo en uno de los niveles iniciales

del CLAM.

El número de tareas es exagerado teniendo en cuenta las demás pruebas

del examen de clasificación del CLAM que el estudiante debe desarrollar

(comprensión escrita y oral y expresión escrita y oral)

El número de tareas por sección no es suficiente para evaluar la

actuación del estudiante y, en este sentido, no se podrá ubicarlo en uno

de los niveles iniciales.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

8. Duración de tarea por sección

106

Ítems 1 2 3 4 5

El tiempo que se proporciona es suficiente para que el estudiante pueda

completar la tarea.

El tiempo de respuesta debería reducirse teniendo en cuenta las demás

tareas del examen.

El tiempo de respuesta es insuficiente y por consiguiente puede

condicionar al estudiante a responder precipitadamente.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

9. Longitud de texto por sección

Ítems 1 2 3 4 5

El número de palabras que el estudiante debe leer no es suficiente para

evaluar su dominio de la lengua.

El número de palabras que se demanda es demasiado alto teniendo en

cuenta lo que puede producir el estudiante de niveles iniciales.

El número de palabras que se demanda es demasiado alto teniendo en

cuenta lo que puede comprender el estudiante de niveles iniciales.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

107

10. Escala de evaluación

Ítems 1 2 3 4 5

La escala propuesta no permite valorar la actuación lingüística del

estudiante en los niveles iniciales del CLAM.

Los criterios seleccionados (si el candidato tiene 0-4 ítems correctos, se

clasifica en A1.1, si tiene 5-7 ítems correctos, se clasifica en A1.2, si

tiene 8-11 ítems correctos, se clasifica en A2.1) permiten evaluar la

habilidad lingüística del estudiante.

La herramienta de evaluación diseñada ofrece la posibilidad de ubicar al

estudiante en los niveles iniciales del CLAM.

Los rangos establecidos y el número de ítems propuestos no son

suficientes para medir la habilidad lingüística del estudiante en los

cuatro niveles iniciales del CLAM.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

108

Anexo 3. Tareas para el nivel A1

TAREAS A1 (A1.1, A1.2)

Este es el blog de una chica hispana que quiere hacer nuevos amigos. Lea su perfil de Facebook

para conocerla. A continuación, responda las preguntas (1-3) y seleccione la opción correcta.

Inicio Perfil Amigos Bandeja de entrada Configuración Salir

Muro

Información Fotos

Me llamo Nati (Natalia en realidad, mi papá me dice muñeca pero prefiero que

mis amigos me digan Nati). Tengo veintiséis años y soy de Rafaela pero vivo en

Buenos Aires, muy lejos de mi familia que vive en Córdoba, Argentina. Desde

pequeña sé que viajar es algo que me gusta. Hay otras cosas que disfruto mucho:

los atardeceres, los postres de mi mamá, el cine, el teatro, el mar y la música. No

me gusta el café, pero sí tomar mate con mis amigos. Además, hay dos cosas que

siempre llevo conmigo a los viajes: algo para tomar fotos y algo donde pueda

escribir mis aventuras.

Hago voluntariados en diferentes partes del mundo, por ejemplo, he vivido en

Chile, Perú, Bolivia y tengo amigos en cada país. Para mí, es la mejor escuela y

universidad para practicar mi oficio. Mi trabajo me permite ayudar a otros y

conocer nuevas formas de vivir.

Cuando viajo me gusta aprender de cada cultura, vivir con su gente y preguntar

todo… sentirme parte del lugar.

(Texto adaptado de http://www.mividaenunamochila.com/sobre_mi/)

Actividad 1: Seleccione la opción correcta (a, b o c)

1. ¿Qué nombre prefiere Natalia?

a. Natalia

b. Nati

c. Muñeca

109

2. ¿Cuántos años tiene Natalia?

a. 25

b. 26

c. 23

3. ¿De qué ciudad es Natalia?

a. Buenos Aires

b. Rafaela

c. Córdoba

Actividad 2: Asocie los gustos de Natalia con las imágenes que aparecen a continuación .Hay

6 imágenes, seleccione solo 4.

A B C

D E F

110

Actividad 3: Complete las siguientes oraciones teniendo en cuenta la información del perfil de

Nati.

A. Para Nati una de las mejores formas de aprender es ________________.

B. Natalia siempre lleva dos cosas en su maleta:

___________________y_____________________.

C. Natalia trabaja de_____________________ en sus viajes.

Anexo 4. Tareas para el nivel A2

TAREAS A2 (A2.1, A2.2)

1. Lea el siguiente artículo periodístico y elija la respuesta correcta en cada caso.

111

1. En el texto se habla de...

a. Sistemas de transporte

b. Nuevas guías turísticas

c. Recorridos por la ciudad

2. El objetivo principal de esta nueva actividad es...

a. Mostrar los barrios típicos de una ciudad

b. Enseñar literatura colombiana

c. Disfrutar un paseo por la ciudad

3. Este sistema de turismo...

a. Tiene lugar en cuatro ciudades

b. Se realiza en todas las ciudades de Colombia

c. Empezó en Bogotá

4. En la ciudad de Bogotá

a. Los usuarios recorren la ciudad

b. Los turistas visitan lugares históricos

c. Cualquier persona puede hacer el recorrido

5. El recorrido empieza ________ y finaliza ____________

a. Maloka… Corferias

b. Jardín Botánico.... Corferias

c. Maloka.... Maloka

6. Las normas de tránsito en Bogotá no permiten

a. que el bus de turismo lleve más de 69 pasajeros

b. que los buses no tengan techo

c. que los turistas hagan más de una vez el recorrido

112

2. Relacione los párrafos del texto anterior con las siguientes frases; puede haber más de una

opción por frase.

Frase párrafo (s)

a. Información sobre los beneficios del brazalete del tour

b. Información sobre los costos de las manillas

c. Información sobre los posibles riesgos de subirse al bus

d. Información sobre cómo adquirir y usar el servicio de Tour

e. Información sobre los lugares que se pueden visitar en el recorrido

f. Información sobre personal guía durante el tour

g. información sobre reglas de seguridad para el transporte turístico en

Bogotá

Anexo 5. Especificaciones para los niveles A1 y A2

EXAMEN DE ESPAÑOL PARA EXTRANJEROS CLAM

Especificaciones para la prueba de comprensión lectora niveles A1 y A2

Propósito general de la prueba

El objetivo del examen es clasificar a los estudiantes extranjeros en la comprensión lectora con

respecto a los niveles iniciales (A1.1, A1.2, A2.1 y A2.2) que ofrece el CLAM.

Descripción del candidato

El perfil de los estudiantes que llega a presentar el examen de clasificación del CLAM es muy

variado; esto se ve reflejado en aspectos como la edad, la nacionalidad, intereses personales,

gustos y los motivos para aprender el español. Los alumnos provienen de países muy diversos:

suizos, haitianos, brasileños, holandeses, franceses, etc. No obstante, las nacionalidades más

comunes son la estadounidense, la coreana, la japonesa y la alemana. En cuanto al rango de edad,

éste es muy diverso, se inscriben tanto adolescentes (16-20 años) como personas mayores. No

113

obstante, las edades más frecuentes oscilan entre los 21 a los 30 años. Respecto a las

motivaciones que incitan a estos estudiantes a aprender español en el CLAM se refieren

necesidades académicas o laborales.

Niveles de la prueba

→ Nivel a1.1.: El estudiante es capaz de comprender, leyendo frase por frase, palabras básicas y

corrientes en textos muy breves y sencillos (letreros, FORMULARIOS, imágenes, anuncios) para

satisfacer necesidades de tipo inmediato (información personal básica: nombre, domicilio,

nacionalidad, edad, e intereses).

→Nivel A1.2.: El estudiante es capaz de comprender y relacionar información en textos breves y

sencillos de carácter descriptivo e informativo (notas personales, menús, anuncios publicitarios y

horarios sobre todo, si hay apoyo visual) para satisfacer necesidades de tipo inmediato (rutinas,

vivienda, gustos, etc.).

→Nivel A2.1.: El estudiante es capaz de encontrar información específica en textos sencillos

(correos electrónicos, formularios, pedidos, cartas básicas personales y de confirmación, etc.) que

traten temas cotidianos relacionados con áreas de experiencia que le son especialmente relevantes

(sobre sí mismo y su familia, ocio, lugares de interés, ocupaciones, etc.).

→Nivel A2.2.: El estudiante es capaz de localizar y aislar información específica con respecto a

normas de seguridad (en lugares públicos y de trabajo); comprender indicaciones para ir a un lugar

e instrucciones sencillas (sobre aparatos, recetas, etc.). Así mismo, comprende artículos breves de

periódico que describen hechos determinados.

114

Número de secciones de la prueba

La prueba está compuesta por cinco (5) tareas: tres tareas que miden los niveles A0, A1.1 y

A1.2, y otra dos (2) que miden los niveles A2.1 y A2.2.

Especificaciones sección A1

Destreza lingüística

evaluada

Comprensión lectora

Tema Información personal (nombre, edad, nacionalidad, profesión,

domicilio, gustos e intereses, entre otros.)

Complejidad de tarea Guiada

Tipo de texto Informativo y descriptivo

No. de tareas 3 (de opción múltiple, relacionar o completar)

No. de ítems total 11

No. de ítems por tarea Actividad 1: 3 de complejidad baja (A0 PRINCIPIANTE)

Actividad 2: 4 de complejidad media (A1.1 AVANZADO)

Actividad 3: 4 de complejidad alta (A1.2 SUPERIOR )

Duración de la tarea 20 minutos

Longitud de texto: 150-200 palabras

Elementos lingüísticos

evaluados

Gramática: Verbos regulares en indicativo y uso de los artículos.

Uso de la forma impersonal ‘se’, algunas construcciones de verbo

conjugado + infinitivo y los cuantificadores ‘muy’ o ‘mucho’.

Vocabulario: relativo a información personal básica, gustos,

intereses.

Funciones comunicativas: dar información personal, expresar

gustos e intereses, expresar conocimiento.

Elementos culturales: Reconocimiento de la diversidad cultural

Criterio de evaluación Si tiene 0-4 ítems correctos, se clasifica en A1.1, si tiene 5-7

ítems correctos, se clasifica en A1.2, si tiene 8-11 ítems correctos,

se clasifica en A2.1

Formato de la prueba Física: papel.

115

Especificaciones sección A2

Destrezas lingüísticas

a evaluar:

Comprensión lectora

Tema Información sobre normas de seguridad, instrucciones, ocio,

familia y medios de comunicación (prensa oral y escrita).

Complejidad de tarea Semi guiada

Tipo de texto Descriptivos y narrativos

No. de tareas 2 (de opción múltiple y relacionar )

No. de ítems total 13

No. de ítems por tarea Actividad1: 6 ítems de complejidad media (A2.1 AVANZADO)

Actividad2: 7 ítems de complejidad alta (A2.2 SUPERIOR)

Duración de la tarea 30 minutos

Longitud de texto: 200-300 palabras

Elementos lingüísticos

a evaluar

Gramática: Verbos irregulares en presente, verbos en pretérito

indefinido, pretérito perfecto simple e imperfecto, y formas de

‘estar’ + gerundio en pasado.

Vocabulario: relativo a información personal, viajes, lugares,

comidas, actividades que realizan en el diario vivir.

Funciones comunicativas: describir, narrar experiencias,

expresar conocimiento, expresar deseos o sentimientos, dirigirse a

alguien.

Elementos culturales: percepción básica de las diferencias

culturales, aproximación cultural.

Criterio de evaluación Si tiene 12-16 ítems correctos, tiene A2.1 y se clasifica en

A2.2. , si tiene 17-24 ítems correctos, tiene A2.2 y se clasifica en

B1.1

Formato de la prueba Física: papel.

116

Anexo 6. Corrección cuestionario

Validación de las especificaciones del examen de comprensión escrita del CLAM - niveles

iniciales

A continuación, se presenta una herramienta con la que usted, en calidad de experto en ELE,

podrá ayudarnos a validar las especificaciones del examen de comprensión lectora para los niveles

iniciales del CLAM. Por favor, lea cuidadosa y atentamente los siguientes enunciados y determine

su grado de acuerdo o desacuerdo con cada uno de ellos.

1 2 3 4 5

Totalmente en

desacuerdo

En desacuerdo Parcialmente de

acuerdo

De acuerdo Totalmente de

acuerdo

Agradecemos de antemano su preciado tiempo y su sincera colaboración.

1. Propósito de las especificaciones

Ítems 1 2 3 4 5

Las especificaciones propuestas orientan de manera clara y específica al

docente.

Una prueba basada en estas especificaciones sesga la actuación del

estudiante.

Una prueba basada en estas especificaciones responde a los requisitos

para clasificar a los estudiantes en los niveles iniciales (A0, A1.1, A1.2,

A2.1 y A2.2).

Las especificaciones podrían ser interpretadas erróneamente por el

docente dado que no son claras ni precisas.

Estas especificaciones no responden a las necesidades educativas de los

estudiantes de los niveles iniciales del CLAM.

117

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

2. Descripción del candidato

Ítems 1 2 3 4 5

La descripción del candidato coincide con las características de los

estudiantes extranjeros que llegan al CLAM.

La descripción del candidato aporta al docente información para

desarrollar los contenidos de la prueba.

La descripción del candidato no se ajusta a las características de los

estudiantes extranjeros que llegan al CLAM.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

3. Niveles de la prueba

Ítems 1 2 3 4 5

El constructo objeto a evaluar de cada nivel es apropiado en la medida

que contempla lo propuesto por el CLAM, el MCER y el PCIC.

Las especificaciones no abordan el mínimo de los contenidos que debe

manejar un estudiante de niveles iniciales.

Hay diferencias claras entre el grado de complejidad de un nivel y otro.

Las especificaciones de cada constructo no permiten al profesor tener

claro el objeto a evaluar en cada nivel.

118

En los niveles de la prueba se podrían tratar temas de menor complejidad

con el objetivo de que los estudiantes respondan con mayor eficiencia.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

4. Número de secciones de la prueba

Ítems 1 2 3 4 5

El número de secciones de la prueba es adecuado para clasificar a los

estudiantes en los niveles iniciales del CLAM (A1.1, A1.2, A2.1, A2.2

y B1.1).

El número de secciones de la prueba debería reducirse a uno solo ya que

a través de una comprensión escrita sencilla se puede saber exactamente

en cuál de los cuatro niveles está el candidato.

El número de secciones de la prueba debería ser cuatro; una para cada

nivel (A1.1, A1.2, A2.1, A2.2), con el propósito de no excluir a ninguno

de ellos.

El número de secciones de la prueba no es el adecuado para clasificar a

los estudiantes en los niveles iniciales del CLAM (A1.1, A1.2, A2.1,

A2.2 y B1.1).

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

119

5. Contenidos tratados por sección

Ítems 1 2 3 4 5

Los contenidos comunicativos y lingüísticos de cada sección representan

los establecidos por el CLAM, el PCIC y el MCER para los niveles

iniciales.

Los contenidos propuestos permiten observar la competencia

intercultural.

Las temáticas tratadas por sección están acordes con la descripción de

cada nivel.

Los contenidos comunicativos y lingüísticos de cada sección no

representan los contenidos a trabajar en niveles iniciales propuestos por

el CLAM, el PCIC y el MCER.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

6. Complejidad de la tarea por sección

Ítems 1 2 3 4 5

Las tareas propuestas permiten abordar contenidos temáticos y

lingüísticos correspondientes a los niveles iniciales.

La complejidad de las tareas no es adecuada para un estudiante de

español de nivel inicial.

No hay una gradación adecuada en las tareas que pretenden evaluar los

niveles iniciales.

El nivel de complejidad de las tareas va de acuerdo con el nivel de

complejidad del nivel a evaluar.

120

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

7. Número de tareas por sección

Ítems 1 2 3 4 5

El número de tareas por sección es conveniente para evaluar la actuación

del estudiante y, de esta forma, ubicarlo en uno de los niveles iniciales

del CLAM.

El número de tareas es exagerado teniendo en cuenta las demás pruebas

del examen de clasificación del CLAM que el estudiante debe desarrollar

(comprensión escrita y oral y expresión escrita y oral)

El número de tareas por sección no es suficiente para evaluar la

actuación del estudiante y, en este sentido, no se podrá ubicarlo en uno

de los niveles iniciales.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

8. Duración de tarea por sección

Ítems 1 2 3 4 5

El tiempo que se proporciona es suficiente para que el estudiante pueda

completar la tarea.

El tiempo de respuesta debería reducirse teniendo en cuenta las demás

tareas del examen.

121

El tiempo de respuesta es insuficiente y por consiguiente puede

condicionar al estudiante a responder precipitadamente.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

9. Longitud de texto por sección

Ítems 1 2 3 4 5

El número de palabras que el estudiante debe leer no es suficiente para

evaluar su dominio de la lengua.

El número de palabras que se demanda es demasiado alto teniendo en

cuenta lo que puede producir el estudiante de niveles iniciales.

El número de palabras que se demanda es demasiado alto teniendo en

cuenta lo que puede comprender el estudiante de niveles iniciales.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_______________________________________________________________

10. Escala de evaluación

Ítems 1 2 3 4 5

La escala propuesta no permite valorar la actuación lingüística del

estudiante en los niveles iniciales del CLAM .

122

Los criterios seleccionados (si el candidato tiene 0-4 ítems correctos, se

clasifica en A1.1, si tiene 5-7 ítems correctos, se clasifica en A1.2, si

tiene 8-11 ítems correctos, se clasifica en A2.1) permiten evaluar la

habilidad lingüística del estudiante.

La herramienta de evaluación diseñada ofrece la posibilidad de ubicar al

estudiante en los niveles iniciales del CLAM.

Los rangos establecidos y el número de ítems propuestos no son

suficientes para medir la habilidad lingüística del estudiante en los

cuatro niveles iniciales del CLAM.

Sugerencias y/o observaciones:

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

______________________________________________________________________________

_________________________________________________

123

Anexo 7. Corrección tareas A1

TAREAS A1 (A1.1, A1.2)

Este es el blog de una chica hispana que quiere hacer nuevos amigos. Lea su perfil de Facebook

para conocerla. A continuación, responda las preguntas (1-3) y seleccione la opción correcta.

Inicio Perfil Amigos Bandeja de entrada Configuración Salir

Muro Información Fotos

Me llamo Nati (Natalia en realidad, mi papá me dice muñeca pero

prefiero Nati). Tengo veintiséis años y soy de Rafaela, pero vivo en

Buenos Aires, muy lejos de mi familia que vive en Córdoba, Argentina.

Desde pequeña algo que me gusta hacer es viajar. Hay otras cosas que

disfruto mucho: los atardeceres, los postres de mi mamá, el cine, el

teatro, el mar y la música. No me gusta el café, pero sí tomar mate con

mis amigos. Además, hay dos cosas que siempre llevo conmigo a los

viajes: algo para tomar fotos y algo donde pueda escribir mis aventuras.

Hago voluntariados en diferentes partes del mundo, por ejemplo, he

vivido en Chile, Perú, Bolivia y tengo amigos en cada país. Para mí, es

la mejor escuela y universidad para practicar mi oficio. Mi trabajo me

permite ayudar a otros y conocer nuevas formas de vivir.

Cuando viajo me gusta aprender de cada cultura, vivir con su gente y

preguntar todo… sentirme parte del lugar.

(Texto adaptado de http://www.mividaenunamochila.com/sobre_mi/)

Actividad 1: Seleccione la opción correcta (a, b o c)

4. ¿Qué nombre prefiere Natalia?

a. Natalia

b. Nati

c. Muñeca

5. ¿Cuántos años tiene Natalia?

a. 25

b. 26

124

c. 23

6. ¿De qué ciudad es Natalia?

a. Buenos Aires

b. Rafaela

c. Córdoba

Actividad 2: Asocie con una flecha los gustos de Natalia con las imágenes que aparecen a

continuación. Hay 6 imágenes, seleccione solo 4.

A B C

D E F

125

Actividad 3: Complete las siguientes oraciones teniendo en cuenta la información del perfil de

Nati.

D. Para Nati una de las mejores formas de aprender es ________________.

E. Natalia siempre lleva dos cosas en su maleta:

___________________y_____________________.

F. Natalia trabaja de_____________________ en sus viajes.

126

Anexo 8. Corrección tareas A2

TAREAS A2 (A2.1, A2.2)

1. Karen es una coreana que visita la ciudad de Bogotá, ella quiere explorar la ciudad en bus. Lea

el siguiente artículo periodístico y elija la respuesta correcta en cada caso.

1. En el texto se habla de...

a. Sistemas de transporte

b. Nuevas guías turísticas

127

c. Recorridos por la ciudad

2. El objetivo principal de esta nueva actividad es...

a. Mostrar los barrios típicos de una ciudad

b. Enseñar literatura colombiana

c. Disfrutar un paseo por la ciudad

3. Este sistema de turismo...

a. Tiene lugar en cuatro ciudades

b. Se realiza en todas las ciudades de Colombia

c. Empezó en Bogotá

4. En la ciudad de Bogotá

a. Los usuarios recorren la ciudad

b. Los turistas visitan lugares históricos

c. Cualquier persona puede hacer el recorrido

5. El recorrido empieza ________ y finaliza ____________

a. Maloka… Corferias

b. Jardín Botánico.... Corferias

c. Maloka.... Maloka

6. Las normas de tránsito en Bogotá no permiten

a. que el bus de turismo lleve más de 69 pasajeros

b. que los buses no tengan techo

c. que los turistas hagan más de una vez el recorrido

2. Relacione los párrafos del texto anterior con las siguientes frases; puede haber más de una

opción por frase.

Frase párrafo (s)

a. Información sobre los beneficios del brazalete del tour

b. Información sobre los costos de las manillas

c. Información sobre los posibles riesgos de subirse al bus

d. Información sobre cómo adquirir y usar el servicio de Tour

e. Información sobre los lugares que se pueden visitar en el recorrido

f. Información sobre personal guía durante el tour

g. información sobre reglas de seguridad para el transporte turístico en Bogotá

128

Anexo 9. Corrección especificaciones

EXAMEN DE ESPAÑOL PARA EXTRANJEROS CLAM

Especificaciones para la prueba de comprensión lectora niveles A1 y A2

Propósito general de la prueba

El objetivo del examen es clasificar a los estudiantes extranjeros en la comprensión lectora con

respecto a los niveles iniciales (A1.1, A1.2, A2.1 y A2.2) que ofrece el CLAM.

Descripción del candidato

El perfil de los estudiantes que llega a presentar el examen de clasificación del CLAM es muy

variado; esto se ve reflejado en aspectos como la edad, la nacionalidad, intereses personales,

gustos y los motivos para aprender el español. Los alumnos provienen de países muy diversos:

suizos, haitianos, brasileños, holandeses, franceses, etc. No obstante, las nacionalidades más

comunes son la estadounidense, la coreana, la japonesa y la alemana. En cuanto al rango de edad,

éste es muy diverso, se inscriben tanto adolescentes (16-20 años) como personas mayores. Sin

embargo, las edades más frecuentes oscilan entre los 21 a los 30 años. Respecto a las

motivaciones que incitan a estos estudiantes a aprender español en el CLAM se refieren

necesidades académicas o laborales.

Niveles de la prueba

→ Nivel A0: El estudiante es capaz de entender muy pocas palabras básicas, parecidas a su lengua

materna y aisladas

129

→ Nivel A1.1.: El estudiante es capaz de comprender, leyendo frase por frase, palabras básicas y

corrientes en textos muy breves y sencillos (letreros, FORMULARIOS, imágenes, anuncios) para

satisfacer necesidades de tipo inmediato (información personal básica: nombre, domicilio,

nacionalidad, edad, e intereses).

→Nivel A1.2.: El estudiante es capaz de comprender y relacionar información en textos breves y

sencillos de carácter descriptivo e informativo (notas personales, menús, anuncios publicitarios y

horarios, sobre todo, si hay apoyo visual) para satisfacer necesidades de tipo inmediato (rutinas,

vivienda, gustos, etc.).

→Nivel A2.1.: El estudiante es capaz de encontrar información específica en textos sencillos

(correos electrónicos, formularios, pedidos, cartas básicas personales y de confirmación, etc.) que

traten temas cotidianos relacionados con áreas de experiencia que le son especialmente relevantes

(sobre sí mismo y su familia, ocio, lugares de interés, ocupaciones, etc.).

→Nivel A2.2.: El estudiante es capaz de localizar y aislar información específica con respecto a

normas de seguridad (en lugares públicos y de trabajo); comprender indicaciones para ir a un lugar

e instrucciones sencillas (sobre aparatos, recetas, etc.). Así mismo, comprende artículos breves de

periódico que describen hechos determinados.

→ Nivel B1.1.: El estudiante es capaz de comprender textos cotidianos relacionados a su área de

trabajo (cartas, faxes, correos electrónicos, confirmaciones, reclamaciones y solicitudes de

trabajo). Así mismo, comprende textos descriptivos identificando acontecimientos, sentimientos y

deseos.

Número de secciones de la prueba

La prueba está compuesta por cinco (5) tareas: tres tareas que miden los niveles A0, A1.1 y

A1.2, y otra dos (2) que miden los niveles A2.1 y A2.2.

130

Especificaciones sección A1

Destreza lingüística

evaluada

Comprensión lectora

Tema Información personal (nombre, edad, nacionalidad, profesión,

domicilio, gustos e intereses, entre otros.)

Complejidad de tarea Guiada

Tipo de texto Informativo y descriptivo

No. de tareas 3 (de opción múltiple, relacionar o completar)

No. de ítems total 11

No. de ítems por tarea 1: 3 de complejidad baja (A0 PRINCIPIANTE)

2: 4 de complejidad media (A1.1 AVANZADO)

3: 4 de complejidad alta (A1.2 SUPERIOR )

Duración de la tarea 20 minutos

Longitud de texto: 150-200 palabras

Elementos lingüísticos

evaluados

Gramática: Verbos regulares en indicativo y uso de los artículos.

Uso de la forma impersonal ‘se’, algunas construcciones de verbo

conjugado + infinitivo y los cuantificadores ‘muy’ o ‘mucho’.

Vocabulario: relativo a información personal básica, gustos,

intereses.

Funciones comunicativas: dar información personal, expresar

gustos e intereses, expresar conocimiento.

Elementos culturales: Reconocimiento de la diversidad cultural

Criterio de evaluación Si tiene 0-4 ítems correctos, se clasifica en A1.1, si tiene 5-7

ítems correctos, se clasifica en A1.2, si tiene 8-11 ítems correctos,

se clasifica en A2.1

Formato de la prueba Física: papel.

131

Especificaciones sección A2

Destrezas lingüísticas

a evaluar:

Comprensión lectora

Tema Información sobre normas de seguridad, instrucciones, ocio,

familia y medios de comunicación (prensa oral y escrita).

Complejidad de tarea Semi guiada

Tipo de texto Descriptivos y narrativos

No. de tareas 2 (de opción múltiple y relacionar )

No. de ítems total 13

No. de ítems por tarea 1: 6 ítems de complejidad media (A2.1 AVANZADO)

2: 7 ítems de complejidad alta (A2.2 SUPERIOR )

Duración de la tarea 30 minutos

Longitud de texto: 200-300 palabras

Elementos lingüísticos

a evaluar

Gramática: Verbos irregulares en presente, verbos en pretérito

indefinido, pretérito perfecto simple e imperfecto, y formas de

‘estar’ + gerundio en pasado.

Vocabulario: relativo a información personal, viajes, lugares,

comidas, actividades que realizan en el diario vivir.

Funciones comunicativas: describir, narrar experiencias,

expresar conocimiento, expresar deseos o sentimientos, dirigirse a

alguien.

Elementos culturales: percepción básica de las diferencias

culturales, aproximación cultural.

Criterio de evaluación Si tiene 12-16 ítems correctos, tiene A2.1 y se clasifica en

A2.2. , si tiene 17-24 ítems correctos, tiene A2.2 y se clasifica en

B1.1

Formato de la prueba Física: papel.