220
ISSN 1870-9095 Latin american JournaL of Physics education www.journal.lapen.org.mx Volume 4 Number 2 May 2010 A publication sponsored by Research Center on Applied Science and Advanced Technology of National Polytechnic Institute and the Latin American Physics Education Network

Latin-American Journal of Physics Education

Embed Size (px)

Citation preview

ISSN 1870-9095

Latin american JournaL of Physics education

www.journal.lapen.org.mx

Volume 4 Number 2 May 2010

A publication sponsored by Research Center on Applied Science and Advanced Technology of National Polytechnic Institute and the Latin American Physics Education Network

Latin american JournaL of Physics education Volume 4, Number 2, May 2010

contents/contenido

Editorial 258-259 Papers/Artículos The Virial Theorem and its applications in the teaching of Modern Physics,

Celso L. Ladera, Eduardo Alomá y Pilar León 260-266 An alternative proof of the g-lemma of finite-time thermodynamics,

J. González-Ayala, F. J. López-Ramos, L. A. Arias-Hernández, F. Angulo-Brown 267-272 Einstein’s Redundant Triumph “Quantum Physics”: An extensive Study of Teaching/Learning Quantum Mechanics in College,

Bayram Akarsu 273-285 On Students’ Misunderstanding of the Basic Concepts of Quantum Mechanics: the case of Algerian Universities,

R. Ladj, M. Oldache, C. E. Khiari, T. Belarbi 286-293 Sliding rope paradox,

Z. K. Silagadze 294-302 The pc concept,

E. Marín 303-305 Sensor sonar de movimento para ensino de Física experimental,

Fábio Saraiva da Rocha, Paulo Henrique Guadagnini 306-315 A new theory, a new practice.... Blackboard Physics Laboratory and assisted by free software (STEP), directed to Technologists in Systematizing of Data,

Harley J. Orjuela Ballesteros 316-319 Determination of electromagnetic cavity modes using the Finite Difference Frequency-Domain Method,

J. Manzanares-Martínez, D. Moctezuma-Enriquez, R. Archuleta-García 320-324

continued/continuación

LATIN AMERICAN JOURNAL OF PHYSICS EDUCATION Vol. 4, No. 2, May 2010

contents/contenido

Solar luminous constant versus lunar luminous constant, D C Agrawal 325-328

A Pseudo Ordinary Differential Equation for the Hysteretic Damper,

Kui Fu Chen 329-330

Wave packet evolution of damped oscillator with a time dependent linear potential,

Akpan N. Ikot, Edet J. Uwah, Louis E. Akpabio and Ita O. Akpan 331-335

Hydrostatic equilibrium in modeling the neutral atmosphere,

Tsegaye K. and Baylie D. 336-340 Rapidity density deviations in Pb+Nb and Ni collisions at 158 A GeV/nucleon beam energy,

Mohammad Kheare Abu Shayeb 341-346

Path integrals and wave packet evolution of the Modified Caldirola-Kanai Oscillators,

Akpan N. Ikot,Edet J. Uwah, Louis E. Akpabio and Ita O. Akpan 347-351

Algoritmo de factorización para un computador cuántico,

Hernando Efraín Caicedo-Ortiz 352-356 Los conceptos de espacio y tiempo como variables dinámicas en la teoría cuántica no relativista,

Rafael Andrés Alemañ Berenguer 357-366 Introducción al fenómeno de Lente Gravitacional a partir de consideraciones de la Mecánica Clásica,

Alejandro Hurtado, Arjuna Castrillón, Gonzalo Vargas 367-373 Descomposición de la ecuación cinemática de velocidad en variables cartesianas,

S. Díaz-Solórzano y L. González-Díaz 374-377 Velocidad terminal de una esfera descendente y la viscosidad de fluidos: diferencia entre fluidos newtonianos y no newtonianos,

Leonor Pérez Trejo, Arturo F. Méndez Sánchez, Julia Mariana Iturbe Ponce 378-382

continued/continuación

LATIN AMERICAN JOURNAL OF PHYSICS EDUCATION Vol. 4, No. 1, Jan. 2010

contents/contenido Rodadura de una esfera sobre un plano inclinado. Mejoras al experimento desarrollado en el “plano de Packard”,

Néstor A. Olivieri, Pablo A. Nuñez y Eduardo E. Rodríguez 383-387

Algunos experimentos con cuerpos rígidos,

Néstor A. Olivieri, Pablo A. Nuñez y Eduardo E. Rodríguez 388-393

El efecto Magnus y La paradoja de D'Alembert: consideraciones del flujo Potencial, J. C. Cuevas, O. Ocaña, A. Hurtado, S. Hidalgo 394-398

Detección y Clasificación de Errores Conceptuales en Calor y Temperatura,

Antonio Lara-Barragán Gómez, Alberto Santiago Hernández 399-407 Un frasco flota en el agua y se hunde en el aceite: ¿cómo los alumnos de bachillerato explican tales hechos y qué predicen para una situación más compleja? ,

Alejandrina Madrigal García y Josip Slisko 408-414 Enseñanza de las ciencias físicas a estudiantes de primaria y secundaria por medio de sencillos talleres científicos,

Remigio Cabral Dorado y José Luis Maldonado Rivera 415-421 Opciones Newtonianas de estudiantes no-Newtonianos, análisis de alumnos Universitarios: FCI,

Adrián Corona Cruz 422-428 El modelo estándar como célula generatriz y contexto sistematizador de contenidos en el curso de Física General,

J. J. Llovera-González 429-434 La enseñanza de la física y las matemáticas: un enfoque hacia la educación ambiental,

Rodolfo Fabián Estrada Guerrero 435-440 La óptica de imágenes en la extensión universitaria de Unicamp,

José Joaquín Lunazzi, Daniel S. F. Magalhães, Maria Clara Igrejas Amon, Rolando Serra Toledo 441-448

continued/continuación

LATIN AMERICAN JOURNAL OF PHYSICS EDUCATION Vol. 4, No. 2, May 2010

contents/contenido LHC en unos pocos números,

Xabier Cid Vidal, Ramón Cid Manzano 449-454 BOOK REVIEWS/REVISIÓN DE LIBROS Los procesos de formalización y el papel de la experiencia en la construcción del conocimiento sobre los fenómenos físicos,

Mario H. Ramírez Díaz 455-457 Desalación de Aguas: Aspectos tecnológicos, medioambientales, jurídicos y económicos,

Daniel Sánchez Guzmán 458-462 Desarrollo de Competencias en Física II contenidos y secuencias didácticas,

Rubén Sánchez-Sánchez 463 ¡Física sí! La Física está en lo cotidiano,

Nicolás A. Cordero 464

ANNOUNCEMENTS/ANUNCIOS 465-470

Latin american JournaL of Physics education

Electronic version of this journal can be downloaded free of charge from the web-resource: http://www.journal.lapen.org.mx Production and technical support Daniel Sánchez Guzmán [email protected] Latin American Journal of Physics Education is indexed in:

EDITORIAL POLICY Latin American Journal of Physics Education (LAJPE) is a peer-reviewed, electronic international journal for the publication of papers of instructional and cultural aspects of physics. Articles are chosen to support those involved with physics courses from introductory up to postgraduate levels.

Papers may be comprehensive reviews or reports of original investigations that make a definitive contribution to existing knowledge. The content must not have been published or accepted for publication elsewhere, and papers must not be under consideration by another journal.

This journal is published three times yearly (January, May and September), one volume per year by Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada del Instituto Politécnico Nacional and The Latin American Physics Education Network (LAPEN). Manuscripts should be submitted to [email protected] or [email protected] .Further information is provided in the “Instructions to Authors” on www.journal.lapen.org.mx

Direct inquiries on editorial policy and the review process to: Cesar Mora, Editor in Chief, CICATA-IPN Av. Legaria 694, Col Irrigación, Del. Miguel Hidalgo, CP 11500 México D. F. Copyright © 2010 César Eduardo Mora Ley, Latin American Physics Education Network. (www.lapen.org.mx) ISSN 1870-9095

EDITOR-IN-CHIEF Cesar Mora, Instituto Politécnico Nacional (México) INTERNATIONAL ADVISORY COMMITTEE Ann-Marie Pendrill, Göteborgs University (Swenden) Carl Wenning, Illinois State University (USA) Diane Grayson, Andromeda Science Education (South Africa) David Sokoloff, University of Oregon (USA) Dean Zollman, Kansas State University (USA) Edward Redish, University of Maryland (USA) Elena Sassi, University of Naples (Italy) Freidrich Herrmann, University of Karlsruhe (Germany) Gordon Aubrecht II, Ohio State University (USA) Hiroshi Kawakatsu, Kagawa University (Japan) Jorge Barojas Weber, Universidad Nacional Autónoma de México (México) José Zamarro, University of Murcia (Spain) Laurence Viennot, Université Paris 7 (France) Lillian C. McDermott, University of Washington (USA) Marisa Michelini, University of Udine (Italy) Marco Antonio Moreira, Universidade Federal do Rio Grande do Sul (Brazil) Minella Alarcón, UNESCO (France) Pratibha Jolly, University of Delhi (India) Priscilla Laws, Dickinson College (USA) Ton Ellermeijer, AMSTEL Institute University of Amsterdam (Netherlands) Verónica Tricio, University of Burgos (Spain) Vivien Talisayon, University of the Philippines (Philippines) Zdenek Kluiber, Technical University (Czech Republic) EDITORIAL BOARD Amadeo Sosa, Ministerio de Educación y Cultura Montevideo (Uruguay) Zulma Gangoso, Universidad Nacional de Córdoba (Argentina) Deise Miranda, Universidade Federal do Rio de Janeiro (Brasil) Eduardo Moltó, Instituto Superior Pedagógico José Varona (Cuba) Eduardo Montero, Escuela Superior Politécnica del Litoral (Ecuador) Josefina Barrera, Universidade do Estado do Amazonas (Brasil) Josip Slisko, Benemérita Universidad Autónoma de Puebla (México) Julio Benegas, Universidad Nacional de San Luis (Argentina) Leda Roldán, Universidad de Costa Rica (Costa Rica) Celso Ladera, Universidad Simón Bolivar (Venezuela) Manuel Reyes, Universidad Pedagógica Experimental Libertador (Venezuela) Mauricio Pietrocola Universidad de Sao Paulo (Brasil) Nelson Arias Ávila, Universidad Distrital, Bogotá (Colombia) Octavio Calzadilla, Universidad de la Habana (Cuba) Ricardo Buzzo Garrao, Pontificia Universidad Católica de Valparaíso (Chile)

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 258 http://www.journal.lapen.org.mx

EDITORIAL

It is a pleasure introduce a new LAJPE issue plenty

of interesting papers covering several topics of

Physics Education, cultural aspects of Physics,

fostering of science and book reviews. Theoretical

Physics, Classical Mechanics, Physics Labs

methods, Thermodynamics and fluids, Optics,

Mathematical methods, Modern Physics subjects

like the Virial Theorem, studies on quantum

Mechanics students learning, path integral and wave

packet evolution of damped oscillator, High Energy

Physics, Quantum computers and General Relativity

and Gravitation topics, also educational research on

Classical Mechanics, Thermodynamics and fluids

are shown.

I want thank to authors and editorial team that

made possible the May issue, thus the trust in

LAJPE is growing. Also we are grateful with

EBSCO Publishing because they have offered of

include LAJPE in their data basis. One of our main

goals is to make available the knowledge on Physics

Education and related topics for the entire world, in

this way we are going to apply to more free

scientific data basis. In this point, more citations of

LAJPE will be required.

LAJPE is fully committed to constantly

innovate the teaching of Physics and little by little

has a leadership position in Latin America. We are

grateful for the presence of our journal in the scholar

community because is growing with quality.

Currently we had received collaborations from

fourteen countries: Algeria, Argentina, Brazil,

China, Colombia, Cuba, Jordan, India, Mexico,

Nigeria, Spain, Turkey, USA and Venezuela. As

such, the journal has obviously done many things

right, but we can do it better, all suggestions are well

received. The journal has a fairly rapid turnaround

time, and the reviews are typically of high quality.

On the other hand, for the next September we are

going to have a new website www.lajpe.org. Among

the improvements, LAJPE will have an on-line journal

subscription, links to paper abstracts and

supplementary materials, also website statistics

access.

It is an honor to be the editor of this prestigious

journal, thanks for your support. I hope to be able to

continue the journal way of publishing influential

papers in Physics Education, while opening the door a

bit wider to newer perspectives.

César Mora

Editor in Chief

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 259 http://www.journal.lapen.org.mx

EDITORIAL

Es un placer presentar un nuevo número de LAJPE

con una buena cantidad de artículos interesantes

que cubren varios temas de Enseñanza de la Física,

aspectos culturales de la Física, divulgación de la

ciencia y reseñas de libros. Se incluyen temas

variados de Física Teórica, Mecánica Clásica,

métodos de laboratorio de Física, Termodinámica

y fluidos, Óptica, Métodos Matemáticos, temas de

Física Moderna tales como el teorema del virial,

estudios sobre el aprendizaje de los alumnos sobre

Mecánica Cuántica y la integral de camino de la

evolución del paquete de ondas del oscilador

amortiguado, Física de Altas Energías,

computadoras cuánticas, Relatividad General y

Gravitación, también investigación educativa en

Mecánica Clásica, Termodinámica y fluidos.

Quiero agradecer a los autores y al equipo

editorial, que hizo posible la edición de mayo, con

lo que la confianza en LAJPE está creciendo.

También estamos agradecidos con EBSCO

Publishing porque han ofrecido incluir a LAJPE en

sus bases de datos. Uno de nuestros principales

objetivos es poner los conocimientos sobre

Enseñanza de la Física y temas relacionados a

disposición del mundo entero, de forma tal que

vamos a aplicar a más bases científicas de datos

gratuitas. En este punto, se requerirán más citas de

LAJPE.

LAJPE está plenamente comprometida a

innovar constantemente la enseñanza de la Física y

poco a poco está consiguiendo una posición de

liderazgo en América Latina.

Estamos muy agradecidos por la presencia de

nuestra revista en la comunidad escolar, porque está

creciendo con calidad. En la actualidad hemos

recibido la colaboración de catorce países: Argelia,

Argentina, Brasil, China, Colombia, Cuba, Jordania,

India, México, Nigeria, España, Turquía, EE.UU. y

Venezuela. Como tal, la revista, evidentemente, ha

hecho bien muchas cosas, pero podemos hacerlas

mejor, así que todas las sugerencias son bien

recibidas. La revista tiene un tiempo de respuesta

más o menos reducido, y los comentarios suelen ser

de alta calidad.

Por otra parte, para el próximo mes de

septiembre vamos a tener una nueva página web en

www.lajpe.org. Entre las mejoras que habrá, LAJPE

tendrá una suscripción en línea a la revista, enlaces a

los resúmenes de los artículos y materiales

complementarios, también se podrá acceder a las

estadísticas del sitio web.

Es un honor ser el editor de esta prestigiosa

revista, muchas gracias por su apoyo. Espero ser

capaz de continuar la tarea de divulgación de

trabajos influyentes en Enseñanza de la Física,

abriendo la puerta un poco más a nuevas

perspectivas.

César Mora

Editor en jefe

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 260 http://www.journal.lapen.org.mx

The Virial Theorem and its applications in the teaching of Modern Physics

Celso L. Ladera, Eduardo Alomá y Pilar León Departamento de Física, Universidad Simón Bolívar, Apdo. 89000, Caracas 1086, Venezuela. E-mail: [email protected] (Received 18 February 2010; accepted 18 May 2010)

Abstract The Virial Theorem is receiving scarce attention in the teaching of classical mechanics, and intermediate mechanics and in general physics courses. In this work we present a proposal for including this theorem in the contents of Gravitation or Kinetic Theory of Gases in general physics courses, and we illustrate the importance of the theorem with a sample set of applications in mechanics, introductory quantum mechanics, thermodynamics and astrophysics. Two relevant cases, the applications of the theorem to the presence of the so-called dark matter in the Universe, and to the study of the stability condition of the driven inverted pendulum are presented. Keywords: Virial Theorem, Teaching of Classical Mechanics, Dark Matter, Inverted Pendulum.

Resumen El Teorema del Virial está recibiendo escasa atención en la enseñanza de la física general, de la mecánica intermedia y de la mecánica clásica. Este trabajo presenta una propuesta para la enseñanza de este teorema en el estudio de la Gravitación o en la Teoría Cinética de Gases a nivel de física general universitaria, y se demuestra su importancia con aplicaciones en mecánica, mecánica cuántica, termodinámica y astrofísica. Como casos importantes se presenta la aplicación de este teorema a la existencia de la llamada materia oscura en el Universo y al estudio de la condición de estabilidad del péndulo invertido e impulsado por una fuerza externa. Palabras Claves: Teorema del Virial, Enseñanza de la Mecánica Clásica, Materia Oscura, Péndulo Invertido. PACS: 01.40.J, 01.55+b, 45.20.D- ISSN 1870-9095

I. INTRODUCTION The Virial Theorem of classical mechanics has been successfully applied in the last century to a number of relevant physics problems, mainly in astrophysics, cosmology, molecular physics and quantum mechanics and in statistical mechanics. In spite of its remarkable usefulness, numerous applications, simplicity, and importance, this theorem is not usually presented in physics courses for scientists and engineers, or it is considered as an optional topic [1] or not even mentioned at all in a good number of mechanics textbooks [2, 3, 4, 5]. A quick survey recently conducted among 12 physics lecturers showed that this theorem is rarely mentioned, and although considered very relevant by a few of them, almost all held the opinion that treating other topics of classical mechanics leave no room for the theorem. Interestingly enough the Virial Theorem was already included, as an advanced topic, in the celebrated Berkeley University Course textbook of Mechanics [6] written by C. Kittel et al. and published back in 1964, and written for first-year physics undergraduates. Indeed, the proof and

applications of the theorem lie well within the realm of knowledge accessible to physics students taking courses of Modern Physics, usually after a formal course of newtonian mechanics, or just in parallel with an intermediate course of classical mechanics at the undergraduate second year, or just after such course. In the present work we propose the explicit inclusion of the Virial Theorem in the contents of Introductory Mechanics and Modern Physics. Two opportunities for applying the theorem are, for instance, the hypothesis of the presence of dark matter in the Universe, and the very important problem of finding the temperature of the interior of the Sun. From our experience, we think that both lecturers and students have to do a serious effort to provide accessible explanations for these cosmological and astrophysical subjects. On the contrary, what the students are able to grasp from the usual rhetoric presentation of the dark matter hypothesis -without resorting to the Virial Theorem- is far from being acceptable, that is the subject becomes truly dark for the students. This paper is organized as follow. We first introduce the Virial Theorem, and then present its classical proof and

Celso L. Ladera, Eduardo Alomá y Pilar León

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 261 http://www.journal.lapen.org.mx

a proposal for its teaching in physics basic courses. After that we present some applications of the theorem in quantum mechanics and thermodynamics. Finally we show the application of the theorem to the presence of dark matter and to the study of the stability condition for an inverted pendulum. II. THE THEOREM The Virial Theorem of R. E. Clausius [7] owes its name to the word “vires”, the Latin for force, and in fact it is an easy theorem to interpret; its mathematical proof being too rather easy to follow. In spite of not being a mechanics principle the theorem and its applications ranges from the quantum world to the largest and more massive objects of the Universe, and have attracted considerable attention in the last 50 years. The theorem refers to a system of interacting particles whose well-defined time-average kinetic energy <T> we are going to obtain. Both the position ri and the velocities vi of the interacting particles are assumed to be bound over long time (for instance, you are not expected to apply the theorem to a batted base-ball “flying” away from the stadium and escaping from Earth). With such bounding assumptions we are certain to get the classical time-average value for the potential energy <V> of a system of particles if we are able to assess its classical mean kinetic energy <T>. Clausius assigned the name virial to the quantity denoted C and defined by:

C ii

i rP ⋅= ∑ , (1)

i.e., the sum of the scalar product of each particle momentum Pi (t) by its position ri(t). In its most frequently quoted form, the theorem of Clausius simply states that for the system of interacting bound particles we can always write:

2 VT −= . (2) The latter expression in fact corresponds to a potential proportional to 1/r; which then implies that the theorem can be applied to very important gravitationally bound systems, such as the system of stars in a spiral galaxy, to a cluster of galaxies or even to a globular cluster. This theorem holds in a more general case for a system of particles interacting with a potential of the form V ∝ 1/rα, in which case its expression becomes:

2 VT α−= . (3) A. Proposal of teaching in General Physics Many texts of introductory classic mechanics do not usually make reference at all to the Virial Theorem, or

simply do it by introducing a scalar function without relating it to some previously known physical phenomenon. But we know that for truly significant learning it is important that the teaching process keeps some relation with knowledge already acquired by the student [8]. Consequent with this assertion, our pedagogical proposal is to associate the scalar function from the Virial Theorem to conceptual and mathematical physics of bodies moving under central forces, like in Gravitation, given that this scalar function is related to the radial translation of bodies.

If we consider a particle of mass m and velocity v that moves under the action of a central force F of the type:

F = -(γ Mm/r2) r , (4)

where M >> m is the mass of the object that generates the interaction. The lineal momentum of the mass m is:

P = mv, v= vθ θ + vr r , (5) where θ and r are unit vectors in polar coordinates. We can now define two quantities: a vector quantity L=r × P the well-known angular momentum of Newtonian mechanics, and a scalar quantity A= rP ⋅ .We can also take the temporal derivative of both quantities to study the evolution of the system. For the first quantity, L, it is known that for a central force parallel to r, L = 0, that is, the angular momentum is conserved. On the other hand, taking the first derivative of A, we obtain:

=A m rv ⋅ +m rv ⋅ , (6a) = m rv ⋅ +mv2, (6b)

= rF ⋅ +mv2, (6c) where mv2=2T, T being the kinetic energy of the particle.

If the force is conservative then F=rV

∂∂

− r ,V being the

gravitational potential energy of the system given by V=

rmMγ

− .

Replacing Eq. (4) into (6c) we get:

=A -V+2T . (7) As the angular momentum is conserved, then L = mrv is a constant, and r and v are values bound in time. Taking the temporary average of (7):

ττ

τ0

0

AAdtdtdA1A −

== ∫ ,

we get that 0A → for τ >> ( A-A0 ). This implies that:

Celso L. Ladera, Eduardo Alomá y Pilar León

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 262 http://www.journal.lapen.org.mx

=A - V +2 0T = =⇒ V -2 T . (8)

This equation is the relationship between the average kinetic energy and the average potential energy or virial (the force components are given by the derivatives of the potential energy V) of the particle under the action of a central force (and α=1 in Eq. 3).

In this way we can study the behaviour of a particle of mass m that moves under the action of a central force, considering two aspects: the rotational movement related to the angular momentum, and the traslational movement related to the virial. In the first case there is a constant of motion: 0=L . A result representing the law of conservation of L. In the second case, although 0A = is

not a conservation theorem, it could be considered like an alternative way to the study of the adiabatic invariance [9] that will lead us to establish a statistical relationship between the kinetic energy average and the potential energy average of the particle. III. APPLICATIONS In this section we present a set of applications of the Virial Theorem. We would like to emphasize that the set of applications presented here is far from being exhaustive and the reader can find a lot more in physics journals [10, 11, 12, 13, 14, 15]. Starting with the important case of the determination of the temperature of the interior of a star, that is in fact the first application in the advanced topic of the Mechanics Physics Course of Berkeley University [6]. We will also consider below the very important case of the cosmological hypothesis known as the Dark Matter and a few other applications in quantum mechanics and mechanics. A. Temperature of the interior of a star Finding the temperature at the surface of the Sun is a standard example presented in all Modern Physics courses as an application of Planck Quantum Theory of Radiation. Less known is the calculation of the temperature of the interior of a star, a case that is best and most effectively treated using the Virial Theorem [6]. Assuming that a star is a sphere of radius R, and mass Ms, its total gravitational potential energy V is found using a well-known relation of general physics courses.

V= -R5

GM3 2s . (9)

With the safe assumption that a single atom moving in the interior of the star has a mean kinetic energy <Ke> given by energy equipartition by

Se Tk23K = , (10)

where <Ts> is the mean temperature over the interior of the star, and k is Boltzmann Constant. If N is the total number of atoms in the star then the application of the Virial Theorem gives

2Tk3

NR10

GM32V S2s =−≈− , (11)

therefore

kR5mGM

kNR5GMT s

2s

S =≈ , (12)

where m = Ms/N is the average mass of an atom of the star. Typical stars such as our Sun contain mostly hydrogen atoms (∼61 %) and helium atoms (38 %), and we may therefore approximate the atom mass m = 2.2x10 -27 [Kg]. The mass of the Sun is about M =2x1030 [Kg] and its radius may be taken as 70 million kilometers. Introducing these constants in equation (12) we get an estimate of our Sun interior temperature (107 [K]) which coincides with estimates using other physics phenomena that take place in the star (e.g. nucleo synthesis). As Kittel et al. comment [6] this is a remarkable result given the simple calculation required, and the small amount of experimental data demanded, all of which is readily available from measurements in our own planet: not necessary to get close to the Sun! B. Quantum Mechanics The Virial Theorem is frequently applied in problems of quantum mechanics in textbooks which are widely used. It is also of standard use in molecular physics. As an illustration we consider below the rather simple case of finding the average size of the radial eigenfunctions of the hydrogen atom [16, 17, 18]. Other not so simple, and more useful, cases of applications can be found in references [10, 11, 17]. For any eigenfunction ϕ − of eigenenergy E − of the hydrogen atom the quantum expectation value <ϕHϕ> of the Hamiltonian is equal to the sum of the quantum expectation values <T>ϕ , <V>ϕ :

<H>ϕ = E = <T>ϕ + <V>ϕ , = <P2/2m> − <e2 /r>. (13)

Now the quantized version of the Virial Theorem can be shown to be [10, 17]:

<T>ϕ = -1/2 <V>ϕ , (14) where the reader should not take quantum expectations values as classical averages. Replacing above we get:

Celso L. Ladera, Eduardo Alomá y Pilar León

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 263 http://www.journal.lapen.org.mx

E = < V >/2 = − < e2 /r >. (15)

Moreover, if the atom is in the nth eigenstate its energy is well-known [17] to be

En = -2mπ2e4/ (n2 h2) = E. (16) The last two equations finally give the sought result for the average radius of the atom

<1/ r >n= 1/ (aon2), (17) where a0 is the radius of the atom of Bohr’s model.

Note that, although <1/r> differ from 1/<r> the two averages are of the same order of magnitude and thus we finally get:

< rn > ≈ n2 ao , (18) this is the radial distance where the probability of finding the electron in the hydrogen atom reaches its maximum value. Other very important cases of application of Virial Theorem in quantum mechanics are the proof of the origin of the chemical bond in a molecule and the analysis of canonical examples of quantum mechanics such as the Harmonic Oscillator [17]. C. Kinetic theory of gases If we consider a gas confined into a recipient, the interactions between molecules of the gas will be bound by the walls of the recipient. Let us evaluate the terms in the r.h.s. of Eq (6c).

Taking a force differential on the gas molecules, defined by the pressure P exerted by the wall of the recipient in a differential area dA we may write

dF=PdA n , (19)

so the total force will be:

F ∫= dAP n . (20)

The term rF ⋅ , Eq (6c) is, together with (20):

rF ⋅ = P ∫ ⋅r dA n , (21)

and applying the well-known Gauss theorem of vector calculus we get:

∫ ⋅r dA n = ( )∫ ⋅∇ r dv= 3v (22)

where v is the volume span by the gas.

The remaining term of (6c), that is mv2, is twice the value of kinetic energy. Again from the theorem of energy equipartition the average kinetic energy of an ideal gas is given by Eq. (10). If we now take 0A → in (6c), we get

rF ⋅ + 2mv = 0. Replacing from Eqs. (21), (22), (10)

into this equation and eliminating the common factor 3/2, we arrive to the well-known equation of the ideal gases:

VP =NkT, (23)

where N is the number of mol and P the macroscopic pressure average. IV. THE DARK MATTER HYPOTHESIS A cluster of galaxies is a huge physical system consisting of galaxies that are gravitationally bound. Thousands of galaxy clusters are known to exist and have been catalogued since 1950, their typical size and solar mass being 1-5 Mpc and 2-9 × 1014 M respectively. The spiral galaxies themselves are bound systems too, gravitationally stable and formed by stars and interstellar gas. The main portion of luminous and observable matter in a galaxy is gathered in a thin disk where stars and gas rotate, in almost circular orbits, about the galactic centre. Let M be the total mass of the galaxy (assumed to be concentrated at the centre), and let v and R the speed and radius of the galaxy, respectively. Consider a star of mass m orbiting at the periphery of the galaxy, under the gravitational attraction of the galactic core and in dynamic equilibrium. The gravitational force on it is of the same magnitude as its centripetal force [19]:

2

2

RGMm

Rmv

= or

2

,RvMG

=

(24)

here M is in fact the total mass inside the orbit of the star that produces the interaction. Therefore:

.R

GMv =

(25)

Since the evolution of the Universe is discussed in cosmology in terms of mass density, it is useful to relate the velocity of the star with the mass density ( )Rρ , for a given mass distribution M(R), in Eq. [24]:

.constGR

)R(GMv =∝=

(26)

On the other hand the radial density distribution is known to be

Celso L. Ladera, Eduardo Alomá y Pilar León

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 264 http://www.journal.lapen.org.mx

.R)R( 2−∝ρ (27)

If we apply the Virial Theorem to stars, galaxy clusters or any other gravitationally bound object, we may write:

.V21T −=

(28)

In order to obtain a relationship between the star speed and its mass, we consider the galaxy as a spherical distribution of total mass M, radius R and average density ρ . Then the potential energy assumes the well-know form [15],

23 .5

GMVR

= −

(29)

For N stars of mass m in the galaxy, the total kinetic energy is:

∑=

=N

1i

2ii .vm

21T

(30)

Applying the Virial Theorem to each star we obtain:

2

1,

N

ii

m VvN N=

− =∑

(31)

where the speed includes the radial, zenithal and azimuthal speed components [20], therefore we may write for the speed average:

2v = 2 2 2 23 ,r rv v v vθ ϕ+ + =

(32)

and since we are dealing with statistical averages, we may then write:

2 2 2

13 3 ,

1 N

i i ri

v vvN

σ=

= = =∑

(33)

where σ is the standard deviation. Replacing now from Eqs. (29) and (30) into the expression (28) for the virial:

22 33 ,

5rGMmNR

σ− ≈ −

(34)

and taking M=N m we finally get an expression for the speed dispersion:

.

R5GMvirial2

r ≈σ

(35)

This equation is in fact a relationship between the galaxy speed dispersion and its mass. Now using the Doppler shift of the spectral lines of the radiation of the interstellar gas in the galaxy, it is possible to accurately assess the rotation speed of different regions of the galaxy. Note that such spectrum could be plotted on top of the continuous spectrum given by the distribution of temperatures in the galaxy. If one compares the results obtained for the galaxy dispersion speed using the electro-magnetic spectrum analysis with the one obtained using the Virial Theorem (34), one gets that for the same mass value M the speed given by the first procedure is much larger than the one given by the second one. F. Zwicky [21] was the pioneer of applying the Virial Theorem to cluster of galaxies using a similar analysis to the preceding one. He found that there was about 400 times more mass than the expected one given by the spectrum analysis. He correctly concluded that there must be some extra non-luminous matter in the cluster, that extra mass being responsible for the larger observed speeds. Note that the mass of a galaxy can also be estimated from its luminosity and its surface temperature [20]. Knowing the galaxy size R, it is possible to determine the

gravitational acceleration 2R

GMg = at the galaxy surface.

From this, the mean density of the galaxy can be found and be compared with the critical density of the Universe given by

203 ,

8cH

π≡

(36)

where Ho is Hubble Constant, an equation derived from Friedmann Equations [20]. Again, the density obtained using the Virial Theorem is larger than the critical density and therefore we need the Dark Matter Hypothesis or any other hypothesis to account for an explanation of such difference. V. A SPECIAL CASE: THE INVERTED PEN-DULUM A few years ago Mata, et al. [22], found the average of the fast time dependent Hamiltonian of a driven inverted pendulum of length l with an oscillatory pivot, point mass m, as shown in Figure 1.

From the geometry shown in Figure 1 we may write

r = R + l, (37)

R = z (t) k , (38)

l = l sinθ j + l cosθ k . (39) The pendulum moves in the y-z plane, its velocity v being:

Celso L. Ladera, Eduardo Alomá y Pilar León

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 265 http://www.journal.lapen.org.mx

v= lθ cosθ j + ( θ lz − sinθ ) k . (40)

FIGURE 1. An inverted pendulum of length l with oscillating pivot P of vector R. The expressions for the kinetic and potential energy are, respectively:

T = 2m [( zl

−θ sin θ )2 + 2z cos2 θ ], (41)

V = mg (z + l cos θ ) , (42)

while their averages are:

T = 2m

[l2 2θ - 2l θθ sinz + 2z ], (43)

( )θcoslzmgV += . (44)

For small oscillations, the potential V∝ 1/rα is of the form V ∝ 1/r2 . If we set α = -2 in the virial Eq. (3) and use the

the small angle approximations: 21cos2θθ −≈ and

θθ ≈sin , for small pendulum oscillations in (43) and (44) we obtain:

222

2 l2

1gl2z θθ

−= . (45)

For the position θ =0 the gravitational potential is a maximum, and the stable point condition, represented by 2z , in Eq. (45), becomes:

2z = 2 gl. (46)

This result is consistent with the one obtained by Mata et al. when the pivot motion is sinusoidal. These authors found a stable point stable when:

2z > gl. (47)

It is clear that a good result can be obtained without using the Hamiltonian or the Lagrangian or the system. One can use instead simple concepts introduced in general physics plus the Virial Theorem (from the standpoint of the theorem: the maximum average potential that reaches the system is equal to the average kinetic energy). VI. CONCLUSIONS In this work we have emphasized the importance of the Virial Theorem and its practical applications in classical mechanics, quantum mechanics and thermodynamics. This theorem is an important theoretical referent for the study of open problems in modern physics, as in the case of the presence of dark matter in the Universe. For such reasons, we included in this work, as a pedagogical proposal, the application of the Virial Theorem in systems moving under central forces, and we also showed the specific case of the inverted pendulum where we can study its behaviour with basic concepts like energy, velocity, position and with the Virial Theorem, opening the possibility that this theorem can be taught in general physics courses. We must emphasize that the teaching proposal presented in this work has not been tested with students. This could be the subject of future research work on the advantages and limitations that may arise in the implementation of this proposal. REFERENCES [1] Marion, J. and Thornton, S., Classical Dynamics of Particles and Systems, 4th Ed. (Saunders, New York, 1990). [2] Desloge, E., Classical Mechanics. (Wiley, New York, 1982). [3] Symon, K., Mechanics, 2nd Ed., (Addison-Wesley, New York, 1960). [4] Smith, P. and Smith, R., Mechanics, 2nd Edition. (Wiley, New York, 1990). [5] Knudsen, J. and Hojrth, P., Elements of Newtonian Mechanics, 2nd Ed. (Springer, Berlin, 1995). [6] Kittel, C., Knight, W. and Rudermann, M., Mechanics, Berkeley Physics Course 1, (McGraw-Hill, New York, 1964). [7] Clausius, R. On a mechanical theorem applicable to heat. Philosophical Magazine 40, 122-127 (1870). [8] Novak, J. D. and Gowin, D. B., Learning How to Learn, (Cambridge University Press, New York, 1984). [9] Fernandez-Pineda, C., Adiabatic invariance of phase volume in some easy cases, Am. J. Phys 50, 262-267 (1982). [10] Killingbeck, J., Methods of Proofs and Applications of the Virial Theorem in Classical and Quantum Mechanics, Am. J. Phys. 38, 590-611(1970).

Celso L. Ladera, Eduardo Alomá y Pilar León

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 266 http://www.journal.lapen.org.mx

[11] Gallinar, J., The Virial Theorem and Singular Potentials, Am. J. Phys. 39, 836-847. (1971). [12] Dongpei, Z., Proof of the quantum Virial Theorem, Am. J. Phys 54, 267-271. (1986). [13] Kobe, D., Virial Theorem in quantum statistical mechanics for a charged particle in an electro-magnetic field, Am. J. Phys. 63, 174-196 (1995). [14] Carati, A., Discrete matter, far fields and dark matter. Eur. Phys. Letters 83, 59002-59010, (2008). [15] Wu-Zhen, Yu, Mass of open cluster NGC 7789. Chinese Phys. Lett. 26, 029701-029726 (2009). [16] Griffiths, D., Introduction to Quantum Mechanics (Prentice Hall, New York, 1997). [17] Cohen-Tannoudji, C, Laloe, F. and Diu, B., Quantum Mechanics, Vols. 1 & 2. (Wiley, New York. 1970).

[18] Shankar, R., Principles of Quantum Mechanic. (Springer, New York, 1980). [19] Rota, F., Extensiones del modelo estándar del Universo primitivo: nucleosíntesis primordial, axiones y materia oscura. Tesis Doctoral, Universidad Autónoma de Barcelona. (1992). [20] Ping, H., astro-ph.CO [arXiv:0903.4979] (2009). [21] Zwicky, F., On the mass of Nebulae, Helv. Phys. 6, 110-127 (1937). [22] Mata, G. and Pestana, E., Effective Hamiltonian and dynamic stability of the inverted pendulum. Eur. J. Phys. 25, 717-721 (2004).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 267 http://www.journal.lapen.org.mx

An alternative proof of the 𝑔𝑔-lemma of finite-time thermodynamics

J. González-Ayala, F. J. López-Ramos, L. A. Arias-Hernández, F. Angulo-Brown Escuela Superior de Física y Matemáticas, Instituto Politécnico Nacional, Unidad Profesional “Adolfo López Mateos”, Zacatenco, Delegación Gustavo A. Madero, Edificio 9, CP 07738, México D. F. E-mail: [email protected] (Received 27 March 2010; accepted 9 May 2010)

Abstract In this paper we present an alternative proof of the so-named 𝑔𝑔-lemma of finite-time thermodynamics. It is shown that 𝑔𝑔-lemma does not impose any restriction on the heat transfer laws or reflect any kind of criterion on whether a heat transfer law proposal could be valid in nature or not, however, the possibilities to work with new heat exchange models can be reached since combinations of heat transfer laws may be treated by using the invariant form of the 𝑔𝑔 function. Keywords: 𝑔𝑔-lemma, Curzon-Ahlborn engine, heat transfer law.

Resumen En este artículo se presenta una demostración alternativa del llamado lema 𝑔𝑔 de la termodinámica de tiempos finitos. Se muestra que el lema 𝑔𝑔 no impone restricción alguna sobre las funciones de transferencia de calor o que represente algún criterio para validar o no funciones de transferencia de calor para ser consideradas como válidas en la naturaleza, sin embargo, utilizando la forma invariante de la función 𝑔𝑔(𝜂𝜂) (que no depende las funciones de transferencia de calor entre los acoplamientos) es posible trabajar con nuevos modelos de intercambio de calor. Palabras clave: Lema 𝑔𝑔, máquina de Curzon-Ahlborn, leyes de transferencia de calor. PACS: 44.60.+K; 44.90.+C ISSN 1870-9095

I. INTRODUCTION Classical equilibrium thermodynamics (CET) has played a very important role in the analysis and design of thermal engines [1]. The main role of CET within the study of thermal engines has consisted in providing superior or inferior bounds for process variables such as efficiency, work, heat and others. However, the CET bounds are only achievable in the reversible limit and usually they are far away from typical real values of the corresponding heat engine characteristics. Since around three decades finite-time thermodynamics (FTT) has been developed [2, 3, 4, 5, 6, 7, 8, 9]. One of the main purposes of FTT has been to formulate heat engine models under more realistic conditions than those of CET. By means of FTT heat engine models a reasonable good agreement between theoretical values of process variables and experimental data has been obtained [10, 11, 12, 13, 14, 15]. Practically all FTT models are elaborated within the context of optimization criteria, such as minimization of entropy generation [16], maximization of power output [10], optimization of profits [17] and maximization of a kind of ecological function [18]. In 1975, Curzon and Ahlborn [10] introduced a Carnot-like thermal engine in which

there is no thermal equilibrium between the working fluid and the thermal reservoirs at the isothermal branches of the cycle. These authors demonstrated that such an engine produces nonzero power (contrary to the Carnot reversible engine), and that the power output can be maximized by varying the temperatures of the cycle's isothermal branches. The efficiency under maximum power conditions is [10],

𝜂𝜂𝐶𝐶𝐶𝐶 = 1 −𝑇𝑇2𝑇𝑇1

, (1)

where 𝑇𝑇1 and 𝑇𝑇2 are the temperatures of the hot and cold thermal reservoirs, respectively. Eq. (1) was obtained assuming that heat flows between thermal reservoirs and working fluid obey a Newton's cooling law, so this result depends on the type of heat transfer law. If a different one is used, Eq. (1) is not obtained [19, 20]. In 1991, an ecological optimization criterion for FTT-thermal cycles was proposed [18]. This criterion consists of the maximization of a function 𝐸𝐸 that represents a good trade off between high power output and low entropy production. This function is given by

J. González-Ayala, F. J. López-Ramos, L. A. Arias-Hernández, F. Angulo-Brown

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 268 http://www.journal.lapen.org.mx

𝐸𝐸 = 𝑃𝑃 − 𝑇𝑇2𝜎𝜎, (2) where 𝑃𝑃 is the power output of the cycle, 𝜎𝜎 the total entropy production (system plus surroundings) per cycle, and 𝑇𝑇2 the cold reservoir temperature. The FTT-regime under maximum-𝐸𝐸 function leads to the following properties [18, 21]: the semisum property and the 75-25 corollary; that is, the maximum ecological efficiency is,

𝜂𝜂𝐸𝐸 ≈12

(𝜂𝜂𝐶𝐶 + 𝜂𝜂𝐶𝐶𝐶𝐶), (3) where 𝜂𝜂𝐶𝐶 is the Carnot efficiency and 𝜂𝜂𝐶𝐶𝐶𝐶 is the maximum power efficiency. On the other hand, when 𝐸𝐸 function is maximized, the CA-cycle has a configuration that produces around 75% of the maximum power and only about 25% of the entropy produced under the maximum power regime [18, 21]. In ref. [21] it was showed that the semisum formula (Eq. (3)) and the 75-25 corollary are general properties of CA-endoreversible cycles, independent of the heat transfer laws used in a CA-engine model. These demonstrations were made by means of the so-called 𝑔𝑔(𝜂𝜂) function (𝑔𝑔-lemma) [21]. In the present article we show an alternative demonstration of the so called 𝑔𝑔-lemma and we discuss the possibility that through 𝑔𝑔-lemma new heat transfer laws can be proposed. The article is organized as follows: In Sect. II, we present a resume of the 𝑔𝑔-lemma; in Sect. III, we show an alternative proof of this lemma; and we present some examples of unusual heat transfer “laws” that satisfy the 𝑔𝑔-lemma; in Sect. IV we briefly comment the lack of requirements on heat transfer laws necessary to comply 𝑔𝑔-lemma and finally some conclusions are given.

II. THE 𝒈𝒈 FUNCTION AND 𝒈𝒈-LEMMA For CA cycles, it was shown in Ref. [11] that the power output P and the universe’s entropy production 𝜎𝜎 are linked by [𝑃𝑃𝑁𝑁(𝑥𝑥,𝑦𝑦)/𝜎𝜎𝑁𝑁(𝑥𝑥,𝑦𝑦)] = 𝑔𝑔(𝑥𝑥,𝑦𝑦) = [𝑃𝑃𝐷𝐷𝑃𝑃(𝑥𝑥,𝑦𝑦)/𝜎𝜎𝐷𝐷𝑃𝑃𝑥𝑥,𝑦𝑦, where 𝑔𝑔𝑥𝑥,𝑦𝑦=𝑇𝑇1𝑇𝑇2𝑇𝑇1−𝑇𝑇2−𝑥𝑥−𝑦𝑦 with 𝑥𝑥 = 𝑇𝑇1 − 𝑇𝑇1𝑤𝑤 and 𝑦𝑦 = 𝑇𝑇2𝑤𝑤 − 𝑇𝑇2 (see Figure 1), and the subscripts 𝑁𝑁 and 𝐷𝐷𝑃𝑃 refer to Newton’s and Dulong-Petit’s laws of cooling respectively. These expressions were derived in the context of a CA treatment using the variables 𝑥𝑥 and 𝑦𝑦. However, when one adopts a treatment based on only one variable [3], namely the efficiency 𝜂𝜂, the expression for 𝑔𝑔(𝑥𝑥,𝑦𝑦) becomes [18]

𝑔𝑔(𝜂𝜂) = 𝑇𝑇1𝑇𝑇2𝜂𝜂𝑇𝑇1−𝑇𝑇2−𝜂𝜂𝑇𝑇1

= 𝜂𝜂𝜂𝜂𝑐𝑐−𝜂𝜂

𝑇𝑇2. (4)

Thus, for the two heat transfer laws mentioned, we have

𝑃𝑃(𝜂𝜂) = 𝑔𝑔(𝜂𝜂)𝜎𝜎(𝜂𝜂), (5) besides, for instance, for heat transfer laws of the form,

𝑄𝑄1 = 𝛼𝛼(𝑇𝑇1𝑘𝑘−𝑇𝑇1𝑤𝑤

𝑘𝑘 )

and 𝑄𝑄2 = 𝛽𝛽(𝑇𝑇2𝑤𝑤

𝑘𝑘 −𝑇𝑇2𝑘𝑘), (6)

𝛼𝛼, 𝛽𝛽 being thermal conductances and 𝑘𝑘 = 1, 2, … ,𝑛𝑛 (for example, 𝑘𝑘 = 1 for Newton heat transfer law), the functions 𝑃𝑃(𝜂𝜂) and 𝜎𝜎(𝜂𝜂) are given by [21, 22]

𝑃𝑃(𝜂𝜂) = 𝛾𝛾𝜂𝜂 (1−𝜂𝜂)𝑘𝑘𝑇𝑇1𝑘𝑘−𝑇𝑇2

𝑘𝑘

𝛼𝛼𝛼𝛼+𝛽𝛽(1−𝜂𝜂)+ 𝛽𝛽

𝛼𝛼+𝛽𝛽(1−𝜂𝜂)𝑘𝑘, (7)

and

𝜎𝜎(𝜂𝜂) = 𝛾𝛾𝑇𝑇1𝑇𝑇2

[(1−𝜂𝜂)𝑇𝑇1−𝑇𝑇2](1−𝜂𝜂)𝑘𝑘𝑇𝑇1𝑘𝑘−𝑇𝑇2

𝑘𝑘𝛼𝛼

𝛼𝛼+𝛽𝛽(1−𝜂𝜂)+ 𝛽𝛽𝛼𝛼+𝛽𝛽(1−𝜂𝜂)𝑘𝑘

, (8)

with 𝛾𝛾 = 𝛼𝛼𝛽𝛽/(𝛼𝛼 + 𝛽𝛽). On the other hand, if the heat transfer laws at the couplings between the working fluid and heat reservoirs have the form

𝑄𝑄1 = 𝛼𝛼(𝑇𝑇1 − 𝑇𝑇1𝑤𝑤)𝑘𝑘 , and

𝑄𝑄2 = 𝛽𝛽(𝑇𝑇2𝑤𝑤 − 𝑇𝑇2)𝑘𝑘 , (9) with 𝑘𝑘 > 0 (for example, 𝑘𝑘 = 5/4 for the Dulong-Petit heat transfer law), functions 𝑃𝑃(𝜂𝜂) and 𝜎𝜎(𝜂𝜂) are given by [21, 22],

𝑃𝑃(𝜂𝜂) = 𝛼𝛼𝛽𝛽 11−𝜂𝜂

(1−𝜂𝜂)𝑇𝑇1−𝑇𝑇2

𝛼𝛼1𝑘𝑘 +𝛽𝛽

1𝑘𝑘 (1−𝜂𝜂)(𝑘𝑘−1) 𝑘𝑘⁄

𝑘𝑘, (10)

and

𝜎𝜎(𝜂𝜂) = 𝛼𝛼𝛽𝛽𝑇𝑇1𝑇𝑇2

(1−𝜂𝜂)𝑇𝑇1−𝑇𝑇21−𝜂𝜂

(1−𝜂𝜂)𝑇𝑇1−𝑇𝑇2

𝛼𝛼1𝑘𝑘 +𝛽𝛽

1𝑘𝑘 (1−𝜂𝜂)(𝑘𝑘−1) 𝑘𝑘⁄

𝑘𝑘

. (11)

It was demonstrated in Ref. [21] that the function 𝑔𝑔(𝜂𝜂) given by Eq. (4), which links power output with entropy production is independent of any heat transfer law used in an endoreversible CA cycle. Starting from Figure 1, we have that the universe entropy production per cycle is given by

𝜎𝜎 = 𝑄𝑄2𝑇𝑇2

+ 𝑄𝑄2𝑇𝑇2𝑤𝑤

− 𝑄𝑄1𝑇𝑇1𝑤𝑤

− 𝑄𝑄1𝑇𝑇1

> 0. (12)

By using the endoreversibility hypothesis [10], which is

𝑄𝑄2𝑇𝑇2𝑤𝑤

= 𝑄𝑄1𝑇𝑇1𝑤𝑤

, (13)

Eq. (12) reduces to

𝜎𝜎 = 𝑄𝑄2𝑇𝑇2− 𝑄𝑄1

𝑇𝑇1> 0. (14)

An alternative proof of the 𝑔𝑔-lemma of finite-time thermodynamics.

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 269 http://www.journal.lapen.org.mx

If we use the first law of thermodynamics, we get

𝜎𝜎 = 𝑄𝑄1−𝑃𝑃𝑇𝑇2

− 𝑄𝑄1𝑇𝑇1

= 𝑄𝑄1 1𝑇𝑇2− 1

𝑇𝑇1 − 𝑃𝑃

𝑇𝑇2, (15)

where 𝑃𝑃 is the work per cycle period (power output of one cycle). Multiplying Eq. (15) by 𝜂𝜂 we obtain

𝜂𝜂𝜎𝜎 = 𝜂𝜂𝑄𝑄1 1𝑇𝑇2− 1

𝑇𝑇1 − 𝜂𝜂𝑃𝑃

𝑇𝑇2, (16)

which becomes

𝑃𝑃(𝜂𝜂) = 𝑇𝑇1𝑇𝑇2𝜂𝜂(1−𝜂𝜂)𝑇𝑇1−𝑇𝑇2

𝜎𝜎(𝜂𝜂), (17)

or

𝑃𝑃(𝜂𝜂) = 𝜂𝜂𝜂𝜂𝑐𝑐−𝜂𝜂

𝑇𝑇2𝜎𝜎(𝜂𝜂). (18)

Thus it was determined that the 𝑔𝑔(𝜂𝜂) function is independent of the heat transfer law corresponding to 𝑄𝑄1 and 𝑄𝑄2, which along Eqs. (12-18) are not specified.

FIGURE 1. CA cycle.

III ALTERNATIVE PROOF OF THE 𝒈𝒈-LEMMA Let suppose two arbitrary “laws” (laws-like) of heat

𝑄𝑄1 = 𝛼𝛼𝑓𝑓1(𝑇𝑇1,𝑇𝑇1𝑤𝑤), 𝑄𝑄2 = 𝛽𝛽𝑓𝑓2(𝑇𝑇2,𝑇𝑇2𝑤𝑤), (19)

where 𝑇𝑇1 ≥ 𝑇𝑇1𝑤𝑤 ≥ 𝑇𝑇2𝑤𝑤 ≥ 𝑇𝑇2.

Endoreversible hypothesis (ERH) establishes that [10]:

𝑄𝑄1𝑇𝑇1𝑤𝑤

= 𝑄𝑄2𝑇𝑇2𝑤𝑤

. (20)

Because the internal part is a Carnot engine, then

𝜂𝜂 = 1 − 𝑇𝑇2𝑤𝑤𝑇𝑇1𝑤𝑤

. (21) Substituting Eqs. (19) in Eq. (20) we obtain:

𝛾𝛾 𝑇𝑇1𝑤𝑤𝑇𝑇2𝑤𝑤

𝑓𝑓2(𝑇𝑇2,𝑇𝑇2𝑤𝑤) = 𝑓𝑓1(𝑇𝑇1,𝑇𝑇1𝑤𝑤), (22) where 𝛾𝛾 = 𝛽𝛽

𝛼𝛼. Solving for 𝑇𝑇1𝑤𝑤

𝑇𝑇2𝑤𝑤, Eqs. (21) and (22) lead to

the following relation,

𝛾𝛾1−𝜂𝜂

𝑓𝑓2(𝑇𝑇2,𝑇𝑇2𝑤𝑤) = 𝑓𝑓1(𝑇𝑇1,𝑇𝑇1𝑤𝑤). (23) The power output 𝑃𝑃 and the entropy production per cycle 𝜎𝜎 are related to 𝑄𝑄1 and 𝑄𝑄2 as follows [10],

𝑃𝑃 = |𝑄𝑄1| − |𝑄𝑄2|, 𝜎𝜎 = −𝑄𝑄1𝑇𝑇1

+ 𝑄𝑄2𝑇𝑇2

, (24) thus, from Eq. (23), both of them are functions of 𝜂𝜂, 𝑃𝑃(𝜂𝜂) = 𝛼𝛼𝛾𝛾

1−𝜂𝜂− 𝛽𝛽 𝑓𝑓2(𝑇𝑇2,𝑇𝑇2𝑤𝑤) = 𝛽𝛽 𝜂𝜂

1−𝜂𝜂𝑓𝑓2(𝑇𝑇2,𝑇𝑇2𝑤𝑤), (25)

𝜎𝜎(𝜂𝜂) = − 𝛼𝛼𝛾𝛾

(1−𝜂𝜂)𝑇𝑇1+ 𝛽𝛽

𝑇𝑇2 𝑓𝑓2(𝑇𝑇2,𝑇𝑇2𝑤𝑤), (26)

and therefore, by rewriting Eq. (26)

𝜎𝜎(𝜂𝜂) = 𝛽𝛽 (1−𝜂𝜂)𝑇𝑇1−𝑇𝑇2(1−𝜂𝜂)𝑇𝑇1𝑇𝑇2

𝑓𝑓2(𝑇𝑇2,𝑇𝑇2𝑤𝑤), (27) finally, we arrive to the desired result obtained in [21] and [18],

𝑔𝑔(𝜂𝜂) = 𝑃𝑃(𝜂𝜂)𝜎𝜎(𝜂𝜂)

= 𝑇𝑇1𝑇𝑇2𝜂𝜂(1−𝜂𝜂)𝑇𝑇1−𝑇𝑇2

= 𝜂𝜂𝜂𝜂𝑐𝑐−𝜂𝜂

𝑇𝑇2. (28) Thus, the function 𝑔𝑔(𝜂𝜂) does not depend on the particular form of the functions 𝑓𝑓1(𝑇𝑇1,𝑇𝑇1𝑤𝑤) and 𝑓𝑓2(𝑇𝑇2,𝑇𝑇2𝑤𝑤). A. Examples

Below there are some examples of heat transfer laws-like different from the usual cases. Those heat transfer laws-like in each case permit that heat flows from the hot to the cold bodies. A.1 Example 1 Given the heat transport laws,

𝑄𝑄1 = 𝛼𝛼(𝑇𝑇1𝑘𝑘 − 𝑇𝑇1𝑤𝑤

𝑘𝑘), 𝑄𝑄2 = 𝛽𝛽(𝑇𝑇2𝑤𝑤 − 𝑇𝑇2)𝑚𝑚 . (29)

J. González-Ayala, F. J. López-Ramos, L. A. Arias-Hernández, F. Angulo-Brown

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 270 http://www.journal.lapen.org.mx

That is, different heat laws at upper and lower thermal couplings. Applying directly the Eqs. (25) and (27) from the last proof, 𝑃𝑃(𝜂𝜂) = 𝛽𝛽 𝜂𝜂

1−𝜂𝜂(𝑇𝑇2𝑤𝑤 − 𝑇𝑇2)𝑚𝑚 , (30)

𝜎𝜎(𝜂𝜂) = 𝛽𝛽 (1−𝜂𝜂)𝑇𝑇1−𝑇𝑇2

(1−𝜂𝜂)𝑇𝑇1𝑇𝑇2 (𝑇𝑇2𝑤𝑤 − 𝑇𝑇2)𝑚𝑚 , (31)

and then,

𝑔𝑔(𝜂𝜂) =𝑃𝑃(𝜂𝜂)𝜎𝜎(𝜂𝜂) =

𝑇𝑇1𝑇𝑇2𝜂𝜂(1 − 𝜂𝜂)𝑇𝑇1−𝑇𝑇2

=𝜂𝜂

𝜂𝜂𝑐𝑐 − 𝜂𝜂𝑇𝑇2.

That is the 𝑔𝑔(𝜂𝜂) function, so the 𝑔𝑔-lemma is fulfilled. One might consider from Eqs. (30) and (31) that the value of 𝑇𝑇1𝑤𝑤 is free to be chosen in the (𝑇𝑇2,𝑇𝑇1) interval (see Figure 1). From the ERH we have,

𝛾𝛾 𝑇𝑇1𝑤𝑤𝑇𝑇2𝑤𝑤

(𝑇𝑇2𝑤𝑤 − 𝑇𝑇2)𝑚𝑚 = (𝑇𝑇1𝑘𝑘 − 𝑇𝑇1𝑤𝑤

𝑘𝑘) , (32) the solutions to this equation are plotted in Figure 2.

FIGURE 2. The solution to the ERH and 𝜂𝜂 = 1 − 𝑇𝑇2𝑤𝑤 𝑇𝑇1𝑤𝑤⁄ are plotted for the values of 𝜂𝜂 = 0.35, 𝑇𝑇1 = 400, 𝑇𝑇2 = 200, 𝑘𝑘 = 1.7, 𝑚𝑚 = 2 and 𝛾𝛾 = 1. Note that some values of 𝑇𝑇1𝑤𝑤 and 𝑇𝑇2𝑤𝑤 that solve ERH are such that 𝑇𝑇1𝑤𝑤 < 𝑇𝑇2𝑤𝑤 or 𝑇𝑇1 < 𝑇𝑇1𝑤𝑤 or 𝑇𝑇2𝑤𝑤 < 𝑇𝑇2 which are not desired, only by restricting 𝑇𝑇1𝑤𝑤 and 𝑇𝑇2𝑤𝑤 to comply that the internal efficiency is a Carnot efficiency, one physical result is obtained. The shaded triangle in Figure 2 is actually the physical region where 𝑇𝑇1𝑤𝑤 and 𝑇𝑇2𝑤𝑤 can take values, the point of the curve that cross the right-bottom corner of the triangle correspond to the case where the CA engine is a Carnot engine (𝜂𝜂 = 1 − 𝑇𝑇2 𝑇𝑇1⁄ ) and points that cross the hypotenuse of the triangle correspond to zero

efficiency. Any laws-like proposed in the examples of this work have a similar behavior. The reason to have only one valid solution for 𝑇𝑇1𝑤𝑤 and 𝑇𝑇2𝑤𝑤 in the physical region might not be answered by just considering first and second laws of thermodynamics (𝑔𝑔-lemma is a compactification of both laws), but another criteria must be applied to answer this question, this is not discussed in the present work. A.2 Example 2. Let

𝑄𝑄1 = 𝛼𝛼𝛼𝛼𝑛𝑛 𝑇𝑇1𝑇𝑇1𝑤𝑤

and 𝑄𝑄2 = 𝛽𝛽𝛼𝛼𝑛𝑛 𝑇𝑇2𝑤𝑤𝑇𝑇2

, (33) be the heat transfer laws-like.

By using the ERH:

𝑄𝑄1𝑇𝑇1𝑤𝑤

= 𝑄𝑄2𝑇𝑇2𝑤𝑤

⇒ 𝛾𝛾 𝑇𝑇1𝑤𝑤𝑇𝑇2𝑤𝑤 𝛼𝛼𝑛𝑛 𝑇𝑇2𝑤𝑤

𝑇𝑇2= 𝛼𝛼𝑛𝑛 𝑇𝑇1

𝑇𝑇1𝑤𝑤, (34)

and

𝜂𝜂 = 1 − 𝑇𝑇2𝑤𝑤𝑇𝑇1𝑤𝑤

, (21) and then replacing Eq. (21) into Eq. (34) yields to,

𝛾𝛾

1−𝜂𝜂𝛼𝛼𝑛𝑛 𝑇𝑇2𝑤𝑤

𝑇𝑇2= 𝛼𝛼𝑛𝑛 𝑇𝑇1

𝑇𝑇1𝑤𝑤 . (35)

Thus

𝑃𝑃(𝜂𝜂) = 𝛼𝛼𝛼𝛼𝑛𝑛 𝑇𝑇1𝑇𝑇1𝑤𝑤

− 𝛽𝛽𝛼𝛼𝑛𝑛 𝑇𝑇2𝑤𝑤𝑇𝑇2

= 𝛼𝛼𝛾𝛾

1 − 𝜂𝜂𝛼𝛼𝑛𝑛𝑇𝑇2𝑤𝑤

𝑇𝑇2− 𝛽𝛽𝛼𝛼𝑛𝑛

𝑇𝑇2𝑤𝑤

𝑇𝑇2= 𝛼𝛼

𝛾𝛾1 − 𝜂𝜂

− 𝛽𝛽 𝛼𝛼𝑛𝑛𝑇𝑇2𝑤𝑤

𝑇𝑇2

= 𝛽𝛽 1

1−𝜂𝜂− 1 𝛼𝛼𝑛𝑛 𝑇𝑇2𝑤𝑤

𝑇𝑇2= 𝛽𝛽 𝜂𝜂

1−𝜂𝜂 𝛼𝛼𝑛𝑛 𝑇𝑇2𝑤𝑤

𝑇𝑇2 , (36)

and

𝜎𝜎(𝜂𝜂) = −𝛼𝛼𝛼𝛼𝑛𝑛 𝑇𝑇1

𝑇𝑇1𝑤𝑤𝑇𝑇1

+𝛽𝛽𝛼𝛼𝑛𝑛 𝑇𝑇2𝑤𝑤

𝑇𝑇2𝑇𝑇2

= −𝛼𝛼𝛾𝛾

1−𝜂𝜂

𝑇𝑇1+ 𝛽𝛽

𝑇𝑇2 𝛼𝛼𝑛𝑛 𝑇𝑇2𝑤𝑤

𝑇𝑇2

= 𝛽𝛽𝑇𝑇2(1−𝜂𝜂)

− 𝑇𝑇2𝑇𝑇1

+ 1 − 𝜂𝜂 𝛼𝛼𝑛𝑛 𝑇𝑇2𝑤𝑤𝑇𝑇2

, (37) and therefore,

𝑔𝑔(𝜂𝜂) =𝛽𝛽 𝜂𝜂

1−𝜂𝜂𝛽𝛽

𝑇𝑇2(1−𝜂𝜂 )−𝑇𝑇2𝑇𝑇1

+1−𝜂𝜂= 𝑇𝑇1𝑇𝑇2𝜂𝜂

(1−𝜂𝜂)𝑇𝑇1−𝑇𝑇2= 𝜂𝜂

𝜂𝜂𝑐𝑐−𝜂𝜂𝑇𝑇2.

That is, the 𝑔𝑔(𝜂𝜂) function again for logarithmic heat transfer laws-like.

A.3 Example 3. Let be,

An alternative proof of the 𝑔𝑔-lemma of finite-time thermodynamics.

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 271 http://www.journal.lapen.org.mx

𝑄𝑄1 = 𝛼𝛼𝛼𝛼𝛼𝛼𝑛𝑛ℎ 𝑇𝑇1𝑇𝑇1𝑤𝑤

− 1, and

𝑄𝑄2 = 𝛽𝛽𝛼𝛼𝛼𝛼𝑛𝑛ℎ 𝑇𝑇2𝑤𝑤𝑇𝑇2− 1. (38)

By using the ERH, we get,

𝛾𝛾1−𝜂𝜂

𝛼𝛼𝛼𝛼𝑛𝑛ℎ 𝑇𝑇2𝑤𝑤𝑇𝑇2− 1 = 𝛼𝛼𝛼𝛼𝑛𝑛ℎ 𝑇𝑇1

𝑇𝑇1𝑤𝑤− 1. (39)

Therefore

𝑃𝑃(𝜂𝜂) = ( 𝛽𝛽1−𝜂𝜂

− 𝛽𝛽)𝛼𝛼𝛼𝛼𝑛𝑛ℎ 𝑇𝑇2𝑤𝑤𝑇𝑇2− 1,

𝜎𝜎(𝜂𝜂) = − 𝛽𝛽

𝑇𝑇1(1−𝜂𝜂)+ 𝛽𝛽

𝑇𝑇2 𝛼𝛼𝛼𝛼𝑛𝑛ℎ 𝑇𝑇2𝑤𝑤

𝑇𝑇2− 1, (40)

𝑔𝑔(𝜂𝜂) =

𝜂𝜂1 − 𝜂𝜂

1𝑇𝑇2(1 − 𝜂𝜂) −

𝑇𝑇2𝑇𝑇1

+ 1 − 𝜂𝜂=

𝑇𝑇1𝑇𝑇2𝜂𝜂(1 − 𝜂𝜂)𝑇𝑇1−𝑇𝑇2

.

The same result that the previous one.

From Ex. 2 and 3, one can see that if 𝑄𝑄1 =𝛼𝛼𝑓𝑓1(𝑇𝑇1 𝑇𝑇1𝑤𝑤⁄ ) and 𝑄𝑄2 = 𝛽𝛽𝑓𝑓2(𝑇𝑇2𝑤𝑤 𝑇𝑇2⁄ ), we end up with the following expression:

𝛾𝛾

1−𝜂𝜂 𝑓𝑓2

𝑇𝑇2𝑤𝑤𝑇𝑇2 = 𝑓𝑓1

𝑇𝑇1𝑇𝑇1𝑤𝑤. (41)

And following from this point as it was showed in the demonstration (Eqs. 23-28), the same result will be obtained despite the form of the heat transfer functions used at the couplings between working fluid and heat reservoirs.

IV. REQUIREMENTS ON HEAT TRANSFER LAWS TO COMPLY 𝒈𝒈 LEMMA The following section is intended to see if it is possible to find heat transfer laws which do not satisfy 𝑔𝑔-lemma.

By definition,

𝑔𝑔(𝜂𝜂) =𝑃𝑃(𝜂𝜂)𝜎𝜎(𝜂𝜂)

=𝑇𝑇1𝑇𝑇2𝜂𝜂

(1 − 𝜂𝜂)𝑇𝑇1−𝑇𝑇2,

where 𝑇𝑇1,𝑇𝑇2 are fixed parameters. Let 𝑄𝑄1 and 𝑄𝑄2 be the heat transfer laws in a CA cycle. Note that the input conditions given are the temperatures 𝑇𝑇1 and 𝑇𝑇2. With these transfer laws 𝑃𝑃 and 𝜎𝜎 are calculated. Again, ERH establishes that 𝑄𝑄1

𝑇𝑇1𝑤𝑤= 𝑄𝑄2

𝑇𝑇2𝑤𝑤, it is known that [3],

𝜎𝜎 = 𝑄𝑄2

𝑇𝑇2− 𝑄𝑄1

𝑇𝑇1> 0, (42)

and 𝑃𝑃 being a fraction of the input heat per cycle, it has the form

𝑃𝑃 = 𝜂𝜂𝑄𝑄1, (43)

then:

𝑃𝑃𝜎𝜎

= 𝜂𝜂𝑄𝑄1𝑄𝑄2𝑇𝑇2−𝑄𝑄1 𝑇𝑇1

= 𝜂𝜂𝑇𝑇1𝑇𝑇2

𝑇𝑇1𝑄𝑄2 𝑄𝑄1

−𝑇𝑇2. (44)

Let's inquire which conditions must be satisfied, if any, by 𝑄𝑄1 and 𝑄𝑄2 to fulfill 𝑔𝑔-lemma. If it is taken for granted that,

𝜂𝜂𝑇𝑇1𝑇𝑇2

𝑇𝑇1𝑄𝑄2 𝑄𝑄1 −𝑇𝑇2

= 𝑔𝑔 = 𝑇𝑇1𝑇𝑇2𝜂𝜂𝑇𝑇1−𝑇𝑇2−𝜂𝜂𝑇𝑇1

, (45)

⟹ 𝑇𝑇1

𝑄𝑄2 𝑄𝑄1− 𝑇𝑇2 = 𝑇𝑇1 − 𝑇𝑇2 − 𝜂𝜂𝑇𝑇1, (46)

we obtain the well known relation

⟹ 𝑄𝑄2 𝑄𝑄1

= 1 − 𝜂𝜂, (47) as it should happen. Moreover, since the internal machine is a Carnot engine, it holds that, 𝜂𝜂 = 1 − 𝑇𝑇2𝑤𝑤

𝑇𝑇1𝑤𝑤. (21)

In the CA cycle 𝑇𝑇1𝑤𝑤 and 𝑇𝑇2𝑤𝑤 are the variables to find. But as 𝑄𝑄1 = 𝑄𝑄1(𝑇𝑇1𝑤𝑤) and 𝑄𝑄2 = 𝑄𝑄2(𝑇𝑇2𝑤𝑤), we expect that

𝑄𝑄2𝑄𝑄1

= 𝑓𝑓(𝑇𝑇1𝑤𝑤 ,𝑇𝑇2𝑤𝑤), (48) is a function of 𝑇𝑇1𝑤𝑤 and 𝑇𝑇2𝑤𝑤 (the real variables to find since 𝑇𝑇1 and 𝑇𝑇2 are taken as fixed parameters), which implies that:

𝑓𝑓(𝑇𝑇1𝑤𝑤 ,𝑇𝑇2𝑤𝑤) = 1 − 𝜂𝜂. (49) Eqs. (21) and (48) form a system of two equations with two unknowns (𝑇𝑇1𝑤𝑤 and 𝑇𝑇2𝑤𝑤 ), since 𝜂𝜂 is given and because the system is soluble, 𝑔𝑔-lemma is satisfied. Therefore, it suffices to find the value of 𝑇𝑇1𝑤𝑤 (or 𝑇𝑇2𝑤𝑤 ) to find 𝑇𝑇2𝑤𝑤 (or 𝑇𝑇1𝑤𝑤) and with (21) and (48) to find the other one. This is shown in the following example. A. Example 4. Using the heat transfer laws-like from Example 2:

𝑄𝑄1 = 𝛼𝛼(𝛼𝛼𝑛𝑛𝑇𝑇1 − 𝛼𝛼𝑛𝑛𝑇𝑇1𝑤𝑤),

𝑄𝑄2 = 𝛽𝛽(𝛼𝛼𝑛𝑛𝑇𝑇2𝑤𝑤 − 𝛼𝛼𝑛𝑛𝑇𝑇2), (50)

1 − 𝜂𝜂 = 𝑄𝑄2𝑄𝑄1

= 𝛽𝛽(𝛼𝛼𝑛𝑛𝑇𝑇2𝑤𝑤− 𝛼𝛼𝑛𝑛𝑇𝑇2)𝛼𝛼(𝛼𝛼𝑛𝑛𝑇𝑇1− 𝛼𝛼𝑛𝑛𝑇𝑇1𝑤𝑤 )

. (51)

From Eq. (21) 𝑇𝑇2𝑤𝑤 = 𝑇𝑇1𝑤𝑤(1 − 𝜂𝜂), replacing 𝑇𝑇2𝑤𝑤 in Eq.

(51)

J. González-Ayala, F. J. López-Ramos, L. A. Arias-Hernández, F. Angulo-Brown

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 272 http://www.journal.lapen.org.mx

1 − 𝜂𝜂 = 𝛽𝛽𝛼𝛼

[𝛼𝛼𝑛𝑛 (𝑇𝑇1𝑤𝑤 (1−𝜂𝜂))− 𝛼𝛼𝑛𝑛𝑇𝑇2](𝛼𝛼𝑛𝑛𝑇𝑇1− 𝛼𝛼𝑛𝑛𝑇𝑇1𝑤𝑤 )

, (52)

solving for 𝑇𝑇1𝑤𝑤 we get:

𝑇𝑇1𝑤𝑤 = 𝑇𝑇1

𝛼𝛼𝛽𝛽 (1−𝜂𝜂 )

𝑇𝑇21−𝜂𝜂

11+(1−𝜂𝜂 )𝛼𝛼 𝛽𝛽

, (53)

implying that 𝑄𝑄1 and 𝑄𝑄2 satisfy 𝑔𝑔-lemma (45). V. CONCLUSIONS It has been presented an alternative proof of 𝑔𝑔-lemma of finite time thermodynamics. It is also notable that the heat transfer functions need to be not physically acceptable, nor even real. It was known that 𝑔𝑔(𝜂𝜂) does not depend on the heat laws, but it was doubtful whether any heat laws agree whit the 𝑔𝑔-lemma or just a few would satisfy it. The arbitrariness in the choice of the heat transfer laws in Eqs. (19) is an indicative that apparently shows that the nature of the heat exchange is not subject to any restriction imposed by 𝑔𝑔-lemma. However, it is quite interesting that the nature of the heat exchange between the stores 𝑇𝑇1 → 𝑇𝑇1𝑤𝑤 and 𝑇𝑇2𝑤𝑤 → 𝑇𝑇2 may be different (for example, radiative the first one and convective the second one) and the 𝑔𝑔-lemma is still valid. ACKNOWLEDGEMENTS This work was partially supported by SIP-IPN and COFAA-IPN. J. G-A thanks support from PIFI-IPN. REFERENCES [1] Zemansky, M. W. and Dittman, R. H., Heat and thermodynamics, (Mc Graw-Hill, USA, 1981). [2] Sieniutycz, S. and Salamon, P., Finite-Time Thermodynamics and Thermoeconomics, (Taylor and Francis, New York, 1990). [3] De Vos, A., Endoreversible Thermodynamics of Solar Energy Conversion, (Oxford University Press, Oxford, 1992). [4] Andresen, B., Salamon, P. and Berry, R. S., Thermodynamics in finite time, Phys. Today 37, 62-70 (1984).

[5] Bejan, A., Advanced Engineering Thermodynamics, (Wiley and Sons, New York, 1997). [6] Bejan, A., Entropy generation minimization: The new thermodynamics of finite-size devices and finite-time processes, J. Appl. Phys 79, 1191-1218 (1996). [7] Wu, C., Chen, L. and Chen, J., Recent advances in finite-time thermodynamics (Nova Sci. Pub., New York, 1991). [8] Chen, L., Wu, C. and Sun, F., Finite-time thermodynamics optimization or entropy generation minimization of energy systems, J. Non-Equilib. Thermodynamics 24, 327-359 (1999). [9] Hoffmann, K. H. Buzler, J. M. and Schubert, S., Endoreversible Thermodynamics, J. Non-Equilibrium Thermodynamics 22, 311 (1997). [10] Curzon, F. L. and Ahlborn, B., Efficiency of a Carnot engine at maximum power output, Am. J. Phys. 43, 22-24 (1975). [11] Angulo-Brown, F. and Páez-Hernandez, R., Endoreversible thermal cycle with a nonlinear heat transfer, J. Appl. Phys. 74, 2216-2219 (1993). [12] Angulo-Brown, F., Fernández-Betanzos, J. and Díaz-Pico, C. A., Compression ratio of an optimized standard Otto-cycle model, Eur. J. Phys. 15, 38-42 (1994). [13] Calvo-Hernández, A., Roco, J. M., Velasco, S. and Medina, A., Irreversible Carnot cycle under per-unit-time efficiency optimization, Appl. Phys. Lett. 73, 853-855 (1998). [14] Roco, J. M., Velasco, S., Medina, A. and Calvo-hernández, A., Optimum performance of a regenerative Brayton termal cycle, J. Appl. Phys. 82, 2735-2741 (1997). [15] Agrawal, D. C., Gordon, J. M. and Huleihil, M., Endoreversible engines with finite time adiabats. Indian J. Eng. And Mats Sci. 1, 195-198 (1994). [16] Bejan, A., Entropy Generation Minimization (CRC Press, Florida, 1996). [17] De Vos, A., Endoreversible Thermoeconomics, Energy Convers. Mgmt. 36, 1-7 (1995). [18] Angulo-Brown, F., An ecological optimization criterion for finite-time heat engines, J. Appl. Phys. 69, 7465-7469 (1991). [19] Chen, L., Sun, F. and Chen, W., Influence of heat transfer laws on the performance of a Carnot engine, Chinese J. Eng. Thermo Phys. 11, 241-243 (1990). [20] Chen, L. and Yan, Z., The effect of heat transfer law on the performance of a two-heat-source endoreversible cycle, J. Chem. Phys. 90, 3740-3743 (1989). [21] Arias-Hernández, L. A. and Angulo-Brown, F., A general property of endoreversible thermal engines, J. Appl. Phys. 81, 2973-2979 (1997). [22] Arias-Hernández, L. A. and Angulo-Brown, F., Thermodynamic optimization of endoreversible engines, Rev. Mex. Fís. 40, 886 (1994).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 273 http://www.journal.lapen.org.mx

Einstein’s Redundant Triumph “Quantum Physics”: An extensive Study of Teaching /Learning Quantum Mechanics in College

Bayram Akarsu Department of Education, Erciyes University, Kayseri, Turkey. E-mail: [email protected] (Received 15 February 2010; accepted 17 May 2010)

Abstract Quantum physics is considered as one of the most remarkable discoveries of contemporary physics grown during previous century and gradually manifested to the scientific world such as inventions of laser, the transistor, the electron microscope, and semiconductor. Teaching of physical science has been stressed in the National Science Education Standards (NSES) from level K-12 as well as many state science standards [1]. The objectives of the current study are to investigate prospective elucidation of the most common learning difficulties, insufficient teaching strategies and other significant instructional or conceptual problems encountered by science and engineering college students at the senior and/or junior level during the instruction of Quantum Physics. Although conceptual issues about learning and teaching of Quantum Physics were addressed in the current study, this paper mainly focuses on the ways the teachers’ approach teaching it, as well as considerations of how the classroom environments should function. Keywords: Quantum Physics, Science Education, Teaching and Learning Science.

Resumen La física cuántica es considerada como uno de los descubrimientos más notables de la física contemporánea crecido durante el siglo anterior y poco a poco se manifiesta al mundo científico como las invenciones de láser, el transistor, el microscopio electrónico, y de semiconductores. La enseñanza de la ciencia física ha hecho hincapié en la National Science Education Standards (NSES) desde el nivel K-12, así como muchas de las normas del estado de ciencias [1]. Los objetivos de este estudio son investigar el posible esclarecimiento de las dificultades más comunes de aprendizaje, estrategias de enseñanza insuficiente y otros problemas importantes de instrucción o conceptual que enfrentan los estudiantes de ciencias e ingeniería de universidad en las categorías superiores y / o de categorías inferiores durante la instrucción de la Física Cuántica. Aunque las cuestiones conceptuales sobre el aprendizaje y la enseñanza de la Física Cuántica se abordaron en el estudio actual, se centró principalmente en la rutas de aproximación de los profesores más que en la enseñanza, así las consideraciones de cómo debe funcionar el ambiente del aula de clase. Palabras clave: Física Cuántica, Ciencias de la Educación, la enseñanza y el aprendizaje de las ciencias. PACS: 01.40.Fk, 01.40.J, 45.20.D ISSN 1870-9095

I. INTRODUCTION Everybody studying physics most likely is familiar with the Einstein’s impressive eminent saying “God never plays dice” [2] regarding Quantum Physics (QP) or Quantum Mechanics (QM) in its early developments during the World War I. He probably felt this way because he was completely against the fundamental ideas behind Quantum Mechanics and also never convinced in the concept of the “probability concept which constructs the backbone of QP”. Of course, Einstein was a believer and believed in God but he was also a determinist like Newton and many other Physicists before him who believe every mechanistic of every dynamics of motion in the universe can be predicted prior to it occurs. Mainly, almost every physicist

is strongly convinced in this idea. The most peculiar crash between the development of QP and Einstein’s own opinions was that even though Einstein was opposed to the concept of ‘probability’ he naively contributed to the development of QP with his special and general relativity postulates and their consequences to the rest of the physics issues.

After decades of research and technological advances, Einstein was proven wrong about this new physics, Quantum Theory, by other scientists who didn’t share the same ideas about it [3, 4, 5]. Bohr [3], Heisenberg [4], and Schrödinger [5] developed and applied it to contribute to various new branches of physics such as solid state physics, high energy physics, atomic physics, and molecular physics. When QP was first introduced to the world, it seemed very revolutionary topic because it

Bayram Akarsu

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 274 http://www.journal.lapen.org.mx

proposes enormous and magnificent theoretical ideas no one at that time really believed, such as scientifically correct descriptions of the probability of finding an electron around the nucleus, and how electrons can show both particle and wave properties. These ideas are based on non-deterministic worlds and fundamentally opposite of what Newtonian deterministic physics claims. Many famous physicists including Einstein objected to this new physics because of its counterintuitive suggestions, approaches and explanations of atomic physical phenomena.

The current study will firstly present a brief definition and description of QP. Fundamentally, quantum physics is defined as the physics of the incredibly small and it basically depicts how electrons surround the nucleus of the atom and other subatomic actions. In addition, QP enlightens physicists by successfully elucidating the behaviors of even smaller particles such as electrons, protons, and neutrons. QP has been one of the most important physics born in the 20th century because it changed the way physicists examine the nature forever. But its biggest achievement was suggesting indeterminism, probability and non-locality into the foundation of physics. Furthermore, QP is about the characteristics of the subatomic particles and it says that energy is not continuous except in the form of quanta (The term “Quantum” is derived from this word). In modern English, it means “any of the small increments or parcels into which many forms of energy are subdivided’ and ‘any of the small subdivisions of a quantized physical magnitude (as magnetic moment).

In the past, scientists accepted as true that light consisted of waves but electrons, neutrons, and protons mostly behave like particles. Einstein discovered that sometimes light possesses particle-like behavior from conclusions of important experiments such as photoelectric effect. Quantum physics applies to the real world in many ways, such as data storage and processors. There were some other important experiments that helped creation of the QP, such as Thomson’s experiment with ray tubes that allowed him to discover electrons. Another milestone experiment is Rutherford’s with alpha particles and gold which also led to the discovery of the proton. In conclusion, the evolution of QP started with the questions about how light and other particles behave and whether they are wave or particle or both.

After everything settled about QP in the middle of 20th century, 50 years after its inception, the physicists focused on teaching the theory of QP to science students rather than its experimental and research-based findings. Furthermore, physics educators proposed many teaching strategies to focus on that issue. For example, Ireson [6] suggested that teachers in colleges should be sensitive to the variety in the nature of their students’ thinking regarding quantum phenomena and that textbook authors and course developers need to draw on the available research to plan a sequence of instruction which allows the student to develop a conceptual framework for a subject that is often counterintuitive to commonsense or mechanistic reasoning. Conversely, whatever they

developed they shared very similar teaching techniques in general. The proposed curriculum was mainly based on teacher-oriented classrooms without involving students in the process of learning QP. Basically, even in today’s classroom college professors teach QP mostly through direct teaching in a reasonable order by solving a couple of related problems.

The current paper reports on investigation of students' understanding of the concepts of quantum physics. How student reasoning of fundamental concepts and professors' initiatives were probed. Although conceptual issues about learning and teaching of quantum physics were addressed in prior research, the current study primarily explores college professors’ opinions and instructional approaches in quantum physics classes, as well as considerations of what the classroom environments are like.

The objectives of the current study were to investigate difficulties of the college students enrolled in introductory undergraduate quantum physics courses with the perspectives of faculty members and students at five big mid-western universities and to explore possible solutions in order to improve understanding of quantum physics for students.

The findings are supported by Kalkanis et al. [7] and Singh [8] who proposed solutions for students’ insufficient knowledge of mathematical background of quantum physics. The quantum physics curriculum needs to be revised to dedicate four semesters toward this end. Moreover, if the structure of the physics curriculum permits we should study quantum physics concepts over six semesters. Otherwise, students are not able to keep up with the way it is currently handled. To summarize, physics department in colleges should be given the opportunity for spending more time for quantum physics concepts than the one in the current curriculum.

In order to achieve the desired level of students’ conceptualization of quantum physics, earlier classes and instructors shouldn’t take the whole responsibility. The solution to those problems requires additional courses in the curriculum to prepare students more. This modification can be easily achieved with the aid of two new mathematical physics courses purposefully intended to provide necessary mathematical tools for quantum physics courses. Both courses should be offered to sophomore level students in the physics department and desirably by physics faculty member experts on quantum physics. 16 research articles were reviewed for the current study. Out of 16, seven articles were conducted in pre-university level and remaining nine investigated concepts of quantum physics studied in university classrooms.

In secondary school environment, one of them dealt with teaching strategies for quantum physics course and conceptual difficulties (e.g. abstract side and heavy mathematical content in quantum physics) experienced by the pre-university student in United Kingdom as a teaching model [6, 9, 10]. Others studied how students make efforts to accommodate the concepts of quantum physics into their conceptual frameworks and the ontological and epistemological status of theoretical entities, and explored students’ Implicit or underlying dimensions of reasoning

Einstein’s Redundant Triumph “Quantum Physics”: An extensive Study of Teaching /Learning Quantum Mechanics in College

Lat. Am. J. Phys. Educ. Vol. 3, No. 2, May 2010 275 http://www.journal.lapen.org.mx

[11, 12]. On the other hand, the second section reviewed literature in college environment. The studies mainly focused undergraduate students’ understanding difficulties and misconceptions they experienced in quantum mechanics courses [8, 13].

Present study utilized seven physics professors and over 100 physics students at various colleges in the Mid-Western United States. Out of seven faculty members, five agreed to participate and out of over 200, 86 students returned their questionnaire regarding concepts of quantum physics. We used pseudonyms for faculty members. In addition, course materials and textbooks were examined for the purposes of establishing a standard curriculum. II. WHY THIS STUDY IS IMPORTANT Research studies on students’ preconceptions in the area of quantum mechanics, in contrast to other areas of physics, are rarely studied [8]. Opposite to classical mechanics, for example, the area of modern physics in high school has little relation to experiences of students in everyday life. Knowledge of and dealing with elements from modern physics do not possess observable phenomenon in students’ everyday life.

This current study is an important investigation because it addresses students’ perspectives of QP in college level classrooms, which is something that has not been much investigated, which focused on the learning of QP. There were some various important studies that concentrated on learning and teaching key topics of QP in secondary school and college levels such as [5, 6, 8, 12, 13, 14, 15, 16]. III. WHAT THIS STUDY IS NOT This study does not focus on how well students conceptualize the topics of quantum physics because the intention of this research is to examine what kinds of difficulties students encounter during a QP course. As a researcher, in this study the students are allowed to feel free to provide what is meaningful to them. In addition, more attention are given to students’ input in relation to the difficulties they face when learning any quantum physics topics other than investigating whether they understand these topics or not.

Mashaddi et al. [11] indicated that students usually come across two major problems related to main concepts of quantum physics. First of all, a concept is understood, ultimately, through its relations with other concepts and is the collection of memory elements that are associated with the label (e.g. the photon) and the pattern of their links. Hence, a new concept cannot be explicitly understood until it is linked in a meaningful way to pre-existing concepts [17, 18]. The discussion of students’ existent conceptions is an important prerequisite for an intended conceptual change [19] and should be included in the current curricula.

Another difficulty regarding teaching for conceptual understanding in QP classrooms as a major goal is evaluating that understanding. Ideally, understanding is a segment of individuals’ cognitive structure. However, nobody can guess what is in another’s mind so we have to evaluate their performances to gather what cognitive structures they possess. Therefore, investigating conceptual understanding is not an easy task to complete and not a reasonable choice because of its difficulties. IV. LITERATURE REVIEW Several previous studied were examined and inspected. One of the most influential empirical papers which focuses on students’ understanding and conceptualization of quantum physics belongs to Ireson [6]. In his paper at Pre-University level, Ireson [6] suggested a teaching strategy for quantum physics course difficulties experienced by the pre-university student in United Kingdom as a different approach. This study was prominent because it focuses on a different approach to overcoming obstacles, e.g. abstract side and strong mathematical tools in quantum topics, encountered by the students during learning quantum subjects.

Another study by Muller [9] presented a new research-based course on quantum mechanics in which the conceptual issues of quantum mechanics are taught at an introductory level. This study was selected due the fact it focuses on students’ misconceptions reported really good information and findings. It had also a huge number of participants (523 high school students in Germany), which make a more significant study. Petri and Niedderer [15] reported the students’ cognitive system for atomic physics as a hypothetical pragmatic model conducted in a German high school with only one participant. This study is the only study investigated by using a qualitative approach about the learning process of an 18-year-old student. Budde et al. [20] conducted a study that utilized “Bremen teaching approach” and made use of this model in order to present an analysis of the learning of two students as they progressed through the teaching unit. This was a part of a big project focusing on the atomic model ‘Electronium.’ This teaching approach includes the visual Electronium model, as well as the probability model.

Additionally, the studies conducted in secondary level reported similar findings. All of the researchers concluded that learning the concepts of quantum physics is hard because it contains abstract ideas, requires strong mathematical tools, and possesses complicated operations. Students are also experiencing misconceptions such as wave-particle duality and Bohr’s model of atom. At the end of his study, Ireson [6] recommended some ideas to physics instructors: avoid referencing to classical physics, do not introduce photons in the discussion of the photoelectric phenomena, ignore wave-particle duality and statistical interpretation, and finally, avoid introducing the Bohr model of atom when introducing the hydrogen atom.

Bayram Akarsu

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 276 http://www.journal.lapen.org.mx

The second set of the articles was mainly designed to investigate undergraduate students’ understanding and difficulties they experienced in quantum mechanics courses. The first study in this section conducted by Singh [8] sought to analyze the difficulties of advanced undergraduate students in a quantum mechanics course and to compare difficulties and misconceptions. Ireson [13] conducted the only study reviewed that utilized multivariate analysis in his investigation of undergraduate physics students’ conceptions of quantum phenomena. Although it is a very small research report, it was considered one of the most useful research papers published in this area since it manipulate numerous recent papers about modern physics or quantum physics.

Wittmann et al. [16] also investigated students’ understanding of quantum physics with reporting student reasoning about models of conduction. Although this study dealt with a very specific topic of the quantum physics area, it was well reported and well done with descriptions of the problem. Johnson et al. [14] described student difficulties in learning quantum mechanics. They conducted a study to identify the most important concepts that students need to understand in order to learn quantum mechanics successfully and to recommend the ways the students conceptualize the ideas of quantum mechanics, which makes them difficult. Fischler and Lichtdeldt [19] conducted another important study that focused on relationships between one of the most important modern physics subjects, the Bohr atomic model, and students’ conceptions. The last three studies proposed some instructional models in a quantum theory course. The first one was investigated by Zollman et al. [21] was challenging the abstract difficulty property of quantum mechanics (QM) by creating instructional materials for quantum mechanics. Vokos et al. [22] have investigated college students’ understanding of particle-wave duality in college level physics courses enrolled in quantum physics courses from introductory to advanced levels.

Lei Bao and Edward Redish [23] conducted a study which focused on understanding probabilistic interpretations of physical systems by two groups of college freshmen and sophomore students. In addition, Cataloglu & Robinett [24] wrote developed an assessment instrument designed to test conceptual and visualization understanding in quantum theory in order to probe various aspects of student understanding of some of the core ideas of QM. Ireson [13] recommended some useful approaches to the teaching of quantum physics. For example, he suggested the following two approaches: (a) reference to classical physics should be avoided, and (b) teaching of the photoelectric effect should start with electrons, not photons.

Singh [8] conducted a study investigating the difficulties of advanced undergraduate students toward the end of a full year upper-level quantum mechanics course with concepts related to quantum measurements and time development. Mashhadi and Woolnough [25] utilized an iterative approach to identify students’ conceptions from the data. The types of responses were noted after an initial

read-through of the collected responses to a particular question.

In conclusion, every reviewed manuscript mainly focused on undergraduate students’ understanding and difficulties they face during quantum physics courses. All of the studies were accomplished with quantitative method. They concluded that students experience difficulties and illustrate deficiencies in quantum physics courses because of the following reasons: (1) insufficient knowledge of particular concepts, (2) heavy mathematical formalism, and (3) the questions related to formulations are not interpreted in the technical practices.

In order to overcome students’ difficulties, the researchers suggested some solutions:

• connection with classical mechanics should be avoided,

• electrons should be the first topic in the syllabus, • wave-particle duality should be approached, • Heisenberg uncertainty formulism should be

introduced at an early stage, • the photoelectric effect should start with

electrons, not protons, • the Bohr model of atom should be avoided in the

discussion of the hydrogen atom. V. METHODOLOGY As noted earlier, this study adopted the questionnaire used in Ireson’s article [13] which focused on investigation of the pre-college level physics students’ quantum understanding derived from conceptual statements indicated in his questionnaire. His study addressed high school students’ understanding of quantum phenomena. Exploring college students’ conceptualization of quantum mechanical concepts and faculty members’ approaches to teaching quantum mechanics in their classrooms is the main purpose of the current study, as well as their recommendations to enhance learning its concepts. Besides, it discusses issues related to the current study such as how qualitative and quantitative methods are designed with the techniques used.

The purposes of the current study were to investigate difficulties of the college students enrolled in introductory undergraduate Quantum Physics courses with the perspectives of faculty members and students at three big mid-western universities in the US and to explore possible solutions in order to improve understanding of QP for students.

Following specific research questions were raised: 1- What are the difficulties and obstacles that

undergraduate students encounter in their QP courses suggested by the faculty members?

2- What are the possible solutions and recommendations to students’ difficulties in QP courses by faculty members in the department of Physics?

3- What are the faculty members’ beliefs about the course materials (e.g. textbooks, homework,

Einstein’s Redundant Triumph “Quantum Physics”: An extensive Study of Teaching /Learning Quantum Mechanics in College

Lat. Am. J. Phys. Educ. Vol. 3, No. 2, May 2010 277 http://www.journal.lapen.org.mx

exams, and quizzes etc.) they use during their coursework?

Eighty six undergraduate students and five faculty members in the department of Physics from five big Midwestern universities were selected to serve as subjects in this study. Five undergraduate modern physics, quantum physics, or quantum mechanics classes, and the students enrolled in them, were used for data collection. Both the faculty members and the students who participated in the study volunteered and either teaching or taking one of Quantum Physics, Modern Physics, and Quantum Mechanics classes in the fall and spring semesters of 2006. Data collection process for the current study took place during the academic year of 2005-06 including summer session in 2006 so data collection process was completed in about 12 months. Gender of faculty members and students according to their participation is summarized in Table I below.

TABLE I. Gender of the Faculty Members and the Students.

Gender Faculty Member Student

N % N % Male 7 100 42 49 Female 0 0 17 39 No Response 0 0 5 12 Total 7 100 86 100

The ages of participant students ranges from 19 to 21. Most of them are junior or senior year Physics students and the rest are from various science departments such as the Chemistry and Engineering departments (e.g. Computer and Electrical etc.). Each of the students had previously taken at least one mathematical methods course, such as Calculus, differential equations, and complex analysis, etc. A. Instrumentation and Data Collection Faculty members were interviewed at the same time students responded to the questionnaire. Faculty interview protocol questions are attached to the Appendix section. Each interview took about an hour and was audio taped. Table I demonstrates the data collection process that took place in this study.

Interviews with five physics faculty members were primary data sources as well as students’ responses to the questionnaire. Semi-structured interview questions, adapted from Akarsu [26] were used. Most of the interview questions focused on students’ difficulties of understanding conceptions of quantum physics topics, teaching strategies they use in quantum mechanics classes, and their recommendations in order to increase students’ conceptualizations of quantum mechanics. Additionally, regarding students’ understanding and conceptualizing about many major quantum mechanics topics and concepts, a commonly applied questionnaire [13] was

utilized. The questionnaire mainly included information about many key topics of quantum mechanics and was used to determine if students possess any knowledge of them.

TABLE II. Data Collection Structure.

Data Sources Research Question

Types of Data Collection Strategies

# of (Participant)

Data Collection

Primary Data Sources

Interviews Questionnaire

Students’ conceptual understanding of QP.

Students’ Questionnaire

86 Students’ responses to questionnaire were collected during fall/spring semesters of 2006

The difficulties students encounter and possible solutions for them. Faculties’ beliefs about the course materials.

Faculty Interviews

5 All interviews were done during fall/spring semesters of 2006

Secondary Data Supplement. Resources

How class-related materials affect students’ learning.

Textbooks, exams, and lab activity

91 All supplementary materials were examined thoroughly

Besides a student questionnaire and faculty interviews, secondary sources were collected to support the purposes of this study. These sources are exams (including midterms, homework, and final exams), textbooks, and laboratory hands-on activities if any. All of the data were collected throughout the academic year of 2005-2006. Interview protocol questions and questionnaires are provided in the appendix section. VI. DATA ANALYSIS The student questionnaire was the main source of data collection that was composed of 29 items to which students will respond on a five-point, strongly disagree to

Bayram Akarsu

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 278 http://www.journal.lapen.org.mx

strongly agree, scale. Of 29 questions, 18 determine students’ conceptual understanding of quantum phenomena and 11 focus on their conceptual understanding of models. It was adapted from Ireson [13] because as in previous work with pre-university students [11] and university students [13], the clustering of students’ conceptions were treated as the representative of understanding. This particular questionnaire was selected because the purpose of that study [13] is similar to the current study. The purpose of quantum physics statements used in the questionnaire was of eliciting students’ understanding of quantum phenomena in this study. The students’ response to the questionnaire was statistically evaluated by making use of two multivariate techniques, two cluster analysis, and multidimensional scaling, to reveal groups or clusters of responses.

Faculty interview transcripts were analyzed for themes using a constant comparative method and data were reduced into general categories [27].

The constant comparative method begins with the researcher searching through data for reoccurring themes or events that can be used as categories to further reduce data. The researcher then attempted to account for the diversity in the data with the developed categories. New categories may be developed or old categories reformulated until a model emerges that describe all the research findings. This process is constant in that it occurs throughout data collection [28, 29]. Themes were developed from units of data (sentences or paragraphs) that revealed what the difficulties of teaching quantum physics in the classrooms were and what solutions were proposed by the instructors throughout the academic year. Initial themes were formulated from previous research on quantum mechanics professional literature studies [7, 15]. Finally, other data collection pieces consisted of instructors’ teaching materials such as textbooks, exam materials, and lab materials in the classroom. The main criteria for analyzing those materials were: (a) are the classroom materials appropriate for grade level? And compared to the most commonly used college quantum physics textbooks? (b) do textbooks include necessary mathematical and background information that students need in quantum physics class? (c) are questions asked in exams appropriate to their level? (d) are students to be given any pop or regular quizzes with early notification? and (e) are necessary formulas and hints provided in exams? The class materials (e.g. textbooks and lab materials) are going to be evaluated based on criteria in ‘Guidelines for College Physics Program’ report published by the American Association of Physics Teacher [30]. VII. FINDINGS Students’ Difficulties of Conceptualizing the Quantum Physics Courses For the quantitative analysis part of the study, subjects were 86 students who returned the questionnaire and enrolled in either of modern physics, quantum physics or

quantum mechanics courses at four big Midwestern and two midsized Eastern universities.

Ireson [13] investigated undergraduate students’ understanding and the results were characterized by the clustering of students’ conceptions of quantum mechanics topics. For that reason, Feynman’s premise about quantum mechanics ‘nothing is deep or accurate’ were the central criteria for evaluation of students’ conceptual understanding of quantum physical topics. As a result, any findings corresponding to the students’ questionnaire were interpreted not at the level of individuals but at the level of the group. Some of the questionnaire statements used for the quantitative part of the study is tabulated below:

TABLE III. Statements addressing understanding of quantum phenomena. B01 The structure of the atom is similar to the way planets

orbit the sun. B02 It is possible to have a visual ‘image’ of an electron. B03 The energy of an atom can have any value. B04 The atom is stable due to a ‘balance’ between an

attractive electric force and the movement of the electron.

B06 Coulomb’s law, electromagnetism, and Newtonian mechanics cannot explain why atoms are stable.

B07 The electron is always a particle. B08 An atom cannot be visualized. B09 Light always behaves as a wave.

Ireson’s [13] study analyzed the students’ responses with two multivariate techniques, cluster analysis and multidimensional scaling, to reveal groups or clusters of response and map them onto a Euclidean space symbolizing the structure or dimensions of the responses. Cluster analysis focuses on allocating individuals to a group by utilizing each individual group member, while treating them more like individuals in the same group than those outside the group. The descriptive statistics table was illustrated based on 86 students and 29 quantum statements in Table V: TABLE IV. Descriptive analysis of students’ responses to the questions.

University

Quantum Thinking (Mean)

Mechanistic Thinking (Mean)

Dual Thinking (Mean)

Ohio State U 3.41 2.24 3.18

Indiana U 3.48

2.05

3.62

Cleveland State U

3.25

2.47

3.80

U of Illinois 3.36

2.34

3.50

U of Michigan

3.54

2

3.75

Ave. 3.41 2.22 3.57 According to the table IV, students who volunteered the study possess close to the ideal quantum thinking (based

Einstein’s Redundant Triumph “Quantum Physics”: An extensive Study of Teaching /Learning Quantum Mechanics in College

Lat. Am. J. Phys. Educ. Vol. 3, No. 2, May 2010 279 http://www.journal.lapen.org.mx

on the scale 1 to 5, 1 being disagree and 5 being agree). Therefore, the participants with an average score of 2.1 represents that he/she acquired quantum thinking and this is the ultimate goal to achieve. Similarly, the participants with the average score of 3.5 for quantum thinking symbolized that they didn’t achieve desired level of understanding of quantum phenomena but revealed over midpoint (3). For dual understanding, the students showed the desired level of percentages. Students enrolled in individual faculty member’s course related to the descriptive results of their ways of thinking are analyzed in the following section.

Cluster two contains statements that favor quantum thinking, for example, ‘electrons consists of smeared chare clouds which surround the nucleus’, ‘orbits of electrons are not exactly determined’, and ‘ whether one labels an electron a ‘particle’ or ‘wave’ depends on the particular experiment being carried out. Cluster three contains statements, for example, ‘electrons are waves’ and ‘electrons move along wave orbits around the nucleus.’ As a result, Table 4 illustrates that 43% of the students demonstrate mechanical thinking with average score of 2.18 out of 5, 70% (average score of 3.48) has quantum thinking, and 68% (average score of 3.38) possessed dual thinking. If students with dual thinking students are assumed to be in the right track, then, more than half of the students 69% participated grasped the ideal thinking in quantum physics class. Hence, faculty members are doing a fine job but in order to increase students’ quantum thinking they should revise curriculum, utilize different tools, and maybe spend more time to cover the essential chapters.

FIGURE 1. Clusters of Statements on Quantum Phenomena. Cluster analysis indicated the groupings of statements or conceptions. The Cluster Analysis using the Complete Linkage method produced the dendogram showing how the

statements cluster or group together (see Figure 1). In order to achieve the dendogram above, cluster analysis was generated by using statistical software SPSS. All of the items in the questionnaire were tabulated according to the hierarchical clustering. As climbing from the bottom to top of the figure, fewer clusters were merged. At the bottom of the figure, only 22 clusters out of 29 statements were linked together and it shows that at some point, they resemble among themselves. According to average group linkage method of SPSS, as seen at the top of the dendogram, three main subgroups are generated. The reason why statement numbers in the dendogram and related codes used in the questionnaire (e.g. B04, B31), some of the numbers are missing in the questionnaire. Otherwise grouping of average group linkage dendogram should mostly match groupings constructed by students’ responses as illustrated below. When students’ responses to the questions in the questionnaire were grouped as mechanistic, quantum, and dual thinking according to what each statement belong to which group of thinking, three clusters were constructed as: Cluster 1: Mechanistic thinking B01 The structure of the atom is similar to the way

planets orbit the sun. B02 It is possible to have a visual ‘image’ of an

electron. B08 An atom cannot be visualized. B10 In passing through a gap electrons continue to

move along straight line paths. B21 Nobody knows the position accurately of an

electron in orbit around the nucleus because it is very small and moves very fast.

B22 It is possible for a single photon to constructively and destructively interfere itself.

B30 If a container has a few gas molecules in it and we know their instantaneous positions and velocities then we can use Newtonian mechanics to predict exactly how they will behave as time goes by.

B25 Electrons move around the nucleus in definite orbits with a high velocity.

B31 During emission of light from atoms electrons follow a definite path as they move from one energy level to another.

B39 The photon is very small, spherical entity. B35 Electrons are fixed in their shells. B03 The energy of an atom can have any value. B09 Light always behaves as a wave. B07 The electron is always a particle. Cluster 2: Quantum thinking B04 The atom is stable due to a ‘balance’ between an

attractive electric force and the movement of the electron.

B06 Coulomb’s law, electromagnetism, and Newtonian mechanics cannot explain why atoms are stable.

B14 When an electron ‘jumps’ from a high orbital to a lower orbital, emitting a photon, the electron is not anywhere in between the two orbits.

Bayram Akarsu

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 280 http://www.journal.lapen.org.mx

B15 How one thinks of the nature of light depends on the experiment being carried out.

B23 Since electrons are identical it is not possible to distinguish between them.

B27 Electrons move randomly around the nucleus within a certain region or at a certain distance.

B26 When a beam of electrons produces a diffraction pattern it is because the electrons themselves are undergoing constructive and destructive interference.

B36 Orbits of electrons are not exactly determined. B28 Whether one labels an electron a ‘particle’ or

wave’ depends on the particular experiment being carried out.

B33 Individual electrons are fired towards a very narrow slit. On the other side is a photographic plate. What happens is that the electrons strike the plate one by one and gradually build up a diffraction pattern.

B12 The photon is a sort of ‘energy particle’. B18 The photon is a ‘lump’ of energy that is

transferred to or from the electromagnetic field B16 Electrons move along wave orbits around the

nucleus. Cluster 3 Dual thinking B13 Electrons are waves. B19 Electrons consist of smeared charge clouds which

surround the nucleus. VIII. FACULTY MEMBERS’ TEACHING STRATEGIES AND THEIR SCHEMES Albert Albert was teaching a Quantum Mechanics course in the 2006-2007 fall semesters at a big Midwestern university (Ohio State U) in the state of Ohio. The course is only offered to senior level students. According to his students’ responses to the questionnaire, mean value of classical thinking of them is 2.2 (out of five) and that means approximately 44% of his students do possess mechanical thinking which is almost at the desired level. The ideal score is they shouldn’t have any classical thinking because if they do it will be difficult for them to understand the quantum physical topics. In regards with the quantum thinking, they attain a more desired level (68% with quantum thinking).

Albert strongly believed that his students worked really hard regardless of the conceptual barriers of quantum mechanical concepts. He encouraged the students. He also believed that the recitation sessions were really helpful for the students to understand the subject better because teaching assistants helped student with the previous exam questions. In addition, he thought that the pace in the course syllabus is appropriate for the senior level students. Brian Brian was another professor teaching a Modern Physics course in the fall semester of 2006 at a big Midwestern

university. The course was offered to the junior level students and was a core course for physics students. Questionnaires were handed to all of the students and collected back by the researcher over a two week period. Of all the students in his classroom, only 8 (34%) students responded to the questions in the questionnaire given them. Therefore, his class had the lowest percentage of returned rate among the classes investigated in this study. The interview with Professor B took place in his office in the middle of the fall semester.

His students hold less classical thinking (average 2.05 out of 5.00) than the ones in Albert’s classroom and that corresponds to about 40% of the students have the classical thinking. Similarly, the students had an average of 3.48 out of 5.00 of quantum thinking and that is about %69 that is the second highest percentage among all of the faculty members.

Regarding classroom materials, he used the same main textbook as Albert, Introduction to Quantum Mechanics [31]. In addition to this textbook, a software book (Phyla Quantum Physics) which consists of java applets of visual quantum mechanics concepts (such as Wave packets etc.) was recommended as optional supplementary reading. In contrast, he believed that Griffith was the most appropriate textbook for this level of quantum mechanics course. He thought that it had many pros:

“(1) Griffith definitely had an informal way of instruction that made the students engage to the discussions in the book, (2) It is very well written and very clear discussions of the concepts, (3) It consisted of much more exercises compared to the other quantum mechanics textbooks at the end of each section, (4) Finally, it had really good chapter end problems that helped the students to understand how to use the fundamental equations to the applications.”

According to Brian, any quantum mechanics or quantum physics class should be studied at a slower pace. He said that he had to cover the first five chapters of the textbook, but he strongly believed that it was way too fast for the students to understand the concepts very well. Concerning students’ conceptual understanding of the concepts of quantum physics, he was sharing similar ideas with Albert. Also, he believed that students were having conceptual understanding problems in abstract thinking required for quantum physics such as concepts of measurement and probability of finding particles in an atom.

Charles Charles was a professor of physics at a big western university with a BS, an MS, and Ph.D. in physics, so he had a very strong background in the concepts of physics. This first semester quantum mechanics course was taught by another faculty member. His students demonstrated second lowest scores among the other students with 47% of mechanistic thinking and 66% of quantum thinking. It is the lowest percentage of mechanistic thinking and second lowest of the quantum thinking. Akin to Albert and Brian, he was also using Introduction to Quantum Mechanics [32] as the main textbook material for the class, and unlike

Einstein’s Redundant Triumph “Quantum Physics”: An extensive Study of Teaching /Learning Quantum Mechanics in College

Lat. Am. J. Phys. Educ. Vol. 3, No. 2, May 2010 281 http://www.journal.lapen.org.mx

them, he didn’t have any additional supplementary material.

David David was teaching the secondary quantum mechanics class offered to both undergraduate and graduate students in the physics department. During the spring semester of 2006, the students were asked to complete a questionnaire and only four of them returned it. The classical understanding in his classroom has the lowest average compared with the others students (40%) and also the highest percentage of quantum understanding (71%). Overall, his students achieved the highest percentage of desired level of quantum thinking. Like Albert, Brian, and Charles, he was teaching quantum mechanics with the same textbook, Griffith (second edition). Furthermore, the course syllabus mainly included the last chapters in the textbook, which emphasizes Quantum Mechanical applications such as the hydrogen atom, Zeeman Effect, and the EPR paradox/Bell theorem. David’s beliefs with reference to the reasons for students’ conceptual understanding of quantum mechanics resemble the previous three faculty members. First, he thinks the students grasp the content of the coursework, but the heavy mathematical tools involved and the essential mathematics is utilized too much and makes students’ jobs harder. Second, those mathematical apparatus are mostly novel to the students; therefore, students seem to be taking a math course as well as quantum mechanics. Eric Eric has been teaching different levels of physics courses in colleges for 34 years. The questionnaires were handed to all of the students during the final week of the fall session. His students had the highest average score (3.54) of quantum thinking and lowest score (2.00) of classical thinking. They correspond to 71% and 40%, respectively. Regarding students’ conceptual understanding of Quantum Mechanical concepts in Eric’s classroom, he claimed that their understanding of the concepts of the quantum mechanics was generally quite good, but their ability to apply this to complex problems varied. Overall, he was satisfied their understanding of the quantum mechanics concepts but worried about the application part. Eric shared similar opinions about students’ understanding of the quantum mechanics concepts. He asserted one possible reason for students’ understanding difficulties of concepts of the quantum mechanics as: Quantum mechanics is inherently difficult to understand on first exposure because it is counter-intuitive in many ways. IX. CLASS MATERIALS In this study, all of the faculty members interviewed were using the same course material [31], as the main course textbook material. In addition, some were also using some supplementary materials such as a different textbook, or an interactive book.

Assessment (e.g. midterm, final, quiz, homework) materials the faculty members used were very similar to

each other. Their typical assessments consisted of two midterms and one final. Nevertheless, Albert also assigned homework every week. He and Charles, additionally, offered recitation hours to their students for solving and explaining problems in the class and in the exams.

TABLE V. Course materials.

Faculty Members

Main Textbook Material Supplementary Material

Albert Introduction to Quantum Mechanics (Griffiths, D.J.) (2nd edition), Pearson Prentice Hall

A Modern Approach to Quantum Mechanics (Townsend) and v.3 of the Feynman Lectures on Physics

Byran Introduction to Quantum Mechanics (Griffiths, D.J.) (2nd edition), Pearson Prentice Hall

Phyla Quantum Physics, An Interactive Introduction (Belloni, M., Wolfgang C., and Cox, A.J.) (with CD-ROM), Pearson Prentice Hall, 2006

Charles Introduction to Quantum Mechanics (Griffiths, D.J.) (2nd edition), Pearson Prentice Hall

None

David Introduction to Quantum Mechanics (Griffiths, D.J.) (2nd edition), Pearson Prentice Hall

None

Eric Introduction to Quantum Mechanics (Griffiths, D.J.) (2nd edition), Pearson Prentice Hall

None

In the faculty members’ points of view, classrooms materials are somewhat inadequate but some suggestions to improve them were mentioned: (1) Griffith [32] has some upsides and downsides; for example it is well written, its content level is superior (e.g. [33]) in that engages student with its style, and the examples are suitable for the students (David and Eric) but it lacks instruction, examples, and explanations of the concepts (Albert, Brian, Charles, David), and also it is very peculiar, deep, and hard compared to other QM textbooks (David), (2) Computer simulations and software applications of Quantum Mechanical concepts should extensively be used in order to furnish students’ visualization of quantum mechanics (Albert), (3) The syllabus of QM course is usually appropriate to the students levels (Albert) but Brian believes the pace of the syllabus of quantum mechanics is too fast for the students. XI. IMPLICATIONS FOR INSTRUCTION A series of implications arise from the data presented in findings and result sections which are examined in the following section. First, faculty members complained about the conceptual problems of students and categorized

Bayram Akarsu

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 282 http://www.journal.lapen.org.mx

them into mathematical and abstract physical difficulties. All of them suggested three recommendations regarding mathematical complexities of quantum physics as follows: Students do not connect formal mathematical training and thinking such as algebra and calculus with necessary mathematical tools for quantum physics such as complex algebra and partial differential equations; Students struggle with the new mathematical instrument and notation used in quantum physics; Students have problems with the mathematical formulations of quantum physics.

For abstract side of quantum physics, as reported by Singh [8] and Wittmann et al. [26] concerning students’ difficulties, quantum physics consists of more non-intuitive and abstract concepts than other physics topics and that confuses students. This result was confirmed by the current study. Our study also showed that students get confused with the hard concepts of quantum physics which is considered to be inherited and as suggested by Ireson [13], concepts linked to classical physics should be avoided. Besides, two important topic of difficulty for students from new concepts of quantum physics were spins and Planck’s constants.

The list of troubles students are experiencing related to the abstractness of quantum physics produces numerous concerns that need to be elucidated in the context of instruction. The mathematical concern is the most important problem that needs to be addressed. In order to prevail over this difficulty, as Kalkanis et al. [7] suggested, faculty members should link students’ prior mathematical concepts with the one necessary for quantum physics, or if students do not possess the required mathematical knowledge then those concepts should be introduced at the beginning of the course. Alternatively, offering a mathematical course specifically designed for physics students who are going to take quantum physics could solve this problem, too.

Sadly, the data collected in this study revealed that colleges are not offering enough courses to prepare physics students for quantum courses. Only two of five universities investigated in this study offer such a course like “Mathematical Physics” every semester for junior level physics students. This study strongly suggests that although it is helpful to offer such courses, it is too late because they take a quantum physics course in the same year and only have one more year to graduate. Therefore, at least one mathematical course intended for quantum physics needs to be offered for students in their sophomore year so they would have one year to digest them and be ready for the heavy and strong mathematical tools and operations in quantum physics courses in the following semester.

The second critical dilemma is the abstract ideas behind quantum physics and its connection among other physics theories. Major findings of this study were aligned with two previous studies that reviewed [23, 34]. It was concluded by Bao and Redish [23] that students experienced difficulties in quantum mechanics courses because of their weak background in classical mechanics. Ambrose et al. [34] discovered that student in a modern physics course articulated ideas about the wave-particle

duality of light. In conclusion, students’ deficiencies of understanding the concepts of classical physics persist as they progressed though curriculum and generated difficulties in the more advanced courses like quantum physics.

In order to achieve the desired level of students’ conceptualization of quantum physics, earlier classes and instructors shouldn’t take the whole responsibility. The solution to those problems requires additional courses in the curriculum to prepare students more. This modification can be easily achieved with the aid of two new mathematical physics courses purposefully intended to provide necessary mathematical tools for quantum physics courses. Both courses should be offered to sophomore level students in the physics department and desirably by physics faculty member experts on quantum physics. Also, they should include sections that connect pure mathematics to math applications in quantum physics. Some textbooks, like Ross [35], can help students to prepare them for essential mathematical background of quantum physics.

As Brian stated, the pace in quantum physics courses is beyond the level students can comprehend. One can debate whether quantum physics courses (Modern Physics, Quantum Physics, and Quantum Mechanics) should be offered to students in a more extended period of time. Overall, participated faculty members strongly support the idea of devoting more time to teach the concepts of quantum physics courses so curriculum need to revised to dedicate four semesters toward this end. Moreover, if the structure of the physics curriculum permits we should study quantum physics concepts over six semesters. Otherwise, students are not able to keep up with the way it is currently handled. Once they are behind in the curriculum, there is no way they can catch up because they need to learn adequate fundamental chapters in order to understand more advanced chapters. To summarize, physics departments in colleges should be given the opportunity for spending more time for quantum physics concepts than the existing one in the current curriculum. X. CONCLUSION AND DISCUSSION In this section, findings related to students’ conceptual understanding, proposed solutions by faculty members and classroom materials will be discussed. Then, concluding remarks and implications will be revealed at the end of the chapter. Furthermore, some suggestions are provided connected to teaching strategies and classroom materials. These suggestions are more than just ideas stemmed from this study about how to improve instruction, because one of the strengths of qualitative data is the richness of the description it provides. Although it was not main goal of the study to collect this type of information, there is evidence present in the data indicating certain strategies are worth trying.

The data analysis illustrated that the hypothesis for the first part of research question one was partially verified by

Einstein’s Redundant Triumph “Quantum Physics”: An extensive Study of Teaching /Learning Quantum Mechanics in College

Lat. Am. J. Phys. Educ. Vol. 3, No. 2, May 2010 283 http://www.journal.lapen.org.mx

the faculty members. All of the faculty members, except David, supported the idea of abstract nature of quantum mechanics as one of the reasons that makes it more difficult and less understandable by the students. For the second part, only three of them, Albert, Brian, and David, believed that heavy mathematical thinking and tools make quantum physics much harder for the students.

All of the faculty members except David supported the idea of quantum physics having more non-intuitive and abstract concepts than other physics core courses such as Electromagnetic Theory (EM) and Classical Mechanics (CM), and also is a new concept to the students. Albert was agree with David about quantum physics courses require more difficult and abstract mathematical knowledge such as linear and algebra. Brian only supported the first opinion but Charles voted only for the second one. Moreover, Albert was the only professor, who identify quantum mechanics with a bad reputation as a complicated course among college students and so was Charles for quantum physics being very complicated for those senior and junior level students. Among them, only David discussed about some particular concepts that confuse student such as spin and Planck’s constant. Finally, Eric shared same opinion with David about come concepts of quantum physics being inherently very hard to comprehend on first exposure to the students.

Faculty members’ views were used toward answering the second research question, “What are the faculty members’ teaching techniques and possible solutions and recommendations by them in the department of Physics?”

Albert proposes more time should be spent on conceptual sections and on clarifying crucial derivations and formulas. Besides, Albert and Brian recommend revision on contents of quantum mechanical courses because, in current schedule, some of the concepts studied in previous modern physics class are repeated again. Through that way, more time can be dedicated to quantum mechanics concepts. He and David firmly stated that physics departments should introduce mathematical concepts to the students before taking any quantum physics courses, such as offering prerequisite mathematical course, and spend more time to solve mathematical calculation problems prior to the midterms. According to Albert and Charles, publishers and authors must develop better curriculum and textbooks for the students. Correspondingly, Brian indicates that quantum mechanics should be studied with a slower pace than in current curriculum so that students could spend more time to grasp conceptual ideas behind it. He, also, suggests that more preliminary courses (modern physics and quantum physics) must be offered preceding quantum mechanics.

For the second research question, the hypothesis was supported partially by the faculty members. Exclusively, they all provided their comments and suggestions about how to design teaching strategies that can improve students’ conceptual understanding of concepts of quantum physics. As a final point, their opinions about helping students to learn quantum physics better can be summarized.

For instance, Albert suggested a list of recommendations related to students’ success in a quantum physics course: (1) there should be a prerequisite mathematical physics course the students take in order to familiarize themselves with scientific notation and mathematical tools for quantum physics, (2) educators should implement a new version of course curriculum and textbooks for quantum physics courses in order to reduce repetition of the same topics such as Bohr’s model of atom studied in modern physics and repeated in quantum physics, (3) the instructor should dedicate more time on delineating conceptual topics of quantum physics and solving mathematical questions, as well as problems asked in examinations to explicate the ideas behind quantum physics theory and to help them to reduce students’ difficulties about practicing formulas, (4) last of all, imperative formulas of quantum physics should further be elucidated during class or recitation hours.

The other faculty members mostly shared similar ideas. For example, Charles and David are of the same opinion with Albert about the 1st and 2nd recommendations. Brian made a different recommendation; quantum physics courses are studied far too quickly currently and that makes students not to comprehend well and to fall behind, so the curriculum should be revised to slower pace with fewer topics.

Ireson [13] revealed significant consequences and explanations to students’ difficulties in quantum physics courses. Figure 1 illustrated two clusters, labeled mechanistic thinking and quantum thinking, generated by cluster analysis, respectively. Cluster one includes statements, for instance, ‘the structure of atom is similar to the way planets orbit the sun’ and ‘nobody knows the position accurately of an electron in orbit around the nucleus because it is very small and moves very fast’. Discussion

The prior studies reviewed in Chapter 2 supported the findings in this study. The findings between the proposed hypothesis and results of the study will be discussed in the following section.

As discussed in the previous section, the results of the faculty interviews revealed that students mostly struggle in a quantum physics class because of its abstract basics, heavy mathematical formulations, and the various levels of instructions throughout universities in the United States. This was the first research question and its findings are supported by Kalkanis et al. [7] and Singh [8]. Kalkanis et al. proposed solutions for students’ insufficient knowledge of mathematical background of quantum physics. For example, they recommended effective instructional interventions to increase students’ knowledge of mathematical background. On the same token, Singh [8] investigated possible reasons of students’ knowledge deficiencies of quantum physics concepts: (1) insufficient knowledge of particular concepts, (2) retrieved knowledge from memory which is not ideally interpreted, (3) knowledge that is retrieved and interpreted at the basic level but cannot be used to draw inferences in specific situations. He concluded that those difficulties cause

Bayram Akarsu

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 284 http://www.journal.lapen.org.mx

quantum mechanical misconceptions which were not studied in his article.

In order to improve students’ understanding concepts of quantum physics, Zollman et al. [21] shared similar ideas such as increasingly utilizing interactive computer visualizations and practicing quantum physical problems in recitation hours should be extensively emphasized. He also suggested that hands-on activities and pencil and paper-exercises might boost their knowledge. Johnson et al. [14] investigated the major difficulties that stand behind college students’ deficiencies in a modern physics class. Their findings reflect very similar results with the current study such they also identified quantum physics abstract contents as one of the major causes.

The results of the student questionnaires suggested that approximately 69% of the students acquired an adequate level of quantum thinking which definitely not a desired percentage is. The possible explanation might include strong mathematical tools and operations that prevent them to understand mathematical component of quantum physics. For example, most of the students supported the statement ‘if a container has a few gas molecules in it and we know their instantaneous positions and velocities then we can use the Newtonian mechanics to predict exactly how they behave as time goes by’ and ‘nobody knows the position accurately of an electron in orbit around the nucleus because it is very small and moves very fast’. Both of those statements are false because according to the theory of quantum physics, it is impossible to identify exact position of electrons and the reason for not identifying the position accurately of an electron is because of the Heisenberg uncertainty principle.

On the contrary, almost half of the students supported correct statements, such as, ‘electrons move randomly around the nucleus within a certain region or at a certain distance’ and ‘orbits of electrons are not exactly determined.’ As a result, it can be suggested that if instructors do not introduce Bohr’s model of atom students won’t be confused about the orbits of electrons and do not fall for the incorrect statement. This recommendation is supported by Albert in his suggestion to enhance students’ conceptual understanding of quantum physics.

With regard to the course materials the faculty members were using during the study, the Curriculum Guidelines and the Laboratory Guidelines in the Guidelines for College Physics Program [30] was published to the support of high-quality physics education at the college level. According to curriculum guideline 2 (C-2): ‘Instructors should not be limited by the fact that some class time is designed as “lecture” in the timetable. The laboratory component is especially important for any physics course. Well-designed, open ended experiments expose the students to the experimental basis of physics and combine many different skills and concepts.’ Also, curriculum guideline 8 suggests that technologies should be implemented in the physics course to help students learn. Additionally, Laboratory guideline (L-1) suggests: ‘Laboratory experiences should extend beyond the completion of a recipe of prescribed activities’.

Additionally, curriculum guideline 3 (C-3) offers that ‘The objectives of a course should ne clearly articulated, and the course should be assessed regularly by the instructor in the light of students’ attainment of the course’s objectives.’ All of the faculty members prepared a syllabus with clear descriptions of their courses so this guideline was met.

Curriculum guideline 5 (C-5) suggests that ‘The mathematical and conceptual level of any physics course must be consistent with the abilities of the students in that course.’ In addition, curriculum guideline 13 (C-13) implies that different courses entirely in the same class time with the same instructor should be avoided. Those two guidelines are related to the students’ mathematical dilemma in quantum physics courses. All of the faculty members, except Professor E, complained about the complex mathematical tools required for quantum physics but only Albert and David suggested to offer additional mathematical physics course prior to quantum physics course. REFERENCES [1] Gossard, P., Students’ conceptions in quantum physics, Am J. Phys. 74, 345-357 (2000). [2] Taber, K. S., Learning Quanta: barriers to stimulating transitions in student understanding of orbital ideas, Science Education 89, 94-116 (2004). [3] Bohr, N., On the Constitution of atoms and molecules. Phi. Mag. 26, 1-25 (1913). [4] Heisenberg, V. W., Over the relationships between quantum theory and classical mechanics, Time writing for Physics 33, 879-893 (1925). [5] Schrödinger, E., Outline of a theory of color measurement for daylight vision, Physics Annual 63, 397-520 (1920). [6] Ireson, G., The quantum understanding of pre-university physics students, Physics Education 35, 15-21 (2000). [7] Kalkanis, G., Hadzidaki, P., & Stavrou, D., An instructional model for a radical change towards quantum mechanics concepts, Science Education 90, 257-280 (2002). [8] Singh, C., Student’ understanding of quantum mechanics, Am. J. Phys. 69, 885-895 (2001). [9] Muller, R., & Wiesner, H., Teaching quantum mechanics on an introductory level, Am. J. Phys. 70, 200-209 (2002). [10] Niedderer, H., Learning process studies in physics: a review of concepts and results (AERA Annual Meeting, Chicago, IL, 1997). [11] Mashhadi A., & Woolnough B., Insight into students’ understanding of quantum physics: visualizing quantum entities, European Journal of Physics 20, 511-516 (1999). [12] Taber, K.S., Conceptualizing quanta: illuminating the ground state of student understanding of atomic orbital, Chemistry Education: Research and Practice in Europe 3, 159-173 (2002).

Einstein’s Redundant Triumph “Quantum Physics”: An extensive Study of Teaching /Learning Quantum Mechanics in College

Lat. Am. J. Phys. Educ. Vol. 3, No. 2, May 2010 285 http://www.journal.lapen.org.mx

[13] Ireson, G., A multivariate analysis of undergraduate physics students’ conceptions of quantum phenomena, European Journal of Physics 20, 193-199 (1999). [14] Johnson, I.D., Crawford, K., & Fletcher, P. R., Student difficulties in learning quantum mechanics, International Journal of Science Education 20, 427-446 (1998). [15] Petri, P. & Niedderer, H., A learning pathway in high-school level quantum atomic physics, International Journal of Science Education 20, 329-347 (1998). [16] Wittmann, M. C., Steinberg, R. N., & Redish, E. F., Investigating student understanding of quantum physics: Spontaneous models of conductivity, Am. J. Phys. 70, 218-226 (2001). [17] Ausubel, D. P., The acquisition and retention of knowledge: A cognitive view (Kluwer, Dordretch, 1963). [18] Novak, J. D., & Gowin, D. B., Learning how to learn (Cambridge University Press, Cambridge, England, 1984). [19] Fischler, H., & Lichtfeldt, M., Modern physics and students’ conceptions, International Journal of Science Education 14, 181-190 (1992). [20] Budde, M., Niedderer, H., Scott, P., & Leach, J., The quantum atomic model ‘Electronium’: a successful teaching tool, Physics Education 37, 204-210 (2002). [21] Zollman, D. A., and Rebello, N. S., & Hogg, K., Quantum mechanics for everyone: Hands-on activities integrated with technology, Am. J. Phys. 70, 252-260 (2001). [22] Vokos. S., Shaffer, P. S., Ambrose, B. S., & McDemott, L. C., Student understanding of the wave nature of matter: Diffraction and interference of particles, Physics Education 68, 42-51 (2000). [23] Bao, L., & Redish, E. F., Understanding probabilistic interpretations of physics systems: a prerequisite to learning quantum physics, Am J. Phys. 70, 201-217 (2001) [24] Cataloglu, E., & Robinett, R.W., Testing the development of student conceptual and visualization understanding in quantum mechanics through the undergraduate career, Am J Phys. 70, 238-251 (2002). [25] Mashhadi, A., Students’ conceptions of quantum physics, Research in Science Education in Europe (Falmer, London, 1996). [26] Akarsu, B., Quantum mechanics: Is it really hard or…? (The annual meeting of the National Association of Research in Science Teaching, Dallas, 2004). [27] Glazer, B. G., & Strauss, A. L., The Discovery of Grounded Theory, (Aldine, New York, 1967). [28] Bogdan, R. C., & Biklen, S. K., Qualitative Research for Education, 3rd Ed. (Allyn and Bacon, Boston, 1998). [29] Tobin, K., Research on instructional strategies for teaching Science, In D. Gabel (Ed.), Handbook of research

in science teaching and learning (Macmillan, New York, 2000). [30] American association of physics teachers (AAPT), Guidelines for College Physics Program (AAPT, Maryland 2002). [31] Griffiths, D. J., Introduction to Quantum Mechanics, 2nd ed. (Benjamin Cummings, New Jersey, 1998) [32] Griffiths, D. J., Introduction to Quantum Mechanics, 3rd ed. (Benjamin Cummings, New Jersey, 2004). [33] Townsend, J. S., A Modern approach to quantum mechanics, 2 Ed. (University Science Books, New York, 2000). [34] Ambrose, B., Shafer, P., Steinberg, R., & McDermott, L., An investigation of student understanding of single-slit diffraction and double-slit interference, Am J. Phys. 67, 146-155 (1999). [35] Ross, S. L., Differential Equations, 3rd Ed. (Addison Wiley, Boston, 1984). [36] Feynman, R., Feynman Lectures on Physics Volumes 3, (Basic Books Unabridged edition, New York, 2004).

APPENDIX Faculty Interview Protocol

1- Name and occupation? (Please also include you education background information: e.g. Where did you study physics? When did you get PhD? Etc.)

2- How long have you been working as a faculty member and how many semesters did you teach Quantum Physics (including Modern physics and quantum mechanical course)?

3- What do you think about classroom materials (textbooks, quizzes, and exams etc) you are using for your current class? What are their advantages and disadvantages?

4- What do you think about students’ conceptual understanding of quantum physical topics in your current class?

5- Why do you think students are having hard time to understand concepts of quantum physics? And what do you think colleges and faculty members should so about it?

Lat. Am. J. Phys. Educ. Vol. 4, No. 2,May 2010 286 http:// www.journal.lapen.org.mx

On Students’ Misunderstanding of the Basic Concepts of Quantum Mechanics: the case of Algerian Universities

R. Ladj, M. Oldache, C. E. Khiari, T. Belarbi Ecole Normale Supérieure de Kouba-Alger- ALGERIA- Laboratoire de Didactique des Sciences. ENS de Kouba Département de Physique, View Kouba Alger Algeria. BP: 92. E-mail: [email protected], (Received 13 April 2010; accepted 23 May 2010)

Abstract Through many years of teaching Quantum Mechanics in Algerian universities, we have noticed that students face great obstacles in understanding the meaning of the basic concepts of this theory, such as the Wave Function, the Uncertainly Principle, the Superposition Principle and the Complementarity Principle. We believe that these obstacles rise due to the influence of basic concepts in Classical Mechanics which students studied for many years before studying Quantum Mechanics. For example, in Classical Mechanics, the concept of wave and the concept of corpuscle refer to different things, while in Quantum Mechanics both concepts refer to the same thing, namely a ‘quantum particle’. In order to study the problem, a questionnaire sheet was presented to concerned students third-year (undergraduate physics students) before they studied the subject and after studying it. We note that these third-year students had had, as an introduction, a deep discussion of the meaning of quantum mechanical concepts for about one hour and a half a week during one month. To compare the results and show the importance of the epistemological and educational aspects, we presented again the same questionnaire to fifth-year physics students (B.Sc degree). We mention that the latter learned Quantum Mechanics without an epistemological introduction of the basic quantum mechanical concepts. Before giving our epistemological and didactical analysis of the results, we give a brief review of a previous didactical study related to the subject made by other authors. We conclude by giving some suggestions which we think are necessary in teaching Quantum Mechanics. Keywords: Quantum Mechanics, wave function, superposition principle, uncertainly principle, complementarity principle.

Resumen A través de muchos años de enseñanza Mecánica Cuántica en universidades argelinas, hemos observado que los estudiantes enfrentan grandes obstáculos para comprender el significado de conceptos básicos de esta teoría, como el de función de onda, incertidumbre, el principio de superposición y el principio de complementariedad. Creemos que estos obstáculos aumentan debido a la influencia de los conceptos básicos de la Mecánica Clásica que los estudiantes han estudiado durante muchos años antes de estudiar la Mecánica Cuántica. Por ejemplo, en Mecánica Clásica, el concepto de onda y el concepto de corpúsculo se refieren a cosas diferentes, mientras que en la Mecánica Cuántica ambos conceptos se refieren a lo mismo, es decir, una “partícula cuántica”. Con el fin de estudiar el problema, se presentó un cuestionario a los estudiantes de tercer año en cuestión (estudiantes universitarios de física) antes de que se estudiara el tema y después de estudiarlo. Notamos que estos estudiantes de tercer año habían tenido como una introducción, una discusión profunda sobre el significado de los conceptos mecánico cuánticos durante aproximadamente una hora y media a la semana durante un mes. Para comparar los resultados y mostrar la importancia de los aspectos epistemológicos y educativos, presentamos de nuevo el mismo cuestionario a los estudiantes de física de quinto año (licenciatura). Mencionamos que estos últimos aprendieron la Mecánica Cuántica, sin una introducción epistemológica de los conceptos básicos de la Mecánica Cuántica. Antes de dar nuestro análisis didáctico y epistemológico de los resultados, damos una breve reseña de un estudio didáctico previo relacionado con el tema realizado por otros autores. Se concluye dando algunas sugerencias que creemos que son necesarias en la enseñanza de la Mecánica Cuántica Palabras clave: Mecánica Cuántica, función de onda, principio de superposición, principio de incertidumbre, principio de complementariedad. PACS: 01.40.Fk, 01.40.J, 45.20.D ISSN 1870-9095

R. Ladj, M. Oldache, C. E. Khiari, T. Belarbi

Lat. Am. J. Phys. Educ. Vol. 4, No.2, May 2010 287 http:// www.journal.lapen.org.mx

I. INTRODUCTION In order to show the importance of the subject, we would like to start our work by the following statement: ‘I believe that any lover of nature should study Quantum Mechanics- not its mathematics- but its ideas’[1].

In the latter part of the 19th century, most physicists believed that the ultimate description of nature had already been achieved and that only the details remained to be worked out. This belief was based on the spectacular and uniform success of Newtonian mechanics, combined with Newtonian gravitation and Maxwellian electrodynamics, in describing and predicting the properties of macroscopic systems which ranged in size from the scale of the laboratory to that of the cosmos. However, as soon as experimental techniques were developed, to the stage where atomic systems could be studied, difficulties appeared which could not be resolved within the laws and even concepts of classical physics. The new laws and new concepts, developed over the first quarter of the 20th century, are those of quantum theory. But unfortunately the quantum theory interpretations are not easy to understand as the Classical Mechanics interpretation is. There exists a number of contending schools of thought, differing over whether quantum mechanics can be understood to be deterministic and which elements of quantum mechanics can be considered ‘real’ or else. Although today this question is of special interest to philosophers of physics, many physicists continue to show a strong interest in the subject. The operational definition of the technical terms used by researchers in quantum theory, such as wave functions and matrix mechanics, progressed through intermediate stages. For instance, Schrödinger [2] originally viewed the wave function associated to the electron as the charge density of an object smeared out over an extended, possibly infinite, volume of space. Max Born interpreted it as the probability distribution in the space of the electron’s position [3].

Albert Einstein had great difficulty in accepting some of the consequences of the theory, such as quantum indeterminacy. In addition to the unpredictable character of measurement processes, there are other elements of quantum physics that distinguish it sharply from classical physics and which cannot be represented by any classical picture. One of these is the EPR paradox. It is a thought-experiment that was proposed by Einstein, Podolsky, and Rosen [4] and which was performed by Alain Aspect [5]. This experiment demonstrated that if two quantum systems interact and then move apart, their behaviour is correlated in a way that cannot be explained in terms of signals travelling between them at or slower than the speed of light. This phenomenon is known as non-locality, and is open to two main interpretations: either it involves unmediated, instantaneous action at distance, or it involves faster than light signaling.

Major difficulties of interpretation of Quantum Mechanics description whish disturb students’ understanding are:

- The problem of non-determinism in quantum theory.

- The uncertainty principle of Heisenberg. - The interpretation of the superposition principle

in quantum mechanics. - Bohr’s concept of complementarity.

We believe also that one of the great obstacles to the good understanding of quantum theory, in addition to the interpretations difficulties, is the mathematical structure of this theory, which is based on fairly abstract mathematics, such as the Hilbert space and the operators on it [6]. This space is composed of infinite complex functions (infinite sets) and the physical quantities related to the particle are calculated from the operations of operators (having no physical meaning) on complex functions belonging to the states’ space, where the latter is a subspace of the Hilbert Space. The complex wave functions in this space must be square- integrable functions.

2

dvψ∞

−∞

< ∞∫ ∫ ∫ .

In Classical Mechanics and Electromagnetism, on the other hand, the properties of a point mass or the properties of a field are described by real numbers or functions defined on two or three dimensional sets. These have direct spatial meaning, and in these theories there seems to be less need to provide a special interpretation for those numbers or functions.

Because of the difficulties of interpretation, mentioned above, in the basic concepts of quantum mechanics, we wrote a questionnaire sheet related to them. The questionnaire was presented to a sample of 80 students. Our aim was to study the problematic of the students’ misunderstanding of basic concepts. We should notice that we did not ask questions about the different schools of interpretation. We only wanted to know what the students understood about the basic concepts of quantum mechanics according to the Copenhagen School interpretation which is the most popular among scientists and is the used interpretation in teaching quantum theory.

The Copenhagen interpretation was formulated by Niels Bohr and Werner Heisenberg while collaborating in Copenhagen around 1927 [7]. Bohr and Heisenberg extended the probabilistic interpretation of the wave function proposed by Max Born [3]. The Copenhagen interpretation rejects questions like ‘where was the particle before I measured its position?’ as meaningless. The measurement process randomly picks out exactly one of the many possibilities allowed for by the state’s wave function.

The essential controversial features of the Copenhagen interpretation are:

- The uncertainty principle (also called the indeterminacy principle) of Heisenberg.

- The Principe of complementarity of Bohr. With the passage of time, the Copenhagen interpretation has been more specifically identified with a concept known as the ‘collapse of the wave function’, also called

On Students’ Misunderstanding of the Basic Concepts of Quantum Mechanics: the case of Algerian Universities

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 288 http:// www.journal.lapen.org.mx

‘reduction of the wave packet’ as formulated by John von Neumann [6].

Today, many physicists are interested in the epistemological and the didactical aspects of Quantum Mechanics. We can classify them into the following categories: -Some of them are working in pure epistemological Quantum Mechanics researches. These scientists are interested in the interpretations of the basic concepts of quantum theory. The interpretations have started since the rise of quantum theory and many different schools of quantum theory have appeared.

As we saw in the introduction, there exist a number of contending schools of thought differing over whether Quantum Mechanics can be understood to be deterministic and which elements of quantum mechanics can be considered ‘real’ or else. -Some others are working on Visual Quantum Mechanics (VQM) where they present some basic ideas of quantum mechanics by integrating hands-on activities and computer visualization. They use (QSAD) ‘Quantum Science Across Disciplines’ which is a software application producing graphical representations of atoms and molecules without requiring students to perform high-level computations. Students can create visual models of different atoms and molecules, predict their behaviour and test those predictions, as example of this kind of work; we suggest the following work [8]. -There are other researchers who are only interested in the didactical aspect of Quantum Mechanics.

Education research in Quantum Mechanics has given a great importance to the investigation and the deduction of the best way to teach and transmit this subject to students (see for example: ‘Students’ Concepts of Quantum Physics’ [9]. All the above researchers concluded that Quantum Mechanics is difficult and abstract. Furthermore, understanding many classical concepts especially waves and optical physics are prerequisites to a meaningful understanding to quantum systems.

In addition to those researchers’ conclusion, we add the importance of a good interpretation of the basic concepts of quantum mechanics (see our discussions and analysis in paragraph V).

In our work, we wanted to highlight the importance to the students of having a strong knowledge of the basic quantum concepts. II. DESCRIPTION OF THE QUESTIONNAIRE

The multiple-choice questions were the following (there is only one right answer in each set): -The Wave Function:

- The wave function associated to a particle is real, i.e., represents a real wave.

Set 1:

- It is only an abstract mathematical tool used to describe particle motion.

- It describes the electron’s charge distribution. - No idea.

- Particle motion is described by a wave packet. Set 2:

- Particle motion is described by a monochromatic wave. - Particle motion is sometimes described by a packet wave and other times by a monochromatic wave. - No idea. -The Uncertainly Principle:

- This principle is related to the wave aspect. Set 1:

- This principle is related to the corpuscle aspect. - This principle is sometimes related to the wave aspect and, other times, to the corpuscle aspect. - No idea.

- It is possible to measure simultaneously pairs of canonically conjugate variables.

Set 2:

-The measurement of one variable of the ‘pairs conjugate variable’ disturbs the second variable measurement. - There is no relation between this principle and the measurement of one variable of the ‘pairs conjugate variables’. - No idea. -The Superposition Principle:

- The particle is located in all superposed states before the measurement.

Set 1:

- The particle is located in only one well-defined state before the measurement. - The particle is located in only even states before the measurement. - No idea.

- The particle will be found in all superposed states when a measurement is made.

Set 2:

- The particle will be found in only one state when a measurement is made. - The particle will be found only in the odd states when the measurement is made. - No idea. -The Complementarity Principle

- The wave aspect and the corpuscle aspects refer to the same object.

Set 1:

- The wave aspect and the corpuscle aspect do not refer to the same object.. - The wave aspect and the corpuscle aspect refer only sometimes to the same object and other times to different objects. - No idea. - A particle behaves as a wave in some cases and behaves as a corpuscle in other cases.

Set 2:

- A particle behaves as a wave and a corpuscle at the same time.

R. Ladj, M. Oldache, C. E. Khiari, T. Belarbi

Lat. Am. J. Phys. Educ. Vol. 4, No.2, May 2010 289 http:// www.journal.lapen.org.mx

- There is no relation between the particle aspect and the wave aspect. - No idea. III. QUESTIONNAIRE RESULTS The results got from the questionnaire before the students (third- year physics students) learned Quantum Mechanics were catastrophic. Nearly all students gave wrong answers to the above questions. In fact, most students had ‘no idea’ about the questions asked (see the average of the different answers in figure 1).

FIGURE 1. Average results of questionnaire application. Note that we only gave the average results without showing the details of the multiple-choice questions. This meant that the concepts of Quantum Mechanics were new and strange to them.

Before we give the results got from third-year physics students after they had a course on Quantum Mechanics, we should mention that these students had, at the beginning of the course, an epistemological introduction related to quantum theory before they studied its mathematical formalism.

(We note that most universities, at least in our country –Algeria– start teaching quantum theory directly through its mathematical formalism). The results are shown in figures 2.

a)

b)

c)

d)

e)

On Students’ Misunderstanding of the Basic Concepts of Quantum Mechanics: the case of Algerian Universities

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 290 http:// www.journal.lapen.org.mx

f)

g)

h) FIGURE 2. a) Results about Wave function Set 1. b) Results about Wave function Set 2. c) Results about Uncertainty principle Set 1. d) Results about Uncertainty principle Set 2. e) Results about Superposition principle Set 1. f) Results about Superposition principle Set 2. g) Results about Complementarity principle Set 1. h) Results about Complementarity principle Set 2.

FIGURE 3. Average results of questionnaire application. IV. DISCUSSIONS AND ANALYSIS We can conclude from the results in the histogram graphics that these results are not good enough for a physics science course, especially for third-year physics students. We can also say that most students did not well understand the basics concepts of quantum mechanics, even though those who were questioned took, at least one month of 1.5 hour a week course in Quantum Mechanics. During this course, students had an introduction on how Quantum Mechanics interprets the motion of particles and many experiments were deeply discussed according to the different schools of interpretation. Now we would like to give other results of the same questionnaire presented, this time, to fifth-year physics students (40 students) in order to see the impact of introducing an epistemological study with discussions of the basic quantum mechanics concepts, as an introduction, at the beginning of the study of quantum theory (see figures 4).

We should mention that these students had an (Introduction to Quantum Theory) course in their third academic year and an (Advanced Quantum Mechanics) in their final year (fifth year). But these students learned quantum theory without an epistemological introduction (deep discussions of the basic concepts). They start their quantum mechanics course directly with its mathematical formalism.

a)

R. Ladj, M. Oldache, C. E. Khiari, T. Belarbi

Lat. Am. J. Phys. Educ. Vol. 4, No.2, May 2010 291 http:// www.journal.lapen.org.mx

b)

c)

d)

e)

f)

g)

h)

FIGURE 4. a) Results about Wave function Set 1. b) Results about Wave function Set 2. c) Results about Uncertainty principle Set 1. d) Results about Uncertainty principle Set 2. e) Results about Superposition principle Set 1. f) Results about Superposition principle Set 2. g) Results about Complementarity principle Set 1. h) Results about Complementarity principle Set 2.

When we compare the two results (third-year-students’ results and fifth-year-students’ results), we can conclude that the basic quantum mechanics concepts are not easy to assimilate, but a good epistemological introduction will improve the assimilation of the theory. The results of third-year physics students who had a epistemological

On Students’ Misunderstanding of the Basic Concepts of Quantum Mechanics: the case of Algerian Universities

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 292 http:// www.journal.lapen.org.mx

introduction (see the average results in figure 3 and average results in figure 5) were better than those of the fifth-year physics students who had not any epistemological introduction, but they are still not good enough. We sum up the causes of these results as follows.

FIGURE 5. Average results of questionnaire application. The laws of quantum mechanics cannot be derived, any more than can Newton’s laws or Maxwell’s equations. Unfortunately, the quantum mechanics description of nature is too abstract. More than that, there are a number of unfamiliar concepts in the basic skeleton of the theory which our students could not be familiar with, and it was difficult to appreciate the significance of any one of them until the others are understood. We now discuss the questionnaire questions one by one. A. The Wave Function Much of the discussion centres around it because it has a purely abstract significance. For example, an electromagnetic field carries power to moving objects, whereas the wave in quantum mechanics carries nothing more than tangible information about the particle, and the methods for tapping this source of information are somewhat indirect.

Students, when studying this theory for the first time, face many difficulties, because they are not used to deal with concepts and quantities which cannot be calculated directly, and which do not have a direct physical meaning. B. The Uncertainty Principle Heisenberg’s uncertainty principle is one of the most important aspects of the Copenhagen interpretation. It is also an aspect of quantum mechanics which has received a large amount of attention in the literature. It was the focus of the famous Bohr-Einstein debate. Heisenberg’s uncertainty relations are a direct consequence of the character of the solutions of the Schrödinger equation, solutions which are functions of products of conjugate

variables such as k.r and E.t. The uncertainties in the conjugate variables at any instant must have their product greater than Plank’s constant. Heisenberg recognized that if it were possible to measure the conjugate variables simultaneously with great accuracy, the quantum mechanics would collapse. This essential principle in quantum mechanics, never seen before by the students, is not easy to be understood. C. The Superposition Principle In its simplest form, this principle reduces to two statements: -If a system can be in the states described by the wave function ψ1 and ψ2, it can be in all states described by the wave functions constructed from ψ1 and ψ2 by the linear transformation: a1ψ1 + a2 ψ2 where a1 and a2 are arbitrary complex numbers. -If one multiplies a wave function by an arbitrary non vanishing complex number, the new wave function will correspond to the same state of the system (homogeneity).

This principle differs essentially from the superposition of vibrations in classical physics, which the students are more familiar with.

The superposition of a vibration onto itself leads to a new vibration with a large or a smaller amplitude. Moreover, in the classical theory of vibration, there is a rest state for which the vibration amplitude vanishes everywhere. However, if the wave function in quantum theory vanishes everywhere in the space, there is no state present.

D. The Complementarity Principle The Principe of Complementarily was first enunciated by Bohr. The wave-particle duality is just one of many examples of complementarity. The idea can be summarized as follows: objects in nature are neither particles nor waves. A given experiment or measurement which emphasizes one of these properties necessarily does so at the expense of the other.

An experiment properly designed to isolate the particle properties, provides no information on the wave aspects. Conversely, an experiment properly designed to isolate the wave properties, provides no information about the particle properties. The conflict is thus resolved in the sense that irreconcilable aspects are not simultaneously observed in principle. Other examples of complementarity aspects are the position and linear momentum of a particle, the energy of a given state and the length of time for which that state exists, the angular orientation of a system and its angular momentum, and so on. The quantum mechanical description of the properties of a physical system is expressed in terms of pairs of mutually complementary variables or properties. Increasing precision in the determination of one such variable necessarily implies decreasing precision in the determination of the other.

R. Ladj, M. Oldache, C. E. Khiari, T. Belarbi

Lat. Am. J. Phys. Educ. Vol. 4, No.2, May 2010 293 http:// www.journal.lapen.org.mx

We have noticed though our experience in teaching this theory those students cannot understand the wave- particle duality because of their background studies. We mean the influence of some basic classical mechanics concepts, which they studied for many years. In classical mechanics, the wave aspect and the particle aspect are completely different and they can never concern the same object. V. SUGGESTIONS We conclude from our results that it is more important to have a conceptual understanding of the abstract ideas expressed in the symbolic language of mathematics. The suggestions which we think are necessary in helping students have a good understanding of quantum mechanics concepts are: 1- Either we add an extra course, distinct from all other physics courses, to the curriculum, which should be related to the epistemological aspects of quantum mechanics, where the concepts and the interpretations of the different schools of thought are deeply discussed before the introduction of the mathematical formalisms. 2 –Or, we give, in the beginning of the quantum mechanics course, a historical account of this theory, and show how it developed. We are convinced that deep discussions with students about the different schools of interpretation will increase their understanding faculties.

When we make sure that students begin to assimilate the basic concepts of Quantum mechanics, it will be easy to move on to the mathematical tools related to the subject and its description. ACKNOWLEDGEMENTS We would like to express our sincere gratitude to Professor Benchikou, A. for his valued guidance in the

epistemological aspect of the study. Our thanks also go to Professor Belarbi, T. for his many helps in the didactics. REFERENCES [1] Zollman, D., Conceptual Understanding Of Quantum Mechanics After Using Hands-On Visualization Instructional Materials, Paper presented at the annual meeting of the National Association for Research in Science Teaching, 1 (1999). [2] Schrödinger, E., Probability relations between separated Systems, Proc. Camb. Phil. Soc. 31, 555 (1935). [3] Born, M., Quantenmechanik der Stoßvorgänge, Zeits. fur Physic 38, 803 (1926). [4] Einstein, A., Podolsky, B., & Rosen, N., Can Quantum-Mechanics description of physical reality be considered complet, Phys. Rev. 47, 777 (1935). [5] Aspect, A. Dalibard, J. & Roger, G., Experimental test of Bell's Inequalities Using Time-varying Analyzers, Phys. Rev. Letters A 49, 91 (1982). [6] Von Newmann, J., Mathematische Grundlagen der quantenmechamik, (Springer-Verlag, Berlin, 1932). [7] Honner, J., The Description of Nature; Niels Bohr and the Philosophy of Quantum Physics, (Oxford, Clarendon Press, 1987). [8] Robblee, K. M., Garik, P. & Abegg, G., Using Computer Visualization Software To Teach Quantum Science: Impact On Pedagogical Content Knowledge, Paper presented at the annual meeting of the National Association for Research in Science Teaching, 11-14 (1999). [9] Rainer, M. & Hartmut, W., Students' Conceptions of Quantum Physics, Paper presented at the annual meeting of the National Association for Research in Science Teaching, 20-22 (1999).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 294 http://www.journal.lapen.org.mx

Sliding rope paradox

Z. K. Silagadze1,2 1Department of physics, Novosibirsk State University, 630 090, Novosibirsk, Russia. 2Budker Institute of Nuclear Physics, 630 090, Novosibirsk, Russia. E-mail: [email protected] (Received 14 February 2010; accepted 11 May 2010)

Abstract A simple mechanical problem is considered which we believe will help students to familiarize some concepts of mechanics of variable mass systems. Meanwhile they can even learn some thrilling physics of bungee jumping. Keywords: Physics Education, Classical Mechanics teaching.

Resumen Se considera un problema mecánico simple que creemos ayudará a los estudiantes para familiarizarse con algunos conceptos de mecánica de sistemas de masa variable. Mientras tanto, incluso pueden aprender algo sobre la emociónate física de salto bungee. Palabras clave: Educación en Física, enseñanza de la Mecánica Clásica. PACS: 45.20.D-, 01.40.E-, 01.40.J-. ISSN 1870-9095

I. INTRODUCTION Sliding ropes and falling chains are often used in introductory mechanics course as examples of variable mass systems [1, 2, 3]. The problems at first seem deceptively simple but at closer inspection they aren't such. An interesting history of falling chain problem [4, 5] reveals a considerable amount of both insight and confusion which often pervades such kind of problems. Conceptual difficulties of variable mass systems even was considered [6] as an argument against their inclusion at all in any introductory mechanics course. However, variable mass systems play such an important role in modern day technology that it is justified even beginning students to be exposed to main principles of the mechanics of the systems of variable composition. We agree with [7] that the best way to make the subject more palatable for beginning students is to introduce it through a problem that allows complete enough treatment even without any reference to the variable mass systems and then, after the correct answers are already guessed, illustrate how the main principles of the variable mass systems can illuminate the problem.

In this note we reconsider an old problem [8] which, in our opinion, is ideally suited for goals to introduce the concept of momentum flux and illustrate its use for systems of variable composition.

II. SLIDING ROPE PARADOX: WHAT IS THE CORRECT WEIGHT OF THE ROPE? A folded heavy rope of mass m and length 2L is suspended on a little frictionless peg so that its right arm is a bit longer. The rope is released and begins to slide down under the action of gravity. What is the weight of the sliding rope as felt by the peg?

Let the length of the right arm of the rope is z at some moment of time. When the z-component of the rope's momentum will be

( ) ( )22 2zm m m

p zz L z z z L zL L L

= − − = − , (1)

where we have assumed that the z-axis is directed downward, see figure 1.

Sliding rope paradox

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 295 http://www.journal.lapen.org.mx

FIGURE 1. Folded heavy rope sliding on a peg. We should have

-zd pmg F

dt= , (2)

where F equals just the weight of the sliding rope as felt by the supporting peg. From (1) and (2) we get

( )[ ]zLzzLmmgF −+−= 2 . (3)

Note that this last equation also follows from Fmgzm C −= , where

( ) ( )=

−+=2

22222

1 zLzLL

mzzL

mm

zC

( )[ ]22 241 zLzL

−+ ,

is the center of mass coordinate of the rope. This is not surprising because for the rope, as a whole, the mass is not changed and therefore both forms of Newton's equations,

fdt

pd

= , (4)

and

fam

= , (5) are equivalent.

The velocity of the rope, z , can be found from energy conservation

LzCC mgzmgzzm =−=−2

2

,

which gives

( )[ ] ( )22222 222

LzLgLzLz

Lgz −=−−+= . (6)

Differentiating (6), we can find the acceleration z of the rope

( )LzLgz −= . (7)

Substituting (6) and (7) into (3), we get easily

( )

−−=

2

221

LLzmgF . (8)

So far so good. However, we can think naively that

TF 2= , (9) whereT is the tension of the rope near the peg. So (9) opens a second easy way to find the sliding rope's weight. Namely, the equations of motion for the right and left parts of the rope are respectively

TzgL

mzzL

m−=

22 (10)

and

( ) ( ) TgzLL

mzzLL

m−−=−− 2

22

2 . (11)

If (11) is subtracted from (10), we just get (7) for the rope's acceleration. The tension T can be found then from (10), for example,

( )

−−=

−= 2

21

22

2 LLzmg

Lz

LzmgT . (12)

And here a big surprise is waiting for us: clearly (8), (9) and (12) are not compatible! So what is the correct weight of the rope? III. RESOLUTION OF THE PARADOX A first thought is that somehow (8) is incorrect, because it predicts that the weight of the sliding rope vanishes a

2

LLz += , (13)

and beyond that even becomes negative!

However, the truth is that both (8) and (12) are correct, as the logic leading to them was rock-solid. Only (9) is at error. To understand why, let us trace the fate of the small piece of the rope that disappears from the left arm just to join the right arm after an instant. The ``instant'', however,

has a finite duration zRt

π∆ = if the peg's radius is R , so

that the length of the fold of the rope is Rπ . During t∆ , a piece of the length Rπ disappears from the left arm of the rope and an equivalent piece of the same length joins the right arm. However, the piece that disappeared from the left arm had upward velocity z− , while the velocity z of the part that joins the right arm points downward.

Therefore, a small mass RL

mm π∆2

= , which was

Z. K. Silagadze

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 296 http://www.journal.lapen.org.mx

transferred from one sub-rope to the other, experiences an effective downward acceleration

( )Rz

tzzaz π∆

2=

−−= .

When the radius R of the peg goes to zero, za increases without bound. However, m∆ goes to zero as well, so that

zam∆ remains finite:

2zLmam z =∆ .

Therefore, from FTam z −= 2∆ we get

( )2

22 22

LLzmgTz

LmTF −

−=−= , (14)

which is just the relation between (8) and (12).

To treat the problem more systematically, this is a good point to introduce variable mass systems and indicate that the root of our confusion, which led to (9), can be traced to the fact that for variable mass systems neither (4) nor (5) are, in general, valid equations of motion. Instead, the right starting point for variable mass systems is [6]

Π

+= fdtpd , (15)

whereΠ

is the momentum flux into the system - how much momentum is brought into the system by new parts in unite time. The logic of (15) is simple: the momentum of the system of variable composition changes not only because of the action of the resultant external force f

, but also because new parts of the system can bring some momentum into the system.

Left and right arms of the rope can be considered as variable mass systems. In unite time, new parts bring the momentum

2

2,m

zL

Π =

(16)

into the right arm. Parts that disappear from the left arm have negative momentum. Therefore the z-component of the momentum flux into the left arm is also positive: as a result of disappearance of those parts from the left arm the z-component of its momentum increases (becomes less negative). Then (15) indicates that the equations of motion for the right and left parts of the rope are respectively

Π+−=

Tzg

Lmzz

Lm

dtd

22 , (17)

and

( ) ( ) Π+−−=

−− TgzL

LmzzL

Lm

dtd 2

22

2 . (18)

Because of (16), the equations (17) and (18) are equivalent to our old equations (10) and (11). However, if we add (17) and (18), we get

( ) Π22 +−=

− TmgzLz

Lm

dtd

,

and comparing with (2), we see that

Π22 −= TF , which is just the equation (14).

At last, let us consider the equation of motion for the fold AB of the rope (figure 2). Its center of mass remains

at rest. Therefore 0dtpd z = for the fold. The mass

RL

mm π∆2

= of the fold remains also unchanged.

However we have non-zero momentum flux into the fold.

FIGURE 2. Fold of the rope and forces acting on it. The pieces of the rope which join the fold in unite time bring the negative momentum Π− with them, while the parts that disappear from the fold in unite time have in total the positive momentumΠ . Therefore, the total momentum flux into the fold is negative and equals to

Π2− . Hence the equation of motion of the fold is

Π∆∆ 220 −−++== FTTgmdtpd z ,

which gives again the equation (14) in the limit 0R → (in fact, rope tensions differ slightly at the left and right ends of the bend, hence the term T∆ in the above equation. However 0T →∆ when 0R → . For finite R , the calculation of T∆ is described in [8]).

Let us emphasize that (15) is the correct equation of motion for systems of variable composition, the variable mass systems being just a particular case of such systems. Our last example above, the equation of motion of the rope's fold, shows clearly that the momentum flux may matter even in the case of constant mass systems, if their composition varies over time.

Sliding rope paradox

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 297 http://www.journal.lapen.org.mx

IV. WHAT ABOUT NEGATIVE WEIGHT? As was already mentioned, (8) indicates that the weight of the sliding rope vanishes when the z coordinate of the rope's right end becomes

2LLz += .

At that instant, the velocity of the rope that follows from (6) is

2gLv = . (19)

What happens next actually depends on the arrangement how the rope is fixed on the peg [9]. If it goes through a frictionless channel in the peg, like a small duct, the negative weight which follows from (8) will become a reality. However, if the rope is not fixed in this manner on the peg, so that the arrangement is more like a pulley than a duct, the rope will start to whiplash after its velocity reaches (19).

Assuming an ideal, perfectly flexible rope, the motion will remain effectively one-dimensional nevertheless and can be analytically described [8]. Moreover, this can be performed without using variable mass systems, after the rope's tension at the bend and the speeds of the ends of the rope are related by an educative guess [8]. The concept of momentum flux, however, allows us to explain this relation for the tension more naturally.

FIGURE 3. The rope after it leaves the peg.

Figure 3 shows the rope after the bend in the rope begins to move away from the peg. The coordinates of the right and left ends of the rope are 1z and 2z respectively, while the coordinate of the (infinitesimally small) bend itself is

z (note that 0z < ). As the rope is inextensible, we should have

Lzzz 2221 =−+ (20) and, therefore, the bend moves with velocity

( )2121 zzz += . (21)

In the non-inertial frame S, where the bend is at rest, the right arm of the rope moves downward with velocity

( )2111 21 zzzzv −=−= , (22)

while the left arm moves upward with velocity

( ) 11222 21 vzzzzv −=−=−= .

Therefore the situation in this system is analogous to the one considered in the previous section and hence we have momentum flux Π2− into the fold, where now

( )22121 4

122

zzL

mvL

m −==Π . (23)

In the limit 0R → , the equation of motion of the fold becomes (note that the inertial force zm ∆− also goes to

zero in this limit, along with dtpd z , gm∆ and T∆ terms)

Π220 −= T , which indicates that

( )22141

2zz

LmT −== Π . (24)

In the system S, equations of motion for the right and left arms of the rope take the form

( )( ) =

−− zzzz

Lm

dtd

112

( ) ( )zzzL

mTgzzL

m−−+−− 11 22

Π (25)

and

( )( ) =

−− zzzz

Lm

dtd

222

( ) ( )zzzL

mTgzzL

m−−+−− 22 22

Π (26)

The last terms in (25) and (26) represent inertial forces. Because of (23), these equations are equivalent to simpler equations

Z. K. Silagadze

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 298 http://www.journal.lapen.org.mx

( ) ( ) TgzzL

mzzzL

m−−=− 111 22

, (27)

and

( ) ( ) TgzzL

mzzzL

m−−=− 222 22

. (28)

After this point, the solution is essentially given in [8] and goes as follows. Let us introduce the relative coordinate

21 zzzm −= , (29) and note that the center-of-mass position is given by

( ) ( ) =

+−+

+−=

22221 2

21

1zz

zzL

mzzzz

Lm

mzc

282

221 L

Lzzz m −+

+, (30)

where we have used ( ) Lzzz −+= 221 from (20). Equations (29) and (30) enable us to express 1z and 2z through mz and cz :

,L

zzLzz mmc 822

2

1 −++=

L

zzLzz mmc 822

2

2 −−+= (31)

After the rope leaves the peg, the center of mass experiences a free fall with acceleration g . At the moment the whiplash begins,

22

2121

LLzLz,LLz −=−=+= ,

and we find from (30)

L)(zc 430 = .

While (6) indicates that

200 21

gL)(z)(z =−= ,

and hence

( ) gLzzLzzzz)(z

tc 2

142

00

212121 =

−+

+=

=

.

Therefore, the center-of-mass motion is given by

2

21

21

43 gttgLLzc ++= , (32)

where the time t is measured from the instant the rope leaves the peg.

For the relative coordinate mz , we get from (27) and (28)

( )( )zzzzzz

zzzzT

mLz mm

m −−=

−−

=21

2

12 4112

.

But we have

( )( )4

22

21mz

Lzzzz −=−− .

Therefore, finally

22

2

4 m

mmm

zLzz

z−

=

. (33)

This equation for mz seems formidable but, in fact, it is not as terrible as it looks. From (33) we have

( )[ ] .zzLdtd

mm 04 222 =−

Therefore,

gLLzzLzzL tmmmm 244 02222 =−=− = . (34)

If now we introduce a new variable φ through

φsinLzm 2= , (35) equation (34) will take the form

( )Lgcos =+ φφ 21 . (36)

This equation can be easily integrated (note that

40 πφ =)( , because L)(zm 20 = ) with the result

tLgsin 21

222 ++=+

πφφ . (37)

This equation implicitly determines the function )t(φ and hence, through (35), the function )t(zm . Relations (31), together with (32), then completely determine the motion of the rope up to the time

Sliding rope paradox

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 299 http://www.journal.lapen.org.mx

−= 1

221 π

gLt ,

when the rope becomes straight and the fold disappears (note that at this moment Lzm 2= and, therefore,

2πφ = ). V. CONNECTIONS WITH FALLING CHAIN Our considerations of sliding rope above can shed light also to another interesting problem, the problem of falling chain [4, 5]. One end of a folded flexible chain is fixed on a rigid support. The another end is released in the manner of a bungee fall. If initially the ends were placed close together, the chain motion is effectively one-dimensional and conceptually much like to the previous case of sliding rope.

Whether the falling part of the chain is in a free fall and moves with the acceleration g , surprisingly was a subject of controversy for a long time [4,5]. It seems the overall consensus was in favor of the free fall. Sommerfeld gives a convincing argument [2] (albeit for an another falling chain problem, the steady link-by-link fall of a stationary chain from a resting heap), that the energy is not conserved in such problems due to inelastic collisions when new links are brought in motion. Therefore, one can expect that the falling arm is freely falling with acceleration g and is gradually brought to rest link by link by inelastic impacts at the chain fold. However, the last word in physics is an experiment, and the experiments [10, 11, 12], including the ones modeling bungee jumping [13, 14], indicate that the tip of the falling chain moves with acceleration greater than g . What a surprise, this means that there is a downward pull at the fold even when the bungee rope is still slack! “This result is contrary to the usual experience with free falling objects and therefore hard to believe for many a person, even an experienced physicist”' [14]. However, the concept of momentum flux allows to explain the presence of this tension at the fold as naturally as it was in the case of sliding rope.

Let the coordinates of the falling tip of the rope and of the fold are z and Fz respectively (figure 4).

Then ( ) Lzzz F 22 =−+ , which gives

22zz,zLz FF

=+= . (38)

In the non-inertial frame S, where the fold is at rest, the left arm of the rope has the downward velocity

21zzzv F

=−= ,

while the right arm moves upward and its velocity is

12 0 vzv F −=−= .

FIGURE 4. The falling bungee rope.

Therefore, in the frame S, we have a momentum flux Π2 in the fold with

221 4

122

zL

mvL

m==Π . (39)

In its rest frame, equation of motion of the fold looks like

FzmTTgm ∆Π∆∆ −+−−= 220 , (40) and in the limit of the vanishing radius of the fold this equation reduces to

2

41

2z

LmT == Π . (41)

We could stop here, as (41) is just the mysterious downward pull in the bungee fall [1]. However, for completeness reasons, we proceed and re-derive some further results for falling chain.

Equations of motion of the left and right sub-chains are (in the non-inertial system S and in the limit of vanishing radius of the fold)

( )( )

( ) ( )

( )

,zzL

mFTgzL

m

zzL

mdtd

,zzLL

mTgzLL

m

zzzLL

mdtd

FFF

FF

FFF

FF

22

02

22

22

22

−−−+

=

−−−+−

=

−−

Π

Π (42)

where F stands for the weight of the falling chain. Equations (42) simplify to

Z. K. Silagadze

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 300 http://www.journal.lapen.org.mx

TgzLL

mzzLL

m+

−=

2222 , (43)

and

TgzLL

mF +

+=

22. (44)

Because of (41), equation (43) takes the form

2

41

22zgzLzzL +

−=

− . (45)

Again, this non-linear differential equation looks hard to solve, but note the following relation which follows from it:

=

−=

− 22

41

22

2zzzLzzzL

dtd

−=

−=

42

22 zLgz

dtdzLgz .

Therefore, (45) has the following first integral (note the initial condition 0z = , when 0z = )

−=

42

22 zLgzzzL . (46)

In fact, (46) represents energy conservation [1]. Therefore, the velocity of the falling sub-chain is given by

zLzLgzz

−−

=24

. (47)

Then from (45) we get its greater than g acceleration

( )( )

−+=

22241

zLzLzgz , (48)

while (44) gives the weight of the falling chain [4]

( )zLLLzzLmgF

−+−

=28

438 22. (49)

These results for the acceleration and weight can be generalized to include the mass of the subject attached to the falling tip of the chain (or rope) [13, 14]. The finite mass of the bungee jumper regularizes (47), (48) and (49), removing unphysical infinities in the velocity, acceleration and weight when L2z → . The reader can easily modify our formulas above and reproduce these more general results.

VI. CONCLUDING REMARKS We think, sliding rope problem is a good starting point to introduce the basics of variable mass mechanics to beginning students. The problem looks simple but at closer inspection reveals some non-trivial features. Therefore, to disentangle it, we hope, will be both interesting and informative enterprise for students. The machinery of variable mass mechanics, learned through this problem, can be applied to other similar situations. For example, students can analyze falling chains and ropes and discover a surprising fact that bungee jumper falls with acceleration greater than g , even though bungee rope is still slack in the first phase of bungee jumping.

That a slack bungee rope can cause a downward pull may be surprising for students and even for experienced physicist [14]. However, to prove the reality of this pull, one should have not necessarily to go through a thrilling experience of real bungee jumping. Einstein's equivalence principle suffices to design a simple, elegant and convincing demonstration [1, 10, 15].

Place a folded chain, or rope, on a smooth table and quickly pull one end of the rope. You will find that the other end begins to move toward the bend, opposite to the direction of the pull. Therefore, there must exist a tension in the rope at the fold that drags the free end toward the bend. However, in the non-inertial frame, where the yanked end is at rest, we have an effective gravity and the situation is just that is involved in the falling chain problem.

This demonstration also indicates that similar physics is involved in whip-cracking. However, in latter case the size of the fold is not small and the motion is no longer effectively one-dimensional. Therefore, more advanced methods are needed to investigate this fascinating phenomenon [16, 17, 18], possibly discovered by dinosaurs millions of years ago [19].

It is surprising that without experiments our intuition can go astray even in relatively simple situations, like the falling chain problem. First experiments [20], convincingly demonstrating a counter-intuitive result that the tip of the falling chain falls with acceleration greater than g , have not had attracted any significant attention and this remarkable fact was largely ignored and unknown until new experiments [10] have confirmed it.

Modern physics operates with space, time and matter at the Planck scale that cannot be directly probed by experiment in the foreseeable future. Therefore, one faces the question “Can there be physics without experiments?” [21]. The history of falling chain suggest that the answer is firmly ``No, there can not be any physics without experiments''. Without experiments we are always in a danger of being deceived by our metaphysical misconceptions. For example, although variable mass systems were under investigation for more than two hundred years, unexpected and unexplainable anomalous behavior was observed, revealing flaws in current understanding of the dynamics of variable mass systems, when a new class of solid rocket motors was used in early

Sliding rope paradox

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 301 http://www.journal.lapen.org.mx

1980's to power upper stages of several space missions [22].

As the last remark, let us note that the falling chain history can serve as an illustration of subtle interplay between theoretical and experimental methods in physics. There were two theoretical paradigms in falling chain problem: energy conserving and the one that assumes maximal kinetic-energy loss due to completely inelastic collisions. It may seem at first sight that the first paradigm was vindicated by experiment and the dispute is over. However, in any theoretical construction one deals with some idealized model of reality, real ropes and chains being somewhere in between of those two extreme idealizations.

An ideal, completely flexible, infinitesimally thin and unstretchable chain can be modeled as a series of point masses connected by massless strings. The behavior of such ideal folded chain, however, depends on the relative size of two specific length scales implicit in the model [1]. If the spacing between the point masses is large compared with the horizontal size of the fold (figure 5(a)), each of the masses stops abruptly in an inelastic collision when it reaches the singularity (kink) in the rope. The tension is not continuous along the kink, so that T∆ in (40) does not vanish for infinitesimal bend and our previous analysis breaks at this point.

FIGURE 5. Two limiting cases of a flexible chain [1].

On the contrary, if the spacing between the point masses is small compared with the horizontal span of the bend (figure 5(b)), each mass comes to rest gradually and the system is energy conserving.

Experiments [10, 11, 12, 13, 14] indicate that the real ropes and chains involved in these experiments were more close to the energy conserving variant of figure 5(b). However, they say nothing about a possibility of experimental realization of another variant of figure 5(a). Moreover, this variant is more interesting, as an example of singular one-dimensional system with a kink. Therefore, it will be very illuminating to demonstrate that this type of the extreme limiting case of a flexible chain could be also realized experimentally.

ACKNOWLEDGEMENTS The author's attention to the problem of falling rope's weight was drawn by D. A. Medvedev. REFERENCES [1] Morin, D., Introduction to classical mechanics: with problems and solutions (Cambridge University Press, 2008). [2] Sommerfeld, A., Mechanics (Academic Press, New York, 1950). [3] Belchenko, Yu. I., Gilev, E. A. and Silagadze, Z. K., Problems in mechanics of particles and bodies (RCD, Moscow-Izhevsk, 2008) (in Russian). [4] Wong, C. W. and Yasui, K., Falling chains, Am. J. Phys. 74, 490-496 (2006). [5] Wong, C. W., Youn, S. H. and Yasui, K., The falling chain of Hopkins, Tait, Steele and Cayley, Eur. J. Phys. 28, 385-400 (2007). [6] Tiersten, M. S., Force, momentum change, and motion, Am. J. Phys. 37, 82-87 (1969). [7] Siegel, S., More about variable mass systems, Am. J. Phys. 40, 183-185 (1972). [8] Galkin, M. G., The dynamics of a falling chain: II, Am. J. Phys. 57, 157-159 (1989). [9] Prato, D. and Gleiser, R. J., Another look at the uniform rope sliding over the edge of a smooth table, Am. J. Phys. 50, 536-539 (1982). [10] Galkin, M. G. and March, R. H., The dynamics of a falling chain: I, Am. J. Phys. 57, 154-157 (1989). [11] Schagerl, M., Steindl, A., Steiner, W. and Troger, H., On the paradox of the free falling folded chain, Acta Mech. 125, 155-168 (1997). [12] Tomaszewski, W., Pierański, P. and Geminard, J.-C., The motion of a freely falling chain tip, Am. J. Phys. 74, 776-783 (2006). [13] Kagan, D. and Kott, A., The greater-than-g acceleration of a bungee jumper, Phys. Teacher 34, 368-373 (1996). [14] Heck, A., Uylings, P. and Kędzierska, E., Understanding the physics of bungee jumping, Phys. Educ. 45, 63-72 (2010). [15] Wong, C. W. and Yasui, K., Two falling-chain demonstrations based on Einstein's equivalence principle, arXiv:physics/0609219v1. [16] McMillen, T, and Goriely, A., Whip waves, Physica D 184, 192-225 (2003). [17] McMillen, T, and Goriely, A., Shape of a Cracking Whip, Phys. Rev. Lett. 88, 244301 (2002). [18] Krehl, P., Engemann, S. and Schwenkel, D., The puzzle of whip cracking uncovered by a correlation of whip-tip kinematics with shock wave emission, Shock Waves 8, 1-9 (1998). [19] Myrhvold, N. P. and Curie, P. J., Supersonic sauropods? Tail dynamics in the diplodocids, Paleobiology 23, 393-409 (1997). [20] Heywood, W. A., Hurwitz, H., Jr. and Ryan, D. Z.,

Z. K. Silagadze

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 302 http://www.journal.lapen.org.mx

Whip effect in a falling chain, Am. J. Phys. 23, 279-280 (1955). [21] 't Hooft, G., Can there be physics without experiments? Challenges and pitfalls, Int. J. Mod. Phys. A 16, 2895-2908 (2001).

[22] Eke, F. O. and Mao, T. C., On the dynamics of variable mass systems, Int. J. Mech. Eng. Educ. 30, 123-137 (2002).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 303 http://www.journal.lapen.org.mx

The pc concept

E. Marín Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada del Instituto Politécnico Nacional Legaria 694, Col. Irrigación, C.P. 11500, México D.F., México E-mail: [email protected] , [email protected] (Received 25 February 2010; accepted 30 April 2010)

Abstract This paper is about the reasons of why the parsec is a useful astronomical length unit, although it is of the same order of magnitude of the better known light year. We will describe some concepts related to the definition of this magnitude with the aim of motivate teachers to introduce them since the first approximations of students to the theme of length units and conversion factors between them. Keywords: Astronomy, parsec, units, parallax.

Resumen Este artículo trata sobre las razones de por qué el parsec es una unidad astronómica de longitud útil, pese a que es del mismo orden de magnitud que el año luz, unidad que es mucho mejor conocida. Describiremos algunos conceptos relacionados con la definición de parsec con el objetivo de motivar su introducción desde las primeras aproximaciones de los estudiantes al tema de las unidades de la longitud y de los factores de conversión entre ellos. Palabras clave: Astronomía, parsec, unidades, paralaje. PACS: 06.20.fa, 95.10.-a, 97.10.Vm ISSN 1870-9095

I. INTRODUCTION Several physics text books and courses begin with an introductory chapter dedicated to physical magnitudes, units and conversion factors between them [1, 2, 3, 4]. Sometimes teachers use this theme to mention some units that are related to the basic SI units, such as the electron volt (1eV=1.602×10-19 J) and the atomic mass unit (1u = 1.660×10-27kg). This paper will deal with other example of such units: The parsec (symbol pc), a unit of length often used in astronomy and cosmology that is equal to about 3.2616 light-years (ly), another length unit (not time unit, as many people belief). People learning for the first time about that, often ask why one uses the former if both units are of the same order of magnitude. Or why one uses a pc if, apparently, a ly unit is easier to understand: it corresponds to the distance in vacuum that the light crosses in a year, i.e. 9.461.000.000.000 Km, while the parsec comes from “parallax of one arcsecond”, so that it is defined as the distance an object has to be from the earth so that its parallax is one arcsecond. Thus the reason why the parsec is very useful to scientists is that the estimation of the distance of a celestial object from the earth must involve the concept of parallax angle. This assertion deserves special attention and its explanation should be presented to students since their very first approximations to these questions. Thus in this paper we will briefly

describe what a pc is and how a simple analysis allows the derivation of the relationship or conversion factor between it and 1 ly given above. The way in which this subject can be experimentally treated in schools will be discussed too. II. PARALLAX Parallax is what happens when we hold our thumb at arm's length from our face and look at it against the background of our room first with the right eye open and the left eye closed and then with the left eye open and the right eye closed. We will note different backgrounds to our thumb as a result of the slight difference in the relative position of it and each eye. The parallax angle is defined as the half of the angle formed between the right eye, the reference thumb and the left eye, and depends on two things: the distance between both eyes (we will call it the baseline) and the distance to which we locate the finger. If the eyes are quite separated the one of the other, this angle becomes greater; if we moved away the finger, the angle becomes smaller. The word parallax comes from the Greek παράλλαξις (parallaxis), meaning "alteration". Parallax can be exploited to determining the distance of a nearby object: The length of a baseline can be accurately measured and from both ends of it the angle to the nearby object is determined and basic trigonometry is applied to

E. Marín

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 304 http://www.journal.lapen.org.mx

determine the distance to the object, as we will see later. III. THE PARSEC The same occurs when we look at a star situated at point D (Fig. 1). Imagine that we look it in one instant from a position E and then we look at the same star six months later, when the Earth is in the opposite side (at E+6) of its orbit around the Sun (at S). The star will appear slightly shifted respecting a background of “fixed” stars (see figure caption for explanation). The distance from the Sun at which this star has to be so that this shift becomes one second of 360 degrees of arc (one arcsecond) is just a parsec.

FIGURE 1. Illustrating the definition of pc. The blue colored stars appear as fixed to us because they are located at much greater distances, so that their parallax become so small that it is totally inappreciable to us. In order to understand these concepts it can be of utility this example: when we travel in a car and we watched the near trees, these seem to move with respect to our position. For a same base line (for example a line passing through two reference positions, namely an initial one and an end one of the vehicle trajectory) the more distant trees seem to move slowly, whereas the near one, quickly. This is due to the fact that for the near trees the parallax angle is greater, in such a way that this one changes quickly when the car only moves a small section. The distant trees seem to move less because for them the parallax angle is small. IV. A VERY SMALL BY MEASURABLE MAG-NITUDE The magnitude of this angular distance is very small if we measure it looking directly with our eyes: 1 second (1") of arch is 1/60 part of a minute of arc (1') which is 1/60 part of a degree. The star next to the Sun is Proxima Centauri (Table I), which is to about 4,3 light years from the Earth or, what is the same, about 1,3 pc. It has a parallax of 0.747" of arc. Most distant stars will undergo an inferior parallax. For example, a star that is 100 pc away from the earth shows a very small parallax of 0,01" of arc. This is similar to being able to observe how a person located at distance of 100 km from us moves a cm to one side. For

example, the stars that are kiloparsecs away from us have a parallax of thousandth of second of arc. This is something impossible to appreciate with naked eyes but it is observable and measurable using the great astronomical observatories. V. CALCULATING THE pc Now we will make use of trigonometry to calculate a pc from the definition given above. Before we do that, let us define another useful astronomical distance, the so-called astronomical unit (abbreviated as au) that is equal to about 149597871 m, namely the mean distance between the Earth and the Sun over one Earth orbit. In the diagram represented in the Fig. 2 (not to scale), S represents the Sun, and E the Earth at one point in its orbit. Thus the distance ES is just 1 au. If the angle SDE is one arcsecond, then by definition D is a point in space at a distance of one parsec from the Sun, i.e. SD=1pc. By trigonometry, this distance is

SD = 1pc = ES

tan (1"). (1)

Assuming that 1" is very small we can approximate tangent function at the denominator by its argument becoming:

1pc = SD ≈ ES1¨

= 360×60×602𝜋𝜋

au, (2)

≈ 206264.8 au = 206264.48 × 149597871m, or

1pc ≈ 3.085678 × 1016m . (3) Thus, taking into account the light year definition we obtain:

1pc ≈ 3.261564 ly . (4)

FIGURE 2. Illustrating the definition of pc.

The pc concept

Lat. Am. J. Phys. Educ. Vol. 3, No. 2, May 2010 305 http://www.journal.lapen.org.mx

VI. MEASURING THE DISTANCE TO NEARBY STARS In the same way astronomers can measure the distance to nearby stars (which will appear to move against the background of the more distant “fixed” stars) by taking two images of the night sky six months apart, and applying the basic trigonometry described above. The angle (SDE) (the angular parallax) of Figures 1 and 2 is measured from these images and then the distance to the nearby star can be calculated according to:

SD = SEtan (∢(SDE ))

. (5) The distance from the Earth to the Sun, SE, is by definition 1 au. The angle (SDE) is usually measured in units of arcseconds. As seen above, when this angle is small a valid approximation is tan( (SDE)) ≈ (SDE).

Then, by definition, SD will be expressed in units of pc:

SD (pc) = 1 au∢(SDE ) (arcsec )

. (6) It is worth to notice that the parallax technique is limited to computing the distances to nearby stars. The distance to more distant stars can be measured by other methods, sometimes involving the concepts of star luminosity and period, which should be handled in advanced courses and are behind the scope of this paper. Table I. Distance in parsecs of some astronomical objects from the earth. A good class room exercise could be to find the equivalent values in ly as well as the corresponding parallax angles. Students should be encourage searching for the distances to the Earth of other stellar objects and about the methods used to measure them.

Object Distance in pc Proxima Centauri (nearest known star to our Sun)

1.29

Center of the Milky Way 30×103

Virgo Cluster (the nearest large galaxy cluster)

18×106

Andromeda Galaxy 0.7×106 VII. EXPERIMENTS FOR SCHOOL On the other hand, for educational purposes waiting six

months to make these measurements is not useful and the required equipment is often not available, although good telescopes are obtainable in the market at relative low prices. In 1972 De Jong [5] suggested a simple class room laboratory exercise based in a parallax method described above, where a Polaroid camera (an advanced instrument in that year) was used to take photographs of a lamp from two positions. From the measured parallax and from the well known value of the base line, the distance to the lamp was straightforwardly calculated. De Jong´s experiment can be performed today using a simple digital camera and a cardboard star [6]. This nice exercise can be conducted, for example, on a football field near the school. Several virtual experiments suitable for use in distance education can be also found in Ref. [6].

We hope that this paper can be useful to motivate instructors to teach these questions at schools since the very first years of physics class. ACKNOWLEDGEMENTS This work was partially financial supported by SIP-IPN and CONACyT. The support from COFAA-IPN through the SIBE Program is also acknowledged. I am also indebted to my students for motivating me on this theme during the course on Modern Physics at the Posgrado en Tecnología Avanzada at CICATA-Legaria, IPN. REFERENCES [1] Krane, K., Modern Physics (John Wiley and Sons: New York, 1983). [2] Haliday, D., Resnick, R. and Walker, J., Fundamentals of Physics: Extended (John Wiley and Sons, New York, 2001). [3] Alonso, M. and Finn, E. J., Physics (Pearson-Prentice Hall, USA, 1992). [4] Serway, R. A. and Jewett, J. W., Principles of Physics (Thomson Learning, USA, 2002). [5] De Jong, M. L., A Stellar Parallax Exercise for the Introductory Astronomy Course, Am. J. Phys. 40, 763-763 (1972). [6] Atlas of nearby stars: Projects in virtual astronomy at http://www.computing.edu.au/~bvk/astronomy/HET603/atlas/ .Visited at 15/05/2010, 02:19 p.m.

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 306 http://www.journal.lapen.org.mx

Sensor sonar de movimento para ensino de Física experimental

Fábio Saraiva da Rocha1, Paulo Henrique Guadagnini2 1Universidade Federal do Pampa, Campus Bagé, Bagé, RS, Brasil. 2Universidade Federal da Fronteira Sul, Campus Chapecó, Chapecó, SC, Brasil. E-mail: [email protected] (Received 23 April 2010; accepted 17 May 2010)

Resumo Apresentamos neste trabalho o projeto de construção de um sensor sonar para uso no estudo de movimentos em física experimental baseado na técnica de pulso-eco de ultrasom. O projeto de construção do sensor de movimento é discutido em detalhes a partir de seus componentes mais básicos de hardware até o software embarcado. Efetuamos testes físicos de comparação do desempenho deste sensor com um instrumento de medida de distância (régua profissional) e também com outro sensor sonar de movimento, marca Vernier, disponível no mercado nacional. Os resultados desses testes indicam que a resolução do nosso sensor é cerca de 1 cm, e o erro absoluto em relação à régua padrão ficou entre 1 cm e 2 cm. Aplicamos o sensor sonar na tarefa de descrever os dados de posição e tempo relativos ao movimento de um cilindro que desce um plano inclinado num rolamento sem escorregamento, obtendo-se um desvio máximo de 5% em relação ao sensor comercial de referência Vernier. Palavras clave: Instrumentação, Ensino de Física, Sensor de movimento.

Abstract This work presents a sonar sensor project for motion studies in experimental physics based on the ultrasound pulse-eco technique. Details of the project from both hardware and embedded software are discussed from its most basic components. Physical tests relating to performance were carried out by comparing this sensor with a professional ruler as well as another sonar sensor, brand Vernier, available at national market. These tests indicate the resolution of our motion sensor is about 1 cm, and absolute error relating to the standard rule stays in the range of 1 cm to 2 cm. Our sensor is also tested by applying it on the task of describing position versus time concerning to the movement of a cylinder descending a tilted plane, rolling without slipping, for the which a maximum deviation of 5% in relation to the Vernier reference sensor is obtained. Keywords: Instrumentation, Physics education, Motion sensor. PACS: 74., 74.60.-w, 74.80.Bj ISSN 1870-9095

I.INTRODUÇÃO Recentemente, diversos trabalhos [1, 2, 3, 4] têm oferecido novas discussões e reflexões a respeito do importante papel das atividades experimentais na aprendizagem de Ciências. A grande maioria destas reflexões aponta que é necessário buscar renovar tais atividades, fugindo principalmente do ensino tradicional que se dá através de roteiros rígidos que tem por objetivo principal apenas a verificação e comprovação de leis científicas ou até mesmo transmitir a idéia de que a ciência trabalha sempre usando “o método científico” em suas atividades. Uma proposta bastante interessante consiste em estruturar as atividades práticas como verdadeiras investigações propondo guias abertos, reflexivos e bem planejados, com objetivos claros e que levem em conta as idéias prévias dos aprendizes [4].

Na direção de propor um novo cenário para o laboratório didático, o computador pode ser de grande utilidade se usado de forma reflexiva, segundo Borges [4]:

“O uso de laboratório baseado em computador permite que o estudante dedique menos tempo à coleta e apresentação dos dados; com isso, ele dispõe de mais tempo para o controle de outras partes do processo, como o planejamento da atividade, a seleção do que medir, execução da investigação e interpretação e avaliação dos resultados. Além disso, esses recursos permitem a execução de investigações em tempo real, bem como a pronta alteração do planejamento, caso seja necessário, o que freqüentemente é o caso numa investigação.” Atualmente temos visto o aparecimento de um conjunto

de novos instrumentos de medidas especialmente concebidos para uso nos laboratórios didáticos de ensino de Física [5, 6]. Estes instrumentos tem sido projetados

Sensor Sonar de Movimento para Ensino de Física Experimental

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 307 http://www.journal.lapen.org.mx

para que seus usos sejam feitos a partir de conexões diretas com o computador, principalmente pela porta serial, pela porta USB (Universal Serial Bus) e até mesmo através de conexões sem fio “wireless”[7]. Estes instrumentos didáticos são concebidos, em muitos casos, a partir do uso de técnicas de sensoriamento baseadas em princípios físicos muito bem conhecidos. Paralelamente a isso, o mercado internacional, e até mesmo o mercado nacional, tem disponibilizado módulos preparados a partir de dispositivos eletrônicos analógicos e/ou digitais que podem atuar como sensores úteis para a medição de temperatura, posição, pressão, aceleração, tempo, força,

entre outros. Estes módulos sensores podem ser comandados por dispositivos eletrônicos chamados microcontroladores que além de controlar os diversos módulos ainda podem executar tarefas matemáticas, fazer conversão de sinais analógicos em digitais e enviar e receber informações e comandos de um computador através uma conexão devidamente projetada para tal fim.

Apresentamos neste artigo o projeto de construção de um sensor sonar de movimento para fins didáticos de ensino da cinemática experimental, que utiliza a técnica de pulso-eco de ultrasom para a medida de distâncias e velocidades.

FIGURA 1. Diagrama esquemático do funcionamento de um sistema de medida de distância utilizando a técnica do pulso-eco.

II. A FÍSICA DO SENSOR SONAR Ultrasom são ondas acústicas longitudinais associadas a vibrações mecânicas que se propagam em um meio material com frequências maiores que 20 kHz. O termo sonar (SOund NAvigation and Ranging) refere-se a técnicas que utilizam a propagação do som para localização acústica e medida de distância de objetos alvo [8, 9]. Os sistemas de medida de distância que utilizam ultrasom possuem aplicações em sistemas de segurança, projeto de robôs, monitoramento de nível de líquidos em tanques, determinação de fluxo de fluidos e atividades experimentais em física. As suas principais vantagens são: a relativa simplicidade, o baixo custo do equipamento de medida e a robustez contra certas perturbações externas, tais como fontes de luz, fumaça e interferência eletromagnética.

Sistemas sonar do tipo ativo utilizam uma fonte de ultrasom que é direcionada ao objeto alvo. O método do pulso-eco utiliza um sonar do tipo ativo e consiste na transmissão de pulsos curtos de ultrasom em direção ao alvo. Ao atingir o alvo, o pulso de ultrasom é total ou parcialmente refletido e retorna como uma reflexão (eco), que é detectada em um transdutor receptor. Um sistema

para medida de tempo determina o tempo, t, gasto da emissão do pulso até a detecção do pulso refletido. Conhecendo-se a velocidade de propagação do ultrasom no meio, vu, pode-se calcular a distância, d, ao objeto que está causando o eco segundo [9]:

1 .2 ud tν= (1)

Um sistema sonar que utiliza a técnica do pulso-eco utiliza um arranjo experimental mostrado esquematicamente na Figura (1). O sistema [8] consiste de:

a) Oscilador gerador de sinais que gera uma tensão alternada com frequência igual à frequência do ultrasom a ser produzido; b) Gerador de pulsos para acionamento periódico do oscilador (a); c) Amplificador de potência, que eleva a potência do sinal gerado pelo oscilador (a) e permite a excitação do transdutor ultrasônico (d); d) Transdutor transmissor ultrasônico, geralmente do tipo piezoelétrico, que transmite o sinal de ultrasom até o objeto alvo; e) Transdutor receptor ultrasônico, geralmente do tipo piezoelétrico, que converte as ondas mecânicas

Fábio Saraiva da Rocha, Paulo Henrique Guadagnini

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 308 http://www.journal.lapen.org.mx

provenientes da reflexão no objeto alvo a um sinal elétrico oscilante; f) Amplificador de baixo ruído, que amplifica o sinal captado pelo transdutor receptor; g) Sistema de captura de pulsos provenientes do amplificador de potência (c) e do amplificador de baixo ruído (f);

h) Sistema para cálculo da distância, segundo a Eq. (1). i) Dispositivo para apresentação e/ou armazenamento das

leituras de distância.

FIGURA 2. Esquema da montagem da experiência de cinemática. O cilindro começa seu movimento a partir do repouso na posição 32 cm desde o marco de referência onde se encontra ora o sensor TATO ora o sensor GoMotion. Na parte superior direita da figura encontramos as dimensões físicas do cilindro utilizado na experiência. Na técnica do pulso-eco, um gerador de pulsos (b) produz pulsos de curta duração (da ordem de algumas dezenas de milisegundos) para uma sucessão de acionamentos do gerador de ultrasom, em geral na frequência de 1 a 50 Hz. O gerador de sinais (a) gera um sinal elétrico alternado, tipicamente de 40 kHz, que é amplificado no amplificador de potência (c) e em seguida transformado em vibrações mecânicas na forma de ultrasom no transdutor eletroacústico ultrasônico (d) [8].

A vibração da superfície do transdutor ultrasônico, causada pela aplicação de uma tensão alternada, transfere energia acústica ao meio de condução, como por exemplo, o ar. Os transdutores ultrasônicos do tipo piezoelétrico são construídos de uma cerâmica ou cristal piezoelétrico, tal como quartzo, que possui a propriedade de produzir vibrações mecânicas em resposta a um pulso de voltagem aplicado, ou produzir uma voltagem em resposta a um stress mecânico aplicado. Esse comportamento permite a aplicação dos transdutores piezoelétricos como transmissores e receptores de sinal de ultrasom. Em alguns instrumentos, os transdutores do tipo transmissor e do tipo receptor podem ser o mesmo dispositivo, operando como transmissores e receptores em momentos diferentes no tempo. Em geral, o oscilador (a) opera na frequência de ressonância do transdutor ultrasônico, o que maximiza a potência de saída do transdutor.

O feixe de energia sonora emitida pelo transdutor transmissor de ultrasom sofre um espalhamento na forma de um cone, à medida que se afasta da fonte de som. O ângulo de abertura do cone de emissão afeta a direcionalidade do feixe de ultrasom, e depende da frequência do ultrasom e do tamanho e outras características construtivas do transdutor. Frequências maiores de ultrasom reduz o ângulo de abertura do feixe, o mesmo ocorrendo quando se aumenta o diâmetro da membrana do transdutor transmissor. Na prática, a

direcionalidade do feixe de ultrasom não é crítica na técnica do pulso-eco, desde que os transdutores para transmissão e recepção de ultrasom sejam mantidos próximos, ou coincidentes, quando somente um transdutor para transmissão e recepção é usado [9].

O método do pulso-eco apresenta como desvantagem inerente a baixa relação sinal ruído no sistema de recepção do sinal refletido, o que se deve à pequena magnitude da energia de cada pulso de ultrasom refletido. É necessário, portanto, um sistema de amplificação do sinal do transdutor detector que possua um ganho relativamente elevado. O amplificador de baixo ruído (f) tem como função elevar a amplitude do sinal captado pelo transdutor receptor (e) mantendo a maior relação sinal/ruído possível. O ganho do amplificador de baixo ruído deve ser ajustado de modo a manter um compromisso adequado entre o alcance do sensor sonar e sua susceptibilidade a detecção de multireflexões por outros objetos no local do experimento e a interferência de fontes de ruído na faixa de frequências do ultrasom.

O sistema de captura de pulsos (g) detecta os sinais transmitidos e recebidos, vindos do amplificador (c) e do amplificador (f), respectivamente, e calcula o tempo, t, entre a transmissão e reflexão do sinal. Esse módulo do sistema consiste em um circuito digital que conta o tempo entre o início do pulso transmitido (em (c)), e o início do pulso refletido (em (f)). O sistema de cálculo de distância, (h), aplica a Eq. (1) utilizando o tempo disponibilizado em (g). Os módulos (g) e (h) podem ser elementos distintos ou um microcontrolador previamente programado para executar ambas as tarefas. Por fim, o sistema (i) é alimentado com as leituras de distância e apresenta os dados em um mostrador numérico ou gráfico e/ou transfere os dados para um computador através de uma interface digital, permitindo o armazenamento das leituras para arquivamento e posterior análise.

Sensor Sonar de Movimento para Ensino de Física Experimental

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 309 http://www.journal.lapen.org.mx

A velocidade do som no ar, vu, utilizada na determinação de d segundo a Eq. (1), é de aproximadamente 340 m/s a 20 oC, e depende de fatores tais como a temperatura, pressão, densidade, umidade e composição química do ar. Dentre esses fatores, a temperatura é o que exerce a maior influência na velocidade do som no ar, que depende da raiz quadrada da temperatura absoluta [9]. Medidas de distância com ultrasom devem, preferencialmente, levar em conta a variação da temperatura ambiente, o que pode ser feito na prática medindo-se a temperatura do ar e depois calculando-se vu. O método do pulso-eco pode produzir erros de medida de distância devido a fatores que afetam de modo não previsível a velocidade de propagação do ultrasom, como gradientes de temperatura e correntes de ar no caminho do sinal [8].

Os sinais acústicos que percorrem a trajetória do transmissor até o alvo refletor, e depois de volta até o detector sofrem um amortecimento, ou atenuação, devido ao efeito combinado da absorção e espalhamento das ondas de ultrasom. A magnitude da energia do sinal acústico a uma distância l do ponto de emissão, El, depende da distância l percorrida pelo sinal, da frequência nominal do ultrasom, f, e das características de absorção do meio no qual o sinal viaja, segundo [9]:

( )lf

eEEl

l

21

0α−

= (2)

Em que E0 é a magnitude da energia no ponto de emissão e α é a constante de atenuação que depende da frequência do ultrasom e do meio no qual o ultrasom se propaga. Segundo a Eq. (2), o aumento da distância da fonte do sinal reduz a magnitude da energia do sinal acústico, o que determina, em parte, um limite de alcance para os sistemas sonar. Para cada pulso gerado em (b) são transmitidos vários ciclos completos da onda de ultrasom, e, idealmente, a detecção do sinal refletido deve ocorrer durante a chegada do primeiro pico da onda de ultrasom em (e). Quando a distância d torna-se grande, mas não o suficiente para a atenuação do sinal impedir totalmente sua detecção, há um aumento da probabilidade da detecção do sinal refletido em uma posição no tempo diferente da correspondente ao primeiro pico da onda de ultrasom, podendo resultar na redução de acurácia da medida de distância. Para levar em conta esse problema em potencial, usualmente os sensores sonar para medida de distância são especificados para operarem a uma distância limite do objeto alvo.

Para uma onda sonora com um único componente de frequência, f, o comprimento de onda, λ, descreve o comprimento de um período da onda sonora, na direção de sua propagação, e é obtido segundo:

fvu=λ

(3) Em um sistema sonar que utiliza a técnica do pulso-eco, a

resolução máxima de medida de distância é igual a λ [8]. A utilização de frequências elevadas permite maior resolução das medidas, entretanto o alcance das medidas é reduzido devido à maior atenuação do sinal de ultrasom em razão da maior absorção em frequências mais elevadas, segundo a Eq. (2). Na prática, sistemas sonar de medida de distâncias de até 10 m usualmente utilizam frequências entre 20 kHz e 60 kHz, que representam um compromisso adequado entre o alcance e resolução das medidas.

Quando uma onda sonora atinge a interface entre dois meios de características físicas diferentes, por exemplo, ar e madeira, ela é parcialmente refletida e parcialmente transmitida através da interface. A extensão relativa da reflexão e transmissão da onda sonora depende dos valores de impedância característica, Ra, de cada um dos dois meios em que as ondas se propagam. A impedância característica de um meio é função da densidade do meio, ρ, e velocidade de propagação do som neste meio, vu, segundo [9]:

,a uR ρ ν= (4)

sendo, portanto, independente da frequência do ultrasom. Impedâncias características significativamente diferentes resultam no predomínio da reflexão do ultrasom na interface, o que é desejável na técnica do pulso-eco quando se refere ao objeto alvo. Quando as medidas de distância são feitas no ar e com um objeto alvo sólido, em geral há o predomínio da reflexão, pois as impedâncias características são significativamente diferentes devido à grande diferença de densidade entre o ar e a maioria dos corpos sólidos. Qualquer objeto que possua impedância característica significativamente diferente que o ar pode potencialmente causar reflexão do ultrasom. III. O PROJETO DO SENSOR SONAR DE MOVIMENTO Descrevemos a seguir detalhes de um projeto de aplicação de um módulo sonar marca TATO [10] para uso em práticas de ensino de cinemática experimental. Este módulo sonar tem sido utilizado previamente em projetos de medidas de distâncias com o alvo estático [11]. O módulo sonar TATO incorpora internamente as funções dos módulos (a), (b), (c), (d), (e), (f) e (g) representados na Figura (1). Para controle deste sensor e envio dos dados de posição e tempo de um alvo em movimento, utilizamos o microcontrolador Basic Step -1 OEM [12], da marca TATO, que tem a função do módulo (h) representado na Figura (1). O apêndice B apresenta mais detalhes técnicos destes componentes. O sensor sonar emite uma onda mecânica na faixa do ultrasom (de 40 kHz) e recebe esta mesma onda após ser refletida no obstáculo mais próximo. O tempo de ida e volta desta onda é contabilizado pelo sensor sonar, o qual envia através de sua saída uma coleção de pulsos de sinais digitais (0 ou 1) onde o tempo em que permanece no sinal alto (1) é igual ao tempo de ida e volta da onda sonora. Este valor aparece expresso em milisegundos para o

Fábio Saraiva da Rocha, Paulo Henrique Guadagnini

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 310 http://www.journal.lapen.org.mx

microcontrolador. Se quisermos saber qual é a distância do alvo até o sensor, necessitamos dividir este tempo em milisegundos pela metade e depois multiplicá-lo pela velocidade do ultrasom no ar, conforme a Eq. (1). A coleta da informação que o módulo sonar entrega e as manipulações matemáticas acima, em nosso projeto, foram feitas através do microcontrolador Basic Step -1 OEM de 8 bits. Este microcontrolador dispõe também de uma base de tempo “timer” que pode ser utilizado para fazer a leitura do tempo entre uma medida e outra entregue pelo módulo sonar. Os dados de tempo e posição que ficam registrados na memória interna do microcontrolador são enviados através da porta serial do nosso computador e lidos na tela deste através de um programa computacional chamado de 232 Analyzer que pode ser utilizado na versão livre “demo” disponível na internet [13]. O microcomputador e o programa 232 Analyzer consiste no módulo (i) representado na Figura (1), efetuando a apresentação e registro dos dados. Alertamos que este não é o único programa que faz este tipo de comunicação serial de dados com um microcomputador. Veja mais detalhes no apêndice A deste trabalho.

Abaixo a lista de componentes do projeto: • Módulo sonar marca TATO; • Microcontrolador marca TATO modelo Basic Step

-1 OEM; • Fonte de corrente contínua estabilizada

fornecendo +5 V (nível TTL) para alimentação do sensor sonar e o microcontrolador;

• Placa universal de prototipagem para fixação e interligação dos componentes do projeto;

• Cabo de comunicação serial com conector DB9

fêmea (ver apêndice B); • Dois resistores de 10 kΩ que podem ser de 1/8 W; • Um resistor de 100 kΩ que pode ser de 1/8 W; • Fios rígidos para as diversas interligações dos

componentes; • Computador com interface serial e sistema

operacional Windows (ver apêndice A). No apêndice B, mostramos o esquema de interligação

destes componentes. Em nosso projeto, as medidas do sensor até o alvo são

expressas de centímetro em centímetro (nosso intervalo de confiança) por limitações nos testes prévios de desempenho feitos com os componentes do projeto. A seguir, iremos mostrar testes que foram feitos com os componentes acima para estabelecer parâmetros de comparação entre o sonar e uma régua milimetrada profissional visando conhecer as limitações do instrumento. Sabemos que vários aspectos podem ser melhorados, entre eles ativar a correção do valor da velocidade da onda de ultrasom no ar pelo conhecimento da temperatura local. Esta correção será possível ao introduzirmos a leitura de um termômetro pelo microcontrolador e do uso pelo programa computacional de um incremento ao valor de 331 m/s (velocidade do ultrasom a 0ºC) de (0,59 vezes (TºC) ) m/s, onde (TºC) é a temperatura do ar em graus Celsius. Outra limitação de nosso projeto diz respeito à taxa de leitura do módulo sonar (três leituras por segundo). Esta limitação está diretamente ligada à arquitetura do módulo sensor que utilizamos, e só pode ser superada a partir do uso de outros módulos existentes no mercado, porém com maior custo.

TABELA I. Valores dos coeficientes ajustados numericamente da Eq. (5) aos dados experimentais de posição e tempo utilizados no gráfico da Figura (3).

Sensor X0 ± ΔX0 (m) v0 ± Δv0 (m/s) ac.m. ± Δac.m. (m/s2) GoMotion 0,377 ± 0,002 0,03 ± 0,03 0,160 ± 0,001 Tato (1) 0,37 ± 0,03 0,04 ± 0,03 0,156 ± 0,007 Tato (2) 0,38 ± 0,02 0,02 ± 0,03 0,157 ± 0,007

IV. TESTANDO O SENSOR SONAR A. Medidas com o alvo estático

Antes de utilizarmos o sensor sonar diretamente em uma prática de cinemática, realizamos um primeiro conjunto de testes de desempenho em medidas com o alvo estático. Estes testes foram realizados comparando os valores das medidas de distância do sonar a um alvo imóvel colocado em posições predeterminadas através de uma régua milimetrada de referência, modelo profissional, marca Trident [14]. Adicionalmente usamos esta mesma sistemática para verificar o desempenho do sensor sonar modelo GoMotion, marca Vernier [15]. No teste com o sensor TATO utilizamos o valor de 340 m/s para a velocidade do ultrasom no ar diretamente no programa

computacional (ver apêndice A) que controla o microcontrolador OEM (ver apêndice B). A temperatura ambiente era de 20ºC no momento dos testes.

O sensor TATO apresentou sensibilidade aceitável de medida apenas a partir da distância de 22 cm até o alvo estático. Medidas abaixo deste valor foram desconsideradas para nossos propósitos. Na faixa que vai de 22 cm até 60 cm desde o sonar até o alvo, o desvio absoluto das medidas em comparação com a régua Trident se manteve constante e igual a 1 cm. Portanto, o desvio percentual esteve entre os limites do intervalo que vai de 4,5% até 9% (para 22 cm) até o valor de desvio mínimo que pode ir de 1,7% até 3,4% (para 60 cm). Os limites superiores dos intervalos apresentados são sempre abertos. Este critério foi adotado, pois pensamos que nosso sensor TATO, ao apresentar desvio absoluto de 1 cm em relação á medida da régua, poderia estar no limite de quase 2 cm sem no entanto

Sensor Sonar de Movimento para Ensino de Física Experimental

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 311 http://www.journal.lapen.org.mx

mostrar tal valor por não poder realizar a leitura da distância dentro do intervalo de 1 cm até 2 cm.

Na faixa que vai de 60 cm até 110 cm, o desvio que ocorreu sempre esteve nominalmente abaixo de 1 cm, portanto abaixo da nossa possibilidade de comparação. O valor apontado pelo sonar era idêntico ao valor da régua quando deslocávamos com o alvo de centímetro em centímetro no sentido oposto ao sensor. Neste caso, podemos afirmar que o desvio percentual nunca esteve superior a 1,7 %. Este valor foi tomado na pior hipótese (para o caso de estarmos no limite de 1 cm de desvio) e para a distância de 60 cm. Nas medidas entre 110 cm e 150 cm, a diferença nominal voltou a ser constante e de 1 cm, levando o desvio máximo possível até o valor de 1,8% porém nunca inferior a 0,9%. Acima do valor de 150 cm desde o sonar até o alvo não encontramos sensibilidade de medição aceitável, para nossos propósitos, por parte do sensor TATO. Esse limite de alcance é resultado da atenuação progressiva do ultrasom em função da distância, segundo a Eq. (2).

A frequência de ultrasom utilizada no projeto foi de 40 kHz, o que representa um comprimento de onda de ultrasom de 0,68 cm para propagação no ar com velocidade de 340 m/s. A resolução teórica do sensor sonar deverá ser então igual a este comprimento de onda do ultrasom [8]. A incerteza de cerca de 1 cm nas medidas descritas acima representa, aproximadamente, uma unidade de comprimento de onda do ultrasom, e pode ser considerada como uma estimativa da resolução do sensor sonar.

Na verificação de desempenho do sensor sonar GoMotion (limitado a medidas entre 15 cm e 600 cm segundo o próprio fabricante), comparamos seus resultados com as medidas da régua de referência. O sensor GoMotion disponibiliza resultados de medida de distância com resolução de 1 mm e acurácia de 2 mm. Utiliza ultrasom de frequência de 50 kHz e corrente de consumo de 51 mA [15].

Adotamos aqui o mesmo critério anterior. Medidas com desvio de 1 mm podem estar no limite de 2 mm maximizando-se assim o valor do desvio. Trabalhamos assim sempre com a pior hipótese. Comprovamos que em toda a faixa de medida testada por nós (entre 15 cm e 150 cm), o maior desvio percentual possível encontrado em relação aos valores medidos pela régua de referência foi de 2% na medida da posição 15 cm. No intervalo entre 15 cm e 30 cm, o desvio diminui de 2% até 1,3%. No intervalo que vai de 31 cm até 150 cm o desvio, mesmo maximizado, sempre esteve abaixo de 1%. Em todos os testes realizados anteriormente visando conhecer o grau de incerteza nas medidas, verificamos desvios típicos de flutuações de medida, ou seja, desvios aleatórios e nunca sistemáticos ou acidentais. B. Medidas com o alvo em movimento Propomos a seguir uma experiência de cinemática translacional e rotacional onde medimos a posição da lateral refletora de um cilindro oco, feito de papelão, que desce em rolamento (sem escorregamento) por um plano inclinado conforme mostra a figura (2). Neste experimento

necessitamos, além dos sensores de movimento, o cilindro e o plano inclinado (uma simples bancada de laboratório em nosso caso).

FIGURA 3. Gráfico que compara as medidas de distância e tempo relativas ao movimento de um cilindro que desce rolando um plano inclinado de 16º em relação a direção horizontal. O desvio máximo entre as medidas tomando como referência o sensor GoMotion está abaixo dos 5%. Quando realizamos medidas com sensores tipo sonar, é importante tomar o cuidado com reflexões espúrias que podem atrapalhar. Portanto, retire objetos que estejam próximos à trajetória prevista para o alvo evitando assim que a onda reflita em tais obstáculos e seja percebida indevidamente pelo sonar. Isto acontece até mesmo com móveis ou cadeiras colocadas próximas ao “set” experimental. Uma dica é esvaziar o local ou na impossibilidade, deixar um objeto alvo estático a cerca de 150 cm e movimentar os objetos ao redor para ver se estes estão sendo “percebidos” pelo sonar. Materiais pouco refletores como roupas (tomadas como alvo) podem dificultar a medida do sonar. Utilize este artifício se não for possível retirar um objeto refletor para longe do “set' de medidas. É importante cuidar também as fontes indesejáveis de ultrasom no ambiente e que trabalham no mesmo intervalo de frequência. Incluímos ai motores, trilhos de ar para experiências de cinemática, computadores e monitores (estes últimos devem ficar a, no mínimo, um metro de distância na retaguarda do sensor). Se o seu ambiente de medidas está repleto de objetos refletores ou se você não consegue eliminar alguma reflexão espúria persistente, coloque o sonar sobre um pano horizontal (tipo flanela) em frente e abaixo deste. Isso poderá ajudar. Procure trabalhar escolhendo alvos com superfícies refletoras bem regulares evitando assim reflexões irregulares. Múltiplos detectores de movimento podem “conversar” indevidamente se estiverem no campo de sensibilidade e retorno um do outro [15].

Ativamos o sensor TATO e depois soltamos nosso cilindro do repouso. Ao chegar ao final do trajeto, desligamos o sonar e colhemos os dados de posição e

Fábio Saraiva da Rocha, Paulo Henrique Guadagnini

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 312 http://www.journal.lapen.org.mx

tempo diretamente através da tela de nosso computador. O programa usado para esta visualização foi o 232 Analyzer (ver apêndice B). Realizamos diversas corridas para o cilindro.

Para fins de comparação, realizamos esta mesma experiência utilizando o sensor sonar GoMotion posicionando este no mesmo local do sensor TATO. Os dados colhidos com este sensor foram transmitidos diretamente através da porta USB do computador e armazenados numa tabela do programa computacional Logger Pro 3.6.1 também da Vernier [16]. Este programa permite observar, em tempo real, o gráfico dos pontos coletados (posição e tempo) enquanto o sonar mede.

A figura (3) mostra o gráfico de comparação da medida da posição da lateral refletora do cilindro em sua descida utilizando o sensor TATO e utilizando o sensor Vernier. Como todas as nossas medidas apresentaram flutuações dentro dos valores esperados a partir do estudo expresso na sessão de medidas estáticas, e com vistas a possibilitar melhor visão de comparação entre os dados medidos, divulgamos no gráfico da figura (3) apenas uma medida com o sensor GoMotion e duas com o sensor TATO.

O gráfico da figura (3) permite comparação entre o desempenho dos sensores. As medidas feitas com o sensor GoMotion representam um bom parâmetro de comparação para o sonar TATO pois além de apresentar menores desvios percentuais em relação a nossa régua de referência, possui boa taxa de medida (até 50 medidas por segundo). Aqui em nossa medida utilizamos a taxa de 20 Hz, ou seja, 20 medidas por segundo. A chave de sensibilidade do sensor GoMotion esteve sempre na posição “Track” escolha que minimiza a possibilidade de reflexões espúrias. Na medida da posição do alvo em movimento, pelo gráfico da figura (3) podemos notar que o sensor TATO apresenta certa dispersão em relação ao GoMotion mas não chega a representar mais de 5% de diferença para o valor absoluto medido. O sensor GoMotion foi tomado como referência aqui.

Através da medida da posição da lateral do cilindro pode-se chegar à medida da posição do centro de massa (c.m.) do cilindro apenas acrescentando a distância do raio do cilindro (5,75 cm) ao valor de posição medido pelo sonar. O c.m. do cilindro que desce o plano inclinado descreve um movimento retilíneo uniformemente variado. Se a partir de nossa prática tivermos o objetivo de encontrar a aceleração translacional, esperada constante, para o c.m. de nosso cilindro podemos proceder a um ajuste numérico de curvas. Para a translação o ajuste é quadrático se o movimento do c.m. é uniformemente acelerado [17], ou seja:

2..00.. 2

1 tatXX mcmc ++= ν (5)

Os valores do ajuste e seus respectivos erros numéricos (± Δ) foram obtidos com o uso do programa Origin 6.0, utilizando o método dos mínimos quadrados, e estão sumarizados na tabela I.

Através dos dados da tabela I para as duas medidas feitas para o sensor TATO, podemos notar que em todas as

três grandezas físicas analisadas (posição, velocidade e aceleração), se somarmos ou diminuirmos o erro numérico do valor encontrado através do ajuste para a grandeza física em questão, estaremos englobando o valor obtido e seu respectivo erro (pelo ajuste numérico) para a mesma grandeza utilizando os dados do sensor GoMotion. Os maiores valores de erros numéricos encontrados para os ajustes dos dados do sensor TATO expressam a menor taxa de leitura deste sensor (3 por segundo) e, é claro, a maior dispersão dos dados de posição colhidos através deste sensor.

A criatividade do professor pode ajudar muito na exploração dos conceitos físicos da cinemática a partir do uso do sensor sonar. Por exemplo, podemos inverter a posição do sonar na figura (2) e colocá-lo no ponto final do movimento para ver o novo gráfico de posição do cilindro em função do tempo. Isso deverá reforçar a noção de sistema de referência e sentido do movimento. Podemos forçar o conflito cognitivo, se, por exemplo, pedimos aos alunos que antes da prática façam uma previsão do gráfico que será obtido em cada caso. Também é interessante mudar a inclinação da rampa para ver o impacto da mudança na aceleração do centro de massa do cilindro sobre o gráfico de deslocamento. Em outra prática, usando um corpo que desliza, podemos introduzir e propor modificações no coeficiente de atrito. Monitorar movimentos periódicos através do sonar, por exemplo, movimento de um pêndulo físico, poderá ser muito útil na explicação dos conceitos de período, frequência, amortecimento, amplitude de movimento, energia dissipada, entre outros. O importante é que na escolha da experiência física que se quer estudar, se tenha claro o critério de velocidade do alvo adequado a sensibilidade e limitação do sensor proposto neste projeto. Nosso sensor apenas é capaz de fornecer três leituras de posição por segundo. V. CONSIDERAÇÕES FINAIS A principal finalidade deste trabalho foi detalhar a construção de um sensor sonar de movimento para uso em experiências de física experimental, a partir de componentes eletrônicos que podem ser adquiridos diretamente no mercado nacional por um custo relativamente baixo. Os testes de comparação deste sensor com a régua de referência e com outro sensor sonar comercial atestam a confiabilidade dos dados medidos para uso em experiências com fins meramente didáticos. Quando utilizado diretamente numa experiência de cinemática, nosso sensor foi capaz de medir os dados de posição e tempo apresentando, no máximo, 5% de desvio em relação aos dados de referência medidos através do sensor sonar comercial. Acreditamos que seja útil e muito interessante o uso deste sensor para, além de possibilitar o estudo experimental dos movimentos da Física, envolver os alunos na montagem e replicação deste projeto. Claro que esta proposta de montagem do protótipo deve estar direcionada ao nível de escolaridade adequado de nossos estudantes.

Sensor Sonar de Movimento para Ensino de Física Experimental

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 313 http://www.journal.lapen.org.mx

AGRADECIMENTOS Agradecemos ao Senhor Octávio Nogueira da equipe de apoio da empresa TATO EQUIPAMENTOS ELETRÔNICOS LTDA, pelas dicas de funcionamentos dos produtos aqui utilizados. Agradecemos a Professora Dra. Priscilla Laws da Dickinson College (U.S.A.) pela cedência do sensor sonar GoMotion possibilitando medidas importantes apresentadas neste trabalho. Agradecemos a Professora Vania Elisabeth Barlette do Centro Universitário Franciscano (UNIFRA) pela cuidadosa revisão desta obra. REFERÊNCIAS [1] Gaspar, A, Experiências de Ciências Para o Ensino Fundamental, Editora Ática, São Paulo (2005). [2] Haag, R., Araújo, I. S., and Veit, E. A., Por que e como introduzir aquisição automática de dados no laboratório didático de Física?, Física na Escola, São Paulo 6, 89-94 (2005). [3] Figueira, J. S., and Veit, E. A., Usando o Excel para medidas de intervalo de tempo no laboratório de Física. Revista Brasileira de Ensino de Física, São Paulo 26, 203-211 (2004). [4] Borges, T. A., Novos Rumos para o Laboratório Escolar de Ciências, Caderno Brasileiro de Ensino de Física 19, 9-31 (2002). [5]www.vernier.com, consultado em 05 de abril de 2010. [6]www.pasco.com, consultado em 05 de abril de 2010. [7]www.vernier.com/labequipment/wdss.html, consultado em 05 de abril de 2010. [8] Morris, A. S., Measurement and Instrumentation Principles, (Butterworth Heinemann, 3th edition, Oxford, 2001). [9] Webster, J. G. (Editor), The Measurement, Instrumentation and Sensors Handbook, (CRC Press, 1th edition, New York, 1999). [10]www.tato.ind.br/files/sonar.pdf, consultado em 05 de abril de 2010. [11]http://revista.pcs.usp.br/n3/r003c002.pdf, consultado em 05 de abril de 2010. [12]www.arnerobotics.com.br/eletronica/basic_step_OEM.htm, consultado em 05 de abril de 2010. [13]www.232analyzer.com

[14]

, consultado em 05 de abril de 2010.

www.trident.com.br, consultado em 05 de abril de 2010.

[15]www.vernier.com/probes/motion.html,

consultado em 05 de abril de 2010.[16]www.vernier.com/soft/lp.html,

consultado em 05 de

abril de 2010.[17] Tipler, P. A., Física, volume 1, (Livros Técnicos e Científicos, Rio de Janeiro, 2000). [18]www.radiopoint.com.br/MICROCONTROLADORES/MicrocontroladoresBASICStep.pdf, consultado em 05 de abril de 2010. [19]www.tato.ind.br/files/Tutorial%20BASIC%20Step%201.doc , consultado em 05 de abril de 2010.

[20]www.tato.ind.br/downloads.asp,

consultado em 05 de abril de 2010.[21]www.verlab.dcc.ufmg.br/_media/cursos/.../2009.../comunicacao_serial.pdf, consultado em 05 de abril de 2010.[22]www.windmill.co.uk/rs232.html,

consultado em 05 de

abril de 2010. APÊNDICE A Na figura (A1), temos a estrutura do conjunto de instruções escritas em TBASIC [18, 19] e enviadas ao microcontrolador OEM. A figura também mostra o programa compilador Basic Step 1.221 [20] que pode ser baixado diretamente do site do fabricante sem custos financeiros. O Basic Step 1.221 além de compilar as instruções escritas em TBASIC, faz a conexão com o microcontrolador através da porta serial possibilitando a gravação simples e direta sobre o microcontrolador OEM (evitando assim gravadores especiais). O programa desenvolvido em nosso projeto utiliza um “loop” que permite a coleta dos dados enviados pelo módulo sonar (comando Pulsin), a leitura da base de tempo do próprio microcontrolador (comando Write) e o envio destes dados através da porta serial (comando Serout).

Devemos escrever o código do nosso programa diretamente na tela principal do programa Basic Step 1.221 e logo em seguida utilizar o botão de compilação para ter certeza que o programa entende suas instruções e que não existe nenhuma correção a fazer em termos da sintaxe correta. Após isso, é necessário utilizar o botão “download” que grava diretamente no microcontrolador o conjunto de instruções que você escreveu. Finalizada esta etapa, devemos fechar o programa Basic Step 1.221 e retirar o fio 2 (RX dado) que vem do conector DB9 para a porta 16 do OEM e colocá-lo na porta 13 que corresponde ao PIN7 do mesmo microcontrolador (ver figura (B1)) para receber os dados pela porta serial. Ao fechar o programa Basic Step 1.221 você desocupa a porta serial para que o programa 232 Analyzer possa ser usado na mesma porta de comunicação. É importante lembrar sempre de desligar a alimentação de +5 V antes de desconectar e reconectar o fio 2 (RX dado) do microcontrolador OEM. Esta troca de conexão serve para possibilitar o uso do comando “Serout” do TBASIC. Quando o 232 Analyzer for ativado e o conjunto dos componentes do projeto for alimentado, os dados de posição e tempo aparecerão na tela do computador. O uso deste programa de comunicação serial pode se dar de forma simples se apontamos corretamente a porta de comunicação do computador e depois acertamos a taxa de transmissão de sinal por “bit” de dados que no caso do nosso projeto ocorreu a 2400 dados por segundos. Importante ainda atentar as seguintes condições solicitadas pelo programa 232 Analyzer: Data (8), Parity (none) e configurar para o aparecimento dos dados pelo formato numérico decimal.

Fábio Saraiva da Rocha, Paulo Henrique Guadagnini

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 314 http://www.journal.lapen.org.mx

FIGURA A1. Tela principal do programa computacional Basic Step 1.221, onde se pode ver o código do programa usado para dar instruções ao microcontrolador Basic Step-1 OEM.

FIGURA B1. Mapa de informações que permite entender as ligações entre o conector DB9 e o microcontrolador OEM. Importante não se esquecer de interligar o terra do cabo DB9 ao terra do módulo sonar, ao terra do microcontrolador OEM e ao terra da fonte de alimentação do circuito. Figura adaptada do site do fabricante do Basic Step-1 OEM.

O 232 Analyzer não é único programa computacional disponível para comunicação serial e existem formas alternativas para a coleta dos dados [21]. A literatura na internet aponta que é possível, inclusive, utilizar uma rotina escrita em Visual Basic (Microsoft) para uso dentro do programa Excell (Microsoft) possibilitando receber e plotar os dados recebidos da serial em tempo real [22]. Este rotina ainda não foi testada pelos autores deste projeto.

APÊNDICE B

A comunicação entre o computador e o microcontrolador é estabelecida fisicamente através de um cabo serial que pode ser preparado por você mesmo para tal fim. Na porta serial, o pino 2 (RX dado) permite a recepção de dados e o pino 3 (TX dado) permite a transmissão de dados. O pino 5 é o pino terra (GND). A ligação do cabo serial DB9 com o microcontrolador OEM pode ser visto na figura (B1). Você poderá adaptar o cabo serial de um mouse antigo para esta

Sensor Sonar de Movimento para Ensino de Física Experimental

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 315 http://www.journal.lapen.org.mx

comunicação, ou adquirir um conector DB9 fêmea em uma empresa especializada em componentes eletrônicos. Para isso utilize apenas os fios 2, 3 e 5 (figura (B1)) e despreze os demais.

O microcontrolador Basic Step OEM foi adquirido ao preço de R$ 29,00 diretamente pelo site do fabricante. Este microcontrolador possui encapsulamento tipo DIP 18, 8

linhas de I/O bidirecionais programáveis independentemente, 5 entradas analógicas (conversores AD), 256 bytes de memória de programa EEPROM, 16 bytes de memória RAM e Clock interno de 8 MHz. O esquema de ligações deste dispositivo eletrônico está mostrado na figura (B1).

FIGURA B2. Diagrama de blocos que identificas as principais interligações entre os componentes do projeto de construção do sensor sonar.

O módulo sonar foi adquirido da TATO Equipamentos Eletrônicos Ltda ao preço de R$ 50,00. Este módulo tem quatros 4 pinos com as seguintes funções: dois de alimentação (+5 V e 0 V do terra), um pino de saída que envia um pulso cuja duração é igual o tempo que o som leva para ir até o alvo e voltar ao módulo e possui também um pino de entrada que, quando em nível baixo (0V) ou

desligado, repete a medição indefinidamente. Segundo informa o fabricante, o sensor tem uma corrente de consumo médio de 2 mA, o alcance mínimo é de 20 cm e máximo de 1,5 metros. A figura (B2) mostra o mapa de ligações elétricas entre os componentes do projeto.

Lat. Am. J. Phys. Educ. Vol.4, No. 2, May 2010 316 http://www.journal.lapen.org.mx

A new theory, a new practice.... Blackboard Physics Laboratory and assisted by free software (STEP), directed to Technologists in Systematizing of Data

Harley J. Orjuela Ballesteros Research Group Physics and Informatics Fisinfor, Faculty of Sciences and Education, Distrital University, Carrera 3 No.26 A - 40, Bogotá, Colombia. E-mail: [email protected] (Received 26 April 2010; accepted 17 May 2010

Abstract The physical sciences have been, are and will be a major conceptual pillars and applications that an engineer and technologist should take their knowledge and their professional practice as it helps in the development of his thinking and in the structure of his mind, and this is where the teacher should be a guide to build along the same students with solid knowledge of a man of science, of course, from the classroom with the different tools developed, in this paper is to show an alternative method physics education in which practical and theoretical link simulated in the classroom, laboratory and computer software under free. Keywords: General physics, software reviews, Computers in experimental physics.

Resumen Las ciencias físicas han sido, son y serán uno de los principales pilares conceptuales y aplicativos que un ingeniero y tecnólogo deben tener en su saber y en su praxis profesional, ya que contribuye en el desarrollo de su pensamiento como en la estructura de su mente, y es aquí donde el docente debe ser un guía que construya junto al mismo alumno los sólidos cimientos de un hombre de ciencia, claro esta, desde el aula de clase con las diferentes herramientas desarrolladas, en este escrito se pretende mostrar un método de educación alternativo en donde la física teórica y práctica se enlazan con simulaciones en el aula, en el laboratorio y en el ordenador bajo software libre. Palabras clave: Física General, Sofware , Computadores y Física Experimental. PACS: 01.55.+b, 01.50.hv, 07.05.-t ISSN 1870-9095

I. INTRODUCTION The teaching of physics has had issues and views generated much controversy, because although every day we explore new tools in education as the so-called ICT (Information Technology and Communication), the experiment and epistemological contribution in the teaching of this science, it denotes the importance of such tools in secondary education and university level, more precisely in engineering, but since the technology careers such information through a question arises, how massify and strengthen the educational process at this point to keep the work done before and the work being carried posterity?

II. THE ANALYSIS A. The Chalkboard.... the kind seen by the student system technology

A constructivist model (focusing on the construction of knowledge by the student). It is proposed to models of existing concepts in the student and then tested to improve, modify, or build new ones.

1. The teacher shows the concepts, introduces them, provides examples.

2. The student first learns by listening and observing different experimental models also then imitates and develops different exercises to strengthen knowledge.

3. The teacher presents and organizes a series of situations with different constraints (teaching variables in these situations), organizes the different stages Introduces them and provides examples. (action, formulation, validation and institutionalization), organizes the communication of any kind, proposes at the right time conventional elements knowledge (notations, terminology).

4. The student tested, seek, propose solutions, confronted with those of their peers, defend their positions and argue the results.

Harley J. Orjuela Ballesteros

Lat. Am. J. Phys. Educ. Vol.4, No. 2, May 2010 317 http://www.journal.lapen.org.mx

B. Conflict Management class academic While all kinds of sciences, physics in this case, there are conflicts in the learning of a concept or handling a mathematical exercise, as well as in the development of laboratory experiments, the handling of such conflicts are resolved mostly in groups, i.e. in the development of the master class, where other students help in the advancement and understanding of the issue raised, with examples and exercises conceptual distressing, however, if this problem is not resolved in that way Professor assesses practitioner performed after the class which seeks to resolve any questions that arise C. The Chalkboard.... the kind seen by the student system technology The Distrital University Francisco Jose de Caldas has excelled in the academic national and international quality training of professionals in its various undergraduate and graduate, but thanks to the revolution in education (to call them that), has generated a great impact on the training of technologists and the massification of education, providing academic opportunities to a population that yearns for a future professional projection and the most important quality.

However, prospective students and technologists (some future engineers) have a more proactive in acquiring scientific knowledge, higher-level knowledge, knowledge that self-awareness, will be required for their careers and professional.

FIGURE 1. Students at the XIV technological weeks.

But how they perceive the class ?..... students are very perceptive in the attitude of the teacher at the time of his chair, and in this particular case the teacher practitioner, but not only his attitude to the chair by itself or his mastery of the subject, also consider the called the blackboard, this domain being vital for the understanding of the theme, (THE PHYSICS), but the board should not be a device which is (copy and paste) the readings of the books, the equations to

solve or needs to be done, it is essential to generate the questions that led to answers as a starting point in solving practical problems and physical systems, students cooperate in the inspection and search results to the questions generated by the board that while has been the tool by excellence in teaching, can be enhanced by epistemological and historical aspects that feed the teaching of the lecture .... The classroom or auditorium, see figure 1 D. The Experiment... A large motivation Student Once the lecture focused and carried out the reinforcement on the board, the student has struck, he can be physical, and this will only denoted in the laboratory, but not in the classic laboratory development and thus is reference laboratories for general use, to achieve a real application the student sample and generates its own elements of measurement, in this case the construction of the assembly as a whole, in the case of classical mechanics by asking the student to design a mobile wood which will summarize all the concepts and apply appropriate lectures and laboratories predecessors, these concepts are as set forth in abut issues classical kinematics and dynamics.

The method to be followed in the construction of knowledge throughout the experiment are, see figure 1:

1. Mount Construction. 2. Taking Action. 3. Discussion of results.

FIGURE 2. a. The laboratory Construction, b. taking measurements, c. Discussion. E. ICT's as a tool in teaching physics As noted by Lic Aries M. Cañellas Cabrera in his article (Impacto de las TIC en la educación: un acercamiento desde el punto de vista de las funciones de la educación), "Interactivity, which is one of the features that allow you to acquire a full sense in the field of training, and allows interaction subject - machinery and adapting it to educational and cognitive characteristics of the person. Facilitating this way that subjects are not merely passive

Of the theory to the practice.... the Physics from the table, the laboratory and the computer

Lat. Am. J. Phys. Educ. Vol.4, No. 2, May 2010 318 http://www.journal.lapen.org.mx

recipients of information but active processors and aware of it."[1]

Students reinforce the knowledge learned from the board and his experience in interactive media complement theoretical and practical aspects in the completion of the course.

But the phenomenon of ICT becomes more complex when applied new technologies to education, since its influence in this respect (though not the only one it is which gives more power) goes beyond its potential for learning and training [2].

This latest tool reinforces the matters discussed in lectures and practical lessons learned in the pilot, the only difference lies in the individuality that it generates in the student, i.e., the first steps in learning is given in the group work (lecture and experiment), but the latter tool searches the acquisition and final construction of knowledge. F. The free software (Step) applied to the completion of the teaching - learning process STEP, More Than a Physical Simulator is an educational tool in teaching physics, but with some details that enhance its educational role, the most important you can highlight the fact that free software, besides being open source (open source), which partially or completely modify its source code. The simulations developed in this educational software focuses on theoretical aspects of physics, mainly in Physics Mechanics, Electrostatics, Thermodynamics and Molecular Dynamics [3, 4].

FIGURE 3. Simulation developed by students, taken from (STEP). http://proyectostep.tk/). For laboratory practices developed by the students is emphasized in classical mechanics uniform accelerated motion and without acceleration, in addition to this is emphasized in the Newtonian dynamics as seen in Figures 3 y 4:

FIGURE 4. Source code of the simulation developed by students in which students analyze the motion of a harmonic oscillator. III. CONCLUSIONS The most suitable in relation to teaching and education is concerned is the successful deployment of the tools you have, because the tools themselves cannot accomplish the work of education, i.e., the laboratory more accurate, more perfect simulation, the more consistent mathematical development or historical and epistemological development can foster more accurate or direct the student to learn lines, and even more, knowing a student's level of technology, which is the product of a process which culminated in the development of his professional practice as a technologist and engineer, plus professional feedback, teacher in charge. The role of the teacher who devotes her life to questioning can foster the student newspaper with their work in class as the teacher showed us Stephen Hawking in one of his greatest works: The world has changed more in the last hundred years than in any previous century. The reason for this were not the new political and economic doctrines, but the great developments sponsored by the progress in basic science [5]. REFERENCES [1] Aries M., Impacto de las TIC en la educación: un acercamiento desde el punto de vista de las funciones de la educación (Revista de Nuevas Tecnologías y Sociedad Cañellas Cabrera, No. 43, ISSN 1575-9393, 2006). [2] Cabero, J. et al., Impacto de las TIC en la educación: un acercamiento desde el punto de vista de las funciones de la educación educación (Revista de Nuevas Tecnologías y Sociedad Cañellas Cabrera, No. 43, ISSN 1575-9393, 2006). [3] Orjuela B., Harley. et al., Desarrollo De Step, Un Nuevo Simulador Interactivo, Como Una Propuesta Alternativa En El Perfeccionamiento De Herramientas En La Enseñanza De La Física. (Memorias Simposio Centroamericano y del Caribe de Física XXVIII CURCCAF. San José, Costa Rica, 2009).

Harley J. Orjuela Ballesteros

Lat. Am. J. Phys. Educ. Vol.4, No. 2, May 2010 319 http://www.journal.lapen.org.mx

[4] Orjuela B., Harley et al., Curva de Bowditch de un sistema de dos osciladores Simétricos, analizado y modelado bajo interfaz gráfica libre, (Memorias Simposio Centroamericano y del Caribe de Física XXVIII CURCCAF. San José, Costa Rica, 2009).

[5] Hawking, S., On The Shoulders of Giants (Running Press, New York, 2002).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 320 http://www.journal.lapen.org.mx

Determination of electromagnetic cavity modes using the Finite Difference Frequency-Domain Method

J. Manzanares-Martínez1, D. Moctezuma-Enriquez2, R. Archuleta-García2

1Centro de Investigación en Física de la Universidad de Sonora, Apartado Postal 5-088, Hermosillo, Sonora CP 83190, México. 2Programa de Posgrado en Ciencias(Física), Centro de Investigación en Física de la Universidad de Sonora, Apartado Postal 5-088, Hermosillo, Sonora CP 83190, México.

E-mail: [email protected] (Received 17 February 2010, accepted 16 May 2010)

Abstract In this communication we propose a numerical determination of the electromagnetic modes in a cavity by using the Finite Difference Frequency-Domain Method. We first derive the analytical solution of the system and subsequently we introduce the numerical approximation. The cavity modes are obtained by solving an eigenvalue equation where the eigenvectors describe the eigenfunctions on the real space. It is found that this finite difference method can efficiently and accurately determine the resonance modes of the cavity with a small amount of numerical calculation. Keywords: Numerical computation, Finite Differences, Frequency-Domain.

Resumen En este trabajo proponemos una determinación numérica de los modos electromagnéticos en una cavidad por medio del uso del Método de Diferencias Finitas en el Dominio de la Frecuencia. Primero derivamos la solución analítica del sistema y subsecuentemente introducimos una aproximación numérica. Los modos de la cavidad son obtenidos al resolver la ecuación de eigenvalores donde los eigenvectores describen las eigenfunciones en el espacio real. Se puede observar que este método puede ser eficiente y preciso para determinar los modos de resonancia de la cavidad sin necesidad de cálculos numéricos excesivos. Palabras clave: Computación numérica, Diferencias Finitas, Dominio de la Frecuencia. PACS: 41.20.Jb,41.20.CV,42.25.Bs ISSN 1870-9095

I. INTRODUCTION Since the introduction of Maxwell equations a great effort has been developed to the modeling of different practical situations. Analytical methods are limited to simple geometries. For complicate geometries it is necessary a numerical formulation. Different numerical methods have been applied to analyze electromagnetic problems. For example, for Photonic Crystals the Plane Wave Method (PWM) solves the wave equation using a Fourier expansion of the periodic functions [1, 2]. On the other hand, to determine the electromagnetic field distribution for non-periodic problems are used methods as the Finite Element Method (FEM), [3, 4, 5, 6, 7] Method of Moments (MoM) [8, 9, 10] or Finite Difference Time-Domain Methods (FDTD). [11, 12, 13] Usually PWM, FEM, MoM and FDTD allow a good approximation for problems with complex boundaries.

In this work we introduce the analysis of the wave equation using Finite Difference Frequency-Domain Method (FDFD). [14, 15] We consider an eigenvalue equation where the electromagnetic fields are described in

the real space. We have found that our method is flexible and gives good convergence with a minimal numerical effort. Even if the physical system is simple, the formulation here described can be easily extended to more complicate problems.

This paper is organized as follows. Section 2 presents the problem and its analytical solution. Section 3 introduces the finite difference version of the wave equation. In order to illustrate our ideas, first we proceed by solving three analytical cases and then we consider the general problem. In section 4 we present an analysis to illustrate the accuracy of the method. Finally, conclusions are outlined in section 5. II. ANALYTICAL ANALYSIS We apply the FDFD to find the resonant modes in a one-dimensional metal cavity resonator. Several practical situations involve the propagation or excitation of

Determination of electromagnetic cavity modes using the Finite Difference Frequency-Domain Method

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 321 http://www.journal.lapen.org.mx

electromagnetic waves in hollow metallic container or cavities [16].

The cavity is presented on Fig. 1. In panel (a) we illustrate an air segment d surrounded by metallic boundaries. The system is similar to the well-known infinite quantum well that we illustrate on panel (b).

FIGURE 1. One dimensional cavity of width d. Panel (a) shows a segment of air limited by perfect metal. Panel (b) illustrates the similarity of the cavity with an infinite quantum well. With sinusoidal time dependence i te ω− for the fields, the electromagnetic wave equation is

2 2

2 2( ) ( ) ( ).E x x E xx c

ω ε ∂

= − ∂ (1)

The dielectric function is position dependent on the form

0,

( ) 1 0 ,.

xx x d

x dε

∞ == < <∞ =

(2)

The boundary conditions are

( 0) 0,( ) 0.

E xE x d

= == =

(3)

The analytical solution of the wave equation is

0( ) sin m xE x Edπ =

(4)

In the Figure 2 we illustrate the first four eigenfunctions. The allowed frequencies of the resonant cavity are

2 2

.md cπ ω =

(5)

It is convenient to write the solutions in terms of a reduced frequency

ˆ ,Am mω = ± (6)

where we have introduced

ˆ .Am

dc

ωωπ

= (7)

FIGURE 2. Illustration of the first eigenfunctions of the resonant cavity. III. THE FINITE DIFFERENCE SOLUTION We consider a finite difference approximation to the derivative using central finite differences [11]

( ) ( ) ( )2 2.

E x x E x xE x

x x+ ∆ − −∆∂

=∂ ∆

(8)

Where x d N∆ = and N is the number of partitions of the cavity. The second derivative is

( ) ( ) ( ) ( )( )

2

22

2.

E x x E x E x xE x

x x+ ∆ − + −∆∂

=∂ ∆

(9)

We substitute this equation in eq. (1) to obtain the finite difference version of the wave equation

( ) ( ) ( ) ( )2 ,i i i iE x x E x E x x E xλ− + ∆ + − + ∆ = (10)

where we have introduced

2dcNωλ =

. 11)

It is convenient to write the reduced frequency as

ˆ Nω λπ

= . (12)

To illustrate the solutions of Eq. (10) we first consider an analytical treatment for the cases of N =2, 3, 4. Then we consider the case of arbitrary number of partitions N.

A. The case of N=2 The case of a partition N=2 for the cavity is illustrated in Fig. 3, panel (a). The finite difference wave equation for the point 1 2x d= is

J. Manzanares-Martínez, D. Moctezuma-Enriquez y R. Archuleta-García

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 322 http://www.journal.lapen.org.mx

( ) ( ) ( ) ( )2 2 0 2 .E d E d E E dλ− + − = (13)

Considering the boundary conditions of Eq. (3) we find that the solution is

2λ = . (14) The reduced frequency is

2 2ˆ 0.9003ωπ

= = . (15)

This value is our first approximation to the analytical solution 1ˆ 1Aω = . In order to obtain a better convergence it is necessary to take more partitions N.

FIGURE 3. Discrete Partitions of the cavity of width d. Panel (a), (b) and (c) show the cases for N=2, 3 and 4, respectively. B. The case of N=3 In Fig. 3, panel (b) is show the partition of the cavity for the case N=3. The finite difference version of the wave equation for the points ( )1 1 3x d= , ( )2 2 4x d= is

( ) ( ) ( ) ( )2 3 2 3 0 3E d E d E E dλ− + − = , (16) and

( ) ( ) ( ) ( )2 2 3 3 2 3E d E d E d E dλ− + − = . (17) Taking account of the boundary conditions [Eq. (3)], these equations can be written as an eigenvalue problem

( )( )

( )( )

3 32 12 3 2 31 2

E d E dE d E d

λ −

= − . 18)

The solutions can be found by solving the determinant

2 10

1 2λ

λ−

=−

. (19)

The characteristic polynomial is

2 4 3 0λ λ− + = . (20) The solutions are

1

2

1,3.

λλ==

(21)

Using Eq. (12) we found the reduced frequencies

13ˆ 0.9549ωπ

= = , (22)

and

3 3ˆ 1.6539ωπ

= ± = . (23)

We have found that the first eigenvalue is closer to the analytical. On the other hand, 2ˆ 1.6539ω = is far from the analytical solution 2ˆ 2ω = . C. The case of N=4

The case of four partitions is illustrated in Fig. 3, panel (c). The wave equation for the discrete points ( )1 1 4x d= ,

( )2 2 4x d= , ( )3 3 4x d= is

( ) ( ) ( ) ( )2 4 2 4 0 4E d E d E E dλ− + − = , (24)

( ) ( ) ( ) ( )3 4 2 2 4 4 2 4E d E d E d E dλ− + − = . (25) and

( ) ( ) ( ) ( )2 3 4 2 4 3 4E d E d E d E dλ− + − = . (26) This system can be written as a an eigenvalue problem in the form

( )( )( )

( )( )( )

2 1 0 4 41 2 1 2 4 2 4

0 1 2 3 4 3 4

E d E dE d E dE d E d

λ−

− − = −

. (27)

Determination of electromagnetic cavity modes using the Finite Difference Frequency-Domain Method

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 323 http://www.journal.lapen.org.mx

The solutions are found by solving the determinant

2 1 01 2 1 0.

0 1 2

λλ

λ

− −− − − =

− −

(28)

The characteristic polynomial is

( )( )22 4 2 0.λ λ λ− − + = (29)

The solutions are

1

2

3

2 2,2,

2 2.

λλ

λ

= −=

= +

(30)

The corresponding reduced frequency solutions are

14ˆ 2 2 0.9795,ωπ

= − = (31)

24ˆ 2 1.8006ωπ

= = , (32)

34ˆ 2 2 2.3526ωπ

= + = . (33)

The first reduced frequency has now a good approximation to the analytical solution. Nevertheless, for the second and third value we have not acceptable values.

FIGURE 4. Numerical solution for N=8. Panel (a) show the comparison between analytical solution (filled circles) with the numerical solution (open circles). Panels (b)-(e) present the first four eigenfrequencies of the cavity (m=1, 2, 3 and 4). D. The general Case

For the general case of any further number of partitions N we can write the system of equations

This system is of the form AX = λX and we can solve with standard numerical techniques to find the eigenvalues (λ) and the eigenvectors (X).

( )( )( )

( )( )( )

( )( )( )

( )( )( )

2 1 0 0 0 021 2 1 0 0 030 1 2 0 0 0

30 0 0 2 1 020 0 0 1 2 1

0 0 0 0 1 2 1

23

3

2

1

E d NE d NE d N

E N d N

E N d N

E N d N

E d NE d NE d N

E N d N

E N d N

E N d N

λ

− − − − − − − − − − −

= − −

.

(34)

TABLE I. Comparative table for the numerical approximations of the eigenvalues. In the first Column we have the analytical solution. On the other columns we have the numerical approximations for the several values of N.

ˆ Amω

N=2 N=3 N=4 N=5 N=6 N=7 N=8

1 0.9003 0.9549 0.9795 0.9836 0.9886 0.9916 0.9936

2 1.6539 1.8006 1.8710 1.9099 1.9338 1.9490

3 2.3526 2.5752 2.7009 2.7768 2.8295

4 3.0273 3.3080 3.4641 3.6013

5 3.6892 4.0150 4.2346

6 4.3445 4.7053

7 4.9951

IV. NUMERICAL EXAMPLES

In table I we present a comparison for the approximation of the eigenvalues for the first N = 8 partitions values. The first column presents the analytical eigenvalue. The others columns present numerical eigenvalues. In Figure 4 we present the solutions that are obtained for N=8. In panel (a) we present with solid circles the analytical solutions and with open circle the numerical solution. We observe that the convergence is very good for the first eigenfrequency, m=1. For the second and third eigenfrequencies (m=2, 3), the convergence is acceptable. For the fourth and greater frequencies (m ≥ 4), we have not an acceptable convergence of the numerical approximations. In panels (b) - (e) we present the first four eigenfunctions.

We have as the number of partitions increases. In Fig. 5, panels (a) and (b) we present the comparison of the analytical (solid circle) and numerical (open circle) for partitions of N=20 and N=50, respectively. We find a good convergence for m ≤ 5and m ≤ 12, respectively.

J. Manzanares-Martínez, D. Moctezuma-Enriquez y R. Archuleta-García

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 324 http://www.journal.lapen.org.mx

V. CONCLUSIONS

We have presented a numerical procedure to determine the resonant modes for a cavity limited by metallic boundaries. We have introduced a finite difference version of the wave equation and then we propose an eigenvalue problem where the eigenfunctions describe the electromagnetic field in the real space. We have found that our procedure obtains good accuracy for the first eigenvalues. Our future work will be devoted to apply this method to more complex geometries in periodic systems, in particular we are interested in the application of this method to the case of photonic crystals.

FIGURE 5. Comparison of the analytical (filled circles) and numerical (open circles) determination of the eigenvalues. Panel (a) and (b) show the cases for N=20 and N=50, respectively. ACKNOWLEDGEMENTS JMM thanks the financial support provided by Universidad de Sonora and CONACYT (Mexico) for a sabbatical Year at Instituto de Optica-CSIC (Spain). This work was partially supported by 90211-CONACYT project. We also thank the special support of “Programa para el mejorameinto del Profesorado” PROMEP 2009, Mexico. REFERENCES [1] Archuleta-García, R., Manzanares-Martínez, M. B., Manzanares-Martines, J., Una descripción del método de ondas planas para el cálculo de bandas fotónicas, Rev. Bol. de Fís. 13, 79-85 (2007). [2] Joannopoulous, J. D., Jhonson, S., Winn, J. N., Photonic Crystals: Molding the flow of light , (Princeton University Press, Princeton New-Jersey, 1995). [3] Jianming, J.,The Finite Element Method in Electromagnetic (Wiley-Interscience, New York, 1993).

[4] Ozgun, O. and Kuzuoglu, Finite Element Analysis of Electromagnetic Wave Problems via Iterative Leap-Field Domain Decomposition Method M., Journal of Electromagnetic Waves and Applications JEMWA 22, 251-266 (2008). [5] Zhou, X. and Pan, G. W., Application of Physical Spline Finite Element Method (PSFEM) to Fullwave Analysis of Waveguides Progress in Electromagnetics Research, Progress in Electromagnetics Research PIER 60, 19-41 (2006). [6] Wei, X. C., Li, E. P., Zhang, Y. J., Application of the Improved Finite Element-Fast Multipole Method on Large Scattering Problems, Progress in Electromagnetics Research PIER 47, 49-60 (2004). [7] Zhou, X, Physical Spline Finite Element (PSFEM) Solutions to One Dimensional Electromagnetic Problems , Progress in Electromagnetics Research PIER 40, 271-294 (2003). [8] Khalaj-Amirhosseini, M., Analysis of Longitudinally Inhomogeneous Waveguides Using the Method of Moments, Progress in Electromagnetics Research PIER 74, 57-67, (2007). [9] Wang, C. F. and Gan, Y. B., 2D Cavity Modeling Using Method of Moments and Iterative Solvers, Progress in Electromagnetics Research PIER 43, 123-142, (2003). [10] Li, L. W., Zhao, T. X., Leong, M. S., Yeo, T., A Spatial-Domain Method of Moments Analysis of a Cylindrical-Rectangular Chirostrip , Progress in Electromagnetics Research PIER 35, 165-182, (2002). [11] Taflove, A., Computational Electrodynamics:The finite difference Time-Domain Method, (Artech House, Boston, 1995). [12] López-Esquer, M. A., Gaspar-Armenta, J., Manzanares-Martínez, J., Aplicación del método de diferencias finitas en el dominio del tiempo a la simulacion del campo electromagnetico usando Matlab, Revista Mexicana de Física- E 52, 58, (2006). [13] Manzanares-Martinez, J. y Gaspar-Armenta, J., Direct integration of the constitutive relations for modeling dispersive metamaterials using the finite difference time-domain technique, Journal of Electromagnetics Waves and Applications JEMWA 21, 2297-2310 (2007). [14] Kuzu, L., Demir, V.,Elsherbeni, A. Z., Arvas, E., Electromagnetic Scattering from Arbitrarily Shaped Chiral Objects Using the Finite Difference Frequency Domain Method, Progress in Electromagnetics Research PIER 67, 1-24 (2007). [15] Al-Sharkawy, M. H., Demir, V., and Elsherbeni, A. Z., The Iterative Multi-Region Algorithm Using a Hybrid Finite Difference Frequency Domain and Method of Moment Techniques Progress in Electromagnetics Research PIER 57, 19-32, (2006). [16] Geyi, W., Time-Domain Theory of Metal Cavity Resonator, Progress in Electromagnetics Research, PIER 78, 219-253, (2008).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2,May 2010 325 http:// www.journal.lapen.org.mx

Solar luminous constant versus lunar luminous constant

D C Agrawal Department of Farm Engineering, Banaras Hindu University, Varanasi 221005, India. E-mail: [email protected] (Received 21 September 2009; accepted 23 February 2010)

Abstract The Sun illuminates the earth directly during the day while it provides a dim light indirectly via moon during night. The measure of this light is illuminance and it is defined in photometry as the total luminous flux or apparent intensity of light hitting or passing through a surface. Both these constants are equivalent to solar constant but with the power at each wavelength being weighted according to the spectral luminous efficiency of the human eye. Theoretical expressions and numerical estimates for these are presented and compared with the reported values satisfactorily. Keywords: Sun, blackbody radiation, visible light, reflection, moon, solar luminous constant, lunar luminous constant, pedagogic theory.

Resumen El Sol ilumina la tierra directamente durante el día, mientras que proporciona una luz tenue indirectamente a través de la luna durante la noche. La medida de esta luz es la iluminancia y se define en fotometría como el flujo luminoso total o intensidad aparente de la luz que llega o pasa por una superficie. Ambas constantes son equivalentes a la constante solar, pero con la potencia en cada longitud de onda se ponderarán con arreglo a la eficacia luminosa espectral del ojo humano. Se presentan expresiones teóricas y las estimaciones numéricas de estos y se comparan con los valores reportados de manera satisfactoria. Palabras clave: Sol, radiación del cuerpo negro, luz visible, reflexión, luna, constante luminosa solar, la constante luminosa lunar, teoría pedagógica. PACS: 5.85.Kr, 95.55.Qf, 95.75.De, 97.10.Ri ISSN 1870-9095

I. INTRODUCTION The Sun illuminates the earth [1, 2] directly during the day while it provides a dim light indirectly via moon during night. The measure of this light is illuminance and it is defined in photometry as the total luminous flux or apparent intensity of light hitting or passing through a surface. It is analogous to the radiometric unit watts per square metre, but with the power at each wavelength weighted according to the luminosity function [3], a standardized model of human brightness perception. The SI unit of illuminance is lux which is equivalent to one lumen per square meter.

Everyone including the students and teachers of physics utilizes these natural lights and some attempts have been made in the past to determine their values experimentally in pedagogic journals [1, 2]. Theoretical attempts to estimate them are confined to only research journals [4] or Handbooks [5]. The aim of the present paper is to estimate solar luminous flux which reaches on the earth directly and that reflected by moon indirectly.

. II. THEORY A. Prelimanaries The solar energy is electromagnetic in nature which is characterized by wavelengthλ , frequency ν and velocity c satisfying the relation

, 0 , 0c λν λ ν= ≤ ≤ ∞ ∞ ≤ ≤ . (1)

The electromagnetic spectrum [6, 7] extends from below the radio frequencies at the long-wavelength end through gamma radiation at the short-wavelength end covering wavelengths from thousands of kilometers down to a fraction of the size of an atom. Assuming that the Sun has as an uniform temperature T over its surface the Planck’s radiation law [7, 8] says that

D C Agrawal

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 326 http:// www.journal.lapen.org.mx

( )[ ]

2

5

, (2 )( , )

exp( ) 1

T A hc dI T d

hc kT

ε λ π λλ λ

λ λ=

− W. (2)

( , )I T dλ λ is the power radiated between the wavelengths λ and dλ λ+ , A is the surface area, ε is the emissivity and the constants h and k, respectively, are Planck’s constant and Boltzmann’s constant. For simplicity, considering the Sun to be an ideal blackbody ( 1ε = ) the solar flux Q emitted over all the wavelengths from the unit area ( 1A = m2) of the Sun is

4

0( , )Q I T d Tλ λ σ

∞= =∫ W/m2, (3)

where σ is the Stefan-Boltzmann constant. When this flux reaches the earth [9] this is diluted by the factor

2

2

dR

f S= , (4)

Here SR is the radius of the Sun and d is the yearly mean distance between the earth and the Sun. The diluted value of above mentioned solar flux is known as Solar Constant and can be written mathematically as

fTS 4σ= W/m2 . (5) B. Solar luminous constant It is well known that the wavelength region 380iλ = nm

to 760fλ = nm corresponds to the visible light; however the human eye is not equally sensitive to all wavelengths in this region. Rather its spectral efficiency [3] is highest at wavelength 555mλ = nm and becomes vanishingly small outside this interval. This behavior is quantified by spectral luminous efficiency ( )V λ for photopic vision which is plotted [10] in figure 1. Also, at wavelength

555mλ = nm the electromagnetic radiation of 1 W provides a luminous flux of 683 lumens (L). The number 683 was once referred to as the “mechanical equivalent of light” in the literature [3]. Hence, according to (3) the luminous flux emitted at the surface of the Sun but with the power at each wavelength being weighted by multiplying it with ( )683V λ is given by

( ) ( )( )( )[ ]∫ −

=→ f

i kThcdhcSQ fi

λ

λ λλλπλλλ1exp

26835

2

. (6)

This is diluted by the factor [9] f when it reaches the surface of the earth giving the value of solar luminous constant as

( ) .i fSLC Q fλ λ= → (7)

00.20.40.60.8

11.2

380 475 570 665 760

Wavelength (nm)

Spre

ctra

l lum

inou

s ef

ficie

ncy

FIGURE 1. Plot of the spectral luminous efficiency values [10]. V(λ ) against the wavelength λ. C. Lunar luminous constant The distance of the earth as well as moon from the Sun being almost the same the expression (7) will also be valid on the surface of the moon. The moon will reflect this flux according to its albedo [11] κ which when reaches the earth will be diluted by the factor

2

2

mRg = . (8)

Here mR is the radius of the moon and is the yearly mean distance between the moon and the earth. The value of lunar luminous constant will be given by

gSLCLLC ⋅⋅= κ . (9) Here it is assumed that the earth intercepts this light in the direction normal to the incidence. This condition is normally fulfilled during full moon nights. D. Parameterization of ( )V λ This curve was parameterized by Agrawal, Leff and Menon [12] assuming a skewed Gaussian function

( ) ( )32exp bzazVapprox +−≈λ , (10) with

nmz mm 555,1 =−≡ λλλ , (11) and

035.0,951.40,868.87 2 === χba . (12) The above constants were obtained by Agrawal, Leff and Menon using un-weighted least squares fit of 381 values

Solar luminous constant versus lunar luminous constant

Lat. Am. J. Phys. Educ. Vol. 4, No.2, May 2010 327 http:// www.journal.lapen.org.mx

[10] of ( )lnV λ . The values of a and b were reexamined

both by using the 39 values of ( )V λ in between 380-760 nm at an interval of 10 nm given in Table I of reference 12 as well as 381 values [10] at an interval of 1 nm. There is practically no difference between these two cases and the better chi-square fit so obtained corresponds to the values

017.0,95.112,90.88 2 === χba . (13) The curve corresponding to the above parameters overlaps with the experimental curve shown in figure 1 hence it has not been depicted. III. NUMERICAL WORK The solution of the integral of Eq. (6) is not possible analytically therefore this was evaluated numerically by Simpson’s rule in the wavelength region 380i nmλ = to

760f nmλ = and substituting [7, 11, 13]

81096.6 xRS = m, 11105.1 xd = m, 0.5776=T K 61074.1 xRm = m, 81082.3 x= m, %7=κ

341063.6 −= xh J.s, 231038.1 −= xk J/K, 8100.3 xc = m/s (14)

81067051.5 −= xσ Wm-2.K-4, the values of dilution factors f, g, solar luminous constant SLC and lunar luminous constant LLC so obtained are as follows 510153.2 −= xf , 510075.2 −= xg , 686.122=SLC k lux, 18.0=LLC lux. (15) IV. CONCLUSIONS & DISCUSSIONS The major conclusions of the present work are discussed below.

• The theoretical expressions for the solar luminous constant SLC [cf. Eq. (7)] and lunar luminous constant LLC [cf. Eq. (9)] are derived for the first time for the benefit of students.

• The values of dilution factors f and g [cf. Eqs. (4, 8)] are practically the same for the direct light from the Sun reaching to the earth and the indirect reflected light from the moon to the earth.

• The spectral luminous efficiency curve has been refitted by finding out a better choice of a and b [cf. Eq. (13)].

• The present theoretical estimate of the solar luminous constant 122.686 k lux [cf. Eq. (15)] is consistent with the reported [14] value of 133.334 k lux

• The reflected light from the moon provides the estimate of lunar luminous constant as 0.18 lux [cf. Eq. (15)] and this is also consistent with the accepted [2, 15] value of 0.25 lux at full moon. The value of the moonlight reaching the earth rapidly decreases to about 0.022 lux at first quarter or third quarter of the phase of the moon. This is because the earth does not intercept this light in a direction normal to it hence it should not be compared with the estimate presented here.

• The pedagogic theory presented here for the benefit of students and teachers of physics have also been successfully applied in determining the contributions of all the bands of electromagnetic spectrum in the value of the solar constant [16], finding out the value of photosynthetic solar constant [17] as well as estimating the value of biomass which could be produced on the earth through the photosynthesis [18] under ideal conditions.

REFERENCES [1] Gil, S., Mayochi, M. and Pellizza, L. J., Experimental estimation of the luminosity of the Sun, Am. J. Phys. 74, 728-733 (2006). [2] Garstang, R. H., Brightness of moonlight, Phys. Teach. 23, 293-294 (1985). [3] Greene, N. R., Shedding light on the candela, Phys. Teach. 41, 409-414 (2003). [4] Lampret, V., Peternelj, J. and Krainer, A., Luminous flux and luminous efficacy of black-body radiation: An analytical approximation, Solar Energy 73, 319-326 (2002). [5] The IESNA Lighting Handbook Reference & Application, edited by Rea, Mark S. (IESNA, New York, 2000) chapter 8. [6] Cromer, A. H., Physics for the Life Sciences, (McGraw-Hill, New York, 1977) p. 300. [7] Halliday, D. and Resnick, R., Fundamentals of Physics, (John-Wiley, New York, 1988) p. 844, A5. [8] Ganiel, U. and Kedem, O., Solar energy-how much do we receive?, Phys. Teach. 21, 573-575 (1983). [9] Vos, A. de, Endoreversible Thermodynamics of Solar Energy Conversion (Oxford Science Publications, New York, 1992) p. 18. [10] IES Lighting Ready Reference edited by Kaufman, J. E. and Christensen, J. F. (Illuminating Engineering Society of North America, New York, 1985) p. 35. [11] Wilson, J. D., Practical Physics (Saunders, Philadelphia, 1986) p. 108. [12] Agrawal, D. C., Leff, H. S. and Menon, V. J., Efficiency and efficacy of incandescent lamps, Am. J. Phys. 64, 649-654 (1996).

D C Agrawal

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 328 http:// www.journal.lapen.org.mx

[13] CRC Handbook of Physics and Chemistry, (CRC Press, Boca Raton, Florida, 1983-84) F-134. [14] Darula, S., Kittler, R., and Gueymard, C. A., Reference luminous solar constant and solar luminance for illuminance calculations, Solar Energy 79, 559-565 (2005). [15] Allen, C. W., Astrophysical Quantities, (Athlone Press, London, 1973) p. 143.

[16] Agrawal, D. C., Solar constant versus the electromagnetic spectrum, Lat. Am. J. Phys. Educ. 3, 553-556 (2009). [17] Agrawal, D. C., Photosynthetic solar constant, Lat. Am. J. Phys. Educ. 4, 46-50 (2010). [18] Agrawal, D. C., Photosynthetic engine over the globe, Lat. Am. J. Phys. Educ. 3, 569-672 (2009).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 329 http://www.journal.lapen.org.mx

A Pseudo Ordinary Differential Equation for the Hysteretic Damper

Kui Fu Chen College of Sciences, China Agricultural University. P.B. #74, East Campus, Beijing 100083 P. R. China. E-mail: [email protected] (Received 7 February 2010; accepted 15 May 2010)

Abstract Damping plays an important role in science and engineering. A mathematically simple, but physically realizable hysteretic damping model is still pending. In this letter, starting from the transfer function, a pseudo ordinary differential equation was derived by augmenting the differential order. This is a standard linear ODE, involving only differential terms, but integrals. Keywords: Damping model; Hysteretic damping; Ordinary differential equation.

Resumen La amortiguación juega un papel importante en la ciencia y en la ingeniería. Aún está pendiente un modelo de amortiguamiento histerético matemáticamente simple, pero físicamente realizable. En esta carta, a partir de la función de transferencia, derivamos una pseudo ecuación diferencial ordinaria al aumentar el orden diferencial. Se trata de una EDO lineal estándar, sólo con términos diferenciales, pero integrales. Palabras clave: Modelo amortiguado, amortiguación histerética, ecuaciones diferenciales ordinarias. PACS: 46.40.Ff, 01.40.gb, 02.30.Rz ISSN 1870-9095

I. INTRODUCTION Coulomb damping is introduced in a physical textbook as the simplest friction model, but it is nonlinear. In contrast, an engineering textbook prefers to a linear model. A linear viscous damping model is the simplest mathematically. To account for the frequency dependent property of a realistic energy dissipating mechanism, a general-purposed damping model assumes that the energy loss per cycle varies versus the vibration frequency [1].

Experiments have shown that the simplest form, a frequency independent model, could cover the damping property of many materials. This frequency independent model, or “rate-independent” damping model, has alternative names such as linear hysteretic damping, structural damping, material damping, complex stiffness, and internal damping. While the rate-independent damping model looks simple in the frequency domain, it has an unusual characteristic in the time domain which has puzzled scientists for a long time [2, 3, 4, 5, 6, 7]. The characteristic in question is the model has a non-causal response to the impulse before the impulse is applied to the system. Another issue is the equivalent ordinary differential equation (ODE), which has also fascinated scientists for a long time. The current consensus is this has

been solved by using integro-differential equations [8]. A pseudo ODE was derived by augmenting the

differential order in this letter. This is a standard linear ODE, involving only differential terms, but integrals. II. ODE FOR HYSTERETIC DAMPER A single-degree-of-freedom (SDOF) vibration with the linear hysteretic damper has a frequency response function as

2

1( )

( ) (1 sign )H j

m j k jω

ω η ω=

+ +, (1)

where m and k are the system mass and stiffness, respectively. η>0 is the loss-factor.

Assume that the excitation and response are f(t) and x(t), and their Fourier transform are F(jω) and X(jω), respectively. In light of the linear system theory,

2

( )( ) ( ) ( )

( ) (1 sign )F j

X j H j F jm j k j

ωω ω ω

ω η ω= =

+ +, (2)

that is

Kui Fu Chen

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 330 http://www.journal.lapen.org.mx

2( ) ( ) ( ) sig n ( ) ( )m j X j kX j j X j F jω ω ω η ω ω ω+ + = . (3)

The Hilbert transform H [x(t)] is defined as

( )ˆ( ) [ ( )]x

x t x t dtτ

ττ

−∞= =

−∫H , (4)

and in the frequency domain, Eq. (4) is equivalent to

ˆ ( ) sign( ) ( )X j Xω ω ω= , (5) here ˆ ( )X ω is the Fourier transform of ˆ( )x t . In light of Eqs. (4) and (5), and the differential property, the time domain equivalent of Eq. (3) is

ˆ ( )mx k x kx f tη′′ + + = . (6) Eq. (6) contains an integral, and is not a standard ODE. According to the Hilbert transform definition, we have

ˆ( ) [ [ ( )]] ( )x t x t x t= = −H H , (7)

( ) [ ( )][ ]

d xt d x t

dt dt=

HH . (8)

Eq. (7) is easily comprehended from Eq. (5). Eq. (8) is due to the linear property of the differential operation and Hilbert transform. ˆ( )x t can be solved from Eq. (6) as follows

( )ˆ

f t mx kxx

′′− −= . (9)

Applying the Hilbert transform to both sides of Eq. (6) leads to (combining with Eq. (7) and Eq. (8))

2ˆˆ ˆ ( ) 4mx k x kx f t b acη′′ − + = − . (10) Thus, we have

ˆ ˆ( )ˆ

f t k x kxx

m

η+ −′′ = . (11)

Substituting Eq. (9) into Eq. (11) leads to

2ˆ ( ) ( ) ( 1)ˆ

f t f t k x mxx

m

η η

η

′′− + + +′′ = . (12)

Applying differential operations twice upon Eq. (6) leads to

(4) ˆ ( )mx k x kx f tη ′′ ′′ ′′+ + = (13) Substituting Eq. (12) into Eq. (13) yields

2 (4) 2 2 ˆ2 ( 1) ( ) [ ( ) ( )]m x kmx k x mf t k f t f tη η′′ ′′+ + + = + − . (14)

That is a standard ODE with an augmented order. REFERENCES [1] Crandall, S. H., The role of damping in vibration theory, J. Sound. Vib. 11, 3-18 (1970). [2] Crandall, S. H., New hysteretic damping model?, Mech. Res. Commun. 22, 201 (1995). [3] Gaul, L., Bohlen, S., Kempfle, S., Transient and forced oscillations of systems with constant hysteretic damping, Mech. Res. Commun. 12, 187-201 (1985). [4] Inaudi, J. A., Kelly, J. M., Linear hysteretic damping and the Hilbert transform, J. Eng. Mech.-ASCE 121, 626-632 (1995). [5] Jones, D. I. G., Impulse response function of a damped single degree of freedom system, J. Sound. Vib. 106, 353-356 (1986). [6] Milne, H. K., The impulse response function of a single degree of freedom system with hysteretic damping, J. Sound. Vib. 100, 590-593 (1985). [7] Spanos, P. D., Zeldin, B. A., Pitfalls of deterministic and random analyses of systems with hysteresis, J. Eng. Mech.-ASCE 126, 1108-1110 (2000). [8] Inaudi, J. A., Makris, N., Time-domain analysis of linear hysteretic damping, Earthq. Eng. Struct. D 25, 529-545 (1996).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 331 http://www.journal.lapen.org.mx

Wave packet evolution of damped oscillator with a time dependent linear potential

Akpan N. Ikot1, Edet J. Uwah2, Louis E. Akpabio1 and Ita O. Akpan2 1Department of Physics University of Uyo, Uyo Nigeria. 2Department of Physics University of Calabar, Calabar Nigeria. E-mail: [email protected] (Received 7 February 2010; accepted 20 May 2010)

Abstract We discuss the general solution of a time-dependent Schrödinger wave equation (SWE) with time-dependent linear potential within the framework of invariant operators. We obtain the Gaussian wave packet evolution by choosing the

ansatz for the weight factor of the form 2

2( )

bag Ae

λλλ

− += which is the eigen function of this operators.

Keywords: Quantum Mechanics, time-dependent Harmonic Oscillator.

Resumen Se discute la solución general de una ecuación de onda de Schrödinger dependiente del tiempo con un potencial lineal dependiente del tiempo dentro del marco de referencia de operadores invariantes. Se obtuvo la evolución del paquete

Gaussiano de onda escogiendo el ansatz para el factor de peso de la forma 2

2( )

bag Ae

λλλ

− += , la cual es la eigen

función de este operador. Palabras clave: Mecánica Cuántica, Oscilador Armónico dependiente del tiempo. PACS: 01.40.Fk, 01.78.+p ISSN 1870-9095

I. INTRODUCCIÓN In recent time the time-dependent Harmonic Oscillator (TDHO) continues to have widespread applications in various branches of Physics [1, 2, 3, 4, 5, 6, 7]. A great attention has been paid to solving exactly time-dependent quantum mechanical problems. Among such methods of solving this problem is the famous quantum invariant operator by Lewis [8]. Other interesting methods of solving (TDHO) includes the propagator [7, 9, 10], and time-space transformation approaches [11]. The study of TDHO apart from their mathematical interest has many applications in the fields of quantum transport [12, 13], quantum optics [14, 15] and quantum information [16]. The analytical solutions of the one dimensional TDHO with a time-dependent linear potential has attracted considerable interest recently [17, 18]. Guedes [17] solved the TDHO with a time-dependent linear potential using the invariant operator of Lewis and Riesenfeld [19]. Following the trend, Feng [18] use the space -- time transformation approach to find the plane-wave type and the Airy -- packet solutions. Bekkar et al however commented that the Airy packet solutions are just a superposition of the plane-wave type solution [20].

Schuch [21] has solved the TDHO using the Riccati and Ermaker methods for harmonic and the free motion. In terms of the test-function methods, G. Lu et al. [22] has constructed an exact wave -- packet train (GWPT) solution, whose centre moves accelerating along the corresponding classical trajectory. In addition, the wave packet solutions in terms of the Wigner Distribution Functions (WDF) had been constructed by Schuch [23].

Luan and Tang [24] in their paper re-examined the solution of the TDHO in the presence of a time dependent linear potential using the invariant operator raised by Guedes [17].Following the approach raised by Luan and Tang [24] and Maamache and Sadi [26], we choose a generalized ansatz for the weight factor and solve the Schrödinger equation to obtain the general wave function solution for the TDHO with linear damping potential .The organization of the paper is as follows. In section 2, we examine the invariant operator of time dependent Hamiltonian. In section 3, we evaluate the exact solution of the SWE and Wave packet evolution of the system. A brief conclusion is given in section 4.

Akpan N. Ikot, Edet J. Uwah, Louis E. Akpabio and Ita O. Akpan

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 332 http://www.journal.lapen.org.mx

II. INVARIANT OF TIME-DEPENDENT HAMILTONIAN The time-dependent Schrödinger equation describing the motion of a damped system is given by

( ) ( ),,ˆ=, tqHtqdtdi ψψ

(1)

where H is the Hamiltonian Operator being induced by the external time dependent driving force ( ) ,F t is define as

( ) ( ) ,ˆ2ˆ=ˆ

2tt eqtF

mpetH γγ −− (2)

where ˆ ˆ,p q are the canonical momenta and co-ordinate and γ is the damping coefficient.

The solution of Eq. (1) is possible if a non-trivial Hermitian operator ( )I t exists and satisfies the invariant equation

( ) [ ] .0=,)(I=)( 1 HIitt

dttdI −+

∂∂

(3)

The invariant operator ( )I t obeys the eigen value equation

( ) ( ) ( ),,=,ˆ tqtqtI λλ λϕϕ (4) where ( )tq,λϕ is the eigen function and λ is the corresponding eigen values. The solution of Eq. (4) takes the form,

( ) ( )( )( ) ,

22=,

2

−−tA

qBqtCiexptq oλϕλ

(5)

where the constants ( ) ( )tBtA o, and ( )tC are to be determined later. The general wave function ( , )q tΨ of Eq. (1) is related to ( )tq,λψ by

( ) ( ) ( ) ( ),,=, tqegdtq tiλ

λα ϕλλψ ∫ (6)

where ( )tλα satisfies the eigen value equation for the Schrödinger equation as

( ) ( ) .,=),( tqHt

ittq λλλ ϕαϕ

∂∂

(7)

The time-dependent invariant operator ( )I t is of the form [24]

( ) ( ) ( ) ( ),ˆˆ=ˆ tCqtBptAtI ++ (8) and taking the time-derivative of Eq. (8) yields

( ) ( ) ( ) ( ) ( ) ( ),ˆˆˆˆ=ˆ

tCqtBqtBPtAPtAdt

tId ++++ (9)

where the dot denotes the derivative with respect to time. The commutation of the invariant operator ( )I t and the Hamiltonian, using Eqs. (2) and (8) becomes

( )[ ] ( ) ( ) ( ) (10),ˆ=ˆ, tt etBPmietFtAiHtI γγ

+−

and putting Eqs. (9-10) into Eq. (3), we obtain the time-dependent coefficients as:

( ) ,22

= too etBAtA γ

γ

−− (11)

( ) ,= oBtB (12)

( ) ( )

2

2

1= 1

.4 2

to o

tto

C t C A F t e

B t t t eem

γ

γγ

γ

γ γ

− +

+ + + −

(13)

Furthermore, substituting Eqs. (5), (11-13) into Eq. (7), we get

( ) ( )

( )

( )

22

2

20

0

= 0

114 2

222

2ln2 2

,

tt to

o ot

too

t

t

B t t t eC A F t e em

dtBm A t e

B Bi o o t dtm t A Ao o

γγ γ

γ

α αλ λ

λγ γ γ

γ

γ γ

− − + + + + − − −

+ −

(14)

Now using Eq. (6), we write the wave function ( )tq,λψ as

( ) ( ) ( ),,=, tqetq tiλ

λαλ ϕψ (15)

and on substituting Eqs. (5) and (14) into Eq. (15) yields:

Wave packet evolution of damped oscillator with a time dependent linear potential

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 333 http://www.journal.lapen.org.mx

( ) ( )( )

( )( ) ( )( )( )

( )( ) ( )( )( )( )

0

02, =

2

2211 24 2

222

2

21 22 1 24 2exp

222

t

Boi t iAB ooq t t e X

Ao

tB t t t et toC A F t e eo o mexp i dt

B tom A t eo

tB t t t et toC A F t e e q B qo o omiXB toA t eo

γ αλψλ γ

γγ γλγ γ γ

γγ

γγ γλγ γ γ

γγ

− + −

− − + − + − −

− −

− − + − + − − −

− −

(16)

Here o

o

o

AB ≡ as defined in Ref [24] and the factor o

must satisfy

( ) ,0=oIm (17) to ensure the physical acceptable solution of Eq. (4). IIII. WAVE PACKET EVOLUTION The general solution of the Schrödinger equation is obtained via Eq. (6) by choosing the appropriate weight factor. The weight factor chosen in [20] leads to Airy function solutions while that used by Maamache and Sadi [26] gives a general wave-packet solution. For our discussion, we use the ansatz for the weight factor in the form;

( ) ,22

= 222

1

+−

λλ

ππλ

ba

o

eA

ag

(18)

where a and b are real constant. We present in figure (1) and Figure (2) the plot of ( )g λ with λ for Eq. (18) and that of Maamache and Sadi [26]. Substituting, Eqs. (18) and (16) into Eq. (6) yields

( )( )( )

( )( )

( )( )

( ) ( )

( )

( )

20

2 20

20

2( , ) =

2122

12 2

142

1

t

t't

o

t'

o

iC t q B qa oq t e

A t'A t a i dtmA t

C tq a i dt bA t mA t mA t

exp

a i dtmA t

X exp o iF ti λ

ψ

π

α γ

− +

+

− + +∫ − +

− +

(19)

After some simplification, we find

( )

( ) ( )

( ) ( )( ) ( )

( )( )

0

2

22 2

0

2

22 2

0

21

=, 22 122 1 2 2 22 4

2 2

1224

t

t 'to

t

q t'B dttoA t e ao 'm A t

C t dtq A t a bmA t m A t

Xexp'

dtA t a'm A t

ψ

γπγ

− − +

− − + + ∫ +

(20)

From Eq. (20), it can be observed that; at any time t the wave packet is peaked at

( ) ( )( ) ( )0 0

212= 2 2 2 22 4

.t t '

C t dtq A t a b'mA t m A t

+ +

∫ ∫

(21)

and this result coincides with the expectation value of q. Denoting the following parameters in Eq.(19) as

( )( )

( ) ( )

( ) ( )

( )

0

0

0

= ,

222

=2 22 2

1

= 4 ,22

t

t

t

aN'dtA t a i

'mA t

'C t dttA t a i bo ' 'mA t mA t

'dta i'mA t

π

β

α

+

+ +∫

+

(22)

simplifies it as follows:

( ) [ ]( )

( )[ ] ( ) .122

12=,

−+++−− toio

iqoBqtC

tAqNexptq γλαβαψ

(23) Now using Eq. (23), we obtain the expectation value in momentum as

( ) ( )

( )( ) ( )

22 2 2

ˆ ˆ= , , =

2 .32 84

o

P q t P q t

C t BN i N N NA t A t

ψ ψ

π πα βα

= − − −

(24)

Akpan N. Ikot, Edet J. Uwah, Louis E. Akpabio and Ita O. Akpan

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 334 http://www.journal.lapen.org.mx

Similarly, the expectation value in coordinate is

( ) ( )

( )( )( )

0

0 0

2 2ˆ ˆ= , , ,

= 22 ( )

22 ( )( ) ,2 22 ( ) 2 ( )

t

t t

q q t q q t

dtA t a im A t

C t dtA t a i bm A t m A t

ψ ψ

+

+ + +

∫ ∫

(25)

and this leads to the uncertainty relation in position as

,)(2

)(= 20

+∆ ∫ tAm

dtiatAqt

(26)

and its momentum uncertainty relation counterpart becomes

( ) ( ) 1

2 ( )1 ( ) 22 2 20 0= 4 2 2 24 ( )( ) ( )

B B C tC tp iq A tA t A tβ β α

α∆ + + + − + −∆

. (27)

Thus the uncertainty product is expressed from Eq.(27) as

( ) ( ) .21

2)(

)(02)(

)(2)(

02

42

212=

−+−+++∆∆ αα

ββtA

tCB

tA

tC

tA

Biqp

(28)

This in general does not attain the minimum uncertainty value. However, for a time dependent oscillator; we cannot

expect to find strictly coherent state ( ) = 2p q∆ ∆

for all time t [25]. In addition, the full quantum behavior of the system is manifested by the change of the width in Eq. (20):

( ) ( ) ( )1

2 2220

0 2 2 20

1= 2 (1 exp( )2 2 4 ( )

.tB dtt A t t a

a A tγσ π γ− − +

(29) Here the width of the damped wave packet at 0γ → leads to exactly the same result obtained by [26] using a Gaussian like weight function and this width determines the shape of the spreading wave packets. IV. CONCLUSION In this paper we studied the Schrödinger equation with a time dependent damped linear potential via invariant

operator .With the choice of our ansatz as Eq. (18),we obtain the exact solution of the time dependent SWE with linear damped potential. We also evaluated the wave packet evolution of the system and we have shown the uncertainties and their relations to the TDHO. REFERENCES [1] Nassar, A. B., New quatum squeezed states for the time-dependent harmonic oscillator, J. Opt B. Quantum Semiclass Opt. 4, S226 (2002). [2] Mosfazadeh, A., Inverting a time-dependent harmonic oscillator potential by a unitary transformation and a class of exactly solvable oscillator, Phys. Rev. A 55, 4084 (1997); Mosfazadeh, A., Quantum adiabatic approximation and the geometric phase, Phys. Rev. A 55, 1653 (1997); Mosfazadeh, A., J., Time-dependent diffeomorphisms as quantum canonical transformations and the time-dependent harmonic oscillator, Phys. A. Math Gen. 31, 6495 (1998). [3] Brown, L. S. et al., Massive propagator in instanton fields, Phys. Rev. D 18, 2180 (1978). [4] Lo, C. F., Generating displaced and squeezed number states by a general driven time-dependent oscillator, Phys. Rev. A 43, 404 (1991). [5] Nassar, A. B., New methods for the solution of the logarithmic nonlinear Schrodinger equation via Stochastic mechanics, Phy. Rev. A 32, 1862 (1986). [6] Nassar, A. B., Gaussian solitons in nonlinear Schrodinger equation, Phys. Rev. B 33, 2134 (1986). [7] Ikot, A. N., Ituen, E. E, Essien, I. E. and Akpabio, L. E., Path integrals of a time-dependent harmonic oscillator in an external field, Turk J. Phys. 32, 305 (2008). [8] Lewis Jr., H. R., Exact invariants for the time-dependent harmonic oscillator, Phys. Rev. Lett. 18, 510 (1967). [9] Feynman, R. P. and Hibbs, A. R., Quantum Mechanics and Path Integrals (McGraw -- Hill, New York, 1965). [10] Khandekar, D. C., Lawande, S. U. and Bhagwat, K. U., Path Integral Methods and their Applications (World Scientific, Singapore, 1993). [11] Feng, M., Complete solution of the Schrodinger equation for the time-dependent linear potential, Phys.Rev. A 64, 034101-1 (2001). [12] Tang, C. S. and Chun, C. S., Coherent quantum transport in narrow contrictions in the presence of a finite range longitudinally polarized time-dependent field, SPhys. Rev. B 60, 1830 (1999). [13] Li, W. and Reichl, L. E., External field induced chaos in an infinite square well potential, Phys. Rev. B 62, 8269 (2000). [14] Zeng, H., Cavity-enhanced noncollinear high-harmonic generation for extreme ultraviolet frequency coimbs, Opt. Letts 32.3315 (2007). [15] Maeda, H. and Gallagher, T. F., Nondispersing wave packet, Phys. Rev. Lett. 92, 133004 (2004).

Wave packet evolution of damped oscillator with a time dependent linear potential

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 335 http://www.journal.lapen.org.mx

[16] Creffield, C. E. and Platero, G., Coherence and localization in AC-driven quantum Dots, Phys. Rev. B 65, 113304 (2002). [17] Guedes, I., Reply to the comment on “solution of the Schrodinger equation for the time-dependent linear potential, Phys. Rev. A 63, 034102 (2002). [18] Feng, M. et al., Lower bound on inconclusive probability of unambiguous discremonation, Phys. Rev. A 64, 034101 (2002). [19] Lewis, H. R. and Riesenfeld, W. B., An exact quantum theory of a time-dependent harmonic oscillator and of a charged particle in a time-dependent electromagnetic field, J. Math. Phys. 10, 1458 (1969). [20] Bekkar, H., Benamira, F. and Maamache, M., Comment on “ solution of the schrodinger equation for the time-dependent linear potential, Phys. Rev. A 68, 0160101 (2003). [21] Schuch, D., Riccati and Ermakov equations in time-dependent and time-independent quantum systems, Sigma 4, 043 (2008).

[22] Lu, G., Hai, W. and Cai, L., The time evolution of the dimensionless adiabatic interaction, Phys. Lett. A 357, 181 (2006). [23] Schuch, D., Wigner distribution function and the representation of canonical transformation in time-dependent quantum mechanics, Sigma 4, 054 (2008). [24] Luan, P. and Tang, C-I, Lewis-riesenfeld approach to the solutions of the Schrodinger equation in the presence of a time-dependent linear potential, Phys. Rev. A 71, 052102 (2005). [25] Dantas, C. M. A., Petrosa, I. A. and Baseia, B., Harmonic oscillator with time-dependent mass and frequency, Braz. J. Phys. 22, 1 (1992). [26] Maamache, M. and Sadi, Y., Gaussian wave packet solution of the Schrodinger equation in the presence of a time-dependent linear potential, arxiv:quant-ph/08050409.

Lat. Am. J. Phys. Educ. Vol.4 No. 2, May, 2010 336 http://www.journal.lapen.org.mx

Hydrostatic equilibrium in modeling the neutral atmosphere

Tsegaye K. and Baylie D. Department of Physics, Bahir Dar University, Bahir Dar, Ethiopia. E-mail: [email protected] (Received 9 March 2010, accepted 10 May 2010)

Abstract This report focuses on demonstrating the approach of hydrostatic equilibrium in modeling the neutral atmosphere and ionization intensity. We showed how the altitude variations of the neutral density can be described; altitude and density at maximum ion production and optical depth of the atmosphere can be modeled using hydrostatic equilibrium. Moreover MSIS-E-90 atmospheric model results are employed for comparison purposes to see the trends of outputs of the hydrostatic approximations. As a result, we came to conclude that hydrostatic approximations could be useful at least to explain the theoretical science behind the Earth’s atmosphere. Keywords: Hydrostatic equilibrium, momentum equation, neutral atmosphere.

Resumen Este informe se centra en la demostración del enfoque de equilibrio hidrostático en la modelización de la atmósfera neutra y la intensidad de ionización. Mostramos cómo se pueden describir las variaciones en la altitud de la densidad neutra, la altitud y la densidad máxima en la producción de iones y profundidad óptica de la atmósfera pueden ser modeladas utilizando el equilibrio hidrostático. Por otra parte, los resultados del modelo atmosférico MSIS-E-90 se emplean para propósitos de comparación para ver las tendencias de los resultados de las aproximaciones hidrostáticas. Como resultado, hemos llegado a la conclusión de que las aproximaciones hidrostáticas puede ser útil al menos para explicar la ciencia teórica detrás de la atmósfera de la Tierra. Palabras clave: Equilibrio hidrostático, ecuación de momento, atmósfera neutral. PACS: 96.60.H, 92.70.Pq, 52.25.Jm ISSN 1870-9095

I. INTRODUCTION It is clearly understood that ionization in Earth’s atmosphere can be taking place depending on the strength of the solar radiation as well as the neutral density of the atmosphere. This is to say that ionization can vary accordingly with the variation of the intensity of the solar radiation and the density of the neutral particles (gases) of the atmosphere. Nowadays, characterizing the neutral atmosphere, which has a direct impact on the ionospheric phenomena of our planet, becomes the concern of many scholars.

To model the density and other parameters in the atmosphere, number of investigations have been conducted and came out with smart atmospheric models such as MSIS-E-90. However, theoretically, the science of neutral atmosphere is being conducted based on hydrostatic approximations.

In this report, we tried to demonstrate the gap between MSIS-E-90 model and the hydrostatic approximation by taking density of atmosphere of Bhair Dar (110N lat, and 370E long), Ethiopia, at a reference height of 150km, on Oct. 15, 2009 at 14UT. In doing so, we computed the

hydrostatic approximations of the neutral atmospheric density (n), altitude of maximum ionization (zm), density at maximum ionization (nm) and the optical depth (τ). Particularly, the comparison between MSIS-E-90 model and hydrostatic approximation results of atmospheric density and optical depth are carried out. The general picture of our approach to carry this atmospheric model is demonstrated by figure 1. Moreover the cross-section of the neutral particles used in this hydrostatic modeling is displayed by table I.

Including the introduction, this paper has four major sections. The second section gives brief descriptions on MSIS-90 atmospheric model. The third presents atmospheric theories related to hydrostatic approximations. And then, possible results and conclusions are dealt under the fourth section of our paper. II. MSISE-90 MODEL DESCRIPTION The MSISE model describes the neutral temperature and densities in Earth's atmosphere from ground to thermospheric heights. Below 72.5 km, the model is based

Tsegaye K. and Baylie D.

Lat. Am. J. Phys. Educ. Vol.4 No. 2, May, 2010 337 http://www.journal.lapen.org.mx

on the MAP Handbook tabulation of zonal average temperature and pressure [1]. Below 20 km these data were supplemented with averages from the National Meteorological Center (NMC). Besides this, measurements of pitot tube, falling sphere, and grenade sounder rocket during 1947 to 1972 were treated.

Above 72.5 km, MSISE-90 is essentially a revised MSIS-86 model taking into account data derived from space shuttle flights and newer incoherent scatter results [2]. The authors of MSISE-90 model recommend the MSIS-86 model for those who are interested only in the thermosphere (above 120 km). III. HYDROSTATIC APPROXIMATIONS The momentum equation for a gas of density ρ and velocity v can be defined by

ρ (v.∇) + ¶v

¶t

= f , (1)

where f stands for total force density [5]. Basically, we consider gravitational and pressure gradient force densities that can be given by

f = ρg − ∇p. (2)

For static atmosphere, the left hand side of the momentum equation, Eq. (1), becomes zero and we left only with a balance between gravitational force density and pressure gradient. This approximation is known as hydrostatic equilibrium [4] and it leads to have a hydrostatic equation given by

ρg = ∇p. (3)

The above equation can be written in number density by introducing ρ = mn as

mng = ∇p, (4)

where n is the number density and m is the molecular mass of the neutral species of the atmosphere. A. Number density of the neutral atmosphere Let us now try to formulate the number density of the atmosphere based on the hydrostatic approximation (equation). For spherical symmetry, the pressure gradient can be given by

∇p =dpdr

er . (5)

So Eq. (4) can be rewritten as

mng =dpdr

er . (6)

FIGURE 1. Flowchart used for modeling the neutral atmosphere. It is known that the Earth (any planet) attracts its atmosphere by a gravitational acceleration of

g = - GMe

r2 er = - GMe

R2R2

r2 er = -goR2

r2 er , (7) where go is the gravitational acceleration at the surface of the Earth and R is the radius of the Earth. Substituting Eq. (7) into Eq. (6) gives

−mngo

R2

r2 er =dpdr

er . (8)

This can be written as

dpdr

= -mngoR2

r2 . (9)

From ideal gas law, we have n = p

kBT.

Using this relation and integrating with respect to r gives the altitude dependence of the atmospheric pressure and temperature as well. That is

p = po -

mgokBT(r)

R2

r2 drR

r∫

. (10)

If we consider the isothermal atmosphere (T=constant) and use p = nkBT → po = nokBT , then we can have a

Hydrostatic equilibrium in modeling neutral atmosphere

Lat. Am. J. Phys. Educ. Vol.4 No. 2, May, 2010 338 http://www.journal.lapen.org.mx

hydrostatic approximation based model for the number density of the atmosphere. Thus we can have

n = no exp - z - zo

H

, (11)

where H =

kBTmg

is the scale height of the neutral

atmosphere z = r - R and zo is the reference altitude (height).

FIGURE 2. MSIS-E-90 model approximations of number densities of N2, O2 and O species.

FIGURE 3. Hydrostatic approximations of number densities of N2, O2 and O species B. Altitude and density at maximum ionization To model the altitude and density of the neutral atmosphere at maximum ion production, let us start from the definition of production rate. That is

q = qm,0 cosθ exp 1- h' - e-h'( ), (12)

where h' = h - ln secθ, θ is the zenith angle and, qm,0 is the production rate atθ =0. Maximum ion production can

be attained at an altitude of hm where dqdh'

= 0. Hence we

have

q = qm,0 cosθ exp 1− h '− e−h '( ) −1+ e−h '( )= 0. (13)

This leads to

'

'

1 0,0,

' ln1,' 0.

h

h

eehh

− + =

=− =

=

(14)

Since h ' = h − ln secθ , then we have

hm − ln secθ = 0 , (15)

⇒ hm = ln secθ. (16) Furthermore, since

h = zm - zo

H, then

zm - zo

H= ln secθ , (17)

⇒ zm = zo + H ln secθ. (18)

Eq. (18) refers to altitude at which maximum ion production can be taking place.

FIGURE 4. Number density of N2 molecule.

Tsegaye K. and Baylie D.

Lat. Am. J. Phys. Educ. Vol.4 No. 2, May, 2010 339 http://www.journal.lapen.org.mx

FIGURE 5. Number density of O2 molecule and O atom. At this altitude, the neutral atmosphere has a particular density (nm) that can be computed from the fact that the optical depth at maximum production becomes one [3]. That is

τ = σsecθHn(z) , (19)

1= σsecθHnm . (20) From this relation one can easily solve for nm as

nm =1

σ secθH. (21)

FIGURE 6. Hydrostatic approximations of altitude and density at maximum ion production. We can also write the altitude of maximum production, zm, in terms of the corresponding density of the neutral atmosphere, nm, as

n = no exp −z - zo

H

⇒nm = no exp −zm - zo

H

. (22)

This results

ln nm

no

= −zm - zo

H⇒

zm = zo + H ln(Hσno secθ ). (23)

Optical depth in the Earth’s atmosphere relates the intensity of solar radiation at a certain altitude z to that of the intensity at infinity [6]. It depends on both altitude and wavelength (absorption cross-section of the atmosphere).

If we have j neutral species in the atmosphere then the optical depth at an altitude z and wavelength λ can be defined as

τ (λ ,z)= secθ σ j (λ)nj (z)

j∑ H j . (24)

C. Optical depth

For instance if the atmosphere is basically consists of N2, O2 and O species then the optical depth at 100km, θ = 300 and λ= 50nm can be computed as

τ (50,100) = sec300

σ N2(50)nN2

(100)H N2

+σO2(50)nO2

(100)HO2

+σO (50)no (100)Ho

. (25)

The ratio of the intensity at an altitude z to intensity at ∞ can be computed from optical depth, τ, as

I(z)I(∞)

= exp(−τ ). (26)

This fraction can tell us the amount of radiation absorbed in the ionization process at a specific altitude compared with intensity at the source, I (∞). IV. RESULTS AND DISCUSSIONS In this report, we demonstrated how neutral atmosphere parameters such as number density could be modeled using hydrostatic approximations. We considered a specific atmosphere and simulated temperature and number density at one particular reference altitude for N2, O2 and O neutral species using MSIS-E-90 atmospheric model. After that, we modeled the altitude variation of the number density of the atmosphere using hydrostatic

Hydrostatic equilibrium in modeling neutral atmosphere

Lat. Am. J. Phys. Educ. Vol.4 No. 2, May, 2010 340 http://www.journal.lapen.org.mx

conditions. Consequently, we computed the altitude and the density of the neutral atmosphere at which maximum ion production can be attained. Moreover, we showed the amount of radiation intensity that can be received at a certain altitude by computing optical depth of the atmosphere. In all above cases, we implemented the hydrostatic approximations by considering the density of the atmosphere at reference height 150km, Bahir Dar (110N lat, and 370E long), Ethiopia, Oct. 15, 2009 at 14UT.

FIGURE 7. Hydrostatic approximations of optical depth of the atmosphere. TABLE I. Cross-sections of neutral particles used in modeling.

λ(nm) σN2 x 10-22(m2) σO2 x 10-22(m2) σO x 10-22(m2)

10 1.3 2.9 2.3 20 6.4 8.7 6.7 30 11.6 16.0 9.7 40 19.3 18.7 10.9 50 23.3 22.6 11.7 60 23.0 26.0 12.0 70 26.3 25.0 11.4 80 15.0 20.9 4.4 90 31.0 12.0 3.0 100 0.001 2.0 0.001

The results of our hydrostatic modeling are illustrated by figures 3, 4, 5, 6 and 7. Accordingly, figure 3 shows the altitude variation of the number density of the atmosphere modeled by hydrostatic approximations. The comparison of this result with MSIS-E-90 model density outputs is illustrated by figures 4 for N2 and 5 for O and O2 species of the atmosphere. As these results show, there is some agreement between hydrostatic and MSIS-E-90 model results. This confirms the fact that hydrostatic approximations can still be considered as a means to model Earth’s atmosphere.

After modeling the number density of the atmosphere using hydrostatic approach, we computed parameters such as altitude and density at maximum ion production. As we can see from figure 6, the maximum ion production is occurred at lower altitudes for wavelength ranges of 10nm to 20nm and 90nm to 100nm. This is because in these wavelength ranges, the cross-sections of the neutral atmosphere are so small. Hence, the direct proportionality between altitude (zm) and the cross-section (ϭ) yields maximum ion production at lower altitudes (see Eq. (29)). As it is described by Eq. (24), the number density at maximum ion production is inversely proportional to the cross-section (wavelength) and then the density at wavelength ranges of 10 nm to 20 nm and 90 nm to 100 nm became greater than that of the densities at the intermediate wavelength ranges and this is clearly demonstrated by the bottom panel of figure 6.

The optical depth and ratio of intensity at a particular altitude z to intensity at ∞ are demonstrated by figure 7. As it can be seen from this figure, the hydrostatic and MSIS- E-90 model results of optical depth are compared. Still the comparison seems to be good because the curves made by hydrostatic approximation showed a similar trend with that of MSIS-E-90 model curves.

In conclusion to this report, one can use hydrostatic approximation to model parameters of the atmosphere at least for theoretical purposes such as explaining the physics behind the neutral atmosphere that has a direct influence on ionospheric explorations. ACKNOWLEDGEMENTS This work was supported partly by CIMO project of Oulu University, Finland. REFERENCES [1] Hedin, A. E., Extension of the MSIS Thermospheric Model into the Middle and Lower Atmosphere, J. Geophys. Res. 96, 1159, (1991). [2] Labitzke, K., Barnett, J. J. and Edwards, B. (eds.), Handbook MAP 16, SCOSTEP, (University of Illinois, Urbana, 1985). [3] Brekke, A., Physics of the Upper Atmosphere, (John Wiley & Sons, 1997). [4] Hargreaves, J. K., The solar-terrestrial environment, (Cambridge University Press, 1992). [5] Schunk, R. W. and Nagy, A. F., Ionospheres- Physics, Plasma Physics, and Chemistry, (Cambridge University Press, 2000). [6] Kelley, M. C., The Earth’s Ionosphere, (Academic Press, 1989).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 341 http://www.journal.lapen.org.mx

Rapidity density deviations in Pb+Nb and Ni collisions at 158 A GeV/nucleon beam energy

Mohammad Kheare Abu Shayeb Department of Physics, Al-Hussein Bin Talal University, Ma’an 71111-Jordan Tel: +962796652437. E-mail: [email protected] (Received 31 January 2010; accepted 16 May 2010)

Abstract Phenomenological models used, for comparison with the experimental observations, for a long time. This comparison slowly modified the structure of these models. They have contributed significantly in planning the future experiments, in addition to pointing out deviations, which needs other experiments. In this work, a Rapidity distribution in heavy ion interactions is studied, and comparison between simulated results with actual experimental data using several targets to look for deviations from the general trend. Keywords: Rapidity density, deviations, Pb+Nb, Ni interactions.

Resumen Durante mucho tiempo han sido utilizados modelos fenomenológicos, para compararlos con las observaciones experimentales. Esta comparación lentamente ha modificado la estructura de estos modelos. Han contribuido de manera significativa en la planificación de los experimentos futuros, además de señalar las desviaciones, que las necesidades de otros experimentos. En este trabajo se estudia una Rápida distribución en la interacción de iones pesados, y la comparación entre los resultados reales simulados con datos experimentales con varios objetivos para buscar las desviaciones de la tendencia general. Palabras clave: Densidad rapidez, desviaciones, Pb + Nb, interacciones en Ni. PACS: 25. 75. D, 11.30.Rd, 29.25.Lg, 29.25.Ni ISSN 1870-9095

I. INTRODUCTION Nuclear physics went through revolution and its connection to particle physics and statistical physics become more apparent, so that relativistic beams of heavy nuclei become available at several places in the world. In the mid 1980s the heavy ions injected into some of the highest energy proton accelerators, such as the Alternating Gradient Synchrotron (AGS) at Brookhaven National Laboratory (BNL) and the Super Proton Synchrotron (SPS) at the European Center for Nuclear research (CERN). By the early 1990 s the injection of heavy ions had already been studied at the planning phase of the new accelerators, as in the case of the Large Hadron Collider (LHC) of CERN. Nuclear physics become so much the center of interest because heavy ion reactions are the only means to compress and heat up nuclear matter in laboratory. Which lead to the exploration of the quark-gluon plasma (GQP). Studying the Ultra-relativistic heavy ion Pb+Nb and Pb+Ni collisions is the major motivation to search for the (QGP), a potential new state of matter where

colored quarks and gluons no longer confined into hadrons and chiral symmetry restored. To study such a complicated system one wish for a probe that is not equally complicated in itself. The production of hadrons are governed by the strong interaction and therefore adds to the complication, as the probability of rescattering processes, which modify the properties at later stages, is high. One possible way out might be the study of hard processes where Quantum chromodynamics (QCD), the theory of strong interaction, enters the perturbation regime and is calculable. The other avenue involves a particle that suffers only electromagnetic interaction: Photons — both real and virtual — should be an ideal probe. For previous reviews on this topic, see Refs. [1, 2, 3, 4].

Study of photon production in heavy ion interaction gives us general trends of variation of various parameters. A comparison of the experimental observations with the results of phenomenological models allows us to know the domains of deviations. A detailed investigation of these deviations is very important. This suggests modifications of some simulation models.

Mohammad Kheare Abu Shayeb

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 342 http://www.journal.lapen.org.mx

II. PHOTONS PROBE At the Relativistic Heavy Ion Collider (RHIC), nuclei are collided at ultra-relativistic energies to create a new state of matter the (QGP) [5]. Emitting particles that only interact through the electroweak interactions are very unlikely to interact again despite the dense medium, which created. Thus, they are able to carry the detectors information about the state of the system at the time they created [6]. Photons and leptons thus constitute a unique class of penetrating probes. The two most interesting sources of photons are those where the plasma is directly involved in the emission. These are the thermal radiation from the hot QGP [6] and the radiation induced by the passage of high energy jets through the plasma [7, 8, 9]. Both may be produced e.g. by processes like quark-gluon Compton scattering or quark- antiquark annihilation see (figure 1).The thermal radiation is emitted predominantly with low transverse momentum pT and has to compete with photon emission from the hot hadronic gas at later times [10, 11]. Photons from jets are an important source at intermediate pT where they compete with photons from primary hard scatterings among partons of the nuclei [12]. They probe the thickness of the medium: the longer the path of the jet, the more photons emitted. FIGURE1. Lowest order processes for photon production in QCD. Left: quark-gluon Compton scattering; right: quark-antiquary annihilation.

III. DATA SELECTION Analysed data collected during Pb interaction with other targets run in WA98 heavy ion experiment at CERN SPS. Information from Many factors like collected energy at particular angle, multiplicity of the projectile and targets fragments and number of created particles chosen to classify the selected events. The heavy ion collision can be divided into peripheral, not so central (Quasi central) and central collision. In central collisions, the production of heavier fragments reduces drastically due to complete overlapping of the two nuclei. We used data from trigger detectors, i.e. MIRAC and zero degree calorimeter (ZDC) measures energy in the very forward one. The coverage of MIRAC and Photon Multiplicity detector (PMD) is almost same. We use ET observed in MIRAC as the selection parameter of the events. The range for different class of ET is ≥ 291.65.These events are also termed as central events.

The PMD, with its fine granularity, is able to measure the spatial distributions of photons of high multiplicity events. A rapidity density distribution for photons produce in Pb+Pb interaction at 158 A GeV is studied [13], and Pb-

Ni, Nb. The values of transverse energy and multiplicities of produced particles observed in central collisions show that energy density sufficient for QGP formation might have stained over a large nuclear volume. The observed pseudprapidity distributions for all targets analyzed with reference to Number of participant nucleons (Npart) in the interactions [14]. The observe parameters e.g. total photon multiplicity change smoothly with Npart. IIV. RESULT AND DISCUSSION Photon multiplicity distributions for minimum bias sample as well as sample of central events have been studied [15]. For minimum bias sample charged particle multiplicity distributions are analyzed in terms of negative binomial distributions (NBD) by [16] (figure 2a, 2b and 2c), was shown that photon multiplicity distributions for minimum bias using Ni and Nb sample can be parameterize as NBD. As well as the photon, multiplicity for central reactions studied in terms of Gaussian distributions. It observed that, comparing different sample it is illustrious to plot normalized photon multiplicity Ng /< Ng> [15] (figure 3). With a different window range (∆η = 0.05, 0.1 and 0.2 units of rapidity), we have analyzed the rapidity density distributions for central Pb-Ni, and Nb interactions in detail e.g. and comparison made between different targets based on VENUS code, for central events analyzed (Et≥291.65). The number of events analyzed for Pb was 3019 and for Ni and Nb was 2840 for the range 3.0-4.2 with different window sizes.

Result on rapidity density for central Pb+Pb collisions between real data and simulated data studied by [15]. Phenomenological models been used, for comparison with experimental observations, for a long time. This comparison has slowly modified the structure of these models. They have contributed significantly in planning the future experiments, in addition to pointing out deviations, which need other experiments.

FIGURE 2a. Multiplicity distribution of photons in the limited rapidity interval of 3-0 – 4.2 for Pb+Pb.

Rapidity density deviations in Pb+Nb and Ni collisions at 158 A GeV/nucleon beam energy

Lat. Am. J. Phys. Educ. Vol. 3, No. 2, May 2010 343 http://www.journal.lapen.org.mx

FIGURE 2b. Multiplicity distribution of photons in the limited rapidity interval of 3-0 – 4.2 for Pb+Nb.

FIGURE 2c. Multiplicity distribution of photons in the limited rapidity interval of 3-0 – 4.2 for Pb+Ni.

FIGURE 3. Gaussian fit for data Pb-Pb, Nb And Ni interactions.

In this article, comparison of rapidity density distributions measured at 158 A GeV in WA98 experiment using several targets. The general shape for the distributions observed is almost similar to all targets. (Figures 4(a, b), 5(a, B)) show the rapidity distributions for 0.05 sizes of windows of rapidity, where the mean of Pb is raised to that of Nb and Ni, it was clear after the normalization to the same <Nγ>. Deviation around η=3.4 for the Pb data and Ni as well as for Nb becomes more apparent while the similarity of the remaining distribution is clearly observed. FIGURE 4(a). Normalized rapidity density for inclusive photons in Pb+Nb collisions at 158 A GeV/ nucleon beam energy with wide ∆η = 0.05. FIGURE 4(b). Normalized rapidity density for Pb+Ni collisions. FIGURE 5 (a). Non normalized rapidity density for inclusive photons in Pb+Nb collisions at 158 A GeV/ nucleon beam energy with wide ∆η = 0.05.

Mohammad Kheare Abu Shayeb

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 344 http://www.journal.lapen.org.mx

FIGURE 5 (b). Non normalized rapidity density for inclusive photons in Pb+Ni collisions at 158 A GeV/ nucleon beam energy with wide ∆η = 0.05. By looking for the mean value for Pb+Nb and Ni interactions, will become closer if we increased the η window to 0.1. As will the deviation will decrease, and that is more clear in Ni and Nb targets if we increase the η window to 0.2, as shown in (figures 6 (a, b),7 (a, b), 8 (a,b) and 9(a, b)), for the same rapidity density with a different window sizes. FIGURE 6(a). Normalized rapidity density for inclusive photons in Pb+Nb collisions at 158 A GeV/ nucleon beam energy with wide ∆η = 0.1. FIGURE 6 (b) Normalized rapidity density for Pb+Ni collisions.

FIGURES 7(a). Non-normalized rapidity density for inclusive photons in Pb+Nb collisions at 158 A GeV/ nucleon beam energy with wide ∆η = 0.1. FIGURES 7 (b). Non-normalized rapidity density for inclusive photons in Pb+Ni collisions at 158 A GeV/ nucleon beam energy with wide ∆η = 0.1. FIGURE 8 (a). Normalized rapidity density for inclusive photons in Pb+Nb collisions at 158 A GeV/ nucleon beam energy with wide ∆η = 0.2.

Rapidity density deviations in Pb+Nb and Ni collisions at 158 A GeV/nucleon beam energy

Lat. Am. J. Phys. Educ. Vol. 3, No. 2, May 2010 345 http://www.journal.lapen.org.mx

FIGURE 8 (b). normalized rapidity density for Pb+Ni collisions. FIGURES 9(a). Non-normalized rapidity density for inclusive photons in Pb+Nb collisions at 158 A GeV/ nucleon beam energy with wide ∆η = 0.2. FIGURES 9(b). Non-normalized rapidity density for inclusive photons in Pb+Ni collisions at 158 A GeV/ nucleon beam energy with wide ∆η = 0.2.

V. CONCLUSIONS Phenomenological models been used, for comparison with the experimental observations; this comparison allows us to know the domains of deviations. By comparing the rapidity distributions Pb+Nb and Pb+Ni interactions for a different windows sizes, shows a little deviation near η=3.4 for all targets. This study of systematic suggests modifications of simulation models; thus make productions useful for planning future heavy ion experiments. A complete transparency expected at LHC energies for a large rapidity range. VI. ACKNOWLEDGMENT This work supported by WA98 experiment (India group). As well, the help from Prof. Khalil alTaeef, Prof. A. Al badawi and Prof. Abu Samak was the way to this accomplishment. REFERENCES [1] Alam, J., Sinha, B. and Raha, S., Electromagnetic probes of quark gluon plasma, Phys. Rep. 273, 243 (1996). [2] Alam, J., Sarkar, S., Roy, P., Hatsuda, T. and Sinha, B., Plasma and Hot Hadronic Matter, Ann. Phys. 286, 159 (2001). [3] Peitzmann, T. and Thoma, M. H., Direct Photons from Relativistic Heavy-Ion Collisions, Phys. Rep. 364, 175 (2002). [4] Aurenche, P. (Editor), Photon Physics in Heavy Ion Collisions at the LHC CERN Yellow Report Preprint hep-ph/0311131, (2004). [5] Feinberg, E. L.,Quark-gluon plasma and the production ofleptons, photons and psions in hadron collisions, Nuovo Cim. A 34, 391 (1976). [6] Kapusta, J. I., Lichard, P. and Seibert, D., Compton and annihilation (qg→qg,qq→gg) processes in HTL framework, Phys. Rev. D 44, 2774 (1991); Erratum ibid., Compton and annihilation (qg→qg,qq→gg) processes in HTL framework,D 47, 4171 (1993); Baier, R., Nakkagawa, H., Niegawa, A. and Redlich, K., Z., Production rate of hard thermal photons and screening of quark mass singularity, Phys. C 53, 433 (1992); Roy, P. K., Pal, D., Sarkar, S., Srivastava, D. K. and Sinha, B., Soft photons from relativistic heavy ion collisions, Phys. Rev. C 53, 2364 (1996); Aurenche, P., Gelis, F., Kobes, R. and Zaraket, H., Annihilation with rescattering and bremsstrahlung, Phys. Rev. D 58, 085003 (1998); Arnold, P., Moore, G. D. and Yaffe, L. G., Inclusion of the LPM effect, JHEP 0112, 009 (2001). [7] Fries, R. J., Müller, B. and Srivastava, D. K., High energy photons from passage of jets through quark gluon plasma, Phys. Rev. Lett. 90, 132301 (2003).

Mohammad Kheare Abu Shayeb

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 346 http://www.journal.lapen.org.mx

[8] Zakharov, B. G., Systematic Study of High-pT Direct Photon Production with the PHENIX Experiment at RHIC, JETP Lett. 80, (2004); Fries, R. J., Müller, B. and Srivastava, D. K., Centrality Dependence of Direct Photons in Au+Au Collisions at √sNN = 200 GeV, Phys. Rev. C 72, 041902 (2005). [9] Turbide, S., Gale, C., Jeon, S. and Moore, G. D., The spectra of real and virtual photons produced in the relativistic collisions, Phys. Rev. C 72, 014906 (2005). [10] Xiong, L., Shuryak, E. V. and Brown, G. E., Photon production through A1 resonance in high energy heavy ion collisions, Phys. Rev. D 46, 3798 (1992. [11] Turbide, S., Rapp, R. and Gale, C., Hadronic Production of Thermal Photons, Phys. Rev. C 69, 014903 (2004).

[12] Owens, J. F., Photons in Large Momentum Transfer Processes, Rev. Mod. Phys. 59, 465 (1987). [13] Tapan Nayak, K., Recent results on Pb+Pb collions from WA98 Expt at CERN; GSI-Preprint-96-07 Feb, (1996). [14] Agarwal, M. M., et al. (WA98 collab), Systematice of inclusive photon production in 158 A GeV Pb induced reactions on Ni, Nb, and Pb targes, Phys. Lett. B458, 422 (1999). [15] Abu Shayeb, M. K., Ph.D thesis submitted to the University of Rajasthan., June, (2002). [16] Abu Shayeb, M. & Al-Badawi, A., Systematic studies of Photon production in Heavy-Ion Interactions, Hadronic Journal 29, 651 (2006).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 347 http://www.journal.lapen.org.mx

Path integrals and wave packet evolution of the Modified Caldirola-Kanai Oscillators

Akpan N. Ikot1, Edet J. Uwah,2 Louis E. Akpabio1 and Ita O. Akpan2 1Department of Physics University of Uyo, Uyo Nigeria. 2Department of Physics University of Calabar, Calabar Nigeria. E-mail: [email protected] (Received 7 February 2010; accepted 12 May 2010)

Abstract The Lagrangian, propagator and wave function for the damped harmonic oscillator with time-dependent frequency in the frame of Caldirola-Kanai Oscillator is evaluated. We also evaluate the uncertainty relation and the evolution of the Gaussian wave packet arising from the wave function. Keywords: Path Integrals, Caldirola- Kanai Oscillator and Wave Function.

Resumen El propagador Lagrangiano y la función de onda para el oscilador armónico amortiguado con una frecuencia que dependiente del tiempo en el marco de Caldirola-Kanai oscilador se evalúan. También evaluamos la relación de incertidumbre y de la evolución del paquete de ondas gaussiano derivadas de la función de onda. Palabras clave: Integrales Ruta de acceso, Caldirola-Kanai oscilador y la función de onda. PACS: 03.65Ge, 03.63-w, 42.52-p ISSN 1870-9095

I. INTRODUCTION The path integral formalism of quantum mechanics provides a systematic way of solving quantum mechanical problems and always avoids the operation methods of Schrödinger and Heisenberg. The path Integral is therefore more fundamental, more intuitive and even more flexible than the operator formalism. The basic and central concept in Feynman approach is the propagator (Green’s function) of the Schrödinger equation and contains all the information about the system under investigation [1]. The path integral evaluation of some simple quantum harmonic Oscillators have attracted a considerably attention [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18]. However, it was Feynman [2] and Dirac [11] and other authors [3,4,10] who realizes that the integral Kernel (propagator) of the time-evolution operator can be expressed as a sum over all possible paths connecting the points q1 and q2 with weight factor exp[(i/ћ S(q1, q2;T)], where S is the action.

The dissipative system is usually ascribed as having a microscopic nature [12, 13, 14, 15, 16, 17]. The study of the dissipative quantum systems as a damped harmonic oscillator was first adopted by Kanai and Caldirola [13, 14]. Several attempts have been made in understanding the dissipation system at a more fundamental level [17]. One of the simplest models of dissipation is the damped quantum harmonic oscillation with one or two degree of freedom in the frame work of Caldirola Kanai Oscillator [1, 17, 18] and its modified form [19].

Our primary objective of this paper will be to construct the Lagrangian of the modified Oscillator and use the result to derive the path integral for the damped system. With the dynamical invariant method introduced by Lewis-Risenfeld [20-22], we derive the exact wave function for the one dimensional Caldirola-Kanai Hamiltonian and then study the wave packet evolution arising from these propagators [23].

The organization of this paper is as follows. In section II, we construct the Lagrangian and the Wave function for the Caldirola-Kanai Oscillator. Section III focuses on the uncertainty relation, we determine the path integral of the Damped Harmonic Oscillator (DHO) and the wave packet in section IV. Section V gives a brief conclusion. II. LAGRANGIAN AND THE WAVE FUNC-TION OF THE MODIFIED CALDIROLA-KANAI OSCILLATOR We consider a harmonic oscillator with a time-dependent mass m (t) = mesinβγt

and described by the Hamiltonian

+ [1]

whose mass depends explicitly on time, are variable parameter and damping factors while p and q are

Akpan N. Ikot, Edet J. Uwah, Louis E. Akpabio, and Ita O. Akpan

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 348 http://www.journal.lapen.org.mx

canonically conjugate [1]. Eq. (1) reduces to Caldirola-Kanai Oscillator [1, 13, 14, 15, 16, 17, 18] when exp(sin βγt) is Taylor expanded to first order in increasing power of βγt with the variable parameter β → 1. The Lagrangian corresponding to the Hamiltonian in Eq. (1) is given as

sin 2 2 21 1 ( ) .2 2

tL e mq m t qβγ ω = −

(2)

The classical equation of motion is that of a damped oscillator,

2( ) co s ( ) ( ) ( ) 0 .q t tq t t q tβγ βγ ω+ + = (3)

with the Hamiltonian Eq. (1), we see that the damped oscillator is prescribed by the time-dependent Schrödinger equation.

ˆ( , ) ( ) ( , ).cki x t H t x tt

∂Ψ = Ψ

(4)

Several methods [17, 21, 22, 24] have been employed in determining the wave functions of Eq. (4). Following the method introduced by Lewis and Risenfeld for an invariant operator for the general time-dependent Oscillator, whose eigenfuncton is an exact quantum state up to a time dependent phase factor [17, 25], we introduce a pair of linear operators [25]

[ ],ˆ)(*ˆ)(*)(ˆ qtmptita εε

−= (5)

[ ]ˆ ˆ ˆ( ) ( ) ( ) ,ia t t p m t qε ε+ −= −

Where ε(t) is the solution to the classical equation of motion and these operators are required to satisfy the quantum-Liouville-Von Neumann equations

[ ] .0)(ˆ),(ˆ)(ˆ =+∂

∂ tHtatat

ick

(6)

ˆˆ ˆ( ) ( ), ( ) 0 .cki a t a t H tt

+ +∂ + = ∂

In addition, the quantity ε(t) must also satisfy the classical damped equations of Eq. (3) and likewise satisfies the Wronskian condition [19]. ex p sin ( ) ( ) ( ) ( ) .d t t t t t i

dβγ ε ε ε ε

β∗ ∗ − =

when the variable parameter β → 1, this then guarantees the equal-time commutation relation.

ˆ ˆ( ), ( ) 1 .a t a t+ = (8)

The general solution of Eq. ( 3) is given by

cos( ) ,t t i t i tq t e Ae Beβγ βγ− Ω − Ω = + (9)

where

21

22

4)(

−=Ω

γωt

Setting A = B, in Eq. (9), we get;

1 ,2

A =Ω (10)

Using Eq. (10), we obtain for the under damped oscillator γ ≤ 2ω as

( )cos1( )2

t i t i tt e βγ β γε − + Ω=Ω (11)

The solution of quantum damped oscillator in the regime of strong damping γ > 2ω and the critical damping ω = 0 are given by

cos( ) ,t t t tt e Ae Beβγ βγε − −Ω −Ω = + (12)

cos2( ) ,

t t

t A Beβγ βγ

ε−

= + (13) respectively.

Using Eq. (10), we obtain a generalize form of Eq. (11) as

cos

( ) ( ) ( ) ,2

t ti t i ttet t e t e

βγ βγ

ε θ θ−

Ω − Ω = − + Ω (14)

where θ(t) is the Heaviside step function and the solution of Eq. (14) yields

cos2

cos2

( ) , 02

( ) , 0,2

t t

i t

t t

i t

et e t

et e t

βγ βγ

βγ βγ

ε

ε

− Ω

− Ω

= >Ω

= <Ω

(15)

By performing analytic continuation or Wick rotation t → it′ on Eq. (15), we obtain the solution in the regime of strong damping γ >2ω as

Path integrals and wave packet evolution of the Modified Caldirola-Kanai Oscillators

Lat. Am. J. Phys. Educ. Vol. 3, No. 2, May 2010 349 http://www.journal.lapen.org.mx

cos2

cos2

( ) , 02

( ) , 0,2

t t

t

t t

t

et e t

et e t

βγ βγ

βγ βγ

ε

ε

′Ω

′−Ω

= >Ω

= <Ω

(16)

The solution for the critical damping ω = 0, using Eq. (10) gives

cos21( ) 1 ,

2

t t

t eβγ βγ

ε−

= + Ω (17)

Eqs. (15), (16) and (17) are the general solution for the quantum under, over and critical damped oscillators.

The eigenfunctions of operator equation (5) are the conjugate set of damped oscillator and solving equation (4), we obtain this wave function in the explicit form as [17]

( )

!2),(

214

1sin

neemtx

n

tnit

n

Ω+−

Ω=Ψ

π

βγ

( 18)

sinsin 2exp ,

2 4

rtt t

nm e m irH q e q

h

γβγ Ω Ω × − +

where Hn is the Hermite polynomials. III. THE UNCERTAINTY RELATION With equation (18) the wave function of the damped harmonic oscillator, we obtain the dispersion in co-ordinate space for the under damping regime as

)()(*22 ttq εε=⟩∆⟨

cos ,2

t te βγ βγ−=Ω

(19)

and its momentum counterpart is given by

)()(*22 ttmp εε′=⟩∆⟨

2

(2 ) cos( )1 ,2 2

t tt e β γ βγβγσ − Ω = + Ω

)

where the reduced mass m′(t) is defined as [19]

( ) exp sin ,dm t td

βγβ

′ = (21)

and )(tσ is given by

( )1

2 2 2 2 2 2( ) cos 2 sin 2 sin ,t t t t t tσ βγ βγ βγ β γ βγ= − + (22) with the use of equations (19) – (21), we obtain the uncertainty relation easily as

12

(1 ) cos( )( ) 12 2

t ttq p e β γ βγβγσ − ∆ ∆ = + Ω

(23)

Equation (23) give a generalized uncertainty relation for the modified Caldirola-Kanai oscillator, it reduces to the Caldirola-Kanai Oscillator when β = 1, and equation (23) becomes

12 2( )( ) 1 ,

2 2tq p γσ ′ ∆ ∆ = + Ω

(24)

where

1

2 2 2 2 2( ) cos 2 sin 2 sint t t t t tσ γ γ γ γ γ′ = − + (25)

These formulas derived reduces to these of the simple harmonic oscillator (SHO) when γ = 0. Figure 1.0 shows a plot of σ (t) for various damped factor γ = 0, 0.5Ω and 1.0Ω.

FIGURE 1. Variation of σ(t) with γt for various γ values of 0, 0.5Ω and Ω.

IV PATH INTEGRAL OF THE DAMPED HARMONIC OSCILLATOR AND THE WAVE PACKET The Path Integral for a particle propagator from the initial point (qi, ti) to the final point (qf, tf) is given by the integral connecting over all possible paths connecting the initial and the final points.

Akpan N. Ikot, Edet J. Uwah, Louis E. Akpabio, and Ita O. Akpan

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 350 http://www.journal.lapen.org.mx

( , ) [ , ]

( , )( , ; , ) ( ) ;f f

i i

q t i S q qf f i i q t

K q t q t N Dq t e ′= ∫

(26)

where N is the normalization constant, D(q) the measure and the action is defined as

sin 2 2 2[ ] ( ) ( ) ,2

i

i

t t

t

mS q e q t q tβγ ω = − ∫ (27)

and decomposing the path into a classical path q(t) and the fluctuation path g(t), we determine the classical path as

sinsin1 sinsin ( ) sin ( )

( ) ,sin

fi ttf i i t

ck

q e t t q e t tq t e

T

βγβγβγω ω

ω−

− − −=

(28) where tf – ti = T. On substituting equation (28) into equation (27), we obtain the classical action [18, 19, 23],

=

+

TwemqS

if ttt

cl ω

βγ

sin2][

(sin

−+× TTqe f

T ωωγωβγβγ sin

2cos)1( 222sin

+++ − TTqe i

T ωωγωβγβγ sin

2cos)1( 222sin

( )sin ( ) sinsin2 21 22

4i f fit t tt

i fmq q e q e q eβγ βγβγγβ+− + −

(29) Substituting equation (29) into equation (26), and evaluating Gaussian (Fresnel) Integral to determine the normalization constant, we obtain the exact form of the propagator for the modified Caldirola-Kanai Hamiltonian of equation (1) as

sin ( )

[ ]( , ; , )2 sin

i ft ti S q

f f i im eK q t q t e

i T

βγωπ ω

+

=

(30)

We now make a few remarks about the propagator of equation (30) as follows:

(i) When ω→0 and βγ→0, the propagator reduces to the free particle propagator.

(ii)

( )1

2 2( ), ; , exp

2 ( ) 2f i

f f i if i f i

q qm mK q t q ti t t t tπ

−= − − (31)

(ii) When ω→0, the propagation reducing to the propagation of a quasi-free particle with dissipative factor [18]

( ) 21

sinsin

21

2,;,

= −− fi ttiiff eei

mtqtqK βγβγ

βγπ

−+× −− fi tt ee

imβγβγ

βγβγ sinsin22 )1(

2exp

( ) ]222if qq −×

( )2

sinsin4 fif itt

m q qe e βγβγ

βγ−−

+ − −

(iii) When βγ→0, the propagator in this case reduces to the propagator of harmonic oscillator,

21

sin2),;,(

=

TimtqtqK iiff ωπ

ω (32)

( )2 2exp cos 22 sin f i f i

im q q T q qT

ω ωω

× + −

(33)

In order to determine the Gaussian wave packet evolving for this propagator, equation (30), we initialize the profile of the packet at ti = 0, and obtain the wave packet as [2, 4, 9, 23].

14 2

2 20 0

1 ( )( 0) exp( ),2 4

ii

q bqψπα α

−= −

(34)

where 2

0α gives the variance of the Gaussian wave packet and the wave packet is choose to packed at qi = b at ti = 0. The kernel (propagator), equation (30) satisfies the Schrödinger equation with respect to (qf, tf), such that

, | , ( , ) , | ,f f i i f f f f i ii q t q t H q p q t q tt

∂⟨ ⟩ = ⟨ ⟩

(35)

In general, for any eigenket |φ⟩, the wave function is given by

( , ) , / ),f x t x tψ ϕ= ⟨ (36)

which is the solution of the Schrödinger equation. The wave packet at a time t is related to the wave packet at ti = 0 as

( , ) ( , ; ,0) ( ,0)i f f i iq t dq k q t q qψ ψ∞

−∞= ∫ (37)

On solving Eq. (37), we obtain the square amplitude as [9, 23]

22

)2(1),(

tf tq

παψ =

( )2

2 2 sin

2

1 cos sin2exp

2

tf

t

q b e T Tβγ γβ γ ω ωω

α

− − + + × − (38)

Path integrals and wave packet evolution of the Modified Caldirola-Kanai Oscillators

Lat. Am. J. Phys. Educ. Vol. 3, No. 2, May 2010 351 http://www.journal.lapen.org.mx

where

( )221 sin22 2 2 2 2

0 20

sin1 cos sin2 2

t

tte t t

mβγ γ ωα α β γ ω ω

ω ωα− = + + +

(39)

We observed in equation (38) as was observed by [23] that the wave packet at any time t is packed at

( )2 2 sin1 cos sin .2

tfq b e t tβγ γβ γ ω ω

ω− = + +

(40)

The probability derives 2

),( tq fψ in equation (38) has a

very similar form to that of equation (23) but our propagator equation (30) takes a new form. V. CONCLUSION In conclusion, we have constructed the Lagrangian of the modified Caldirola-Kanai oscillator; we evaluated the uncertainty relation of the damped oscillator (DHO) and show how it reduces to the states of Simple Harmonic Oscillator (SHO). We have also shown how to evaluate the propagator of the harmonic oscillator and then studied the evolution of the Gaussian wave packet arising from the propagator. VI. ACKNOWLEDGEMENTS This work was supported by the Imienyong-Nandy and Leabio Research grant No. 46-4756. REFERENCES [1] Um, C. I. Choi, J. R., Yeon, K. H. and George, T. F., Exact quantum theory of the harmonic oscillator in the form of Mathieu functions, Korean Phys. Soc. 40, 969 (2002). [2] Feynman, R. P. and Hibbs, H., Quantum Mechanics and Path Integrals, (McGraw Hill, New York, 1965) p. 143 [3] Duru, I. H. and Kleinert, H., Quantum mechanics of H-Atom from path Integrals, Fortschr. Phys. 30, 401 (1982). [4] Klenert, H., Path Integrals in Quantum Mechanics, Statistics and Polymers Physics, (World Scientific Singapore, 1991) p.540 [5] Grosche, C., Coulomb potentials by path integrals, Fertschr. Phys. 40, 695 (1992). [6] Inomata, A., Alternative Exact path integrals –Treatment of the hydrogen atom, Phys. Rev. Lett. A. 101, 253 (1984).

[7] Ho, R. and Inomata, A., Exact path integrals solution of the path integrals of Dirac-Coulomb system, Phys. Rev. Lett. 48, 231 (1982). [8] Steiner, F., Exact path integral Treatment of the H-atom, Phys. Lett. A. 106, 363 (1984). [9] Schulman, L. S., Techniques and applications of Path Integration, (John Wiley, New York, 1981) p. 220 [10] Dewitt, C. M., Semi classical expansion, Ann. Phys. 97, 367 (1976). [11] Dirac, P.A.M., Quantum Mechanics, (Wiley, New York, 1963) p.76 [12] Weiss, U., Quantum dissipative system, (World Scientific, Singapore, 1993) p. 118. [13] Kanai, E., On the quantization of the dissipative systems, Prog. Theor. Phys. 3, 440 (1945). [14] Caldirola, P., Forze non conservative nella meccanica quantistica, Nuovo Cim. 18, 393 (1941). [15] Um, C. I. and Yeon, K. H., Quantum theory of the harmonic oscillator in non-conservative systems, J. Korean Phys. Soc. 41, 594 (2002). [16] Um, C. I., Yeon, K. H. and George, T. F., The Quantum harmonic oscillator, Phys. Rept. 362, 63 (2002). [17] Kim, S. P., Santana, A. E. and Khanna, F. C., Decoherence of Quantum damped oscillators, J. Korean Phy. Soc. 43, 4 (2003). [18] Huang, M .C. and Wu, M. C., The Caldirola-Kanai model and its equivalent theories for a damped oscillator, Chin. J. Phys. 36, 4 (1998). [19] Ikot, A. N., Ituen, E. E., Essien, I. E. and Akpabio, L. E., Path integrals evaluation of a time-dependent oscillator in an external field, Turk. J. Phys. 32, 305 (2008). [20] Lewis Jr., H. R. and Risenfeld, R., An exact quantum theory of a time-dependent harmonic oscillator and of a charge particle in a time-dependent electromagnetic field, Math. Phys. 10, 1458 (1969). [21] Um, C. I., Kim, I. H., Yeon, K. H., George, T. F. and Pandey, L. N., Exact quantum theory of a time-dependent bound quadratic Hamiltonian system, Phys. Rev. A. 54, 2707 (1996). [22] Dodonor, V. V., George, T. F., Maniko, O. V., Um, C. I. and Yeon, K. H., Propagator and wavefunction for a damped oscillator in a resonator with time dependent medium, J. Sov. Lasers Res. 13, 219 (1992). [23] Jain, D., Das, A. and Kar, S., Path integrals and wavepacket evolution for damped mechanical systems, arxiv: quant-Ph/0611239V1, 2006. [24] Khandekar, D. C. and Lawande, S. V., Exact solution of a time-dependent quantal harmonic oscillator with damping and a perturbative force, J. Math. Phys. 20, 1870 (1979). [25] Kim, S. P., Time-dependent displaced and squeezed number states, J. Phys A, 36, 12089 (2003).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 352 http://www.journal.lapen.org.mx

Algoritmo de factorización para un computador cuántico

Hernando Efraín Caicedo-Ortiz Escuela Superior de Física y Matemáticas, Instituto Politécnico Nacional, Unidad Profesional “Adolfo López Mateos”, Zacatenco, Delegación Gustavo A. Madero, Edificio 9, CP 07738, México D. F. E-mail: [email protected], [email protected] (Recibido el 20 de Enero de 2010; aceptado el 6 de Mayo de 2010)

Resumen En este artículo se realiza una revisión de uno de los algoritmos más importantes dentro de la teoría cuántica de la información, como es el algoritmo de Factorización de Shor. Se hace una pequeña introducción a la teoría cuántica de la información, se presentan las características más importantes del algoritmo de factorización, su implementación experimental, y por último se describen algunas de sus potenciales aplicaciones comerciales. Palabras clave: Algoritmos Cuánticos, Computación e Información Cuántica, Algoritmo de Factorización de Shor.

Abstract In this paper we review one of the most important algorithms in the quantum theory of information, such as Shor's factoring algorithm. A small introduction to quantum information theory, describing the features of the factoring algorithm, their experimental implementation and finally describes some of its potential commercial applications. Keywords: Quantum Algorithm, Quantum Computing and Quantum Information, Shor's Factoring Algorithm. PACS: 03.67.-a, 03.67.Ac, 03.67.Lx ISSN 1870-9095

I. INTRODUCCIÓN Desde los trabajos fundacionales de Feynman [1] y Deutsch [2] en la década de los ochenta, la teoría de la computación cuántica se ha convertido en una de las áreas de investigación de mayor impacto en los últimos treinta años. Con la aparición de algoritmos que hacen uso de los efectos mecánico cuánticos, las velocidades de procesamiento de información han crecido exponencialmente, mientras que los tiempos asociados a estos procesos tienden a ser cada vez menores y de tipo polinomial.

Dentro de la gama de algoritmos existentes en esta nueva teoría, sobresale el algoritmo de Shor [3], el cual permite descomponer en factores primos un número N cualesquiera, por lo cual su potencial implementación en un dispositivo de computo cuántico traería como consecuencia que sistemas criptográficos basados en procesos de factorización como el sistema de clave pública RSA [4] fueran fácilmente quebrantados. Mientras los procesos asociados a los algoritmos de clave publica se realizan en tiempos superpolinómicos de la forma

exp[c(In N )1/3(In)2/3], para el algoritmo cuántico de Shor, el tiempo necesario para realizar esta misma tarea es polinómico y de la forma O(Log(N)3).

La gran fortaleza de cálculo que posee el algoritmo de Shor con respecto a los algoritmos implementados en ordenadores convencionales radica en el hecho de hacer uso de efectos cuánticos tales como la interferencia, potencializandolo y permitiendo un procesamiento de la información en forma paralela, lo cual se traduce computacionalmente en una disminución en el tiempo de procesamiento. II. COMPUTACIÓN CUÁNTICA La computación cuántica y la teoría cuántica de la información [5] no son otra cosa que una modificación de las ideas de computabilidad y en este contexto hacen uso de efectos mecánico-cuánticos [1] que rigen el mundo subatómico, como la superposición y el entrelazamiento de estados. Este nuevo esquema, en contraste con la computación clásica, presenta un escenario de trabajo que no solo se restringe a dos únicos estados de operación (0,1), al contrario, se pueden obtener multitud de estados intermedios como resultado de la superposición de estas dos posibilidades. Esto trae consigo que al llevar a cabo cualquier operación, el sistema permite evaluar todas las posibilidades en un solo paso, es decir, realiza una computación en paralelo de forma natural; mientras que clásicamente, este proceso de evaluación se realiza de

Hernando Efraín Caicedo-Ortiz

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 353 http://www.journal.lapen.org.mx

forma independiente una de otra y en pasos diferentes, es decir es de tipo secuencial o serial. Esta característica de paralelismo cuántico se traduce computacionalmente en una reducción del tiempo y aumento en la velocidad de procesamiento de la información.

III EL QUBIT De forma similar a los dispositivos de cómputo convencionales, en los cuales la mínima unidad de información es el bit, en la teoría de la computación cuántica este elemento tiene su contraparte y se denomina bit cuántico ó qubit [5]. Aunque esta entidad se describe como un objeto matemático con ciertas propiedades específicas, tiene una realidad física tangible, la cual se representa a través de un sistema cuántico de dos estados, pero en el cual todo su tratamiento es enteramente abstracto, dando libertad de generar una teoría general de la computación e información que no depende del sistema físico que se emplee para su implementación. Al considerar sistemas de esta clase como mínimas unidades de información, es necesario para su correcta descripción, implementar el formalismo matemático de la mecánica cuántica. Aunque existen varios esquemas que describen los estados de un sistema cuántico, el más conveniente y conciso es la notación de Dirac [6], la cual se ha convertido en un estándar en la física moderna, donde cualquier estado es representado por un vector ket, denotado por ψ y las operaciones sobre los estado se realizan a través de operadores que son transformaciones lineales que actúan sobre el ket.

FIGURA 1. Representación tridimensional de un qubit en función de la esfera de Bloch. Considerando esta representación, los dos estados posibles

para un qubit son 0 y 1 ó matricialmente 1

0

y 0

1

,

que corresponden en analogía al 0 y 1 de un bit clásico, donde tales vectores pertenecen a un espacio de Hilbert 2L [5].

Como se mencionó anteriormente, la potencialidad de este esquema radica en que el qubit puede tomar otro valor diferente a los dos antes mencionados, siendo esto posible debido a la combinación lineal de estados, por lo cual un qubit en su forma más general se representa como

0 10 1a aψ = + , (1) donde a0 y a1 son números complejos que satisfacen la

relación de normalización 2 2

0 1 1a a+ = . La habilidad de un sistema cuántico de existir

simultáneamente en una mezcla de todos los estados permitidos es conocida como "Principio de Superposición" [1] y es una característica completamente cuántica. Esto significa que mientras en un sistema clásico el bit tiene una información concreta a la cual se puede acceder sin perturbarla, el qubit siempre proporciona un resultado probabilístico.

De la misma forma que en la electrónica convencional, en computación cuántica existen circuitos que realizan y llevan a cabo los procesos de cómputo. En este esquema, una compuerta lógico cuántica es una función que realiza un operador unitario en un conjunto de qubits seleccionados en un cierto periodo de tiempo. En la teoría clásica las compuertas lógicas constituyen un conjunto claramente finito, pero en el modelo cuántico esta característica se extiende y debido a que el espacio de estados de un qubit es continuo, el número de posibles transformaciones unitarias también lo es; en consecuencia, existen infinitas compuertas cuánticas. Sin embargo, es posible demostrar que cualquier transformación unitaria en un conjunto de N qubits puede realizarse mediante la aplicación sucesiva de tan sólo dos compuertas cuánticas universales [7].

IV. EL PROBLEMA DE FACTORIZACIÓN El problema de factorización, al igual que los grandes problemas de las matemáticas como por ejemplo el teorema de Fermat, se enuncian de una manera muy sencilla: dado un número impar no primo N, es posible encontrar los dos factores primos de N, N1 y N2 tal que

N = N1 * N2 . (2)

Para N muy grande, no se conoce en la actualidad un algoritmo que resuelva eficientemente este problema; un intento reciente de factorizar un número de 200 dígitos (RSA-200) tardó 18 meses y consumió más de medio siglo de tiempo de cálculo. Esta dificultad para solventar el problema, es en la actualidad el núcleo de ciertos algoritmos criptográficos, como el RSA [4], ampliamente usado en la codificación de información transferida por internet.

Algoritmo de factorización para un computador cuántico

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 354 http://www.journal.lapen.org.mx

V. IMPLEMENTACIÓN DEL ALGORITMO DE SHOR Este algoritmo cimienta su potencia en determinar el periodo de una función adecuada. Aunque su estudio presenta un grado de complejidad relativamente alto, es muy interesante analizar el nuevo enfoque que la mecánica cuántica ofrece para solucionar el problema de factorización. La descripción paso a paso del mecanismo de operación del algoritmo desarrollado por Shor es el siguiente [1] Se escoge inicialmente un número q (con pequeños

números primos), tal que 2 n2 ≤ q ≤ 3n2 . [2] Se toma al azar un número entero x , tal que sea co-

primo a n. [3] Los siguientes pasos desde (a) hasta (g) se repiten

Log(q) veces, empleando el mismo número x en cada paso. (a) Se crea un registro de memoria cuántica, dividiendo los qubits en dos conjuntos llamados registro 1 y registro. Si los qubits en el registro 1 se encuentran en el estado reg1 y aquellos que están en el registro 2 se encuentran en reg2, es posible representar el estado completo del sistema en notación Dirac como reg1,reg2 . (b) Leer reg1 con todos los enteros en el rango de 0 a q-1 y leer reg2 con todos los ceros. El estado del registro completo esta dado por

ψ ⟩ =

1q

a,0⟩a=0

q−1

∑ . (2)

(c) Aprovechando el paralelismo cuántico, se aplica la transformación x

amod n a cada número en registro 1 y poner el resultado en registro 2. El estado del registro completo se convierte en

ψ ⟩ =

1q

a, x2 mod n⟩a=0

q−1

∑ . (2)

(d) Al medir el estado del reg2, se obtiene algún resultado k. Esto es el efecto de proyección por fuera del estado reg1 para ser una superposición de justamente estos valores de a tal que x

a mod n = k . El estado del registro completo es

ψ ⟩ =1

Aa«, k⟩

a«∈A∑ , (3)

donde A = a«: xa« mod n = k y

A es el

número de elementos en este lugar.

(e) A continuación se computa la transformada discreta de Fourier del estado proyectado en el reg1. Esta transformada mapea cada estado en una superposición dada por

a a«⟩ 1

qe2πa«c/q c⟩

c=0

q−1

∑ . (4)

Así el efecto del costo neto de la transformada de Fourier es mapear el estado proyectado en reg1. en la superposición dada por

ψ ⟩ =1

A

1qa«∈A

∑ e2πa«c/q c , k⟩c=0

q−1

∑ . (5)

(f) Medir el estado de reg1. Estos son ejemplos prácticos del la transformada de Fourier. Esto devuelve algún numero c´ que es algún múltiplo de λ siendo múltiplo de q/r donde r es el periodo; es decir, c´/q = λ /r para algún entero positivo λ (g) Para determinar el periodo r es necesario estimar λ . Esto es logrado por el cómputo de expansión de una fracción continúa c´/q de tal forma que el denominador sea menor de n.

[4] Repitiendo los pasos de (a) al (g) se crea un juego de muestras de la transformada de Fourier en el reg1. Esto da muestras de múltiplos de 1/r como λ1/r, λ2/r, λ3/r... para varios enteros λi. Después de esto, el algoritmo se repite hasta obtener suficientes muestras de reg1 que al computarlas por una técnica de continua fragmentación se obtienen los λi que permiten describir a r.

[5] Una vez conocido r, los factores de n pueden ser obtenido del / 2mcd( - 1, )rx n y el mcd( / 2 1, ).xr n+

FIGURA. 2. Estructura del Circuito del Algoritmo de Shor.

En la figura 2 se observa una representación circuital en función de compuertas cuánticas y transformada cuántica de Fourier de la implementación del algoritmo de Shor. En la parte a) se observa el contorno de el circuito cuántico. Los hilos representan los qubits y las cajas representan operaciones. El tiempo va de la izquierda a la

Hernando Efraín Caicedo-Ortiz

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 355 http://www.journal.lapen.org.mx

derecha (0) inicializa un primer registro de

n = 2[log2 n] qubits a 0 ⊗ ....⊗ 0 (para Shor 0 ) y el

segundo registro de m = log2 N qubits a

0 .... 0 1⊗ ⊗ ⊗ (1) Aplicando la transformada a los primeros n qubits

hasta llegar a los primeros registros 2 1

0/ 2 .

n n

xx

=∑ (2) Multiplicar el segundo registro por

( ) modxf x a N= (para algún valor aleatorio a N el cual

no tiene en común factores con N) obteniendo

Ψ2 = x / 1

x=0

2n′1

∑ xax mod N / 2n como el primer

registro. Esta en una superposición de 2n términos x , el

modulo exponencial esta computado para 2n valores de x en paralelo.

(3) Ejecutar la inversa QFT del primer registro19 dado por

ψ 3 = e2π xy 2n

y ax

x=0

2n′1

∑y=0

2n′1

∑ mod N / 2n.

(4) En gran parte los qubits está en el primer registro sobre un computador cuántico ideal. La dimensión del resultado es c2n/r para algún c con gran probabilidad, y r pronto puede deducir de c2n/r en un computador clásico continua por los factores al cuadrado. En la parte b) de la figura 1 se detalla el circuito Cuántico para la situación N =15 y a =7. El control de los qubits es representado por ⊗ y describe una operación NOT, 90 y 45 representan Ζ rotaciones. Las compuertas vistas en las líneas utilizadas son reemplazadas por compuertas simples.

VI. IMPLEMENTACIÓN EXPERIMENTAL En el año de 2001, el grupo de Computación Cuántica de IBM liderado por Isaac L. Chuang en conjunto con el Laboratorio de Estado Solidó y Fotónica de la Universidad de Stanford logró demostrar experimentalmente la propuesta de Shor [7].

FIGURA 3. Estructura de la molécula de Fluor. Complejo penafluoro-butadienol ciclo-penta-dienil-dicarbonil-hierro.

En esta implementación, el numero a factorizar fue N = 15 (donde sus factores primos son 3 y 5). Para tal fin, se utilizo una molécula con 7 espines nucleares 1/2, los cuales representan en el contexto de la computación cuántica al qubit. La gran ventaja de este esquema radica en el hecho que puede ser manipulado a temperatura ambiente en el estado líquido a través de técnicas de resonancia magnética Nuclear (RMN). La estructura molecular escogida como sistema físico para la implementación hardware fue una molécula de cinco núcleos de 19F y dos de 13C especialmente diseñada de forma que los espines de los núcleos puedan interactuar entre ellos como unos qubits (Figura. 3). La molécula está sometida a un campo magnético estático, y los qubits se manipulan con pulsos de frecuencia de radio y se leen mediante técnicas de resonancia magnética nuclear (NMR) a temperatura ambiente.

Con este dispositivo cuántico, es posible determinar la solución al problema de calcular en un único paso el período de una función particular; lo cual claramente comprueba la validez del algoritmo de Shor.

En un reciente articulo, Alberto Politi, Jonathan C. F. Matthews y Jeremy L. O’Brien[10] de la Universidad de Bristol presentan una nueva comprobación experimental del algoritmo de Shor implementado en un chip basado en tecnología fotónica (Figura. 4), donde el algoritmo debe ser compilado, desarrollando todos su bucles de forma explícita, lo que para guarismos con un mayor número de qubits requiere un coste computacional muy alto, sin embargo, las tecnologías utilizadas para esta implementación parecen ofrecer una nueva vía para la escalabilidad de los ordenadores cuánticos.

FIGURA 4. Implementación óptica integrada del algoritmo de factorización de Shor. (A) El circuito cuántico. (B) Esquema del chip sobre el cual se lleva a cabo el procesamiento cuántico del algoritmo. Los xn qubits transportan el resultado del algoritmo;

fn son los qubits adicionales requeridos para que le proceso de computo se lleve a cabo. (C) La respuesta del algoritmo.

Algoritmo de factorización para un computador cuántico

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 356 http://www.journal.lapen.org.mx

VII. APLICACIONES COMERCIALES La más conocida aplicación de un dispositivo de cómputo cuántico usando el algoritmo de Shor es la capacidad de romper cualquier sistema criptográfico basada en RSA [4]. Esta aparente ventaja ha motivado a que especialmente en EE.UU y Europa el estudio de este algoritmo y la construcción de un ordenador cuántico sean apoyados fuertemente con fondos gubernamentales, catalogando estas investigaciones como clasificadas. Es muy claro que de ninguna manera habrá a mediano plazo un gran mercado para este tipo de dispositivos que descompone en factores: ya que la misma existencia de tal máquina conducirá a la total desaparición del esquema RSA, pero permitirá el surgimiento de sistemas de encriptación con tecnologías substitutas como la criptografía cuántica [9]. Tan solo el futuro lo dirá. REFERENCIAS [1] Feynman, R. P., Simulating Physics With Computer, Int. J. Theor. Phys. 21, 467 (1982). [2] Deutsch, D., Quantum Theory, the Church-Turing principle and the universal quantum computer. Proccedings of the Royal Society of London A 400, 97-117 (1985).

[3] Shor, P., Algorithms for quantum computation: Discrete logarithms and Factoring. Proceedings 35th Annual Symposium on Foundations of Computer Science, 124-134 (1994). [4] Jiménez, R., Gordillo, E. y Rubiano, G., Teoría de números para principiantes, (Universidad Nacional de Colombia, Facultad de Ciencias, 2004). [5] Nielsen, M. A. and Chuang, I., Quantum Computation and Quantum Information, (Cambridge University Press, United Kingdom, 2001). [6] Dirac, P., Principios de Mecánica Cuántica, (Arial, Madrid, 1967). [7] Galindo, A. y Martín-Delgado, M. A., Information and Computation: Classical and Quantum Aspects, Rev. Mod. Phys. 74, 347-423 (2002). [8] Vandersypen, Lieven M. K., Steffen, M., Breyta, G., Yannoni, C. S., Sherwood, M. H. and Chuang, I. L. Experimental realization of Shor's quantum factoring algorithm using nuclear magnetic resonance, Nature 414, 883–887 (2001). [9] Gisin, N., Ribordy, G., Tittel, W. and Zbinden, H., Quantum Cryptography, Reviews of Modern Physics, 74, 145-195 (2002). [10] Politi., A., Matthews, J C. F., and O’Brien, J L., Shor’s Quantum Factoring Algorithm on a Photonic Chip, Science 325, 1221 (2009).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 357 http://www.journal.lapen.org.mx

Los conceptos de espacio y tiempo como variables dinámicas en la teoría cuántica no relativista

Rafael Andrés Alemañ Berenguer1,2 1Departamento de Ciencia de Materiales, Óptica y Tecnología Electrónica. Universidad Miguel Hernández, Avda. Universidad, s/n. Edif. Torrevaillo - 03202l - Elche (Alicante – España). 2Sociedad Astronómica de Alicante (Grupo de gravitación y mecánica celeste), Apartado de Correos 616, 03080-Alicante (España). E-mail: agrupació[email protected] (Recibido el 7 de Febrero de 2010; aceptado el 11 de Mayo de 2010)

Resumen Desde los mismos inicios de la teoría cuántica se originó un debate sobre el papel que en ella desempeñaban el espacio y el tiempo. En este artículo se analiza la interpretación el espacio y el tiempo en el núcleo conceptual de la teoría cuántica no relativista. Se hallará que, rigurosamente, las relaciones de Heisenberg para la energía y el tiempo poseen raíces distintas de las correspondientes al par posición-impulso. En el caso de las variables espaciales, se argumentará que no existe una “coordenada de posición” en la estructura conceptual de la física cuántica, dado que las partículas cuánticas no son objetos puntuales. Palabras clave: Desigualdades de Heisenberg, energía, tiempo, posición, física cuántica.

Abstract Since the very begining of quantum theory there started a debate on the proper role of space and time in it. In this paper, the proper role of space and time in the conceptual core of quantum physics is analyzed. We will find that, rigorously, Heisenberg’s relations for time and energy show a different root. For the role of space, it will be discussed that there is no “coordinate of position” in the conceptual structure of quantum physics because quantum particles are not point-like objects. Keywords: Heisenberg inequalities, energy, time, position, quantum physics. PACS: 01.40-d, 03.65.Ca, 03.65.Ta. ISSN 1870-9095

I. INTRODUCCIÓN Hoy como a comienzos del siglo XX, una de las mayores dificultades conceptuales con que topan quienes tratan de dominar la bases de la teoría cuántica, es el denominado “principio de indeterminación de Heisenberg” (expresión popularizada por Eddington en su Conferencia Gifford de 1928) en sus distintas versiones. La causa principal de estas dificultades –como se expondrá en este artículo– radica en los diferentes papeles jugados en la física clásica y en la cuántica por las variables dinámicas y las coordenadas geométricas (entre éstas últimas, en cierto modo, podríamos incluir el tiempo).

Durante el desarrollo inicial de la física cuántica, y a falta de mejores vías, sus primeros fundadores escogieron la senda del eclecticismo dando a luz una suerte de compromiso ontológico denominado “principio de complementariedad”. Mediante su aplicación se buscaba conciliar dos aspectos de la naturaleza que en la visión clásica parecían ser mutuamente excluyentes, pero que en la cuántica resultaban indispensables por igual. Tal principio sostenía que las partículas cuánticas –o

cuantones– disfrutan de una doble naturaleza, ondulatoria y corpuscular, susceptible de manifestarse dependiendo de la manera en que el cuantón interaccione con el entorno. Si se realiza la experiencia, digamos, de lanzar electrones uno a uno contra una ranura larga y estrecha tras la que se sitúa una placa fotográfica, la teoría cuántica nos anuncia resultados incompatibles con las predicciones clásicas. Cada uno de los impactos individuales de los electrones dará lugar a un minúsculo punto luminoso sobre la película fotográfica, lo que sería esperable de un comportamiento corpuscular de los electrones (que demuestran con ello no ser simples “paquetes de ondas”). Pero si enviamos un número suficiente de ellos, apreciaremos con el tiempo que los pequeños puntos luminosos sobre la placa se distribuyen según un típico patrón ondulatorio de franjas paralelas de intensidad decreciente.

El principio de complementariedad puede considerarse válido en la medida en que las referencias a ondas y corpúsculos no sean consideradas más que analogías formales, ciertamente provechosas como auxilio para la imaginación, pero en absoluto sustanciales. Los cuantones no deben ser confundidos con los corpúsculos idealizados

Rafael Andrés Alemañ Berenguer

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 358 http://www.journal.lapen.org.mx

de la mecánica clásica, ni tampoco con las ondas ordinarias estudiadas en acústica, electromagnetismo y otras muchas áreas de la física precuántica. Sí son, empero, entidades absolutamente singulares con un comportamiento y unas propiedades tan peculiares que a fin de otorgarles un tratamiento adecuado, se ha revelado ineludible la construcción de una de las teorías más novedosas y profundas de la física. Únicamente resulta lícito añadir que en ciertas situaciones extremas a las que se ve forzado por el entorno con que es rodeado, el cuantón exhibirá una conducta que encontraremos más conveniente describir en términos de lo que macroscópicamente entendemos por “onda” o por “corpúsculo” dependiendo de los casos. Es decir, la interpretación de los cuantones como ondas o corpúsculos tiene un valor básicamente contextual. II. LAS DESIGUALDADES DE HEISENBERG A la luz de esta controversia debería contemplarse un conjunto de relaciones matemáticas cuya interpretación ha creado algunos de los más enrevesados malentendidos alrededor de la teoría cuántica. Estas fórmulas reciben el nombre colectivo de “desigualdades de Heisenberg”. Las dos principales presentaciones de tales desigualdades de Heisenberg conciernen al par posición-impulso y al par energía-tiempo. Es bien conocido que ambas fueron controvertidas en su formulación original, pero mientras la primera se aclaró con relativa prontitud pronto –aun cuando la cuestión sigue debatiéndose, como se ve en [1]– la segunda todavía sigue abierta. La desigualdad que concierne a las variables posición e impulso es la más conocida [2]. Su forma matemática es ∆x⋅∆p ≥ , donde es la constante de Planck, h, una cantidad fija cuyas dimensiones son [energía]⋅[tiempo], o acción, dividida entre 2π. Expresada verbalmente viene a decir que no es posible determinar simultáneamente el valor de la posición y del impulso de un cuantón con exactitud arbitraria. Frente a lo que comúnmente se cree, esta desigualdad no indica que la observación de un sistema cuántico introduzca una perturbación incontrolable que distorsione los valores reales de su posición o de su impulso (pese a los desafortunados ejemplos de montajes experimentales sugeridos por Heisenberg). Ni tampoco significa que su comportamiento sea tan errático que escape a todo pronóstico, como si el cuantón se moviese caprichosamente de forma imprevisible. Un análisis imparcial de las premisas fundamentales de la teoría no revela referencias a observadores, aparatos de medida o cualquier otro de los elementos que han contribuido a rodear a la física cuántica de un halo de misterio y misticismo. Partiendo de las relaciones de conmutación pnqm – qnpm = −iδnm, que son postulados de la teoría, la definición de promedio cuántico, la definición de desviación típica [3, 4] (una fórmula proveniente de la estadística matemática) y la desigualdad de Schwarz

(tomada del análisis matemático), se obtiene [5, 6, 7] sin dificultad:

∆ψpn∆ψqm ≥ (/2)δnm (1) para la componente pn del impulso y la componente qm de la posición del micro-objeto representado por ψ. Como es obvio, esta deducción no hace referencia alguna a mediciones, detectores, observadores –con o sin mente– experimentos ideales o analogías ópticas de cualquier clase. Se trata de un teorema completamente general –ni siquiera se especifica el hamiltoniano– que no concierne en absoluto a “incertidumbres” (la incertidumbre es una propiedad de un estado mental, y los estados mentales conciernen, en principio, a la psicología, no a la física teórica), ni introduce la interferencia inevitable del dispositivo experimental (que por ningún lado aparece en la deducción), ni presupone que los micro-objetos sólo existen cuando se les observa (ninguna mención hay en las premisas de la deducción sobre las condiciones de contorno), pues las variables pn y qm pertenecen exclusivamente al sistema cuántico, sea observado o no. Naturalmente, si entendemos las incertidumbres experimentales en el sentido de “errores concretos en los actos de medida”, tales incertidumbres se dan aquí como en cualquier otro ámbito de la ciencia. Pero la teoría cuántica no los incluye entre sus axiomas básicos, porque los errores experimentales dependen del montaje experimental y del resto de condiciones de contorno. En relación con ello, es muy corriente leer o escuchar que de acuerdo con la teoría cuántica toda medida de un observable proporcionará un cierto autovalor de los permitidos a dicho observable [8]. No obstante, debería decirse en realidad que una serie interminable de medidas experimentales concretas arrojaría, en el límite de infinitas repeticiones sobre sistemas idénticos (y esto es otra idealización, pues no existen dos sistemas verdaderamente idénticos), la distribución de autovalores pronosticada por la teoría cuántica. En rigor, habría de decirse que probablemente proporcionaría la distribución estadística de la teoría cuántica, pues los experimentos proporcionan frecuencias de resultados y las fórmulas de la teoría de la probabilidad no son satisfechas exactamente por frecuencias, ni siquiera a largo plazo, que siempre es un plazo finito. Sólo en un tipo especial de procesos aleatorios (las series de Bernouilli) puede demostrarse que la probabilidad de cualquier divergencia dada de una frecuencia con respecto a la probabilidad teórica correspondiente, decrece con el tamaño de la muestra. Además, esta probabilidad de segundo orden no es reducible en sí misma a una frecuencia. De hecho, salvo cuando los autovalores son discretos y están muy separados, en la práctica medimos intervalos de tales autovalores. Nunca debemos confundir los supuestos axiomáticos de una teoría física con la teoría matemática de errores o los modelos de mediciones experimentales que le son propias.

Los conceptos de espacio y tiempo como variables dinámicas en la teoría cuántica no relativista

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 359 http://www.journal.lapen.org.mx

Tampoco las desigualdades de Heisenberg manifiestan una indeterminación intrínseca en los sistemas cuánticos, si por ella entendemos fluctuaciones impredecibles inherentes a los micro-objetos. Admitirlo así implicaría que existen valores exactos para las variables p y q, pero que dichas fluctuaciones imponen unos intervalos de error irreducibles, ∆p y ∆q respectivamente. Ya hemos visto que no es así; los sistemas cuánticos no son objetos clásicos sometidos a un incesante vaivén que nos impide localizarlos con precisión. Más sentido físico tiene –aunque también es erróneo– deducir las relaciones de Heisenberg de la dualidad onda-corpúsculo junto con la teoría de desarrollos armónicos en serie de Fourier. Si suponemos que un objeto cuántico no es más que un “paquete” o grupo de ondas, es obvio que cuantas más ondas (cada una con su longitud λ) se combinen para formar el paquete, más estrecho y localizado resultará éste, aunque debido a la relación de De Broglie, aumentará igualmente el intervalo de valores del impulso asociado al grupo de ondas. Y al contrario, una onda plana ideal tendrá un impulso perfectamente definido, pero al ser de extensión infinita la imprecisión de su posición también será infinita. Ahora bien, los micro-objetos no son equiparables a meros grupos de ondas, como hizo notar Lorentz a Schroedinger(aunque es cierto que el registro individual de impactos en detectores de partículas suele probar la cuantización de los niveles átomicos en los átomos del detector, más bien que la propagación corpuscular de los cuantones detectados). Así es, entre otros motivos porque de lo contrario los experimentos de difracción reproducirían una figura de interferencia completa por cada partícula individual, cosa que no sucede [9]. De hecho, en el formalismo riguroso de la teoría cuántica las desigualdades de Heisenberg no aparecen a consecuencia del teorema de Fourier sobre descomposición armónica de ondas. Al contrario, son resultado de los postulados de la teoría –que no se comprometen con la naturaleza de los micro-objetos a los que se refieren– y en particular de la no conmutatividad de los operadores. Por eso difieren los significados físicos de la relación impulso-posición y la relación energía-tiempo, como fue señalado por Jordan [10] y Pauli [11]. No es cierto, como afirmó Bohr [12, 13], que el tiempo posea una dispersión al igual que la posición o el impulso. En la teoría cuántica el tiempo no es una variable dinámica (por lo que carece de un operador asociado en el espacio de Hilbert y por tanto carece de dispersión), sino un parámetro perteneciente a un cierto grupo de transformaciones [14, 15]. Sí es posible, no obstante, definir un “tiempo de evolución”, δψtA, para un variable dinámica cualquiera A en un estado ψ, como el intervalo de tiempo necesario para que la variación temporal del valor medio de A resulte apreciable sobre su dispersión intrínseca ∆ψA. Entonces tendríamos

δψtA ⋅ ∆ψA ≥ , (2)

que se reduciría a la desigualdad energía-tiempo cuando A representase la magnitud energía [16]. Del formalismo de Von Neumann se desprende con toda claridad la ausencia de menciones sobre dispositivos experimentales o actos de observación. Cuando efectuamos una medida de la posición, o por la propia evolución temporal de ψ, el vector de estado girará para coincidir con uno de los ejes de las funciones propias de posición en el espacio abstracto de Hilbert, lo que nos dará un valor propio para la posición. Ahora el vector de estado representará una posición bien definida, pero precisamente por eso no coincidirá con ninguno de los ejes del impulso, y en consecuencia no será función propia de ellos ni tendrá un valor definido de tal magnitud. En todo caso, contaremos con las probabilidades de hallar en una medida uno de los valores propios mediante las proyecciones del vector ψ sobre los ejes del impulso. Análogamente, si decidiéramos medir el impulso, el vector de estado giraría para coincidir con uno de los ejes de las autofunciones del impulso. Tendríamos entonces un valor del impulso bien definido perdiendo como contrapartida toda posibilidad de definir unívocamente el valor de la posición, ya que ahora ψ puede descomponerse en sus proyecciones sobre los ejes de las autofunciones de la posición. El punto crucial en este razonamiento reside en advertir que según los fundamentos de la física cuántica, tan solo cuando el vector de estado coincide con una de las funciones propias de una magnitud observable, tendrá sentido hablar de un valor definido de dicha magnitud. En resumen, las desigualdades de Heisenberg no involucran indeterminaciones, ni incertidumbres, ni la intervención de observadores externos, ni un fantasmal “libre albedrío” de los objetos cuánticos. Más bien, obligándonos a renunciar a los conceptos clásicos de onda y corpúsculo puntiforme, estas desigualdades expresan el grado de incompatibilidad en la aplicación simultánea de ciertos conceptos clásicos a unos micro-objetos que carecen realmente de ellos. III. ¿DUALIDAD ONDA-CORPÚSCULO? Tras las consideraciones anteriores, deberíamos admitir ya sin reservas que los objetos cuánticos son entes específicos con propiedades peculiares y absolutamente novedosas; llamémosles cuantones para utilizar un término neutral, como propuso Bunge en [14]. Los conceptos de posición e impulso no les son aplicables, no se pueden definir trayectorias, y por consiguiente la teoría cuántica no es en modo alguno una “mecánica”. No existe realmente un “operador de posición”, aunque sea llamado así, porque la variable x es una magnitud numérica que tan solo etiqueta puntos del espacio. Por esa razón sus “autofunciones”, las deltas de Dirac, no son verdaderas funciones [17]. Bohr o Heisenberg, entre otros muchos, no escaparon a un cierto prejuicio newtoniano, según el cual toda teoría fundamental de la naturaleza debe ser una especie de

Rafael Andrés Alemañ Berenguer

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 360 http://www.journal.lapen.org.mx

mecánica, y no algo más parecido a la termodinámica o la teoría de campos (piénsese, por ejemplo, en la teoría cuántica de campos), donde no se definen posiciones ni trayectorias de objetos puntuales. No obstante, persiste la controversia, puesto que alguno investigadores afirman haber refutado el así llamado “principio de complementariedad” de Bohr, poniendo a la vez de manifiesto en un solo experimento los aspectos ondulatorios y corpusculares [18]. Por decirlo brevemente, cuanto mayor sea la influencia del entorno sobre un cuantón para acentuar su semejanza con el comportamiento de un corpúsculo clásico (disminuyendo ∆x) menor será su similitud con una onda clásica ideal (aumentará ∆p), y viceversa, pero se trata en todo caso de pseudo-corpúsculos y pseudo-ondas. Sería difícil interpretar en términos de esta presunta dualidad, por ejemplo, las dispersiones cuadráticas medias de las componentes del campo electromagnético en la electrodinámica cuántica. Los cuantones carecen de las propiedades físicas típicamente clásicas que se les atribuyen cuando son concebidos ya sea como ondas o como corpúsculos. Por muy útiles que hayan resultado tales analogías –y lo han sido– no debemos perder de vista la genuina y, para nosotros, extravagante naturaleza real de los objetos cuánticos. Un experimento de difracción a través de una doble rendija realizado con electrones enviados uno a uno, por ejemplo, puede encontrarse en [19]. El genuino significado de las desigualdades de Heisenberg es el que corresponde a un teorema de incompatibilidad entre pares de variables complementarias en el sentido antes discutido, o dicho más técnicamente, entre pares de variables “no conmutables”. La razón de que no sea posible determinar exactamente la posición y el impulso de un cuantón, es sencillamente que no poseen tales atributos a diferencia de los objetos de la física clásica. En la mecánica de Newton los corpúsculo gozaban siempre de una posición determinable en principio con arbitraria precisión, al tiempo que las ondas eran fenómenos extensos caracterizados por un impulso bien determinado. Nada de eso ocurre, en cambio, en lo concerniente a los cuantones puesto que no son realmente ni una cosa ni otra, pese a que algunas de sus propiedades representables macroscópicamente como típicas de ondas o de corpúsculos, se manifiesten en ciertas situaciones experimentales. De ello tampoco se deduce en modo alguno que sea el observador el responsable de “crear” dichas propiedades de la nada con su acto de observación y que, por consiguiente, nada exista en realidad con independencia de los observadores y sus mediciones. Las amplitudes de dispersión ∆x y ∆p conciernen a la anchura de las curvas de distribución de posición e impulso sobre los intervalos en los que estas magnitudes se encuentran definidas. Cuanto mayor sea la precisión que mediante un montaje experimental adecuado tratamos de lograr en la posición, tanto más obligaremos a la curva de distribución de impulso a ensancharse en torno a su valor medio. Y recíprocamente, el estrechamiento en la

dispersión de p impone un aumento en la amplitud de la dispersión para x. De la carencia de un concepto de posición se sigue la inexistencia de la noción de trayectoria en la teoría cuántica, y por tanto la inadecuación del nombre de “mecánica” que en tradicionalmente se le adjudica. Cobra especial importancia distinguir entre los diferentes conceptos que subyacen a las distribuciones de probabilidad de la física cuántica y de la física clásica. La mecánica estadística clásica emplea las distribuciones de probabilidad para calcular la fracción de moléculas en un gas, por ejemplo, que a una temperatura dada se mueven con una determinada velocidad y energía. El esfuerzo sobrehumano que comportaría el cálculo de esas magnitudes para cada una de las moléculas del gas, hace ineludible semejante recurso. A diferencia de ello, las distribuciones de probabilidad cuánticas están referidas a un solo cuantón, el cual se caracteriza en cada instante por las curvas completas de distribución de velocidad y posición. Bajo ningún concepto debemos suponer que los cuantones posean velocidades y posiciones por cuya ignorancia nos vemos empujados al uso de las distribuciones de probabilidad. Muy al contrario, estas curvas de distribución probabilística reemplazan a los conceptos mismos de posición e impulso −entre otros− que se ven desprovistos así de su significado clásico. IV. LA DESIGUALDAD ENERGÍA-TIEMPO La desigualdad de Heisenberg relacionada con el tiempo [2], acostumbra a ser escrita en función de la energía (que es equivalente a la masa) y del tiempo que dura una interacción entre cuantones. Matemáticamente,

∆Ε⋅∆t ≥ /2, (3) donde ∆Ε es la energía en juego, ∆t es el intervalo de tiempo que dura la interacción y es la constante de Planck dividida entre 2π. Son muchos los físicos −empezando p or el mismo Bohr− que consideraban esta ecuación como una de las relaciones de incertidumbre de Heisenberg, en pie de igualdad con las que se dan entre las componentes de la posición y el impulso. Esto, sin embargo, es un error. Y lo es porque dentro del marco formal de una teoría cuántica completamente desarrollada, la deducción de las relaciones de Heisenberg es por entero distinta de la que nos lleva a la ecuación anterior. Usando un método matemático conocido como “transformada de Fourier” es posible derivar la relación entre el tiempo y la energía del mismo modo que las indeterminaciones de la posición y el impulso. Pero esto implicaría despreciar el aspecto corpuscular que también es imprescindible en la física cuántica. Para ello hemos de usar la teoría completa y entonces resultan válidas las consideraciones hechas aquí.

Los conceptos de espacio y tiempo como variables dinámicas en la teoría cuántica no relativista

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 361 http://www.journal.lapen.org.mx

A diferencia de lo que ocurre con variables clásicas como la energía o el impulso, que poseen sus correspondientes operadores cuánticos, no existe –como se verá después– ningún “operador temporal” que asociar al tiempo en la física cuántica, por lo menos tal como la teoría es hasta el presente. De ello se sigue que las operaciones matemáticas que se utilizan deducir las desigualdades de Heisenberg, no son aplicables en este caso. Concretamente, en la versión formalizada de la teoría cuántica que Dirac desarrolló, el tiempo se considera lo que él llamaba “un número c”, es decir, una variable sin dispersión. Dicho con otras palabras, en la física cuántica los conceptos de posición e impulso difieren de los admitidos en la física clásica, pero la noción de una variable temporal que toma siempre valores exactos es idéntica en ambas. La interpretación correcta de esta desigualdad comienza imaginando un cierto sistema físico (que puede ser una colección de cuantones o uno solo), con propiedades físicas que adquieren unos valores cuyos promedios cuánticos se conocen. Entonces ∆t es el intervalo de tiempo que debe transcurrir para que tales promedios varíen apreciablemente. Por su parte, ∆Ε es la dispersión de la energía del sistema, la anchura del intervalo de los valores de la energía (la energía del sistema como tal concepto ya no tiene un valor definido con exactitud). Así, cuanto mayor sea la precisión con que se defina la energía del sistema (∆Ε es pequeño), mayor será también el tiempo que tardarán sus propiedades en variar de modo apreciable (∆t es grande), y viceversa. Nada nos impide aplicar esta relación incluso al vacío, donde la energía jamás resulta realmente nula a pesar de que la denominación ‘vacío’ nos incline a suponer lo contrario, pues la condición de nulidad estricta de todos los campos físicos en una región dada del espacio no es un estado propio del hamiltoniano cuántico. Concentremos entonces nuestra atención en una región de espacio vacío durante un minúsculo intervalo de tiempo, de forma que la dispersión de la energía sea muy elevada. Siendo así, no podremos afirmar que la energía posea un valor determinado, sino que existe un intervalo de valores de anchura ∆Ε. Puesto que energía y masa son equivalentes, la indeterminación en la energía del vacío durante muy breves periodos de tiempo se traducirá en una indeterminación en la cantidad de partículas −virtuales, por descontado− que allí existan. La conclusión es que el vacío cuántico no se halla verdaderamente “vacío”, por cuanto que en él se da una continua aparición y desaparición de partículas virtuales. Esta circunstancia no viola el principio de conservación de la energía porque el valor de la energía total de la región considerada no está perfectamente determinado excepto para un tiempo infinito. El hecho de que el vacío cuántico es en realidad un efervescente océano de partículas efímeras, ha sido corroborado incluso experimentalmente. El “efecto Casimir” demuestra que la presión ejercida por los choques de las partículas virtuales del vacío sobre las

placas de un condensador situadas frente a frente, no es la misma por el lado que mira al exterior que por el interior. La diferencia de empujes entre ambos coincide exactamente con la esperable a causa de la presión del vacío cuántico [20]. V. ESPACIO Y TIEMPO EN LA FÍSICA CUÁN-TICA Podría pensarse que algunas de las confusiones antes discutidas, tal vez tengan su origen en el propio papel del tiempo como magnitud física en el marco de la teoría cuántica. En realidad éste es un asunto muy debatido. Bastan para comprenderlo las palabras de Von Neumann [21]: «(…) una debilidad esencial que es, de hecho, la principal debilidad de la mecánica cuántica: su carácter no relativista, el cual distingue el tiempo t de las tres coordenadas espaciales x, y, z, y presupone un concepto de simultaneidad objetiva. De hecho, mientras todas las demás cantidades (en especial esas x, y, z estrechamente conectadas con t por las transformaciones de Lorentz) están representadas por operadores, corresponde al tiempo un parámetro numérico ordinario t, tal como en la mecánica clásica.» Es cierto, sin duda, que la teoría cuántica elemental fue elaborada en un formato no concordante con la relatividad einsteiniana, pero es erróneo suponer que las coordenadas espaciales se representan en ella mediante operadores. Lo cierto es que en ese extremo coinciden tanto las coordenadas espaciales (x, y, z) como el tiempo t; ninguna de esas magnitudes posee un operador funcional asociado a ella. Veamos la razón de esto. La teoría cuántica se desarrolló a imagen y semejanza de la mecánica hamiltoniana por dos motivos cruciales, en parte históricos y en parte lógicos. Desde el triunfo en el siglo XVIII de la mentalidad newtoniana, se tenía la convicción de que cualquier teoría fundamental de la materia –y por extensión de toda la física– había de ser alguna especie de “mecánica”; es decir, un conjunto de ecuaciones del movimiento de partículas que interaccionasen entre ellas obedeciendo alguna ley de fuerzas más o menos complicada. La noción de campo introducida posteriormente por Faraday en el siglo XIX no cambio sustancialmente la situación. De hecho, quien elaboró matemáticamente las ideas de Faraday, el escocés James Maxwell, obtuvo sus ecuaciones imaginando un éter mecánico sometido las leyes de Newton. Era natural, así pues, que se adoptase el poco afortunado nombre de “mecánica cuántica” para una parcela de la física que nació con el fin de explicar series espectroscópicas, distribuciones de frecuencias electromagnéticas, calores específicos, y una diversidad de cantidades profundamente alejadas de las genuinas magnitudes mecánicas. Por otro lado, y también en el siglo XIX, los métodos matemáticos de Hamilton demostraron abarcar tanto la descripción mecánica de las partículas como la de las

Rafael Andrés Alemañ Berenguer

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 362 http://www.journal.lapen.org.mx

ondas. Esto supuso una absoluta novedad en el ámbito de la mecánica clásica. Se ha especulado a menudo si con algo más de perspicacia –como si Hamilton hubiese carecido de ella– el científico irlandés hubiera sido capaz de dar un paso más y descubrir por sí mismo el marco matemático de la futura teoría cuántica. No parece, empero, que las cosas fuesen tan sencillas [22]: «(…). Se ha dicho que si Hamilton hubiese avanzado un poco más, habría descubierto la ecuación de Schroedinger. No es así; le faltaba autoridad experimental para dar ese salto. En los tiempos de Hamilton se consideraba que la Mecánica clásica era rigurosamente cierta y no existían justificaciones basadas en la experiencia para considerar que fuese una aproximación a una teoría más amplia. (…)». Era casi inevitable, pues, que se recurriese al formalismo hamiltoniano en la naciente física cuántica, toda vez que sus referentes –los cuantones– manifestaban tanto propiedades corpusculares como ondulatorias. Y así se hizo, aderezando la mecánica analítica de Hamilton con el álgebra de operadores de Von Neumann sobre el espacio funcional de Hilbert. Es digno de reflexión el hecho de que la estructura formal de la teoría cuántica puede obtenerse “deformando” la estructura característica de la mecánica clásica [23, 24, 25, 26]. En la mecánica analítica de Hamilton –ya lo sabemos– un sistema de n partículas se describe mediante 3n parejas de variables dinámicas conjugadas, que en su forma canónica se suelen representar como qk y pk. Se trata de variables generalizadas que pueden representar ángulos, momentos angulares, etc., si bien es cierto que cuando nos ocupamos de partículas puntuales –cosa que no son los cuantones– pn y qn suelen referirse respectivamente a impulsos y posiciones. Estas variables obedecen las relaciones expresadas en los corchetes de Poisson:

qk , pl = δkl , (4)

qk , ql = pk , pl = 0. (5) Definimos con ello un punto 6n-dimensional en el espacio de fases del sistema. Y la evolución temporal se caracteriza mediante la función hamiltoniana de estas variables dinámicas, H = H(qk , pl), que suponemos no dependiente explícitamente del tiempo:

dqk/dt = qk , H, (6) dpl/dt = pl , H. (7) VI. VARIABLES DINÁMICAS Y COORDE-NADAS GEOMÉTRICAS En todas las teorías físicas, salvo en Relatividad General, se supone que el espacio y el tiempo (o el espacio-tiempo si hablamos de la Relatividad Especial) constituyen un escenario meramente pasivo en el que transcurren los

procesos naturales, una suerte de marco inerte imprescindible para describir los fenómenos físicos. Esto hace necesario distinguir entre las coordenadas espacio-temporales (t, x, y, z) y las variables dinámicas qn y pn correspondientes al espacio de fases. Las primeras tan solo sirven para etiquetar matemáticamente los distintos puntos del espacio y el tiempo, por lo cual podrían denominarse “variables de campo”, aunque solo fuese en referencia a un campo métrico que nos permite definir distancias entre dichos puntos. Muy al contrario, qn y pn son variables dinámicas asociadas, por ejemplo, a la posición y el impulso de un cierto objeto físico. No etiquetan de forma genérica todos los puntos de un continuo −como el espacio-tiempo− usado como marco básico para formalizar nuestras teorías; únicamente se refieren a los puntos que de hecho ocupa el objeto físico en cuestión. Dicho de otro modo, qn y pn especifican las propiedades de sistemas materiales concretos, mientras que las coordenadas (t, x, y, z) caracterizan el continuo espacio-temporal adoptado como variedad de base en la que subsumir dichos sistemas materiales concretos. Ahora nos parecerá más sensato distinguir, en primera instancia, entre la variable de posición de una partícula puntual, qx, y la coordenada espacial del punto que dicha partícula ocupa en un cierto instante, x. Es cierto que se da la relación numérica qx = x (y análogamente para el resto de coordenadas), pero una cosa es la partícula puntual −entendida como un ente físico dotado de masa-energía, posición, velocidad y aceleración− y otra muy distinta la coordenada x de un punto fijo en un espacio vacío preexistente. Por otra parte tenemos el insustituible papel desempeñado por las simetrías en nuestra comprensión de las leyes físicas. Las leyes naturales no se alteran cuando cambiamos la posición del origen de nuestro sistema de referencia (simetría espacio-temporal de traslaciones), ni cuando giramos sus ejes un cierto ángulo (simetría espacial de rotaciones). Las transformaciones de Lorentz añaden la equivalencia de referenciales en movimiento inercial relativo, lo que se traduce en la simetría de rotaciones espacio-temporales. Pero de nuevo hemos de subrayar una distinción crucial: el obligado cumplimiento de ciertos requisitos de simetría concierne tan solo a las leyes físicas (es decir, a la representación formal de la totalidad de fenómenos y procesos físicamente permisibles), no necesariamente a los sistemas físicos individuales y concretos. En multitud de casos encontraremos sistemas materiales que, por la asimetría de su configuración, digamos, no serán rotacionalmente simétricos. Y ello no significa que la simetría rotacional de las leyes naturales haya quedado en suspenso. Las simetrías de traslación espacial se generan mediante el impulso total, P, las temporales lo hacen gracias a la energía total (suponiendo que la energía total del sistema venga representada por la función hamiltoniana, cosa que no siempre ocurre) H, y el generador de las simetrías rotacionales es el momento

Los conceptos de espacio y tiempo como variables dinámicas en la teoría cuántica no relativista

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 363 http://www.journal.lapen.org.mx

angular total, J. Si todas estas simetrías se hallan en pie de igualdad, con frecuencia se cuestiona la razón de la prepronderancia otorgada a la función hamiltoniana, H, representativa de la evolución temporal de los sistemas físicos. ¿A qué se debe la prioridad de las traslaciones temporales sobre las traslaciones espaciales en la descripción de la naturaleza? La respuesta ha de buscarse en la tradición histórica de la mecánica analítica, dedicada en su mayoría al estudio de objetos puntiformes y cuerpos rígidos, todos los cuales se transforman trivialmente bajo traslaciones en el espacio. Muy otro, empero, es el caso de los campos clásicos (electromagnéticos, distribucion de velocidades o densidades en un fluido, etc.), cuyas propiedades de traslación espacial pueden ser en absoluto triviales. En tales situaciones, P y H cobran igual importancia; tanto así que en Relatividad Especial la energía y el impulso constituyen los componentes de un mismo tetravector espacio-temporal. La acentuada similitud formal entre el comportamiento de qx y de x bajo traslaciones y rotaciones espaciales, ha oscurecido notablemente las diferencias de fondo entre ambas magnitudes. Y el uso de la notación x para la posición de las partículas (igualmente para las demás coordenadas) todavía ha acarreado mayor confusión, hasta el punto de que difícilmente hallaremos muchos textos en los que se señale explíctamente la distinción entre ambas variables. Es más, los denodados esfuerzos de algunos autores por incluir la coordenada temporal, t, como variable canónica conjugada de H, estaban destinados al fracaso (siempre y cuando nos mantengamos dentro del esquema hamiltoniano ortodoxo). El funcional hamiltoniano H depende de las variables canónicas originales, qn y pn −y en ocasiones también de t− luego no puede ser él mismo una variable canónica independiente. El malentendido es consecuencia, nuevamente, de confundir coordenadas espacio-temporales (etiquetas matemáticas asignadas a los puntos del espacio-tiempo) con variables dinámicas (propiedades que caracterizan los sistemas físicos situados en el espacio-tiempo). VII. LOS CUANTONES COMO OBJETOS SUI GENERIS

En la física cuántica elemental la situación es del todo similar: se presupone la existencia de un espacio-tiempo de base, continuo e inerte, los puntos del cual vienen especificados mediante coordenadas espacio-temporales que son variables clásicas sin dispersión (los “números c” de Dirac). Las simetrías y transformaciones espacio-temporales se expresan en términos de tales coordenadas. Las variables dinámicas, por su parte, sí se hallan cuantizadas, debido a lo cual se sustituyen por operadores autoadjuntos en un espacio de Hilbert. Todas las fórmulas hamiltonianas conservan su validez sin más que reemplazar los corchetes de Poisson por conmutadores cuánticos según la regla A , G → (i )−1 [ Â , Ĝ]. En

particular, las variables canónicas quedan sustituidas por operadores que obedecen las siguientes relaciones de conmutación:

[ ] [ ] [ ] 0 , , ; , ==δ= lklkkllk ppqqipq ˆˆˆˆˆˆ

(8) Llegamos ahora a una de las claves de esta controversia:

la sustitución de variables dinámicas por operadores y corchetes por conmutadores, manifiesta las limitaciones inherentes al hecho de representar mediante magnitudes típicas de partículas puntuales las propiedades de los cuantones, que no son en modo alguno objetos puntiformes.

En efecto, de ordinario se mantiene la notación qi para las componentes cartesinas de la posición del cuantón, considerado como un punto material, y análogamente para las componentes del impulso, pj. Pero ocurre que mientras a pj se le asigna su correspondiente operador diferencial, la variable qx, por ejemplo, queda reemplazada por el llamado “operador de multiplicación”, x⋅( ). Que este último no es un operador genuino resulta evidente por su carencia de verdaderas autofunciones. Las deltas de Dirac ni siquiera son auténticas funciones en sentido matemático riguroso, motivo por el cual ningun estado cuántico puede desarrollarse como combinación lineal de funciones propias del operador posición.

El operador impulso no sufre las complicaciones precedentes porque la noción de velocidad, o de momento lineal, es compatible tanto con objetos idealmente puntuales (la masa puntual de la mecánica clásica), como con entidades extensas (una onda plana ideal). Sin embargo, la variable dinámica qi solo rige sobre objetos idealmente reducibles a un punto, cosa imposible con los cuantones. Por eso sí cabe hablar de la velocidad de propagación de una onda plana, pero no hablamos de su posición puntual; como bien sabemos por la óptica geométrica, el límite no ondulatorio de una onda plana es un rayo, no un punto.

Numerosos textos de física cuántica elemental parten de considerar una única partícula puntual, lo que ya introduce un error en el origen. Sin embargo, se sabe que los cuantones son entes espacialmente extensos, razón por la cual Por eso se habla de “campos electrónicos”, en lugar de “electrones”, o de “campos de materia” en general. Por ello, la función de onda dependiente del tiempo no se escribe ψ(qx, t), como cabría esperar, sino ψ(x, t), donde x denota una coordenada geométrica que abarca todo el espacio, no la posición instantánea de un corpúsculo puntiforme. Y es natural que así sea, pues un cuantón libre se representa mediante una onda plana infinita, aunque ψ(x, t) no simbolice una onda clásica tridimensional (una falsa impresión reforzada por explicaciones ilustradas con apelaciones a “experimentos de interferencias mediante doble rendija”, etc.).

La función de estado cuántico, en realidad, es una magnitud que se situa en un nivel de abstracción todavía más elevado, cuya caracterización formal se da en un espacio funcional de Hilbert con un álgebra específica. De todos modos, la notación empleada, en la que x y t

Rafael Andrés Alemañ Berenguer

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 364 http://www.journal.lapen.org.mx

aparecen en pie de igualdad como argumentos de la función ψ, nos incita a preguntarnos por qué t no es un operador como x. La respuesta, obviamente, consiste en recordar que ni t ni tampoco x son verdaderos operadores.

VIII. LA VARIABLE TIEMPO

De un modo u otro, tal como han sido definidos los operadores asociados a qi y pj no están acotados, y su espectro de valores permitidos abarca toda la recta real. En el caso de que se impongan condiciones de contorno periódicas a la variable posición, los autovalores del operador impulso pasan a ser discretos. Y si la función de onda ha de anularse en los extremos de un intervalo espacial finito (el socorrido ejemplo de la “partícula en una caja”), ni siquiera existe entonces un operador autoadjunto para el impulso. El empeño de considerar t como si fuese un operador genuino, nos llevaría a esperar que obedeciese la relación [t , H] = i. De ser así, t debería poseer un espectro continuo de autovalores desde −∞ hasta +∞, puesto que abarca todos los instantes del tiempo. En consecuencia, lo mismo habría de ocurrir con el hamiltoniano H, contra la palmaria evidencia de que existen sistemas con autovalores discretos de la energía. Todo este razonamiento parecía apuntar hacia la imposibilidad de construir un operador tiempo, en tanto la presunta existencia de un operador posición acentuaba la asimetría entre espacio y tiempo alejando todavía más la teoría cuántica del espíritu relativista. Ahora bien, ya hemos visto que no hay un auténtico problema; ni x ni t son operadores, y la simetría formal entre ambas coordenadas se mantiene. Una alternativa, desde luego, consiste en definir formalmente un operador de evolución temporal (no un operador “tiempo”), que proporcione la transición desde un estado particular ψ0(x) en un instante t0 hasta otro estado posterior ψt(x) en un instante t. Tendríamos así

)()ψ(U)(ψ 0 xtxtˆ= , (9)

donde el operador )(U tˆ es igual a expe[–iĤt]. Es sencillo demostrar que el operador de evolución temporal, aunque lineal, no es hermítico (sus valores propios, expe[–iEnt], no son reales). Por ese motivo, )(U tˆ no puede considerarse sino un artificio puramente formal destinado a expresar el paso desde un estado inicial a otro final mediante un operador lineal que sólo depende de Ĥ y de t, en un lenguaje matemático equiparable al de otros operadores físicos auténticos. La situación es todavía más delicada al incorporar la relatividad especial en la teoría cuántica elemental, porque entonces nos vemos privados incluso del pseudo-operador de posición manejado hasta ese momento. En una teoría cuántica relativista, el concepto de partícula localizable –y,

por ende, la idea de función de onda portadora de su densidad de probabilidad– es todavía más delicada que en el caso no relativista [27, 28]. En 1949, T. D. Newton y E. P. Wigner publicaron un conocido artículo [29] en el que mostraban la caracterización prácticamente unívoca de un operador denominado “de posición” mediante su comportamiento bajo traslaciones y rotaciones espaciales. Sin embargo, el operador así definido resulta ser no covariante en el sentido relativista. Más aún, debido al signo positivo de la energía de los sistemas físicos habituales, si en un cierto instante tenemos un autoestado de este operador (un “estado localizado”, en la terminología de Newton y Wigner), tras un intervalo de tiempo infinitamente breve el estado posterior se halla extendido por todo el espacio. Tan desagradable conducta ha venido propiciando una copiosa literatura en torno a la discusión sobre el significado y utilidad real del concepto de “partícula localizable” en el marco de una teoría cuántica-relativista. Concretamente, en el caso de los espinores de Dirac correspondientes a cuantones con espín ± ½, el operador de posición de Newton-Wigner se muestra idéntico al operador de “promedio posicional” de Foldy-Wouthuysen [30]. La verdad es que en las versiones relativistas al uso de la física cuántica, ni la posición ni la duración se cuentan entre las nociones básicas [31, 32]. El papel principal lo juega en este contexto el operador de campo cuántico,

),( txΦ , que se parametriza mediante las coordenadas espacio-temporales consideradas como magnitudes clásicas sin dispersión (nuevamente, los “números c” de Dirac). IX. DESAROLLOS POSTERIORES A partir de la década de 1990, la discusión sobre las relaciones de Heisenberg aplicadas a la energía y al tiempo, cuando la formulación del principio E-t, a un nivel más elaborado, se apoya en la moderna teoría de la medida, incorporando herramientas matemáticas como, por ejemplo, los POVM (positive operador-valued measures). Estos desarrollos permiten considerar una amplia y enriquecedora gama de relaciones de indeterminación, con distintas interpretaciones para ∆t y ∆E, en el marco de una teoría cuántica que, en desarrollo, considera tiempos que son observables cuánticos (medibles, representables por operadores en el formalismo). Desde semejante perspectiva, la definición matemática de una medida resulta ser una cantidad M obtenida como valor de un operador, caracterizado sobre una colección de subconjuntos Σ de un conjunto Ω, cuyo dominio es la clase de los operadores acotados no negativos sobre un espacio de Hilbert complejo y separable, bajo la condición de normalización M(Ω) = I, siendo I el operador identidad. Una medida que cumpla estos requisitos recibe el nombre de medida POVM. Una de estas medidas POVM cuyo

Los conceptos de espacio y tiempo como variables dinámicas en la teoría cuántica no relativista

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 365 http://www.journal.lapen.org.mx

dominio se restringe tan solo a operadores de proyección, se abrevia como PVM. Las mediciones asociadas con el caso POVM se llaman “medidas generalizadas”, en tanto que las mediciones PVM (especialmente las mediciones espectrales) se denomina meramente “medidas”. El formalismo POVM –muy utilizado en la teoría de la información cuántica– procede mediante operadores auto-adjuntos no negativos en un espacio de Hilbert, con el fin de obtener la formulación más general posible de una medida cuántica. Sucede a menudo que las medidas proyectivas en un sistema influyen sobre los subsistemas que lo componen de un modo que no puede describirse adecuadamente por medio de la realización de tales medidas sobre dichos subsistemas. Ello nos conduce a un planteamiento operacional de la medición cuántica [33, 34, 35], en el cual la interacción entre el sistema medido y el aparato de medición reviste una importancia crucial [36, 37]. Existen también trabajos que considera hamiltonianos varios, con espectro puntual no vacío, así como operadores tiempo acotados y autoadjuntos. Parecería que hay distintos conceptos de tiempo en la teoría cuántica, con operadores asociados, no necesariamente autoadjuntos: tiempos de llegada, de efecto túnel, etc. [38, 39]. Sin embargo, no es que haya "otros tiempos en el foirmalismo", sino que tenemos diversos procedimientos para interpretar distintas maneras de medir intervalos de tiempo en proceso cuánticos. Pero ese no pretendía ser el tema del artículo. La idea del tiempo como sólo un “parámetro” de la teoría, que aparece en la ecuación de evolución y que es medido por un “reloj externo”, sigue siendo la única que subyace a todos estos formalismo [40]. X. CONCLUSIONES En resumen, gran parte de la confusión engendrada alrededor del debate sobre el espacio y el tiempo en la física cuántica, podría disiparse distinguiendo entre las coordenadas espacio-temporales –que son números c– y las variables dinámicas −heredadas de la mecánica analítica a través del formalismo hamiltoniano− que caracterizan el comportamiento de los sistemas físicos en el espacio-tiempo [41, 42, 43, 44]. Ya que los cuantones no son reducibles ni siquiera idealmente a corpúsculos puntuales, no existe un auténtico “operador de posición” en la teoría cuántica, lo que equilibra la situación, pues tampoco hay un “operador tiempo”. La creencia opuesta, tan común, se funda en un doble malentendido: por un lado, confundir las variables dinámicas de posición, típicas de las partículas, con las coordenadas de puntos en el espacio; y por otro, asignar las variables dinámicas de posición a entes físicos, como los cuantones, para las cuales resultan esencialmente inapropiadas. Así pues:

• Las desigualdades de Heisenberg no expresan incertidumbres o errores en mediciones, sino la

adecuación contextual de propiedades puramente clásicas, como la posición o el impulso .

• No existen genuinos operadores cuanticos correspondientes a la posición o al tiempo, dado que la teoría ni asigna a los cuantones atributos tales como la posición espacial, ni considera que el tiempo se más que una variable clásica.

• Por ello, la conservación de la energía se cumple estrictamente, y no tan solo como un promedio estadístico para tiempos prolongados.

• Las teorías cuánticas de campos se describen mediante los operadores de creación y aniquilación, parametrizados mediante las variables espaciales y temporales típicas, que en sí mismas siguen siendo números c sin dispersión cuántica.

En efecto, cuando tratamos de sumergir la teoría cuántica en una formulación relativista, los requisitos de covariancia espacio-temporal se vuelven tan exigentes que nos vemos despojados incluso del recurso a un mal llamado operador de posición: el concepto de objeto puntiforme se pierde desde el principio de manera mucho más diáfana todavía que en la teoría cuántica no relativista, y la totalidad de la controversia queda un tanto obsoleta. Finalmente acabamos desembocando el dominio de la teoría cuántica de campos, concebida como la via regia para la inserción de la covariancia relativista en el mundo cuántico. Ese es, al menos, el consenso general de la comunidad científica; un consenso que , sin embargo, cuenta con sus propios y nada desdeñables inconvenientes. AGRADECIMIENTOS Debo un especial reconocimiento a mis colegas Juan Miguel Suay y Ángel Torregrosa por haber dirigido mi atención sobre los errores conceptuales y malentendidos que todavía en la actualidad se mantienen entorno a la adecuada interpretación de las desigualdades de Heisenberg, muy especialmente en relación con la energía y el tiempo en los sistemas cuánticos. También he de expresar mi gratitud a la profesora Estrella Jornet, que revisó la parte matemática del artículo para asegurar la corrección del formalismo. REFERENCIAS [1] Appleby, D. M., Maximal accuracy and minimal disturbance in the Arthurs-Kelly simultaneous measurement process, J. Phys. A: Math. Gen. 31, 6419-6436 (1998). [2] Heisenberg, W., Ueber den anschaulichen Inhalt der quantentheoretischen Kinematik and Mechanik, Zeitschrift für Physik 43, 172-198 (1927). [3] Uffink, J. and Hilgevoord, J., Uncertainty principle and uncertainty relations, Foundations of Physics 15, 925-944 (1985).

Rafael Andrés Alemañ Berenguer

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 366 http://www.journal.lapen.org.mx

[4] Hilgevoord, J. and Uffink, J., “The mathematical expression of the uncertainty principle” en A. Van der Merwe (ed.), Microphysical Reality and Quantum Description (Kluwer, Dordrecht, 1988), pp. 91-114. [5] Kennard, E. H., Zur Quantenmechanik einfacher Bewegungstypen, Zeitschrift für Physik 44, 326-352 (1927). [6] Robertson, H.P., The uncertainty principle, Physical Review 34, 573-574 (1929). [7] Schoedinger, E., Zum Heisenbergschen Unschärfe-prinzip, Berliner Berichte, 296-303 (1930). [8] Dicke, R. H. and Wittke, J. P., Introducción a la Mecánica Cuántica, (Libreria General, Zaragoza, España, 1975), p. 98. [9] Levich, B. G., Física Teórica, Vol. 3, Mecánica, Cuántica, (Reverté, Barcelona, España, 1974), p. 7. [10] Jordan, P., Über eine neue Begründung der Quantenmechanik II, Zeitschrift für Physik 44, 1-25 (1927). [11] Pauli, W., “Die allgemeinen Prinzipien der Wellenmechanik” en K. Geiger y H. Scheel (eds.) Handbuch der Physik, (Springer, 2ª ed., Vol. 245, Berlin, 1933). [12] Bohr, N., Atomic Theory and the description of nature, (Cam. Univ. Presss, Cambridge, U. K., 1934). [13] Bohr, N., “Discusión with Einstein on epistemological problems in atomic physics”, en P.A. Schilpp (ed.), Albert Einstein Philosopher-Scientist (The Library of Living Philosophers, Evanston, Ill., USA, 1949). [14] Bunge, M., Foundations of Physics (Spinger-Verlag, New York, 1967). [15] Bunge, M., The so-called fourth indeterminancy relation, Canadian Journal of Physics 48, 1410 (1970). [16] Gillespie, D.T., Introducción a la mecánica cuántica (Reverté, Barcelona, 1976). [17] Schwartz, L., Théorie des distributions, Tomes I & II, (Hermann, Paris, 1950-1951). [18] Afshar, S.S., Violation of the principle of complementarity, and its implications, Proc. SPIE 5866, 229-244 (2005). [19] Tonomura, A., Endo, J., Matsuda, T., Kawasaki, T., and Ezawa, H., Demonstration of single-electron build-up of an interference pattern, American Journal of Physics 57, 117-120 (1989). [20] Lamoreaux, S. K., Demonstration of the Casimir Force in the 0.6 to 6 µm Range, Phys. Rev. Lett. 78, 5–8 (1997). [21] Von Neumann, J., Mathematical Foundations of Quantum Mechanics (Princeton University Press, Princeton, 1955), p. 354. [22] Goldstein, H., Mecánica Clásica, (Reverté, Barcelona, 1990. [23] Bayen, F., Flato, M., Fronsdal, C., Lichnerowicz, A., and Sternheimer, D., Deformation theory and quantization I, II, Annalen der Physik 111, 61–151(1978). [24] Connes, A., Géométrie non commutative. (Inter-Editions, Paris, 1990).

[25] Deligne, P., Déformations de l’algèbre des fonctions d’une variété symplectique: comparaison entre Fedosov et De Wilde, Lecomte, Selecta Math. - N.S. 1, 667–697 (1995). [26] Fedosov, B., Deformation quantization and index theory, (Akademie Verlag, Berlin, 1996). [27] Malament, D. B., “In Defense of Dogma: Why There Cannot Be A Relativistic Quantum Mechanics Of (Localizable) Particles”, en R. Clifton (ed.), Perspectives on Quantum Reality: Non-Relativistic, Relativistic, and Field-Theoretic (Academic Publishers, Dordrecht., 1996), pp. 1–10. [28] Halvorson, H., Clifton, R., No Place for Particles in Relativistic Quantum Theory?, Philosophy of Science 69, 1–28 (2002). [29] Newton, T. D., Wigner, E. P., Localized states for elementary systems, Rev. Mod. Phys. 21, 400–406 (1949). [30] Foldy, L.L., Wouthuysen, S.A., On the Dirac Theory of Spin ½ Particles and Its Non-Relativistic Limit, Phys. Rev. 78, 29-36 (1950). [31] Jammer, M., The Conceptual Development of Quantum Mechanics, (MacGraw-Hill, New York, 1966). [32] Jammer, M., The Philosophy of Quantum Mechanics, (J. Wiley & Sons, New York, 1974). [33] Günther L., Foundations of quantum mechanics, I. Texts and Monographs in Physics, (Springer-Verlag, New York, 1983). [34] Ludwig, G., An axiomatic basis of quantum mechanics. Interpretations and foundations of quantum theory, Grundlagen Exakt. Naturwiss. 5, 49–70 (1981). [35] Davies, E. B. and Lewis, J. T., An operational approach to quantum probability, Comm. Math. Phys. 17, 239–260 (1970). [36] Busch, P., Grabowski, M., Lahti, P.J., Operational quantum physics, (Springer, New York-Berlin, 1995). [37] Davies, E. B., Quantum theory of open systems, (Academic Press, London, 1976). [38] Muga, J. G., Mayato, R. S., Egusquiza, I. L., Time in quantum mechanics, Lecture Notes in Physics, Vol. 734, (Springer, New York-Berlin, 2007). [39] Galapon, E. A., Pauli's Theorem and Quantum Canonical Pairs: The Consistency Of a Bounded, Self-Adjoint Time Operator Canonically Conjugate to a Hamiltonian with Non-empty Point Spectrum, arXiv:quant-ph/9908033. Consultado el 7-2-2010. [40] Hilgevoord, J., The uncertainty principle for energy and time, Am. J. Phys. 64, 1451 (1996). [41] Busch, P., On the Energy-Time Uncertainty Relation, Found. Phys. 20, 33 (1990). [42] Han., D., Kim, Y. S., Noz, M. E., Uncertainty relations for light waves and the concept of photons, Phys. Rev. A 35, 1682–1691 (1987). [43] Gislason, E. A., Sabelli, N. H. and Wood. J. W., New form of the time-energy uncertainty relation, Phys. Rev. A 31, 2078–2081 (1985). [44] Pfeifer, P., Fröhlich, J., Generalized time-energy uncertainty relations and bounds on lifetimes of resonances, Rev. Mod. Phys. 67, 759–779 (1995).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 367 http://www.journal.lapen.org.mx

Introducción al fenómeno de Lente Gravitacional a partir de consideraciones de la Mecánica Clásica

Alejandro Hurtado1,2, Arjuna Castrillón1,2, Gonzalo Vargas1,2

1Grupo FISINFOR, Proyecto Curricular de Licenciatura en Física, Facultad de Ciencias y Educación, Universidad Distrital, Carrera 3 No.26 A - 40, Bogotá, Colombia. 2Semillero SILAB, Proyecto Curricular de Licenciatura en Física, Facultad de Ciencias y Educación, Universidad Distrital, Carrera 3 No.26 A - 40, Bogotá, Colombia. E-mail: [email protected] (Recibido el 30 de Marzo de 2010; aceptado el 22 de Abril de 2010)

Resumen Desarrollando una simulación interactiva y recurriendo a principios de la mecánica de Newton, se logró describir la deflexión causada en haces de luz por diferentes arreglos de lentes gravitacionales, haciendo posible visualizar algunos efectos interesantes consecuencia de este fenómeno tales como la formación de imágenes múltiples, arcos y anillos de Einstein. Dicha herramienta favoreció una mejor comprensión y conceptualización de la situación física en estudio por parte de estudiantes de diferentes cursos de Física a nivel universitario. Palabras clave: Métodos numéricos y simulaciones, Astronomía y Gravitación.

Abstract Developing an interactive simulation and utilizing principles of Newtonian mechanics, describing the deflection was achieved in beams of light caused by gravitational lensing different arrangements, making it possible to visualize some interesting effects due to this phenomenon such as the formation of multiple images, arcs and Einstein rings. This tool facilitated a better understanding and conceptualization of the physical situation being studied by students of different courses in physics at the university level. Keywords: Numerical Methods and simulations, Astronomy and Gravitation. PACS: 98.80.-k, 95.30.Sf, 98.62.Sb. ISSN 1870-9095

I. INTRODUCCIÓN Una de las consecuencias más interesantes de la Teoría General de la Relatividad es que en las cercanías de un cuerpo masivo se produce una deformación del espacio y del tiempo; de manera que la interacción gravitacional se manifiesta a través del cambio causado en la geometría del Universo. Dado que toda partícula existente está condicionada a la forma que toma el espacio a su alrededor, la luz también se ve afectada por la fuerza gravitacional, hecho que fue verificado experimentalmente por primera vez por Sir Arthur Eddington (1882-1944) en 1919 al presenciar un eclipse de sol en Puerto Príncipe África. En sus observaciones, Eddington detectó un corrimiento aparente de la imagen de una estrella debido a que la masa del Sol desvió los haces de luz emitidos por la misma; a este efecto se le llamó deflexión. Igualmente, existen circunstancias especiales en las que un cuerpo celeste se encuentra entre una fuente luminosa y un observador (ubicado en la Tierra por ejemplo), de forma que, además de apreciarse un corrimiento de la imagen de

la fuente, se presentan otros efectos interesantes tales como la formación de dos o más imágenes de un mismo objeto, la evidencia de arcos y los llamados anillos de Einstein (Figura 1). Este fenómeno es conocido como Lente Gravitacional.

FIGURA 1. Formación de un anillo de Einstein. Imagen del Slacs Survey team.

Alejandro Hurtado, Arjuna Castrillón y Gonzalo Vargas

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 368 http://www.journal.lapen.org.mx

Aunque el efecto de Lente Gravitacional fue predicho por Albert Einstein (1879-1955) en 1916 como una de las pruebas de la Teoría General de la Relatividad [1], el primer caso de formación de una imagen múltiple no fue observado sino hasta 1979 por el astrónomo Dennis Walsh (1933-2005), y el primer caso de formación de un anillo de Einstein hasta 1988 por Jacqueline Hewitt. No obstante, desde mucho antes se especulaba que la gravedad tenía un efecto sobre la luz, en 1783 un astrónomo de nombre John Mitchell (1724-1793) envió a Henry Cavendish (1731-1810) un documento en el que exponía como calcular la masa de una estrella a partir de la deflexión que esta causaba sobre un haz de luz. En el desarrollo de este método Mitchell consideró únicamente el comportamiento corpuscular de la luz, y la interacción gravitacional como Newtoniana. Entonces, dada la dificultad que se tiene al abordar este tópico de la Astrofísica en cursos introductorios de Física debido a su complejidad, se busca retomar esta aproximación introduciendo algunas consideraciones pertinentes para una correcta conceptualización del fenómeno por parte del estudiante. A continuación se realizará una breve descripción del aparato matemático utilizado en la modelación del fenómeno y la deducción del ángulo de deflexión, continuando con los efectos más representativos e interesantes y finalizando con los resultados obtenidos del desarrollo e implementación de una simulación interactiva en diferentes cursos de Física a nivel universitario. II. MODELO TEÓRICO Si se considera que el potencial gravitacional generado por el cuerpo celeste que actúa como deflector es del orden de Φ<< c2, y las ecuaciones de propagación de los haces de luz son planteadas desde un marco de referencia inercial de Galileo, entonces es posible realizar un análisis del fenómeno de Lente Gravitacional a partir de consideraciones de la Mecánica Clásica. Dentro de esta aproximación se tendrá únicamente en cuenta el comportamiento corpuscular de la luz y se recurrirá a los fundamentos de la Óptica Geométrica. Aunque esta aproximación no presenta ninguna inconsistencia teórica, difiere en la interpretación que se le da al fenómeno; de forma que, desde el punto de vista de la Mecánica Clásica el fenómeno es abordado como un problema de dos cuerpos bajo interacción gravitacional, mientras que en Relatividad General el fenómeno se debe a que los haces de luz están confinados a la geometría que toma el espacio y el tiempo alrededor del cuerpo deflector. Considérese la situación ilustrada en la Figura 2. Se tiene una fuente luminosa, la cual emite haces de luz que se propagan en el espacio con simetría esférica y a la velocidad de la luz en el vacío. Dicha fuente está ubicada a una distancia DS de un observador que se encuentra a una posición ro con respecto a un marco de referencia inercial.

Debido a la presencia de un cuerpo de masa M ubicado a una distancia DL del observador y a una distancia DLS de la fuente luminosa, los haces de luz son desviados proporcionalmente al campo gravitacional generado por este cuerpo.

FIGURA 2. Sistema Observador-Deflector-Fuente, viajando a lo largo del espacio alrededor de estos cuerpos, un haz luminoso emitido por la fuente. La fuerza de atracción gravitacional que el deflector ejerce sobre un i-ésimo haz es de la forma:

)(3 iDi

Gi rrD

GMmF

−= , (1)

expresión conocida como la ley de Gravitación Universal de Newton. Donde M y rD son la masa y posición del deflector respectivamente, G=6,678x10-11Nm2/kg2 es la constante de Cavensish, ri es la posición del i-ésimo haz, m es la masa asociada al haz (que como se verá más adelante no es necesaria, y:

)()()( iiii zZyYxXD −+−+−= , (2)

Introducción al fenómeno de Lente Gravitacional a partir de consideraciones de la Mecánica Clásica

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 369 http://www.journal.lapen.org.mx

es la distancia entre el haz y el deflector. Con:

kZjYiXrDˆˆˆ ++=

y (3)

kzjyixr iiiiˆˆˆ ++=

. (4) Al plantear la segunda ley de Newton para el haz se llega a:

)(32

2

iDi

i rrD

GMdt

rd

−= . (5)

El principio de Equivalencia establece que la aceleración que experimenta un cuerpo debido a la atracción gravitacional de la Tierra por ejemplo, es independiente de su masa. Entonces nótese que aunque no se tenga un valor de masa asociado a un haz luminoso, aun así se ven afectados por los campos gravitacionales. En general, para un deflector compuesto por N partículas, la aceleración experimentada por un i-ésimo haz debida a la contribución gravitacional de cada uno de los cuerpos que componen el deflector, está dada por:

∑=

−=N

jiDj

ij

ji rrDM

Gdt

rd0

32

2)(

, (6)

donde, Mj es la masa de la j-ésima partícula, RDj su posición y Dij

3 la distancia entre esta y el i-ésimo haz. La expresión (6) es una ecuación diferencial ordinaria de segundo orden y lineal cuya solución arrojará como resultado la ecuación de propagación de la luz en aproximación clásica. III. ÁNGULO DE DEFLEXIÓN Debido al valor de la velocidad de la luz en el vacío, un haz luminoso describe una trayectoria hiperbólica alrededor del deflector, de forma que su ecuación de movimiento es análoga a la ecuación de una cónica, y es de la forma [2]:

ϕcos1)1(

eeD

r iji +

+= , (7)

con e la excentricidad de la órbita, y φ el azimut, ambas cantidades medidas desde el cuerpo central. De la misma forma, de la conservación del momentum angular y para el caso de órbitas cónicas, se tiene que:

)1( eGMDdtdr iji +=ϕ . (8)

Se denomina deflexión a la desviación que sufren los haces de luz al pasar por las cercanías del deflector, aunque esta desviación se da a lo largo de toda la

trayectoria del haz, dentro de esta aproximación se considerará que la deflexión únicamente se produce al pasar por el plano del deflector (Figura 3). Dado que este efecto es independiente de la longitud de onda, se considera monocromático.

FIGURA 3. Corrimiento aparente de la posición de una fuente luminosa. Cuando la distancia entre el observador y la fuente es considerable, los rayos ópticos se consideran paralelos entre sí. El ángulo de deflexión α es una medida de la desviación en la trayectoria del haz, tal y como se puede apreciar en la figura 2. Es posible demostrar geométricamente (la deducción puede ser consultada en [3]) y partiendo de las ecuaciones (7) y (8) que:

22RcGM

=α , (9)

con R la distancia entre el haz y el deflector. Este resultado fue expuesto por primera vez por el astrónomo alemán Johan Soldner (1776-1833) en 1804 y luego por Einstein en 1911. Para el caso de un haz que pasa por la por la superficie del Sol se tiene el ángulo de deflexión es:

sec875.022 arc

cRGM

s

ss ≈=α , (10)

donde la masa y el radio del Sol son: Ms=1.989x1030kg y Rs=6.96x108m, y arcsec corresponde a segundos de arco. A. Campo de deflexión La desviación que experimenta un haz varía proporcionalmente al potencial gravitacional generado por el cuerpo deflector y a su distancia de separación con respecto al mismo. Entonces, la deflexión es máxima en las cercanías del deflector, y decrece a medida que el haz se aleja de este. El campo de deflexión se calcula superponiendo el valor del ángulo de deflexión punto por punto a lo largo del plano del deflector (Figura 4). IV. FORMACIÓN DE LA IMAGEN Debido al efecto de lente gravitacional, la gran mayoría de las imágenes captadas de cuerpos celestes distantes suelen

Alejandro Hurtado, Arjuna Castrillón y Gonzalo Vargas

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 370 http://www.journal.lapen.org.mx

estar distorsionadas [4]. Existen casos registrados en los que se observan dos o más imágenes de una misma fuente, esto se debe a que la deflexión se presenta de forma tal que varios haces luminosos llegan a un mismo observador. Un caso particular se presenta cuando se forman cuatro imágenes múltiples que en conjunto componen la denominada cruz de Einstein (Figura 5). El corrimiento aparente de la imagen de la fuente es proporcional al ángulo de deflexión y es igual a:

αtanLSiimg DRR += , (11)

FIGURA 4. Campo de deflexión ocasionado por un deflector puntual de masa tres veces la del Sol. Campo escalar generado con la simulación desarrollada por los autores. En general, para que se forme una imagen múltiple se debe cumplir que:

0tan ≅− αLi DR . (12)

FIGURA 5. Formación de una Cruz de Einstein (Imagen tomada de: http\\:images.encarta.msn.com/xrefmedia/sharemed/targets/ images).

Estas dos últimas condiciones son consecuencia directa de la descripción de la trayectoria de los haces a partir de principios de la Óptica Geométrica (Aproximación de lente delgada). V. EFECTOS INTERESANTES Einstein mostró teóricamente en 1936 que sí el observador, el deflector y la fuente luminosa se encuentran exactamente alineados, no se detectará la formación de imágenes múltiples sino que se formará un anillo alrededor del deflector ocasionado por la distorsión en la imagen original de la fuente (Figura 6). Dicho fenómeno se conoce como anillo de Einstein y en aproximación clásica su radio se define como:

22DcGM

E =θ , (13)

y D se define como la distancia efectiva de lente:

LS

SL

DDDD = . (14)

FIGURA 6. Anillo de Einstein formado por un deflector puntual de masa tres veces la del Sol. Sin embargo, si el observador, el deflector y la fuente no se encuentran alineados, se forman arcos y otro tipo de figuras dependiendo de la estructura del cuerpo deflector (Figura 10d). VI. SIMULACIÓN INTERACTIVA Una simulación interactiva es una herramienta informática que mediante una interfaz gráfica aplicada al desarrollo de un modelo físico, representa y ambienta visualmente la evolución de un determinado fenómeno, haciendo más clara la relación entre las variables involucradas, y

Introducción al fenómeno de Lente Gravitacional a partir de consideraciones de la Mecánica Clásica

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 371 http://www.journal.lapen.org.mx

familiarizando al estudiante con actividades propias de la investigación científica tales como la construcción de modelos, la dependencia del fenómeno en estudio con las variables involucradas mediante el ejercicio de modificar parámetros y condiciones iniciales [5]. El empleo de esta herramienta en el aula a fomentado en el estudiante una mejor comprensión de aquellos sistemas físicos en los que se hace necesario un mayor grado de abstracción y cuya evolución resulta difícil de visualizar [6]. Para que resulten pedagógicamente efectivas, deben ofrecer los elementos suficientes para que el estudiante sea capaz de asimilar las leyes físicas presentadas, a partir de un proceso de postulación de hipótesis y verificación de las mismas, tal y como lo afirma Hake en [7]. De este continuo ejercicio, el estudiante gana un conocimiento más profundo y fortalece su pensamiento hipotético-deductivo analizando por su propia cuenta el fenómeno físico en estudio [8]. Se implementó una simulación interactiva en Java mediante el empleo de la versión 4.10 del paquete Easy Java Simulation. Se desarrolló la correspondiente solución numérica a la ecuación (6) usando el método de Runge-Kutta de cuarto orden, considerando como condiciones iniciales de posición y velocidad la ubicación espacial del deflector y la velocidad de la luz en el vacío c=3x108m/s, respectivamente. A partir de este método iterativo se logró describir la propagación de la luz emitida por la fuente al pasar por el cuerpo deflector al que se le asociaron diferentes simetrías, tales como: Puntual, Binario, Polar, Axial, Toroidal, entre otras. Esto con el fin de ilustrar desde los efectos más simples hasta los casos con perturbaciones que hacen parte del fenómeno de lente gravitacional. A partir del modelo matemático desarrollado, se logró obtener el campo de deflexión para cuerpos con diferentes simetrías y en diferentes configuraciones (Figura 8). A los valores del ángulo de deflexión se les asocio un índice de color de manera que el violeta corresponde a aquellos valores cercanos a cero y el rojo al valor máximo. Igualmente, de la simulación se logró obtener la distorsión de la imagen detectada por el observador y ocasionada por las diferentes simetrías de los cuerpos celestes deflectores (Figura 10). Cada una de las configuraciones predeterminadas en la simulación se generaron a través de la teoría de la percolación, de manera que los diferentes cuerpos celestes tales como galaxias y cúmulos de galaxias se construyen a partir de una distribución aleatoria de cuerpos discretos a los que se le asocian diferentes simetrías. Dentro de este modelo, no se tuvo en cuenta la interacción gravitacional entre las partículas que componen el cuerpo deflector y se despreciaron todo tipo de fuerzas de carácter disipativo. Se introdujeron tres diferentes pestañas dentro de la simulación, las cuales permiten visualizar la propagación de la luz en el espacio, el campo de deflexión a lo largo del plano del cuerpo deflector, y la formación de la imagen (Figura 7).

VII. IMPLEMENTACIÓN

La simulación se aplicó en los cursos de Astronomía y Tópicos de Física Actual de la Licenciatura en Física de la Universidad Distrital Francisco José de Caldas en una sesión de dos horas en la que se expuso la historia, los principios básicos de este fenómeno y aquellos aspectos conceptuales que permitieron introducir a los estudiantes a la aproximación teórica desarrollada y a las diferentes actividades realizadas, tales como talleres interactivos incluidos dentro de la herramienta, un test de diagnostico y finalmente una encuesta que permitió validar la efectividad de la herramienta (Figura 9). El total de estudiantes encuestados fue de 55, todos con conocimientos previos de Ecuaciones Diferenciales, Mecánica Clásica y Óptica Geométrica.

FIGURA 7. Aspecto de la simulación interactiva. En esta pestaña de la simulación se visualiza la propagación de los haces luminosos y la desviación que sufren por acción del cuerpo deflector. VIII. RESULTADOS La mayor parte de los estudiantes que interactuaron con la herramienta desconocían la existencia de este fenómeno, mientras que los demás habían tenido un acercamiento muy superficial al mismo en sus cursos anteriores, esta información de corroboró con las encuestas que se realizaron a lo largo de la sesión.

Alejandro Hurtado, Arjuna Castrillón y Gonzalo Vargas

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 372 http://www.journal.lapen.org.mx

FIGURA 8. Campo de deflexión generado por cuerpos con diferentes simetrías: (a) Arreglo binario. (b) Deflector Toroidal. (c) Deflector de simetría polar. (d) Deflector análogo a una galaxia espiral.

FIGURA 9. Estudiante manipulando la simulación y visualizando la formación de un anillo de Einstein. Acorde a las respuestas obtenidas de las actividades realizadas, es posible afirmar que cerca de un 95% de los estudiantes lograron comprender de manera clara y precisa los principios físicos que hacen posible el efecto de lente gravitacional al igual que sus efectos más significativos. De manera que la simulación cumplió satisfactoriamente con su finalidad, presentando una buena navegabilidad, una visualización clara del fenómeno, y un amplio contenido epistemológico y técnico del tema, claro está, dentro de las aproximaciones consideradas.

Dado que en la mayoría de los casos los diferentes cuerpos celestes tienen formas irregulares y en conjunto forman todo un sinnúmero de diferentes simetrías, la imagen producida por estos cuerpos va a ser de forma irregular también. En la Figura 11 se visualiza la distorsión ocasionada en una fuente puntual por un deflector espiral y en la Figura 12 se muestra un paralelo entre la distorsión ocasionada por un deflector de simetría irregular y un efecto detectado a escala celeste. Finalmente, en la Figura 13 se muestran las curvas de radio de Einstein vs distancia efectiva de lente para diferentes valores de masa de un deflector puntual. Dichas curvas fueron construidas de manera estadística y a partir de la recopilación de más de 10.000 datos numéricos obtenidos con la simulación.

FIGURA 10: Formación de la imagen de la fuente luminosa: (a) Formación de una cruz de Einstein. (b) Imágenes múltiples que en conjunto forman un hexágono. (c) Imagen irregular debida a un deflector polar. (d) Formación de arcos.

FIGURA 12: (a) Deflector Polar. (b) Sistema BO631+519 (Imagen tomada de: www.cfa.harvard.edu/castles)

Introducción al fenómeno de Lente Gravitacional a partir de consideraciones de la Mecánica Clásica

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 373 http://www.journal.lapen.org.mx

Figura 13: Radio de Einstein vs distancia efectiva de lente para diferentes valores de masa de un deflector puntual. VII. CONCLUSIONES Las consecuencias más interesantes del efecto de Lente Gravitacional van desde el corrimiento aparente de la imagen de un cuerpo celeste, la formación de dos o mas imágenes de un mismo objeto, hasta la formación de arcos y anillos de Einstein. En la actualidad, los astrónomos utilizan este fenómeno para realizar mediciones de la estructura a gran escala del universo, su estado milésimas de segundo después del Big Bang, y realizar predicciones tales como la existencia de Materia y Energía Oscura. Una formulación completa de este fenómeno exige la aplicación de las ecuaciones de campo de la Teoría General de la Relatividad [9], y dado que esta formulación no está al alcance de un curso de Física universitario, la aproximación aquí desarrollada, en la que el fenómeno es resuelto como un problema de N cuerpos, constituye una metodología que ofrece al estudiante la posibilidad de introducirse y comprender este tópico de la Astronomía a partir de analogías con la Óptica Geométrica y con la Mecánica Clásica. Adicionalmente, desarrollando y aplicando una simulación interactiva como complemento a esta aproximación, se logró generar una mejor disposición en la comprensión de

este tópico, y fortalecer las capacidades de aprendizaje del estudiante, brindándole la posibilidad de involucrarse activamente con las variables y condiciones que rigen este fenómeno bajo esta aproximación. AGRADECIMIENTOS Los autores desean agradecer a todos los estudiantes y docentes de Licenciatura en Física de la Universidad Distrital Francisco José de Caldas por sus aportes en la ejecución de este estudio, y al grupo de investigación FISINFOR por sus significativas sugerencias. REFERENCIAS [1] Einstein A., Die Grundlage der allgemeinen Relativitaetstheorie, Ann. Der Phys. 49, 769 (1916). [2] Portilla J., Elementos de Astronomía de Posición (Universidad Nacional de Colombia, Bogotá, 2001). [3] Meneghetti M., Introduction to Gravitational Lensing, <www.ita.uni-heidelberg.de/∼massimo/sub/Lectures/glall.pdf>, consultado el 12 de Octubre de 2009. [4] Bartelmann M., Schneider, P., Weak Gravitational Lensing, Phys. Rep. 340, 291-472 (2001). [5] Hurtado A., Lombana C., Fonseca M. y Ocaña C., Experimento y Simulación (Fondo de Publicaciones Universidad Distrital, 1ra Edición, Bogotá, 2006). [6] Esquembre F., Creación de Simulaciones Interactivas en Java (Pearson Prentice Hall, Madrid, 2005). [7] Hake, R., Interactive engagement vs. traditional methods: a six-thousand student survey of mechanics test data for introductory physics, Am. J. Phys. 66, 64-74 (1998). [8] Hurtado, A. FÍSICA E INFORMÁTICA: Una opción didáctica integradora en la enseñanza aprendizaje de la física. (Memorias Simposio Centroamericano y del Caribe de Física XXVIII CURCCAF. San José, Costa Rica, (2009). [9] Einstein A., Sobre la Teoría Especial y la Teoría General de la Relatividad (Alianza Editores, Madrid, 1961).

Lat. Am. J. Phys. Educ. Vol.4, No. 2, May 2010 374 http://www.journal.lapen.org.mx

Descomposición de la ecuación cinemática 0

2 2 2V V a r= + ∆

en variables cartesianas

S. Díaz-Solórzano y L. González-Díaz Centro de Investigación de Matemática y Física. Dpto. Matemáticas y Física. Instituto Pedagógico de Caracas, UPEL, Av. Páez, Caracas 1021, Venezuela. E-mail: [email protected]; [email protected] (Recibido el 22 de Enero de 2010; aceptado el 12 de Mayo de 2010)

Resumen Se muestra la forma de separar en variables cartesianas la ecuación cinemática escalar raVV

∆+= 220

2 , lo cual es poco discutido en los textos escolares de Física General. Adicionalmente, se presenta una posible generalización de la referida ecuación cinemática. Palabras clave: Cinemática, Enseñanza de la mecánica, Rapidez.

Abstract It is shown the way of separating in Cartesian variables the scalar kinematic equation raVV

∆+= 220

2 . This procedure is slightly considered in the introductory physics texts. Additionally, a possible generalization for the referred cinematic equation is presented. Keywords: Kinematics, Teaching of the mechanics, Speed. PACS: 01.40.J, 01.55+b, 45.20.D- ISSN 1870-9095

I. INTRODUCCIÓN La Cinemática, enmarcada en la Mecánica Clásica, es uno de los tópicos que se enseña en cursos básicos de Física General. La dinámica de trabajo en dichos cursos está fuertemente ligada a la resolución de problemas, los cuales se centran en el estudio y análisis de situaciones problemáticas que convergen al movimiento de cuerpos en presencia de campos de fuerzas constantes. Dentro de la dinámica de trabajo resulta habitual presentar las ecuaciones de posición en función del tiempo y de la velocidad instantánea en coordenadas cartesianas, en lugar de presentar dichas ecuaciones en forma vectorial. La ausencia del formalismo vectorial conduce a conclusiones erróneas o extrapolaciones incorrectas asociadas al sistema de coordenada empleado. En este sentido el artículo intenta aclarar la confusión presentada al resolver el problema titulado ¡Tengo el resultado bueno pero el profesor me puso cero!, propuesto por Figueroa [1]. El cual consiste en determinar la rapidez de un ciclista que se desplaza por una carretera horizontal y al llegar al precipicio cae al vacío por un acantilado. En virtud de la problemática antes planteada y en base a nuestra experiencia proponemos una didáctica basada en la descomposición en variables cartesiana de la ecuación

cinemática raVV

∆+= 220

2 , la cual es posible mediante la técnica de separación de variable [2].

Este artículo se encuentra organizado de la siguiente manera: En la sección II se presenta, brevemente, la disputa entre un estudiante y un docente en relación a la forma procedimental en que obtienen la rapidez del ciclista. En la sección III, se presenta el marco conceptual que despeja la confusión entre ambos planteamientos, específicamente se muestra la distinción entre descomposición en coordenadas y separación de variables; la primera es natural para la formulación vectorial de las ecuaciones de cinemática y la segunda para separar las variables horizontales y verticales de un movimiento en la ecuación escalar del cuadrado de la rapidez, que surge de eliminar el parámetro tiempo de las ecuaciones vectoriales de la Cinemática.

II. LA CONTROVERSIA

Al calcular la rapidez de una partícula con que llega al suelo, después de ser lanzada horizontalmente en presencia del campo

S. Díaz-Solórzano y L. González-Díaz

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 375 http://www.journal.lapen.org.mx

gravitacional terrestre, desde una altura H y con rapidez 0V , un estudiante apresurado usa la expresión,

),(2 02

02 yyaVV y −+= (1)

inmediatamente sustituye los siguientes datos: rapidez inicial V0, desplazamiento vertical Hyy −=− 0 y la aceleración vertical de la partícula como la aceleración de gravedad, es decir .gay −= Obteniendo como respuesta,

.220 gHVV += (2)

Figueroa [1] establece que el resultado es absolutamente correcto. Sin embargo, el procedimiento empleado es absurdo porque usó la ecuación para el movimiento vertical y 0V no guarda relación con dicho movimiento. Además agrega el autor que el procedimiento correcto es emplear las expresiones,

+=

−+=

−+=

,

,)(2

,)(2

22

02

02

02

02

yx

xxx

yyy

VVV

xxaVV

yyaVV

(3)

y sustituir las componentes de los vectores: velocidad inicial iVV ˆ

00 =

, aceleración jga ˆ−=

y desplazamiento

jHidr ˆˆ −=∆

donde la letra d representa la mayor distancia horizontal alcanzada por la partícula, medida desde el lugar de lanzamiento. Obteniendo como respuesta a la expresión (2), que según el autor, es pura casualidad que el resultado obtenido por el estudiante, en forma incorrecta, coincide con el resultado que obtuvo mediante el referido planteamiento. Con lo cual, evalúa al procedimiento seguido por el estudiante como incorrecto. III. EXPRESIÓN PARA LA RAPIDEZ EN CINEMÁTICA Las ecuaciones que rigen la Cinemática de una partícula con aceleración constante [3] vienen dadas por

+=

++=

.)(

,)(

0

221

00

taVtV

tatVrtr

(4)

El problema de obtener una expresión que elimine el parámetro tiempo de (4) ha sido considerado por Chyba [4], obteniendo la expresión

),(2|||| 02

02 rraVV

−+= (5)

donde el punto indica producto escalar, ||V

y || 0V

corresponden a la rapidez final e inicial de la partícula, respectivamente. Esta expresión, por ser netamente escalar, no admite una descomposición en coordenadas. Admite una separación de variables en coordenadas cartesianas; para ello se escribe (5) de la siguiente manera

[ ],)(2)(2 20

20

20

20 yyyxxx VyyaVVxxaV −−+−=−−+ (6)

observándose que el lado izquierdo (derecho) de esta igualdad es una función de la componente horizontal (vertical) de la velocidad y la posición. En virtud de la independencia de los movimientos [5,p.82], la igualdad que surge de (6) debe ser una constante, que designaremos por α, así

α−=−−+

α=−−+

.)(2,)(2

20

20

20

20

yyy

xxx

VyyaVVxxaV

La constante se determina al escoger la situación inicial, donde 0VVx = y 0xx = , estableciéndose que α se anula; es decir, 0α = . Otra manera de obtener la constante α es calculando 2

xV mediante la descomposición en coordenadas cartesianas de (4). Este último procedimiento es el que habitualmente aparece en los textos de Física General [5, pp. 36-37]. La existencia de un valor para α, muestra que (5) admite una separación de variables en coordenadas cartesianas, dada por (3); mostrándose así la equivalencia entre dichas expresiones.

Sin embargo, para el movimiento bidimensional con aceleración a lo largo del eje vertical, tal como ocurre en el lanzamiento horizontal en presencia del campo gravitacional terrestre, la expresión (5) toma la forma planteada por el estudiante (1), en virtud de que la componente horizontal de la aceleración es nula; es decir

0=xa . En esta circunstancia, los planteamientos que conducen a (1) y (3) son equivalentes, obteniéndose el mismo resultado.

La existencia de un valor para α y por consiguiente la separación en coordenadas de la expresión (5), es característico de los sistemas de coordenadas donde la orientación de los vectores unitarios asociados a dichas coordenadas no depende del punto del espacio donde éstos se describan. En los sistemas de coordenadas donde no ocurre lo antes descrito, como es el caso de las coordenadas polares en el plano [6], por ejemplo, no podemos realizar una separación de (5) como la mostrada en (6). Veamos: Partiendo de (5), tenemos que

( ) ( ),ˆˆˆˆ2 0

2

0

2

0

22 rRrraraVVVV rrr −θ+++=+ θθθ

( )( ) ,ˆˆ2cos12 22

002

0

2 raVVRaVV rrr θ−−=θ−θ−−− θθθ (7) donde R y 0r corresponden a la magnitud y vector unitario

del vector 0r , respectivamente, 0θ es el ángulo que forma

Descomposición de la ecuación cinemática 2 20 2V V a r= + ∆

en variables cartesianas

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 376 http://www.journal.lapen.org.mx

0r con el eje horizontal, medido en el sentido antihorario. Nótese que ambos lados de la segunda ecuación de (7) dependen de las coordenadas r y θ simultáneamente, lo cual imposibilita la separación en coordenadas de la misma, tal como ocurre en el caso de las coordenadas cartesianas. IV. GENERALIZACIÓN PARA LA RAPIDEZ EN CINEMÁTICA La relación (5) puede ser generalizada al considerar el producto escalar de la velocidad con la aceleración instantánea,

,||)()(2)()()()( 2VdtdtatVtV

dtdtVtatV

=⇒=

integrando respecto al tiempo y tomando en cuenta que para el tiempo 0t la velocidad es 0V

, resultando

.)()(20

20

2 ∫ τττ+=t

t

dVaVV

(8)

Observándose que esta relación coincide con (5) para movimientos con aceleración constante, así la expresión (8) corresponde a una generalización de (5).

La separación de variable es posible cuando el sistema de coordenada es ortogonal y el producto escalar que aparece en el integrando de (8) puede ser descompuesto como una suma de términos, los cuales no dependan simultáneamente de las coordenadas. Situación que es evidenciada, en particular, al utilizar coordenadas polares

,)()( θθ+=ττ VaVaVa rr

observándose que cada términos del lado derecho de la igualdad presentada arriba dependen simultáneamente de las coordenadas,

θ=θθ+θ=

θ=θ−=

θθ .),(2

,),(22

2

rgrrrVa

rfrrrrVa rr

Para que sea posible la separación de variables las funciones ),( θrf deben depender únicamente de la variable radial r y la función ),( θrg depender de la variable angular θ . V. DISCUSIÓN

Tanto el procedimiento empleado por el estudiante como el presentado por el profesor son correctos, en todo caso el argumento dado por el profesor es atribuido a que éste está considerando la expresión (1) como una separación en coordenadas cartesianas en la forma (3), en lugar de pensarla como la expresión escalar (5). Tal proceder es atribuido a la ausencia del formalismo vectorial en la discusión. En tal sentido, el resultado obtenido a partir del planteamiento que conduce a (1) debe ser igual al obtenido mediante el planteamiento que conduce a (3). Dicha coincidencia no es casualidad, como se afirma en [1].

La expresión (5) no es ampliamente discutida en los textos escolares de Física General, siendo implementada como una ecuación más de la Cinemática donde se ha eliminado el parámetro tiempo [5, p. 37].

Desde el punto de vista didáctico, la técnica de separación de variables [2], la cual puede ser discutida en cursos básicos de Física General, le permite al estudiante ver que la ecuación cinemática (5) admite una descomposición en variables como en (3), sólo en el sistema de coordenadas cartesiano, y que (3) no es una descomposición en coordenadas cartesianas como suele hacerse con cualquier ecuación cinemática vectorial para dicho sistema coordenado. La ausencia del formalismo vectorial en el tratamiento de las ecuaciones cinemática conduce, generalmente, a extrapolaciones incorrectas e interpretaciones erróneas.

En nuestra experiencia en el aula de clase, presentamos las ecuaciones cinemáticas de manera vectorial, aclarando cuáles de ellas son escalares, de manera tal de proceder según lo arriba descrito. Tal proceder les ha permitido a nuestros estudiantes tener un manejo familiar de las ecuaciones cinemáticas y una comprensión sobre la técnica de separación de variable empleada en cursos posteriores. VI. CONCLUSIONES La técnica de separación de variables presentada en este trabajo muestra, con claridad y sencillez, la relación entre la expresión (5) y la expresión (3), poco discutida en los textos de Física General. Mostramos, tomando las coordenadas polares en el plano como ejemplo, que la separación de variables no es siempre posible. Las coordenadas polares en el plano se encuentran dentro de los sistemas de coordenadas donde la orientación de los vectores unitarios asociados a dichas coordenadas depende del punto del espacio (en nuestro caso, los puntos del plano) donde éstos se describan. En tales sistemas de coordenadas, la separación de variables no es siempre posible. En otras palabras, la separación de variables es sólo posible si los movimientos en cada uno de los ejes coordenados son independientes. AGRADECIMIENTOS

S. Díaz-Solórzano y L. González-Díaz

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 377 http://www.journal.lapen.org.mx

Este trabajo fue realizado con apoyo del proyecto de investigación 08-011 inscrito ante la Subdirección de Investigación y Postgrado del Instituto Pedagógico de Caracas de la Universidad Pedagógica Experimental Libertador. Agradecemos al Prof. Ángel Delgado por sus observaciones y valiosas recomendaciones. REFERENCIAS [1] Figueroa, D., Cinemática, 2da. ed. (Gráfica León, Volumen 1, Caracas, 2000), pp.117-118.

[2] Dennery, P. y Krzywicki, A., Mathematics for physicsts, 2da. ed. (Dover Publications, New York, 1995), pp. 364-365. [3] Alonso, M, y Finn, E., Mecánica, (Fondo Educativo Interamericano, Volumen 1, 1976), pp.100-101. [4] Chyba, T., Teaching first-year kinematics via the scalar product, Am. J. Phys, 51, 851 (1983). [5] R. Serway y J. Jewett, Física para ciencias e ingeniería, 6ta ed. (International Thomson, México, Volumen 1, 2005). [6] Santaló, L., Vectores y tensores con sus aplicaciones, 10ma. ed. (Editorial Universitaria de Buenos Aires, Argentina, 1976), p.117.

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 378 http://www.journal.lapen.org.mx

Velocidad terminal de una esfera descendente y la viscosidad de fluidos: diferencia entre fluidos newtonianos y no newtonianos

Leonor Pérez Trejo, Arturo F. Méndez Sánchez, Julia Mariana Iturbe Ponce Departamento de Física, Escuela Superior de Física y Matemáticas, Instituto Politécnico Nacional, Edif. 9 U. P. “Adolfo López Mateos” C. P. 073380, México D. F. E-mail: [email protected], [email protected] (Recibido el 25 de Febrero de 2010; aceptado el 7 de Mayo de 2010)

Resumen En este trabajo se presenta un método alternativo para determinar la velocidad límite, o terminal, de una esfera que desciende dentro de un fluido. Este método consiste en capturar en video el movimiento de la esfera dentro del fluido. El video digital se procesa con el software DivYX que permite obtener el tiempo y posición de la esfera en el medio. A partir del análisis de estas cantidades, es posible determinar la trayectoria de la esfera en el medio y el momento en que ésta alcanza la velocidad límite. Conociendo el valor de la velocidad terminal y haciendo un balance de las fuerzas que actúan sobre la esfera, se puede determinar la viscosidad del fluido. Asimismo, con este método se presenta una alternativa didáctica que ayude a los estudiantes a diferenciar entre fluidos newtonianos y los no newtonianos. Palabras clave: Esfera descendente, velocidad terminal, viscosidad, fluidos newtonianos y no newtonianos.

Abstract An alternative method to calculate the terminal velocity of a descending sphere on a viscous media is presented in this work. From a digital video filmed of the sphere’s movement inside the fluid, which is processed with DivYX software for obtaining the position and time, it is possible to get the pathline of the sphere inside the media as well as the exact moment in which the terminal velocity is reached. Fluid’s viscosity can be determined with the value of the terminal velocity and making a force balance on the sphere. A didactic alternative is presented with this method in order to help students understand the difference betwen Newtonian and Non-Newtonian fluids. Keywords: Descending sphere, terminal velocity, viscosity, Newtonian and Non-newtonian fluids. PACS: 01.50.My, 01.50.Pa, 47.50.+d ISSN 1870-9095

I. INTRODUCCIÓN Dentro de los cursos de fluidos en los primeros semestres de ingeniería y ciencias, se introducen conceptos abstractos que son complejos de visualizar para el estudiante. Uno de esos conceptos es el de velocidad límite (o velocidad terminal) de un objeto que desciende dentro de un fluido. Esta velocidad tiene la característica de adquirir un valor constante en algún punto de la trayectoria del objeto. Usualmente, en los cursos de laboratorio se calcula la velocidad de una esfera dentro de un fluido midiendo el tiempo que tarda en pasar por dos marcas fijas colocadas arbitrariamente en el recipiente contenedor. Sin embargo, la pregunta es ¿En dónde se colocan esas marcas para tener la certeza de que la velocidad calculada es la velocidad límite?

En este trabajo se presenta un método para calcular la velocidad terminal de una esfera que desciende dentro de un fluido haciendo uso del software DivYX, el cual ha

mostrado ser una herramienta didáctica muy importante de apoyo en los cursos de laboratorio [1].

Una aplicación del concepto de velocidad límite, es el cálculo del coeficiente de viscosidad de un fluido. Por lo que también se presenta una propuesta didáctica de práctica de laboratorio para diferenciar entre fluidos newtonianos y no newtonianos, lo cual en un laboratorio de enseñanza no siempre es posible debido a que el estudio de éstos últimos requiere de equipo costoso que en muchos casos es inaccesible en este tipo de laboratorios [2]. II. TEORIA Si se considera un objeto que cae verticalmente en ausencia del aire, debido a la aceleración de la gravedad su velocidad se incrementaría con el tiempo. Sin embargo, las fuerzas de fricción o de resistencia del aire impiden que la velocidad aumente sin límite de tal manera que en algún

Leonor Pérez Trejo, Arturo F. Méndez Sánchez, Julia Mariana Iturbe Ponce

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 379 http://www.journal.lapen.org.mx

momento el objeto alcanza una velocidad constante denominada velocidad terminal o límite [3].

Ahora, si el objeto es una esfera que desciende verticalmente en un fluido en reposo, su velocidad terminal se puede calcular haciendo un balance de las fuerzas que actúan sobre ella [4]. En la figura 1 se presenta un esquema en el cual se representan las fuerzas que actúan sobre la esfera, éstas son el peso de la esfera ( gmw = ), el empuje ( B

) y la fuerza de resistencia ( f

) que ejerce el fluido sobre la esfera. Como el sentido positivo del sistema de referencia es hacía abajo y el movimiento es unidimensional, entonces al hacer el balance de fuerzas se tiene que:

,mg B f= + (1)

la ecuación anterior se puede rescribir en términos de la densidad y volumen de la esfera,

3 34 4 ,3 3 fr g r g fπ ρ π ρ= + (2)

donde ρ y r son la densidad y el radio de la esfera, respectivamente; ρf es la densidad del fluido y de la ley de Stokes se tiene que la fuerza de resistencia es f=6πηrv, en donde η es la viscosidad del fluido y v es la velocidad terminal de la esfera [4].

FIGURA 1. Balance de fuerzas que actúan sobre una esfera sumergida en un fluido, mg es el peso, B es la fuerza de empuje y f es la fuerza de resistencia del fluido. Finalmente, la ecuación 2 queda como:

3 34 4 6 .3 3

r g r g rvfπ ρ π ρ πη= + (3)

En el análisis anterior se considera de antemano que la velocidad de la esfera es constante, es decir, que la esfera alcanza su velocidad terminal. Una vez conociendo esta velocidad, entonces de la ecuación 3 se puede obtener la siguiente expresión para la viscosidad

22 ( ).

9fr g

vρ ρ

η−

= (4)

Por otro lado, el concepto de viscosidad, η , se introduce en los cursos a través de la ley de Newton la cual se representa de la siguiente manera:

,τ ηγ= (5)

donde τ está relacionado con la fuerza utilizada para hacer fluir al fluido y es llamado esfuerzo de corte, γ

es la rapidez de deformación la cual está relacionada con el gradiente de velocidad local en el fluido. En el caso de una esfera descendiendo en un fluido, la rapidez de deformación es función de la velocidad de la esfera en el fluido [7].

Al representar gráficamente τ contra γ

, de acuerdo con la ecuación 5 se obtiene un línea recta cuya pendiente es la viscosidad, es decir, la viscosidad es constante e independiente de la rapidez de deformación, y por lo tanto independiente de la velocidad de la esfera. A los fluidos que siguen este comportamiento se les denomina newtonianos.

No obstante, existen fluidos de importancia industrial que no se comportan de acuerdo a la ley de Newton y son denominados no newtonianos. Para éstos se han propuesto ecuaciones empíricas o modelos, algunos de los cuales se pueden consultar en la referencia [8]. La viscosidad de los fluidos no newtonianos depende de la rapidez de deformación e implícitamente de la velocidad de la esfera, en el caso particular que aquí tratamos. Para estos fluidos se puede utilizar la ecuación 3 para calcular su viscosidad, pero en tal caso se hablará de una viscosidad aparente ya que ésta tendrá un valor diferente para cada velocidad límite de la esfera. III. DESARROLLO EXPERIMENTAL Para los experimentos se usaron probetas de 2 litros de capacidad las cuales tienen un diámetro interno de 7.93 cm y una altura de 50 cm. Se fabricaron varias esferas con pasta tipo arcilla para modelar, de tal manera que todas ellas tuvieron un diámetro de 2.19±0.5 cm y así mantener una relación constante entre su diámetro y el del recipiente. Con el propósito de obtener diferentes velocidades de las esferas dentro del fluido, se varió la masa de éstas colocando en su centro pedazos de metal de diferente tamaño de tal manera que se cubrió el intervalo de 10.64 a 30.69 g.

Se utilizaron glicerina (fluido newtoniano) y shampoo (fluido no newtoniano) como medios viscosos con una densidad de 1.17 g/cm3 y 1.13 g/cm3, respectivamente. Los experimentos se realizaron a una temperatura de 20°C, y consistieron en dejar caer cada una de las esferas en los medios viscosos. Se tomó un video digital del movimiento de la esfera en el fluido, y se procesó con el software DivYX para determinar el tiempo y la posición de la esfera cuando está descendiendo, una descripción completa de cómo funciona esta herramienta se puede encontrar en la referencia [1]. Es importante resaltar que el uso de este

y

x

Velocidad terminal de una esfera descendente y la viscosidad de fluidos: diferencia entre fluidos newtonianos y no newtonianos

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 380 http://www.journal.lapen.org.mx

software es una alternativa para la determinación de las variables tiempo-posición en estos sistemas en los que los métodos y equipos utilizados, por ejemplo velocimetría por imágenes de partículas o arreglos con cámaras ccd, son más complejos y demasiado costosos [5, 6]. IV. ANALISIS Y RESULTADOS A. Velocidad terminal Las figuras 2 y 3 muestran gráficas de tiempo-posición para algunas de las esferas utilizadas en la glicerina y el shampoo, respectivamente. En el caso de la glicerina se puede apreciar que al inicio de la curva la relación entre las variables no es lineal y conforme la esfera avanza la relación entre el tiempo y la posición se va haciendo lineal, lo que indica que la esfera alcanza su velocidad terminal, es decir, velocidad constante. Se puede observar que a mayor masa, menor es la distancia desde la superficie del fluido para que la esfera alcance su velocidad terminal.

0.0 0.5 1.0 1.5 2.0 2.50

5

10

15

20

25

30GLICERINA

POSI

CIO

N (c

m)

TIEMPO (s)

MASA (gr) 26.53 12.23 10.82

FIGURA 2. Posición en función del tiempo para esferas de diámetro de 2.19cm y diferente masa, descendiendo en glicerina.

0.0 0.5 1.0 1.5 2.0 2.50

5

10

15

20

25

30SHAMPOO

POSI

CIO

N (c

m)

TIEMPO (s)

MASA (gr) 21.62 17.285 12.73

FIGURA 3. Posición en función del tiempo para esferas de diámetro 2.19cm y diferente masa, descendiendo en shampoo. En el caso del shampoo se puede apreciar que la trayectoria de la esfera oscila al inicio. Este efecto se debe

a la energía elástica almacenada en el fluido, la cual provoca un efecto de rebote amortiguado, similar al que ocurre con una pelota de hule al impactarse con una superficie sólida. Una vez pasado el efecto elástico, la relación entre tiempo y posición es lineal. Lo cual indica que se ha alcanzado una velocidad constante. La figura 3 permite mostrar un efecto que es poco discutido en clase con los estudiantes, y es el comportamiento viscoelástico del shampoo, es decir, además de ser viscoso también es elástico [9].

Es posible que en las gráficas de tiempo-posición se dificulte la elección de puntos experimentales que cumplen con la relación lineal, por lo que es recomendable cambiar la escala lineal por logarítmica y así el estudiante podrá identificarlos mejor pues en esta escala son más notorios los cambios de pendiente. En las figuras 4 y 5 se presentan los valores de tiempo y posición en escala logarítmica que corresponden a los mostrados en las figuras 2 y 3, respectivamente. Las líneas mostradas en las figuras 4 y 5 incluyen los datos para los que la relación es estrictamente lineal y por medio de un ajuste por mínimos cuadrados se calculó la velocidad terminal cuya magnitud se incluye en estas gráficas.

0.1 12

3

4

56789

10

20

30

MASA VELOCIDAD (gr) (cm/s)

26.53 31.18 12.23 10.85 10.82 7.63

GLICERINA

PO

SICI

ON (c

m)

TIEMPO (s) FIGURA 4. Gráfica de tiempo-posición en escala logarítmica de los datos mostrados en la figura 2.

0.1 13

4

5

6789

10

20

30

MASA VELOCIDAD (gr) (cm/s)

21.62 8.45 17.28 3.41 12.73 0.86

SHAMPOO

POSI

CION

(cm

)

TIEMPO (s) FIGURA 5. Gráfica de tiempo-posición en escala logarítmica de los datos mostrados en la figura 3.

Leonor Pérez Trejo, Arturo F. Méndez Sánchez, Julia Mariana Iturbe Ponce

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 381 http://www.journal.lapen.org.mx

En la glicerina, es de hacer notar que el desplazamiento de las esferas para el cual se ha alcanzado la velocidad terminal es del orden de 10 cm, desde el nivel del fluido en el recipiente, para los tres ejemplos que se tienen en la figura 4. Mientras que para el shampoo está distancia es diferente para cada esfera. Por lo que la práctica de medir el tiempo de descenso entre dos marcas fijas para determinar la velocidad límite es inadecuada. B. Viscosidad Con los valores de la velocidad terminal de las esferas y la ecuación (4), se calculó la viscosidad para cada fluido. Los valores se muestran graficados como función de la masa de las esferas en la figura 6.

Se puede observar que para la glicerina se obtiene un valor de η independiente de la masa de las esferas, mientras que para el shampoo se obtiene un valor de viscosidad diferente con cada esfera. Con esta gráfica ya es posible identificar la diferencia entre un fluido newtoniano y uno no newtoniano.

10 15 20 25 300

50

100

150

200

250

300

350

400

450

500

VISC

OSI

DAD

(PO

ISES

)

MASA (gr)

SHAMPOO GLICERINA

FIGURA 6. Viscosidad como función de la masa de esferas. En la figura 7 se muestran los valores de viscosidad como función de la velocidad de las esferas. Para la glicerina se observa un valor constante de la viscosidad, es decir, no depende de la velocidad y por consiguiente de la rapidez de deformación, por lo tanto podemos decir que la glicerina es un fluido newtoniano.

Por otro lado, se tiene que para el shampoo su viscosidad disminuye cuando la velocidad de las esferas aumenta, por lo que al haber esta dependencia, se puede decir que es un fluido no newtoniano. A los fluidos que tienen este comportamiento se les conoce como pseudoplásticos o adelgazantes [2, 7, 8].

0 5 10 15 20 25 30 350

50

100

150

200

250

300

350

400

450

500

VISC

OSI

DAD

(Poi

ses)

VELOCIDAD (cm/s)

SHAMPOO GLICERINA

FIGURA 7. Viscosidad en función de la velocidad terminal de las esferas. IV. CONCLUSIONES

Se presentó un método sencillo para que los estudiantes mediante un análisis de graficas de tiempo y posición puedan determinar cuando se ha alcanzado la velocidad terminal de una esfera descendiendo en un fluido. Se mostró que este experimento sirve como alternativa didáctica de bajo costo para que los alumnos de ingeniería y ciencias puedan diferenciar entre fluidos newtonianos y no newtonianos. Además, en el caso del shampoo se permitió mostrar un ejemplo de un fluido que además de tener viscosidad posee elasticidad, es decir, es viscoelástico. AGRADECIMIENTOS Los autores Méndez Sánchez y Pérez Trejo son becarios COFAA y EDD del IPN. Iturbe Ponce es becaria PIFI-IPN. REFERENCIAS [1] Pérez Trejo, L., Méndez Sánchez, A., Hernández Flores, H., Implementación del software DivYX en el laboratorio de mecánica, Lat. Am. J. Phys. Educ. 2, 268-274 (2008). [2] Delegido, J., Dolz, M., Hernández, M. J., Casanovas, A., La balanza electrónica: la opción más rentable para realizar distintas prácticas de laboratorio de física de fluidos, Lat. Am. J. Phys. Educ. 2, 40-46 (2008). [3] Resnick, R, Halliday, D., Krane, K. S., Física Vol. I 5a edición, (CECSA, México, 2004). [4] Sears, F. y Zemansky, M., Física General (Aguilar, Madrid, 1981). [5] Lommatzsch, T., Megharfi, M., Mahe, E. and Devin, E., Conceptual study of an absolute falling-ball viscometer, Metrología 38, 531-534 (2001).

Velocidad terminal de una esfera descendente y la viscosidad de fluidos: diferencia entre fluidos newtonianos y no newtonianos

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 382 http://www.journal.lapen.org.mx

[6] Brizard, M., Megharfi, M. and Verdier, C., Absolute falling-ball viscometer: evaluation of measurement uncertainty, Metrología 42, 298-303 (2005). [7] Dolz, M., Delegido, J., Casanovas, A. and Hernández, M. J., A low cost experiment on Newtonian and No Newtonian fluids, J. Chem. Educ. 82, 445-447 (2005).

[8] Bird, R. B., Stewart, W. E and Lightfoot, E. N., Fenómenos de Transporte, (Reverté, España, 2001). [9] Morrison, F. A., Understanding rheology, (Oxford University Press, London, 2001).

Lat. Am. J. Phys. Educ. Vol. 4, No.2, May 2010 383 http://www.lajpe.org

Rodadura de una esfera sobre un plano inclinado. Mejoras al experimento desarrollado en el “plano de Packard”

Néstor A. Olivieri, Pablo A. Nuñez y Eduardo E. Rodríguez Instituto de Industria, Universidad Nacional de General Sarmiento, J. M. Gutiérrez 1150, CP B1613GSV, Los Polvorines, Buenos Aires, Argentina. E-mail: [email protected] (Recibido el 11 de Marzo de 2010, aceptado el 12 de Abril de 2010)

Resumen Presentamos una reformulación de un experimento para estudiar la rodadura de una esfera sobre un plano inclinado, usualmente desarrollado sobre el denominado “plano de Packard”. El empleo de una cámara digital para filmar el movimiento permite ampliar las posibilidades de análisis de las variables del movimiento. De las imágenes se obtiene en tiempo real y con una muy buena precisión, la posición, velocidad, aceleración y energía del cuerpo. De esta manera se hace accesible el estudio de la hipótesis de la conservación de la energía mecánica en un movimiento de rodadura sin deslizamiento. Palabras clave: Dinámica de cuerpos rígidos, plano de Packard, conservación de la energía mecánica.

Abstract We report on a reformulation of an experiment that studies the rolling of a sphere on an incline, usually made on the so-called Packard’s apparatus. By using a digital camera to capture the motion, we can increase the analysis of the motion’s variables. From the images obtained in real time the position, velocity, acceleration and energy of the rolling body are obtained with a very good precision. The experiment allows the study of the hypothesis of mechanical energy conservation in a motion of rolling without slipping. Keywords: Dynamics of rigid bodies, Packard's apparatus, conservation of mechanical energy. PACS: 01.40.gb, 01.50.My, 01.50.Pa ISSN 1870-9095

I. INTRODUCCIÓN En este trabajo presentamos una reformulación de la experiencia clásica de observar la rodadura de una esfera sobre un plano inclinado moviéndose en las dos dimensiones del plano. Este experimento se realiza con el denominado “aparato o plano de Packard” [1, 2], que esencialmente es una placa de madera donde la esfera puede caer describiendo una trayectoria parabólica.

Mostramos cómo el uso de una cámara digital como herramienta para la adquisición de datos [3, 4, 5, 6] amplía las posibilidades de análisis del experimento. Esto se debe esencialmente a que una filmación permite analizar el movimiento del cuerpo en tiempo real en vez de hacerlo, como ha sido usual en experimentos de este tipo [1, 2], en unidades temporales arbitrarias, que requiere asumir que el movimiento es uniforme en una dirección. Con el modo de trabajo que proponemos, además de obtener la forma de la trayectoria, se obtiene la velocidad del cuerpo y su energía. A partir del análisis cuantificable de las variables puede estudiarse, por ejemplo: la aceleración del cuerpo y su

relación con el momento de inercia; y la hipótesis de conservación de la energía mecánica de un cuerpo que rueda sin deslizar.

En la presentación del caso de rodadura sin deslizamiento de cuerpos rígidos que se hace en los cursos de mecánica se destaca especialmente la ausencia de trabajo de la fuerza de roce. La presencia de la fuerza de roce, necesaria para la rodadura sobre un plano inclinado, aporta complejidad a la comprensión que del tema tienen que hacer los alumnos. La estrategia estándar de mostrar que en el caso de rodadura sin deslizamiento el punto de contacto entre el cuerpo y la superficie donde rueda tiene velocidad nula respecto de la superficie, y que por allí pasa “un eje instantáneo de rotación”, es una tarea ardua y compleja, y que requiere de los alumnos un grado de abstracción significativo para un entendimiento adecuado de la física del problema.

En tal contexto, reviste importancia reconocer que la fuerza de roce en esas condiciones es estática y, por lo tanto, no produce disipación. De esta manera, puede considerarse el caso de una rodadura sin deslizamiento de

Néstor A. Olivieri, Pablo A. Nuñez y Eduardo E. Rodríguez

Lat. Am. J. Phys. Educ. Vol. 4, No.2, May 2010 384 http://www. lajpe.org

un cuerpo rígido por un plano inclinado como un ejemplo donde la energía mecánica se conserva y, a partir de esto, obtenerse la ecuación de movimiento por medio de un análisis de la energía [7, 8]. Sin embargo, no es común ofrecer una prueba experimental de los supuestos utilizados a fin de que los alumnos visualicen de manera satisfactoria la situación que se les plantea.

Se entiende entonces que el estudio de la hipótesis de la conservación de la energía mecánica en un movimiento de rodadura sin deslizamiento puede considerarse como un núcleo, desde el cual se asocie una serie de conceptos importantes que se introducen en el estudio de la dinámica de los cuerpos rígidos. Además, los experimentos pueden orientarse para que dejen en claro la necesidad de considerar en conjunto a las energías potencial, cinética de traslación y cinética de rotación para verificar la hipótesis de conservación de la energía mecánica, lo que permite reforzar estos conceptos generales en los alumnos.

A continuación, se presentan las consideraciones generales del movimiento de roto-traslación de una esfera que cae en un plano inclinado y el diseño experimental que puede realizarse en el laboratorio de física para estudiar la hipótesis de conservación de la energía mecánica en este caso. II. RODADURA SIN DESLIZAMIENTO DE UNA ESFERA SOBRE UN PLANO INCLINADO La Figura 1 muestra un sistema de referencia adecuado para estudiar el movimiento. Si la esfera inicia su movimiento de rodadura desde la posición más alta (origen de coordenadas) con una velocidad de traslación inicial (vx,0, 0), se acelerará en la dirección y, a lo largo de la cual existe una fuerza neta, y mantendrá su velocidad en la dirección x, dado la ausencia de fuerza neta en esa dirección.

FIGURA 1. Sistema x-y de referencia sobre el plano. Las coordenadas (x, y) de la esfera sobre el plano inclinado están dadas por:

tvtx x 0,)( = (1) y

2

21)( taty y= . (2)

La aceleración ay es:

mfgma y

−=

)(sen θ , (3)

donde θ es el ángulo de inclinación del plano y f es la fuerza de roce. El momento de rotación de la fuerza de roce acelera angularmente a la esfera, y esta aceleración α es:

IRf

=α . (4)

Aquí, R es el radio de la esfera e I su momento de inercia respecto del eje que pasa por el centro de masas, I = (2/5)mR2. En la rodadura sin deslizamiento se cumple la relación entre α y la aceleración del centro de masas: [7, 8]

Ra y /=α , (5) y usando esta ecuación de vínculo junto a (4) en (3) se obtiene:[9]

)(sen 75 θgay = . (6)

La trayectoria de la esfera es:

22

0,21)( x

va

xyx

y= , (7)

y se ve que de la obtención de la trayectoria experimental y de la correspondencia del valor medido de la aceleración con (6) puede estudiarse si la esfera rueda sin deslizamiento. La velocidad vx,0 puede obtenerse independientemente. III. RODADURA SIN DESLIZAMIENTO Y CONSERVACIÓN DE LA ENERGÍA MECÁNI-CA La energía cinética de un cuerpo rígido de masa m que rota con velocidad ω y se traslada con velocidad v está determinada por: [7, 8]

22 21

21 ωIvmK += . (8)

Para el caso particular de una esfera de radio R que rueda sin deslizar se cumple para las velocidades:

ω Rv = , (9) y la energía cinética puede expresarse sólo en función de la velocidad de traslación v:

y

x

θ

Rodadura de una esfera sobre un plano inclinado. Mejoras al experimento desarrollado en el “plano de Packard”

Lat. Am. J. Phys. Educ. Vol. 4, No.2, May 2010 385 http://www.journal lapen.org.mx

2

107 mvK = . (10)

Si la esfera se deja rodar sin deslizar sobre un plano inclinado su energía mecánica instantánea es:

zgmmvUKE 107 2 +=+= , (11)

donde z es su posición vertical instantánea, que decrece con el tiempo. Por el carácter no disipativo de la fuerza de roce actuante, E se conserva, lo que puede ponerse a prueba en el experimento. IV. DISEÑO EXPERIMENTAL Los experimentos pueden hacerse ya sea usando un plano de Packard comercial [10], una placa de madera o una mesa de mayor superficie. En nuestro caso usamos una mesa con tablero de madera, inclinada levemente (θ < 3º) mediante unos tacos de madera, según muestra la imagen de la Figura 2. Es conveniente marcar con tiza en la mesa una cuadrícula de referencia de 50 cm x 50 cm, con líneas cada 5 cm en las dos direcciones. Una regla de plástico en lo alto de la cuadrícula sirve como “lanzadera”, a partir de la cual se libera la esfera para que inicie su movimiento rodando en la dirección x. Un soporte fija la cámara digital, ubicada de manera que el campo de enfoque abarque toda la cuadrícula. FIGURA 2. La imagen corresponde al diseño del plano inclinado. Se observa una mesa en declive sobre la cual se monta la cámara digital usando un soporte. En nuestro experimentos usamos una bola de acero de 0.0066 kg y 0.01275 m de radio. Con esferas de plástico

duro se obtienen resultados similares. Para estudiar su movimiento se procede a filmar a la bola que cae rodando, impulsada inicialmente con la mano a lo largo de la lanzadera [11]. La trayectoria se reconstruye a partir de la técnica del análisis “cuadro por cuadro” del video. Del video se extraen los fotogramas o cuadros por medio de programas de acceso libre como SpanishDub [12], el que usamos en este trabajo (ver Figura 3). Esto permite obtener de cada fotograma las coordenadas (x’, y’) de la esfera sobre la imagen digital, medidas en número de píxeles contados desde los ejes de referencia. Esto puede hacerse, por ejemplo, con programas de acceso libre [13] o con el utilitario Paint de MS-Office. Luego es necesario establecer la conversión de la medición en píxeles a unidades de medición de longitud, por ejemplo, centímetros, para obtener las coordenadas reales (x, y) sobre el plano. Para esto sirve la cuadrícula de referencia. Por otra parte, la cantidad de cuadros por segundo que filma la cámara permite determinar el tiempo del experimento. En nuestro caso la cámara empleada es una HP-M525 que toma 17 cuadros por segundo, según sus especificaciones técnicas, y esta frecuencia de captura de imágenes es adecuada para el experimento. A esta frecuencia de grabado, las coordenadas del cuerpo se obtienen cada 0.0588 s.

FIGURA 3. Serie de fotogramas obtenidos del video por medio del uso del programa SpanishDub. La mesa está inclinada un ángulo θ = 2.3o en la dirección y del sistema de referencia indicado. V. RESULTADOS A partir de la reconstrucción de las posiciones de la esfera en función del tiempo se obtienen las curvas de x(t) e y(t) (Figura 4). El tipo de movimiento puede determinarse por medio de estas curvas. De la linealidad de x(t) se concluye que en la dirección x el movimiento es con velocidad constante. Mientras tanto, en la dirección y el movimiento es uniformemente acelerado con aceleración de 0.29 m/s2. Este valor se compara muy bien con el valor esperado según (6) de 0.281 m/s2 para una inclinación de 2.3o como la usada. Para el cálculo usamos g = 9.8 m/s2.

Como advertencia notamos que si en un dado experimento se llega a observar que el gráfico x(t) no es lineal, esto sería indicativo de una incorrecta inclinación del plano, que en vez de estar inclinado sólo en la dirección y lo estaría también en x, y por lo tanto la esfera también se acelera en esta última dirección.

La trayectoria se muestra en la Figura 5, donde se ha representado y como función del cuadrado de x para obtener un gráfico lineal.

y

x

y

x

y

x

Bola

Cuadrícula

Cámara digital

Tacos de madera

Néstor A. Olivieri, Pablo A. Nuñez y Eduardo E. Rodríguez

Lat. Am. J. Phys. Educ. Vol. 4, No.2, May 2010 386 http://www. lajpe.org

x = 0,1628 t

R2 = 0,9992

0,00

0,05

0,10

0,15

0,20

0,25

0,0 0,5 1,0 1,5t(s)

x(m

)

y = 0,1502 t2

R2 = 0,9998

0,00

0,10

0,20

0,30

0,40

0,0 0,5 1,0 1,5t(s)

y(m

)

FIGURA 4. Arriba: Posición x(t). Abajo: Posición y(t). Se deduce que en la dirección x el movimiento es con velocidad constante, y en la dirección y es uniformemente acelerado. Dado que es posible calcular las velocidades vx y vy de la esfera partir de las gráficas de x(t) e y(t), también puede determinarse experimentalmente el valor de las energías cinéticas en función del tiempo. Teniendo en cuenta esto puede reescribirse la ecuación (11) como:

[ ]22 )()( 107 tvtvmK yx += . (12)

La velocidad vx se obtiene de la pendiente de la mejor recta de ajuste del gráfico de x(t), y vy se obtiene derivando la ecuación de ajuste de y(t) con un polinomio de grado 2. También, al conocer las posiciones y el ángulo de inclinación del plano se puede determinar la energía potencial gravitatoria en función del tiempo como:

)]sen( )( [ θtyhgmU −= , (13) donde h es la altura a la que se encuentra el origen de coordenadas sobre el plano, respecto de la parte más baja del plano. Para el experimento que se analiza, h = 0.14 m.

En la Figura 6 se muestran las energías cinéticas de traslación y rotación, y la energía potencial gravitatoria. También están representadas la energía mecánica (suma de

todas) y la suma de la energía cinética de traslación y potencial gravitatoria.

y = 6,0729 x2

R2 = 0,9991

0,00

0,05

0,10

0,15

0,20

0,25

0,30

0,35

0,40

0,00 0,01 0,02 0,03 0,04 0,05 0,06

x2 (m2)

y (m

)

FIGURA 5. Trayectoria de la esfera sobre el plano, representada como y(x2). Se muestra el ajuste de una recta, de acuerdo con la expresión (7). Merece la pena observar que la suma de la energía cinética de traslación con la energía potencial gravitatoria resulta en una energía que va disminuyendo en el tiempo. Este hecho, fácilmente reconocible del gráfico de energía, da la oportunidad de enfatizar el aporte de la energía de rotación del cuerpo para definir su energía mecánica [14]. Finalmente, el valor constante de la suma de todas las energías (valor medio: <EM> = 0.01014 J, desviación estándar de la muestra: σΕ = 7 x 10–5 J) muestra la conservación de la energía mecánica para el cuerpo en rodadura. FIGURA 6. Gráfico comparativo de los tipos de energías intervinientes en la caída de la esfera por el plano inclinado. Se muestra además la suma de la energía cinética de traslación (ECT) y de la energía potencial (U), y la suma de todas las energías (EM). El valor constante de esta última expresa la conservación de la energía mecánica del cuerpo. ECR es la energía de rotación. VI. CONCLUSIONES

0,000

0,003

0,006

0,009

0,012

0,0 0,5 1,0 1,5t(s)

E(J)

E M

U + E CT

E CR

U

E CT

Rodadura de una esfera sobre un plano inclinado. Mejoras al experimento desarrollado en el “plano de Packard”

Lat. Am. J. Phys. Educ. Vol. 4, No.2, May 2010 387 http://www.journal lapen.org.mx

La reformulación de esta actividad, que puede hacerse sin dificultad en un laboratorio básico, lleva a ampliar el análisis experimental a la energía del cuerpo que rueda. El uso de una cámara digital para la toma de imágenes y la medición del tiempo permite cuantificar totalmente el movimiento y la extracción de conclusiones relevantes sobre la dinámica de un cuerpo rígido. AGRADECIMIENTOS Este trabajo fue realizado con apoyo del proyecto UNGS-IDEI 30/4019. REFERENCIAS [1] Greenslade, Jr., T. B., Packard's Apparatus, Phys. Teach. 34, 156 (1996). [2] Una versión de este dispositivo, similar al original de Packard, puede verse en: http://physics.kenyon.edu/EarlyApparatus/Mechanics/Packards_Apparatus/Packards_Apparatus.html. Consultado el 4 de marzo de 2010. [3] Gil, S., Reisin, H. D., and Rodríguez, E. E., Using a digital camera as a measuring device, Am. J. Phys. 74, 768 (2006). [4] Chen, D., and Xing, L., Digital camera as a data collector, Phys. Teach. 47, 54 (2009). [5] Wyrembeck, E. P., Video analysis with a web camera, Phys. Teach. 47, 28 (2009).

[6] Goff, J. E., and Carré, M. J., Trajectory analysis of a soccer ball, Am. J. Phys. 77, 1020 (2009). [7] Sears, F., Zemansky, M., Young, H. y Fredman, R., Física universitaria, Vol. 1 (Pearson Educación, undécima edición, México, 2004). [8] Serway, R., and Jewett, J., Física para ciencias e ingeniería, Vol. 1, (Ed. Cengage Learning, Thompson Internacional, séptima edición, México, 2008). [9] Una discusión histórica sobre el valor de esta aceleración puede verse en: Crawford, F. S., Rolling and slipping down Galileo’s inclined plane: Rhythms of the spheres, Am. J. Phys. 64, 541 (1996). [10] Una de estas versiones comerciales es la de la firma Cenco: http://www.cencophysics.com/packards-acceleration-apparatus/p/IG0037841/. Consultado el 4 de marzo de 2010. [11] Videos del experimento disponibles en: http://www.cienciaredcreativa.org/videos/rodadura/. [12] Spanish Dub es un programa gratuito que soporta los siguientes formatos, tales como AVI y MPEG, que son los formatos de compresión más usuales de las cámaras digitales actuales. El programa puede obtenerse de http://spanishdub.softonic.com/. Consultado el 2 de marzo de 2010. [13] Puede usarse, por ejemplo, PhotoFiltre: http://photofiltre.softonic.com. Consultado el 4 de marzo de 2010. [14] Solbes, J., and Tarín, F., Which reaches the bottom first?, Phys. Teach. 46, 550 (2008).

Lat. Am. J. Phys. Educ. Vol. 4, No.2 , May 2010 388 http://www.journal.lapen.org.mx

Algunos experimentos con cuerpos rígidos

Néstor A. Olivieri, Pablo A. Nuñez y Eduardo E. Rodríguez Instituto de Industria, Universidad Nacional de General Sarmiento, J. M. Gutiérrez 1150, CP B1613GSV, Los Polvorines, Buenos Aires, Argentina. E-mail: [email protected] (Recibido el 15 de Abril de 2010; aceptado el 12 de Mayo de 2010)

Resumen Se presentan algunos diseños experimentales usados para ilustrar algunos temas importantes de la dinámica de cuerpos rígidos durante un curso universitario de mecánica. Los experimentos recurren a materiales de bajo costo y disponibles en los laboratorios de física universitarios. Uno de ellos usa un cuerpo con una geometría no convencional y los restantes representan casos usualmente incluidos como desafíos en varios libros de texto. Palabras clave: Resolución de problemas, modelado, experimentos con cuerpos rígidos.

Abstract Experimental designs used to illustrate some important topics of the dynamics of rigid bodies in a mechanics course in the university are presented. All the designs use low-cost materials, available in the physics laboratories. One of the designs uses a body with a non-conventional geometry, and the other two experiments deal with cases proposed in several texts as challenges. Keywords: Problem solving, modeling, experiments with rigid bodies. PACS: 01.50.My, 01.50.Pa, 01.50.Qb ISSN 1870-9095

I. INTRODUCCIÓN Como docentes organizadores de un curso de mecánica para estudiantes de ingeniería hemos encontrado ciertas dificultades para expandir la oferta de experimentos que puedan realizar los alumnos en torno al tema de la mecánica de cuerpos rígidos, y que al mismo tiempo esos experimentos queden al alcance del bagaje de conocimiento que los alumnos hayan alcanzado del tema durante el desarrollo del curso, a fin de que la práctica experimental sea aprovechable por ellos y les mejore la comprensión de los tópicos más destacados.

Si bien en la literatura especializada se encuentran propuestas experimentales muy variadas [1, 2, 3, 4, 5], observamos que cada una de éstas desarrolla conceptos específicos, y su adecuación al desarrollo de un curso que lleva adelante su propio temario queda, en cierto modo, limitada. Asimismo, las propuestas experimentales publicadas que aparecen como más atractivas y desafiantes [6], hacen necesario un mayor conocimiento de técnicas de cálculo para modelar los problemas, como por ejemplo el formalismo lagrangiano, pero éste usualmente no se presenta en un curso elemental de mecánica.

Otras dificultades se relacionan con el acceso experimental a variables físicas como la velocidad, la aceleración o la energía. Cuando estas variables se miden con precisión aportan, en conjunto, información relevante para el análisis de la mecánica del cuerpo rígido. Una forma de acceder a estos datos consiste en, por ejemplo,

usar técnicas de video para registrar en detalle el movimiento [7] o bien sensores de movimiento vinculados a un sistema de toma de datos por computadora [8, 9].

En este trabajo compartimos experimentos para acompañar el dictado de temas relacionados con la dinámica de un cuerpo rígido, tal como se los brinda normalmente en un curso estándar de mecánica en los primeros años de estudio de una carrera de ciencias o ingeniería. Hemos buscado diseños que reúnan las siguientes características: a) que sean simples y de bajo costo, de modo que su replicación no ofrezca dificultad y así poder incorporarlos a cursos numerosos; b) que la física involucrada esté al alcance de todos los alumnos que tomen el curso por primera vez; c) que ilustren aspectos centrales de la dinámica de un cuerpo rígido; d) que no requieran de equipamiento sofisticado para su realización.

Esto nos ha llevado, por un lado, a tomar la idea de aprovechar la conversión a experimentos de ciertos problemas clásicos que se presentan en los cursos y que los estudiantes resuelven rutinariamente.[10] De esta manera, las actividades que pueden desarrollarse aportan a la comprensión e integración de conceptos ya que vinculan aspectos de la resolución de problemas, la modelización y la puesta a prueba de hipótesis o modelos por medio de la experimentación.[11] Asimismo, cabe señalar que las actividades buscan remarcar aspectos importantes del trabajo experimental como son el análisis de datos y la conexión de los resultados con las expectativas que surgen del modelado de un problema.

Algunos experimentos con cuerpos rígidos

Lat. Am. J. Phys. Educ. Vol. 4, No.2 , May 2010 389 http://www.journal.lapen.org.mx

Por otra parte, dadas las características de los experimentos que presentamos, no es completamente necesario tener acceso a sistemas de medición automáticos, y por lo tanto las experiencias se podrían hacer en laboratorios que dispongan sólo de instrumentos básicos como reglas, calibres, cronómetros y balanzas.

A continuación, en distintas secciones se presentan una demostración y dos experimentos que puntualizan sobre conceptos de la dinámica del cuerpo rígido, a saber: rodadura de cuerpos de distintos momentos de inercia, péndulo físico con centro de masas variable, y pequeñas oscilaciones de esferas en canales cilíndricos. En todos los casos los alumnos pueden ser guiados para que ejerciten las observaciones y los experimentos desde la concepción formal de un modelo físico hasta la construcción del dispositivo experimental. II. CUERPOS QUE RUEDAN En lo que concierne a la rodadura de cuerpos, en varios libros de texto [12, 13] se considera el movimiento sobre un plano inclinado de cuerpos que se liberan simultáneamente de una misma altura. Es común el análisis de “carreras” que tienen como “contrincantes” a dos esferas macizas de distintos radios y masas, o a una maciza contra una hueca de iguales radios y masas, o de cilindros y aros, etcétera. Las geometrías simétricas de estos cuerpos son familiares a los alumnos y el cálculo de los respectivos momentos de inercia suele ser tratado previamente al planteo de la pregunta.

Pero consideremos el caso de cuerpos que no presentan geometrías usuales. Dos de estos cuerpos, que se muestran en la Figura 1, tienen igual masa, están construidos con las mismas partes, pero distribuidas de diferente manera. Los cuerpos están armados con dos discos compactos conectados por tres cilindros de madera del mismo largo. La disposición de los elementos es tal que la simetría de cada cuerpo respecto del eje longitudinal que pasa por el centro de masas queda preservada.

FIGURA 1. Dos cuerpos construidos con los mismos elementos pero que presentan distinta distribución de la masa en torno al eje de rotación. Si simultáneamente estos cuerpos se liberan desde la misma altura para que rueden sobre un plano inclinado, ¿cuál de ellos llega primero a la base? Detrás del razonamiento cualitativo que un alumno tiene que hacer para arribar a la respuesta están los conceptos de simetría, distribución de masa, momento de inercia y el teorema de los ejes paralelos, que sintetizan en buena medida los elementos básicos necesarios para el tratamiento del movimiento de cuerpos rígidos.

Tras decidir sus respuestas, los alumnos pueden observar la rodadura de los cuerpos a lo largo de un plano inclinado con un ángulo pequeño. En un proceso de retroalimentación, los alumnos pueden revisar sus razonamientos a la luz del resultado de sus observaciones. Un problema complementario consiste en calcular el momento de inercia de cada cuerpo compuesto de: dos discos con agujero, tres barras homogéneas y seis tornillos (estos tornillos pueden considerarse como masas puntuales). Esto requiere de mediciones de las dimensiones de cada parte (masa, longitud, radios) y los correspondientes cálculos. III. PÉNDULO FÍSICO CON CENTRO DE MASA VARIABLE El concepto de péndulo físico aparece como un tema de la dinámica del cuerpo rígido que involucra los conceptos de centro de masas, momento de inercia y la Segunda Ley de Newton aplicada a un sistema continuo en rotación, los cuales se integran a un concepto singular como son las oscilaciones armónicas.

Un problema de resolución que aparece en el libro de Sears et al. [14] consiste en determinar cómo varía el período de un péndulo formado por una varilla que tiene adosada una pequeña masa, la cual puede ubicarse a una distancia variable del eje de suspensión del sistema, ubicado en la parte más alta de la varilla. Nuestra realización se muestra esquemáticamente en la Figura 2, en la que un tubo de masa M y largo L reemplaza a la varilla y el cuerpo pequeño es una esfera de masa m.

El período del péndulo puede obtenerse con la expresión general para el caso de pequeñas amplitudes de oscilación y rozamiento despreciable:

gDmMI

T eje

)(2

+= π . (1)

Aquí, Ieje es el momento de inercia del sistema con respecto al eje de suspensión, g es la aceleración de la gravedad (g = 9.8 m/s2), y D la distancia entre el centro de masa del péndulo y el eje de suspensión, a saber:

mM

mdLMD

+

+= 2 (2)

Néstor A. Olivieri, Pablo A. Nuñez y Eduardo E. Rodríguez

Lat. Am. J. Phys. Educ. Vol. 4, No.2 , May 2010 390 http://www.journal.lapen.org.mx

FIGURA 2. Péndulo con centro de masa variable. En este péndulo compuesto Ieje es la suma de los momentos de inercia del tubo Itubo y de la esfera Iesfera con respecto al eje de suspensión:

esferatuboeje III += . (3) Para un tubo de largo L y radios externo e interno Rext y Rint, respectivamente:

( ) 22int

2

31

41 MLRRMI exttubo ++= . (4)

El momento de inercia de la esfera respecto del eje de suspensión es:

22

52 mdmrIesfera += . (5)

El primer término en (5) corresponde al momento de inercia de la esfera con respecto a un eje que pasa por su centro de masas, y el segundo término resulta de la aplicación del teorema de los ejes paralelos, donde d es la distancia entre el centro de la esfera y el eje de suspensión.

Vale la pena analizar la expresión del período como una función de las variables que intervienen después de reemplazar en (1) por las expresiones de D y Ieje. En primer lugar, en el péndulo utilizado –de 58 cm de longitud y de radios del orden de 1 cm (ver TABLA I)–, el primer término en (4) (que representa la distribución de masa en la pared del tubo) es despreciable frente al segundo término (que da cuenta de la distribución de la masa a lo largo del

tubo). Por lo tanto, el momento de inercia del tubo puede ser considerado como el de una varilla homogénea de masa M y longitud L. En segundo lugar, el término 2/5mr2 que corresponde al momento de inercia de la esfera con respecto a su centro, es comparable a la aproximación del momento de inercia del tubo Itubo = 1/3ML2 sólo si m es del orden de M (L/d)2. Con los datos de la TABLA I esto se cumple en el caso extremo de una relación de masas m/M ≈ 104, mientras que para el péndulo utilizado m/M ≈ 0,2, por lo que el término 2/5mr2 también puede ser despreciado frente a 1/3ML2.

En conclusión, el péndulo puede ser tratado como una varilla larga de masa M y longitud L a la que se le adhiere una masa puntual m a distancia variable d respecto del eje de suspensión. Con esto, el momento de inercia del péndulo puede ser expresado como:

22

31 mdMLIeje +≈ , (6)

y resulta una expresión simplificada del período:

+

+≈

mdLMg

mdMLdT

2

31

2)(22

π , (7)

donde ha sido usada la expresión (2) para D(d). Estas expresiones son empleadas a priori en el análisis de un denominado “péndulo no-intuitivo” formado por dos cuerpos, aunque sin la presentación de una adecuada justificación (ver, por ejemplo, [15]).

Finalmente, cuando se analizan las diferencias que aparecen en el período si se utiliza el momento de inercia aproximado, se encuentra que tal período difiere en menos del 2% respecto del obtenido con el momento de inercia exacto. La Figura 3 muestra estas leves discrepancias para diferentes valores de m/M. Desde arriba hacia abajo se muestran curvas para: m/M = 1, 10, 100. La curva inferior corresponde al caso de un péndulo simple de longitud d. Para representar los casos se utilizaron los valores de la TABLA I.

0.0

0.5

1.0

1.5

0.0 0.1 0.2 0.3

T (s

)

d (m)

d

L

eje de suspensión sujeción

Algunos experimentos con cuerpos rígidos

Lat. Am. J. Phys. Educ. Vol. 4, No.2 , May 2010 391 http://www.journal.lapen.org.mx

FIGURA 3. Período del péndulo físico en función de la distancia de la esfera al eje de suspensión, para diferentes razones m/M. A. Diseño experimental El péndulo construido está formado por un tubo de PVC y una esfera de acero. En la TABLA I se indican las dimen-siones del tubo y de la esfera.

El eje de suspensión del péndulo es una varilla rígida delgada (6 cm de longitud, 2 mm de diámetro), y puede fijarse en el extremo del tubo con dos ganchos construidos con el alambre de clips metálicos. Los ganchos se pegan con un adhesivo instantáneo. En términos generales, no es difícil encontrar una esfera que ajuste dentro de un tubo de manera que se pueda fijar su posición con comodidad.

Cuando el eje horizontal se apoya sobre dos bloques de acero el péndulo puede oscilar con escasa amortiguación, de manera que se pueden observar unos 50 ciclos. Cronometrando el tiempo de N ciclos, ∆t, se obtiene el valor del período como T = ∆t / N; en nuestro caso N = 40.

El cambio de posición de la esfera en el tubo modifica la posición del centro de masas del sistema y su momento de inercia respecto del eje. En este experimento se determina cómo varía el período para distintas posiciones d de la esfera dentro del tubo.

TABLA I. Dimensiones de las partes del péndulo físico.

Tubo Longitud L = (0.587 ± 0.001) m Masa M = (74.2 ± 0.1) g Radio interno Rint = (7.7 ± 0.1) mm Radio externo Rext = (10.4 ± 0.1) mm Esfera Masa M = (16.8 ± 0.1) g Radio r = (7.7 ± 1.1) mm

B. Resultados La Figura 4 muestra el período de oscilación del péndulo construido, medido para diferentes posiciones d de la esfera dentro del tubo, y su comparación con el modelo. La línea continua representa el período calculado usando todos los términos del Ieje. En tanto, línea punteada corresponde al período calculado usando la aproximación (7).

1.15

1.20

1.25

1.30

1.35

0.0 0.2 0.4 0.6

T (s

)

d (m)

FIGURA 4. Período del péndulo para diferentes posiciones de la esfera dentro del tubo.

Puede observarse la consistencia de la aproximación propuesta ya que la discrepancia con el resultado exacto es muy leve.

Un experimento de este tipo, desde el armado del péndulo y su montaje hasta las mediciones, puede llevar alrededor de 3 horas, lo que lo hace accesible para practicarlo en un curso universitario. IV. OSCILACIÓN DE UNA ESFERA EN CANALES CILÍNDRICOS El caso de una esfera de radio r que realiza pequeñas oscilaciones dentro de un canal cilíndrico de radio R está presentado en la bibliografía para ser analizado de diferentes maneras, ya sea en el caso especial en que hay una relación definida entre r y R como considera Serway [16] o cuando r << R como proponen Tipler y Mosca [17]. En ambos casos las consignas solicitan demostrar que la esfera puede oscilar con movimiento armónico simple y encontrar una expresión para el período T en función de las dimensiones de la esfera y del canal.

Si se supone que la esfera rueda sin deslizamiento en el canal, el abordaje teórico para este problema puede ser el dinámico o el energético que, aunque presentan distintos grados de complejidad, conducen al mismo resultado.

Para el análisis dinámico se recurre a la esque-matización de la situación y se realiza un diagrama de cuerpo libre, como se muestra en la Figura 5.

Néstor A. Olivieri, Pablo A. Nuñez y Eduardo E. Rodríguez

Lat. Am. J. Phys. Educ. Vol. 4, No.2 , May 2010 392 http://www.journal.lapen.org.mx

FIGURA 5. a) Una esfera de radio r que oscila en un canal cilíndrico de radio R. b) Diagrama de cuerpo libre donde se indican las fuerzas actuantes sobre la esfera: peso, normal al canal y la fuerza de roce necesaria para la rodadura Sólo es necesario considerar el movimiento en la dirección del versor angular θ . El análisis indica que en la dirección θ se cumple:

dtdvmfsengm =+− θ , (8)

donde θ es el ángulo que define la posición angular de la esfera en el canal respecto de la posición de equilibrio, v es la velocidad tangencial del centro de masas de la esfera a lo largo de un tramo de circunferencia que tiene un radio (R – r), y f es la fuerza de roce entre la esfera y el canal. El módulo de la velocidad tangencial del centro de masas está relacionada con el módulo de la velocidad angular ω (ω = dθ/dt) respecto del centro de curvatura del canal por:

)( rRv −= ω . (9) La fuerza de rozamiento produce a la esfera un momento de rotación respecto de un eje que pasa por su centro de masas y que es paralelo al eje longitudinal del canal, que lo tomamos con eje z. Este momento tiene módulo:

α Irf = , (10) donde α es la aceleración angular de la esfera alrededor de su centro de masas e I = (2/5)mr2 es su momento de inercia. Considerando la condición de rodadura sin deslizamiento, tenemos que es válida la ecuación de vínculo entre la velocidad v de la esfera y su velocidad angular Ω de su rotación en torno al eje que pasa por su centro de masas:

Ω= rv . (11)

Dado que dependiendo del sentido del movimiento de la esfera sobre el canal, ωz = ± |ω| y simultáneamente Ωz = |Ω|, es decir ω y Ω son opuestas, las velocidades angulares quedan relacionadas a través de

rrR

zz−

−=Ω ω . (12)

Usando α = dΩ/dt, se obtiene de (10) la fuerza de roce, que puesta en (8) lleva a deducir la ecuación de movimiento de la esfera sobre el canal:

)(sen)(7

5 θθrR

g−

−= . (13)

En el caso de oscilaciones de amplitudes pequeñas, sen(θ) ≈θ, y (13) se reduce a la ecuación de un oscilador armónico simple que oscila con un período constante dado por

grRT −

⋅=572π . (14)

De este modo, el modelo predice un período de oscilación que mantiene una relación lineal entre su cuadrado T2 y la diferencia (R – r) de los radios del tubo y la esfera:

)(528 22 rRg

T −= π . (15)

Nótese que el factor 28π2/5g = 5.63 s2·m-1 es constante e independiente de los tamaños de la esfera que oscila y del canal. Si la ecuación (15) puede ser verificada experi-mentalmente observando oscilaciones de pequeñas ampli-tudes, se está verificando, entre otras cosas, que el cuerpo rueda sin deslizar, una condición que de otra forma es más difícil de discernir. A continuación, se muestra el diseño experimental y los resultados obtenidos junto a la corre-lación que presentan con el modelo desarrollado. A. Diseño experimental La TABLA II detalla las dimensiones de las esferas usadas, de acero, vidrio y plástico. Los canales cilíndricos son tubos de plástico –como los que se usan como tubos de desagüe– y recipientes cilíndricos de PVC, cuyos radios se dan en la TABLA III.

Para determinar el período de oscilación T se empleó un cronómetro y el siguiente procedimiento: se dejó oscilar la esfera dentro de los tubos midiendo el tiempo ∆t de 10 oscilaciones, para luego determinar el período mediante T = ∆t /10.

TABLA II. Datos de las esferas usadas.

Esfera Material Radio (mm)

1 acero 2.375 ± 0.025 2 acero 4.75 ± 0.05 3 acero 6.25 ± 0.05 4 vidrio 7.50 ± 0.05 5 acero 12.75 ± 0.05 6 plástico 12.75 ± 0.05

Algunos experimentos con cuerpos rígidos

Lat. Am. J. Phys. Educ. Vol. 4, No.2 , May 2010 393 http://www.journal.lapen.org.mx

TABLA III. Radios de los canales cilíndricos usados.

Canal R (mm)

1 52.5 ± 0.5 2 80.0 ± 0.5 3 119.5 ± 0.5 4 143.0 ± 0.5

B. Resultados En el gráfico de la Figura 6 se muestran los resultados de los T 2 en función de la diferencia R – r. Observamos una buena correlación de los datos con lo que se espera de la aplicación de la expresión (15). La pendiente del gráfico difiere sólo en un 2.3% del valor esperado.

Debe notarse que este resultado proviene del estudio de las oscilaciones de esferas metálicas o de plástico duro sobre canales de PVC. Las mismas esferas puestas a oscilar en canales de poliuretano expandido presentan un amorti-guamiento tal que alejan las condiciones experimentales de las usadas para la deducción del modelo que lleva a la expresión (15).

Asimismo, durante los experimentos debe cuidarse que el movimiento oscilatorio de las esferas no sufra desviaciones apreciables de la dirección tangencial.

T2 = 0.0055 (R - r)R² = 0.9906

0.00

0.30

0.60

0.90

0 50 100 150

T2 (s

2 )

R - r (mm)

FIGURA 6. El gráfico muestra la relación lineal del período al cuadrado T2 respecto de la diferencia de los radios R - r. Los cuatro grupos de datos corresponden a las mediciones de los períodos de las esferas en cada uno de los cuatro tubos. Vale la pena comentar que el uso de esferas de goma de dos o tres centímetros de diámetro no produce resultados compatibles con la expectativa del modelo, y que esto posiblemente se deba a que no se satisface la condición de rodadura sin deslizamiento de esferas de ese material sobre los canales de plástico o PVC. Asimismo, el tamaño de las esferas a usar está limitado por el amortiguamiento, así es que esferas más pesadas oscilan más tiempo y a la vez producen resultados que se correlacionan mejor con las expectativas del modelo.

V. CONCLUSIONES Los experimentos presentados responden a necesidades de nuestros cursos de una carrera de ingeniería. No obstante, creemos que son viables durante el desarrollo de cursos análogos de los primeros años universitarios. Por un lado, nuestra propuesta da continuidad a la idea de generar nuevas experiencias para el laboratorio de física, coherentes con el tipo de problemas que se realizan habitualmente en los cursos regulares, lo que a nuestro entender redunda en una mejor comprensión de los conceptos teóricos de la dinámica de un cuerpo rígido por parte de los alumnos. Por otro lado, el desarrollo de actividades de este tipo puede servir para incorporar nuevos experimentos usando elementos accesibles y de bajo costo. AGRADECIMIENTOS Este trabajo fue realizado con apoyo del proyecto UNGS-IDEI 30/4019. Agradecemos a María Llera por la lectura crítica del original y sus sugerencias. REFERENCIAS [1] Rafat, M. Z., Wheatland, M. S., and Bedding, T. R., Dynamics of a double pendulum with distributed mass, Am. J. Phys. 77, 216 (2009). [2] Coullet, P., Gilli, J. M., Monticelli, M., and Vendenberghe, N., A damped pendulum forced with a constant torque, Am. J. Phys. 73, 1122 (2005). [3] Goriely, A., Boulanger, P., and Leroy, J., Toy models: The jumping pendulum, Am. J. Phys. 74, 784 (2006). [4] Baker, G. L., Probability, pendulums, and pedagogy, Am. J. Phys. 74, 486 (2006). [5] Simbach, J. C., and Priest, J., Another look at a damped physical pendulum, Am. J. Phys. 73, 1079 (2005). [6] Carnevali, A., and May, R., Rolling motion of non-axisymmetric cylinders, Am. J. Phys. 73, 909 (2005). [7] Olivieri, N. A., Núñez, P. A., y Rodríguez, E. E., Rodadura de una esfera sobre un plano inclinado. Mejoras al experimento desarrollado en el “plano de Packard”, aceptado para su publicación en Lat. Am. J. Phys. Educ. Vol. 4 (2), mayo de 2010. [8] Pecori, B., and Torzo, G., The Maxwell wheel investi-gated with MBL, Phys. Teach. 36, 362 (1998). [9] Gianino, C., An MBL experiment to analyze the torque on a rigid body, Phys. Teach. 47, 224 (2009). [10] Rodríguez, E. E., Núñez, P. A., Veliz, M., Generación de experimentos a partir de problemas tradicionales, Lat. Am. J. Phys. Educ. 3, 625-630 (2009). [11] Baird, D. C., Experimentación (2a edición, Prentice Hall, México, 1991).

Néstor A. Olivieri, Pablo A. Nuñez y Eduardo E. Rodríguez

Lat. Am. J. Phys. Educ. Vol. 4, No.2 , May 2010 394 http://www.journal.lapen.org.mx

[12] Serway, R., and Jewett, J. W., Física para ciencias e ingeniería, Vol. 1, (Ed. Cengage Learning–Thompson Internacional, sexta edición, México, 2005). [13] Sears, F. W., Zemansky, M. W., Young, H. D. y Freed-man, R. A., Física universitaria, Vol. 1 (Pearson Educación, décimo primera edición, México, 2004). [14] Sears, F.W. et al., op. cit., cap. 13, pág. 514, problema 13.99.

[15] Sherfinski, J., A counterintuitive physical pendulum lab, Phys. Teach. 35, 252 (1997). [16] Serway, R. et al., op. cit., pág. 332, problema 76. [17] Tipler P. and Mosca E., Physics for scientists and engineers (6th ed., W. H. Freeman, 2005); cap. 14, problema 100.

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 394 http://www.journal.lapen.org.mx

El efecto Magnus y La paradoja de D'Alembert: consideraciones del flujo Potencial

J. C. Cuevas1, O. Ocaña1, A. Hurtado1, S. Hidalgo1 1Grupo de Investigación Física e Informática Fisinfor, Facultad de Ciencias y Educación, Universidad Distrital Francisco José de Caldas, Carrera 3 No.26 A-40, Bogotá, Colombia. E-mail: [email protected], [email protected] (Recibido el 22 de Marzo de 2010; aceptado el 15 de Mayo de 2010)

Resumen La simulación y descripción de la mecánica de los fluidos se hace desde varios modelos dinámicos de aproximación dependiendo de las variables y el fenómeno a considerar, cuando los efectos viscosos no son apreciables, éstos pueden ser simulados y estudiados desde la teoría de flujo potencial. Aquí se emplea esta teoría para describir cómo ocurre el efecto Magnus, a través de la superposición de varios flujos de potencial y calculando las fuerzas de sustentación que actúan sobre un cilindro con circulación inmerso en un fluido. Como se consideran efectos no viscosos, los cálculos para la fuerza de arrastre dan cero originando la conocida paradoja de D'Alembert. El escrito construye un modelo por medio de la teoría de potencial para calcular su expresión y acto seguido se expone como se relaciona ésta con el desarrollo de la vorticidad para un cuerpo con circulación y sin circulación. Palabras clave: Aproximación dinámica, Flujo Potencial, efecto Magnus y Paradoja de D'Alembert.

Abstract The simulation and description of the fluid mechanics is made from several dynamic models of approach depending on the variables and the phenomenon to consider, when the viscous effects are not considerable, these can be simulated and studied from the potential flow theory. Here this theory is used to describe how the Magnus effect happens, through the superposition of several potential flows and calculating the lift forces that act on a cylinder with circulation embedded in a fluid. As these are considered non viscous effects, the calculations for the drag force gives zero causing the well-known D'Alembert's paradox. The paper builds a model using potential theory to calculate its expression and then exposed as it relates to the development of vorticity for a body with movement and without movement.

Keywords: Dynamical approach, Potential Flow, Magnus effect and D'Alembert's paradox. PACS: 02.30.Em, 47.15.K, 47.15.km. ISSN 1870-9095

I. INTRODUCCIÓN La teoría de flujo potencial es empleada en los fluidos para describir ciertos fenómenos que se caracterizan por [1]:

• Incompresibilidad: la densidad y el peso específico se consideran constantes.

• Flujo estacionario: Todas las propiedades y parámetros de flujo dependen de la posición pero son independientes del tiempo.

• Válida para flujos planos o bidimensionales. Para realizar descripciones dinámicas de flujos más complejos, se utilizan técnicas matemáticas y computacionales más avanzadas, como por ejemplo las agrupadas por las CFD por sus siglas en inglés (Computacional Fluid Dinamics) [2, 3, 4]. Aunque en la teoría de flujo potencial no se consideran efectos viscosos y se emplea para bajo número de Reynolds, ésta si predice

el desarrollo de la viscosidad, en lo que se conoce como paradoja de D'Alembert.

Describir la dinámica del efecto Magnus a través de las ecuaciones de Navier-Stokes recae en una tarea difícil de explicar estas ecuaciones permiten una aproximación del comportamiento real de los fluidos, además es de anotar que las ecuaciones no prevé si este movimiento se va a mantener o cambiara, el estudio que se muestra aborda la teoría de flujo de potencial este basado en el concepto matemático de función potencial para calcular la expresión del efecto Magnus. II. EL EFECTO MAGNUS Los estudios actuales demuestran que la fuerza Magnus es el resultado de la deformación asimétrica en el grosor de la

El Efecto Magnus y La paradoja de D'Alembert: Consideraciones del flujo Potencial

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 395 http://www.journal.lapen.org.mx

capa límite cuando ésta es desplazada por la rotación de la esfera en el flujo [5, 6, 7]. Un objeto como una esfera o un cilindro puede impartir un movimiento de rotación a una capa muy delgada adyacente a la superficie de éste. Las partículas de fluido que componen dicha capa (capa límite) desarrollaran vorticidad y en consecuencia circulación sobre el objeto. El movimiento impartido a esta capa afecta la manera en la que el flujo se separa de la superficie en la parte trasera de la esfera [8].

La separación de la capa límite es retrasada en el lado en donde el objeto rota en la misma dirección que el flujo de corriente libre (parte inferior derecha de la esfera en la Figura 1), mientras la separación ocurre prematuramente por el lado en que se mueve contra el flujo de corriente libre. La estela entonces cambia hacia el lado que se mueve contra el flujo de corriente libre. Por consiguiente, el flujo por delante del objeto es desviado, y la variación que resulta del cambio de momentum en el flujo genera una fuerza en dirección contraria (Fig. 1).

FIGURA 1. Deformación de los elementos en la capa límite por una esfera que rota en sentido dextrógiro.

III. FLUJO POTENCIAL Para realizar el cálculo de la fuerza Magnus, primero se tiene en cuenta las consideraciones mencionadas anteriormente para el flujo potencial y aplicándolas a la ecuación de vorticidad de Navier-Stokes [9] se obtiene la condición principal que permite formular un campo escalar que describe el efecto Magnus

. ,Dω (ω )uDt

= ∇ (1

la ecuación (1) con la condición de irrotacionalidad queda reducida a

u jui i j .x xj i

∂∂ = ≠∂ ∂

(2)

La ecuación (2) garantiza la existencia de una función escalar ϕ llamada potencial de velocidad, la cual se relaciona con las componentes de la velocidad por

,1 y u ur rr θ

ϕ ϕθ

∂ ∂≡ ≡∂ ∂

(3)

y una función ψ que a su vez se relaciona con las componentes de la velocidad por

.1 y -u ur r rθ

ψ ψθ

∂ ∂≡ ≡∂ ∂

(4)

Ahora bien, el potencial para un cilindro con circulación (Fig. 2) es:

2ln .

2iΓ zaN u z

zπ a

= + +

(5)

Donde a es el radio del cilindro y Γ es la intensidad del vórtice.

FIGURA 2. Superposición de un flujo uniforme, un doblete y un vórtice respectivamente para formar el patrón de un cilindro con circulación. Las líneas más intensas (azules) son el campo de velocidades y las líneas más tenues (blancas) representan las líneas de corriente.

J. C. Cuevas, O. Ocaña, A. Hurtado, S. Hidalgo

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 396 http://www.journal.lapen.org.mx

En la Fig. 2 el flujo uniforme se mueve de izquierda a derecha, el sentido del doblete y el vórtice es levógiro respectivamente. Encima del cilindro el movimiento del vórtice se suma a la velocidad causada por el flujo uniforme y por el doblete, mientras que por debajo del cilindro el vórtice resta la velocidad causada por el flujo uniforme y el doblete, la adición de velocidades se evidencia ya que en la parte superior del cilindro las líneas de corrientes están más próximas entre sí indicando alta velocidad. En contraste en la parte inferior del cilindro, el vórtice resta la velocidad causada por el doblete y el flujo uniforme (Fig. 3). La ecuación de Bernoulli predice una presión más alta debajo del cilindro ocasionando una fuerza de sustentación hacia arriba.

FIGURA 3. Flujo alrededor de un cilindro con velocidad angular saliendo de la hoja y el fluido circula de izquierda a derecha (los vectores flecha indican el cambio de velocidad en el flujo de corriente libre y los puntos de estancamiento, donde la velocidad relativa del cilindro respecto al flujo es cero se encuentran justo debajo de éste y opuestos diametralmente.). La geometría del cilindro la podemos observar en la Fig. 3, donde las funciones de corriente ψ y velocidad φ son la parte imaginaria y real de la función potencial (ecuación 5) respectivamente.

Para calcular el exceso de presión sobre el cilindro hallamos las componentes tangencial y radial de la velocidad en cualquier punto del flujo en coordenadas polares (ecuaciones 3 y 4)

. r

2

2Γau 1 sinθu 2r

θ π

= − + + (6)

FIGURA 4. Geometría para el cálculo del exceso de presión sobre un cilindro con circulación.

cos .2

r 2au 1θur

= − (7)

Evaluando las ecuaciones (6) y (7) en el contorno del cilindro

,2 Γusinθu r a 2 aθ π

= − += (8)

0.ur r a ==

(9)

Lo que indica que sólo una componente contribuye a la fuerza de levantamiento, en este caso al efecto Magnus, de la ecuación (8) obtenemos los puntos P de estancamiento

.4

sinθauπΓ= (10)

Esta ecuación puede tener solución para dos valores, que en general para un flujo bidimensional son los puntos de estancamiento. La ecuación radial nos indica que hay 3 valores que determinan los puntos de estancamiento (velocidad cero) estos son r=a y 2/ πθ ±= , con estos valores se calcula la distancia radial al punto de estancamiento

/ 2 0,

2

2Γau 1u 2 rrθ πθ π

=

= − + + = (11)

2 21 ,(4 )

4 r au

π = Γ ± −Γ

(12)

El Efecto Magnus y La paradoja de D'Alembert: Consideraciones del flujo Potencial

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 397 http://www.journal.lapen.org.mx

se obtiene una raíz para r>a y la otra da un punto de estancamiento dentro del cilindro. Ahora con ayuda de la ecuación de Bernoulli se encuentra la presión

2 2 , ( )

2 2r auuP Pr a

ρ ρθ= + = +∞=

(13)

2

2 .22 r a

Γu sinθuP P2 a

ρπ

= = + − −∞

(14)

La simetría del flujo sobre el eje y implica que la fuerza debida a la presión no tiene componente a lo largo del eje x, entonces 0=∞P . La fuerza debida a la presión a lo largo del eje y se llama fuerza de sustentación (Fig. 4), esta es [9]:

2

0 ,r aS asin d uP

πθ θ ρ∫ == = Γ (15)

en donde la ecuación (14) es sustituida en la ecuación (15), dado que los términos lineal y cúbico dan cero al integrar. Ahora, se calcula la componente para el arrastre de manera similar

2

0 cos 0,r aS a dP

πθ θ∫ == = (16)

el resultado indica, que para un cilindro con circulación inmerso en un fluido el arrastre es cero, lo cual contradice claramente las observaciones reales. IV. DISCUSIÓN Antes del siglo XX no se contaba con una descripción de los fluidos, donde se tuviera en cuenta la importancia de la capa límite y su influencia sobre el movimiento de los cuerpos en dichos fluidos. Como se vio anteriormente la teoría de flujo de potencial no predice el efecto de arrastre que se da sobre estos cuerpos, por eso fue necesario introducir más términos que dieran cuenta de los efectos viscosos, turbulentos, y arrastre sobre los cuerpos. Esto se logró gracias a la teoría de la capa Límite desarrollada por Prandtl y el desarrollo de Navier-Stokes, contrario a lo que se hizo aquí, la teoría de flujo potencial fue primero y luego se desarrollaron las ecuaciones de Navier-Stokes que incluyen una descripción más completa de los fluidos.

Al comienzo del artículo se mencionó que la teoría de potencial no consideraba efectos viscosos pero si los predecía, D'Alembert publicó un informe en el cual afirmaba que de acuerdo a la teoría no viscosa "la fuerza de arrastre de cualquier cuerpo sin importar su forma, inmerso en un flujo de corriente uniforme, su arrastre es idénticamente cero", este hecho no concordaba con las observaciones para los flujos reales [10]. Sin embargo se consideró que la vorticidad para el flujo uniforme es cero

(ecuación 2), si se elimina el término para el vórtice de la ecuación (5) y se calcula nuevamente la sustentación y el arrastre de manera similar a la anteriormente expuesta, se obtiene que el arrastre y la sustentación son cero, de manera que la única forma para que sobre el cilindro, el fluido ejerza una fuerza de desviación lateral u horizontal (efecto Magnus) o sustentación, es que éste se encuentre rotando en el fluido, es decir que desarrolle circulación. En los cilindros hay dos formas de desarrollar circulación una es que éste se encuentre rotando y la otra es por medio de la viscosidad del fluido; además, según la definición del efecto Magnus, el cilindro mediante su rotación transfiere una cantidad de momentum a las partículas que rodean el contorno del cilindro (capa límite) y éstas a su vez provocan una reacción igual en las partículas del fluido, haciendo que adquieran vorticidad y desarrollen efectos viscosos (Fig. 1). Contrario a la suposición inicial de un flujo con vorticidad cero. V. CONCLUSIONES

Considerar las ecuaciones de Navier-Stokes para calcular la expresión del efecto Magnus es una tarea muy compleja debido a la naturaleza de dichas ecuaciones; la teoría de flujo potencial matemáticamente es más fácil de manipular, por eso abordar la descripción de este fenómeno empleando conceptos más sencillos, pero que pueden tener una forma de aprehensión y comprensión más visual [11, 12], facilita la enseñanza y aprendizaje de los principales conceptos de la mecánica de fluidos que intervienen en el efecto Magnus, a la vez que potencializa las capacidades intelectuales del estudiante como estudiante-investigador de las ciencias básicas. Alternativamente se puede considerar el cambio de momentum neto del aire debido a su interacción con el cilindro, considerando un volumen de control sobre dicho cilindro y aplicando las leyes de Newton, obteniéndose así una expresión idéntica a la ecuación (15) [13]. AGRADECIMIENTOS Agradecimientos a la Facultad de Ciencias y Educación y al Proyecto Curricular de Licenciatura en Física de la Universidad Distrital, por el apoyo a los miembros del grupo Física e Informática y al semillero de investigación SILAB. REFERENCIAS [1] Shames, I., Mecánica de Los Fluidos (Mc Graw Hill, 3ra. Edición, Colombia, 1995). [2] Löner, R., Applied Computational Fluid Dynamics Techniques (John Wiley & Sons, 2nd Edition, England, 2008).

J. C. Cuevas, O. Ocaña, A. Hurtado, S. Hidalgo

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 398 http://www.journal.lapen.org.mx

[3] Pozrikidis, C., Fluid Dynamics Theory, Computation, and Numerical Simulation (Kluwer Academic Publishers, United States of America, 2001). [4] Buchanan, G., Schaum´s outline of Theory and Problems of Finite Element Analysis (Mc Graw Hill, United States of America, 1995) [5]Achutara, K., <http://www.geocities.com/k\_achutarao/MAGNUS/magnus.html>, Consultado el 21 de Mayo de 2010. [6] Alan, M., The effect of spin on the flight of a baseball, Am. J. Phys. 76, 119-124 (2007). [7] Aguiar, E. y Rubini, G., A aerodinâmica da bola de futebol, Revista Brasileira de Ensino de Física 26, 297-306 (2004). [8] Nudson, D., Fundamentals of Biomechanics (Springer, California, 2007).

[9] Kundu, K. and Cohen, I., Fluid Mechanics (Academic Press, 2nd Edition, California, 2002). [10] White, F., Fluid Mechanics (Mc Graw Hill, 4th Edition, New York, 2002). [11] Korsunsky, A. and Constantinescu, A., Elasticity with Mathematica®: An Introduction to Continuum Mechanics and Linear Elasticity (Cambridge University Press, New York, 2007). [12] Esquembre, F., Synchronous collaboration of virtual and remote laboratories, Computer Applications in Engineering Education 17, (2009). [13] Cuevas, J. et al., Cálculo de la Fuerza Magnus desde La Capa Límite. (Memorias XXIII Congreso Nacional de Física (resumen). Santa Marta, Colombia, 2009).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 399 http://www.journal.lapen.org.mx

Detección y Clasificación de Errores Conceptuales en Calor y Temperatura

Antonio Lara-Barragán Gómez1, 2, Alberto Santiago Hernández1 1Departamento de Física, Centro Universitario de Ciencias Exactas e Ingenierías, Universidad de Guadalajara, Av. Revolución 1500, Col. Olímpica, Sector Reforma, Guadalajara, Jal. México. 2Escuela de Ingeniería Industrial, Universidad Panamericana campus Guadalajara, Av. Circunvalación Poniente no. 49, Cd. Granja, Zapopan, Jal. México. E-mail: [email protected]

(Recibido el 10 de Marzo de 2010; aceptado el 14 de Abril de 2010)

Resumen Se presenta un estudio descriptivo sobre errores conceptuales que alumnos de primer ingreso a la universidad tienen sobre los conceptos de calor y temperatura. Éstos se obtienen de la aplicación de un examen de diagnóstico y se clasifican de acuerdo con una taxonomía previamente establecida en la literatura. A partir de los resultados, se propone una estrategia didáctica para la superación de tales errores conceptuales.

Palabras clave: Calor, temperatura, error conceptual, enseñanza de la física, aprendizaje

Abstract A descriptive study on alternative concepts handled by freshmen in our university is presented. The study is referred to heat and temperature. The alternative concepts are obtained from a conceptual test and are classified following a known taxonomy found in the literature. A didactic strategy to overcome the alternative conceptions is then presented.

Keywords: Heat, temperature, misconception, physics teaching, learning PACS: 01.30.lb, 01.40.gb, 01.50.Zv, 44.10.+i ISSN 1870-9095

I. INTRODUCCIÓN La termodinámica es una de las ramas más generales de la física clásica, cuyo impacto es evidente por la gran cantidad de aplicaciones en la enseñanza y en la práctica. Sus dos pilares fundamentales, en el nivel introductorio, son los conceptos de calor y de temperatura, y como en muchos otros aspectos de la física clásica, la mayoría de los estudios relacionados con la conceptuación y la pedagogía se han llevado a cabo en niveles de educación media y media superior [1]. Los puntos más relevantes para una enseñanza adecuada de conceptos termodinámicos los aborda Arons [2], mientras que otras formas de acercarse a la conceptuación se encuentran en los libros de Swartz y Miner [3] y de Knight [4]. En general, estos últimos autores mencionan que los errores de concepto (EC) más comunes son que el calor es una propiedad independiente de la masa de un objeto y la temperatura es una medida de su intensidad [5]. Asimismo, también señalan que con frecuencia se considera que calor y temperatura son sinónimos.

De entre las causas de confusión encontradas en la literatura, sobresale la argumentación de Jewett sobre el uso del lenguaje [6]. Su línea de razonamiento establece que la palabra calor no es un nombre en sí misma; es el nombre de un proceso –por el cual la energía se transfiere– pero no es el nombre de lo que se transfiere. De acuerdo con esto, el uso de frases como “transferencia de calor”, “flujo de calor” y “el calor irradiado hacia fuera”, representan usos incorrectos de la palabra calor, al referirse realmente a la energía. Por ejemplo, la primera de ellas, “transferencia de calor” significaría “transferencia de transferencia de energía”. A su vez, un posible origen de toda la confusión es que la multicitada palabra se utiliza en el lenguaje cotidiano de formas muy libres, como por ejemplo, “hace calor”, “tengo calor”, etc. Jewett arguye que no es posible lograr que toda la población utilice el término de la manera en nosotros lo usamos, pero sí podemos lograr que una fracción de ella, nuestros estudiantes, lo utilice al menos en las discusiones, exámenes y disertaciones de acuerdo con su significado físico.

Antonio Lara-Barragán Gómez y Alberto Santiago Hernández

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 400 http://www.journal.lapen.org.mx

Por otro lado, en otro estudio conducido por Yeo y Zadnik [7], los investigadores aseguran que, entre los estudiantes jóvenes, las creencias tienen un estatus superior al que tiene el conocimiento puesto que éstas “se consideran verdades irrefutables pues no requieren demostración o justificación”. En particular, en el tema que nos ocupa, Yeo y Zadnik reportan que muchos de los conceptos que tienen los estudiantes dependen del contexto, y las explicaciones sólo las relacionan con situaciones aisladas o únicas. Además, tienden a no aplicar lo “aprendido” en las aulas a situaciones cotidianas, sino que es más probable que utilicen concepciones alternativas, tales como sus creencias. También argumentan que frases cotidianas como “tomar la temperatura a alguien” conducen a las creencias que causan confusión y conflicto con los conceptos físicos. Esto se relaciona muy cercanamente con los argumentos de Jewett.

Dos trabajos reportados a principios de la década de los 90’s, muestran que la inquietud por la cantidad de errores conceptuales en Calor y Temperatura, no es nueva. El primero de ellos, de Bauman [8] muestra líneas de argumentación que critica los libros de texto de esa década, así como el uso inapropiado del lenguaje en el salón de clases. De acuerdo con él, tal uso de lenguaje acarrea como consecuencia la “perpetuación de errores de concepto” y trabaja en contra de nuestros mayores esfuerzos por aclarar los significados. Así, de acuerdo con Bauman, una de las dificultades es que la terminología empleada forma parte del lenguaje profano cotidiano, por lo que el uso generalizado y conceptualmente indiscriminado representa un serio obstáculo para una conceptuación adecuada. El segundo trabajo, de Ralph Baierlein [9], presenta un estudio exhaustivo sobre el concepto de temperatura, en el que subraya lo que él denomina el error de concepto más común: temperatura absoluta significa energía cinética promedio (hasta un factor constante). Este mismo error es señalado y documentado por Swartz y Miner [3] y Knight [4]. De acuerdo con la discusión de Baierlein, tal interpretación de la temperatura proviene de una interpretación errónea de las ecuaciones de la Teoría Cinética de los Gases en las que, efectivamente, la temperatura juega un papel esencial para determinar propiedades del sistema relacionadas con la energía, pero de ninguna manera proporcionan una interpretación o definición de la temperatura.

A partir de estas observaciones, surge nuestra necesidad de identificar los conceptos que poseen estudiantes de primer ingreso a la universidad con la finalidad de aplicar una estrategia didáctica diseñada ad hoc para compararla, de acuerdo con los resultados obtenidos después de su aplicación, con un método tradicional de enseñanza. Las hipótesis que guiaron el presente trabajo son: (a) es posible identificar y clasificar los preconceptos y errores de concepto de estudiantes de nuevo ingreso (b) la aplicación de una estrategia de enseñanza diseñada expresamente para enfrentar los errores de concepto identificados puede ayudar para

superarlos. La metodología utilizada en esta indagación se describe en la siguiente sección. II. METODOLOGÍA Siguiendo a Cohen y Manion [10] se sigue un diseño cuasi experimental para el que se selecciona un grupo de control y dos grupos experimentales. El diseño sigue el esquema Oi-X-Of donde Oi representa la observación inicial (pretest), X la aplicación de la propuesta de enseñanza y Of la observación final (postest). En los grupos experimentales se aplica el esquema completo, mientras que en el grupo de control no se aplica la propuesta de enseñanza, sino solamente se realizan las observaciones inicial y final. En estos esquemas lo que se denomina observación consiste en una prueba de diagnóstico. De esta manera, la metodología consta de cinco etapas: en la primera se seleccionan los grupos experimentales y de control. La segunda consiste en el acopio de material pertinente (investigación documental), mientras que en la tercera etapa se desarrolla la prueba de diagnóstico. En la cuarta se aplica el examen como pretest y postest y la quinta etapa tiene como finalidad analizar los datos y evaluar la propuesta de enseñanza.

Los grupos experimentales y de control forman parte de los grupos de primer ingreso al Centro Universitario de Ciencias Exactas e Ingenierías (CUCEI) de la Universidad de Guadalajara (UdG). Por consiguiente, los antecedentes académicos de los estudiantes participantes se remontan al bachillerato. Los grupos experimentales se denominaron, arbitrariamente, grupo 1 y grupo 2. El grupo 1 tuvo un total de 24 alumnos, mientras que el grupo 2, 20 alumnos. Es de hacer notar que el sexo de los alumnos no se consideró como una variable, sino solamente que fuesen estudiantes de primer ingreso provenientes del bachillerato en áreas relacionadas con las ciencias básicas, física, química y matemáticas.

La selección del grupo de control se realiza de acuerdo con resultados previos sobre la práctica docente de algunos de los profesores adscritos al Departamento de Física del CUCEI de la UdG [11]. Se pidió al profesor cuya perfil docente se acerca más a la práctica tradicional (clase mayormente expositiva) su apoyo para utilizar su grupo como grupo de control. Este grupo también fue del turno vespertino y tuvo un total de 30 alumnos participantes.

El grupo de control se conduce de manera tradicional, esto es, siguiendo un método esencialmente expositivo, centrado en el contenido y en profesor, mientras que los grupos experimentales se conducen siguiendo la estrategia didáctica descrita en la sección V.

La prueba de diagnóstico desarrollada consiste de 25 reactivos de opción múltiple. Esto se llevó al cabo de la siguiente manera. Lo primero que se hizo fue seleccionar, con base en las experiencias previas, conceptos que presentan dificultad para los estudiantes de nuevo ingreso a la universidad de acuerdo con las discusiones anteriores, tomando como base el examen de Yeo y Zadnik [7] y el de

Detección y Clasificación de Errores Conceptuales en Calor y Temperatura

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 401 http://www.journal.lapen.org.mx

(%) (%)100% (%)

postest pretesthpretest−

=−

Meltzer [5]. Tal examen se aplicó en el semestre Agosto-Diciembre de 2009 al inicio y al final como pretest y postest, respectivamente.

El instrumento de diagnóstico así diseñado sigue un lineamiento estrictamente conceptual con las siguientes características: 1. Es un examen exclusivamente de diagnóstico y no

para medir algún tipo de conocimiento como sería el caso de un examen de acreditación.

2. Por ser un examen de diagnóstico cuya finalidad es, por un lado, detectar errores conceptuales (EC) para posteriormente clasificarlos. Por otro lado, el diseño de las preguntas es tal, que permite evaluar habilidades de pensamiento, creencias de sentido común y EC, por lo que tal examen no es susceptible de validación por métodos semejantes al análisis de Rasch [12] que, entre otras cosas, sus resultados hablan del grado de dificultad de cada reactivo con base en el número de respuestas correctas, resultado a posteriori que podría ser discutible.

III. RESULTADOS En esta sección se analizan los resultados correspondientes al promedio de respuestas correctas en la prueba de diagnóstico. Esto es, aquí se consigna el valor de la media estadística y su desviación estándar para los grupos experimentales y el de control, así como los resultados globales de los tres grupos. La naturaleza del examen de diagnóstico no permite un cálculo directo simple de la media en las respuestas correctas, por lo que se ha considerado que la forma más adecuada para realizar este análisis es mediante el uso de la distribución binomial [13]. Así, la aplicación de las fórmulas se realiza de la siguiente manera: Para la media se tiene npµ = , mientras que para la desviación estándar se tiene

npqσ = , donde p es la probabilidad favorable (o éxito), q la probabilidad desfavorable (o fracaso), tal que q =1-p, y n el número de pruebas repetidas. En este caso, n representa el número total de reactivos del examen, esto es n = 25. La probabilidad p se calcula dividiendo el número total de respuestas correctas –la que a su vez no es más que la suma de todas las respuestas correctas para un grupo dado- entre el número total de preguntas contestadas por ese grupo, que se calcula multiplicando n por el número de estudiantes.

Por otro lado, dentro de los estudios que se han realizado para evaluar los resultados de exámenes de diagnóstico análogos al que aquí se ha aplicado, existe el llamado factor de Hake [14], el cual representa una medida de la ganancia posible (mejora, adelanto). Richard Hake, de la Universidad de Indiana estudió los resultados de un examen de diagnóstico de características similares a las del examen aquí utilizado, aplicado de la misma manera que en el caso presente, pero a más de 6 500 estudiantes de 62 cursos similares al curso Física y al curso Introducción a

la Física [14]. Hake encontró que los cursos en los que se utiliza algún método interactivo -basado en un programa educativo reformado con base en lo que se denomina Investigación Educativa en Física o, de sus siglas en inglés, PER (Physics Education Research)- obtuvieron muy altas ganancias posibles en comparación con cursos tradicionales. Encontró también que en diferentes instituciones con diferentes resultados en exámenes de opción múltiple estandarizados (que van desde el 25% al 75%), los cursos de Física con estructuras similares, alcanzan proporciones similares de ganancia posible. Entonces, el factor de Hake es un buen indicador del mérito académico de un método de enseñanza.

Los resultados generales en la Universidad de Indiana muestran que los grupos con enseñanza tradicional tienen un factor de Hake de 0.16, mientras que los basados en cursos con métodos de enseñanza basados en PER, muestran factores de Hake que oscilan entre 0.35 y de 0.41, dependiendo de los métodos de enseñanza utilizados. El factor de Hake es:

. (1)

En este trabajo se ha calculado el factor de Hake para los resultados obtenidos de la prueba de diagnóstico, los cuáles se presentan a continuación. La Tabla I siguiente muestra los resultados de la aplicación de la prueba de diagnóstico. La media reportada se refiere al promedio de respuestas correctas en los grupos experimentales. La Tabla II resume los mismos resultados para el grupo de control. Se evidencia un aumento en los valores de la media, tanto como en la desviación estándar, lo cual indica un pequeño aumento en la dispersión del número de respuestas correctas. En términos generales, el Grupo 1 aumentó sus respuestas correctas en un 49.9%, mientras que el Grupo 2 en un 76.8%. En contraste, el grupo de control logró un 20.2% de aumento en respuestas correctas.

Con los resultados de las Tablas I y II se calcula factor de Hake (ecuación 1), cuyos valores se resumen en la Tabla III, los cuales muestran que la estrategia didáctica empleada (Secc. V) tuvo éxito en ambos grupos experimentales; puede verse que inclusive el grupo experimental 2 (GE2) supera los valores reportados por Redish y Steinberg [14]. TABLA I. Media y desviación estándar para pretest y postest en grupos experimentales.

Grupo 1 Grupo 2

Media Desviación estándar

Media Desviación estándar

Pretest 9.17 2.41 Pretest 8.90 2.39

Postest 13.75 2.49 Postest 15.74 2.41

Antonio Lara-Barragán Gómez y Alberto Santiago Hernández

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 402 http://www.journal.lapen.org.mx

TABLA II. Media y desviación estándar para pretest y postest en el grupo de control.

Media Desviación estándar

Pretest 9.87 2.44

Postest 11.86 2.50

TABLA III. Factores de Hake para el grupo de control (GC) y los grupos experimentales (GE1 y GE2).

Factor de Hake

GC 0.13 GE1 0.29 GE2 0.42

IV. ANÁLISIS DE ERRORES CONCEPTUALES En esta sección se presentan los EC que mayor frecuencia obtuvieron en los resultados del pretest, los cuales se han clasificado en cuatro categorías: Calor, Temperatura, Transferencia de energía y cambio de temperatura, y Propiedades térmicas de las sustancias. Para cada uno se especifica, en forma de porcentaje, la incidencia de cada uno de ellos. El pretest se aplicó a un total de 74 estudiantes.

1. Calor a. El frío es algo que se puede transferir de un

cuerpo a otro. 75.7% b. El calor y el frío son sustancias. (En el sentido de

que son como el agua que puede fluir dentro de una tubería, el frío y el calor pueden fluir dentro de un metal) 66.2%

c. Un cuerpo frío no contiene calor (frío se define como ausencia de calor). 97.3%

d. Calor y temperatura se refieren a lo mismo. 79.7%

2. Temperatura a. Temperatura es la medida del calor. 95.9% b. Temperatura y calor no están relacionados con

transferencia de energía. 60.8% c. La temperatura de un cuerpo depende de su

tamaño. 66.2%

3. Transferencia de energía y cambio de temperatura

a. El proceso de calentar siempre conduce a un aumento de temperatura. 91.8%

b. El calor sólo se “mueve” de abajo hacia arriba (como el caso de la convección en el agua). 90.5%

c. La temperatura puede transferirse de un cuerpo a otro. 90.5%

4. Propiedades térmicas de las sustancias a. El punto de ebullición del agua es únicamente

100°C. 60.8% b. El hielo está a 0°C y no puede cambiar su

temperatura. 63.5% c. El agua no puede estar a 0°C. 66.2% d. El vapor está a más de 100°C. 71.6% e. Los objetos que se calientan rápidamente no

necesariamente se enfrían rápidamente. 59.5% f. Las burbujas en el proceso de ebullición del agua

contienen aire u oxígeno. 90.5% g. Materiales diferentes contienen la misma cantidad

de calor. 66.2% Estos resultados concuerdan mayormente con los EC reportados en la literatura. Uno que no aparece es el de la “definición de frío” como ausencia de calor. Este EC es especialmente significativo, pues en entrevistas informales, se evidencia que es la manera como se define en el ciclo escolar anterior. V. ESTRATEGIA DIDACTICA Uno de los EC más comunes es el de “temperatura es la medida del calor”. Así que antes de llegar al concepto adecuado de calor es conveniente dejar en claro algunas situaciones. La primera es que muchos de los conceptos tienen que ver con una experiencia directa, por lo que será importante convertir el aula en un laboratorio rudimentario. La siguiente estrategia didáctica contiene elementos propuestos por Arons [2], aunados a otros desarrollados a partir de nuestra propia experiencia. El tema puede comenzar con la pregunta: ¿cómo sabemos que un objeto está caliente? La respuesta es tan obvia que el grupo no puede dar la respuesta: “lo tocamos y lo sentimos.” Bien; ahora, siguiente pregunta: ¿Qué ocurre cuando ponemos en contacto un objeto caliente con otro frío? Ya en confianza siempre habrá alguien que conteste en términos de temperaturas, pero lo aconsejable en este momento es tratar de que lo expliquen en términos más intuitivos, asociados con sensaciones. Al fin alguien contestará con éstas u otras palabras semejantes: “El frio se calienta y el caliente se enfría”. Bien; siguiente cuestión. Como en física estamos interesados en mediciones y números objetivos, para una situación en la que tenemos, por ejemplo tres recipientes, uno lleno de agua recién obtenida de un grifo, otro con agua que se ha calentado a la flama durante unos minutos y un tercero con agua hirviente, ¿cómo podemos cuantificar qué tan caliente está el agua en cada recipiente? Es claro que necesitamos una escala definida en unidades apropiadas. Es así que se llega a conceptuar la temperatura como la medida de qué tan caliente está un objeto en una escala adecuada [9]. Ahora, ¿qué ocurre, en términos de temperaturas, en el caso anterior cuando aproximamos dos

Detección y Clasificación de Errores Conceptuales en Calor y Temperatura

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 403 http://www.journal.lapen.org.mx

1 2

2eqT TT +

=

1 2 2 12 ( )eq eq eqT T T T T T T= + ⇒ − = − −

1 12 2 1 1

2 2

eq

eq

T T m m T m TT T m

−= ⇒ ∆ = − ∆

objetos uno caliente y otro frío? ¿cómo explicar lo que sucede cuando tenemos juntos dos objetos a diferentes temperaturas? La respuesta a la que deben llegar para la primera pregunta es que “llega un momento en que se igualan sus temperaturas”, mientras que para la segunda es: “el caliente le transfiere energía al frío”. El punto es que por diálogo socrático [15] hemos de hacer llegar a los alumnos y alumnas a tales respuestas. Desde esta perspectiva podemos, ahora, evocar la noción de interacción que debe haberse desarrollado previamente en otros temas relacionados con fuerzas (por ejemplo, Gravitación o Electricidad) para hacer ver que, primero, la temperatura se concibe como un número observado en un la escala de un termómetro, mientras que la palabra “calor” se reserva para una nueva idea: la interacción asociada con los cambios de temperatura. De esta manera se aclara que tal interacción, que puede denominarse interacción térmica, no es lo mismo que las lecturas en el termómetro.

En este momento de la clase se hace mención de que en las interacciones térmicas, como en todo tipo de interacción, existe un proceso involucrado por el que un sistema (u objeto) influencia a otro con el resultado que los estados iniciales de cada uno cambian, y las lecturas del termómetro por sí solas no describen la interacción. Joseph Black (1728-1799) fue el primero que identificó este proceso y lo bautizó con el nombre de “transferencia de calor” y es a él a quien debemos la definición de calor en este sentido, lo que lo distingue de la temperatura. Por consiguiente, en la terminología científica, calor y temperatura no son intercambiables, mucho menos sinónimos. Finalmente, debe quedar perfectamente claro que cuando hablamos de calor, nos referimos estrictamente a un proceso de transferencia de energía por el que cambia la temperatura de al menos uno de los objetos que interacciona térmicamente. A partir de aquí se discuten las diferentes escalas de temperatura y las unidades para medir el calor, así como la descripción de los diferentes procesos de transferencia de energía, convección, conducción y radiación. Una vez inventado el concepto cualitativo de calor como transferencia de energía, debemos transitar hacia lo cuantitativo, esto es, ¿cómo idear una manera de medirlo cuantitativamente para hablar de la “cantidad de energía transferida”? Un fundamento razonable para ello está dado por las ideas de un gran número de predecesores de Black, las cuales fueron refinadas e interpretadas claramente por Black mismo. La idea se basaba en la observación del comportamiento del agua de la manera siguiente: cuando dos cantidades iguales de agua, inicialmente a diferentes temperaturas, se mezclan, se observa que la temperatura final es prácticamente igual al promedio de las dos temperaturas iniciales (siempre que se evite o no se considere la interacción con un tercer sistema o con los alrededores). Algebraicamente, esto significa que:

. (2)

Donde Teq es la temperatura final de la mezcla, esto es, la temperatura de equilibrio térmico, T1 y T2 son las temperaturas iniciales de las dos muestras de agua. De aquí es cuestión de pasos algebraicos estándar concluir que:

. (3) Lo que significa que los dos cambios de temperatura (definidos de la manera estándar, valor final menos valor inicial) son iguales en magnitud y opuestos en signo.

El siguiente paso es analizar el caso cuando se mezclan cantidades de agua diferentes que se encuentran a temperaturas iniciales diferentes. La evidencia experimental muestra que la temperatura final no es el promedio entre las dos temperaturas iniciales, sino que siempre está más cerca del valor de la temperatura inicial de la masa de agua mayor. De hecho, los dos cambios de temperatura resultan ser inversamente proporcionales a las masas de agua, y la masa mayor experimenta el cambio menor.

Algebraicamente, habrá que probar que se cumple la relación:

. (4) Donde m1 y m2 son las masas de las diferentes muestras de agua, y ΔT1 y ΔT2 los cambios respectivos en las temperaturas.

En este momento debe hacerse notar, por un diálogo socrático [15], que el número final del lado izquierdo de la última ecuación solo depende de los números asociados con el agua a menor temperatura, mientras que el número final del lado derecho solo depende de los números asociados con el agua a mayor temperatura. Por consiguiente, cada lado de la ecuación describe algo que “aconteció” a cada cantidad de agua por separado. Entonces, esta situación conduce a pensar que el número m2ΔT2 del lado izquierdo de la ecuación 4 representa la cantidad de energía ganada por el agua a menor temperatura, y el número m1ΔT1 del lado derecho, la cantidad de energía perdida por el agua a temperatura mayor.

El siguiente paso es hacer notar que en la interpretación de los números de las dos últimas ecuaciones como cantidades de energía transferidas (como cantidades de calor), se ha implicado inmediatamente que también hemos “creado” una unidad de medida. De aquí la definición de caloría como la cantidad de energía transferida (cantidad de calor) que cambia la temperatura de 1 g de agua en 1°C. A. Calor específico y capacidad calorífica Para introducir el concepto de capacidad calorífica se hace referencia a los experimentos de Black por los que demostró que la ecuación 3 no predecía correctamente el cambio de temperatura si eran dos sustancias diferentes las que interactuaban térmicamente; esto es, si una sustancia

Antonio Lara-Barragán Gómez y Alberto Santiago Hernández

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 404 http://www.journal.lapen.org.mx

S S S a ac m T m T∆ = − ∆

es agua y la otra es hierro, cobre o algún otro material. También demostró que usando el volumen en lugar de la masa para medir la cantidad de material, tampoco satisfacía la ecuación, mientras que si usaba la masa siempre se satisfacía.

Los experimentos realizados, condujeron a Black a concluir que, aunque las otras sustancias se comportaban térmicamente de manera diferente que el agua, cada sustancia podía compararse sistemáticamente con el agua en cuanto a su capacidad para cambiar su temperatura con transferencias de calor. Por ejemplo, se encuentra que 100 g de mercurio siempre se comportan como 3.3 g de agua, lo que significaba que el agua tenía una mayor “capacidad” para el calor, en el sentido de que una cantidad de calor dada le produciría, a 100 g de agua, un cambio de temperatura menor que el que le produciría a 100 g de mercurio.

Como Black encontró que tales comparaciones eran mensurables y reproducibles, introdujo una constante de proporcionalidad que describía esta idea, multiplicando al producto mΔT , por lo que la ecuación se modificaba a:

. (5) Donde cs es la constante de proporcionalidad sugerida.

En la ecuación anterior, el término de la derecha representa la cantidad de calor ganado o perdido por ma gramos de agua, mientras que csmsΔTs representa el calor ganado o perdido por alguna otra sustancia s. Si s es agua, cs = 1, mientras que si es otra sustancia, la cantidad csms se interpreta como la relacionada con una cantidad de agua equivalente; por ejemplo, en el caso del mercurio, para el que el valor numérico citado, 100 g eran equivalentes a 3.3 g de agua, cs para el mercurio debe ser 0.033. Siguiendo a Black, la cantidad cs se denomina “calor específico” o “capacidad calorífica” de la sustancia.

El siguiente paso es la determinación de las unidades de cs por medio de un análisis de unidades de las cantidades con las que se relaciona en los términos de la ecuación con la aclaración de que para masa en gramos y temperatura en grados Celsius, la unidad de calor es el caloría, por lo que las unidades de calor específico deben ser cal/g°C. Existen, además, otras unidades de uso común aparte de la caloría. La cantidad de calor que eleva la temperatura de 1 kg de agua en es 1000 cal y se denomina kilocaloría (kcal).

Lo que sigue a continuación es el uso de las ecuaciones y conceptos anteriores en la mayor cantidad de ejemplos y problemas posibles, dadas las condiciones de tiempo. B. Confrontación de otros errores Otros dos EC significativos por su incidencia son que el vapor se encuentra a más de 100°C y que dentro las burbujas que se forman en la ebullición (del agua) hay aire u oxígeno. Para el primero de ellos basta una confrontación experimental que se puede desarrollar fácilmente como experimento de cátedra o dejarse como

tarea. En una tetera se pone a calentar agua hasta la ebullición. Puede observarse que por la boca de salida de la tetera sale lo que comúnmente se denomina vapor, el cual es visible. Una observación cuidadosa de la región muy cercana a la boca de salida evidencia que el “vapor” visible se forma alrededor de un milímetro de distancia; antes de ello no se observa nada. Por consiguiente, lo que estamos observando, no es realmente vapor, el cual no es visible pues está formado por moléculas de agua de alta energía cinética de traslación. Lo observable agua líquida, el vapor se ha condensado por contacto con el aire y en consecuencia su temperatura es menor a 100°C. Lo invisible se encuentra, cuando más a 100°C.

Por otro lado, sobre el contenido de las burbujas, cuando la respuesta es “aire”, se pueden hacer estas preguntas u otras semejantes: “¿Y de dónde sale ese aire? ¿cómo puede atraparse dentro de la burbuja? ¿su presencia no aumenta la densidad de la burbuja y por tanto no flotarían?” Si el comentario del alumnado es que dentro de la burbuja hay oxígeno, se puede preguntar: “¿De dónde proviene el oxígeno? ¿la temperatura de ebullición es suficiente como para disociar la molécula de agua? ¿por qué no hay también hidrógeno?” Después de la confrontación, por diálogo socrático se lleva a que los estudiantes concluyan que el contenido de la burbuja es agua en fase gaseosa. VI. CONSIDERACIONES FINALES De los resultados obtenidos se ha probado la veracidad de las dos hipótesis iniciales. La clasificación de errores conceptuales en las cuatro categorías propuestas muestra que existen, efectivamente, fuentes de desorientación conceptual. Nos parece claro que algunos de los errores conceptuales han sido imbuidos por los profesores que nuestros alumnos tuvieron en ciclos anteriores, como el más acusado de “frío es la ausencia de calor” y los referidos a la categoría 3, transferencia de energía y cambio de temperatura. Algunos otros son producto de la interpretación inexperta de experiencias cotidianas como que el vapor se encuentra a más de 100°C.

Los resultados muestran, también, que la estrategia desarrollada produce resultados satisfactorios en la superación de errores conceptuales. Los factores de Hake indican que, en promedio, la cantidad de respuestas correctas al cuestionario conceptual aumentó, lo que quiere decir que los estudiantes lograron una mejor concepción y percepción de los fenómenos físicos en cuestión.

Conocer los EC dominantes de nuestros estudiantes antes de comenzar un curso o un tema, es una condición para lograr superarlos por medio del desarrollo de estrategias didácticas ad hoc. La premisa que guía este trabajo y debe guiar cualquier otro, es que el aprendizaje es la meta suprema de todo esfuerzo educativo; nadie puede decir que ha enseñado algo si el sujeto de la enseñanza no logró aprender. El caso de los conceptos de calor y temperatura, por manejarse frecuentemente en la vida cotidiana, han de ocupar un lugar prioritario en el

1OC

Detección y Clasificación de Errores Conceptuales en Calor y Temperatura

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 405 http://www.journal.lapen.org.mx

quehacer educativo en todos los niveles. La estrategia didáctica presentada, muestra una secuencia paso a paso de su enseñanza y puede constatarse, por los resultados del valor del factor de Hake, que ha funcionado en nuestro caso. VII. REFERENCIAS [1] Una extensa revisión puede encontrarse en McDermott, L. C. y Redish, E. F., Resource Letter: PER-1: Physics Education Research, American Journal of Physics 67, 755-767 (1999). Secc. IV A 4. También puede consultarse: www.physics.iastate.edu/per/index.html. [2] Arons, A. B., Teaching Introductory Physics, (John Wiley and Sons Inc. USA, 1997). Cap. 3, Tercera Parte. [3] Swartz, C. E. and Miner, T., Teaching introductory physics: a sourcebook, (Springer-Verlag New York, Inc., 1998). [4] Knight, R. D., Five Easy Lessons. Strategies for Successful Physics Teaching, (Addison-Wesley, San Francisco, 2004). [5] Meltzer, D. E., Investigation of students’ reasoning regarding heat, work and the first law of thermodynamics in an introductory calculus-based general physics course, American Journal of Physics 72, 1432-1446 (2004). [6] Jewett, J. W., Energy and the Confused Student III: Language, The Physics Teacher 46, 149-153 (2008). [7] Yeo, S. and Zadnik, M., Introductory Thermal Concept Evaluation: Assessing Students’ Understanding, The Physics Teacher 39, 496-504 (2001).

[8] Bauman, R. P., Physics that Textbook Writers Usually Get Wrong. II Heat and Energy, The Physics Teacher 30, 6, 353-356 (1992). [9] Baierlein, R., The Meaning of Temperature, The Physics Teacher 28, 94-96 (1990). [10] Cohen, L. y Manion, L., Métodos de Investigación Educativa, (Editorial La muralla, Madrid, 1990). Cap.8. [11] Lara-Barragán Gómez, A., Aguiar Barrera, M. A., Cerpa Cortés, G. y Núñez Trejo, H., Relaciones Docente-Alumno y Rendimiento Académico. Un caso del Centro Universitario de Ciencias Exactas e Ingenierías de la Universidad de Guadalajara. Sinéctica, 33, (2009). http://portal.iteso.mx/portal/page/portal/Sinectica/Revista/SIN33_03 [12] Tristán-López, Análisis de Rasch para todos. San Luis Potosí, International Engineering and Statistics, (1998). [13] Walpole, R. E., Myers, R. H. y Myers, S. L., Probability and Statisticsfor Engineers and Scientists, (Prentice Hall, Upper Saddle River, N. J., 1998) [14] Redish, E. F. and Steinberg, A., Teaching Physics: Figuring Out What Works, Physics Today 52, 24-30 (1999).. [15] Julian, G. M., Socratic dialogue –with how many?, The Physics Teacher 33, 338-339 (1995).

ANEXO

Cuestionario conceptual sobre calor y

temperatura El siguiente cuestionario tiene fines exclusivamente estadísticos; no influirá en tu calificación. Contéstalo de manera anónima y por ti mismo. Los resultados serán de utilidad para mejorar los procesos educativos en la universidad, por lo que es importante tu colaboración. Gracias.

1. ¿Cuál es la temperatura más probable de los

cubos de hielo que se encuentran en el congelador de un refrigerador de casa?

a. -10°C b. 0°C c. 5°C d. Depende del tamaño de los cubos

2. Supón que sacas cuatro cubos de hielo del

congelador, luego agitas el agua con el hielo hasta que éste se derritan por completo. ¿Cuál es la temperatura más probable del agua en ese momento?

a. -10°C b. 0°C

c. 5°C d. 10°C 3. Sobre la parrilla de la estufa se encuentra una

cafetera metálica llena de agua. El agua ha comenzado a hervir rápidamente. La temperatura más probable del agua es alrededor de:

a. 88°C b. 97°C c. 110°C d. Ninguno de los anteriores

4. Cinco minutos después, el agua en la cafetera

sigue hirviendo. Ahora la temperatura más probable del agua es alrededor de:

a. 88°C b. 97°C c. 110°C d. 120°C

5. ¿Cuál crees que sea la temperatura del vapor

que sale de la cafetera mientras hierve el agua? a. 88°C b. 97°C c. 110°C d. 120°C

Antonio Lara-Barragán Gómez y Alberto Santiago Hernández

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 406 http://www.journal.lapen.org.mx

6. Al observar el agua mientras hierve, ves las burbujas que se forman, ¿qué crees que hay dentro de las burbujas?

a. Aire b. Oxígeno e hidrógenos gaseosos c. Vapor de agua d. Nada

7. Una persona cree que debe usar agua

hirviendo para preparar una taza de té, y te dice: “No podría hacer té si me encontrara acampando en la cima de una montaña muy alta porque el agua no hierve a grandes alturas”. ¿Cuál de las siguientes sería tu respuesta?

a. “Claro que sí hierve, pero a una temperatura menor que aquí en la ciudad”

b. “Eso no es cierto, el agua siempre hierve a la misma temperatura”

c. “El punto de ebullición del agua disminuye, pero el agua misma todavía se encuentra a 100 grados”

d. “Estoy de acuerdo, en la cima de la montaña el agua nunca llega a su punto de ebullición”

8. Supón que sacas una lata de refresco y una botella de plástico del mismo refresco del refrigerador. Ambos refrescos permanecieron dentro del refrigerador durante toda la noche. Rápidamente les mides la temperatura al refresco de la lata por medio de un termómetro que introduces en el líquido. La temperatura es de 7°C. ¿Cuál será la temperatura más probable del refresco y de la botella de plástico?

a. Ambas son menores a 7°C b. Ambas son iguales a 7°C c. Ambas son mayores a 7°C d. El refresco está a 7°C, pero la botella a una

temperatura mayor e. Depende de la cantidad de refresco y del tamaño

de la botella

9. Cinco minutos después levantas la lata de refresco y te das cuenta de que la superficie de la mesa que estaba debajo de la lata está más fría que el resto de la mesa. ¿Cuál de las siguientes explicaciones es la mejor para ese hecho?

a. Se ha transferido el frío de la lata a la mesa b. No queda energía debajo de la lata c. Algo del calor de la mesa se ha transferido a la

lata d. La lata hace que el calor por debajo de ella se

aleje a través de la mesa

10. Supón que después de cocer unos huevos en agua hirviendo, los enfrías poniéndolos en una olla de agua fría. ¿Cuál de los siguientes procesos explica mejor el enfriamiento?

a. La temperatura se transfiere de los huevos al agua b. El frío se mueve del agua a los huevos c. Los objetos se enfrían de manera natural d. Se transfiere energía de los huevos al agua 11. Una persona toma dos botellas de vidrio que

contienen agua a 20°C y las envuelve en franelas. Una de las franelas está húmeda, mientras que la otra está seca. 20 min después mide la temperatura de cada una, y encuentra que la que se envolvió con la franela húmeda está a 18°C, mientras que la otra está a 22°C. La temperatura ambiente más probable durante el experimento era:

a. 26°C b. 21°C c. 20°C d. 18°C

12. Supón que tomas simultáneamente dos envases

de cartón de leche, uno frío del refrigerador y otro a temperatura ambiente que se encontraba sobre la mesa de la cocina desde hacía un par de horas. ¿Por qué crees que el envase del refrigerador se siente más frío que el que estaba sobre la mesa? Comparado con el envase a temperatura ambiente, el envase frío…

a. Contiene más frío b. Contiene menos calor c. Es un mal conductor d. Conduce el calor más rápidamente de tu mano

hacia él e. Conduce el frío más rápidamente a tu mano

13. Es un hecho que las verduras en una olla de

presión se cocinan más rápidamente que una olla normal sin tapa. ¿Cuál crees tú que sería la explicación más adecuada?

a. Porque la presión interna hace que el agua hierva a más de 100°C

b. Porque la presión alta genera más calor c. Porque el vapor está a mayor temperatura que el

agua en que se cuecen las verduras d. Porque la presión generada hace que el calor se

reparta mejor por toda la comida

14. Cuál de las siguientes afirmaciones completa mejor la frase: “sudar refresca la piel, porque el sudor…

a. … moja la superficie, y las superficies mojadas extraen más calor que las superficies secas”

b. … saca el calor a través de los poros y lo esparce sobre la piel”

c. … está a la misma temperatura que la piel, pero se evapora y así se lleva el calor”

Detección y Clasificación de Errores Conceptuales en Calor y Temperatura

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 407 http://www.journal.lapen.org.mx

d. … es ligeramente más frío que la piel debido a la evaporación, de manera que se transfiere calor de la piel al sudor”

15. ¿Por qué utilizamos suéteres o chamarras cuando hace frío?

a. Para mantener el frío afuera b. Para generar calor c. Para reducir la pérdida de calor d. Las tres anteriores 16. ¿Cuál de las siguientes afirmaciones te parece más adecuada? a. El frío es la ausencia de calor b. Una sustancia invisible que puede fluir de un cuerpo a otro c. El frio es ausencia de temperatura d. Frio y calor es lo mismo sólo que a temperatura diferentes 17. ¿Cuál de las siguientes afirmaciones te parece la mejor definición de temperatura? a. La medida del calor de un cuerpo b. La medida de la energía cinética de las moléculas de un gas c. La lectura en un termómetro d. La medida de qué tan caliente está un cuerpo 18. El calor es… a. La cantidad de energía que tiene un cuerpo b. La temperatura alta que tiene un cuerpo c. Una sustancia invisible que puede fluir de un cuerpo a otro d. La energía que se transfiere de un cuerpo caliente u otro frío 19. La temperatura de un cuerpo… a. Es independiente del volumen del cuerpo b. Depende del volumen del cuerpo c. Depende de la cantidad de masa del cuerpo d. Es independiente de la masa y del volumen del cuerpo 20. Supón que calientas 1 litro de agua en una estufa durante un cierto tiempo, de tal manera que su temperatura se eleva 2 °C. Si calientas ahora 2 litros de agua, en la misma estufa durante el mismo tiempo que calentaste el primer litro, ¿en cuánto se eleva su temperatura? a. en 4 °C b. en 2 °C c. en 1 °C d. en poco más de 2 °C 21. Cuando tocas la superficie de un objeto metálico que se encuentra a la sombra, la sientes fría. Esta sensación es porque…

a. Lo frío del metal se transfiere a la mano b. Hay flujo de calor de la mano al metal c. Los metales siempre son más fríos que el cuerpo d. Las sensaciones de frío y caliente dependen de la situación 22. Supón que tienes 50 gramos de agua en un

vaso y una pieza de metal, también de 50 gramos. Ambos materiales se encuentran a la misma temperatura. ¿Cuál de las siguientes afirmaciones te parece la más adecuada para esta situación?

a. El agua y el metal contiene la misma cantidad de calor por tener la misma temperatura

b. El agua tiene más calor porque su volumen es más grande

c. El metal tiene más calor porque es más pesado d. El metal tiene menos calor porque es más denso

23. Supón que colocas al sol un vaso que contiene

100 gramos de agua y una pieza de metal también de 100 gramos. Es evidente que al cabo de unos minutos el metal está más caliente que el agua. Si los llevas a la sombra…

a. El agua se enfría más rápidamente b. El metal se enfría más rápidamente c. El agua y el metal se enfrían con la misma

rapidez

24. Para cocinar un pastel en el horno es mejor ponerlo en la charola superior del horno porque…

a. Está más caliente porque la charola de metal tiende a concentrar el calor

b. Es más caliente en la parte superior porque el aire caliente es menos denso

c. No es posible que sea más caliente en la parte superior; el horno está igual de caliente en todo el interior

d. La parte superior es más caliente porque el calor tiende a subir

25. Puede un objeto estar más caliente que otro si

tienen la misma temperatura? a. No, porque la temperatura nos indica la cantidad

de calor, entonces misma temperatura significa misma cantidad de calor

b. No, porque si uno está más caliente es porque tiene más temperatura

c. Sí, porque puede ser que uno tenga más masa que otro y por tanto más calor pero no más temperatura

d. Sí, porque calor y temperatura son cosas diferentes

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 408 http://www.journal.lapen.org.mx

Un frasco flota en el agua y se hunde en el aceite: ¿cómo los alumnos de bachillerato explican tales hechos y qué predicen para una situación más compleja?

Alejandrina Madrigal García1 y Josip Slisko2 1Universidad Autónoma de Sinaloa 2Facultad de Ciencias Físico Matemáticas, Benemérita Universidad Autónoma de Puebla. E-mail: [email protected] (Recibido el 25 de Abril de 2010; aceptado el 14 de Mayo de 2010)

Resumen Para los fenómenos de la flotación y del hundimiento, aunque a menudo forman parte de las experiencias cotidianas de los estudiantes, no es fácil para ellos construir espontáneamente los esquemas explicativos viables. Los resultados de la investigación educativa muestran que los estudiantes sostienen sobre esos fenómenos los esquemas explicativos que son monocausales (la flotación y el hundimiento se deben a una sola causa, frecuentemente relacionada con el peso u otra propiedad del cuerpo), mientras la explicación científica es policausal (la flotación de los cuerpos se debe a la relación de las intensidades de dos fuerzas de sentidos opuestos: el peso del cuerpo y el empuje del líquido). En ese artículo reportamos (1) los esquemas explicativos que sostienen los estudiantes sobre la flotación en situaciones simples (un frasco en agua o en aceite) y (2) los esquemas predictivos y explicativos para las situaciones complejas (el mismo frasco en el agua y el aceite). Igual como los estudiantes de escuela primaria y secundaria, los alumnos de bachillerato usan básicamente los esquemas monocausales y no son capaces de elaborar los esquemas policausales, incluso, en la situación compleja. Sin embargo, cuando han conocido el comportamiento hidrostático del cuerpo en la situación complejo, se pueden notar los cambios favorables en las ideas de los estudiantes. Esos cambios, en los diseños didácticos más sofisticados y con una inversión de tiempo mayor, podrían ser la base para un desarrollo cercano a los esquemas explicativos aceptados por los científicos. Palabras clave: Flotación, hundimiento, esquemas explicativos y predictivos, esquemas monocausales y policausales.

Abstract For the phenomena of floating and sinking, although they are parts of everyday students’ experiences, it is not easy for them to construct spontaneously feasible explanatory schemes. The results of educational research show that students hold, regarding to these phenomena, explanatory schemes which are monocausal (floating and sinking are due to only one cause, frequently related to the weight or other property of the body), while scientific explanation is polycuasal (floating and sinking of bodies is due to the relationship between the intensities of two opposite forces: weight of the body and buoyant force of the liquid). In this article we report (1) explanatory schemes sustained by students regarding hydrostatic behavior of small bottle in simple situation (bottle floats in water and sinks in oil) and (2) predictive and explanatory schemes of its hydrostatic behavior in a complex situation (the same bottle in water and oil). Similarly as students of primary and junior-high school, high-school students use basically monocausal schemes and are not able to elaborate polycausal schemes, even in the complex situation. Nevertheless, after they have known the hydrostatic behavior of the bottle in the complex situation, it is possible to note favorable changes in students ideas. These changes, in more sophisticated didactic designs and with major time investment, might be a base for a development toward the schemes which are nearer to explanatory schemes accepted by scientists. Keywords: Historical Floating, sinking, explanatory and predictive schemes, monocausal and policausal schemes. PACS: 01.40.-d, 01.50.My, 01.50.Pa ISSN 1870-9095

I. INTRODUCCIÓN Una de las tareas más importantes de la enseñanza de las ciencias en general, y de la física, en particular, es ayudar a los estudiantes en la construcción y la reconstrucción de los esquemas explicativos sobre los procesos naturales, lo que forma base del desarrollo de sus capacidades del

pensamiento científico [1]. La investigación educativa en la enseñanza de las ciencias ha hecho notar la importancia crucial de conocer las concepciones de los alumnos y, a su vez, ha identificado un número considerable de ideas previas y concepciones alternativas [2]. También se ha evidenciado lo complejo que es transformar estas ideas o concepciones, para lograr, mediante el llamado “cambio

Un frasco flota en el agua y se hunde el aceite: ¿cómo los alumnos de bachillerato explican tales hechos…

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 409 http://www.journal.lapen.org.mx

conceptual”, que sean los estudiantes mismos quienes construyan y acepten mejores esquemas explicativos [3, 4, 5, 6].

Entonces, no sobra destacar una vez más: Para ayudar a los alumnos a modificar sus ideas y las acerquen a las de los científicos, mediante la construcción (y/o la reconstrucción) de esquemas explicativos, hay que (1) investigar sus preconcepciones y (2) proponer experiencias de aprendizaje adecuadas que hacen posible que al final acaben introduciendo y acomodando en su pensamiento ideas nuevas más compatibles con las ideas científicas. II. EL PENSAMIENTO CAUSAL DE LOS ESTUDIANTES Y EL APRENDIZAJE DE LAS CIENCIAS La habilidad de adquirir el conocimiento causal y usarlo para razonar es una de las más importantes competencias cognitivas [7]. El conocimiento causal sobre el mundo, en el caso de que sea adecuado, nos sirve para (1) predecir con éxito los futuros acontecimientos; (2) determinar las verdaderas causas de los acontecimientos observados; y (3) seleccionar acciones idóneas para lograr nuestros objetivos.

Conceptualizar las experiencias pasadas y formar una visión del mundo y su funcionamiento es algo que todas personas hacen, incluso sin darse cuenta. Esa visión es necesaria para poder vivir en este mundo. La mayoría de las personas se inclina a imaginar el mundo como un conjunto de acontecimientos que tienen mayor o menor grado de regularidad. De tal manera, la vida se organiza tomando en cuenta la regularidad de los acontecimientos o, en las palabras de di Sessa:

“Al tratar con el mundo físico, los humanos adquieren gradualmente una elaborada noción del mecanismo, una noción sobre cómo las cosas funcionan, qué tipo de eventos son necesarios, probables, posibles o imposibles.” [8]

Elaborar la noción del mecanismo de los acontecimientos es el núcleo del pensamiento causal o, en términos generales, el pensamiento sobre las relaciones entre las causas y los efectos. La cantidad y la calidad del pensamiento causal sobre el mundo físico que poseen los alumnos es un factor importante en el aprendizaje de la ciencia escolar [9].

Las diferencias entre el razonamiento causal común, que no involucra el análisis crítico y la verificación experimental, y el razonamiento causal en ciencias, que requiere verificación experimental, afectan negativamente el aprendizaje de la ciencia escolar. Estas diferencias se deben tomar en cuenta en la enseñanza, no solamente como un obstáculo para el aprendizaje de la física sino, también, como un recurso inicial importante con que cuentan los estudiantes [10].

La más influyente teoría sobre el origen y las fases en el desarrollo del pensamiento causal en los niños fue elaborada por Piaget [11, 12, 13]. En las fases del

pensamiento precausal, los niños explican los acontecimientos atribuyendo a las cosas propiedades de voluntad y atributos humanos. Cuando su pensamiento se vuelve causal, en las explicaciones de los acontecimientos los niños comienzan acudir a las propiedades físicas de las cosas, formulando y usando reglas empíricas sobre las influencias de esas propiedades en los acontecimientos [14]. Esas reglas se llaman los esquemas explicativos.

Un esquema explicativo es el conjunto de ideas de diferentes niveles de generalidades que utilizan los niños y los estudiantes para explicar un hecho o fenómeno. En principio, pueden ser de dos tipos: esquema explicativo monocausal y esquema explicativo multicausal. El significado es claro. Un esquema explicativo es monocausal si un efecto se explica conectándolo solamente con una causa. Consecuentemente, el esquema es multicausal si, para explicar un efecto, se tienen que usar dos o más causas.

Los resultados de la investigación muestran que los niños y los estudiantes, para explicar los acontecimientos en el mundo físico, suelen usar los esquemas monocausales. Además, como se verá pronto, en sus primeros esquemas explicativos como factores causales seleccionan las propiedades observables de las cosas.

Hay que destacar que la literatura de sobre el papel de la causalidad en el aprendizaje de la ciencias escolar existe otra terminología, menos obvia, sobre las formas del pensamiento causal. Se habla [15, 16, 17, 18] de una causalidad lineal (que sería un esquema monocausal) y una causalidad no-lineal (que sería un esquema multicausal).

Aparte de la mencionada diferencia que existe entre el pensamiento causal común y científico, relacionada con la ausencia o presencia sistemática de la verificación experimental, existe una más. Mientras, los esquemas explicativos de los estudiantes suelen ser monocausales, los esquemas explicativos, aceptados científicamente, son casi siempre multicausales.

Como es bien sabido, para explicar todos los casos de los fenómenos de flotación y hundimiento, desde el punto de vista científico, es necesario reconocer que en esos fenómenos intervienen dos causas, el peso del cuerpo y la fuerza de empuje que el líquido ejerce sobre ese cuerpo. En la formulación más abstracta y derivada de la relación entre las fuerzas de peso y del empuje, el cuerpo flota si su densidad es menor que la densidad del líquido y se hunda si su densidad es mayor. De tal manera, ese esquema explicativo es multicausal. III. LA FLOTACIÓN Y EL HUNDIMIENTO DE LAS CUERPOS: LOS ESQUEMAS EXPLI-CATIVOS DE LOS NIÑOS Y ESTUDIANTES Sin embargo, la investigación educativa muestra que, para la mayoría de los estudiantes jóvenes, el primer esquema explicativo con respecto a la flotación y el hundimiento es de tipo monocausal [19, 20, 21, 22, 23]. La gran mayoría

Alejandrina Madrigal García y Josip Slisko

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 410 http://www.journal.lapen.org.mx

de ellos, el único factor causal para la flotación o el hundimiento es el peso del objeto. La minoría menciona, dependientes de la situación, otros factores más particulares: la longitud, el material, la forma, la presencia de los huecos o el aire dentro del objeto, la manera de colocar el objeto en el agua,… etc. Algunos creen que la cantidad, el tipo y la profundidad del líquido también influyan.

Existen varias investigaciones que muestran la relación entre los diferentes grados pensamiento causal, según la teoría de Piaget, y los niveles de progreso en la comprensión conceptual de la flotación en líquidos [24]. Como el concepto de densidad es un concepto abstracto, el esquema explicativo que relaciona la flotación y el hundimiento con la relación entre las densidades del cuerpo y del líquido, lo pueden construir solamente los estudiantes que han logrado alcanzar el nivel pensamiento formal. El progreso de la comprensión conceptual (cambio conceptual) depende, también, del entorno social en el que se realizan las actividades del aprendizaje [25].

Aparte de los ya mencionados factores causales relacionados con las propiedades observables de las cosas, los estudios detallados [26] demuestran la existencia de otros marcos interpretativos que emplean los estudiantes para los fenómenos de flotación y hundimiento: (a) Uniformidad de los tamaños y pesos moleculares de diferentes sustancias; (b) La direccionalidad de la presión; (c) Las fuerzas externas, como gravedad, afectan la presión; (d) La presión afecta la densidad y (e) El área afecta la acción de las fuerzas externas sobre la presión. Es obvio que estos marcos interpretativos difieren del marco conceptual científico usado para explicar los fenómenos de la flotación y del hundimiento de las cosas.

Lo que obstaculiza adicionalmente el progreso en la comprensión conceptual de la flotación y del hundimiento de las cosas es que algunos docentes y los autores de los libros de texto comparten con los estudiantes iguales o similares ideas erróneas sobre la flotación y el hundimiento de las cosas [27].

No se trata de un síndrome localizado en un solo país, sino de algo más universal. Por ejemplo, Barral [28] reporta que hay alumnos españoles que piensan erróneamente que los cuerpos ligeros flotan sobre la superficie de agua sin que tengan parte alguna sumergida en el agua. Sin embargo, un libro de texto de física publicado en México obliga a los estudiantes que usan ese libro “aprender” precisamente esa idea errónea como un hecho científico [29].

Además, el mismo libro de texto afirma erróneamente: “Si el peso de un cuerpo es menor al empuje que

recibe, flota porque desaloja menor cantidad de líquido que su volumen.” (p. 55)

Esa afirmación errónea se refuerza visualmente en el dibujo relacionado: el vector que representa la fuerza de empuje (E) tiene mayor longitud que el vector que representa el peso del cuerpo (P).

IV. LA MUESTRA ESTUDIANTIL Y LA METODOLOGÍA DE INVESTIGACIÓN En este artículo se presentan los primeros resultados de un estudio realizado a alumnos de tercer grado de bachillerato, en una de las escuelas de la Universidad Autónoma de Sinaloa (UAS). El objetivo de este estudio es investigar cómo esos estudiantes construyen sus esquemas predictivos y explicativos para los fenómenos de flotación y hundimiento de los cuerpos, en situaciones sencillas y situaciones complejas.

La investigación se realizó por medio de entrevistas grabadas que a continuación se describen. Fue realizada a 32 alumnos de tercer año de bachillerato cuya elección fue al azar.

Las entrevistas se realizaron formando ocho equipos de cuatro alumnos. En los primeros cuatro equipos, la parte principal del equipo para demostraciones consistió de a un frasco de plástico opaco. Al frasco se le agregó arena, suficiente para que apenas flotara en un recipiente con agua y se hundiera hasta el fondo al introducirlo en un recipiente con el aceite de comer.

A los otros cuatro equipos se utilizó un frasco de vidrio transparente que también se calibraba con arena hasta que flotara en agua y se hundiera en el aceite de comer. Estos detalles no lo sabían los alumnos porque se hacia antes de las entrevistas.

En la estructuración de las entrevistas se usaba la secuencias Predecir – Observar – Explicar [30]. De tal manera, antes de introducir los frascos en el agua y el aceite, se les preguntaba a los alumnos qué sucedería (fase de Predicción). Después de introducirlos en los líquidos, ellos pudieron observar el comportamiento del frasco (fase de Observación). Finalmente, se les preguntaba que explicaran lo observado (la fase de Explicación).

A la situación en que frasco se introduce en un solo líquido, sea ese el agua o el aceite, la nombramos como “situación sencilla”. Lo desafiante de esas situaciones es que una, el frasco flota y en la otra se hunde. De tal manera se pretende que los estudiantes examinen críticamente la idea de que los cuerpos de dividen en los que solamente flotan y los que solamente se hunden. V. LOS RESULTADOS PARA LAS SITUA-CIONES SENCIAS

A. Frasco dentro del agua

La primera situación sencilla, en que el frasco flota en el agua, está presentada en la Figura 1.

La mayoría de los estudiantes revela que considera que el peso del frasco es el único factor que determina si el frasco se flota o se hunde en el agua. Sin embargo, como fue encontrado en los estudios anteriores, también aparecen otros factores relacionados con el frasco. Para conocer los detalles, ver la Tabla I.

Un frasco flota en el agua y se hunde el aceite: ¿cómo los alumnos de bachillerato explican tales hechos…

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 411 http://www.journal.lapen.org.mx

FIGURA 1. El frasco flota en el agua.

TABLA I. Los esquemas de los estudiantes comentados. * Flota porque tiene poco peso. * Se hunde porque es pesado. Comentario: Se nota que se necesita aclarar qué es flotar y hundir. Los estudiantes ajustan su esquema explicativo según lo que creen ver (flotar – poco peso; hundir – pesado). * Flota porque tiene aire adentro. * Flota porque es de plástico. * Los objetos dentro del agua flotan o se hunden debido a su forma. * Flota porque esta cerrado y no le entra agua. Comentario: Estos esquemas son monocausales, usando un factor diferente de peso. *El peso del frasco y el aire que contiene dentro lo mantienen en la superficie del agua. Comentario: Esto es un esquema formalmente multicausal, aunque ambos factores se refieren al frasco. *Los objetos que flotan al ras de la superficie del agua quedan hasta ahí, no salen fuera del agua porque el agua les aplica una fuerza hacia abajo. Comentario: Esto es un esquema policausal, aunque no muy elaborado. Se podría inferir que el estudiante piensa que el frasco, por su naturaleza, debería subir más, pero el agua le aplica una fuerza hacia abajo. B. Frasco dentro de aceite La segunda situación sencilla, en que el frasco se hunde en el aceite, está presentada en la Figura 2.

Es muy importante destacar que los estudiantes en sus esquemas cambian el enfoque: ahora se fijan en las propiedades del aceite, mientras antes se fijaron en las propiedades del frasco. Sin embargo, no llegan a determinar que el factor importante es la magnitud de la fuerza de empuje que ejerce el aceite sobre el frasco. Para conocer los detalles, ver la Tabla II.

FIGURA 2. El frasco se hunde en el aceite.

TABLA II. Los esquemas de los estudiantes comentados. * Debido al peso del aceite, éste hace que los objetos se hundan en él. * Los objetos se hunden en aceite porque se resbalan. Comentario: Estos esquemas no son suficientemente elaborados para poder comprenderlos. Obviamente, no se tiene idea de la fuerza de empuje. * Si un objeto flota en agua y se hunde en aceite es porque el agua es menos pesada que el aceite. * Es más grueso y más pesado el aceite que el agua, por eso los objetos flotan en agua y se hunden en aceite. Comentario: Es preocupante que en el último grado de la preparatoria todavía hay estudiantes que no tienen claridad sobre los valores de la densidad de agua y aceite. * El aceite es más ligero que el agua, el aceite flota en agua, por eso los objetos que flotan en agua se hunden en aceite. Comentario: Esto no es un esquema explicativo porque, aparte de no ser universal, no proporciona cómo se relacionan estas dos situaciones.

VI. LOS RESULTADOS PARA LA SITUACIÓN COMPLEJA La situación compleja consistió, en que primeramente se introducía el frasco en alguno de los dos líquidos, ya sea agua o aceite. Si el líquido era aceite se le preguntaba que pasaría si aparte del aceite se le agregaba agua o viceversa. Después, estando el frasco dentro de la mezcla agua-aceite, se les decía que explicarán lo observado. También se les pedía que dibujaran sus respuestas antes y después de realizado el experimento. La situación compleja en que el frasco está dentro de mezcla de agua y aceite se presenta en la Figura 3.

Alejandrina Madrigal García y Josip Slisko

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 412 http://www.journal.lapen.org.mx

FIGURA 3. El frasco se levanta en el agua debido a la presencia del aceite.

A. Las predicciones

No es fácil, incluso para los estudiantes de la carrera de física, predecir lo que va a ocurrir en la situación compleja. La predicción más popular es que el frasco, si está sobresaliendo, se va a hundir, o si, está al ras, se quedará así. De tal manera, esos estudiantes usan un esquema general: poniendo algo encima de los objetos que flotan, estos deben hundirse más. Esta predicción también fue presente entre los estudiantes de bachillerato.

Cabe destacar que varios alumnos de ese último nivel no pudieron predecir lo que sucedería, es decir, fue notable en ellos la falta de habilidad de elaborar más sus esquemas explicativos. Ellos pueden decir ad hoc dónde puede quedar el frasco pero no pueden confeccionar los argumentos respaldar su respuesta. Los detalles de sus predicciones se dan en la Tabla III.

TABLA III. Predicciones comentadas.

* Un frasco que está en una mezcla de agua y aceite queda entre los dos líquidos, porque agua y aceite no se mezclan. * El frasco queda en medio. debido a la cantidad de agua y aceite y a su densidad Comentario: Aunque esas son formalmente las predicciones “correctas”, tienen poco elaborada su estructura causal. * El peso del aceite mantiene al frasco abajo en el agua. * Si un objeto está dentro del agua y está flotando, al agregarle aceite, no pasa nada porque agua y aceite no se mezclan. * El agua queda abajo y el aceite arriba, por eso el frasco flotará únicamente en el agua. * Al mezclar agua y aceite, se pone más denso el aceite y no va a permitir que, al estar revuelto con agua, el frasco suba. Comentario: Estos son predicciones intuitivas según las cuales el frasco que flota en el agua no puede subir al agregar el aceite. * El agua queda arriba y el aceite abajo y el frasco dentro del agua sin tocar aceite. Comentario Aunque no tiene una estructura causal, esta elaboración muestra cómo los estudiantes en la elaboración de una predicción pueden conjugar creencias erróneas (“el agua queda arriba”), que se deben a la falta de las experiencias prácticas (o a la aplicación de la idea de que aceite es más denso que el agua), con lo observado anteriormente (el frasco flota en la superficie del agua y por eso no puede “tocar aceite” que debería estar por debajo del agua).

B. Las explicaciones

El hecho contra-intuitivo “el frasco, al agregar el aceite, no se hunde más sino sube” no se presta a una explicación fácil de construir. En la primera vista es misterioso cómo el aceite, cuyo peso actúa hacia abajo, hace que aumente la fuerza de empuje de agua. Para comprenderlo, hay que usar el Principio de Pascal qué dice que la presión externa (en este caso, la que ejerce el aceite sobre la superficie del agua que no ocupa el frasco) se transmite a todas direcciones a través del líquido, llegando así, también, aumentar la presión sobre el fondo de frasco. Como la presión del aceite sobre la tapa del frasco es menor que la presión sobre la superficie del agua, aparece una fuerza adicional arriba que levanta el frasco. El equilibrio se reestablece cuando el peso del frasco se igual a la fuerza de empuje.

Tomando en cuenta la alta demanda conceptual de la explicación, no se esperaba que los estudiantes del bachillerato la logren construir. Lo más importante fue conocer cómo serán sus esquemas explicativos para esta situación. Los detalles se prestan en la Tabla IV.

TABLA IV. Explicaciones comentadas.

* Por el peso del aceite el frasco no pudo salir de entre ambos líquidos. * El peso del agua es mayor que el aceite y lo empuja para arriba. * El recipiente tendió a subir, por la misma fuerza que empujó el agua al frasco hizo que este penetrara al aceite. Comentario: Al ver subir el frasco, los estudiantes se dan cuenta de la necesidad de existir una fuerza de agua que actúa hacia arriba. En otras palabras, finalmente la conceptualización de la situación compleja les permite a los estudiantes elaborar una concepción encaminada hacia un esquema policausal. Sin embargo, las conceptualizaciones iniciales de los estudiantes son incoherentes. Por un lado, el peso del agua puede empujar arriba o la fuerza de empuje de agua aumento de manera misteriosa (obviamente un ajuste según lo observado). * Si cambia la densidad del líquido, también cambia la flotabilidad del objeto dentro de él. Comentario: Es importante notar la flexibilidad que tienen los estudiantes con respecto a modificar sus esquemas. Mientras antes la flotabilidad del objeto fue su característica intrínseca, ahora se permite la posibilidad de que la misma puede depender, también, de la densidad del líquido, lo que sería un buen punto de partida para elaborar un esquema multicausal del fenómeno. VII. CONCLUSIONES E IMPLICACIONES PARA ENSEÑANZA E INVESTIGACIÓN

Los resultados iniciales de esta investigación muestran que los estudiantes de bachillerato, igual como los estudiantes de escuela primaria y secundaria, comienzan la conceptualización del fenómeno de flotación con los esquemas monocausales, siendo el peso del objeto el factor que determina si éste flota o se hunde. Tales esquemas pueden cambiar al extender sus experiencias, presentándoles a ellos diferentes situaciones desafiantes: (1) el frasco flota en agua y se hunde en el aceite y,

Un frasco flota en el agua y se hunde el aceite: ¿cómo los alumnos de bachillerato explican tales hechos…

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 413 http://www.journal.lapen.org.mx

(2) el frasco que flota en el agua sube al agregar el aceite. Las modificaciones detectadas, aunque parezcan modestas, son favorables y en buena dirección (se introducen los factores relacionados con el líquido). Por eso, en los diseños didácticos más sofisticados y con una inversión de tiempo mayor, esos cambios pueden ser la base para un desarrollo conceptual hacia los esquemas más parecidos a los científicos que son esquemas policausales.

Tomando en cuenta los resultados de investigación educativa, se concluye que la conceptualización de la flotación y el hundimiento es un proceso complejo cuyo acercamiento a la conceptualización científica depende fuertemente del nivel cognitivo de los niños y alumnos, pues requiere el manejo de los patrones del razonamiento formal. Esos patrones no los promueve la enseñanza tradicional y por eso, incluso, los estudiantes universitarios, terminando sus primeros cursos de física, todavía revelan dificultades conceptuales en la comprensión de la fuerza de empuje, responsable, junto con la fuerza gravitacional, de los fenómenos de la flotación y del hundimiento [31].

Para inducir el cambio conceptual en los temas científicos difícil de comprender, muchas veces, es indispensable lograr que los estudiantes desglosen una idea vaga en varias ideas más precisas. Por ejemplo, en la mecánica, para pasar de la concepción aristotélica “un movimiento implica una fuerza” a la newtoniana “una aceleración implica una fuerza neta”, se tienen que lograr formulaciones de diferentes concepciones intermedias, que se prestan, cada vez más, a la verificación experimental [32].

Para el caso de la flotación, los estudiantes deben tener las oportunidades de concluir que solamente una característica del cuerpo (el peso) no basta para explicar por qué los cuerpos flotan o se hunden y que es necesario considerar la influencia del líquido (la fuerza de empuje). El cuerpo flota si su peso es igual a la fuerza de empuje y se hunde si su peso es mayor que la fuerza de empuje. Para llegar a la formulación más abstracta, los estudiantes deben comprender que el peso depende del volumen y de la densidad del cuerpo y que la fuerza de empuje depende del volumen de la parte sumergida del cuerpo y de la densidad del líquido.

Todos estos cambios requieren una didáctica muy elaborada, en que siempre se parte de los esquemas explicativos de los estudiantes, desafiándolas experimentalmente de tal manera que su reconstrucción permite desarrollo hacia el esquema explicativo científico [33, 34]. Sin duda alguna, para el diseño de esas didácticas es esencial conocer las preconcepciones de los estudiantes y ayudarles de cambiarlos al reconocer, a través de una verificación experimental contundente, que no funcionan fuera de la situación en que fueron formulados [35].

Las investigaciones recientes exploran los efectos de diferentes elementos del entorno en que los estudiantes aprenden sobre los fenómenos de la flotación y el hundimiento. Esos elementos son, por ejemplo, el uso de la computadora, el tipo de programa o la presencia de la cognición social.

En una da tales investigaciones se muestra que es posible lograr, mediante las simulaciones computacionales, que la comprensión de la flotación tenga sentido, que sea sistemática y que esté basada en el aprendizaje reflexivo por descubrimiento [36].

En otra investigación se examinaron los efectos de dos diferentes programas en el aprendizaje estudiantil de la flotación [37]. Aunque ambos programas se realizaban con el diseño didáctico constructivista, su diferencia radicaba en las secuencias de aprendizaje y en el grado de apoyo que proporcionaba el maestro (alto versus bajo). Con respecto a la compresión de los conceptos de densidad y de la fuerza de empuje, en los post-tests ambos grupos fueron mejores que un grupo de control sin la instrucción recibida. Sin embargo, un año después, el grupo con el apoyo alto fue mejor que el grupo con el apoyo bajo con respecto a la reducción de las concepciones alternativas y apoderamiento de las explicaciones científica. De tal manera, el apoyo que reciben los estudiantes de primaria dentro del entorne de aprendizaje constructivista promueve y refuerza el cambio conceptual en el dominio de la física escolar.

Finalmente, hay investigaciones cuyos resultados muestran que la estrategia didáctica que logra crear en el aula el conflicto sociocognitivo mejora la estructuración de la argumentación dialógica de los estudiantes sobre la flotación y el hundimiento [38].

Todos esos resultados son prometedores y muestran el camino correcto que seguir: examinar en experimentos educativos bien diseñados la eficacia de diferentes enfoques didácticos. Por eso, todavía quedan por realizarse las investigaciones que examinan los efectos de diferentes secuencias de aprendizaje cuyo objetivo sería ayudar a los estudiantes mejorar sus esquemas explicativos y predictivos para las situaciones complejas. REFERENCIAS [1] Zimmerman, C., The development of scientific thinking skills in elementary and middle school. Developmental Review 27, 172 – 223 (2007). [2] Pfundt, H. y Duit, R., Bibliography - Students alternative frameworks and science education (Institute for Science Education, Kiel, 2006). [3] Driver, R. Un enfoque constructivista para el desarrollo del currículo en ciencias. Enseñanza de las Ciencias 6, 109 – 120 (1988). [4] Pozo, J. I., Las ideas del alumnado sobre la ciencia: de dónde vienen, a dónde van... Y mientras tanto qué hacemos con ellas. Alambique. Didáctica de las Ciencias Experimentales III, 18 – 26 (1996). [5] Campanario, J. M. y Moya, A., ¿Cómo enseñar ciencias? Principales tendencias y propuesta. Enseñanza de las Ciencias 17, 179 – 192 (1999). [6] Picquart, M., ¿Qué podemos hacer para lograr un aprendizaje significativo de la física. Latin American Journal of Physics Education 2, 29 – 36 (2008). [7] Waldmann, M. R., Causal thinking, en Glatzeder, B., Goel, V. y Mueller, A. (editores), Towards a Theory of

Alejandrina Madrigal García y Josip Slisko

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 414 http://www.journal.lapen.org.mx

Thinking.Building Blocks for a Conceptual Framework (Springer, Berlin, 2010), pp. 123 – 134. [8] diSessa, A. A., Toward an epistemology of physics. Cognition and Instruction 10, 105 – 225 (1993). [9] Pozo, J. I., Aprendizaje de la ciencia y pensamiento causal (Visor, Madrid., 1987). [10] Benson, U., Some features of causal reasoning: common sense and physics teaching. Research in Science and Technological Education 22, 114 – 125 (2004). [11] Piaget. J., The Child's Conception of Physical Causality. (Littlefield, Adams and Company, Totowa, NJ, 1960). [12] Piaget, J., Understanding Causality. (W. W. Norton and Company, New York, 1974). [13] Fuson, K., Piagetian stages in causality: Children’s answer to “why?”, The Elementary School Journal 77, 150 – 158 (1976). [14] Mogar, M., Children’s causal reasoning about natural phenomena. Child Development 31, 59 – 65 (1960). [15] Rozier, S. y Viennot, L., Students' reasoning in thermodynamics. International Journal of Science Education 13, 159 –170 (1991). [16] Viennot, L., Temps et causalité dans les raisonnements des étudiants, Didaskalia 1, 13–27 (1993). [17] Grotzer, T. A., Learning to Understand the Forms of Causality Implicit in Scientifically Accepted Explanations. Studies in Science Education 39, 1 – 74 (2003). [18] Perkins, D. N. y Grotzer, T. A., Dimensions of causal understanding: the role of complex causal models in students’ understanding of science. Studies in Science Education 41, 117 – 166 (2005). [19] Biddulph, F. y Osborne, R. Pupils' ideas about floating and sinking. Research in Science Education 14, 114 – 124 (1984). [20] Smith, C., Carey, S. y Wiser, M., On differentiation: A case study of the development of the concepts of size, weight, and density. Cognition 21, 177 – 237 (1985). [21] Halford, G. S., Brown, C. A., y Thompson, R. M. Children’s concepts of volume and flotation. Developmental Psychology 22, 218 – 222 (1986). [22] Kohn, A. S., Preschoolers’ reasoning about density: Will it float? Child Development 64, 1637 – 1650 (1993). [23] Gibson, J., Floating and sinking again. Primary Science Review 46, 10 – 11 (1997). [24] Howe, C., Conceptual Structure in Childhood and Adolescence : The Case of Everyday Physics. (Routledge, London, 1998). [25] Havu-Nuutinen, S., Examining young children’s conceptual change process in floating and sinking from a social constructivist perspective. International Journal of Science Education 27, 259 – 279 (2005).

[26] Bloom, J. W., Discourse, cognition, and chaotic systems: An examination of students’ argument about density. The Journal of the Learning Sciences 10, 447 – 492 (2001). [27] Mazzitelli, C., Maturano, Graciela Núñez, C. G. y Pereira, R., Identificación de dificultades conceptuales y procedimentales de alumnos y docentes de EGB sobre la flotación de los cuerpos. Revista Eureka de Enseñanza y Divulgación de las Ciencias 3, 33 – 50 (2006). [28] Barral, F. M., ¿Por qué flotan los cuerpos que flotan? Concepciones de los estudiantes. Enseñanza de las Ciencias 8, 244 – 250 (1990). [29] Pérez Montiel, H., Física 2 para Bachillerato General (Publicaciones Cultural, México, D.F., 2004), Figura 1.18a, página 55. [30] White, R. y Gunstone, R., Probing Understanding (The Falmer Press, London, 1992). [31] Loverude, M. E., Kautz, C. H. y Heron, P. R .L., Helping students develop an understanding of Archimedes principle. I. Research on student understanding, American Journal of Physics 71, 1178 – 1187 (2003). [32] Dykstra, D. I. Jr, Boyle, C. F. y Monarch, I., Studying conceptual change in learning physics. Science Education 76, 615 – 652 (1991). [33] Jackson, D. P., Laws, P. W. y Franklin, S. V., Explorations in Physics. An Activity – Based Approach to Understanding the World. (John Wiley and Sons, New Cork, 2003). La secuencia se presenta en la Unidad 4 “Buoyancy, Pressure, and Flight”. [34] Heron, P. R. L., Loverude, M. E., Shaffer, P. S. y McDermott, L. C., Helping students develop an understanding of Archimedes principle. II. Development of research-based instructional materials, American Journal of Physics 71, 1188 – 1195 (2003). [35] Gang, S., Removing preconceptions with a ``learning cycle''. The Physics Teacher 33 (6), 346 – 354 (1995). [36] Zhang, J., Chenw, Q., Sunw, Y. y Reidz, D. J., Triple scheme of learning support design for scientific discovery learning based on computer simulation: experimental research. Journal of Computer Assisted Learning 20, 269 – 282 (2004). [37] Hardy, I., Jonen, A., Moeller, K. y Stern, E., Effects of instructional support within constructivist learning environments for elementary school students’ understanding of “floating and sinking”, Journal of Educational Psychology 98, 307–326 (2006). [38] Skoumios, M., The effect of sociocognitive conflict on students' dialogic argumentation about floating and sinking. International Journal of Environmental and Science Education 4, 381-399 (2009).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 415 http://www.journal.lapen.org.mx

Enseñanza de las ciencias físicas a estudiantes de primaria y secundaria por medio de sencillos talleres científicos

Remigio Cabral Dorado1 y José Luis Maldonado Rivera2

1 Universidad de Quintana Roo Campus Riviera Maya, 5ª Av. y calle 42, Edificio Tan IK, Col. Zazilha, C.P. 77710, Playa del Carmen Quintana Roo, México. 2 Centro de Investigaciones en Óptica A.C., A.P. 1-948, 37000 León, Gto., México. E-mail: [email protected], [email protected] (Recibido el 3 de Marzo de 2010; aceptado el 12 de Mayo de 2010)

Resumen En este trabajo de divulgación y enseñanza de las ciencias físicas, se comentan varios sencillos talleres dirigidos a niños de primaria y secundaria como parte de una actividad extra-escolar que motive a la población desde edades tempranas por el gusto de experimentos científicos relacionados con su vida cotidiana. Durante un año se elaboraron y expusieron alrededor de 524 sencillos talleres, realizados con diversos materiales didácticos fáciles de conseguir y/o fabricar. Con esta experiencia se espera que se induzca con mayor énfasis la realización sistemática a nivel nacional de actividades de difusión/enseñanza para promover en la población, principalmente infantil y juvenil, el gusto por las ciencias e inculcar en ella la noción de la estrecha relación con la vida diaria. Asimismo, que los motive en la elección posterior de carreras profesionales orientadas al área científico/tecnológica. Palabras clave: Divulgación, enseñanza, ciencias físicas, niños y adolescentes.

Abstract In this work is described an experience concerned with the popularization and teaching of physical sciences through the implementation of scientific workshops specifically designed for children of elementary and secondary school as a part of an external educative activity, which enhance students motivation, at early ages. This activity took place during one year period where about 524 simple workshops were imparted/realized; they were prepared by using different didactic materials easy to obtain or to make. With this experience, it is expected to effectively encourage the systematic realization in all across Mexico of this kind of popularization/teaching activities to promote, mainly to children and teenagers, the enjoyment of the physical sciences and the close relation with their current lives. Furthermore, these experiences could also motive them for a later election of a scientific or a technological university studies. Keywords: Popularizing, teaching, physical sciences, children and teenagers. PACS: 01.10.Hx, 01.40.-d, 01.40.E-, 01.40.Ej, 01.40.gb, 01.50.-i, 01.50.My, 01.50.Wg ISSN 1870-9095

I. INTRODUCCIÓN En general, en México y en otros países, al elegir una carrera universitaria, los estudiantes no están realmente informados de los alcances que pueden tener con las diferentes profesiones que les ofrecen las universidades, lo anterior es aún más notorio en el caso de las carreras de carácter científico tecnológico. Muchos escogen áreas y profesiones que no se relacionen con las matemáticas o la física ya que en nuestra sociedad se ha formado una especie de aversión o tabú hacia estas disciplinas. Las carreras más solicitadas son, por lo regular, también las más conocidas. En esta etapa de sus vidas, es sumamente importante una adecuada orientación para esta crucial

elección [1, 2]. Algunas de las personas que pueden ayudar son precisamente los profesores e investigadores afines a las distintas áreas de estudio, asimismo, los divulgadores de la ciencia y la técnica pueden influir grandemente en estas situaciones [1, 3]. La claridad de una comunicación pertinente sobre algún tópico científico debería de generar un mensaje atractivo, accesible y contextualizado que ponga a la cultura científica al alcance de públicos no especializados [2, 3]. Afortunadamente, cada vez más en nuestro país existe una mayor tendencia a divulgar la ciencia y la tecnología a un nivel comprensible para un mayor número de personas entre las que se encuentran niños y adolescentes de primaria, secundaria y preparatoria. Si a estas tempranas edades existiese una

Remigio Cabral Dorado y José Luis Maldonado Rivera

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 416 http://www.journal.lapen.org.mx

orientación y aliento hacia las carreras científicas, habría un número mayor de estudiantes que quisieran estudiar este tipo de especialidades tan poco comunes en países en vías de desarrollo como lo es el nuestro. De aquí la importancia de estos sencillos talleres realizados y pensados para niños de primaria y secundaria que les ayude a incrementar su creatividad y que sea un referente para etapas posteriores de sus estudios. Las ciencias físicas, junto con el resto de las materias que componen el conocimiento científico, aparecen hoy en día como imprescindibles para una sociedad moderna donde cada uno de sus miembros y, en cualquier etapa de su vida, hace uso de una inmensa variedad de artículos científico-tecnológicos en el hogar, la oficina, el auto, el supermercado, la escuela, etc.

Para tener idea de la forma de transmitir el conocimiento científico, se debe trabajar en áreas de las habilidades didácticas, según los pedagogos, porque consideran que el aprendizaje es funcional cuando la persona que lo ha realizado puede utilizarlo efectivamente en una situación concreta para resolver un problema determinado [4], por ejemplo, cuando un niño aprende a sumar y entiende que si junta más monedas podrá comprar más y mejores dulces, es cuando se hace extensiva la posibilidad de usar lo aprendido para abordar nuevas situaciones hacia nuevos aprendizajes. La propuesta que se trabaja en diferentes países es la utilización de materiales o juguetes que de una forma sencilla expliquen un concepto científico [1]. Este tipo de trabajo se viene realizando en México desde la década de los 70s y se puede decir que un logro importante es la creación del Museo Universum de la UNAM [3, 5]. Por otra parte, paralelamente al Congreso Nacional de Física, que año con año realiza la Sociedad Mexicana de Física (SMF) en distintas sedes de nuestro país (Tabla I), se tiene el Encuentro Nacional de Divulgación Científica donde también se realizan trabajos de difusión variados.

TABLA I. Participación en algunos Encuentros Nacionales de Divulgación Científica en los 90s.

Ciudad Año Ref.

Zacatecas 1995 6 Guadalajara

Monterrey 1996 1997

7 8

En estos eventos y en otros se han realizado exitosos talleres de ciencias durante una semana para niños de diferentes escuelas. Cabe mencionar también la Semana de Ciencia y Tecnología que se organiza a nivel nacional por parte del Consejo Nacional de Ciencia y Tecnología (CONACyT) [9] y a algunos clubs de ciencias para niños de centros CONACyT como el del Centro de Investigaciones en Óptica A.C. (CIO) [10].

En los recientes trabajos de divulgación de los eventos de enseñanza científica de los congresos nacionales de física (Tabla II), se observó que en estos estados

TABLA II. Algunos congresos nacionales de Física en la década actual.

Ciudad Año Ref.

San Luis Potosí 2006 11 Veracruz

Zacatecas 2007 2008

12 13

mexicanos, parte de los nuevos talleristas [14] participaban porque cuando fueron niños/adolescentes tuvieron la oportunidad de estar en un evento científico como los mencionados, lo anterior es una de las consecuencias de impacto en la sociedad a que puede dar lugar lo mostrado en el presente trabajo y en otros, como la divulgación científica nacional que realiza el CONACyT [9]. Cabe hacer mención que los talleristas no son todos estudiantes de carreras científicas, hay personas de las áreas de leyes, administración, pedagogía, música, medios audiovisuales, etc.

La realización de diversas actividades educativas y de divulgación científica, particularmente talleres creativo/científicos, es muy importante para una elección posterior en la educación formal y contribuye en el desarrollo integral de una persona en una sociedad moderna. Lo anterior puede alentar de forma directa al desarrollo de futuros profesionistas en las disciplinas científico-tecnológicas de nuestro país.

En este trabajo se presentan y comentan una serie de sencillos talleres científicos, pensados y realizados para niños de primaria y secundaria que les ayude a incrementar su creatividad y que sea un referente para etapas posteriores de sus estudios. Se discute la forma de efectuarlos y las experiencias y resultados obtenidos así como el trabajo futuro a desarrollar. Estos talleres podrían ser considerados como material pedagógico para primarias y/o secundarias.

II. DESARROLLO Y ESTRUCTURA DE ESTE PROYECTO DE ENSEÑANZA En ocasiones, para hacer comprensible la ciencia a un amplio público o a niños, deben omitirse ciertos aspectos técnicos formales [15]. Los talleres se pueden considerar como herramientas pedagógicas para que el alumno se motive a investigar y adquirir un aprendizaje de calidad [16], tener la libertad de expresarse y analizar ideas previas acerca de los temas, haciendo notar que el conocimiento puede estar en el público general y no sólo en los científicos y, que se puede participar interactivamente en la construcción y divulgación de él. Nos interesa que el público infantil aprenda, en primera instancia, que se divierta, y que el proceso haya tomado en cuenta los intereses, necesidades, inquietudes, motivaciones, al mismo tiempo las estructuras cognitivas del participante.

Enseñanza de las ciencias físicas a estudiantes de primaria y secundaria por medio de sencillos talleres científicos

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 417 http://www.journal.lapen.org.mx

De esta forma, se logra que el mensaje de la divulgación sea bien expresado.

Con la inquietud de poner en práctica lo expuesto anteriormente, en agosto de 2008 iniciamos el trabajo de talleristas del ITESM-CEM (Instituto Tecnológico de Monterrey Campus Estado de México) en la zona del Molinito, que pertenece a Naucalpan de Juárez, Estado de México. Cabe mencionar que la región en la que deberíamos de mostrar esta propuesta de difusión educativa, es una zona en la que difícilmente se tiene acceso a espacios culturales debido a las precarias condiciones socio-económicas. A. Etapas del proyecto Se optó por exponer nuestro trabajo durante los sábados de todo un año, se dividió en tres etapas, la primera fue en el verano del 2008, la siguiente fue de agosto a diciembre de 2008 y la última fue de enero a mayo del 2009, estos periodos coincidieron con las actividades escolares del ITESM-CEM. A.1 Primer etapa Comprendió del mes de junio al mes de julio del 2008. La metodología que se siguió en la planeación, construcción y pruebas de los talleres fue: Estudiantes del Servicio Social Universitario, planteaban un tema o juego y, entre todos se opinaba para hacer mejoras o modificarlo. En la figura (1) se muestran algunas imágenes de talleres que se mencionan en la gráfica (1), donde se representa la relación del taller con el número de participantes, llegando a tener un total de 114 talleres durante este periodo. Varios de estos talleres son comunes y distintos grupos de divulgación los realizan constantemente [10,14], otros fueron explícitamente desarrollados por los tallerístas participantes, como lo es el taller “constelaciones” descrito más adelante.

a) b) c) FIGURA 1. Ejemplos de talleres: a) “Avión con globo”, se desplaza por acción del flujo de aire en el globo al desinflarse, b) “Guitarra”, en función de la longitud en la liga y su perturbación, es el sonido que se escucha al colocar el oído sobre el vaso. c) “Fénix”, tiene la forma de un ave y su pico descansa sobre un vaso de papel debido al peso de las alas.

GRÁFICA 1. Relación de los talleres con el número de personas participantes en los mismos durante la primera etapa del proyecto educativo (junio-julio del 2008), el taller de mayor aceptación fue “Paisajes”, el de menor aceptación “Brújula”. Para ejemplificar la estructura educativa implementada para los talleres se describe la realización del taller “Remolino”: • Los remolinos o vórtices [17], algo muy común en

nuestra naturaleza, se tienen cuando un fluido (agua, aire, etc.) tiene un movimiento en espiral alrededor de un eje, por ejemplo en un evento atmosférico, en un lavabo al estar descargándose el agua, etc.

• Para visualizar el vórtice de nuestro taller, se hace girar agua en el interior de una botella al pasarla a un segundo envase. Así se puede observar el fenómeno de la espiral, el paso del agua entre los envases se efectúa por una pequeña conexión entre sus tapas, ver figura (2).

FIGURA 2. Taller el “Remolino o Vórtice”, que es muy frecuente en temas de fluidos.

• El material para el taller es de fácil acceso, son dos botellas de plástico (transparentes), con sus respectivas tapas previamente perforadas por el centro y unidas con cinta de aislar.

• Al trabajar con el niño se le introduce al taller por medio de algunas preguntas: ¿Qué es un huracán o

Remigio Cabral Dorado y José Luis Maldonado Rivera

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 418 http://www.journal.lapen.org.mx

remolino?, ¿Cómo se ven?, ¿Dónde se forman? ¿Qué pueden causar?

• Durante los minutos que dure el intercambio de información solo se usa el lenguaje científico acorde al nivel académico y edad del niño, procurando que no pierda el interés por hacer su juguete.

• Cuando se termina la construcción, pasamos a la etapa de juego, en la que se disfruta el juguete-taller. Lo que se pretende en esta parte es que se retenga el “aprendizaje adquirido por medio del juego”, aquí se describe el movimiento del agua, el giro de las botellas y se muestran las líneas que se forman en el vórtice. Cabe resaltar que en este punto algunos niños relacionaron su taller con un reloj de arena.

• Cuando el niño se retire posiblemente le explicará a sus padres o amigos de que es el “juguete”, pero usando el lenguaje científico que aprendió en la construcción del mismo, en este punto se despierta el interés para regresar en otra ocasión y también, el niño aprendió un nuevo tema que podrá reforzar por medio de la enseñanza formal.

• Recordemos que el tallerista debe de tener una investigación previa al tema porque posiblemente en muchas ocasiones surgirán preguntas que no esperaríamos y tal vez sean difíciles de contestar.

Como un segundo ejemplo de la forma de proceder con estas actividades de difusión, está el taller de fractales, el cual se presentó en uno de los congresos de la SMF y fue un gran éxito entre los alumnos que participaron (Zacatecas 2008). Brevemente, el taller inicia formando un triángulo equilátero con palillos de paleta, se les pide a los participantes que formen tres equipos para que cada uno trabaje en un lado del triángulo, ver figura (3a), al cual le llamaremos segmento inicial de la figura, se divide dicho segmento en cuatro piezas y cada una de las nuevas piezas se considerará como un nuevo segmento, figura (3b), se forma una estrella de seis picos. Se repite la división de cada segmento en cuatro partes respectivamente para obtener la figura (3c), se repite nuevamente el procedimiento de la división en los segmentos para poder observar el trabajo realizado con 192 palillos, figura (3d), que se le conoce como la curva de Koch [18], ver también figura 4.

FIGURA 3. Se muestran las etapas para el taller de “Fractales” realizado en base a palillos de madera.

FIGURA 4. Realización del taller “fractales” para alumnos de preparatoria en la ciudad de Zacatecas durante las actividades del Congreso Nacional de Física en 2008. Cada taller tiene su objetivo, desarrollo y área de apoyo en la educación formal, como es el caso de “Paisajes”, figura (5). Su objetivo es mostrar las figuras planas como apoyo en el tema de matemáticas para niños de 5 a 8 años. El taller se desarrolla con hojas de papel de diferentes colores, sobre una base de cartón, en la que se permite la creación de un paisaje formado principalmente por triángulos, cuadrados, círculos, etc. Aquí se explican y se identifican las formas geométricas planas.

FIGURA 5. “Paisajes”, taller de mayor aceptación para niños de 5 a 8 años. A.2 Segunda etapa Los meses comprendidos para esta etapa fueron de agosto a diciembre del 2008, atendiendo a 280 personas, entre niños y padres de familia, en el municipio de Naucalpan y conjuntamente participamos en ConCienciaTec [19] organizado por el ITESM-CEM.

ConCienciaTec [19], fue una propuesta para visualizar la aceptación y el interés por la ciencia en el Estado de México, formó parte de la Semana de Ciencia y Tecnología que se organizó a nivel nacional en el mes de octubre del año 2008 por parte del CONACyT [20]. Contamos con talleristas de otros estados de la república, como el grupo TIFE (Taller de Física Espacial de San Luis Potosí), el grupo RAMA del Edo. de México, PREDICE de la UNAM [21] y talleristas del ITESM-CEM, los cuales mostraron su trabajo con gran éxito a más de 5000 alumnos de diferentes instituciones del Estado de México que nos visitaron durante la semana del evento, donde se

Enseñanza de las ciencias físicas a estudiantes de primaria y secundaria por medio de sencillos talleres científicos

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 419 http://www.journal.lapen.org.mx

pudo observar la gran aceptación de los alumnos visitantes.

Algunos de los primeros talleres expuestos con anterioridad son clásicos para divulgadores, sin embargo otros los creamos dentro de nuestra área de trabajo, como es el taller “constelaciones”. Para el taller “constelaciones”, nos enfocamos a reutilizar unas placas de rayos “X”, junto con tubos de cartón usados en las servilletas de papel para cocina o papel higiénico. La elaboración del taller consta de los siguientes procesos: • Se corta la placa de rayos “X” en forma circular para

bloquear la luz que pueda entrar por una de las caras del tubo de cartón.

• Al círculo obtenido con la placa, se le perfora con un alfiler para que cada perforación coincida con la posición aparente de las estrellas y formen una constelación en dicho círculo.

• En el otro extremo del tubo se pega otro círculo, en esta ocasión hecho, por ejemplo, con papel de color, en el cual se le hace una pequeña perforación en el centro, para formar con ello una ventana a través de la cual se observará.

• La luz natural o artificial entra por el círculo de placa de rayos “X” y se observa dicha luz por la ventana formada por el otro extremo del tubo, generando con esto la sensación de estar viendo las estrellas, ver figura (6).

a) b) FIGURA 6. a) Orión, se resaltan las estrellas que forman la constelación [22]. b) Imagen de la constelación de Orión, que se observa a través del tubo de cartón de este taller. Cabe mencionar que otro de los talleres con excelente aceptación fue el “chocolate”, ampliamente usado por los divulgadores. Tenía como objetivo mostrar el uso de la energía solar para nuestro beneficio, el taller usó una antena parabólica como las usadas para las cocinas solares [23], ver figura (7). Buscando en algunas compañías de televisión/telefónicas, es posible conseguir las antenas de las varias que ya les son inservibles. Ya conseguida la antena, hay que “cromarla” para que refleje y concentre la radiación solar, lo anterior se puede hacer de forma muy simple, por ejemplo, con papel aluminio o con múltiples trozos de espejos (ver figura 7).

FIGURA 7. Antena parabólica usada para implementar una estufa solar. Para concentrar la luz, se puede cubrir con pequeños espejos o con papel aluminio. En nuestro taller la luz se concentró en la zona focal de la antena donde colocamos un refractario de vidrio Pyrex, el cual se calentó a tal grado (¡se midió una temperatura por medio de un termómetro de bulbo y se llegó hasta 380 °C en sólo 38 segundos!) que podía conducir rápidamente el calor al chocolate para derretirlo. De esta forma se aprovechó para que los niños ¡comieran galletas cubiertas con chocolate y saborearon el resultado de la ciencia! A.3 Tercera etapa Continuamos elaborando diferentes talleres en la última etapa del proyecto, comprendida del mes de enero al mes de mayo del 2009. En ésta contamos con la participación de 130 niños. Nos enfocamos a producir otros llamativos talleres como el del barco pof pof [24], ver figura 8.

FIGURA 8. Imagen de una lanchita pof pof que funciona a base de vapor. Este pequeño barquito utiliza una caldera de vapor bastante simple: El vapor se produce debido a la exposición del agua a una fuente de calor transformándola del estado líquido al gaseoso. Este cambio genera una expansión en la caldera y expulsa el vapor de su interior a través de dos pequeños popotes sumergidos en el agua. Al contraerse nuevamente la caldera, succiona agua a su interior generando un ciclo vapor-expansión-contracción

Remigio Cabral Dorado y José Luis Maldonado Rivera

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 420 http://www.journal.lapen.org.mx

que hace avanzar la lanchita pof pof. Este es un experimento muy divertido para los niños ya que es una pequeña máquina de vapor capaz de navegar. En la lanchita se debe cuidar que flote el casco y pueda soportar el peso de la caldera, la cual se puede hacer, por ejemplo, con una lata de jugo/refresco, sellando las partes con adhesivo para metal a altas temperaturas. Lo anterior permite a los niños generar sus propios diseños y formas. La fuente de calor puede hacerse con un mechero con algodón y alcohol o aceite de cocina, todo se coloca en la parte baja de la caldera, de preferencia oculta. III. REFLEXIÓN DE EXPERIENCIAS Y PERSPECTIVAS La excelente respuesta obtenida de los niños y padres participantes en los talleres fue parte fundamental en la creación de ConCienciaTec que fue retomado nuevamente para el año 2009 [19]. En base también a las experiencias de previos grupos de divulgación ya mencionados, se origina la inquietud de crear una red (RE) de creatividad (CREA) a nivel nacional(N), como apoyo a la docencia (DO), principalmente en el área de primaria y secundaria, llamada RECREANDO. Dicho evento tendría como objetivo el desarrollo de la educación no formal con grupos pertenecientes a la educación formal [15]. Esto surge con motivo de la necesidad de atraer alumnos a las ciencias básicas desde los primeros años, o por el contrario, para aquellos que se inclinan por las ciencias sociales, que tengan el conocimiento indispensable al convertirse en profesionistas capaces para dar el siguiente paso en el desarrollo educativo.

También, en base a las experiencias obtenidas a lo largo de un año de trabajo en esta zona de Naucalpan, Estado de México, se propone aplicar el método descrito en el presente manuscrito en otra zona específica para poder medir el impacto en la educación de niños de 6 a 15 años en colaboración con una o varias instituciones educativas. Partiendo de la información obtenida se trabajaría, al menos en un periodo de dos años, con estudiantes para que al final de este tiempo se comparen las habilidades y competencias cognitivas entre los alumnos que participaron en los talleres científicos y los que no lo hicieron. Al mantenerse una retro-alimentación de los aciertos y modificaciones de cada taller podrían mejorarse las actividades de divulgación. IV. RESULTADOS Y CONCLUSIONES Se diseñaron y efectuaron 524 sencillos talleres y prototipos, dirigidos a niños de primaria y secundaria, empleando diversos materiales didácticos fáciles de conseguir y/o fabricar. Participaron alrededor de 300 niños y padres. Independientemente de la zona y las condiciones de trabajo se observó que las personas visitantes a estos talleres científicos mostraron un interés por aprender nuevos temas y resolver dudas con su entorno. Se propone

darle seguimiento al presente trabajo a futuro cercano a través de la implementación del mencionado programa RECREANDO. Estas experiencias de difusión/enseñanza a edades tempranas fomentan la divulgación y educación científica fuera de las aulas promoviendo un interés social y cultural así como una curiosidad científica/tecnológica en la sociedad que pueden influir trascendentalmente en las actividades futuras de la población infantil. Ejemplo concreto: algunos de los tallerístas que participaron en este proyecto, lo hicieron, principalmente, por haber participado de niños en los encuentros de divulgación de los 90s (Tabla I). AGRADECIMIENTOS Por todo el apoyo, en mayor o menor grado, para la realización de estos talleres, los autores agradecen a las siguientes personas, grupos e instituciones: M. en C. Rubén Darío Santiago Acosta, por apoyarnos y facilitarnos la participación de alumnos del ITESM-CEM en los congresos de la SMF: San Luis Potosí (2006), Veracruz (2007), Zacatecas (2008) y Guerrero (2009). Dr. Carlos Manuel Carlos Vázquez Álvarez, director del IDESS-ITESM-CEM, por su apoyo en la realización del Servicio Social y apoyo económico para el material de los talleres. Dr. Pedro Luis Grasa Soler, director general del ITESM-CEM, por facilitarnos la realización del evento ConCienciaTec. Grupo TIFE, por su participación en ConCienciaTec, representado por: Hugo Alberto Jasso Villarreal, Silvia Lorena Loredo Alonso y Mayra Elizabeth Muñóz Herrera. Grupo RAMA, por su participación en ConCienciaTec, formado por: Rodrigo Israel Ramírez Ayala, Claudia Cabral Dorado y Eloy Cabral Dorado. Grupo PREDICE de la UNAM por su participación en ConCienciaTec para los trabajadores del ITESM-CEM. Alumnos del ITESM-CEM participantes en ConCienciaTec y congresos de la SMF: Dalia Carolina Ramos Guerra, Raúl Rodríguez Sandoval y Leopoldo Rodríguez. Alumnos del Servicio Social del ITESM-CEM: Participantes de la primera etapa: Emma Gabriela Morales Díaz, Edgar Cano Salinas, Jesús Diego Pérez Hurtado, Daniel Dufoo Cuapio y Jonathan I. Jiménez Osorio. Participantes de la segunda etapa y conCienciaTec: Claudia Sofía Serafín Cano, Marisol García García, Abraham Caleb Guerrero Sierra, Luis Arturo Díaz Gómez, Rafael Rosas-Landa Reyes y Ángel R Morales L. Participantes de la tercera etapa: Gerardo Pérez Sosa, Martín Uriel Gil Castillo, Samuel Hernández, Jacobo Kleiman Keller, Luis Guillermo Iglesias Linares y Rafael Rosas-Landa Reyes. REFERENCIAS [1] Comisión de Educación ANQUE, La enseñanza de la física y la química, Revista Eureka sobre Enseñanza y Divulgación de las Ciencias 2, 101-106 (2005), http://www.apaceureka.org/revista/Volumen2/Numero_2_1/Manifiesto-ANQUE.pdf

Enseñanza de las ciencias físicas a estudiantes de primaria y secundaria por medio de sencillos talleres científicos

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 421 http://www.journal.lapen.org.mx

[2] Massarani, L., La divulgación científica para niños, http://www.prbb.org/quark/17/017040.htm [3] Drucker-Collin, R., Dirección general de divulgación de la ciencia (DGDC), Memoria UNAM marzo 2008, http://www.planeacion.unam.mx/Memoria/2008/PDF/641.pdf [4] Zárate-Martín, A., Aprendizaje significativo y geografía de las representaciones mentales, Anales de Geografía de la Universidad Complutense 15, 831-840 (1995), http://revistas.ucm.es/ghi/02119803/articulos/AGUC9595220831A.PDF [5] http://www.universum.unam.mx/ [6] http://www.smf.mx/boletin/Ene-96/xenc.html [7] http://www.smf.mx/boletin/Abr-96/resenas/smf.html [8] http://www.smf.mx/boletin/Oct-97/resenas/congre.html [9]http://www.conacyt.gob.mx/Comunicacion/sncyt/sncyt.html [10] Club de Ciencias CIO, http://www.cio.mx/ninos/web_i_ninos.html [11] http://www.smf.mx/2006/Bol-20-4/Resenas/informe-2006.htm [12] http://www.smf.mx/CNF-2007/Boca-del-Rio.pdf [13] http://www.smf.mx/congresos/LI-CNF/CNF-2008.pdf [14]http://www.ipicyt.edu.mx/Difusion/EnsenanzaCiencia.htm [15] a) Trilla, I, Bernet, J., Animacion sociocultural, educación y educación no formal, (Educar, México, 1988) pp. 17-41: http://ddd.uab.cat/pub/educar/0211819Xn13p17.pdf b) Periódico Provincial Interescolar Cuenca No. 10, junio 2008: http://centros5.pntic.mec.es/cuenca/prensa/junio08.pdf [16]http://dieumsnh.qfb.umich.mx/TRANSS/herramienta.htm#3.1.4.%20HERRAMIENTA%20PEDAGÓGICA%20SIGLO%20XXI [17]http://www.meteored.com/ram/5340/vrtices-y-remolinos-nubosos-costeros-vistos-desde-satlite/ [18]http://www.dmae.upm.es/cursofractales/capitulo1/2.html [19]http://www.cem.itesm.mx/concienciatec/ [20]http://www.conacyt.mx/comunicacion/comunicados/sncyt-2.html [21] http://www.prediceciencia.com/ [22]http://estudiarfisica.wordpress.com/2009/01/09/astronomia-1-venus-la-luna-y-la-nebulosa-de-orion/

[23] http://es.wikipedia.org/wiki/Cocina_solar [24] http://lanchitaspofpof.com.ar/ [25] Vara, A. M., El público y la divulgación científica: del modelo de déficit a la toma de decisiones, Qviva 6, 42-52 (2007), http://www.imbiomed.com/1/1/articulos.php?method=showDetail&id_articulo=46443&id_seccion=2658&id_ejemplar=4702&id_revista=160 [26] http://es.wikipedia.org/wiki/Taller [27]http://www.unizar.es/eees/innovacion/originales/B/EUITI/B-20.pdf Nota: Todas las páginas Web fueron visitas el día 20 de mayo del 2010. GLOSARIO La divulgación científica consiste en la interpretación y popularización del conocimiento científico entre público general sin usar tecnicismos [2]. Público general [25], está conformado por niños, padres de familia, profesores y todas las personas reunidas para la actividad de talleres. La educación no formal, según la define Jaume Trilla i Bernet [15], refiere a todas aquellas instituciones, ámbitos y actividades de educación que, no siendo escolares, han sido creados expresamente para satisfacer determinados objetivos. Tallerista, es la persona dedicada a la planeación, elaboración y presentación de un taller científico. Taller [16, 26], en enseñanza, un taller es una metodología de trabajo en la que se integran la teoría y la práctica. Se caracteriza por la investigación, el descubrimiento científico y el trabajo en equipo teniendo como fin la elaboración de un producto tangible. Experiencia didáctica [27], la experiencia didáctica está basada en sólidos fundamentos teóricos que guían la elaboración de nuevos materiales y su utilización en un entorno útil de enseñanza.

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 422 http://www.journal.lapen.org.mx

Opciones Newtonianas de estudiantes no-Newtonianos, análisis de alumnos Universitarios: FCI

Adrián Corona Cruz FCFM, BUAP, Apartado Postal 1152, 72001 Puebla, México.

E-mail: [email protected] (Recibido el 9 de Febrero de 2008; Aceptado el 15 de Mayo de 2010)

Resumen En la Facultad de Ciencias Físico Matemáticas de la Benemérita Universidad Autónoma de Puebla, se han llevado a cabo varios intentos logísticos para reducir la deserción y mejorar el aprendizaje de los estudiantes de física introductoria. Los resultados que aquí reportamos, corresponden a una estrategia académica: un experto en física teórica mediante conferencia magistral impartió la mecánica newtoniana, y cuatro profesores impartieron, en grupos, la resolución de problemas. Para conocer el grado de coherencia que los estudiantes lograron al final del curso en las ideas newtonianas, se usó la prueba de opción múltiple, Inventario del Concepto de Fuerza (FCI), con espacios para explicar las ideas que los llevaron a seleccionar la respuesta. Los porcentajes “reales” que los estudiantes tienen sobre las opciones correctas y las no correctas, se validaron mediante las explicaciones. De la comparación de los resultados que se obtiene de los estudiantes que no acreditaron el curso y los que acreditaron, se encontró que ambos grupos de estudiantes en avance hacia el conocimiento newtoniano resultó ser igualmente bajo.

Palabras clave: FCI, ideas newtonianas, Inventario, mecánica, enseñanza, física, estrategia didáctica.

Abstract In the Faculty of Physics of the Autonomous University of Puebla, have been several attempts to reduce the dropout logistics and improve student learning in introductory physics. The results we reported here correspond to an academic strategy: an expert in theoretical physics gave the keynote address by Newtonian mechanics, and four teachers taught in groups, solving problems. To ascertain the degree of coherence that students achieved at the end of the course in Newtonian ideas, we used the multiple choice test, Force Concept Inventory (FCI), with spaces to explain the ideas that led them to select the answer. The percentages "real" students are on the right options and the right not be validated by explanations. A comparison of results obtained from students who are not accredited course and showing, it was found that both groups of students advancing to knowledge Newtonian proved equally low. Key words: FCI, Newtonian ideas, Inventory, mechanics, education, physics, teaching strategy. PACS: 01.40.gb, 01.40.-d, 01.40.Ha ISSN 1870-9095

I. INTRODUCCIÓN Los resultados establecidos de la investigación educativa, describen que las creencias del estudiante sobre temas de física están vagamente organizadas, son incoherentes, débilmente definidas y a veces inconsistentes. Normalmente tienen razones para sus explicaciones que en lo general son "incompatibles” con los conceptos Newtonianos [1]. Ya hace casi 30 años, Hestenes [2] y colaboradores, desarrollaron el Inventario de Concepto de Fuerza (FCI), para identificar las creencias del sentido común en el área de la física en el nivel básico, derivadas de la experiencia personal de los estudiantes; creencias que juegan un papel dominante en el aprendizaje de la física. Específicamente, se ha establecido que (1) las creencias del sentido común sobre el movimiento y fuerza son en la mayoría de los casos, incompatibles con los conceptos

Newtonianos, (2) la instrucción convencional produce en la mayoría de los casos, cambios insuficientes en las creencias del estudiante, y (3) este resultado es independiente del instructor y su método de instrucción (en lo general se pretende que el docente cubra el tema, memorizando, repitiendo fragmentos aislados, llevando a cabo tareas, etc.)

Es claro que las implicaciones en la enseñanza son graves, si los estudiantes no han aprendido los conceptos Newtonianos más básicos, no podrán comprender la mayor parte del material de sus siguientes cursos. Este análisis no indica que los maestros en lo general no sean competentes, lo que indica es que para que la instrucción sea más eficaz, se requiere de más dedicación, conocimiento sobre cómo los estudiantes piensan, aprenden, y diseñar materiales didácticos en consecuencia.

Las versiones iniciales de FCI se construyeron usando

Opciones Newtonianas de estudiantes no-Newtonianos, análisis de alumnos Universitarios: FCI

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 423 http://www.journal.lapen.org.mx

las respuestas más comunes (creencias no-Newtonianas) escritas por los estudiantes. Las preguntas de la prueba fueron diseñadas para evaluar las concepciones cualitativas de los estudiantes sobre el movimiento y sus causas, e identificar conceptos erróneos o creencias de sentido común, no-Newtonianas citadas en la literatura [3]. Los autores exploran y clasifican las ideas Newtonianas y las concepciones no-Newtonianas de los estudiantes por medio de una taxonomía que las categorizan en seis dimensiones (Cinemática, Primera Ley de Newton, Segunda Ley de Newton, Tercera Ley de Newton, Principio de Superposición y Tipos de Fuerzas) [4], y las consideran cruciales para interpretar los resultados de FCI. Un ejemplo de la inconsistencia se dio en el trabajo de Huffman y Heller [5] ellos al no considerar las taxonomías, “muestran” que FCI sólo mide el logro de conceptos inconexos del concepto de fuerza, lo cual implica que FCI, no se recomienda para examinar a los estudiantes. Los profesores deberán ser cautos al suponer que el inventario mide la comprensión coherente de un concepto de fuerza. Como respuesta, Hestenes [6] muestra que las propias conclusiones de Huffman y Heller están de acuerdo con los resultados que muestra la interpretación del FCI.

Desde la perspectiva de la física, cada pregunta de FCI mediante su configuración de opción múltiple, exige al estudiante que diferencie una respuesta Newtoniana de cuatro alternativas no-Newtonianas. Para analizar y clasificar las respuestas, Hestenes considera que una respuesta es falsa negativa si un estudiante con pensamiento Newtoniano escoge una contestación no-Newtoniana, y una respuesta se considera falsa positiva si la opción Newtoniana es escogida por razones no-Newtonianas. Los resultados de la investigación educativa muestran que una contestación falsa casi siempre es un indicador confiable de la deficiencia con la que el estudiante entendió los conceptos Newtonianos, mientras que una contestación verdadera (Newtoniana) a una sola pregunta es, claramente, mucho menos informativa. Un problema importante en el desarrollo de la prueba de opción-múltiple fue el minimizar falsos positivos y negativos, reduciendo la probabilidad de contestaciones negativas y positivas falsas. Del análisis cualitativo de contestaciones por estudiantes de pensamiento Newtoniano, la probabilidad de una respuesta falsa negativa es menor al 10% (menos de tres preguntas), e inclusive para los alumnos de pensamiento Newtoniano, las respuestas le son tan obvias que las respuestas falsas negativas sólo pueden atribuir a descuidos o a la falta de atención. Sin embargo, minimizar los falsos positivos es difícil, incluso las opciones del azar tiene una oportunidad de aproximadamente del 20% de ser falsas positivas.

En el diseño de FCI se usaron dos dispositivos para reducir el "ruido" de los falsos positivos [6]:

a) FCI examina cada dimensión conceptual con varias preguntas que involucran contextos y puntos de vista diferentes. Una opción falsa positiva puede ser parcialmente compensada por una opción no-Newtoniana escogida en otra.

b) Se introduce un distractor en cada pregunta, como,

una opción no-Newtoniana que parece sumamente razonable a los estudiantes, debido a que se extrajeron de sus propias ideas.

Es pertinente aclarar que para que los criterios antes citados tengan aplicación, se requiere que el grupo de respuestas de los alumnos se hayan caracterizado como Newtonianas. Esta característica se identifica definiendo que el alumno que rebasa con el 60% la prueba FCI, es un alumno que está en la etapa básica del pensamiento Newtoniano [6]. Es decir el estudiante empieza a usar en sus razonamientos los conceptos Newtonianos en forma coherente, desarrolla un concepto universal de fuerza y aprende a identificar a los agentes activos y pasivos de la fuerza, además desarrolla dinámica y coherentemente los conceptos vectoriales de la velocidad, la aceleración y en su mayor nivel tiene plena comprensión de la Tercera Ley de Newton. Por otra parte, los alumnos que no rebasan el 60% en lo general presentan las siguientes características: (1) no diferencian los conceptos de velocidad y aceleración; carecen del concepto vectorial de velocidad; (2) carecen de un concepto universal de fuerza (es decir, cree que hay otras influencias en el movimiento además de las fuerzas), y no saben realmente identificar los agentes de fuerzas en un objeto; (3) conceptos fragmentados e incoherentes sobre la fuerza y el movimiento [6].

Hestenes, recomendó que el inventario sea usado para diagnosticar, juzgar la efectividad de la instrucción y evaluar al estudiante, siendo la efectividad la más importante.

Para evaluar la efectividad de la instrucción mediante la ganancia <g>, la prueba FCI se aplica como pre-prueba (primer día de la clase) y pos-prueba (al final del curso) [7]. Los estudiantes que obtienen la más alta calificación en la post-prueba, generalmente también obtienen la más alta calificación al resolver problemas cuantitativos. Lo más notorio es que la comprensión conceptual según lo medido por FCI parece ser un requisito previo a la buena capacidad en la resolución de problemas.

II. MÉTODOS “EFICIENTES” DE ENSEÑAN-ZA Desde los orígenes de la enseñanza, los docentes han buscado la mejor manera de hacerse entender. En lo general la enseñanza en las aulas se utiliza la conferencia, en ella los oyentes no mantienen su atención –por más de 10 a 15 minutos, y la información de la conferencia pasa demasiado rápido para quien piensa críticamente, por lo que en su memoria sólo quedan vaguedades de corto plazo. Es común que durante la conferencia, el estudiante tome notas, y éstas son copias inconexas de lo escrito en el pizarrón, además la mayoría de las conferencias se centran en derivaciones y deducciones algo formales de fenómenos o conceptos físicos; hasta cierto grado la física es dura porque es simplemente dura, es decir, el material que se aprende implica muchos conceptos, algunos de los cuales son contra intuitivos... hecho entendido por estudiantes y profesores, pero que se hace aún más dura y

Adrián Corona

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 424 http://www.journal.lapen.org.mx

frustrante por la mala pedagogía, es decir, el proceso educativo es muy complejo [8].

Se han elaborado teorías sobre el aprendizaje que han venido evolucionando, aunque sin llegar a encontrar verdaderas soluciones y hay propuestas que muestran mejorar la enseñanza y en particular la comprensión de física.

Bajo el título de Aprendizaje Activo [8], que se estudia bajo el epígrafe de "metacognición”; capacidad del individuo para predecir resultados y para controlar su nivel de dominio y comprensión, se han desarrollado un conjunto de metodologías que aumentan el grado en que los estudiantes transfieren de su aprendizaje a nuevos escenarios y eventos. Metodologías que fundamentalmente se basan en la piedra angular de la filosofía del constructivismo; “son los estudiantes, con su interacción, sus ideas y los materiales, quienes deben construir su conocimiento, más bien que recibir simplemente conocimiento”; los estudiantes a tomar el control de su propio aprendizaje [9].

Este principio básico se ha puesto en ejecución en una variedad de formatos con la mayoría de las siguientes características: “Los estudiantes pasan más tiempo de clase, haciendo/pensando/hablando de física, no escuchando a otro hablar de física”; “Los estudiantes intercambian ideas con sus compañeros e instructor; “Los estudiantes reciben retroalimentación inmediata”; “Los estudiantes se responsabilizan de su conocimiento (participa en las actividades, estudia el texto, y termina las asignaciones)” y “el instructor es más que un facilitador, es un portador de conocimiento; es un guía que apoya, no un sabio que resuelve" [8]. En contraste, cabe citar que en lo general, en las aulas “tradicionales”, solamente una pequeña fracción de estudiantes hace preguntas o participan en las discusiones; la mayoría de los estudiantes son indiferentes, pasan más tiempo escuchando a sus compañeros que al instructor.

A. Grupos Cooperativos (aprendizaje basado en problemas) Sabemos que muchos estudiantes “aprenden a solucionar problemas de física” simplemente substituyendo los datos en los algoritmos, hasta que consiguen la respuesta. Heller, Keith y Anderson [10], diseñaron y utilizaron problemas conceptuales con información adicional que no era necesaria para resolver “problemas ricos en contexto” y la solución se encuentra mediante acciones cooperativas, que consisten en la organización al azar grupos de tres o de cuatro estudiantes, para trabajar la resolución de problemas; los grupos se forman asignado un estudiante como experto, (toma la responsabilidad), un escéptico (suscita preguntas y objeciones tantas como sea posible), y un censor (toma las notas de las discusiones, prepara la solución que se entregará). Los papeles de los integrantes se rotan cada semana. Los resultados se reportan al instructor o, a veces los discuten con otros grupos. El método muestra que es mucho más beneficioso que

estudiar solo y al parecer es más provechoso que la actividad no estructurada en grupo.

El método de grupos cooperativos, ha demostrado, que las soluciones obtenidas en grupo, son mejores que las soluciones individuales, aún del mejor estudiante; que la capacidad para resolver problemas aumenta para todos los estudiantes; que las capacidades resolución de problemas de los estudiantes son perceptiblemente mejores que las desarrolladas en la instrucción convencional; que se mejoran las habilidades de resolución de problemas en el análisis cualitativo y en la comprensión conceptual del problema. Esto se manifiesta cuando en los exámenes individuales, las soluciones a los problemas son del mismo tipo de problemas ricos en contexto que los estudiantes aprendieron a resolver en grupo [8].

B. Enseñanza en el laboratorio En los laboratorios, Socratic Dialog-Inducing (SDI) [11] se diseñaron estrategias para provocar que los estudiantes se impliquen pensando y realizando experimentos básicos de mecánica; como mover objetos bajo varias condiciones, hacer rotar objetos como un cubo de agua sobre sus cabezas, se les solicita que observen y después mediante una serie de preguntas, expliquen sus análisis. Las preguntas se diseñan para extraer los conceptos alternativos, ya conocidos de los estudiantes y para provocar la discusión entre los miembros del grupo. El instructor evita contestar las preguntas, las preguntas las hace de manera Socrática. Mediante FCI, se ha comprobado que SDI promueve que el estudiante cruce hacia el mundo Newtoniano. Una variante del trabajo docente en el laboratorio de física son los Laboratorios basados en computadoras de escritorio (Thornton y Sokoloff) [12], donde la adquisición de datos permiten que los estudiantes se centren más en la física, que en los mecanismos de la colección de datos, y la obtención de gráficas en tiempo real, permite que los estudiantes asocien la gráfica con el comportamiento del objeto. Sokoloff, muestra que hay una ganancia importante (50%) con el uso de laboratorio-interactivo de física apoyado con la conferencia-interactiva, comparado con los resultados de la enseñanza tradicional (20%). C. Instrucción por pares (Peer) El objetivo que Mazur considera básico de su método es lograr que los estudiantes piensen en clase, la interacción de los estudiantes y enfocar su atención en los conceptos subyacentes. A los estudiantes se les da tiempo para formular individualmente una respuesta, y luego se les pide que la discutan con sus vecinos. Este proceso a) empuja a los estudiantes a pensar críticamente los temas desarrollados en clase y b) les proporciona (incluyendo al profesor) un medio para evaluar su comprensión del concepto. Cuando el resultado es satisfactorio, la clase continúa al siguiente tema [13, 14].

Opciones Newtonianas de estudiantes no-Newtonianos, análisis de alumnos Universitarios: FCI

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 425 http://www.journal.lapen.org.mx

Después de exponer el tema en una mini-conferencia, que incluye demostraciones, etc., y que adolece de definiciones y derivaciones, (7–10 min), por medio de una prueba conceptual simple, se explora si los estudiantes entendieron el concepto (opción múltiple) que analiza durante un minuto, en consecuencia se les solicita, levantando la mano, votar su opción, luego se les invita a que en un minuto establezcan una discusión con sus vecinos defendiendo su respuesta, nuevamente vuelven a votar, lo que nuestra un aumento significativo de respuestas correctas, si el porcentaje de respuestas no rebasa un mínimo 50% - 80%, se regresa a rediscutir el tema, si fue suficiente durante un par de minutos se explica la respuesta correcta y se continua con el siguiente tema.

Lo más importante en el diseño de reactivos es que; a) sean preguntas conceptuales basadas en los puntos clave que se quiere identificar “qué aprendieron” los alumnos, b) su solución no debe basarse directamente en ecuaciones, c) que las opciones no sean ambiguas, d) ni muy fáciles ni muy difíciles, porque afectan directamente a la retroalimentación de la información para el instructor. Si más de un concepto está involucrado en la pregunta, será más difícil interpretar los resultados de la pregunta y valorar la comprensión de los estudiantes. Las respuestas erróneas deben reflejar los preconceptos más comunes de los estudiantes.

Mazur, reporta ganancias de aprendizaje conceptual en 11 instituciones de educación superior en 30 cursos de física introductoria que ejercitaron la instrucción de pares, (medido por medio la FCI), los que en promedio se lograron ganancias normalizadas de 0,39 ± 0,09.

Sin embargo, sabemos que las acciones entre individuos, hay variables que no se pueden controlar. De observaciones de la práctica docente apoyadas con instrucción de pares, los pasos del método, el control y los reactivos difieren notablemente. En un estudio de cursos universitarios de física, desarrollados por diferentes instructores, (Universidad de Maryland) se encontró que el promedio de las ganancias de aprendizaje normalizado van 0,39 a 0,57 [15].

En los métodos interactivos descritos arriba, en promedio citan una reducción del 15-20% en el material cubierto, aunque todos consideran que tal reducción es más que compensada por el creciente aprendizaje del estudiante.

III ESTRATEGIA ACADÉMICA PARA LA ENSEÑANZA DE LA FÍSICA EN LA FCFM-BUAP Los resultados aquí expuestos, se derivan de una estrategia académica basada en la didáctica de un experto en el área de la investigación básica de la física, que imparte la teoría relacionada a la mecánica Newtoniana y cuatro profesores que clasificamos como tradicionales que se encargaron en “enseñar a resolver problemas”. El desarrollo del curso se compuso de conferencias magistrales a todos los alumnos y cursos grupales sobre la resolución de problemas.

Para ésta investigación, se diseñó como procedimiento para identificar la efectividad de la estrategia académica, la comparación entre las respuestas a la prueba FCI, de los alumnos que acreditaron el curso y aquellos que reprobaron.

Para analizar y clasificar los datos capturados para éste trabajo, se retoma la categorización antes definida. Considerando que los resultados promedio de FCI, aplicado a los alumnos aprobados (36%) y no aprobados (35%), se considera que como grupo, los alumnos no llegaron a ser introducidos al pensamiento Newtoniano, los casos falsos negativos no se pueden identificar. No así, los falsos positivos; los alumnos no-newtonianos que escogieron la respuesta correcta. Se puede observar en las graficas expuestas en las figuras 1 y 2, los porcentajes a cada una de las, 30 opciones correctas y los porcentajes de las respuestas validadas de los alumnos aprobados y no aprobados. El que básicamente en promedio los valores fueran iguales para los alumnos que acreditaron y aquellos que reprobaron, indica la falta de conceptualización y la variable que hizo la diferencia en los alumnos acreditados y no acreditados, fue la resolución de problemas sin contexto. De las explicaciones a cada pregunta, se encuentra que los denominados falsos positivos, fue del 23% y 22% respectivamente y los que muestran por sus explicaciones newtonianas (verdaderos positivos) son el 12% y 14% respectivamente. Estos porcentajes nos muestran que en general la interpretación de la ganancia <g> se deberá considerar en otro contexto. Es probable que de ver obtenido la ganancia del curso, hubiera indicado un “buen resultado” y no la poca eficiencia (12%).

020406080

100

1 4 7 10 13 16 19 22 25 28

Proc

enta

je

Nº pregunta

Alumnos (no-Acreditados)

Inicial Validada

FIGURA 1. cambios en los porcentajes de las respuestas correctas o Newtonianas de los alumnos no-Newtonianos, que no acreditaron, al ser validadas las explicaciones.

020406080

100

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29

Porc

enta

je

Nº pregunta

Alumnos (Aprobados)

Inicial Validada

Adrián Corona

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 426 http://www.journal.lapen.org.mx

FIGURA 2. cambios en los porcentajes de las respuestas correctas o Newtonianas de los alumnos no-Newtonianos, que aprobaron, al validar sus explicaciones. Comparando los porcentajes en las respuestas correctas, los resultados nos hacen pensar que los estudiantes en lugar de mostrar una mayor comprensión de la mecánica, se reducen la comprensión de por ejemplo: Gravedad: (G2 la gravedad es intrínseca a la masa y G4 la gravedad aumenta con la caída de los objetos); Ímpetu, (I5 ímpetu circular y I2 pérdida/recuperación del ímpetu original); Fuerza Activa (AF5 aceleración implica incremento de fuerza). IV ANÁLISIS Y EJEMPLOS DE LAS EXPLICACIONES NO-NEWTONIANAS DE LOS ALUMNOS A LA PREGUNTA # 15 DE FCI Se puede observar, la gran confusión con la que los estudiantes quedaron al final del curso; no son capaces de diferenciar entre la segunda y tercera ley de Newton; del 44% de alumnos que acreditaron e indicaron la opción correcta, (A.- la intensidad de la fuerza que el automóvil aplica sobre el camión es igual a la de la fuerza que el camión aplica sobre el auto) quedó sólo el 9%; de manera similar, los alumnos que no acreditaron, del 45% se redujo al 15% con las mismas ideas.

Un camión grande se avería en la carretera y un pequeño automóvil lo empuja de regreso a la ciudad tal como se muestra en la figura adjunta

Mientras el automóvil que empuja al camión acelera para alcanzar la velocidad de marcha:

A.- la intensidad de la fuerza que el automóvil aplica sobre el camión es igual a la de la fuerza que el camión aplica sobre el auto. B.- la intensidad de la fuerza que el automóvil aplica sobre el camión es menor que la de la fuerza que el camión aplica sobre el auto. C.- la intensidad de la fuerza que el automóvil aplica sobre el camión es mayor que la de la fuerza que el camión aplica sobre el auto. D.- dado que el motor del automóvil está en marcha, éste puede empujar al camión, pero el motor del camión no está funcionando, de modo que el camión no puede empujar al auto. El camión es empujado hacia adelante simplemente porque está en el camino del automóvil. E.- ni el camión ni el automóvil ejercen fuerza alguna sobre el otro. El camión es empujado hacia adelante simplemente porque está en el camino del automóvil.

El 44% de los alumnos que acreditaron y que respondieron “correctamente”, escribieron explicaciones que muestran diferencias significativas entre la explicación promedio. Se encuentra que las explicaciones o interpretaciones que validan las respuestas correctas se reducen al 9%, por no ser del todo exactas. • Por la tercera ley de newton. • Debido a la tercera ley de newton.

El resto de las explicaciones de quienes consideraron explicar correctamente, encontramos: • es la misma fuerza ya que existe una fuerza que

efectúa el camión hacia el carro que es la misma del carro aunque cuando ya quiere que alcance la velocidad de marcha el carro debe de aplacar mayor fuerza hacia el camión.

• en un instante de tiempo es posible que la fuerza que ejerce el auto sobre el camión sea igual a la resistencia de este dado que ninguno de los dos se mueven.

Pero aun hay explicaciones que verdaderamente salen de contexto, al considerar la segunda en lugar de la tercera ley de newton. • Por la segunda ley de newton. • Debido a la segunda ley de newton. • Por la segunda ley de newton F -F sería (A). • Porque el automóvil recibe la misma fuerza que

ejerce sobre el camión como dice la segunda ley de newton.

Respecto a las explicaciones de los alumnos que no acreditaron, el promedio de respuestas seleccionadas, es muy similar (45%), de los cuales se redujeron al 15% al considerar la explicación: • Debido a la tercera ley de newton. • Esto se da por la tercera ley de newton. • a, de acuerdo a la tercera ley de newton.

Esto se interpreta como que el concepto que clásicamente se enseña; es decir los profesores, enseñan a hacer creer a los estudiantes que las leyes aseguran el comportamiento de la naturaleza. • Por la ley de newton. • Por las leyes de newton. • Por la segunda ley de newton.

Esto se comprueba al observar que las leyes conceptualmente no se han entendido, aun después del curso. • Porque el automóvil recibe la misma fuerza que

ejerce sobre el camión,

• Es la misma fuerza ya que existe una fuerza que efectúa el camión hacia el carro que es la misma del carro aunque cuando ya quiere que alcance la velocidad de marcha el carro debe

como dice la segunda ley de newton.

Aunque la explicación parece correcta, cuando trata de aplicarla, se manifiesta su poco dominio.

de aplacar mayor fuerza hacia el camión.

Dentro de las opciones más seleccionadas por los estudiantes acreditados, esta la opción 15C (la intensidad de la fuerza que el automóvil aplica sobre el camión es mayor que la de la fuerza que el camión aplica sobre el auto) que según la clasificación de Hestenes, corresponde a una fuerza impulsiva. El 48% fue el porcentaje que a primera vista, refleja la idea de impulso aplicado para mover un objeto. Sin embargo aproximadamente la mitad escriben explicaciones como: • Porque se requiere de mayor fuerza para alcanzar la

velocidad.

Opciones Newtonianas de estudiantes no-Newtonianos, análisis de alumnos Universitarios: FCI

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 427 http://www.journal.lapen.org.mx

• Porque para moverlo tiene que tener una fuerza de intensidad mayor

• Porque para mover el camión la fuerza deber ser mayor la que debe aplicar el auto que la masa del camión.

.

• Si por que como el camión pesa mas que el coche lo que debe de hacer el auto para vencer la fuerza del camión es multiplicar su peso por una aceleración para que las fuerza del auto sea mayor y así poder mover el camión.

Se puede observar la confusión entre la aplicación de un impulso, con la igualdad de la fuerza en los cuerpos, independientemente de la forma en la que se aplique la fuerza.

En otros casos la explicación es compleja, reflejando un uso de conceptos mal aplicados. • Porque si fuera no se estaría moviendo. • Por q el q va empujando es el carro y como empuja a

otra masa mas grande q él su trabajo es mayor. • El camión no va en movimiento así que solo actúa su

peso. • Ya q para q puedan avanzar se necesita q la fuerza

del auto sea mayor aun sin q el camión esté en marcha peor si aplica una fuerza hacia el auto.

Sin embargo se continúa con la idea del impulso. En el caso de los alumnos no acreditados, el 45% optaron por la opción C, sus explicaciones no difieren de las escritas por los estudiantes acreditados. • Porque se mueven creo yo. • Es tan solo un poco mas que la fuerza del auto

• Por q el camión esta en reposo y el

para así poder mover el camión.

automóvil tiene una fuerza

En éste caso se encuentran un mayor número de preconcepciones coloquiales y un mal uso de los conceptos “aprendidos”:

que hace mover al camión.

• • por la s leyes de newton ya que

primera ley de newton.

• la

el camión ejerce una fuerza que la de su peso.

intensidad de fuerza del auto

• para empujar el automóvil al camión debe

es mayor a la del camión debido que el camión no esta en marcha y solo de pende de la fuerza del auto.

tener una fuerza mayor

• los dos se ejercen fuerzas entre si, pero la fuerza de empuje del automóvil es

por que sino no seria posible que lo pudiera empujar.

mas grande en ese momento que el camión

Coletta y Phillips 2005 [16], reportan que independientemente de métodos interactivos y/o la eficacia de los instructores, una alta ganancia <g> del inventario de fuerzas FCI, se debe en gran parte al alto nivel cognitivo de los estudiantes, hecho que generalmente no es reconocido. Independientemente del estado inicial de los conocimientos del alumno, un alta <g>, como una medida de aprendizaje en los cursos universitarios sólo es alcanzada por estudiantes con habilidad de razonamiento; alta puntuación inicial en cursos de Física en secundaria,

también puede ser un reflejo de un mayor aprendizaje logrado por los pensadores formales.

se encuentra en reposo.

V. CONCLUSIONES Ante los resultados, se muestra la débil consistencia de la didáctica tradicional, independientemente de las capacidades de los instructores, y en este caso de la estrategia. Al parecer los profesores que incidieron más en la acreditación del curso, fueron los profesores que enseñaron a resolver problemas, aunque respecto a la eficacia queda mucho que decir. Con respecto a los logros del curso teórico (magistral) se encontró que los alumnos menos del 13% en promedio, lograran desarrollar un pensamiento newtoniano y en general todos los alumnos muestran una gran incoherencia; para aplicar los conceptos en otros contextos (contextual); para integrar y diferenciar entre ellos (marco conceptual) etc. Ente éstos hechos, si se quiere deducir la deserción y preparar en lo básico a los estudiantes, en el área de la mecánica newtoniana, se recomienda considerar en alguna medida las estrategias basadas en la enseñanza activa descritas en forma resumida en el presente documento, y no perder de vista en su diseño, las capacidades cognitivas de los alumnos. REFERENCIAS [1] Halloun, I. and Hestenes D., The initial knowledge state of college physics students, Am. J. Phys. 53, 1043-1048 (1985). [2] Hestenes D., Wells M., and Swackhamer G., Force Concept Inventory, The Physics Teacher 30, 141-158 (1992). [3] Arons, A. B., A Guide to Introductory Physics Teaching, (John Wiley & Sons, USA, 1990). [4] Halloun I., and Hestenes D., A Taxonomy of Common Sense Concepts About Motion, American Journal of Physics 53, 11 (1985). [5] Huffman D. and Heller P., What Does the Force Concept Inventory Actually Measure?, The Physics Teacher 33, 138-143 (1995). [6] Hestenes D. and Halloun I., Interpreting the Force Concept Inventory, A response to Huffman and Heller, The Physics Teacher 33, 504-506 (1995). [7] Hake, R. R., Evaluating Conceptual Gains in Mechanics: A six-thousand-student survey of test data, AIP Conference Proceeding No. 399, The Changing Role of Physics Departments in Modern Universities: Proceedings of the ICPE, edited by E. F. Redish and J. S. Rigden, (AIP, Woodbury, 1997) pp. 595-603. [8] Knight, D., Five easy lessons. Strategies for successful physics teaching, California Polytechnic State University-San Luis Obispo, (Addison-Wesley, USA, 2004). [9] Bransford, J.; Brown, A. and Cocking, R., How People Learn: Brain, Mind, Experience, and School. National Research Council, (National Academy Press, Washington, D.C., 2000).

Adrián Corona

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 428 http://www.journal.lapen.org.mx

[10] Heller P., Keith R., Anderson S., Teaching problem solving through cooperative grouping. Part 1 & 2, Am. J. Phys. 60, 627 (1992). [11] Hake, R., Socratic pedagogy in the introductory physics laboratory, The Physics Teacher 30, 546-552 (1992). [12] Thornton, R. K., and Sokoloff, D. R., Learning Motion Concepts Using Real-Time Microcomputer-Based Laboratory Tools, American Journal of Physics 58, 858-867 (1990). [13] Mazur E., Comprensión o memorización: ¿Estamos enseñando lo correcto?, Memorias del LVII Taller

Internacional Nuevas Tendencias en la Enseñanza de la Física, Puebla, México, 8-23, (2009). [14] Crouch H. and Mazur E., Peer Instruction: Ten years of experience and results, Am. J. Phys. 69, 9 (2001). [15] Turpen Ch. and Finkelstein D., Not all interactive engagement is the same: Variations in physics professors’ implementation of Peer Instruction, Physical Review Special Topics - Physics Education Research 5, (2009). [16] Coletta P. and Phillips A., Interpreting FCI scores: Normalized gain, preinstruction scores, and scientific reasoning ability, Am. J. Phys. 73, 1172-1182 (2005).

Lat. Am. J. Phys. Educ. Vol. 4 No. 2, May 2010 429 http://www.journal.lapen.org.mx

El modelo estándar como célula generatriz y contexto sistematizador de contenidos en el curso de Física General

J. J. Llovera-González1

1Departamento de Física, ISPJAE, calle 114 No.11901 entre 119 y 127, CP 10400, La Habana, Cuba. E-mail: [email protected] (Recibido 28 de Marzo de 2010; aceptado el 7 de Mayo de 2010)

Resumen Con el descubrimiento del quark top, en 1995, se confirmó una vez más en la práctica la validez del modelo estándar acerca de la estructura de la materia. La actualidad científica del tema así como el carácter esencial y sistematizador del modelo estándar han hecho necesaria y útil su incorporación paulatina a los Cursos de Física General desde hace más de dos décadas. En el presente trabajo se fundamenta una metodología didácticamente fundamentada para insertar las ideas básicas del modelo estándar en el curso tradicional de Física General revelando el papel sistematizador del modelo como “célula generatriz” para organizar el aprendizaje de los contenidos relativos a la Física Nuclear y a las nociones de cosmología, así como para consolidar otros contenidos ya estudiados en el Curso de Física General. Palabras clave: Enseñanza de la Física, modelo estándar, reestructuración de contenidos, física de las partículas fundamentales.

Abstract When the quark top was discovered in 1995, the validity of the standard model about the matter structure was confirmed again in the practice. The scientific actuality of this subject as soon as his essential and systematiser character has done necessary and useful a gradual incorporation of it to the General Physics Courses in the last two decades. In this paper a didactical methodology is presented for insert the basic ideas of the standard model in a classic general physics course revealing the systematiser role of the model like a “generator cell” and organizing the apprenticeship of new contents of the Nuclear Physics and the notions of cosmology so as refund another contents studied in the General Physics Course. Keywords: Physics teaching, standard model, contents reorganization, physics of fundamental particles. PACS: 01.40.gb, 01.40.Ha, 01.40.Fk ISSN 1870-9095

I. INTRODUCCIÓN Si bien los que nos dedicamos a la enseñanza de la física estamos de acuerdo, en general, en el hecho de que el tema "partículas elementales" debe ser tratado en los Cursos de Física Moderna para físicos, muchos profesores no tienen en cuenta, a nuestro juicio, la importancia de incluir el tema en los Curso de Física General para contribuir a la formación de una concepción científica del mundo en los estudiantes. Hace apenas 15 años el modelo estándar de la estructura de la materia no estaba aún totalmente corroborado, sin embargo con los experimentos sobre la dispersión de electrones por núcleos que revelaron la presencia de los quarks como elementos estructurales de los nucleones y que le valieron a Taylor y Friedman en 1990 el premio Nobel de Física y con el descubrimiento del quark top en el Fermilab, en 1995, se ha logrado una convincente confirmación de dicho modelo. En la actualidad se reconoce que el Modelo

Estándard es una consecuente teoría de las interacciones microscópicas fundamentales que explica con éxito la mayoría de los fenómenos conocidos en la física de la partícula elementales [1]. Por otra parte, los éxitos logrados en las teorías que hoy existen acerca de la evolución del Universo que tienen su fundamento en el modelo estándar es otro indicador que avala la necesidad de incluir los fundamentos de dicho modelo y los procesos que el mismo puede explicar en el Curso de Física General. Al desarrollo de tecnologías para la aceleración y detección de partículas ha contribuido notablemente el trabajo en equipo de físicos e ingenieros de las más diversas especialidades en aquellos países que cuentan con los recursos para desarrollar estas investigaciones. Por último el análisis de los principios físicos que tienen que ver con los procesos de predicción, producción y aislamiento, detección y caracterización de partículas fundamentales nos permite identificar en este tema un

J. J. Llovera-González

Lat. Am. J. Phys. Educ. Vol. 3, No. 1, Jan. 2009 430 http://www.journal.lapen.org.mx

contexto didáctico a partir del cual se hace posible la consolidación de conocimientos y habilidades ya adquiridos en otros temas del Curso de Física General así como servir de célula generatriz para organizar el aprendizaje del tema Física del Núcleo y de los fundamentos de cosmología. El resto del trabajo se dedica a: 1.- Definir y argumentar un sistema de objetivos y de contenidos del tema partículas e interacciones fundamentales que puedan tener mayor incidencia en la formación general y politécnica de estudiantes de educación superior. 2.- Fundamentar metodológicamente el papel que puede jugar el aprendizaje de este tema, como contexto sistematizador, para la consolidación y aprendizaje de conocimientos y habilidades en el curso de Física General. 3.- Poner ejemplos de algunas tareas docentes y formas de enseñanza que permitan cumplir los objetivos propuestos para el tema desde la perspectiva de un curso de Física General universitaria. II. LA TEORÍA DE LA FORMACIÓN POR ETAPAS DE LAS ACCIONES MENTALES Y LA REESTRUCTURACIÓN DE CONTENIDOS A APRENDER Una de las teorías más acertadas acerca de como se desarrolla el proceso de aprendizaje es la teoría de la formación por etapas de las acciones mentales debida a Galperin. Esta teoría proporciona una explicación de como se produce el proceso de apropiación de los contenidos por parte de los estudiantes y considera que este proceso se divide en las siguientes etapas:

• Etapa motivacional. • Etapa de la elaboración de la base orientadora de la

acción (BOA). • Etapa material (o materializada). • Etapa del lenguaje externo. • Etapa del lenguaje interno. • Etapa mental.

Según esta teoría existen diferentes bases orientadoras de las acciones que se diferencian de acuerdo a su grado de generalización, completitud y forma de adquisición por parte de quien aprende siendo la llamada de tercer tipo (general, completa y adquirida de forma independiente) la que se reconoce como la más adecuada para producir aprendizaje significativo con un alto grado de apropiación y solidez del contenido a aprender [2] sin embargo, para lograr elaborar un programa de aprendizaje fundamentado en esta BOA se requiere realizar una reestructuración de los contenidos identificando células generadora y/o contenidos invariantes. En trabajos anteriores se han definido por el autor ambas categorías empleadas para clasificar los contenidos así como una metodología para ayudar a identificarlos en un tema, asignatura o disciplina [3, 4].

Una célula generadora la definiremos como un contenido tal que por su carácter esencial y simple puede servir de base para organizar el aprendizaje de otros contenidos más complejos que del mismo se derivan a partir de aplicarle determinadas leyes o principios de desarrollo.

El modelo estándar de la estructura e interacciones fundamentales en el Universo fue identificado como célula generadora de contenidos en el curso de Física General, a esto contribuye su simplicidad y potencialidades para explicar procesos tales como los mecanismos de interacción entre partículas que describen las interacciones fundamentales (gravitatoria, electro débil y fuerte) así como la estructura del núcleo atómico, de sus nucleones y la génesis de muchos de los procesos de desintegración, creación y aniquilación de pares de partículas característicos de la Física de altas energías.

También su alcance permite abordar como veremos algunos contenidos relacionados con los fundamentos de la cosmología al nivel de un curso de Física General. III. REESTRUCTURACIÓN DE CONTENIDOS DE LA FÍSICA DEL NÚCLEO Y DE LAS PARTÍCULAS FUNDAMENTALES TOMANDO COMO BASE EL MODELO ESTÁNDAR Al hacer un análisis del sistema de conocimientos que tienen que ver con el tema del estudio de las partículas fundamentales se puede concluir la existencia de los siguientes rasgos característicos en orden de evidencia: 1.- Sólida y compleja fundamentación teórica basada fundamentalmente en criterios de simetría. 2.- Notable manifestación de conceptos, principios y leyes de la Física relativas a diversas temáticas que se abordan en un curso de Física General clásicamente estructurado (mecánica, termodinámica, electromagnetismo, física cuántica, física nuclear) como parte de los fundamentos experimentales del tema. 3.- Carácter universal de los resultados obtenidos en la medida en que sirven de fundamento a la explicación de procesos característicos a escala microscópica (nuclear y subnuclear) que tienen repercusión en la explicación de otros procesos a escala megascópica (estrellas, huecos negros, Universo en evolución) no debiendo confundirse con el denominado modelo estándar de la cosmología del Big Bang como muy acertadamente remarca Matts [5]. Se trata entonces de definir un sistema de objetivos para el tema que se corresponda con los requerimientos de formación de los egresados de nivel superior y que sea alcanzable atendiendo al nivel de entrada del estudiante al abordar el tema. Tales objetivos deben contribuir a la formación del estudiante, tanto en la dimensión científico - cultural como en la dimensión profesional, siempre que sea posible. Una vez definido el sistema de objetivos del tema se debe elegir y estructurar el sistema de contenidos necesario y suficiente para posibilitar el cumplimiento de los objetivos propuestos de tal forma que se propicie un mejor aprovechamiento del tiempo y la participación activa del alumno en la construcción del conocimiento. Desde el punto de vista didáctico parece acertada una concepción metodológica que evada el enfoque eminentemente teórico sin dejar de tratar oportunamente algunos elementos de la teoría que sean suficientemente

El modelo estándar como célula generatriz y contexto sistematizador de contenidos en el curso de Física General

Lat. Am. J. Phys. Educ. Vol. 4 No. 2, May 2010 431 http://www.journal.lapen.org.mx

sencillos y fundamentales como para que puedan asimilarse por un estudiante que no precisa adquirir una formación como la que recibe un estudiante de física teórica ya que no se forma como tal. Resulta entonces más atractiva la idea de poner énfasis en el resto de los aspectos ya analizados y fundamentalmente en explotar didácticamente los dos siguientes: 1.- Los elementos de tecnología vinculados a los fundamentos experimentales del tema junto a la posibilidad de consolidar contenidos ya aprendidos. (rol sistematizador) 2.- El carácter universal del tema que posibilita a partir de su comprensión el estudio de los fundamentos de la Física del Núcleo y de las ideas básicas de una de las concepciones contemporáneas acerca de la evolución del Universo como lo es la teoría de la Gran Explosión. (rol de célula generatriz) De acuerdo con el criterio anteriormente planteado se proponen los siguientes objetivos generales para el tema: A. Objetivos del tema

1. Resumir los rasgos esenciales que caracterizan el modelo estándar de la estructura de la materia y aplicarlo como elemento sistematizador para explicar los procesos físicos que han dado lugar al estado de evolución actual del Universo y en particular a la estructuración de los núcleos y átomos y a la explicación de los procesos nucleares fundamentales.

2. Definir y aplicar los criterios de sistematización de las partículas estructuradas por analogía con los criterios de sistematización de los elementos químicos en la Tabla Periódica.

3. Identificar el carácter histórico relativo del criterio de elementaridad de una micropartícula así como la concepción contemporánea acerca de la estructura y evolución del Universo como manifestación de los principios filosóficos acerca de la cognoscibilidad y materialidad del mundo.

4. Consolidar el desarrollo de habilidades alcanzado en los temas anteriores del curso de Física General para:

• Aplicar e interpretar las relaciones de indeterminación (a través de la introducción de los conceptos partícula virtual de intercambio y alcance de las interacciones).

• Aplicar el principio de exclusión de Pauli. • Interpretar el principio de cuantificación ampliando

el conjunto de números cuánticos conocido. (bariónico, leptónico, color y encanto)

• Calcular las energías de enlace y de desintegración de partículas y procesos.

• Aplicar los principios de conservación ya conocidos como criterios de imposibilidad e identificar nuevas propiedades de simetría de la naturaleza (paridad e isospín).

• El cálculo de magnitudes físicas características del movimiento mecánico desde diferentes sistemas de

referencia inerciales en el rango de velocidades relativistas.

• El cálculo de la longitud de onda de la onda de De Broglie y el análisis de la validez o no del modelo corpuscular para describir la interacción de dicha partícula con otra. (Definición de energías de penetración de los aceleradores).

• Interpretar las leyes que regulan el movimiento de partículas electrizadas en campos electromagnéticos como fundamento físico de los sistemas de aceleración y detección de partículas.

• Aplicar la ley de gravitación universal, las leyes de la radiación térmica y la ley de distribución de Boltzmann para explicar los niveles de energía que han caracterizado al Universo en el tiempo en sus diferentes etapas de evolución.

Veamos ahora que elementos de contenido están relacionados con cada uno de los objetivos anteriores y cómo proponemos estructurarlos sistémicamente para propiciar su aprendizaje mediante la resolución de tareas. En relación con el primer objetivo el mismo está orientado a la asimilación de los fundamentos físicos del tema que son desconocidos para el estudiante y que constituirán el fundamento de la base orientadora para la asimilación de otros contenidos también reflejados en ese objetivo. Los conceptos que deben ser asimilados como fundamento de la base orientadora son:

1. La necesidad de sistematizar una gran cantidad de partículas detectadas por el hombre y las evidencias experimentales de la factibilidad de hacerlo por analogía con la Tabla Periódica de elementos químicos.

2. La hipótesis de la estructura quarquica de los nucleones y la identificación de los quarks y leptones como partículas fundamentales (fermiones).

3. El modelo cuántico de interacción por intercambio y los bosones intermedios virtuales.

4. Las leyes de interacción fundamentales en la naturaleza y las partículas fundamentales que participan en estas.

5. Los resultados de la teoría de Dirac acerca del espín y el concepto de antipartículas. Concepto de vacío y fluctuaciones cuánticas.

6. La necesidad de atribuir una carga de "color" a los quarks y a los gluones intermedios, y el carácter "incoloro" de las estructuras quarquicas (hiperones, mesones, resonancias).

7. La introducción, de nuevos números cuánticos asociados a "cargas" que se conservan en determinados procesos de interacción y transformación de partículas tanto fundamentales como estructuradas. La asociación de dichas leyes de conservación a propiedades de simetría internas de las partículas y sus campos (carga bariónica, leptónica, isoespin, extrañeza).

8. Los criterios teóricos y prácticos que son considerados para investigar las partículas fundamentales en los aceleradores de partículas.

J. J. Llovera-González

Lat. Am. J. Phys. Educ. Vol. 3, No. 1, Jan. 2009 432 http://www.journal.lapen.org.mx

9. Las teorías unificadoras de las interacciones fundamentales (unificación electrodebil ya comprobada, Gran Unificación y Teoría del Todo)

Un elemento novedoso desde el punto de vista metodológico es introducir desde este momento algunos conceptos básicos que tradicionalmente se presentan en el contexto del núcleo atómico, estos son: - Energías de enlace y de desintegración. - El criterio para decidir si un proceso de desintegración puede ser o no natural. - La ley exponencial de desintegración radiactiva y los parámetros que caracterizan este proceso. Lo anterior se puede hacer a partir de analizar, por ejemplo, la estructura quarquica del mesón π+ conociendo las masas de los quarks que lo estructuran y del propio mesón. También se puede considerar el proceso de desintegración natural que transforma el neutrón en protón según el esquema

para el cálculo de la energía de enlace. A partir de este proceso se puede introducir la ley de desintegración natural y ejemplificarla usando entonces otro ejemplo, el de la desintegración del protón, según el esquema

01π+→ +ep

¿Por qué este proceso es tan poco probable, τ = 1031 años ? A partir de esta base se puede abordar el estudio de la física nuclear comenzando por caracterizar la interacción entre nucleones como proceso de transmutación de quarks al transferirse gluones coloreados formándose pares (mesones) como estados intermedios. También se puede explicar entonces la desintegración −β como resultado de la interacción débil, según el diagrama de Feynman.

Otro contenido que se introduce utilizando el modelo estandard como célula generatriz es la explicación de procesos fundamentales que contribuyeron a la evolución del Universo hasta su estado actual. El estudio de este contenido se puede organizar sobre la base de dos resultados experimentales, la ley de Hubble y la detección de la radiación relicta de microondas, que responde perfectamente a las leyes de la radiación térmica. A partir de esta información se pueden organizar tareas docentes que faciliten al estudiante apropiarse del contenido

sobre la base de un trabajo independiente en pequeños grupos. Esta concepción de organizar durante el proceso de aprendizaje la actividad individual y colectiva de los alumnos en el aula alrededor de la solución colectiva de tareas docentes está en la base de la teoría de la formación por etapas de las acciones mentales ya que propicia que dichas etapas se sucedan en cada estudiante según se vaya ampliando su zona de desarrollo próximo. Por otra parte, y desde un enfoque constructivista, Díaz Barriga ha enfatizado que “la utilización de problemas y situaciones problemáticas que enfrenta el docente son la plataforma para construir el conocimiento didáctico integrador” [6]. Algunas de estas tareas posibles son: Tarea 1 a).- Conociendo que la densidad del Universo en expansión en sus primeros tiempos es aproximadamente igual a la densidad de la radiación relicta térmica de fondo ρ rr y depende del tiempo según la relación:

tG 232

3

r.r

πρρ =≈ ,

y utilizando la leyes de la radiación térmica demuestre que la ley de enfriamiento del Universo es

),(1010 sentKenTT t 21 -

≈ . b).- Asumiendo que la energía cinética del gas de fotones responde a la distribución de Boltzmann (K≈kT) obtenga la dependencia de la energía del Universo con el tiempo. Tarea 2 Calcular la temperatura mínima del universo que permite la producción de pares nucleón- antinucleón a partir del choque de dos fotones según el esquema

nn ~+→+γγ ¿A qué "edad" del Universo dejaron de ocurrir estos procesos? La clase debe complementarse con un ejercicio en el que se analice el cumplimiento de las leyes de conservación en el proceso de formación y aniquilación de pares leptón- antileptón. En relación con el estudio de la radiactividad y las reacciones nucleares tomando como base los contenidos asimilados en el estudio de las partículas e interacciones fundamentales, la propuesta metodológica permite ahora no tener que dedicar una clase teórica para el tema sino que el estudiante pueda asimilar nuevos contenidos en clases prácticas. Algunas de las tareas docentes que se sugieren para estas clases son:

p e-

w -

n

min 13 =++→ − τυeepn ~1

El modelo estándar como célula generatriz y contexto sistematizador de contenidos en el curso de Física General

Lat. Am. J. Phys. Educ. Vol. 4 No. 2, May 2010 433 http://www.journal.lapen.org.mx

Tarea 3 Aplicando el principio de indeterminación para la energía y el tiempo demuestre que la distancia mínima a la cual se pueden acercar dos partículas con energía E está dada por la expresión

min c~r E

.

Tarea 4 El bosón W+, portador de la interacción electro débil tiene una masa de 80 GeV/c2

a) ¿Cuál debe ser la energía mínima que debe liberarse de colisionar un p y un p~ en un colisionador para producir un bosón W+ , según el esquema?

π −+ +→+ wpp ~ .

b) ¿A qué distancia mínima se acercan las dos partículas para colisionar? c) ¿Cuál debe ser la energía mínima del antiprotón para que ocurra la misma reacción en un choque con un protón estacionado? Tarea 5 Analice los siguientes procesos en términos de sus contenidos de quarks. a) γ eenp ++→ + ,

b) γ~eepn ++→ − , y discuta la factibilidad de que se realicen espontáneamente siendo las partículas iniciales libres. Tarea 6 ¿Qué energía mínima debe tener un electrón para que pueda penetrar un núcleo sin difractarse? Considere que dada su pequeña masa el electrón puede alcanzar velocidades relativistas. La dimensión del núcleo es ~10-15 m. El resto de las tareas se deben relacionar específicamente con las desintegraciones y reacciones nucleares. A manera de conclusiones del tratamiento del tema pueden resumirse las siguientes:

• Las posibilidades y limitaciones del modelo estandard en su etapa actual de desarrollo. Las posibilidades se han visto en las clases anteriores, las limitaciones están en aspectos aún no comprobados, como son:

• La detección experimental del υτ y el gravitón. • La existencia de otros bosones intermedios que al

igual que los W+, W- y Z0 permitieron unificar la interacción débil con la electromagnética, permitan lograr la Gran Unificación y la Teoría del Todo (Partículas de Higgs, bosones X, Y.)

• Resumir las partículas que hasta la fecha se consideran fundamentales según el modelo estándar

y la relatividad de este concepto así como sus generaciones.

• Los tipos de interacciones y sus características.

• Las leyes de conservación que se verifican y las

interacciones que las cumplen así como las propiedades de simetría asociadas y el concepto de simetría en si mismo.

B. Recomendaciones bibliográficas Como texto guía pueden servir [7, 8] fundamentalmente, ambos tienen suficiente cantidad de ejercicios así como una exposición clara y sencilla del tema. Para profundizar en los conceptos a nivel descriptivo puede consultarse [9, 10, 11]. Para profundizar en los aspectos teóricos del tema se sugieren [5, 12]. Como texto para el alumno se sugiere imprimir un material monográfico en el que se resuman las ideas básicas tratadas en el tema dada la no disponibilidad de texto actualizado contentivo del enfoque de reestructuración propuesto. IV. CONCLUSIONES Se ha fundamentado una propuesta metodológica viable para incluir el tema partículas e interacciones fundamentales en el Curso de Física General. La propuesta se caracteriza por los siguientes elementos no tradicionales:

1. El tema se aborda antes del contenido Física del Núcleo y le sirve de fundamento de la base orientadora de la acción para organizar el aprendizaje del mismo con más independencia por parte de los estudiantes.

2. Se incluye en el curso un conjunto de tareas docentes orientadas didácticamente al aprendizaje de nuevos contenidos así como a la consolidación de contenidos de física ya estudiados.

3. Se introducen elementos de cosmología también a partir de la resolución de tareas independientes sobre la base del uso del modelo estándar de las partículas e interacciones fundamentales.

REFERENCIAS [1] Altarelli, G., The Standard Model of Particle Physics, CERN-PH-TH/2005-206 arXiv:hep-ph/0510281 v1 21 Oct 2005.

J. J. Llovera-González

Lat. Am. J. Phys. Educ. Vol. 3, No. 1, Jan. 2009 434 http://www.journal.lapen.org.mx

[2] Talizina, N. F., Psicología de la Enseñanza, (Ed. MIR, Moscú, 1988). [3] Llovera, J. J., Base orientadora de la acción para la determinación de contenidos invariantes y células generatrices, Memorias del V Taller Internacional sobre la Enseñanza de la Física en Ingeniería (EFING` 2002) La Habana, 2002. [4] Llovera, J. J., Aprendizaje de la Física por Invariantes, Memorias de la III Conferencia Internacional sobre Educación Superior, UNIVERSIDAD 2006, La Habana, febrero de 2006. [5] Matts, R., Introduction to Cosmology, (3th. Edition. John Wiley & Sons. Ltd. 2003).

[6] Díaz Barriga, F., Estrategias Docentes Para un Aprendizaje Significativo, (Mc.Graw Hill, México, 2000). [7] Halliday, D. y Resnick, R., Física. Vol. 2., (Cuarta edición, versión ampliada John Wiley & Sons, USA,1992). [8] Sears, F. W., Zemansky, M. W., Física Universitaria Vol. 2. Novena edición, (Addison-Wesley, Longman, 1996). [9] Novikov, I., ¿Cómo explotó el Universo?, (MIR, Moscú 1988). [10] Ciencia Hoje. Vol. 18 No. 108, Abril. 1995. [11] Sociedad Brasileira de Física, A Física no Brasil na Próxima Década. Física Nuclear, Física de Partículas e Campos, Instituto de Física da USP, Sao Paulo 1990. [12] Sokolov, A. A., Ternov, I. M., Electrodinámica Cuántica, (MIR, Moscú, 1989).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 435 http://www.journal.lapen.org.mx

La enseñanza de la física y las matemáticas: un enfoque hacia la educación ambiental

Rodolfo Fabián Estrada Guerrero Departamento de Física y Matemáticas Universidad Iberoamericana, Prolongación Paseo de la Reforma 880 Lomas de Santa fe, Álvaro Obregón, C. P. 01219, México D. F. México. E-mail: [email protected] (Recibido el 15 de Febrero de 2010; aceptado el 9 de Mayo de 2010)

Resumen En este trabajo se presenta un análisis reflexivo acerca del papel que juega la enseñanza de las ciencias en un contexto de conciencia social, se estudia el caso particular de la física y las matemáticas haciendo énfasis en la importancia que tiene la enseñanza de estas ciencias para hacer una conciencia social en lo que a la contaminación ambiental se refiere. Este análisis muestra que la ciencia no solo se limita a la generación de nuevos conocimientos, también puede aplicarse a la creación de una conciencia social que repercute en el bienestar de una sociedad y, por que no, en la mejora de la calidad de vida de los habitantes de un país. Palabras clave: Conciencia social, Enseñanza-aprendizaje, Contaminación, Física, Matemáticas.

Abstract In this work a reflective analysis about the role that plays the teaching of science into a context of social conscience is presented, there is studied in particular the casa of the teaching of physics and mathematics doing emphasis on the importance that has the education in these two science to encourage the social conscience in what to the environmental problems it refers. This analysis shows that the science not only limits it self to the generation of new knowledge, also it is possible to apply them to create a social conscience that can be seen as well-being of a society and, why not, in a better quality of life in whole country. Keywords: Social conscience, Teaching-learning, Contamination, Physics, Mathematics. PACS: 01.40.gb, 01.75.+m, 01.40.E-, 01.40.J-. ISSN 1870-9095

I. INTRODUCCIÓN En la actualidad los problemas ambientales han adquirido gran importancia debido a que afectan a todos los seres humanos, basta echar un vistazo al cambio climático provocado por la emisión de gases a la atmósfera del planeta, esto ha provocado un aumento global en la temperatura promedio del planeta y como consecuencia los polos se derriten con mayor intensidad por lo que se ha perdido parte de ellos en los últimos años [1, 2]. La solución a este y otros problemas relacionados con la contaminación ambiental no puede ser encontrada por una persona ni por un grupo de investigadores a nivel mundial dedicados a la investigación en el mejoramiento y cuidado del medio ambiente [3, 4], se debe generar una conciencia social para poder enfrentar estos problemas y proponer una solución en beneficio de la humanidad.

Es en el ámbito educativo desde donde se puede generar una conciencia acerca de este y otros problemas ambientales, algunos de estos problemas tienen un gran

contenido en donde la enseñanza de la física y las matemáticas puede ser aplicada para crear conciencia en los estudiantes desde nivel secundaria, en donde el alumno empieza a tener conciencia de los problemas sociales, hasta el nivel superior, en donde el alumno participa activamente en la búsqueda de soluciones a este y otro tipo de problemas. Por medio de la enseñanza de la física y las matemáticas se puede orientar a los estudiantes en esta problemática al menos por dos razones: por una parte, algunos de los problemas ambientales tienen su origen en agentes físicos como la radiación, el sonido, el calor y los fenómenos de transporte de materia y energía, por otra parte la matemática, dada la complejidad de estos fenómenos contribuye en la búsqueda de un modelo que los describa y facilite su estudio. Uniendo estas dos contribuciones a través de la enseñanza de estas dos ciencias, en el ámbito escolar se puede educar a los estudiantes induciéndolos en la aplicación de estas ciencias en el cuidado del medio ambiente.

Rodolfo Fabián Estrada Guerrero

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 436 http://www.journal.lapen.org.mx

En México los planes y programas de estudio propuestos por la Secretaría de Educación Pública (SEP) [5], en las materias relacionadas con las ciencias en el nivel básico, medio y medio superior, han comenzado a tratar temas relacionados con el cuidado del medio ambiente, sin embargo, en el nivel superior, en donde existe la autonomía educativa en algunas instituciones, no se debe dejar de tratar estos temas, pues es en las universidades donde se profundiza en el estudio de las ciencias y se le puede dar un enfoque de tal manera que los conocimientos científicos se apliquen al cuidado del medio ambiente y al mismo tiempo crear una conciencia social de esta problemática [6, 7, 8].

Es necesario dar a conocer las contribuciones que la física y las matemáticas pueden aportar al estudio del medio ambiente [2], pues estas ciencias tiene un enfoque diferente al de otras ciencias como la bilogía o la ecología en donde estos temas se tratan con mayor detalle dado el tipo de conocimientos que con ellas se generan, sin embargo, la física y las matemáticas por ser consideradas como ciencias duras no se han enfocado adecuadamente para resolver problemas ambientales. En este trabajo se tratan algunas cuestiones ambientales que pueden servir como punto de partida para discutir y proponer soluciones a algunos de estos problemas aplicando los conocimientos científicos derivados de la física y la matemática. En la sección II se analiza la relación de la física con los problemas ambientales, la sección III trata de las matemáticas y los problemas ambientales, la sección IV se explora la educación ambiental, finalmente en la sección V se dan las conclusiones de este trabajo. II. FISICA Y PROBLEMAS AMBIENTALES Uno de los problemas ambientales que se presenta en las grandes ciudades está relacionado con la contaminación del aire, como es bien sabido, las emisiones de gases provocadas por los motores de los coches y las emisiones de algunas fábricas son la mayor fuente de contaminación del aire, a pesar de los esfuerzos hechos por los gobiernos, como el de la ciudad de México entre otros, al imponer la verificación de las emisiones de gases de los motores de los coches e intentar reemplazar los autos viejos a través de un programa de estímulos en la compra de un auto nuevo, es inevitable que los motores de combustión interna emitan gases a la atmósfera debido a que es parte de su funcionamiento normal, si bien es cierto que estas medidas han contribuido a reducir los índices de contaminación, estas medidas no evitan la contaminación del aire. Desde el punto de vista de la física, los gases emitidos a la atmósfera aumentan la densidad y la capacidad calorífica del aire, esto trae como consecuencia que se presente el efecto invernadero, físicamente este efecto consiste en la retención de la radiación infrarroja impidiendo su disipación por lo que se produce un aumento en la temperatura promedio del aire dando lugar a un sobrecalentamiento y la consecuente alteración de la dinámica de la atmósfera.

En México, específicamente en la ciudad capital del país, se cuenta con índice de calidad del aire que se conoce como IMECA (Indice Metropolitano de la Calidad del Aire), este índice se utiliza para informar en intervalos de una hora a la población de la ciudad de México las condiciones de concentración de contaminantes en el aire, los principales contaminantes que se monitorean son: Ozono (O3), partículas suspendidas menores a 10 micrómetros, dióxido de azufre (SO2), dióxido de nitrógeno (NO2) y monóxido de carbono (CO). Si el IMECA tiene un valor entre 0 y 50 puntos la calidad del aire se califica como buena y se identifica con el color verde, si el valor IMECA está entre 51 y 100 se considera regular y se le asigna color amarillo, entre 101 y 150 la calidad del aire es mala asignándole color naranja, de 151 a 200 puntos la calidad del aire es muy mala y se le asigna color rojo, si se rebasan los 200 puntos la calidad del aire se considera extremadamente mala asignándole color morado [9]. A nivel internacional se tiene la “Environmental Protection Agency” cuya sede se encuentra en los Estados Unidos de América (USA), en esta agencia se estudia y monitorea los principales problemas ambientales en lo que a contaminación atmosférica se refiere, se estudia la lluvia ácida y se organizan talleres de educación ambiental para niños [10, 11], también se tiene la “Environmental Solutions Magazine” patrocinada por el gobierno de Canadá, en ella se tratan problemas relacionados con el cuidado del aire, el agua y los residuos industriales [12], aunado a estos esfuerzos por cuidar el medio ambiente la Organización de las Naciones Unidas ha creado el “United Nations Environment Programe” en donde se le da fuerte impulso a estudios sobre el cambio climático y la gobernabilidad ambiental a través de “Environment for Development” [13]. En este caso al enseñar los fenómenos físicos de la difusión y la transmisión del calor por convección, se le puede enseñar a los alumnos como influyen estos fenómenos en la dinámica de la atmósfera y cuando estos fenómenos naturales se convierten en un riesgo para la salud, así, a través de la enseñanza de la física desde los niveles básicos de escolaridad se puede mostrar a los alumnos como contribuye la física al estudio y cuidado del medio ambiente creando en ellos una conciencia social acerca de estos problemas.

La radiación [14] es otro fenómeno físico que interviene en la alteración del medio ambiente, la radiación que recibimos del sol es esencialmente ultravioleta, si nos llegara directamente nos produciría quemaduras en la piel y podría provocar cáncer, sin embargo esto no sucede debido a que en la atmósfera, en la capa conocida como estratósfera se tiene una capa de gas conocida como capa de ozono, en ella existe una dinámica molecular de creación y destrucción de ozono, por lo que la concentración de este gas es estable, esta dinámica molecular de equilibrio está siendo alterada por la emisión de gases conocidos como cloro-fluoro-carbonos, en consecuencia la capa de ozono se está destruyendo y la radiación ultravioleta está pasando de manera directa a la superficie de la tierra, por lo cual está aumentando la

La conciencia social-ambiental a través de la enseñanza de la física y las matemáticas

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 437 http://www.journal.lapen.org.mx

probabilidad de cáncer en la piel, la alteración en los ciclos de lluvia y también contribuye al calentamiento global del planeta. El estudio de la física de radiaciones puede ayudar a explicar las alteraciones ambientales y ecológicas que puede provocar cuando hay un aumento en la cantidad de radiación, es en el ámbito escolar en donde a través de la enseñanza y discusión de este fenómeno físico y las alteraciones que puede provocar en el ambiente donde se puede crear conciencia en los estudiantes haciendo énfasis en la aplicación de la física al cuidado del medio ambiente.

Otro aspecto en donde la física puede aplicarse al estudio de la alteración del medio ambiente es el sonido, este puede considerarse como fuente de contaminación cuando se rebasan los límites auditivos del ser humano cuyo rango de audición está entre 20 Hz y 20000 Hz [14], este intervalo de sonido se conoce como umbral de audición. El sonido se convierte en un problema ambiental cuando se rebasan los límites de intensidad sonora considerados como no perjudiciales para la salud, cuando el sonido tiene una intensidad que rebasa los 55 dB impide tener una conversación y causa molestia al sistema auditivo de una persona. La organización mundial de la salud y la OCDE son los principales organismos internacionales que desarrollan métodos de evaluación sobre los efectos que causa la exposición ambiental a sonidos intensos, en 1986 la OCDE dio a conocer los niveles de sonido considerados como umbral de ruido molesto, esto son:

• A partir de 55 hasta 60 dB ruido molesto. • Entre 60 y 65 dB ruido que lastima los oídos. • Más de 65 dB ruido que causa daño grave al oído.

La exposición a niveles altos de ruido perjudica la salud causando trastornos puramente fisiológicos como la pérdida progresiva de la audición, hasta trastornos de carácter psicológico que se manifiestan en cambios de personalidad, trato irritable en las relaciones humanas y hasta bajo rendimiento laboral. Dado que la percepción del ruido depende de cada individuo no todas las personas lo perciben de la misma manera, sin embargo, esto no implica que el organismo no se vea afectado por niveles altos de ruido, cuando una persona se expone a un nivel de ruido por encima de los 65 dB se vuelve propensa a sufrir un paro cardiaco, trastornos de sueño, dolor de cabeza, alteración de la presión arterial, estrés, disminuye la capacidad de concentración y lo que se considera más grave una exposición cotidiana y prolongada a un nivel de ruido superior a los 110 dB hace que aparezcan procesos cancerosos y que éstos se desarrollen con mayor rapidez.

En México existe una legislación que regula los niveles máximos permitidos de sonido, está contemplada en la Ley General del Equilibrio Ecológico y Protección al Ambiente en el Reglamento para la Protección al Ambiente Contra la Contaminación Originada por la Emisión de Ruido, en el capítulo VIII artículos 155 y 156 [15, 16] se especifica el nivel de sonido que es considerado como ruido que causa daño a la salud así como algunas definiciones técnicas de sonido y ruido que le dan un carácter más específico a esta ley. También se tiene una norma oficial en la ciudad de México que se publicó en la Gaceta Oficial del Distrito

Federal el 27 de septiembre de 2006, se llama Norma Ambiental para el Distrito Federal NADF-005-AMBT-2006 que establece las condiciones de medición y los límites máximos permisibles de emisiones sonoras que deben cumplir los responsables de fuentes emisoras ubicadas en el Distrito Federal. En esta norma se establecen los horarios y límites máximos permitidos de emisiones sonoras únicamente en aquellas actividades que para su operación requieran maquinaria y equipo que generen ruido intenso siendo estos:

• 65 dB entre las 6:00 y las 20:00 horas. • 62 dB entre las 20 y las 6:00 horas.

De acuerdo a lo expuesto en los párrafos anteriores, en las clases de física se puede tratar el tema de sonido haciendo énfasis en las alteraciones ambientales que puede causar este fenómeno físico, al mismo tiempo, se puede hacer consciente al alumno en los daños que causa a la salud una exposición prolongada a niveles altos de sonido. III. MODELOS METEMATICOS Las matemáticas al igual que la física se pueden aplicar al estudio del medio ambiente, su contribución es principalmente la búsqueda de modelos que describan un problema ambiental para encontrar una posible solución, los modelos matemáticos que describen un problema ambiental son muy importantes, pues como es bien sabido, un modelo matemático tiene la capacidad de predecir el comportamiento del fenómeno para el cual ha sido desarrollado, de esta manera se puede estudiar el comportamiento de un fenómeno ambiental prediciendo lo que puede ocurrir en el futuro con ese fenómeno y de esta manera tomar medidas de prevención para la protección de la población de una comunidad, país, y porque no, de todo el planeta.

El modelaje matemático es un proceso cuya meta final es obtener una ecuación matemática que describe el comportamiento de un fenómeno [17], dichos fenómenos pueden ser físicos, químicos, económicos, sociales, ambientales o biológicos entre otros. El encontrar un modelo matemático no es una tarea fácil, quien busca un modelo matemático para un fenómeno particular debe tener buenos conocimientos de los métodos matemáticos así como haber desarrollado durante su formación profesional la capacidad de intuición-creatividad para interpretar el contexto del problema que se está estudiando, discernir qué contenido matemático se adapta mejor al fenómeno de estudio y tener cierto sentido lúdico para jugar con las variables que están involucradas en el modelo a desarrollar. Los modelos matemáticos aplicados al estudio del medio ambiente se pueden dividir en dos grupos de estudio, los modelos abióticos, en ellos se busca un modelo que describa el comportamiento de seres no vivos como el aire, el agua, el clima entre otros. Modelos bióticos en donde se busca un modelo que describa el comportamiento de los seres vivos como los animales, plantas, la dinámica de estas poblaciones entre otros. En general los modelos matemáticos se basan en conceptos

Rodolfo Fabián Estrada Guerrero

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 438 http://www.journal.lapen.org.mx

fundamentales de sistemas físicos, el modelado del comportamiento del medio ambiente requiere encontrar relaciones analíticas entre las variables que permitan predecir la respuesta del sistema a un estímulo externo, la mayoría de las veces los modelos matemáticos se simplifican aplicando leyes físicas fundamentales como la conservación de la masa, la conservación de la energía y el momento entre otros principios, bajo este contexto la fundamentación de un modelo matemático depende de las hipótesis que se hacen para plantearlo, el modelo es más confiable cuando es sustentado por leyes físicas bien establecidas, el grado de confiabilidad de un modelo matemático depende esencialmente de teres factores: su verificación, calibración y validación.

La verificación está relacionada con las ecuaciones fundamentales que integran el modelo, estas ecuaciones son demostradas y en ocasiones deducidas por primera vez, por lo que el proceso de verificación permite que el modelo tenga el mínimo de errores en los parámetros que lo forman.

La calibración cosiste en el ajuste de los parámetros que fueron elegidos o deducidos para el modelo, este ajuste permite que el modelo describa el fenómeno de estudio lo más apegado posible a los resultados que se obtengan del experimento que respalda al modelo.

La validación quiere decir que el modelo y sus parámetros se aplican a la solución del problema particular para el cual se desarrolla el modelo, los resultados que se obtiene al aplicar el modelo son consistentes con un experimento que sustenta el modelo y permite hacer predicciones.

A grosso modo un modelo matemático se puede plantear de acuerdo al esquema que se muestra en la figura 1.

FIGURA 1. En Esta figura se muestra un diagrama de flujo de la manera más simple en la que se puede obtener un modelo matemático. Como se puede apreciar en la figura 1, el desarrollo de un modelo matemático comienza por tener bien identificado el fenómeno que se quiere estudiar, el paso que sigue es proponer un modelo matemático que describa el comportamiento del fenómeno de estudio de manera aproximada, este modelo preliminar se va depurando haciendo ajustes, aplicando teoremas y demostraciones hasta que se llega al modelo final, este debe de ajustarse lo más cercano posible a la descripción cualitativa y

cuantitativa del fenómeno para el cual se está desarrollando además de dar la posibilidad de hacer predicciones acerca del fenómeno que se está modelando. Entre los modelos matemáticos más comunes usados en la enseñanza de las ciencias se tiene la segunda ley de Newton F = ma que describe una relación de proporción directa entre la fuerza aplicada a un sistema y la aceleración que esta fuerza produce. Otro ejemplo es la ley de conducción del calor que describe la cantidad de calor que conduce un material con respecto al tiempo cuando hay una diferencia de temperatura dQ/dT = kAdT/dx, así como estos ejemplos en la enseñanza de las ciencias se tienen otros modelos matemáticos cuyo fundamento está en un fenómeno físico. De esta manera los modelos matemáticos son una herramienta fundamental en la enseñanza de la física, ya que, como se ha expuesto en este trabajo, un modelo matemático tiene su origen en el estudio de un fenómeno, en este caso un fenómeno físico, en donde las matemáticas tienen un papel esencial en la obtención de un modelo que se aplique al estudio de dicho fenómeno.

Bajo este contexto, la enseñanza-aprendizaje de las matemáticas a través del desarrollo de modelos que representen un fenómeno de estudio [18] le permite al alumno tener un panorama más amplio de las aplicaciones que tiene la matemática, le permitirá desarrollar sus competencias en la aplicación de los conocimientos de matemáticas que ha adquirido al modelaje de fenómenos naturales, sociales y ambientales como los que se describieron desde el punto de vista de la aplicación de la física en este artículo. La enseñanza de las matemáticas aplicando el modelaje puede enfocarse de tal manera que, durante la búsqueda de un modelo el alumno haga conciencia del problema que se está resolviendo sobre todo si se le hace notar que el modelaje matemático puede resolver problemas ambientales al igual que la física [19].

Desde este punto de vista, la enseñanza de la física y las matemáticas puede orientarse al estudio de problemas ambientales. Es en la secundaria, cuando el alumno entra por primera vez de manera más formal en contacto con los conocimientos de la física y se le empieza a enseñar el lenguaje formal de las matemáticas a través del estudio del álgebra, en donde se le puede enseñar como contribuyen estas dos ciencias al estudio y cuidado del medio ambiente, la enseñanza de la física describe de que manera un fenómeno natural como la radiación, el sonido, la difusión de líquidos y gases entre otros fenómenos físicos se convierten en un problema ambiental, la enseñanza de las matemáticas muestra al alumno como pueden modelarse estos fenómenos físicos para buscar una solución y poder predecir los daños que se pueden causar al medio ambiente. IV. EDUCACIÓN AMBIENTAL El desarrollo acelerado de las sociedades actuales y la introducción de nuevas tecnologías en la vida cotidiana, hace que los científicos dedicados a la física y las

La conciencia social-ambiental a través de la enseñanza de la física y las matemáticas

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 439 http://www.journal.lapen.org.mx

matemáticas tengan cada vez más una responsabilidad social y ambiental que cumplir [20]. Por ejemplo, la industria requiere de innovaciones en los productos que ofrece cuya función es hacer más cómoda la vida de la sociedad, para lograr este propósito la industria se apoya en los conocimientos nuevos que aporta la ciencia, de esta manera en casa se puede disfrutar de una pantalla plana de alta definición, de un sistema de teatro en casa entre otras comodidades, estos productos de la industria moderna no se podrían haber diseñado y construido sin la aportación de la física cuántica y el correspondiente desarrollo del modelo matemático que explica su diseño y funcionamiento. Estos y otros productos industriales generan residuos peligrosos que son arrojados al medio ambiente, es aquí donde los conocimientos científicos que aportan la física y las matemáticas deben orientarse hacia el tratamiento de estos desechos para que su impacto ambiental, que es inevitable, sea lo menos perjudicial al medio ambiente. Esta conciencia científico-social se puede generar desde los salones de clases en todos los niveles educativos, haciendo que los estudiantes tengan una visión más amplia del papel social que debe tener la ciencia, en este caso particular la enseñanza de la física y las matemáticas [21].

La educación ambiental tiene mucho que aportar al proceso de constitución de nuevas identidades sociales para responder a los desafíos del presente. Porque en el proceso de constitución de este nuevo campo pedagógico, cada vez están quedando más lejos las propuestas originales de una educación ambiental acoplada con el naturalismo, el conservacionismo y las demás formas asociadas con un punto de vista que recalca la preservación del medio natural, pero sin considerar las necesidades y expectativas de cambio social de los grupos humanos que habitan los espacios naturales.

La educación ambiental puede abordarse desde dos puntos de vista, la formal y la no formal. El punto de vista formal se logra fundamentalmente a través de la enseñanza en los salones de clase, es en estos lugares en donde se deben abordar tres aspectos fundamentales que deben estar contenidos en la enseñanza de las ciencias en todos los niveles educativos, estos son: el puramente académico que consiste en dar y tomar clases, el de investigación que fomenta las competencias y la creatividad en los estudiantes, y el laboral en donde se ponen en práctica los conocimientos aprendidos. El punto de vista no formal consiste en la realización de eventos o concursos estudiantiles, visitas a museos, discusión de artículos publicados en revistas y periódicos [22]. Actualmente en las escuelas de nivel medio y medio superior en México se realizan ferias de ciencia, en ellas los estudiantes exponen proyectos en donde los profesores únicamente orientan a los estudiantes en su desarrollo sin darle la solución del problema planteado, de esta manera se fomentan las competencias y la creatividad.

La educación ambiental que veremos en la próxima década, aunque se designe de otra forma, intentará, como en las tres décadas pasadas, presentar una configuración en la que en apariencia sus elementos constitutivos han sido

re articulados mediante la aplicación de los procedimientos del método científico para dar mejores respuestas a los complejos y cada vez más agudos retos que el ambiente mundial enfrentará, como consecuencia de que la política ambiental global no sólo continúa, sino que se encuentra crecientemente más supeditada a lo económico. De esta manera, será responsabilidad de nosotros los educadores en ciencias, así como de los educadores ambientales de las diversas regiones del mundo que se percatan de estas crisis, mantener abiertas con proyectos alternativos las configuraciones conceptuales que se promuevan desde las agencias, organizaciones y centros educativos en todos los niveles [23]. V. CONCLUSIONES De acuerdo a lo expuesto a lo largo de este artículo se puede concluir lo siguiente: La enseñanza de las ciencias consideradas como ciencias duras debe tener un enfoque ambientalista sin perder el formalismo científico que las caracteriza, es decir, que la enseñanza de las ciencias no pierde su esencia al darles una orientación social-ambiental, en estos tiempos en el que la ciencia y la tecnología avanzan muy rápido, se debe hacer conscientes a los estudiantes que ciencia-sociedad-ambiente no están desligados y que se puede crear una conciencia social ambientalista a través de la enseñanza de las ciencias.

La manera de exponer en los salones de clase los problemas ambientales puede ser variada, para lograrlo no es necesario aumentar el tiempo ni los créditos de las materias de ciencia, basta con darles el enfoque adecuado al tratar los temas que forman parte del plan de estudio de estas materias. La educación ambiental se puede realizar en actividades que se relacionen lo más directamente posible con el perfil de egreso de los estudiantes en una carrera particular, si se quiere formar profesores el ámbito docente es el más adecuado, si se quiere formar científicos entonces la investigación es lo más adecuado. En ambos aspectos profesionales se debe lograr la conciencia ambiental sin perder el formalismo educativo y al mismo tiempo crear una conciencia social.

Esto no impide reconocer que en el actual momento constitutivo del campo de la educación ambiental y la enseñanza de las ciencias básicas como la física y las matemáticas, cobran suma importancia las contribuciones que las diversas agrupaciones de científicos hacen para conocer, cada vez mejor, la dimensión de los problemas ecológicos y apuntar hacia algunas estrategias para su prevención y minimización. En este aspecto se ha demostrado el valor que tiene, para los países en desarrollo, el empleo de los hallazgos de la investigación científica por parte de las organizaciones no gubernamentales y de los productores rurales. Nos encontramos en presencia, entonces, de un campo multidisciplinario ligado no sólo a las diversas concepciones pedagógicas prevalecientes —como en todo campo educativo—, sino a la forma de definir y priorizar la problemática ambiental de hoy. Pero es un campo que

Rodolfo Fabián Estrada Guerrero

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 440 http://www.journal.lapen.org.mx

ha venido descentrándose, pues se le ha despojado a la conservación la naturaleza de su envestidura de ecología científica, recuperando sus componentes sociales, lo que resulta indispensable para poder educar ambientalmente en países con enormes contingentes de población en condiciones de pobreza.

Para lograr una educación ambiental creando una conciencia social a través de la enseñanza de las ciencias, debe tenerse solamente un poco de preparación específica por parte de quien enseña la física y las matemáticas, es cierto que requiere un poco de esfuerzo pero vale la pena dada la escaza educación ambiental y la pérdida de valores y conciencia social que se vive actualmente en un mundo globalizado. AGRADECIMIENTOS Se agradece al Dr. Ventura Rodríguez Lugo director del Centro Universitario de Vinculación de la Benemérita Universidad Autónoma de Puebla las facilidades otorgadas para la realización de este trabajo. Al Fís. Salvador Víquez Cano por sus valiosos comentarios que ayudaron a enriquecer el contenido de este trabajo. REFERENCIAS [1] Guía del ICLEI., (Cambio climático y desarrollo limpio, oportunidades para gobiernos locales, Secretaría para América Latina y el Caribe, Brasil, 2010). [2] Collins W., Colman R., Hywood J., Manning M., y Mote P., (El fundamento físico del cambio climático, Investigación y ciencia, 2007) [3] American Meteorological Society, <http://www.ametsoc.org/AMS/> Consultado el 12 de Febrero de 2010. [4] Atmosphere., Climate and Environment Information Programe, <http://www.ace.mmu.ac.uk> Consultado el 12 de Febrero de 2010. [5] Secretaría de Educación Pública, <http://www.sep.gob.mx> Consultado el 12 de Febrero de 2010. [6] Vargas, J., The education of the future, the future of education in Mexico, Actualidades Investigativas en Educación 8, 1-33 (2008). [7] Polanco, A., La motivación en los estudiantes universitarios, Actualidades Investigativas en Educación 5, 15-27 (2005).

[8] Viennot, L., Teaching physics: research-based suggestions and teachers´s reactions, toward a better interaction?, Lat. Am. J. Phys. Educ. 2, 21-28 (2008). [9] SEMARNAT., <www.semarnat.gob.mx>, Leyes y normas, Consultado el 12 de Febrero de 2010. [10] USEPA (United States Environmental protection agency), <www.epa.gov>, Consultado el 12 de Febrero de 2010. [11] Environmental Protection Authority, <www.epa.wa.gob.au> Consultado el 12 de Febrero de 2010. [12] Environmental Solutions Magazine, <http://esm.baumpub.com> Consultado el 12 de Febrero de 2010. [13] United Nations Environment Programe. Environment for Development, (Cambio climático y gobernabilidad Ambiental), <www.unep.org> Consultado el 12 de Febrero de 2010. [14] Hewitt, P., Física conceptual, (Prentice Hall, 9ª. Edición, México, 1997). [15] Ley General del Equilibrio Ecológico y Protección al Ambiente, (Capítulo VIII, Artículos 5, 155 y 156, 1988). [16] Gaceta Oficial del Distrito Federal, (Norma NADF 05 No. 113, 2006). [17] Vega, H., Fenómenos físicos, modelos matemáticos y ecuaciones diferenciales, Revista Mexicana de Física 25, 98-106 (1988). [18] Tesouro, M., Dolores, M., Labian, I., Guillamet, E. y Aguilera, A., Mejoremos los procesos de enseñanza –aprendizaje mediante la investigación-acción, Revista Iberoamericana de educación 42, (2007). [19] Huerta, M., Aprendizaje estratégico, una necesidad del siglo XXI, Revista Iberoamericana de Educación 42, 1-25 (2008). [20] Bendala, M., Pérez, J., Educación Ambiental: Práxis Científica y Vida Cotidiana, Descripción de un proyecto, Revista Eureka Sobre Enseñanza y Divulgación de las Ciencias 1, 233-239, (2004). [21] González, E., La Educación Ambiental en México Ante los Retos de la Cumbre Sobre el Desarrollo Sustentable, Revista de Vinculación y Ciencia 10, 50-72 (2008). [22] Novo, M., La Educación Ambiental Formal y no Formal: Dos Sistemas Complementarios, Revista Iberoamericana de Educación 11, 75-102, (1996) [23] Nieto, L., Reflexiones Sobre la Investigación en Educación Ambiental en México, Foro Nacional de Educación Ambiental SEP-SEMARNAP, Aguas Calientes México, (2000).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 441 http://www.journal.lapen.org.mx

La óptica de imágenes en la extensión universitaria de Unicamp

José Joaquín Lunazzi, Daniel S. F. Magalhães, Maria Clara Igrejas Amon1 Rolando Serra Toledo2 1Instituto de Física, P.O.Box 6165, Universidad Estadual de Campinas UNICAMP, 13083 - 970, Campinas SP, Brasil. 2Departamento de Física, Instituto Superior Politécnico José Antonio Echeverría - CUJAE, Ave. 114, 11901, CP 19390, Ciudad de la Habana, Cuba. E-mail: [email protected]

(Recibido el 30 de Abril de 2010; aceptado el 22 de Mayo de 2010)

Resumen La enseñanza de la física y en particular de la óptica siempre ha enfrentado problemas de aspecto motivacional principalmente por la pérdida del vínculo con la práctica social y con la vida cotidiana del estudiante. Además, las prácticas de laboratorio han perdido mucho espacio en la enseñanza media por carencias de las escuelas o debido a que tiene apenas como objeto el examen de ingreso a la universidad. El objetivo de este trabajo es mostrar como una actividad de extensión universitaria llamada “Exposición de Holografía” intenta motivar a estudiantes de enseñanza media a través de la experimentación, observación y aplicación de conceptos físicos en la vida cotidiana, despertando sus intereses por la física general. Palabras clave: Física, Exposición de holografía, Extensión universitaria, Óptica.

Abstract The physics teaching particularly the optics teaching always have faced motivational problems, mostly due to the loss of the link between the social practice and the daily life of the student. Moreover, the laboratory practices have lost space in high school attributable to a lack of resources or caused by the fact that the main purpose of the high school is being no more than the access to the University. This work shows how an extension activity called "Holographic Exhibit" tries to motivate high school students by means of experimentation, observation and the application of physics concepts in daily life, awakening their interests to the general physics. Keywords: Physics, Holographic exhibit, University extension, Optics. PACS: 42.40.- i, 01.40.Fk, 01.50.My, 42.30.-d ISSN 1870-9095

I. INTRODUCCIÓN La Universidad es una institución social que tiene como misión transformar la sociedad. Los procesos fundamentales que se llevan a cabo en la misma son [1]:

Docencia.- Relacionado con la preservación de la cultura.

Investigación.- Relacionado con la creación de cultura. Extensión.- Relacionado con la promoción de la

cultura. La función transformadora debe ser entendida en el

sentido de mejorar y perfeccionar la sociedad. Uno de los retos más importantes de la Universidad del siglo XXI es lograr la integración armónica de estos tres procesos dirigidos a la solución de necesidades sociales [2, 3]. La importancia de la función social de la Extensión Universitaria se ha venido analizando en importantes eventos internacionales sobre pedagogía de la Educación

Superior [4, 5, 6, 7, 8].Uno de los objetivos principales de nuestro trabajo es demostrar que es posible realizar un trabajo de Extensión Universitaria a partir de los resultados alcanzados en el trabajo docente y de investigación en el Instituto de Física de la Universidad Estadual de Campinas (UNICAMP).

Entre las principales dificultades del proceso de enseñanza-aprendizaje de la Física en la enseñanza media podemos señalar las siguientes [7]:

• Poca motivación. • Poca comprensión de los principios, leyes y

conceptos que se estudian y tratamiento insuficiente de algunos temas como la Óptica.

• Habilidades experimentales y de observación muy limitadas.

• Muy poca utilización de medios de enseñanza. • No se analizan al nivel requerido las aplicaciones

en la práctica profesional y en la vida cotidiana.

J. Lunazzi , D. Magalhães , M.C. Igrejas, R. Serra

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 442 http://www.journal.lapen.org.mx

La Exposición de Holografía es el nombre que ha tenido la actividad de Extensión Universitaria desarrollada durante varios años por el Profesor J. J. Lunazzi, del Laboratorio de Óptica del Instituto de Física de la UNICAMP, con la participación de alumnos y monitores que han colaborado en el desarrollo de esta actividad, que ha estado dirigida fundamentalmente a estudiantes de la enseñanza media, como una contribución para modificar esta situación [10].

Para fundamentar pedagógicamente la concepción de utilización de la Exposición de Holografía, partiremos del análisis de los principios pedagógicos que se derivan de las leyes generales de la pedagogía [9] y que sirven de base a esta investigación. De las diferentes clasificaciones de principios pedagógicos que aparecen en la literatura, asumiremos la planteada por Addine F. [11], por estar enfocada a la dirección del proceso pedagógico. Ellos son:

• Principio del carácter científico del proceso pedagógico.

• Principio de la vinculación de la educación con la vida, con el medio social y el trabajo, en el proceso de educación de la personalidad.

• Principio de la unidad de lo instructivo, lo educativo y desarrollador, en el proceso de educación de la personalidad.

• Principio de la unidad de lo afectivo y lo cognitivo, en el proceso de educación de la personalidad.

• Principio del carácter colectivo e individual de la educación y el respeto a la personalidad del educando.

• Principio de la unidad entre la actividad, la comunicación y la personalidad.

Analicemos a continuación como estos principios han servido de sustento y de guía para la concepción de utilización de la Exposición de Holografía como una actividad de Extensión Universitaria.

El principio del carácter científico del proceso pedagógico nos indica que debe ser estructurado teniendo en cuenta los avances continuos de la ciencia y la técnica. En los últimos años se ha planteado en diversas conferencias, artículos científicos y en reuniones de importantes organismos internacionales la necesidad de implementar nuevas tecnologías en las universidades que incluyen la introducción y utilización de nuevos medios de enseñanza dentro del perfeccionamiento de la Educación Superior en el mundo [12, 13, 14]. Es en esta dirección que se estructuró nuestra propuesta de utilización de los hologramas y otros experimentos y aplicaciones de la óptica en la formación de imágenes.

El principio de la vinculación de la educación con la vida, con el medio social y el trabajo en el proceso de educación de la personalidad es muy importante en nuestra concepción, al proporcionar el vínculo de los estudiantes con experimentos y fenómenos de la Física en particular de la Óptica y la formación de imágenes presentes en la vida cotidiana, además porque apunta a que la sociedad participa en la educación de todos sus ciudadanos. Este principio también sirve de base a la concepción de considerar los procesos universitarios de Investigación, Docencia y Extensión Universitaria, tradicionalmente no relacionados,

como un único proceso integrado donde la actividad de extensión permite la aplicación de los resultados de la investigación y de la actividad docente a la educación social.

El principio de la unidad de lo instructivo, lo educativo y lo desarrollador en el proceso de educación de la personalidad tiene como fundamento la unidad dialéctica existente entre la instrucción y la educación en el proceso de formación y desarrollo de la personalidad. En la concepción de las actividades que integran la Exposición de Holografía se tuvieron en cuenta no solo los conceptos propios de la óptica y la formación de imágenes, sino también los elementos históricos relacionados con la vida y obra de los principales científicos que aportaron al tema y de las diversas aplicaciones en la vida cotidiana de las técnicas holográficas, aspectos relacionados con la formación educativa de los estudiantes.

El principio de la unidad de lo afectivo y lo cognitivo, en el proceso de educación de la personalidad es básico en nuestra propuesta de actividad debido a que los hologramas y el resto de las demostraciones de óptica de imágenes son altamente motivadoras, produciéndose la unidad entre lo afectivo, lo cognitivo y lo educativo. Esta influencia positiva en la motivación que brindan las demostraciones y experimentos con imágenes y sus interesantes aplicaciones en la vida cotidiana, predisponen favorablemente al estudiante y contribuyen significativamente a su motivación por el estudio de la Física.

Si partimos de que la motivación es esencialmente un impulso en la actuación del sujeto y que motivar quiere decir crear interés, estimular el deseo, llamar la atención, despertar la curiosidad, contagiar con entusiasmo y suscitar el gusto como impulso activador [15] llegamos a la conclusión de que nuestra propuesta de Exposición de Holografía es altamente motivante y propiciadora de la unidad entre lo afectivo y lo cognitivo.

Para lograr comprender la importancia de tener en cuenta la dimensión afectiva del aprendizaje desde la infancia hasta la vida adulta se requiere dar la prioridad necesaria a las relaciones, teniendo en cuenta las dimensiones social e interactiva del proceso educacional. Una negación de la dimensión afectiva constituye un serio problema educacional [16]. Este aspecto se tuvo en cuenta en el diseño de la actividad garantizándose el dinamismo y un alto grado de interacción entre los alumnos y entre los alumnos y los profesores.

Los profesores ocupan una posición extremadamente importante en los procesos mentales de sus alumnos [17], por lo que otra dimensión afectiva que podemos resaltar en nuestra propuesta es que propicia las relaciones de los estudiantes con sus profesores que los acompañan en el desarrollo de toda la propuesta mediante la constante interacción prevista en el desarrollo de las actividades.

En la psicología contemporánea se desarrolló y consolidó en la segunda mitad del siglo pasado un enfoque epistemológico originado a partir de la escuela histórica cultural de L. S. Vigotsky y seguidores [18, 19, 20, 21, 22]. Con relación a la importancia de la motivación en el aprendizaje, Vigotsky a partir de reconocer el carácter

La óptica de imágenes en la extensión universitaria de Unicamp

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 443 http://www.journal.lapen.org.mx

integral del psiquismo humano, analiza las relaciones existentes entre dos esferas tradicionalmente escindidas en las escuelas psicológicas precedentes: la esfera cognoscitiva y la afectiva. En el primer capítulo de su libro Pensamiento y Lenguaje señala [19]:

“La primera cuestión que surge cuando hablamos de la relación del pensamiento y el lenguaje con respecto a los restantes aspectos de la conciencia, es el de la vinculación entre la inteligencia y el afecto. Como se sabe, la separación del aspecto intelectual de nuestra conciencia y del aspecto afectivo, volitivo, es uno de los defectos fundamentales y radicales de toda la psicología tradicional”. Más adelante señala: “El análisis que divide el todo complejo en unidades... muestra que existe un sistema dinámico de sentido que representa la unidad de los procesos afectivos e intelectuales. Muestra que en toda idea se contiene, reelaborada, una relación afectiva del hombre hacia la realidad, representada en esa idea. Permite descubrir el movimiento directo que va de la necesidad de los impulsos del hombre a la determinada dirección de su pensamiento, y el movimiento contrario, desde la dinámica del pensamiento a la dinámica del comportamiento y la actividad concreta de la persona”.

Paulo Freire construye teoría desde la propia práctica. En alguna de sus últimas obras menciona a Vigotsky, siendo punto de encuentro entre ambos la importancia del rol docente (mediación) en el proceso educativo y los requerimientos de formación del mismo para poder generar desafíos, necesarios en el proceso de enseñanza aprendizaje (zona de desarrollo potencial) [23].

El principio del carácter colectivo e individual de la educación y el respeto a la personalidad del educando está presente en la concepción de realización de nuestra actividad con la participación de un grupo de estudiantes en la conferencia inicial y después la atención mas individualizada al dividirse el grupo en diferentes equipos de trabajo.

El principio de la unidad entre la actividad, la comunicación y la personalidad considera que esta se forma y se desarrolla en la actividad y en el proceso de comunicación [15]. Los medios de enseñanza utilizados en el desarrollo de la Exposición de Holografía favorecen la comunicación que se establece entre el profesor y el alumno, entre los propios alumnos y en general entre todos los participantes de este proceso, influyendo directamente en el desarrollo y educación de la personalidad. Para lograr este objetivo la actividad se estructura de manera que facilite la mejor y más efectiva comunicación posible. El papel de estos medios es establecer los vínculos necesarios entre los niveles sensoriales y racionales del conocimiento, entre lo concreto y el pensamiento abstracto; es así donde pueden ayudar realmente al aprendizaje de los estudiantes, a hacer más comprensibles los conceptos, y abstraerse más fácilmente, a representar en su mente con más claridad aquellas cosas que al profesor son sumamente claras e incuestionables.

Otro aspecto importante que Paulo Freire señala es que “enseñar exige respecto a la autonomía del ser educando” [24], así el profesor debe respectar la curiosidad del

alumno, su gusto estético, su inquietud, su lenguaje, dando así libertad para que el alumno piense y construya su conocimiento. En la Exposición de Holografía siempre los estudiantes son estimulados a hacer preguntas, a participar de los experimentos, o sea, constituyen sujetos activos y autónomos del conocimiento.

Otro de los elementos importantes desde el punto de vista pedagógico que se tuvo en cuenta en nuestra propuesta de utilización de la óptica de imágenes es la importancia de las reproducciones visuales [25]:

“Las reproducciones visuales son las más complejas de todas las reproducciones, pero además, la más importante en la enseñanza, debido al valor que tiene la percepción visual, tanto para la recepción de información como para su retención. Con los medios de enseñanza se aprovechan en mayor grado las potencialidades de nuestros órganos sensoriales. El 83 % de lo que el hombre aprende le llega a través del sentido visual”. II. MATERIALES Y MÉTODOS Para poder diseñar y desarrollar la Exposición de Holografía es preciso definir los objetivos que tendría esta actividad de Extensión Universitaria.

Objetivos generales de la Exposición de Holografía como actividad de Extensión Universitaria:

• Seleccionar contenidos transferibles a situaciones de la vida cotidiana, que favorezcan el aprendizaje colectivo y la interacción grupal.

• Hacer de la actividad un proceso pedagógico vinculado a lo que rodea al estudiante en lo social, lo económico, lo familiar, lo productivo y a la naturaleza.

• Desarrollar habilidades en el alumno para trabajar en grupo, para que aprenda con los otros y de los otros, interactuando cooperativa y solidariamente.

• Preparar a los estudiantes para comprender las problemáticas acuciantes del mundo de hoy, a través de actividades que permitan asimilar los conocimientos científico-técnicos y desarrollar iniciativas.

• Contribuir al incremento de la motivación de los estudiantes de la enseñanza media por el estudio de la física y sus aplicaciones.

En el diseño de las actividades que integrarían esta Exposición de Holografía y en la definición de los métodos que se utilizarían en la misma, es importante precisar los aspectos que se deben tener en cuenta para desarrollar la motivación en los estudiantes:

1. Despertar la curiosidad. La exploración y la curiosidad son motivos activados por lo nuevo y lo desconocido. Es de gran importancia que los aprendizajes tengan un valor significativo. En la medida que los contenidos propuestos puedan resultar cercanos al mundo del estudiante o puedan tener una aplicación práctica real tendrán un mayor valor motivacional.

J. Lunazzi , D. Magalhães , M.C. Igrejas, R. Serra

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 444 http://www.journal.lapen.org.mx

2. Generar sensación de control. Es necesario que el estudiante tenga conciencia de su capacidad para desarrollar los aprendizajes que se le proponen.

3. Promover el sentido de la responsabilidad. El estudiante debe participar de forma responsable en las actividades.

4. Proponer metas con un grado moderado de dificultad. Una tarea excesivamente fácil pierde interés para el estudiante y le conduce al aburrimiento. Una tarea con dificultad excesiva puede hacerle sentirse superado y abandonar.

5. Favorecer el aprendizaje independiente. Es conveniente que el estudiante se enfrente de manera individual a las tareas planteadas.

6. Proporcionar seguridad y apoyo. Es aconsejable que el estudiante sienta la presencia del profesor o del monitor, en caso de encontrar dificultades, que le proporcione el apoyo necesario para resolver las tareas con éxito.

7. Valorar el esfuerzo insistiendo en que los errores son parte del aprendizaje. El estudiante necesita ver recompensado su esfuerzo, por lo que los profesores tienen que atender más al proceso que al resultado.

8. Enseñar a atribuir el éxito a variables controlables (el esfuerzo, la constancia, la ayuda del profesor) en vez de hacerla depender de variables inconsistentes como la suerte o la casualidad.

9. Insistir en lo positivo antes que criticar lo negativo ayudará al estudiante a sentirse competente para la realización de la tarea propuesta y animarlo a intentar mejorar lo que todavía no ha conseguido.

10. Exigir de forma realista y comprensiva. Debemos tener muy en cuenta las posibilidades y capacidades de los estudiantes y exigirles en consecuencia.

11. Intentar ser el mejor ejemplo para ellos. El mejor estímulo será siempre intentar ser un buen modelo de actitud al que puedan imitar.

12. Explicar a los alumnos los objetivos educativos que tenemos previstos para la actividad, principalmente relacionado con la realización de experimentos.

13. Plantearles las actividades de forma lógica y ordenada.

14. Proponerles actividades que les hagan utilizar distintas capacidades para su resolución.

15. Fomentar la comunicación entre los alumnos y las buenas relaciones, realizando tareas de grupo.

16. Aplicar los contenidos y conocimientos adquiridos a situaciones próximas y cercanas para los alumnos.

La Exposición de Holografía constituye el primer módulo de un sistema concebido para el estudio integral de la holografía y sus aplicaciones. Esta propuesta de actividad en la Exposición de Holografía tiene sus categorías específicas, las cuales pueden ser caracterizadas como: Objetivo General: Planteado en términos de lograr la contribución a la formación de una cultura general integral

en los estudiantes de enseñanza media mediante el conocimiento de diferentes tipos de imágenes y sus aplicaciones y el incremento de la motivación por la Física. Contenidos: Relacionados con:

• Fundamentos de la óptica de imágenes y sus aplicaciones.

• Fundamentos y aplicaciones de la Holografía. Métodos: Se utiliza el método expositivo, de elaboración conjunta y de participación individual en las diferentes etapas de la actividad. Medios:

• Conferencia inicial con demostraciones sobre diferentes tipos de imágenes.

• Diferentes tipos de hologramas. • Demostraciones experimentales sobre diferentes

tipos de imágenes. Evaluación: Se realiza a través de instrumentos elaborados como encuestas, criterio de expertos y entrevistas con el objetivo de monitorear el proceso y poder solucionar las deficiencias que se presenten.

La actividad de Exposición de Holografía consta de 4 partes esenciales que describiremos a continuación:

1. Conferencia inicial. 2. Experimentos demostrativos sobre reflexión,

refracción, difracción de la luz e imágenes con espejos.

3. Holoproyector y exposición de hologramas. 4. Conferencia final.

A. Primera Parte: Conferencia inicial Duración: 60 minutos Objetivo general: Presentar los conceptos básicos de formación de imágenes, reflexión, refracción y difracción y realizar algunas demostraciones con la participación activa de los estudiantes para lograr la motivación inicial de los mismos y los conocimientos mínimos que permitan entender adecuadamente los experimentos y demás demostraciones en el resto de la actividad. Contenido:

• Presentación de un holograma como elemento motivador inicial.

• Presentación de los conceptos básicos de formación de imágenes, reflexión, refracción y difracción.

• Formación de sombras y radiografía. • Evolución histórica de la construcción de espejos a

partir de los antecedentes presentes en la arqueología americana.

• Aplicaciones de la difracción, holografía y de desarrollos realizados en la UNICAMP como holoimágenes y televisión holográfica.

• Importancia de la visión binocular en el hombre y realización de demostración interactiva con los estudiantes.

La óptica de imágenes en la extensión universitaria de Unicamp

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 445 http://www.journal.lapen.org.mx

• Demostraciones de estereoscopia donde los estudiantes aprecian imágenes con la utilización de anteojos (espejuelos) de dos colores.

La figura 1 muestra la parte de la conferencia inicial donde los alumnos observan imágenes estereoscópicas utilizando anteojos de dos colores repartidos por los monitores.

FIGURA 1. Alumnos con anteojos de dos colores observando las imágenes estereoscópicas.

B. Segunda parte: Experimentos demostrativos sobre reflexión, refracción, difracción de la luz e imágenes con espejos Duración: 30 minutos (Divididos en tres equipos) Objetivo general: Realización de experimentos demostrativos con materiales simples y construidos por los monitores sobre los fenómenos presentados en la conferencia inicial, para que los estudiantes puedan apreciar y entender las características fundamentales de los mismos y despertar el interés por la física en particular por la óptica. Contenido:

• Experimentos de reflexión en piedras pulidas y espejos planos, cóncavos y convexos.

• Experimento demostrativo con la participación individual de los estudiantes de observación de imágenes con un espejo plano especialmente diseñado para ser colocado en la nariz a la altura de los ojos [26]. Los estudiantes experimentan la sensación de estar caminando sobre las nubes, el techo o los árboles y es altamente motivante.

• Experimentos de refracción de la luz y de formación de imágenes con diferente profundidad.

• Demostración del funcionamiento de una cámara fotográfica antigua.

• Experimentos de difracción en redes y en discos compactos.

Las figuras 2 y 3 muestran diferentes momentos de esta segunda parte de la actividad.

FIGURA 2. Alumnos experimentando con espejos.

FIGURA 3. Difracción en un disco compacto.

C. Tercera parte: Experimento demostrativo de holoimágenes y exposición de diferentes tipos de hologramas Duración: 20 minutos Objetivo general: Que los alumnos puedan observar diferentes tipos de hologramas reconstruibles con luz blanca y apreciar técnicas de avanzada con la realización de un experimento demostrativo sobre holoimágenes utilizando una pantalla holográfica construida en la UNICAMP. Contenido:

• Demostración de holoimágenes con la utilización de un holoproyector y una pantalla holográfica.

• Exposición de diferentes tipos de hologramas reconstruibles con luz blanca de objetos inanimados, de personas y de aplicaciones a la medicina. En algunos es posible observar la imagen formada frente de la placa holográfica.

En las figuras 4 y 5 se muestran estudiantes apreciando la exposición de hologramas y uno de los que integra la muestra.

J. Lunazzi , D. Magalhães , M.C. Igrejas, R. Serra

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 446 http://www.journal.lapen.org.mx

FIGURAS 4 y 5. Exposición de diferentes tipos de hologramas.

D. Cuarta parte: Conferencia final Objetivo general: Lograr con la participación de un profesor de reconocida experiencia la integración de los temas tratados en la actividad y que los estudiantes conozcan avances recientes en el tema de las holoimágenes y otros aspectos de actualidad relacionados con su formación integral. Duración: 20 minutos Contenido:

• Integración de los temas tratados en la actividad. • Panorámica de avances recientes en la temática de

las holoimágenes. • Aspectos de actualidad de interés relacionados con

la formación integral de los estudiantes. • Distribución de un DVD de elaboración propia que

contiene quince videos de experimentos de Física para los profesores responsables de la actividad [27].

• Hacer referencia histórica a las primeras publicaciones sobre el tema [28] y llamar la atención de que desde el año 2002 es que se cuenta con los recursos de la proyección audiovisual digital, que permiten una dinámica mayor en las presentaciones, con actualización simple de figuras, y bajo costo de la realización de imágenes.

III. RESULTADOS Y DISCUSIONES Para valorar con mayor precisión la efectividad del trabajo realizado en la Exposición de Holografía, se realizó una encuesta a una muestra de 51 estudiantes de dos de las escuelas participantes en esta actividad. A continuación mostramos la encuesta aplicada, los resultados obtenidos y un análisis de los mismos, donde se evidencia claramente la utilidad de este tipo de actividad de Extensión Universitaria como contribución a la formación de una cultura general integral en los estudiantes y en el incremento de la motivación por la Física y sus aplicaciones. Encuesta aplicada: 1. ¿Qué piensa usted de la actividad en la Exposición de Holografía de la Unicamp? a) Me gustó mucho b) Me gustó c) Regular d) No me gustó

2. ¿Usted sabía cómo se forman las imágenes? a) Si, lo aprendí en la escuela b) Si, lo aprendí solo c) Tenía alguna idea d) No, aprendí en la actividad e) No y continúo sin saber 3. ¿Usted sabía que era la Holografía? a) Sí b) Tenía alguna idea c) Leí alguna cosa sobre eso d) No, aprendí en la actividad e) No y continúo sin saber 4. ¿Usted ya había visto imágenes estereoscópicas (vistas con anteojos de dos colores)? a) Sí, varias veces. b) Sí, algunas veces. c) Nunca las había visto. 5. ¿Dé una nota para la conferencia inicial de 0 a 10? 6. Dé una nota de 0 a 10 para cada uno de los experimentos:

• Experimentos de reflexión y difracción • Experimentos de refracción • Holoproyector y hologramas • Espejos “La Nube”

7. Con relación al trabajo de los monitores: a) Muy bueno b) Bueno c) Regular d) Malo 8. ¿Usted quisiera regresar a los próximos módulos? a) Sí b) No c) Quizás 9. ¿Qué fue lo que le llamó más la atención en la actividad? 10. ¿Qué fue lo que más le gustó? 11. ¿Existió algo que a usted no le gustó? Usted puede escribir cualquier otro comentario o sugerencia que considere necesario: A continuación mostraremos los principales resultados de las encuestas aplicadas

FIGURA 6. Resultado de la encuesta acerca de los aspectos que más motivaron a los estudiantes en la Exposición de Holografía.

La óptica de imágenes en la extensión universitaria de Unicamp

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 447 http://www.journal.lapen.org.mx

FIGURA 7. Resultado que muestra los conocimientos previos de los estudiantes sobre la temática de formación de imágenes.

FIGURA 8. Resultado de la evaluación realizada por los estudiantes sobre la calidad de las actividades. En el gráfico analizamos solamente el porcentaje de notas de 8 a 10 en una escala de 1 a 10.

Análisis de los resultados de las encuestas: • Al 100% de los estudiantes le gustó la actividad. • Solo un 9% de los estudiantes manifestaron tener

un conocimiento previo suficiente de los temas tratados en la actividad.

• La gran mayoría de los estudiantes evaluó la calidad de las actividades realizadas con notas sobresalientes entre 8 y 10, siendo la conferencia inicial la de más bajos resultados en esta categoría con el 78%.

• El 98% de los estudiantes consideró adecuado el trabajo de los monitores.

• Lo que más motivó a los estudiantes fue el experimento interactivo con los espejos (42%) y los hologramas (38%), seguido por el resto de los experimentos (20%) y las imágenes estereoscópicas (18%).

• Ningún estudiante expresó la decisión de no regresar para próximos eventos convocados.

El 15% de los estudiantes expresaron algunos criterios sobre aspectos que no le gustaron y algunas sugerencias

para perfeccionar la actividad entre las cuales podemos señalar: debe tenerse más cuidado en algunos términos utilizados que no fueron bien comprendidos, debe revisarse la forma en que fueron expuestos algunos temas de la conferencia inicial y deben revisarse algunas de las demostraciones de los experimentos de reflexión, refracción y difracción para que sean mejor comprendidas y mas motivantes.

IV. CONCLUSIONES En el trabajo se realizó la fundamentación pedagógica y psicológica de la Exposición de Holografía como actividad de Extensión Universitaria realizada por el Grupo de Holoimágenes del Laboratorio de Óptica del Instituto de Física de la Universidad de Campinas con estudiantes de la enseñanza media.

Entre las principales deficiencias del proceso de enseñanza-aprendizaje de la física en la escuela media están la falta de motivación e interés de los estudiantes, la poca realización de actividades prácticas y el vínculo insuficiente de los temas tratados con la vida cotidiana. En este sentido, la actividad de Exposición de Holografía cumplimentó los objetivos propuestos al lograrse un conocimiento en los estudiantes de enseñanza media sobre la formación de imágenes y sus aplicaciones en la vida cotidiana, un incremento considerable en la motivación por el estudio de la Física y en especial por la Óptica y el desarrollo de habilidades para el trabajo en grupo mediante una interacción cooperativa y solidaria. REFERENCIAS [1] Díaz, T., La Extensión: Un proceso formativo de la Universidad. Su relación con otros procesos, Conferencia Magistral del VI Taller Internacional de Extensión Universitaria, Cuba, (2001). [2] Bricall, J., Cambios previsibles en la Enseñanza Superior, Conferencia Especial del evento Universidad 2004, Cuba, (2004). [3] De la Fuente, J., Los retos de la Educación Superior Contemporánea, Conferencia Especial del evento Universidad 2004, Cuba, (2004). [4] González, G., La Universidad ante el reto de la formación cultural integral. Aproximación al programa nacional de Extensión Universitaria, Memorias del evento Universidad 2002, Cuba, (2002). [5] Grandinetti, V., Aportes para una Universidad del siglo XXI, Memorias del evento Universidad 2002, Cuba, (2002). [6] Nuguer, L., La función social de la Universidad y la Extensión, Memorias del evento Universidad 2002, Cuba, (2002). [7] Serra, R. La utilización del holograma como medio de enseñanza y de educación social en Cuba a través del vínculo Investigación – Docencia – Extensión Universitaria, Tesis Doctoral, Cuba, (2004).

J. Lunazzi , D. Magalhães , M.C. Igrejas, R. Serra

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 448 http://www.journal.lapen.org.mx

[8] Serra, R., La utilización del holograma en docencia y museología en Cuba, Memorias XLIX Congreso Nacional de Física de México, Universidad Autónoma de San Luis de Potosí, 16 – 20 de Octubre, (2006). [9] Calzado, D., La Ley de la Unidad de la Instrucción y la Educación. Didáctica Teórica y Práctica, Capítulo 2., 18-29, Cuba, (2003). [10] Lunazzi, J. J., Magalhães D. S. F. and Rivera N. I. R., Didactical holographic exhibit including holotv (holographic television), Riao/Optilas'07, Proceeding 992, 210-215, (2007). [11] Addine, F., Principios para la dirección del proceso pedagógico, Compendio de Pedagogía, Ministerio de Educación, (Editorial Pueblo y Educación, Cuba, 2002) pp. 80-101. [12] Serra, R., y otros, La utilización del holograma como medio de enseñanza y de educación social en cuba como resultado del vínculo Universidad – Tecnología – Innovación, Memorias del evento Universidad 2008, Cuba, (2008). [13] UNESCO, Informe General, 2002, disponible en www.unesco.org/education. Consultado el 07 de octubre de 2009. [14] Proyecto EDUTECH de Tecnologías y Educación Superior, 2002, disponible en www.edutech.ch/edutech. Consultado el 07 de octubre de 2009. [15] Delicio, M., Sistema de Actividades Educativas para promover el interés y la satisfacción de los alumnos de la enseñanza primaria por el Museo de Ciencia y Técnica de la Universidad Federal de Ouro Preto, Tesis Doctoral, Cuba, (2003). [16] Rustin, M. Reason and unreason, Psychoanalysis, science and politics, London, Continuum, 201-224, (2001). [17] Salzberger, I., Henry, I., and Osborn, E., The emotional experience of learning and teaching, London, 23-52, (1983).

[18] Vigotsky, L., Historia de las funciones psíquicas superiores, (Editorial Científico-Técnica, La Habana, 1987). [19] Vigotsky, L., Pensamiento y Lenguaje, (Edición Revolucionaria, La Habana, 1966). [20] Vigostky, L., El desarrollo de los procesos psicológicos superiores, (Crítica, Barcelona, 1979). [21] Galperin, P. Ya., Sobre el método de formación por etapas de las acciones intelectuales, Antología de la Psicología Pedagógica, (Pueblo y Educación, La Habana, Cuba, 1982). [22] Talizina, N. F., Psicología de la Enseñanza, (Editorial Progreso, URSS, 1988). [23] Iovanovich, M. L., El pensamiento de Paulo Freire: sus contribuciones para la educación. Acceso al texto completo: http://bibliotecavirtual.clacso.org.ar/ar/libros/freire/iovanovich.pdf, Consultado el 07 de octubre de 2009. [24] Freire, P., Pedagogia da Autonomia – Saberes necessários à prática educativa, (Ed. Paz e Terra, 30ª ed., Brasil, 2004). [25] González, V., Teoría y metodología del uso de la televisión en circuito cerrado como parte del sistema de medios de enseñanza de la educación superior, Tesis Doctoral, Cuba, (1984). [26] Baglietto, M., Trabajo artístico disponible en www.mireyabaglietto.com, Consultado el 07 de octubre de 2009. [27] Lunazzi, J. J., DVD con Experimentos didácticos de Física, disponible en www.ifi.unicamp.br/vie, Consultado el 07 de octubre de 2009. [28] Lunazzi, J. J., A luz congelada, Universidade Estadual de Campinas, Revista Ciência Hoje 3, 36-46 (1985).

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 449 http://www.journal.lapen.org.mx

LHC en unos pocos números

Xabier Cid Vidal1, Ramón Cid Manzano2 1Departamento de Física de Partículas, Universidad de Santiago, Campus Universitario Sur 15782 - Santiago de Compostela, España. 2Instituto de Enseñanza Secundaria “IES de Sar”, R/Bernardo Barreiro de Vázquez Varela s/n, 15702 - Santiago de Compostela, España. 2Departamento de Didáctica de las Ciencias Experimentales, Universidad de Santiago, Campus Universitario Norte 15782 Santiago de Compostela E-mail: [email protected], [email protected] (Recibido el 17 de Febrero de 2010; aceptado el 1 de Mayo de 2010)

Resumen El colisionador de partículas LHC (CERN - Laboratorio Europeo para la Investigación Nuclear) es desde finales de 2009 el más potente acelerador del mundo. A partir de ese momento muchas de las preguntas que la ciencia se viene haciendo desde hace décadas comenzarán a poder ser respondidas: por qué hay más materia que antimateria, de que está hecho el 96% del Universo, si el campo de Higgs es el responsable de la masa de todas las partículas, como fueron los primeros instantes después del Big Bang... Es intención de este artículo presentar en unos pocos números la dimensión de esta máquina a fin de poder ser usados en los cursos de secundaria para dar a conocer el mayor experimento de la historia. Además, con simples cálculos abordamos algunos tópicos básicos de la física de estos niveles. Se supone que los lectores y lectoras ya conocen a grandes rasgos en qué consiste el LHC y en todo caso la bibliografía que se cita al final puede ayudar en este punto. No obstante, en los apartados que conforman este trabajo se incluyen los parámetros necesarios para seguir los cálculos apropiadamente, y a través de ellos se podrá ir conociendo mejor esta extraordinaria máquina. Palabras clave: Enseñanza de conceptos en Física, Física de Partículas en Secundaria.

Abstract LHC-Large Hadron Collider (CERN - European Organization for Nuclear Research) became the world’s highest energy particle accelerator, having accelerated its twin beams of protons to an energy of 1.18 TeV in the last days of 2009. Some important questions to be answered by the LHC experiments are: What is the origin of mass? What is 96% of the universe made of? Why is there no more antimatter? What was matter like within the first second of the Universe’s life? The aim of this paper is to introduce LHC in few numbers in order to be directly used in the secondary school classroom, and to stimulate the students’ interest in the greatest experiment in history. Besides, using these simple calculations we can introduce or remember to our students, and in a easier way, some important physics topics. Although a previous basic knowledge about LHC would make easier reading this paper, the necessary data and parameters are included to allow to follow the explanations properly. Moreover, we hope that these data and calculations help you to know better this incredible machine. Keywords: Physics Teaching, Particle Physics in Secondary School. PACS: 01.40.-d, 01.40.E-, 10.00.00, 29.20.db. ISSN 1870-9095

I. INTRODUCCIÓN

El colisionador de partículas LHC (CERN-Laboratorio Europeo para la Investigación Nuclear) es desde finales de 2009 el más potente acelerador del mundo. En 19 de Marzo de 2010 alcanzó una energía de 3.5 TeV por protón. En los próximos meses se irá poco a poco aproximando a su energía máxima: 7 TeV para cada protón. Se lograrán así colisiones protón-protón de 14 TeV que nos proporcionarán una mayor comprensión de nuestro Universo.

A partir de ese momento, muchas de las preguntas que la ciencia se viene haciendo desde hace décadas comenzarán a poder ser respondidas: por qué hay más materia que antimateria, de que está hecho el 96% del Universo, si el campo de Higgs es el responsable de la masa de todas las partículas, o como fueron los primeros instantes después del Big Bang.

Se pretende en este trabajo hacer accesible este fabuloso experimento a través de unos pocos números, los cuales nos desvelarán la increíble dimensión de esta máquina que es la mayor construida por la tecnología humana. Esos números y sus cálculos son perfectamente

Xabier Cid y Ramón Cid

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 450 http://www.journal.lapen.org.mx http://www.lajpe.org

asumibles en la enseñanza secundaria y pueden servir de inicio para estimular a los alumnos a que se interesen por el mayor experimento de la historia de la ciencia.

Ya en otros artículos hemos presentado estudios específicos sobre diferentes aspectos de este experimento, Cid [1] y Cid y Cid [2, 3, 4], pero dirigidos a introducir esta máquina y el experimento a profesores y profesoras de secundaria. Ahora queremos presentar unos sencillos cálculos para ser directamente llevados al aula en los primeros niveles de la enseñanza secundaria, y dar así a conocer de forma simple los grandes números que están detrás de este enorme reto científico.

Es importante señalar que en este trabajo no se entra a detallar las partes de la máquina, los detectores y los experimentos. Se supone que los lectores ya conocen a grandes rasgos en qué consiste el LHC y en todo caso la bibliografía que se cita al final puede ayudar en este punto. No obstante, en los apartados que conforman este trabajo se incluyen los parámetros y datos necesarios para seguir los cálculos apropiadamente.

Es importante tener en cuenta que las comparaciones que se van a hacer a lo largo de este artículo son analogías o ficciones que no tendrían por qué ocurrir en la forma en la que se describen. Se pretende con ellas simplemente ayudar a comprender mejor la verdadera dimensión de los parámetros utilizados y los resultados obtenidos. II. EL VOLTAJE APLICADO En el CERN, los protones son acelerados gracias a un conjunto de aceleradores consecutivos del que el LHC, con casi 27 km y con forma circular, es el más grande. Los otros aceleradores previos son el LINAC2 (lineal), Booster, PS y SPS, estos tres últimos circulares.

Una precisión que siempre es necesario realizar en este punto es que en realidad el LHC solo es un verdadero acelerador durante unos minutos. Ese es el tiempo necesario para elevar la velocidad de las partículas con la que entran desde el acelerador anterior (SPS) hasta el valor que se considere oportuno, siendo el máximo el que proporcionará la energía de 7 TeV por protón. Durante el resto de las horas diarias de funcionamiento el LHC mantiene los protones a la energía establecida funcionando por tanto como un dispositivo que asegura un alto número de colisiones entre partículas: un colisionador.

Como es sabido, un aparato convencional de televisión de casa contiene un pequeño acelerador de partículas: el tubo de rayos catódicos (TRC). Los electrones son emitidos por un filamento incandescente para ser dirigidos internamente contra la pantalla.

El voltaje utilizado para lograr que las colisiones den lugar a la generación de luz que llegará a nuestros ojos es del orden de 20000 V.

Siguiendo con esta analogía podemos de forma sencilla introducir de forma simple como funcionan los experimentos en el LHC.

1) En el tubo de rayos catódicos (TRC) las partículas (electrones) colisionan contra la pantalla mientras

que en el LHC las partículas (protones) colisionan entre sí.

FIGURA 1. Tubo de rayos catódicos: un acelerador en casa.

2) El resultado de los choques en el TRC genera fotones que salen de la zona de colisión, y en el LHC son muchas partículas (además de fotones) las que son generadas como resultado de las colisiones frontales protón-protón. Precisamente, algunas de ellas son ansiosamente buscadas por los físicos de partículas. Este es el caso del “famoso” bosón de Higgs.

3) Los fotones que salen de la pantalla de nuestro TRC llegan a nuestros ojos. Unas lentes ópticas (córnea y cristalino) los dirigen a las zonas sensibles de detección (retina), donde dispositivos especializados emitirán señales al recibir esos fotones. En el LHC, cuatro “inmensos ojos” (los cuatro detectores: ATLAS, CMS, ALICE y LHCb) dirigen a las partículas nuevas generadas mediante unas formidables “lentes magnéticas” hacia diferentes zonas de esos detectores para que sean registradas.

4) Las señales que salen de la retina llegan a través del nervio óptico a nuestro cerebro donde serán de forma muy rápida almacenadas, procesadas e interpretadas. En el LHC, las señales salen de los detectores para ser depuradas, almacenadas y finalmente interpretadas en un cerebro global constituido por los centenares de centros de investigación participantes en los experimentos. Una nueva red mundial llamada GRID será la encargada de llevar esa información y permitir su procesamiento, desde el CERN a todas las instituciones implicadas.

Vayamos ahora al voltaje. La cantidad de energía proporcionada al electrón en nuestro aparato de TV se puede expresar de forma muy intuitiva. Llamando “1e” a la carga del electrón:

ETRC = q×∆V ⇒ ETRC =1e×20000 V, (1)

ETRC =2×104 eV (electron-volt).

En el LHC las partículas aceleradas son protones, y a través de 1a cadena de aceleradores del CERN cada protón alcanzará finalmente:

Luminosidad: la luz al final del túnel (LHC)

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 451 http://www.journal.lapen.org.mx http://www.lajpe.org

ELHC = 7 TeV (7 Tera-electron-volt),

ELHC = 7×1012 eV . Es momento de comparar:

ELHC / ETRC = 3.5×108.

Es decir, necesitaríamos 350 millones de aparatos de TV “conectados en serie” para que finalmente se alcanzase la energía lograda en el LHC. Con un tamaño medio de unos 12 cm en el tramo acelerador de un TRC, tendríamos una longitud total de:

0,12×350·106 ~ 40·106 m (40000 km !).

Por tanto, este "singular acelerador circular" daría la vuelta a la Tierra sobre la línea del ecuador.

Indiquemos ahora que el complejo de aceleradores del CERN, que finalmente permiten alcanzar los 7 TeV por protón, presenta un tamaño global que no alcanza los 35 km.

Comparado con los 40000 km, el complejo de aceleradores del CERN no parece tan grande.

Todavía podemos llevar la comparación aún más lejos. Tomemos como alimentador de voltaje una pila o batería común de 1,5 V.

ELHC / EPila = 4.7×1012.

Así que estamos hablando de casi 5 billones de baterías o pilas. Con un tamaño de cada pila de unos 5 cm ,la longitud total de ese particular montaje sería:

4.7×1012×0,05 ~ 2,3·1011 m (230 millones de km!).

Ese acelerador sería mucho más largo que la distancia entre el Sol y la Tierra (150 millones de km).

Sólo con estas dos comparaciones que acabamos de hacer ya podemos hacernos una idea del esfuerzo tecnológico que hay detrás de este enorme dispositivo que constituye el mayor experimento de la Historia.

III. ¿DE CUÁNTA ENERGÍA HABLAMOS REALMENTE? Cuando el LHC opere a máxima energía cada protón alcanzará los 7 TeV. Veamos de cuanta energía estamos hablando. Pasemos este valor al Sistema Internacional de unidades:

7 TeV = 7·1012 eV,

7·1012 × 1.6·10-19 = 1.12·10-6 J. Esta es aproximadamente la energía necesaria para levantar una pequeña partícula de arena de 1 miligramo

una altura de 10 cm. En efecto, la energía adquirida por esa partícula de arena será:

Ep = m×g×h, (2)

⇒ Ep = 10-6 ×9,81×0,1 ⇒ Ep ≈ 10-6 J. No parece mucha energía, pero recuérdese que en el LHC estamos hablando de un sólo protón, mientras que la partícula de polvo contiene unos 6×1020 protones.

Veamos algunos ejemplos más para comprender la verdadera dimensión del valor de esta “ridícula” energía.

Imaginemos que esta energía presente en un único protón se transfiere totalmente en forma de energía cinética a un objeto macroscópico que alguien dejó por error dentro de uno de los dos tubos guía del LHC. Supongamos que un cansado trabajador de montaje, con dolor de cabeza, dejó allí una aspirina de 500 mg de masa.

FIGURA 2. Un protón del LHC “transfiere” su energía a una aspirina. La velocidad que adquiriría ese comprimido de aspirina sería:

½×5·10-4×v2 = 1.12·10-6 ⇒ v =6,7·10-2 m/s.

Sigue sin parecer nada extraordinario, una velocidad que apenas llega a los 7 cm/s. Pero veamos el equivalente en protones que supone una aspirina. La masa molecular de la aspirina es aproximadamente 180 u. Por tanto, cada molécula posee una masa equivalente a 180 protones.

Veamos cuantas moléculas hay en 500 mg de aspirina:

moléculas 101,67 100226180

50 2123 ··,,= .

Por lo que el número equivalente en protones en cada comprimido es:

protones103180 101,67 2321 ·· =× . De forma que un protón en el LHC a 7 TeV de energía sería capaz de mover un objeto de casi un cuatrillón de veces mayor.

Si imaginamos un protón como un balón de fútbol (0,450 kg), el comprimido pasaría a ser un objeto de masa igual a:

kg10351103,450 2323 ·,· =× .

Xabier Cid y Ramón Cid

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 452 http://www.journal.lapen.org.mx http://www.lajpe.org

Es decir el doble de masa que la Luna. Por tanto una colisión frontal de un protón en el LHC se puede visualizar como lanzar una pelota contra la Luna con energía suficiente para lograr desviarla de su órbita.

Ya no parece tan “ridícula” esa energía. En el LHC los protones no viajan solos sino formando

paquetes (bunches) de unos cien mil millones de protones cada uno. Cada uno de esos paquetes lo podemos visualizar como un hilo de unos 7 cm de largo y menos de 1 mm de espesor. Calculemos la energía de cada uno de estos paquetes:

7 TeV/protón × 1.15×1011 protones/paquete.

Por tanto la energía total por paquete, ya en el S.I., es:

1.29×105 J/paquete.

FIGURA 3. Colisión de dos protones en el centro de un detector. Por cierto, la masa en reposo de cada paquete es:

1.15·1011×1.67·10-24 ≈ 0,2·10-12 g (0,2 pg). Una bala del calibre 45 tiene una masa de 15 g y vuela a una velocidade de unos 1000 km/h (~278 m/s), que es la máxima velocidad para munición comercial. La energía cinética correspondiente es:

Ec-bala = ½×0,015×2782 ≈ 600 J.

Si comparamos esta última energía con la del paquete de protones tenemos:

Epaquete / Ec-bala ≈ 200.

Por tanto, si un paquete de protones (0.2 picogramos de masa en reposo) impacta contra algo transfiere 200 veces más energía que una bala disparada por una poderosa arma de fuego. O si se quiere, si un grupo de protones se desvía de su trayectoria y choca contra las paredes del tubo por el que viaja tendría unas violentas consecuencias en la zona de impacto. Esto último constituye uno de los mayores motivos de preocupación para los responsables del LHC.

Una todavía más “aterradora” comparación es la que se deriva de tener en cuenta que en cada sentido del colisionador viajan 2808 paquetes de protones. Entonces la energía almacenada en cada haz de protones es:

1.29·105 J / bunch × 2808 bunches ~ 360 MJ. Y ese valor es equivalente a la energía producida en la explosión de unos 80 kg de TNT.

Veamos como final de este apartado la energía almacenada en los dipolos magnéticos. Estos dispositivos (ver Figura 4), en número de 1232, son los encargados de guiar a los protones en su trayectoria circular a lo largo del colisionador. Funcionan pues como imanes de deflexión y sus campos magnéticos son generados por enormes corrientes eléctricas que fluyen por cables superconductoros de Niobio-Titanio.

Esas corrientes suponen una energía almacenada de 7 MJ en cada dipolo. Tomando los 1232 dipolos tendremos un total de energía almacenada:

ET = 1232×7 ⇒ ET ≈ 9 GJ.

Consideremos un Boeing 747 (Jumbo) con peso máximo de 333,4 Tm a velocidad de crucero de unos 840 km/h (230 m/s). Su energía cinética es:

Ec = ½ ×333400 × 2452 = 9×109 J ⇒ Ec = 9 GJ. Por tanto la energía almacenada en los dipolos, que conforman la estructura principal del acelerador, es equivalente a la que posee uno de los aviones de pasajeros más grandes que existen cuando vuela a velocidad de crucero. IV. ALGUNOS CÁLCULOS EN FORMA DE COMPARACIÓN TÉRMICA Otra consideración que también ayuda a aproximarnos a lo singular de esta máquina puede ser hecha desde la perspectiva térmica.

Así, veamos la energía que posee cada haz de protones para hacer una comparación de carácter calorífica.

Calculemos la cantidad de Plomo a 25 ºC que podemos fundir usando los 360 MJ de energía “almacenada” en cada uno de los haces.

Los datos para el Plomo son:

Calor Latente de Fusión: L = 23,2 kJ/kg. Calor específico: ce = 129 J·kg−1K−1. Temperatura de fusión: TF = 600 K.

Realicemos ahora el cálculo:

Q = (m×ce×∆T) + (m×HF) (3)

360×106 = m×129×(600−298) + m×23,2×103.

m ≈ 5800 kg ≈ 6 toneladas de Plomo.

Luminosidad: la luz al final del túnel (LHC)

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 453 http://www.journal.lapen.org.mx http://www.lajpe.org

Estamos hablando de un “fino hilo” de unos pocos centímetros, formado por protones, capaz de fundir casi 6 toneladas de Plomo.

Acerquémonos ahora al caso opuesto: los efectos térmicos debidos a las bajas temperaturas usadas.

Los dos tubos, dentro de los cuales viajan los dos haces de protones en sentidos contrarios, están “bañados” por helio superfluido a una temperatura de 1,9 K (la temperatura más baja en el Universo!).

Hay varios materiales implicados, con coeficientes lineales de dilatación distintos y éstos varían además con la temperatura. No obstante, a efectos de aproximación, podemos tomar como coeficiente de dilatación lineal medio λ ≈ 10–5 K-1, que es el orden de magnitud para la mayoría de los metales.

FIGURA 4. Dipolos en el túnel del LHC. La variación lineal viene dada por la expresión:

∆L = L0×λ×∆T (4)

siendo L0 la longitud inicial y ∆T la variación de temperatura.

La distancia entre los centros de los dos tubos de vacío es de 194,52 mm a 300 K. En condiciones de funciona-miento a 1,9 K tendremos:

∆L = L0×λ×∆T ⇒ 194,52 = 10–5×(1,9 – 300).

∆L = –5,2·10-4 m ⇒ ∆L = – 0,52 mm. Habrá una reducción de medio milímetro, por lo que la distancia real que separará los dos haces en el LHC será de d = 194 mm.

Pero pasemos a algo más espectacular. Ya hablamos en apartados anteriores de los 1232 imanes de deflexión (dipolos) que conforman una de las imágenes más característica del LHC (ver Figura 4). Cada dipolo pesa unas 35 toneladas y la longitud total de cada uno de ellos (la llamada “masa fría”) es de 14,343 metros a 300 K. Entonces al pasar a 1,9 K tendremos,

∆L = L0×λ×∆T ⇒ ∆L = 14,343×10–5 (1,9 – 300),

∆L = – 4,3·10-2 m ⇒ ∆L = – 4,3 cm. Por tanto la longitud de cada dipolo en funcionamiento será de 14,300 m. Se trata de una contracción nada despreciable. Pero además, teniendo en cuenta los 1232 dipolos, la contraccion total es:

∆L = – 4,3·10-2×1232 ⇒ ∆L = – 53 m (!).

Es decir, medio campo de fútbol. Este es otro valor que indica la precisión con la que hubo que construir esta máquina a fin de que estos cambios estuvieran siempre perfectamente controlados.

Un último ejemplo lo podemos encontrar en el sistema de protección que presenta el LHC para evitar que el haz pueda causar daños graves en la propia máquina. El suceso más temido en un dispositivo como éste es el llamado “quenching” que aparece cuando una parte de un dipolo pasa de condiciones de superconductividad a un estado resistivo normal.

Estos sucesos se inician con energías de unos pocos mJ (miliJoules) cuando la temperatura crítica o la corriente crítica es superada, por movimientos en los superconductures (fricción y disipación de calor), fallos criogénicos, y obviamente por pérdida del haz que impacta contra el sistema criogénico. Entonces, la deposición de energía en el cableado superconductor provoca el fin de las condiciones de superconductividad con un aumento progresivo de la temperatura por efecto Joule. Un dipolo en "quenching" requiere una descarga inmediata de los haces en una sola vuelta, disipando los 14 TeV (720 MJ) en 89 ms!

Cada haz es desviado a una zona exterior al anillo principal donde se encuentra el sistema de descarga (Beam dumping). Consiste en un bloque cilíndrico de grafito (beam absorber) de unos 8 m de longitud y de 1 m de diámetro (ver Figura 5), en el que se dispersan los 2808 paquetes a lo largo de su volumen. Este es el único elemento en el LHC que puede resistir el impacto del haz completo.

Para distribuir la energía de forma conveniente y en toda la masa de grafito, el haz descargado es obligado a entrar en el cilindro de la forma más extendida posible (dilution), y dibujando en su entrada en la masa de grafito una figura en forma de casi circunferencia de unos 120 cm. Un conjunto de imanes deflectores son los encargados de realizar la tarea de adecuación del haz para que su energía sea disipada de forma controlada.

FIGURA 5. Sistema de descarga de los haces de partículas. Hagamos un breve cálculo con los números implicados. Teniendo en cuenta las dimensiones del bloque de grafito y su densidad (2250 kg/m3), la masa total es:

Xabier Cid y Ramón Cid

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 454 http://www.journal.lapen.org.mx http://www.lajpe.org

(8×π×0,52) × 2250= 1,41 104 kg. El calor específico del grafito es de 710 J·Kg-1K-1. Como la energía a disipar por el haz es de 360 MJ, la variación media de temperatura en todo el bloque sería:

Q = m·ce·∆T, (5)

360 106 = 1,41 104·710·∆T ⇒ ∆T = 36 ºC.

No parece mucho aumento, pero el proceso de descarga dura menos de 0.1 s, por tanto el incremento de temperatura es casi instantáneo. Además, estamos hablando de un imponente cilindro de 8 metros de longitud, 1 metro de diámetro y unas 14 toneladas de masa que incrementa su temperatura en casi 40 ºC de media.

V. DATOS ASOMBROSOS Para finalizar indicamos en diez datos los hechos y parámetros que muestran lo extraordinario de este experimento y de esta máquina. Han sido tomados de un documento en forma de Guía que el propio CERN publica con cierta periodicidad, LHC THE GUIDE - CERN FAQ [5].

Dato 1) Cuando el túnel de 27 km fue excavado entre el Lago de Ginebra y el macizo del Jura, los dos finales se encontraron con una precisión de 1 cm.

Dato 2) Cada uno de los 6300 filamentos superconductores de niobio–titanio del cable producido para el LHC tiene unos 0.006 mm de espesor, es decir unas 10 veces más fino que un cabello humano.

Dato 3) Si uniésemos uno detrás de otro todos los filamentos de Nb-Ti, la longitud obtenida sería suficiente para ir al Sol y volver cinco veces, y sobraría para unos cuantos viajes a la Luna.

Dato 4) La zona central del LHC es la máquina frigorífica más grande del mundo. A una temperatura más fría que la del profundo espacio exterior, contiene hierro, acero y todos los importantes imanes superconductores.

Dato 5) La presión interior en los tubos por donde circulan los protones es unas diez veces más baja que la de la superficie lunar. Se trata de ultra vacío.

Dato 6) Los protones a máxima energía en el LHC viajan a 0.999999991 veces la velocidad de la luz. Cada protón da en el anillo de 27 km más de 11000 vueltas por segundo.

Dato 7) A energía máxima, cada uno de los haces de protones en el LHC tendrá una energía equivalente a la de un tren de alta velocidad de 400 toneladas circulando a 200 km/h.

Dato 8) El Sol nunca se pone en la colaboración ATLAS. Los científicos que trabajan en este experimento

proceden de todos los continentes a excepción de la Antártida.

Dato 9) El sistema magnético del detector CMS contiene unas 10000 toneladas de hierro, lo que representa más cantidad de ese metal que el que hay en la Torre Eiffel.

Dato 10) Los datos registrados por cada experimento en el LHC son suficientes para llenar alrededor de 100000 DVDs cada año. VI. CONCLUSIONES A lo largo de este trabajo hemos presentado diferentes magnitudes del colisionador LHC y hemos realizado algunos cálculos que ponen de manifiesto las dimensiones de esta extraordinaria máquina.

Todo ello se ha pretendido evitando el uso de fórmulas y deducciones matemáticas complicadas a fin de que sean accesibles al nivel de enseñanza secundaria.

Este tipo de comparaciones ha hecho que algunas personas, de forma totalmente desacertada, hayan sugerido que las colisiones pueden dar lugar a sucesos catastróficos para el planeta. Esto no responde a ninguna consideración científica como ha sido ya puesto de manifiesto en trabajos específicos, Ellis et al. [6] y de divulgación, Cid y Cid [7]. No obstante, esta polémica sirve para enfatizar, una vez más, que una sociedad sin cultura científica puede fácilmente ser manipulada por intereses ajenos a la ciencia.

Si el lector está interesado en cálculos de igual intención sobre otras magnitudes relacionadas con este experimento, puede encontrarlos en las referencias que se citan y también en Sitio Web “Acercándonos al LHC” [8]. REFERENCIAS [1] Cid R., Contextualized magnetism in secondary school: learning from the LHC (CERN), Phys. Educ. 40, 332-338 (2005). [2] Cid, R., Cid, X., Taking energy to Physics classroom from LHC (CERN), Phys. Educ. 44, 78-83 (2009). [3] Cid, R., Cid, X., The Higgs particle: a useful analogy for Physics classrooms, Phys. Educ. 45, 73-75 (2010). [4] Cid, R., Cid, X., Luminosidad: luz al final del túnel (LHC), Lat. Am. J. Phys. Educ. 3, 638-642. (2009). [5] LHC The Guide - CERN FAQ Communication Group, January 2008 CERN -Brochure 2008-001-Eng. (2008). [6] Ellis, J. et al., Review of the safety of LHC collisions, J. Phys. G: Nucl. Part. Phys. 35, 115004 (2008). [7] Cid, X., Cid, R., ¿Es segura la Tierra para el LHC (CERN)?, Revista Española de Física 22, 33-36 (2008). [8] Acercándonos al LHC, <http://www.lhc-closer.es> Consultado el 1 de Mayo de 2010.

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 455 http://www.journal.lapen.org.mx

BOOK REVIEWS

Mario H. Ramírez Díaz Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada, Unidad Legaria, Instituto Politécnico Nacional. Legaria, 694. Col. Irrigación, Del. Miguel Hidalgo, CP 11500, México D. F. E-mail: [email protected] (Recibido el 8 de Marzo de 2010; aceptado el 6 de Mayo de 2010)

Los procesos de formalización y el papel de la experiencia en la construcción del conocimiento sobre los fenómenos físicos Ayala, M., Romero, A., Malagón, J., Rodríguez, O., Aguilar, Y. y Garzón, M. 131 pp., editado por Universidad de Antioquia y por Universidad Pedagógica Nacional, Bogotá, Colombia, 2008. ISBN: 978-958-8316-56-7.

El libro “Los procesos de formalización y el papel de la experiencia en la construcción del conocimiento sobre los fenómenos físicos” de María Mercedes Ayala Manrique et al, da al lector una visión sobre la problemática que representan los procesos de formalización en física. A partir de reconocer la problemática existente en la relación entre la física y la matemática, los autores muestran la preocupación que ha inquietado tanto a filósofos y epistemólogos de la ciencia a lo largo de la historia.

El libro es parte del informe final del proyecto de investigación “Los procesos de formalización y el papel de la experiencia en la construcción del conocimiento sobre los fenómenos físicos: El caso de los fenómenos mecánicos”, realizado entre 2003 y 2008, con el auspicio de la Universidad Pedagógica Nacional y la Universidad de Antioquia, en Colombia.

El libro presenta los avances logrados en la investigación y se divide en dos partes. En la primera se pretende aportar a la reflexión general sobre la formalización y matematización en la física. En la segunda parte se analiza el proceso de constitución de dos magnitudes físicas –la velocidad angular y la presión interna-. Se busca con estos análisis establecer líneas de continuidad conceptual entre la organización de los fenómenos mecánicos y los procesos de identificación y cuantificación de las magnitudes físicas involucradas. La primera parte lleva por nombre “Elementos para una reflexión sobre la formalización y matematización en la física” y su primer capítulo es “Consideraciones Sobre la Formalización y Matematización de los Fenómenos Físicos”. Este primer capítulo es una versión ampliada de la ponencia publicada en las Memorias del Congreso Nacional de Enseñanza de la Física, en la Universidad Pedagógica Nacional en Bogotá en 2004, además de haber sido publicado cómo artículo en la revista Práxis filosófica, nueva serie N. 25, julio-diciembre 2007, pp. 39-54. Este primer capítulo aborda en principio el carácter formal del conocimiento, a partir del desarrollo de la

concepción constructivista del conocimiento. Muestra la dificultad en la unión entre lo físico y lo matemático y considera que no se trata de unir formas de conocimiento radicalmente diferentes; formula que la Física y la Matemática pueden compartir formas similares en cuanto se pueden considerar que son elaboraciones formales de lo externo. Más adelante, propone diferentes tipos de formalización en Física, en particular define cuatro tipos de formalización: Formalización de carácter pragmático, Aplicación de las matemáticas en el análisis de los fenómenos físicos, Axiomatización de las teorías físicas y unificación de campos fenoménicos y matematización de un campo fenoménico. Este primer capítulo concluye asegurando que no hay distinción de base entre formalizar y matematizar, máxime si se toma en cuenta que matematizar no se reduce a cuantificar.

El segundo capítulo tiene por título: “La Búsqueda de los Principios Fundamentales de la Mecánica: Euler y d’Alembert”. El texto de este capítulo fue presentado en la conferencia “d’Alembert i lumini, I’Europe”, celebrada entre el 24 y 29 de septiembre de 2006, en Trento, Italia. En este capítulo se dan a conocer algunos de los aportes de la fundamentación de la mecánica adelantados por Euler y puestos en relación con algunas de las respectivas propuestas hechas por d’Alembert. Se presenta el contexto histórico de la mecánica en tiempos de Euler y d’Alembert, afirmando la influencia que ambos tienen por las tradiciones lebniziana y cartesiana al hacer uso del análisis y de formular principios fundadores.

Por otro lado, aborda como estudio de caso la significación de la ley de inercia y su relación con su concepción de espacio, tiempo y movimiento como conceptos fundamentales de la mecánica. Se pone en evidencia que si bien los fundamentos epistemológicos en los que se basan sus concepciones de la mecánica son diferentes, estos pensadores tienen en común características importantes del estilo científico. Se concluye que la relación entre la física y la matemática

Mario H. Ramírez Díaz

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 456 http://www.journal.lapen.org.mx

existente desde los inicios de su desarrollo permite afirmar que la mecánica es una ciencia matematizable de un género particular.

El tercer capítulo se titula: “De la Mecánica Racional a la Termodinámica General o Energética: La Física de Pierre Duhem”. En este capítulo se estudia la crítica hecha por Duhem al mecanicismo por su carácter reduccionista. Esta crítica se estudia en tres ángulos: Reduccionismo vs holismo, Apariencias vs Lo Fenomenológico y Substancialismo vs Lo Simbólico. Se centra la atención a la perspectiva “Duhemniana”, es decir, la fenomenológica y se aborda el problema de la magnitud del cambio de estado. Con este enfoque se estudia el concepto de magnitud desde los comparativos de cantidad vs cualidad, extendiendo este comparativo a la noción de medida. Se hace referencia a Duhem acerca del hecho de que en física, las cualidades son identificadas como sensaciones y con ello es claro su contexto físico experiencial. Posteriormente, se resalta que desde la perspectiva de Duhem lo sensible, lo físico, resulta ser fundamental. De ahí que la indagación por la esencia de las cosas ahora se cambia por la necesidad práctica de actuar sobre los cuerpos del mundo exterior y de modificarlos según nuestras necesidades. Necesidades que en el terreno de la construcción de las teorías físicas, sin lugar a dudas, resultan ser cognitivas.

La segunda parte del libro lleva por título “Procesos de Construcción de Algunas Magnitudes Físicas en Contextos de Enseñanza”, siendo su primer capítulo “Caracterización del Movimiento de Rotación Respecto a un Punto Fijo. Análisis de un Proceso de Formalización”. En este capítulo se reflexiona nuevamente sobre la relación entre la Física y la Matemática y su ubicación en el contexto de la construcción de conocimiento. En particular, el capitulo busca mostrar como la organización de los fenómenos relativos al movimiento de rotación de los cuerpos rígidos requiere de la elaboración de una forma de caracterizar y de referirse a este movimiento que implica, construir las magnitudes del tipo que se suele calificar como axial. Nuevamente los autores se remiten a Euler en su manera de proceder a la construcción de magnitudes. Para una descripción inicial sobre el movimiento de rotación, los autores abordan algunos rasgos fenomenológicos de este tipo de movimiento, tomando algunos casos particulares a manera de ejemplo, tal es el caso del trompo normal y el giroscopio. Posteriormente, se estudia la problemática que implica construir las magnitudes necesarias para especificar el movimiento de rotación de cuerpos rígidos, haciendo lo anterior de manera análoga a la forma de proceder de Euler. Se señala que en términos generales (de acuerdo a Euler) el movimiento de un cuerpo solido respecto al centro de masa es siempre un movimiento infinitesimal de rotación respecto a un eje que en el instante en cuestión pasa por el centro de masa. Se muestran de manera general las demostraciones, tanto geométrica como analítica, de la aseveración anterior. Más adelante se analiza el movimiento de cuerpo rígido desde una perspectiva de estados, teniendo para esto que definir al estado en relación a una propiedad o cualidad,

ligando la idea de estado a la idea misma de permanencia, indiferencia y pasividad.

De lo anterior señalan los autores, se tienen dos importantes implicaciones para el movimiento rotacional: una, un cuerpo o un sistema no puede cambiar su estado de movimiento por sí mismo, y dos, no es posible que un cuerpo cambie su estado de movimiento sin que haya al menos otro que lo haga. Con estas ideas, se formulan cuestiones tales como si la velocidad angular en una variable de estado. Al responder a este tipo de cuestiones se llega a afirmar que para poder pensar en estados de rotación es necesario considerar la rotación respecto a un eje principal, si el cuerpo rota respecto a un eje arbitrario, a medida que lo hace y sin la acción de una fuerza externa, el eje experimenta un torque haciendo que otros puntos del cuerpo configuren un nuevo eje en torno al cual se lleva a cabo instantáneamente la rotación, es decir, que el eje cambia su dirección respecto al cuerpo. Basado en las ideas previas y de manera análoga a como la masa es definida como la magnitud que identifica al cuerpo con relación al movimiento de translación, en el caso de la rotación de los cuerpos determinan el momento de inercia expresado como:

(𝑟𝑟2 − (𝑟𝑟 ∙ Ω)2 𝑑𝑑𝑑𝑑 = 𝜌𝜌2𝑑𝑑𝑑𝑑

Donde ρ es la distancia del elemento de masa dm al eje Ω que define, además, la distribución de masa del cuerpo respecto a éste y da cuenta de la oposición que exhibe el cuerpo cuando modifica la magnitud de la velocidad angular de su movimiento de rotación. A partir de este momento de inercia es posible definir el tensor de inercia como:

𝐼𝐼 = 𝑟𝑟21 − 𝑟𝑟𝑟𝑟)𝑑𝑑𝑑𝑑

Siendo 1 el operador unidad. I representa los momentos de inercia para todos los ejes de rotación permisibles que pasan por el punto fijo, resultando ser una magnitud adecuada para caracterizar el comportamiento del cuerpo con relación a un movimiento en el que permanece fijo un punto de este en cuanto tal movimiento se puede pensar como rotación respecto a dicho punto. Finalmente en este capítulo se estudian las implicaciones pedagógicas de este tipo de movimientos. Identifican tres núcleos problemáticos, con los que diseñaron e implementaron tres talleres en la Universidad Pedagógica Nacional de Colombia: 1) La identificación y caracterización del eje y especificación del plano de rotación como términos primarios a partir de los cuales se puede describir el movimiento de rotación, 2) La interacción entre cuerpos que rotan, la dirección de la velocidad angular, y la transmisión y conservación del momento angular; y 3) Determinación de las condiciones para producir un cambio en la dirección del eje de rotación.

El último capítulo se titula “La Formalización del Estado de Equilibrio de los Fluidos. El concepto de

Los procesos de formalización y el papel de la experiencia en la construcción del conocimiento sobre los fenómenos físicos

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 457 http://www.journal.lapen.org.mx

Presión Interna como Variable de Estado”. En este capítulo se toma nuevamente como base a Euler para hacer un análisis histórico epistemológico de la configuración del concepto de presión interna y fuerza. El texto plantea el hecho que desde tempranas edades se sabe de la experiencia que el comportamiento de los medios fluidos presenta notables diferencias con respecto al de los cuerpos sólidos. Se formula más adelante que en la mayoría de los textos introductorios de Física a nivel universitario que abordan la hidrostática y la hidrodinámica, la presión se asume como una acción ejercida sobre una superficie determinada y se define como

una fuerza ejercida por unidad de área: 𝑃𝑃 = 𝐹𝐹→𝐴𝐴 . Se

menciona el hecho de que algunas investigaciones recientes en el campo de la Física Educativa no sólo constatan la confusión (mal uso de vectores y escalares, desde el punto de vista matemático) causada por tal interpretación entre el concepto de presión y el concepto de fuerza, sino que resaltan la ambigüedad con la que el concepto de presión es introducido en la mayor parte de los libros de texto de Física usados.

Posteriormente, se formulan una serie de preguntas tales como: ¿Cómo propiciar en la enseñanza de la Física la significación del concepto de presión como variable de estado? ¿Cómo favorecer, desde los cursos introductorios de física, una organización de los fenómenos fluidos

acorde con las perspectivas contemporáneas de la física?; y con el afán de responderlas se hace un análisis histórico y epistemológico de la obra de Euler en hidrodinámica. Dicho estudio comienza con el concepto de presión interna de Euler, para continuar con la presión interna como variable de estado, expresando a la misma presión como una magnitud intensiva cuyo valor se define en relación a un elemento de superficie. A partir de lo anterior se posibilita plantear una manera alternativa de abordar y enseñar los problemas relacionados con la hidrostática y la hidrodinámica.

Finalmente, el libro presenta una sección de conclusiones, donde considera la formalización como una categoría central para el análisis del conocimiento de los procesos cognitivos. Cuando se considera la física se suele hacer distinciones con otro tipo de conocimientos; la formalización en Física se hace a través de las Matemáticas, estableciéndose entre éstas, una intima relación que no se suele reconocer en otros conocimientos y disciplinas. Los autores afirman que la experiencia y el experimento juegan un papel muy importante en los procesos de formalización y matematización de los fenómenos físicos. Aseveran, en términos generales, que el proceso de construcción de magnitudes está indisolublemente ligado ya sea a la organización de la experiencia o a los procesos de ampliación de la misma.

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 458 http://www.journal.lapen.org.mx

BOOK REVIEW

Daniel Sánchez Guzmán Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada, Unidad Legaria, Instituto Politécnico Nacional. Legaria, 694. Col. Irrigación, Del. Miguel Hidalgo, CP 11500, México D. F. E-mail: [email protected] (Recibido el 3 de Enero de 2010; aceptado el 15 Marzo de 2010)

Desalación de Aguas: Aspectos tecnológicos, medioambientales, jurídicos y económicos Prof. José A. Ibañez Mengual (Coordinador) 645 pp., editado por Instituto Euromediterráneo del Agua, Carretera de Monteagudo, Km 3, 30160 Murcia, España ISBN 978-84-936326-6-3

I. INTRODUCCIÓN El libro: “Desalación de Aguas: Aspectos tecnológicos, medioambientales, jurídicos y económicos”, Editado por el Instituto Euromediterráneo del Agua y muy bien coordinado por el Prof. José A. Ibañes Mengual nos muestra aspectos sumamente importantes y relevantes, dada la situación actual del mundo globalizado, en donde cada vez hace más falta este valioso líquido, ya hace varios años se ha venido vislumbrando que las guerras en un futuro no muy lejano, no serán por el petróleo sino por el agua, elemento imprescindible para la vida humana. La demanda de agua en el mundo, adecuada a diferentes fines, está en plena expansión.

El libro nos presenta que afortunadamente, hace años que es posible técnica y económicamente viable, producir grandes cantidades de agua de excelente calidad, mediante los procesos de desalación, por lo que las diferentes tecnologías de desalación juegan hoy día y lo seguirán haciendo en el futuro inmediato, un papel esencial. No obstante, el desafío se sigue planteando en términos de aumentar el suministro y abaratar más los costes, para hacer así que el agua desalada sea accesible a precios asumibles, en entornos de recursos económicos limitados y muy especialmente para la agricultura moderna. Por todos estos motivos, el estudio de los procesos de desalación de aguas, tanto marinas como salobres e incluso de las procedentes de vertidos industriales y urbanos, es un campo en expansión y no sólo en lo que a los aspectos tecnológicos se refiere, sino también en cuanto al impacto medioambiental de los procesos desalinizadores y a su reglamentación administrativa y jurídica. Y eso es a lo que este libros nos invita, a reflexionar y a ubicar en todos los aspectos posibles, tanto sociales, ambientales, jurídicos y tecnológicos la desalación de este vital líquido.

Se puede ver en la lectura que las tecnologías de desalación se agrupan fundamentalmente en torno a dos orientaciones: una de desarrollo anterior, que alberga los procesos que implican cambios de fase, principalmente

evaporativos y otra de desarrollo más reciente, que requiere la utilización de membranas. Los procesos de membranas, principalmente la osmosis inversa, han experimentado en los últimos años un rapidísimo crecimiento y siguen en expansión. Los costes de producción siguen bajando, mientras que la eficacia productiva sigue aumentando. Ahora bien, el desarrollo futuro tiene que orientarse ya no sólo a la mejora de los aspectos técnicos meramente productivos, sino que también será preciso desarrollar otras facetas tendentes a reducir el impacto negativo sobre el medio ambiente y en este sentido, las tecnologías de desalación son ya, sin duda, una herramienta importantísima para reducir la contaminación de las aguas residuales.

La presente obra tiene por objeto primordial proporcionar al lector conocimientos que le permitan comprender los procesos de desalación, mostrando los principios básicos que los gobiernan, a la vez que aportando información sobre el impacto medioambiental de los mismos, así como sobre aspectos jurídicos y de análisis de costes.

El libro ha sido confeccionado por encargo de la Fundación Instituto Euromediterráneo del Agua, con la financiación de un proyecto concedido por el mismo, en el que han participado una quincena de colaboradores, tanto del mundo universitario como del empresarial, y se dirige a cuantas personas preocupadas con el problema del agua, deseen conocer con cierta profundidad los procesos de desalación y sus implicaciones.

El contenido se puede agrupar en tres bloques: por un lado, el constituido por los Capítulos 1 y 2, que abordan aspectos de carácter general, por otro lado los Capítulos 3, 4, 5 y 7, que tratan de los procesos de membrana, los Capítulos 5, 6, y 9, que consideran los procesos energéticos, los Capítulos 8, 10, 11, 12 y 13 que tratan sobre aspectos medioambientales y de calidad y los Capítulos 14 y 15 que consideran el análisis de costes y jurisprudencia.

Desalación de Aguas: Aspectos tecnológicos, medioambientales, jurídicos y económicos

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 459 http://www.journal.lapen.org.mx

El Capítulo 1 expone la situación presente y su proyección futura de los procesos de desalación. El Capítulo 2 es una introducción general a los procesos con membranas. En él se definen y clasifican los distintos tipos de membranas y módulos, y se contempla especialmente, los procesos dirigidos por presión y en particular la osmosis inversa (OI), así como aquellos cuya fuerza generalizada es un campo eléctrico, o sea la electrodiálisis (ED), y que serán objeto de estudio más extenso en Capítulos siguientes.

Los Capítulos 3, 4 y 5 tratan exclusivamente aspectos relacionados con los procesos de desalación con membranas. El primero contempla la naturaleza y propiedades de las membranas intercambiadoras utilizadas en los procesos ED y aborda aspectos teóricos relacionados con la misma, incluida la polarización, aparte de contemplar diferentes consideraciones prácticas sobre el proceso, incluidos tipos de operación y sistemas de alta recuperación. El Capítulo 4 retoma el tema de las procesos OI introducido en el segundo capítulo, desarrollándolo con más amplitud, tanto en lo relativo a las membranas utiliza-das en ellos, como en lo que respecta a los módulos, así como se consideran aspectos básicos concernientes al diseño y operación de plantas. En cuanto al Capítulo 5, éste se dedica a energética de las plantas de OI, tanto en lo relativo a los equipos de bombeo como en lo concerniente a la recuperación de energía de las salmueras.

El Capítulo 6 analiza la desalación de aguas desde la perspectiva de las energías renovables, comparando los desarrollos más interesantes con energías alternativas, solar y eólica fundamentalmente. El Capítulo 7 aborda los métodos de pretratamiento del agua de alimentación para plantas OI, contemplando como requisito previo la caracterización fisicoquímica de la misma, lo que incluye la determinación de los índices predictivos de los ensuciamientos coloidal y cristalino de las membranas; así mismo, se describen los procedimientos de limpieza de éstas y el postratamiento del agua producto. El Capítulo 8 contempla la utilización de las aguas desaladas como solución al abastecimiento agrícola, considerando su calidad para la posterior utilización agronómica.

El Capítulo 9 considera los procesos térmicos, combinados con otras tecnologías, para la producción de agua desalada. El Capítulo 10 trata de la potabilización convencional del agua, desde su captación superficial hasta su consumo.

El Capítulo 11 considera todos los aspectos más relevantes sobre la captación de aguas, tanto subterráneas como de mar, mediante pozos. El Capítulo 12 considera el déficit de agua con una perspectiva más amplia, tratando los casos del mismo en la región del Mediterráneo.

El Capítulo 13 trata sobre el impacto ambiental que los procesos de desalación ocasionan fundamentalmente en el medio natural. El Capítulo 14 contempla los aspectos que, desde el punto de vista jurídico, involucran a los proceso de desalación. En el Capítulo 15, se discuten aspectos económicos relativos a costes de inversión, operación y mantenimiento para los procesos de osmosis inversa. Finalmente en el Capítulo 16, se revisa la historia reciente de la desalación de aguas marinas mediante osmosis

inversa en la cuenca del Segura. De estos capítulos se pueden considerar los siguientes apartados como relevantes para el lector interesado en este tipo de proyectos y soluciones. II. SITUACIÓN ACTUAL DE LA DESALA-CIÓN En el libro se presenta de manera muy clara cuál es la situación actual de este proceso, en principio las plantas desaladoras de basaron en procesos de evaporación térmica de agua salina que buscaban reproducir el ciclo hidrológico natural. A día de hoy, alrededor del 40% de la capacidad desaladora instalada en el mundo, se basa en estos procesos. A principios de los años 70 del pasado siglo, se inició el desarrollo de plantas desaladoras basadas en tecnologías de membrana, concretamente la osmosis inversa y la electrodiálisis, que unen a su potencial desalador, la capacidad de eliminar microorganismos y muchos contaminantes orgánicos. Requieren así mismo, unos costes de inversión y mantenimiento muy por debajo de los sistemas térmicos, aunque por el contrario estos últimos producen agua con mucho menor contenido salino que aquellos (25 ppm vs 300 ppm).

Las primeras instalaciones desaladoras se construyen al principio de los años cincuenta. Los precios bajos de los combustibles fósiles marcan la tendencia en el desarrollo de las primeras plantas desaladoras, todas ellas de evaporación. Se trataba de instalaciones de gran consumo energético, aunque relativamente baratas en cuanto a su instalación. El incremento de la capacidad instalada hasta 1970 es muy bajo, siendo el total a finales de este año de 1,700,000 m3/día.

En los años 73-74 se inicia una tendencia al alza en la instalación de este tipo de plantas, en buena parte motivada por la crisis del petróleo de 1973. Al ser nacionalizados los pozos petrolíferos e iniciarse una subida generalizada en el precio del crudo, se produce una acumulación de capital en los países de la OPEP, que a su vez inician un proceso de inversiones en plantas desaladoras de agua de mar para paliar la escasez de este recurso, y una optimización del diseño de los evaporadores para obtener mejores rendi-mientos y abaratar el agua. Se busca el mínimo coste, que será el mínimo de la suma de inversión y explotación. De esta forma, se llega a crear núcleos urbanos entorno a las plantas, fijando población nómada. La disponibilidad de recursos hídricos, procedentes de la desalación del agua de mar, tanto para abastecimiento como para la industria e incluso alguna agricultura, contribuyó a iniciar la industrialización y modernización de éstas zonas.

Este proceso de avance de la capacidad instalada sigue hasta mediados de los años ochenta. Es el momento en que se produce otra nueva crisis del petróleo que, en este caso, opera al revés de la anterior en cuanto al crecimiento de la capacidad contratada. Los países más industrializados abren un camino de diversificación de fuentes energéticas (gas, carbón, nuclear) a la vez que se sigue avanzando en la rebaja de los consumos de energía. Esto genera una

Daniel Sánchez

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 460 http://www.journal.lapen.org.mx

menor demanda de crudo, que repercute en la disminución de las inversiones en desalación durante los años 86 a 88. La crisis de estos años obligó a los países de la OPEP a establecer cuotas de producción como única forma de evitar una caída incontrolada del precio del crudo. La Guerra del Golfo en el año 1990, y las consecuencias económicas para Kuwait y Arabia Saudita, se ven reflejadas en la disminución de contratos en los años 1994 y 1995.

En enero de 2005 había instaladas o contratadas en el mundo más de 10000 plantas desaladoras con una capacidad nominal superior a los 100 m3/día, con una capacidad de producción total de agua tratada en torno a los 36 millones m3/día, o lo que es lo mismo, algo más de 13,000 Hm3/año, lo que supone un aumento de un 37% respecto de ésta misma capacidad correspondiente al año 2000, es decir, con un crecimiento anual superior al 7%. En cualquier caso lo cierto es que la capacidad real a fecha de 2005 debería ser algo menor que la anteriormente aportada, dado que ésta incorpora la capacidad correspondiente a plantas en construcción en aquel momento.

De acuerdo con los informes emitidos por la Internacional Desalination Association (IDA), el crecimiento mundial del empleo de tecnologías de desa-lación para producir agua dulce creció de forma muy acelerada durante el año 2008 y según su anuario, edición 2008-2009, la capacidad total planificada y contratada creció en 2007 un 43% con relación al año anterior, o lo que es lo mismo, 6.8 millones de metros cúbicos por día, frente a los 4.7 millones del 2020, basándose exclusivamente en mejoras tecnológicas. Será necesario reducciones en los costes energéticos y aún así, no será fácil alcanzar la reducción citada a corto plazo, sin olvidar los factores de escala y de índole medioambiental antes citados. III. EL FUTURO DE LA DESALACIÓN Se puede observar en el libro que la tendencia a nivel mundial viene condicionada por lo que hagan los Países del Golfo. En la actualidad y debido a las consecuencias de la llamada Guerra del Golfo, así como a la inestabilidad en la zona, las economías de esos países se están viendo afectadas, por lo que el criterio de obtener agua a precios menores está siendo considerado. Este hecho, junto con que los procesos de evaporación requieren de su acoplamiento con una central térmica, que genere el calor necesario para destilar el agua, ha conducido a una situación de desequilibrio entre la oferta de energía eléctrica y la demanda de la misma, dándose una sobrecapacidad en la potencia instalada frente a la demandada. Esto a su vez, conduce a que las plantas desaladoras por evaporación no puedan ponerse al 100% de producción, cuando la potencia de la turbina baja de determinado tanto por ciento.

Como ya se ha dicho, la solución a todas estas situaciones viene de la mano de las plantas de osmosis inversa. Por una parte, producen agua a menor coste y por

otra, al ser consumidoras de energía eléctrica equilibra la oferta y la demanda, mejorando el factor de producción de las centrales ya existentes. Por esta causa se ha visto que los últimos grandes concursos de desaladoras en los Países del Golfo han sido al 50% de procesos de destilación y 50% de osmosis inversa. En conclusión, es de esperar que en los próximos años la mayoría de las instalaciones desaladoras en el mundo, se apoyen en este tipo de procesos.

Por ello, es de esperar que la Región del Golfo continuará siendo el mayor mercado para la desalación, debido al crecimiento poblacional y al necesario reemplazo de plantas desaladoras obsoletas. Así, se puede prever que se duplicará su capacidad desaladora en el año 2015. En cuanto a la Región del Mediterráneo, continuará con su proyección expansiva actual, mientras que la Región Asiática tiene grandes expectativas de crecimiento, debido a su enorme aumento de población y elevado crecimiento económico.

La capacidad de desalación de aguas en Europa, está concentrada en su mayor parte en la zona Mediterránea, principalmente en España e Italia, donde se emplea fundamentalmente para el abastecimiento a regiones con recursos hídricos limitados, que han sufrido un incremento enorme de la demanda, tanto por parte de la agricultura como del turismo.

El anuario IDA 2008-2009 indica para la actualidad un gran número de plantas desaladoras de gran capacidad en construcción. Hoy día la mayor instalación en operación, posee una capacidad de 456,000 metros cúbicos día, ubicada en los Emiratos Árabes Unidos, habiendo 5 plantas en construcción con capacidad superior a los 500,000 metros cúbicos día, todas ellas en la región de Oriente Medio; la mayor de ellas es de 880,000 metros cúbicos día en Saudí Arabia. IV. COMPONENTES EN LA DESALINIZA-CIÓN DEL AGUA Un hecho importante en la industria de la desalinización que emplea agua de mar como materia prima para la obtención de agua dulce para uso y consumo humano se encuentra en la actualidad en clara expansión como alternativa a la escasez de agua. Son varios los factores que hacen que cada vez el agua dulce como recurso natural limitado, presente mayores problemas de escasez. De entre estos, destacan el crecimiento demográfico a escala global acompañado de una mejora en la calidad de vida que aumentan las demandas de agua y a su vez la contaminación de los recursos hídricos. Se suman a estos otros factores como el suministro limitado de agua, el cambio climático y las intervenciones humanas que reducen la disponibilidad de este recurso.

Los procesos comerciales de desalinización disponibles se dividen en dos categorías principales: termal y de membranas. El proceso más extendido de desalinización en el mediterráneo español es el de membrana por osmosis inversa. El libro principalmente se centra en el impacto

Desalación de Aguas: Aspectos tecnológicos, medioambientales, jurídicos y económicos

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 461 http://www.journal.lapen.org.mx

ambiental de las plantas desalinizadoras por osmosis inversas, aunque la mayor parte de los aspectos ambientales de estas desalinizadoras puede aplicarse a otros procesos de desalinización. La osmosis inversa es un proceso de separación con membrana en el cual el agua se separa de una solución salina sometida a presión de sus solutos fluyendo a través de la membrana. En la práctica el agua salina se bombea a un recipiente cerrado donde se presuriza contra la membrana. En este proceso el agua de entrada incrementa de salinidad. Esta agua de entrada debe descartarse ya que si se mantiene sin renovar, el agua de entrada progresivamente incrementaría la concentración de sales. El agua de entrada podría saturarse de sales, lo que podría ocasionar problemas de precipitación en la membrana. Un sistema de osmosis inversa se compone de los siguientes componentes: - Pretratamiento - Bombas de alta presión - Ensamblaje de membranas - Postratamiento El libro describe a detalle cada uno de los componentes antes descritos, dando una idea más clara de cómo se opera cada componente y mencionando tanto los puntos de oportunidad como las experiencias obtenidas. V. IMPACTOS AMBIENTALES Un punto importante al respecto tiene que ver con los impactos ambientales que serán las consecuencias de incrementar la capacidad de metros cúbicos tratados. Al igual que ocurre con tantas otras actividades que el ser humano desarrolla para la obtención de recursos naturales, la industria de la desalineación, que pretende asegurar la disponibilidad futura de agua dulce, ocasiona efectos adversos en el medio natural. Una forma de visualizar los posibles impactos de la desalinización es la realización de un modelo conceptual de los flujos implicados en el proceso. Por lo general se consideran tres entradas principales en el proceso de desalinización: energía, agua de mar y utilización del territorio. Las características de interés de estas entradas son la proporción de fuentes energía renovable y no renovable, la salinidad y la proximidad a la línea de costa respectivamente. Los flujos de salidas son agua dulce, gases con efecto invernadero, salmuera e infraestructuras.

Los estudios ambientales (estudio de impacto ambiental, pre y post-operacional) están definidos por las autoridades locales competentes en medio ambiente. El procedimiento general de Estudio de Impacto Ambiental para plantas desalinizadoras implica cinco pasos básicos (según el procedimiento general que recomienda la UNEP): 1. Recolección de información anterior y revisión de la legislación existente. Este paso considera que el conocimiento de casos análogos puede ser utilizado para reducir la duración y costes de los estudios de impacto ambiental.

2. Investigación del proyecto y el lugar seleccionado, incluyendo el medio natural, el escenario socio-económico y posibles alternativas al diseño del proceso propuesto y localización. 3. Identificación y valoración de los impactos potenciales en la calidad del medio ambiente como consecuencia de la implantación del proyecto mediante: 4. Recomendación de alternativas o medidas de mitigación para cada componente que puede ocasionar efectos adversos con el propósito de reducir el impacto general de la planta desalinizadora. Uno de los mecanismos de mitigación del impacto ambiental básico es seleccionar un área de vertido con la comunidad menos sensible y de menor valor ambiental. 5 Establecimiento de un programa de seguimiento ambiental, tanto para la fase de construcción como para la fase de funcionamiento para verificar si las predicciones hechas en el Estudio de Impacto Ambiental han sido correctas y para recoger más información de los efectos. Los requerimientos del monitoreo deben ser especificados por la autoridad competente que aprueba el Estudio de Impacto Ambiental y autoriza la construcción y funcionamiento de la planta.

Los principales impactos ambientales de las plantas desalinizadoras se resumen a continuación: 1. Efecto en el uso del suelo. Las desalinizadoras se localizan cerca de la frágil línea de costa. El uso recreativo o turístico queda sustituido por un proceso industrial. 2. Impacto en los acuíferos. Si la planta desalinizadora se construye en el interior para evitar interferir con el uso del litoral es necesaria la utilización de tuberías para conducir el agua de mar y la salmuera resultante. Las fugas de estas conducciones pueden suponer la entrada de sal en los acuíferos. Además la perforación de pozos para obtener agua salobre puede poner suponer una intrusión marina en los acuíferos. 3. Impacto del ruido. Las plantas desalinizadoras utilizan bombas de alta presión en el proceso y turbinas para recuperar la energía, lo que produce ruido. 4. Alto consumo energético. El alto consumo eléctrico tiene un efecto indirecto tanto en el medio ambiente localmente próximo a la planta como a escala internacional con su contribución al incremento de emisiones de gases con efecto invernadero. 5. Impacto en el medio marino. Aunque las aguas vertidas contienen sales originarias del mar retornan al medio marino con mayor concentración, densidad, temperatura y la presencia potencial de productos químicos utilizados en el pretratamiento. La instalación de las conducciones para la toma de agua y vertido de la salmuera puede ser en sí misma peligrosa. La instalación de estas tuberías puede ocasionar la re-suspensión del sedimento y modificación de la dinámica costera, sofocando o sepultando a comunidades bentónicas sensibles a los cambios de sedimentación. 6. Impacto social. La disposición de agua dulce en áreas con escasez permite el crecimiento de la población y nuevos usos del territorio. Se produce un desequilibrio entre la disponibilidad de agua y sus usos debido a la importación de actividades propias de zonas sin escasez de

Daniel Sánchez

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 462 http://www.journal.lapen.org.mx

agua. Se puede ver de los puntos anteriores que la mayoría de

los temas son abordados, descritos y relatan la experiencia vivida al respecto, nos dan una visión más amplia de lo que pasa en este proceso y cómo podemos contribuir al desarrollo o implementación de este tipo de proyectos. VI. CONCLUSIONES El libro trata de cubrir todo el conocimiento alrededor de la desalación de aguas, es un libro que contiene mucha información relevante para aquella persona o grupos de

investigación interesados en el tema, una característica particular son los diagramas de proceso y las imágenes que permiten ver aspectos internos de la planta y dar un panorama más amplio al lector. También presenta el impacto ambiental en el que pueden incurrir las plantas de desalación, así como el marco jurídico sobre el cual se encuentra en la actualidad, en el caso particular del libro es el marco legislativo español el que se encarga de regular este tipo de proyectos y aplicaciones. Se recomienda ampliamente el tema tanto a personas especializadas como a personas que no saben mucho del tema pero que tienen el interés o la curiosidad de saber cómo funciona este tipo de plantas.

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 463 http://www.journal.lapen.org.mx

BOOK REVIEW

Rubén Sánchez-Sánchez Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada, Unidad Legaria, Instituto Politécnico Nacional. Legaria, 694. Col. Irrigación, Del. Miguel Hidalgo, CP 11500, México D. F. E-mail: [email protected] (Recibido el 3 de Enero de 2010; aceptado el 15 Marzo de 2010)

Desarrollo de Competencias en Física II contenidos y secuencias didácticas Silvia G. Maffey García 263 pp., editado por Editorial GES, S.A. de C.V. Huasteca núm. 72, Colonia Industrial. Del. Gustavo A. Madero, C.P. 07800, México, D.F. ISBN en trámite

El libro Desarrollo de competencias en Física II Contenidos y Secuencias Didácticas de Silvia G. Maffey García, publicada por la editorial Global Educational Solutions (GES). Es un ejemplo de lo que se está haciendo con la educación de la Física a nivel Medio Superior empleando la técnica didáctica conocida como desarrollo de competencias. Las llamadas aquí competencias, son un conjunto de habilidades, conocimientos, actitudes y métodos encaminados a la resolución de los problemas en una disciplina de la ciencia dada. En este caso, la autora trata de desarrollar estas competencias entre los estudiantes de Física que cursan un bachillerato tecnológico, de acuerdo a lo que actualmente la Secretaría de Educación Pública (SEP) de México, considera que es la estratégica didáctica más adecuada, que hay que llevar a las aulas, para la correcta formación de individuos que sean capaces de resolver y enfrentarse a problemas reales. De esta manera, la sociedad mexicana se verá beneficiada, con personas que son productivas, que tienen el criterio y la seriedad científica, y que poseen una formación académica de alto nivel de conocimientos en Física, gracias a los cuales se desempeñan correcta y eficientemente en sus trabajos.

El libro se centra en el estudio de varios temas clave de la Física elemental como son la energía potencial y cinética, el calor y la temperatura, leyes de los gases ideales, carga eléctrica, potencial eléctrico y diferencia de potencial, capacitancia, corriente eléctrica, resistencia, ferromagnetismo, campo magnético terrestre y radiación electromagnética. En cada sección del libro vienen como objetivos, las competencias que se quieren alcanzar al término de la clase y se invita al estudiante a que reflexione sobre las fórmulas que rigen cada fenómeno estudiado, proponiéndole resolver algunos problemas, mientras identifica, en forma dinámica, tanto a los datos, como la fórmula que está relacionada con el problema, y finalmente expresa la solución matemática de la misma, utilizando el álgebra necesaria. Asimismo, ayuda al estudiante a tomar conciencia sobre cómo nos afecta el

cambio climático que sufre actualmente nuestro planeta, a consecuencia de la forma inadecuada en que el hombre a explotado sus recursos. La nueva forma de abordar el problema de enseñar Física responde a la filosofía didáctica que concentra en el alumno al autor dinámico de su propio conocimiento. Es decir, el libro utiliza lo que se conoce en didáctica de las ciencias como aprendizaje activo de la Física, para el desarrollo de las competencias en el alumno de nivel bachillerato. Es interesante observar lo que actualmente se conoce como competencia del alumno y ver la lista de habilidades, capacidades y destrezas que el profesor puede evaluar durante un curso de Física elemental. Los alumnos adquieren ciertas competencias elementales agrupadas según el siguiente esquema propuesto por la autora de la obra, el alumno: 1. Se autodetermina y cuida de sí. 2. Se expresa y comunica. 3. Piensa crítica y reflexivamente. 4. Aprende de forma autónoma. 5. Trabaja en forma colaborativa. 6. Participa con responsabilidad en la sociedad. Así, mientras el profesor avanza en una serie de temas selectos de un programa estándar de bachillerato para Física. El alumno va adquiriendo de forma activa y colaborativa una serie de capacidades necesarias para el correcto entendimiento de varias bases de la Física, mismas que le servirán en el desarrollo posterior de su formación académica. Mediante el desarrollo de competencias, se educa al alumno de acuerdo a lo que actualmente es considerado por la Secretaría de Educación Pública como la aproximación más adecuada para la enseñanza de la Física a todos los estudiantes del nivel Medio Superior. El profesor puede apreciar clara y detalladamente lo que es una competencia, y como un estudiante la adquiere en las varias áreas de la Física elemental.

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 464 http://www.journal.lapen.org.mx

BOOK REVIEWS Nicolás A. Cordero Departamento de Física, Escuela Politécnica Superior, Universidad de Burgos, Calle Villadiego s/n, CP 09001 Burgos, España. E-mail: [email protected]

(Recibido el 7 de Marzo de 2010; aceptado el 17 de Abril de 2010) ¡Física sí! La Física está en lo cotidiano

Queiruga Dios, Miguel Ángel (Autor) Maestro Santamaría, Berta (Ilustradora) 192 pp., editado por Editorial Q. A Coruña 2009. ISBN: 978-84-613-6830-3.

¡Física sí! La Física está en lo cotidiano, nos guía a través de los contenidos fundamentales de la física: el método científico, el movimiento, las interacciones, la energía…, tomando como ejemplos situaciones cotidianas y sencillas de nuestro entorno para obtener conclusiones.

Aunque la estructura del texto pueda parecer un tanto “tradicional”, con una separación de contenidos en distintos “episodios”, es a la hora de su lectura cuando descubrimos claramente la intención del autor: guiarnos a través de la física basando su estrategia en dos pilares fundamentales: la reflexión y la construcción de los conceptos.

La reflexión y el análisis son aspectos fundamentales en este tipo de disciplinas. Comprender los principios más elementales representados a partir de hechos cotidianos y tratados con un lenguaje sencillo, sin perder en ningún momento el rigor, es una pieza clave para el posterior desarrollo científico. Este libro invita, al mismo tiempo que a una lectura comprensiva, a una reflexión que permita interiorizar los conceptos y fenómenos físicos. Pero no se queda ahí: nos sugiere ir más allá, planteándonos cuestiones que generan en el lector la necesidad de indagar, de buscar nuevos ejemplos y nuevas situaciones que analizar con perspectiva física. Y precisamente, para no distraernos de la esencia misma de la física, el autor se olvida de las fórmulas. Siendo estas imprescindibles en muchas situaciones, podrían en este caso inducir a la elección del camino más corto: la mecanización de la física y la reducción de ésta a un puñado de fórmulas.

Además, en cada página de este libro se alienta el debate. Se plantean situaciones e interrogantes que animan a la discusión, a la búsqueda de contraejemplos y al descubrimiento.

El otro pilar en que se sustenta este libro es la forma constructivista de llegar a los conceptos: en cada paso, a partir de una breve secuencia lógica, el autor nos crea la necesidad de definir nuevos conceptos y nuevas

magnitudes que nos van a facilitar el análisis de una situación o fenómeno concreto. Y es éste uno de los hechos que da continuidad a la Física a lo largo de los diez episodios del libro, hilando y relacionando unos con otros.

Las ilustraciones son abundantes a lo largo de todo el libro, sin duda con intención de inducir en el lector una sensación de claridad en la exposición y desarrollo de los contenidos; contribuyendo a hacer la lectura más fácil pero sin provocar distracciones innecesarias.

Enfocado principalmente hacia el estudiante novel, que pretende dar sus primeros pasos en esta disciplina, asentando una base sólida sin errores conceptuales, la exposición amena, original e incluso divertida en ocasiones, hace que la lectura de esta obra sea asequible para todos los públicos.

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 465 http://www.journal.lapen.org.mx

ANNOUNCEMENTS +++++++++++++++++++++++++++++++++++++++++ ACTIVE LEARNING IN OPTICS AND PHOTONICS-PERU

A partir de Junio 1-4 de 2010, la Universidad Católica de Santa María y LACCEI realizarán el Taller de Aprendizaje Activo de Óptica y Fotónica de la UNESCO en Arequipa, Perú.

A través del proyecto ALOP, la UNESCO organiza talleres dirigidos a maestros de países en desarrollo para promover la creatividad y la innovación en la forma de enseñar la óptica. El proyecto ALOP utiliza un método pedagógico novedoso de aprendizaje activo, que ha dado excelentes resultados en la enseñanza de la física en general y consiste en guiar al estudiante en un camino de auto aprendizaje basado en experimentos y ejercicios cuidadosamente diseñados, que requieren de un equipo muy sencillo y fácilmente reproducible.

Los estudiantes trabajan en grupos en los cuales se desarrollan la discusión y el intercambio de ideas, siguiendo las instrucciones y preguntas planteadas en el manual que les facilita la comprensión de los fenómenos que observan.

Los profesores actúan como facilitadores del aprendizaje y la actividad dirigida remplaza la exposición tradicional.

El taller ha sido diseñado para maestros de secundaria y profesores de primeros años de Universidad de diversos países de Latinoamérica quienes se espera utilicen el método y contribuyan a su difusión posteriormente organizando nuevos talleres en los que ellos actúen como facilitadores.

Si tiene interés en asistir debe llenar una solicitud pues el cupo está limitado a 40 participantes. Una vez que su solicitud haya sido aceptada, deberá inscribirse en la conferencia LACCEI. El costo de la inscripción incluye almuerzos, materiales y la cena de gala. Los participantes recibirán el manual del taller en inglés o en español, según su preferencia, y un certificado de asistencia al taller. Diez juegos de lentes y otros equipos utilizados en el taller serán donados a algunas de las instituciones de procedencia de los participantes.

Hay becas de inscripción que proporcionará LACCEI para los participantes asociados con instituciones miembro de LACCEI y becas del Departamento de Estado estadounidense para el profesorado de las Escuelas Americanas. La inscripción será gratuita para profesores de enseñanza secundaria en el Perú que hayan sido aceptados. Los solicitantes serán notificados de su

selección y las subvenciones concedidas a la mayor brevedad posible. http://www.laccei.org/index.php?option=com_wrapper&view=wrapper&Itemid=618 +++++++++++++++++++++++++++++++++++++++++

AAPT Summer Meeting - Portland, Oregon

July 17-21, 2010 in Portland, Oregon This year's summer meeting will occur in the Hilton Portland & Executive Tower and Portland State University in beautiful Portland, Oregon. The hotel will host sessions, plenaries, and other meeting events while the campus will serve as the location for workshops during the initial days of the meeting.

Right now AAPT is working with a team at Portland State to bring you authentic information from the locals themselves that will help you plan your trip to the meeting. You can visit their site for details about the campus and other local information.

http://www.aapt.org/Conferences/sm2010/index.cfm

+++++++++++++++++++++++++++++++++++++++++

GIREP-ICPE-MPTL Conference 2010 August 22-27, 2010

Reims, France

International Conference: Teaching and Learning Physics today: Challenges? Benefits? We kindly invite you to participate in the GIREP-ICPE-MPTL International Conference on Teaching and Learning Physics Today: Challenges? Benefits? to be held August 22-27, 2010 at the Centre des Congres, Reims.

During the last 15 years, in most countries, the popularity of physics among students has been low and the enrolment has declined. Different approaches have been proposed to confront this situation, both at school and university levels. It seems that some of them have been successful. We hope that our conference will offer an opportunity for in-depth discussions of this topic and for sharing our experiences in order to move forward in this field.

The organisers invite contributions addressing the following sub themes in the field of:

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, Jan. 2010 466 http://www.journal.lapen.org.mx

1. Physics Education Research and Suggestions for Improving Physics Teaching • Teacher training (developing teaching competences, etc.) • Initial teaching • Different ways of learning • Use of multimedia • Teaching using History of Physics 2. Physics • Physics today (spintronics, ...) • Energy • System Earth (climate, environment, …) • Physics and Human Body • Teaching University Physics to non physicists, Oral presentations, (multimedia) workshops, (interactive) posters and symposia will take place during morning and afternoon parallel sessions.

We encourage EC projects to participate. Organisers will help to accommodate project meetings during the conference.

International Scientific Committee -Constantinos P. Constantinou, University of Cyprus -Michele D'Anna, Alta Scuola Pedagogica, Switzerland -Ton Ellermeijer, University of Amsterdam, The Nederlands -Pratibha Jolly, University of Delhi, India, -Ian Laurence, University of Birmingham, UK -Leopold Mathelitsch, University of Graz, Austria, -Marisa Michelini, Universita di Udine, Italy -César Eduardo Mora, Instituto Politécnico Nacional, Mexico -Gorazd Planinsic, University of Ljubljana, Slovenia -Rosa Maria Sperandeo-Mineo, Universita di Palermo, Italy -Robert Sporken, FUNDP Namur, Belgium -Laurence Viennot, University Denis Diderot Paris 7, France -Dean Zollman, Kansas State University, USA

Local Scientific Committee -Jean-Stephane Antoniow, URCA -Vincent Barbin, URCA -Jean-Luc Bodnar, URCA -Philippe Colin, Universite d'Artois, Paris 7 -Manuel Dauchez, URCA -Cecile de Hosson, Paris 7 -Wanda Kaminski, URCA, Paris 7 -Gerard Mary, URCA -Martine Meheut, Paris 12, Paris 7 -Valerie Munier, Montpellier II -Laurence Viennot, Paris 7

Local Organising Committee -Jean-Stephane Antoniow, URCA -Gilles Baillat, URCA -Didier Chauveau, URCA

-Manuel Dauchez, URCA -Wanda Kaminski, URCA, Paris 7 -Marie-Pierre Larvor, URCA -Gerard Mary, URCA -Daniele Moreau, URCA -Daniel Niclot, URCA

Please visit the conference website http://www.univ-reims.fr/girep2010, register if you intend to participate and if you wish to receive further announcements. The call for papers is published on the website.

We are happy to reveal that 2007 Physics Nobel Prize Albert Fert is one of our invited keynote speakers. +++++++++++++++++++++++++++++++++++++++++ DÉCIMO SIMPOSIO DE INVESTIGACIÓN EN EDUCACIÓN EN FÍSICA (SIEF 10)

6, 7 y 8 de Octubre de 2010, Misiones, Argentina Se realizará en el Centro de Convenciones y Eventos de la Provincia de Misiones (Posadas), entre el 6 y el 8 de octubre de 2010.

Los Simposios de Investigación en Educación en Física (SIEF) son eventos bienales promovidos por la Asociación de Profesores de Física de la Argentina – APFA. El propósito general de los mismos es ofrecer un ámbito de comunicación, debate y reflexión sobre la educación en física y la didáctica de las ciencias como campo de investigación.

El Simposio permitirá reunir a investigadores, profesores y todos aquellos interesados en la enseñanza de las ciencias para compartir sus producciones y experiencias. Si bien el eje es la educación en Física, todos los aportes relacionados con la enseñanza de las ciencias naturales o las matemáticas son bienvenidos.

A través de la presentación y discusión de trabajos, desarrollo de mesas redondas y conferencias, y conformación de grupos de discusión, se analizarán y debatirán cuestiones relevantes que contribuyan a mejorar la educación en ciencias en todos los niveles educativos y consolidar el área de investigación en enseñanza de las ciencias.

Estamos trabajando para ofrecer una programación interesante y una estadía placentera en Posadas (Misiones) para todos los participantes. Esperamos contar con su presencia.

http://sief.unam.org.ar/ La Comisión Organizadora del Décimo Simposio de Investigación en Educación en Física (SIEF 10) postergó la fecha para el envío de contribuciones y el pago anticipado de inscripciones hasta el 21 de junio de 2010.

En la página web: http://sief.unam.org.ar/ ya están disponibles:

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 467 http://www.journal.lapen.org.mx

Normas para Trabajos Normas para Tesis Normas para Proyectos Ficha de inscripción Boletín Nº 2 Con el propósito de ordenar la recepción de consultas, el envío de contribuciones y la recepción de inscripciones, se ampliaron las vías de comunicación: [email protected]: para información general, [email protected]: para el envío de contribuciones, [email protected]: para el envío de ficha de inscripción. +++++++++++++++++++++++++++++++++++++++++

La Asociación Argentina de Agrometeorología, AADA, tiene el agrado de invitarlos a participar del 20 al 22 de octubre de 2010 en la XIII Reunión Argentina y VI Latinoamericana de Agrometeorología. En esta ocasión, la Universidad Nacional del Sur y la Bolsa de Cereales y Productos de Bahía Blanca serán a la vez, los organizadores y sede del evento científico.

La Asociación Argentina de Agrometeorología es una organización sin fines de lucro que fomenta el desarrollo de la ciencia agrometeorol-ógica en todo el país. Organiza reuniones científicas bianuales y reúne a investigadores, docentes, profesionales, empresarios, etc., vinculados directa o indirectamente a ella. Estas Reuniones tienen como objetivo promover la investigación científica, la enseñanza y la extensión de la especialidad. Se presentan trabajos de investigación y se aborda la discusión, a través de exposiciones, paneles y conferencias. Se incluye el entorno del cambio climático y su influencia sobre el sector agropecuario.

Durante el evento se desarrollarán distintas actividades sociales, generando así espacios para lograr una grata convivencia y aunar lazos de colaboración y amistad entre los participantes. Comité Organizador Presidente Ing. Agr. Inés Mormeneo [email protected] Vicepresidente Ing. Agr. Esteban Barelli [email protected] Secretario Ing. Agr. Dr. Federico Bert [email protected] Pro Secretario Sra. María José Nagali

[email protected] Tesorero Ing. Agr. Omar Elía [email protected] Miembros Colaboradores Lic. María Paula Abrego Ing. Agr. (M. Sc.) Marta Comegna

Ing. Agr. (M. Sc.) Alicia Morant

Ing. Agr. (M. Sc.) Oscar Bravo Ing. Agr. Dora Nizovoy

Ing. Agr. Eduardo Campi Met. (M.Sc.) Claudia Palese Prof. Adriana Chanampa Ing. Agr. Andrea Rodríguez Dra. Marisa Cogliati Lic. Patricia Rosell Ing. Agr. (Dra.) Lilian Descamps Lic. Silvina Spagnolo

Dra. Lilian Elosegui Srta. Liliana Zabala

Presidente Comité Científico Ing. Agr. (M. Sc.) Antonio de la Casa Normas generales de Presentación de los Trabajos y Resumen Los Trabajos y el Resumen deben enviarse en documento Word (2003-2007), por correo electrónico a la dirección [email protected]. En "asunto" poner el apellido del primer autor seguido de la inicial del nombre y, entre paréntesis, el Número correspondiente al Área Temática seleccionada. Recepción de resúmenes: Hasta el 30 de Abril de 2010. En el mismo deberá adjuntarse la ficha de inscripción. El texto no deberá superar las 250 palabras (incluyendo toda la información: título, autor/es, lugar de trabajo, resumen, agradecimientos y menciones). Se aceptarán solamente textos (no incluir gráficos, fotos o dibujos).

Escriba su resumen en una hoja en sentido vertical, dejando márgenes uniformes, de 2,5 cm. La tipografía será preferentemente Times New Roman 12, en itálicas y negritas cuando corresponda.

El texto deberá ajustarse a las siguientes normas: - Título en español (en mayúscula y negrita) - Título en inglés (inicial con mayúscula, resto en minúsculas) - Autores: Apellido (inicial con mayúscula, resto en minúsculas), seguido por las iniciales de los nombres en mayúscula - Lugar de trabajo de el/los autores - Resumen - Agradecimientos y menciones (en una sola línea) Nota: no serán considerados los resúmenes que superen el límite establecido de palabras Recepción de trabajos: Hasta el 31 de Mayo de 2010. Su acreditación estará supeditada a la evaluación del Comité Científico integrado al efecto. La extensión máxima admitida será de 2 carrillas tamaño A4, incluyendo gráficos, cuadros y notas bibliográficas, todo a doble

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, Jan. 2010 468 http://www.journal.lapen.org.mx

columna. La letra de presentación será Times New Roman, 10. Los márgenes derecho, superior e inferior deberán ser de 2 cm y el izquierdo de 3 cm. Los cuadros, gráficos y mapas deberán ser en blanco y negro. Las tablas deberán ser enumeradas con números arábigos, sin líneas verticales, precedidas con la leyenda de los títulos en la parte superior mientras que los diseños gráficos y fotografías (llamadas figuras) deberán titularse por debajo, y ser ordenados numéricamente al igual que las tablas. Áreas Temáticas En la XIII Reunión Argentina y VI Latinoamericana de Agrometeorología (RALDA), se enfocarán las siguientes líneas de investigación: 1. Recursos hídricos. Evaluación, planificación y gestión. 2. Productividad y cambio climático. Producción vegetal, animal, Forestal. 3. Teledetección, GPS y GIS. 4. Estadísticas y Modelos agroclimáticos. 5. La Agricultura ecológica y las fuentes de energía alternativa. 6. Estaciones y redes de estaciones meteorológicas. 7. Instrumental y Servicio Agrometeorológico. 8. La Agrometeorología, el agro negocio, seguros agrícolas. 9. Predicción de riesgos agroclimáticos. 10. La didáctica en Agrometeorología. ARANCEL Hasta 30/04/2010 Después 30/06/2010 Socios AADA c/Cuotas al día Sin cargo $ 300 Socios SBAgro y SVAgromet descuento 15% $ 350 No socios $ 300 $ 350 Estudiantes c/trabajos $ 40 $ 60 Asistentes $15 $15 Curso Para los asistentes que requieran la entrega de un certificado de asistencia, el valor de la inscripción será de $15. Para los alumnos de la UNS, la asistencia será gratuita. Nota: Quienes presenten más de dos trabajos deberán abonar $ 40 por cada trabajo extra. Podrán ser presentados: • Trabajos completos • Resultados finales de proyecto o en vía de finalizar • Revisiones • Trabajos finales de carrera (tesinas) Todas las Circulares Informativas se incluirán en la Página Web http://www.ralda2010.com.ar +++++++++++++++++++++++++++++++++++++++++

VI INTERNATIONAL WORKSHOP ON APPLIED PHYSICS IN ENGINEERING

to be held from November 29th to December 3rd 2010 at the International Conference Centre in Havana, Cuba. The main topic to be dealt with at the workshop will be:

“Optics at technology and society service” Objectives • To analyze and explain the role of the information and communication technologies and automation in Physics teaching and learning in the engineer training, with emphasis in physics laboratory. • To discuss and disclose the more advanced scientific works in the field of Physics Teaching in Engineering and in Physics Teaching and Learning at university distance undergraduate and postgraduate courses and other distance course alternatives. • To foster the links among participants to promote research-development projects as well as the signature of intention letters and cooperation agreements between ISPJAE and the institutions participating at the event. Main Topics -Physics teaching-learning labs in Engineering. -Automation of physics experiments -New Technologies in Physics Teaching. -Virtual environments for Physics learning. -Physics Teaching and Postgraduate Teaching in Applied Physics. -Syllabus design in Physics for Engineers. -Up to date pedagogical trends in teaching -Physics for Engineers. -Linking Physics and other basic and technical sciences. -Training and development of values in Physics Teaching. -Ph.D. and M.Sc. Thesis Workshop. Deadlines Sending of summaries Until May 30th 2010 Acceptance Information Until June 16th 2010 Sending of papers Until September 17th 2010 Acceptance Information Until October 15th 2010 Convention November 29th – December 3rd 2010 Registration Fees Speaker 220.00 CUC Student 80.00 CUC Companion 70.00 CUC

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, May 2010 469 http://www.journal.lapen.org.mx

Contact For requesting information, applying to participate, sending summaries, and so on, you can contact to the main office of the EFING 2010. Postal Address: Dpto. de Física, Fac. Ingeniería Eléctrica, ISPJAE. Ave. 114 No. 11901, e/ 119 y 127. Apdo. Postal 6028, Marianao .Ciudad de La Habana, CP-19390. Cuba. Teléfonos: (537) 266-3736, 260-7419, 260-6554, Fax: (537) 267-2964, 267-1574 E-mail: [email protected] Prof. Dr. Germán Muñiz Planas (Organizing committee president) [email protected] Prof. Dr. Alfredo Moreno Yeras (Executive secretary) [email protected] o [email protected] Access to Cuba In order to facilitate the coordination steps required for your visit, your travel agency will contact with CUBANACAN, which will be pleased to coordinate your stay in Cuba. For further additional information contact: Lic. Niurka Remedios Ballesteros, Calle 17A casa 73 e/ 174 y 190. Playa, La Habana Cuba. Tel:(537)204 4867/204 5009/ 208 9920 ext 223 Fax: (537) 204 4791 Email: [email protected] El Departamento de Física del Instituto Superior Politécnico “José Antonio Echeverría” (ISPJAE), se complace en convocar a los profesores de Física y otras Ciencias Básicas afines a las Ciencias Técnicas así como a investigadores en el campo de la Física Aplicada en la Ingeniería, a participar en el:

IX TALLER INTERNACIONAL SOBRE LA ENSEÑANZA DE LA FÍSICA EN LA

INGENIERÍA EFING´10

que se celebrará entre los días 29 de noviembre y 3 de diciembre del 2010 en el Palacio de las Convenciones en La Habana, Cuba, teniendo como tema central “La Física experimental, su contribución al modo de actuación del ingeniero” Objetivos •Analizar y fundamentar el papel que pueden desempeñar las tecnologías de la informática y las comunicaciones y la automática aplicadas a la enseñanza y el aprendizaje de la Física en la formación de ingenieros con énfasis en el laboratorio docente de física. •Debatir y divulgar los trabajos científicos más avanzados en el campo de la Enseñanza de la Física en la Ingeniería

y en la Didáctica de la Física Universitaria de pre y posgrado para gestionar su aprendizaje a distancia y en otras modalidades semipresenciales. •Propiciar entre los participantes la concertación de proyectos conjuntos de investigación y desarrollo, así como la firma de cartas de intención y convenios entre las instituciones representadas en el evento. Temáticas principales •Laboratorios docentes de Física en Ingeniería. •Automatización de experimentos de Física. •Nuevas Tecnologías en la enseñanza de la Física. •Entornos virtuales para aprender Física. •Didáctica de la Física universitaria y didáctica del postgrado en Física Aplicada. •Diseño curricular en la Física para Ingenieros. •Tendencias pedagógicas contemporáneas en la enseñanza de la Física en Ingeniería. •Interrelación de la Física con otras ciencias básicas y técnicas en la formación de ingenieros. •Formación de valores desde la enseñanza de la Física. •Taller de Tesis en Maestrías y Doctorados. Fechas límites Envío de resúmenes Hasta el 30 de junio 2010. Información de aceptación Hasta el 16 de julio 2010. Envío de presentaciones completas Hasta el 17 de septiembre 2010. Aceptación final para publicación Hasta el 15 de octubre 2010. Desarrollo del EFING´ 2010 del 29 de noviembre al 3 de diciembre 2010. Cuotas de inscripción Delegado 220.00 CUC Estudiante 80.00 CUC Acompañante 70.00 CUC Contacto Los interesados en participar en el evento pueden dirigir sus comunicaciones o solicitudes de información a: Dirección postal: Departamento de Física, Facultad de Ingeniería Eléctrica, ISPJAE. Ave. 114 No. 11901, e/ 119 y 127. Apdo. Postal 6028, Marianao .Ciudad de La Habana, CP-19390. Cuba. (537) 267-1880, 266-3736 266-3746, Fax: (537) 267-2964, 267-1574 E-mail: [email protected] Prof. Dr.C. Juan José Llovera González (Presidente del comité organizador) [email protected] Dr.C. Rolando Serra Toledo (Secretario ejecutivo) [email protected]

Lat. Am. J. Phys. Educ. Vol. 4, No. 2, Jan. 2010 470 http://www.journal.lapen.org.mx

SOBRE LA FÍSICA APLICADA EN LA INGENIERÍA FISAPLIC´10

que se celebrará entre los días 29 de noviembre y 5 de diciembre del 2010 en el Palacio de las Convenciones en La Habana, Cuba; teniendo como tema central "La óptica al servicio de la tecnología y la sociedad” Objetivos •Debatir y divulgar los trabajos científicos más avanzados en el campo de la Física Aplicada, con énfasis en: óptica aplicada y las aplicaciones médicas de la física tales como las relacionadas con la oftalmología, las imágenes médicas, la biofísica molecular y otras afines, el uso eficiente de las fuentes de energías, y la preservación del medio ambiente, los fundamentos físicos de las nanotecnologías, y el desarrollo de nuevos materiales nanoestructurados. •Propiciar entre los participantes la concertación de proyectos conjuntos de investigación y desarrollo, así como la firma de cartas de intención y convenios entre las instituciones representadas en el evento. Temáticas principales • Óptica Aplicada. • Física Médica. • Biofísica. • Procesamiento de Imágenes. • Física de Superficies y Coloides. • Nanofísica y Nanotecnologías. • Materiales fotovoltaicos • Física Computacional. • Taller de Tesis en Maestrías y Doctorados. Fechas límites Envío de resúmenes Hasta el 30 de junio 2010. Información de aceptación Hasta el 16 de julio 2010.

Envío de presentaciones completas Hasta el 17 de septiembre 2010. Aceptación final para publicación Hasta el 15 de octubre 2010. Desarrollo del FISAPLIC 2010 Del 29 de noviembre al 3 de diciembre 2010. Cuotas de inscripción Delegado 220.00 CUC Estudiante 80.00 CUC Acompañante 70.00 CUC Contacto Los interesados en participar en el evento pueden dirigir sus comunicaciones o solicitudes de información a: Dirección postal: Departamento de Física, Facultad de Ingeniería Eléctrica, ISPJAE. Ave. 114 No. 11901, e/ 119 y 127. Apdo. Postal 6028, Marianao .Ciudad de La Habana, CP-19390. Cuba. Teléfonos: (537) 267-1880, 266-3736 266-3746, Fax: (537) 267-2964, 267-1574 E-mail: [email protected] Prof. Dr.C. Germán Muñiz Planas (Presidente del Comité Organizador) [email protected] Prof. Dr.C. Alfredo Moreno Yeras (Secretario ejecutivo) [email protected] Acceso a Cuba Para facilitar los trámites de viajes deberá contactar con CUBANACAN, la cual gestionará con gusto su estancia en Cuba. Para solicitar información adicional o confirmar, dirigirse a: Lic. Niurka Remedios Ballesteros Calle 17A casa 73 e/ 174 y 190. Playa, La Habana Cuba. Teléfonos: (537) 208 9920 ext 223 Fax: (537) 208 6702 E-mail: [email protected]