20
Imagen futura Lev Manovich Animation 2006; 1; 25 Versión on line: http://anm.sagepub.com/cgi/content/abstract/1/1/25 Abstract: Hoy las técnicas de la animación tradicional, la cinematografía y la computación gráfica son a menudo usadas en combinación para crear nuevos formas híbridas de imágenes en movimiento. Este articulo tematiza este proceso usando el ejemplo de un hibrido particularmente intrincado –el método de la Universal Capture usado en el segundo y el tercero de los filmes de la trilogía Matrix. Más que esperar que alguna de las formas “puras” actuales dominará a cultura visual y la cultura de la imagen en movimiento, se sugiere que el futuro pertenece a tales híbridos. Palabras clave: animación, cine, animación por computadora, gráficas de computadora, captura de movimiento, gráficas de movimiento, cinematografía virtual. Para la mayor parte del siglo XX, las diferentes áreas de la cultura de la imagen en movimiento comercial mantuvieron sus distintos métodos de producción y sus distintas estéticas. Las películas y los dibujos animados se produjeron de manera completamente diferente y era fácil distinguir sus lenguajes visuales. Hoy la situación es diferente, La computarización de las distintas áreas de la producción de la imagen en movimiento creó un conjunto común de técnicas, que pueden ser usadas independientemente de si uno está creando gráficos en movimiento para la televisión, un largometraje de ficción, una película de dibujos animados o un video musical. La capacidad de componer varias capas de imágenes con transparencia variada , de color elementos fijos y en movimiento en un espacio virtual compartido de 3 D y después mover una cámara virtual a través de ese espacio, para aplicar desenfoque de movimiento (motion blur) simulado y efecto de profundidad de campo, para cambiar a lo largo del tiempo cualquier parámetro de un cuadro – todos estos pueden ahora ser aplicados por igual a cualquier imagen, sin tener en cuenta si han sido capturadas vía una grabación basada en una lente, dibujada a mano , creada con software 3D, etc. La existencia de este vocabulario común de técnicas basadas en la computación no significa que todas las películas tengan ahora el mismo aspecto. Significa, sin embargo, que si la mayoría de las películas de acción y las animadas tienen un aspecto bastante distinto es porque es el resultado de elecciones deliberadas antes de que una consecuencia inevitable de las diferencias en los métodos de producción y la tecnología. Al mismo tiempo, fuera del reino de las películas de acción y las de

Manovich, Imagen Futura

Embed Size (px)

DESCRIPTION

Lev Manovich (born 1960) is an author of books on new media theory, professor of computer science at the City University of New York, Graduate Center, U.S. and visiting professor European Graduate School in Saas-Fee, Switzerland. Manovich's research and teaching focuses on digital humanities, new media art and theory, and software studies[1] His best known book is The Language of New Media, which has been widely reviewed and translated into eight languages. According to two reviewers, this book offers "the first rigorous and far-reaching theorization of the subject"[2] and "it places new media within the most suggestive and broad ranging media history since Marshall McLuhan".[3] Manovich's new book Software Takes Command was published in 2013 by Bloomsbury and also released under a Creative Commons license.

Citation preview

Page 1: Manovich, Imagen Futura

Imagen futura

Lev Manovich

Animation 2006; 1; 25

Versión on line: http://anm.sagepub.com/cgi/content/abstract/1/1/25

Abstract: Hoy las técnicas de la animación tradicional, la cinematografía y la computación gráfica

son a menudo usadas en combinación para crear nuevos formas híbridas de imágenes en

movimiento. Este articulo tematiza este proceso usando el ejemplo de un hibrido particularmente

intrincado –el método de la Universal Capture usado en el segundo y el tercero de los filmes de la

trilogía Matrix. Más que esperar que alguna de las formas “puras” actuales dominará a cultura

visual y la cultura de la imagen en movimiento, se sugiere que el futuro pertenece a tales híbridos.

Palabras clave: animación, cine, animación por computadora, gráficas de computadora, captura

de movimiento, gráficas de movimiento, cinematografía virtual.

Para la mayor parte del siglo XX, las diferentes áreas de la cultura de la imagen en movimiento

comercial mantuvieron sus distintos métodos de producción y sus distintas estéticas. Las películas

y los dibujos animados se produjeron de manera completamente diferente y era fácil distinguir

sus lenguajes visuales. Hoy la situación es diferente, La computarización de las distintas áreas de

la producción de la imagen en movimiento creó un conjunto común de técnicas, que pueden ser

usadas independientemente de si uno está creando gráficos en movimiento para la televisión, un

largometraje de ficción, una película de dibujos animados o un video musical. La capacidad de

componer varias capas de imágenes con transparencia variada , de color elementos fijos y en

movimiento en un espacio virtual compartido de 3 D y después mover una cámara virtual a través

de ese espacio, para aplicar desenfoque de movimiento (motion blur) simulado y efecto de

profundidad de campo, para cambiar a lo largo del tiempo cualquier parámetro de un cuadro –

todos estos pueden ahora ser aplicados por igual a cualquier imagen, sin tener en cuenta si han

sido capturadas vía una grabación basada en una lente, dibujada a mano , creada con software

3D, etc.

La existencia de este vocabulario común de técnicas basadas en la computación no significa que

todas las películas tengan ahora el mismo aspecto. Significa, sin embargo, que si la mayoría de las

películas de acción y las animadas tienen un aspecto bastante distinto es porque es el resultado de

elecciones deliberadas antes de que una consecuencia inevitable de las diferencias en los métodos

de producción y la tecnología. Al mismo tiempo, fuera del reino de las películas de acción y las de

Page 2: Manovich, Imagen Futura

animación, la estética de la cultura de la imagen en movimiento cambió radicalmente durante los

años 90.

Lo que sucedió puede resumirse de la siguiente manera. A mediados de la década de 1990 , los

medios para simular movimiento y la post producción de la imagen (cine, animación, diseño

gráfico, tipografía),los nuevos medios computacionales (la animación 3D), y las nuevas técnicas de

computación (composición, múltiples niveles de transparencia) empezaron a interactuar dentro de

un mismo entorno computacional – ya sea una computadora personal o un relativamente barato

dispositivo de gráficos accesible para pequeñas compañías e incluso para particulares. El resultado

fue la emergencia de una nueva estética híbrida que rápidamente se convirtió en la norma. Hoy

esta estética opera en prácticamente todas las formas cortas de imagen en movimiento: la

publicidad televisiva, las gráficas de televisión, los videos musicales, las animaciones cortas, los

títulos de películas, las páginas de inicio en la web. También define un nuevo campo delos medios

de producción – los motion graphics- pero es importante resaltar que la estética híbrida no está

confinada a este campo sino que puede ser encontrada operando en todas partes.

Esta estética existe con infinitas variaciones pero su lógica es la misma: yuxtaposición de

lenguajes visuales anteriormente diferenciados o de distintos medios en la misma secuencia y,

bastante a menudo, dentro del mismo marco. Elementos dibujados a mano, tomas fotográficas,

video, tipografía, elementos 3 D, no están simplemente colocados uno al lado de otro sino

entrelazados. El lenguaje visual resultante es un híbrido, También puede ser llamado metalenguaje

en tanto combina el lenguaje del diseño, la tipografía, la animación tradicional, la animación en 3D

por computadora, la pintura y el cine.

Además de las características de los efectos especiales, la estética híbrida (o meta) de la gran

mayoría de las secuencias cortas de imágenes en movimiento que hoy nos rodean es el efecto más

visible de la computarización de la producción de imágenes en movimiento. En este caso, la

animación aparece con frecuencia como un elemento de una secuencia o incluso de un único

cuadro. Pero esta es solo uno, el más obvio, de los papeles de la animación en el paisaje visual

post-digital contemporáneo. En este artículo voy a hablar de su otra función: en tanto técnica

generalizada que puede ser aplica a cualquier imagen, incluyendo películas y videos. Aquí, la

animación no funciona como un medio sino como un conjunto de técnicas de uso general –

utilizada junto a otra técnicas del fondo común de opciones disponibles para un cineasta o un

diseñador.

He elegido un ejemplo particular para mi exposición que pienso que ilustra bien el nuevo papel

de la animación. Es un método relativamente nuevo de combinar acción en vivo y gráfica

computarizada. Llamada “Universal Capture” (U-cap) por sus creadores, fue en principio usada

sistemáticamente a gran escala por ESC Entertainment en Matrix 2 (2003) y Matrix 3 (2003),

películas de la trilogía Matrix. Tematizaré cómo este método es difeente de las técnicas que son

ahora comunes y de las técnicas más antiguas de integración de la acción en vivo y los elementos

gráficos computarizados. La Universal Capture también crea híbridos visuales – pero son bastante

diferentes de los híbridos que se encuentran en los gráficos de movimiento y en las otras formas

Page 3: Manovich, Imagen Futura

cortas de imágenes en movimientos de hoy. En el caso de la U-cap los diferentes tipos de

imágenes no se mezclan sino que más bien se fusionan para crear una nueva clase de imagen. Esta

imagen combina “lo mejor” de las cualidades de los dos tipos de imágenes que nosotros

normalmente entendemos como opuestas ontológicamente: las tomas de acción en vivo y la

animación computarizada en 3D. Voy a sugerir que tales híbridos de imagenes es probable que

desempeñen un gran papel en la cultura visual del futuro mientras el lugar de las imágenes

“puras” que no se fusionan o mezclan con algo probablemente disminuirá.

Desarrollo desigual

¿Qué clases de imágenes es probable que dominen la cultura visual unas décadas a partir de

ahora? ¿Seguirán siendo similares a la imagen típica que nos rodea hoy – fotografías que son

manipuladas digitalmente y a menudo combinadas con varios elementos gráficos y tipografías? ¿O

las imágenes futuras serán completamente diferentes? ¿El código fotográfico desaparecerá en

favor de algo distinto?

Hay buenas razones para presumir que las imágenes futuras probablemente sean similares a las

fotografías. Como un virus, la fotografía resultó ser un código figurativo increíblemente resistente:

sobrevivió oleadas de cambios tecnológicos, que incluyeron la computarización de todas las

etapas de la producción y distribución de la cultura. La razón de la persistencia del código

fotográfico reside en su flexibilidad: las fotografías pueden ser mezcladas fácilmente con otras

formas visuales –dibujos, diseño en 2D y en 3D, diagramas lineales y tipografías. Como resultado,

si bien las fotografías realmente dominan la cultura visual contemporánea, la mayoría de ellas no

son fotografías puras sino mutaciones e híbridos: fotografías que pasaron por diversos filtros y

ajuste manuales para lograr una apariencia más estilizada, una apariencia más plenamente gráfica,

un color más saturado, etc.; fotografías mezcladas con elementos de diseño y tipografías;

fotografías que o se limitan a la parte del espectro visible a un ojo humano (visión nocturna, rayos

X); fotografías simuladas hechas con gráficos computarizados en 3D; etc. Por lo tanto, si bien

podemos decir que hoy vivimos en una “cultura fotográfica” , también necesitamos empezar a leer

la palabra “fotografía” de una nueva manera. “Fotografía” hoy es realmente foto-GRÁFICA, la foto

que provee solo un estrato inicial para la mezcla gráfica en general. (En el ámbito de las imágenes

en movimiento, el término “gráficos en movimiento” captura perfectamente el mismo desarrollo:

la subordinación de la acción en vivo cinematográfica al código gráfico.)

Una manera en la que el cambio se produce en la naturaleza, la sociedad y la cultura es desde

adentro hacia afuera. La estructura interna cambia primero, y este cambio sólo después afecta la

piel visible. Por ejemplo, de acuerdo a la teoría marxista del desarrollo histórico, la infraestructura

(es decir, el modo de producción de una sociedad dada – también llamada “base”) cambia mucho

antes que la superestructura (la ideología y la cultura de esa sociedad). En un ejemplo diferente,

piénsese en el diseño tecnológico del siglo XX: por lo general un nuevo tipo de máquina fue

encajada en un principio dentro de una piel vieja, familiar: por ejemplo, los coches de principios

del siglo XX emulaban la forma de los carruajes de caballos. La familiar idea de McLuhan de que

los nuevos medios en principio emularon a los viejos medios es otro ejemplo de este tipo de

Page 4: Manovich, Imagen Futura

cambio. En este caso, un nuevo modo de producción de medios, por decirlo así, es en principio

usado para soportar la vieja estructura de la organización de los medios, antes de que la nueva

estructura emerja. Por ejemplo, los primeros libros impresos con tipos fueron diseñados para

emular los libros escritos a mano; el cine en principio emuló al teatro; etc.

Este concepto de desarrollo desigual puede ser útil para pensar los cambios en la cultura visual

contemporánea. Desde que este proceso comenzó hace cincuenta años, la computarización de la

fotografía (y el cine) ha cambiado ya completamente la estructura interna de la imagen

fotográfica, Todavía su “piel”, es decir, la manera en que una fotografía típica se ve, en gran parte

sigue siendo la misma. Es sin embargo posible que en algún punto del futuro la “piel” de una

imagen sea completamente diferente, pero esto no sucede todavía. Así, podemos decir en la

actualidad que nuestra cultura visual se caracteriza por una nueva “base” computarizada y una

vieja “superestructura” fotográfica.

La trilogía de Matrix nos proporciona una amplia gama de ejemplos que son perfectos para

pensar más a fondo estas cuestiones; es una alegoría acerca de cómo se construye su universo

visual. Es decir, la película nos dice cómo la Matrix, el universo virtual que se mantiene gracias a

las computadoras – y, por supuesto, visualmente las imágenes de la Matrix que nosotros los

espectadores vemos en las películas, fueron todas ensambladas en efecto con la ayuda del

software (los animadores a veces usaron Maya pero sobre todo se basaron en programas escritos

especialmente). Así hay una perfecta simetría entre nosotros, los espectadores del film, y la gente

que vive dentro de la Matrix –salvo que mientras que las computadoras que dirigen la Matrix son

capaces de hacerlo en tiempo real, la mayoría de las escenas en cada una de las películas de

Matrix llevó meses e incluso años para ser ensambladas. (Así la Matrix puede ser también

interpretada como una visión futurista de los juegos de computadora en el momento del futuro en

que se vuelva posible realizar los efectos visuales al estilo de Matrix entiempo real.)

La clave del universo visual de Matrix es la nueva batería de técnicas gráficas computacionales

que en estos años fueron desarrolladas por gente tanto de la academia como de la industria de

efectos especiales, que incluye a Georgi Borshukov y John Gaeta1. Los inventores acuñaron un

conjunto de nombres para estas técnicas: “virtual cinema”, “virtual humain”, “virtual

cinematography”, “universal capture”. Juntas, estas técnicas representan un verdadero hito en la

historia de los efectos especiales originados por computadora. Llevan a su lógica conclusión los

desarrollos de la década de 1990, tales como la captura del movimiento y, simultáneamente,

abren una nueva etapa. Podemos decir que con Matrix (199), la vieja “base” de la fotografía ha

sido finalmente reemplazada por completo por una nueva dirigida por computadora, Lo que

queda por ver es cómo la “superestructura” de la imagen fotográfica –qué representa y cómo-

cambiará para acomodarse a esta “base”.

1 .- Para detalles técnicos del método, ver las publicaciones de Georgi Borshukov. [www.virtualcinematography.org/publications.html].

Page 5: Manovich, Imagen Futura

Simulación de la realidad versus muestreo de la realidad

Antes de continuar, tengo que señalar que no todos los efectos especiales de Matrix dependen

de la U.cap. y , por supuesto otras películas de Hollywood ya usan algunas de las mismas

estrategias. Sin embargo, en este artículo me concentro en el uso de este proceso en Matrix

porque la U.cap. fue desarrollada realmente para el segundo y el tercero de los filmes de la

trilogía. Y si bien los créditos completos de los involucrados en el desarrollo del proceso llevarían

varias líneas, en este texto los voy a identificar con Gaeta. La razón no es porque, en tanto

supervisor de efectos especiales de The Matrix reloaded (2003) y The Matrix Revolutions (2003),

obtuviese más publicidad. Más importante aún, en contraste con muchos otros de la industria de

los efectos especiales, es que Gaeta ha reflexionado ampliamente en las técnicas que él y sus

colegas han desarrollado, presentándola como un nuevo paradigma para el cine y el

entretenimiento, y acuñado términos y conceptos útiles para entenderla.

A fin de entender mejor la importancia del método de Gaeta, vamos a pasar brevemente por la

historia de la síntesis de la foto realista en 3D y su uso en la industria fílmica. En 1963, Lawrence G.

Roberts (un estudiante de posgrado en el MIT) se convirtió en una de las personas clave del

desarrollo de Arpanet y publicó una descripción de in algoritmo computacional para construir

imágenes en perspectiva lineal. Estas imagines representaban los bordes de los objetos como

líneas; en el lenguaje contemporáneo de la computación gráfica, pueden ser llamados “wire

frames”. Aproximadamente diez años después, los científicos del ares de computación diseñaron

algoritmos que permitieron la creación de imágenes sombreadas ( llamados sombreado Gouraud

y sombreado Phong, con el nombre de los científicos que crearon los algoritmos

correspondientes). Desde mediados de la década de 1970 hasta el final de la de 1980, el campo

de la computación gráfica logró un rápido desarrollo. Cada año se crearon nuevas técnicas

fundamentales: transparencia, sombras, mapeo de imágenes, texturado topológico, sistema de

partículas, composición, trazado de rayos, radiosidad, etc. 2 Hacia finales de este creativo y

fructífero período de la historia del campo, era posible usar una combinación de estas técnicas

para sintetizar imágenes de casi cualquier tema que no eran fácilmente distinguibles de las del

cine tradicional.

Toda esta investigación se basaba en un presupuesto fundamental: con el fin de recrear una

imagen de la realidad idéntica a la capturada por una cámara cinematográfica, necesitamos

simular sistemáticamente la física real involucrada en la construcción de esta imagen. Esto

significa simular las complejas interacciones entre las fuentes de luz, las propiedades de los

2 .- Aunque pueda no todo el mundo esté de acuerdo con este análisis, creo que después de finales de la década de 1980, el campo redujo la velocidad significativamente: por otro lado, todas las técnicas claves que pueden ser usadas para crear imágenes en 3 D foto-realísticas ya han sido descubiertas. El rápido desarrollo del hardware de las computadoras en los `90 significó que los científicos informáticos ya no tenían que desarrollar nuevas técnicas para hacer más rápida la generación de imágenes, ya que los algoritmos anteriormente desarrollados eran ahora lo suficientemente rápidos.

Page 6: Manovich, Imagen Futura

diferentes materiales (tela, metal, vidrio, etc.), y las propiedades físicas de las cámaras

cinematográficas, incluyendo todas sus limitaciones tales como la profundidad del campo y el

motion blur. Ya que era obvio para los científicos que si ellos simulaban exactamente todos estos

aspectos físicos, una computadora tardaría una eternidad para calcular tan solo una imagen,

pusieron su energía en inventar varios atajos que crearían imágenes lo bastante realistas si bien

involucraran menos etapas de cálculo. Así, en efecto, cada una de las técnicas para sintetizar

imágenes que he mencionado en el parágrafo previo es un hack [reconfiguración /

reprogramación] tal –una particular aproximación a un particular subconjunto de todas las

posibles interacciones entre fuentes de luz, materiales y cámaras. Este presupuesto también

significa que ustedes están recreando la realidad paso a paso a partir de cero. Cada vez que

ustedes quieran hacer una imagen fija o una animación de algún objeto o escena, la historia de la

creación de la Biblia vuelve a desarrollarse.

(Me imagino a Dios al crear el mundo pasando por los numerosos menús de un programa

profesional de modelización en 3 D, animación y renderización como el Maya. Primero tiene que

hacer toda la geometría: manipular splines, extraer contornos, añadir biseles… después, para cada

objeto y creatura tiene que elegir las propiedades materiales: color especular, nivel de

transparencia, imagen, mapas topológicos y de reflexión, etc. Termina una serie de parámetros,

se limpia la frente y empieza a trabajar en la nueva serie. Ahora prosigue definiendo las luces: otra

vez, docenas de opciones del menú tienen que ser seleccionadas. Genera la escena, mira el

resultado y admira su creación. Pero está lejos de haberlo hecho: el universo que tiene en mente

no es una imagen fija sino una animación, lo que significa que el agua tiene que fluir, el pasto y las

hojas tienen que moverse bajo el soplo del viento, y todas las creaturas también tienen que

moverse. Suspira y abre otra serie de menús donde tiene que definir los parámetros de

algoritmos que simulen la física del movimiento. Y sigue, y sigue y sigue. Finalmente el mundo

mismo es terminado y se ve bien; pero ahora Dios quiere crear al Hombre para que pueda admirar

su creación. Dios suspira de nuevo, y saca un manual particular de Maya del estante donde toda la

colección ocupa toda la estantería…)

Por supuesto que estamos en cierto modo en una mejor posición que aquella en la que estaba

Dios. Él estaba creando todo por primera vez, por lo tanto no podía tomar prestadas cosas de

cualquier lugar. Por lo tanto, todo tuvo que ser construido y definido desde cero. Pero nosotros

no estamos creando un universo nuevo sino simulando visualmente un universo que ya existe, es

decir, la realidad física. Por lo tanto los científicos que trabajan en técnicas de computación

gráfica en 3D obtenidas anteriormente, además de la aproximación física involucrada, pueden

también a veces tomar otro atajo. En vez de definir algo desde cero por medio de algoritmos,

pueden simplemente dar una muestra de ella desde la realidad existente e incorporar estas

muestras en el proceso de construcción.

Los ejemplos de la aplicación de esta idea son las técnicas de mapeo de textura y bump mapping

que fueron introducidas en la segunda mitad de la década de 1970. Con el mapeo de textura,

cualquier imagen digital en 2 D –que puede ser un primer plano de alguna textura como el grano

de la madera o ladrillos, pero que también puede ser cualquier otra cosa, por ejemplo un logo, una

Page 7: Manovich, Imagen Futura

fotografía de una cara o de nubes- está matemáticamente abarcada por un modelo en 3D. Es una

manera muy efectiva de añadir la riqueza visual del mundo real a la escena virtual. El mapeado

topológico actúa de manera similar, pero en este caso la imagen en 2D se usa como una manera

de añadir complejidad rápidamente a la geometría misma. Por ejemplo, en vez de tener que

modelar manualmente todas las pequeñas grietas y hendijas que forman la textura 2 D de un

muro de hormigón, un artista puede simplemente sacar una fotografía de una pared existente,

convertirla en una imagen en una escala de grises y después proveer esta imagen al algoritmo de

renderización. El algoritmo trata la imagen de la escala de grises como un mapa de profundidad,

es decir, el valor de cada pixel es interpretado como como la altura relativa de la superficie. Así,

en el ejemplo, los pixeles de luz se vuelven puntos que están un poco detrás. El resultado es un

ahorro enorme en la cantidad de tiempo necesario para recrear un particular pero muy

importante aspecto de nuestra realidad física: una textura ligera y usualmente regular en 3D que

se encuentra en la mayoría de las superficies naturales y algunas hechas por el hombre, desde la

corteza de un árbol a una tela tejida.

Otras técnicas de computación gráfica basadas en la idea de la muestra de la realidad existente

incluyen el reflection mapping y la digitalización en 3D. Pese al hecho de que todas estas técnicas

fueron ampliamente usadas tan pronto como fueron inventadas, alguna gente en el campo de la

computación gráfica (hasta donde puedo ver) sintió siempre que estaban haciendo trampa. ¿Por

qué? Pienso que es porque el paradigma conceptual global para crear gráficos de computadora

foto-realísticos era simular todo desde cero a través de algoritmos. Así pues, si tenían que usar

las técnicas basadas en el muestreo directo de la realidad, de alguna manera sintieron que esto

era nada más que temporario, porque los algoritmos apropiados no estaban todavía desarrollados

o porque las máquinas eran demasiado lentas. También tenían ese sentimiento porque una vez

que se empezó con el muestreo manual de la realidad y después se trató de incluir esas muestras

en sus imágenes perfectamente definidas algorítmicamente, las cosas rara vez encajaban

exactamente, y se necesitaban ajustes manuales meticulosos. Por ejemplo, el texture mapping

funcionaba perfectamente si se aplicaba a una superficie recta pero si la superficie era curva, se

produciría una inevitable distorsión.

A lo largo delos años 1970 y 1980, el paradigma de “simulación de realidad” y los de “muestreo

de la realidad” coexistieron uno al lado del otro. Más precisamente, como sugerí anteriormente,

un paradigma de muestreo fue “incrustado” en un paradigma de simulación de realidad. Era de

sentido común que la manera correcta de crear imágenes foto-realistas de la realidad era

simulando sus características físicas tan precisamente como se pudiera. Las muestras de realidad

que existían entonces y después y posteriormente la adición de esas muestras a una escena virtual

era un truco, un atajo en un juego de simulación por lo demás honesto.

Construyendo la Matrix

Hasta ahora hemos analizado los paradigmas de campo de la computación gráfica en 2D sin

considerar los usos de las imágenes simuladas. ¿Qué pasa, entonces, si se quieren incorporar

imágenes foto-realistas a una película? Esto introduce una nueva restricción. No solo cada una de

Page 8: Manovich, Imagen Futura

las imágenes simuladas tiene que ser consistente internamente, con las sombras proyectadas que

corresponden a las fuentes de luz, etc., sino que ahora también tenía que ser consistente con la

cinematografía de una película. El universo simulado y el universo de la acción en vivo tenían que

coincidir exactamente. (Estoy hablando aquí del uso “normal” de la computación en los filmes y no

de la estética híbrida de las gráficas de televisión, los videos musicales, etc., que deliberadamente

yuxtaponen los diversos códigos.) Como se puede ver en retrospectiva, esta nueva restricción

cambió a la larga la relación éntrelos dos paradigmas a favor de un paradigma de muestreo. Pero

esto solo es visible ahora, después de que las películas de Matrix hicieran del paradigma de

muestreo la base se su universo virtual3.

Al principio, cuando los cineastas empezaron a incorporar imágenes sintéticas en 3D en los

filmes, esto no tuvo ningún efecto en cómo los científicos del área pensaron las gráficas por

computadora. Las gráficas por computadora en 3D aparecieron por primera vez brevemente en

una película de largometraje en 1980- Looker. A lo largo de la década de 1980, se hicieron varios

filmes que usaron imagen generadas por computadora pero siempre solo como un elemento

menor en la narrativa general de la película. (Lanzada en1982, Tron, puede ser comparada a

Matrix en tanto su universo narrativo se sitúa dentro de una computadora y es creado mediante

gráficas de computadora- pero esta fue una excepción.) Por ejemplo, una de las películas de Star

Trek contenía una escena de un planeta cobrando vida; fue creada usando el primer sistema de

partículas. Pero era una única escena y no tenía interacción con ninguna otra escena del film.

A comienzos de la década de 1990 la situación empezó a cambiar. Con películas pioneras como

The Abyss (James Cameron, 1989), Terminator 2 (James Cameron, 1991), y Jurassic Park (Steven

Spìelberg, 1993), los personajes generados por computadora se volvieron los protagonistas clave

de los largometrajes. Esto significaba que iban a aparecer en docenas o incluso cientos de tomas

a lo largo del film y que en la mayoría de esas tomas los personajes generados por computadora

tendrían que ser integrados con entornos reales y actores humanos capturados vía fotografía de

acción en vivo (llamada en el ámbito de la industria “live plate”). Son ejemplos de esto el cyborg T-

100 de Terminator 2: Judgment Day, o los dinosaurios de Jurassic Park. Estos personajes

generados por computadora se situaban dentro del universo de la acción en vivo que es el

resultado de muestras de la realidad física vía una cámara fílmica de 35 mm. El mundo simulado

se localiza dentro del mundo capturado, y los dos tienen que coincidir perfectamente.

Como se señaló en The Language of New Media (Manovich, 2001), al discutir la composición,

alinear perfectamente los elementos que provienen de distintas fuentes es uno de los desafíos

fundamentales del realismo basado en las computadoras. A lo largo de la década de 1990, los

cineastas y artistas de efectos especiales han lidiado con este desafío usando una variedad de

técnicas y métodos. De lo que Gaeta se dio cuenta antes que los otros es que la mejor manera de

3 .- Los términos “simulación de la realidad” y “maestro de la realidad” fueron inventados para este artículo; los términos “virtual cinema”, “virtual human” “universal capture” y “virtual cinematography” viene de John Gaeta. El término “renderización basada en imagen” apareció por primera vez en 1990.

Page 9: Manovich, Imagen Futura

alinear los dos universos de la acción en vivo y las gráficas de computadora en 3D es construir un

único nuevo universo4.

En lugar de tratar la muestra de realidad como solo una técnica para ser usada con muchas otras

técnicas algorítmicas “apropiadas” de la síntesis de imágenes, Gaeta y sus colegas la convirtieron

en el fundamento clave del proceso de Universal Capture. El proceso tomaba por separado

sistemáticamente la realidad física y después sistemáticamente re-ensamblaba los elementos en

una representación virtual generada por computadora. El resultado es una nueva clase de imagen

que tiene una apariencia fotográfica /cinematográfica y el nivel de detalle está estructurado

internamente todavía de una manera completamente diferente.

La “Universal capture” fue desarrollada y refinada durante un período de tres años desde el 2000

al 2003 (Borshukov, 2004). ¿Cómo funciona el proceso? Realmente hay más etapas y detalles

involucrados pero el procedimiento básico es el siguiente (para más detalles, ver Borshukov et al.,

2003): se registra la actuación de un actor con iluminación ambiental usando cinco cámaras de

video de alta resolución sincronizadas. “Actuación” en este caso incluye todo lo que un actor dice

en una película y todas las posibles expresiones faciales5. (Durante la producción capturaba más

de cinco terabytes de datos por día.) A continuación, los algoritmos especiales se usaban para

rastrear el movimiento de cada pixel conforme pasaba el tiempo en cada cuadro. Esta información

se combina con un modelo en 3D de una expresión neutral del actor creada usando un escáner

Cyberscan. El resultado es una forma animada en 3D que representa con precisión la geometría

de la cabeza del actor a medida que cambia durante la actuación particular. La forma es mapeada

con información en color extraída de las secuencias capturadas en video. Un escaneado de alta

resolución tomado por separado de la cara del actor se usa para crear el mapa de los detalles de

superficie de pequeña escala como poros y las arrugas, y este mapa se añade también al modelo.

Después de que todos los datos han sido extraídos, alineados y combinados, el resultado es lo

que Gaeta llama un “virtual human” –una reconstrucción muy exacta de la actuación captada,

ahora disponible como datos de computación gráfica en 3D- con todas las ventajas que provienen

de una representación tal. Por ejemplo, porque la actuación del actor ahora existe como un

objeto de 3D en un espacio virtual, el cineasta puede animar una cámara virtual y hacer

“funcionar” la actuación reconstruida desde un ángulo arbitrario. De la misma manera, la cabeza

virtual también puede ser iluminada de la manera que se desee y unida a un cuerpo construido

por computadora (Borshukov et al., 2004). Por ejemplo, todos los personajes que aparecen en la

escena de lucha entre Neo y los agentes (the Bury Brawl scene) en Matrix 2 fueron creadas al

combinar las cabezas construidas por medio de la Universal Capture hecha en los actores

principales con cuerpos CG que usaban datos de captura de movimiento de un grupo distinto de

4 .- Por consiguiente, aunque el artículo de Wired que posicionó a Gaeta como un a pionero de las

innovaciones y como un rebelde que trabajaba fuera de Hollywood contenía las típicas exageraciones periodísticas, no estaba lejos de la verdad (Silberman, 2003). 5 .- El método captura solo la geometría e imágenes de la cabeza de un actor; los movimientos del cuerpo son registrados por separado usando captura de movimiento.

Page 10: Manovich, Imagen Futura

ejecutantes. Porque todos los personajes tanto como el set fueron generados por computadora,

esto permitió que los directores de escena coreografiaran la cámara virtual, haciéndola volar

alrededor de la escena de una manera que no es posible con una cámara real en un set real.

El proceso recibió el apropiado nombre de Captura Total porque captura toda la información

posible de un objeto o escena usando una serie de métodos de grabación -o, por lo menos, todo

lo que es pasible de ser captado usando las tecnologías actuales. Diferentes dimensiones -color,

geometría 3D, reflectividad y textura- son capturadas por separado y después se vuelven a unir

para crear una representación más detallada y realista.

La Captura Total es significativamente diferente de los métodos comúnmente aceptados que se

usan para crear efectos especiales basados en la computación tales como la animación mediante

key frames [cuadros claves] y el modelado basado en la física. En el primero de los métodos, un

animador especifica las posiciones claves de un modelo en 3D y la computadora calcula lo que hay

entre ellas. Con el segundo método, toda la animación se crea automáticamente gracias a un

software que simula la física que subyace al movimiento. (Este método, por lo tanto, representa

un particular ejemplo del paradigma de “simulación de realidad” del que se habló anteriormente.)

Por ejemplo, para crear una animación realista de una criatura que se mueve, los programadores

modelan su esqueleto, músculos y piel, y especifican los algoritmos que simulan la física real

involucrada. A menudo los dos modelos se combinan: por ejemplo, el modela basado en la física

puede ser usado para animar un dinosauro que corre mientras la animación manual puede usarse

para algunas tomas donde el dinosauro interactúa con personajes humanos.

En los años recientes el logro más impresionante del modelado basado en la física fue la batalla

de El señor de los anillos: el retorno del rey (Peter Jackson, 2003), que involucra decenas de miles

de soldados virtuales, todos resueltos por el software Massive ( ver www.massivesoftware.com).

De manera similar a los jugadores no humanos ( o bots) en los juegos de computadora, a cada

soldado virtual le fue dada la capacidad de “ver” el terreno y a los otros soldados, un conjunto de

prioridades y un “cerebro” independiente, es decir, un programa de inteligencia artificial que

dirige las acciones del personaje basado en inputs y prioridades perceptuales. Sin embargo, en

contraste con los juegos de IA, el software Massive no tiene que funcionar en tiempo real. Por lo

tanto puede crear escenas con decenas e incluso cientos de miles de agentes que se comportan

realistamente (un aviso publicitario creado con la ayuda de Massive contaba con 146.000

personajes virtuales).

El método de Universal Capture no usa ni la animación manual ni la simulación de la física

subyacente. En su lugar, directamente toma muestras de la realidad física, incluyendo el color, la

textura y el movimiento de los actores. Secuencias cortas de las actuaciones del actor son

codificadas como animaciones de computadora en 3D; estas animaciones forman una biblioteca a

partir de la cual los cineastas después pueden servirse para componer una escena. La analogía con

el sampling musical es evidente aquí. Como Gaeta señaló, su equipo nunca uso animación

manual para tratar de ajustar el movimiento de la cara de un personaje; sin embargo, de igual

manera que en la música, a menudo “atrapaban” una expresión particular antes de pasar a la

Page 11: Manovich, Imagen Futura

siguiente (Gaeta, 32003). Esto sugiere otra analogía –la edición de video. Pero esta es edición de

segunda instancia, para decirlo así: en vez de capturar simplemente segmentos de realidad de u

video y después reunirlos, el método de Gaeta produce recreaciones completamete virtual de un

fenómeno particular –que contiene en sí mismo micro-mundos- que pueden después ser editados

e integrados en un espacio simulado en 3D más amplio.

La animación como idea

Este breve resumen de los métodos de la computación grafica que aquí se presenta para explicar

la Captura Universal ofrece buenos ejemplos de la multiplicidad de modos en los que la animación

se usa en la cultura de la imagen en movimiento contemporánea. Si consideramos esta

multiplicidad es posible llegar a la conclusión de que la “animación” en tanto medio separado casi

ya no existe de hecho. Al mismo tiempo, los principios generales y técnicas de poner en

movimiento objetos e imágenes desarrollados en la animación de los siglos XIX y XX son usados

mucho más frecuentemente ahora que antes de las computadoras. Pero casi nunca se usan de

manera aislada –se suelen combinar con otras técnicas sacadas de la acción en vivo

cinematográfica y las gráficas de computadora.

Entonces, ¿dónde empieza y dónde termina hoy la animación? Cuando ustedes ven una película

animada de Disney o un corto de gráficos en movimiento es obvio que están viendo “animación”.

Independientemente de si el proceso involucra imágenes dibujadas a mano o usando un software

de 3D, el principio es el mismo: alguien crea los dibujos u objetos 3D, configura los keyframes y

después las posiciones entre cada uno de ellos. (Por supuesto, en el caso de los filmes comerciales

no se trata de una sola persona sino de grandes equipos.) Los objetos pueden ser creados de

múltiples maneras y en las etapas intermedias pueden ser hechos manual o automáticamente, vía

el software, pero esto no cambia la lógica básica. El movimiento, o cualquier otro cambio en el

tiempo, se define manualmente – se suele hacer mediante keyframes, pero no siempre. En

retrospectiva, la definición del movimiento vía keys fue probablemente la esencia de la animación

del siglo XX. Fue usado en la tradicional animación en celuloide por Disney y otros, en las

animaciones en stop motion [cuadro a cuadro] de Starevich y Trnka , en los cortos animados en 3D

de Pixar y sigue siendo usado hoy en películas animadas que combinan el método tradicional con

la animación por computadora en 3D. Y aunque los animadores experimentales como Norman

McLaren rechazaron los sistemas claves / cuadros intermedios en favor de dibujar cada cuadro del

film a mano sin definir explícitamente las claves, esto no cambia la lógica global: el movimiento se

creó a mano. No es sorprendente que la mayoría de los artistas de la animación explotaran esta

característica clave de la animación de diferentes maneras, convirtiéndola en una estética: por

ejemplo, aplastamientos y estiramientos exagerados en Disney, o los saltos discontinuos entre

cuadros de McLaren.

¿Qué se puede decir acerca de las otras maneras en que las imágenes y los objetos pueden ser

puestos en movimiento? Considérese, por ejemplo, los métodos desarrollados en las gráficas de

computadora: el modelado basado en la física, el sistema de partículas, las gramáticas formales, la

Page 12: Manovich, Imagen Futura

vida artificial y la animación comportamental [behavioral animation]. En todos estos métodos el

animador no crea directamente el movimiento. En vez de eso, éste es creado por el software que

usa algún tipo de modelo matemático. Por ejemplo, en el caso de del modelado basado en la

física el animador puede establecer los parámetros de un modelo en computadora que simule una

fuerza física como un viento que va a deformar una pieza de tela en varios cuadros. O bien el

animador puede dar las instrucciones para que la pelota caiga al piso, y dejar que el modelo físico

controle cómo rebota la pelota después de que golpea en el suelo. En el caso de los sistemas de

partículas que se usan para modelar cualquier cosa desde fuegos artificiales, explosiones, agua y

gas hasta bandadas y enjambres de animales, el animador solo tiene que definir las condiciones

iniciales: el número de partículas, su velocidad, su vida útil, etc.

A diferencia del cine de acción en vivo, estos métodos de computación grafica no capturan el

movimiento físico real. ¿Significa entonces que pertenecen a la animación? Si aceptamos que la

característica definitoria de la animación tradicional era la creación manual de movimiento, la

respuesta sería no. Pero las cosas no son tan simples. Con todos estos métodos, los animadores

definen los parámetros iniciales, aplican el modelo, ajustan los parámetros y repiten este ciclo de

producción hasta que están satisfechos con el resultado. Así mientras el movimiento real no se

produce a mano sino mediante un modelo matemático, los animadores mantienen un significativo

control. De alguna manera, los animadores actúan como directores de películas- solo que en este

caso no están dirigiendo actores sino a un modelo computacional hasta que produce una

actuación satisfactoria. O podemos también comparar a los animadores con los editores de

películas cuando están seleccionando las mejores actuaciones del modelo computacional.

James Blinn, un científico del área responsable de crear muchas técnicas fundamentales de la

computación gráfica, hizo alguna vez una interesante analogía para explicar la diferencia entre el

método manual de los cuadros claves y el modelado de base física6. Le dijo a la audiencia de un

panel de SIGGRAPH que la diferencia entre los dos métodos era análoga a la diferencia entre la

pintura y la fotografía. En palabras de Blinn, un animador que crea movimiento mediante

keyframes definidos manualmente y dibuja en los cuadros intermedios es como un pintor que

observa el mundo y después hace una pintura de él. La semejanza entre una pintura y el mundo

depende de las habilidades del pintor, su imaginación y sus intenciones, mientras un animador

que usa el modelado de base física es como un fotógrafo que captura el mundo real tal como

realmente es. Blinn quería enfatizar que las técnicas matemáticas pueden crear una simulación

realista del movimiento en el mundo físico y un animador solo tiene que capturar lo que es creado

por simulación. Aunque la analogía se útil, pienso que no es completamente exacta. Obviamente,

el fotógrafo tradicional que Blinn tenía en mente (es decir, el de antes del Photoshop) elige la

composición, el contraste, la profundidad de campo y muchos otros parámetros. De manera

similar, los animadores que están usando el modelado de base física también tienen el control de

6.- No estoy seguro del año exacto de la conferencia de SIGGRAPH en la que Blinn hizo su presentación, pero pienso que fue a finales de la década de 1980 cuando el modelado de base física era todavía un concepto nuevo.

Page 13: Manovich, Imagen Futura

un gran número de parámetros y depende de sus habilidades y perseverancia que el modelo

produzca una animación satisfactoria. Considérese el siguiente ejemplo de un área relacionada, la

del arte del software, que usa algunos de los mismos métodos matemáticos. Casey Reas, un artista

que es bien conocido tanto por su entorno de programación Processing como por sus propias

imágenes fijas y animaciones, me dijo recientemente que él sólo puede pasar un par de horas

escribiendo un programa de software para crear un nuevo mundo- y después otros dos años

trabajando con los diferentes parámetros del mismo programa y produciendo infinitas imágenes

de prueba hasta que esté satisfecho con los resultados (comunicación personal, abril de 2005). Así,

mientras en primera instancia, el modelado de base física parece ser lo opuesto a la animación

tradicional en tanto el movimiento es creado por la computadora, de hecho tendría que ser

entendido como un híbrido entre animación y simulación por computadora. Aunque los

animadores ya no dibujan directamente cada fase del movimiento, están trabajando dentro de los

parámetros del modelo matemático que “dibuja” el movimiento real.

¿Y qué pasa con el método de Captura Universal tal como es usado en Matrix? Gaeta y sus

colegas también han desterrado la animación de cuadros claves –pero tampoco usaron ningún

modelo matemático para generar automáticamente el movimiento. Como vimos, su solución fue

capturar las actuaciones reales de un actor (es decir, los movimientos de la cara del actor) y

después reconstruirlas como una secuencia en 3D. Juntas, estas secuencias reconstruidas

conforman una biblioteca de expresiones faciales. El cineasta puede entonces sacar de esta

biblioteca, editar en conjunto una secuencia de expresiones) pero no interferir con ningún

parámetro de secuencias separadas). Es importante destacar que un modelo en 3D no tiene

músculos ni otros controles tradicionalmente usados en las gráficas computadas de animación de

caras- se usa “como es”.

Como en el caso de los animadores que emplean modelos matemáticos, este método evita

dibujar movimientos individuales a mano. Y, sin embargo, s lógica es la de la animación más que la

del cine. El cineasta elife secuencias individuales de las actuaciones de los actores, las edita, las

combina si es necesario, y las coloca en un orden particular para crear una escena. En resumen, la

escena es realmente construida a mano incluso aunque sus componentes no lo sean. Así mientras

en la animación tradicional el animador dibuja cada cuadro para crear una secuencia corta (por

ejemplo, un personaje que da vuelta la cabeza), aquí el cineasta “dibuja” en un nivel más alto, al

manipular secuencias enteras en vez de sus cuadros individuales.

Para crear las escenas definitivas de las películas, la Universal Capture se combina con

Cinematografía virtual, organizando la iluminación, las posiciones y movimientos de una cámara

virtual que está “filmando” las actuaciones virtuales. ¿Que hace que esta cinematografía virtual se

oponga a la simp0le computación grafica? La razón es que el mundo tal como es visto por una

cámara virtual es diferente del mundo normal de las gráficas de computadora. Consiste en

reconstrucciones del set real y las reales actuaciones de los actores creados por Captura Universal.

El objetivo es evitar los procesos más manuales que se solían usar para crear modelos y juegos en

3D. En vez de eso, los datos relativos al mundo físico son capturados y después usados para crear

una réplica virtual precisa.

Page 14: Manovich, Imagen Futura

En última instancia, el método de producción de ESC como es usado en Matrix no es ni

animación “pura” ni cinematografía, ni los efectos especiales tradicionales, ni la tradicional

animación por computadora. Y esto es típico de la cultura de la imagen en movimiento de hoy.

Cuando las técnicas extraídas de estas tradiciones diferentes se fusionan en un entorno

computacional, el resultado no es la suma de los componentes sino una variedad de métodos

híbridos tales como la Captura Universal. Creo que así es cómo funcionan ahora en general las

diferentes técnicas de las imágenes en movimiento. Después de que la computación las virtualice

–“extrayéndolas de su particular medio físico para convertirlas en algoritmos- empiezan a

interactuar y crear híbridos. Lo que significa que, en la mayoría de los casos, no encontraremos ya

ninguna de esas técnicas en su estado original puro.

Por ejemplo, ¿qué significa cuando vemos efectos de profundidad de campo en las gráficas en

movimiento, los filmes y los programas de televisión que no usan ni el rodaje de acciones en vivo

ni gráficas foto-realistas en 3D pero tienen un aspecto más estilizado? Originalmente un artefacto

de grabación basado en lentes, la profundidad de campo era simulada en una computadora

cuando la principal meta del campo de las gráficas de computadora en 3D era crear el máximo

“foto-realismo”, es decir, las escenas sintetizadas eran indistinguibles de la acción en vivo

cinematográfica7. Pero una vez que esta técnica estuvo disponible, los artistas de imágenes en

movimiento se dieron cuenta gradualmente de que podía ser usada independientemente de cuan

realista o abstracto fuera el estilo visual –siempre y cuando haya una sugestión de espacio en 3D.

Tipografías que se mueven en perspectiva a través de un espacio vacío, caracteres dibujados en 2D

posicionados en diferentes estratos en un espacio de 3D, un campo de partículas animadas –

cualquier composición puede someterse a la profundidad de campo simulada.

El hecho de que este efecto sea simulada y sacada de su medio original físico significa que un

diseñador puede manipularlo de varias maneras. Los parámetros que definen qué parte del

espacio está en foco puede ser animada independientemente, es decir, está lista para cambiar con

el tiempo, porque son simplemente los números que controlan el algoritmo y no algo construido

dentro de la óptica de las lentes físicas. Así mientras la profundidad de campo simulada se puede

decir que mantiene la memoria de los medios físicos particulares (la foto basada en lentes y el

rodaje de películas) de los que proviene, se volvió una técnica esencialmente nueva que funciona

como un “personaje” por derecho propio. Tiene la fluidez y la versatilidad que previamente no

estaban disponible. Su conexión con el mundo físico es en el mejor de los casos ambigua. Por un

lado, sólo tiene sentido usar profundidad de campo si se está construyendo un espacio en 3D –

incluso si está definido de una manera mínima al usar sólo unos pocos o incluso sólo un único

indicio de profundidad, tales como líneas que convergen hacia el punto de fuga o en escorzo. Por

otro lado, puede decirse que el diseñador “dibuja” este efecto de cualquier manera que desee. El

eje que controla la profundidad de campo no necesita ser perpendicular a la imagen plana, el área

7 .- Para ampliar acerca de este proceso, ver el capítulo “Synthetic Realism and its Discontents”, en Manovich (2001).

Page 15: Manovich, Imagen Futura

enfocada puede ser cualquiera en el espacio, puede también moverse rápidamente alrededor del

espacio, etc.

Volviendo a la Captura Universal, vale la pena citar a Gaeta quien tiene muy claro que lo que él y

sus colegas han creado es un nuevo híbrido. En una entrevista de 2004, dijo: “Si tuviera que

definir el cine virtual, tendría que decir que está en algún lugar entre una película de acción en

vivo y una de animación generada por computadora. Se genera por computadora, pero se deriva

de la gente, los lugares y las cosas del mundo real (Feeny2004). Aunque la Captura Universal

ofrece un ejemplo particularmente sorprendente del “algún lugar entre” de Gaeta, la mayoría de

las formas de las imágenes en movimiento creadas hoy están del mismo modo en “algún lugar

entre”, siendo la animación uno de los ejes de las coordenadas este nuevo espacio de hibridez.

‘Universal Capture’: realidad re-ensamblada

El método que se dio en llamar “Universal Capture” combina lo mejor de los dos mundos:

realidad física tal como es capturada por cámaras basadas en lentes y graficas en 3D sintetizadas

por computadora. Si bien es posible recrear la riqueza del mundo visible mediante la pintura y la

animación manuales, tanto como mediante varias técnicas de computación gráfica (mapeado de

texturas, mapeo topológico, modelado físico, etc.), es caro en términos del trabajo que implica.

Incluso con las técnicas del modelado de base física, los infinitos parámetros tienen que ser

ajustados antes de que la animación se vea bien. En cambio, capturar la realdad visible mediante

las lentes en película, cinta, DVD-R, disco duro, u otros medios, es barato: sólo hay que dirigir la

cámara y apretar el botón “grabar”.

La desventaja de tales grabaciones es que carecen de la flexibilidad exigida por la cultura

contemporánea del remix. Esta cultura no exige objetos estéticos auto-contenidos ni registros

auto-contenidos de la realidad sino unidades más pequeñas- partes que puedan ser fácilmente

cambiadas y combinadas con otras partes en un sinfín de combinaciones. Sin embargo, un proceso

de grabación basado en lentes aplana la estructura semántica de la realidad –es decir, los

diferentes objetos que ocupan distintas áreas de un espacio físico en 3D. Convierte un espacio

ocupado con objetos discretos en un campo plano de granos de imágenes o pixeles que no

conllevan ninguna información acerca de dónde vienen (es decir, a qué objetos corresponden).

Por lo tanto cualquier clase de operación de edición – borrar objetos, añadir nuevos, componer,

etc.- se vuelve bastante difícil. Antes de que se pueda hacer algo con un objeto en imagen, tiene

que ser aislado manualmente mediante la creación de una máscara. Y, a menos que una imagen

muestre un objeto que esté apropiadamente iluminado y sea filmado contra un fondo especial

azul o verde, es imposible enmascarar el objeto con precisión.

Los objetos se definen por puntos descriptos como coordenadas XYZ ; otras propiedades de los

objetos, como el color, la transparencia y la reflectividad se describen de manera similar en

términos de números discretos. Esto significa que la estructura semántica de la escena se preserva

por completo y es fácilmente accesible en cualquier momento. Para duplicar un objeto cien veces

Page 16: Manovich, Imagen Futura

solo se necesita de unos pocos clics del mouse o de teclear un corto comando, de manera similar,

todas las otras propiedades de un mundo pueden ser fácilmente cambiadas. Y en tanto cada

objeto en sí mismo está formado de componentes discretos ( polígonos planos o parches de

superficie [surface patches] definidos por splines), es de la misma manera bastante fácil cambiar

su forma 3D al seleccionar y manipular sus componentes. Además, de la misma manera que unas

secuencia de genes contiene el código que se expande en un organismo complejo, una descripción

compacta de un mundo en 3D que contenga sólo las coordenadas de los objetos puede ser

rápidamente transmitido a través de la red, con la computadora del cliente reconstruyendo el

mundo por completo (así es como funcionan los juegos de computación on line con múltiples

participantes y los simuladores).

A partir de finales de la década de 1970, cuando James Blin (1978) introdujo el mapeo de

texturas, los científicos del área de la computación, los diseñadores y los animadores expandieron

gradualmente la gama de información que podía ser registrado en el mundo real y después lo

incorporaron en un modelo de computadora. Hasta principios de la década de 1990, esta

información implicaba mayormente la apariencia de los objetos: color, textura, efectos de luz. El

siguiente paso significativo fue el desarrollo de la captura de movimiento. Durante la primera

mitad de la década de 1990, fue rápidamente adoptada en la industria del cine y en la de los

juegos. Ahora, los mundos sintetizados por computadora no dependían solamente del muestre de

la apariencia visual del mundo real sino también de un muestreo de los movimientos de los

animales y los hombres en este mundo. Basándose en todas estas técnicas, el método de Gaeta las

llevó a una nueva etapa: la captura de casi todo lo que en la actualidad puede ser capturado, y,

después el re-ensamblaje de las muestras para crear una recreación digital ( y en tanto tal

completamente maleable). Puesto en un contexto más amplio, el resultado de la representación

híbrida 2D/3D encaja perfectamente con las tendencias más progresistas de la cultura

contemporánea que están basadas en la idea de híbrido.

El nuevo híbrido

Tengo una fuerte confianza en que la “estética informacional” emergente (es decir, las

características específicas de la nueva cultura de la sociedad de la información) tiene o tendrá una

lógica muy diferente a la modernidad*. Esta última fue impulsado por un fuerte deseo de borrar lo

viejo -visible tanto en las declaraciones de los artistas de vanguardia (especialmente en los

futuristas) que decían que había que incendiar los museos , como en la dramática destrucción de

las realidades sociales y espirituales de mucha gente, en Rusia después de la revolución de 1917, y

en otros países cuando se volvieron satélites de la URSS después de 1945. Cultural e

ideológicamente , quienes pertenecían a este movimiento querían empezar con una tabula rasa,

distanciándose radicalmente del pasado. Fue solamente en la década de 1960 que este

movimiento comenzó a experimentarse como inapropiado, tal como se manifiesta en el

* .- Dice Modernism, apunta a los movimiento artísticos y políticos de las vanguardias de fines del siglo XIX y principios del siglo XX. El modernismo en español corresponde a otra cosa. Modernidad también remite en español a la Ilustración, que no es el caso aquí, pero sí tiene en común con las vanguardias del siglo XX que hay un intento fuerte de desechar lo viejo.

Page 17: Manovich, Imagen Futura

debilitamiento de la ideología en los países comunistas y los comienzos de una nueva sensibilidad

postmoderna en Occidente. Para citar el título de un famoso libro escrito por Robert Venturi et al.

(19977 [1972]), Learning from Las Vegas [Aprendiendo de Las Vegas] ( la primera manifestación

sistemática de la nueva sensibilidad), significaba admitir que las culturas vernáculas que se

desarrollaban orgánicamente implicaban el bricolaje y la hibridez antes que la pureza – que se

veía, por ejemplo en el estilo internacional que todavía era practicado en esos tiempos por los

arquitectos de todo el mundo. Impulsado menos por el deseo de imitar las culturas vernáculas y

más por la nueva disponibilidad de artefactos culturales previos almacenados en medios

magnéticos y después digitales, la cultura comercial de Occidente en la década de 1980 sustituyó

sistemáticamente la pureza por la heterogeneidad estilística. Finalmente, cuando colapsó el

Imperio soviético, la postmodernidad había ganado en todo el mundo.

Hoy corremos un muy real peligro de ser prisioneros de un nuevo “estilo internacional” – algo

que puede ser llamado “global internacional”. La globalización cultural, de la cual los vuelos en

aerolíneas baratas e internet son los dos representantes más visibles, borra una cierta

especificidad cultural con la energía y la rapidez que la modernidad no podía emular. Además

somos testigos hoy del funcionamiento de una lógica diferente: el deseo de reunir creativamente

lo viejo y lo nuevo-lo local y lo transnacional- en combinaciones variadas. Es esta lógica, por

ejemplo, la que ha hecho de una ciudad como Barcelona (donde he hablado con John Gaeta en el

contexto del festival Art Futura de 2003 que condujo a este artículo) un lugar tan “hip” e “in” hoy.

En toda Barcelona, los estilos arquitectónicos de hace muchos siglos coexisten conlos nuevos

espacios “cool” de bares, hoteles, museos, etc. Lo medieval se encuentra con lo multinacional,

Gaudí se encuentra con Dolce y Gabanna. Los tiempos del Mediterráneo con los de internet. El

resultado es el increíble sentimiento de energía que uno siente físicamente con solo caminar por

la calle. Es esta energía híbrida la que caracteriza, desde mi punto de vista, los fenómenos

culturales más interesantes de hoy8. La imagen híbrida 2D/3D de Matrix es un ejemplo de esa

índole.

Los historiadores del cine a menudo proponen un contraste entre los hermanos Lumière y

Marey. Junto a varios inventores de otros países, que trabajaban todos independientemente unos

de otros, los hermanos Lumière crearon lo que hoy conocemos como cine con su efecto visual de

movimiento continuo basado en la síntesis perceptiva de imágenes discretas. Anteriormente,

Muybridge había desarrollado ya un modo de tomar fotografías sucesivas de un objeto en

movimiento, tal como un caballo; finalmente los hermanos Lumière y otros encontraron la manera

de tomar bastantes muestras, de modo que, cuando eran proyectadas, se fusionaban

perceptualmente en movimiento continuo. Al ser un científico, Marey era impulsado por un deseo

opuesto: no crear una ilusión perfecta del mundo visible sino más bien ser capaz de entender su

estructura al mantener discretas las muestras subsecuentes. Dado que él quería ser capaz de

8 .- Visto desde esta perspectiva, mi libro anterior, The Language of New Media (2001) [El lenguaje de los nuevos medios] puede ser visto como una investigación sistemática de una parte de la cultura contemporánea impulsada por esta estética híbrida: la parte en que la lógica de la computadora digital en red se intersecta con las numerosas lógicas de las formas culturales ya establecidas.

Page 18: Manovich, Imagen Futura

comparar fácilmente estas muestras, perfeccionó un método en el que las imágenes

subsecuentes de los objetos en movimiento se superponían en una sola imagen, y así hacía

claramente visibles los cambios.

La imagen híbrida de Matrix de alguna manera puede ser entendida como la síntesis de estos

dos enfoques que durante una centena de años permanecieron como opuestos. Como los

hermanos Lumière, el objetivo de Gaeta es crear una ilusión perfecta de movimiento continuo. Al

mismo tiempo, como Marey, también quiere ser capaz de editar y hacer secuencias de los

registros individuales.

Al comienzo de este artículo evoqué la noción de desarrollo desigual, señalando que a menudo

la estructura interna (“infraestructura”) cambia completamente antes que la superficie (“la

superestructura”) se ponga al día. ¿Qué implica esta idea para el futuro de las imágenes y, en

particular, de las híbridas 2D/3D tal como fueron desarrolladas por Gaeta y otros? Como señaló

Gaeta (2003), aunque su método pueda ser usado para hacer toda clase de imágenes, hasta ahora

ha sido usado al servicio del realismo tal como es definido en el cine, es decir, cualquier cosa que

el espectador ve tiene que obedecer las leyes de la física (Gaeta, 2003). Así, en el caso de Matrix,

sus imagines todavía tienen una apariencia “realista” tradicional mientras están estructuradas

internamente de una manera completamente nueva. En resumen, vemos la vieja

“superestructura” que todavía se encuentra encima de la “nueva” infraestructura. ¿Qué clase de

imágenes veremos cuando la superestructura se empareje con la infraestructura?

Por supuesto que aunque todas las imágenes corrientes de las películas con efectos especiales

de Hollywood han seguido hasta ahora bajo la coacción del realismo, es decir, obedeciendo las

leyes de la física, también se da que no son exactamente las mismas que antes. Para vender

entradas de cine, DVDs y todas las demás mercancías, toda nueva película con efectos especiales

trata de superar a la anterior,al mostrar algo que nadie haya visto antes, En Matrix era el “tiempo

de la bala”; en Matrix 2, era la escena de la lucha (Burly Brawl) donde docenas de clones idénticos

luchan contra Neo; en Matrix 3 era el Superpunch (Borshukov, 2004). El hecho de que la

construcción interna de las imágenes sea diferente permite toda clase de nuevos efectos;

escuchando a Gaeta, es claro que para él la ventaja clave de tales imágenes son las posibilidades

que ellas ofrecen para la cinematografía virtual. Esto es, si previamente el movimiento de la

cámara se limitaba a un pequeño y bien definido conjunto de movimientos – paneo,

desplazamiento, inclinación- ahora puede moverse e cualquier trayectoria imaginable todo el

tiempo que el director quiera. Gaeta habla de la escena de la Burly Brawl en términos de

coreografía virtual: esto implica coreografiar los intrincados y largos movimientos de la cámara,

cosa que sería imposible en el mundo real tanto como hacerlo con los cuerpos que participan en

la lucha (todos ellos recreaciones digitales ensambladas siguiendo el método de Gaeta que se

describió anteriormente).

Según Gaeta, crear solamente esta escena llevó cerca de tres años. Así mientras, en principio, el

método de Gaeta representa la manera más flexible de recrear la realidad visible en una

computadora hasta el momento, pasarán años antes de que este método sea lo suficientemente

Page 19: Manovich, Imagen Futura

ágil y estandarizado para que estas ventajas sean evidentes. Pero cuando esto pase, los artistas

tendrán a su disposición un medio híbrido extremadamente flexible: el cine completamente

computarizado. Más que esperar que cualquiera de las formas actuales dominará el futuro de la

cultura visual, pienso que este futuro pertenece a tales híbridos. Dicho de otra manera, las

imágenes futuras probablemente sigan siendo todavía fotográficas –aunque solo

superficialmente.

¿Y qué pasara con la animación? ¿Cuál será su futuro? Como trate de explicar , además de las

películas de animación puras y las secuencias animadas usadas como partes de otros proyectos

con imágenes en movimiento, la animación se ha vuelto un conjunto de principios y técnicas que

animadores y cineastas emplean hoy para crear nuevos métodos y nuevos estilos visuales. Por lo

tanto, pienso que no vale la pena preguntarse si este o aquel estilo visual o método para crear

imágenes en movimiento que emergió después de la computarización es “animación” o no. Es más

constructivo decir que la mayoría de estos métodos nacieron de la animación y tienen ADN de

animación –mezclado con ADN de otros media. Pienso que una perspectiva tal, que considera a

“la animación como campo ampliado” es un modo más productivo de pensar acerca de la

animación hoy, especialmente si queremos que nuestras reflexiones sean relevantes para todo

aquel que esté interesado en la cultura visual y la cultura mediática contemporáneas.

Referencias

Blinn, J.F. (1978) ‘Simulation of Wrinkled Surfaces’, Computer Graphics, agosto, pp. 286–92.

Borshukov, Georgi (2004) ‘Making of the Superpunch’, presentación en Imagina 2004, disponible en [ww.virtualcinematography.org/publications/acrobat/ Superpunch.pdf].

Borshukov, Georgi, Piponi, Dan, Larsen, Oystein, Lewis, J.P. y Tempelaar-Lietz, Christina (2003) ‘Universal Capture – Image-Based Facial Animation for “The Matrix Reloaded”’, SIGGRAPH 2003 Sketches and Applications Program, Disponible en [http://www.virtualcinematography.org/publications/acrobat/ UCap-s2003.pdf]. Feeny, Catherine (2004) ‘“The Matrix” Revealed: An Interview with John Gaeta’, VFXPro, 9 de mayo [www.uemedia.net/CPC/vfxpro/article_7062.shtml] Gaeta, John (2003) Presentación durante un workshop sobre la realización de The Matrix, Festival Art Futura 2003, Barcelona, 12 de octubre.

Manovich, Lev (2001) The Language of New Media, Cambridge (Ma.) MIT Press.

Page 20: Manovich, Imagen Futura

Silberman, Steve (2003) ‘Matrix 2’, Wired, 11 de mayo [http://www.wired.com/wired/archive/11.05/matrix2.html]

Venturi, Robert, Izenour, Steven and Scott Brown, Denise (1977[1972]) Learning from Las Vegas: The Forgotten Symbol of Architectural Form, ed. Revisada, Cambridge (Ma.), MIT Press.

Lev Manovich es profesor del Departamento de New Media, Visual Arts, y director del Laboratorio

de Análisis Cultural, CAL-IT2, de la Universidad de California, San Diego.

Dirección : University of California, San Diego, Visual Arts Department, 9500 Gilman Drive MC 0084, La Jolla, CA 92093–0084, USA. [email: [email protected]]