123

Gracias a mi familia, por apoyarme incondicionalmente ......cada una de las distintas fases por las que se pasa para la producción del cortometraje, además de consolidar los conocimientos

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

2

3

Gracias a mi familia, por apoyarme incondicionalmente durante todo el proceso;

a mis compañeros y amigos, que han aportado su granito de arena de diversas formas;

y a mi tutora Mireia, por guiarme y resolver mis dudas.

4

5

Justificación y objetivos

El objetivo principal de este proyecto es crear un cortometraje de animación 3D con

un acabado profesional, realizando todos los procesos necesarios para su producción, es

decir, pasando por las distintas fases de preproducción, producción y postproducción,

realizadas en este caso por la misma persona. Aprendiendo así, a gestionar los

requerimientos de un proyecto de este tipo y adquiriendo muchas capacidades nuevas de

cada una de las distintas fases por las que se pasa para la producción del cortometraje,

además de consolidar los conocimientos adquiridos durante los cuatro años de la carrera y

trabajos realizados durante ese período.

El motivo que me ha llevado a la elección de este tipo de proyecto ha sido mi

continuo interés y atracción por la animación y modelado 3D, el cuál nació con las

primeras películas animadas y se consolidó con la asignatura de Modelado y Animación

por Computador, donde tuve mis primeras experiencias prácticas en este mundo y

comprobé que me parecía un mundo muy interesante del cual había mucho que aprender.

Es un mundo que en estos últimos años tenemos más presente en nuestras vidas a través de

las recientes películas que van realizando estudios de animación como Walt Disney o

Pixar, y en el que si echamos la vista atrás solo unos 20 años podemos comprobar

rápidamente una gran evolución en la tecnología y los resultados conseguidos, lo cual lo

hace mucho más interesante y genera grandes expectativas hacia el futuro.

Por último, he querido aprovechar la oportunidad que este tipo de proyectos ofrece,

poder contar una historia que transmita un mensaje al público y cause algún tipo de

reacción en ellos, ayudando así a tomar conciencia sobre un tema actual que necesita

solución.

6

Índice de contenidos

Justificación y objetivos ........................................................................................ 5

Índice de contenidos............................................................................................. 6

Índice de figuras ................................................................................................... 8

1 Introducción ................................................................................................ 14

2 Estado del arte ............................................................................................ 15

2.1 Animación por ordenador .............................................................................. 15

2.2 Historia de la animación por ordenador ......................................................... 15

2.3 Animación por ordenador en la actualidad ..................................................... 23

2.4 Principales estudios de animación .................................................................. 24

3 Objetivos ..................................................................................................... 27

4 Metodología ................................................................................................ 28

4.1 Preproducción ............................................................................................... 28

4.1.1 Desarrollo de la idea .......................................................................................... 28

4.1.2 Storyboard ......................................................................................................... 29

4.1.3 Bocetos .............................................................................................................. 29

4.2 Producción .................................................................................................... 30

4.2.1 Modelado 3D ..................................................................................................... 30

4.2.2 Texturizado ........................................................................................................ 30

4.2.3 Composición de escenas .................................................................................... 31

4.2.4 Animación .......................................................................................................... 31

4.2.5 Iluminación ........................................................................................................ 32

4.2.6 Cámaras ............................................................................................................. 33

4.2.7 Renderizado ....................................................................................................... 33

4.3 Postproducción ............................................................................................. 33

4.4 Herramientas utilizadas ................................................................................. 34

5 Cuerpo del trabajo ....................................................................................... 38

5.1 Definición de la idea ...................................................................................... 38

5.1.1 Abandono animal ............................................................................................... 38

7

5.1.2 Abandonos durante el año ................................................................................ 42

5.1.3 Perfil de animal abandonado ............................................................................. 44

5.1.4 Causas del abandono ......................................................................................... 46

5.1.5 Conclusión .......................................................................................................... 47

5.2 Storyboards ................................................................................................... 49

5.3 Bocetos ......................................................................................................... 52

5.4 Guion ............................................................................................................ 57

5.5 Modelado 3D................................................................................................. 61

5.6 Texturizado ................................................................................................... 76

5.7 Rigging .......................................................................................................... 86

5.8 Iluminación .................................................................................................. 102

5.9 Animación y cámaras .................................................................................... 106

5.10 Renderizado ................................................................................................. 110

5.11 Postproducción ............................................................................................ 114

5.12 Resultados ................................................................................................... 116

6 Conclusiones .............................................................................................. 120

8 Bibliografía ................................................................................................. 122

8

Índice de figuras

Fig. 1 Funcionamiento de la linterna mágica ........................................................ 16

Fig. 2 Aspecto de la linterna mágica .................................................................... 16

Fig. 3 Zootropo ................................................................................................... 17

Fig. 4 Praxinoscopio ............................................................................................ 17

Fig. 5 Dibujo del funcionamiento del teatro óptico .............................................. 18

Fig. 6 Dibujos animados Koko el payado y Betty Boop ......................................... 19

Fig. 7 Dibujo animado Félix el gato ...................................................................... 19

Fig. 8 Dibujo animado Oswald, el conejo afortunado ........................................... 19

Fig. 9 Mickey Mouse, en la película Willy y el Barco de Vapor .............................. 20

Fig. 10 Escena del baile de La Bella y la bestia ..................................................... 21

Fig. 11 Película Toy Story .................................................................................... 22

Fig. 12 Captura de movimiento para Gollum ....................................................... 23

Fig. 13 Plano de la película Avatar ....................................................................... 24

Fig. 14 Plano de la película Coco.......................................................................... 25

Fig. 15 Personajes de Frozen ............................................................................... 25

Fig. 16 Movimiento inicial y final que se quiere realizar por cotas ........................ 31

Fig. 17 Ejemplo de la interpolación correcta que realiza el software .................... 32

Fig. 18 Logotipo de Autodesk Maya .................................................................... 34

Fig.19 Logotipo de Arnold Renderer .................................................................... 34

Fig. 20 Logotipo de Mudbox ................................................................................ 35

Fig. 21 Logotipo de Photoshop ............................................................................ 36

Fig. 22 Logotipo Adobe After Effects ................................................................... 36

9

Fig. 23 Logotipo Adobe Premiere ........................................................................ 37

Fig. 24 Gráfica de la evolución del número de perros que llegan a refugios cada año

............................................................................................................................ 39

Fig. 25 Gráfica de la evolución del número de gatos que llegan a refugios cada año

............................................................................................................................ 39

Fig. 26 Gráfica sobre los destinos de los perros en refugios de animales .............. 41

Fig. 27 Gráfica sobre los destinos de los gatos en refugios de animales. ............... 41

Fig. 28 Gráfica de cantidad de perros recogidos por protectoras durante el año .. 43

Fig. 29 Gráfica de cantidad de gatos recogidos por protectoras durante el año .... 43

Fig. 30 Gráfica de los animales recogidos en función de la raza ............................ 44

Fig. 31 Gráfica de animales recogidos en función del tamaño .............................. 45

Fig. 32 Gráfica de animales recogidos en función de la edad ................................ 45

Fig. 33 Esquema de la procedencia de los animales de los refugios ...................... 46

Fig. 34 Gráfica de los causa más comunes de abandono ...................................... 47

Fig. 35 Storyboard parte 1 ................................................................................... 49

Fig. 36 Storyboard parte 2 ................................................................................... 50

Fig. 37 Storyboard parte 3 ................................................................................... 51

Fig. 38 Boceto de varios posibles perros .............................................................. 52

Fig. 39 Boceto para el modelado de las orejas del perro ...................................... 52

Fig. 40 Boceto del perro ...................................................................................... 53

Fig. 41 Boceto de la cabeza de la niña ................................................................. 53

Fig. 42 Boceto de las zapatillas de la niña ............................................................ 53

Fig. 43 Boceto de las proporciones de la cara y geometría de la mano ................. 54

Fig. 44 Boceto de la decoración del salón ............................................................ 54

10

Fig. 45 Boceto para la habitación de la niña ......................................................... 55

Fig. 46 Boceto de la distribución del parque y geometría del coche ..................... 55

Fig. 47 Bocetos de casas ...................................................................................... 56

Fig. 48 Proceso de modelado del perro ............................................................... 62

Fig. 49 Proceso de modelado del perro orejas-cola .............................................. 62

Fig. 50 Proceso de modelado del perro ojos-boca ................................................ 63

Fig. 51 Proceso de modelado del perro suavizado ............................................... 63

Fig. 52 Primer modelado de la cara sin suavizar................................................... 64

Fig. 53 Primer modelado de la cara suavizado ..................................................... 65

Fig. 54 Detalle de la forma del paladar y la boca .................................................. 65

Fig. 55 Modelado de la cabeza wireframe con suavizado ..................................... 67

Fig. 56 Modelado de la cabeza suavizado ............................................................ 68

Fig. 57 Detalle modelado de ojos, párpados y boca ............................................. 68

Fig. 58 Modelado del torso de la niña ................................................................. 69

Fig. 59 Modelado pantalón de la niña ................................................................. 69

Fig. 60 Modelado de las zapatillas de la niña ....................................................... 70

Fig. 61 Modelado de la mano con wireframe ....................................................... 70

Fig. 62 Modelado de la mano .............................................................................. 71

Fig. 63 Modelado final de la niña ........................................................................ 71

Fig. 64 Modelado de la madre ............................................................................. 72

Fig. 65 Modelado del padre ................................................................................ 73

Fig. 66 Modelado de cojines con nCloth .............................................................. 74

Fig. 67 Modelado de los árboles por el terreno irregular ..................................... 75

Fig. 68 Imagen de los recortes del UV Map marcado en la malla y en el editor ..... 77

11

Fig. 69 Texturizado del pelo de la niña en Mudbox .............................................. 78

Fig. 70 Técnica de selección y aislado de parte del uv para texturizar, en Mudbox 79

Fig. 71 Asignación de una textura en un material Lambert................................... 80

Fig. 72 Comparación entre el material aiStandardSurface por defecto y el

modificado para el suelo ...................................................................................... 80

Fig. 73 Render de materiales sin mapas de normales ........................................... 81

Fig. 74 Render de materiales con mapas de normales (sillas, mesa y suelo) ......... 81

Fig. 75 Ejemplo de mapa de normales de una textura .......................................... 82

Fig. 76 Configuración de subsurface para la piel .................................................. 82

Fig. 77 Render de la piel sin utilizar subsurface.................................................... 83

Fig. 78 Render de la piel utilizando subsurface .................................................... 83

Fig. 79 Relación entre los nodos de materiales creados para los ojos de la niña ... 84

Fig. 80 Render del texturizado de los ojos de la niña ........................................... 85

Fig. 81 Comparación entre ojos con la esfera transparente alrededor y sin ella .... 85

Fig. 82 Texturizado del perro............................................................................... 86

Fig. 83 Esqueleto del perro con los ejes de orientación de la columna visible ....... 88

Fig. 84 Ventana del script para crear controladores ............................................. 90

Fig. 85 Resultado de los controladores con el script ............................................. 90

Fig. 86 Organización de la jerarquía de los controladores del script (offsets creados

automáticamente) ............................................................................................... 90

Fig. 87 Organización de la jerarquía de mi rig ...................................................... 91

Fig. 88 Configuración herramienta IK Handle ....................................................... 92

Fig. 89 Rig del perro ............................................................................................ 93

Fig. 90 Influencia de un hueso con Paint Skin Weights ......................................... 94

12

Fig. 91 Creación de blend shapes desde Shape Editor .......................................... 96

Fig. 92 Influencias de los targets de la blend shape .............................................. 97

Fig. 93 Panel SDK para los controladores de las blend shapes .............................. 99

Fig. 94 Relación entre la posición del controlador y la blend shape vinculada ..... 100

Fig. 95 Rig rápido de Maya para el personaje de la madre .................................. 101

Fig. 96 Luces de tipo área ................................................................................... 103

Fig. 97 Render con luces de tipo área ................................................................. 104

Fig. 98 Luces de tipo spot light (verde) y de tipo mesh (blanca)........................... 104

Fig. 99 Render de luces tipo spot y mesh en los focos delanteros y traseros........ 105

Fig. 100 Luz de tipo skydome ............................................................................. 105

Fig. 101 Render con luz de tipo skydome ............................................................ 106

Fig. 102 Panel de la herramienta Red9 ............................................................... 107

Fig. 103 Curvas de animación del controlador del pie en Graph Editor ................ 108

Fig. 104 Prueba de render con Arnold, formato OpenEXR ................................... 111

Fig. 105 Prueba de render con Arnold, formato png ........................................... 111

Fig. 106 Prueba de render con Renderman, formato jpg ..................................... 112

Fig. 107 Prueba de render con Renderman, formato tif ...................................... 112

Fig. 108 Prueba de render con Maya Software, formato OpenEXR ...................... 113

Fig. 109 Espacio de trabajo de Premiere ............................................................. 115

Fig. 110 Render de los padres llegando a casa con la caja del perro .................... 116

Fig. 111 Render de la niña abriendo la puerta de su casa .................................... 117

Fig. 112 Render de la niña y el perro paseando por la calle ................................. 117

Fig. 113 Render de la niña en su habitación ........................................................ 118

Fig. 114 Render de la niña abrazando al perro .................................................... 118

13

Fig. 115 Render de la niña y el perro en el parque .............................................. 119

Fig.116 Render de la niña lanzando una pelota al perro ...................................... 119

14

1 Introducción

En este proyecto se va a realizar un cortometraje de animación 3D pasando por todas

las fases necesarias de desarrollo hasta su producción.

La animación y modelado 3D actualmente se encuentran en auge, gracias a las nuevas

técnicas que van surgiendo, cada vez es está más presente en nuestras vidas. Como

podemos comprobar fácilmente, si nos fijamos en los dibujos animados actuales, si

buscamos en YouTube cortos de animación, así como muchas de las últimas películas

estrenadas, veremos que enseguida encontramos múltiples ejemplos donde utilizan técnicas

de animación y 3D. Es utilizado para áreas distintas entre sí, como por ejemplo el diseño

industrial, publicidad o videojuegos. Cada campo tiene su finalidad, pero todos ellos

aprovechan la forma atractiva de transmitir un mensaje a través de contenido audiovisual.

Para la realización de este proyecto, atravesaremos todas las etapas necesarias para

conseguir un cortometraje profesional. En primer lugar, se debe definir la temática y el

estilo visual que se desea conseguir para aplicarlo en el resto de fases y tener un producto

de estilo uniforme durante todo el corto. A continuación, se pasará a los bocetos de la

historia y personajes, así como el storyboard y guion de la historia, modelado 3D,

texturizado, rigging, animación, iluminación, renderizado y finalmente, creación del vídeo

y postproducción.

La temática del corto es contra el abandono animal, con el objetivo de denunciar este

problema actual, concienciar sobre ello e intentar evitar su suceso. Puesto que no solemos

ver la cantidad de seres afectados, es un problema fácil de ignorar. Es por ello que se

realizará una pequeña investigación para obtener datos reales y actuales sobre este tema.

Así pues, este corto tratará del regalo de un perro por parte de los padres a su hija, con

el inconveniente de que más tarde se tendrán que mudar de casa y deberán deshacerse de

algunas cosas, pero nunca siendo una de ellas el perro, a pesar de lo que puede suceder

muchas veces. Se pretende transmitir que no es un juguete más del cual te puedes deshacer

en cualquier momento cuando se produce una situación difícil.

15

2 Estado del arte

En primer lugar, vamos a estudiar el estado en el que se encuentra la animación por

ordenador, viendo su recorrido a lo largo de la historia, entendiendo así sus orígenes y su

evolución hasta el momento.

2.1 Animación por ordenador

La animación por ordenador hace referencia a la técnica que consiste en crear el

efecto de movimiento a partir de imágenes, mediante el uso de un ordenador. Para crear

este efecto, se muestra una imagen tras otra sustituyéndose muy rápidamente, habiendo en

cada una de ellas un pequeño cambio. Consiguiendo así, que finalmente los pequeños

cambios sean la secuencia de animación que nosotros captamos como vídeo. Para que el

ojo y el cerebro humano interpreten esta secuencia de animación como vídeo, las

imágenes deben ser mostradas con una velocidad mínima de 12 imágenes por segundo. En

películas de animación tienen una velocidad de 24 imágenes por segundo.

Esta técnica se utiliza tanto en las películas como en la televisión, pudiendo ser

animaciones tanto 3D como 2D.

2.2 Historia de la animación por ordenador

En primer lugar, antes de que el ordenador tomara protagonismo en la animación, se

produjeron algunos inventos que fueron muy importantes en el desarrollo de esta técnica.

El primero de ellos fue La linterna mágica en 1661, la cual consiste en una cámara

oscura con un juego de lentes y un soporte corredizo en el que se colocaban transparencias

pintadas sobre las placas de vidrio las cuales eran iluminadas con una lámpara de aceite,

proyectando las imágenes pintadas hacia el exterior.

16

Fig. 1 Funcionamiento de la linterna mágica

Fuente: https://upload.wikimedia.org/wikipedia/commons/3/3e/1721%3F_Jacob_%27s_Gravesande_-

_Physices_Elementa_Mathematica.jpg

Fig. 2 Aspecto de la linterna mágica

Fuente: https://upload.wikimedia.org/wikipedia/commons/9/9d/Laterna_magica_Aulendorf.jpg

En 1834, George Horner inventó el Zootropo, un cilindro hueco, de unos 20 cm de

diámetro, que gira alrededor de un eje vertical y en cuya superficie lleva una serie de

ranuras verticales para mirar a través de ellas y ver los dibujos que hay en el interior.

17

Fig. 3 Zootropo

Fuente: https://lanavedefibra.files.wordpress.com/2009/07/zootropo.jpg

Más tarde, en 1880, llegó el Praxinoscopio de Émile Reynaud, parecido al Zootropo,

éste incluía en el tambor, espejos con un ángulo determinado que eliminaba las

interrupciones de la visión cuando las imágenes cambiaban de posición, y proyectaba las

imágenes que había en la superficie en ellos, creando animaciones en el centro del tambor.

Fig. 4 Praxinoscopio

Fuente: http://www.revolutum.com/shop/producto/praxinoscopio/

En 1888, Émile Reynaud patentó el Teatro óptico, que permitió la proyección de

dibujos animados móviles. Se utilizaba la combinación de una linterna mágica que

proyectaba las imágenes en el fondo de la escena, y otra que proyectaba las figuras

18

pintadas a mano sobre la película, mediante espejos y lentes en placas en una banda de tela

perforada.

Fig. 5 Dibujo del funcionamiento del teatro óptico

Fuente: https://upload.wikimedia.org/wikipedia/commons/d/d5/Theatreoptique.jpg

Más adelante, John Bray tuvo la idea de utilizar hojas transparentes de celuloide para

trabajar capa por capa, permitiendo superponer a un fondo fijo las partes en movimiento.

Poco a poco, se fueron perfeccionando las técnicas de animación, surgiendo los

primeros dibujos animados. Algunos pioneros fueron Max y Dave Fleischer, con los

dibujos de Koko el payaso en 1919 y posteriorimente Betty Boop y Popeye el Marino entre

otros; Pat Sullivan con Félix el gato y Walt Disney con Oswald, el conejo afortunado, en

1927, un año antes de que apareciera Mickey Mouse debutando en la primera película de

dibujos animados Willy y el Barco de Vapor.

19

Fig. 6 Dibujos animados Koko el payado y Betty Boop

Fuente: https://www.fleischerstudios.com/about-us.html

Fig. 7 Dibujo animado Félix el gato

Fuente: https://upload.wikimedia.org/wikipedia/commons/0/0f/Felix_the_cat.svg

Fig. 8 Dibujo animado Oswald, el conejo afortunado

Fuente: https://en.wikipedia.org/wiki/Oswald_the_Lucky_Rabbit -

/media/File:Oswald_the_Lucky_Rabbit.png

20

Fig. 9 Mickey Mouse, en la película Willy y el Barco de Vapor

Fuente: https://secure.i.telegraph.co.uk/multimedia/archive/03044/steamboatwillie_3044038k.jpg

La animación por ordenador comenzó a finales de 1940 y principios de 1950 con los

primeros experimentos con gráficos por ordenador. Los primeros 20 años la animación por

ordenador pasó bastante desapercibida en la industria del cine y televisión, teniendo un uso

más científico y de investigación. A partir de 1960, fue cuando la animación cobró más

importancia en el campo artístico. Poco a poco, fue mejorando la capacidad de

procesamiento para llegar a utilizar gráficos en 3D.

En 1982, la película Tron, fue la primera película que contaba con planos

completamente generados por ordenador. Le siguió películas como The Last Starfighter en

1984, una de las primeras películas de cine con un amplio uso de imágenes generadas por

ordenador para representar sus numerosas naves, entornos y escenas de batalla. Éste fue un

gran paso hacia delante, comparado con otras películas de ese tiempo como Return of the

Jedi, la cual aún utilizaba modelos a escala.

En 1985, en la película de Young Sherlock Holmes (Pixar) apareció el primer

personaje creado íntegramente a partir de imágenes generadas por ordenador, aunque en

ese momento no tuvo gran relevancia hasta años más tarde, en 1989, El abismo ganara el

Premio de la Academia de Hollywood en la categoría de Efectos Visuales.

Durante la década de los 90, fue haciéndose cada vez más habitual en las películas, las

imágenes creadas por ordenador en 2D con fondos dibujados a mano.

21

Fue en 1991, cuando los estudios Disney crearon el éxito de La Bella y la bestia,

donde combinaron el arte hecho a mano con modelos 3D. En la escena del baile, mientras

la cámara gira alrededor de los protagonistas en el espacio tridimensional completamente

realizado por ordenador, los personajes estaban hechos completamente a mano fotograma

por fotograma.

Fig. 10 Escena del baile de La Bella y la bestia

Fuente: https://nocivodomingo.files.wordpress.com/2010/11/3299_7_large.jpg

En 1993, Jurassic Park cambió drásticamente la industria del cine al integrar

perfectamente imágenes de dinosaurios generadas por ordenador en escenas reales.

Esta película marca una transición en la industria cinematográfica pasando de la animación

tradicional de movimientos fotograma a fotograma y efectos ópticos convencionales, a

nuevas técnicas digitales avanzadas.

Toy Story (Pixar) y Cassiopeia (NDR Filmes) en 1995 y 1996, fueron las primeras

películas totalmente generadas por ordenador. Fue un éxito que animó a otros estudios

de animación a introducirse en la producción a través del ordenador, y al mismo tiempo,

para Walt Disney significó el paso de la animación tradicional a la animación mediante

imágenes por ordenador.

22

Fig. 11 Película Toy Story

Fuente: https://i0.wp.com/nosbastidores.com.br/wp-content/uploads/2017/06/Toy-Story-Buzz-e-Woody.png

A partir del 2000, las imágenes generadas por ordenador tomaron protagonismo en el

campo de los efectos especiales, hasta el punto de sustituir actores reales por actores

virtuales y crear extras generados por ordenador para algunas escenas.

Posteriormente, se introdujo el uso de la captura de movimiento para animaciones,

consiguiendo así unas animaciones más realistas en escenas complicadas, así como

transmitir la personalidad de un actor real a un personaje creado por ordenador, a través de

sus movimientos capturados. Final Fantasy: The Spirits Within, en 2001, fue la primera

película en usar completamente la captura de movimiento. Además, también fue la primera

película de carácter realista en usar únicamente personajes realizados por ordenador. Por

último, en cuanto a la captura de movimiento, también cabe destacar la película

de los Anillos: las dos torres, en 2002, donde se utilizó el primer sistema de captura de

movimiento en tiempo real para la animación del personaje de Gollum, aunque antes ya se

había utilizado el sistema de captura de movimiento en sí. Sinbad el marino, en el 2000,

fue la primera película de animación que utilizó esta técnica. También se utilizó en

películas como King Kong (2005) y el desarrollo de la película Las aventuras de Tintín: el

secreto del Unicornio (2011).

23

Fig. 12 Captura de movimiento para Gollum

Fuente: https://www.researchgate.net/figure/Andy-Serkis-poses-in-a-moIon-capture-suit-during-his-

performance-of-Gollum-during-the_fig10_316428528

2.3 Animación por ordenador en la actualidad

Actualmente, la animación por ordenador es muy habitual encontrarla integrada en

nuestro día a día tanto en películas cinematográficas, como en anuncios publicitarios,

videojuegos, series, etc. Las animaciones creadas fotograma a fotograma manualmente

quedaron atrás, y tanto las animaciones en 3D como las 2D se realizan por ordenador.

Hemos visto los primeros pasos de la animación y podemos comparar, la calidad de

películas, cortos o series actuales con las de entonces, viendo un gran progreso en la

calidad de los productos. Esto se debe a que la animación por ordenador está en continua

evolución siendo capaz de generar cada vez imágenes de mejor calidad y detalle,

independientemente de que sean realistas o no. Este continuo progreso se debe también al

desarrollo de la tecnología, ya que gracias a que las máquinas van teniendo más potencia,

pueden soportar los últimos avances. A pesar de que sigue siendo un proceso costoso en

cuanto a tiempo, máquinas y personas para su desarrollo; basándonos en la evolución que

ha tenido en los últimos años, podemos decir que en el futuro, estos procesos seguirán

evolucionando siendo más rápidos y menos costosos, consiguiendo al mismo tiempo

imágenes y efectos con mejor calidad y detalles.

24

En mi opinión, una de las películas que tuvo un gran impacto en los espectadores a

nivel visual, y también a nivel técnico durante el desarrollo de la película, fue Avatar

(2009), la cual contó con un sistema de captura de movimiento muy avanzado y miles de

efectos especiales de gran calidad. Fue desarrollada con 40000 procesadores y 104

Terabytes de RAM en más de 4000 servidores con GNU/Linux. La empresa encargada de

realizarlo, Weta Digital, ya había trabajado antes con producciones como El Señor de los

Anillos, entre otras.

Fig. 13 Plano de la película Avatar

Fuente: https://wallpapersite.com/movies/neytiri-seze-avatar-hd-4115.html

2.4 Principales estudios de animación

Actualmente podemos encontrar numerosos estudios de animación, pero nos

centraremos en los más famosos.

Uno de los más importantes es Disney Pixar, ya que Disney compró Pixar en 2005,

aunque esta compra no implicó la fusión completa de las dos compañías. Pixar continúa

funcionando como entidad separada pero realmente pertenece a Disney y por ello,

25

comparten ideas creativas y producciones. Pixar produjo películas como Buscando a

Nemo, Cars, Brave, Ratatouille, Wall-E, Up entre otras.

Los últimos proyectos que han producido en conjunto han sido Coco (2017) y Los

increíbles 2 (2018).

Fig. 14 Plano de la película Coco

Fuente: https://i.pinimg.com/originals/4e/5e/b0/4e5eb0c3b56d41d0b4d691256dcd20db.png

Por otro lado, podemos hablar de Disney individualmente, uno de los pioneros en las

películas de animación, que ha ido realizando éxitos durante toda su trayectoria, como por

ejemplo Frozen (2013), que ha sido la película con mayor recaudación en el cine

superando las recaudaciones de Toy Story 3, la más alta hasta entonces.

Fig. 15 Personajes de Frozen

Fuente: http://www.sing-along.es/peliculas/frozen/

26

DreamWorks Animation ha realizado películas como Antz, Shrek, Madagascar,

Espantatiburones, Bebé jefazo. Universal Animation Studios con algunas como Canta,

Gru: Mi villano favorito y Los minions. Blue Sky Studios, especializada en animación de

personajes, actualmente pertenece a Disney, ha realizado películas como La edad de hielo,

Río, Snoopy y Ferdinand. Por último, nombrar al Studio Ghibli, con proyectos como por

ejemplo Mi vecino Totoro, El viaje de Chihiro o El recuerdo de Marnie.

27

3 Objetivos

El objetivo principal de este Trabajo de Fin de Grado es realizar un cortometraje de

animación 3D, pasando por todas las etapas necesarias para ello, de la forma más parecida

posible a como sería en un estudio profesional. Este cortometraje busca transmitir una

historia con un mensaje que llegue al público que lo vea, concienciándolos con el tema

tratado, en este caso, el abandono animal.

Los objetivos específicos son:

Definir una historia propia para el cortometraje y conseguir transmitir con

ella un mensaje al público receptor, provocando en ellos una reacción

vinculada con el tema tratado.

Aprender a gestionar los requerimientos de un proyecto de este tipo,

definiendo las distintas fases necesarias para su desarrollo y producción:

preproducción: storyboards, guiones y bocetos; producción: modelado 3D de

todos los elementos necesarios, texturizado, rigging, iluminación y

renderizado; y por último, la postproducción: montaje del vídeo, efectos y

audio. El objetivo es seguir los procesos como los estudios profesionales,

aprendiendo en todas las áreas lo que ello conlleva, ya que en este caso, nos

encargaremos de todas ellas, en lugar de una sólo como sería en un estudio

profesional.

Aprender y desarrollar habilidades de modelado, animación, texturizado,

iluminación, rigging, renderizado y postproducción, además de aplicar y

reforzar los conocimientos ya aprendidos anteriormente durante los proyectos

anteriores.

Familiarizarme y mejorar en el uso de las herramientas y las opciones que

brindan, ya que prácticamente todas serán nuevas.

Tener un proyecto finalizado relacionado con el modelado 3D y animación

que sirva como carta de presentación.

28

4 Metodología

Para la realización de este cortometraje, se ha seguido la línea de desarrollo de los

estudios de animación profesionales como ya hemos nombrado anteriormente,

atravesando cada una de sus etapas. En este apartado hablaremos de las etapas de una

forma general, preproducción, producción y postproducción, ya que los detalles que hemos

desarrollado en cada una de las fases las comentaré en el siguiente punto, el 5 Cuerpo del

trabajo.

Estas fases deberán realizarse de manera incremental para conseguir una buena

planificación y organización del proyecto, ya que unas dependen de otras.

4.1 Preproducción

La fase de preproducción se centra en la planificación y definición del proyecto que

se quiere llevar a cabo. Esta fase se realiza en papel, y se define en primer lugar la historia

que se quiere contar, el estilo artístico que se quiere seguir en su diseño y las escenas que

se quieren realizar de forma general. Estos pasos se realizan a través de las siguientes

etapas.

4.1.1 Desarrollo de la idea

En esta etapa, si no se tiene claro el tema todavía, se puede realizar un brainstorming,

donde se escriben muchas ideas distintas que se te ocurran para más tarde prestarles

atención e ir decidiendo. Para ello, yo me ayudé de la plataforma Youtube, donde visualicé

una gran cantidad de cortometrajes, para decidir qué estilos me gustaban más, cómo

transmitir mensajes a través de los cortos y detalles de ellos para conseguir un estilo

cartoon, que en mi caso es el que quería obtener.

Una vez elegida la temática, se define la historia y el mensaje que se quiere transmitir

de una forma general con algunos detalles, pero no todos los que se harán finalmente. En

29

este punto, sabiendo lo que queremos realizar, podemos elegir también las herramientas a

utilizar, realizando un previo estudio de las opciones que cada herramienta nos brinda y

cuál será mejor para nuestro desarrollo.

4.1.2 Storyboard

Seguidamente, realizamos el storyboard del cortometraje, el cual es un guion gráfico

de las escenas que queremos llevar a cabo mediante una serie de viñetas, donde dibujamos

sin mucho detalle, pero donde podemos ir visualizando la escena para más adelante

facilitarnos los planos de las cámaras, el orden de las escenas, y además, podemos definir

algunos diálogos o situaciones generales debajo de cada viñeta para especificar algunos

detalles y recordarlos en el momento de la producción.

4.1.3 Bocetos

Una vez realizado el storyboard, donde definimos las escenas que llevaremos a cabo

y los elementos que necesitaremos realizar, pasamos a definir los bocetos de los elementos

necesarios para el modelado 3D. Los bocetos realizados son dibujos con poco detalle,

necesario para tener una idea de la esencia que queremos conseguir con ese objeto o

personaje. No se necesitan bocetos para todos los modelos 3D, pero normalmente siempre

se realizan para detallar a los personajes, para objetos o personajes que no existen en la

realidad y por ello, necesitamos el dibujo para tener una referencia de cómo hacerlo.

También son muy útiles cuando tenemos varias ideas sobre un objeto y dibujar las

diferentes versiones nos ayuda mucho a decidir cómo lo queremos y encaja mejor en

nuestro proyecto.

Los bocetos que se hagan, dependerán siempre del proyecto a realizar y de la

necesidad de los trabajadores.

30

4.2 Producción

Una vez hemos definido las ideas en el proceso de preproducción y realizado un

previo estudio sobre las herramientas de software, ya estamos preparados para empezar el

desarrollo y sus debidas etapas.

4.2.1 Modelado 3D

En esta fase, nos encargaremos de realizar los modelos 3D que necesitaremos para el

corto mediante el software elegido previamente. En mi caso, para una mejor planificación,

a partir del storyboard realicé una lista de todos los elementos que necesitaba modelar para

conseguir esas escenas y así, concentrarme en los elementos necesarios en todo momento.

4.2.2 Texturizado

A continuación, cuando tenemos todos los modelos 3D, pasamos a la fase de

texturizado, donde le aplicamos los materiales y texturas necesarias a cada modelo. En esta

fase, hay que cuidar mucho el estilo artístico que se quiere conseguir, ya que las texturas

son fundamentales para ello y hay que tenerlo muy claro para no mezclar estilos que

desentonen en nuestro corto.

En este proceso, puedes aplicar a los modelos tanto una textura de una imagen

(madera, la portada de un libro, etc.) como un material (material de tipo metálico, más o

menos brillante, depende de reflexiones y refracciones). Siempre debemos recordar que,

para aplicar las texturas, debemos realizar antes el mapeado del objeto (UV Map) para

aplicarlas correctamente.

En mi caso, he combinado tanto texturas como materiales en mis escenas, siempre

teniendo presente que las texturas no fuesen demasiado realistas y usando materiales de

colores vivos para reforzar el toque cartoon.

31

4.2.3 Composición de escenas

Una vez terminado los procesos anteriores, ya podemos unir los modelos texturizados

en un archivo nuevo. Para cada escena se creará un archivo donde se irán importando los

elementos necesarios y colocarlos a nuestro gusto siguiendo nuestras ideas previas.

4.2.4 Animación

Una vez preparada la escena, podemos animar los elementos necesarios para contar

nuestra historia. Se pueden usar distintas técnicas de animación según se prefiera. En mi

caso, he usado captura de movimiento para algunas animaciones de los personajes, y

otras las he realizado mediante la técnica animación por cotas, donde marco mediante

keyframes los fotogramas fundamentales de un movimiento en la línea de tiempo, más

adelante marco el siguiente movimiento, y el software se encarga de crear los fotogramas

intermedios mediante métodos de interpolación.

Fig. 16 Movimiento inicial y final que se quiere realizar por cotas

Fuente: http://computeranimationst2.blogspot.com/2012/04/animacion-por-cotas.html

32

Fig. 17 Ejemplo de la interpolación correcta que realiza el software

Fuente: http://computeranimationst2.blogspot.com/2012/04/animacion-por-cotas.html

4.2.5 Iluminación

A continuación, es necesario iluminar las escenas para poder realizar los próximos

renders. Esta fase es también muy importante igual que las anteriores, ya que afectará

directamente a la calidad con la que se vea la escena, así como nuestros modelos y

texturas. Hay que tener en cuenta qué ambiente se quiere conseguir a través de ellas, así

como si es una escena de interior o de exterior, ya que tanto la luz como las sombras se

deberán adaptar a ello. Los softwares nos proporcionan distintos tipos de luces para poder

crear los efectos deseados.

En general, la técnica más usada en el mundo cinematográfico es la iluminación en

tres puntos, usando tres luces (luz principal, de relleno y trasera) para destacar la

tridimensionalidad y profundidad de nuestra escena y crear las sombras adecuadas. Más

adelante, veremos las luces utilizadas en las escenas de este proyecto.

33

4.2.6 Cámaras

Por último, antes de renderizar, debemos incluir en nuestras escenas las cámaras en la

posición más adecuada para conseguir los planos deseados, pudiendo hacer uso del

storyboard donde dibujando las viñetas ya hicimos una aproximación del resultado de los

planos que queremos obtener. Las cámaras también se pueden animar para conseguir

distintos efectos en las escenas, realizando seguimientos a objetos o personajes por

ejemplo, o realizando zoom en alguna parte. Una de las técnicas más usadas son la

animación por guías, donde se crea y define una línea (spline), con la forma que

queremos que tenga el recorrido de la cámara, ésta quedará ligada a esa línea y se

desplazará a lo largo de ella; la otra técnica es la animación por cotas que igual que

explicamos para los movimientos de un personaje, funcionará para las cámaras, definiendo

keyframes en los frames fundamentales, conseguiremos esta animación.

4.2.7 Renderizado

Por último, llegamos a la etapa del renderizado. Ésta consiste en crear las imágenes

partiendo de nuestra escena en tres dimensiones para poder crear la animación. Cada una

de las imágenes será distinta y al montarlas en el proceso de postproducción,

conseguiremos la sensación de movimiento necesaria para ver las animaciones. El tiempo

de renderizado dependerá de la calidad elegida para las imágenes; tanto su tamaño, como

sus propiedades de configuración de render.

4.3 Postproducción

Después del desarrollo, llegamos a la etapa final, donde nos centraremos en la

creación del vídeo del cortometraje, a partir de la edición de todo el contenido creado en

las fases anteriores. Finalmente, utilizando un software de editor de vídeos, juntaremos en

orden todos los frames renderizados creando el vídeo final, y posteriormente, le podremos

aplicar a éste los efectos que elijamos, así como el audio seleccionado para completar

nuestro cortometraje.

34

4.4 Herramientas utilizadas

Autodesk Maya 2018

Fig. 18 Logotipo de Autodesk Maya

Fuente: https://yt3.ggpht.com/a-/AJLlDp3cf3LqjdtGQq_0W8IN7jfkS_Z4qnne3saGEw=s900-mo-c-c0xffffffff-

rj-k-no

Durante la realización de este proyecto, Maya 2018 ha sido el software principal con

el que se ha realizado el desarrollo. A pesar de tener unos conocimientos muy básicos

sobre él al principio del proyecto, se eligió porque es uno de los softwares más usados en la

industria de la animación, por lo que nos proporcionaría todas las herramientas que

necesitaríamos para la realización del corto y nos abriría puertas en el futuro como otro

software más que aprendemos a utilizar. Este software se ha utilizado para la realización

del modelado, rigging, skinning, iluminación, animación, uv mapping, texturizado y

renderizado.

Arnold Renderer

Fig.19 Logotipo de Arnold Renderer

Fuente: https://www.renderboost.com/blog/mental-ray-vs-arnold/

35

Para el renderizado especialmente, he utilizado el software de Arnold Renderer,

incorporado gratuitamente en Maya 2018. Éste fue elegido especialmente por sus últimas

mejoras como son la opción de los renders interactivos, es decir, poder tener abierta la

ventana del render, y que ésta automáticamente se vaya actualizando cuando haces

cambios en la escena de ese render, como puede ser algún movimiento o cambios de

iluminación. Además, contaba con un sistema de iluminación global muy atractivo, la

posibilidad de crear pelo con la herramienta xgen, utilizada en estudios como Disney,

además de brindar el resto de opciones que nos pueden dar otros motores de render.

Posteriormente se descubrió el software RenderMan, software gratuito para

estudiantes con el que se han producido películas de Pixar. Éste fue una opción interesante,

debido a que la iluminación también era muy buena y sencilla, pero el tema de tener que

utilizar todos los materiales propios de RenderMan hicieron que me quedara con Arnold.

Mudbox

Fig. 20 Logotipo de Mudbox

Fuente: https://www.post-logic.com/produit-autodesk-mudbox.htm

Para algunas partes del texturizado se ha utilizado Mudbox, ya que se encuentra

vinculado a Maya, y puedes mandar los objetos 3D abiertos en Maya directamente a

Mudbox. Éste es un software digital 3D de pintura y escultura, permitiéndonos crear

texturas pintando sobre los modelos 3D directamente.

36

Adobe Photoshop CC 2018

Fig. 21 Logotipo de Photoshop

Fuente: https://www.freepnglogos.com/images/photoshop-png-logo-3085.html

Tanto para la creación de algunas texturas (sobre todo texturas planas) como para el

retoque de texturas creadas en Mudbox, se ha utilizado Adobe Photoshop, el cual nos ha

permitido realizarlas de forma fácil y sencilla para nuestro proyecto, y exportarlas en los

formatos adecuados.

Adobe After Effects CS6

Fig. 22 Logotipo Adobe After Effects

Fuente: https://imgur.com/nPkAYZG

También se ha utilizado Adobe After Effects para crear algunos efectos visuales en la

parte de postproducción, como por ejemplo la lluvia.

37

Adobe Premiere Pro CC 2018

Fig. 23 Logotipo Adobe Premiere

Fuente:

https://upload.wikimedia.org/wikipedia/commons/thumb/f/f2/Adobe_Premiere_Pro_Logo.svg/2000px-

Adobe_Premiere_Pro_Logo.svg.png

Por último, he utilizado también Adobe Premiere para realizar el montaje del vídeo

final, uniendo todos los frames y añadiendo transiciones y audio.

38

5 Cuerpo del trabajo

En este apartado entraremos más en detalle en todas las etapas que hemos ido

recorriendo y cada fase de cada una de ellas, explicando detalladamente el proceso de

desarrollo del cortometraje.

5.1 Definición de la idea

En primer lugar, tenía claro que lo que quería conseguir era realizar un cortometraje

de estilo cartoon con el que transmitir un mensaje que tuviese repercusión en el público

receptor, pero lo que no estaba claro era qué historia contar. Para ello, pasé un tiempo

visualizando múltiples cortos en plataformas como Youtube o Vimeo, para coger ideas

sobre qué temas podría tratar a través de un corto, al mismo tiempo que me iba fijando en

detalles de los estilos para luego poder aplicarlos en mi corto. Algunas ideas iniciales para

el argumento del cortometraje fueron mostrar distintos tipos de catástrofes naturales en una

historia para concienciar sobre el medio ambiente, representar un breve cuento con

moraleja, tratar el tema de la identidad en las redes sociales en contraste con la vida real, o

realizar un corto que transmitiera valores como la tolerancia o la tranquilidad. Finalmente,

debido a mi gran pasión por los animales, decidí que debían salir en mi historia, y ello me

llevó a inclinarme por el tema del abandono animal, transmitiendo un mensaje que

repercutiese en los espectadores y haciendo un corto que no fuese violento ni demasiado

triste como los que son más comunes encontrar.

5.1.1 Abandono animal

El abandono animal es un tema actual que todavía no ha sido solucionado en nuestro

país. A continuación, se expondrán los datos recogidos del último estudio, en 2017, con

datos también de años anteriores, realizados por la Fundación Affinity.

Durante 2017, fueron recogidos 138.307 animales; 104.834 perros y 33.473 gatos

(estimación a partir de datos de 339 sociedades protectoras, ayuntamientos y consejos

39

comarcales de toda España). Estos datos permiten estimar la tasa de abandono de animales

en 23 perros y 7 gatos por cada 10.000 habitantes (población española estimada:

46.572.132 personas).

Fig. 24 Gráfica de la evolución del número de perros que llegan a refugios cada año

Fuente: https://www.fundacion-affinity.org/sites/default/files/whitepaper-estudio-sobre-abandono-y-

adopcion-de-animales-de-compania-2018.pdf

Fig. 25 Gráfica de la evolución del número de gatos que llegan a refugios cada año

Fuente: https://www.fundacion-affinity.org/sites/default/files/whitepaper-estudio-sobre-abandono-y-

adopcion-de-animales-de-compania-2018.pdf

40

Como podemos observar en las gráficas, en los últimos años se observa una

progresiva, aunque tímida reducción en el número de animales que llegan a refugios y

protectoras, que lamentablemente parece haberse frenado.

No todo el número de animales que aparecen en estas gráficas son abandonados pues,

del número de animales que llega a los refugios o protectoras, algunos son animales

perdidos y si están correctamente identificados con chips, facilitan el proceso de encuentro

con sus dueños y se consiguen devolver a su hogar. El número de animales devueltos

también es distinto entre perros y gatos. El 17,6% de los perros y gatos recogidos fueron

devueltos a sus propietarios. El 23,2% de los perros fueron devueltos, mejorando este valor

frente al año anterior donde disminuyó a 15,8%. En cuanto a los gatos, solo el 3,7% fueron

devueltos a sus propietarios, cifra que se mantiene estable en los anteriores estudios.

Un factor clave para la recuperación de los animales perdidos por parte de sus

propietarios, es la incorporación de un microchip para una correcta identificación, ya que

todavía existen muchos animales domésticos sin este tipo de identificación, es necesario

para intentar disminuir el número de animales perdidos. Por otro lado, podemos ver que el

porcentaje de gatos devueltos a los propietarios es bastante inferior al de los perros. Esto

puede deberse a que existe una menor proporción de gatos identificados y por otra parte,

que muchos gatos que llegan a los refugios han nacido en la calle.

No todos los animales que llegan a los refugios son animales extraviados por lo que, a

continuación, se muestra una gráfica con los destinos que le suceden tanto a los perros y

gatos que se encuentran allí.

41

Fig. 26 Gráfica sobre los destinos de los perros en refugios de animales

Fuente: https://www.fundacion-affinity.org/sites/default/files/whitepaper-estudio-sobre-abandono-y-

adopcion-de-animales-de-compania-2018.pdf

Fig. 27 Gráfica sobre los destinos de los gatos en refugios de animales.

Fuente: https://www.fundacion-affinity.org/sites/default/files/whitepaper-estudio-sobre-abandono-y-

adopcion-de-animales-de-compania-2018.pdf

Como podemos observar, todavía no se adoptan ni la mitad de los animales que

llegan a los refugios, teniendo un mayor porcentaje de adopción los perros, aunque con

más probabilidad de ser devueltos que los gatos adoptados. Además, en el caso de los

gatos, existe la opción de reubicarlos en colonias. Los gatos que viven en la calle tienden a

42

formar grupos denominados colonias. Muchas de ellas están gestionadas por entidades de

protección animal, públicas y privadas, para garantizar el bienestar de los animales. El

apoyo de las entidades a las colonias incluye el control periódico de la salud de los gatos,

su alimentación y la esterilización, para evitar problemas de sobrepoblación, un dato que

no es muy conocido en la sociedad.

En la primera barra de las gráficas anteriores, la adopción incluye tanto familias

españolas que adoptan el animal, tanto familias extranjeras. Este dato indica que España es

deficitaria en cuanto a la adopción de animales de compañía, no sólo porque no compensa

el número de animales abandonados, sino porque parte de estas adopciones son

gestionadas fuera de nuestro país.

De no ser adoptado, un animal de compañía está condenado a pasar el resto de sus

días en un refugio o en muchos casos a ser sacrificado. El aumento del número de perros

que permanece en el refugio es preocupante, ya que de mantenerse esta tendencia, a medio

o a largo plazo podría agravarse aún más la situación de exceso de ocupación que por

desgracia padecen ya muchos refugios y protectoras de animales en España.

5.1.2 Abandonos durante el año

En cuanto a la cantidad de animales que se reciben a lo largo del año, vamos a ver

algunos datos desmintiendo el mito de que se producen más abandonos de perros en la

época estival.

43

Fig. 28 Gráfica de cantidad de perros recogidos por protectoras durante el año

Fuente: https://www.fundacion-affinity.org/sites/default/files/whitepaper-estudio-sobre-abandono-y-

adopcion-de-animales-de-compania-2018.pdf

Fig. 29 Gráfica de cantidad de gatos recogidos por protectoras durante el año

Fuente: https://www.fundacion-affinity.org/sites/default/files/whitepaper-estudio-sobre-abandono-y-

adopcion-de-animales-de-compania-2018.pdf

Como podemos ver, el número de llegadas de perros a los refugios se produce en

todas las épocas del año. Sin embargo, en los gatos sí que es más notable esta época,

44

aunque esto no tiene por qué deberse a que los abandonos aumenten en esa época, sino

que, la reproducción de los gatos es estacional y además, uno de los principales motivos en

el abandono de los animales, como veremos más adelante, son las camadas no deseadas.

Estudios realizados al respecto indican que la mayoría de camadas de gatos no son

deseadas por sus propietarios. Por ello, es muy importante la esterilización para la

prevención del abandono de animales de compañía.

5.1.3 Perfil de animal abandonado

Respecto a los animales abandonados que podemos encontrar en los refugios, no hay

un perfil definido que se cumpla totalmente, ya que podemos encontrar perros y gatos de

cualquier edad y tipología racial para su adopción, pero sí que se ha logrado definir unos

estándares generales. Los factores definidos son la raza, el tamaño y la edad.

El 19,92% de animales de los refugios son de raza, mientras que el resto son

mestizos. En cuanto a los perros, el 23,4% son de raza, y un 11,4% en el caso de los gatos.

Respecto al tamaño, casi la mitad de los perros abandonados son de tamaño mediano, y la

mayoría de animales que llegan al refugio son de edad adulta.

Fig. 30 Gráfica de los animales recogidos en función de la raza

Fuente: https://www.fundacion-affinity.org/sites/default/files/whitepaper-estudio-sobre-abandono-y-

adopcion-de-animales-de-compania-2018.pdf

45

Fig. 31 Gráfica de animales recogidos en función del tamaño

Fuente: https://www.fundacion-affinity.org/sites/default/files/whitepaper-estudio-sobre-abandono-y-

adopcion-de-animales-de-compania-2018.pdf

Fig. 32 Gráfica de animales recogidos en función de la edad

Fuente: https://www.fundacion-affinity.org/sites/default/files/whitepaper-estudio-sobre-abandono-y-

adopcion-de-animales-de-compania-2018.pdf

Existe la idea equivocada de que un animal adulto no se integrará en su nueva familia

o de que ya no podrá ser educado de forma efectiva. Es importante pues, desarrollar

campañas de información a los adoptantes sobre la conveniencia e incluso las ventajas para

la convivencia que en muchas ocasiones supone la adopción de un perro o un gato ya

adulto. En este sentido, un estudio científico de 2017, llevado a cabo en el marco del

46

Postgrado en Antrozoología de la Cátedra Fundación Affinity Animales y Salud de la

Universidad Autónoma de Barcelona, sugiere que muchas personas adoptarían animales de

edad avanzada si recibieran ayudas o incentivos para su cuidado.

5.1.4 Causas del abandono

La mayoría de animales que llegan a un refugio, el 65,3% han sido encontrados por la

entidad y/o traídos por la policía (por ser casos de maltrato animal u otras razones). El

25,6% de los animales que entran es entregado por un particular que los ha encontrado, y

sólo el 9,1% de los animales es llevado al refugio por la misma persona que abandona,

como podemos ver en el siguiente esquema de representación.

Fig. 33 Esquema de la procedencia de los animales de los refugios

Fuente: https://www.fundacion-affinity.org/sites/default/files/whitepaper-estudio-sobre-abandono-y-

adopcion-de-animales-de-compania-2018.pdf

47

A continuación, podemos ver las principales causas de abandonos por los

propietarios. Puesto que el abandono por los propietarios no es la más común, como hemos

visto en la gráfica anterior, no conocemos las causas de muchos abandonos, por lo que aquí

solo se representan las causas de una parte de los abandonos que se reciben (9,1%).

Fig. 34 Gráfica de los causa más comunes de abandono

Fuente: https://www.fundacion-affinity.org/sites/default/files/whitepaper-estudio-sobre-abandono-y-

adopcion-de-animales-de-compania-2018.pdf

5.1.5 Conclusión

Finalmente, después de la realización de este estudio, se puede confirmar que el

abandono en nuestro país es todavía un importante problema de bienestar animal sin

solucionar. Además, las cifras recogidas del 2017, son muy similares a las del año anterior,

48

por lo que parece que actualmente nos encontramos en una situación de estancamiento en

cuanto al número de animales que llegan a los refugios.

En consecuencia, está en mano de la sociedad tomar medidas que pueden ayudar a

minimizar el impacto del abandono de animales de compañía, como por ejemplo, la

esterilización, para evitar camadas indeseadas, que son la principal causa de los abandonos;

la identificación con microchip, para que los animales perdidos puedan ser fácilmente

identificados y devueltos a sus dueños; y por último la adopción, ayudando a disminuir el

número de estos animales en los refugios, informándonos siempre previamente de las

ventajas, obligaciones y repercusiones que trae a nuestra vida hacerlo.

49

5.2 Storyboards

Fig. 35 Storyboard parte 1

Fuente: elaboración propia

50

Fig. 36 Storyboard parte 2

Fuente: elaboración propia

51

Fig. 37 Storyboard parte 3

Fuente: elaboración propia

52

5.3 Bocetos

Fig. 38 Boceto de varios posibles perros

Fuente: elaboración propia

Fig. 39 Boceto para el modelado de las orejas del perro

Fuente: elaboración propia

53

Fig. 40 Boceto del perro

Fuente: elaboración propia

Fig. 41 Boceto de la cabeza de la niña

Fuente: elaboración propia

Fig. 42 Boceto de las zapatillas de la niña

Fuente: elaboración propia

54

Fig. 43 Boceto de las proporciones de la cara y geometría de la mano

Fuente: elaboración propia

Fig. 44 Boceto de la decoración del salón

Fuente: elaboración propia

55

Fig. 45 Boceto para la habitación de la niña

Fuente: elaboración propia

Fig. 46 Boceto de la distribución del parque y geometría del coche

Fuente: elaboración propia

56

Fig. 47 Bocetos de casas

Fuente: elaboración propia

57

5.4 Guion

ESCENA 1 - SALÓN:

Una niña recibe una caja con un perrito pequeño contento.

Vista del salón general con la niña en el sofá leyendo.

- Cámara 1: Zoom por el salón hasta llegar a la niña en

el sofá.

- Cámara 2: Gritan desde fuera del salón, se abre la

puerta y entran. Plano entero.

- “¡Tenemos una sorpresa para ti!”.

- Cámara 3: Los padres llegan al salón con una caja.

Plano picado.

- Cámara 4: Se ve al perro moviendo la cola en la caja.

Plano medio picado.

- Cámara 5: Niña feliz de recibir la sorpresa.

ESCENA 2 – PASEO POR LA CALLE:

La niña lo saca a pasear por la calle muy contentos.

- Cámara 1: Pasean por el vecindario la niña y el perro

contentos.

Plano general.

ESCENA 3 – JUGANDO EN EL PARQUE:

La niña y el perro comparten momentos jugando juntos en

el parque.

58

- Cámara 1: Plano general del parque donde se ven que

están la niña y el perro.

Plano general con movimiento y zoom a la niña y el

perro.

- Cámara 2: Perro agachado moviéndose con ganas de jugar

enfrente de la niña.

Plano entero.

- Cámara 3: Niña lanza pelota al perro que va corriendo

a por ella.

Plano entero.

ESCENA 4 – HABITACIÓN DE LA NIÑA:

Un día que la niña está triste, el perro también está con

ella para intentar animarla y darle cariño.

- Cámara 1: la niña llega hasta el final de la

habitación y se sienta en el suelo.

Plano general.

- Cámara 2: La niña está triste sentada y el perro se

acerca a ella intentando animarla moviéndole el brazo.

Plano medio corto de la niña.

ESCENA 5 – CASA EN VENTA:

De repente un día cuando llega a su casa encuentra un

cartel en el césped donde pone que se vende la casa.

- Cámara 1: La niña va paseando por el vecindario y

llega a su casa donde hay un cartel plantado.

Plano general.

- Cámara 2: Cara de sorpresa de la niña.

59

Primerísimo primer plano.

- Cámara 3: Plano del cartel que se vende la casa desde

la vista de la niña.

Plano medio corto.

- Cámara 4: La niña abre la puerta de su casa.

Plano entero.

ESCENA 6 – CHARLA EN EL SALÓN:

Al entrar en la casa los padres tristes le tienen que

explicar la situación.

- Cámara 1: Dentro de casa se acerca al salón donde la

esperan sus padres preocupados en la mesa para hablar

con ella.

Plano en movimiento hasta la puerta del salón.

- Cámara 2: Los 3 están sentados en la mesa y los

padres le dan la mala noticia de la mudanza.

Plano medio largo.

- “Vamos a mudarnos a un sitio nuevo, donde tendremos

menos espacio por lo que tendremos que deshacernos de

algunas cosas…”

- Cámara 3: La niña se pone más triste.

Plano medio corto.

ESCENA 7 – COCHE DEJA AL PERRO:

Abandonan al perro en un sitio alejado al lado de la

carretera.

60

- Cámara 1: Aparece el coche por la carretera de un

sitio poco habitado, para, deja al perro y se va.

Anocheciendo.

Plano general.

- Cámara 2: El perro va andando por al lado de la

carretera triste.

Plano medio corto.

- Cámara 3: Perro tumbado cansado al lado de la

carretera, viendo los coches pasar sin parar. Llueve.

Plano medio largo.

- Se oscurece la imagen y efecto plano roto.

ESCENA 8 – ABRAZO AL PERRO:

Se rompe la escena del abandono en el pensamiento de la

niña y vuelve a la realidad, ella nunca le haría eso y se lo

dice al perro abrazándole.

- “¡No! Yo nunca te haré eso, siempre cuidaré de ti como

tú.

- Cámara 1: La niña le da un abrazo a su perro.

Plano con zoom entero-medio.

ESCENA 9 – CASA VENDIDA SE MARCHAN:

La casa se ha vendido y se marchan, deshaciéndose de

algunos juguetes pero no del perro.

- Cámara 1: Plano de la casa desde fuera y zoom al

cartel de que ha sido vendida.

Plano general con zoom en el cartel.

61

- Cámara 2: El coche se marcha y se queda la caja con

las cosas de las que se ha deshecho la niña (juguetes)

al lado del cubo de basura.

Plano general con zoom a la caja de juguetes.

5.5 Modelado 3D

Una vez terminada la fase de preproducción, empezamos el desarrollo del corto con el

modelado 3D, pasando las ideas plasmadas en papel a 3D mediante el software Autodesk

Maya 2018.

En primer lugar, empecé realizando la figura del perro, ya que nunca había modelado

un animal y era la parte que más incertidumbre y desafío me provocaba, ya que era muy

importante en la historia también.

Durante todo el modelado realizado, se ha seguido la técnica box modeling, que

consiste en modelar a partir de una primitiva, en mi caso normalmente ha sido un cubo. A

partir del cubo o la primitiva elegida, se empiezan a extruir caras, mover vértices, aristas…,

en resumen, realizar operaciones para modificar la forma de la primitiva y conseguir el

objeto deseado. Una vez se tiene una buena aproximación, se le puede añadir a la malla un

nivel de subdivisión, con smooth, para conseguir un modelo más suavizado.

Para la realización del perro, coloqué un plano de referencia en el fondo con una

imagen para basarme y no desviarme mucho del objetivo deseado. A partir de un cubo fui

realizando operaciones como he comentado antes, creando poco a poco la forma de su

cuerpo. A la hora de realizar estas modificaciones, solo las realicé en una mitad del cuerpo

e iba haciendo mirror de esa mitad para completar el perro. En las siguientes imágenes se

puede ver el proceso de creación del perro. Al principio creándose a partir de extrusiones y

modificaciones de las caras, modificando solo una mitad de la geometría para luego hacer

mirror en la otra parte, consiguiendo simetría en el personaje, en este ejemplo (Fig. 48) se

puede ver que las patas se han modelado solo en una parte, la otra mitad a continuación, se

62

eliminará y se hará mirror de la que tiene las patas. En la siguiente (Fig. 40), se pueden ver

ya modeladas las orejas y la cola a partir de extrusiones y modificación de las caras y

vértices, sobre todo en el caso de las orejas. En la fig. 50, se realiza la parte de los ojos, y

se marca la posición de la boca modificando las aristas de la mandíbula y, por último, se le

aplica el suavizado al modelo y se le añaden unas cejas.

Fig. 48 Proceso de modelado del perro

Fuente de la imagen trasera: https://www.pinterest.es/pin/596023331907631576/visual-

search/?x=16&y=16&w=530&h=530

Fig. 49 Proceso de modelado del perro orejas-cola

Fuente: Elaboración propia

63

Fig. 50 Proceso de modelado del perro ojos-boca

Fuente: elaboración propia

Fig. 51 Proceso de modelado del perro suavizado

Fuente: Elaboración propia

Después de modelar el perro, empecé con la niña, el siguiente personaje más

importante de la historia.

64

En este caso empecé modelando la cabeza a partir de un cubo. Al cubo le fui

añadiendo más aristas para crear vértices y poder ir dándole forma, teniendo de fondo dos

imágenes de referencia, aunque eran imágenes de distintos modelos me fueron útiles para

ir cogiendo distintas referencias ya que mi objetivo no era modelar ninguna las imágenes

que había en los planos. Durante la realización de la forma de la cabeza, igual que hice con

el perro, fui aplicando mirror conforme iba realizando las modificaciones, haciendo las

operaciones solo en la mitad de la cara, ahorrando tiempo y consiguiendo simetría.

Fig. 52 Primer modelado de la cara sin suavizar

Fuente de las imágenes utilizadas: https://www.pinterest.es/pin/437764026265458258/

https://www.pinterest.es/pin/36169603236137061/?lp=true

En la fig.52, para conseguir moldear el contorno de los ojos y darle forma a los labios,

he jugado con la distancia entre las aristas creadas, sobre todo en los labios, para que la

malla no quede suavizada desde los mofletes hasta la boca, y conseguir que los labios

sobresalgan teniendo su contorno. Para que no se quedase un hueco entre la parte de arriba

y de abajo de los labios, cogí la arista que contorneaba ese borde y la extruí hacía dentro de

la boca para crear un paladar y garganta en lugar de cortar ahí la malla. En el caso de los

ojos he jugado más que con la distancia con la posición de las aristas, metiéndolas hacia

dentro de la cabeza para conseguir el primer acercamiento a los párpados. Finalmente, para

65

darle volumen a los mofletes, he usado soft selection, poniendo la selección de los vértices

y pulsando la tecla “b” cambiamos a este modo, y de esta forma, además de modificar el

vértice que seleccionas, se modifican también un radio determinado de vértices alrededor.

Así queda la primera parte de la cabeza con la previsualización del suavizado (tecla 3).

Fig. 53 Primer modelado de la cara suavizado

Fuente: elaboración propia

Fig. 54 Detalle de la forma del paladar y la boca

Fuente: elaboración propia

66

A continuación, seguí modelando los ojos, los cuales en lugar de una esfera, hice la

parte del iris hacia dentro de la esfera del ojo, para más tarde aplicarle una textura realizada

en maya y conseguir una mayor profundidad y realismo. También le añadí las cejas en

mallas separadas de la cabeza, y por último el pelo. Para el modelado del pelo, primero

seleccioné caras de la cabeza por donde más o menos iría la forma del pelo, dupliqué éstas

caras y las extruí para darle volumen, y por último utilicé algunos pinceles de esculpir

como sculp tool, smooth tool, grab tool, foamy tool, y bulge tool para darle más volumen

por algunas partes. La función de cada pincel es la siguiente:

Sculp tool: Construye formas iniciales y mueve vértices en una dirección

determinada por el promedio de todas las normales dentro del límite del

cursor de la herramienta.

Smooth tool: Nivela las posiciones de los vértices en relación entre sí

promediando las posiciones de los vértices, realizando un suavizado de la

malla.

Grab tool: Selecciona y mueve los vértices en función de la distancia y la

dirección que arrastras. Útil para hacer ajustes sutiles a la forma del modelo.

Foamy tool: Similar a la herramienta sculpt pero con una sensación más

suave. Útil para diseñar formas iniciales, no para trabajos detallados.

Bulge tool: Desplaza la región debajo de la herramienta moviendo cada

vértice afectado por su propia normal para crear un efecto de abombamiento.

67

Fig. 55 Modelado de la cabeza wireframe con suavizado

Fuente: elaboración propia

68

Fig. 56 Modelado de la cabeza suavizado

Fuente: elaboración propia

Fig. 57 Detalle modelado de ojos, párpados y boca

Fuente: elaboración propia

Una vez realizada la cabeza seguí modelando el cuerpo. En este personaje fui

haciendo cada parte del cuerpo en mallas distintas (torso, brazos, pantalones y zapatillas),

ya que quería aprovechar este corto para investigar y aprender las diferencias de hacerlo en

una malla todo o separado, a los padres más tarde, les modelé todas las partes en una malla

contigua, excepto los ojos y el pelo.

Para el modelado del resto del cuerpo seguí usando las técnicas que he comentado,

box modeling, modificación de los componentes (vértices, aristas y caras) y aplicando

mirror. En la parte del final de las mangas de la camiseta, final de los pantalones y final de

la parte de debajo de la camiseta, se ha realizado la misma técnica: la arista de toda la

geometría (manga, parte del pantalón o camiseta) se ha trasladado hacia el fondo para

simular que cada geometría va por separado. Es decir, en el caso de las mangas, al llegar al

final de la manga, se ha escalado su tamaño a uno un poco más pequeño para conseguir el

grosor de la manga, y a continuación, la siguiente arista se ha trasladado hacia el hombro

por dentro de la manga, juntándose allí con el brazo, pero simulando que la geometría de la

camiseta va por encima del cuerpo y brazo de la niña.

69

Fig. 58 Modelado del torso de la niña

Fuente: elaboración propia

Fig. 59 Modelado pantalón de la niña

Fuente: elaboración propia

70

Fig. 60 Modelado de las zapatillas de la niña

Fuente: elaboración propia

En el caso de las manos, se hicieron por separado y luego se unieron a la malla del

brazo mediante merge de los vértices, cada dedo es una extrusión de una cara del

rectángulo base creado y para las uñas, he utilizado una técnica parecida a la de los

párpados, creando extrusiones de las caras donde las aristas de una y de otra queden muy

juntas para resaltar esa área al realizar el suavizado.

Fig. 61 Modelado de la mano con wireframe

Fuente: elaboración propia

71

Fig. 62 Modelado de la mano

Fuente: elaboración propia

Una vez terminado todo este proceso, ya tenemos terminado el modelado del

personaje de la niña.

Fig. 63 Modelado final de la niña

Fuente: elaboración propia

72

Después de realizar a la niña, modelé a los padres, los cuales fueron unos personajes

más proporcionales, sin el tamaño de la cabeza tan exagerado como el de la niña, ya que en

los adultos no se suele dar esta proporción. Estos personajes como ya he dicho, lo creé

modificando la misma malla todo el tiempo. Para realizarlo sin problemas y de una manera

más cómoda, empecé modelando la cabeza, ya que es donde más modificaciones voy

realizando poco a poco para conseguir la forma deseada y por ello, más veces utilizo la

herramienta mirror, borrando continuamente la mitad del modelo y actualizándolo con

simetría. El proceso de creación seguido fue el mismo que el de la niña, extrusiones y

modificaciones de la malla hasta conseguir la forma deseada. Los ojos y el pelo se

realizaron de forma separada, ya que en el pelo utilicé algunos pinceles de esculpir para

darle más volumen al igual que con la niña. En el caso de los ojos, se realizaron a parte

para más tarde poder rotarlos en su posición, independientes de los vértices de la malla

cercana.

Tanto en el modelado de la madre como en el del padre se ha intentado seguir el

estilo cartoon. En el padre podemos encontrar rasgos más exagerados como por ejemplo su

postura corporal con la pelvis más hacia delante, extremidades alargadas y finas, así como

también su nariz.

Fig. 64 Modelado de la madre

Fuente: elaboración propia

73

Fig. 65 Modelado del padre

Fuente: elaboración propia

Para el modelado de las escenas y todos sus componentes se han seguido utilizando

las mismas técnicas mencionadas anteriormente, excepto para los cojines de la escena del

salón y las almohadas de la habitación. Para éstos he utilizado la técnica nCloth del menú

FX de Maya, consiguiendo un aspecto y comportamiento más real de forma más rápida

que si se realizara simplemente mediante las operaciones básicas que hemos ido haciendo.

Para conseguir el efecto de almohada/cojín, hemos partido de un cubo con muy poca altura

en el eje Y, y más extensión en el eje Z y X, tomando aspecto similar al de un plano. A esta

malla le aplicamos nCloth, apareciendo en el outliner un núcleo, nCloth y la malla. Una

vez creados, desde el panel Attribute Editor, modificamos los valores de presión a la malla

y de gravedad al núcleo, creándose una animación donde el plano se hincha con el efecto

de una almohada. A continuación, visualizamos la animación, elegimos el frame donde nos

gusta más la forma y borramos el historial, teniendo un objeto estático. Por último, algunos

cojines los he modificado con soft selection, para simular que estaban más chafados por

unas partes que por otras, para cuando apoya la cabeza la niña.

74

Fig. 66 Modelado de cojines con nCloth

Fuente: elaboración propia

Finalmente añadir, que he utilizado también la herramienta MASH de Maya, para

distribuir los árboles por el terreno variable del parque y para crear césped en el vecindario

y en el parque también. Con esta herramienta, consigo tener la geometría de un árbol en el

outliner, mientras que en la escena tengo muchas instancias de ese árbol, pudiendo hacer

de manera fácil y rápida que se distribuyan por la malla indicada como, por ejemplo, el

terreno del parque. Para distribuir tanto los árboles como algunos trozos de césped por el

parque, he seleccionado la malla elegida (árboles), he creado un MASH desde el panel de

FX de Maya y desde el panel de la herramienta le he añadido un “Add placer”. Este nodo

seleccionado nos proporciona unos pinceles para poder pintar sobre la malla especificada

(terreno) e ir añadiendo la geometría como instancias pegadas a esa malla, pudiendo

configurar algunos valores de aleatoriedad a la hora de distribuirse, girarse y el número de

instancias “por pincelada”. Por otro lado, para el césped del vecindario, la dinámica

cambia, ya que se elige una malla y directamente se distribuye el número indicado de

instancias por toda ella. Para realizarlo de este modo, al crear el MASH, desde el panel

Attribute editor, solo hay que seleccionar la distribución, de tipo Mesh, y se distribuyen el

75

número de instancias definidas por toda ella, pudiendo modificar algunos valores también

como la anterior.

Fig. 67 Modelado de los árboles por el terreno irregular

Fuente: elaboración propia

76

5.6 Texturizado

El proceso de texturizado consiste en darle color a nuestros modelos usando

materiales o texturas. Es muy importante asegurarse de que cada modelo que vayamos a

texturizar tenga el historial borrado (Non-Deformer History) para evitar problemas futuros

a la hora de animar.

En primer lugar, antes de aplicarle cualquier textura a nuestro modelo, hay que

realizar el correspondiente uv mapping, dividiendo el objeto en partes y creando mapas 2D

de las partes para después aplicarle la textura a los mapas, visualizándose en el modelo 3D.

Con esto, evitamos que las texturas se apliquen de forma “aleatoria” deformándose en

algunas partes de nuestro modelo y, por el contrario, tenemos el control de cómo se aplica

la textura en cada parte del modelo.

Para realizar los uv maps de los modelos, se ha utilizado o bien las opciones de crear

UV propias de Maya, o bien la herramienta de Autodesk, Bonus Tools. Esta herramienta

nos permite elegir las aristas por donde queremos cortar nuestros mapas y realizar así, el

mapeado deseado que se adapte mejor a la forma de nuestro objeto y a las texturas que

vamos a aplicar.

77

Fig. 68 Imagen de los recortes del UV Map marcado en la malla y en el editor

Fuente: elaboración propia

En cuanto a los materiales utilizados, han sido materiales de Maya (Lambert) y

propios de Arnold (aiStandardSurface) y, en cuanto a las texturas, las he creado desde

Photoshop o desde Mudbox. En Photoshop, he importado una imagen del uv map creado, y

he pintado sobre él en 2D, y en Mudbox, he mandado el objeto 3D desde Maya ya que

están vinculados desde los menús del programa, y he ido pintando el objeto 3D, guardando

luego la textura resultante.

78

Fig. 69 Texturizado del pelo de la niña en Mudbox

Fuente: elaboración propia

Mudbox te permite varias modalidades de texturizado como pintar un color plano

sobre el modelo, o pintar una textura sobre él. Para este proyecto se ha utilizado la mayoría

de veces los pinceles con colores planos para crear la textura deseada. Para evitar pintar

uv’s no deseados, por ejemplo, cuando estamos pintando los labios y no queremos que se

mezcle con el uv contiguo que es el resto de la cara, Mudbox tiene la opción de seleccionar

por uv’s y de aislar la selección, por tanto, un proceso muy útil durante el texturizado en

Mudbox ha sido seleccionar la parte uv deseada, aislarla, pintarla y volver al resto de uv’s.

De esta manera al pintar, solo pintas el uv de interés.

79

Fig. 70 Técnica de selección y aislado de parte del uv para texturizar, en Mudbox

Fuente: elaboración propia

Una vez realizadas las texturas deseadas en Photoshop o Mudbox, las podemos

aplicar tanto a los materiales que son Lambert como a los aiStandardSurface. El material

Lambert lo he utilizado para los objetos mates y el aiStandardSurface, para objetos con

brillo o materiales que he querido personalizar modificando la cantidad de brillo especular,

su valor de rugosidad difusa o especular, añadiéndole un mapa de normales, o para hacer

algún material un poco más especial como la piel de los personajes, para la que he usado el

apartado Subsurface.

A continuación, veamos los detalles por partes. En primer lugar, para añadir una

textura a cualquier tipo de material, debemos abrir el panel Hyperhsade, donde se

encuentran todos los materiales utilizados en la escena, seleccionar el material elegido, y

en la parte de Color donde hay un cuadrado de cuadrados blancos y negros, seleccionar la

opción File y añadir la ruta de nuestro archivo, la textura deseada.

80

Fig. 71 Asignación de una textura en un material Lambert

Fuente: elaboración propia

En cuanto al material aiStantdardSurface, cuenta con muchos más parámetros

personalizables. Para la textura utilizada en el suelo de la casa, por ejemplo, donde se

quería muy poco brillo, se modificó la rugosidad especular, aumentándola para reducir el

brillo liso que se crea por defecto en los objetos. Además, desde el panel de materiales, en

la sección Geometry > Bump Mapping, se le añadió un mapa de normales, de la misma

forma que se le añade una textura al material, para dar detalle de volumen a la textura,

indicándole a la luz cómo reflejarse sobre el modelo creando relieves falsos. El mapa de

normales, lo creamos en Photoshop, a partir de la textura original. Es un mapa formado por

3 colores que representan cada uno de los ejes del espacio 3D: rojo para la X, verde para la

Y, azul para la Z. Dándonos información de cómo rebota la luz en 3D, obteniendo así más

detalle sin modificar el modelado.

Fig. 72 Comparación entre el material aiStandardSurface por defecto y el modificado para el suelo

Fuente: elaboración propia

81

Fig. 73 Render de materiales sin mapas de normales

Fuente: elaboración propia

Fig. 74 Render de materiales con mapas de normales (sillas, mesa y suelo)

Fuente: elaboración propia

82

Fig. 75 Ejemplo de mapa de normales de una textura

Fuente: elaboración propia

En cuanto al material aplicado a la piel de los personajes, hice uso de la sección

Subsurface del material creado en el Hypershade. Este efecto simula el efecto de la luz que

entra a un objeto y se dispersa debajo de su superficie, teniendo un efecto más realista en el

material. En su configuración, el Color, se utiliza para determinar el efecto de dispersión

subsuperficial. En el caso de la niña, para añadirle las pecas en la cara, le puse en Color

una textura de color carne creada con pecas. Después, en Radius, se define la relación entre

el Color y el Radius elegido, cuánto más claro es el color de radius, más luz se dispersa.

Un valor de 0 no produciría ningún efecto de dispersión.

Fig. 76 Configuración de subsurface para la piel

Fuente: elaboración propia

83

Fig. 77 Render de la piel sin utilizar subsurface

Fuente: elaboración propia

Fig. 78 Render de la piel utilizando subsurface

Fuente: elaboración propia

Finalmente, para realizar el texturizado del iris de los ojos de la niña, se han

combinado nodos de Maya para conseguir el efecto deseado. En primer lugar, se ha creado

un material de tipo blinn. En el Hypershade, hemos creado un nodo de tipo Layered

Texture, el cual hemos vinculado al material blinn por el canal del color. A continuación,

84

en las propiedades del nodo Layered Texture, añadimos otro nodo, Ramp, creándose la

vinculación entre Ramp y Layered Texture también. Después, añadimos también otro de

tipo Noise, quedándose vinculado de la misma forma. Una vez creados los nodos, solo hay

que modificar las propiedades de cada uno para conseguir el efecto deseado. En este caso,

en el nodo Ramp hemos definido el color del degradado para el ojo, así como su nivel de

suavidad durante el degradado. Y en el nodo Noise, hemos modificado sus parámetros

Frecuency e Implode para conseguir el efecto de las rayas del iris. Por último, en Layered

Texture, hemos definido su parámetro Blend Mode, como Multiply, para que una los

efectos de los otros dos nodos creados y se complementen.

Fig. 79 Relación entre los nodos de materiales creados para los ojos de la niña

Fuente: elaboración propia

Ese sería el proceso de texturizado del iris, pero para lograr un acabado más real y

darle la profundidad deseada al realizar el modelado correspondiente del ojo, añadimos una

esfera que envuelva a la del ojo, asignándole el material de tipo aiStandardSurface,

modificando sus parámetros para que sea transparente y con brillo especular. Para ello, es

necesario ir a la sección Transmission en el panel del material creado, y subirle el valor de

Weight para hacerlo transparente, y desactivar el nodo Opaque desde la geometría

seleccionada que queremos que sea transparente, que por defecto viene activada y hace que

se renderice un color opaco en lugar de transparente.

85

Fig. 80 Render del texturizado de los ojos de la niña

Fuente: elaboración propia

Fig. 81 Comparación entre ojos con la esfera transparente alrededor y sin ella

Fuente: elaboración propia

86

Para el texturizado del perro, después de hacer sus correspondientes mapas UV, fui

pintando su textura desde Mudbox y aplicando imágenes de textura para los ojos. Algunas

partes de la textura de Mudbox fue necesario retocarla en Photoshop.

Fig. 82 Texturizado del perro

Fuente: elaboración propia

Durante la realización de esta fase, también se han utilizado webs de bancos de

imágenes, que ofrecen muchos tipos de texturas de dominio público, como por ejemplo:

https://pixabay.com, https://forums.unrealengine.com/community/community-content-

tools-and-tutorials/104109-free-high-quality-textures-by-cyaphas o

https://www.textures.com.

5.7 Rigging

El rigging es el proceso de crear un sistema de controles digitales y agregárselos a un

modelo 3D para que así pueda ser animado fácilmente y eficientemente. Esta fase es un

paso crucial dentro del proceso de la creación de una animación 3D. A continuación,

vamos a ver los detalles y pasos del rigging de los personajes. Para este proyecto he

87

utilizado dos rigs creados por mí, para la niña y el perro, y otros dos rigs creados

automáticamente por Maya para los padres, ya que decidí ahorrar tiempo en esta parte

porque iban a salir menos tiempo en el cortometraje y tendrían movimientos sencillos.

El primer paso que hay que realizar es la creación del esqueleto del personaje. Al

igual que en la parte del modelado, empecé con el personaje del perro.

Para la creación de los huesos he usado Create joints y he ido creando hueso a hueso

en la posición deseada. Es muy importante que la orientación de una cadena de huesos sea

siempre la misma de padres a hijos, y para ello he usado la opción Local Rotation Axes,

para mostrar la orientación de cada hueso y seguir la cadena correctamente. Además, en el

menú superior de Maya, Skeleton>Orient joints, se pueden hacer algunas modificaciones

sobre la orientación de un hueso. También es importante no rotar ni escalar ningún hueso

durante su creación, y en caso de hacer alguna modificación, realizar freeze transformation

al acabar, lo que reseteará los valores de los parámetros del hueso, conservando las

modificaciones, pero no sus valores en el panel.

Empiezo creando el esqueleto desde la cadera hacia el cuello y hacia la cola; del

cuello irá a los huesos de la cabeza (ojos, morro, boca y orejas); por otro lado, realizo las

patas de la parte izquierda para después hacer mirror y unirlas a la columna mediante la

letra P (parent).

88

Fig. 83 Esqueleto del perro con los ejes de orientación de la columna visible

Fuente: elaboración propia

Una vez he creado todos los huesos del esqueleto, pasamos a crear los controles,

necesarios para facilitar los movimientos y la tarea de la animación. A la hora de realizar

los controles, hay que pensar en la mayor posibilidad de movimientos del personaje, y

procurar tener acceso a todos ellos, aunque después no se realicen todos los movimientos,

pero tener la posibilidad por si se quiere.

A la hora de crear los controles, pueden ser de dos tipos: FK (forward kinematic)

cinemática directa, o IK (invers kinematic) cinemática inversa. En la cinemática directa, el

personaje se manipula principalmente en función de la rotación de las articulaciones, y esa

rotación conjunta depende de la disposición de la jerarquía para su comportamiento.

Cuando modificas la rotación de un controlador FK, se modificará también la posición del

resto de la jerarquía de niveles inferiores a ese controlador. Sin embargo, la cinemática

indirecta, funciona como si el personaje tuviese hilos como las marionetas en esos

controladores, moviendo esos controladores se modificará el resto de la cadena, sin ser

necesario que estén en niveles inferiores en la jerarquía. Los padres reciben la rotación

según la posición del hijo. Es decir, si modificas el controlador de la muñeca siendo

89

cinemática indirecta, se moverá también el codo y la rotación del hombro adaptándose,

como sucede en las marionetas. Mientras que, si movemos la muñeca con cinemática

directa, no afectará al codo o al hombro, ya que están en niveles superiores de la jerarquía.

Los primeros controladores que he ido creando han sido los de cinemática directa

(FK). Primero he creado la forma del controlador, mediante NURBS y lo he metido dentro

de un grupo en el outliner. A continuación, lo tengo que poner en la posición del hueso que

quiero que controle, con su misma orientación. Para ello, selecciono el grupo, después el

hueso donde queremos colocar el controlador, y lo emparentamos en la jerarquía pulsando

P, quedándose el controlador como hijo del hueso seleccionado. Ahora borro los valores

que tiene el grupo, consiguiendo que se mueva a la posición del hueso con su orientación.

A continuación, se desemparenta el grupo del hueso, y así tenemos el grupo, con los

valores de posición y orientación del hueso, y la curva primitiva que está dentro del grupo,

no tiene ningún valor, lo que será muy importante que sea así para la posterior animación.

Una vez tenemos el controlador en la posición correcta con los correspondientes valores, se

vincula el controlador al hueso, mediante Constrain > Parent, marcando la opción

maintain offset para conservar la distancia entre el punto de pivote del controlador y el

punto de pivote del hueso. Ahora, al mover el controlador se moverá también el hueso al

que lo hemos vinculado y el resto de jerarquía.

Por otro lado, para los controladores de los huesos de las orejas y la cola, probé a usar

un script para agilizar la tarea. Para ello, simplemente selecciono los huesos a los que les

quiero añadir un controlador, arrastramos el script a Maya, apareciendo una ventana de

control para definir el color y el tamaño de los controladores. Cargamos la selección de los

huesos en el script pulsando Reload Selectio y después, Create Control, creándose

automáticamente los controladores. También se puede ver que los controles se han

organizado de modo coherente en la jerarquía de los controles respecto a la jerarquía de las

uniones, muy importante también.

90

Fig. 84 Ventana del script para crear controladores

Fuente: elaboración propia

Fig. 85 Resultado de los controladores con el script

Fuente: elaboración propia

Fig. 86 Organización de la jerarquía de los controladores del script (offsets creados automáticamente)

Fuente: elaboración propia

91

Fig. 87 Organización de la jerarquía de mi rig

Fuente: elaboración propia

Después de crear todos los FK necesarios para tener un buen acceso a la movilidad de

nuestro personaje, seguimos con los IK, los cuales los aplicamos en las patas. Primero,

desde el menú Skeleton accedemos a las propiedades de Create IK Handle, seleccionamos

Rotate-Plain Solver, que permite ajustar el valor de torsión de las articulaciones que estén

siendo controladas por un controlador. Creamos un IK Handle desde la cadera/hombro

hasta el tobillo. Después, para estabilizar las pezuñas y tener más control en su rotación,

creamos dos IK más, pero de tipo Single-Chain Solver, porque no necesitamos control

sobre el valor de torsión. Creamos uno desde el tobillo hasta el penúltimo hueso del pie, y

el segundo IK desde el penúltimo hueso del pie hasta la punta.

92

Fig. 88 Configuración herramienta IK Handle

Fuente: elaboración propia

Además, añadimos unos controladores más en la parte del codo, en las cuatro patas,

para poder modificar la orientación de torsión del IK de la pata. Estos controladores en

lugar de realizarse mediante IK, se hacen mediante Constrain > Pole Vector. De esta

manera, la orientación de torsión del IK seguirá al controlador que hemos creado. Los IK

los añadimos a nuestra jerarquía haciéndolos hijos del controlador creado, el del pie. El

pole vector lo emparentamos también como hijo del controlador, ya que su orientación

suele ir unida a la del pie.

Para conseguir una mayor flexibilidad a lo largo de la columna del perro, se ha

utilizado la herramienta IK Spline Tool, creando un IK Handle desde el primer al último

hueso de la columna vertebral, sin seleccionar el root (hueso raíz del esqueleto), creando

así una curva sobre la que se sitúan los huesos. Después creamos tres cluster deformer a lo

largo de la curva, dos en los extremos y uno en el centro. Emparento cada cluster con el

controlador circular que tenemos sobre el cuerpo, uno en cada extremo y otro en el centro

mediante Constrain > parent. Además, para ampliar la funcionalidad de la espalda

agregando comportamientos en el giro de los controladores, haciendo que los giros que se

realicen desde el controlador de la cadera, tengan efectos en la parte delantera, y viceversa.

Por ejemplo, si mueve mucho la cadera al andar (pero no hacia delante y atrás), que

también tenga efecto en la parte delantera. Para ello, dentro de IK spline solver, se activó

Advanced Twist setup, que nos permite localizar la rotación en cada extremo del spline,

asegurándonos de que todas las orientaciones de los huesos de la columna sean correctas.

De esta forma, se consigue que al rotar hacia los lados donde se encuentran las patas, los

93

otros controladores del cuerpo del perro se adapten girándose un poco también, ganando

flexibilidad.

Mediante la repetición de estos pasos, completamos el rig de nuestro personaje para

lograr todos los movimientos posibles.

Fig. 89 Rig del perro

Fuente: elaboración propia

Una vez realizada toda la parte del esqueleto y los controladores, se une el esqueleto a

la malla. Primero, se selecciona el esqueleto y la malla, en este orden, y se realiza bind

skin, uniendo el esqueleto a la piel del personaje. De esta forma, cuando se mueve un

hueso, también se mueve la malla.

Una vez unido el esqueleto y la malla, pasamos a la parte de skinning, conocida

como el pesado de las influencias de los huesos en la malla. En esta parte, se pinta o

modifica la influencia de cada hueso sobre la malla para conseguir que en las poses

deseadas del personaje no se creen deformidades en la malla. Para ello, mediante Paint

Skin Weights delimitaremos la influencia de cada hueso. Al seleccionar esta herramienta,

Maya nos muestra un panel donde aparecen todos los huesos del esqueleto, conforme

94

vamos seleccionando cada uno de ellos, nos aparece una parte de la malla pintada de

blanco, que representa la influencia del hueso seleccionado. La influencia la representa del

color blanco al negro, de más a menos influencia. El ratón pasa a ser un pincel, con el que

podemos ir pintando o borrando influencia sobre la malla a nuestro gusto. Un

procedimiento bastante utilizado, es realizar una breve animación del personaje, pose

original – pose deseada, para comprobar las influencias en ambas poses y asegurarse mejor

del comportamiento de la malla.

Fig. 90 Influencia de un hueso con Paint Skin Weights

Fuente: elaboración propia

Una vez finalizado el rigging y skinning del perro, realicé los mismos procedimientos

para construir el rigging de la niña. Creando controladores FK y IK para las extremidades.

En el caso de la niña, le añadí también un rigging facial, para controlar mejor las

expresiones a la hora de animar.

Para la realización del rig facial, empecé realizando dos controladores FK para el

cuello y la cabeza, mediante parent constraint. El controlador de la cabeza, unido al hueso

correspondiente, afecta moviendo la malla con la que hemos realizado previamente el bind

95

skin con ese hueso. Por ello, con el controlador movemos la cabeza, pero no los ojos, cejas

y pelo, que son geometrías distintas. Para ello, seleccionamos estas mallas, seleccionamos

el hueso al que está vinculado el controlador, y volvemos a realizar bind skin con estos

elementos.

A continuación, creo las expresiones faciales mediante blend shapes, con la

herramienta Shape Editor. Antes de empezar a realizarlas, hay que tener en cuenta que

todas las expresiones deben seguir la lógica del movimiento natural, adaptándose a la

geometría de la malla y teniendo en cuenta las influencias de los vértices contiguos a la

zona que queremos modificar para crear la expresión. Para empezar, abrimos el panel de

Shape Editor, le damos a Create Blend Shape y creamos un target. Cada target es una

parte de una expresión, y la blend shape la nombro como la parte que se modifica (boca,

ojos…). Al crear un target automáticamente se activa el botón de la derecha, Edit, en color

rojo, queriendo decir que podemos ir haciendo modificaciones en la malla con los pinceles

de esculpir, y esas modificaciones serán guardadas en el target. Mediante los pinceles de

esculpir vamos creando la deformación para la expresión deseada poco a poco, activando

la opción de simetría en el pincel. De esta forma, deformamos solo en un lado de la

geometría, consiguiendo una expresión simétrica. Vamos creando las blend shapes, por

partes: boca, cejas y ojos por separado, en lugar de usar una blend shape para la expresión

de alegría y modificar el rostro entero, por ejemplo. Haciéndolo por partes, nos permite

poder combinar unas y otras. Los sliders que aparecen al lado de los targets, sirven para

activar los targets y darles valor. También podemos crear shapes correctivos, son los que

se lanzan automáticamente cuando activamos dos o más blend shapes, lanza este shape

adicional que corrige la combinación de los blend shapes utilizados. Por ejemplo, si

tenemos un target que mueve las comisuras de la boca hacia fuera, y otro hacia arriba,

podemos crear un correctivo que cuándo se utilicen esas dos blend shapes se añadan más

pómulos en el rostro. Para ello, utilizamos Add combination target, los cuales no muestran

un slider al lado, ya que se activan solos, pero sí tienen el botón de Edit para definir la

corrección que queremos, en este posible caso, que aparezcan más pómulos.

96

Fig. 91 Creación de blend shapes desde Shape Editor

Fuente: elaboración propia

Una vez hemos creado la blend shape de la boca por ejemplo, con los targets

correspondientes, duplico la blend shape, para definir una para el lado izquierdo y otra para

el lado derecho, teniendo más libertad para animar, que pueda sonreír más por el lado

izquierdo que por el derecho por ejemplo. Renombro cada blend shape indicando el lado al

que va a afectar, y a continuación borro la influencia de cada target en el lado que no debe

tener influencia, para que solo afecte al correspondiente. Para eso, utilizo la herramienta

PaintTargetWeights.

97

Fig. 92 Influencias de los targets de la blend shape

Fuente: elaboración propia

A continuación, para que no se quede toda la influencia en el loop de vértices central

de la cara, cambio la influencia del loop central al 50%, selecciono los loops siguientes

añadiéndoles un poco más de intensidad al mismo tiempo que se la quito en el target del

lado contrario. Por ejemplo, para el lado izquierdo seleccionado en la figura anterior,

seleccionaría el siguiente loop después del central, y le pongo una influencia del 25%, y al

siguiente del 10%. Mientras que en el target correspondiente al lado contrario, al

izquierdo, el loop al 25% tendría un valor del 75%, y en el siguiente, un 90% para

compensar la influencia, y así sucesivamente. Con esto, consigo suavizar la transición de

un lado a otro del rostro, para que en el centro no haya un cambio brusco y que la suma de

la expresión izquierda más derecha, tenga como resultado la expresión que he modelado al

principio con la simetría adecuada.

Para las cejas, como están separadas de la malla, en lugar de blend shapes voy a usar

los deformadores Wire y Cluster. Con wire hago que la curva que pasa por el centro de la

ceja sirva para deformarla y creo un cluster por cada punto de control de la curva, para

poder alterar la apariencia fácilmente. Primero creo una curva mediante la primitiva curve

98

tool, con cinco puntos de control, la coloco en el centro de la ceja y le aplico el deformador

wire. Así, si modificamos la posición de algún punto de esta curva, se modifica la

geometría como si hubiera utilizado bind skin. Ahora creo los clusters para poder tener una

posición origen, poder acceder a ellos rápidamente para modificar la ceja y poder volver

fácilmente a la posición de origen. Para cada vértice de la curva creo un cluster. Una vez

creados los puntos de deformación, creo los controladores de la cara.

Para la boca, creo dos controladores para el lado izquierdo y otros dos para el derecho

con una limitación de movimiento. Ya que no van ligados a ningún hueso, he limitado la

traslación de los controladores para tener mayor control sobre ellos y no perderlos por la

escena. También he utilizado un color distinto para los controladores según el lado que

controlan, azul para el lado izquierdo y rojo para el derecho. Después he creado unos

controladores también para las cejas, para los ojos y para los párpados. Los controladores

de las cejas se han unido al rig de deformación utilizando parent constraint otra vez, para

los ojos se ha utilizado aim constraint, para que al mover los controladores no se traslade

la geometría sino solo la orientación, y para la boca y los párpados, puesto que controlan

blend shapes, he utilizado el panel SDK (Set driven keys).

El panel SDK, se utiliza para asignar posiciones del controlador con shapes creadas.

Por ejemplo, si el controlador de la boca está hacia arriba, decirle que lance el shape de la

sonrisa. En la parte de arriba del panel SDK, se carga el controlador y en la parte de abajo

cargamos nuestra blend shape creada, con sus correspondientes targets a la derecha.

99

Fig. 93 Panel SDK para los controladores de las blend shapes

Fuente: elaboración propia

Para realizar la unión entre el controlador y los targets, hay que crear estados. El

primer estado es la pose inicial, cuando los targets no están activados, y el segundo estado

es cuando el controlador está en su posición más alejada, donde se tiene que activar el

target con máxima influencia. Al seleccionar los atributos correspondientes de la parte

derecha de los paneles, se activa el botón inferior Key, con el que marco los estados. Por

ejemplo, primero selecciono el controlador, en translate X, y en la parte inferior,

selecciono el target lip_corner_out_R, que es el movimiento que quiero controlar, le doy a

key, y marco el estado inicial. Después muevo el controlador, y marco el otro estado,

relacionando esa posición del controlador con ese target con máxima influencia de

representación. De esta forma, Maya interpola automáticamente el movimiento del

controlador desde la posición inicial hasta la posición extrema con el lanzamiento del

target. Mientras vas moviendo el controlador, se va activando el target. Se repiten estos

pasos para completar todos los controladores de las blend shapes.

100

Fig. 94 Relación entre la posición del controlador y la blend shape vinculada

Fuente: elaboración propia

Por otro lado, en cuanto a los personajes de los padres, se ha utilizado la herramienta

de rig rápido que viene en Maya como se comentó anteriormente. Mediante el panel de

quick rig, puedes realizar los pasos de uno en uno para modificar mejor el esqueleto que

creará. Primero se selecciona la malla que se va a utilizar, después se distribuyen unas

guías sobre el cuerpo donde se crearán los huesos, después se crean los huesos, se unen a la

malla y por último se crean los controladores con los IK Handles ya creados para las

extremidades. A pesar de parecer un proceso muy rápido y sencillo, durante el proceso de

desarrollo del proyecto, han sido los rigs que más problemas me han dado, para mover

huesos y para importarlos en escenas, ya que el rig que crea no tiene los valores por

defecto de los controladores (translate y rotate a 0, y scale a 1). Esta ha sido una de las

principales complicaciones a la hora de querer animarlos.

101

Fig. 95 Rig rápido de Maya para el personaje de la madre

Fuente: elaboración propia

102

5.8 Iluminación

Para la iluminación de las escenas del cortometraje se han utilizado tres tipos de

luces: area light, spot light, mesh light y skyDome.

La luz de tipo área, se emite desde un área rectangular definida y la he utilizado en

escenas de interior, como el salón y la habitación de la niña. Es una luz bastante realista

que incorpora automáticamente el efecto de desvanecimiento y proyecta sombras que se

van suavizando por lo que se consigue un aspecto bastante natural.

La luz de tipo mesh, actúa convirtiendo a la malla en la que se aplica, en una fuente

de luz, es decir, una malla iluminada por sí misma. Este tipo de luz se ha utilizado en los

focos del coche para iluminar los cristales de los focos por donde debe salir la luz.

La luz de tipo spot, se emite desde un punto pequeño y a medida que nos alejamos del

punto de origen, la luz se expande en forma de cono como un foco. Este tipo de luz se ha

utilizado también para los focos del coche. Para conseguir que se vea el efecto de la

proyección de éstos, se ha añadido en las opciones de render de Arnold, en

Environment/Atmosphere, se ha añadido un aiAtmosphereVolume para poder visualizar las

partículas de la luz en la atmósfera. Para lograr el efecto de los focos de los coches se han

modificado algunos parámetros como exposure, para aumentar la iluminación de la luz,

color, para darle el color amarillo, cone angle, para definir el ancho del cono que se va a

formar al emitir la luz, dropoff, para controlar el difuminado del contorno de la luz cuando

se proyecta sobre los objetos, lens radius, para definir el radio que queremos que tenga el

punto de origen de la luz, y por último, añadimos el filtro aiLightDecay, para limitar la

distancia a la que llega la luz.

Por último, la luz de tipo skyDome, simula la luz de un hemisferio sobre la escena,

representando el cielo. Esta luz está diseñada para escenas de exterior y está representada

por una cúpula esférica en el fondo. Proporciona una iluminación ambiental a toda la

escena y genera sombras adecuadas a un entorno en el exterior. Para conseguir que la

103

esfera tenga un color azul y simule el cielo, el atributo color de skydome, se ha vinculado a

un aiPhysicalSky. De esta forma, podemos controlar los parámetros elevation, que hace

referencia a la elevación del sol, y azimuth, que hace referencia al ángulo sobre la vertical.

Con estos parámetros, podemos definir a qué altura está el sol en la escena, dependiendo

de ello las sombras y luz que se generen en la escena, teniendo bastante control sobre la

iluminación. Por último, para poder visualizar en el render el color azul del cielo, debemos

ir a la configuración de render, y en Arnold Renderer > Enviroment -> background,

elegimos la aiPhysicalSky que hemos creado antes para que los cambios que realicemos en

los parámetros, se modifiquen en ambas partes. Ahora sí, podemos visualizar en el render

un cielo azul.

Fig. 96 Luces de tipo área

Fuente: elaboración propia

104

Fig. 97 Render con luces de tipo área

Fuente: elaboración propia

Fig. 98 Luces de tipo spot light (verde) y de tipo mesh (blanca)

Fuente: elaboración propia

105

Fig. 99 Render de luces tipo spot y mesh en los focos delanteros y traseros

Fuente: elaboración propia

Fig. 100 Luz de tipo skydome

Fuente: elaboración propia

106

Fig. 101 Render con luz de tipo skydome

Fuente: elaboración propia

5.9 Animación y cámaras

Para realizar las animaciones de este cortometraje, se ha usado tanto la técnica de

captura de movimiento, como la de animación por cotas.

Primero de todo, se grabaron las posibles animaciones a utilizar en el corto, en la sala

de realidad virtual de la Universidad de Alicante con el programa Motive. Usando un traje

negro con receptores brillantes pegados por todo el cuerpo para que las cámaras instaladas

captaran el movimiento y lo pasaran al software del ordenador. Después, en el desarrollo

de las animaciones, debido a los problemas que surgieron al intentar unir las capturas de

movimiento al esqueleto creado y sus controles, se optó por usar la herramienta Red9, una

herramienta gratuita proporcionada por Autodesk. Los problemas se debían a que no podía

vincular mis controladores creados en el rig a la captura de movimiento, por lo que se

movía el esqueleto pero no los controladores, y al estar unidos al esqueleto ejercían

deformaciones sobre él. Además, el esqueleto propio creado para el rig, no tenía el mismo

107

número de huesos que el de la captura de movimiento, por lo que es posible que también

influyera en estas deformaciones.

Con Red9 he podido unir las capturas de movimiento a los controladores y huesos de

mi rig. Para ello, he ido seleccionando primero el hueso de la captura de movimiento y

después el controlador de mi rig o hueso, según sea necesario. Una vez seleccionado, en el

panel de la herramienta, en el apartado “T ack tabi iz ”, marco las opciones que

necesite según qué parte del esqueleto esté uniendo (TimeRange, Trans, Rot) y

seguidamente, el botón Process Fwd. Mediante este procedimiento, se traspasa el

movimiento del hueso seleccionado de la captura, a la parte que nosotros hayamos

seleccionado de nuestro rig, creando keyframes en cada frame que dura el proceso. Se

repite el mismo proceso hasta tener la animación con captura de movimiento en nuestro

personaje.

Fig. 102 Panel de la herramienta Red9

Fuente: elaboración propia

108

Una vez realizado este proceso, a veces es necesario hacer algunos retoques de la

animación. Para ello, usamos las capas de animación de Maya. Seleccionamos las partes

que se quieren corregir, y creamos una capa de animación con los objetos seleccionados.

Ahora, se modifican los keyframes que nos interesan para lograr una buena animación,

cambiándoles el valor, eliminando algunos… Dependiendo de la situación. Una vez hemos

corregido esa parte en la capa de animación, hacemos merge de las capas, para no

acumularlas, ya que esto puede generar errores. En este proceso, igual que en la animación

por cotas, se ha utilizado el panel Graph Editor, para observar las líneas de las

animaciones y los keyframes creados, modificando curvas para conseguir movimientos

más uniformes y para visualizar de forma más fácil algunos errores de las animaciones.

Fig. 103 Curvas de animación del controlador del pie en Graph Editor

Fuente: elaboración propia

Las capturas de movimiento se han realizado para los personajes humanos. De las

capturas que se grabaron, se han utilizado los movimientos de andar (andar con la caja en

los brazos, andar por el salón, andar por la calle) y el abrazo al perro. Se intentó usar

también el de lanzar la pelota en el parque, pero puesto que el resultado en el personaje de

la niña no quedaba bien, decidí animarlo por cotas. En cuanto a la animación por cotas, ha

sido usada para lanzar la pelota como acabo de nombrar, para animar objetos como la

pelota y el columpio de la casa y, para todos los movimientos del perro. A la hora de

animar objetos, como la pelota o la caja donde llega el perro, he usado parent constraint,

esta vez, para controlar mejor el objeto. En el caso de la pelota y la caja, son objetos que en

109

la escena van sujetados por las manos de un personaje y, para no animar el objeto todos los

frames haciendo que coincida con la posición de la mano, he restringido su posición con

este vínculo. Al realizar el parent contraint de un controlador sobre un objeto, se crea en el

objeto un nuevo atributo llamado Blend Parent. Este atributo funciona con valores de 0 y

1, siendo 1 cuando queremos que el objeto esté pegado al controlador (la mano en este

caso) y controlado por él y, 0 cuando lo queremos libre para animarlo independientemente.

Otra opción que he encontrado muy útil durante la animación por cotas ha sido la opción

de poder seleccionar un grupo de frames y poder repetirlos infinitamente mediante Curve

> Post-infinity > Cycle with offset. De esta manera, por ejemplo, animo la cola del perro

moverse en los primeros frames de la escena y, seleccionando las curvas modificadas y

realizando el proceso descrito, consigo que ese movimiento se repita durante el resto de la

escena, sin tener que ir copiando y pegando los keyframes, preocupándome del resto de la

animación.

Durante todo el proceso de animación, tanto con captura de movimiento o sin ella, el

rigging creado anteriormente ha facilitado enormemente el trabajo de animar y cambiar de

poses, modificar errores, etc., de los personajes.

En cuanto a las cámaras, para realizar las escenas se han usado dos tipos de cámaras,

cámaras normales, algunas creadas directamente desde la vista perspectiva y, cámaras de

tipo aim, con un punto fijo. La principal diferencia además de la evidente que es que una

no tiene un punto fijo donde apunta, es que la cámara aim no se puede rotar a la hora de

animarla. Durante el desarrollo no se han animado todas las cámaras creadas, también se

han utilizado cámaras estáticas. Las cámaras estáticas utilizadas son todas sin punto fijo.

Sin embargo, dentro de las cámaras que han sido animadas, se ha utilizado para las escenas

donde la cámara hace zoom, cámara con punto fijo, ya que te ayuda mucho a mantener una

buena trayectoria centrándote en todo momento en el objeto que te interesa y, para las

escenas que la cámara simplemente se desplaza, se han usado cámaras normales.

Durante el desarrollo de todas las escenas, se han usado un total de 24 cámaras,

normales y con punto fijo dependiendo de la escena.

110

5.10 Renderizado

Como hemos visto anteriormente, el proceso de renderizado es el encargado de crear

todas las imágenes necesarias para posteriormente montar el vídeo con ellas.

Para este proceso, se ha elegido una resolución de 1920x1080 píxeles (HD_1080), a

24 fps (frames por segundo), en formato OpenEXR, ya que permite almacenar un rango de

color mucho más alto que otros archivos y los colores de las imágenes se representan muy

bien.

El motor elegido ha sido Arnold Renderer, ya instalado en Maya en la versión de

2018. Antes de elegir este motor de render, se realizó un pequeño estudio sobre las

ventajas de los motores de render más usados y la calidad que ofrecían. Las pruebas se

centraron en 3 motores distintos, Maya Software, Renderman (motor utilizado por Pixar) y

Arnold Renderer. Las primeras pruebas se hicieron en Maya Software debido al

desconocimiento de otros motores, ya que nunca antes había usado un motor concreto para

el renderizado, pero debido a la mala calidad de los resultados, se empezó a investigar

sobre el tema. Arnold Renderer y Renderman ofrecían resultados similares, con una

iluminación muy buena, pero la desventaja de Renderman es que debes usar sus materiales

propios para renderizar, o en su defecto, usar conversores o plugins para poder visualizar

otros materiales como los de Maya. Esto complicaba más el proceso, ya que algunos

objetos ya los tenía texturizados y habría que volver a invertir ese tiempo. Por esta razón,

finalmente elegí el motor de Arnold utilizando la extensión OpenEXR, ya que se hicieron

pruebas de otros formatos también, pero la escena no se visualizaba correctamente.

111

Fig. 104 Prueba de render con Arnold, formato OpenEXR

Fuente: elaboración propia

Fig. 105 Prueba de render con Arnold, formato png

Fuente: elaboración propia

112

Fig. 106 Prueba de render con Renderman, formato jpg

Fuente: elaboración propia

Fig. 107 Prueba de render con Renderman, formato tif

Fuente: elaboración propia

113

Fig. 108 Prueba de render con Maya Software, formato OpenEXR

Fuente: elaboración propia

Como podemos ver, los cálculos de la iluminación tienen mucha mejor calidad en los

motores de Arnold y Renderman. A la hora de renderizar con Arnold, hay que tener en

cuenta que la opción Render Sequence, con la que eliges una secuencia de la escena de X

frame hasta Y frame y empieza a renderizar uno detrás de otro, no se puede cerrar en mitad

del renderizado, a no ser que fuerces la salida del programa. Es un detalle a tener cuenta,

sobre todo, porque si tienes que cerrar el programa a mitad del renderizado por cualquier

motivo, y no has guardado antes los cambios de la escena, se perderán, ya que una vez está

renderizando tampoco te permite guardar.

Por último añadir, que la ventana de Render View, la cual te permite visualizar un

render y los cambios que vas efectuando en ella en directo, ha sido muy útil a la hora de

elegir planos, situar los objetos en la escena y sobre todo, elegir los parámetros correctos

para la iluminación, la cual no podemos ver en Maya si no es a través de un render, y

también, para ir viendo los cambios de la calidad del render y decidir los parámetros

adecuados para el resultado deseado, tiempo de render – calidad de render. Para la

114

realización del cortometraje se han renderizado 2389 frames (sin contar los desechados),

con un tiempo de renderizado, según la escena de entre 11 y 22 minutos por frame.

Exceptuando un pequeño plano que, para evitar la aparición de ruido blanco, se subieron

mucho los parámetros de calidad y tardó 3h y 40 minutos por frame.

5.11 Postproducción

Una vez obtenidas todas las imágenes de nuestro cortometraje, procedemos al

montaje y edición del vídeo. Para este proceso, como ya se comentó, se ha utilizado Adobe

Premiere Pro CC 2018 Adobe, para juntar todas las imágenes y formar el vídeo y After

Effects CS6, añadir efectos como la lluvia o el roto de una imagen.

Empezamos importando las imágenes a Premiere. Para ello seleccionamos Importar

desde el menú Archivo, vamos a la carpeta donde se encuentran los frames de una cámara

en concreto, seleccionamos el primero y marcando la opción de “secuencia de imágenes”

importa automáticamente todas las imágenes de la carpeta, quedándose ya la secuencia de

vídeo como archivo importado. Una vez en el panel del proyecto, arrastramos la secuencia

creada a la línea de tiempo para poder visualizarlo arriba en el panel de programa. La

secuencia creada está configurada a 24 frames por segundo. Para poder ver las secuencias

de forma seguida y sin trompicones se debe realizar un pequeño “renderizado” de la

secuencia en Secuencia >Procesar de entrada a salida. Repitiendo este proceso vamos

importando las imágenes de todas las cámaras para formar la escena deseada. En algunas

secuencias se han añadido frames extra para alargarlas un poco más al final.

115

Fig. 109 Espacio de trabajo de Premiere

Fuente: elaboración propia

Respecto al audio, ha sido grabado con un iPhone 6, se ha utilizado música libre de la

librería de audio de Youtube https://www.youtube.com/audiolibrary/music, usando las

canciones St. Francis, Morning Mandol y Dog and pony show y, para efectos de sonido,

https://freesound.org. Una vez elegido el audio, se importa en la carpeta del proyecto y se

añade en otro canal de Premiere bajo la secuencia de imágenes deseada, para poder

ajustarlo, que coincida con la duración del vídeo y que los decibelios de todo el proyecto

aumenten o disminuyan a nuestro gusto.

Una vez terminamos la edición de la escena deseada exportamos el vídeo, siempre

habiendo renderizado primero (Premiere nos indica que la secuencia está renderizada con

una línea verde en la línea de tiempo). Para exportar, seleccionamos formato H.264,

obteniendo un vídeo de calidad en formato mp4.

Una vez exportadas todas las escenas, importando de nuevo cada una de ellas y

uniéndolas, se ha creado el vídeo definitivo. De esta manera, se ha podido editar mejor el

116

resultado final, puesto que al tener cada escena terminada por separado, hay un volumen

menor de clips y la edición es más cómoda.

5.12 Resultados

Una vez realizadas todas las etapas con sus correspondientes fases, se ha conseguido

tener un cortometraje de animación en 3D de buena calidad, cumpliendo con todos los

objetivos propuestos al inicio del proyecto y muy buenos resultados.

Algunos renders de los resultados obtenidos:

Fig. 110 Render de los padres llegando a casa con la caja del perro

Fuente: elaboración propia

117

Fig. 111 Render de la niña abriendo la puerta de su casa

Fuente: elaboración propia

Fig. 112 Render de la niña y el perro paseando por la calle

Fuente: elaboración propia

118

Fig. 113 Render de la niña en su habitación

Fuente: elaboración propia

Fig. 114 Render de la niña abrazando al perro

Fuente: elaboración propia

119

Fig. 115 Render de la niña y el perro en el parque

Fuente: elaboración propia

Fig.116 Render de la niña lanzando una pelota al perro

Fuente: elaboración propia

120

6 Conclusiones

Una vez finalizado todo el proceso, se puede decir que se ha tenido un resultado muy

satisfactorio, ya que se han cumplido todos los objetivos iniciales y con muy buenos

resultados.

Al inicio de este proyecto se establecieron cinco objetivos fundamentales: transmitir

una historia, gestionar los requerimientos de un proyecto de esta envergadura, aprender y

desarrollar habilidades de cada fase del proyecto, familiarizarme con el uso de las

herramientas y finalmente, tener un proyecto de buena calidad relacionado con la

animación y el ámbito 3D.

En primer lugar, se ha logrado transmitir una historia con un mensaje que además,

trata de concienciar al público sobre un problema actual. Esto se ha conseguido

representando en el corto una de las causas por las que puede deberse el abandono animal,

aunque puede que no sea la más repetida, creo que ha sido la mejor para representarla en

este proyecto.

Por otro lado, se ha conseguido gestionar los requerimientos de un proyecto de este

tipo, aprendiendo qué fases tienen prioridad, cuáles llevan más tiempo, y todo ello

aplicarlo para la organización del desarrollo. Este proceso es algo que a pesar de buscar

información previamente, se ha ido descubriendo a medida que ha ido avanzando el

proceso, afrontando y superando finalmente los problemas que han ido surgiendo, que a su

vez, me han ayudado a aprender muchos conocimientos nuevos mientras se buscaba

diversa información para resolverlos.

Por supuesto, aprender y desarrollar habilidades de modelado, animación,

texturizado, rigging, iluminación, render y postproducción ha sido algo indudable, ya que

la práctica e investigación sobre todas estas áreas han sido necesarias en cada una de las

fases, complementando los conocimientos ya adquiridos anteriormente. El recorrido por

todas las etapas que se realizan en los estudios profesionales ha conseguido aportarme

nuevos conocimientos de todas las áreas que antes apenas conocía, al mismo tiempo que

121

me he familiarizado con las herramientas que he usado para llevar a cabo este proyecto. Al

principio la mayoría de las herramientas utilizadas no las había usado apenas, y al final he

logrado adquirir soltura para realizar los pasos necesarios de un cortometraje.

Finalmente, el resultado de todo el esfuerzo ha sido un cortometraje de acabado

profesional que puede servir también como carta de presentación en futuras ocasiones.

Se puede ver en el siguiente enlace (opción de subtítulos en inglés disponible):

https://vimeo.com/288591666

122

8 Bibliografía

3dtrain. Historia de la animación por computadora. Recuperado de

https://3dtrain.wordpress.com/2014/09/03/historia-de-la-animacion-por-

computadora/

Ai Skydome Light - Arnold for Maya User Guide 5 - Solid Angle. (s. f.).

Recuperado de

https://support.solidangle.com/display/A5AFMUG/Ai+Skydome+Light

Anexo: Películas de Pixar - Wikipedia, la enciclopedia libre. (s. f.).

Recuperado de https://es.wikipedia.org/wiki/Anexo:Pel%C3%ADculas_de_Pixar

Anexo: Películas de Walt Disney Pictures. (2018). En Wikipedia, la

enciclopedia libre. Recuperado de

https://es.wikipedia.org/w/index.php?title=Anexo:Pel%C3%ADculas_de_Walt_Disn

ey_Pictures&oldid=110242014

Animación por computadora. (2018). En Wikipedia, la enciclopedia libre.

Recuperado de

https://es.wikipedia.org/w/index.php?title=Animaci%C3%B3n_por_computadora&o

ldid=109895871

Avatar (película). (2018). En Wikipedia, la enciclopedia libre. Recuperado de

https://es.wikipedia.org/w/index.php?title=Avatar_(pel%C3%ADcula)&oldid=11025

8404

Captura de movimiento. (2018). En Wikipedia, la enciclopedia libre.

Recuperado de

https://es.wikipedia.org/w/index.php?title=Captura_de_movimiento&oldid=108839

069

Giselle Escandón. La historia y los tipos de animación. Slide Share.

Recuperado de https://es.slideshare.net/GisCreativa/ng-clase04-

historiaytiposdeanimacin

123

Lanay. (2012, abril 17). Animación por ordenador: 2D y 3D: Animación por

cotas: Recuperado de

http://computeranimationst2.blogspot.com/2012/04/animacion-por-cotas.html

lucyxbreeze. (2017, junio 27). Las Normales: Qué son y cómo usarlas al

texturizar en 3D. Recuperado de https://femdevs.org/2017/06/27/las-normales-

que-son-y-como-usarlas-al-texturizar-en-3d/

Preproducción. (2018). En Wikipedia, la enciclopedia libre. Recuperado de

https://es.wikipedia.org/w/index.php?title=Preproducci%C3%B3n&oldid=10879981

6

Rigging. (2018). En Wikipedia, la enciclopedia libre. Recuperado de

https://es.wikipedia.org/w/index.php?title=Rigging&oldid=107320287

Sculpting Tools | Maya | Autodesk Knowledge Network. (s. f.). Recuperado 1

de septiembre de 2018, de https://knowledge.autodesk.com/support/maya/learn-

explore/caas/CloudHelp/cloudhelp/2018/ENU/Maya-Modeling/files/GUID-

820F611F-3380-4D33-AC69-EEC62A59109B-htm.html

Teatro óptico. (2018). En Wikipedia, la enciclopedia libre. Recuperado de

https://es.wikipedia.org/w/index.php?title=Teatro_%C3%B3ptico&oldid=10904611

8

The Rescuers Down Under. (2018). En Wikipedia, la enciclopedia libre.

Recuperado de

https://es.wikipedia.org/w/index.php?title=The_Rescuers_Down_Under&oldid=107

332206

Whitepaper Estudio sobre Abandono y Adopción de Animales de Compañía

2018. (2018, junio 19). En Fundación Affinity. Recuperado de

https://www.fundacion-affinity.org/observatorio/whitepaper-estudio-sobre-

abandono-y-adopcion-de-animales-de-compania-2018