19
EDICION DE VIDEOS ANYI PAOLA MOMCAYO SOLARTE IE CESAR NEGRET 15/03/17

anyi moncayo

Embed Size (px)

Citation preview

Page 1: anyi moncayo

EDICION DE VIDEOS ANYI PAOLA MOMCAYO SOLARTE

IE CESAR NEGRET 15/03/17

Page 2: anyi moncayo

TABLA DE CONTENIDOS:

• Programas de edición de juegos • Web bibliografía • Objetivos • Introducción • Que es edición de juegos • Procesamiento y herramientas de edición de video

Page 3: anyi moncayo

Programas de edición de videos

• Windows Movie Maker• Power Director• Filmora• Blender• Wax

Page 5: anyi moncayo

OBJETIVOS

• El objetivo es saber:• Como esta con formado. • Como se crea.• Como se edita.

Page 6: anyi moncayo

INTRODUCION:

las ediciones de videos nos ayudan a mejorar la calidad de videos grabados para dar una buena imagen del video y su creador.

Page 7: anyi moncayo

¿ QUE ES EDICION DE VIDEOS ?• La edición de vídeo:• es un proceso por el cual un editor coloca fragmentos de vídeo, fotografías, gráficos, audio, efectos digitales

y cualquier otro material audiovisual en una cinta o un archivo informático. El objetivo de la edición es presentar un programa terminado para emitirlo por televisión, generar copias para su venta o servir como base para otros más acabados.

• El término «edición» solía confundirse con la palabra «montaje» por ser oficios parecidos en sus objetivos, pero la edición se refería únicamente al vídeo y empleaba medios técnicos diferentes a los del montaje, que sería una palabra propia del mundo cinematográfico. En el siglo XXI la informatización ha unido los dos procesos.

• Según los autores y en la era digital existirían cuatro tipos de edición de vídeo: por corte o A/B roll, dependiendo de si se utilizan o no cortinillas, y on-line u off-line, es decir, definitiva o provisional. Cuando se utilizaba la edición lineal existían otras, pero la edición no lineal con acceso aleatorio las hizo desaparecer.

• La evolución de la edición de vídeo ha pasado por varias fases. Inicialmente, 1958, se trató de imitar el proceso cinematográfico de cortar y pegar trozos de cinta. El siguiente paso se dio en la década de 1970 con la edición lineal, empleando dos o más magnetoscopios y muchas veces dos salas con equipamiento distinto. En 1988 apareció el primer sistema digital y en 1992 surgió el primero totalmente digital gracias a las memorias flash y los algoritmos de compresión para vídeo. No existe consenso entre los expertos sobre cómo será el futuro. Técnicamente lo ideal quizá sería una unión entre la norma del cine y la de la televisión, pero intereses de distintos tipos pueden impedirlo

Page 8: anyi moncayo

• La edición es un término de los soportes magnéticos, ya sea en cinta, memoria flash o disco magnético. Se utiliza material audiovisual grabados en algún soporte magnético, para después, obtener un archivo de ordenador o una cinta de vídeo. Habitualmente requería muchos menos procesos y unos costes bastante inferiores que los necesarios para realizar un montaje, pero la calidad solía ser inferior hasta la llegada del siglo XXI.

• El montaje, por su parte, se realizaba con película de cine, del tamaño que fuese, pero siempre partiendo de una cinta fotosensible. Durante todo el proceso se podía recurrir al vídeo, pero su objetivo final era obtener una lista de corte de negativo porque la primera película obtenida solía estar muy deteriorada por los sucesivos manipulados. Con dicha lista se realizaba el corte de los negativos seleccionados, dichos negativos se positivaban, se empalmaban y se añadía la banda sonora y demás acciones que permitan obtener después los interpositivos necesarios para realizar las copias que fuesen precisas.En el siglo XXI se ha ido produciendo una convergencia de los dos sistemas que actualmente sólo se diferencias por su resolución, no necesariamente por su soporte, al poder ser digitales los dos y manejados en ocasiones con equipos idénticos. Bien es verdad que, por razones de amortización, coste, preferencias o de otra índole, en ocasiones se recurre a medios distintos para el cine y el vídeo.

Page 9: anyi moncayo

Procesamiento y herramientas de edición de video:

La edición de videos : es un proceso por el cual un editor fragmentos de vídeo, fotografías, gráficos, efectos digitales o cualquier otro material audiovisual en una cinta de vídeo o un archivo informático llamado máster para generar después las distintas copias. En la mayoría de los casos se incluye audio que puede ser música o el diálogo de personajes, pero también existen ediciones donde únicamente se utilizan medios visuales.

• En esta lección veremos también algunas herramientas de vídeo que nos facilitarán la realización de una edición de vídeo, ya sea en el ámbito personal como profesional.

Page 10: anyi moncayo

Partes de la señal del video: Consta de 3 partes:

• Luminancia.

• Es la cantidad lineal de luz, directamente proporcional a la intensidad física y ponderada por la sensibilidad al espectro de la percepción humana a la luminosidad. O dicho de otro modo, una medida fotométrica del brillo de una imagen de vídeo. Cuanto mayor es la luminancia, mayor es el brilloLa luminancia puede ser calculada como la suma ponderada de los componentes lineales Rojo, Verde y Azul, es decir, puede calcularse a partir de la señal RGB.Es la forma objetiva de medir la cantidad relacionada con el brillo.La imagen está formada por luz y color; la luz define la imagen en blanco y negro (es la información que se utiliza en sistemas de blanco y negro). La luminancia representa la información de la parte negra y blanca de la imagen.En los sistemas digitales se codifica por separado a la señal de color.

• Existen estándares diferentes para la codificación del color, NTSC (utilizado en casi toda América, dependencias estadounidenses, Corea, Japón y Myanmar), SECAM (Francia, sus dependencias y ex colonias; mayoría de Rusia) y PAL (resto de Europa; Argentina, Brasil, Groenlandia y Uruguay en América; mayoría de África, Asia y Oceanía).

• Sensibilidad a la luminosidad: En un estado particular de adaptación, la visión humana puede distinguir diferentes niveles de luminancia. La razón entre la luminancia de la zona más luminosa de una escena y la más oscura se llama razón de contraste.

Page 11: anyi moncayo

CROMATICIDAD• También llamada crominancia, es la representación de color puro en ausencia de brillo. Guarda la

información en dos componentes: la diferencia entre el color azul y la luminancia, y la diferencia entre el rojo y la luminancia. Debido a que guarda la información en dos componentes en vez de en los canales RGB, ocupa menos espacio. Algunos formatos de imágenes comprimidas guardan la información como la crominancia.

• La crominancia es una señal modulada en cuadratura (es decir en amplitud y en fase). La saturación corresponde aproximadamente a la fase y el matiz corresponde aproximadamente a la amplitud. A la portadora se la denomina subportadora de color y es una frecuencia próxima a la parte alta de la banda, en PAL es de 4,43 MHz; evidentemente, esta frecuencia tiene relación con el resto de frecuencias fundamentales de la señal de vídeo que están referenciadas a la frecuencia de campo que toma como base, por cuestiones históricas, la frecuencia de la red de suministro eléctrico, 50 Hz en Europa y 60 Hz en muchas partes de América.Frecuencia de muestreo estándar En los sistemas de 525 y 625 líneas la frecuencia de muestreo estándar para los componentes del vídeo digital es de 13.5 MHz. Esta razón produce un número entero de muestras por línea en ambos sistema. En los sistemas de HDTV se muestrea a un múltiplo de la anterior.Los sistemas de TV se originaron con una frecuencias de campo basadas en la frecuencia de la línea eléctrica: 60 Hz en USA y 50 Hz en Europa. La razón para ello es que el acoplamiento de la ondulación de la fuente de alimentación de un receptor de TV sobre los circuitos, tiene efecto sobre el brillo instantáneo de la pantalla.

Page 12: anyi moncayo

SINCRONISMO• Se ocupan de mantener información para alinear las distintas señales, y se distinguen tres clases: de línea

u horizontales, de campo o verticales y los referentes al color.

• Los sincronismos de línea indican donde comienza y acaba cada línea de las que se compone la imagen de video. Se dividen en: pórtico anterior, pórtico posterior y pulso de sincronismo.

• Los sincronismos verticales son los que nos indican el comienzo y el final de cada campo. Los campos se refieren a dónde acaba un servicio y empieza otro (por ejemplo en televisión, dónde empieza la señal de vídeo del teletexto de determinado canal). Están compuestos por los pulsos de igualación anterior, pulsos de sincronismo, pulsos de igualación posterior y líneas de guarda (donde en la actualidad se inserta el tele texto y otros servicios). La frecuencia de los pulsos de sincronismo depende del sistema de televisión: en América (con excepción de Argentina y Uruguay, que siguen la norma europea) se usa frecuencia de línea (número de líneas) de 525 líneas por cuadro (y 60 campos por segundo), mientras que en Europa se utilizan 625 líneas por cuadro (312,5 por cada uno de los dos campos en la exploración entrelazada), a una frecuencia de 15.625 Hz, y 50 campos por segundo, (25 cuadros). Estas cifras se derivan de la frecuencia de la red eléctrica en la que antiguamente se enganchaban los osciladores de los receptores.

• En lo referente al color, mantienen la información del color de un modo parecido a la crominancia, modulada en amplitud y en fase. En todos los estándares se modula una portadora con la información del color. En NTSC y PAL lo que se hace es una modulación en amplitud para la saturación, y en fase para el tinte, lo que se llama «modulación en cuadratura». El sistema PAL alterna la 180º en cada línea la fase de la portadora para compensar distorsiones de la transmisión. El sistema SECAM modula cada componente del color en las respectivas líneas.

Page 13: anyi moncayo

Sistemas de barrido:• Entrelazado.• Con el fin de evitar el parpadeo o "flicker" que se produce en una imagen de televisión cuando es reproducida en un

tubo de imagen debido a la persistencia de los luminofósforos que componen la pantalla del mismo (cuando se estaban trazando las últimas líneas las primeras ya se habían desvanecido) se desarrolló la exploración entrelazada.

• La exploración entrelazada 2/1, característica de los sistemas de televisión PAL, NTSC y SECAM así como de algunos otros desarrollados posteriormente, consiente en analizar cada cuadro (frame) de la imagen en dos semicuadros iguales denominados campos (field), de forma que las líneas resultantes estén imbricadas entre sí alternadamente por superposición. Uno de los campos contiene las líneas pares, se le denomina "campo par", mientras que el otro contiene la impares, se le denomina "campo impar". Al comienzo de cada uno de ellos se sitúa el sincronismo vertical. Hay un desfase de media línea entre un campo y otro para que así el campo par explore la franja de imagen que dejó libre el campo impar. La exploración entrelazada de un cuadro de dos campos exige que el número de líneas del cuadro sea impar para que la línea de transición de un campo al otro sea divisible en dos mitades.

• En resumen: se dividen las líneas de la imagen en líneas pares e impares y se actualizan por separado. Esto tiene una desventaja, y es que la actualización por separado puede provocar desincronización.

• Las especificaciones abreviadas de la resolución de vídeo a menudo incluyen una i para indicar entrelazado. Por ejemplo, el formato de vídeo PAL es a menudo especificado como 576i50, donde 576 indica la línea vertical de resolución, i indica entrelazado, y el 50 indica 50 cuadros (la mitad de imágenes) por segundo.

Page 14: anyi moncayo

PROGRESIVO :

• En los sistemas de barrido progresivo, en cada período de refresco se actualizan todas las líneas de exploración independientemente y en orden,es decir, se actualiza primero la primera, luego la segunda, etc. El desarrollo de sistema de representación de imagen diferentes al tubo de imagen, como las pantallas de TFT y de plasma, han permitido desarrollar sistemas de televisión de barrido progresivo. La desventaja en que es necesario un monitor con alta velocidad de refresco.

• Un procedimiento conocido como desentrelazado puede ser utilizado para transformar el flujo entrelazado, como el analógico, el de DVD, o satélite, para ser procesado por los dispositivos de barrido progresivo, como el que se establece en los televisores TFT, los proyectores y los paneles de plasma.

Page 15: anyi moncayo

Resolución de vídeo:

• Especifica el tamaño de la imagen de vídeo, medido en píxeles si el vídeo es digital o en líneas de barrido horizontal y vertical para vídeo analógico. Si el vídeo es en 3D se mide en vóxeles, que miden el volumen de la imagen de vídeo. En el dominio digital, (por ejemplo DVD) la televisión de definición estándar (SDTV) se especifica como 720/704/640 × 480i60 para NTSC y 768/720 × 576i50 para resolución PAL o SECAM. Sin embargo, en el dominio analógico, el número de líneas activas de barrido sigue siendo constante (486 NTSC/576 PAL), mientras que el número de líneas horizontal varía de acuerdo con la medición de la calidad de la señal: aproximadamente 320 píxeles por línea para calidad VCR, 400 píxeles para las emisiones de televisión, y 720 píxeles para DVD. Se conserva la relación de aspecto por falta de píxeles cuadrados.

• Los nuevos televisores de alta definición (UHDV) son capaces de resoluciones de hasta 8192 x 4320, es decir, 8192 píxeles por línea de barrido por 4320 líneas. La resolución de vídeo en 3D para vídeo se mide en voxels (elementos de volumen de imagen, que representan un valor en el espacio tridimensional). Por ejemplo, 512 × 512 × 512 voxels, de resolución, se utilizan ahora para vídeo 3D simple, que pueden ser mostrados incluso en algunas PDA.

Page 16: anyi moncayo

• Relación de aspecto

• La relación de aspecto se expresa por la anchura de la pantalla en relación a la altura. El formato estándar hasta el momento en que se comenzó con la estandarización de la televisión de Alta resolución tenía una relación de aspecto de 4/3. El adoptado es de 16/9. La compatibilidad entre ambas relaciones de aspecto se puede realizar de diferentes formas.

• Espacio de color y bits por píxel• El nombre del modelo del color describe el modelo usado para la

representación de color de video. El sistema YIQ se utilizó en la televisión NTSC. Se corresponde estrechamente con el sistema YUV utilizado en la televisión NTSC y PAL; y con el sistema YDbDr utilizado por la televisión SECAM. El número de colores distintos que pueden ser representados por un pixel depende del número de bits por pixel (bpp). Una forma de reducir el número de bits por píxel en vídeo digital se puede realizar por submuestreo de croma (por ejemplo, 4:2:2, 4:1:1, 4:2:0).

Page 17: anyi moncayo

• Espacio de color y bits por píxel

• El nombre del modelo del color describe el modelo usado para la representación de color de video. El sistema YIQ se utilizó en la televisión NTSC. Se corresponde estrechamente con el sistema YUV utilizado en la televisión NTSC y PAL; y con el sistema YDbDr utilizado por la televisión SECAM. El número de colores distintos que pueden ser representados por un pixel depende del número de bits por pixel (bpp). Una forma de reducir el número de bits por píxel en vídeo digital se puede realizar por submuestreo de croma (por ejemplo, 4:2:2, 4:1:1, 4:2:0).

• Calidad de vídeo

• Hay varias métodos para medir la calidad de un vídeo. Se puede medir con métricas formales como PSNR Peak Signal-to-Noise Ratio o subjetivas con calidad de vídeo usando la observación de expertos.

• FR compara la diferencia de calidad entre el video original y el recibido. Es objetivo y referencia al original.• Métricas basadas en píxeles.• Métricas basadas en flujos de bits. Son objetivas y no referencian al original.• Entrevistas y observaciones al usuario. Son subjetivas y no referencian al original.

• La calidad de vídeo subjetiva de un sistema de procesamiento de vídeo puede ser evaluada como sigue: - Elige las secuencias de vídeo (el SRC) a usar para la realización del test. - Elige los ajustes del sistema a evaluar (el HRC). - Elige un método de prueba para presentar las secuencias de vídeo a los expertos y recopilar su valoración. - Invita a un número suficiente de expertos, preferiblemente un número no menor de 15. - Realiza las pruebas. - Calcula la media para cada HRC basándote en la valoración de los expertos o no expertos.

• Hay muchos métodos de calidad de vídeo subjetiva descritos en la recomendación BT.500. de la ITU-T. Uno de los métodos estandarizados es el Double Stimulus Impairment Scale (DSIS). En este método, cada experto ve una referencia intacta del vídeo seguida de una versión dañada del mismo video. El experto valora entonces el vídeo dañado utilizando una escala que va desde los daños son imperceptibles hasta los daños son muy molestos

Page 18: anyi moncayo

Método de compresión de vídeo

Se usa una amplia variedad de métodos para comprimir secuencias de vídeo. Los datos de vídeo contienen redundancia temporal, espacial y espectral. En términos generales, se reduce la redundancia espacial registrando diferencias entre las partes de una misma imagen (frame); esta tarea es conocida como compresión intraframe y está estrechamente relacionada con la compresión de imágenes. Así mismo, la redundancia temporal puede ser reducida registrando diferencias entre imágenes (frames); esta tarea es conocida como compresión interframe e incluye la compensación de movimiento y otras técnicas. Los estándares por satélite, y MPEG-4 usado para los sistemas de vídeo domésticos.Tasa de bitsLa tasa de bits es una medida de la tasa de información contenida en un flujo o secuencia de video. La unidad en la que se mide es bits por segundo (bit/s o bps) o también Megabits por segundo (Mbit/s o Mbps). Una mayor tasa de bits permite mejor calidad de vídeo. Por ejemplo, el VideoCD, con una tasa de bits de cerca de 1Mbps, posee menos calidad que un DVD que tiene una tasa de alrededor de 20Mbps. La VBR (Variable Bit Rate – Tase de Bits Variable) es una estrategia para maximizar la calidad visual del vídeo y minimizar la tasa de bits. En las escenas con movimiento rápido, la tasa variable de bits usa más bits que los que usaría en escenas con movimiento lento pero de duración similar logrando una calidad visual consistente. En los casos de vídeo streaming en tiempo real y sin buffer, cuando el ancho de banda es fijo (por ejemplo en videoconferencia emitida por canales de ancho de banda constante) se debe usar CBR (Constant Bit Rate – Tasa de Bits Constante).

Page 19: anyi moncayo