69
Apunte 2 - Procesamiento de señales Este apunte está constituido por extractos de algunos textos sobre procesamiento de señales, principalmente, aunque no exclusivamente, el de Proakis y Manolakis. Para simplificar la lectura se eliminó el formato convencional de las citas bibliográficas y en algunos casos se las adaptó libremente. La intención fundamental del apunte es complementar el capítulo correspondiente de Huang con algunos conocimientos previos y síntesis de algunos temas. Se sigue el orden de presentación de los temas de Huang, manteniéndose incluso los títulos principales y su numeración. 5.1 Señales digitales y sistemas Definiciones preliminares Una señal se define como una cantidad física que varía con el tiempo, el espacio o cualquier otra variable o variables independientes. Matemáticamente, describimos una señal como una función de una o más variables independientes. Por ejemplo, las funciones (1) s 1 (t) = 5t (2) s 2 (t) = 20t 2 describen dos señales, una que varía linealmente con la variable independiente t (tiempo) y una segunda que varía cuadráticamente con t. Las señales descritas en (1) y (2) pertenecen a las clases de señales que quedan perfectamente definidas especificando la dependencia funcional con la variable independiente. Sin embargo, existen casos en los que dicha relación funcional es desconocida o demasiado complicada como para tener utilidad práctica. Por ejemplo, una señal de voz no se puede describir funcionalmente mediante expresiones como (1). En general, un segmento de voz puede representarse con un alto grado de exactitud como la suma de varias sinusoides de diferentes amplitudes y frecuencias, esto es, como (3) = N i 1 A i (t) sen[2π F i (t)t + θ i (t)] donde {A i (t)}, {F i (t)} y {θ i (t)} son los conjuntos (probablemente variables en el tiempo) de amplitudes, frecuencias y fases, respectivamente de las sinusoides. De hecho, una manera de interpretar la información o el mensaje contenido en un segmento corto de una señal de voz es medir las amplitudes, frecuencias y fases contenidas en el segmento corto de señal. Otros ejemplos de señales naturales son los electrocardiogramas y los electroencefalogramas. Las señales de voz, los electrocardiogramas y los electroencefalogramas son ejemplos de señales que portan información y que varían como funciones de una única variable independiente, el tiempo. Una imagen constituye un ejemplo de señal que varía en dos variables independientes. Las dos variables independientes en este caso son las coordenadas espaciales. Estos son unos pocos ejemplos de un incontable número de señales naturales que se pueden encontrar en la práctica. Asociados a las señales naturales se encuentran los medios con los que se generan. Por ejemplo, las señales de voz se generan al forzar el paso del aire a través de las cuerdas vocales. Las imágenes se obtienen exponiendo película fotográfica ante un paisaje u objeto. Por lo tanto, la forma en la que se generan las señales se encuentra asociada con un sistema que responde ante un estímulo o fuerza. En una señal de voz, el sistema está constituido por las cuerdas vocales y el tracto bucal, también llamado cavidad bucal. El estímulo en combinación con el sistema se llama fuente de la señal. Un sistema se puede definir también como un dispositivo físico que realiza una operación sobre una señal. Por ejemplo, un filtro que se usa para reducir el ruido y las interferencias que corrompen una señal también se denomina sistema. En este caso, el filtro

Apunte 2 - Procesamiento de señales Este apunte está constituido

  • Upload
    ngominh

  • View
    240

  • Download
    2

Embed Size (px)

Citation preview

Page 1: Apunte 2 - Procesamiento de señales Este apunte está constituido

Apunte 2 - Procesamiento de señales Este apunte está constituido por extractos de algunos textos sobre procesamiento de señales, principalmente, aunque no exclusivamente, el de Proakis y Manolakis. Para simplificar la lectura se eliminó el formato convencional de las citas bibliográficas y en algunos casos se las adaptó libremente. La intención fundamental del apunte es complementar el capítulo correspondiente de Huang con algunos conocimientos previos y síntesis de algunos temas. Se sigue el orden de presentación de los temas de Huang, manteniéndose incluso los títulos principales y su numeración. 5.1 Señales digitales y sistemas Definiciones preliminares Una señal se define como una cantidad física que varía con el tiempo, el espacio o cualquier otra variable o variables independientes. Matemáticamente, describimos una señal como una función de una o más variables independientes. Por ejemplo, las funciones (1) s1(t) = 5t (2) s2(t) = 20t2 describen dos señales, una que varía linealmente con la variable independiente t (tiempo) y una segunda que varía cuadráticamente con t. Las señales descritas en (1) y (2) pertenecen a las clases de señales que quedan perfectamente definidas especificando la dependencia funcional con la variable independiente. Sin embargo, existen casos en los que dicha relación funcional es desconocida o demasiado complicada como para tener utilidad práctica. Por ejemplo, una señal de voz no se puede describir funcionalmente mediante expresiones como (1). En general, un segmento de voz puede representarse con un alto grado de exactitud como la suma de varias sinusoides de diferentes amplitudes y frecuencias, esto es, como

(3) ∑=

N

i 1

Ai(t) sen[2π Fi(t)t + θi(t)]

donde Ai(t), Fi(t) y θi(t) son los conjuntos (probablemente variables en el tiempo) de amplitudes, frecuencias y fases, respectivamente de las sinusoides. De hecho, una manera de interpretar la información o el mensaje contenido en un segmento corto de una señal de voz es medir las amplitudes, frecuencias y fases contenidas en el segmento corto de señal. Otros ejemplos de señales naturales son los electrocardiogramas y los electroencefalogramas. Las señales de voz, los electrocardiogramas y los electroencefalogramas son ejemplos de señales que portan información y que varían como funciones de una única variable independiente, el tiempo. Una imagen constituye un ejemplo de señal que varía en dos variables independientes. Las dos variables independientes en este caso son las coordenadas espaciales. Estos son unos pocos ejemplos de un incontable número de señales naturales que se pueden encontrar en la práctica. Asociados a las señales naturales se encuentran los medios con los que se generan. Por ejemplo, las señales de voz se generan al forzar el paso del aire a través de las cuerdas vocales. Las imágenes se obtienen exponiendo película fotográfica ante un paisaje u objeto. Por lo tanto, la forma en la que se generan las señales se encuentra asociada con un sistema que responde ante un estímulo o fuerza. En una señal de voz, el sistema está constituido por las cuerdas vocales y el tracto bucal, también llamado cavidad bucal. El estímulo en combinación con el sistema se llama fuente de la señal. Un sistema se puede definir también como un dispositivo físico que realiza una operación sobre una señal. Por ejemplo, un filtro que se usa para reducir el ruido y las interferencias que corrompen una señal también se denomina sistema. En este caso, el filtro

Page 2: Apunte 2 - Procesamiento de señales Este apunte está constituido

2

realiza algunas operaciones sobre la señal cuyo efecto es reducir (filtrar) el ruido y la interferencia presentes en la señal deseada. Cuando pasamos una señal a través de un sistema, como en el caso del filtrado, decimos que hemos procesado la señal. En este caso, el procesamiento de la señal implica la separación de la señal deseada del ruido y la interferencia. En general, el sistema se caracteriza por el tipo de operación que realiza sobre la señal. Por ejemplo, si la operación es lineal, el sistema se denomina lineal, si la operación es no lineal, el sistema se dice no lineal, etc. Estas operaciones se denominan habitualmente procesamiento de señales. Es conveniente ampliar la definición de sistema para incluir no solo dispositivos físicos, sino también realizaciones en software de operaciones sobre una señal. En el procesamiento digital de señales en una computadora, las operaciones realizadas sobre una señal constan de varias operaciones matemáticas especificadas por un programa de software. El procesamiento de señales involucra primero obtener una representación de la señal sobre la base de un modelo dado y luego la aplicación de alguna transformación de alto nivel para poner la señal en una forma más conveniente. El último paso en el proceso es la extracción y utilización de la información del mensaje. Este paso puede ser realizado por oyentes humanos o automáticamente por máquinas. Entonces, el procesamiento de las señales de habla involucra generalmente dos tareas. Primero, es un vehículo para obtener una representación general de una señal de habla en forma de onda o paramétrica. Segundo, el procesamiento de señales sirve la función de ayudar en el proceso de transformar la representación de la señal en formas alternativas no menos generales por naturaleza, pero más apropiadas para aplicaciones específicas. En los sistemas de comunicación de habla, la señal de habla es transmitida, almacenada y procesada de muchos modos. Las preocupaciones técnicas llevan a una amplia variedad de representaciones de la señal del habla. En general, hay dos preocupaciones importantes en cualquier sistema:

1. Preservación del contenido del mensaje en la señal de habla. 2. Representación de la señal del habla en una forma que sea conveniente para la

transmisión o almacenamiento, o en una forma que sea flexible de modo que las modificaciones puedan hacerse a la señal de habla sin degradar seriamente el contenido del mensaje.

La representación de la señal de habla debe ser tal que el contenido de información puede ser extraído fácilmente por oyentes humanos o automáticamente por máquina. Las representaciones de las señales de habla pueden clasificarse en dos grandes grupos: representaciones de forma de onda y representaciones paramétricas. Las representaciones de forma de onda como lo implica el nombre se ocupan simplemente de preservar la “forma de onda” de la señal de habla analógica a través de un proceso de muestreo y cuantización. Las representaciones paramétricas, por otro lado, se ocupan de representar la señal de habla como salida de un modelo de producción de habla. El primer paso para obtener una representación paramétrica es frecuentemente una representación digital de la forma de onda; esto es, la señal de habla es muestreada y cuantificada y luego procesada para obtener los parámetros del modelo de producción de habla. Los parámetros de este modelo pueden clasificarse convenientemente como parámetros de excitación (esto es, relacionados con la fuente de los sonidos del habla) o parámetros de respuesta del tracto (esto es, relacionados con sonidos de habla individuales).

El procesamiento de las señales de habla involucra generalmente dos tareas. Primero, es un vehículo para obtener una representación general de una señal de habla en forma de onda o paramétrica. Segundo, el procesamiento de señales sirve la función de ayudar en el proceso de transformar la señal en formas alternativas que son menos generales por naturaleza, pero más apropiadas para aplicaciones específicas.

Page 3: Apunte 2 - Procesamiento de señales Este apunte está constituido

3

El procesamiento digital de señales se ocupa de obtener representaciones discretas de señales y de la teoría, diseño e implementación de los procedimientos numéricos para procesar la representación discreta. Los objetivos en el procesamiento digital de señales son idénticos a los del procesamiento de señal analógica.

Elementos básicos de un sistema de procesamiento digital de señales La mayor parte de las señales que aparecen en los ámbitos de la ciencia y la ingeniería son de naturaleza analógica, es decir, las señales son funciones de una variable continua, como el tiempo o el espacio y normalmente toman valores en un rango continuo. Estas señales pueden ser procesadas directamente por sistemas analógicos adecuados (como filtros o analizadores de frecuencia) o multiplicadores de frecuencia con el propósito de cambiar sus características o extraer cualquier información deseada. En tal caso, decimos que la señal fue procesada directamente en forma analógica, como se ilustra en la Fig. 1.2. Tanto la señal de entrada como la de salida están en forma analógica.

El procesamiento digital de señales proporciona un método alternativo para procesar una señal analógica, como se ilustra en la figura 1.3. Para realizar el procesamiento digitalmente, se necesita una interfaz entre la señal analógica y el procesador digital. Esta interfaz se denomina conversor analógico-digital (A/D). La salida del conversor A/D es una señal adecuada como entrada al procesador digital.

En aplicaciones donde la salida digital del procesador digital de señales se ha de entregar en forma analógica, como en comunicaciones digitales, debemos proporcionar otra interfaz desde el dominio digital al analógico. Esta interfaz se denomina conversor digital-analógica (D/A). Clasificación de las señales Los métodos que usamos en el procesamiento de una señal o en el análisis de la respuesta de un sistema a una señal dependen fuertemente de las características de la señal en particular. Existen técnicas que se aplican solo a familias específicas de señales. En consecuencia, cualquier investigación en procesamiento de señales debe comenzar con la clasificación de las señales que se encuentran en la aplicación concreta. Señales multicanal y multidimensionales. Una señal se describe mediante una función de una o más variables independientes. El valor de la función (es decir, de la variable dependiente) puede ser un escalar real, una cantidad compleja o quizás un vector. En algunas aplicaciones, las señales son generadas por múltiples fuentes o sensores. Estas señales pueden representarse en forma vectorial. Nos referiremos a un vector de señales como señal multicanal. Por ejemplo, en electrocardiografía se usan electrocardiogramas (ECG) de 3 y 12 tomas que dan lugar a señales de 3 y 12 canales. Si la señal es función de una única variable

Page 4: Apunte 2 - Procesamiento de señales Este apunte está constituido

4

independiente, la señal se denomina unidimensional. Una señal se denomina M-dimensional si es función de M variables independientes. Señales en tiempo continuo vs. señales en tiempo discreto. Las señales se pueden clasificar en cuatro categorías diferentes dependiendo de las características de la variable (independiente) tiempo y de los valores que esta puede tomar. Las señales en tiempo continuo o señales analógicas están definidas para todos los valores del tiempo y pueden tomar cualquier valor en el intervalo continuo (a,b), donde a puede ser -∞ y b puede ser ∞. La onda de voz y la señal x1(t) = cosπt, -∞ < t < ∞ son ejemplos de señales analógicas. Las señales en tiempo discreto están definidas solo para ciertos valores del tiempo. Estos instantes del tiempo no necesitan ser equidistantes, aunque en la práctica se toman normalmente instantes equiespaciados conforme a intereses computacionales y matemáticos. Si usamos el índice n como la variable independiente que representa los instantes de tiempo, la señal pasa a ser una función de una variable entera (es decir, una secuencia de números). Por lo tanto, una señal en tiempo discreto se puede representar matemáticamente como una secuencia de números reales o complejos. Para destacar la naturaleza discreta de una señal se la suele denotar como x(n) o x[n] en vez de como x(t). Si los instantes de tiempo tn están equiespaciados (es decir, tn = nT), también se usa la notación x(nT) (T es el “período de muestreo”).

Tiempo continuo Tiempo discreto V. dependiente continua

Señal analógica Señal continua en tiempo discreto

V. dependiente discreta

Señal discreta en tiempo continuo

Señal digital

En la práctica las señales en tiempo discreto pueden originarse de dos maneras:

1. Eligiendo valores de una señal analógica en determinados instantes de tiempo. Este proceso se denomina muestreo. Todos los aparatos de medida que proporcionan medidas en instantes de tiempo regulares generan señales en tiempo discreto.

2. Acumulando una variable a lo largo de un determinado periodo de tiempo. Señales continuas vs. señales discretas. El valor de una señal, en tiempo continuo o discreto, puede ser continuo o discreto. Si una señal toma todos los valores posibles en un intervalo tanto finito como infinito, se dice que es continua. Por el contrario, si toma valores de un conjunto finito de valores se dice que es discreta. Normalmente, estos valores son equidistantes y por tanto pueden expresarse como un múltiplo de la distancia entre dos valores sucesivos. Una señal en tiempo discreto, que toma valores en un conjunto discreto se denomina señal digital.

Para que una señal pueda ser procesada digitalmente debe ser en tiempo discreto y tomar valores discretos (es decir, debe ser una señal digital). Si la señal a procesar es analógica, se convierte a digital muestreándola en el tiempo y obteniendo por tanto una señal en tiempo discreto y posteriormente cuantificando sus valores en un conjunto discreto. El

Page 5: Apunte 2 - Procesamiento de señales Este apunte está constituido

5

proceso de convertir una señal continua en discreta, denominado cuantificación, es básicamente un proceso de aproximación. Puede lograrse por redondeo o truncamiento. Señales deterministas vs. señales aleatorias. El análisis matemático y el procesamiento de señales requieren que la señal sea descrita matemáticamente. Esta descripción matemática, normalmente denominada modelo matemático, conduce a otra importante clasificación de las señales. Cualquier señal que pueda ser definida por una forma matemática explícita, un conjunto de datos o una regla bien definida se denomina determinista. Este término se usa para resaltar el hecho de que valores de la señal tanto presentes como pasados o futuros, se conocen exactamente, sin incertidumbre. En muchas situaciones prácticas, sin embargo, existen señales que no se pueden describir con un grado de precisión razonable mediante fórmulas matemáticas explícitas o cuya descripción es demasiado complicada para ser de utilidad práctica. La falta de tal relación supone que dichas señales evolucionan con el tiempo de forma impredecible. Nos referiremos a estas señales como señales aleatorias. La señal de la voz es un ejemplo de señal aleatoria. El análisis y descripción de las señales aleatorias se hace mediante técnicas estadísticas en vez de mediante fórmulas explícitas. El marco matemático para el análisis de señales aleatorias lo constituye la teoría de la probabilidad y los procesos estocásticos. La clasificación de una señal real como determinista o aleatoria no está siempre clara. Algunas veces ambas aproximaciones dan lugar a resultados significativos que ayudan a clarificar el comportamiento de la señal. Otras veces, una clasificación errónea puede dar lugar a resultados erróneos, dado que algunas herramientas matemáticas se aplican solo a señales deterministas y otras a señales aleatorias. 5.1. Señales y sistemas digitales De la física sabemos que la frecuencia está íntimamente relacionada con un tipo específico de movimiento periódico llamado oscilación armónica, que se describe mediante funciones sinusoidales. El concepto de frecuencia está directamente relacionado con el de tiempo. De hecho, sus dimensiones son las inversas del tiempo. Por tanto, de acuerdo con esto, deberíamos esperar que la naturaleza del tiempo (continuo o discreto) afecte a la frecuencia. Señales sinusoidales en tiempo continuo Una simple oscilación armónica se describe matemáticamente mediante la siguiente señal en tiempo continuo: (4) xa(t) = A cos(Ωt + θ), - ∞ < t < ∞ que se muestra en la figura 1.10.

Figura 1.10 Ejemplo de una señal sinusoidal analógica.

Page 6: Apunte 2 - Procesamiento de señales Este apunte está constituido

6

El subíndice a usado con x(t) denota una señal analógica. Esta señal está completamente caracterizada por tres parámetros: A es la amplitud de la sinusoide, Ω es la frecuencia en radianes por segundo (rad/s) y θ es la fase en radianes. En lugar de Ω, a menudo se utiliza la frecuencia F ciclos por segundo o Hertzios (Hz), donde (5) Ω = 2πF La ecuación (4) puede escribirse en términos de F como (6) xa(t) = A cos(2πF t + θ), - ∞ < t < ∞ La señal analógica sinusoidal (6) está caracterizada por las siguientes propiedades: A1. Para todo valor fijo de la frecuencia F, xa(t) es periódica. Puede demostrarse fácilmente usando trigonometría elemental que

xa(t + Tp) = xa(t)

donde Tp= 1/F es el periodo fundamental de la señal sinusoidal. A2. Las señales en tiempo continuo con frecuencias diferentes son diferentes. A3. El aumento en la frecuencia F resulta en un aumento en la tasa de oscilación de la señal, en el sentido de que se incluyen más periodos en un intervalo de tiempo dado. Para F = 0, el valor Tp = ∞ es consistente con la relación fundamental F = 1/Tp. Debido a la continuidad de la variable temporal t, podemos aumentar la frecuencia F sin límite, con el consiguiente aumento en la tasa de oscilación. Las propiedades que hemos descrito para señales sinusoidales son aplicables a la clase de señales exponenciales complejas (7) xa(t) = A ej(Ωt + θ) Señales sinusoidales en tiempo discreto Una señal sinusoidal en tiempo discreto puede expresarse como (8) x(n) = A cos(ωn + θ), - ∞ < n < ∞ donde n es una variable entera, denominada número de muestra, A es la amplitud de la sinusoide, ω es la frecuencia en radianes por muestra y θ es la fase en radianes. Si en lugar de ω utilizamos la variable de frecuencia f definida por (9) ω ≡ 2πf la relación (9) se convierte en (10) x(n) = A cos(2πf n + θ), - ∞ < n < ∞ La frecuencia f tiene dimensiones de ciclos por muestra. Cuando consideremos el muestreo de sinusoides analógicas, vamos a relacionar la variable de frecuencia f de una sinusoide en tiempo discreto con la frecuencia F en ciclos por segundo de la sinusoide analógica.

Page 7: Apunte 2 - Procesamiento de señales Este apunte está constituido

7

En contraste con las sinusoides en tiempo continuo, las sinusoides en tiempo discreto están caracterizadas por las propiedades siguientes: B1. Una sinusoide en tiempo discreto es periódica solo si su frecuencia f es un número racional. Por definición, una señal en tiempo discreto x(n) es periódica con período N (N > 0) si y solo si (11) x(n + N) = x(n) para todo n El valor más pequeño de N para el que se cumple (11) se denomina periodo fundamental. B2. Las sinusoides en tiempo discreto cuyas frecuencias están separadas por un múltiplo entero de 2π, son idénticas. Como resultado, todas las secuencias sinusoidales (12) xk(n) = A cos(ωkn + θ), k= 0, 1, 2... donde ωk = ω0 + 2kπ -π ≤ ω0 ≤ π son indistinguibles (esto es, idénticas). Por otro lado, las secuencias de dos sinusoides cualesquiera de frecuencias en el rango -π ≤ ω ≤ π o –1/2 ≤ f ≤ ½ son distintas. En consecuencia, las señales sinusoidales en tiempo discreto de frecuencias |ω| ≤ π o |f| ≤ ½ son únicas. Cualquier secuencia que resulte de una sinusoide con una frecuencia |ω| > π o |f| > ½ es idéntica a una secuencia obtenida a partir de una señal sinusoidal de frecuencia |ω| ≤ π. Debido a esta similitud, denominamos a la sinusoide que tiene la frecuencia |ω| > π un alias de la sinusoide correspondiente de frecuencia |ω| < π. Por esta razón consideramos las frecuencias en el rango -ππ ≤≤ ωω ≤≤ ππ o –1/2 ≤≤ f ≤≤ ½ como únicas y todas las frecuencias |ωω| > ππ o |f| > ½ , como alias. B3. La mayor tasa de oscilación en una sinusoide en tiempo discreto se alcanza cuando ω = π (o ω = -π) o equivalentemente, f = ½ (o f = - ½). Véanse las características de la señal sinusoidal graficada en la figura 1.13. Los valores de ω0 = 0, π/8, π/4, π/2, π correspondientes a f = 0, 1/16, 1/8, ¼, ½ dan lugar a secuencias periódicas con periodos N = ∞, 16, 8, 4,2. El periodo de la sinusoide disminuye a medida que la frecuencia aumenta. Podemos ver que la tasa de oscilación aumenta cuando lo hace la frecuencia.

Page 8: Apunte 2 - Procesamiento de señales Este apunte está constituido

8

Dado que las señales sinusoidales en tiempo discreto de frecuencias separadas por un múltiplo entero de 2π son idénticas, se deduce que las frecuencias en cualquier intervalo ω1 ≤ ω ≤ ω1 + 2π constituyen todas las sinusoides y exponenciales complejas en tiempo discreto existentes. Por lo tanto, el rango de frecuencias para sinusoides en tiempo discreto es finito con duración 2ππ. Habitualmente, se elige el rango 0 ≤ ω ≤ 2π o -π ≤ ω ≤ π (0 ≤ f ≤ 1, -1/2 ≤ f ≤ ½), que denominamos el rango fundamental. Exponenciales complejas relacionadas armónicamente Las señales sinusoidales y las exponenciales complejas son fundamentales en el análisis de señales y sistemas. En muchos casos se trabaja con conjuntos de exponenciales complejas (o sinusoides) armónicamente relacionadas. Estos son conjuntos de exponenciales complejas periódicas de frecuencias fundamentales que son múltiplos de una frecuencia positiva única. Aunque circunscribamos nuestra discusión a las exponenciales complejas, las mismas propiedades se verifican para las señales sinusoidales. Consideraremos exponenciales complejas armónicamente relacionadas tanto en tiempo continuo como discreto. Exponenciales en tiempo continuo Las señales básicas en tiempo continuo, las exponenciales armónicamente relacionadas, son (13) sk(t) = ejkΩ0t = ej2πkF0t k = 0, ±1, ±2 Para cada valor de k, sk(t) es periódica, con periodo fundamental 1/(kF0) = Tp/k o frecuencia fundamental kF0. Dado que una señal que es periódica con periodo Tp/k, es también periódica con periodo k(Tp/k) = Tp para cualquier entero positivo k, tenemos que el conjunto de todas las sk(t) tienen periodo común Tp. Lo que es más, F0 puede tomar cualquier valor y todos los miembros del conjunto son distintos en el sentido de que si k1 ≠ k2, entonces sk1(t) ≠ sk2(t). Partiendo de las señales fundamentales dadas en (13) podemos construir una combinación lineal de exponenciales complejas armónicamente relacionadas de la forma

Page 9: Apunte 2 - Procesamiento de señales Este apunte está constituido

9

(14) xa(t) = ∑∞

−∞=k

ck sk(t) = ∑∞

−∞=k

ck ejkΩ0t

donde ck, k = 0, ±1, ±2,... son constantes complejas arbitrarias. La señal xa(t) es periódica con período fundamental Tp = 1/F0, y su representación en términos de (14) se denomina expansión en serie de Fourier de xa(t). Las constantes complejas son los coeficientes de la serie de Fourier y la señal sk(t) se denomina el k-ésimo armónico de xa(t). Exponenciales en tiempo discreto

Dado que las exponenciales complejas discretas en el tiempo son periódicas si su frecuencia relativa es un número racional, escogemos f0 = 1/N y definimos los conjuntos de exponenciales complejas armónicas como (15) sk(n) = ej2ππkf0n , k = 0, ±1, ±2,... A diferencia del caso de señales continuas en el tiempo, observamos que

sk+N(n) = ej2πn(k+N)/N = ej2πn sk(n) = sk(n) Esto quiere decir que, en concordancia con (11), existen solo N exponenciales complejas periódicas distintas en el conjunto descrito (15). Además, todas las señales del conjunto tienen un periodo común de N muestras. Evidentemente, podemos escoger cualquier conjunto de N exponenciales complejas consecutivas, por ejemplo, k = n0 hasta k = n0 + N – 1, para formar un conjunto armónicamente relacionado con frecuencia fundamental f0 = 1/N. Normalmente, por conveniencia, elegimos el conjunto que se corresponde con n0 = 0, es decir, el conjunto (16) sk(n) = ej2πkn/N , k = 0, 1, 2,…, N – 1 Como en el caso de señales en tiempo continuo, es evidente que la combinación lineal

(17) x(n)= ∑−

=

1

0

N

k

ck sk(n) = ∑−

=

1

0

N

k

ck ej2πkn/N

produce una señal de periodo fundamental N. Esta es la representación en serie de Fourier de una secuencia periódica en tiempo discreto con coeficientes de Fourier ck. La secuencia sk(n) se denomina el armónica k-ésima de x(n). Señales y sistemas en tiempo discreto

La sinusoide es una señal elemental muy importante que sirve como bloque básico para la construcción de señales más complejas. Sin embargo, existen otras señales elementales que son importantes en nuestro tratamiento del procesamiento de señales.

Hacemos especial hincapié en la caracterización de sistemas en tiempo discreto en general y en la clase de sistemas lineales e invariantes en el tiempo (LTI, linear time-invariant) en particular. Definimos y desarrollamos una serie de importantes propiedades de los sistemas LTI en el dominio del tiempo y se deduce una fórmula importante, denominada la fórmula de la convolución, que permite calcular la salida de un sistema LTI correspondiente a cualquier señal de entrada arbitraria. Además de la fórmula de la convolución, se utilizan ecuaciones en diferencias como un método alternativo para la descripción de la relación entrada-salida de un sistema LTI, Los LTI tienen realizaciones recursivas y no recursivas. Nuestra motivación para subrayar el estudio de sistemas LTI se apoya en dos razones. En primer lugar, existe una gran colección de técnicas matemáticas que pueden aplicarse al

Page 10: Apunte 2 - Procesamiento de señales Este apunte está constituido

10

análisis de sistemas LTI. En segundo lugar, muchos sistemas prácticos son LTI o pueden aproximarse mediante sistemas LTI. Señales en tiempo discreto Una señal en tiempo discreto x(n) es una función de una variable independiente entera. Es importante destacar que una señal en tiempo discreto no está definida para instantes entre dos muestras sucesivas. Igualmente, es incorrecto pensar que x(n) es igual a cero si n no es un entero. Simplemente, la señal x(n) no está definida para valore no enteros de n. En lo sucesivo supondremos que una señal en tiempo discreto se define para cada valor entero n para - ∞ < n < ∞. Por tradición, nos referimos a x(n) como la “enésima muestra” de la señal aun cuando x(n) sea inherentemente en tiempo discreto (es decir, aunque no haya sido obtenida por muestreo de una señal analógica). En el caso en que x(n) haya sido obtenida al muestrear una señal analógica xa(t), entonces x(n) ≡ xa(nT), donde T es el periodo de muestreo (el tiempo entre muestras sucesivas).

Además de la representación gráfica de una señal en tiempo discreto o secuencia, existen otras representaciones alternativas que a menudo son más convenientes. Estas son:

1. Representación funcional

2. Representación tabular

3. Representación como secuencia

donde ↑ indica el origen del tiempo (n = 0). Muchas veces usaremos negrita en lugar de la flecha.

Page 11: Apunte 2 - Procesamiento de señales Este apunte está constituido

11

Clasificación de las señales en tiempo discreto Los métodos matemáticos empleados en el análisis de sistemas y señales en tiempo discreto dependen de las características de las señales. Realizamos una clasificación de las señales en tiempo discreto que atiende a diferentes características. Señales de energía y señales de potencia. La energía E de una señal x(n) se define como

(18) E ≡ ∑∞

−∞=n

|x(n)|2

Hemos considerado el módulo al cuadrado de x(n); por tanto, esta definición se aplica tanto a señales reales como a señales complejas. La energía de una señal puede ser finita o infinita. Si E es finita (es decir, 0 < E < ∞∞), entonces se dice que x(n) es una señal de energía. Algunas veces añadimos un subíndice x a E y escribimos Ex para hacer hincapié en que Ex es la energía de la señal x(n). Muchas señales que poseen energía infinita tienen potencia media finita. La potencia media de una señal discreta en el tiempo x(n) se define como

(19) P = limN→∞ 12

1

+N ∑

−=

N

Nn

| x(n)|2

Si definimos la energía de una señal sobre un intervalo finito –N ≤ n ≤ N como

(20) EN ≡ ∑−=

N

Nn

| x(n)|2

Entonces podemos expresar la energía E de la señal como (21) E ≡ limN→∞ EN y la potencia media de la señal x(n) como

(22) P ≡ limN→∞ 12

1

+N EN

Claramente, si E es finita, P = 0. Por otra parte, si E es infinita, la potencia media P puede ser tanto finita como infinita. Si P es finita (y distinta de cero), la señal se denomina señal de potencia. Señales periódicas y señales aperiódicas. Como se definió más arriba, una señal x(n) es periódica con periodo N (N > 0) si y solo si (23) x(n + N) = x(n) para todo n El valor más pequeño de N para el que (23) se verifica se denomina periodo (fundamental). Si (23) no se verifica para ningún valor de N la señal se denomina aperiódica o no periódica. La energía de una señal periódica x(n) sobre un único periodo, por ejemplo sobre el intervalo 0 ≤ n ≤ N – 1, es finita, si x(n) toma valores finitos en el periodo. Sin embargo, la energía de una señal periódica en el intervalo -∞ ≤ n ≤ ∞ es infinita. La potencia media de una señal periódica es finita y es igual a la potencia media sobre un único periodo. En consecuencia, las señales periódicas son señales de potencia. Señales simétricas (pares) y antisimétricas (impares). Una señal real x(n) se denomina simétrica (par) si x(-n) = x(n). Una señal x(n) se denomina antisimétrica (impar) si x(-n) = -x(n).

Page 12: Apunte 2 - Procesamiento de señales Este apunte está constituido

12

Una señal arbitraria puede expresarse como la suma de dos componentes, una de las cuales es par y la otra impar. Manipulaciones simples de señales en tiempo discreto En esta sección consideraremos algunas modificaciones o manipulaciones simples en las que intervienen la variable independiente y la amplitud de la señal (variable dependiente). Transformación de la variable independiente (tiempo). Una señal x(n) puede ser desplazada en el tiempo reemplazando la variable independiente n por n – k, donde k es un entero. Si k es un entero positivo, el desplazamiento temporal resulta en un retraso de la señal en k unidades de tiempo. Si k es un entero negativo, el desplazamiento temporal resulta en un adelanto de la señal en |k| unidades de tiempo.

Otra modificación útil de la base temporal es reemplazar la variable independiente n por –n. El resultado de esta operación es un pliegue o una reflexión de la señal con respecto al origen de tiempos n = 0.

Page 13: Apunte 2 - Procesamiento de señales Este apunte está constituido

13

Una tercera modificación de la variable independiente implica reemplazar n por µn, siendo µ un entero. Nos referimos a esta modificación de la base de tiempos como escalado temporal o submuestreo.

Page 14: Apunte 2 - Procesamiento de señales Este apunte está constituido

14

Suma, multiplicación y escalado de secuencias. La suma de dos señales x1(n) y x2(n) es una señal y(n) cuyo valor en cualquier instante es igual a la suma de los valores en ese instante de las dos señales de partida: y(n) = x1(n) + x2(n) - ∞ < n < ∞ El producto es: y(n) = x1(n) x2(n) - ∞ < n < ∞ El escalado de amplitud de una señal por una constante A se obtiene multiplicando el valor de cada muestra de la señal por A:

y(n) = A x1(n) - ∞ < n < ∞

Sistemas en tiempo discreto En muchas aplicaciones del procesamiento de señales digitales es necesario diseñar dispositivos o algoritmos que realicen operaciones sobre señales en tiempo discreto. Estos dispositivos se denominan sistemas en tiempo discreto o simplemente sistemas discretos. En concreto, un sistema discreto es un dispositivo que opera sobre una excitación o señal de entrada en tiempo discreto según una regla preestablecida para generar otra señal en tiempo discreto denominada salida o respuesta del sistema. En general, consideraremos un sistema como una operación o conjunto de operaciones que se realizan sobre la señal de entrada x(n) para producir la señal de salida y(n). Diremos que la señal x(n) es transformada por el sistema en y(n), y expresaremos la relación general entre x(n) e y(n) como (24) y(n) ≡ Τ [x(n)]

Page 15: Apunte 2 - Procesamiento de señales Este apunte está constituido

15

donde el símbolo T denota la transformación (también llamada operador), o procesamiento realizado por el sistema sobre x(n) para producir y(n). Existen varias maneras de describir las características de un sistema y las operaciones que realiza sobre una señal x(n) para producir y(n). Acá nos ocuparemos de la caracterización en el dominio del tiempo de los sistemas. Comenzaremos con una descripción entrada-salida del sistema. Esta se centra en el comportamiento a las puertas del sistema e ignora la realización interna. Más tarde nos introduciremos en la descripción del sistema mediante un espacio de estados. De esta manera desarrollaremos ecuaciones matemáticas que no solamente describen el comportamiento entrada-salida del sistema sino que especifican su estructura interna y comportamiento.

Sea la señal de entrada:

Veamos algunos sistemas:

a) Sistema identidad: y(n) = x(n) b) Sistema que retrasa una muestra: y(n) = x(n – 1) c) Sistema que adelanta una muestra: y(n) = x(n + 1) d) Sistema que promedia ternas de muestras de entrada: y(n) = 1/3 [x(n + 1) + x(n) + x(n –

1)] e) Sistema acumulador:

Se puede observar que para varios de los sistemas considerados la salida en el instante n = n0 depende no solo de la entrada en el instante n = n0 (o sea, x(n0)), sino también de los valores de la entrada aplicados al sistema antes y después de n = n0. Clasificación de los sistemas discretos Tanto en el análisis como en el diseño de sistemas es conveniente realizar una clasificación de los mismos según las propiedades generales que satisfacen. De hecho, las técnicas matemáticas que desarrollaremos para analizar y diseñar sistemas en tiempo discreto dependen fuertemente de las características generales de los sistemas que se consideren. Por esta razón, es necesario desarrollar una serie de propiedades y categorías que puedan usarse para describir las características generales de los sistemas. Debemos destacar que para que un sistema disponga de una propiedad determinada, esta debe cumplirse para cada posible señal de entrada al sistema. Si una propiedad se satisface para algunas señales de entrada pero no para otras, el sistema no posee dicha propiedad. En ese caso, un contraejemplo es suficiente para demostrar que un sistema no

Page 16: Apunte 2 - Procesamiento de señales Este apunte está constituido

16

posee una propiedad. Sin embargo, para demostrar que el sistema tiene alguna propiedad, debemos probar que esta propiedad se cumple para cualquier señal de entrada posible. Sistemas estáticos y sistemas dinámicos. Un sistema en tiempo discreto se denomina estático o sin memoria si su salida en cualquier instante n depende a lo sumo de la muestra de entrada en ese mismo instante, pero no de las muestras pasadas o futuras de la entrada. En cualquier otro caso, se dice que el sistema es dinámico o con memoria. Si la salida de un sistema en el instante n está determinada completamente por las muestras de entrada en el intervalo de n – N a n (N > 0), se dice que el sistema tiene memoria de duración N. Si N = 0, el sistema es estático. Si 0 < N < ∞, se dice que el sistema tiene memoria finita, mientras que si N = ∞, se dice que el sistema tiene memoria infinita. Ejemplos:

a) Sistema sin memoria: y(n) = ax(n) b) Sistema con memoria finita: y(n) = x(n) + 3x(n – 1)

c) Sistema con memoria infinita: y(n) = ∑∞

=0k

x(n – k)

Los sistemas estáticos o sin memoria se describen en general por ecuaciones de entrada-salida de la forma y(n) = T[x(n),n] y no incluyen elementos de retardo (memoria). Sistemas invariantes en el tiempo y sistemas variantes en el tiempo. Podemos subdividir la clase general de sistemas en dos categorías amplias: sistemas invariantes en el tiempo y sistemas variantes en el tiempo. Un sistema se dice invariante en el tiempo si sus características de entrada salida no cambian con el tiempo. Para entender esto mejor, supóngase que tenemos un sistema T en reposo que, cuando se excita con una señal x(n), produce una señal de salida y(n). Entonces, podemos escribir (25) y(n) = T[x(n)] Supóngase ahora que esa misma entrada es retardada k unidades de tiempo para dar lugar a x(n – k), y de nuevo se aplica al mismo sistema. Si las características del sistema no cambian con el tiempo, la salida del sistema en reposo será y(n – k), es decir, la salida será la misma que la correspondiente a la entrada x(n), excepto en que estará retardada las mismas k unidades de tiempo que se retardó la entrada. Esto nos conduce a definir un sistema invariante en el tiempo o invariante ante desplazamientos de la siguiente manera: Teorema. Un sistema en reposo T es invariante en el tiempo o invariante a desplazamientos si y solo si x(n) – T → y(n) Implica que (26) x(n – k) – T → y(n – k) para toda señal de entrada x(n) y todo desplazamiento temporal k. Para determinar si un sistema dado es invariante en el tiempo, necesitamos realizar el test especificado en la definición precedente. Básicamente, excitamos el sistema con una secuencia de entrada arbitraria x(n) que produce una salida denotada por y(n). A continuación, retardamos la señal de entrada en la misma cantidad k y recalculamos la salida. En general, podemos escribir la salida como y(n,k) = T[x(n – k)] Si ahora esta salida cumple y(n,k) = y(n – k), para todos los valores posibles de k, el sistema es invariante en el tiempo. En cambio si la salida cumple y(n,k) ≠ y(n – k), aun para un solo valor de k, el sistema es variante en el tiempo.

Page 17: Apunte 2 - Procesamiento de señales Este apunte está constituido

17

Sistemas lineales y sistemas no lineales. Los sistemas en general pueden subdividirse en lineales y no lineales. Un sistema lineal es aquel que satisface el principio de superposición. De forma sencilla podemos decir que el principio de superposición exige que la respuesta del sistema a una suma ponderada de señales sea igual a la correspondiente suma ponderada de las salidas a cada una de las señales de entrada. Por tanto, tenemos la siguiente definición de linealidad. Teorema. Un sistema es lineal si y solo si (27) T[a1x1(n) + a2x2(n)] = a1T[x1(n)] + a2T[x2(n)] Para cualesquiera secuencias arbitrarias de entrada x1(n) y x2(n), y cualesquiera constantes arbitrarias a1 y a2. El principio de superposición expresado por la relación (27) se puede separar en dos partes. Primera, supongamos que a2 = 0. Entonces (27) se reduce a (28) T[a1x1(n)] = a1 T[x1(n)] = a1y1(n) donde y1(n) = T[x1(n)] La relación (28) muestra la propiedad multiplicativa o de escalado de un sistema lineal. Esto es, si la respuesta del sistema a xi(n) es y1(n), la respuesta del sistema a a1x1(n) es simplemente a1y1(n). Por tanto, cualquier escalado de la entrada produce un escalado igual de la salida correspondiente. Segunda, supongamos que a1 = a2 = 1 en (27). Entonces (29) T[x1(n) + x2(n)] = T[x1(n)] + T[x2(n)] = y1(n) + y2(n)

Page 18: Apunte 2 - Procesamiento de señales Este apunte está constituido

18

Esta relación muestra la propiedad aditiva de un sistema lineal. Las propiedades aditiva y multiplicativa definen el principio de superposición tal y como se aplica a los sistemas lineales. La condición de linealidad expresada en (27) puede extenderse por inducción a cualquier número de señales. Sistemas causales y sistemas no causales. Un sistema es causal si la salida del sistema en cualquier instante n (es decir, y(n)) depende solo de las entradas presentes y pasadas (es decir, x(n), x(n – 1), x(n – 2),...) pero no de las futuras (es decir, x(n + 1), x(n + 2),...). En términos matemáticos, la salida de un sistema causal verifica una ecuación de la forma y(n) = F[x(n), x(n – 1), x(n – 2),...] donde F[⋅] es una función arbitraria. Si un sistema no satisface esta definición se dice que es no causal. En un sistema de este tipo, la salida depende no solo de las entradas pasadas y presentes sino también de las futuras. En un sistema en tiempo real no se dispone de las entradas futuras de la señal y, por lo tanto, un sistema no causal no puede ser realizado físicamente (no puede ser implementado). Por otra parte, si la señal se graba de manera que el procesamiento no se realiza en tiempo real, es posible implementar sistemas no causales, ya que todos los valores de la señal se encuentran disponibles en el momento del procesamiento. Sistemas estables frente a sistemas inestables. La estabilidad es una propiedad muy importante que debe ser considerar en cualquier aplicación práctica de un sistema. Sistemas inestables presentan un comportamiento errático y extremo que es causa de desbordamiento del sistema en aplicaciones prácticas. Un sistema arbitrario en reposo se dice de entrada acotada-salida acotada (BIBO, bounded input-bounded output), si y solo si toda entrada acotada produce una salida acotada. Matemáticamente el acotamiento de las secuencias de entrada y salida, x(n) e y(n), se traduce en la existencia de un par de números finitos, digamos Mx y My, tales que |x(n)| ≤ Mx < ∞ y |y(n)| ≤ My < ∞, para todo n. Si, para alguna entrada acotada x(n) la salida no está acotada (es infinita), el sistema se clasifica como inestable. Análisis de sistemas discretos lineales e invariantes en el tiempo Nos centraremos ahora en el análisis de los sistemas lineales e invariantes en el tiempo. En concreto demostraremos que dichos sistemas quedan caracterizados en el dominio del tiempo por su respuesta a un impulso unitario. Demostraremos también que cualquier secuencia de entrada puede considerarse como la suma ponderada de impulsos unitarios. Entonces, como consecuencia de las propiedades de linealidad e invarianza en el tiempo del sistema, la respuesta del sistema a cualquier secuencia de entrada podrá ser expresada en términos de la respuesta del sistema al impulso unitario. Se obtendrá además la fórmula general que relaciona la respuesta al impulso unitario con las señales de entrada y salida del sistema, conocida como convolución. Así seremos capaces de determinar la salida de un sistema lineal e invariante en el tiempo para cualquier señal de entrada. Técnicas para el análisis de sistemas lineales Existen dos métodos básicos para el análisis del comportamiento o respuesta de un sistema lineal a una determinada señal de entrada. Un método se basa en obtener la solución de la ecuación de entrada-salida del sistema que, en general, tiene la forma y(n) = F[y(n – 1), y(n – 2), ..., y(n – N), x(n), x(n – 1),..., x(n – M)] Donde F[.] representa cualquier función de las cantidades entre corchetes. En concreto, para sistemas LTI, veremos que la forma general de la relación de entrada-salida es

(30) y(n) = - ∑=

N

k 1

ak y(n – k) + ∑=

M

k 0

bk x(n – k)

donde ak y bk son parámetros constantes que especifican el sistema y son independientes de x(n) e y(n). La relación de entrada-salida dada en (30) se denomina ecuación en diferencias y representa una de las maneras de caracterizar el comportamiento de un sistema discreto LTI.

Page 19: Apunte 2 - Procesamiento de señales Este apunte está constituido

19

El segundo método para el análisis del comportamiento de un sistema lineal ante una determinada entrada se basa en descomponer dicha señal de entrada en señales elementales. Las señales elementales se escogen de manera que sea fácil determinar la respuesta del sistema a cada una de ellas. Entonces, usando la propiedad de linealidad del sistema, se suman las respuestas del sistema a cada una de las señales elementales para obtener la respuesta del sistema a la señal de entrada global. Este segundo método es el descrito en esta sección. Supongamos que la señal de entrada x(n) se expresa como la suma ponderada de señales elementales xk(n)

(31) x(n) = ∑k

ck xk(n)

donde los ck definen el conjunto de amplitudes (coeficientes de ponderación) de la descomposición de la señal x(n). Supongamos ahora que la respuesta del sistema a la señal elemental xk(n) es yk(n). Entonces (32) yk(n) ≡ T[xk(n)] suponiendo que el sistema está en reposo y que la respuesta a ck xk(n) es ck yk(n), como consecuencia de la propiedad de escalado de un sistema lineal. Finalmente, la respuesta total a la entrada x(n) es

(33) y(n) = T[x(n)] = T [∑k

ck xk(n)] = ∑k

ck T [xk(n)] = ∑k

ck yk(n)

En (33) se usa la propiedad aditiva de los sistemas lineales. Aunque a primera vista parece que la elección de las señales elementales es completamente arbitraria, en realidad dicha elección está fuertemente condicionada por la clase de señales de entrada que queramos considerar. Si no se considera ninguna restricción para las señales de entrada, entonces la descomposición de las mismas en una suma ponderada de impulsos unitarios desplazados (impulsos) es matemáticamente conveniente y completamente general. Por otra parte, si nos restringimos a ciertas subclases de señales de entrada entonces otros conjuntos de señales elementales pueden ser más convenientes, desde el punto de vista matemático, para determinar la señal de salida. Para la descomposición de la señal de entrada en una suma ponderada de impulsos unitarios, debemos determinar en primer lugar la respuesta del sistema a un impulso unitario y a continuación usar las propiedades de escalado y aditiva de un sistema lineal para determinar la fórmula de la señal a una entrada arbitraria. Descomposición de una señal discreta en impulsos. Supongamos que tenemos una señal arbitraria x(n) que queremos expresar como la suma de impulsos unitarios. Escogemos las señales elementales xk(n) como xk(n) = δδ (n – k) donde k representa el retraso del impulso unitario. Para poder manejar una señal arbitraria x(n) que puede tener infinitos valores, el conjunto de impulsos unitarios debe ser también infinito, para contener el número infinito de desplazamientos. Supongamos ahora que multiplicamos la secuencias x(n) y δ (n – k). Dado que δ (n – k) es cero en todos los puntos excepto en n = k, donde vale uno, el resultado de esta multiplicación es otra secuencia que vale cero en todos los puntos excepto en n = k donde vale x(k), como se ilustra en la figura 2.2. Por tanto, x(n) δ (n – k) = x(k) δ (n – k) es una secuencia que se anula en todos los puntos excepto en n = k, donde su valor es x(k). Si hiciésemos ahora la multiplicación de x(n) con δ (n – m), donde m es otro desplazamiento (m ≠

Page 20: Apunte 2 - Procesamiento de señales Este apunte está constituido

20

k), el resultado sería otra secuencia que es cero en todos los puntos excepto en n = m donde valdría x(m). De aquí x(n) δ (n – m) = x(m) δ (n – m) En otras palabras, cada multiplicación de la señal x(n) por un impulso unitario desplazada un cierto k, (es decir, δ (n – k)), extrae de la secuencia x(n) el valor de dicha secuencia en el punto n = k en el que el impulso unitario vale uno, en concreto, x(k). En consecuencia, si repetimos esta multiplicación para todos los posibles desplazamientos, - ∞ < k < ∞, y sumamos el resultado de todas estas multiplicaciones, obtendremos una señal igual a la secuencia original x(n), es decir,

(34) x(n) = ∑∞

−∞=k

x(k) δ(n – k)

La parte derecha de la ecuación (34) es la sumatoria de un número infinito de impulsos unitarios δ(n – k) que tienen una amplitud x(k). Así, la parte derecha de la ecuación (34) nos proporciona la descomposición de una señal arbitraria x(n) es una suma ponderada de impulsos unitarios desplazados.

Respuesta de un sistema LTI a entradas arbitrarias: la convolución. Ahora que hemos expresado una señal de entrada arbitraria x(n) como la suma ponderada de impulsos, estamos preparados para determinar la respuesta de un sistema LTI en reposo a cualquier señal de entrada. Primero, denotaremos la respuesta del sistema y(n,k) a un impulso unitario en el instante n - k mediante el símbolo especial h(n,k), - ∞ < k < ∞. Es decir, (35) y(n,k) ≡ h(n,k) = T[δ(n – k)]

Page 21: Apunte 2 - Procesamiento de señales Este apunte está constituido

21

En (35) observamos que n es el índice temporal y k indica la posición del impulso o instante en que el impulso unitario es distinto de cero. Si el impulso a la entrada del sistema se escala una cierta cantidad ck ≡ x(k), la respuesta del sistema quedará escalada por la misma cantidad, esto es, (36) ckh(n,k) = x(k) h(n,k) Finalmente, si la entrada es la señal arbitraria x(n) expresada como la suma ponderada de impulsos

(37) x(n) = ∑∞

−∞=k

x(k) δ(n – k)

entonces la respuesta del sistema es la correspondiente suma ponderada de respuestas a los impulsos, es decir,

(38) y(n) = T[x(n)] = T [ ∑∞

−∞=k

x(k) δ(n – k)] = ∑∞

−∞=k

x(k) T[δ(n – k)] = ∑∞

−∞=k

x(k) h(n,k)

Claramente (38) es consecuencia del principio de superposición de los sistemas lineales y se conoce como sumatoria de superposición. Destacamos que (38) es la respuesta de un sistema lineal a cualquier secuencia de entrada x(n). Esta expresión es una función tanto de x(n) como de las respuestas h(n,k) del sistema a los impulsos unitarios δ(n – k) con -∞ < k < ∞. Para obtener (38) se hizo uso de la propiedad de linealidad del sistema pero no de la propiedad de invarianza en el tiempo. Por lo tanto, la expresión (38) es aplicable a cualquier sistema lineal en reposo (variante en el tiempo). Si además, el sistema es invariante en el tiempo, la fórmula (38) se simplifica considerablemente. De hecho, si la respuesta del sistema al impulso unitario δ(n) se denota h(n), esto es

h(n) ≡ T[δ(n)] entonces, por la propiedad de invarianza en el tiempo, la respuesta del sistema al impulso unitario desplazado δ(n – k) es

h(n – k) = T[δ(n – k)] En consecuencia, la fórmula (38) se simplifica a

(39) y(n) = ∑∞

−∞=k

x(k) h(n - k)

Ahora queda claro que el sistema LTI en reposo queda totalmente caracterizado por la función h(n), es decir, su respuesta al impulso unitario δ(n). Por el contrario, la caracterización de la salida de un sistema lineal variante en el tiempo exige el conocimiento de infinitas funciones de respuesta a los impulsos unitarios desplazados, en concreto una por cada posible valor de desplazamiento, h(n,k). La fórmula (39) que da la respuesta y(n) del sistema LTI como función de la señal de entrada x(n) y de la respuesta impulsional h(n) se denomina convolución. Diremos que la entrada x(n) se convoluciona con la respuesta impulsional h(n) para producir la salida y(n). Sistemas con respuesta impulsional de duración finita e infinita Hasta este punto hemos caracterizado los sistemas lineales e invariantes en el tiempo por medio de su respuesta impulsional h(n). Es conveniente, sin embargo, subdividir los sistemas lineales invariantes en el tiempo en aquellos que tienen una repuesta impulsional de

Page 22: Apunte 2 - Procesamiento de señales Este apunte está constituido

22

duración finita (FIR, finite-duration impulse response) y los que tienen una respuesta impulsional de duración infinita (IIR, infinite-duration impulse response). Así, pues, un sistema FIR tiene una respuesta impulsional que es cero fuera de un determinado intervalo finito. Sin pérdida de generalidad, centraremos nuestra atención en sistemas causales FIR tales que

h(n) = 0 n < 0 y n ≥ M La convolución para este tipo de sistemas se simplifica según

y(n) = ∑−

=

1

0

M

k

h(k) x(n – k)

Esta expresión indica que la salida en cualquier instante n se obtiene como la suma ponderada de las siguientes muestras de la señal de entrada: x(n), x(n – 1),...,x(n – M + 1). En otras palabras, el sistema simplemente pondera, mediante los valores de la respuesta impulsional h(k), k = 0, 1, ..., M – 1, las M muestras más reciente de la señal de entrada y suma los M productos resultantes. El sistema se comporta como una ventana que solo permite ver las M muestras más recientes de la señal de entrada a la hora de calcular la salida. Desprecia todas las muestras anteriores, es decir, x(n – M), x(n – M – 1),... Por tanto, decimos que un sistema FIR tiene una memoria finita de M muestras. Por el contrario, un sistema lineal invariante en el tiempo IIR tiene una respuesta impulsional de duración infinita. Su salida, según la fórmula de la convolución es

y(n) = ∑∞

=0k

h(k) x(n – k)

donde se ha supuesto causalidad, aunque no es necesario. En este caso la salida del sistema consiste en la combinación lineal ponderada (por la respuesta impulsional h(k)) de las muestras de la señal de entrada, x(n), x(n-1), x(n-2),... Dado que esta suma ponderada contiene la muestra presente y todas las pasadas de la señal de entrada, decimos que el sistema tiene memoria infinita. Correlación de señales discretas. Una operación matemática muy parecida a la convolución es la correlación. Al igual que en el caso de la convolución, la correlación es una operación entre dos secuencias. Pero al contrario que la convolución, el objetivo de la correlación es medir el parecido que existe entre dos señales, y así extraer información que dependerá de la aplicación concreta considerada. La correlación de señales es una operación que se realiza con frecuencia en distintas áreas de la ingeniería y la ciencia. En comunicaciones digitales la información que se va a transmitir de un punto a otro se convierte a forma binaria, es decir, se transforma en una secuencia de unos y ceros que es transmitida hacia el receptor. Para transmitir un 0 podemos enviar una secuencia x0(n) para 0 ≤ n ≤ L – 1, y para transmitir un 1 la secuencia x1(n) para 0 ≤ n ≤ L – 1, donde L es un entero que indica el número de muestras en cada una de las dos secuencias. Muy a menudo, se selecciona x1(n) como el valor negativo de x0(n). La señal recibida por el receptor se puede representar como y(n) = xi(n) + w(n) i = 0, 1 0 ≤ n ≤ L – 1 donde ahora lo que hay que determinar es si es x0(n) o x1(n) la señal contenida en y(n), y w(n) representa el ruido aditivo y otras interferencias propias de cualquier sistema de comunicación. Otra vez, parte del ruido tiene su origen en los distintos componentes del receptor. En cualquier caso, el receptor conoce las dos posibles secuencias transmitidas x0(n) y x1(n) y su tarea consiste en compararlas con la señal recibida y(n) para determinar cuál de las dos se parece más a esta. Esta comparación se realiza mediante la correlación. Supóngase que tenemos dos secuencias reales x(n) e y(n), ambas de energía finita. La correlación cruzada de las secuencias x(n) e y(n) es la secuencia rxy(l), que se define como

Page 23: Apunte 2 - Procesamiento de señales Este apunte está constituido

23

(40) rxy(l) = ∑∞

−∞=n

x(n) y(n – l) l = 0, ± 1, ± 2,...

o equivalentemente, como

rxy(l) = ∑∞

−∞=n

x(n + l) y(n) l = 0, ± 1, ± 2,...

El índice l es el parámetro de desplazamiento o retardo en el tiempo y los subíndices xy de la secuencia de autocorrelación rxy(l) indican las señales que han sido correlacionadas. El orden de los subíndices, con x precediendo a y indica la dirección en que una secuencia es desplazada con respecto a la otra. Es decir, la secuencia x(n) no se desplaza y la secuencia y(n) se desplaza l muestras hacia la derecha si l es positivo y l muestras hacia la izquierda si l es negativo. Las similitudes entre el cálculo de la correlación cruzada y la convolución de dos secuencias son evidentes. En el cálculo de la convolución, una de las señales se refleja, se desplaza y entonces se multiplica por la otra secuencia; finalmente se suman todos los valores de la secuencia producto. Con excepción de la operación de reflexión, el cálculo de la correlación cruzada supone exactamente las mismas operaciones: desplazamiento de una de las secuencias, multiplicación de ambas y suma de todos los términos de la secuencia producto. En definitiva, si tenemos un programa para el cálculo de la convolución, podemos usarlo para obtener la correlación cruzada proporcionando como entrada x(n) y la secuencia reflejada y(- n). En el caso especial de que y(n) = x(n), tenemos la autocorrelación de x(n), que se define como la secuencia

rxy(l) = ∑∞

−∞=n

x(n) x(n – l)

5.2 Transformaciones continuas de la frecuencia La transformada de Fourier es una de las diferentes herramientas útiles en el análisis y diseño de sistemas LTI. Otras son las series de Fourier. Estas representaciones de señales implican básicamente la descomposición de las mismas en términos de componentes sinusoidales (o exponenciales complejas). Con esta descomposición, se dice que una señal está representada en el dominio de la frecuencia. La mayor parte de las señales de interés práctico se pueden descomponer en la suma de componentes sinusoidales. Para la clase de señales periódicas esta descomposición se denomina una serie de Fourier. Para la clase de señales de energía finita, la descomposición se denomina transformada de Fourier. Ambas descomposiciones son extremadamente importantes en el análisis de sistemas LTI porque la respuesta de un sistema LTI a una señal de entrada sinusoidal es una sinusoide de la misma frecuencia pero de diferente amplitud y fase. Además, la propiedad de linealidad de los sistemas LTI implica que la suma lineal de componentes sinusoidales a la entrada produce una suma similar de componentes sinusoidales a la salida, que difieren únicamente en las amplitudes y fases de las sinusoides de la entrada. Este comportamiento característico de los sistemas LTI hace que la descomposición sinusoidal de señales sea muy importante. Aunque son posibles muchas otras descomposiciones, solo la clase de señales sinusoidales (o exponenciales complejas) posee esta interesante propiedad al pasar a través de un sistema LTI. Análisis frecuencial de señales en tiempo continuo El análisis frecuencial de una señal conlleva la separación de la señal en sus componentes (sinusoidales) frecuenciales. Un ejemplo de análisis frecuencial es la utilización de un prisma para descomponer la luz solar en los colores del arco iris. Las formas de onda que nos interesa son básicamente funciones temporales. El papel del prisma es desempeñado por las herramientas de análisis de Fourier que desarrollaremos: las series de Fourier y la transformada de Fourier. La recombinación de los componentes sinusoidales para reconstruir la señal original es básicamente un problema de síntesis de Fourier. Si descomponemos una

Page 24: Apunte 2 - Procesamiento de señales Este apunte está constituido

24

forma de onda en sus componentes sinusoidales, de forma similar a como un prisma separa la luz blanca en sus diferentes colores, la suma de estas componentes sinusoidales resulta en la forma de onda original. Por otra parte, si alguna de estas componentes desaparece, el resultado es una señal diferente. El objetivo básico al desarrollar herramientas de análisis frecuencial es proporcionar una representación matemática y pictórica de las componentes frecuenciales contenidas en una cierta señal. Como en la Física, el término espectro se emplea al referirse al contenido en frecuencia de una señal. El proceso de obtención del espectro de una señal dada, usando las herramientas matemáticas básicas, se conoce como análisis frecuencial o espectral. A su vez, el proceso de determinación del espectro de una señal en la práctica, basado en mediciones reales de la señal, se denomina estimación espectral. Esta distinción es muy importante. En un problema práctico, la señal que está siendo analizada no conduce a una descripción matemática exacta. La señal puede ser portadora de cierta información que intentamos extraer. Si esta información que deseamos extraer se puede obtener directa o indirectamente a partir del contenido espectral de la señal, hacemos estimación espectral sobre la señal que porta la información y así obtenemos una estimación del espectro de la señal. Podemos ver la estimación espectral como un tipo de análisis espectral realizado sobre señales obtenidas de fuentes físicas (p. ej. voz, EEG, ECG, etc.). Los instrumentos o programas de software empleados para obtener estimaciones espectrales de tales señales se conocen como analizadores espectrales. Series de Fourier para señales periódicas en tiempo continuo Ejemplos de señales periódicas encontradas en la práctica son las ondas cuadradas, rectangulares, triangulares y, por supuesto, las sinusoides y exponenciales complejas. La representación matemática básica de las señales periódicas es la serie de Fourier, que es una suma ponderada de sinusoides relacionadas armónicamente. Una combinación lineal de exponenciales complejas armónicamente relacionadas de la forma

(41) x(t) = ∑∞

−∞=k

ckej2πkF0t

es una señal periódica de periodo fundamental Tp = 1/F0. Así pues, podemos considerar las señales exponenciales ej2πkF0t como los “bloques” básicos a partir de los cuales podemos construir señales periódicas de diferentes tipos mediante la elección adecuada de la frecuencia y de los coeficientes ck. F0 determina el periodo fundamental de x(t) y los coeficientes ck especifican la forma de la onda.

Una señal periódica tiene energía infinita y potencia media finita dada por

(42)

Page 25: Apunte 2 - Procesamiento de señales Este apunte está constituido

25

A partir de (42) se puede establecer la relación

(43) que se denomina relación de Parseval para señales de potencia. Para ilustrar el significado físico de (43), supongamos que x(t) es una exponencial compleja simple (44) x(t) = cke

j2πkF0t En este caso, todos los coeficientes de la serie de Fourier excepto ck son cero. En consecuencia, la potencia media de la señal es Px = |ck|

2 Es obvio que |ck|

2 representa la potencia del armónico k-ésimo de la señal. Así, pues, la potencia media total de la señal periódica es la suma de las potencias medias de sus armónicos. Si dibujamos |ck|

2 en función de las frecuencias kF0, k = 0, ±1, ±2,..., el diagrama que obtenemos muestra cómo se reparte la potencia de la señal periódica entre sus distintas componentes en frecuencia. Este diagrama, que se muestra en la fig. 4.2, se denomina densidad espectral de potencia (también espectro de la densidad de potencia o siplemente espectro de potencia) de la señal periódica x(t). Dado que la potencia de una señal periódica existe solo para determinados valores discretos de frecuencia (es decir, F = 0, ±F0, ±2F0,...), se dice que la señal tiene un espectro formado por líneas. El espaciado entre dos líneas espectrales consecutivas es igual al inverso del periodo fundamental Tp, mientras que la forma del espectro (es decir, la distribución de potencia de la señal), depende de las características de la señal en el dominio del tiempo.

Ejemplo. Determinar la serie de Fourier y la densidad espectral de potencia del tren de pulsos rectangulares de la fig. 4.3.

Page 26: Apunte 2 - Procesamiento de señales Este apunte está constituido

26

La señal es periódica con periodo fundamental Tp. Podemos representar la señal con la serie de Fourier definida antes y con los coeficientes de Fourier ya especificados. Como x(t) es una señal par, es conveniente seleccionar el intervalo de integración de –Tp/2 a Tp/2. c0 es entonces

(45) El término c0 representa el valor medio (componente de continua) de la señal x(t). Para k ≠ 0 tenemos

(46) El término de la derecha en (46) es de la forma (sen φ)/φ, con φ = πkF0τ. En este caso φ toma valores discretos ya que F0 y τ son fijos y el índice k varía. Si embargo, si representamos (sen φ)/φ con φ un parámetro continuo en el rango -∞ < φ < ∞, obtenemos el gráfico de la figura 4.4. Observamos que esta función decae hasta cero cuando φ → ±∞, tiene un máximo de valor unidad en φ = 0, y es cero para múltiplos de π. Está claro que los coeficientes de Fourier dados por (46) son las muestras de la función (sen φ)/φ para φ = πkF0τ y están escaladas en amplitud por Aτ/Tp.

Cuando la función periódica x(t) es par, los coeficientes de Fourier ck son reales. Por lo tanto, el espectro de fase, o bien es cero, cuando ck es positivo, o π cuando ck es negativo. En lugar de representar la magnitud y la fase por separado, podemos simplemente representar ck

Page 27: Apunte 2 - Procesamiento de señales Este apunte está constituido

27

en una única gráfica, en la que se muestran los valores positivos y negativos de ck. Esta es práctica habitual cuando los coeficientes de Fourier ck son reales. La figura 4.5 ilustra los coeficientes de Fourier del tren de pulsos rectangulares cuando Tp es fijo y la anchura del pulso τ varía. En este caso Tp = 0.25 segundos, de modo que F0 = 1/Tp = 4 Hz y τ = 0.05Tp, τ = 0.1Tp, y τ = 0.2Tp. Observamos que el efecto de disminuir τ manteniendo fijo Tp es dispersar la potencia de la señal sobre el rango de frecuencias. El espaciado entre líneas espectrales adyacentes es F0 = 4 Hz, independiente del valor de la anchura del pulso τ.

Por otro lado, también es instructivo fijar τ y variar el periodo Tp cuando Tp > τ. La figura 4.6 ilustra esta condición cuando Tp = 5τ, Tp = 10τ, y Tp = 20τ. En este caso el espaciado entre líneas espectrales adyacentes decrece a medida que Tp aumenta. En el límite cuando Tp → ∞, los coeficientes de Fourier ck tienden a cero debido al factor de Tp en el denominador de (46). Este comportamiento es consistente con que si Tp → ∞ y τ permanece fijo, la señal resultante ya no es una señal de potencia. En su lugar, se convierte en una señal de energía y su potencia media es cero. Si k ≠ 0 y sen(πkF0τ) = 0, entonces ck = 0. Los armónicos con potencia cero aparecen en frecuencias kF0 tales que π(kF0)τ = mπ, m = ±1, ±2,..., o en kF0 = m/τ: Por ejemplo, si F0 = 4Hz y τ = 0.2Tp, se deduce que las componentes en ±20 Hz, ±40 Hz, ... tienen potencia cero. Estas frecuencias corresponden a los coeficientes de Fourier ck, k = ±5, ±10, ±15,... Por otra parte, si τ = 0.1Tp, las componentes espectrales con potencia cero son k = ±10, ±20, ±30,...

Page 28: Apunte 2 - Procesamiento de señales Este apunte está constituido

28

Las series de Fourier representan una señal periódica como combinación lineal de exponenciales complejas armónicamente relacionadas. Como consecuencia de la periodicidad, estas señales tienen un espectro formado por líneas equidistantes. El espaciado entre líneas es igual a la frecuencia fundamental, que a su vez es la inversa del período fundamental de la señal. Se puede ver el periodo fundamental como el parámetro que determina el número de líneas por unidad de frecuencia (densidad de líneas) como se muestra en la figura 4.6. La transformada de Fourier para señales aperiódicas en tiempo continuo Como consecuencia de la periodicidad de las señales periódicas, estas poseen un espectro formado por líneas equidistantes. El espaciado entre líneas es igual a la frecuencia fundamental, que a su vez es la inversa del período fundamental de la señal. Podemos ver el período fundamental como el parámetro que determina el número de líneas por unidad de frecuencia (densidad de líneas), como se muestra en la figura 4.6. Con esta interpretación en mente, es evidente que si permitimos que el período aumente sin límite, el espaciado entre líneas tiende a cero. En el límite, cuando el periodo se hace infinito, la señal se hace aperiódica y su espectro es continuo. Este argumento sugiere que el espectro de una señal aperiódica será la envolvente del espectro formado por las líneas correspondientes a la señal periódica obtenida al repetir la señal aperiódica con algún periodo Tp.

Page 29: Apunte 2 - Procesamiento de señales Este apunte está constituido

29

Es evidente que la diferencia entre la serie de Fourier y la transformada de Fourier es que el espectro es continuo en el segundo caso y, por tanto, la síntesis de una señal aperiódica a partir de su espectro se lleva a cabo con una integración en lugar de una suma. Densidad espectral de energía de señales aperiódicas Sea x(t) una señal de energía finita con transformada de Fourier X(F). Su energía es

La relación de Parseval para señales aperiódicas de energía finita es

(47) y expresa el principio de conservación de la energía en los dominios del tiempo y la frecuencia. El espectro X(F) de una señal es, en general, complejo. En consecuencia, suele expresa en forma polar. Por otra parte, la cantidad (48) Sxx(F) = |X(F)|2 que es el integrando de (47), representa la distribución de energía de la señal en función de la frecuencia. De aquí que Sxx(F) se denomine densidad espectral de energía de x(t). La integral de Sxx(F) sobre todas las frecuencias nos da la energía total de la señal. De otra forma, la energía de la señal x(t) sobre una banda de frecuencias F1 ≤ F ≤ F1 + ∆F es

En (48) vemos que Sxx(F) no contiene información sobre la fase, es decir, Sxx(F) es estrictamente real y no negativo. Dado que el espectro de fase de x(t) no se encuentra en Sxx(F) es imposible reconstruir la señal dada Sxx(F).

Page 30: Apunte 2 - Procesamiento de señales Este apunte está constituido

30

Page 31: Apunte 2 - Procesamiento de señales Este apunte está constituido

31

Análisis frecuencial de señales en tiempo discreto La representación en series de Fourier de una señal periódica en tiempo continuo puede tener infinitas componentes en frecuencia, donde la separación en frecuencia de dos componentes armónicas sucesivas es 1/Tp, y donde Tp es el periodo fundamental. Dado que el rango de frecuencias de señales en tiempo continuo se extiende desde - ∞ a ∞, es posible tener señales con infinitas componentes en frecuencia. Por el contrario, el rango de frecuencias de señales en tiempo discreto se limita al intervalo (- π,π) o (0, 2π). Una señal en tiempo discreto de periodo fundamental N puede tener componentes en frecuencias separadas 2π/N radianes o f = 1/N ciclos. Consecuentemente, la representación en series de Fourier de señales periódicas en tiempo discreto contendrá como máximo N componentes de frecuencia. Esta es la diferencia fundamental entre la representación en series de Fourier de señales en tiempo continuo y señales en tiempo discreto.

Ejemplos: Determinar el espectro de las señales:

a) x(n) = cos 2 πn. Para ω0 = 2 π tenemos f0 = 1/ 2 . Dado que f0 no es un número racional, la señal no es periódica. En consecuencia, esta señal no puede expandirse en series de Fourier. De todas maneras, la señal posee un espectro. Su contenido

espectral consta de una única componente de frecuencia en ω = ω0 = 2 π.

b) x(n) = cos πn/3

c) x(n) es periódica de periodo N = 4 y x(n)= 1, 1,0,0

Page 32: Apunte 2 - Procesamiento de señales Este apunte está constituido

32

Densidad espectral de potencia de señales periódicas La potencia media de una señal periódica en tiempo discreto con periodo N es

La siguiente es la expresión para Px en términos de los coeficientes de Fourier ck:

(49) Así, la potencia media de la señal es la suma de las potencias medias de las componentes individuales en frecuencia. (49) es la relación de Parseval para señales periódicas en tiempo discreto. La secuencia |ck|

2 para k = 0,1,...,N – 1 es la distribución de potencia en función de la frecuencia y se denomina densidad espectral de potencia de una señal periódica.

Page 33: Apunte 2 - Procesamiento de señales Este apunte está constituido

33

Transformada de Fourier de señales aperiódicas en tiempo discreto Como en el caso de señales aperiódicas en tiempo continuo, el análisis frecuencias de señales de energía finita aperiódicas en tiempo discreto implica una transformada de Fourier de la señal en el dominio del tiempo. La transformada de Fourier de una señal de energía finita en tiempo discreto x(n) se define como

(47) X(ω) = ∑∞

−∞=n

x(n) e-jωn

Físicamente X(ω) representa el contenido en frecuencia de x(n). En otras palabras, X(ωω) es una descomposición de x(n) en sus componentes en frecuencia. Observamos dos diferencias básicas entre la transformada de Fourier de una señal de energía finita en tiempo discreto y la transformada de Fourier de una señal de energía finita analógica. Primero, para el caso de tiempo continuo, la transformada de Fourier, y por tanto, el espectro de la señal, tiene un rango en frecuencia que va desde -∞ a ∞- Por el contrario, el rango de frecuencias de una señal en tiempo discreto es (- π,π) o, equivalentemente (0, 2π). Esta propiedad se refleja en la transformada de Fourier de la señal. De hecho, X(ω) es periódica de período 2π. La segunda diferencia básica es también consecuencia de la naturaleza discreta de la señal. Dado que la señal es en tiempo discreto, la transformada de Fourier de la señal implica una sumatoria en lugar de una integral, como ocurre en el caso de señales de tiempo continuo. Dado que X(ω) es una función periódica de la variable frecuencia ω, puede expandirse en series de Fourier siempre y cuando se verifiquen las condiciones descritas anteriormente. De hecho, de la definición de la transformada de Fourier X(ω) de la secuencia x(n), dada en

Page 34: Apunte 2 - Procesamiento de señales Este apunte está constituido

34

(42), tenemos que X(ω) tiene la forma de una serie de Fourier. Los coeficientes de Fourier de esta serie son los valores de la secuencia x(n).

Densidad espectral de energía de señales periódicas La siguiente es la relación de Parseval para señales aperiódicas de energía finita en tiempo discreto:

El espectro X(ω) es, en general, una función compleja de la frecuencia. Como en el caso de señales en tiempo continuo, la cantidad Sxx(ω) = |X(ω)|2 representa la distribución de energía en función de la frecuencia y se denomina densidad espectral de energía de x(n). Claramente, Sxx(ω) no contiene ninguna información de fase.

Page 35: Apunte 2 - Procesamiento de señales Este apunte está constituido

35

La transformada z Las técnicas de transformación constituyen una importante herramienta en el análisis de señales y sistemas lineales e invariantes en el tiempo (LTI). La transformada z representa el mismo papel en el análisis de señales y sistemas discretos LTI que la transformada de Laplace

Page 36: Apunte 2 - Procesamiento de señales Este apunte está constituido

36

en el análisis de señales y sistemas continuos LTI. Por ejemplo, veremos que en el dominio z (plano z complejo), la convolución de dos señales en el dominio del tiempo se corresponde con la multiplicación de sus transformadas z. Esta propiedad simplifica enormemente el análisis de la respuesta de un sistema LTI a diferentes señales. Además, la transformada z nos proporciona una manera de caracterizar sistemas LTI y sus respuestas a varias señales mediante la localización de sus polos y ceros. La transformada z de una señal discreta x(n) se define como la serie de potencias

(48) X(z) ≡ ∑∞

−∞=k

x(n) z-n

Donde z es una variable compleja. La relación (48) se denomina a veces transformada z directa porque transforma una señal en el dominio del tiempo x(n) en la señal compleja X(z). El procedimiento inverso, es decir, el que obtiene x(n) a partir de X(z), se denomina transformada z inversa. Por conveniencia, la transformada z de una señal x(n) se denota por (49) X(z) ≡ Zx(n) Mientras que la relación entre x(n) y X(z) se indica mediante

x(n) ← z → X(z) Dado que la transformada z es una serie infinita de potencias, existe solo para aquellos valores de z para los que la serie converge. La región de convergencia (ROC, region of convergence) de X(z) es el conjunto de todos los valores de z para los que X(z) es finita. Por lo tanto, siempre que hablemos de una transformada z debemos indicar también su ROC. Se ve fácilmente que la ROC de señales de duración finita es todo el plano z, excepto quizás z = 0 y/o z = ∞. Estos puntos quedan excluidos porque zk (k > 0) no está acotada para z = ∞ y z--k (k > 0) no está acotada para z = 0. Por ejemplo, la transformada z de la señal x1(n) = 1,2,5,7,0,1 es X1(z) = 1 + 2z-1 + 5 z-2 + 7z-3 + z-5, ROC: plano z completo excepto z = 0. La transformada de x2(n) = 1,2,5,7,0,1 es X2(z) = z2 + 2z + 5 + 7z-1 + z-3, ROC: plano z completo excepto z = 0 y z = ∞. En esos ejemplos se ve que la ROC de señales de duración finita es todo el plano z, excepto quizás z = 0 y/o z = ∞. Estos puntos quedan excluidos porque zk (k > 0) no está acotada para z = ∞ y z-k (k > 0) no está acotada para z = 0. Desde un punto de vista matemático, la transformada z es simplemente una forma alternativa de representar una señal. Esto queda ilustrado en los ejemplos anteriores donde vemos que el coeficiente de z-n, para una transformada determinada, es el valor de la señal en el instante n. En otras palabras, el exponente de z contiene la información que necesitamos para identificar las muestras de la señal. En muchos casos la suma, finita o infinita, correspondiente a una transformada z puede expresarse de forma compacta. En estos casos, la transformada z produce una representación alternativa y compacta de la señal.

Page 37: Apunte 2 - Procesamiento de señales Este apunte está constituido

37

A menudo, tenemos la transformada z de una señal y queremos determinar la señal. El procedimiento para transformar desde el dominio z al dominio del tiempo se denomina transformada z inversa. La fórmula para obtener x(n) a partir de X(z) se puede obtener usando el teorema integral de Cauchy, que es un teorema muy importante dentro de la teoría de variable compleja. La transformada z es una herramienta muy potente para el estudio de señales y sistemas discretos. La potencia de esta transformación es consecuencia de algunas propiedades muy importantes que tiene: linealidad, desplazamiento en el tiempo, escalado en el dominio z, convolución de dos secuencias, correlación de dos secuencias, multiplicación de dos secuencias, etcétera.

Page 38: Apunte 2 - Procesamiento de señales Este apunte está constituido

38

Page 39: Apunte 2 - Procesamiento de señales Este apunte está constituido

39

Una familia muy importante de transformada z es aquella en la que X(z) es una función racional, esto es, el cociente de dos polinomios en z-1 (o z) (todos los ejemplos de la tabla 3.3 son de este tipo). La función de transferencia de un sistema lineal invariante en el tiempo La salida de un sistema lineal invariante en el tiempo para una secuencia de entrada x(n) se puede obtener como la convolución de esa secuencia de entrada x(n) con la respuesta impulsional del sistema. La propiedad de la convolución, nos permite expresar esta relación en el dominio z como (50) Y(z) = H(z) X(z) Donde Y(z) es la transformada z de la secuencia de salida y(n), X(z) es la transformada z de la secuencia de entrada x(n) y H(z) es la transformada z de la respuesta impulsional h(n). Clasificación de señales en el dominio de la frecuencia: El concepto de ancho de banda Es interesante clasificar las señales, dependiendo de sus características en el dominio del tiempo, según sus características en el dominio de la frecuencia. Es práctica habitual clasificar las señales en términos relativamente amplios atendiendo a su contenido frecuencial. En particular, si una señal de potencia (o señal de energía) tiene una densidad espectral de potencia (o densidad espectral de energía) concentrada en torno a la frecuencia cero, se denomina señal de baja frecuencia. La Figura 4.25(a) ilustra las características espectrales de una señal de este tipo. En cambio, si la densidad espectral de potencia (o densidad espectral de energía) está concentrado en altas frecuencias, se dice que la señal es de alta frecuencia. Las características espectrales de este tipo de señal se representan en la Fig. 4.25(b). Una señal que tienen la densidad espectral de potencia (o densidad espectral de

Page 40: Apunte 2 - Procesamiento de señales Este apunte está constituido

40

energía) concentrada en alguna otra parte del rango de frecuencias situado entre las altas y las bajas, se denomina se denomina señal de frecuencias medias o señal paso banda. En la Fig. 4.25(c) se ilustra un espectro de este tipo.

Además de esta clasificación relativamente amplia de las señales en el dominio de la frecuencia, es a menudo deseable expresar de forma cuantitativa el rango de frecuencias sobre el que se concentra la densidad espectral de potencia o energía. Esta medida cuantitativa se conoce como ancho de banda de una señal. Por ejemplo, supóngase que una señal en tiempo continuo tiene el 95% de su densidad espectral de potencia (o energía) concentrada en el rango de frecuencias F1 ≤ F ≤ F2. Entonces el ancho de banda del 95% de la señal es F2 – F1. De una forma similar, se puede definir el ancho de banda del 75%, 90% o 99% de la señal. En el caso de una señal paso banda, el término banda estrecha se usa para describir aquella señal cuyo ancho de banda F2 – F1 es mucho menor (digamos que por un factor de 10 o más) que la frecuencia central (F2 + F1)/2. En caso contrario, la señal se dice de banda ancha. Diremos que una señal es de banda limitada si su espectro es cero fuera del rango de frecuencias |F| ≥ B. Por ejemplo, una señal en tiempo continuo de energía finita x(t) es de banda limitada si su transformada de Fourier cumple que X(F) = 0 para |F| > B. Una señal en tiempo discreto de energía finita x(n) se dice de banda limitada (periódicamente) si

Page 41: Apunte 2 - Procesamiento de señales Este apunte está constituido

41

|X(ω)| = 0 para ω0 < |ω| < π De forma similar, una señal periódica en tiempo continuo xp(t) es limitada en banda periódicamente si sus coeficientes de Fourier son tales que ck = 0 para |k| < M, donde M es algún entero positivo. Una señal periódica en tiempo discreto con período fundamental N está limitada en banda periódicamente si sus coeficientes de Fourier cumplen que ck = 0 para k0 < |k| < N. La figura 4.26 ilustra los cuatro tipos de señales de banda limitada.

Utilizando la dualidad entre el dominio de la frecuencia y el del tiempo, se pueden dar formas similares para caracterizar las señales en el dominio temporal. En particular, una señal x(t) se denomina limitada en tiempo si x(t) = 0, |t| > τ. Si la señal es periódica con periodo Tp, se dirá limitada en tiempo periódicamente si xp(t) = 0 τ < |t| < Tp/2 Si tenemos una señal discreta x(n) de duración finita, esto es, x(n) = 0 |n| > N También se denomina limitada en tiempo. Cuando la señal es periódica con periodo fundamental N, se dice que es limitada en tiempo periódicamente si x(n) = 0 n0 < |n| < N Ninguna señal puede ser limitada en tiempo y en banda simultáneamente, existiendo una relación recíproca entre la duración temporal y frecuencial de una señal. Por ejemplo, si tenemos un pulso rectangular de duración corta en el dominio temporal, su espectro tendrá una anchura inversamente proporcional a la duración del pulso en el dominio del tiempo. Cuanto más estrecho es el pulso en el dominio del tiempo, mayor es su ancho de banda. En consecuencia. El producto de la duración temporal y el ancho de banda de una señal no se puede hacer arbitrariamente pequeño. Una señal de corta duración tendrá un gran ancho de banda, y una señal de ancho de banda pequeño será de duración larga. Por tanto, para cualquier señal, el producto tiempo-ancho de banda es fijo y no se puede hacer arbitrariamente pequeño. Hacemos notar que discutimos métodos para el análisis de señales periódicas y aperiódicas de energía finita. Existe, no obstante, una familia de señales aperiódicas deterministas con potencia finita. Estas señales consisten en una superposición lineal de exponenciales complejas con frecuencias que no están relacionadas armónicamente, esto es,

Page 42: Apunte 2 - Procesamiento de señales Este apunte está constituido

42

donde ω1, ω2,..., ωM no están armónicamente relacionadas. Estas señales tienen espectros discretos pero las distancias entre las líneas no están armónicamente relacionadas. Las señales con espectros discretos no armónicos se denominan en ocasiones cuasi periódicas. Dualidades físicas y matemáticas Resumiendo, se presentaron las siguientes herramientas de análisis frecuencial:

1. Las series de Fourier para señales periódicas en tiempo continuo. 2. La transformada de Fourier de señales aperiódicas en tiempo continuo. 3. Las series de Fourier para señales periódicas en tiempo discreto. 4. La transformada de Fourier de señales aperiódicas en tiempo discreto.

La siguiente figura resume las fórmulas de análisis y síntesis para este tipo de señales.

Page 43: Apunte 2 - Procesamiento de señales Este apunte está constituido

43

Resumen de las fórmulas de análisis y síntesis

Page 44: Apunte 2 - Procesamiento de señales Este apunte está constituido

44

Existen dos características en el dominio del tiempo que determinan el tipo de espectro que obtendremos. Estas son si el tiempo es discreto o continuo y si la señal es periódica o aperiódica. En resumen: Las señales en tiempo continuo tienen espectros aperiódicos. Un examen detallado de las fórmulas de análisis de las series de Fourier y de la transformada de Fourier para señales en tiempo continuo no revela la existencia de ningún tipo de periodicidad en el dominio del espectro. Esta falta de periodicidad es consecuencia de que la función exponencial exp(j2πFt) sea una función de la variable continua t, y, por lo tanto, no periódica en F. Así, el rango de frecuencias de señales en tiempo continuo se extiende desde F = 0 hasta F = ∞. Las señales en tiempo discreto tienen un espectro periódico. Tanto las series de Fourier como la transformada de Fourier de señales en tiempo discreto son periódicas de periodo ω = 2π. Como resultado de esta periodicidad, el rango de frecuencias de señales en tiempo discreto es finito y se extiende desde ω = -π hasta ω = π radianes, donde ω = π corresponde a la mayor oscilación posible. Las señales periódicas tienen espectros discretos. Las señales periódicas se describen mediante series de Fourier. Los coeficientes de la serie de Fourier representan las “líneas” del espectro discreto. El espaciado entre líneas ∆F o ∆f es igual al inverso del periodo Tp o N, respectivamente, en el dominio del tiempo. Esto es, ∆F = 1/Tp para señales periódicas en tiempo continuo y ∆f = 1/N para señales en tiempo discreto. Las señales aperiódicas de energía finita tienen espectros continuos. Esta propiedad es consecuencia directa del hecho de que tanto X(F) como X(ω) sean funciones de exp(j2πFt) y exp(jωn), respectivamente, que son funciones continuas de las variables F y ω. La continuidad en frecuencia es necesaria para romper la armonía y originar las señales aperiódicas. En resumen, podemos concluir que periodicidad con periodo α en un dominio automáticamente implica discretización en el otro dominio con “espaciado” 1/α y viceversa. Si mantenemos que “periodo” en el dominio de la frecuencia indica el rango de frecuencias, “espaciado” en el dominio del tiempo es el periodo de muestreo T y, el espacio entre líneas en el dominio de la frecuencia es ∆F, entonces α = Tp implica que 1/α = 1/Tp = ∆F, α = N implica que ∆f = 1/N, y α = Fs implica que T = 1/Fs. Estas dualidades tiempo-frecuencia se muestran en la figura anterior. Sin embargo, las gráficas de esta figura no se corresponden con ningún par de transformadas real. Por lo tanto, debe evitarse cualquier comparación entre ellas. Un análisis cuidadoso de la figura de más arriba revela la existencia también de algunas simetrías y dualidades matemáticas entre las distintas relaciones de análisis en frecuencia. En particular, se observa que existen dualidades entre las siguientes ecuaciones de análisis y síntesis:

1. Las ecuaciones de análisis y síntesis de la transformada de Fourier en tiempo continuo. 2. Las ecuaciones de análisis y síntesis de las series de Fourier en tiempo discreto. 3. La ecuación de análisis de la serie de Fourier en tiempo continuo y la ecuación de

síntesis de la transformada de Fourier en tiempo discreto. 4. La ecuación de análisis de la transformada de Fourier en tiempo discreto y la ecuación

de síntesis de la serie de Fourier en tiempo continuo.

Obsérvese que todas las relaciones duales se diferencian únicamente en el signo de la exponencial compleja. Es interesante destacar que este cambio en el signo puede considerarse tanto un plegado en el tiempo como en la frecuencia, ya que

Recordamos que utilizamos el término densidad espectral de energía para caracterizar señales aperiódicas de energía finita y el término densidad espectral de potencia para señales

Page 45: Apunte 2 - Procesamiento de señales Este apunte está constituido

45

periódicas. Esta terminología es consistente con el hecho de que las señales periódicas son señales de potencia y las señales aperiódicas de energía finita son señales de energía. Propiedades de la transformada de Fourier de señales en tiempo discreto La transformada de Fourier de señales aperiódicas de energía finita en tiempo discreto poseen varias propiedades que resultan muy útiles a la hora de reducir la complejidad del análisis frecuencial que surge en numerosos problemas prácticos. Propiedades similares se verifican para la transformada de Fourier de señales aperiódicas de energía finita en tiempo continuo.

5.3 Transformadas discretas de la frecuencia Para realizar el análisis frecuencial de una señal en tiempo discreto x(n), convertimos la secuencia en el dominio del tiempo en una forma equivalente, en el dominio de la frecuencia. Sabemos que tal forma viene dada por la transformada de Fourier, X(ω), de la secuencia x(n). Sin embargo, X(ω) es una función continua de la frecuencia y, por lo tanto, no es una forma computacionalmente conveniente de la secuencia x(n). Consideraremos la representación de una secuencia x(n) mediante muestras de su espectro X(ω). Dicha representación en el dominio de la frecuencia nos lleva a la transformada

Page 46: Apunte 2 - Procesamiento de señales Este apunte está constituido

46

de Fourier discreta (DFT), que constituye una poderosa herramienta para el análisis frecuencias de señales en tiempo discreto. Muestreo en el dominio de la frecuencia: la transformada de Fourier discreta Las señales aperiódicas de energía finita tienen espectros continuos. Consideremos dicha señal aperiódica en tiempo discreto x(n), con frecuencia de Fourier

(51) X(ω) = ∑∞

−∞=n

x(n) e-jωn

Supongamos que muestreamos X(ω) periódicamente con un espaciado en frecuencia δω radianes entre muestras sucesivas. Dado que X(ω) es periódica de periodo 2π, solo necesitaremos las muestras del periodo fundamental. Por conveniencia, tomaremos N muestras equidistantes en el intervalo 0 ≤ ω ≤ 2π, espaciadas δω = 2π/N, como se muestra en la figura 5.1.

La señal

(52) obtenida repitiendo periódicamente x(n) cada N muestras es periódica de periodo fundamental N. Por tanto, puede desarrollarse en serie de Fourier como

con coeficientes de Fourier

Por lo tanto,

(53)

Page 47: Apunte 2 - Procesamiento de señales Este apunte está constituido

47

Esta última relación nos proporciona la reconstrucción de la señal periódica xp(n) a partir de las muestras del espectro X(ω). Sin embargo, no implica que se puedan recuperar X(ω) o x(n) a partir de las muestras. Para conseguir esto necesitamos considerar la relación entre xp(n) y x(n). Dado que xp(n) es la extensión periódica de x(n) tal como se da en (51), está claro que x(n) puede ser recuperada a partir de xp(n), si no existe aliasing en el dominio del tiempo, es decir, si x(n) está limitada en tiempo a una duración menor que el periodo N de xp(n). Esta situación se muestra en la figura 5.2, donde, sin pérdida de generalidad, hemos considerado una secuencia de duración finita x(n), que es distinta de cero en el intervalo 0 ≤ n ≤ L – 1. Observamos que cuando N ≥ L, x(n) = xp(n) 0 ≤ n ≤ N –1 De manera que x(n) puede recuperarse a partir de xp(n) sin ambigüedad. Por otra parte, si N < L, no es posible recuperar x(n) a partir de su extensión periódica debido al aliasing en el dominio del tiempo. Por tanto, concluimos que el espectro de una señal aperiódica en tiempo discreto de duración finita L, puede recuperarse exactamente a partir de sus muestras a las frecuencias ωk = 2πk/N, si N ≥ L. El procedimiento consiste en calcular xp(n), n = 0, 1,..., N – 1 a partir de (53); después hacemos

y, finalmente, calculamos X(ω) a partir de (51)

Como en el caso de señales en tiempo continuo, es posible expresar el espectro X(ω) directamente en términos de sus muestras X(2πk/N), k = 0, 1,..., N – 1. Para obtener la fórmula de interpolación para X(ω), suponemos que N ≥ L y, partiendo de (53) y puesto que x(n) = xp(n) para 0 ≤ n ≤ N –1, tenemos

Page 48: Apunte 2 - Procesamiento de señales Este apunte está constituido

48

(54) La transformada de Fourier discreta (DFT) En general, las muestras equiespaciadas en frecuencia X(2πk/N), k = 0, 1,..., N – 1, no representan unívocamente a la secuencia original x(n) cuando x(n) tiene duración finita. Al contrario, las muestras en frecuencia X(2πk/N), k = 0, 1,..., N – 1, se corresponden con una secuencia periódica xp(n) de periodo N, donde xp(n) es una versión con aliasing de x(n), esto es,

Cuando la secuencia x(n) es de duración finita L ≤ N, entonces xp(n) es simplemente una repetición periódica de x(n), donde xp(n) en un único periodo viene dado por

En consecuencia, las muestras en frecuencia X(2πk/N), k = 0, 1,..., N – 1, representan de forma unívoca la secuencia de duración finita x(n). Dado que x(n) ≡ xp(n) en un solo periodo (rellenado con N – L ceros), la secuencia de duración finita original x(n) puede obtenerse a partir de las muestras en frecuencia X(2πk/N) por medio de la fórmula (53). Obsérvese que rellenar con ceros no proporciona ninguna información adicional sobre el espectro X(ω) de la secuencia x(n). Las L muestras equidistantes de X(ω) son suficientes para reconstruir X(ω) usando la fórmula de reconstrucción

Sin embargo, al rellenar la secuencia x(n) con N – L ceros y calcular la DFT de N puntos se obtiene una “mejor” representación gráfica de la transformada de Fourier X(ω). En resumen, una secuencia de duración finita x(n) de longitud L, es decir, x(n) = 0 para n < 0 y n ≥ L, tiene transformada de Fourier

donde los índices superior e inferior de la sumatoria reflejan el hecho de que x(n) = 0 fuera del intervalo 0 ≤ n ≤ L – 1. Cuando muestreamos X(ω) en frecuencias equiespaciadas ωk = 2πk/N, k = 0, 1,..., N – 1, donde N ≥ L, las muestras resultantes son

Page 49: Apunte 2 - Procesamiento de señales Este apunte está constituido

49

(55) donde, por conveniencia, el índice superior de la sumatoria ha sido aumentada desde L – 1 hasta N – 1, dado que x(n) = 0 para n ≥ L. La relación (55) realiza la transformación de la secuencia x(n), de longitud L ≤ N, en una secuencia de muestras en frecuencia X(k) de longitud N. Dado que las muestras en frecuencia se obtienen evaluando la transformada de Fourier X(ω) en un conjunto de N frecuencias discretas (igualmente espaciadas entre sí), la relación (55) se denomina transformada discreta de Fourier (DFT) de x(n). Por otra parte, la relación dada por (54), que nos permite recuperar la secuencia x(n) a partir de las muestras en frecuencia se denomina DFT inversa (IDFT). Claramente, cuando x(n) tiene longitud L < N, la IDFT de N puntos da x(n) = 0 para L ≤ n ≤ N – 1. Resumiendo, las fórmulas para DFT y la IDFT son:

Ejemplo. Una secuencia de duración finita de longitud L viene dada por

La transformada de Fourier de esta secuencia es

En la figura 5.5 se muestran la magnitud y la fase de X(ω) para L = 10. La DFT de N puntos de x(n) es simplemente X(ω), calculada en las N frecuencias equiespaciadas ωk = 2πk/N, k = 0, 1,..., N – 1. De aquí

Page 50: Apunte 2 - Procesamiento de señales Este apunte está constituido

50

Si N se elige de manera que N = L, entonces la DFT se expresa como

Por lo tanto, existe un único valor de la DFT distinto de cero. Esto resulta evidente al observar X(ω) = 0 a las frecuencias ωk = 2πk/L, k ≠ 0. x(n) se puede recuperar a partir de X(k) realizando una IDFT de L puntos. Aunque la DFT de L puntos es suficiente para representar de forma unívoca la secuencia x(n) en el dominio de la frecuencia, resulta evidente que no es suficiente para obtener una representación gráfica detallada de las características espectrales de x(n). Si deseamos obtener una representación gráfica mejor, debemos calcular (interloplar) X(ω) en frecuencias más próximas entre sí, digamos, en ωk = 2πk/L k = 2πk/N, donde N > L. Podemos interpretar esta operación como la expansión de la secuencia de L puntos a N puntos, añadiendo N – L ceros a la secuencia x(n), es decir, rellenando con ceros. Por lo tanto, la DFT de N puntos proporciona una interpolación más fina que la DFT de L puntos. La figura 5.6 proporciona gráficas de la magnitud y fase de la DFT de N puntos para L = 10, N = 50 y N = 100. Así, las características espectrales de la señal están más claras, como se puede concluir comparando estos espectros con el espectro continuo X(ω).

Page 51: Apunte 2 - Procesamiento de señales Este apunte está constituido

51

Relación de la DFT con otras transformadas La DFT constituye una herramienta computacional importante para el análisis frecuencial de señales mediante procesadores de señal digital. Puesto que hemos desarrollado otras herramientas y transformadas para el análisis frecuencial, es importante establecer la relación entre estas otras transformadas y la DFT. Relación con los coeficientes de las series de Fourier de secuencias periódicas. Una secuencia periódica xp(n) de periodo fundamental N puede representarse mediante una serie de Fourier de la forma

(56) donde los coeficientes de la serie de Fourier vienen dados por la expresión

Page 52: Apunte 2 - Procesamiento de señales Este apunte está constituido

52

(57) Si comparamos (56) y (57) con las fórmulas de DFT e IDFT, vemos que la fórmula para el cálculo de los coeficientes de la serie de Fourier tiene la forma de una DFT. De hecho, si definimos la secuencia x(n) = xp(n), 0 ≤ n ≤ N – 1, la DFT de esta secuencia es simplemente X(k) = N ck. Además, (56) tiene la forma de una IDFT. Por lo tanto, la DFT de N puntos nos proporciona las líneas del espectro de la secuencia periódica de periodo fundamental N. Relación con la transformada de Fourier de secuencias aperiódicas. Si x(n) es una secuencia aperiódica de energía finita con transformada de Fourier X(ω) que se muestrea en las N frecuencias equiespaciadas ωk = 2πk/N, k = 0, 1,..., N – 1, las componentes espectrales

son los coeficientes de la DFT de una secuencia periódica de periodo N, dada por

Por lo tanto, xp(n) queda determinada por el aliasing de x(n) en el intervalo 0 ≤ n ≤ N – 1. La secuencia de duración finita

carece de parecido con la señal original x(n), a menos que x(n) sea de duración finita y longitud L ≤ N, en cuyo caso

Solo en este caso la IDFT de X(k) dará como resultado la secuencia original x(n). Relación con la transformada z. Consideremos la secuencia x(n) con transformada z

con una ROC que incluye la circunferencia unidad. Si muestreamos X(z) en N puntos equiespaciados sobre la circunferencia unidad zk = ej2πk/N, 0, 1, 2,..., N – 1, obtenemos

(58)

Page 53: Apunte 2 - Procesamiento de señales Este apunte está constituido

53

La expresión (58) es idéntica a la transformada de Fourier X(ω) calculada en N frecuencias equiespaciadas ωk = 2πk/N, k = 0, 1,..., N – 1. Si la secuencia x(n) es de longitud finita N o menos, podemos recuperarla a partir de su DFT de N puntos. De aquí que su transformada z quede unívocamente determinada por su DFT de N puntos. En consecuencia, X(z) se puede expresar como una función de la DFT X(k) como sigue

(59) Cuando (59) se calcula sobre la circunferencia unidad, se obtiene la transformada de Fourier de la secuencia de duración finita, en términos de su DFT, en la forma

(60) Esta expresión de la transformada de Fourier es una fórmula de interpolación polinómica (de Lagrange) para X(ω), expresada en términos de los valores x(k) del polinomio, en un conjunto de frecuencias equiespaciadas, ωk = 2πk/N, k = 0, 1,..., N – 1. Tras ciertas manipulaciones algebraicas, es posible reducir (60) a la fórmula de interpolación dada anteriormente. Relación con los coeficientes de la serie de Fourier de una señal en tiempo continuo. Supongamos que xa(t) es una señal periódica en tiempo continuo de periodo fundamental Tp = 1/F0. La señal puede desarrollarse en serie de Fourier

(61) donde ck son los coeficientes de Fourier. Si muestreamos xa(t) con velocidad uniforme Fs = N/Tp = 1/T, obtenemos la secuencia en tiempo discreto

(62) Resulta evidente que (62) tiene la forma de la fórmula de la IDFT, donde

Page 54: Apunte 2 - Procesamiento de señales Este apunte está constituido

54

Por lo tanto, la secuencia es una versión con aliasing de ck. Análisis frecuencial de señales usando la DFT Para calcular el espectro, tanto de señales en tiempo continuo como de señales en tiempo discreto, se necesitan los valores de la señal para todos los instantes de tiempo. Sin embargo, en la práctica, las señales se observan solo durante un periodo de tiempo finito. En consecuencia, el espectro de la señal debe aproximarse a partir de un registro de datos finito. Examinaremos las consecuencias de disponer solo de registros de datos finitos en el análisis espectral por medio de la DFT. Si la señal que va a ser analizada es analógica, la pasaremos, en primer lugar, por un filtro antialiasing y, después, la muestrearemos a una velocidad Fs ≥ 2B, donde B es el ancho de banda de la señal filtrada. Por lo tanto, la frecuencia más alta de la señal muestreada es Fs/2. Finalmente, por razones prácticas, limitaremos la duración de la señal al intervalo de tiempo T0 = LT, donde L es el número de muestras y T es el intervalo de muestreo. La limitación del intervalo de observación a una duración finita reduce la resolución en frecuencia; esto es, se reduce nuestra capacidad para distinguir entre dos componentes de frecuencia que estén separadas en frecuencia menos de 1/T0 = 1/LT. Sea x(n) la secuencia a analizar. Limitar la duración de la secuencia a L muestras dentro del invervalo 0 ≤ n ≤ L – 1, es equivalente a multiplicar x(n) por una ventana rectangular w(n) de longitud L. Esto es,

donde

Supongamos ahora que la secuencia x(n) consta de una sola sinusoide, esto es X(n) = cos ω0n Por tanto, la transformada de Fourier de la secuencia de duración finita x(n) puede expresarse como

donde W(ω) es la transformada de Fourier de la secuencia ventana, que es (para la ventana rectangular)

Page 55: Apunte 2 - Procesamiento de señales Este apunte está constituido

55

Para calcular usamos la DFT. Rellenando con N – L ceros la secuencia x^(n), podemos

calcular la DFT de N puntos de la secuencia truncada (L puntos) . El espectro de

magnitud para ωk = 2πk/N, k = 0, 1,..., N, se muestra en la figura 5.12

para L = 25 y N = 2048. Observamos que el espectro de la ventana no se localiza en una sola frecuencia, sino que se extiende sobre todo el intervalo de frecuencias. Por lo tanto, la potencia de la señal original x(n) que estaba concentrada en una sola frecuencia se ha extendido, por la ventana, a todo el intervalo de frecuencias. Decimos que la potencia se ha derramado en todo el intervalo de frecuencias. En consecuencia, este fenómeno, que es característico del enventanado de la señal, se denomina derrame.

El enventanado no solo distorsiona la estimación espectral debido al derrame, sino que también reduce la resolución espectral. Para reducir el derrame, podemos elegir una ventana que tenga lóbulos laterales en frecuencia más bajos que la ventana rectangular. Sin embargo, la reducción del nivel de los lóbulos secundarios de una ventana W(ω) se consigue a expensas de aumentar la anchura del lóbulo principal de W(ω) y, por tanto, de una pérdida de resolución. Para ilustrar este punto, consideremos la ventana de Hanning y una señal

Page 56: Apunte 2 - Procesamiento de señales Este apunte está constituido

56

La figura 5.14 representa para esta ventana. Sus lóbulos secundarios son significativamente inferiores a los de la ventana rectangular, pero su lóbulo principal es aproximadamente el doble.

Page 57: Apunte 2 - Procesamiento de señales Este apunte está constituido

57

En la figura 5.15 la reducción de los lóbulos secundarios y la pérdida de resolución con respecto a la ventana rectangular son evidentes. 5.4 Filtros digitales y ventanas El término filtro se utiliza comúnmente para describir un dispositivo que discrimina, según algún atributo de los objetos que se aplican a su entrada, aquello que pasa a través suyo. Vimos antes que un sistema lineal e invariante en el tiempo también realiza un tipo de discriminación o filtrado de las diferentes componentes en frecuencia de la entrada. La naturaleza de esta acción de filtrado viene determinada por las características de la respuesta en frecuencia H(ω), que a su vez depende de la elección de los parámetros del sistema. Eligiendo adecuadamente los coeficientes, podemos diseñar filtros selectivos en frecuencia que dejen pasar señales con componentes frecuenciales en ciertas bandas, al tiempo que atenúan señales que contengan componentes frecuenciales en otras bandas. En general, un sistema lineal e invariante en el tiempo modifica el espectro de la señal de entrada X(ω), según su respuesta en frecuencia H(ω), para dar lugar a una señal de salida con espectro Y(ω) = H(ω) X(ω). En cierto sentido, H(ω) actúa como función de ponderación o función de conformación espectral para las diferentes componentes frecuenciales de la señal de entrada. Visto en este contexto, cualquier sistema lineal e invariante en el tiempo puede considerarse como un filtro de conformación espectral, aunque no bloquee necesariamente ninguna componente en frecuencia. En consecuencia, los términos “sistema lineal e invariante en el tiempo” y “filtro” son sinónimos y, como tales, se intercambian habitualmente. Emplearemos el término filtro para describir el sistema lineal e invariante en el tiempo utilizado para realizar operaciones de conformación espectral o filtrado selectivo en frecuencia. El filtrado se emplea en el procesamiento digital de señales de diferentes maneras, por ejemplo, eliminación de ruido indeseado de señales deseadas, conformación espectral para igualación de canales de comunicaciones, detección de señales en radar, sonar y comunicaciones, análisis espectrales de señales, etc.

Page 58: Apunte 2 - Procesamiento de señales Este apunte está constituido

58

Características de los filtros ideales Los filtros se suelen clasificar según sus características en el dominio de la frecuencia como paso bajo, paso alto, paso banda y de banda eliminada. Las características ideales de la respuesta en magnitud de estos tipos de filtros se representan en la Fig. 4.43. Tal como se muestra, estos filtros ideales tienen ganancia constante (normalmente tomada como ganancia unitaria) en la banda de paso y ganancia cero en la banda eliminada.

Otra característica de un filtro ideal es su respuesta de fase lineal, es decir, la salida del filtro es simplemente una versión retardada y escalada en amplitud de la señal de entrada. Como conclusión, los filtros ideales tienen una característica de magnitud constante y una característica de fase lineal dentro de su banda de paso. Además, estos filtros no son realizables, pero sirven como idealización matemática de los filtros prácticos. El filtro paso bajo ideal, por ejemplo, no es causal ni absolutamente sumable, por lo que es inestable. Sin embargo, su característica de respuesta en frecuencia se puede aproximar mucho con filtros prácticos y realizables físicamente.

Page 59: Apunte 2 - Procesamiento de señales Este apunte está constituido

59

La posición de los polos y los ceros afecta a la respuesta en frecuencia del sistema. Existe un método gráfico para calcular las características de la respuesta en frecuencia a partir del diagrama de polos y ceros, situando estos en el plano z. Este mismo procedimiento se puede emplear para diseñar algunos filtros digitales sencillos, pero importantes, con las características de la respuesta en frecuencia deseadas. El principio básico subyacente en el método de los polos y ceros es el de localizar los polos cerca de los puntos de la circunferencia unidad correspondientes a las frecuencias que desean ser acentuadas, y situar los ceros cerca de aquellos puntos que se corresponden con frecuencias que desean ser amortiguadas. Además, deben imponerse las siguientes condiciones:

1. Todos los polos deben estar en el interior de la circunferencia unida para que el filtro sea estable. Sin embargo, los ceros pueden situarse en cualquier punto del plano z.

2. Todos los ceros y polos complejos deben tener su conjugado correspondiente, de manera que los coeficientes del filtro sean reales.

En el diseño de filtros digitales paso bajo, los polos deben situarse cerca de los puntos

de la circunferencia unidad correspondientes a las bajas frecuencias (cerca de ω = 0) y los ceros deben situarse cerca de los puntos de la circunferencia unidad correspondientes a las altas frecuencias (cerca de ω = π). Lo contrario es lo necesario para filtros paso alto.

Los filtros ideales son no causales y, por lo tanto, físicamente irrealizables para aplicaciones de procesamiento de señales en tiempo real. La causalidad implica que la característica de respuesta en frecuencia H(ω) del filtro no puede ser cero excepto en un conjunto finito de puntos en el rango de frecuencias. Además, H(ω) no puede tener un corte infinitamente abrupto desde la banda de paso a la banda de rechazo, es decir, H(ω) no puede caer desde uno hasta cero abruptamente.

Page 60: Apunte 2 - Procesamiento de señales Este apunte está constituido

60

Aunque las características de respuesta en frecuencia que poseen los filtros ideales deben ser deseables, no son absolutamente necesarias en la mayoría de las aplicaciones prácticas. Si relajamos estas condiciones es posible realizar filtros causales que aproximan los filtros ideales con tanta precisión como deseemos. En particular, no es necesario insistir que la magnitud |H(ω)| sea constante en toda la banda de paso del filtro. Se puede tolerar un pequeño rizado en la banda de paso como se ilustra en la figura 8.2. Similarmente no es necesario que la respuesta del filtro |H(ω)| sea cero en la banda de rechazo. También se puede tolerar un valor pequeño distinto de cero o un pequeño rizado en la banda de rechazo.

La transición de la respuesta en frecuencia desde la banda de paso a la banda de rechazo define la banda de transición o región de transición del filtro, como se ilustra e la figura 8.2. La frecuencia ωp define el límite superior de la banda de paso, mientras que la frecuencia ωs define el principio de la banda de rechazo. Así, el ancho de la banda de transición es ωs – ωp. El ancho de la banda de transición se denomina generalmente ancho de banda del filtro. Por ejemplo, si el filtro es paso bajo con una frecuencia de corte superior ωp, su ancho de banda es ωp. Si existe un rizado en la banda de paso del filtro, su valor se denota por δ1, y la magnitud |H(ω)| varía entre los límites 1 ± δ1. El rizado en la banda de rechazo del filtro se denota por δ2. En cualquier problema de diseño de filtros podemos especificar: (1) el máximo rizado tolerable en la banda de paso, (2) el máximo rizado tolerable en la banda de rechazo, (3) la frecuencia de corte de la banda de paso ωp, y (4) la frecuencia de corte de la banda de rechazo ωs.

5.5 Procesamiento digital de señales analógicas Conversión analógico-digital y digital-analógica La mayoría de las señales de interés práctico, señales de voz, biológicas, sísmicas, radas, sonar y de distintos tipos de comunicación, como las señales de audio y video, son analógicas. Para procesar señales analógicas por medios digitales es necesario convertirlas a formato digital, esto es, transformarlas en una secuencia de números de precisión finita. Este procesamiento se denomina conversión analógico-digital (A/D) y los dispositivos correspondientes conversores A/D (ADCs).

Page 61: Apunte 2 - Procesamiento de señales Este apunte está constituido

61

Conceptualmente, podemos ver la conversión A/D como un proceso en tres pasos. Este proceso se ilustra en la figura 1.14.

1. Muestreo. Esta es la conversión de una señal en tiempo continuo a una señal en tiempo discreto obtenida tomando “muestras” de la señal en tiempo continuo en instantes de tiempo discreto. Así, si xa(t) es la entrada al muestreador, la salida es xa(nT) ≡ x(n), donde T se denomina el intervalo de muestreo.

2. Cuantificación. Esta es la conversión de una señal en tiempo discreto con valores continuos a una señal en tiempo discreto con valores discretos (señal digital). El valor de cada muestra de la señal se representa mediante un valor seleccionado de un conjunto finito de valores posibles. La diferencia entre la muestra sin cuantificar x(n) y la salida cuantificada xq(n) se denomina error de cuantificación.

3. Codificación. En el proceso de codificación, cada valor discreto xq(n) se representa mediante una secuencia binaria de b bits.

Aunque modelamos el conversor A/D con un muestreador seguido de un cuantificador, en la práctica la conversión A/D se efectúa en un único dispositivo que toma xa(t) y produce un número codificado en binario. Las operaciones de muestreo y cuantificación pueden realizarse en cualquier orden, pero, en la práctica, el muestreo siempre tiene lugar antes de la cuantificación. En muchos casos de interés práctico (p. ej. procesamiento de voz) es deseable convertir las señales digitales procesadas a forma analógica. El proceso de conversión de una señal digital en una señal analógica se conoce como conversión digital-analógica (D/A). Todos los conversores D/A “conectan los puntos” de una señal digital efectuando cierto tipo de interpolación, cuya precisión depende de la calidad del proceso de conversión D/A. La figura 1.15 muestra una forma sencilla de conversión D/A, denominada mantenedor de orden cero o aproximación por escalones. También son posibles otras aproximaciones, como la que conecta linealmente dos puntos (interpolación lineal), la que ajusta una función cuadrática a tres muestras sucesivas (interpolación cuadrática), etc. ¿Existe un interpolador óptimo (ideal)? Para señales que tienen contenido en frecuencia limitado (ancho de banda finito), el teorema de muestreo especifica la forma óptima de interpolación.

Page 62: Apunte 2 - Procesamiento de señales Este apunte está constituido

62

Demostraremos que el muestreo no da lugar a una pérdida de información ni introduce distorsión en la señal si su ancho de banda es finito. En principio, la señal analógica puede reconstruirse a partir de sus muestras, siempre que la tasa de muestreo sea lo suficientemente alta como para evitar el problema comúnmente denominado aliasing (solapamiento). Por otra parte, la cuantificación es un proceso no invertible o irreversible que resulta en la distorsión de la señal. Demostraremos que la cantidad de distorsión depende de la precisión, medida en función del número de bits del proceso de conversión A/D. Los factores que afectan a la elección de la precisión deseada del conversor A/D son el costo y la tasa de muestreo. En general, el costo aumenta con la precisión y/o la tasa de muestreo. Muestreo de señales analógicas Existen muchas maneras de muestrear una señal. Vamos a limitar nuestra discusión al muestreo periódico o uniforme, que es el tipo de muestreo usado más a menudo en la práctica. Este se describe mediante la relación (1.4.1) x(n) = xa(nT), -∞ < n < ∞ Donde x(n) es la señal en tiempo discreto obtenida tomando muestras de la señal analógica xa(t) cada T segundos. Este proceso se ilustra en la Figura 1.16. El intervalo de tiempo T entre dos muestras sucesivas se denomina período de muestreo o intervalo de muestreo y su recíproco 1/t = Fs se llama velocidad de muestreo (muestras por segundo) o frecuencia de muestreo (hertzios).

Page 63: Apunte 2 - Procesamiento de señales Este apunte está constituido

63

El muestreo periódico establece una relación entre las variables t y n de tiempo continuo y tiempo discreto, respectivamente. De hecho, estas variables se relacionan linealmente a través del período de muestreo T o, equivalentemente, a través de la velocidad de muestreo Fs = 1/T, como (1.4.2) t = nT = n/Fs Como consecuencia de (1.4.2), existe una relación entre la variable frecuencia F (o Ω) de las señales analógicas y la variable frecuencia f (o ω) de las señales en tiempo discreto. Las variables frecuencia F y f están linealmente relacionadas según (1.4.5) f= F/Fs o equivalentemente, según (1.4.6) ω = ΩT La relación dada en (1.4.5) justifica el nombre frecuencia normalizada o relativa, que se usa a veces para describir la variable frecuencia f. Como se ve en (1.4.5), podemos usar f para determinar la frecuencia F en hertzios solo si la frecuencia de muestreo Fs es conocida. El rango de la variable frecuencia F o Ω para sinusoides en tiempo continuo es (1.4.7) - ∞ < F < ∞

- ∞ < Ω < ∞ Sin embargo, la situación es diferente para sinusoides en tiempo discreto. Tenemos que

-1/2 < f < ½ - π < ω < π

Se desprende que la diferencia fundamental entre señales en tiempo discreto y señales en tiempo continuo es el rango de valores de las variables frecuencia F y f o Ω y ω. El muestreo periódico de una señal en tiempo continuo supone una correspondencia entre un rango de frecuencia infinito correspondiente a la variable F (o Ω) y un rango de frecuencia finito correspondiente a la variable f (o ω). Dado que la frecuencia máxima de una señal en tiempo discreto es ω = π o f = ½, los valores máximos de F y Ω para una velocidad de muestreo Fs son

Page 64: Apunte 2 - Procesamiento de señales Este apunte está constituido

64

(1.4.11) Fmax = Fs/2 = 1/2T Ωmax = πFs = π/T

Por lo tanto, el muestreo introduce ambigüedad; así, la máxima frecuencia de una señal en tiempo continuo que puede determinarse unívocamente cuando dicha señal se muestra a una velocidad Fs = 1/T es Fmax = Fs/2 o Ωmax = πFs. Para ver qué sucede con las frecuencias superiores a Fs/2 consideremos el siguiente ejemplo.

Ejemplo. 1.4.1. Las consecuencias de estas relaciones entre las frecuencias pueden observarse considerando las dos señales analógicas

(1.4.12) x1(t) = cos 2π (10)t

x2(t) = cos 2π (50)t que son muestreadas a una velocidad Fs = 40 Hz. Las señales o secuencias en tiempo discreto correspondientes son (1.4.13) x1(n) = cos2π (10/40) n = cos π/2 n

x2(n) = cos 2π (50/40) n = cos 5π/2 n

Sin embargo, cos 5πn/2 = cos (2πn + πn/2) = cos πn/2. De aquí, x2(n) = x1(n). Las señales sinusoidales son, por lo tanto, idénticas y, en consecuencia, indistinguibles. Dados los valores de las muestras correspondientes a cos(π/2), no podemos determinar si proceden de x1(t) o de x2(t). Dado que x2(t) produce exactamente los mismos valores que x1(t) cuando ambas son muestreadas a Fs = 40 muestras por segundo, decimos que la frecuencia F2 = 50 Hz es un alias de la frecuencia F1 = 10 Hz a la velocidad de muestreo de 40 muestras por segundo. Es importante observar que F2 no es el único alias de F1. De hecho, a una velocidad de muestreo de 40 muestras por segundo la frecuencia F3 = 90 Hz también es un alias de F1, así como la frecuencia F4 = 130 Hz, etc. Todas las sinusoides cos 2π (F1 + 40k)t, k = 1,2, 3, 4,... muestreadas a 40 muestras por segundo producen valores idénticos. En consecuencia todas son alias de F1 = 10 Hz.

En general, el muestreo de una señal sinusoidal en tiempo continuo

(1.4.14) xa(t) = A cos(2π F0t + θ) con una velocidad de muestreo Fs = 1/T produce una señal en tiempo discreto (1.4.15) x(n) = A cos(2πf0n + θ) donde f0 = F0/Fs es la frecuencia relativa de la sinusoide. Si suponemos que –Fs/2 ≤ F0 ≤ Fs/2, la frecuencia f0 de x(n) se encuentra en el rango –1/2 ≤ f0 ≤ ½, que es el rango de frecuencia para señales en tiempo discreto. En este caso, la relación entre F0 y f0 es biunívoca, y por tanto, es posible identificar (o reconstruir) la señal analógica xa(t) a partir de las muestras x(n). Por otra parte, si las sinusoides (1.4.16) xa(t) = A cos(2π Fkt + θ) donde (1.4.17) Fk = F0 + kFs, k = ±1, ±2, … se muestrean a una velocidad Fs, está claro que la frecuencia Fk se encuentra fuera del rango –Fs/2 ≤ F ≤ Fs/2. En consecuencia. La señal muestreada es

x(n) ≡ xa(nT) = A cos (2π Fs

kFsF +0n + θ)

= A cos(2πn F0/Fs + θ + 2πkn) = A cos(2πf0n + θ)

Page 65: Apunte 2 - Procesamiento de señales Este apunte está constituido

65

que es idéntica a la señal en tiempo discreto dada en (1.4.15) y obtenida mediante muestreo (1.4.14). Por lo tanto, un número infinito de señales en tiempo continuo se representan mediante el mismo conjunto de muestras. En consecuencia, a partir de las muestras x(n) no es posible determinar qué señal en tiempo continuo xa(t) representan. De forma equivalente, podemos decir que las frecuencias Fk = F0 + kFs, - ∞ < k < ∞ (k entero) son indistinguibles de la frecuencia F0 después del muestreo y, por tanto, son alias de F0. La relación entre variables frecuencia de señales en tiempo continuo y tiempo discreto se ilustra en la figura 1.17.

La Fig. 1.18 muestra un ejemplo de aliasing: dos sinusoides de frecuencias F0 = 1/8 Hz y F1= - 7/8 Hz producen muestras idénticas cuando se usa una velocidad de muestreo Fs = 1 Hz. De (1.4.17) tenemos que, para k = -1, F0 = F1 + Fs = (-7/8 +1) Hz = 1/8 Hz. Dado que Fs/2, que se corresponde con ω = π, es la frecuencia más alta que puede ser representada inequívocamente con una velocidad de muestreo Fs, es fácil determinar la correspondencia entre cualquier alias por encima de Fs/2 (ω = π) y su frecuencia equivalente por debajo de Fs/2. Podemos usar Fs/2 o ω = π como el punto de plegado y reflejar o “doblar” la frecuencia alias en el rango Fs/2 (ω = π). La frecuencia Fs/2 (ω = π) se denomina frecuencia de plegado.

Teorema de muestreo

Page 66: Apunte 2 - Procesamiento de señales Este apunte está constituido

66

Dada una señal analógica cualquiera, ¿cómo se debe elegir el período de muestreo T o, lo que es lo mismo, la velocidad de muestreo Fs? Para contestar a esta cuestión es necesaria cierta información sobre las características de la señal que va a ser muestreada. En particular, debemos tener cierta información general sobre el contenido frecuencial de la señal. Generalmente, dicha información se encuentra disponible. Por ejemplo, sabemos que la mayor frecuencia en señales de voz ronda los 3.000 Hz. Por otra parte, las señales de televisión tienen componentes de frecuencia importantes hasta los 5 MHz. La información contenida en dichas señales se encuentra en las amplitudes, frecuencias y fases de las distintas componentes de frecuencia, pero antes de obtener dichas señales no conocemos sus características con detalle. De hecho, el propósito del procesamiento de señales es normalmente la extracción de dichas características. Sin embargo, si conocemos la máxima frecuencia de una determinada clase de señales (por ejemplo, señales de voz, de video, etc.) podemos especificar la velocidad de muestreo necesaria para convertir las señales analógicas en señales digitales.

Supongamos que cualquier señal analógica se puede representar como una suma de sinusoides de diferentes amplitudes, frecuencias y fases, es decir,

(1.4.18) xa(t) = ∑=

N

i 1

Ai cos(2πFit + θi)

donde N indica el número de componentes de frecuencia. Todas las señales, como las de voz o video, se prestan a dicha representación en cualquier intervalo de tiempo pequeño. Normalmente, las amplitudes, fases y frecuencias varían lentamente de un intervalo de tiempo al siguiente. Supongamos que las frecuencias de una determinada señal no exceden una frecuencia máxima conocida Fmax. Por ejemplo, Fmax = 3 KHz, para señales de voz y Fmax = 5 MHz, para señales de video. Dado que la máxima frecuencia puede variar ligeramente (por ejemplo, de un orador a otro) podemos querer asegurar que Fmax no sobrepase determinado valor y para ello pasaremos la señal analógica por un filtro que atenúe fuertemente las componentes de frecuencia por encima de Fmax. Así estaremos seguros de que ninguna señal de la clase que nos interesa tendrá componentes de frecuencia (con amplitud o potencia significativa) por encima de Fmax. En la práctica, este filtrado se realiza antes del muestreo. El conocimiento de Fmax nos permite seleccionar la velocidad de muestreo apropiada. Sabemos que la frecuencia más alta de la señal analógica que puede reconstruirse sin ambigüedad cuando la señal se muestrea a una velocidad Fs = 1/T es Fs/2. Cualquier frecuencia por encima de Fs/2 o por debajo de – Fs/2 produce muestras que son idénticas a las correspondientes a frecuencias dentro del intervalo –Fs/2 ≤ F ≤ Fs/2. Para evitar las ambigüedades que resultan del aliasing, se debe seleccionar una velocidad de muestreo lo suficientemente alta, esto es, debemos escoger Fs/2 mayor que Fmax. Por tanto, para evitar el problema del aliasing, se selecciona Fs según

(1.4.19) Fs > 2 Fmax

donde Fmax es la frecuencia más alta de la señal analógica. Con la velocidad de muestreo seleccionada de esta manera tenemos que cualquier componente de frecuencia, por ejemplo |Fi| < Fmax, de la señal analógica se corresponde en tiempo discreto con una sinusoide de frecuencia

(1.4.20) - ½ ≤ f i = Fi/Fs ≤ ½

o equivalentemente,

(1.4.21) - π ≤ ωi = 2πfi ≤ π

Dado que |f| = ½ o |ω| = π es la frecuencia más alta (única) en una señal en tiempo discreto, la elección de la velocidad de muestreo según (1.4.19) evita el problema del aliasing. En otras palabras, la condición Fs > 2 Fmax garantiza que todas las componentes sinusoidales de la señal analógica se correspondan con componentes en frecuencia de tiempo discreto en el intervalo fundamental. Por lo tanto, todas las componentes en frecuencia de la señal analógica están representadas sin ambigüedad en la forma muestreada de la señal, y así la señal analógica

Page 67: Apunte 2 - Procesamiento de señales Este apunte está constituido

67

puede ser reconstruida sin distorsión a partir de las muestras usando un método de interpolación “apropiado” (conversión digital analógica). La fórmula de interpolación ideal o “apropiada” se especifica mediante el teorema del muestreo.

Teorema del muestreo. Si la frecuencia más alta contenida en una señal analógica xa(t) es Fmax = B y la señal se muestrea a una velocidad Fs < 2Fmax ≡ 2B, entonces xa(t) se puede recuperar totalmente a partir de sus muestras mediante la siguiente función de interpolación

(1.4.22) g(t) = Bt

Btsen

ππ

2

2

La tasa de muestreo dada por FN = 2B = 2 Fmax se denomina tasa de Nyquist. La figura 1.19 ilustra el proceso de conversión D/A ideal que utiliza la función de interpolación dada por (1.4.22).

Un punto importante es que aun cuando la forma de onda puede tener un espectro limitado en banda, la señal podría estar corrompida por ruido aleatorio de banda ancha, previo a la conversión analógica a digital. En tales casos, la señal más ruido debiera ser filtrada con un filtro analógico paso bajo que corta abruptamente por encima de la frecuencia de Nyquist, de modo que las imágenes de ruido de alta frecuencia no sean solapadas (aliased) en la banda de base. Cuantificación de señales de amplitud continua Una señal digital es una secuencia de números (muestras) en la que cada número se representa por un número finito de dígitos (precisión finita). El proceso de convertir una señal en tiempo discreto de amplitud continua en una señal digital, expresando cada muestra por medio de un número finito (en vez de infinito) de dígitos, se denomina cuantificación. El error cometido al representar la señal de valor continuo por un conjunto finito de valores discretos se denomina error de cuantificación o ruido de cuantificación. Denotaremos la operación de cuantificación de las muestras x(n) como Q[x(n)] y utilizaremos xq(n) para designar la secuencia de muestras cuantificadas a la salida del cuantificador. Así xq(n) = Q[x(n)] por tanto, el error de cuantificación de una secuencia eq(n) se define como la diferencia entre el valor cuantificado y el de la muestra original (1.4.25) eq(n) = xq(n) – x(n) Supongamos que queremos utilizar un solo dígito significativo. Para eliminar los dígitos sobrantes podemos simplemente eliminarlos (truncamiento) o aproximar por el número con un dígito significativo más cercano (redondeo). Las señales cuantificadas resultantes xq(n) se muestran en la Tabla 1.2. Discutiremos solo la cuantificación por redondeo, aunque es igual de fácil considerar el caso de truncamiento. El proceso de redondeo se ilustra gráficamente en la Fig. 1.20b.

Page 68: Apunte 2 - Procesamiento de señales Este apunte está constituido

68

Los valores permitidos en la señal digital se denominan niveles de cuantificación, mientras que la distancia ∆ entre dos niveles de cuantificación sucesivos se denomina escalón de cuantificación o resolución. El cuantificador por redondeo asigna a cada muestra de x(n) el nivel de cuantificación más cercano. Por el contrario un cuantificador por truncamiento le asignaría el nivel inmediatamente por debajo de la muestra. El error de cuantificación en el caso de redondeo se encuentra en el intervalo [-∆/2 a ∆/2], es decir

(1.4.26) - s

∆≤ eq(n) ≤

s

En otras palabras, el error de cuantificación instantáneo no puede superar la mitad del valor del escalón de cuantificación (ver Tabla 1.2). Si xmin y xmax representan los valores máximo y mínimo de x(n) y L es el número de niveles de cuantificación, entonces

(1.4.27) ∆ = 1

minmax

−−

L

xx

Definimos el rango dinámico de la señal como xmax – xmin. En nuestro ejemplo xmax = 1, xmin = 0, y L = 11, lo que nos lleva a ∆ = 0.1. Obsérvese que si el rango dinámico está prefijado, el aumento del número de niveles conlleva la disminución del escalón de cuantificación. Por tanto, el error de cuantificación decrece y aumenta la precisión del cuantificador. En la práctica se puede reducir el error de cuantificación a niveles insignificantes, eligiendo un número suficiente de niveles de cuantificación.

Page 69: Apunte 2 - Procesamiento de señales Este apunte está constituido

69

Teóricamente, la cuantificación de las señales analógicas resulta siempre en una pérdida de información. Este es el resultado de la ambigüedad introducida por la cuantificación. De hecho, la cuantificación es un proceso no invertible (es decir, una correspondencia en la que muchos elementos tienen la misma imagen), dado que a todas las muestras a una distancia inferior a ∆/2 de un determinado nivel se les asigna el mismo valor. Esta ambigüedad hace que el análisis cuantitativo de la cuantificación sea extremadamente difícil.