Apunts FCweb
Apunts FCweb
Apunts FCweb
Notas de Clase
1. Señales Aleatorias 1
4. Modulaciones Lineales 54
5. Modulaciones Angulares 72
6. Codificación de Fuente 94
ii
Tema 1: Señales Aleatorias
Antoni Morell y José López Vicario
7 de mayo de 2013
1 4
0.8
3
0.6
2
0.4
1
0.2
0 0
−0.2
−1
−0.4
−2
−0.6
−3
−0.8
−1 −4
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
En la primera vemos en trazo negro un coseno de frecuencia 1Hz y fase 0rad. En trazo azul vemos
el mismo coseno pero con una fase que no es exactamente 0 sino que cambia aleatoriamente en cada
instante de tiempo. Algo ası́ es lo que verı́amos en el osciloscopio si lo conectáramos a la salida de un
oscilador real. Si ahora desconectáramos el oscilador, deberı́amos ver una señal constante a 0 puesto
que no hay entrada. Sin embargo, esto no es exactamente ası́ ya que en realidad se apreciarı́a algo como
lo de la segunda figura, es decir, una señal aleatoria que tendrá mayor (trazo azul) o menor (trazo
negro) “amplitud”. Puesto que este tipo de señales se van a dar a la realidad es imprescindible trabajar
con ellas, lo que implica modelarlas de alguna forma. La pregunta ahora es: ¿se puede hacer algo más
que simplemente decir que se trata de una señal aleatoria? La respuesta es clara viendo las figuras,
ya que aunque las señales son aleatorias, tienen comportamientos distintos. En la primera figura hay
una forma senoidal subyacente mientras que en la segunda no, en el trazo azul de la segunda figura
hay más variabilidad que en el trazo negro, etc. Todo esto es lo que podremos cuantificar y modelar
gracias al estudio de las señales aleatorias, también conocidas como procesos aleatorios o estocásticos.
1
2. Variables aleatorias (repaso)
Definición: Una variable aleatoria X(A) es una variable matemática cuyo valor resulta de la medi-
ción de cierto suceso aleatorio A una vez realizado un determinado experimento. Habitualmente se
omite el suceso aleatorio y escribimos simplemente X para representar la variable aleatoria, que puede
ser un valor dentro de un conjunto finito de posibilidades (variable aleatoria discreta) o bien dentro
de un conjunto infinito de posibilidades (variable aleatoria continua), siempre hablando de variables
aleatorias unidimensionales. Asociada a la medida X (que corresponde a un cierto suceso A) está la
probabilidad de que dicho evento ocurra y esto es lo que cuantificaremos con la función densidad de
probabilidad (fdp) de X. Antes de hablar de la fdp, pero, pongamos unos ejemplos:
Ejemplo 1: Consideramos como experimento lanzar una moneda al aire. En este caso, existen dos
posibles sucesos, A = {cara} y A = {cruz}. La medición que hace la variable aleatoria X(A) es la
siguiente. Si sale cara, entonces X({cara}) = 1. Por contra, si sale cruz, X({cruz}) = 0.
Ejemplo 2: Consideramos ahora como experimento escoger un instante del dı́a. Ahora existen infinitos
sucesos posibles dentro del intervalo [0, 24) (dividimos el dı́a en horas). La medición que hacemos en
este caso es directamente el propio suceso, por lo que X(A) = A.
La función de densidad de probabilidad nos dice la probabilidad de que la v.a. esté comprendida
entre dos valores cualquiera. Si hacemos que los dos puntos sean infinitamente próximos, entonces
tendrı́amos la probabilidad de ese punto en cuestión. En otras palabras, conociendo fX (X), calculamos
P (X1 ≤ X ≤ X2 ) como
Z X2
P (X1 ≤ X ≤ X2 ) = fX (X)dX (1)
X1
1. fX (X) ≥ 0
R +∞
2. −∞ fX (X)dX = 1
Valor medio de X : mX
y por lo tanto estamos haciendo una ponderación de todos los valores del rango de X ponderando por
su densidad de probabilidad. Ası́ pues, los valores dentro de fX (X) más probables contribuirán más
al valor medio que los menos probables, pero en ningún caso hay que confundir la media de una v.a.
con el valor más probable que ésta pueda tomar.
2
Observación: Si pasamos la v.a. X por una función cualquiera g, entonces Y = g(X) también es v.a.
y por lo tanto podemos calcular su esperanza
Z +∞
mY = E{Y } = E{g(X)} = g(X)fX (X)dX (3)
−∞
Fijémonos que calculamos una “media” ponderada igual que antes donde cada valor g(X) tiene un
peso dado por fX (X).
Como su nombre indica, se trata de la media de X 2 , o sea, X a través de la función g(z) = z 2 . Ası́ pues,
se calcula como Z +∞
E{X 2 } = X 2 fX (X)dX (4)
−∞
2
Varianza de una v.a. X : σX
La definimos como
Z +∞
2 2
σX = E{(X −mX ) } = (X −mX )2 fX (X)dX = E{X 2 }−2E{X}mX +m2X = E{X 2 }−m2X (6)
−∞
y nos da una idea de cuánto se separan los posibles valores de X respecto a su media, teniendo más
en cuenta los que tienen una alta densidad de probabilidad frente a los que no la tienen.
Fijémonos que calculamos una “media” ponderada igual que antes donde cada desviación (X − mX )2
tiene un peso dado por fX (X).
Se trata simplemente de la raı́z cuadrada de la varianza y es quizá más fácil de interpretar. Por ejem-
plo, el conjunto de valores más probables de una v.a. X se encuentra en el intervalo [mX −σX , mX +σX ].
3
y nos da una idea del parecido entre las variables. Cuando rX,Y = 0 diremos que las variables son
ortogonales.
y nos da una idea del parecido entre 2 v.a. si quitamos el offset que supone la media de ambas. Cuando
dos variables verifican cXY = 0 diremos que están incorreladas, lo que es equivalente a decir que las
variables (X − mX ) e (Y − my ) son ortogonales.
La relación anterior entre covarianza y correlación sale de
= rXY − mX mY
4
fX (X)
X
mX 3σX
3. Procesos aleatorios
Definición: Definiremos un proceso estocástico o aleatorio como una extensión del concepto de v.a.
Recordemos que X(A) representaba una medida del suceso A una vez realizado un experimento da-
do. Ahora, en un proceso estocástico, un suceso resultado de realizar un experimento da lugar a una
función en lugar de un único número. Habitualmente, dicha función será temporal y por ese motivo
representaremos el proceso estocástico como X(A, t) o simplemente como X(t).
Ejemplo: Como ejemplo, consideremos el consumo eléctrico de una gran ciudad durante un dı́a entero
C(t). Está claro que tendrá un carácter aleatorio ya que es suma de pequeños consumos individuales
no controlados. Cada dı́a representa una realización del experimento y por lo tanto hay un nuevo
suceso a medir que, a su vez, es función del tiempo.
Podemos ver los procesos aleatorios (p.a.) de dos formas distintas (ver la figura siguiente):
1. A nivel temporal fijada una realización del experimento. Es la forma en que lo hemos definido,
es decir, una vez realizado el experimento se obtiene un suceso A = Ak y dicho suceso da lugar a
una forma temporal (que en general tendrá un carácter aleatorio). Escribiremos una realización
del proceso como X(Ak , t).
Nota: Si escribimos X(Ai , tk ) nos referimos a la medida de lo que ha sucedido en el i-ésimo experi-
mento para un tiempo t = tk y por lo tanto es un número simplemente.
La pregunta ahora es: ¿cómo caracterizar el proceso aleatorio para sacar de él la máxima información
posible y que luego nos sirva tanto para el análisis como para el diseño? Una posible solución serı́a
interpretar el p.a. de la segunda manera descrita (fijado el tiempo obtenemos una v.a.) y trabajar con
la pdf conjunta de todas las variables aleatorias resultantes. Esto resultarı́a sin duda muy complicado
especialmente cuando la variable t sea continua, ya que tendrı́amos una pdf de infinitas dimensiones.
5
X(A1 , t)
X(A2 , t)
X(A3 , t)
X(A, tk )
Por lo tanto nos vemos obligados a simplificar. Veremos en primer lugar los parámetros estadı́sticos
relacionados con procesos aleatorios, ya que éstos nos presentan distintos aspectos de interés de un
modo resumido.
En este caso obtenemos la media de la v.a. X(t). Es decir, para cada t tenemos una v.a. distinta y
sacamos su media. Como en el caso de una v.a., si pasamos X(t) a través de una función g obteniendo
R +∞
ası́ g(X(t)), entonces podremos calcular sum media como E{g(X(t))} = −∞ g(X(t))fX(t) dX(t).
En este caso medimos la correlación entre las v.a. X(t1 ) y X(t2 ), es decir, intuitivamente medimos el
parecido entre las v.a. X(t1 ) y X(t2 ) y lo llamamos autocorrelación porque ambas v.a. son parte de
un mismo proceso aleatorio. En el caso que t1 = t2 , entonces RX (t1 , t1 ) = E{|X(t1 )|2 }, es decir, la
definición de potencia media o esperada en t1 . Por lo tanto escribimos RX (t, t) = PX (t). Nótese que
6
estamos promediando el valor absoluto al cuadrado de la variable. Si X(t) fuera la tensión medida en
una resistencia de valor R = 1Ω, entonces |X(Ai , t = tk )|2 seria la potencia instantánea para el suceso
i-ésimo en el instante tk y el promediado de todos los sucesos en ese mismo tiempo (E{|X(A, tk )|2 })
seria la potencia media en ese instante. En comunicaciones referiremos siempre las potencias a una
R = 1Ω si no se nos dice lo contrario y usaremos el valor real únicamente cuando se quiera obtener la
verdadera potencia en W (es simplemente un factor de escalado).
Autocovarianza: CX (t1 , t2 ) = E{(X(t1 ) − mX (t1 ))(X(t2 ) − mx (t2 ))∗ } = RX (t1 , t2 ) − mX (t1 )m∗X (t2 )
Igual que en v.a., medimos el parecido de X(t1 ) y X(t2 ) quitando sus respectivas medias.
Supongamos que tenemos dos procesos X(t) e Y (t). Consideramos las v.a. X(t1 ) e Y (t2 ) con pdf
conjunta fXY (X, Y ; t1 , t2 ). Igual que en 2 v.a. cualquiera, podremos calcular su correlación y su cova-
rianza. Los siguientes casos son de interés:
2. Procesos independientes: cuando fXY (X, Y ; t1 , t2 ) = fX (t1 ) · fY (t2 ). Del mismo modo que en
v.a., independencia garantiza incorrelación pero incorrelación no garantiza independencia.
Con los parámetros estadı́sticos hemos conseguido simplificar el problema ya que compactamos
información. No obstante, si la media, autocorrelación, etc. van cambiando con el tiempo, seguimos
teniendo un problema ya que la cantidad de información a tener en cuenta es demasiado grande y no
está claro cómo obtenerla de antemano. Por suerte, muchos de lo procesos que usamos en comunica-
ciones no cambian (con el tiempo) algunos de los parámetros estadı́sticos presentados. Hablamos de
los procesos estacionarios, que vemos a continuación.
Son los procesos que muestran una misma pdf para dos tiempos cualquiera, es decir, se cumple que
las v.a. X(t1 ) y X(t2 ) con pdf fX (X, t1 ) y fX (X, t2 ) respectivamente, cumplen:
7
Procesos estacionarios en sentido amplio (WSS)
Son los procesos que muestran independencia temporal tanto en la media como en la autocorrelación
pero no necesariamente en la pdf, es decir, se requiere
y además
Observaciones: en este caso hay algunas analogı́as con la autocorrelación de señales deterministas.
1. La potencia del proceso en el instante t es PX (t) = RX (t, t) = RX (0) y por lo tanto es constante
en el tiempo.
∗ (−τ ).
2. Se cumple RX (τ ) = RX
Por último, nótese que estacionario en sentido estricto implica estacionario en sentido amplio, lo que
al revés no es necesariamente cierto.
Ergodicidad
La ergodicidad nos da una visión práctica de los procesos aleatorios en sentido amplio. Cuando existe
ergodicidad, los promedios estadı́sticos se pueden sustituir por los promedios temporales en una reali-
zación obteniendo el mismo resultado. Se trata de un enfoque práctico, pues los promedios temporales
son más fáciles de llevar a cabo a la práctica. En general es difı́cil demostrar la ergodicidad de un proce-
so, pero cabe decir que la mayorı́a de las señales empleadas en comunicaciones cumplen esta condición.
Cálculo de los promedios temporales: (los más interesantes son los relacionados con la media y la
autocorrelación)
T /2
1
Z
< X(t) > = X(t) = lı́m X(t)dt (17)
T →∞ T −T /2
T /2
1
Z
< X(t + τ )X ∗ (t) > = X(t + τ )X ∗ (t) = lı́m X(t + τ )X ∗ (t)dt (18)
T →∞ T −T /2
Cuando un proceso sea ergódico, entonces se cumplirá: i) mX = X(t) y ii) RX (τ ) = X(t + τ )X ∗ (t).
8
3.3. Procesos cicloestacionarios
En este caso el proceso varı́a estadı́sticamente en el tiempo per existe una periodicidad en dicha va-
riación. En otras palabras, una vez caracterizado el proceso en un intervalo T0 , entonces es inmediato
caracterizarlo para todo t. Definiremos cicloestacionariedad en sentido estricto y en sentido amplio.
La función densidad de probabilidad fX (X, t) es distinta para cada t pero se repite periódicamente,
es decir
∃T0 ∈ R tq fX (X, t) = fX (X, t + nT0 ), ∀n ∈ Z (19)
Cicloestacionariedad en sentido amplio
mX (t) = mX (t + nT0 ) ∀n ∈ Z
RX (t1 , t2 ) = RX (t1 + nT0 , t2 + nT0 ) ∀n ∈ Z
1. Media:
+π
1
Z
mX (t) = E{X(t)} = E{A cos (ω0 t + θ)} = A cos (ω0 t + θ) =0 (20)
−π 2π
2. Autocorrelación:
Nota: como la media es constante y la autocorrelación sólo depende de τ , podemos afirmar que se
trata de un proceso estacionario en sentido amplio.
3. Potencia media:
A2
PX (t) = RX (0) = ∀t (22)
2
9
4. Ergodicidad: veamos si los promedios temporales coinciden con los estadı́sticos.
T /2
1
Z
X(t) = lı́m cos (ω0 t + θ)dt (23)
T →∞ T −T /2
1 sin (ω0 T /2 + θ) − sin (ω0 T /2 − θ)
= lı́m =0
T →∞ T ω0
1 T /2
Z
∗
X(t + τ )X (t) = lı́m cos (ω0 (t + τ ) + θ) cos (ω0 t + θ)dt (24)
T →∞ T −T /2
(((
1 T /2 1 (((((((
Z
= lı́m ((cos ( (ω0 (2t + τ ) + 2θ)dt
T →∞ T (( 2
(((( −T /2
1 T /2 1 1 cos (ω0 τ ) 1
Z
+ lı́m cos (ω0 τ )dt = lı́m T = cos (ω0 τ )
T →∞ T −T /2 2 T →∞ T 2 2
Ejemplo 2: X(t) = A(t) cos (ω0 t) con A(t) proceso WSS (media mA y autocorrelación RA (τ ))
1. Media:
mX (t) = E{X(t)} = E{A(t) cos (ω0 t)} = E{A(t)} cos (ω0 t) = mA cos (ω0 t) (25)
2. Autocorrelación:
RX (t + τ, t) = E{X(t + τ )X ∗ (t)} = E{A(t + τ ) cos (ω0 (t + τ ))A∗ (t) cos (ω0 t)} (26)
∗
= E{A(t + τ )A (t)} cos (ω0 (t + τ )) cos (ω0 t)
1
= RA (τ ) [cos (2ω0 t + ω0 τ ) + cos (ω0 τ )]
2
3. Potencia media:
1
PX (t) = RX (t, 0) = RA (0) [cos (2ω0 t) + 1] (27)
2
En este caso la potencia media varı́a con el tiempo.
2π
4. Cicloestacionariedad: Tanto la media como la autocorrelación son periódicas de periodo T0 = ω0
y por lo tanto X(t) es un proceso cicloestacionario en sentido amplio.
4. La autocorrelación
Veremos algunas propiedades de la autocorrelación y qué sucede cuando un proceso pasa a través de
un sistema LTI. Los resultados son los mismos que habı́amos obtenido para señales deterministas.
10
4.1. Propiedades de la autocorrelación de procesos estacionarios
Las propiedades de la autocorrelación de procesos estacionarios son las mismas que tenı́a la autoco-
rrelación de señales deterministas. Ası́ pues, tenemos
1. RX (0) = E{|X(t)|2 } = PX
∗ (−τ )
2. RX (τ ) = RX
3. RX (0) ≥ |RX (τ )|
Entonces. al igual que sucedı́a para señales deterministas, la salida del sistema es otro proceso esta-
cionario Y (t) que cumple:
1. RY (τ ) = RX (τ ) ∗ h(τ ) ∗ h∗ (−τ ) = RX (τ ) ∗ Rh (τ )
2. RXY (τ ) = RX (τ ) ∗ h∗ (−τ )
3. RY X (τ ) = RX (τ ) ∗ h(τ )
Comprobemos la primera relación, que es la que más usaremos. A partir de la definición de autoco-
rrelación sabemos que
Ry (τ ) = E{y(t + τ )y ∗ (t)} (28)
Si ahora aplicamos la relación de sistema lineal, es decir, y(t) = x(t) ∗ h(t) = h(t) ∗ x(t), llegamos a
A partir de ahora usaremos la definición de convolución para seguir desarrollando, con lo que podemos
escribir
Z +∞ Z +∞ ∗
Ry (τ ) = E h(λ)x(t + τ − λ)dλ h(µ)x(t + −µ)dµ (30)
−∞ −∞
Z +∞ Z +∞
= h(λ)h∗ (µ)E{x(t + τ − λ)x∗ (t − µ)}dλdµ
−∞ −∞
Z +∞ Z +∞
= h(λ)h∗ (µ)Rx (τ + µ − λ)dλdµ
−∞ −∞
donde vemos que nos aparece ya Rx (τ ). Ahora faltarı́a ver que esta expresión es justamente la convolu-
ción de Rx (τ ) con h(τ )∗h∗ (−τ ). De momento nos lo creemos y ya lo acabaremos de comprobar cuando
hablemos de la densidad espectral a la salida de sistemas LTI (desde el punto de vista frecuencial).
11
5. Densidad espectral en procesos aleatorios estacionarios
Los procesos aleatorios estacionarios son señales de potencia media finita (nótese que se trata de señales
de duración infinita en general). Calcular su densidad espectral nos es útil para ver cómo se distribuye
la potencia a lo largo del eje frecuencial. Si el proceso es estacionario, este cálculo está totalmente fun-
damentado puesto que la densidad espectral no varı́a en el tiempo. En un caso más general tendrı́amos
que calcular una densidad espectral variante en el tiempo, pero desde el punto de vista de diseño no es
tan interesante porque no permite asegurar que lo que funciona a t1 lo sigue haciendo más adelante.
Por suerte, la mayorı́a de señales que trataremos en comunicaciones serán o bien estacionarias o bien
cicloestacionarias (las trataremos a continuación).
Recordemos que RX depende de la diferencia de tiempos τ pero no de t. Por lo tanto, para dos tiempos
distintos t1 y t2 se cumple RX (t1 + τ, t1 ) = RX (t2 + τ, t2 ).
La potencia media de este proceso será el promedio de la potencia asociada a cada una de las v.a. que
lo componen, es decir
1 T /2
Z
E |X(t)|2 dt
P = lı́m (33)
t→∞ T −T /2
Démonos que cuenta que si RX (0) = E |X(t)|2 no depende de t, entonces esto es directamente
la potencia media, como ya habı́amos dicho anteriormente. No obstante, prosigamos con nuestro
desarrollo. Fijémonos que XT (t) es una señal finita y que por lo tanto |XT (A, f )|2 seria su densidad
espectral de energı́a (ahora la transformada de Fourier F{XT (A, t)} = XT (A, f ) existe). Según el
teorema de Parseval, podemos afirmar que
Z +T /2 Z +∞ Z +∞
2 2
|X(t)| dt = |XT (t)| dt = |XT (f )|2 df (34)
−T /2 −∞ −∞
De aquı́ deducimos que la potencia media de (33) vale (intercambiando esperanza con integral y
viceversa) Z +∞ Z +∞
1 2 1
P = lı́m E |XT (f )| df = lı́m E{|XT (f )|2 }df (35)
T →∞ T −∞ −∞ T →∞ T
Finalmente, ya que la integral de la densidad espectral de potencia es la potencia, de (35) deducimos
que
1
SX (f ) = lı́m E{|XT (f )|2 } (36)
T →∞ T
12
Nota: la esperanza es necesaria para hacer la media entre sucesos, es decir, XT (f ) contiene una v.a.
para cada valor de f .
Una vez encontrada una expresión para SX (f ) falta ver que se corresponde con F{RX (τ )} tal y
como anuncia el teorema de Wiener-Khinchin. Para ello escribimos E{|X (f )T |2 } = E{XT (f )XT (f )∗ }
y pasamos de nuevo al dominio temporal usando la relación de Fourier, verificando ası́ que
(Z )
T /2
Z T /2
E{|XT (f )|2 } = E{XT (f )XT (f )∗ } = E X(t)e−j2πf t dt X ∗ (λ)e+j2πf λ dλ (37)
−T /2 −T /2
Ahora juntamos ambas integrales y las intercambiamos con el operador esperanza con el fin de conse-
guir la autocorrelación de X(t), es decir
Z T /2 Z T /2
E{|XT (f )|2 } = E{X(t)X ∗ (λ)}e−j2πf (t−λ) dtdλ (38)
−T /2 −T /2
Vemos que para conseguir RX (τ ) es necesario fijar la diferencia de tiempos entre t y λ. Por este motivo
hacemos un cambio de variables: definimos dos nuevas variables τ y µ que son función de t y λ. En
particular, τ = t − λ y µ = t. Para poder resolver la integral en las nuevas variables necesitamos dos
cosas: i) ver en qué región debemos integrar y ii) ver qué vale ahora dtdλ.
Veamos primero cómo se transforma la región (t, λ) ∈ [−T /2, T /2] × [−T /2, T /2] en términos de (τ, µ).
Está claro que µ se mueve en el intervalo [−T /2, T /2] al igual que lo hacı́a t. En cuanto a τ , ésta toma
el valor τ = t − λ. Es decir, fijado un valor de t = µ y considerando que λ ∈ [−T /2, T /2], vemos
que τ debe ir entre µ + T /2 y µ − T /2. Por lo tanto, la región en (τ, µ) queda limitada por las rectas
µ = τ + T /2 y µ = τ − T /2. En resumen, debemos integrar sobre la región de la figura siguiente, donde
apreciamos claramente dos regiones a integrar, correspondientes a τ < 0 y τ > 0.
µ
µ = τ − T /2
T /2
−T
T τ
−T /2
µ = τ + T /2
En segundo lugar, la transformación de dtdλ viene determinada por el jacobiano del cambio de varia-
bles. Recordemos que en nuestro caso aplicamos una transformación T (t, λ) = (τ (t, λ), µ(t, λ)) y que
por lo tanto su jacobiano vale
∂(τ, µ) ∂τ∂t
∂τ 1 −1
∂λ =
= ∂µ =1 (39)
∂(t, λ) ∂t ∂µ 1 0
∂λ
13
con lo que nos queda dtdλ = dτ dµ.
Por último juntamos ambas integrales aprovechando el hecho de que |τ | = −τ si τ < 0 y nos queda
T
|τ |
Z
E{|XT (f )| } = T 2
RX (τ )e−j2πf τ (1 − )dτ (42)
−T T
Por lo tanto,
∞
1
Z
lı́m E{|XT (f )|2 } = RX (τ )e−j2πf τ dτ (43)
T →∞ T −∞
Como nos interesa caracterizar las señales por su densidad espectral de potencia (independiente del
tiempo) pero esto sólo tiene sentido si el proceso es estacionario, una alternativa que parece razonable
14
en los procesos cicloestacionarios es tomar una media de la autocorrelación para quitar la dependencia
en t haciendo Z T /2
1
RX (τ ) = RX (t + τ, t)dt (44)
T0 −T /2
Cabe remarcar que en este caso dicha media cobra sentido porque caracteriza más o menos al proceso
en cualquier instante en el sentido que el valor instantáneo no puede ser radicalmente opuesto al valor
medio dada la periodicidad. En un caso más genérico podrı́a ser que no tuvieran nada que ver, con
lo que quizá tendrı́a más sentido trabajar con una densidad espectral variante en el tiempo que serı́a
la transformada de la autocorrelación en ese instante o del promedio de la autocorrelación en una
pequeña ventana alrededor del instante de interés.
En el caso que nos ocupa y empleando RX (τ ) podemos aplicar directamente el teorema de Wiener-
Khinchin obteniendo
SX (f ) = F{RX (τ )} (45)
y diremos que SX (f ) es la densidad espectral de potencia media.
Ejemplos
1. X(t) = A cos ω0 t + θ con θ v.a. uniforme en [−π, π]. Vimos que se trataba de un proceso esta-
cionario, por lo tanto su densidad espectral de potencia viene dada por
A2 h ω0 ω0 i
SX (f ) = F{RX (τ )} = δ(f + ) + δ(f − ) (46)
4 2π 2π
2. X(t) = A(t) cos (ω0 t) En este caso el proceso era cicloestacionario con
RA (τ )
RX (t, τ ) = [cos (2ω0 t + ω0 τ ) + cos (ω0 τ )] (47)
2
y periodo T= ω2π0 . Por lo tanto calcularemos primero la autocorrelación media, que vale
T0 /2
1 RA (τ ) RA (τ )
Z
RX (τ ) = [cos (2ω0 t + ω0 τ ) + cos (ω0 τ )] dt = cos (ω0 τ ) (48)
T0 −T0 /2 2 2
15
X(t) h(t) Y (t)
Comprobémoslo siguiendo el análisis iniciado en (30), donde tenı́amos una expresión de Ry (τ ). Ahora
transformamos para encontrar la densidad espectral de potencia a la salida del sistema, esto es
Z +∞ Z +∞ Z +∞
Sy (f ) = F{Ry (τ )} = h(λ)h (µ)Rx (τ + µ − λ)dλdµ e−j2πf τ dτ
∗
(51)
−∞ −∞ −∞
Ahora haremos el cambio de variable τ = υ − µ + λ. Para hacerlo bien deberı́amos seguir el ejemplo
que tenemos en la deducción del teorema de Wiener-Khinchin. No obstante, en este caso no cambia
ni el diferencial ni la región de integración (infinita en el espacio), ası́ que escribiremos directamente
Z +∞ Z +∞ Z +∞
Sy (f ) = F{Ry (τ )} = h(λ)h∗ (µ)Rx (τ + µ − λ)dλdµe−j2πf (υ−µ+λ) dυ (52)
−∞ −∞ −∞
Z +∞ Z +∞ Z +∞
−j2πf λ ∗
= h(λ)e dλ h (µ)e +j2πf µ
dµ Rx (υ)e−j2πf υ dυ
−∞ −∞ −∞
Z +∞ ∗
−j2πf µ
= H(f ) h(µ)e dµ Sx (f ) = H(f )H ∗ (f )Sx (f ) (53)
−∞
Con esto comprobamos el resultado de (50) pero también, aplicando la anti-transformada de Fourier,
la relación Ry (τ ) = Rx (τ ) ∗ h(τ ) ∗ h∗ (−τ ) que habı́amos visto con anterioridad.
6. Ruido
La última sección de este tema la dedicaremos a hablar del ruido, algo que nos aparece en cualquier
sistema de comunicación y que modelamos como proceso estocástico. Cuando hablamos de ruido nos
referimos en general a cualquier señal no deseada que aparece en un proceso de comunicación. Las
fuentes de ruido son muy diversas, algunas creadas por el hombre y otras fruto de procesos naturales.
Algunas de las señales de ruido creadas por el hombre se deben a
Conexión de aparatos
Motores
16
Ruido Blanco
El ruido térmico, al que a veces nos referimos como ruido blanco o ruido blanco gaussiano, se de-
be al movimiento aleatorio de los electrones en componentes disipativos. Dicho movimiento, que es
más acusado como mayor es la temperatura fı́sica (más energı́a), provoca pequeñas variaciones de
tensión/corriente. Esta tensión que evoluciona con el tiempo es lo que llamamos ruido térmico y se
modela como un proceso estacionario. Un ejemplo de ello se puede ver en la segunda Figura 1 (derecha).
El modelado del ruido térmico pasa por entender dicho proceso como el efecto combinado de infini-
dad de electrones, cada uno con un movimiento aleatorio distinto. Por el teorema central del lı́mite
sabemos que la suma de muchas v.a. independientes da lugar a una variable con función de distribu-
ción gaussiana. Asi pues, el proceso de ruido térmico n(t) es estacionario al caracterizse por una fdp
gaussiana de media 0 y varianza σn2 , es decir,
2
1 − n
n(t) ∼ N (0, σn2 ), fn (n, t) = √ e 2σn2 (54)
2πσn
Caracterı́sticas del ruido térmico
Estacionario.
Ergódico.
Media nula.
N0
Densidad espectral de potencia plana Sn (f ) = 2 ∀f . Cuando decimos ruido blanco hacemos
referencia a esta caracterı́stica.
Valor de N0
17
Ruido blanco filtrado
En muchas ocasiones nos encontraremos con un proceso de ruido blanco gaussiano n(t) que pasa a
través de un sistema LTI con respuesta impulsional h(t) y respuesta frecuencial H(f ) como muestra
la figura.
H(f )
−B B f
En este caso, la densidad espectral de potencia del ruido a la salida del sistema se calcula como
N0
Sy (f ) = Sn (f )|H(f )|2 = |H(f )|2 (56)
2
y la potencia de ruido a la salida es
∞
N0
Z
Py = |H(f )|2 df (57)
−∞ 2
RB N0
Por ejemplo, si tomamos la H(f ) de la figura, Py = −B 2 df = N0 B [W].
En general, cuando filtramos el ruido, éste pierde su caracterı́stica de “blanco” ya que se potencia más
unas frecuencias que otras. En este caso decimos que se trata de ruido “coloreado” en contraposición
al “blanco”.
18
Tema 2: Transmisión Analógica en Banda Base
Antoni Morell y José López Vicario
7 de mayo de 2013
Fuente: quien genera el mensaje x(t) a transmitir. Lo modelaremos como un proceso estacionario
con potencia Px = E{|x(t)|2 } = Rx (0) cuya densidad espectral de potencia toma valores en el
rango [−Bx , Bx ]. Diremos que Bx es el ancho de banda 1 de la señal a transmitir.
Transmisor: adapta el mensaje x(t) para que se pueda transmitir por el canal de comunicaciones.
La señal resultante de este proceso es xT (t) y tiene potencia ST .
Canal: el medio por donde se transmite la información. En el caso de comunicaciones puede ser
un medio de transmisión guiada (par de cobre, fibra óptica, guı́a de transmisión,...) o el aire en
el caso de tener comunicaciones inalámbricas.
Receptor: se encarga de recoger la señal xR (t) (potencia SR ) del canal y transformarla en una
señal interpretable para quien recibe la información xD (t). La señal recibida estará siempre
contaminada por un proceso de ruido n(t), que se manifestará también a la salida. Por lo tanto,
a la salida del receptor tendremos yD (t) = xD (t) + nD (t) con SD y ND las potencias de señal y
ruido, respectivamente.
n(t)
En este tema nos centraremos en las transmisiones en banda base, esto es, aquellas en las que la
transmisión mantiene las frecuencias originales de la señal de fuente. Por contra, en los siguientes
temas hablaremos de transmisiones paso banda y aquı́ siempre existe un desplazamiento frecuencial
1
Definiremos el ancho de banda de una señal en general como la diferencia entre su frecuencia máxima i mı́nima
(ambas siempre positivas).
19
de la señal (modulación) antes de someterla al canal. En el caso de las comunicaciones inalámbricas,
esto es casi siempre un requisito, pues la transmisión sin desplazamiento requerirı́a la transmisión a
frecuencias muy bajas, cosa que sólo se conseguirı́a con antenas muy muy grandes (no es factible).
2. Distorsión lineal
A su paso por el canal, la señal xT (t) puede sufrir alteraciones de ı́ndole diversa y diremos entonces
que xR (t) es una versión distorsionada de xT (t). Clasificaremos la distorsión en dos tipos básicos: i)
distorsión lineal y ii) distorsión no lineal. En esta sección nos centraremos en el primer tipo y más
tarde hablaremos del segundo.
No obstante, veamos primero qué entendemos por una transmisión sin distorsión. La lógica nos dice
que deberı́a ser una transmisión en la que la señal xR (t) no es alterada, pero esto es imposible ya que
siempre tendremos como mı́nimo algo de retardo y algo de atenuación. Sin embargo, ni retardo ni
atenuación afectan a la “calidad” de la señal, ası́ que en una transmisión sin distorsión permitiremos
ambas. En otras palabras, el canal no introduce distorsión si se cumple
o lo que es lo mismo, si la respuesta impulsional del canal es hC (t) = αδ(t − td ), lo que en el dominio
transformado significa HC (f ) = αe−j2πf td , es decir, el canal tiene módulo constante y fase lineal. Este
tipo de canal es lo que conocemos por canal ideal.
Cuando el canal es no ideal pero sı́ lineal (lo modelamos como sistema LTI), entonces tenemos distorsión
lineal. Podemos experimentar:
1. Distrosión de amplitud: cuando |HC (f )| no es constante en la zona frecuencial que ocupa xT (t).
Ejemplo: consideremos el canal de comunicaciones dado por HC (f ) = α(1 + β cos (2πf t0 ))e−j2πf td .
Vemos que se trata de un caso de distorsión de amplitud ya que el módulo no es constante pero la
fase sı́ es lineal. Si escribimos HC (f ) como
β j2πf t0 −j2πf t0 αβ −j2πf (td −t0 ) αβ −j2πf (td +t0 )
HC (f ) = α 1 + (e +e ) e−j2πf td = αe−j2πf td + e + e (2)
2 2 2
entonces la respuesta temporal del canal es
αβ αβ
hC (t) = αδ(t − td ) + δ(t − td + t0 ) + δ(t − td − t0 ) (3)
2 2
y por lo tanto la señal recibida será
αβ αβ
xR (t) = αxT (t − td ) +xT (t − td + t0 ) + xT (t − td − t0 ) (4)
2 2
donde vemos claramente que se distorsiona la señal transmitida añadiendo un par de ecos no deseados.
20
3. Ecualización
La ecualización tiene como objetivo combatir la distorsión lineal introducida por el canal de comuni-
caciones. La manera de hacerlo es añadiendo un sistema LTI después del canal tal que la respuesta
conjunta de ambos sea lo más próxima posible al canal ideal como muestra la figura siguiente.
xR (t)
xT (t) HC (f ) HEQ (f ) xEQ (t)
Hideal (f )
H̃EQ (f )
xR (t) T T
h0 h1 h2 h2N
xEQ (t)
21
Mirando la última expresión vemos que se parece mucho a una serie de Fourier (simplemente la varia-
ble ahora es f ). Las únicas diferencias son que hay un retardo adicional dado por el término común
e−j2πf N T (que es mayor cuanto mayor sea el tamaño del filtro) y que la serie está truncada a un total
de 2N + 1 coeficientes. Identificando términos entre (5) y (9) nos damos cuenta que lo más fácil es
aprovechar la serie para obtener α/HC (f ), con lo cual el retardo de diseño td queda forzado a N T .
Ahora nos preguntamos: ¿cómo se interpreta este resultado? y más importante aún, ¿sirve de algo
para el diseño de los coeficientes? Fijémonos que HEQ (f ) es conocida y viene dada por (5). Ahora tra-
tamos de aproximar dicha respuesta con H̃EQ (f ), pero la serie de Fourier sólo nos sirve para expresar
una señal periódica en suma de exponenciales complejas con unos coeficientes determinados y además
podemos necesitar infinitos.
El último ingrediente que nos falta es darnos cuenta de que no es necesario reproducir toda HEQ (f )
de la forma más exacta posible. Con la parte correspondiente a la zona frecuencial o ancho de banda
de la señal xT (t) es suficiente, por lo que fuera de este rango podemos tener lo que mejor nos convenga
y en particular, de cara a la serie de Fourier, es muy interesante hacer una extensión periódica de
HEQ (f ) en |f | < Bx (ver la figura).
|HEQ (f )|
|Hideal (f )|
|H̃EQ (f )|
|HC (f )|
−BX BX f
Ahora que ya tenemos una señal periódica (en f pero esto es irrelevante de cara a la transformación) la
expresamos como serie de Fourier, encontrando ası́ los coeficientes hi . Haciendo la analogı́a en tiempo,
ahora el periodo de la señal HEQ (f ) (interpretada como función que depende de f ) es 2BX y por lo
tanto la frecuencia fundamental T de la serie es T = 1/2BX . Por último, como no vamos a poder
poner infinitos retardos, no vemos obligados a truncar la serie de Fourier.
Algunas observaciones:
Cuanto más coeficientes tenga mejor será la ecualización (la serie aproximará mejor a la función
periódica) pero también mayor será el retardo introducido por el filtro transversal, ya que el
retardo total será N T .
Como más estrecho sea el ancho de banda a ecualizar, mayor retardo T hay que poner ya que
T = 1/2BX .
22
4. Distorsión no lineal
Hasta ahora hemos visto la distorsión lineal, en la que la señal pasaba a través de un sistema lineal
(el canal de comunicaciones) donde sufrı́a variaciones de módulo y fase. Ahora nos centramos en lo
que sucede cuando la señal pasa través de un sistema no lineal como podrı́a ser un amplificador de
alta potencia. Es muy importante tener claro que la respuesta impulsional sólo permite caracterizar
sistemas LTI y por tanto lineales. Para modelar sistemas no lineales (NL) tendremos que recurrir
directamente a la relación entrada-salida. Cojamos el ejemplo del amplificador de alta potencia de la
figura siguiente.
Vemos claramente que la respuesta es no-lineal y que llega un momento en que el amplificador se
satura. Intentaremos siempre trabajar en la zona lineal próxima al origen para evitar los problemas que
expondremos a continuación. En ese caso, queda justificado trabajar con una aproximación polinómica
de la respuesta del amplificador en esa zona. Consideremos pues el siguiente modelo entrada-salida,
N
X
y(t) = an xn (t) = a1 x(t) + a2 x2 (t) + . . . + aN xN (t) (10)
n=1
Fijémonos en el segundo término y analicémoslo a través de un caso sencillo. Si X(f ) fuera una señal
rectangular de ancho total 2BX , entonces X(f ) ∗ X(f ) seria una señal triangular de ancho total 4BX .
Ya intuimos en este simple ejemplo que la distorsión inducida por estos términos es grande, pues no
sólo cambia la forma de la señal en el dominio transformado sino que además aumenta su ancho de
banda. De la misma manera, el último término darı́a lugar a una señal con ancho de banda N veces
superior a la original.
Para profundizar algo más en la distorsión no-lineal consideremos un caso especial pero muy interesante
como es x(t) = A1 cos (2πf1 t)+A2 cos (2πf2 t). Se trata de un caso interesante porque si sabemos qué les
sucede a una combinación de dos tonos puros podremos deducir qué le sucede a una señal genérica
que sea suma de muchas cosenoides. Para simplificar un poco sin perder generalidad supongamos que
23
el sistema NL se caracteriza por y(t) = a1 x(t) + a2 x2 (t). En ese caso, la salida del sistema serı́a
y(t) = a1 (A1 cos (2πf1 t) + A2 cos (2πf2 t)) + a2 (A1 cos (2πf1 t) + A2 cos (2πf2 t))2 (12)
= a1 A1 cos (2πf1 t) + a1 A2 cos (2πf2 t)
+ a2 A21 cos2 (2πf1 t) + A22 cos2 (2πf2 t) + 2A1 A2 cos (2πf1 t) cos (2πf2 t)
En esta expresión vemos que obtenemos en primer lugar la señal original con cierto escalado, luego
aparecen unos términos a frecuencias múltiples de f1 y f2 , respectivamente (podemos incluir también
las componentes de continua 0f1 y 0f2 ) y por último unos términos cuya frecuencia es combinación
lineal de las frecuencias originales.
En general, sea cual sea el orden del polinomio que describe el sistema, podemos clasificar los términos
no deseados en
Componentes armónicos: los que tienen frecuencias múltiples de las frecuencias originales.
Productos de intermodulación: los que tienen frecuencias que son combinación lineal de las
frecuencias originales.
Cabe destacar que las nuevas frecuencias no deseadas pueden jugar un papel importante si, además de
distorsionar nuestra propia señal, ejercen interferencia sobre sistemas adyacentes en frecuencia, lo que
llamamos “crosstalk”. En general, los productos de intermodulación son más difı́ciles de controlar que
los armónicos. Por ejemplo, es relativamente fácil que el producto de intermodulación de dos tonos
que forman parte de una misma señal caiga justo encima de la señal deseada mientras que esto se
da más raramente en los armónicos, que normalmente caerán fuera de la banda deseada y serán más
fáciles de eliminar.
Por lo general, la distorsión no lineal se debe a los componentes del sistema (por ejemplo cuando hay
saturación) mientras que la distorsión introducida por el canal de comunicaciones la consideraremos
normalmente lineal.
5. Pérdidas de transmisión
Hemos comentado que el canal de comunicaciones introducirá distorsión a la señal (normalmente
lineal). No obstante, hay dos condiciones más que hay que tener siempre en cuenta para garantizar
una buena comunicación, incluso cuando el canal es ideal o podemos ecualizarlo perfectamente. Estas
dos condiciones son:
24
1. Que la señal deseada llegue con la amplitud suficiente, que mediremos con la potencia recibida.
Haciendo el sı́mil con una conversación normal entre dos personas en un sitio silencioso, serı́a
que estén suficientemente cerca como para que se escuchen entre sı́ de forma nı́tida.
2. Que la relación entre la potencia de la señal deseada y la potencia del ruido, lo que llamamos
relación señal a ruido o SNR, sea lo suficientemente grande. Volviendo al sı́mil anterior, si ahora
las dos personas pasan del sitio silencioso en el que se encontraban al medio de un concierto,
lo más probable es que manteniendo la misma distancia y gritando lo mismo no se escuchen.
Esto es debido a que la relación entre la potencia deseada (su voz) y la potencia de ruido (el
concierto) no llega a un valor mı́nimo necesario.
donde GdB corresponde al valor de la ganancia en escala logarı́tmica y G al mismo valor pero en
escala lineal. Por ejemplo, podemos decir que la ganancia es de 1000 o, equivalentemente, de 30dB. Si
aplicamos (15) a (14) vemos que
Pout
GdB = 10 log10 G = 10 log10 = 10 log10 Pout − 10 log10 Pin (16)
Pin
A diferencia de G, la potencia sı́ que tiene unidades (usamos casi siempre W o mW) y al pasarlo a
escala logarı́tmica hablamos de dBW o dBm, respectivamente. Para obtener dBW, debemos pasar a
dB’s una magnitud de potencia expresada en W. De la misma manera, para obtener dBm, debemos
pasar a dB’s una magnitud de potencia expresada en mW. En otras palabras,
25
Finalmente, para pasar de dBW a dBm debemos considerar
Nota: Recordad esta diferencia de 30dB entre dBm y dBW es algo que usaréis a lo largo de toda la
carrera para pasar de una unidad a otra y viceversa.
Transmisión guiada
Transmisión radio
En el primer caso, como su nombre indica, fijamos el camino por donde viaja la señal, mientras que
en el segundo la señal se propaga por todo el espacio alrededor del transmisor. Dado que son dos tipos
de propagación muy distintos, las pérdidas de transmisión se comportan de manera distinta.
Transmisión guiada
26
Medio de transmisión Frecuencia Coeficiente de atenuación
Par trenzado 1kHz 1dB/km
Cable coaxial 100kHz 1dB/km
3MHz 4dB/km
Guı́a de onda 10GHz 5dB/km
Fibra óptica λ = 1.5 µm 0,2dB/km
Ejemplo: unir dos puntos situados a 30km con un medio de transmisión guiado de α = 3 dB/km.
En este caso, la atenuación serı́a LdB = α · l = 3dB/km · 30km = 90dB. Esto quiere decir que, fijada
la potencia de recepción, la potencia de transmisión debe ser 90 dB superior. Esto es mucho (109 en
lineal), quizá demasiado. La solución es poner repetidores para ir manteniendo el nivel de potencia
deseado a lo largo del camino según muestra la figura siguiente.
L1 G1 L2 G2 GN
Medio de transmisión
Repetidores
Importante: la solución de insertar repetidores cuando la atenuación es muy grande nos permite cumplir
con la primera condición que hemos señalado al principio de la sección. No obstante, los repetidores
introducen ruido a la transmisión y con el fin de cumplir también la segunda condición, hay que hacer
un diseño adecuado del sistema de repetidores. Es algo que queda fuera del temario de esta asignatura
y que veréis más adelante.
En la transmisión vı́a radio, las pérdidas de transmisión en espacio libre vienen dadas por
2 2
4πl 4πf l
L= = (29)
λ c
27
traduce en una cierta ganancia. Juntando todo, tenemos (ver la figura)
GT GR
Pout = Pin (30)
L
GT L GR
Pin Pout
Igual que en el caso de transmisión guiada, para cubrir distancias muy largas puede ser necesario el
uso de repetidores. Recordemos que será necesario un diseño adecuado para conseguir tanto una buena
potencia recibida como una SNR.
6. Filtros
Los filtros son elementos muy comunes (por no decir indispensables) en cualquier sistema de comu-
nicaciones. Son sistemas LTI como los que hemos visto hasta el momento de los cuales nos interesa
especialmente su comportamiento frecuencial, básica y burdamente, qué frecuencias dejan pasar y
qué frecuencias atenúan o eliminan.
Hablamos de filtros ideales cuando el comportamiento es de tipo on/off, es decir, o bien dejar pasar
una frecuencia o bien la eliminan. Como su nombre indica, este es el comportamiento que desearı́amos.
No obstante, es irrealizable en la práctica, donde tendremos transiciones algo más suaves. Los tipos
básicos de filtros (ideales o reales) son:
Filtro paso bajo: deja pasar las frecuencias en un ancho de banda B alrededor del origen y
elimina el resto.
Filtro paso alto: es el complementario del anterior, es decir, elimina las frecuencias en [−B, B]
y deja pasar el resto.
Filtro paso banda: deja pasar una cierta banda frecuencial, es decir f ∈ {[−B2 , −B1 ] ∪ [B1 , B2 ]},
y elimina el resto de frecuencias.
Filtro banda eliminada: es el complementario del anterior, es decir, se dejan pasar todas las
frecuencias menos las que se encuentran en una determinada banda frecuencial.
En la siguiente figura podemos ver las respuestas ideales de estos 4 tipos de filtro y sus correspondientes
sı́mbolos. Nota: en las bandas de paso la respuesta del filtro ideal es H(f ) = αe−j2πf td para no
distorsionar la señal.
28
|H(f )| |H(f )|
−B B f −B2 −B1 B1 B2 f
|H(f )| |H(f )|
−B B f −B2 −B1 B1 B2 f
Por último, veamos en la siguiente figura como serı́a una respuesta de filtro real paso banda.
Zonas de
transición |H(f )|2
K
K/2
K/102
Banda Banda de
eliminada paso
En dicha respuesta identificamos la banda o bandas de paso y la banda o bandas eliminadas como en
los filtros ideales pero ahora se añaden unas zonas de transición. En la figura de ejemplo tenemos un
filtro paso banda real. En general, queremos que los filtros reales tengan las siguientes caracterı́sticas:
Respuesta lo más plana posible en la banda de paso para distorsionar lo mı́nimo la señal.
Transiciones rápidas para dejar pasar el mı́nimo ruido posible e interferencias de otros sistemas
o de otros canales del mismo sistema.
Retardos pequeños.
Por último, como no hay una frecuencia que separe bandas eliminadas de bandas de paso, debemos
especificar algún criterio para definir dichas bandas. Para la banda de paso, solemos definir el ancho
de banda cogiendo las frecuencias f3dB en las que la potencia decrece 3dB respecto al máximo, en
29
fmax , que en lineal se corresponderı́a a una disminución a la mitad de la potencia, esto es
|H(fmax )|2 1
|H(f3dB )|2 = −→ |H(f3dB )| = √ |H(fmax )| (31)
2 2
aunque también se puede definir el ancho de banda a 6dB o lo que se quiera. Para definir la banda
|H(fmax )|2
eliminada, miramos las frecuencia en las que la potencia baja 20dB 102
y tendremos la banda
eliminada a 20dB, 40dB (banda eliminada a 40dB), etc.
Centrémonos ahora en un modelo de receptor para un sistema analógico de transmisión en banda base
como podrı́a ser el de telefonı́a fija sobre la red telefónica conmutada (RTC), es decir, el teléfono de
toda la vida (no las alternativas que ofrecen hoy en dı́a algunas compañı́as sobre IP, voz sobre IP). Lo
más simple serı́a amplificar la señal y filtrarla en su ancho de banda para dejar pasar el mı́nimo de
ruido posible. Esto es lo que ilustra la siguiente figura.
donde hemos supuesto que señal deseada y ruido están incorrelados. Esto será lo habitual y lo haremos
ası́ a no ser que nos digan lo contrario.
30
Voz en la banda de 500Hz-2kHz para que sea justo inteligible: 5dB - 10dB
Observaciones:
El amplificador del receptor no modifica la SNR, sólo permite que la señal en destino tenga un
nivel suficiente.
De forma simple, sólo podré mejorar la SNR si incremento ST , aunque no siempre es posible.
Por último, recordad el valor de SN RD para la transmisión en banda base ya que más adelante lo
utilizaremos para comparar con la transmisión paso banda. Nos quedamos pues con el parámetro
γ = SN RD , es decir
SR
γ= (36)
N0 Bx
xR (t), SR
x(t), Px xT (t), ST yD (t) = xD (t) + nD (t)
HT (f ) HC (f ) HR (f )
Sx (f ), Bx SD , N D
n(t), Sn (f )
donde tanto transmisor como canal de comunicaciones y receptor se modelan como un sistema LTI
o “filtro”. El objetivo en este esquema es, dado un canal de comunicaciones y una señal a transmitir
(proceso estacionario caracterizado por su densidad espectral de potencia Sx (f )), ver cómo hay que
diseñar los filtros del transmisor y receptor para combatir tanto el ruido como la distorsión.
Ası́ pues, plantearemos el problema general como la maximización de la SNR en destino, es decir
SD /ND , sujeta a las siguiente restricción (vista desde el punto de vista temporal o frecuencial),
HT (f ) · HC (f ) · HR (f ) = αe−j2πf td
hT (t) ∗ hC (t) ∗ hR (t) = αδ(t − td )
es decir, la respuesta global del sistema debe corresponder a la del canal ideal para no distorsionar la
señal a transmitir x(t). A partir de aquı́ debemos hacer dos observaciones:
1. La parte correspondiente a señal deseada xD (t) de la señal en destino yD (t) será xD (t) = αx(t −
td ). Esto ya impone que
SD = α2 Px (37)
31
2. Se debe fijar la potencia de transmisión ST a un valor deseado, ya que de lo contrario la solución
del problema serı́a la trivial, es decir, poner un filtro HT (f ) que proporcione potencia de trans-
misión arbitrariamente grande. Nótese que la gracia del diseño que planteamos es jugar con las
respuestas frecuenciales HT (f ) y HR (f )sin tener que recurrir a la solución fácil de incrementar
ST a través de la amplificación que haga el transmisor.
El problema de maximización de SNR propuesto involucra esencialmente los módulos de los filtros
ya que la potencia depende de ello. No obstante, al plantear el problema con la restricción de no
distorsión, debemos tener en cuenta también las fases de los filtros, únicamente para cumplir
Esto es trivial ya que tenemos ∠HT (f ) y ∠HR (f ) (dos grados de libertad) para compensar la fase del
canal y forzar que la fase del conjunto sea lineal.
sujeto a ST fija y |HT (f )|2 · |HC (f )|2 · |HR (f )|2 = α2 . Centrémonos pues en el diseño de módulos. Lo
primero que hay que hacer es expresar SD y ND en función de |HT (f )| y |HR (f )|. Empecemos por lo
más fácil, que es ND y vale Z+∞
ND = Sn (f )|HR (f )|2 df (40)
−∞
El caso de SD es algo más complejo ya que debemos ponerlo también en función de la potencia
transmitida ST que queremos fijar. Esta potencia valdrá
Z +∞
ST = Sx (f )|HT (f )|2 df (41)
−∞
De esta última ecuación podemos aislar α2 y sustituir en (37), con lo que obtenemos
ST Px
SD = R +∞ Sx (f )
(43)
−∞ |HC (f )|2 |HR (f )|2 df
SD S T Px
SN RD = = R +∞ Sx (f ) R +∞ (44)
ND df 2
2
−∞ |HC (f )| |HR (f )| 2 −∞ Sn (f )|HR (f )| df
32
La cuestión ahora es como maximizar SN RD imponiendo las restricciones. Fijémonos que la condición
de no distorsión en amplitud ya ha sido impuesta para pasar de (41) a (42). Ası́ mismo, la potencia
en destino ha sido fijada a través de α en (37) y luego usado para encontrar (43). Entonces la única
restricción que nos queda por fijar en (44) es ST , donde aparece explı́citamente. La clave ahora es
ver que si fijamos el valor de ST , teniendo en cuenta que Px viene dado, lo que hay que hacer para
maximizar SN RD es minimizar el denominador. Para ello usamos la desigualdad de Cauchy-Schwarz,
que nos dice que dos vectores u y v en un espacio vectorial con producto escalar definido (sea el espacio
vectorial de los vectores en Rn , los complejos o bien las funciones complejas continuas) cumplen
En el caso que nos ocupa, trabajamos en el espacio vectorial de las funciones complejas continuas
sobre el cuerpo de los complejos donde el producto escalar viene definido por la integral del producto
conjugado de funciones. En ese caso la desigualdad se convierte en
Z +∞ 2 Z +∞ Z +∞
∗ 2
|v(x)|2 dx
u(x)v (x)dx ≤
|u(x)| dx (46)
−∞ −∞ −∞
En realidad, nosotros trabajamos con funciones reales de f (módulos y densidades espectrales), pero
hemos puesto la expresión anterior porque es más genérica y la usaréis otras veces. Aplicándolo al
denominador de (44) vemos que ahı́ tenemos el producto de la norma al cuadrado dos funciones (parte
derecha de la desigualdad) que son
s
Sx (f )
U (f ) = (47)
|HC (f )|2 |HR (f )|2
p
V (f ) = Sn (f )|HR (f )|2 (48)
y la desigualdad nos dice que, sean cuales sean U (f ) y V (f ), el producto de sus normas al cuadrado
R 2
+∞
estará siempre por encima de una cantidad que vale −∞ U (f )V (f )df y que es el producto escalar
de las dos funciones. También nos dice que si U (f ) = kV (f ) entonces el producto de sus normas al
cuadrado tomará su valor mı́nimo. Veamos ahora qué vale U (f )V (f ),
1/2 1/2 1/2
Sx (f ) Sx (f ) · Sn (f )
U (f )V (f ) = · Sn1/2 (f )|HR (f )| = (49)
|HC (f )||HR (f )| |HC (f )|
Nos damos cuenta de que es independiente de los filtros a diseñar
2 y que depende de funciones dadas.
R +∞
Por lo tanto vemos que el valor mı́nimo −∞ U (f )V (f )df es igual para cualquiera que sean los
33
Por último, combinando la respuesta óptima que acabamos de encontrar, |HR (f )|2 , con la ecuación
de no distorsión elevada al cuadrado, es decir, |HT (f )|2 |HC (f )|2 |HR (f )|2 = α2 , encontramos
1/2
k α2 Sn (f )
|HT (f )|2 = 1/2
(51)
Sx (f )|HC (f )|
Los filtros terminales óptimos en el transmisor (51) y receptor (50) se califican en la literatura como
de preénfasis y deénfasis respectivamente. Este calificativo tiene relación con la densidad espectral
de ruido y nos remarca que lo mejor que podemos hacer es amplificar la señal en el transmisor es-
pecialmente en aquellas frecuencias donde haya más potencia de ruido (preénfasis) mientras que en
el receptor hay que hacer lo contrario. Fijémonos que sólo el nivel de ruido depende únicamente del
filtro receptor y que ya nos va bien atenuar aquellas frecuencias donde la densidad espectral de ruido
sea alta con el fin de minimizar la potencia total de ruido. Para compensar este efecto y no introducir
distorsión, el transmisor deberá amplificar esas frecuencias. Un análisis semejante podemos hacer con
la densidad espectral de la señal y es el caso de estudio que veremos luego en un ejemplo.
Fijémonos que a través del valor de α2 podremos ajustar SD , mientras que ST se deberá fijar a través
de k una vez hayamos escogido el valor deseado de α2 según las ecuaciones (41) y (51). Una vez
fijados ambos, la SNR en destino óptima que obtendremos usando los filtros terminales óptimos sale
de sustituir (50) en (43), obteniendo ası́
∗ ST PX
SN RD = 2 (52)
R +∞ 1/2 1/2
Sx (f )Sn (f )
−∞ |HC (f )|
R +∞
con ST = −∞ Sx (f )|HT (f )|2 df .
Este ejemplo, orientado a la grabación/reproducción de audio, es una aplicación de los filtros terminales
óptimos en un sistema donde la densidad espectral de ruido es plana y el canal es ideal (supongamos
|HC (f )| = 1). No obstante, la densidad espectral de la señal de audio concentra más potencia en las
frecuencias bajas que en las altas. En este escenario, el diseño con filtros terminales óptimos (50) -
(51) resulta
k α2
|HT (f )|2 = 1/2
(53)
Sx (f )
1/2
2 Sx (f )
|HR (f )| = (54)
k
tal y como muestra la figura siguiente.
Vemos que el filtro transmisor potencia las frecuencias altas (preénfasis) que, al tener menor densidad
de potencia, son más débiles frente al ruido que las más bajas. Para compensar este efecto y evitar
distorsión de la señal deseada, el filtro receptor toma la forma inversa (deénfasis) y la señal llega
“intacta” al receptor. La pregunta ahora es ¿qué ganamos haciendo esto? La respuesta deberı́a ser,
34
|HT (f )|2
Sx1/2 (f )
|HR (f )|2
−BX BX f
dado el objetivo de diseño de los filtros óptimos, mejorar la SNR con respecto a un sistema simple que
consistirı́a en un filtro paso banda ideal y un amplificador en el lado del receptor, que también dejarı́a
la señal “intacta”. Supongamos, para ser justos, que ambos sistemas fijan la misma SD y para hacerlo
fácil cogemos k = α = 1 para que SD = Px . Consideremos también que el máximo de Sx (f ) vale 1 y
veamos bajo estas condiciones qué sucede con la potencia de ruido en ambos sistemas. El resultado lo
podemos apreciar en la siguiente figura, donde claramente vemos que esta técnica nos elimina parte
del ruido que un sistema simple con un filtro pasa banda ideal dejarı́a pasar.
1
Sn (f )
Bx
−BX BX f
ruido eliminado
f
HR (f )
Filtro adaptado
Antes de concluir este tema hablaremos del filtro adaptado, que no tiene nada que ver con lo que
hemos visto hasta ahora. No obstante, como a veces se presta a cierta confusión en relación con los
filtros terminales óptimos, lo vemos aquı́ ya que también se usará más adelante en la parte de comuni-
caciones digitales. De hecho, las dos principales aplicaciones del filtro adaptado son las comunicaciones
digitales y los sistemas de radar. Pero... ¿en qué consiste?
Supongamos ahora que transmitimos una señal de duración temporal finita p(t) a la que denominare-
mos pulso. El receptor conoce dicha forma temporal pero desconoce su amplitud Ap ası́ como el tiempo
de llegada t0 y quiere detectar el momento en que llega el pulso lo mejor posible. En este supuesto, la
señal recibida será
xR (t) = Ap p(t − t0 ) (55)
35
y su transformada de Fourier
XR (f ) = Ap P (f )e−j2πf t0 (56)
donde P (f ) = F{p(t)}. Ası́ pues, la energı́a total del pulso recibido es
Z +∞ Z +∞
2 2
Ep = |XR (f )| df = Ap |P (f )|2 df (57)
−∞ −∞
Intuitivamente, lo que debe hacer el receptor es de alguna forma comprimir la forma del pulso para que
toda su energı́a se concentre en un margen temporal lo más pequeño posible dando lugar a una señal
abrupta que se desmarque claramente del ruido subyacente. Esto es lo que vemos en la siguiente figura
donde H(f ) es la respuesta frecuencial del filtro adaptado. Fijémonos que hay un retardo adicional td
que será necesario a la práctica para tener un filtro que debe ser causal para que sea realizable.
xR (t) y(t)
p(t)
xR (t) = Ap p(t − t0 ) H(f ) y(t)
t t
t0 t0 + t d
n(t), Sn (f )
Por otro lado, la potencia de ruido después del filtro adaptado valdrá
Z +∞
2
σ = |H(f )|2 Sn (f )df (59)
−∞
y coincidirá con su varianza si suponemos que tiene media 0. Finalmente, como el objetivo del filtro
adaptado es detectar el pulso lo mejor posible, lo que hay que hacer es maximizar la relación entre la
amplitud en el instante de detección A y la amplitud del ruido. Como la amplitud del ruido es aleatoria
y por lo tanto impredecible, tomamos una medida estadı́stica que sea el equivalente, en este caso la
desviación estándar que nos dice qué amplitud máxima de ruido debemos esperar en la mayorı́a de los
casos. Nótese que podrı́amos considerar también 2σ, 3σ, etc. para tener en cuenta un caso peor. No
obstante, esto cambiarı́a la función de coste que pondremos a continuación pero no la forma del pulso
adaptado que buscamos. Entonces la función a maximizar será A/σ. Por comodidad, consideraremos
el cuadrado de esta relación. Como antes, cambiamos la función de coste pero no el resultado final (el
filtro adaptado). Ası́ pues nos centramos a maximizar
2 R +∞ A H(f )P (f )e+j2πf td df 2
A −∞ p
= R +∞ (60)
σ 2
−∞ |H(f )| Sn (f )df
36
Como en el caso de los filtros terminales óptimos, podemos emplear aquı́ la desigualdad de Schwarz.
Identificamos las funciones U (f ) y V ∗ (f ) con
Por último, estudiemos el caso quizá más interesante y cuyo resultado es el más conocido, que es el
filtro adaptado ante ruido blanco con densidad espectral de potencia Sn (f ) = N20 . En ese caso el filtro
óptimo vale
2k ∗ 2k
H opt (f ) = P (f )e−j2πf td ←→ hopt (t) = p(td − t) (66)
N0 N0
y es una versión girada y desplaza td unidades del pulso original. Como hemos comentado, el hecho
de desplazar p(−t) es necesario si queremos que el filtro resultante esté únicamente en el semiplano
t > 0 y por lo tanto sea causal y realizable. Analicemos ahora cuál es el resultado de convolucionar la
señal recibida xR (t) con el pulso adaptado
2k 2Ap k
xR (t) ∗ hopt (t) = Ap p(t − t0 ) ∗ p(td − t) = p(t) ∗ δ(t − t0 ) ∗ p(−t) ∗ δ(t − td ) (67)
N0 N0
2Ap k
= Rp (t − (t0 + td ))
N0
y vemos que el resultado es la función de autocorrelación del pulso Rp (t) centrada en t0 + td . Por
esto en algunas aplicaciones donde se dé mucha importancia a detectar o no el pulso como es el caso
del radar o bien se necesite una medida muy precisa del tiempo de llegada del pulso (sincronización
precisa) nos interesarán pulsos cuya autocorrelación sea lo más parecida a una delta posible. Con
esto conseguimos: i) mayor diferencia con el nivel de ruido y ii) que ese ruido presente no nos haga
equivocar en el instante de llegada (cosa que podrı́a pasar si Rp fuera suave entorno al origen).
37
Tema 3: Transmisión Analógica Paso Banda
Antoni Morell y José López Vicario
7 de mayo de 2013
Facilidad en la implementación de los sistemas. Por ejemplo, es más fácil transmitir la señal de
audio en la banda que ocupan las emisoras de FM que hacerlo directamente en banda base, cosa
que requerirı́a antenas inmensas y potencias de transmisión muy elevadas. En definitiva, equipos
muy grandes.
En este tema estudiaremos una serie de herramientas que nos serán útiles para trabajar con señales
y sistemas paso banda. En los siguientes dos temas (dedicados a modulaciones lineales y angulares,
respectivamente) veremos especı́ficamente qué mecanismos existen de transmisión paso banda. De
momento, pero, nos quedamos únicamente con el siguiente esquema correspondiente a un sistema de
comunicaciones paso banda.
xT (t) xR (t)
x(t) yD (t) = xD (t) + nD (t)
FUENTE MODULADOR TRANSMISOR CANAL RECEPTOR DEMODULADOR
PX SD , ND
ST SR
n(t)
Vemos que contiene los mismos elementos que el sistema en banda base pero con el añadido de un
modulador y un demodulador que se encargan de adaptar la señal para ser transmitida por el canal
en la banda deseada y devolverla a banda base, respectivamente.
38
2. Señales paso banda: señal analı́tica y equivalente paso bajo
Señal analı́tica y transformada de Hilbert
Empecemos por ver el concepto de señal analı́tica, que está relacionado con la transformada de Hilbert
como veremos a continuación. Cojamos una señal real cualquiera x(t) y calculemos su transformada de
Fourier X(f ). Por las propiedades de simetrı́a de la transformada, sabemos que si x(t) es real entonces
X(f ) debe ser hermı́tica, o lo que es lo mismo, tener módulo par y fase impar como muestra la figura.
∠H(f )
|H(f )|
En la misma figura vemos que no es necesario disponer de toda H(f ) ya que la información que
hay en el semiplano positivo se repite en el semiplano negativo (teniendo en cuenta las simetrı́as).
Aprovechando esta observación definimos la señal analı́tica en el dominio frecuencial como
de forma que nos quedamos únicamente con la parte sombreada de la figura y multiplicamos por 2
para mantener el área. En el dominio temporal, tenemos
−1 −1 1 1 1
ax (t) = F {AX (f )} = 2F {u(f )}∗x(t) = 2 δ(t) − ∗x(t) = x(t)+jx(t)∗ = x(t)+jhx (t)
2 j2πt πt
(2)
1 1
donde hx (t) = H{x(t)} = x(t)∗ πt es lo que conocemos como transformada de Hilbert de x(t) . Vemos
que existe relación entre las partes real e imaginaria de ax (t), esto es
¿Qué sucede con la señal analı́tica cuando hay un sistema LTI como el de la figura?
En este caso, tenemos a nivel frecuencial Y (f ) = H(f )X(f ). Si buscamos la señal analı́tica en el
dominio frecuencial xorrespondiente a Y (f ) tenemos
39
Este resultado nos lleva a poder escribir AY (f ) de tres formas distintas en función de como agrupemos
los términos, que son
AX (f )H(f )
AY (f ) = X(f )AH (f ) (5)
1 A (f )A (f )
2 X H
Volviendo ahora a la transformada de Hilbert e interpretándola como sistema LTI, éste tendrı́a res-
puesta impulsional
1
h(t) = (7)
πt
y por lo tanto no causal y no realizable. Su respuesta frecuencial serı́a
1
H(f ) = F = −jsign(f ) (8)
πt
y tendrı́a módulo constante |H(f )| = 1 y fase ∠H(f ) = −π/2 para f > 0 mientras que para f < 0 la
fase valdrı́a ∠H(f ) = π/2.
2. Transformada inversa: se puede comprobar que H−1 {hx (t)} = −H{hx (t)} = x(t). Esto es, tanto
en el dominio temporal como en el frecuencial, la transformada inversa de Hilbert consiste en
volver a transformar y cambiar el signo. Lo podemos ver en el dominio frecuencial transformando
dos veces la señal X(f ), es decir HHX (f ) = −jsign(f )(−jsign(f )X(f )) = −X(f ). Viendo esto
mismo a nivel temporal (haciendo F −1 ) obtendrı́amos πt 1 1
∗ πt ∗ x(t) = −x(t), es decir, se deduce
1 1
que πt ∗ πt = −δ(t).
Shx (f ) = Sx (f ) (12)
y por lo tanto x(t) y su transformada de Hilbert tienen la misma potencia, es decir Phx = Px .
40
4. Ortogonalidad: dos señales son ortogonales (desde el punto de vista escalar de funciones) si su
1
correlación cruzada en el origen vale 0, y x(t) y hx (t) lo son. Dado que Rhx x (τ ) = Rx (τ ) ∗ πτ
tenemos
Z +∞ Z +∞
1 1 1 1
Rhx x (0) = Rx (τ )∗ = ∗Rx (τ ) = Rx (τ −λ)dλ = Rx (λ)dλ = 0
πτ τ =0 πτ τ =0 −∞ πλ τ =0 −∞ πλ
(13)
ya que se trata de la integral de −∞ a +∞ de una función impar (producto de una función
1
impar πλ por una función par Rx (λ)).
5. Convolución:
1
hx∗y (t) = ∗ x(t) ∗ y(t) = hx (t) ∗ y(t) = x(t) ∗ hy (t) (14)
πt
1 1
¡Cuidado!: no es la convolución de transformadas, que serı́a hx (t) ∗ hy (t) = πt ∗ x(t) ∗ πt ∗ y(t) =
−x(t) ∗ y(t).
Dado que la señal analı́tica ax (t) = x(t) + jhx (t) es compleja, la podemos interpretar como una fasor,
esto es, en cada instante de tiempo t la señal analı́tica se puede representar como un vector en el plano
complejo como muestra la siguiente figura. A medida que el tiempo avanza, también cambia el vector,
tanto en longitud como en orientación.
Im{ax (t)}
ex (t)
hx (t)
ϕx (t)
Re{ax (t)}
x(t)
En la figura ya vemos que podemos describir la señal analı́tica a través de sus componentes real
e imaginaria pero que, alternativamente, lo podemos hacer también a través de su módulo y fase
(variantes en el tiempo). En el contexto de la señal analı́tica, llamamos al primero envolvente de la
41
señal ex (t) y al segundo fase instantánea de la señal ϕx (t) y se obtienen según
p
ex (t) = |ax (t)| = x2 (t) + h2x (t) (15)
hx (t)
ϕx (t) = ∠ax (t) = atan (16)
x(t)
1 ∂ϕx (t)
fx (t) = (17)
2π ∂t
Ası́, en el ejemplo anterior con x(t) = A cos 2πfo t, tenemos
|X(f )|
Bx
Encontrar el equivalente paso bajo de X(f ) pasa por hallar primero la señal analı́tica, en este caso
AX (f ) = 2u(f )X(f ) y luego desplazar el resultado f0 unidades a la izquierda. Esto provoca, como
muestra la figura siguiente, tener una representación de X(f ) alrededor del origen de frecuencia y por
esto lo llamamos equivalente paso bajo.
|X(f )|
AX (f )
BX (f )
BX (f ) = AX (f + f0 ) (19)
bx (t) = ax (t)e−j2πf0 t (20)
42
A partir del equivalente paso bajo definimos las componentes en fase y cuadratura de la señal, i(t) y
q(t) respectivamente, que se corresponden con la parte real e imaginaria del equivalente paso bajo.
Dicho de otro modo,
Re{bx (t)} = ix (t)
bx (t) = ix (t) + jqx (t) (21)
Im{bx (t)} = qx (t)
Veamos ahora algunas relaciones importantes. En primer lugar, la representación de x(t) a partir de
sus componentes en fase y cuadratura. Para ello, recordamos que la parte real de la señal analı́tica es
justamente x(t). ası́ que
x(t) = Re{ax (t)} = Re{bx (t)ej2πf0 t } = Re {(ix (t) + jqx (t)) (cos 2πf0 t + j sin 2πf0 t)} (22)
= ix (t) cos 2πf0 t − qx (t) sin 2πf0 t
Luego, tanto envolvente como fase instantánea se pueden expresar a partir del equivalente paso bajo
como
p
ex (t) = |ax (t)| = |bx (t)ej2πf0 t | = |bx (t)| = i2x (t) + qx2 (t) (23)
ϕx (t) = ∠ax (t) = ∠bx (t) + 2πf0 t = ϕbx (t) + 2πf0 t (24)
qx (t)
donde ϕbx (t) = ∠bx (t) = atan ix (t) .
En la representación fasorial, si nos fijamos en la relación ax (t) = bx (t)ej2πf0 t nos damos cuenta que el
equivalente paso bajo nos dice como hay que modificar el fasor ej2πf0 t para obtener la señal analı́tica.
Por lo tanto, el equivalente paso bajo será uno u otro en función de la frecuencia de referencia f0 que
tomemos. Esta idea se ve en la figura siguiente.
Im{ax (t)}
ax (t)
ix (t)
qx (t)
hx (t)
ϕbx (t)
ej2πf0 t
Re{ax (t)}
x(t)
43
¿cómo será el equivalente paso bajo de una señal a la salida de un filtro con respuesta impulsional
h(t)? Para ello elaboraremos a partir del resultado de (6), que nos decı́a
1 1 +∞
Z
ay (t) = ax (t) ∗ ah (t) = ax (λ)ah (t − λ)dλ (25)
2 2 −∞
Si ahora tenemos en cuenta la relación entre señal analı́tica y equivalente paso bajo, es decir ay (t) =
by (t)ej2πf0 t , llegamos a
+∞
1
Z
j2πf0 t
ay (t) = by (t)e = bx (λ)ej2πf0 λ bh (t − λ)ej2πf0 (t−λ) dλ (26)
2 −∞
+∞
1 j2πf0 t 1 j2πf0 t
Z
= e bx (λ)bh (t − λ)dλ = e bx (t) ∗ bh (t)
2 −∞ 2
de lo que deducimos
1 1
by (t) = bx (t) ∗ bh (t) −→ BY (f ) = BX (f ) · BH (f ) (27)
2 2
Si buscamos la representación de la señal paso banda y(t) como y(t) = iy (t) cos 2πf0 t − qy (t) sin 2πf0 t,
entonces podemos partir de ésta última relación y ver que
1
iy (t) + jqy (t) = (ix (t) + jqx (t)) ∗ (ih (t) + jqh (t)) (28)
2
1 1
= (ix (t) ∗ ih (t) − qx (t) ∗ qh (t)) + j (qx (t) ∗ ih (t) + ix (t) ∗ qh (t))
2 2
con lo que llegamos a
1
iy (t) = (ix (t) ∗ ih (t) − qx (t) ∗ qh (t)) (29)
2
1
qy (t) = (qx (t) ∗ ih (t) + ix (t) ∗ qh (t)) (30)
2
1. Suponiendo que disponemos tanto de ix (t) como de qx (t), es decir, las componentes del equiva-
lente paso bajo de x(t), ver como se construye la propia señal paso banda x(t). Hablamos de
construir el modulador.
2. El proceso inverso, es decir, si recibimos x(t), ver cómo sacar sus componentes. Construimos
aquı́ lo que se conoce como demodulador coherente.
Empecemos por el modulador, que nos sirve para trasladar el mensaje de la fuente a la banda frecuen-
cial requerida. Su diagrama de bloques, que aparece en la siguiente figura, resulta evidente si se tiene
en cuenta la expresión x(t) = ix (t) cos 2πf0 t − qx (t) sin 2πf0 t.
44
ix (t)
cos 2πf0 t
x(t)
π/2
− sin 2πf0 t
qx (t)
Por contra, el diagrama de bloques del demodulador coherente no resulta tan evidente, como se puede
ver en la siguiente figura.
ix (t)
2 cos 2πf0 t Bx
x(t)
π/2
−2 sin 2πf0 t
qx (t)
Bx
Comprobemos que este esquema permite obtener las señales paso bajo ix (t) y qx (t) deseadas. Por la
rama de arriba tenemos, justo antes del filtro paso bajo, la señal
1
x(t)2 cos 2πf0 t = (ix (t) cos 2πf0 t − qx (t) sin 2πf0 t) 2 cos 2πf0 t (31)
2
= ix (t)(1 + cos 2π2f0 t) − qx (t) sin 2π2f0 t
= ix (t) + ix (t) cos 2π2f0 t − qx (t) sin 2π2f0 t
y por lo tanto, después del multiplicador tenemos la señal deseada ix (t) pero también otros dos
componentes. Por suerte, estos dos términos adicionales van modulados por una portadora a 2f0 .
Suponiendo que f0 Bx , entonces seguro que quedan espectralmente lejos de ix (t), ası́ que con un
filtro paso bajo será fácil eliminar la parte indeseada. Por la rama inferior sucede algo parecido ya que
1
x(t)(−2 sin 2πf0 t) = (ix (t) cos 2πf0 t − qx (t) sin 2πf0 t) (−2 sin 2πf0 t) (32)
2
= −ix (t) sin 2π2f0 t + qx (t)(1 − cos 2π2f0 t)
= qx (t) − ix (t) sin 2π2f0 t − qx (t) cos 2π2f0 t
45
y por lo tanto después de un filtrado paso bajo obtendremos qx (t).
Un sistema de comunicaciones paso banda con canal ideal y usando el modulador/demodulador que
acabamos de describir funcionarı́a perfectamente siempre que los osciladores locales estuvieran per-
fectamente sincronizados. Esto pasa obviamente por tener la misma frecuencia f0 y también la misma
fase. En las figuras anteriores las fases eran 0 y además se suponı́a que la señal de salida del modu-
lador era inyectada directamente al demodulador. No obstante, esto nunca sucederá en la práctica
puesto que siempre habrá cierto error. Nótese que la señal llegará con cierto retraso y por lo tanto
desfase al receptor. Por lo tanto, aunque pudiéramos sincronizar a la perfección emisor y receptor,
no nos servirı́a de nada si la señal recorre un mı́nimo camino. Esto quiere decir que no habrá otro
remedio que hacer una estimación de fase de la señal para sintonizar el oscilador local e implica co-
meter cierto error. Veamos qué sucede ante esta situación, es decir cuando el oscilador del emisor
tiene fase cero (cos 2πf0 t) pero el del receptor tiene fase ϕ (o sea cos (2πf0 t + ϕ)). Démonos cuenta
que nos interesa ver el efecto del desfase independientemente de su origen. En la realidad será por
el retraso debido a la propagación y el error de estimación, pero ahora para el análisis simplemente
lo fijamos y suponemos un canal ideal sin retraso, ası́ que a la entrada del demodulador tendremos x(t).
En este nuevo escenario veremos por la rama de arriba justo después del multiplicador
x(t)2 cos (2πf0 t + ϕ) = (ix (t) cos 2πf0 t − qx (t) sin 2πf0 t) 2 cos (2πf0 t + ϕ) (33)
= ix (t)(cos ϕ + cos (2π2f0 t + 2ϕ)) − qx (t)(− sin ϕ + sin (2π2f0 t + 2ϕ))
= ix (t) cos ϕ + ix (t) cos (2π2f0 t + 2ϕ) + qx (t) sin ϕ − qx (t) sin (2π2f0 t + 2ϕ)
y si filtramos paso bajo nos quedaremos con ix (t) cos ϕ + qx (t) sin ϕ. Si el desfase es pequeño el coseno
tomará un valor próximo a 1 y el seno próximo a cero, con lo que no habrá problemas. Sin embargo,
a medida que esto de ser cierto empezaremos a ver parte de componente en cuadratura donde sólo
deberı́a verse componente en fase. Por la rama inferior sucede algo parecido y acabamos obteniendo,
después del filtrado paso bajo, la señal qx (t) cos ϕ − ix (t) sin ϕ.
46
Rqx ix (τ )
− [sin (2πf0 (2t + τ )) + sin (2πf0 τ )]
2
Rqx (τ )
+ [cos (2πf0 τ ) − cos (2πf0 (2t + τ ))]
2
Vemos que se trata de un proceso cicloestacionario ya que el valor de autocorrelación se repite periódi-
camente. Por ejemplo, fijado τ , se comprueba que Rx (t + τ, t) y Rx (t + fk0 + τ, t + fk0 ) valen exactamente
lo mismo ya que cos (2πf0 (2t + τ )) = cos (2πf0 (2t + 2k
f0 + τ )) = cos (2πf0 (2t + τ ) + 2π2k) y todos los
demás términos trigonométricos que dependen de t son periódicos.
Para calcular la densidad espectral media de potencia, como ya vimos en el primer tema, debemos
calcular primero la autocorrelación promedio (media en un periodo) y luego aplicar el teorema de
Wiener–Khinchin. Por lo tanto obtenemos primero
1
Z
Rx (τ ) = hRx (t + τ, t)i = Rx (t + τ, t)dt (35)
T0 hT0 i
Si nos fijamos en todos los términos que aparecen en (34) nos daremos cuenta que muchos desapare-
cerán en la integración ya que se trata de integrar un seno o bien un coseno en un periodo completo.
Ası́ pues, la autocorrelación media nos quedará
Six (f ) + Sqx (f )
Sx (f ) = F{Rx (τ )} = ∗ [δ(f − f0 ) + δ(f + f0 )] (37)
4
Six qx (f ) − Sqx ix (f )
+ ∗ [δ(f − f0 ) − δ(f + f0 )]
4j
y la potencia media de la señal paso banda como
47
Para no complicar demasiado las cosas, consideraremos aquı́ un canal ideal pero no utópico como
antes. Supondremos que en el margen frecuencial alrededor de f0 donde se encuentra la señal, es decir
en |f | ∈ [f0 − Bx , f0 + Bx ] el canal H(f ) = |H(f )|e−jϕh (f ) tiene módulo más o menos constante y una
fase más o menos lineal que aproximaremos por la serie de Taylor de primer orden, esto es
(
|H(f )| = |H(f0 )|
, |f | ∈ [f0 − Bx , f0 + Bx ] (39)
ϕh (f ) = ϕh (f0 ) + (f − f0 ) ∂ϕ
h
∂f f =f0
Calculemos ahora el equivalente paso bajo a la salida en el dominio frecuencial usando el resultado de
(27), esto es
1
BY (f ) = BX (f )BH (f ) (40)
2
con BH (f ) = AH (f + f0 ) = 2u(f + f0 )H(f + f0 ). Juntándolo todo nos queda
∂ϕ
1 −j ϕh (f0 )+f ∂fh
f =f0
BY (f ) = BX (f )2u(f + f0 )|H(f0 )|e (41)
2
y ahora nos interesan las frecuencias que verifican |f | < Bx (banda base). Como hemos supuesto que
f0 Bx , el escalón que empieza en −f0 no tiene ningún efecto, ya que limita más el ancho de banda
de la propia señal. Ası́ que podemos simplificar la expresión anterior en
∂ϕ
−j ϕh (f0 )+f ∂fh
f =f0
BY (f ) = BX (f )|H(f0 )|e (42)
A continuación definimos los parámetros tph y tgr (en breve veremos su significado fı́sico) como
ϕh (f0 )
tph = (43)
2πf0
1 ∂ϕh
tgr = (44)
2π ∂f f =f0
de modo que BY (f ) se puede expresar ahora como
BY (f ) = BX (f )|H(f0 )|e−j (2πf0 tph +2πf tgr ) = BX (f )e−j2πf tgr |H(f0 )|e−j2πf0 tph (45)
Ahora anti-transformamos para encontrar el equivalente paso bajo a la salida del canal y en el dominio
temporal, que es
by (t) = bx (t − tgr )|H(f0 )|e−j2πf0 tph (46)
donde se aprecia que tgr aplica un retraso sobre la señal de entrada y es lo que denominamos
retardo de grupo mientras que parece que tph aplica un desfase o retraso a la portadora y es lo que
llamamos retardo de fase. Esto lo veremos más claro sobre la señal real (en ambos sentidos) y paso
banda y(t),
n o n o
y(t) = Re{ay (t)} = Re by (t)ej2πf0 t = Re bx (t − tgr )|H(f0 )|ej2πf0 t e−j2πf0 tph (47)
n o
= Re bx (t − tgr )|H(f0 )|ej2πf0 (t−tph )
= ix (t − tgr )|H(f0 )| cos (2πf0 t − 2πf0 tph ) − qx (t − tgr )|H(f0 )| sin (2πf0 t − 2πf0 tph )
48
donde vemos que tph se puede interpretar como retardo o bien como un desfase de la portadora (tanto
en el seno como en el coseno).
Antes de acabar esta sección pongamos un ejemplo. Consideremos x(t) = a(t) cos 2πf0 t, que única-
mente tiene componente en fase y por lo tanto bx (t) = a(t). En este caso la señal después del canal
vale
n o
y(t) = Re bx (t − tgr )|H(f0 )|ej(2πf0 (t−tph )) = a(t − tgr )|H(f0 )| cos (2πf0 t − 2πf0 tph ) (48)
Si dibujamos las señales de entrada y salida del canal obtendremos algo como lo que se muestra en la
siguiente figura, donde el retardo de grupo retrasa la señal a(t) mientras que el retardo de fase provoca
un retardo sobre la portadora, que en general no valdrán lo mismo.
tgr
a(t)
a(t − tgr )
x(t) y(t)
H(f )
tph
Nota: en un caso real la frecuencia de la portadora serı́a mucho mayor que la de la figura y no podrı́amos
distinguir los ciclos. Sólo verı́amos una zona pintada de negro entre la curva en trazo continuo a(t) y
la curva en trazo discontinuo (la reflexión en el eje de abcisas).
H(f ) DEMODULADOR
n(t)
w(t)
Consideraremos, como es habitual, que el ruido antes del filtro o w(t) es un proceso estacionario con
autocorrelación Rw (τ ). Por lo tanto, si tuviera densidad espectral plana (ruido blanco) y como ya
49
vimos en el tema anterior, la densidad espectral del ruido después del filtro (densidad espectral de
n(t)) seria la de la siguiente figura.
BT
−f0 f0 f
Hasta aquı́ todo bien. Lo interesante ahora es ver qué sucede con el proceso de ruido filtrado una
vez pasa por el demodulador ya que éste se convierte de ruido paso banda n(t) a ruido paso bajo. El
objetivo ahora es ver cómo son las componentes en fase y cuadratura del ruido (in (t) y qn (t)) y por ello
estudiaremos sus correlaciones Rin (τ ), Rqn (τ ) ası́ como las cruzadas (suponiendo que sean procesos
estacionarios). Estas componentes salen del equivalente paso bajo del ruido bn (t), que se relaciona con
la señal analı́tica del ruido an (t) según
donde hn (t) era la transformada de Hilbert de n(t) (ver la primera sección del tema). Desarrollando
un poco más tenemos
Ahora ya podemos calcular las funciones de correlación. Empecemos por obtener Rin (t+τ, t). Para ello
recordemos las propiedades de la transformada de Hilbert, especialmente las referidas a correlación de
(9)-(11). Con esto y haciendo uso de las identidades trigonométricas habituales ya podemos hacer el
siguiente cálculo
50
donde comprobamos que efectivamente la autocorrelación de in (t) depende sólo de la diferencia de
tiempos τ y es por lo tanto estacionario (para ser estrictos faltarı́a verificar si la media es constante,
que lo es). No repetiremos todo el desarrollo para el resto de correlaciones, que se calculan de la misma
manera y valen
y aplicamos el resultado de (34) podremos calcular Rn (τ ). Aplicando además los resultados en (54) y
(56) llegamos a
Rn (τ ) = Rin (τ ) cos 2πf0 τ − Rqn in (τ ) sin 2πf0 τ (58)
Llegados a este punto, lo que nos interesa ahora es ver cómo son las densidades espectrales de potencia
del ruido en fase y en cuadratura, ya que esto nos determinará la calidad de la señal recibida en cada
rama. De momento, teniendo los resultados de correlación anteriores ya podemos anticipar que
y que
Pn = Rn (0) = Pin = Pqn (60)
Centrémonos pues en las densidades espectrales, empezando por la densidad espectral de la compo-
nente en fase, Sin , que vale
1
Sin (f ) = F{Rin (τ )} = Sn (f ) ∗ [δ(f − f0 ) + δ(f + f0 )] (61)
2
1
− jsign(f )Sn (f ) ∗ [δ(f − f0 ) − δ(f + f0 )]
2j
1 1 1
= [Sn (f − f0 ) + Sn (f + f0 )] − sign(f − f0 )Sn (f − f0 ) + sign(f + f0 )Sn (f + f0 )
2 2 2
1 1
= [1 − sign(f − f0 )]Sn (f − f0 ) + [1 + sign(f + f0 )]Sn (f + f0 )
2 2
1 1
= 2u(−f + f0 )Sn (f − f0 ) + 2u(f + f0 )Sn (f + f0 )
2 2
= u(−f + f0 )Sn (f − f0 ) + u(f + f0 )Sn (f + f0 )
Este resultado se ve gráficamente en la siguiente figura, donde partimos de un proceso de rudio w(t)
espectralmente blanco.
51
in (t)
DEMODULADOR
n(t)
qn (t)
w(t)
Sin (f )
Sw (f ) Sn (f )
f −f0 f0 f f
u(−f + f0 )
−f0 f0 2f0 f
u(f + f0 )
−2f0 −f0 f0 f
Del mismo modo que hemos calculado Sin (f ), miremos ahora qué vale Sqn in (f ), esto es
1
Sqn in (f ) = −jsign(f )Sn (f ) ∗ [δ(f − f0 ) + δ(f + f0 )] (63)
2
1
− Sn (f ) ∗ [δ(f − f0 ) − δ(f + f0 )]
2j
j j j j
= − sign(f − f0 )Sn (f − f0 ) − sign(f + f0 )Sn (f + f0 ) + Sn (f − f0 ) − Sn (f + f0 )
2 2 2 2
j j
= [1 − sign(f − f0 )]Sn (f − f0 ) − [1 + sign(f + f0 )]Sn (f + f0 )
2 2
= j[u(−f + f0 )Sn (f − f0 ) − u(f + f0 )Sn (f + f0 )] (64)
Esto implica que si la densidad espectral de ruido a la entrada w(t) es plana como en el caso de la figu-
ra, los filtros son ideales y escogemos f0 justo en el medio del ancho de banda, entonces Sqn in (f ) = 0
52
y también Rqn in (τ )) = 0.
Por útlimo, nótese que si la frecuencia de referencia f0 se cambia, cambian también las densidades
espectrales pero no las potencias, tanto de las componentes en fase y cuadratura como de n(t), que
siguen valiendo lo mismo y son todas iguales.
53
Tema 4: Modulaciones Lineales
Antoni Morell y José López Vicario
7 de mayo de 2013
Modulación lineal: son modulaciones del tipo s(t) = Ac a(t) cos (2πfc t + φc ), donde claramente
la información viaja en la amplitud a(t).
Modulación angular: son modulaciones del tipo s(t) = Ac cos (2πfc t + φc + φ(t)), donde la infor-
mación está en la fase de la portadora a través de φ(t).
Parámetros de interés
Ss (f )
f SR SD
BT
NR ND
TRANSMISOR +
CANAL DEMODULADOR
MODULADOR
Sn (f )
Sw (f )
w(t)
f f
BT
54
Los parámetros que determinarán lo bueno que es el sistema y por tanto de interés para el ingeniero
son
Por último, la relación señal a ruido en recepción SN RR = SR /ND vendrá determinada por
SR SR Bx
= =γ ≤γ (1)
NR N0 BT BT
donde Bx es el ancho de banda de la señal moduladora (en las modulaciones lineales siempre BT ≥ Bx )
y γ es la SNR en destino para un sistema en banda base (lo vimos en el Tema 2). Nota: este cálculo
se ha hecho suponiendo un filtro receptor paso banda ideal con ancho de banda BT para dejar pasar
el menor ruido posible.
55
Modulador
Ac cos 2πfc t
Ac cos 2πfc t
Analicemos ahora la modulación a partir de sus componentes en fase y cuadratura. Recordemos algunos
resultados del Tema 3:
y por lo tanto q
esAM (t) = |bsAM (t)| = i2sAM (t) + qs2AM (t) = Ac |1 + mx(t)| (8)
Ante este resultado nos podrı́amos plantear qué pasarı́a si m y x(t) fueran tales que (1 + mx(t)) ≥ 0.
Entonces la información deseada se encuentra tanto en la componente en fase como en el envolvente
de la señal, es decir, teniendo una cosa o la otra podremos extraer fácilmente x(t). Esta es la gracia
de la modulación de AM porque un circuito que recupere el envolvente de una señal es simple y por lo
tanto barato. Si consideramos que escalamos la señal moduladora para que cumpla |x(t)| < 1, entonces
necesitamos que el ı́ndice de modulación sea menor que la unidad, esto es
En caso que m > 1 tendremos sobremodulación como muestra la siguiente figura. Esto no quiere decir
que no se pueda recuperar x(t), únicamente que no será posible a través del envolvente de la señal.
56
envolvente 1 + m x(t)
sAM (t)
x(t)
m≤1 t
m>1
envolvente
sAM (t)
sobremodulación
1 + m x(t)
Veamos ahora cuál es la densidad espectral de la señal AM. Recordemos que una señal paso banda
cualquiera s(t) será en general cicloestacionaria y que su autocorrelación media se calcula según
RisAM (τ ) A2c (1 + m2 Rx (τ ))
RsAM (τ ) = hRsAM (t + τ, t)i = cos 2πfc τ = cos 2πfc τ (11)
2 2
que únicamente es cierto si suponemos que x(t) tiene media nula (comprobadlo vosotros calculando
la autocorrelación de isAM (τ ) o RisAM (τ )) como es habitual en la práctica. A partir de aquı́ podemos
calcular la densidad espectral de potencia media de la señal AM como
A2c
SsAM (f ) = F{RsAM (τ )} = [δ(f − fc ) + δ(f + fc ) + m2 Sx (f − fc ) + m2 Sx (f + fc )] (12)
4
En la siguiente figura tenemos una representación gráfica de dicha densidad espectral.
57
Sx (f ) SsAM (f )
BT = 2Bx
Bx
f −fc fc f
Demodulador
A la entrada del demodulador tendremos (si el canal es muy ideal con HC (f ) = 1) la señal AM más
ruido, esto es
v(t) = sAM (t) + n(t) (14)
Tenemos básicamente dos opciones para recuperar la señal x(t), que son
Demodulador coherente
Demodulador de envolvente
Demodulador coherente
2 cos 2πfc t
Como vemos, usa la rama superior del demodulador coherente que vimos en el Tema 3 puesto que la
componente en fase es inexistente. La señal de entrada v(t) se puede expresar como
v(t) = Ac (1 + mx(t)) cos 2πfc t + in (t) cos 2πfc t − qn sin 2πfc t (15)
58
donde hemos separado el ruido paso banda n(t) en sus componentes fase y cuadratura. Agrupando
los términos relacionados con el seno por un lado y los términos relacionados con el coseno por el otro
llegamos a
v(t) = [Ac (1 + mx(t)) + in (t)] cos 2πfc t − qn sin 2πfc t (16)
y si la comparamos con la expresión general de una señal paso banda, p. ej. (5), e identificando términos
vemos que v(t) tiene como componente en fase
Demodulador de envolvente
Como vemos, hay que tener cierto cuidado ya que el envolvente de la suma de dos señales (deseada y
ruido) no es la suma de sus envolventes. Además, hay que tener en cuenta que para poder recuperar la
señal x(t) a partir del envolvente ev (t) es necesario que ambas señales sean proporcionales. Saquemos
factor común del término Ac (1 + m x(t)) de la expresión anterior para obtener
s 2 2
in (t) qn (t)
ev (t) = Ac (1 + m x(t)) 1+ + (21)
Ac (1 + m x(t)) Ac (1 + m x(t))
in (t) qn (t)
Si definimos a = Ac (1+m x(t)) yb= Ac (1+m x(t)) , entonces
p
(1 + a)2 + b2
ev (t) = Ac (1 + m x(t)) (22)
p
Teniendo en cuenta que podemos hacer la aproximación (1 + a)2 + b2 ≈ 1+a cuando a 1 y b 1,
entonces
ev (t) ≈ Ac (1 + m x(t)) + in (t) (23)
59
Nótese que las condiciones de cumplimiento de la aproximación se resumen en una SNR alta. A la
práctica necesitaremos que sea superior a 10dB para poder considerarla como tal y en ese caso obte-
nemos exactamente la misma señal (tanto en términos de señal deseada como en términos de ruido)
que usando el demodulador coherente.
Por último, es necesario colocar un bloqueador de continua igual que en el demodulador coherente
que elimine la parte de continua, que tiene amplitud Ac . Por lo tanto a la salida de este bloque nos
quedaremos con yD (t) = Ac m x(t) + in (t).
SNR en destino
Una vez hemos analizado las componentes de señal deseada y ruido en la señal demodulada en AM,
que coinciden en el demodulador coherente y el de envolvente si la SNR es superior a 10dB, veamos
ahora cuánto vale la SNR en demodulación, esto es
SD A2 m2 Px
SN RD = = c (24)
ND Pin
Ahora tenemos en cuenta el resultado del tema anterior que nos dice Pn = Pin = Pqn = N0 BT y
también que la potencia de la señal AM (el equivalente de la potencia en recepción SR en banda base)
2
es PsAM = SR = A2c (1 + m2 Px ). De aquı́ podemos aislar A2c y usar el resultado para reescribir la
SN RD como
2SR
1+m2 Px
m2 Px 2SR m2 Px m2 Px
SN RD = = = γ (25)
N0 BT (1 + m2 Px )N0 2Bx 1 + m2 Px
donde recordemos que γ = NS0RBx es la SNR en destino de un sistema en banda base. Por lo tanto,
podemos concluir que la relación SNR en destino en AM es siempre inferior a la SNR en destino de
un sistema de transmisión en banda base con las mismas condiciones de potencia transmitida y ruido.
Nótese que parte de la potencia se usa en la transmisión de un tono puro que luego se convierte en la
componente de continua y que por consiguiente es desaprovechada.
Modulador
60
x(t) sDBL (t)
Ac cos 2πfc t
Analicemos a continuación la modulación a través de sus componentes en fase y cuadratura ası́ como
su envolvente, que valen
Si nos fijamos en la envolvente nos daremos cuenta que no la podemos usar con un demodulador de
envolvente ya que es proporcional a |x(t)| y no a x(t).
A2c A2
SsDBL (f ) = F{RsDBL (τ )} = Sx (f ) ∗ [δ(f − fc ) + δ(f + fc )] = c [Sx (f − fc ) + Sx (f + fc )] (31)
4 4
y por lo tanto es como la señal de AM pero sin la componente de continua, ası́ que el ancho de banda
de transmisión es BT = 2Bx (ver la figura siguiente).
Sx (f ) SsDBL (f )
BT = 2Bx
Bx
f −fc fc f
61
Demodulador
Analicemos ahora el demodulador de DBL, que responde al diagrama de bloques de la siguiente figura.
BT Bx
2 cos 2πfc t
Se trata, por lo tanto, de un demodulador coeherente que recoge sólo la componente en fase, exacta-
mente igual al demodulador coherente que hemos usado para AM. La única diferencia es que ahora
no necesitamos el bloqueo de continua porque no hay ninguna componente de continua superpuesta a
la señal deseada. Igual que en el caso de AM con demodulador coherente, la señal demodulada será la
componente en fase iv (t) = yD (t) = xD (t) + nD (t), donde la parte de señal y de ruido valen ahora
SNR en destino
SD A2 Px A2 P x
SN RD = = c = c (35)
ND P in N0 BT
2
Si tenemos en cuenta que BT = 2Bx junto con SR = PsDBL = A2c Px ( que nos permite poner A2c en
función de SR ) y lo usamos en la expresión anterior, llegamos a
SD 2SR
SN RD = = =γ (36)
ND 2N0 Bx
Por lo tanto, con DBL obtenemos la misma SNR en destino que con un sistema de transmisión en
banda base (por una misma potencia de transmisión SR y un mismo nivel de ruido N0 ).
62
(BLU) perseguimos ese objetivo. Si miramos el espectro de la señal DBL nos damos cuenta de que
la información está duplicada en dos bandas laterales (a ambos lados de fc ). Intentaremos, pues,
transmitir una sola de ellas. Puede ser la de frecuencia inferior a fc o bien la de frecuencia superior.
En el primer caso hablamos de BLU-I (la I es de inferior) y en el segundo de BLU-S (la S es de
superior). En la siguiente figura vemos esto gráficamente.
BT = 2Bx
−fc fc f
Modulador
En los casos anteriores hemos planteado la señal a transmitir y a partir de allı́ hemos analizado la
modulación en sı́. En esta ocasión partimos del espectro que queremos conseguir y veremos qué señal
hay que transmitir y cómo conseguirla. Está claro que la señal será la de DBL eliminando una de las
dos bandas laterales. Desde el dominio temporal no sabemos muy bien como conseguirlo por ahora,
pero si pensamos desde el punto de vista frecuencial es muy simple ya que únicamente hay que eliminar
la banda lateral que no queremos. Por lo tanto, el esquema del modulador deberá responder al de la
siguiente figura.
sDBL (t)
x(t) sBLU −S (t)
fc
Ac cos 2πfc t
En este caso el filtro es paso alto con frecuencia de corte fc y serı́a para banda lateral superior. Para
BLU-I necesitarı́amos un filtro paso bajo con frecuencia de corte fc que se quedarı́a con la banda
inferior. Centrémonos primero en BLU-S, donde el filtro paso alto ideal se puede escribir como
A fin de simplificar el análisis y ver cómo son las componentes en fase y cuadratura de la modulación,
supongamos primero que x(t) es una señal determinista. Esto nos permitirá trabajar directamente
con las transformadas de Fourier de las señales sin necesidad de pasar por su densidad espectral 1 y
1
Recordad que la transformada de Fourier de un proceso no nos aporta mucha información ya que es variante en el
tiempo y por eso no la empleamos.
63
luego ya volveremos a las densidades espectrales. Con el fin de no confundir densidad espectral con
espectro de la señal BLU denotaremos el primero como SsBLU como hasta ahora y el segundo como
SBLU . Hecho este apunte, miremos qué vale el espectro de nuestra señal sBLU −S (t), esto es
u(−f − fc ) u(f − fc )
|X(f + fc )| |X(f − fc )|
−fc fc f
Ahora podemos obtener la señal BLU temporal haciendo la transformada inversa y nos queda
Ac h i
sBLU −S (t) = (x(t) ∗ F −1 {u(f )})ej2πfc t + (x(t) ∗ F −1 {u(−f )})e−j2πfc t (39)
2
n o
j j
Sabiendo que F{u(t)} = 21 δ(f )− 2πf , por dualidad tenemos que F 21 δ(t) − 2πt = u(−f ) y aplicando
la npropiedad de cambio
o de nescala (por o un factor −1,
es decir, una reflexión en realidad) llegamos a
1 j 1 j 1 −f
F 2 δ(−t) − 2π(−t) = F 2 δ(t) + 2πt = |−1| u −1 = u(f ) 2 . Aplicando estos resultados a la
ecuación anterior podemos escribir
Ac h i
sBLU −S (t) = (x(t) + jhx (t))ej2πfc t + (x(t) − jhx (t))e−j2πfc t (40)
4
Ac
= [x(t) cos 2πfc t − hx (t) sin 2πfc t]
2
La señal sBLU −I (t) se puede obtener del mismo modo o bien fijándonos que sBLU −I (t) = sDBL (t) −
sBLU −S (t), llegando a
Ac
sBLU −I (t) = Ac x(t) cos 2πfc t − [x(t) cos 2πfc t − hx (t) sin 2πfc t] (41)
2
Ac
= [x(t) cos 2πfc t + hx (t) sin 2πfc t]
2
2
Otra forma de ver la segunda identidad, aunque quizá más complicada, es a partir de la relación F{z(−t)} = Z ∗ (f ),
válida únicamente paraz(t) real. Ası́, a partir de la transformada conocida de u(t) podemos afirmar que F{u(−t)} =
∗
∗ 1 j
U (f ) = 2 δ(f ) − 2πf , ya que u(t) es real. Ahora sólo nos queda aplicar dualidad sobre esta última relación para
∗ j
llegar a F {U (t)} = u(−(−f )), es decir, F 12 δ(t) + 2πt
= u(f ). Por último, una tercera vı́a para encontrar u(f ) es
observando que 2u(f ) = 1 + sign(f ) y anti-transformando el conjunto (la función signo en tiempo tiene transformada
conocida y basta con aplicar dualidad junto con sign(−f ) = −sign(f ) ya que se trata de una función impar).
64
De esto deducimos que las componentes en fase y cuadratura en modulaciones BLU valen
Ac
isBLU = x(t) (42)
2
Ac
qsBLU = ± hx (t) (43)
2
habiendo un + en la componente en cuadratura para BLU-S y un - para BLU-I.
Habrı́amos podido sacar el mismo resultado trabajando directamente con los equivalentes paso bajo
de las señales DBL y BLU-S que son la entrada y salida del filtro HBLU −S (f ), respectivamente.
Matemáticamente tenemos la siguiente relación
1
bsBLU −S (t) = bsDBL (t) ∗ bhBLU −S (t) (44)
2
El equivalente paso bajo de la señal DBL ya lo conocemos y vale bsDBL (t) = isDBL (t) + jqsDBL (t) =
Ac x(t). Para calcular el equivalente paso bajo del filtro, miramos primero su señal analı́tica en fre-
cuencia, que vale AHBLU −S (f ) = 2u(f − fc ), y luego la desplazamos fc hacia el origen para obtener
j
BHBLU −S (f ) = 2u(f ), ası́ que anti-transformando llegamos a bhBLU −S (t) = δ(t) + πt . Volviendo a lo
que nos ocupa, tenemos
1 j Ac
bsBLU −S (t) = Ac x(t) ∗ δ(t) + = (x(t) + jhx (t)) (45)
2 πt 2
es decir, lo que ya habı́amos obtenido antes.
Consideremos ahora x(t) como proceso aleatorio estacionario y obtengamos la autocorrelación media
y la densidad espectral de potencia media de la señal BLU. Empecemos por lo primero usando el
resultado de (10), con lo que llegamos a
A2c A2
RsBLU (τ ) = hRsBLU (t+τ, t)i = (Rx (τ )+Rhx (τ )) cos 2πfc τ ± c (Rxhx (τ )−Rhx x (τ )) sin 2πfc τ (46)
8 8
Recordando que Rhx (τ ) = Rx (τ ), Rxhx (τ ) = −hRx (τ ), Rhx x (τ ) = hRx (τ ) y simplificando la expresión
llegamos finalmente a
A2c
RsBLU (τ ) = (Rx (τ ) cos 2πfc τ ∓ hRx (τ ) sin 2πfc τ ) (47)
4
donde el signo superior es para BLU-S y el signo inferior para BLU-I.
65
donde el signo superior corresponde a BLU-S y el signo inferior a BLU-I.
SsBLU −S (f )
Sx (f + fc ) Sx (f − fc )
−fc fc f
Demodulador
El demodulador para BLU es exactamente igual que el de DBL ya que la información se encuentra
en la componente en fase (ver figura). La única diferencia es que el filtro paso banda de entrada debe
tener un ancho de banda Bx y seleccionar una de las bandas laterales (superior o inferior en función
de como sea la señal transmitida).
Bx Bx
2 cos 2πfc t
Igual que en el caso deDBL, la señal demodulada será la componente en fase iv (t) = yD (t) = xD (t) +
66
nD (t), donde la parte de señal y de ruido valen ahora
Ac
xD (t) = x(t) (50)
2
nD (t) = in (t) (51)
SNR en destino
SD A2 P x A2c Px
SN RD = = c = (52)
ND 4Pin 4N0 BT
2
Si tenemos en cuenta que BT = Bx junto con SR = PsBLU = A4c Px ( que nos permite poner A2c en
función de SR ) y lo usamos en la expresión anterior, llegamos a
SD 4SR
SN RD = = =γ (53)
ND 4N0 Bx
Por lo tanto, con BLU obtenemos la misma SNR en destino que con un sistema de transmisión en
DBL o en banda base (por una misma potencia de transmisión SR y un mismo nivel de ruido N0 )
pero empleamos el mı́nimo ancho de banda necesario que es Bx .
Sx (f ) SsBLV −S (f )
|HV (f )|
Bx
vestigio
f −fc fc f
Modulador
El modulador de BLV es semejante al de BLV con la diferencia que ahora no aplicamos un filtro ideal
que seleccione una de las bandas laterales sino que colocamos un filtro HV (f ) (ver figura anterior) que
dará lugar al vestigio. La siguiente figura contiene el diagrama de bloques del modulador BLV.
67
sDBL (t)
x(t) HV (f ) sBLV −S (t)
Ac cos 2πfc t
Analizaremos la modulación BLV empleando el equivalente paso bajo, de forma que podemos escribir
1
bsBLV −S (t) = bsDBL (t) ∗ bhv (t) (54)
2
Como hicimos en el caso de BLU, el equivalente paso bajo del filtro lo hallaremos a nivel frecuencial
y corresponde a la siguiente figura, que la interpretaremos como suma de una señal constante en
frecuencia J(f ) = 1 y una señal G(f ) impar parecida a la función signo pero diferente alrededor del
origen, es decir HV (f ) = 1 + G(f ), para dar lugar a la forma que apreciamos en la figura. Por otro
BHV (f )
ası́ que
1 1 1
bsBLV −S (t) = Ac x(t) ∗ (δ(t) + g(t)) = Ac x(t) + Ac x(t) ∗ g(t) (56)
2 2 2
Como G(f ) es anti-hermı́tica, esto es, G(f ) = −G∗ (−f ) (simetrı́a impar en parte real y par en parte
imaginaria, que en el caso que nos ocupa es nula), por las propiedades de simetrı́a de la transformada de
Fourier podemos afirmar que g(t) será imaginaria pura. Para remarcar esto escribiremos g(t) = jhq (t),
donde hq (t) es la parte imaginaria de g(t) y no tiene nada que ver con la transformada de Hilbert.
Aparte, ya nos va bien que g(t) sea imaginaria pura porque nos generará la componente en cuadratura
de la señal BLV. Ası́ pues
1
bsBLV −S (t) = Ac (x(t) + jx(t) ∗ hq (t)) (57)
2
Nótese que si g(t) = jhq (t) (equivalentemente jg(t) = −hq (t)), en frecuencia tenemos Hq (f ) = −jG(f )
y por lo tanto se trata de un filtro que aproxima la transformación de Hilbert (aunque diferente
alrededor del origen) como muestra la figura siguiente.
68
Hq (f )
Hilbert
−j
A partir del equivalente paso bajo, podemos escribir la señal modulada en BLV-S como
sBLV −S (t) = isBLV −S (t) cos 2πfc t − qsBLV −S (t) sin 2πfc t (58)
Ac Ac
= x(t) cos 2πfc t − x(t) ∗ hq (t) sin 2πfc t
2 2
y por lo tanto podremos recuperar la señal moduladora a partir de la componente en fase de la señal
isBLV −S (t), que es proporcional a x(t).
A nivel espectral, veremos sólo el espectro de la señal BLV-S suponiendo que x(t) es determinista.
Esto ya nos sirve para el análisis posterior y hay que tener en cuenta que para encontrar resultados
más detallados deberı́amos conocer la respuesta del filtro con que trabajamos. Ası́ pues, si partimos
del esquema del modulador, podemos decir que
Ac
SBLV −S (f ) = SDBL (f )HV (f ) = X(f ) ∗ [δ(f − fc ) + δ(f + fc )] HV (f ) (59)
2
Ac
= (X(f − fc ) + X(f + fc )) HV (f )
2
Demodulador
El demodulador de BLV es el mismo que el de BLU como se puede ver en la siguiente figura, aunque el
filtro paso banda de entrada debe tener el ancho de banda suficiente para dejar pasar la banda lateral
y su vestigio.
BT Bx
2 cos 2πfc t
Analicemos a continuación las señales que aparecen en el demodulador a nivel frecuencial. A la entrada
del filtro paso bajo tendremos
Ac Ac
(X(f − 2fc ) + X(f ))HV (f − fc ) + (X(f ) + X(f + 2fc ))HV (f + fc ) (60)
4 4
69
Luego, a la salida del mismo filtro tendremos
Ac
X(f )(HV (f − fc ) + HV (f + fc )) (61)
4
Estudiemos este resultado con la ayuda del gráfico siguiente. Vemos que la suma de filtros desplazados
da una respuesta constante (siempre que HV (f ) sea simétrico) y por lo tanto permite recuperar la
señal sin distorsionarla a partir de su componente en fase como ya habı́amos anticipado antes. En la
práctica esta condición no suele darse en emisión y se usan filtros en recepción que permiten cumplir
este criterio y demodular correctamente.
Bx
HV (f − fc )
HV (f + fc )
Sx (f )
Para cerrar esta sección, cabe destacar que a la práctica se puede enviar una portadora de baja potencia
que se usa para sincronizar el oscilador local del receptor. En este caso, además, si la portadora tiene
cierto nivel de potencia es posible utilizar un demodulador de envolvente para recuperar la señal. Esto
es lo que se usaba en la televisión analógica para poder fabricar receptores baratos. La modulación
BLV-S con portadora responde a
sBLV −S+port (t) = Ac (1 + µ x(t)) cos 2πfc t − Ac µ qsBLV −S (t) sin 2πfc t (62)
y su envolvente vale
s
2
µ qsBLV −S (t)
q
esBLV −S+port (t) = A2c (1 + µ x(t))2 + A2c µ2 qs2BLV −S (t) = Ac (1 + µ x(t)) 1+ (63)
1 + µ x(t)
µq 2
sBLV −S (t)
Vemos que el término 1+µ x(t) nos está introduciendo distorsión en la señal. Para que sea des-
preciable nos interesa que µ 1 o bien que qsBLV −S (t) sea pequeña. Nótese que qsBLV −S (t) depende
del filtro vestigial y a la práctica nos interesa que el vestigio sea ancho espectralmente (como máximo
puede llegar a Bx , momento en el que tendrı́amos el ancho de banda de DBL). Por lo tanto, hay un
compromiso entre calidad de la señal y ancho de banda empleado.
En este caso no calcularemos la SNR en demodulación ya que depende del filtro vestigial que usemos.
No obstante, el procedimiento serı́a el mismo que hemos empleado en las otras modulaciones. Si usamos
detección de envolvente, tendrı́amos el mismo resultado que en AM.
70
distintas. Es lo que sucedı́a en la transmisión de televisión analógica para combinar la señal de au-
dio con la de video. En la siguiente figura tenemos un ejemplo de modulador y demodulador para
tres señales distintas. Vemos que primero las multiplexamos a una frecuencia intermedia y luego las
subimos a la banda de transmisión. En la figura vemos el diagrama de bloques de transmisor y receptor.
Sx1 (f )
BLU-S
f1 f fc1
Sx2 (f )
sLP (t)
MODULADOR sBP (t)
BLU-S PORTADORA
f2 f
fc2
Sx3 (f )
BLU-S
f3 f
fc3
SsLP (f )
f1 f2 f3
f
DEM x1 (t)
BLU-S
DEM x3 (t)
BLU-S
Observaciones:
Dejar bandas de guarda entre sistemas para poder separar bien las señales con filtros reales.
Las no linealidades que puedan tener los elementos del sistema pueden inducir “crosstalk”, es
decir, que parte de una señal se mezcle con la otra.
71
Tema 5: Modulaciones Angulares
Antoni Morell y José López Vicario
7 de mayo de 2013
y(t) = a1 x(t) cos (2πfc t + φ(t)) + a2 x2 (t) cos2 (2πfc t + φ(t)) + a3 x3 (t) cos3 (2πfc t + φ(t)) (1)
1 3 1
= a2 x (t) + a1 x(t) + a3 x (t) cos (2πfc t + φ(t)) + a2 x2 (t) cos (2π2fc t + 2φ(t))
2 3
2 4 2
1
+ a3 x3 (t) cos (2π3fc t + 3φ(t))
4
y por lo tanto, nos aparecerá distorsión incluso filtrando en el ancho de banda de la señal, en cuyo
caso nos quedarı́amos con la señal
3
s(t) = a1 x(t) + a3 x3 (t) cos (2πfc t + φ(t)) (2)
4
No obstante, es la amplitud la que se ve afectada pero no la fase. Ası́ pues, si empleamos modulaciones
angulares podremos utilizar amplificadores no lineales y cualquier dispositivo no lineal en general sin
ningún problema. Esto es una gran ventaja a la práctica.
72
1.1. Señal paso banda modulada angularmente s(t)
De forma general, escribiremos las modulaciones angulares como
n o
s(t) = Ac cos (2πfc t + φ(t)) = Re Ac ej(2πfc t+φ(t)) (3)
donde φ(t) será una función del mensaje a transmitir x(t), esto es, φ(t) = f (x(t)). Nótese que si
identificamos la expresión anterior con la expresión genérica de una señal paso banda en función de
su equivalente paso bajo bs (t) referenciado a fc , es decir, s(t) = Re bs (t)ej2πfc t , vemos claramente
que en este caso bs (t) = Ac ejφ(t) = Ac cos φ(t) + jAc sin φ(t). Por lo tanto, la componente en fase de la
modulación es is (t) = Ac cos φ(t) y la componente en cuadratura es qs (t) = Ac sin φ(t), ası́ que
p
es (t) = Ac = i2s (t) + qs2 (t) (4)
ϕs (t) = 2πfc t + φ(t), ϕbs (t) = φ(t) (5)
Pis + Pqs A 2
Ps = = c E{cos2 φ(t)} + E{sin2 φ(t)} (6)
2 2
A2c A2
= E{cos2 φ(t) + sin2 φ(t)} = c
2 2
Nótese que dado que son señales de envolvente constante, cuando se utilice un dispositivo no lineal el
punto de trabajo será siempre el mismo.
Por último, nos preguntamos cuál será el ancho de banda de una modulación angular. Para ello,
tomemos la componente en fase de la señal (podemos hacer algo parecido para la componente en
cuadratura) y desarrollemos en serie de Taylor el coseno alrededor del origen, obteniendo ası́
1 2 1
cos φ(t) = 1 − φ (t) + φ4 (t) − . . . (7)
2! 4!
Si φ(t) tiene ancho de banda B, entonces φ2 (t) = F −1 {Φ(f ) ∗ Φ(f )}, tendrá ancho de banda 2B
y ası́ sucesivamente. Con este primer análisis ya nos damos cuenta que vamos sumando términos
con ancho de banda creciente, ası́ que de forma general la señal paso banda modulada angularmente
tendrá un ancho de banda que tiende a infinito. Está claro que esto no es práctico y en breve veremos
cómo conseguir modulaciones angulares de banda estrecha, entendiendo aquı́ por banda estrecha que
el ancho de banda de la señal sea mucho menor que la frecuencia portadora fc .
73
entonces φ(t1 ) = φ(t2 ) y sin embargo el valor transmitido ha sido distinto. En definitiva, una señal
paso banda modulada en fase responde a la expresión
y por lo tanto la frecuencia instantánea de la señal es proporcional al mensaje una vez añadido un
offset fc para poder trasladarla a la banda deseada. Llamaremos f∆ sensibilidad en frecuencia, que
se medirá en Hz/V, y definiremos ∆f como la desviación máxima en frecuencia, que por lo tanto
será f∆ máx |x(t)|. Por lo tanto, la frecuencia instantánea de la señal tomará valores
Por último, dada la frecuencia instantánea de la señal FM, podemos encontrar su fase integrando la
frecuencia como
Z t
ϕsF M (t) = 2πfc t + ϕbsF M (t) = 2πfc t + 2πf∆ x(λ)dλ + φ(t0 ), t ≥ t0 (13)
t0
Es fácil comprobar que derivando esta expresión y dividiendo por 2π se obtiene justamente (11). De
ahora en adelante, supondremos que escogemos un instante t0 tal que su fase φ(t0 ) = 0 y escribiremos
de modo más compacto la fase de la señal FM como
Z t
ϕsF M (t) = 2πfc t + 2πf∆ x(λ)dλ (14)
Nótese que dada la relación derivada-integral entre las modulaciones PM y FM, se puede obtener
cualquiera de ellas a partir de un único modulador como muestra la siguiente figura. En otras palabras,
si tuviéramos un modulador FM podrı́amos generar la señal FM de forma directa y la señal PM
derivándola previamente. Lo mismo si tuviéramos un modulador de PM, sólo que esta vez deberı́amos
integrar el mensaje para proporcionar la fase adecuada al modulador y ası́ llegar a la señal FM.
74
∂ Modulador
x(t) () sP M (t)
∂t FM
! t
Modulador
x(t) ( )dλ sF M (t)
PM
cos φ(t) ≈ 1
sin φ(t) ≈ φ(t)
cometiendo un error razonablemente pequeño. En estas condiciones, la señal toma un aspecto que
puede recordar la señal de AM
y definiremos β = Am f∆
fm como ı́ndice de modulación. Nótese que determina la desviación máxima de
fase respecto a 2πfc t que puede haber (que se dará cuando el seno valga 1) y por lo tanto, de acuerdo
con la condición de banda estrecha, requeriremos β ≤ 0, 3. Usando este parámetro, las aproximaciones
de banda estrecha que acabamos de citar y desarrollando el coseno de la suma, expresamos la señal
FM resultante como
75
SF M (f ) SAM (f )
fc − fm
fc fc + fm fc − fm fc fc + fm
BT = 2fm
Por lo tanto perdemos la ventaja de tener un envolvente constante ante sistemas no-lineales y además,
la fase de la señal modulada dejará de ser la requerida. No obstante, si φ(t) es pequeño como hemos
supuesto, entonces el módulo será prácticamente constante y trabajaremos alrededor de la zona lineal
del arcotangente, ası́ que el error producido será pequeño.
Por último, comentar que la modulación FM de banda estrecha se podrı́a obtener mediante el siguiente
diagrama de bloques.
! t
x(t) 2πf∆ ( )dλ sF M (t)
Si modulamos esta señal en FM, la fase del equivalente paso bajo de la señal será
Z t
Am f∆
φ(t) = Am 2πf∆ cos 2πfm λtdλ + φ(t0 ) = [sin 2πfm t − sin 2πfm t0 ] + φ(t0 ), t ≥ t0 (22)
t0 fm
76
Por simplicidad escogemos φ(t0 ) = Am f∆
fm sin 2πfm t0 y definimos β =
A m f∆
fm , con lo que la fase ins-
tantánea de la señal (equivalente paso bajo) queda
De esta manera, la señal paso banda (la que realmente se transmite) queda
n o
sF M (t) = Ac cos (2πfc t + β sin 2πfm t) = Re Ac ej2πfc t ejβ sin 2πfm t (24)
siendo lo que hay dentro del operador parte real la señal analı́tica de sF M (t). Por lo tanto podemos
calcular el equivalente paso bajo de la señal de forma sencilla haciendo
Si nos fijamos bien nos daremos cuenta que bsF M (t) es una señal periódica de periodo Tm = f1m ya
que bsF M (t + kTm ) = Ac ejβ sin (2πfm (t+kTm )) = Ac ejβ sin (2πfm t+2πk) = bsF M (t). Por lo tanto la podremos
expresarla a partir de su serie de Fourier de la siguiente manera:
+∞
X Z
1
bsF M (t) = cn e j2πfm nt
con cn = bsF M (t)e−j2πfm nt dt (26)
n=−∞
Tm hTm i
La integral resultante no se puede calcular analı́ticamente pero dada su importancia en diversos ámbi-
tos ha sido estudiada y tabulada. Definimos la función de Bessel de 1a especie de orden n y argumento
β como Z +π
1
Jn (β) = ej(β sin λ−nλ) dλ (29)
2π −π
y en la siguiente figura vemos graficadas algunas de estas funciones. A partir de las funciones de Bessel
de primera especie con n > 0 podemos obtener J−n (β) si hacemos uso de la propiedad que nos dice
Ahora que tenemos el equivalente paso bajo de la señal en forma de serie de Fourier, volvemos a la
señal paso banda para analizar su espectro bajo la nueva perspectiva que nos da bsF M (t) expresado en
serie de Fourier. Ası́ pues, las señal sF M (t) es
( +∞ )
n o X
s(t) = Re bsF M (t)ej2πfc t = Re Ac Jn (β)ej2πfm nt ej2πfc t (31)
n=−∞
+∞
X +∞
X
= Ac Jn (β) cos (2πfc t + 2πfm nt) = Ac Jn (β) cos (2π(fc + nfm )t)
n=−∞ n=−∞
77
Funciones de Bessel de primera especie
1
J0(β)
0.9 J1(β)
0.8 J2(β)
J (β)
0.7 10
0.6
0.5
0.4
0.3
Jn(β)
0.2
0.1
−0.1
−0.2
−0.3
−0.4
−0.5
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
β
Expresada la señal de esta forma, el cálculo tanto del espectro como de la densidad espectral de la
señal resulta fácil a través de la transformada de Fourier o su módulo al cuadrado, respectivamente.
Analicemos pues el espectro de la señal FM resultante, que es
+∞
X Ac Jn (β)
SF M (f ) = F{sF M (t)} = [δ(f − fc − nfm ) + δ(f + fc + nfm )] (32)
n=−∞
2
donde vemos claramente que en función de β se deberán considerar más o menos componentes fre-
cuenciales (ver figura con las funciones de Bessel). Un ejemplo ya visto es para β 1 (FM de banda
estrecha), en cuyo caso deberemos considerar únicamente las funciones de Bessel en n = −1, 0, 1 (ver
figura), siendo el ancho de banda de transmisión BT = 2fm como ya habı́amos visto. En general, si
dibujásemos Jn (β) para un valor de β dado y fuéramos incrementado n, verı́amos que a la larga las
amplitudes de Jn (β) irı́an disminuyendo. El ancho de banda de la señal FM quedarı́a determinado
por el orden del coeficiente cuya amplitud sea considerada ya suficientemente pequeña. En caso de
que el transmisor o receptor corten a un ancho de banda menor, entonces la señal quedará degradada
(habrá distorsión).
78
Ancho de banda de la señal FM
A fin de poder determinar el ancho de banda de la señal FM, la cuestión es fijar qué entendemos
por suficientemente pequeño y ver cuántas componentes frecuenciales entran. La siguiente gráfica
determina cuál es el orden n de Jn (β) a partir del cual se cumple |Jn (β)| < para n > M y en
concreto lo hace para = 0,01 y = 0,001. A la práctica se observa que la calidad de la señal es
aceptable para = 0,01 (aunque no del todo buena) mientras que ésta es excelente para = 0,001. Es
por eso que se acostumbra a usar un término medio dado por
M (β) = β + 2 (33)
si β ≥ 1 (ver trazo discontinuo en el gráfico). En este caso, el ancho de banda total de transmisión
que ocupan las 2M + 1 “deltas” que hemos considerado es
Am f∆
BT = 2M (β)fm = 2(β + 2)fm = 2 + 2 fm = 2(Am f∆ + 2fm ) (34)
fm
15
10
ǫ = 0.001
M 5
ǫ = 0.01
β+2
2
Imaginemos ahora, como paso previo al cálculo del ancho de banda de una señal cualquiera, que nos
encontramos ante un tono puro como ahora pero no sabemos cuál es exactamente su amplitud y
frecuencia. Únicamente sabemos que Am ≤ 1 y que fm ≤ W . ¿Qué valores de Am y fm deberı́amos
considerar? Lo mejor que podemos hacer es curarnos en salud y considerar el peor caso. Si nos fijamos
en (34) vemos que el ancho de banda más grande se obtendrá cuando Am y fm sean a la vez lo más
grandes posible, es decir Am = 1 y fm = W . Poniendo esto valores en la ecuación anterior, dirı́amos
que el ancho de banda de la señal FM es
BT = 2(f∆ + 2W ) (35)
y corresponderı́a a β = fW∆ . Nótese que si hubiéramos escogido un valor de fm < W hubiéramos obte-
nido un valor de β mayor. No obstante, el ancho de banda hubiera sido más pequeño.
79
Por último, consideremos una señal arbitraria x(t) con ancho de banda Bx y que cumple |x(t)| < 1.
En este caso el ancho de banda se calcula extrapolando al caso que acabamos de ver. Definimos la
razón de desviación D como la desviación de frecuencia relativa a fm , esto es
∆f
D= (36)
fm
y el valor de D que nos dará el mayor ancho de banda (extrapolando al caso anterior) será
∆f f∆ |x(t)|max f∆
D= = = (37)
fm Bx Bx
Entonces calcularemos el ancho de banda de la señal FM como
Esto es lo que haremos si no sabemos nada de la señal. Si tenemos más información podemos deter-
minar cuál es el par {Am , fm } que nos da el mayor ancho de banda y considerarlo para obtener BT .
2. Si 0,3 < D < 1, entonces debemos ir a la tabla de M (β) para ver cuántas “deltas” hay que
considerar.
Notas:
1. La regla de Carson es un intento de combinar las aproximaciones para D muy pequeña y D muy
grande en una sola expresión.
2. Aunque nos hemos centrado en calcular el ancho de banda de las señales FM, el ancho de banda
de una señal PM se calcuları́a de la misma forma sustituyendo D por φ∆ . Ya hemos visto en el
análisis de un tono puro que β (equivalente a D) determinaba, como hemos argumentado a raı́z
de (17), la máxima desviación en fase de la señal FM y esto es justo lo que nos dice φ∆ en una
señal PM.
4. Moduladores y demoduladores de FM
Una vez analizada la modulación, veamos los diagramas de bloques de algunos moduladores y demo-
duladores de FM. Entre los moduladores veremos el modulador directo y el modulador indirecto. Entre
los demoduladores veremos el demodulador por conversión FM-AM y el demodulador discriminador
de fase.
80
Moduladores de FM
Modulador directo: Como muestra la figura siguiente, se trata simplemente de un oscilador contro-
lado por tensión.
Un circuito resonante muy simple es un condensador y una bobina en paralelo, siendo la frecuencia
resonante de esta configuración f0 = 2π√1LC . Si usamos un condensador regulable en tensión de forma
que C(t) = C0 − C1 x(t), entonces
1 1 1
f0 (t) = p = √ q (39)
2π LC(t) 2π LC0 1 − C1 x(t)
C0
C1
Si C0
x(t) 1 entonces podemos usar la siguiente aproximación de Taylor de primer orden alrededor
1
del origen, √1−x ≈ 1 + x2 , de forma que nos queda
1 C1
f0 (t) = √ 1+ x(t) (40)
2π LC0 2C0
Si definimos fc = √1 , entonces
2π LC0
C1
f0 (t) = fc + fc x(t) (41)
2C0
C1
y por lo tanto f∆ = fc 2C0
. La fase de la modulación será pues
Z t
ϕsF M (t) = 2πfc t + 2πf∆ x(λ)dλ (42)
f1 f2
81
harmónicos o múltiples de la frecuencia de entrada) y filtros para eliminar las componentes no desea-
das. Gracias a estos bloques podemos llegar a una modulación FM con la desviación en frecuencia
deseada. Fijémonos en las señales que se obtienen sucesivamente, esto es
Z t
s1 (t) = Ac cos 2πf1 t + 2πf∆ x(λ)dλ (43)
Z t
s2 (t) = Ac cos 2πn1 f1 t + 2πn1 f∆ x(λ)dλ
Z t
s3 (t) = Ac cos 2π(n1 f1 ± f2 )t + 2πn1 f∆ x(λ)dλ
Z t
s4 (t) = Ac cos 2πn2 (n1 f1 ± f2 )t + 2πn1 n2 f∆ x(λ)dλ
En general, el demodulador indirecto es más estable que el demodulador directo, que da derivas en
frecuencia que hay que controlar. Con la llegada de los circuitos integrados, este hecho mejoró pero el
ámbito de aplicación está limitado a sistemas de potencia baja.
Demoduladores de FM
∂ Demodulador Bloqueo
sF M (t) Limitador () Kx(t)
∂t de envolvente DC
BT
En el diagrama de bloques aparece en primer lugar un filtro paso banda cuyo único objetivo es eliminar
ruido (como en todas las modulaciones), luego un limitador que fija la amplitud de la señal (deberı́a ser
constante y de no serlo sirve para compensar la distorsión producida) sin modificar
la fase y finalmente
Rt
el bloque derivador. Veamos pues, qué vale la derivada de sF M (t) = Ac cos 2πfc t + 2πf∆ x(λ)dλ .
Esto es Z t
∂
sF M (t) = Ac (2πfc + 2πf∆ x(t)) sin 2πfc t + 2πf∆ x(λ)dλ (44)
∂t
y confirmamos que se ha llevado x(t) a la amplitud en la misma forma que lo hace la modulación
AM. La portadora no es pura como en AM pero el término extra no pasa a la envolvente de la señal
(comprobadlo como ejercicio). Nos falta ver cómo hacer esta derivada. Si lo miramos a nivel frecuencial,
derivar una señal es multiplicar por j2πf , es decir que necesitamos un filtro con respuesta frecuencial
|H(f )| = 2πf . Esto se consigue con resonadores. En la siguiente figura vemos la respuesta de un
resonador y cómo ésta se puede aproximar por una rampa en frecuencia en cierto margen frecuencial.
82
|H(f )|
fc f
Demodulador
H1 (f )
de envolvente
+
sF M (t) Kx(t)
Demodulador
H2 (f )
de envolvente
La idea es la misma pero ahora la derivada se hace con dos resonadores invertidos y adecuadamente
alineados como muestra la siguiente figura. De esta forma ampliamos el margen de derivación.
|H1 (f ) − H2 (f )|
fc f
83
sF M (t) Limitador Kx(t)
PSN
La clave en este esquema es interpretar la derivada como la diferencia de la señal en dos instantes muy
muy próximos (definición de derivada). El bloque PSN (Phase-shift network) se encarga de realizar
un retardo que desfase π/2 la portadora y un retardo t1 en φ(t) (retardo de fase y retardo de grupo,
respectivamente), de forma que si a la entrada tenemos la señal FM sF M (t) = Ac cos (2πfc t + φ(t)), a
la salida tendremos Ac sin (2πfc t + φ(t − t1 )). Por lo tanto, el producto de ambas señales (ya quitando
el término a 2fc que elimina el filtro paso bajo) nos da la señal demodulada, que es
A2c
yD (t) = sin (φ(t − t1 ) − φ(t)) (45)
2
Si t1 es suficientemente pequeño podemos aproximar la diferencia de fases por su derivada, es decir
φ(t − t1 ) − φ(t) ≈ t1 φ0 (t), lo que queda justificado a partir de la definición de derivada. Además,
si t1 φ0 (t) es suficientemente pequeño podremos aproximar el seno por su argumento, de forma que
llegamos a
A2
yD (t) = c t1 φ0 (t) = Kx(t) (46)
2
Por último, nótese que a mayor ancho de banda del mensaje x(t), más rápidamente fluctuará dicha
señal. Por lo tanto, menor deberá ser t1 para tener una buena aproximación de la derivada.
BT Bx
w(t)
N0
Sw (f ) =
2
5.1. Ruido en PM y FM
La señal v(t) será simplemente señal deseada más ruido paso-banda. La expresaremos como la parte
real de la suma de las respectivas señales analı́ticas, esto es
n o n o
v(t) = Re Ac ej(2πfc t+φ(t)) + (in + jqn )ej2πfc t = Re Ac ejφ(t) ej2πfc t + (in + jqn )ej2πfc t (47)
84
Desarrollando un poco más llegamos a
SR A2 /2
SN RR = = c (49)
NR N0 BT
SR
y si usamos como referencia la SNR de la señal en banda base γ = N0 Bx , que en este caso vale
A2c
γ= 2N0 Bx , podemos escribir la SN RR como
Bx
SN RR = γ (50)
BT
No obstante, más que en recepción, lo que realmente nos interesa es la SN RD en destino, que es
lo que finalmente percibimos. Para ello es necesario ver cómo el ruido paso banda afecta a la fase
de la señal modulada angularmente o φ(t), puesto que ahı́ está la información que recuperaremos en
demodulación. Volvamos a la señal v(t), considerando ahora una amplitud no constante Av (t) y una
fase adicional φn (t) para acomodar el proceso de ruido, esto es
v(t) = Av (t) cos (2πfc t + φv (t)) con φv (t) = φ(t) + φn (t) (51)
Veamos esto mismo sobre el plano complejo en la siguiente figura. Dibujaremos ahora el equivalente
paso bajo de la señal (a diferencia del tema 3 donde dibujamos la señal analı́tica) porque es en φv (t)
donde está la información y no en la portadora. De todas formas, pasar de una a otra representación
es muy simple. Podemos imaginar que eje de abscisas en la representación paso bajo juega el papel
del fasor ej2πfc t en la representación de la señal analı́tica que vimos en el tema 3 (recordemos que
bs (t) = as (t)e−j2πfc t ).
ruido
qn (t)
Av (t)
ϕn (t)
φn (t)
Ac señal deseada
φv (t)
φ(t)
Re {bv (t)}
Como lo que nos importa en este caso es la modificación de φ(t) (fase deseada) debido a ruido, es
decir, φn (t) en la figura, proyectaremos las componentes de ruido sobre la señal deseada, obteniendo
ası́ în (t) y q̂n (t) como se aprecia en la siguiente figura.
85
Im {bv (t)}
în (t)
q̂n (t)
rn (t)
Av (t) ϕn (t)
φn (t)
Ac
φv (t)
φ(t)
Re {bv (t)}
En ella podemos ver que el ángulo que forma el vector de ruido respecto a los nuevos ejes es ϕn (t)−φ(t),
ası́ que sólo nos falta proyectar el módulo del vector de ruido rn (t) sobre los nuevos ejes obteniendo
ası́
86
5.2. SNR en PM
Sabiendo como “pasa” el ruido paso banda a la fase de la señal, veamos ahora cuánto vale la
SN RD = SD /ND en la modulación PM y por ello debemos identificar las componentes de señal
deseada y ruido en yD (t) = xD (t) + nD (t).
Sigamos pues el diagrama de bloques que hemos puesto al principio de la sección, partiendo de v(t),
la cual acabamos de analizar. Ası́, la señal a la entrada del demodulador será
donde la amplitud es ahora constante debido al efecto del limitador (pero la fase idealmente no cambia).
Por lo tanto, lo dicho anteriormente para v(t) es igualmente válido desde el punto de vista de la fase.
Ası́ pues, en el demodulador de PM recuperaremos la fase de la señal sin tener en cuenta la debida a
la portadora, con lo que a su salida tendremos
qn (t)
φv (t) = φ(t) + φn (t) = φ∆ x(t) + (58)
Ac
Por último, nos falta considerar el filtro paso bajo para obtener finalmente yD (t) = xD (t) + nD (t)
como
yD (t) = φv (t) ∗ hP B (t) (59)
Nótese que dicho filtro no afectará a la señal deseada, pues lo suponemos ideal y debe tener el ancho
de banda adecuado, pero sı́ al ruido. Por lo tanto, por el lado de la señal deseada es fácil encontrar
SD según
xD (t) = φ∆ x(t) −→ SD = φ2∆ Px (60)
Por el lado del ruido tenemos
Z +∞
qn (t) 1
nD (t) = ∗ hP B (t) −→ ND = 2 Sqn (f )|HP B (f )|2 df (61)
Ac Ac −∞
Aquı́ debemos recordar un resultado sobre el ruido paso banda que obtuvimos en el tema 3 y que nos
decı́a
Sin (f ) = Sqn (f ) = Sn (f + fc ) + Sn (f − fc ) para |f | < fc (62)
lo que gráficamente se traduce en la siguiente figura, y por lo tanto
2N0 Bx
ND = (63)
A2c
87
Sn (f ) Sqn (f )
BT
N0
N0 /2
2Bx
−fc fc f BT f
donde recordemos que γ = NS0RBx es la SN RD que obtendrı́amos con un sistema paso banda (ya
hemos visto al principio del tema que SR = A2c /2 tanto en PM como en FM). Nótese que como
φ∆ ≤ π para evitar ambigüedad de fase, φ2∆ ≤ 10 dB. Esto quiere decir que en PM podemos mejorar
10 dB como mucho respecto al sistema equivalente en banda base (mismas condiciones de potencia
transmitida). Fijémonos también que la SN RD mejora en PM a medida que incrementamos la potencia
de transmisión como parece lógico. No obstante, el mecanismo no es el mismo que en las modulaciones
lineales. Aquı́ la información viaja en la fase de la señal e incrementar la amplitud no tiene ningún
efecto en la fase y por lo tanto no modifica la potencia de la señal deseada en destino como muestra
(60). Por contra, sı́ que baja la potencia de ruido como hemos visto en (63). Este fenómeno se conoce
como “noise quieting” y lo podemos apreciar cuando sintonizamos una emisora de FM con el volumen
subido. Al pasar de una emisora a otra se oye mucho más ruido que cuando sintonizamos una (caso
en el que la potencia de señal recibida crece, Ac es mayor y ND baja).
5.3. SNR en FM
El análisis de la SN RD en FM es muy parecido al de PM. La diferencia es que ahora no recuperamos
la fase de la señal sino su derivada. En otras palabras, si vlim (t) = Av cos (2πfc t + φ(t) + φn (t)) es
1 ∂
la señal de entrada al demodulador de FM como antes, la salida será 2π ∂t (φ(t) + φn (t)) y una vez
atraviese el filtro paso bajo tendremos la señal en destino, que es
1 ∂(φ(t) + φn (t))
yD (t) = ∗ hP B (t) = xD (t) + nD (t) (65)
2π ∂t
Rt
En FM tenemos φ(t) = 2πf∆ x(λ)dλ y por lo tanto al hacer la derivada y dividir por 2π tenemos
f∆ x(t). Como sucedı́a en PM, el filtro paso bajo no debe tener ningún efecto sobre la señal deseada y
por lo tanto xD (t) y SD deben valer
2
xD (t) = f∆ x(t) −→ SD = f∆ Px (66)
En cuanto a ND , sı́ que tenemos que considerar la derivación que hace el demodulador de FM. Si
antes tenı́amos qnA(t)
c
a la salida del demodulador de PM, ahora tendremos su derivada con el factor
2π dividiendo. Si lo interpretamos bajo el punto de vista de sistemas LTI, sabemos que derivar en
tiempo corresponde a multiplicar por j2πf en frecuencia. Si además consideramos el filtro paso bajo
1
estamos ante la situación de la siguiente figura, donde Hderivador (f ) = 2π j2πf = jf (incluye el 1/2π
y la derivación).
88
qn (t)
Hderivador (f ) HP B (f ) nD (t)
Ac
Por lo tanto
qn (t)
nD (t) = ∗ hderivador (t) ∗ hP B (t) (67)
Ac
y a nivel de densidad espectral tenemos
Z +∞ Z Bx
Sqn (f ) 2 2 1 2 Bx3 N0
ND = |Hderivador (f )| |HP B (f )| = N 0 f df = 2 (68)
−∞ A2c A2c −Bx 3A2c
A diferencia de PM, en FM la densidad espectral del ruido no es plana dado que Sqn (f ) se multiplica
por |Hderivador (f )|2 = f 2 , una parábola en frecuencia. Es decir, la frecuencias alrededor del origen casi
no contribuirán a ND mientras que las más alejadas contribuirán mucho como se puede apreciar en la
siguiente figura.
Sqn (f )
A2c
SnD (f )
2Bx
BT f
Observaciones:
1. Habrá mejora respecto banda base cuando 3Px D2 > 1. Considerando Px = 1 a efectos de
normalización como siempre, llegamos a la condición
D > 0, 57 (71)
89
2. Existen dos vı́as para aumentar SN RD :
Dado que en FM el ruido en destino tiene una densidad espectral parabólica, habrá una fuerte am-
plificación del ruido a las frecuencias próximas a Bx . Para compensar este efecto e intentar conseguir
una densidad espectral plana se usan los filtros de preénfasis y deénfasis. Esta idea ya la vimos con
los filtros terminales óptimos y consiste en amplificar las frecuencias más vulnerables al ruido en el
transmisor para poderlas atenuar luego en el receptor. De esta forma no alteramos la señal pero sı́ el
ruido con el objetivo de hacerlo espectralmente plano en la banda de interés.
y por lo tanto, las repuestas de los filtros deben ser ‘ı̀nvertibles”. Nótese que un filtro paso bajo ideal
o paso alto ideal no cumple con esta restricción ya que la inversa requerirı́a una respuesta de módulo
infinito en parte del ancho frecuencial.
MODULADOR DEMODULADOR
x(t) HP E (f ) CANAL HDE (f ) yD (t)
FM FM
Centrémonos ahora en qué sucede cuando dejamos de cumplir la condición SN RR > 10 dB. En
este caso podemos volver a hacer el diagrama fasorial que hicimos al principio de esta sección pero
considerando que las amplitudes de los vectores de señal y ruido son comparables como se puede
apreciar en la siguiente figura.
90
Im {bv (t)}
señal deseada
bv (t + ∆t) Ac
φv (t) ruido
rn (t)
Re {bv (t)}
Aparece ahora un problema importante: la fase del ruido puede modificar mucho la fase de la señal
deseada, pudiendo haber un cambio de hasta π rad como es el caso de la figura en el instante t.
Imaginemos ahora que la fase de la señal no cambia entre t y t + ∆t. No obstante, como la fase del
ruido está uniformemente distribuida en [0, 2π], el fasor correspondiente a la señal recibida (suma de
señal deseada y ruido) describirá una trayectoria con gran incertidumbre de fase entre t y t + ∆t.
Una posible evolución se muestra en la figura en trazo discontinuo. Nótese que cuando la SN RR es
alta esto no sucede. Entonces existirı́a también incertidumbre en la fase pero en un margen pequeño
alrededor de la fase que marca la señal deseada. A continuación, la siguiente figura marca la evolución
de φv (t) entre t y t + ∆t, donde hay un salto de fase próximo a 2π. También se muestra su derivada,
que es lo que verı́amos (u oirı́amos) a la salida de un receptor FM. Teniendo en cuenta que ∆t puede
ser muy pequeño, apreciarı́amos un cambio brusco de tensión a la salida del receptor. Esto es lo que
en la radio de FM se aprecia con un “click”.
t
∆t
91
Relación entre SN RD y efecto umbral
Una vez descrito el fenómeno, analicemoslo un poco más. Ya sabemos que hay que cumplir SN RRth =
10 dB. Traducido a banda base a través de (50), la correspondiente γth es
BT
γth = SN RRth = 2M (D)10 (73)
Bx
donde hemos usado la expresión ya vista para FM BT = 2M (D)Bx . Esto nos permite finalmente
calcular la SN RD mı́nima que obtendremos si conseguimos evitar el efecto umbral. A través de (70)
y la γth obtenida, llegamos a
SN RDth = 3Px D2 γth (74)
Si consideramos BT = 2(D + 2)Bx (expresión genérica aproximada para D ≥ 1), entonces γth =
20(D + 2) y
SN RDth = 60Px D2 (D + 2) (75)
Comparemos en la siguiente tabla los valores de γth y SN RDth para distintos valores de D, donde
apreciamos la mejora obtenida por la modulación de FM (Px = 1 W).
Como ya habı́amos anticipado, a medida que aumentamos D la mejora también crece. No obstante,
debemos garantizar γth , ası́ que habrá un momento en el que será necesario incrementar la potencia
transmitida para no sufrir efecto umbral. A la práctica lo que nos limitará es el ancho de banda dispo-
nible BT . A partir de ese dato podremos extraer la razón de desviación D y γth con (73). Finalmente,
2
a través de γth = 2NA0cBx podremos determinar la potencia que debemos transmitir en FM.
Por último, la siguiente gráfica recoge los resultados obtenidos modulando un tono en FM. Es intere-
sante destacar la caı́da brusca de rendimiento en términos de SN RD cuando la γ cae por debajo de
cierto valor, que más o menos corresponde a los valores γth calculados. En cualquier caso, debemos
ser conscientes que usamos un BT aproximado y que por lo tanto los resultados obtenidos no son
infinitamente precisos.
92
50
40
D=5
SN RD (dB)
30
Banda
base
D=2
20
10
0
0 10 20 30 40
γ (dB)
93
Tema 6: Codificación de Fuente
Antoni Morell y José López Vicario
7 de mayo de 2013
1. Introducción
1.1. Las Comunicaciones Digitales: un Nuevo Paradigma
Llegados a este punto de la asignatura, hemos sido capaces de entender y analizar el funcionamiento
de los sistemas de comunicaciones analógicas, tanto en banda base como paso banda. Cabe destacar
que las modulaciones vistas hasta el momento han sido el sustento de los servicios de radiodifusión
durante las últimas décadas. Sin embargo, hoy en dı́a es únicamente la radio en FM quien resiste
el paso del tiempo y el auge de los sistemas digitales. Pero, ¿qué hace tan interesante el uso de los
sistemas digitales?
En un primer análisis, incluso se podrı́a pensar que los sistemas analógicos poseen cierta ventaja, pues
son capaces de transmitir los infinitos valores de amplitud que toma una señal real cualquiera en un
determinado intervalo, mientras que en un sistema digital únicamente se considera un conjunto finito
de valores posibles como veremos a continuación. Bajo este punto de vista, se podrı́a plantear que
transmitir información en formato digital limita de alguna forma la capacidad de comunicación, lo
cual serı́a cierto si estuviéramos en un mundo ideal sin ruido. No obstante, ya sabemos que la señal
recibida en cualquier sistema (sea analógico o digital), que en sentido estricto es siempre analógica1 ,
corresponde sin duda a una versión corrompida de la señal transmitida. La gracia de los sistemas di-
gitales es que, dado que conocemos ciertas caracterı́sticas de la señal de antemano (p. ej. sus posibles
amplitudes), la reconstrucción perfecta de la señal es ahora posible mientras que antes no. La figura
siguiente muestra esta misma idea de forma gráfica.
Más allá de los sistemas de comunicación, un ejemplo que muestra claramente esta ventaja de los siste-
mas digitales frente a los analógicos serı́a un sistema de copiado de documentos. Por el lado analógico
tendrı́amos una fotocopiadora y por el lado digital cualquier sistema capaz de copiar un archivo que
contenga el documento (en el formato que sea), es decir, un ordenador, una tableta, un teléfono móvil,
etc. Está claro que después de un cierto número de copias sucesivas en el sistema analógico, el docu-
mento original y el replicado se podrán diferenciar claramente. En cambio, haciendo el mismo número
de copias sucesivas en el sistema digital no se apreciará diferencia alguna.
1
Cuando hablamos de señales digitales remarcamos su naturaleza finita pero, en sentido estricto, todas las señales
que se transmiten por un canal real son analógicas.
94
señal transmitida señal recibida señal reconstruida
xmin
t
xmin
t
xmin
? t
Esto hace que a partir de este momento dejemos de hablar de SNR como medida de calidad y pase-
mos a hablar de probabilidad de error pues, en el nuevo paradigma digital, asumiremos que la señal
transmitida y recibida son la misma salvo que haya habido un error en la reconstrucción. Además,
para que un sistema digital tenga un funcionamiento adecuado, esta probabilidad debe ser muy baja.
En general, alguna de las ventajas que presenta un sistema digital frente uno analógico son:
Posibilidad de hacer mulltiplexado a nivel temporal. Lo veremos más adelante. Esto facilita,
entre otras cosas, la integración de servicios. Por poner un ejemplo, a través de una misma lı́nea
de ADSL se nos puede ofrecer acceso a internet, tv y radio a la vez.
Permite la comunicación directa entre máquinas, ya que estas también se comunican interna-
mente gracias a señales de naturaleza digital.
Se hace necesario que los equipos transmisor y receptor estén sincronizados. En comunicaciones
analógicas podı́a requerirse la sincronización en fase de la portadora. Ahora, además, es también
necesario que el receptor sepa en qué instantes de tiempo debe recoger la información como
veremos más adelante.
95
1.2. Diagrama de Bloques de un Sistema de Comunicaciones Digital
Es el que se muestra en la figura siguiente.
Transmisor
CANAL
Receptor
96
determinar si ha habido errores en el canal e incluso corregirlos. A su salida encontramos la
cadena de bits sin redundancia. En esta assignatura, no trataremos ni la codificación de canal
ni el entrelazado.
2.1. Muestreo
Entendemos por muestreo el hecho de coger una señal continua en el tiempo y quedarnos única-
mente con los valores de la señal a tiempos múltiples de T . Es decir:
x(t)
−T T 2T
t
De entrada, la intuición nos dice que si muestreamos suficientemente rápido (T suficientemente pe-
queño) podremos recuperar la señal original x(t) a partir de su versión discretizada xd (t). Veamos,
pues, qué hay de verdad en esta afirmación.
97
x(t) xd (t)
−T T 2T −T T 2T
t t
!+∞
n=−∞ δ(t − nT )
−T T 2T
t
1
+∞
X m 1 +∞
X m
Xd (f ) = X(f ) ∗ δ f− = X f− (2)
T m=−∞
T T m=−∞
T
y por lo tanto se trata de una señal periódica en frecuencia. Si asumimos que x(t) tiene un ancho de
banda limitado a W , la representación gráfica de Xd (f ) es:
Xd (f )
1
T X(f )
−W W f
− T1 1
− 2T 1
2T
1
T
1
Observando la figura vemos que, para que las réplicas de X(f ) no se solapen se debe cumplir W < 2T .
1
Teniendo en cuenta que la frecuencia a la que se ha muestreado la señal es fm = T , reescribimos la
condición anterior como
fm > 2W (3)
también conocida como criterio de Nyquist. En otras palabras, para evitar el efecto aliasing (el solapa-
miento o interferencia entre réplicas), es necesario muestrear al doble del ancho de banda de la señal.
Equivalentemente, definimos la frecuencia de Nyquist fN , que es función de fm , como el máximo ancho
de banda que puede tener la señal para que no sufra aliasing una vez muestreada. En otras palabras,
forzando al máximo (3), tenemos
fm
fm = 2fN −→ fN = (4)
2
98
2.1.2. Recuperación de x(t) a partir de xd (t). Interpolación.
En caso de que no haya efecto aliasing, está claro que limitando el espectro de Xd (f ) en [−1/2T, 1/2T ]
y escalando por T recuperamos el espectro de la señal original. Esta idea es la que usamos para
reconstruirla. En concreto, vemos que:
f
X(f ) = Xd (f ) T Π (5)
1/T
f
Esto se corresponde con el siguiente sistema cuando H(f ) = T Π 1/T :
H(f )
T
Xd (f ) X(f ) = Xd (f ) H(f )
xd (t) 1
− 2T 1
f
x(t) = xd (t) ∗ h(t)
2T
Ésta es la fórmula de interpolación con la sinc como función de interpolación. Nótese que los valores
de x(t) en los instantes t = nT son iguales que los de xd (t) en t = nT , lo cual es correcto. Veámoslo
en la siguiente figura:
x(t)
x(T ) x(2T )
99
Si nos fijamos, por ejemplo, en t = T , vemos que la sinc centrada allı́, es decir x(T ) sinc t−T
T toma
el valor deseado x(T ) mientras que el resto de funciones sinc se anulan en ese punto. Esto mismo
sucede para cualquier otro punto t = nT . Además, en los valores de t intermedios, la suma de sincs
nos devolverı́a la señal original (en trazo discontinuo en la figura).
x(t)
x(T ) x(2T )
Interpolación de primer orden: h(t) = ∆ Tt .
P
Con esta función tendremos x(t) ≈ n x(nT )∆ t−nTT , es decir, entre dos muestras consecutivas
aproximamos la función por una recta. Resulta también simple de implementar (con un retraso
para que sea causal) y funciona mejor que la anterior.
x(t)
x(T ) x(2T )
100
2.1.3. Implementación práctica
Finalmente, cabe destacar que en la práctica se procura evitar el efecto del aliasing a toda costa. Es
por ello que en el caso del muestro, si la señal de entrada x(t) no cumple el criterio de Nyquist, se
coloca un filtro (llamado antialiasing) que limite el ancho de banda de la señal a fm /2. Es preferible
distorsionar la señal quitándole les componentes frecuenciales más altas que acarrear luego con el
aliasing. Ası́ pues, el diagrama de bloques de un sistema de muestreo debe ser:
Conversor A/D
Consideremos la señal x(t) = cos (2πf0 t). Sabemos que si la muestreamos con fm > 2f0 no va-
mos a tener problemas. En cambio, supongamos que la muestreamos a una frecuencia menor, es decir,
f0 > fm /2. Si no colocamos el filtro anti-alisaing, la señal muestreada en frecuencia será Xd (f ) =
1 P+∞ m
T m=−∞ X f − T , que gráficamente corresponde a:
Xd (f )
1
X(f ) réplicas
T
H(f )
f
−fm − f2m fm
2
fm
101
Si ahora pretendemos recuperar la señal original con el filtro interpolador ideal (sombreado en la fi-
gura), vemos que en realidad estamos recuperando un coseno a frecuencia menor que la original (la
simétrica de f0 respecto a fm /2).
Esto es precisamente lo que está sucediendo cuando en televisión vemos las ruedas de un fórmula
1 girando al revés, también llamado efecto estroboscópico. Supongamos que tenemos un cı́rculo como
el de la figura girando a velocidad constante con periodo T0 . También tenemos una lámpara estro-
boscópica que ilumina el cı́rculo durante un breve instante de tiempo (se ve el cı́rculo quieto) cada Tm
segundos. Según Nyquist, la frecuencia de muestreo de este sistema, que es 1/Tm , debe ser mayor que
dos veces la frecuencia de rotación 1/T0 para capturar el movimiento correctamente, o sea, Tm < T0 /2.
¿Qué sucede si fijamos Tm = 3T4 0 ? Veámoslo en la figura:
t=0 t = Tm
}
T0
t = 2Tm t = 3Tm
Tm
2.2. Cuantificación
A partir de este momento nos referiremos a cada una de las muestras de la señal discretizada de la
siguiente forrma
xd (nT ) −→ x(n) (8)
y a su versión cuantificada como x̂(n). Recordemos que el proceso de cuantificación consiste en asignar
a x(n) un nivel dentro de un subconjunto de valores posibles, acción necesaria para obtener una señal
digital. A continuación describiremos y analizaremos el cuantificador uniforme y luego pasaremos al
estudio del cuantificador óptimo.
Existen básicamente dos tipos de cuantificadores uniformes, que son el ‘midriser’ y el ‘midthread’. En
la figura siguiente vemos sus funciones de cuantificación, que nos dicen cuál es el valor de una muestra
cuantificada x̂ a partir de su valor original x. Como vemos, en ambos casos se supone que el valor de la
muestra x va de un valor mı́nimo −xmax a un valor máximo xmax . También apreciamos los niveles de
decisión xk , puntos del eje de abcisas en los que el valor cuantificado cambia, ası́ como los niveles de
102
cuantificación x̂k , que son las imágenes de los niveles de decisión y forman el subconjunto de valores
posibles que tomará la señal digital. Observe también que la distancia entre dos niveles de decisión
consecutivos es ∆, el paso de cuantificación.
x̂ x̂
x̂k+1
x̂k+1
x̂k
3∆/2
x̂k
∆/2 ∆
∆
−xmax −xmax
xk xk+1 xmax x xk xk+1 xmax x
midraiser midthread
Nosotros nos centraremos en el análisis del cuantificador ‘midraiser’ pero cabe decir que el ‘midthread’
tiene mejor comportamiento ante el ruido ya que si se cuantifica una muestra de valor 0 con algo de
ruido, esta versión de cuantificador uniforme nos dará x̂ = 0 en la mayorı́a de los casos mientras que el
‘midraiser’ irá saltando entre los dos niveles de cuantificación que se encuentran alrededor del origen.
Definiremos en primer lugar los parámetros del cuantificador, que son:
Margen dinámico M D: especifica el rango máximo de valores que podremos cuantificar adecua-
damente y vale M D = 2xmax .
x +x
Está claro que el error q(x) será nulo para valores de x = k 2 k−1 con 0 = 1, . . . , L, puesto que
hemos decidido poner los niveles de cuantificación justo en medio de los intervalos [xk−1 , xk ]. Además,
103
el máximo error se dará en los extremos de dichos intervalos y tendrá un valor absoluto de ∆/2.
Juntando estas ideas, vemos en la siguiente figura cómo se comporta q(x).
x̂
x̂L
−xmax x̂L
x0 x1 xL x
x̂1
zona de error
de sobrecarga
q(x)
∆/2
−∆/2
zona de error granular
Dado que consideramos x(n) como un proceso aleatorio, una función de éste como es q(x(n)) también
lo será. A continuación nos preocupamos por la potencia de dicho proceso en el instante n teniendo
en cuenta que, a fin de simplificar la notación, escribiremos q en vez de q(x(n)). Ası́ pues, la potencia
del error de cuantificación viene dada por
Z +∞ Z +∆/2 Z −∆/2 Z +∞
σq2 = E{q } = 2 2
q fq (q) dq = 2
q fq (q) dq + 2
q fq (q) dq + q 2 fq (q) dq (9)
−∞ −∆/2 −∞ ∆/2
= σq2g + σq2sc
y la hemos dividido en potencia debida a errores en la zona granular o σq2g (primer sumando) y potencia
debida a errores en la zona de error de sobrecarga o σq2sc (dos últimos sumando). Véanse ambas zonas
en la figura anterior. En general nos interesa que el error de sobrecarga tenga la menor potencia posible
(de lo contrario el cuantificador ha sido mal diseñado pues no opera en la zona de trabajo, que es
la de error granular). Por lo tanto, a la hora de diseñar el cuantificador habrá que tener en cuenta
la estadı́stica de x(n) con dos finalidades: i) asegurar que sea un proceso de media nula y ii) escoger
un valor adecuado del M D tal que p(x(n) > xmax ) sea lo suficientemente pequeña. En el primer
punto, si x(n) no es de media nula, tenemos la opción de quitarle la media y añadı́rsela luego. En el
segundo punto, téngase en cuenta que tampoco es bueno escoger xmax demasiado grande pues se corre
104
el riesgo de no capturar la dinámica de la señal. En el caso de que el funcionamiento del cuantificador
sea adecuado (buena elección del margen dinámico, error básicamente granular y ∆ suficientemente
pequeño), podremos considerar lo siguiente (no demostrado2 ):
E{qg (n)} = 0 (10)
E{qg (n + m)x(n)} = 0 (11)
Sqg (f ) = σq2g − fm /2 < f ≤ fm /2 (12)
Es decir, el error tiene media nula, está incorrelado con la señal original y su densidad espectral es
plana (fm es la frecuencia a la que ha sido muestreada la señal original para obtener la secuencia x(n)).
Lo importante entonces es que, en esta situación, el error de cuantificación se puede tratar como si
fuera ruido térmico.
donde apreciamos el cambio de orden en los lı́mites de integración debido a que dq = −dx (ya que x̂k
es una constante).
donde aproximamos fx (x) en el intervalo x ∈ [xk−1 , xk ] por su valor en el punto medio, esto es f (x̂k ),
y tenemos en cuenta que x̂k − xk−1 = ∆/2 ası́ como x̂k − xk = −∆/2. A partir de aquı́ vemos que
XL Z ∆/2
2 1 2 ∆2
σq ≈ fx (x̂k )∆ q dq = (16)
k=1 −∆/2 ∆ 12
2
Una demostración se puede encontrar en A. B. Sripad y D. L. Snyder, “A Necessary and Sufficient Condition for
Quantization Errors to be Uniform and White”, IEEE Trans. on Acoustics, Speech and Signal Processing, No. 5, Oct.
1977.
105
fx (x)
fx (x̂k )
∆/2
∆
x
xk−1 xk xk+1
x̂k
P R +∞
ya que el término L k=1 fx (x̂k )∆ es una aproximación de −∞ fx (x) dx = 1 usando escalones de an-
chura ∆ (ver figura). Por lo tanto, bajo el supuesto de un valor de ∆ suficientemente pequeño, la
integral se puede aproximar por el sumatorio. Nótese que el resultado obtenido se corresponde con el
error de cuantificación que hubiéramos obtenido suponiendo una densidad de probabilidad de dicho
1 q
error uniforme, es decir, fq (q) = ∆ Π ∆ , lo cual parece bastante razonable (siempre suponiendo que
∆ es lo suficientemente pequeño).
donde explotamos la relación dada por q(x) para expresar Fq en función de Fx . En particular, para el
caso que estamos estudiando, q = x̂L − x y por lo tanto x = x̂L − q. Ası́ pues, derivando respecto q
obtenemos
∂x(q)
fq (q) = −fx (x(q)) · = −fx (x(q)) · (−1) = fx (x(q)) = fx (x̂L − q) (18)
∂q
106
q(x)
∆/2
′
x
x
−∆/2
′
q
q(x)
x′L−1 x′L
x′1
x1 xL−1 xL
∆/2
q′ x
−∆/2
donde los valores xk son constantes y los valores x0k variables que dependen de q 0 como en el caso
anterior, esto es x0k = x̂k − q, en ambos casos para k = 1, . . . , L. Únicamente nos queda derivar Fq (q)
para obtener fq (q), es decir,
L
∂x01 (q) ∂x0 (q) X
fq (q) = −fx (x01 (q)) · − . . . − fx (x0L (q)) · L = fx (x̂k − q) (20)
∂q ∂q
k=1
Por último, nos quedarı́a ver cuál es la pdf del error cuando q 0 ≥ ∆/2, pero se puede anticipar que
se trata de un caso muy parecido al primero que hemos estudiado. Ası́ pues, juntando resultados, nos
107
queda que la pdf del error vale
fx (x̂L − q), −∞ ≤ q < −∆/2
PL
fq (q) = k=1 fx (x̂k − q) −∆/2 ≤ q ≤ ∆/2 (21)
f (x̂ − q), q > ∆/2
x 1
108
pocos niveles en los valores
de x con más probabilidad !
fx (x)
−xmax xmax x
mejora en SN RQ deja de ser cierta pues Pq = σq2 = σq2g + σq2sc y el segundo término ya no es
despreciable. En definitiva pues cabe recordar que existe un compromiso para escoger un
valor de M D adecuado.
Consideremos en primer lugar el valor óptimo de los niveles de cuantificación x̂k y recordemos la
expresión de la varianza del error de cuantificación, esto es
Z x0 L Z
X xk Z +∞
σq2 = 2
(x̂1 − x) fx (x) dx + 2
(x̂k − x) fx (x) dx + (x̂L − x)2 fx (x) dx (25)
−∞ k=1 xk−1 xL
La condición para encontrar el valor de x̂k óptimo será, como siempre, ∂σq2 /∂ x̂k = 0 y por lo tanto
Z
∂σq2 xk
= 2(x̂k − x)fx (x) dx = 0, k = 2, . . . , L − 1 (26)
∂ x̂k xk−1
Nótese que el sumatorio desaparece puesto que x̂k aparece únicamente en uno de los términos (excepto
para los casos extremos k = 1, L que trataremos a continuación). Operando un poco vemos que debe
R xk R xk
cumplirse xk−1 x̂k fx (x) dx − xk−1 xfx (x) dx = 0. Como x̂k no es la variable de integración, puede salir
fuera de la integral y llegamos a
R xk R xk Z xk
xk−1 x fx (x) dx xk−1 x fx (x) dx fx (x)
x̂k = xk R = = x dx (27)
x fx (x) dx P (xk−1 ≤ x ≤ xk ) xk−1 P (xk−1 ≤ x ≤ xk )
k−1
109
Esto mismo lo podemos escribir como
Z xk
x̂k = x fx (x|xk−1 ≤ x ≤ xk ) dx = E{x|xk−1 ≤ x ≤ xk } (28)
xk−1
ya que la función densidad condicionada fx (x|xk−1 ≤ x ≤ xk ) debe tener la misma forma que fx (x)
en el intervalo [xk−1 , xk ] pero debe ser escalada por el término P (xk−1 ≤ x ≤ xk ) para asegurar que
su integral valga la unidad. Resumiendo,
(
fx (x)
P (xk−1 ≤x≤xk ) xk−1 ≤ x ≤ xk
fx (x|xk−1 ≤ x ≤ xk ) = (29)
0 resto
y x̂k se calcula como el centroide del intervalo de cuantificación. Por último, nótese que los casos
extremos x̂1 y x̂L son algo particulares ya que hay que considerar dos términos en la derivada. Hagamos
el primer caso, esto es
Z Z Z
∂σq2 x0 x1 x1
= 2(x̂1 − x)fx (x) dx + 2(x̂1 − x)fx (x) dx = 2(x̂1 − x)fx (x) dx (30)
∂ x̂1 −∞ x0 −∞
Nos damos cuenta de que las integrales se pueden juntar y por lo tanto el desarrollo sigue siendo el
mismo salvo que el intervalo a considerar ahora es (−∞, x1 ]. Algo parecido sucede con el otro caso,
ası́ que juntándolo todo llegamos a
E{x|x ≤ x1 } k=1
x̂k = E{x|xk−1 ≤ x ≤ xk } k = 2, . . . , L − 1 (31)
E{x|x ≥ x
L−1 } k = L
En segundo lugar y último debemos considerar los umbrales de decisión xk óptimos. Procederemos de
la misma forma que en el caso anterior, esto es, derivando la varianza del error de cuantificación (que
coincide con la potencia suponiendo media nula) e igualando a cero. Fijémonos que, a diferencia del
caso anterior, los umbrales se encuentran en lı́mites de integrales. Para poder hacer dicha derivada
nos apoyaremos en el teorema fundamental del cálculo y en particular en el siguiente resultado
Z b(x)
d
f (t)dt = f (b(x)) · b0 (x) − f (a(x)) · a0 (x) (32)
dx a(x)
y tendremos en cuenta que un mismo valor xk aparece siempre en dos integrales (como lı́mite superior
en una e inferior en otra). Consideremos los casos en que k = 2, . . . , L − 1 donde obtenemos
Z Z
∂σq2 ∂ xk
2 ∂ xk+1
= (x̂k − x) fx (x) dx + (x̂k+1 − x)2 fx (x) dx (33)
∂xk ∂xk xk−1 ∂xk xk
110
si consideramos que la raı́z cuadrada de un número real positivo ofrece dos resultados posibles o, equi-
valentemente, que (x̂k+1 − xk )2 = (x̂k − xk+1 )2 . Por lo tanto, el valor óptimo del umbral de decisión
se encuentra en el punto medio de los niveles de cuantificación.
A la luz de estos resultados, podemos comprobar que el cuantificador uniforme ’midraiser’ es ópti-
mo cuando x está uniformemente distribuida en un cierto intervalo. Fijémonos que los umbrales de
cuantificación caen justo en medio de los niveles de cuantificación por construcción del cuantificador
como requiere la condición (35) y que, a su vez, los niveles de cuantificación se correponden con los
centroides de los intervalos de cuantificación según hemos visto en (28) una vez tenemos en cuenta
fx (x). También resulta evidente que cuando fx (x) deje de ser uniforme la condición (28) dejará de
cumplirse y el cuantificador dejará de ser óptimo. A fin de obtener un sistema óptimo deberı́amos
considerar fx (x) y recurrir a métodos iterativos más o menos complejos capaces de ir ajustando los
umbrales y los niveles hasta conseguir una solución óptima.
y ŷ ỹ
COMPRESOR CUANTIFICADOR CONVERSOR EXPANSOR
x x̃
C(x) UNIFORME DIGITAL-ANALÓGICO E(ỹ)
TRANSMISOR
RECEPTOR
Cuantificador no-uniforme
La pieza clave en este esquema es el compresor y la modificación que éste provoca en la señal original a
través de la función C(x) en el lado del transmisor. Nótese que una vez enviada la señal ŷ al receptor en
forma de bits (luego abordaremos este punto) y recuperada como ỹ = ŷ + q(y) en el conversor digital-
analógico, el bloque expansor simplemente debe volver a la señal original x̃, que contendrá también
cierto error con respecto x. Es evidente que idealmente la función implementada en el bloque expansor
debe ser la recı́proca de la usada en el bloque compresor, esto es
pues, de no haber conversión a bits (es decir, ni el bloque cuantificador que juega el papel de conver-
sor analógico-digital ni el bloque conversor digital-analógico), tendrı́amos en el esquema anterior la
siguiente sucesión de señales
x −→ C(x) −→ y −→ E(y) −→ x (37)
Una vez aclarado este punto, la siguiente pregunta es obvia: ¿cuál es el papel del bloque compresor?
La intuición nos dice que si el cuantificador uniforme es óptimo cuando fy (y) es uniforme, el papel de
111
C(x) deberı́a ser transformar la señal original x en otra señal y cuya distribución sea lo más parecida
a la uniforme posible. Normalmente las señales de interés presentan valores que se concentran en
probabilidad alrededor del origen y la función C(x) fuerza intervalos no uniformes en x que son más
estrechos como más cercanos al origen estemos y por eso decimos que comprime, lo cual se puede
apreciar en la siguiente figura. A nivel de probabilidad, nótese que si cogemos un valor cualquiera
dentro del margen dinámico de x, la probabilidad de que éste se encuentre dentro de uno de los
intervalos de anchura variable ∆k se iguala entre los distintos intervalos en comparación con el caso
uniforme (intervalos de amplitud fija ∆) pues los intervalos donde los valores son más probables (cerca
del origen) son también más estrechos. Finalmente, como las probabilidades de los intervalos de anchura
variable en x son las mismas que los intervalos de anchura ∆ en y, se confirma que fy (y) será más
parecida a una distribución uniforme que fx (x). Por último, señalar que normalmente forzaremos
ymax = xmax .
C(x)
C ′ (x̂k )
ymax
∆
∆k
−xmax
xk x̂k xk+1 xmax x
Analicemos de nuevo el error de cuantificación, pero esta vez usando la función de compresión C(x).
Supondremos que el error es básicamente granular y que el número de niveles es suficientemente grande
o, lo que es lo mismo, que los intervalos de cuantificación son lo suficientemente pequeños como para
considerar (aproximar) fx (x) constante en ellos. Ası́ pues, podemos expresar el error de cuantificación
como
XL Z xk L
X Z ∆k /2 L
X
2 2 2 ∆3
σq ≈ fx (x̂k ) (x̂k − x) dx = fx (x̂k ) q dq = fx (x̂k ) k (38)
xk−1 −∆k /2 12
k=1 k=1 k=1
donde hemos hecho el cambio de variable q = x̂k − x. Nótese que aunque x̂k no se encuentra en general
en el centro del intervalo, esto sı́ serı́a cierto si suponemos los intervalos ∆k suficientemente pequeños
112
como para que C(x) se pueda considerar lineal en ellos. En ese caso además podremos aproximar la
derivada de C en x̂k como
∆ 2 ymax
C 0 (x̂k ) = = (39)
∆k L ∆k
con lo que
2 ymax
∆k = (40)
L C 0 (x̂k )
y volviendo a la expresión de la potencia del error llegamos a
L
X 2
∆k 4 ymax
σq2 ≈ fx (x̂k ) (41)
12 L2 (C 0 (x̂k ))2
k=1
Finalmente, si aproximamos el sumatorio por su versión integral (donde ∆k juega el papel de dx) y
tenemos en cuenta que ymax = xmax nos queda
Z xmax Z
x2 x2max xmax fx (x)
σq2 ≈ fx (x) 2 max dx = dx (42)
−xmax 3 L (C 0 (x))2 3 L2 −xmax (C 0 (x))2
donde el término integral es lo que se conoce como factor de compresión o F C.
1. Minimizar σq2 con el objetivo de encontrar la función de compresión C(x) óptima o, lo que es
equivalente, la función C(x) que nos da los pasos de cuantificación ∆k óptimos.
La primera opción, aunque interesante, no deja de presentar el mismo problema que habı́amos visto
con anterioridad, es decir, tendremos que calcular una C(x) para cada señal de entrada en función de
su estadı́stica y, además, ésta será desconocida muchas veces. Por lo tanto, descartamos esta vı́a y nos
centramos en la segunda. Recordemos la expresión de la potencia del error de cuantificación, esto es
x2max
σq2 ≈ FC (43)
3 L2
y por lo tanto la relación señal a ruido de cuantificación será
R xmax 2
σx2 σx2 3 L2 3 L2 −xmax x fx (x)dx
SN RQ ≈ 2 = = 2 R (44)
σq F C x2max xmax xmax fx0 (x) 2 dx
−xmax (C (x))
113
donde K es una constante que determinaremos aplicando la restricción C(xmax ) = xmax . Ası́ obtene-
mos finalmente
|x|
C(x) = k log( ) + xmax sign(x) (47)
xmax
y por lo tanto la función de expansión correspondiente será
1
E(ỹ) = xmax e k (ỹ−xmax ) sign(ỹ) (48)
Sin embargo, existe aún un problema en lo que hemos desarrollado hasta el momento y es que C(0) = ∞
y por lo tanto no implementable. A continuación veremos cómo resuelven este problema los esquemas
más habituales empleados en la práctica.
Las leyes A y µ son funciones de compresión estándar que se utilizan en muchos sistemas. La ley µ
responde a la expresión
|x|
log (1 + xmax )
C(x) = xmax sign(x) (49)
log (1 + µ)
y en la siguiente figura podemos ver su representación gráfica para los valores µ = 10 y µ = 255.
Apreciamos que a mayor valor de µ mayor es la compresión (no habrı́a compresión con µ → 0) y
que ahora C(0) = 0. En particular, esta ley con µ = 255 se emplea en la telefonı́a básica de Estados
Unidos.
Ley µ
1
µ=255
0.8 µ=10
0.6
0.4
0.2
C(x)
−0.2
−0.4
−0.6
−0.8
−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
|x|/xmax
114
Por otro lado, la ley A responde a la siguiente expresión
A
1+log xmax
A |x| sign(x) 0 ≤ |x| ≤ A
C(x) = (50)
A|x|
1+log xmax x
sign(x) xmax
≤ |x| ≤ xmax
1+log A max A
y a diferencia de la ley µ impone una zona alrededor del origen donde no existe compresión. Más
allá de esta particularidad el comportamiento es parecido al de la ley µ y cabe decir, como curiosidad,
que es el sistema empleado para la compresión de la telefonı́a básica en Europa con un valor A = 87,6.
Juntemos ahora las piezas para ver cómo pasar de una señal analógica x(t) a su versión digital, esto
es, la secuencia de bits b(n). Concretamente, veremos dos opciones: i) PCM (Pulse Code Modulation)
y ii) Differential Pulse Code Modulation (DPCM).
Responde al siguiente esquema, donde vemos que una señal analógica x(t) debe ser primero muestreada
x(n) x̂(n)
FILTRO
MUESTREO
x(t) ANTI-ALIASING
fm = 1/Tm
CUANTIFICADOR CODIFICADOR b(n)
B = fm /2
con el correspondiente filtro paso bajo para evitar el aliasing, cuantificada y finalmente codificada, es
decir, se debe asignar una cadena de bits distinta a cada uno de los niveles de cuantificación. Recuérdese
que harán falta b bits para los L = 2b niveles y que la SN RQ es la vista en (23), es decir,
12σx2 2b σx
2
SN RQ = = 3 2 (51)
4x2max /22b x2max
115
menor a mayor nivel, éstos serán {−3∆/2, −∆/2, ∆/2, 3∆/2} y los codificaremos con dos bits, esto
es, {00, 01, 10, 11} respectivamente. Veamos en la siguiente figura la codificación de una señal x(t)
cualquiera, cuya codificación en bits es . . . 10111111100001 . . ..
muestras
x(t) muestras bits
cuantificadas
xmax 3∆/2 11
∆/2 10
t
−∆/2 01
−xmax −3∆/2 00
. . . 10111111100001 . . .
La codificación PCM diferencial explota el hecho de que la mayorı́a de las señales muestreadas a la
frecuencia de Nyquist o superior presentan una fuerte correlación temporal entre muestras consecu-
tivas. Bajo esta hipótesis tiene sentido tratar una muestra en particular de forma no independiente
como sı́ es el caso de PCM sino en relación con sus predecesoras para poder predecir la muestra x(n) a
partir de N muestras anteriores, esto es, x(n − 1), . . . , x(n − N ). La gracia de todo esto es que entonces
se puede cuantificar el error de predicción y no la muestra en sı́.
Nótese que la forma más simple de hacer la predicción de x(n) es igualar esta a la muestra anterior,
es decir, x̃(n) = x(n − 1), de forma que el error de predicción en este caso es ep (n) = x(n) − x̃(n) =
x(n) − x(n − 1). Una solución más elaborada serı́a hacer una predicción lineal de x(n) como
P
X
x̃(n) = ai x(n − i) (53)
i=1
donde habrı́a que determinar los coeficientes ai según algún objetivo concreto. Una opción muy habi-
tual es escoger los coeficientes que minimizan el error cuadrático medio o MSE, que vale
!2
P
X
M SE(a1 , . . . , aP ) = E x(n) − ai x(n − i) (54)
i=1
donde la esperanza nos sirve para promediar todas las posibles realizaciones de la secuencia x(n).
Nótese que de no tenerla en cuenta conseguirı́amos un error nulo en la realización estudiada pero no
tendrı́amos ningún control sobre el resto, lo cual no tiene ninguna utilidad. No obstante, este análisis
116
no es objeto de este curso.
Veamos a continuación los esquemas de transmisión y recepción en DPCM, que se pueden apreciar
en la siguiente figura. El transmisor realiza la cuantificación del error de predicción como ya hemos
dicho y la transforma en bits mientras que el receptor se encarga de recuperar este error y sumarlo a
la predicción realizada por el receptor.
-
ˆ
x̃(n)
x̃(n)
PREDICTOR
(a) Transmisor
êp (n)
b(n) DECODIFICADOR ˆ
x̃(n) = x̃(n) + êp (n)
PREDICTOR
(b) Receptor
Aunque la idea es simple, hay un detalle a tener en cuenta para evitar la acumulación del error de
cuantificación. Fijémonos que el predictor tiene a su entrada x̃(n), que es la señal predecida más el
error de predicción cuantificado que se envı́a al receptor, lo que no es lo mismo que la señal original
x(n). Por lo tanto, la muestra actual se predice con las muestras anteriores pero todas ellas sujetas
ˆ
a cierto error de cuantificación. Ası́ a la salida del predictor tenemos x̃(n). Esta predicción ‘especial’
es la que se compara con x(n) para sacar ep (n) y cuantificarlo. La ventaja de esta realimentación del
predictor en el transmisor es que, en recepción, el predictor trabaja con las mismas señales sujetas a
ˆ
error de cuantificación que su homólogo en la parte del transmisor y por lo tanto puede generar x̃(n),
la cual se convierte en x̃(n) una vez se le añade el error de predicción cuantificado que hemos recibido.
Podemos comprobar, definiendo el error de cuantificación eq (n) como eq (n) = êp (n) − ep (n), que
ˆ
eq (n) = êp (n) − ep (n) = êp (n) − (x(n) − x̃(n)) = x̃(n) − x(n) (55)
ˆ
ya que x̃(n) = x̃(n) + êp (n) (ver figura). Por lo tanto, la señal a la salida del receptor se puede escribir
como x̃(n) = x(n) + eq (n) y vemos que únicamente contiene el error de cuantificación correspondiente
117
al instante n. En otras palabras, no acumula errores de cuantificación de instantes pasados.
Por último, analicemos la SN RQ que obtenemos con este esquema de codificación diferencial. Teniendo
en cuenta que la señal reconstruida en DPCM es x̃(n) = x(n) + eq (n) donde eq (n) es el error de
cuantificación cometido en el momento de cuantificar la predicción, si aplicamos la definición de SN RQ
obtenemos
Ejemplo 2: señal de voz PCM. Una señal de voz puede considerarse también una fuente de información
discreta una vez ha sido codificada, por ejemplo en PCM. Nótese que en este caso se emite un sı́mbolo
de entre L sı́mbolos posibles (los niveles de cuantificación) cada Tm segundos.
En general, diferenciaremos entre fuentes discretas sin memoria y fuentes estacionarias. En las prime-
ras los sı́mbolos serán independientes e idénticamente distribuidos (i.i.d.) mientras que en las segundas
existirá cierta dependencia estadı́stica entre la secuencia de sı́mbolos emitidos. De todas formas, tra-
taremos sólo fuentes que sean estadı́sticamente estacionarias (proceso estacionario). El primer ejemplo
que hemos puesto podrı́a ser una fuente sin memoria si suponemos que el hecho de haber transmitido
un determinado sı́mbolo en el instante n (por ejemplo sol) no nos dice absolutamente nada del siguien-
te sı́mbolo emitido al cabo de 15m (sı́mbolos independientes). Además, todos los sı́mbolos emitidos
tendrán la misma estadı́stica, esto es, la probabilidad de que ocurra cada uno de ellos será siempre la
118
misma a lo largo del tiempo. Esto no quiere decir que los sı́mbolos sean equiprobables. Por ejemplo,
se puede dar el caso p(A)=0.7, p(B)=0.15, p(C) = 0.14 y p(D)=0.01. El segundo ejemplo serı́a un
caso de fuente estacionaria ya que sabemos que las señales de voz presentan cierta correlación entre
sus muestras.
Los resultados que presentaremos a continuación son fruto de la conocida Teorı́a de la Informa-
ción3 . Estudiarla al detalle nos llevarı́a un curso entero, ası́ que aquı́ sólo presentaremos alguno de los
resultados fundamentales y los algoritmos de codificación más destacados.
p(xi |yj )
I(xi ; yj ) = log (57)
p(xi )
donde p(xi |yj ) es la probabilidad de que X = xi condicionada a que sabemos de antemano que Y = yj
p(x ,y )
y vale p(xi |yj ) = p(yi j )j . Las unidades de I(xi ; yj ) son bits si el logaritmo se calcula en base 2 o bien
nats (unidades naturales) si se calcula en base e (logaritmo natural).
Antes de continuar, pongamos un pequeño ejemplo de repaso para relacionar probabilidades conjuntas
con probabilidades condicionadas. Supongamos que tenemos dos monedas A y B con la siguiente tabla
de probabilidades conjuntas.
Moneda X
Cara = 1 0, 45 0, 05
Cruz = 2 0, 45 0, 05
P
En primer lugar vemos que p(X = 1) = j p(X = 1, Y = yj ) = 0,45 + 0,45 = 0,9 y que p(X = 2) =
P P
j p(X = 2, Y = yj ) = 0,05+0,05 = 0,1. DeP
la misma forma, podemos calcular p(Y = 1) = i p(X =
xi , Y = 1) = 0,45+0,05 = 0,5 y p(Y = 2) = i p(X = xi , Y = 1) = 0,45+0,05 = 0,5. Luego, la proba-
bilidad condicionada de X a que Y = 2, por ejemplo, se calcuları́a como p(X = 1|Y = 2) = 0,45/0,5 =
0,9 y p(X = 2|Y = 2) = 0,05/0,5 = 0,1. Podemos ver que p(X = 1|Y = 2) + p(X = 2|Y = 2) = 1, lo
cual se debe cumplir siempre que sumamos todas las probabilidades sujetas a una misma condición.
3
Uno de los libros de referencia en Teorı́a de la Información es: T.M. Cover, ‘Elements of Information Theory’, John
Wiley & Sons.
119
Es por este motivo que hemos dividido por p(Y = 2) en este caso, consiguiendo escalar adecuadamente
las probabilidades conjuntas para conseguir que la suma de probabilidades sea 1. También vemos que
p(xi |Y = 2) coincide con p(xi ) en este caso, pero ésta es una situación particular debida a que X
e Y son independientes, lo que se puede comprobar viendo que p(xi , yj ) = p(xi )p(yj ). Por lo tanto,
otra forma de decir que dos variables son independientes es p(xi |yj ) = p(xi ), o sea, que el hecho de
condicionar o tener información sobre el valor que toma la v.a. Y no nos aporta ninguna información
adicional sobre la v.a. X.
Siguiendo con el tema que nos ocupa, podemos interpretar I(xi ; yj ) como una medida de cuánta
información sobre el evento xi se puede extraer cuando el evento yj ha tenido lugar. Veamos los casos
extremos para entender mejor el concepto. Supongamos primero que X e Y son independientes con lo
que p(xi |yj ) = p(xi ) tal y como hemos visto en el ejemplo anterior. Aplicado a (57) el resultado que
nos de es I(xi , yj ) = 0 y por lo tanto saber que ha sucedido yj no me aporta información sobre xi .
El otro caso es que siempre que sucede xi entonces también se da yj . Entonces p(xi |yj ) = 1 ya que
sabiendo que yj ha pasado podemos estar 100 % seguros de que xi también. Si nos queremos acabar
de convencer, podemos volver al ejemplo de las monedas con las siguientes probabilidades conjuntas.
Moneda X
Cara = 1 0 0.5
Cruz = 2 0.5 0
A la vista de la tabla, está claro que si sale cara en la moneda Y saldrá cruz en la moneda X y
viceversa. Si calculamos por ejemplo p(X = 1|Y = 2) = p(X = 1, Y = 2)/p(Y = 2) = 0,5/0,5 nos sale
1 como habı́amos dicho. En términos de información mutua, ésta valdrá
p(xi |yj ) 1
I(xi ; yj ) = log = log = − log p(xi ) (58)
p(xi ) p(xi )
Este resultado nos dice que la información que obtendremos es la propia del suceso xi y por este
motivo la designaremos auto-información.
Sin embargo, hasta ahora hemos trabajado siempre con 2 sucesos particulares de 2 variables aleatorias
distintas y es obvio que esto no mide la relación entre todos los sucesos posibles de las 2 v.a. Es
por esto que en realidad se trabaja con los valores medios tanto de la información mutua como de la
auto-información. Ası́, cuando hablamos de información mutua normalmente nos referimos en realidad
a su promedio, esto es
n X
X m n X
X m
p(xi |yj )
I(X; Y ) = p(xi , yj )I(xi ; yj ) = p(xi , yj ) log (59)
p(xi )
i=1 j=1 i=1 j=1
Xn X m
p(xi , yj )
= p(xi , yj ) log
p(xi )p(yj )
i=1 j=1
120
Del mismo modo, cuando hablamos de auto-información, más conocida como entropı́a y escrita como
H(X), nos referimos a
Xn n
X 1
H(X) = p(xi )I(xi ) = p(xi ) log (60)
p(xi )
i=1 i=1
Hasta el momento hemos estado hablando del concepto de información sin analizarlo en detalle. En
el ámbito de la teorı́a de la información, debemos asociar información con incertidumbre. Ası́, a
mayor incertidumbre de un suceso, mayor información éste nos aporta. Volvamos al caso de las mo-
nedas (primer ejemplo) y calculemos H(x) = −0,1 · log2 0,1 − 0,9 · log2 0,9 = 0,460 bits y H(y) =
−0,5 · log2 0,5 − 0,5 · log2 0,5 = 1 bits. Supongamos ahora que se lanzan las monedas una vez por
segundo y que queremos comunicar el resultado del lanzamiento a otra persona. Además, nos pre-
guntamos cuántos bits serán necesarios en media para transmitir dicha información. En el caso de la
moneda Y habrá que transmitir siempre 1 bit diciendo si ha salido cara o cruz pues ambos sucesos
son equiprobables. En cambio la moneda X no presenta tanta incertidumbre ya que en el 90 % de
los lanzamientos nos saldrá cara. Idealmente podrı́amos transmitir esa información usando sólo 0.460
bits, aunque en la práctica transmitirı́amos 1 bit ya que es nuestra unidad mı́nima de información. En
términos de información mutua, cuando las variables son independientes como en el primer ejemplo de
las monedas, el hecho de conocer Y no nos sirve para extraer información de X y por eso I(X; Y ) = 0.
En el lado opuesto (segundo ejemplo de las monedas), la información que obtenemos de X a través
de Y es la máxima posible, esto es, H(X).
Una vez hecha esta pequeña introducción, veremos un resultado fundamental de la teorı́a de la infor-
mación alrededor de la codificación de fuentes discretas y un par de técnicas de codificación prácticas
e importantes por su relevancia. El objetivo que se persigue es siempre transmitir toda la información
con el menor número de bits posible para mejorar la eficiencia del sistema de comunicación y por
lo tanto, las técnicas que veremos tratarán sobre la compresión de datos. El resultado fundamental
del que hablábamos es el conocido teorema de la codificación de fuente de Shannon (ver Teorema
1 a continuación) y sirve para establecer un lı́mite teórico de la máxima compresión que se puede
conseguir.
Teorema 1 Sea X una v.a. que representa una fuente discreta y sin memoria con L sı́mbolos posibles
xi , i = 1, . . . , L cuyas probabilidades de aparición son p(xi ). Entonces es posible construir un código
instantáneo cuya longitud media R̄ sea
Básicamente el teorema nos dice que lo máximo que podemos ‘comprimir’ una fuente viene dictado
por su entropı́a H(X). No obstante, hay algunos detalles que conviene comentar. En primer lugar,
debemos aclarar qué es un código instantáneo. Para ello es necesario que dada una palabra código
(la traducción de un sı́mbolo a una cadena de bits) de k bits de longitud a la que llamaremos C k ,
no existe otra palabra código de menor longitud l < k que coincida exactamente con los l primeros
bits de C k . Nótese que de no cumplirse esta condición, no habrı́a manera de distinguir en el receptor
ambas palabras código una vez leı́dos sus primeros l bits y deberı́amos esperar a leer la palabra entera
para poder decodificar (pasar de palabra código a sı́mbolo). No obstante, en un código instantáneo
121
podremos decodificar siempre que encontremos una palabra código pues se garantiza que esos bits
nunca serán el principio de otra palabra.
El teorema habla también de longitud media del código, la cual se define como
L
X
R̄ = p(xi )l(xi ) (62)
i=1
donde l(xi ) es, en bits, la longitud de la palabra código con la que se codifica el sı́mbolo i-ésimo.
Cabe destacar que en todo se está suponiendo que la fuente de información emite un número de
sı́mbolos arbitrariamente grande para que el resultado del teorema sea válido. A continuación vemos
un ejemplo de código instantáneo óptimo, es decir, que cumple con (61) y que se conoce como el código
de Huffman.
Finalmente, para obtener las palabras código nos movemos de derecha a izquierda por el camino que
lleva al sı́mbolo deseado y juntamos todos los bits señalados. Ası́, la codificación resultante es la de la
siguiente tabla.
122
Sı́mbolo Probabilidad Palabra código
x1 0.35 00
x2 0.30 01
x3 0.20 10
x4 0.10 110
x5 0.04 1110
x6 0.005 11110
x7 0.005 11111
A la vista de los resultados, enseguida nos damos cuenta de que los sı́mbolos más probables reciben
menos bits. Esto tiene mucho sentido de cara a minimizar la longitud media del código ya que nos
interesa que las palabras código que aparecen más a menudo sean cortas y no nos importa tanto que
palabras cuya frecuencia de aparición es baja tengan mayor longitud. También podemos comprobar
que se trata de un código instantáneo.
Por último, calculamos la longitud media del código, que vale R̄ = 2·0,85+3·0,10+4·0,04+5·0,01 = 2,21
y la entropı́a de la fuente que vale H(X) = 2,11. Con estos números vemos que se cumple la condición
de optimalidad descrita en el teorema de Shannon.
Su funcionamiento es muy simple y brillante. La idea es construir un diccionario donde las pala-
bras se van aprendiendo de la fuente y las palabras codificadas son simplemente la codificación
en binario de su posición en el diccionario. Pongamos un ejemplo para que se vea claro. Supon-
gamos que una fuente X emite dos sı́mbolos x1 y x2 y que la cadena de sı́mbolos emitidos es
x1 x2 x2 x2 x1 x1 x2 x1 x2 x1 x2 x1 x1 . Inicialmente, el diccionario se llena con los sı́mbolos, en
este caso x1 y x2 tal y como muestra la figura (izquierda). Luego se codifica el primer sı́mbolo (salida
000) y se añade una nueva palabra en el diccionario, que siempre está formada por la palabra anterior
(x1 en este caso) más el siguiente sı́mbolo a codificar. En este caso se añadirı́a pues la palabra x1 x2
a la tercera entrada del diccionario y su correspondiente palabra código será 010. Todo esto se puede
apreciar en la figura (medio). En el siguiente paso buscaremos en la secuencia de entrada que nos quede
por codificar la palabra de mayor longitud que se encuentre en el diccionario. En este caso será x2
porque x2 x2 aún no se halla. La salida valdrá 000 001 y añadiremos la palabra x2 x2 a la cuarta
123
posición como se muestra en la figura (derecha). En la tercera iteración verı́amos que la palabra más
larga que se encuentra en el diccionario es x2 x2 , pues x2 x2 x1 aún no se encuentra. Por lo tanto la
salida valdrı́a 000 001 011 y añadirı́amos la palabra x2 x2 x1 al diccionario. Este proceso se repetirı́a
hasta acabar con los sı́mbolos de entrada.
Palabra código Palabra diccionario Palabra código Palabra diccionario Palabra código Palabra diccionario
Aunque en este ejemplo no se aprecie, a medida que va creciendo el diccionario somos capaces de
representar palabras largas que se repiten con relativamente pocos bits y de ahı́ la capacidad de
compresión del algoritmo y su popularidad aún hoy en dı́a. La gracia de esta técnica es que el proceso
de codificación se puede hacer a la inversa en el descodificador sin necesidad de intercambiar los
diccionarios, únicamente el diccionario inicial.
124
Tema 7: Transmisión Digital en Banda Base
Antoni Morell y José López Vicario
24 de mayo de 2013
1. Introducción
Dentro del esquema general de las comunicaciones digitales visto en la introducción del Tema 6, en este
capı́tulo y también en el siguiente nos centraremos en los bloques modulador y demodulador. Por lo
tanto, estudiaremos el proceso de transformar una secuencia de bits de entrada en una forma de onda
analógica que se pueda transmitir por un determinado medio de comunicación y luego ser recogida en el
extremo receptor para ser devuelta a una secuencia de bits en el correspondiente bloque demodulador.
Como lo medios de transmisión serán básicamente los mismos que se usan en las comunicaciones
analógicas, las problemáticas asociadas al canal serán también las mismas, esto es:
Ruido.
Distorsión.
donde T es el periodo de sı́mbolo. Gráficamente podemos apreciar este proceso en la siguiente figura.
Como veremos en el siguiente apartado, existen varias formas para pasar de bits a sı́mbolos. En algunas
ocasiones un sı́mbolo se corresponde con un solo bit, pero otras veces un sı́mbolo agrupa varios bits.
Nótese que dado el periodo de sı́mbolo T , la velocidad de transmisión en sı́mbolos por segundo es
r = 1/T . De forma semejante, si definimos Tb como el periodo entre dos bits consecutivos, la velocidad
de transmisión en bits por segundo será rb = 1/Tb y la relación entre ambas cantidades es
rb
r= (2)
b
donde b es el número de bits que forman un sı́mbolo.
125
b(k)
‘1’ 3∆/2
a(k)
∆/2
‘0’
bits sı́mbolos
−∆/2
−3∆/2
s(t)
3∆/2
∆/2
t
−∆/2
a(k)p(t − kT )
−3∆/2
2. Señalización
Entendemos por señalización o codificación de lı́nea el proceso de recoger los bits de entrada, conver-
tirlos en sı́mbolos y aplicarles un pulso adecuado a las propiedades del medio de transmisión generando
ası́ la señal PAM. Por lo tanto, un modulador en banda base se encarga esencialmente de llevar a cabo
la codificación de lı́nea.
Podemos clasificar los distintos tipos de señalización según la polaridad, los cruces por cero y el número
de bits por sı́mbolo. Ası́ tenemos:
Según la polaridad.
• Unipolar: únicamente usa una polaridad (generalmente positiva) además de los 0V para
señalizar.
• Polar: usa las dos polaridades.
• Bipolar: usa las dos polaridades y también los 0V.
• NRZ (Non Return to Zero): no se fuerza el retorno a 0V antes de pasar al siguiente sı́mbolo.
• RZ (Return to Zero): siempre existe un cruce por 0V antes de pasar al siguiente sı́mbolo.
126
• Binaria: se usa un bit en cada sı́mbolo.
• M-aria: cada sı́mbolo se forma con más de un bit.
Antes de centrarnos en los ejemplos más comunes de códigos de lı́nea, veamos los parámetros de calidad
con que podremos comparar las distintas soluciones. Estos son:
Eficiencia espectral: como menor sea el ancho de banda de la modulación resultante, es decir
BT , mejor.
Sincronismo: dado que es importante capturar los distintos sı́mbolos en un determinado instante
(instante de detección) para que la lectura sea lo más favorable posible, los códigos que nos
faciliten la determinación de dichos instantes serán más adecuados.
Contenido de continua: nos interesa que no sea muy elevado ya que se producirá distorsión de
la señal cuando atraviese sistemas como los de telefonı́a donde dicha componente es filtrada.
A continuación repasamos algunos de los códigos de lı́nea más utilizados. En todos los casos hemos
supuesto un pulso rectangular por simplicidad, pero éste debe ser reemplazado cuando corresponda.
La vemos en la siguiente figura. Como podemos apreciar, existe la opción NRZ y también la RZ, en
cuyo caso el valor significativo, es decir 0V o bien +∆V, permanece activo durante τ < T segundos.
Esto requiere pulsos más estrechos para crear la señal PAM respecto al caso NRZ y por lo tanto
mayor ancho de banda. Sin embargo, el periodo de reposo que se fuerza en cada sı́mbolo facilita la
sincronización y también da lugar a un nivel de continua menor pues la media de la señal es más
próxima a cero. Resulta evidente que en ambos casos r = rb .
RZ τ
b(k) a(k)
1 ∆
0 0
NRZ
127
Señalización binaria polar
La podemos ver en la siguiente figura (versión NRZ) y respecto a la versión unipolar, ésta mejora en
términos de continua, pues será nula si p1 = p0 donde p1 es la probabilidad de que el bit sea ‘1’ y p0
de que sea ‘0’. Sin embargo, requerirá más potencia para un mismo valor de ∆.
b(k) a(k)
NRZ
1 ∆
0 −∆
Señalización Manchester
La vemos en la siguiente figura y asegura media nula independientemente de las probabilidades de bit.
Se trata de una señalización como la unipolar y existe tanto en NRZ como en RZ pero a diferencia de
esta, el bit ‘1’ se representa por ∆ y −∆ de forma alternativa. Esto asegura siempre un nivel nulo de
continua pero dificulta el sincronismo en el caso de recibir una secuencia larga de ceros.
Señalización M-aria
Usa más de dos niveles ya que cada sı́mbolo es el resultado de agrupar dos o más bits. Nótese que
según cómo se haga el mapeado entre bits y sı́mbolos, confundir un sı́mbolo por el que se encuentra
a un solo nivel de separación puede suponer más de un bit de error. Por este motivo es habitual usar
codificación Gray. En la siguiente figura vemos un ejemplo con codificación Gray y 4 niveles (grupos
de 2 bits).
128
3∆/2
b(k) a(k)
10 −3∆/2 ∆/2
11 −∆/2
−∆/2
01 ∆/2
00 3∆/2
−3∆/2
Nos interesa ahora calcular su densidad espectral para poder saber sus caracterı́sticas frecuenciales,
entre otras el ancho de banda que ocupará. Como s(t) es un proceso estocástico, deberemos calcular
primero su función de autocorrelación, esto es
" +∞ ! +∞ !#
X X
∗
Rs (t + τ, t) = E[s(t + τ )s (t)] = E a(k)p(t + τ − kT ) a(l)p(t − lT ) (4)
k=−∞ l=−∞
donde hemos considerado que tanto el pulso p(t) como los sı́mbolos a(k) son reales. Teniendo en cuenta
que sólo éstos son aleatorios, podemos desarrollar el producto de sumatorios del siguiente modo,
+∞
X +∞
X
Rs (t + τ, t) = E[a(k)a(l)]p(t + τ − kT )p(t − lT ) (5)
k=−∞ l=−∞
+∞ X
X +∞
= Ra (k − l)p(t + τ − kT )p(t − lT )
k=−∞ l=−∞
129
luego poder transformar y obtener ası́ la densidad espectral de potencia.
y si nos fijamos en los lı́mites del segundo sumatorio, vemos que se barren todos los intervalos de
duración T desde l = −∞ hasta l = +∞. Por lo tanto, podemos obviar el sumatorio si integramos en
todo λ, esto es
+∞
X Z
1 +∞
hRs (t + τ, t)i = Ra (m) p(τ + λ − mT )p(λ) dλ (9)
m=−∞
T −∞
+∞
X
1
= Ra (m)Rp (τ − mT )
T m=−∞
R +∞
Téngase en cuenta que p(t) es un pulso de duración finita y por lo tanto Rp (τ ) = −∞ p(τ + t)p(t) dt.
Con este resultado ya podemos calcular la potencia de la señal PAM como
+∞
X
1
Ps = Rs (0) = Ra (m)Rp (mT ) (10)
T m=−∞
Por ejemplo, si p(t) = Π τt con τ ≤ T (ejemplo usado en el anterior apartado sobre señalización),
entonces Rp (mT ) = 0 excepto para m = 0 y por lo tanto
1 1
Ps = Ra (0)Rp (0) = Ra (0)Ep (11)
T T
donde Ep es la energı́a del pulso. El resultado obtenido se puede considerar en realidad genérico ya,
como veremos más adelante, normalmente emplearemos pulsos que cumplan Rp (mT ) = 0 para evitar
lo que se conoce como interferencia intersimbólica (ISI).
Pasemos ahora al cálculo de la densidad espectral de potencia. Para ello, recordemos el teorema de
Wiener-Khinchin visto en el Tema 1 que nos decı́a Ss (f ) = F{hRs (t + τ, t)i}. Ası́ pues, podemos
calcular la densidad espectral de s(t) como
Z +∞ Z +∞
1 +∞ X
Ss (f ) = Rs (τ )e−j2πf τ dτ = Ra (m)Rp (τ − mT )e−j2πf τ dτ (12)
−∞ T −∞ m=−∞
+∞ Z +∞
0 1 X 0
= τ = τ − mT = Ra (m) Rp (τ 0 )e−j2πf τ e−j2πf mT dτ 0
T m=−∞ −∞
+∞ Z +∞
1 X 0
= Ra (m)e−j2πf mT Rp (τ 0 )e−j2πf τ dτ 0
T m=−∞ −∞
130
Vemos que la última integral se corresponde con la transformada de Fourier de la autocorrelación
del pulso y es por lo tanto su densidad espectral de energı́a ya que se trata de un pulso de duración
finita. Sabemos que en este caso la densidad espectral vale |P (f )|2 donde P (f ) = F{p(t)}. Hecha esta
aclaración podemos continuar con nuestro cálculo,
+∞
X
1
Ss (f ) = |P (f )|2
Ra (m)e−j2πf mT (13)
T m=−∞
Si ahora nos fijamos en el sumatorio en m nos daremos cuenta de que se correponde con la transformada
de Fourier continua de la secuencia discreta Ra (m) evaluada en f T . En otras palabras, se trata de la
densidad espectral de potencia de a(k) evaluada en f T o bien Sa (f T ). Ası́ pues, llegamos al siguiente
resultado,
1
Ss (f ) = |P (f )|2 Sa (f T ) (14)
T
Podemos afinar aún más este resultado si quitamos a los sı́mbolos a(k) su media ā haciendo a(k) =
A(k) + ā. Con esto podemos descomponer Ra (m) como
Ra (m) = E[a(k + m)a(k)] = E[(A(k + m) + ā)(A(k) + ā)] = E[A(k + m)A(k)] + ā2 = RA (m) + ā2 (15)
donde Ca (m) , E[(a(k + m) − ā)(a(k) − ā)] es la covarianza de los sı́mbolos. Aplicando este resultado
a (9) obtenemos
+∞
X +∞
X
1 1
hRs (t + τ, t)i = Ca (m)Rp (τ − mT ) + ā2 Rp (τ − mT ) (17)
T m=−∞
T m=−∞
Si lo expresamos como
+∞
X +∞
X
1 1
hRs (t + τ, t)i = Rp (τ ) ∗ Ca (m)δ(τ − mT ) + ā2 Rp (τ ) ∗ δ(τ − mT ) (18)
T m=−∞
T m=−∞
nos resultará fácil calcular de nuevo la densidad espectral de potencia como transformada de la au-
P
tocorrelación si tenemos en cuenta el desarrollo anterior y la igualdad F{ +∞ m=−∞ δ(τ − mT )} =
1 P+∞ m
T m=−∞ δ(τ − T ), llegando a
+∞
X +∞
X
Ss (f ) = r|P (f )|2 Ca (m)e−j2πf mT + r2 ā2 |P (mr)|2 δ(f − mr) (19)
m=−∞ m=−∞
donde r = 1/T . Nótese que el primer término es continuo en frecuencia y depende de la variabilidad de
los sı́mbolos entorno a su media mientras que el segundo término es discreto en frecuencia y depende
de la media o componente de continua de los sı́mbolos. Además, si suponemos que los sı́mbolos a(k)
131
son independientes y por lo tanto incorrelados además de idénticamente distribuidos, su covarianza
será nula excepto para m = 0, donde valdrá σa2 (su varianza). Considerando lo dicho llegamos a
+∞
X
Ss (f ) = rσa2 |P (f )|2 + r2 ā2 |P (mr)|2 δ(f − mr) (20)
m=−∞
Consideremos un pulso cuadrado como los vistos anteriomente y de duración inferior a T . Por sim-
plicidad, lo situamos entorno al origen, es decir, p(t) = Π τt , como se puede apreciar en la siguiente
figura.
p(t)
T
Supondremos sı́mbolos i.i.d con p(a(k) = 0) = p y p(a(k) = ∆) = q y por lo tanto ā = 0·p+∆·q = ∆·q.
Además, la autocorrelación valdrá
y la covarianza valdrá
Ca (m) = Ra (m) − ā2 = q 2 · ∆2 − q 2 · ∆2 = 0 (22)
ya que se trata de variables independientes. Lo dicho es cierto para todo m excepto para m = 0, en
cuyo caso
132
El espectro resultante es el que vemos en la figura siguiente. Nótese que cuando τ < T las deltas
aparecen en medio de los lóbulos de la sinc y no se anulan mientras que en el caso τ = T (NRZ) éstas
se anulan y el ancho de banda pasa a ser el menor posible.
Ss (f )
â(k)
s(t) y(t) y(kT )
CODIFICADOR DETECTOR DECODIFICADOR
b(k) DE LÍNEA
hc (t) hR (t) DE NIVEL DE LÍNEA b̂(k)
w(t)
p(t)
Consideremos ahora el esquema de la figura anterior con el sistema de transmisión completo, donde
vemos que la señal PAM viaja por el canal hc (t), se le añade el proceso de ruido w(t) que conside-
raremos AWGN con densidad espectral Sw (f ) = N0 /2 y pasa por el filtro receptor hR (t). Luego la
señal es muestreada para recuperar los niveles estimados â(k) y poder recuperar la información b̂(k).
Analicemos ahora la señal y(t) a la salida del filtro receptor, que valdrá
+∞
!
X
y(t) = s(t) ∗ hc (t) ∗ hR (t) + n(t) = a(i)p(t − iT ) ∗ hc (t) ∗ hR (t) + n(t) (26)
i=−∞
+∞
X +∞
X
= a(i)p(t) ∗ hc (t) ∗ hR (t) ∗ δ(t − iT ) + n(t) = a(i)pR (t − iT ) + n(t)
i=−∞ i=−∞
133
donde hemos considerado pR (t) = p(t) ∗ hc (t) ∗ hR (t) como el pulso recibido y n(t) = w(t) ∗ hR (t) como
R +∞
el ruido a la salida del filtro receptor cuya potencia vale σn2 = −∞ Sw (f )|HR (f )|2 df .
y que el proceso de ruido es gausiano de media nula. Por lo tanto, su función densidad de probabilidad
valdrá 2
1 − n
fn (n) = √ e 2σn2 (28)
2πσn
Por lo tanto, la señal recibida una vez muestreada se obtiene de sustituir t = kT en (26), esto es
X
y(kT ) = a(k) pR (0) + a(i) pR ((k − i)T ) + n(kT ) (29)
i6=k
y =a+n (31)
donde vemos claramente que el nivel emitido a es enmascarado por la realización de ruido n. En
función del valor que tome n y teniendo en cuenta que hay un conjunto finito de posibles valores de a,
seremos capaces de recuperar el valor emitido o bien lo confundiremos con otro. Como más separados
estén los valores que toma a o, equivalentemente, como menor sea la amplitud del ruido n, más difı́cil
será incurrir en un error de reconstrucción. A continuación nos centramos en el caso binario.
En el caso binario la amplitud a podrá tomar dos posibles valores: s0 que es el valor bajo y s1 que
es el valor alto. Correspondientemente hablaremos de la hipótesis H0 cuando creemos que s0 se ha
enviado y de la hipótesis H1 cuando creemos que ha sido s1 el valor enviado. Con H0 la señal recibida
será y = s0 + n y por lo tanto la distribución de y será en este caso una gausiana de varianza σn2 pero
centrada a s0 , esto es
(y−s0 )2
1 −
fy (y|H0 ) = √ e 2σn2 = fn (y − s0 ) (32)
2πσn
ya que n = y − s0 . De igual modo
2
(y−s1 )
1 −
fy (y|H1 ) = √ e 2σn2 = fn (y − s1 ) (33)
2πσn
Podemos ver esto mismo en la siguiente figura.
134
fy (y|H0 ) fy (y|H1 )
σn σn
y
s0 s1
γ
En la figura vemos un umbral γ que hay que fijar obligatoriamente para que el detector de nivel pueda
decidir si el sı́mbolo emitido es s0 o bien s1 . Ası́, cuando y < γ estaremos en la hipótesis H0 y el nivel
estimado será â = s0 . Del mismo modo, cuando y ≥ γ estaremos en la hipótesis H1 y el nivel estimado
será â = s1 . La cuestión ahora es ver cuánto vale la probabilidad de error en cada uno de los casos.
La probabilidad de error bajo la hipótesis H0 valdrá
Z +∞ Z +∞ Z +∞ (y−s0 ) 2
1 −
P (e|H0 ) = fy (y|H0 ) dy = fn (y − s0 ) dy = √ e 2σn2 dy (34)
γ γ γ 2πσn
y corresponde al área marcada con textura de puntos en la figura anterior. Nótese que únicamente los
valores de y situados por encima del umbral darán lugar a error y que forman un conjunto de baja
probabilidad como en la figura cuando el sistema funcione de modo adecuado. De forma parecida, la
probabilidad de error bajo la hipótesis H1 valdrá
Z γ Z γ Z γ (y−s1 ) 2
1 −
P (e|H1 ) = fy (y|H1 ) dy = fn (y − s1 ) dy = √ e 2σn2 dy (35)
−∞ −∞ −∞ 2πσn
y corresponde al área gris de la figura. Habiendo calculado ambas probabilidades, la probabilidad total
de error Pe se calcula como
Pe = p0 P (e|H0 ) + p1 P (e|H1 ) (36)
La cuestión ahora es cómo fijar el umbral óptimo de decisión. Para ello derivamos Pe respecto a γ e
igualamos a 0, esto es,
Z +∞ Z γ
∂Pe ∂ ∂
= p0 fn (y − s0 ) dy + p1 fn (y − s1 ) dy = 0 (37)
∂γ ∂γ γ ∂γ −∞
−p0 fn (γ − s0 ) + p1 fn (γ − s1 ) = 0 (39)
(γ − s1 )2 (γ − s0 )2
log(p0 ) + = log(p 1 ) + (40)
2σn2 2σn2
135
y asilando γ obtenemos la condición
p1
log p0 2σn2 + s20 − s21
γopt = (41)
2(s0 − s1 )
haber intuido a la vista de la figura anterior ya que en este caso ambas áreas deben ser iguales. No
obstante, el umbral de la figura puede ser bueno si se transmiten más ceros que unos ya que los ’ceros’
tendrán menos error. Es cierto que los ’unos’ se verán perjudicados, pero también se transmiten con
menor frecuencia.
Volvamos ahora al cálculo de Pe a partir de (36) sustituyendo las probabilidades condicionadas, esto
es Z +∞ Z γ
(y−s0 )2 (y−s1 )2
1 − 2 1 −
Pe = p 0 √ e 2σn dy + p1 √ e 2σn2 dy (42)
γ 2πσn −∞ 2πσn
Estas integrales no tienen solución cerrada y es por ello que utilizamos tablas o métodos numéricos
para resolverlas. Existen varias funciones conocidas (tabuladas) que sirven para dicho cálculo como
la función Q(x), la función error erf (x) o la función error complementario erf c(x). Todas ellas están
relacionadas y nosotros trabajaremos con la función Q(x), que se define como
Z +∞
1 2
Q(x) = √ e−λ /2 dλ (43)
2π x
Gracias a la función Q(x) podremos calcular P (e|H0 ) y P (e|H1 ). Empecemos por la primera ya que
es la que más se parece a la función Q(x). Bastará con el cambio de variable y 0 = y−s σn para conseguir
0
donde la última igualdad viene dada por el hecho de que la integral de toda la gaussiana (es una pdf)
vale 1. Finalmente, aprovechamos la propiedad de la función Q(x) que nos dice Q(−x) = 1 − Q(x)
(véase la siguiente figura) para escribir
s1 − γ
P (e|H1 ) = Q (46)
σn
Agrupando todo, podemos decir que Pe vale
γ − s0 s1 − γ
Pe = p0 Q + p1 Q (47)
σn σn
136
! "
1 2
− u2
√ e
2π
u
−x x
s1 − s0 s1 − s0 s1 − s0 d
Pe = p 0 Q + p1 Q =Q =Q (48)
2σn 2σn 2σn 2σn
y por lo tanto, la probabilidad de error depende del cociente entre la mitad de la distancia entre
sı́mbolos y la desviación estándar del ruido. Alternativamente, se puede expresar la Pe en función de
la potencia de la señal, que según hemos visto en el apartado anterior vale Ps = rRa (0)Ep donde
r = 1/T .
Calculemos a continuación la Pe (Ps ) para señalización polar y para señalización unipolar (sı́mbolos
equiprobables). Para el caso polar,
1 1 Ps
Ra (0) = (−∆)2 + ∆2 = ∆2 −→ Ps = r∆2 Ep −→ ∆2 = (49)
2 2 rEp
1 1 ∆2 ∆2 ∆2 Ps
Ra (0) = 02 + ∆2 = −→ Ps = r Ep −→ = (51)
2 2 2 2 4 2rEp
∆2 ∆
donde aislado 4 ya que la mitad de la distancia entre sı́mbolos es en este caso 2. Ası́ la Pe nos queda
s !
Ps
PeU N IP OL = Q (52)
2rEp σn2
Como la función Q es monótona decreciente, entonces para una misma potencia transmitida, se cumple
siempre
PeP OLAR < PeU N IP OL (53)
137
Probabilidad de error en señalización M-aria
En este caso existen M sı́mbolos posibles que son si , i = 1, . . . , M y que además supondremos equi-
probables por simplicidad de cálculo. Por lo tanto habrá que fijar M − 1 umbrales de decisión como
muestra la figura siguiente y decidiremos el sı́mbolo si si el valor recibido y (recordemos que era para
un determinado instante k) se encuentra entre los umbrales γi−1 y γi .
fy (y|HM )
s1 s2 s3 sM y
γ1 γ2 γ3 γM −1
De la misma forma que en el caso binario, podemos calcular los valores óptimos de los umbrales
haciendo
∂Pe 1
= (fy (γi |Hi+1 ) − fy (γi |Hi )) = 0 (55)
γi M
y por lo tanto la condición de optimalidad es
fy (γi |Hi+1 ) = fy (γi |Hi ) (56)
exactamente igual que en el caso binario y por lo tanto
si + si+1
γiopt = (57)
2
Si queremos expresar Pe usando la función Q(x) debemos fijarnos que el término dentro del sumatorio
en (54) es exactamente lo mismo que tenı́amos en (42) para el caso binario (M = 2) donde el resultado
1
era Pe = 2 M Q(d/2σn ), siendo d la distancia entre sı́mbolos (nótese el factor 2 necesario para tener
en cuenta la probabilidad de error a izquierda y derecha del umbral). Asi pues, sumando los M − 1
términos de igual valor obtenemos
1 d 2(M − 1) d
Pe = (M − 1)2Q = Q (58)
M 2σn M 2σn
Finalmente, igual que hemos visto para el caso binario, nos interesará expresar la Pe en función de Ps
gracias a la expresión
Ps = rRa (0)Ep (59)
A continuación lo vemos en la señalización M-aria polar como ejemplo.
138
Ejemplo: señalización M-aria polar
En el caso polar y con sı́mbolos equiprobables su media será 0. Por lo tanto, como ya vimos en (16)
podemos sustituir la autocorrelación por la covarianza (varianza en este caso ya que evaluamos Ra (0)),
es decir,
Ps = rσa2 Ep (60)
A fin de calcular la varianza de los sı́mbolos, primero expresamos la amplitud que toma el i-ésimo
sı́mbolo en el caso general, esto es
(M − 1)
si = (i − 1) − ∆, i = 1, . . . , M (61)
2
P −1 PM M (M −1) PM −1
Desarrollando el cuadrado anterior y sabiendo que M i=0 i = i=1 i − 1 = 2 y que i=0 i2 =
M (M −1)(2M −1)
6 llegamos a
M2 − 1 2
σa2 = ∆ (63)
12
y dado que la mitad de la distancia entre sı́mbolos es d/2 = ∆/2, entonces nos interesa sacar ∆2 /4 de
la expresión de Ps , esto es
∆2 12Ps 3Ps
= 2
= (64)
4 4rEp (M − 1) rEp (M 2 − 1)
ası́ que s !
2(M − 1) 3Ps
Pe = Q (65)
M rEp (M 2 − 1)σn2
Cabe destacar que la probabilidad que hemos calculado en el ejemplo anterior y también en un caso
genérico es la probabilidad de error de sı́mbolo, que se corresponde con la probabilidad de
error de bit únicamente en el caso binario. En el caso M-ario supondremos que la relación señal a
ruido es suficientemente elevada como para que los errores que se den sean entre sı́mbolos adyacentes.
Además, usaremos codificación de Gray para que el error de un sı́mbolo suponga el error en un único
bit a la hora de decodificar. Como M = 2b siendo b el número de bits por sı́mbolo, a partir de M
sabremos que
b = log2 M (66)
y por lo tanto la probabilidad de error de bit Pb valdrá
s !
Pe 2(M − 1) 3Ps
Pb ≈ = Q (67)
log2 M M log2 M rEp (M 2 − 1)σn2
139
Con esta expresión estamos diciendo que un error de sı́mbolo equivale al error en un bit. No obstante,
como hay varios bits en un sı́mbolo, la probabilidad de error de bit debe ser escalada a razón de b.
Por último, recordar que normalmente hablaremos de la tasa de datos o ‘rate’ de la comunicación
en unidades de bits por segundo. No obstante, r tiene unidades de sı́mbolos por segundo. Como ya
habı́amos visto, sabiendo el número de bits b por sı́mbolo podemos relacionar ambas cantidades según
rb = r · b = r log2 M (68)
5. Filtro adaptado
En el punto anterior hemos calculado la probabilidad de error de sı́mbolo y de bit suponiendo que
no habı́a ISI y que el ruido era gaussiano de media nula y varianza (equivalente a potencia) σn2 . En
este apartado supondremos un canal ideal hc (t) = αδ(t − tc ) que no modificará la forma de la señal
transmitida (simplemente la escalará y retardará) y nos preocuparemos del diseño del filtro receptor
P
hR (t), tal y como podemos ver en la siguiente figura, donde sR (t) = α +∞
k=−∞ a(k)p(t − kT − tc ) es la
señal recibida.
â(k)
+∞
y(t) kT
!
DETECTOR DECODIFICADOR
α a(k)p(t − kT − tc ) hR (t) DE NIVEL DE LÍNEA b̂(k)
k=−∞
w(t)
Suponiendo por ahora que se mantiene la condición de no ISI (volveremos a ello más adelante),
nuestro objetivo debe ser minimizar la probabilidad de error, ya sea de bit o de sı́mbolo, y para ello
nos interesa que la contribución del ruido sea lo menor posible en el instante de muestreo. Visto de
otra forma, Pe es una función monótona decreciente de k∆/σn (donde k es una constante que depende
del tipo de señalización), ası́ que maximizando la relación ∆/σn conseguimos minimizar Pe . Téngase
en cuenta además que hR (t) ya se encargará de compensar la atenuación introducida por el canal a fin
de restaurar los niveles originales de los sı́mbolos emitidos. Pues bien, este objetivo es justamente lo
que perseguı́a el filtro adaptado que se vio en el apartado 8 del tema 2, donde se planteaba la situación
que podemos ver en la siguiente figura, es decir, se emitı́a un pulso p(t) que se recibı́a con un retraso
tc y escalado α. El objetivo era diseñar el filtro hr (t) para que en un tiempo posterior tc + td donde td
era un tiempo de diseño necesario para poder hacer un filtro causal, la relación entre la amplitud de
la señal a la salida del filtro y σn (varianza del ruido después del filtro) fuera lo mayor posible.
140
xR (t) y(t)
p(t)
xR (t) = αp(t − tc ) HR (f ) y(t)
tc t t c + td t
w(t), Sw (f )
Se llegó entonces al siguiente resultado (para densidad espectral de ruido plana Sn (f ) = N0 /2 y por
lo tanto incorrelado, que es el caso que supondremos aquı́),
2k ∗ 2k
HR (f ) = P (f )e−j2πf td ←→ hR (t) = p(td − t) (69)
N0 N0
donde la amplitud k y el retardo td eran parámetros de diseño. Por comodidad, sustituimos λ = 2k/N0
y nos queda
HR (f ) = λ P ∗ (f )e−j2πf td ←→ hR (t) = λ p(td − t) (70)
es decir, el filtro adaptado tiene la misma forma que el pulso emitido p(t) salvo que girado y retrasado
td segundos.
Fijémonos que la señal PAM no es un sólo pulso como habı́amos planteado en el tema 2 sino una
concatenación de pulsos, pero ésta es la única diferencia. Como veremos a continuación, el filtro
adaptado que vimos nos sirve para recibir de forma óptima señales PAM cuando el canal es ideal y el
P
ruido gaussiano e incorrelado. Partiendo de sR (t) = α +∞ i=−∞ a(i)p(t − iT − tc ), la señal a la salida
del filtro receptor vale
+∞
X
y(t) = (sR (t) + w(t)) ∗ hR (t) = α λ a(i)p(t − iT − tc ) ∗ p(td − t) + n(t) (71)
i=−∞
+∞
X
= αλ a(i)p(t) ∗ δ(t − iT − tc ) ∗ p(−t) ∗ δ(t − td ) + n(t)
i=−∞
+∞
X
= αλ a(i)Rp (t − iT − (tc + td )) + n(t)
i=−∞
Ahora debemos muestrear cada kT segundos pero hay que considerar el retraso introducido por el
canal y el filtro receptor a fin de recoger la máxima amplitud posible a la salida del filtro. Ası́, los
instantes de muestreo deben de ser tk = kT + td + tc y la señal muestreada vale
X
y(tk ) = α λ a(k)Rp (0) + α λ a(k)Rp ((k − i)T ) + n(tk ) (72)
i6=k
y dado que el pulso emitido p(t) se ha diseñado de tal forma que Rp (iT ) = 0 excepto para i = 0
(condición de ISI nula), la salida es
141
1
Además, como Rp (0) = Ep , escogeremos λ = α Ep y nos queda
y(tk ) = a(k) + n(tk ) (74)
es decir, el modelo que habı́amos usado en el apartado anterior sin ISI y óptimo en términos de ruido
por la condición de diseño del filtro adaptado. Nótese que gracias al filtro adaptado minimizamos la
contribución del ruido, pues éste ha sido nuestro principio de diseño. Téngase también en cuenta que
con el factor λ escalamos tanto ruido como amplitud del sı́mbolo (sirve para normalizar) y por lo tanto
no afecta a la condición de optimalidad del filtro.
t
Ejemplo: señalización polar M-aria NRZ con p(t) = Π T
En este caso el filtro adaptado se construye como vemos en la siguiente figura, donde td debe ser como
mı́nimo T /2 para que hR (t) sea causal.
t t t
td
P
Si s(t) = +∞ k=−∞ a(k)p(t − kT ) es la señal enviada, hc (t) = αδ(t − tc ) y escogemos td = T /2, a la
salida del receptor tendremos la señal representada en la siguiente figura (sin incluir el ruido). En este
caso tenemos una señal con únicamente 4 sı́mbolos. A la salida del receptor podemos ver cada una de
las funciones triangulares resultantes de la convolución de los pulsos emitidos con el filtro adaptado
y en trazo rojo la señal que verı́amos a la salida (suma de todas las funciones triangulares). Hay dos
cosas importantes a tener en cuenta: i) en los instantes de detección únicamente existe contribución
del sı́mbolo ‘que toca’ mientras que el resto de ‘triángulos’ toman valor cero (no hay ISI) y ii) en los
instantes de detección se concentra toda la energı́a del pulso (ya que es proporcional a Rp (0)), que es
lo que nos permite distanciarnos al máximo del ruido (en la figura no lo hemos dibujado). Nótese que
el filtro adaptado escala adecuadamente la señal a su salida para que los niveles de los sı́mbolos sean
los mismos que en transmisión.
T + tc + T /2
s(t)
2T + tc + T /2
3∆/2 3∆/2
∆/2 ∆/2
2T hc (t) hR (t)
−∆/2
T t −∆/2 t
−3∆/2 −3∆/2
142
Probabilidad de error de bit en función de Eb /N0 para señalización M-aria polar
Recordemos que en la sección anterior habı́amos obtenido Pb (también llamada ’Bit Error Rate’ o
BER) y valı́a s !
2(M − 1) 3Ps
BER = Pb ≈ Q (75)
M log2 M rEp (M 2 − 1)σn2
Esto era para sı́mbolos equiprobables y umbrales de detección óptimos. En el caso de usar el filtro
adaptado, podemos calcular la potencia de ruido a la salida del filtro como
Z +∞ Z
2 N0 2 N0 +∞ 2
σn = |HR (f )| df = λ |P (f )|2 df (76)
−∞ 2 2 −∞
Sabiendo que hemos fijado λ = α 1Ep donde α es la atenuación en amplitud del canal y recordando que
|P (f )|2 es la densidad espectral de energı́a del pulso emitido p(t), llegamos a
N0 λ2 N0
σn2 = Ep = (77)
2 2|α|2 Ep
donde vemos claramente que el escalado de la señal deseada se refleja también en la potencia de ruido.
Por otro lado, la energı́a (media) de sı́mbolo o Es es por definición el producto de la potencia media
de la señal por la duración de un sı́mbolo, es decir
Es = Ps T (78)
y la podemos traducir a energı́a de bit o Eb usando el número de bits por sı́mbolo b, es decir
Es Es
Eb = = (79)
b log2 M
Expresar BER(Eb /N0 ) nos es útil para hacer una comparación justa entre señalizaciones ya que hemos
independizado la expresión de la tasa de señalización r y lo que importa es la relación entre la energı́a
dedicada a un bit y N0 . Dicho de otro modo, comparamos la BER para un mismo rb y una misma
Eb /N0 . Por ejemplo, si suponemos un canal sin pérdidas (|α| = 1), tenemos
q
2Eb
M = 2, b = 1: BER = Q N0
q
3 4 Eb
M = 4, b = 2: BER = 4 Q 5 N0
143
manera genérica, si la señal recibida después del filtro receptor (sea o no el filtro adaptado) se expresa
como X
y(t) = a(i)pR (t − iT ) + n(t) (81)
i
y se muestrea en los instantes tk = kT (obviamos por simplicidad los retrasos tc y td ), los niveles
recuperados son X
y(tk ) = a(k)pR (0) + a(i)pR ((k − i)T ) +n(tk ) (82)
k6=i
| {z }
ISI
P
donde el término k6=i a(i)pR ((k − i)T ) es lo que denominamos ISI ya que los sı́mbolos anteriores o
posteriores enmascaran el sı́mbolo deseado al igual que lo hace el ruido. Nótese que en el caso de usar
el filtro adaptado pR (t) = (1/Ep ) Rp (t).
Para que no exista ISI, como ya hemos anticipado en apartados anteriores, se requiere que
(
1 k=0
pR (kT ) = (83)
0 k 6= 0
y por lo tanto, nos da igual los valores que tome pR (t) fuera de los instantes de muestreo. De forma
más compacta, podemos escribir dicha condición como
X
pR (t) δ(t − kT ) = δ(k) (84)
k
ya que el producto de pR (t) por el tren de deltas los que hace es seleccionar únicamente los instantes
de muestreo y al igualar a δ(k) (la delta digital en un abuso de notación ya que debe tomar valor 1
para k = 0 y 0 en los demás k).
Esta misma condición se puede ver a nivel frecuencial simplemente haciendo la transformada de
Fourier, esto es X
r PR (f − nr) = 1 (85)
k
es decir, la suma de las réplicas de PR (f ) situadas a múltiplos de r = 1/T deben dar lugar a un espectro
plano. Por lo tanto, si el ancho de banda de transmisión BT es menor que r/2, entonces estamos ante
una situación como la de la siguiente figura (izquierda) y es imposible cumplir la condición de no ISI,
ası́ que BTmin = r/2, caso en el que tendremos la situación de la parte derecha de la figura (donde el
pulso rectangular en frecuencia es la única opción).
ISI NO ISI
r 2r 3r f r 2r 3r f
144
Si antitransformamos el pulso rectangular vemos que el pulso recibido debe ser
Con este pulso conseguimos el menor ancho de banda posible pero no es realizable, ası́ que la alter-
nativa es permitir pulsos de ancho de banda BT > r/2 que siempre deben presentar simetrı́a vestigial
alrededor de r/2 para poder cumplir la condición de Nyquist en (85) según se puede ver en la figura
siguiente. A los pulsos que cumplen dicha condición los denominamos pulsos de Nyquist en general y
la familia más conocida es la de los pulsos de coseno alzado (en la figura).
pR (t)
β=0 PR (f ) 1
β = 0.5 T 2T
β=1 β=1
f t
r/2 r 2r
β=0 β = 0.5
y su transformada
1 1−β
r, h
|f | ≤ 2 r
h ii
1−β
PN (f ) = 1
2r
π
1 + cos βr |f | − r 2 , r 1−β 1+β
2 < |f | ≤ r 2 (88)
0, |f | > r 1+β
2
El factor β se denomina factor de ’roll-off’ y controla el ancho de banda del pulso, que es
BT = r(1 + β) (89)
Nótese en la forma temporal de los pulsos (ver figura anterior) que a mayor factor de ’roll-off’ más
robusto es el pulso frente a errores de sincronismo. En otras palabras, cuando los instantes de detección
tk no son los adecuados, el pulso con mayor β producirá menos ISI.
Por último, téngase en cuenta que pN (t) no es el pulso emitido sino el que debe salir del filtro receptor
y por lo tanto hay que tener en cuenta tanto el canal como dicho filtro ya que pN (t) = p(t)∗hc (t)∗hR (t)
(suponiendo que ni canal ni filtro receptor introducen retraso). En caso de que el canal sea ideal y se
use el filtro adaptado en recepción, el pulso a transmitir es el que se conoce como raı́z de coseno alzado.
p
Dicha nomenclatura es ası́ porque |PSN (f )| = |PN (f )| y por supuesto cumple pSN (t) ∗ pSN (−t) =
RpSN = pN (t). No ponemos aquı́ la expresión de pSN (t) pero su forma temporal es semejante a la de
pN (t).
145
7. Filtros terminales óptimos
Hasta este punto hemos supuesto siempre canal ideal y podı́amos controlar la ISI mediante la confor-
mación de pulso que hemos visto. En el caso de que el canal no fuera ideal, éste introducirı́a ISI aún
usando pulsos de Nyquist. Para hacer frente a esto tenemos dos opciones: i) la óptima que es usar
filtros terminales óptimos (FTO) como ya vimos en la parte de comunicaciones analógicas (tema 2) o
bien ii) usar ecualización aún sabiendo que es una alternativa subóptima. En lo que queda de tema,
veremos estas dos soluciones.
El uso de los FTO tiene como objetivo eliminar la ISI y minimizar la probabilidad de error. Haciendo el
sı́mil con lo que vimos en comunicaciones analógicas, lo primero se corresponde con evitar la distorsión
y lo segundo con maximizar la SNR (ya hemos dicho que en comunicaciones digitales lo importante
es la señal en los instantes de muestreo y no la señal entera como en comunicaciones analógicas). En
la siguiente figura vemos el esquema con el que trabajaremos, donde x(t) es la señal a enviar, ST es
la potencia transmitida, s(t) la señal transmitida y sR (t) la señal a la salida del filtro receptor.
!
s(t) = a(k)p(t − kT ) !
k sR (t) = a(k)pR (t − kT )
! k
x(t) = a(k)px (t − kT ) p(t) = px (t) ∗ hT (t)
k
ST kT
x(t) HT (f ) Hc (f ) HR (f ) DETECTOR â(k)
DE NIVEL
w(t), Sw (f )
Aquı́ forzamos que el pulso recibido sea un pulso de Nyquist PN (f ) con un cierto retraso td .
∆2 3ST
= (92)
4 rEp (M 2 − 1)
146
R +∞ R +∞
y dado que en nuestro esquema Ep = −∞ |P (f )|2 df = −∞ |Px (f )|2 |HT (f )|2 df llegamos a
∆2 3ST 3ST 1
= 2
= 2 R +∞ (93)
4 rEp (M − 1) r(M − 1) |Px (f )|2 |HT (f )|2 df
−∞
R +∞
Por otro lado σn2 = −∞ Sw (f )|HR (f )|2 df , ası́ que juntando ambos resultados llegamos a
∆ 2 3ST 1 1
= 2 R +∞ R +∞ (94)
2σn r(M − 1) |Px (f )|2 |HT (f )|2 df Sw (f )|HR (f )|2 df
−∞ −∞
∆
Nótese que como la función cuadrática es monótona creciente y 2σ es siempre positivo, el argumento
2 n
∆ ∆
que maximiza 2σ n
también maximiza 2σ n
, ası́ que trabajaremos con la segunda opción.
3ST
Si fijamos la potencia transmitida ST podemos obviar el término r(M 2 −1)
en (94) ya que es una
2
∆
constante, ası́ que maximizar 2σ n
es equivalente a hacer
Z +∞ Z +∞
2 2
mı́n |Px (f )| |HT (f )| df Sw (f )|HR (f )|2 df (95)
−∞ −∞
|PN (f )|
Aplicando la condición de ISI nula en (91), podemos decir que |Px (f )||HT (f )| = |Hc (f )HR (f )| y por lo
tanto hay que minimizar la siguiente expresión
Z +∞ Z +∞
|PN (f )|2
mı́n 2
df Sw (f )|HR (f )|2 df (96)
−∞ |Hc (f )HR (f )| −∞
Aplicando
R ahora la desigualdad de Cauchy-Schwarz como hicimos en el caso analógico, esto es,
+∞ 2 R +∞ R +∞
−∞ u(x)v ∗ (x)dx ≤ −∞ |u(x)|2 dx −∞ |v(x)|2 dx, e identificando
s
|PN (f )|2
U (f ) = (97)
|Hc (f )HR (f )|2
p
V (f ) = Sw (f )|HR (f )|2 (98)
llegamos a la desigualdad
Z
+∞ |P (f )|S 1/2 (f ) 2 Z +∞ |PN (f )|2
Z +∞
N w
df ≤ df Sw (f )|HR (f )|2 df (99)
−∞ |Hc (f )| −∞ |Hc (f )HR (f )|2
−∞
Por lo tanto, la cantidad a minimizar está acotada por debajo por algo que no depende de nuestras
incógnitas, los filtros transmisor y receptor. De la desigualdad de Cauchy-Schwarz sabemos que se
alcanza dicho mı́nimo haciendo U (f ) = λV (f ) y por lo tanto
s
|PN (f )|2 p
= λ Sw (f )|HR (f )|2 (100)
|Hc (f )HR (f )|2
147
y aplicando la condición de ISI nula de (91), el pulso transmitido debe responder a
1/2
|PN (f )|2 |PN (f )|Sw (f )
|P (f )|2 = 2 2
=λ (102)
|Hc (f )| |HR (f )| |Hc (f )|
y el factor λ se utiliza para fijar la potencia transmitida ST .
Al igual que en el caso analógico, los FTO hacen una preémfasis y deénfasis de ruido. El problema
con los FTO es que no siempre tendremos conocimiento a priori del canal, que no siempre podremos
trabajar con el emisor (más fácil con el receptor) y que su implementación práctica no resulta sencilla
en general.
8. Ecualización
Como ya habı́amos anticipado, la ecualización es una alternativa subóptima a los filtros terminales
óptimos cuando el canal nos introduce ISI. El esquema que se emplea en ecualización es el de la
siguiente figura. Se envı́a la señal PAM y pasa por un canal que introduce ISI. En recepción intentamos
compensar el efecto del canal mediante un filtro ecualizador, que se puede situar antes del muestreo o
bien después. Aquı́ trabajaremos el segundo caso y el modelo de señal a la entrada del filtro ecualizador
será el que se aprecia en la figura, es decir
X
y(k) = a(k)pR (0) + a(i)pR (k − i) + n(k) (103)
i6=k
donde pR (k − i) representa la contribución del i-ésimo pulso recibido a la muestra k-ésima actual.
Por ejemplo, pR (k − k) = pR (0) representa la contribución del pulso k-ésimo a la muestra k-ésima y
por lo tanto esperamos que sea mayor que cualquier otro valor pR (k − i). El término del sumatorio es
obviamente el que modela la cantidad de ISI que tenemos. Por otro lado, la contribución de ruido a
la k-ésima muestra es n(k).
kT ā(k)
!
s(t) = a(k)p(t − kT ) Hc (f ) HR (f ) Heq (z) DETECTOR â(k)
k DE NIVEL
!
y(k) = a(k)pR (0) + a(i)pR ((k − i)T ) + n(k)
w(t) i!=k
A fin de dejar claro el modelo de señal con ISI empleado, consideremos la siguiente figura, donde vemos
en trazo negro las contribuciones de los distintos pulsos recibidos correspondientemente escalados por
los niveles a(k), en trazo grueso de color la señal recibida (suma de todo). Nótese que se han marcado
los instantes de muestreo con lı́neas verticales para poder apreciar la contribución de cada pulso a la
muestra en cuestión y claramente se aprecia que existe ISI en este caso.
Volviendo al modelo de señal, nos interesa ahora incluir la parte de señal deseada dentro del sumatorio,
esto es X X
y(k) = a(k)pR (0) + a(i)pR (k − i) + n(k) = a(i)pR (k − i) + n(k) (104)
i6=k i
148
muestra k − 1 muestra k muestra k + 2
a(k)pR (0)
Ası́, interpretando pR (k) como una función discreta de ı́ndice k, podemos ver la secuencia y(k) como
una suma de pulsos digitales pR (k) convenientemente escalados por a(i) (i no es el ı́ndice temporal
sino un parámetro) y desplazados i muestras. En general, a la salida del filtro ecualizador tendremos
X
ā(k) = y(k) ∗ heq (k) = a(i)pR (k − i) ∗ heq (k) + n(k) ∗ heq (k) (105)
i
para que no exista ISI. Aquı́ hemos usado n como ı́ndice temporal y juega el mismo papel de k en las
ecuaciones anteriores. En términos frecuenciales lo que estamos haciendo es invertir el pulso recibido,
pues PR (z) · Heq (z) = 1. En realidad lo que hacemos es invertir el canal, pues en el modelo equivalente
digital pR (n) = p(n) ∗ hc (n) con p(n) = δ(n) ya que se diseña el pulso emitido sin ISI.
Consideraremos aquı́ la realización de heq (z) como un filtro FIR de 2N + 1 coeficientes c(n) con
n = −N, . . . , N tal y como muestra la figura siguiente.
pR (n) z −1 z −1
149
Si consideramos 2L + 1 muestras del pulso pR (n) con n = −L, . . . , L entonces la convolución discreta
de esta versión enventanada de pR (n) con el filtro heq (n) queda descrita por la siguiente ecuación
matricial
pR (−L) 0 0 ... 0 c(−N ) 0
pR (−L + 1) pR (−L) 0 ... 0 ... ...
... ... ... ... ...
... 0
pR (−N ) ... pR (0) ...
pR (N ) c(0) = 1 (107)
. . . . . . . . . . . . . . . ... 0
0 ... 0 pR (L − 1) pR (L) . . . . . .
0 ... 0 0 pR (L) c(N ) 0
que escribiremos de forma compacta como
pR c = p0 (108)
c = pR † p0 (109)
Aunque el forzador de ceros nos es útil para reducir la ISI en gran medida, su principal problema es
que puede realzar el ruido. Calculemos la potencia a la salida del filtro ecualizador suponiendo que
las muestras del proceso discreto n(k) tienen media nula, están incorreladas y presentan potencia σn2 .
Ası́, dicha potencia vale
2
i=+N
X
σn2 0 = E{|n(k) ∗ heq (k)|2 } = E c(i)n(k − i) (110)
i=−N
i=+N
X i=+N
X
2
= E{|c(i)n(k − i)| } = σn2 |c(i)|2
i=−N i=−N
Pi=+N
y el ruido se realza por el término i=−N |c(i)|2 . Cuando la ISI introducida exija valores grandes de
los coeficientes para ser compensada, entonces la contribución de ruido tendrá un efecto importante.
Ante la situación expuesta, podrı́a tener sentido ser más tolerantes con la ISI y utilizar el filtro
ecualizador para minimizar también la contribución del ruido. Esto es lo que hace el filtro de
mı́nimo error cuadrático medio (MMSE) también llamado filtro de Wiener, cuyo criterio de
diseño es
mı́n E ||a(n) − ā(n)||2 (111)
heq (n)
150
es decir, escoger el filtro heq (n) que minimice el error cuadrático medio entre los niveles emitidos y los
niveles recuperados después del filtro sin importarnos demasiado si para ello hay que eliminar ISI o
ruido (en general la mejor combinación de ambas cosas). No obstante, esto queda ya fuera del alcance
de este curso.
151
Tema 8: Transmisión Digital Paso Banda
Antoni Morell y José López Vicario
24 de mayo de 2013
1. Introducción
En comunicaciones digitales, al igual que sucedı́a en comunicaciones analógicas, nos interesará esta-
blecer comunicaciones paso banda. Los motivos para ello son básicamente los mismos:
Recordemos ahora las expresiones más comunes de una señal paso banda s(t) cualquiera, que ya
estudiamos en el Tema 3,
n o n o
s(t) = Ac Re{as (t)} = Ac Re bs (t)ej2πfc t+θc = Ac Re (is (t) + jqs (t))ej2πfc t+θc (1)
= Ac is (t) cos (2πfc t + θc ) − Ac qs (t) sin (2πfc t + θc )
donde as (t) es la señal analı́tica de s(t), bs (t) su equivalente paso bajo y is (t), qs (t) las componentes
en fase y cuadratura, respectivamente. Aquı́ hemos incluido en la formulación una fase inicial de la
portadora θc y su amplitud Ac , ambas constantes. La particularidad en comunicaciones digitales es
que las componentes en fase y cuadratura tendrán, en general, la forma de una señal PAM, es decir,
+∞
X
is (t) = I(i)p(t − iT ) (2)
i=−∞
X+∞
qs (t) = Q(i)p(t − iT ) (3)
i=−∞
donde I(i) y Q(i) son los sı́mbolos emitidos por cada una de las ramas. Además, supondremos en
general que se cumple T = N Tc con N grande, donde Tc = 1/fc es el periodo de la portadora o, lo
que es lo mismo, fc = N r.
152
Antes de continuar, pongamos en la siguiente figura un esquema general de un sistema de comunicacio-
nes paso banda para situarnos. En este tema nos centraremos en el estudio de los bloques modulador
y filtro receptor, es decir, ver cómo son las señales que se utilizan y cómo generarlas y luego ver cómo
se reciben y qué probabilidades de error obtendremos en los distintos casos.
I(k) ˆ
I(k)
CODIFICADOR FILTRO DECODIFICADOR
b(k) DE LÍNEA
MODULADOR hc (t) RECEPTOR DE LÍNEA b̂(k)
Q(k) Q̂(k)
w(t)
p(t)
Ac cos (2πfc t + θc )
Antes de empezar a ver las modulaciones digitales básicas, veamos cómo es la densidad espectral de
una señal de comunicaciones digitales. Como ya dijimos en el Tema 3, las señales paso banda con
componentes en fase y cuadratura estacionarias dan lugar a señales cicloestacionarias. Es por eso
que para obtener su densidad espectral de potencia primero calcularemos su autocorrelación media.
Recordando los resultados del tema 3 (apartado 5) sabemos que
A2c A2c
Rs (τ ) = Ris (τ ) + Rqs (τ ) cos 2πf0 τ + Ris qs (τ ) − Rqs is (τ ) sin 2πf0 τ (4)
2 2
y si además tenemos en cuenta que lo habitual es que las componentes en fase y cuadratura estén
incorreladas y tengan media nula, entonces la autocorrelación media vale
A2c
Rs (τ ) = Ris (τ ) + Rqs (τ ) cos 2πf0 τ (5)
2
ası́ que haciendo la transformada de Fourier encontramos su densidad espectral de potencia, que es
A2c
Ss (f ) = Sis (f − fc ) + Sis (f + fc ) + Sqs (f − fc ) + Sqs (f + fc ) (6)
4
donde Sis (f ) y Sqs (f ) son las densidades espectrales de potencia de las componentes en fase y cua-
dratura, respectivamente. Por úlltimo, la potencia de la señal paso banda viene determinada por
A2c A2
Ps = Rs (0) = Ris (0) + Rqs (0) = c (Pis + Pqs ) (7)
2 2
153
M Quadrature Amplitude Modulation (MQAM)
No obstante, antes de continuar con el estudio de cada caso individual, considérese la siguiente figura
donde vemos el diagrama de bloques de un modulador genérico, que será el que usaremos en las
modulaciones que hemos citado excepto para el caso particular de FSK. Hay que tener en cuenta que
el bloque codificador de lı́nea se encarga de dividir el flujo de bits entrante en dos subflujos, uno para la
componente en fase y el otro para la componente en cuadratura. Luego, en cada uno de esos subflujos
se agrupan los bits para formar los niveles I(k) y Q(k) para finalmente añadirles el pulso p(t) y formar
ası́ la señal PAM de cada rama. Finalmente, las señales is (t) y qs (t) se modulan en fase y cuadratura
y se suman.
i=+∞
!
is (t) = I(k)p(t − kT )
i=−∞
Ac cos (2πfc t + θc )
CODIFICADOR
b(k) DE LÍNEA s(t)
π/2
p(t)
i=+∞
!
qs (t) = Q(k)p(t − kT )
i=−∞
En el caso de usar b bits por sı́mbolo transmitido, hay que transmitir M = 2b sı́mbolos distintos. Para
ello se utiliza señalización M-aria unipolar donde el nivel I(i) toma valores
Nótese que no tendrı́a sentido usar señalización polar ya que lo que se pretende modificar es la amplitud
del coseno, con lo que un signo negativo provocarı́a un cambio de fase de π rad que para nada nos
interesa ya que, como regla general, cambios bruscos en la forma de onda penalizarán en términos de
ancho de banda. Un ejemplo de modulación ASK con M = 4 se puede ver en la siguiente figura, donde
vemos is (t) en trazo grueso, que es el resultado de los pulsos p(t − iT ) escalados por I(i), y sASK (t)
en trazo fino.
154
3∆
2∆
Caso particular: La modulación 2ASK (b = 1, M = 2) donde los niveles son I(i) ∈ {0, ∆} se conoce
como ‘On-Off Keying’ (OOK). Dicha nomenclatura viene motivada por el hecho de que cuando se
envı́a un ‘0’ no hay señal y cuando se envı́a un ‘1’ aparece la señal senoidal modificada en amplitud
por la forma del pulso p(t).
La modulación ASK no presenta componente en cuadratura, ası́ que aplicando (6) llegamos a
A2c
SsASK (f ) = SisASK (f − fc ) + SisASK (f + fc ) (10)
4
donde SisASK (f ) es la densidad espectral de una señal PAM digital. Del tema anterior (tercer apartado),
sabemos que vale
+∞
X
2 2 2 ¯2
SisASK (f ) = rσI |P (f )| + r I |P (mr)|2 δ(f − mr) (11)
m=−∞
2
En el caso ASK la señalización es M-aria polar con σI2 = M12−1 ∆2 (calculado en el tema anterior al
final del apartado 4) y I¯ = M2−1 ∆. Nótese que si P (f ) es un pulso de Nyquist, únicamente la delta
central del sumatorio prevalece y el ancho de banda de transmisión será BT = r(1 + β), como se puede
ver en la siguiente figura.
SsASK (f )
BT = (1 + β)r
f
−fc fc − r fc fc + r
155
M Phase Shift Keying (MPSK)
Si ahora expresamos I(i)+jQ(i) en su forma polar, esto es I(i)+jQ(i) = αi ejφi llegamos a la expresión
de la señal MPSK que es
( +∞ )
X
sM P SK (t) = Ac Re αi p(t − iT )ej2πfc t+θc +φi (13)
i=−∞
+∞
X
= Ac αi p(t − iT ) cos (2πfc t + θc + φi )
i=−∞
Para ser más exactos, en MPSK la amplitud es constante αi = α y lo que se modifica es la fase
del coseno. Normalmente cogeremos α = 1 ya que podemos controlar la amplitud y por lo tanto la
potencia de la señal a través de Ac , ası́ que I(i) + jQ(i) = ejφi , es decir, I(i) = cos φi y Q(i) = sin φi .
En resumen, la señal MPSK queda
+∞
X
sM P SK (t) = Ac α p(t − iT ) cos (2πfc t + θc + φi ) (14)
i=−∞
donde las fases φi tomaran M valores posibles para dar lugar a los M sı́mbolos de la modulación, esto
es φi ∈ {φ̂0 , . . . , φ̂M −1 } y se definen las posibles fases φ̂i equiespaciadas, es decir
2π
φ̂i = i , i = 0, . . . , M − 1 (15)
M
como muestra la siguiente figura.
Q(i)
φ̂2
φ̂1
φ̂0
I(i)
156
A veces también se introduce un offset de fase de modo que
2π π
φ̂= i + , i = 0, . . . , M − 1 (16)
M M
por lo que ningún sı́mbolo tiene únicamente componente en fase o cuadratura.
La representación de la modulación como puntos en el plano complejo I-Q que acabamos de ver en
la figura anterior es lo que llamamos la constelación de sı́mbolos de la modulación y es lo que más se
emplea a la hora de representar gráficamente la modulación.
Ambas son modulaciones de fase con 4 sı́mbolos. La diferencia es que la primera no presenta offset y
la segunda sı́. Podemos ver la constelación de ambas modulaciones en la siguiente figura y también
las fases que toman los distintos sı́mbolos.
4PSK QPSK
Q(i) Q(i)
φ̂1 = π/2
φ̂1 = 3π/4 φ̂0 = π/4
φ̂2 = π φ̂0 = 0
I(i) I(i)
Por último, como ya dijimos en el tema anterior, lo habitual es usar codificación de Gray para que los
sı́mbolos más cercanos difieran en un solo bit y poder aproximar la probabilidad de error de bit como
la de sı́mbolo dividido por el número de bits por sı́mbolo, es decir, Pb = BER = Pe /b = Pe / log2 M .
Dicho esto, un posible mapeo entre bits y sı́mbolos en QPSK podrı́a ser el de la siguiente tabla.
157
Densidad espectral de potencia
En este caso tenemos tanto componente en fase como componente en cuadratura, ası́ que la densidad
espectral de potencia debe calcularse como
A2c
Ss (f ) = Sis (f − fc ) + Sis (f + fc ) + Sqs (f − fc ) + Sqs (f + fc ) (17)
4
y, como en el caso anterior, la densidad espectral de potencia de la componente en fase (lo mismo para
cuadratura) vale
SisM P SK (f ) = rσI2 |P (f )|2 (18)
donde el término proporcional a la media desaparece ya que I¯ = Q̄ = 0 (suponemos sı́mbolos equipro-
√ √
bables). Además, E{I 2 (k)} = E{Q2 (k)} = 1/2(1/ 2)2 + 1/2(−1/ 2)2 = 1/2. Por lo tanto,
1
SisM P SK (f ) = SqsM P SK (f ) = r |P (f )|2 (19)
2
y la densidad espectral de potencia vale
A2c A2
SsM P SK (f ) = r|P (f − fc )|2 + c r|P (f + fc )|2 (20)
4 4
Tiene la misma forma que SsASK (f ) salvo que la delta desaparece.
MQAM combina de algún modo las dos modulaciones vistas hasta el momento. Por un lado, ASK
inserta la información en la amplitud del sı́mbolo y por otro lado, MPSK lo hace en la fase. Pues bien,
MQAM introduce la información en fase y cuadratura a la vez, ya que en este caso
La expresión de la modulación es
con
+∞
X
is (t) = I(i)p(t − iT ) (23)
i=−∞
X+∞
qs (t) = Q(i)p(t − iT ) (24)
i=−∞
Por lo tanto, igual que en ASK añadiendo en la parte de cuadratura una PAM digital M-aria que se
modula con el seno (salvo que ahora ambas PAM son polares). A nivel de densidad espectral, resulta
muy fácil extrapolar de MPSK a MQAM y su forma es básicamente la misma. La diferencia está en
158
M 2 −1 2
que las varianzas de las PAM serán 12 ∆ en vez de 1/2.
Ejemplo: 16QAM
En este caso tendremos b = 4 bits y M = 16 niveles. Usaremos como siempre codificación de Gray y
en cada rama (fase y cuadratura). En la siguiente tabla podemos ver el mapeo de bits a sı́mbolos y en
la siguiente figura se aprecia la constelación.
Q(i)
φi I(i)
1110 1010 0010 0110
Nótese que los niveles a(i) se definen impares y que la frecuencia instantánea en el sı́mbolo i-ésimo es
fi = fc + fd a(i) (26)
donde fd es la frecuencia de desplazamiento. Además, téngase en cuenta que en FSK se utiliza ha-
bitualmente un pulso p(t) rectangular, mientras que en las otras modulaciones suele ser un pulso de
Nyquist como coseno alzado (o raı́z de coseno alzado) o bien un pulso rectangular. En este último
caso, consideraremos un ancho de banda del pulso r/2 que se convierte en BT = r en paso banda y
aparecerán lóbulos secundarios en el espectro debidos al pulso rectangular que en caso de ser filtrados
159
deformaran p(t) e introducirán ISI.
Volviendo a lo que nos ocupa, sos interesa como siempre que la señal sF SK (t) no presente discontinui-
dades que aumenten su ancho de banda. Es por ello que debemos asegurar continuidad en su fase o
bien que los saltos sean de π (no hace falta que sean de 2π ya que sólo debemos considerar el coseno y
sabemos que cos (x + π) = cos (x)). Ası́ pues, debemos forzar que al final de cada sı́mbolo la fase sea
múltiplo de π, esto es
N N
2πfd T = N π, n∈Z −→ fd = =r (27)
2T 2
Un ejemplo de modulación FSK con dos niveles se puede ver en la figura siguiente.
sF SK (t)
A la práctica se podrı́a generar la señal FSK a través de un banco de osciladores sintonizados a las
2(M − 1) frecuencias de transmisión posibles y un selector que, en función del sı́mbolo a(i), mandase
la señal a la salida, tal y como se puede apreciar en la figura siguiente.
! "
Ac cos 2πfc t + θc − 2πfd (M − 1)t
! "
Ac cos 2πfc t + θc − 2πfd (M − 3)t
! " sF SK (t)
Ac cos 2πfc t + θc − 2πfd (M − 5)t
! "
Ac cos 2πfc t + θc + 2πfd (M − 1)t
SELECTOR
A la práctica esta solución tiene el problema de que se hace difı́cil mantener los osciladores sincronizados
en fase y suelen aparecer saltos de fase que ensanchan el espectro, por lo que un mejor esquema es
160
el conocido como ’Continuous-Phase FSK’ (CPFSK). Aquı́ lo que hacemos es generar una señal
FM como las que vimos en comunicaciones analógicas, esto es,
Z t
sCP F SK (t) = Ac cos 2πfc t + θc + 2πfd u(λ)dλ (28)
donde la información que introducimos en frecuencia, es decir u(t), es una señal PAM M-aria polar,
esto es X
u(t) = a(i)p(t − iT ) (29)
i
con a(i) ∈ {±1, ±3, . . . ± M − 1} para poder equipararla al caso FSK.
La señal FSK o CPFSK no deja de ser una modulación FM y por similitud con lo que estudiamos en la
parte de analógicas, la interpretaremos según (28). En este caso no estudiaremos la densidad espectral
de la señal, pues como vimos en su dı́a no tiene una solución simple, y nos centraremos únicamente
en el ancho de banda de transmisión. Recordando lo visto en el tema 5 (apartado 3), éste depende
esencialmente del ı́ndice de desviación D = ∆f /Bx , donde ∆f era la máxima desviación en frecuencia
(que vale (M − 1)fd en nuestro caso) y Bx era el ancho de banda de la señal moduladora (en nuestro
caso Bx = Bp , es decir, el ancho de banda del pulso p(t)). Recordemos que para calcular el ancho de
banda deberemos ver cuánto vale D exactamente y aplicar el caso que corresponda entre D ≤ 0, 3,
D ≥ 1 y D ≥ 10. Sin saber nada más podemos usar ahora el caso D ≥ 1, esto es
Empecemos con un ejemplo para situarnos. Consideremos una señal paso banda s(t) modulada en
4QAM. Recordemos su expresión temporal, que es
+∞
! +∞
!
X X
s4QAM (t) = Ac I(i)p(t − iT ) cos (2πfc t + θc ) − Ac Q(i)p(t − iT ) sin (2πfc t + θc )
i=−∞ i=−∞
(31)
161
Dicha señal también se puede expresar como
+∞
X
s4QAM (t) = Ac I(i)p(t − iT ) cos (2πfc (t − iT ) + θc ) (32)
i=−∞
− Ac Q(i)p(t − iT ) sin (2πfc (t − iT ) + θc )
ya que hemos considerado fc = N r = N/T y por lo tanto T = N/fc ası́ que cos (2πfc (t − iT ) + θc ) =
cos (2πfc t − 2πfc i N/fc + θc ) = cos(2πfc t + θc ). Ahora ya podemos expresar s4QAM (t) como
+∞
X
s4QAM (t) = si (t − iT ), si (t) = Ac p(t) [I(i) cos (2πfc t + θc ) − Q(i) sin (2πfc t + θc )] (33)
i=−∞
Nótese que en 4QAM habrá sólo 4 posibilidades para si (t) correspondientes a los 4 sı́mbolos que se
envı́an en 4QAM, es decir,
si (t) ∈ {ŝ1 (t), ŝ2 (t), ŝ3 (t), ŝ4 (t)} (34)
y se escogerá uno de ellos en función de los valores que tomen I(i) y Q(i) como se muestra en la
siguiente tabla.
Como podemos ver, todo se reduce a transmitir de forma concatenada uno de los pulsos modulados
ŝi (t) en función del valor de los bits de entrada b(n) b(n − 1). Si nos fijamos un poco más en el ejemplo,
veremos que podemos simplificar algo más ya que, por ejemplo, ŝ1 (t) y ŝ4 (t) tienen la misma forma
temporal salvo por un cambio de signo al igual que sucede con ŝ2 (t) y ŝ3 (t). Entonces tendrı́a sentido
trabajar sólo con las señales ŝ1 (t) y ŝ2 (t), a las que llamaremos ϕ1 (t) y ϕ2 (t), de forma que
Esto nos puede recordar el álgebra lineal, donde ŝi (t) jugarı́a el papel de vector y ϕi (t) el papel de
elemento de la base del subespacio. En este ejemplo sencillo cada sı́mbolo ŝi (t) es función de un único
elemento de la base, pero en general puede ser combinación lineal de todos ellos. Nótese también que
en este caso los escalares que han acompañado a los elementos de la base del espacio de señal han sido
1 y −1 pero en general puede ser cualquier número real. A continuación formalizamos este marco de
trabajo que acabamos de ver.
162
3.1. El espacio de señal
Se puede ver el espacio de señal como un subespacio dentro del espacio vectorial de las funciones
continuas de energı́a finita. Como subespacio vectorial que es, los distintos elementos que lo forman,
en este caso ŝi (t), se pueden expresar como combinación lineal de los elementos de la base generadora
del espacio de señal (ϕl (t), l = 1, . . . , L), esto es
L
X
ŝi (t) = αi,l ϕl (t) (39)
l=1
donde los coeficientes αi,l (el ı́ndice l indexa los L elementos de la base y el ı́ndice i el sı́mbolo) son
escalares y permiten generar todos los sı́mbolos de la modulación. Al igual que hacemos en el álgebra
lineal, podemos expresar ŝi (t) de forma compacta a partir de los escalares y obviando los elementos
de la base (quedan implı́citos), ası́ que tendremos
L
X
ŝi (t) = αi,l ϕl (t) ←→ ŝi = [αi,1 , αi,2 , . . . , αi,L ]T (40)
l=1
Por lo tanto, cuando queramos trabajar con una modulación determinada en el marco del espacio
de señal, lo primero que hay que hacer es encontrar su base generadora, o sea, la funciones ϕl (t). El
siguiente paso es encontrar los conjuntos de escalares {αi,l } que definen cada uno de los sı́mbolos ŝi .
Por comodidad y utilidad práctica (como veremos luego), escogeremos las funciones base ortonormales
(ortogonales por ser base pero también de norma uno), es decir
Z +∞ 1, m = n
ϕm (t)ϕn (t)dt = (41)
−∞ 0, m 6= n
o lo que es lo mismo, que el producto escalar de dos funciones base (definido como la integral de su
producto) debe valer 0 si son distintas o bien 1 si son la misma. Bajo esta premisa, los escalares αi,l
se calculan como Z +∞
αi,l = ŝi (t)ϕl (t)dt (42)
−∞
Comprobación:
Z Z L
! L Z
+∞ +∞ X X +∞
ŝi (t)ϕl (t)dt = αi,n ϕn (t) ϕl (t)dt = αi,n ϕn (t)ϕl (t)dt = αi,l (43)
−∞ −∞ n=1 n=1 −∞
163
Producto escalar y energı́a
Como acabamos de decir, se define el producto escalar entre dos señales como
Z +∞
hŝm (t), ŝn (t)i = ŝm (t)ŝn (t)dt (44)
−∞
ya que dentro del doble sumatorio únicamente sobreviven los términos con i = j. Además, como vemos
en la última igualdad, esta definición de producto escalar se corresponde con el producto escalar de
los vectores que representan a los sı́mbolos según se ha visto en (40).
Dado que las señales son de duración finita, la integral de su producto que aparece en (44) se puede ver
como la energı́a cruzada de las señales (o correlación cruzada evaluada en el origen) que denotaremos
Em,n , esto es
Z +∞
Em,n = hŝm (t), ŝn (t)i = ŝm (t)ŝn (t)dt = ŝTm ŝn (47)
−∞
En el caso m = n se corresponde con la energı́a de la señal y tenemos
Z +∞ L
X
En = hŝn (t), ŝn (t)i = ŝn (t)ŝn (t)dt = ŝTn ŝn 2
= ||ŝn || = 2
αn,i (48)
−∞ i=1
Téngase en cuenta que la energı́a calculada es para un único sı́mbolo de la modulación, ası́ que si
queremos calcular la energı́a media de sı́mbolo Ēs deberemos hacer el siguiente promedio sobre los M
sı́mbolos de la modulación
M
1 X
Ēs = En (49)
M
n=1
Ēs
Eb = (50)
log2 M
Acabamos de ver que a través del producto escalar, ya se defina éste como el producto de dos fun-
ciones continuas ŝi (t) de duración T o como el producto escalar de dos vectores ŝi (las dos posibles
164
representaciones de los sı́mbolos de una modulación), da lugar a la energı́a de un sı́mbolo o la energı́a
cruzada entre sı́mbolos. Definimos ahora la distancia eculı́dea entre dos sı́mbolos como
sZ
+∞
d(ŝm (t), ŝn (t)) = (ŝm (t) − ŝn (t))2 dt (51)
−∞
o, alternativamente, como
d(ŝm , ŝn ) = ||ŝm − ŝn || (52)
Se calcule como se calcule, existe una relación entre distancia (cuadrado de la distancia para ser
exactos) y energı́as, especı́ficamente
Comprobación:
d2 (ŝm , ŝn ) = ||ŝm − ŝn ||2 = (ŝm − ŝn )T (ŝm − ŝn ) = ŝTm ŝm + ŝTn ŝn − 2ŝTm ŝn (55)
= Em + En − 2 Em,n
1 1
ϕ1 (t) = p p(t) = √ p(t) (57)
Ep T
165
donde Ep = T es la energı́a del pulso. Habiendo determinado la base, se pueden conseguir los sı́mbolos
√
si (t) haciendo que el escalar que acompaña el elemento de la base sea a(i) T . Ası́, los 4 sı́mbolos
posibles de la modulación son
−3∆ √ −3∆ √
ŝ1 (t) = T ϕ1 (t) ←→ ŝ1 = T
2 2
−∆ √ −∆ √
ŝ2 (t) = T ϕ1 (t) ←→ ŝ2 = T
2 2
∆√ ∆√
ŝ3 (t) = T ϕ1 (t) ←→ ŝ3 = T
2 2
3∆ √ 3∆ √
ŝ4 (t) = T ϕ1 (t) ←→ ŝ4 = T
2 2
1
Ahora, haciendo uso de la identidad trigonométrica cos x sin x = 2 sin 2x, llegamos a
Z +∞ Z T
1
ϕ1 (t)ϕ2 (t) dt = − sin (4πfc t + 2θc ) dt = 0 (61)
−∞ T 0
ya que integramos el seno en 2N periodos enteros pues T = N Tc o fc = N/T . Por lo tanto sı́ son fun-
ciones ortogonales. Nos falta comprobar que tengan energı́a unidad. Para ello usaremos las identidades
cos2 x = 1/2(1 + cos 2x) y sin2 x = 1/2(1 − cos 2x), ası́ que
Z +∞ Z T Z
21 T
21
ϕ21 (t) dt = dt + cos (4πf
c t + 2θc ) dt = 1
(62)
−∞ 0 T2 T 20
Z +∞ Z T Z
21 T
21
ϕ22 (t) dt = dt − cos (4πf
c t + 2θc ) dt = 1
(63)
−∞ 0 T2 T 20
166
como vector) son
" r r #T
1 T 1 T
ŝ1 = Ac √ , Ac √
2 2 2 2
" r r #T
1 T 1 T
ŝ2 = Ac √ , −Ac √
2 2 2 2
" r r #T
1 T 1 T
ŝ3 = −Ac √ , Ac √
2 2 2 2
" r r #T
1 T 1 T
ŝ4 = −Ac √ , −Ac √
2 2 2 2
Por último, en la siguiente figura vemos la representación gráfica de los sı́mbolos, donde ahora las
funciones base toman el papel de los valores en fase y cuadratura I y Q.
4QAM
ϕ2 (t)
ŝ2 ŝ1
ϕ1 (t)
ŝ4 ŝ3
ˆ
I(k)
FILTRO
r(t) RECEPTOR
Q̂(k)
w(t)
167
Supondremos canal ideal, es decir hc (t), y ruido gaussiano de media nula y densidad espectral Sw (f ) =
N0 /2. Además, consideraremos que los sı́mbolos enviados si (t) tienen duración temporal T , de forma
que si cogemos la señal de entrada en ventanas de duración T centradas en si (t), únicamente veremos
contribución de ese sı́mbolo y no de los anteriores y posteriores. Con todo esto, nuestro modelo de
señal a la entrada del receptor es
L
X
r(t) = ŝi (t) + w(t), 0 ≤ t ≤ T, ŝi (t) = αi,l ϕl (t) (64)
l=1
donde consideramos que se ha enviado uno de los M posibles sı́mbolos de la modulación empleada.
Recordemos que si (t) representa el sı́mbolo emitido en el i-ésimo periodo (de infinitos periodos) mien-
tras que ŝi (t) representa el i-ésimo sı́mbolo de la modulación (de entre los M posibles).
! T
( · ) dt y1
0
ϕ1 (t)
! T
( · ) dt y2
0
r(t) ϕ2 (t)
! T
( · ) dt yL
0
ϕL (t)
Bajo estas condiciones, la primera etapa necesaria para extraer el sı́mbolo emitido es pasar r(t) por
un banco de correladores como se muestra en la figura anterior, en la que cada una de las ramas
lleva a cabo el producto escalar de ŝi (t) con cada una de las L funciones base. De esta forma, si sólo
tenemos en cuenta la parte de señal (sin ruido), en cada rama obtendremos el coeficiente de ŝi (t)
correspondiente a la función base en cuestión debido a la ortonormalidad de los elementos de la base.
Visto matemáticamente, la salida k-ésima vale
Z T Z +∞ Z +∞ XL
!
yk = r(t)ϕk (t) dt = r(t)ϕk (t) dt = αi,l ϕl (t) + w(t) ϕk (t) dt
0 −∞ −∞ l=1
L
X Z +∞ Z +∞
= αi,l ϕl (t)ϕk (t) dt + w(t)ϕk (t) dt
l=1 −∞ −∞
Z +∞
= αi,k + w(t)ϕk (t) dt
−∞
| {z }
nk
168
donde hemos pasado de la integral en T a la integral en todo R dado que suponemos que ŝi (t) tiene
duración T . Nótese que en la rama k-ésima del banco de correladores no estamos haciendo otra cosa
que aplicar un filtro adaptado a la función base ϕk (t) y muestrear en el máximo de la salida. Como
ϕk (t) va de 0 a T , su filtro adaptado deberá retrasarse como mı́nimo T para que sea causal, ası́ que
será ϕk (T − t) y por lo tanto la salida en el instante t = T valdrá
Z +∞ Z +∞
ϕk (t) ∗ ϕk (T − t) = ϕk (λ)ϕk (T − t + λ) dλ = ϕ2k (λ) dλ (65)
t=T −∞ t=T −∞
No obstante, el ruido juega un papel muy importante que debemos analizar. Ya hemos visto que en
R +∞
cada rama, la contribución de ruido se encuentra en el término nk = −∞ w(t)ϕk (t) dt. También que
la contribución de señal es αi,k . Para poder trabajar de forma más ágil, tendremos en cuenta las M
ramas del correlador a la vez usando notación vectorial, esto es
y = [y1 , y2 , . . . , yL ]T = [αi,1 , αi,2 , . . . , αi,L ]T + [n1 , n2 , . . . , nL ]T = ŝi + n (66)
Lo primero que debemos hacer es ver cómo se distribuye el vector de ruido n. De entrada, po-
demos decir que cada una de sus componentes nk tendrá una distribución gaussiana. A falta de una
demostración formal, sı́ que podemos ver intuitivamente que si interpretamos la integral como una
suma finita, estamos ante la suma de variables con distribución gaussiana e independientes ponderadas
por los valores de ϕk (t) y ya sabemos que la suma de variables gaussianas independientes es también
gaussiana. Veamos los momentos de primer y segundo orden de nk . Para la media tenemos
Z +∞ Z +∞
nk = E{nk } = E w(t)ϕk (t) dt = E{w(t)} ϕk (t) dt = 0 (67)
−∞ −∞ | {z }
0
El término E{w(t)w(t0 )} corresponde a la autocorrelación de w(t) evaluada en t−t0 , esto es, E{w(t)w(t0 )} =
Rw (t − t0 ) = N0 /2 δ(t − t0 ). Aplicando este resultado llegamos a
Z +∞ Z +∞
N0
E{nk nl } = δ(t − t0 )ϕk (t)ϕl (t0 ) dt dt0 (69)
−∞ −∞ 2
Integramos primero en t0 , lo que dará como resultado evaluar el integrando en t0 = t debido a la delta,
esto es
Z +∞ N0 , k = l
N0 2
E{nk nl } = ϕk (t)ϕl (t) dt = (70)
2 −∞ 0, k 6= l
1
Téngase en cuenta también que aquı́ estamos estudiando qué sucede con un sólo sı́mbolo enviado a fin de simplificar
el problema pero que en el caso de enviar una señal completa sólo habrı́a que ir replicando el proceso de recepción.
169
donde hemos aplicado la propiedad de ortonormalidad de las funciones base.
Recopilando lo que hemos visto, podemos afirmar que n está formado por L variables aleatorias
gaussianas de media 0 e incorreladas. Además, como sus componentes provienen de distintas combina-
ciones de un mismo proceso de ruido, el vector n presenta una distribución gaussiana multivariable y
en el caso particular de esta distribución, incorrelación implica independencia. Con todo esto podemos
afirmar que
L L −n2
Y Y 1 2
i
2σn
n ∼ fn (n) = fn1 ,...,nL (n1 , . . . , nL ) = fni (ni ) = √ e i (71)
i=1 i=1
2πσni
Teniendo en cuenta que σn2 k = N0 /2 y aplicando las propiedades de la función exponencial podemos
decir que
L
Y −n2
i
L Y
L −n2 2
||n||2
1 2 1 i 1 − L
P ni
1 − N
fn (n) = √ e 2σni = √ e N0 = e i=1 N0
= e 0 (72)
i=1
2πσni πN0 i=1
(πN0 )L/2 (πN0 )L/2
A continuación usaremos este resultado para ver cuál es la estadı́stica de la señal y a la salida del
banco de correladores.
Conocida la distribución del vector de ruido n y teniendo en cuenta y = ŝi + n según hemos visto
en (66), no resulta difı́cil extraer la estadı́stica de y si sabemos cuál ha sido el sı́mbolo enviado ŝi .
En este caso la distribución de y es la misma que la del ruido pero la media deja de ser el origen de
coordenadas para pasar a ser ŝi , esto es
(yk −αk,i ) 2 2
1 − L
P
1 ||y−ŝ ||
− Ni
fy|ŝi (y|ŝi ) = e k=1 N0 = e 0 (73)
(πN0 )L/2 (πN0 )L/2
Nótese que si lo miramos componente a componente, yk es gaussiana de media αi,k y varianza N0 /2.
Con este resultado ya podemos obtener el estimador ML o de máxima verosimilitud (’maximum like-
lihood’ en inglés). Dicho estimador usa la función de probabilidad de la señal recibida condicionada al
parámetro que queremos estimar, en este caso el sı́mbolo emitido que denotaremos ŝm . Este parámetro
debe interpretarse como determinista aunque desconocido para nosotros. Entonces el estimador ML
busca, de entre todos los parámetros posibles (en este caso los M sı́mbolos de la modulación), cuál es
más verosı́mil. Matemáticamente lo expresamos como
||y−ŝm ||2
ˆ 1 −
ŝ = argmax {fy|ŝm (y|ŝm )} = argmax e N 0 = argmin {||y − ŝm ||} (74)
ŝm ŝm (πN0 )L/2 ŝm
El concepto verosı́mil debe distinguirse de la idea de probable. Aquı́ no estamos diciendo que ŝˆ sea el
sı́mbolo que ha sido transmitido con mayor probabilidad, sino el sı́mbolo que más nos convence a la
luz de y únicamente. Para poder decidir qué sı́mbolo ha sido transmitido con mayor probabilidad, de-
berı́amos conocer también sus probabilidades de transmisión. Para ilustrarlo con un ejemplo sencillo,
170
imaginemos que se transmiten dos sı́mbolos ŝ1 y ŝ2 , el primero con probabilidad 99,9 % y el segundo
con probabilidad 0,01 %. Bajo esta condición, recibimos un vector y que se encuentra más próximo
a ŝ2 que a ŝ1 . Como hemos visto en la formulación anterior, la distancia entre y y cada uno de los
sı́mbolos posibles es lo que determina su verosimilitud. Volviendo al ejemplo, el segundo sı́mbolo es
más verosı́mil que el primero pero muy probablemente se haya transmitido el primero, caso en el que
la decisión ML nos darı́a error. No obstante, cuando los sı́mbolos transmitidos son equiprobables, el
estimador ML es óptimo. En caso contrario, deberı́amos recurrir al estimador ’Maximum a Poste-
riori’ (MAP) que trabaja con fŝm |y (ŝm |y). Con esta información sı́ que podrı́amos decidir cuál es el
sı́mbolo más probable de haber sido transmitido una vez recibimos y, pero en este curso vemos sólo
el estimador ML.
Con esto ya podemos completar el esquema de receptor óptimo, que es el el que podemos ver en la
siguiente figura. Después del banco de correladores que nos permite obtener el vector y, aplicamos
un bloque comparador donde se calcula la distancia de y respecto de cada uno de los sı́mbolos de la
modulación y tiene por lo tanto L entradas y M salidas. Por último, escogemos el sı́mbolo que más
verosı́mil parece.
! T ||y − ŝ1 ||
( · ) dt
0
ϕ1 (t)
! ||y − ŝ2 ||
COMPARADOR
T
( · ) dt
0
ARGMIN
r(t) ϕ2 (t) ŝˆ
! T ||y − ŝM ||
( · ) dt
0
ϕL (t)
5. Probabilidad de error
El último punto de este tema lo dedicaremos al cálculo de la probabilidad de error, que puede ser de
sı́mbolo o de bit como en la señal PAM digital. Lo primero que hay que ver, como entonces, es cuando
nos podemos equivocar de sı́mbolo debido a la contribución del ruido. Para ello supondremos que
trabajamos con el receptor que acabamos de ver (figura anterior) y seguiremos empleando el mismo
modelo vectorial para la señal a la salida de los correladores, es decir, y = ŝi + n.
171
Empecemos con el ejemplo de la siguiente figura, donde hemos dibujado la constelación de sı́mbolos de
una modulación 4QAM (posibles sı́mbolos emitidos) junto con el valor y recibido. En este caso, como
el sı́mbolo más próximo a y es ŝ1 , el estimador ML nos dirá ŝˆ = ŝ1 . Si realmente se ha transmitido el
sı́mbolo 1 no ha habido error; en caso contrario sı́.
4QAM
ϕ2 (t)
ŝ2 ŝ1
ŷ
ϕ1 (t)
ŝ4 ŝ3
En lo que sigue, trataremos primero los casos binarios y luego nos centraremos en los casos M-arios.
Casos binarios
Supondremos que trabajamos únicamente con una función base ϕ1 (t) de forma que los dos sı́mbolos
transmitidos se situarı́an sobre esta base como muestra la figura siguiente. Esta situación aplica a
todos los casos binarios excepto en 2FSK, donde habrı́a que considerar dos funciones base (una para
cada frecuencia). El análisis de la probabilidad se complica en términos de cálculo y además debe
considerarse la posible memoria de la modulación (p.ej. en la implementación CPFSK), ası́ que en este
curso nos centraremos en el resto de casos.
ŝ2 ŝ1
y ϕ1 (t)
172
repitiendo los cálculos hechos cuando evaluamos la señal PAM digital, tenemos
Z +∞ Z +∞ 2
1 − n2
P (e|ŝ1 ) = P (y > ŝ1 + d/2) = P (n > d/2) = fn (n) dn = p e n dn
2σ (77)
d/2 d/2 2πσn2
R +∞ λ 2
Si lo expresamos a través de la función Q(x) = √1 e− 2 dλ al igual que hicimos en el tema 7
x 2π
(apartado 4) nos queda
s ! s
d d2 d2
P (e|ŝ1 ) = Q =Q = Q (78)
2σn 4σn2 2N0
E1 +E2
Finalmente, usando el resultado de (53) y teniendo en cuenta que Eb = Ēs = 2 ya que b = 1,
llegamos a d2 = 2Eb − 2E1,2 y podemos escribir la probabilidad de error como
r !
Eb − E1,2
Pb = Pe = Q (82)
N0
Ejemplo 1: BPSK
En 2PSK, más conocida como BPSK, tenemos los dos siguientes sı́mbolos posibles correspondientes a
transmitir con fases φ0 = 0 y φ0 = π, esto es
173
Para calcular la probabilidad de error calculamos
Z +∞ Z +∞
E1,2 = ŝ1 (t)ŝ2 (t) dt = − ŝ21 (t) dt = −E1 = −Eb (87)
−∞ −∞
donde la última igualdad viene dada por el hecho de que E1 = E2 en este caso. Ası́ pues, nos queda
r !
2Eb
BER = Pb = Pe = Q (88)
N0
Ejemplo 2: OOK
En 2ASK, más conocida como OOK, tenemos dos sı́mbolos con amplitud 0 y Ac , respectivamente. Los
dos sı́mbolos posibles son
y la base es la misma que en el caso anterior. En forma vectorial los sı́mbolos son
r
T
ŝ1 = Ac (91)
2
ŝ2 = 0 (92)
Nótese que con el mismo valor de Eb /N0 la modulación BPSK tiene menor BER que la modulación
√
OOK. Esto es debido a que transmitiendo la misma potencia, la distancia entre sı́mbolos es 2 veces
mayor en BPSK.
174
Casos M-arios
En los casos M-arios, al igual que sucedı́a con la señal PAM digital, deberemos tener en cuenta más
de una posibilidad de error para cada sı́mbolo transmitido. Aquı́ trataremos un ejemplo concreto
(4QAM) para ver la mecánica de cálculo de la Pe . Luego veremos la probabilidad de error en M-QAM
y trataremos por encima la de M-PSK.
ϕ2 (t)
ŝ2 d ŝ1
d
ϕ1 (t)
ŝ4 ŝ3
d2 Ēs d2
Ēs = , Eb = = (99)
2 b 4
El cálculo de la probabilidad de error deberá hacerse como siempre, esto es
y en general habrá que estudiar cada caso por separado (aunque a menudo existen simetrı́as y muchos
de los casos se repiten). Empecemos por el término P (e|ŝ4 ) donde el señal recibido será y = ŝ4 + n.
Como vemos en la siguiente figura, tendremos error siempre que el vector de ruido nos haga desplazar
a la zona sombreada.
175
ϕ2 (t)
ŝ2 ŝ1
ϕ1 (t)
ŝ4 ŝ3
Teniendo en cuenta que n = [n1 , n2 ]T , podemos calcular la probabilidad de error para ŝ4 de dos formas
equivalentes: i) viendo la probabilidad de caer en la zona de error o bien ii) viendo la probabilidad de
caer en la zona de detección correcta y considerar Pe = 1 − Pd . Consideremos la primera opción, con
lo que tendremos
Si nos fijamos en la siguiente figura donde se dibuja cada una de las zonas que se han tenido en cuenta,
vemos que el primer cuadrante se ha tenido en cuenta dos veces con los dos primeros sumandos y es
por eso que hay que restar la probabilidad de dicha zona.
P (e|ŝ4 ) = P (n1 > d/2) + P (n2 > d/2) − P (n1 > d/2)P (n2 > d/2) (102)
d d d d
= Q +Q −Q Q
2σn1 2σn2 2σn1 2σn2
p
y teniendo en cuenta que σn1 = σn2 = N0 /2 junto con Eb = d2 /4 llegamos a
r ! r !
2Eb 2 2Eb
P (e|ŝ4 ) = 2Q −Q (103)
N0 N0
176
Alternativamente, podemos escoger la segunda opción (Pe = 1 − Pd ) y calcular
P (e|ŝ4 ) = 1 − P (y1 < 0, y2 < 0) = 1 − P (n1 < d/2, n2 < d/2) (104)
d d
= 1 − P (n1 < d/2)P (n2 < d/2) = 1 − 1 − Q 1−Q
2σn1 2σβ2
r !! r !!
2Eb 2Eb
= 1− 1−Q 1−Q
N0 N0
r ! r !
2Eb 2Eb
= 2Q − Q2
N0 N0
Por último y suponiendo sı́mbolos equiprobables obtenemos una probabilidad de error de sı́mbolo, a
veces también denominada SER (’Symbol Error Rate’), de
4 r ! r !
1X 2Eb 2 2Eb
Pe = P (e|ŝi ) = 2Q −Q (105)
4 N0 N0
i=1
q
2Eb
Además, si Eb /N0 es suficientemente grande podremos considerar Q2 N0 despreciable, ası́ que la
Pe en M-PAM será r !
2Eb
Pe ≈ 2Q (106)
N0
y en caso de usar codificación Gray la BER será
r !
Pe 2Eb
Pb ≈ ≈Q (107)
2 N0
Nótese que la Pb obtenida es la misma que en BPSK para una misma relación Eb /N0 y también
para una misma distancia entre sı́mbolos. Aquı́ nos beneficiamos del hecho de transmitir en dos bases
ortogonales aventajando en todo a la modulación BPSK salvo en complejidad de hardware.
Consideremos de entrada el caso 16-QAM que ya tratamos y que podemos ver en la siguiente figura.
En este caso hay que considerar 4 tipos distintos de sı́mbolos en términos de error y que han sido
marcados en distinto color en la figura. Nótese que dentro de cada grupo, la distancia del sı́mbolo
al origen, el número de sı́mbolos que lo rodean y la distancia a estos últimos es la misma. Ası́ pues,
los sı́mbolos ŝ1 , ŝ2 y ŝ4 son representativos de todos los sı́mbolos posibles de la modulación. Téngase
en cuenta que en la figura se ha marcado la zona de detección correcta del sı́mbolo ŝ1 y que las
zonas correspondientes a ŝ2 y ŝ4 son cada vez mayores. Si queremos hacer el cálculo exacto de la Pe
deberemos estudiar cada caso por separado como hemos hecho en el ejemplo anterior y, suponiendo
sı́mbolos equiprobables, calcular la Pe como
1
Pe = (4P (e|ŝ1 ) + 8P (e|ŝ2 ) + 4P (e|ŝ4 )) (108)
16
177
ϕ2 (t)
ŝ8 ŝ7 ŝ3 ŝ4
ϕ1 (t)
ŝ13 ŝ14 ŝ9 ŝ10
Como habrı́a que repetir este cálculo para cada posible M , aquı́ lo que haremos será hacer una
aproximación que nos permita trabajar de forma más ágil. En concreto, interpretaremos la modulación
√
M-QAM como si se tratase de dos modulaciones PAM digitales de M sı́mbolos sobre las bases ϕ1 (t)
y ϕ2 (t) como muestra la siguiente figura, es decir, sobre la base ϕ1 (t) consideraremos que la señal
recibida es y1 = αi,1 + n1 e, independientemente, sobre la base ϕ2 (t) consideraremos que la señal
recibida es y2 = αi,2 + n2 .
ϕ2 (t)
ϕ2 (t)
ŝ8 ŝ7 ŝ3 ŝ4
Pe ≈ 1 − Pdϕ1 (t) Pdϕ2 (t) = 1 − (1 − Peϕ1 (t) )(1 − Peϕ2 (t) ) (109)
donde Pdϕi (t) y Peϕi (t) representan la probabilidad de detección correcta e incorrecta en la i-ésima base,
respectivamente. Desarrollando un poco más llegamos a
Pe ≈ Peϕ1 (t) + Peϕ2 (t) − Peϕ1 (t) Peϕ2 (t) ≈ Peϕ1 (t) + Peϕ2 (t) = 2Peϕi (t) (110)
donde la última aproximación supone que ambas Peϕi (t) tienen un valor muy pequeño y la última igual-
dad que Peϕ1 (t) = Peϕ2 (t) . Ahora recordando que la Pe de la PAM digital M-aria es Pe = 2(MM−1) Q 2σdn
(ver tema 7, apartado 4) y aplicado al caso que nos ocupa obtenemos
√ s !
4( M − 1) d2
Pe ≈ √ Q (111)
M 4σn2
Por último, nos interesarı́a expresar Pe en función de Eb /N0 . Ya sabemos que σn2 = N0 /2, ası́ que
nos falta expresar d2 en función de Ēs primero y luego Eb . Para ello consideramos la representación
178
vectorial de los sı́mbolos en función de la distancia d entre ellos. Por ejemplo, para el caso 16QAM
(ver figura anterior) tendrı́amos por ejemplo
ŝ1 = [d/2, d/2]T , ŝ2 = [3d/2, d/2]T , ŝ4 = [3d/2, 3d/2]T (112)
y si nos fijamos en cada una de los componentes de los sı́mbolos por separado (considerando el conjunto
de los M sı́mbolos posibles) vemos que tenemos los valores correspondientes a una señalización M-aria
√
polar donde d juega el papel de ∆ y con M valores en cada componente. Del tema 7 (apartado
2
4) sabemos que la varianza del conjunto de valores vale σa2 = M12−1 ∆2 . Sustituyendo ∆ por d y M
√
por M vemos que la varianza en cada componente de la modulación M-QAM vale M12−1 d2 . Como
la media es nula, varianza equivale a la media de los valores al cuadrado, justo lo que necesitamos
para obtener la energı́a media de sı́mbolo. Únicamente falta tener en cuenta que un sı́mbolo M-QAM
está formado por dos componentes independientes, ası́ que hay que multiplicar el resultado anterior
por 2, con lo que llegamos a
M −1 2 M −1 2
Ēs = 2 d = d (113)
12 6
Ahora teniendo en cuenta que Eb = Ēs / log2 M ya podemos escribir
M −1 2 Eb 6 log2 M
Ēb = d −→ d2 = (114)
6 log2 M M −1
Esto ya nos permite representar Pe en función de Eb /N0 como pretendı́amos, esto es
√ s ! √ s !
4( M − 1) Eb 6 log2 M 2 4( M − 1) 3Eb log2 M
Pe ≈ √ Q = √ Q (115)
M 4(M − 1)N0 M (M − 1)N0
En el caso de M-PSK los sı́mbolos (interpretados como vectores) presentan todos el mismo módulo y
lo que cambia es su fase, que vale
2π π
φi = (i − 1) + , i = 1, . . . , M (117)
M M
En la siguiente figura podemos ver la constelación de sı́mbolos y la zona de detección correcta para
el primer sı́mbolo sombreada. Vemos que dicha zona deja de ser rectangular y alineada con los ejes
como sucedı́a en M-QAM. Como siempre, debemos calcular la probabilidad de que el ruido (en sus
dos componentes) nos lleve fuera de dicha zona. No obstante, es evidente que el cálculo se complica.
Aunque no lo haremos aquı́, hay que trabajar en coordenadas polares para acabar obteniendo, a partir
de la distribución del ruido, la función densidad de probabilidad de la fase del vector recibido y, esto
es fφ (φ). Entonces para el primer sı́mbolo, por ejemplo, se calcuları́a P (e|ŝ1 ) haciendo
Z 2π/M
P (e|ŝ1 ) = 1 − fφ (φ) dφ (118)
0
179
ϕ2 (t)
! π
ŝ1 = Ēs ej M
! d
Ēs ϕ1 (t)
y como la probabilidad de error es idéntica para todos los sı́mbolos (ver figura) llegamos a
s r !
2Ēs π 2E b log M π
Pe ≈ 2Q sin = 2Q 2
sin (120)
N0 M N0 M
Por último, nótese que en este caso se cumple que (ver figura)
d p π
= Ēs sin (122)
2 M
y la probabilidad de error acaba siendo
d
Pe = 2Q (123)
2σn
d
es decir, la misma que en M-QAM salvo por el factor 2. Por lo tanto queda claro que la relación 2σn
es determinante en la probabilidad de error de las modulaciones digitales (salvo en MFSK).
3
Se puede consultar en A.B. Carlson, “Sistemas de Comunicaciones”, sección 14.4.
180