PFC Pablo Pisonero

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 117

UNIVERSIDAD CARLOS III DE MADRID

ESCUELA POLITÉCNICA SUPERIOR


Departamento de Teoría de la Señal y Comunicaciones

PROYECTO FIN DE CARRERA


DE INGENIERÍA DE TELECOMUNICACIONES

TÉCNICAS CIEGAS DE DETECCIÓN PARA


SISTEMAS MIMO

Autor: PABLO PISONERO OVILO


Director: JOAQUÍN MÍGUEZ ARENAS
Madrid, Enero de 2012
Proyecto: Técnicas Ciegas de Detección para Sistemas MIMO.

Tipo de proyecto: Proyecto de Fin de Carrera.

Autor: Pablo Pisonero Ovilo.

Director: Joaquín Míguez Arenas.

Fecha de lectura: 9 de Enero de 2012.

Calificación:

Tribunal

Presidente: Ángel Bravo Santos.

Secretario: Luca Martino.

Vocal: Elisa Molanes López.

iii
iv
Agradecimientos
A mi familia, mis padres y mi hermano, sin los cuales no sería la persona
que he llegado a ser.
A mis amigos y toda la gente que ha estado al lado mío a lo largo de los
años ofreciendo apoyo, Laura, Sandra, Susana, Belén, María, Rubén, Sergio,
Jose, Jaime, Miguel, Javi...
A Joaquín, por su paciencia a lo largo del tiempo para permitirme acabar
este proyecto.

v
vi
Resumen
Los sistemas MIMO (Multiple Input Multiple Output) han surgido como
un nuevo paradigma dentro del ámbito tecnológico de las comunicaciones
inalámbricas, prometiendo dar respuesta a la necesidad creciente de altas
velocidades de trasferencia de datos junto con una mayor eficiencia espectral
de transmisión. La desventaja de estos sistemas es su mayor complejidad
de procesamiento digital y la multiplicación de los recursos hardware de
radiofrecuencia.
A lo largo de este proyecto proporcionamos una visión general de los
sistemas de comunicaciones MIMO, destacando aquellas características que
les diferencian de los sistemas tradicionales de comunicaciones inalámbricas.
Posteriormente nos centramos en el análisis de un conjunto de técnicas
lineales de detección para receptores MIMO, tanto semiciegas como ciegas,
ya presentadas por distintos investigadores, lo que nos ayuda al desarrollo de
una nueva técnica lineal ciega de detección que mejore algunas características.
Adicionalmente, proponemos una técnica de ordenación y sincronización
temporal de flujos de datos detectados para estos sistemas. Llevamos también
a cabo un conjunto de pruebas sobre estos algoritmos mediante simulaciones
numéricas para evaluar su rendimiento comparado. Finalmente, exponemos
las conclusiones del trabajo realizado y proponemos futuras líneas de trabajo
que pueden ser abordadas.

vii
viii
Índice general

Lista de figuras xi

Lista de tablas xiii

1. Introducción 1
1.1. Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4. Organización de la memoria . . . . . . . . . . . . . . . . . . . 4

2. Comunicaciones en sistemas MIMO 5


2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2. Modelo de señal . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.1. Modelado de canal . . . . . . . . . . . . . . . . . . . . 6
2.2.2. Función de transferencia . . . . . . . . . . . . . . . . . 9
2.3. Capacidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3.1. Expresiones de la capacidad . . . . . . . . . . . . . . . 10
2.3.2. Multiplexado espacial y solución óptima . . . . . . . . 11
2.4. Diversidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.1. Diversidad en recepción . . . . . . . . . . . . . . . . . 13
2.4.2. Diversidad en transmisión y codificación espacio-
temporal . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5. Diseño de sistemas MIMO . . . . . . . . . . . . . . . . . . . . 15
2.5.1. Arquitectura de sistemas MIMO . . . . . . . . . . . . . 15
2.5.2. Aspectos de diseño . . . . . . . . . . . . . . . . . . . . 17

3. Revisión de técnicas de detección para sistemas MIMO 19


3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2. Arquitectura y modelo de señal . . . . . . . . . . . . . . . . . 20
3.3. Detección óptima de máxima verosimilitud . . . . . . . . . . . 25
3.4. Técnicas semiciegas de detección . . . . . . . . . . . . . . . . 29
3.4.1. Detección semiciega basada en el principio de máxima
verosimilitud . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.2. Detección semiciega basada en CMA . . . . . . . . . . 35

ix
3.5. Técnicas ciegas de detección . . . . . . . . . . . . . . . . . . . 42
3.5.1. Detección ciega iterativa basada en CMA . . . . . . . . 42
3.5.2. Detección ciega paralela basada en CMA . . . . . . . . 47

4. Técnica ciega de detección MIMO de máxima verosimilitud


con correlaciones cruzadas 51
4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2. Arquitectura y modelo de señal . . . . . . . . . . . . . . . . . 52
4.3. Función de verosimilitud regularizada . . . . . . . . . . . . . . 53
4.4. Inicialización . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.5. Algoritmo de búsqueda . . . . . . . . . . . . . . . . . . . . . . 58
4.6. Superficie de verosimilitud regularizada . . . . . . . . . . . . . 62
4.7. Sincronización de flujos de datos . . . . . . . . . . . . . . . . . 63

5. Simulaciones y análisis 67
5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.2. Simulaciones y análisis de la técnica de detección MV-CC . . . 68
5.3. Simulaciones y análisis de la técnica de ordenación y
sincronización . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.4. Simulaciones y análisis comparativos de las técnicas de detección 85

6. Conclusiones 95
6.1. Resultados del proyecto . . . . . . . . . . . . . . . . . . . . . . 95
6.2. Líneas futuras de trabajo . . . . . . . . . . . . . . . . . . . . . 98

A. Glosario 99

Bibliografía 101

x
Índice de figuras

2.1. Modelo de canal MIMO N ×M . . . . . . . . . . . . . . . . . 6


2.2. Canal MIMO degenerado . . . . . . . . . . . . . . . . . . . . . 8
2.3. Capacidades de canal para sistemas SISO, MISO, SIMO y MIMO 10
2.4. Arquitectura de sistema MIMO monousuario . . . . . . . . . . 15
2.5. Arquitectura de sistema MIMO multiusuario . . . . . . . . . . 15

3.1. Arquitectura MIMO para técnicas de detección . . . . . . . . 20


3.2. Canales SISO para filtrado y suavizado . . . . . . . . . . . . . 21
3.3. Diagrama trellis para sistemas SISO . . . . . . . . . . . . . . . 26
3.4. Diagrama trellis para sistemas MIMO . . . . . . . . . . . . . . 27
3.5. Función de densidad de probabilidad de señales QPSK
procesadas para canal igualado . . . . . . . . . . . . . . . . . 31
3.6. Función de densidad de probabilidad de señales QPSK para
canal no igualado . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.7. Constelaciones para CMA . . . . . . . . . . . . . . . . . . . . 36
3.8. Proceso de detección iterativa . . . . . . . . . . . . . . . . . . 43
3.9. Proceso de detección paralela . . . . . . . . . . . . . . . . . . 47

4.1. Arquitectura de la técnica de detección MV-CC . . . . . . . . 52


4.2. Correlaciones para secuencias de datos . . . . . . . . . . . . . 54
4.3. Sensibilidad de los términos CDP y CM AX . . . . . . . . . . . 55
4.4. Correlaciones con umbral β para secuencias de datos . . . . . 56
4.5. Proceso de búsqueda original . . . . . . . . . . . . . . . . . . . 60
4.6. Proceso de búsqueda modificado . . . . . . . . . . . . . . . . . 61
4.7. Correlaciones con secuencias de sincronización . . . . . . . . . 64
4.8. Correlaciones con secuencias de sincronización procesadas . . . 65

5.1. Evolución de suavizadores según la inicialización . . . . . . . . 68


5.2. Probabilidad de superación de β . . . . . . . . . . . . . . . . . 71
5.3. Probabilidad de error de símbolo de la técnica MV-CC según
la longitud de los suavizadores . . . . . . . . . . . . . . . . . . 74
5.4. Probabilidad de error de símbolo de la técnica MV-CC según
PCC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.5. Superficie de verosimilitud . . . . . . . . . . . . . . . . . . . . 78

xi
5.6. Superficie de verosimilitud regularizada . . . . . . . . . . . . . 78
5.7. Eficiencia de la técnica de ordenación y sincronización de flujos 79
5.8. Sensibilidad según la longitud de la secuencia de sincronización 80
5.9. Probabilidad de un falso positivo según el umbral normalizado 80
5.10. Probabilidad de un falso negativo según la probabilidad de
error de símbolo . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.11. Rendimiento de la técnica según la SER y umbrales . . . . . . 83
5.12. Rendimiento de la técnica según la SER, umbrales y NSIN C . 84
5.13. Tasa de error de símbolo MIMO 2×3 y P = 1 . . . . . . . . . 85
5.14. Tasa de error de símbolo MIMO NLOS 2×3 y P = 2 . . . . . 86
5.15. Tasa de error de símbolo MIMO NLOS 2×3 y P = 3 . . . . . 86
5.16. Tasa de error de símbolo MIMO NLOS 2×4 y P = 1 . . . . . 87
5.17. Tasa de error de símbolo MIMO NLOS 2×4 y P = 2 . . . . . 88
5.18. Tasa de error de símbolo MIMO NLOS 2×4 y P = 3 . . . . . 88
5.19. Tasa de error de símbolo MIMO NLOS 3×4 y P = 1 . . . . . 89
5.20. Tasa de error de símbolo MIMO NLOS 3×4 y P = 2 . . . . . 89
5.21. Tasa de error de símbolo MIMO NLOS 3×4 y P = 3 . . . . . 90
5.22. Tasa de error de símbolo MIMO LOS 2×3, P = 2 y K = 10 . 90
5.23. Tasa de error de símbolo MIMO LOS 2×3, P = 2 y K = 30 . 91
5.24. Tasa de error de símbolo MIMO LOS 2×3, P = 2 y K = 50 . 91
5.25. Complejidad temporal de las técnicas de detección según la
configuración de antenas . . . . . . . . . . . . . . . . . . . . . 92
5.26. Complejidad temporal de las técnicas de detección según la
relación señal a ruido . . . . . . . . . . . . . . . . . . . . . . . 93
5.27. Complejidad temporal de las técnicas de detección según la
longitud equivalente del canal P . . . . . . . . . . . . . . . . . 94

xii
Índice de cuadros

4.1. Pseudocódigo de la técnica MV-CC . . . . . . . . . . . . . . . 59


4.2. Pseudocódigo de la técnica de sincronización y ordenación . . 66

5.1. Análisis comparativo de técnicas de inicialización . . . . . . . 69


5.2. Comportamiento de la técnica MV-CC . . . . . . . . . . . . . 72
5.3. Análisis comparativo de técnicas de búsqueda . . . . . . . . . 73
5.4. Análisis comparativo de la complejidad de la técnica MV-CC
según PCC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

xiii
Capítulo 1

Introducción

1.1. Historia

La historia de las radiocomunicaciones comienza a mediados del siglo


XIX cuando se llevaron a cabo los primeros experimentos de transmisión
inalámbrica. Sin embargo, no fue hasta 1864 cuando James C. Maxwell
presentó la versión definitiva de las ecuaciones que regían los fenómenos
electromagnéticos y proporcionaba un marco teórico completo para el
desarrollo de este campo. Posteriormente, las aplicaciones desarrolladas
por científicos e ingenieros como Hertz, Marconi, Tesla o Popov sentaron
las bases prácticas para el desarrollo consecuente. Durante decenios, la
transmisión y procesamiento analógico fueron la base de este área, con todas
sus características y limitaciones. La llegada de la tecnología digital a este
campo, a finales del siglo XX, supuso un punto de inflexión con el desarrollo
de nuevas técnicas de modulación y de procesamiento de señales, dotando de
una mayor versatilidad y prestaciones a los sistemas de radiocomunicaciones.
Dentro del campo de las radiocomunicaciones, podemos hacer una
primera clasificación de sistemas atendiendo a las condiciones de propagación:
Radioenlaces Fijos. Enlaces de radiocomunicaciones cuyos transmisores y
receptores están espacialmente fijos. El diseño de radioenlaces terrestres
fijos es un área tradicional de aplicación que cuenta con una metodología
y unos algoritmos de diseño ya asentados y estandarizados y que se basan
principalmente en conseguir un enlace de visión directa entre transmisor y
receptor, minimizando el multitrayecto, a la vez que se tienen en cuenta de
forma estadística las inclemencias meteorológicas. Como ejemplo de estos
sistemas podemos citar la distribución de TV y radio (punto-multipunto) y
los enlaces de datos (punto-punto).

1
Radioenlaces Satelitales. Enlaces de radiocomunicaciones en los que
intervienen satélites artificiales, en distintas órbitas alrededor del globo
terráqueo, con equipos específicos de comunicaciones y en los cuales puede
existir un movimiento relativo entre transmisor y receptor. El diseño de
radioenlaces satelitales es complejo, en cuanto a los requerimientos de
potencias y sensibilidades de los equipos transmisores y receptores, debido a
las enormes distancias que deben ser salvadas; sin embargo, el multitrayecto
no suele ser un problema grave debido a los altos ángulos de elevación
entre terminales y satélites. Como ejemplo de estos sistemas podemos citar
la difusión de contenidos y comunicaciones entre puntos alejados del globo
mediante satélites en órbita geoestacionaria y la telefonía móvil por medio
de satélites en órbita baja.
Radioenlaces Móviles. Enlaces de radiocomunicaciones en los que el
transmisor, el receptor o ambos pueden estar en movimiento y localizados
en emplazamientos no óptimos desde el punto de vista de propagación. El
diseño de los sistemas de comunicaciones móviles es complejo en tanto que
no se dispone de un modelo determinista para las condiciones de propagación
y que el multitrayecto presente es en general muy fuerte y complejo. Como
ejemplo de estos sistemas podemos citar la telefonía celular (GSM, UMTS)
o redes inalámbricas de acceso a datos (WiMax,WiFi).
Tradicionalmente, la transmisión de señales en estos sistemas
anteriormente expuestos se ha realizado a través de una única antena en
transmisión y una única antena en recepción por lo que se han denominado
sistemas SISO (Single Input Single Output), disponiendo entonces de un
modelo equivalente sencillo de sistema de comunicaciones. Sin embargo, en
los últimos años, diversos estudios y trabajos han demostrado las grandes
ventajas disponibles de establecer varias antenas tanto en el transmisor como
en el receptor trabajando simultáneamente en la misma banda de frecuencias
y tiempo, lo que junto al desarrollo de técnicas especiales de codificación
y tratamiento de señales se ha plasmado en la aparición de los sistemas
MIMO (Multiple Input Multiple Output) [1]. Estos sistemas se aprovechan
de las condiciones de propagación presentes en el medio para conseguir un
rendimiento, en términos de capacidad o probabilidad de error, que puede
ser muy superior al de los sistemas convencionales, a costa por supuesto de
una mayor complejidad [1].
Los sistemas MIMO aparecen a día de hoy como una de las tecnologías
más prometedoras dentro del área de las comunicaciones inalámbricas por el
alto rendimiento alcanzable. La historia de los sistemas MIMO se remonta
a los últimos 15 años, durante los cuales se ha pasado por la fase de
concepción, desarrollo teórico y validación experimental (en curso todavía) e
implementación comercial.

2
1.2. Motivación

La tendencia, en el ámbito de las comunicaciones, es proporcionar


unos contenidos personalizados al consumidor, independientemente de
su localización, permitiendo además su movilidad, lo cual requiere el
uso de tecnologías inalámbricas. Por lo tanto, el uso de servicios de
radiocomunicaciones se ha visto multiplicado en los últimos 20 años debido
a la incorporación a los usos tradicionales (difusión, enlaces y sistemas como
PMR) de los nuevos servicios personales (multimedia, datos...).
Por otra parte, el espectro electromagnético es un recurso natural y
limitado, del cual depende una cantidad ingente de aplicaciones y servicios
y que, por lo tanto, debe ser gestionado eficientemente para un correcto
funcionamiento, tarea que llevan a cabo distintos organismos internacionales
(ITU, ETSI) como nacionales (CNAF). Las limitaciones de uso del espectro
electromagnético son fundamentales por las restricciones que impone a nivel
técnico a los sistemas de comunicaciones radio.
Por lo tanto, es imprescindible que, desde un punto de vista tecnológico,
se desarrollen nuevas técnicas que sean capaces de satisfacer la creciente
demanda de servicios inalámbricos mediante un uso eficiente del espectro
electromagnético. Los sistemas MIMO aparecen como un nuevo paradigma
capaz de aunar ambos objetivos en ciertos entornos.

1.3. Objetivos

Los objetivos del presente proyecto de fin de carrera son los siguientes:

Proporcionar una visión general de los sistemas MIMO, así como sus
aspectos más relevantes.

Llevar a cabo el estudio y la simulación numérica de ciertas técnicas,


ya existentes, semiciegas (con presencia de símbolos pilotos) y ciegas
(sin presencia de símbolos piloto) de detección para sistemas MIMO.

Llevar a cabo el estudio, desarrollo y simulación numérica de una nueva


técnica ciega de detección para sistemas MIMO.

Llevar a cabo el estudio, desarrollo y simulación numérica de una


técnica de sincronización de flujos de datos en sistemas MIMO.

Realizar una comparativa entre las distintas técnicas de detección,


extraer conclusiones y proponer posibles líneas futuras de trabajo.

3
1.4. Organización de la memoria

El primer capítulo ha expuesto una presentación general de este proyecto


de fin de carrera, detallando la motivación del mismo, así como sus objetivos
y estructura.
El segundo capítulo da una visión general de los sistemas de
comunicaciones MIMO, analizando aquellas características que los definen a
nivel teórico y de diseño y dando las referencias bibliográficas adecuadas para
un estudio más detallado. De esta manera se proporciona el marco adecuado
para el desarrollo del resto de la memoria del proyecto.
El tercer capítulo está dedicado al estudio de un conjunto de
técnicas semiciegas y ciegas de detección ya existentes para sistemas de
comunicaciones MIMO, de forma que, para cada una de ellas, se explica
su principio de funcionamiento y las expresiones matemáticas asociadas.
El cuarto capítulo se centra en primer lugar en el estudio y desarrollo de
una nueva técnica ciega de detección para sistemas de comunicaciones MIMO
que, basándose en las anteriores, mejora algunos aspectos de funcionamiento
y rendimiento. En segundo lugar, se presenta una sencilla técnica de
sincronización para los flujos de datos detectados en un receptor MIMO.
El quinto capítulo está centrado en la comparativa entre las distintas
técnicas de detección, las ya existentes y la desarrollada en este proyecto. Se
llevan a cabo diferentes simulaciones numéricas para comparar el rendimiento
de las técnicas en distintos escenarios.
El sexto capítulo está dedicado a la exposición de las conclusiones
y proposición de futuras líneas de trabajo, basándose en los resultados
obtenidos a lo largo del proyecto.

4
Capítulo 2

Comunicaciones en sistemas
MIMO

2.1. Introducción

Los antecedentes teóricos y prácticos de los sistemas de comunicaciones


MIMO pueden situarse en los ya clásicos conceptos de diversidad (tanto en
transmisión como en recepción) y conformado de haz (beamforming). Sin
embargo, una serie de trabajos realizados en los años 90 sentaron las bases
teóricas de esta tecnología; en particular, el trabajo de A. J. Paulraj y T.
Kailath [2] que introdujo el concepto de multiplexado espacial, los trabajos de
I. E. Telatar [3], G. J. Foschini y M. J. Gans [4] que analizaron el incremento
sustancial de la capacidad del canal MIMO respecto al tradicional SISO y
los trabajos de V. Tarokh y A. R. Calderbank [5, 6] que sentaban las bases
para el diseño de códigos adecuados para transmisión. Se pueden encontrar
también tutoriales que ofrecen una perspectiva histórica y tecnológica de los
sistemas MIMO [7, 8].
Actualmente, la tecnología MIMO es ya una realidad. Diversas empresas
han realizado ya aplicaciones comerciales, tales como Iospan Wireless Inc.,
Samsung, Runcom Technologies. Así mismo, la tecnología MIMO ha sido
incluida dentro de diversos estándares, tales como telefonía móvil (3G-
HSDPA), redes locales (IEEE 802.11n) y de área extensa (IEEE 802.16).
A lo largo de este capítulo damos una descripción general de los sistemas
MIMO, así como de sus características más relevantes, que los hacen
diferentes de los sistemas de comunicaciones inalámbricas tradicionales.
Mostramos las ventajas proporcionadas, así como las dificultades y
compromisos de diseño a los que hay que enfrentarse.

5
2.2. Modelo de señal

2.2.1. Modelado de canal

Definimos un canal radioeléctrico MIMO N ×M como aquel establecido


en un sistema de comunicaciones que consta de N antenas transmisoras y
M antenas receptoras, transmitiendo todas al mismo tiempo y en la misma
banda de frecuencias.

Figura 2.1: Modelo de canal MIMO N ×M

Tal como se aprecia en la Figura 2.1, y de forma general, se establecen


un total de N M subcanales de comunicaciones entre las N antenas del
transmisor y las M antenas del receptor, por lo que una descripción adecuada
del canal MIMO (en tiempo discreto y banda base) puede ser dada de forma
matricial [1], tal como mostramos a continuación:

 
h11 h12 ... h1N
 h21 h22 ... h2N 
 
H= .. .. ... .. . (2.1)
 . . . 
hM 1 hM 2 . . . hM N

Cada una de las entradas hji de la matriz H define el subcanal de


comunicaciones entre la antena i-ésima de transmisión y la antena j -ésima
de recepción del canal MIMO N × M . Consideramos que cada una de
las entradas hji representa un canal de comunicaciones complejo con un
multitrayecto tal que la dispersión del retardo es mayor que el periodo de
símbolo (equivalentemente, el ancho de banda de coherencia es menor que
el ancho de banda de trasmisión de la señal), lo que implica que se produce
interferencia intersimbólica (ISI, Inter Symbol Interference). Por lo tanto,
cada uno de estos canales discretos equivalente muestreado a periodo de
símbolo contiene más de un elemento (P elementos de forma genérica).

6
Teniendo en cuenta la descripción anterior de las entradas hji de la matriz
de canal H, podemos expresar dicha matriz como la sucesión resultante
de muestrearla a periodo de símbolo, obteniendo P submatrices, tal como
mostramos a continuación:

H = {H[0] H[1] . . . H[P − 1]} , (2.2)

 
h11 [m] h12 [m] ... h1N [m]
 h21 [m] h22 [m] ... h2N [m] 
 
H[m] =  .. .. ... .. , m = 0, . . . , P − 1. (2.3)
 . . . 
hM 1 [m] hM 2 [m] . . . hM N [m]

Una vez definida la estructura genérica de la matriz del canal MIMO,


pasamos a particularizar las expresiones para algunas condiciones de
propagación particulares.
Canal Visión directa/no directa (LOS+NLOS): La matriz H del canal MIMO
está compuesta por una componente de visión directa LOS (Line Of Sight)
HLOS y una componente de visión no directa NLOS (No Line Of Sight)
HN LOS , siendo el factor K de Rice el que indica la relación de potencia de
la componente LOS sobre la componente NLOS tal como

r r
K 1
H= HLOS + HN LOS . (2.4)
1+K 1+K

Las componentes hji de HLOS son deterministas, complejas y de módulo


unidad, según la geometría pueden generar una matriz estadísticamente
muy correlacionada, que implica que el rango de la misma tienda a 1.
Por otra parte, las entradas hji de HN LOS son modeladas a partir de una
distribución Rayleigh compleja y generan una matriz estadísticamente poco
correlacionada, que implica que el rango de la misma tiende al máximo [1].
Mientras que en sistemas SISO el diseño se lleva a cabo maximizando el
factor K con visión directa entre transmisor y receptor, lo cual suele llevar a
una alta correlación entre los canales de la matriz H, el rendimiento de los
sistemas MIMO (en términos de capacidad) no depende exclusivamente de
que exista una línea de visión directa entre ambos extremos, por lo que el
requerimiento anterior no es necesariamente aplicable.
Destacamos 2 casos particulares de canales MIMO altamente
correlacionados a partir de causas diferentes de la existencia de línea de
visión directa.

7
Canal correlacionado (TX-RX): La matriz de canal está altamente
correlacionada debido a la correlación que existe entre las propias antenas
del transmisor y/o entre las propias antenas del receptor, por lo que puede
expresarse

HCOR = RRX H RT X , (2.5)

siendo RRX y RT X , respectivamente, las matrices de correlación del receptor


y del transmisor, siendo matrices simétricas respecto a la diagonal principal.
De manera que el rango de la matriz completa del canal queda limitado como

rg(HCOR ) = mı́n (rg(RRX ), rg(RT X )) , (2.6)

suponiendo una matriz H de rango completo.


Canal Degenerado (pin hole): La matriz de canal se encuentra afectada por
el hecho de existir una pantalla metálica entre transmisor y receptor con
una pequeña abertura, siendo el único punto de transmisión posible entre
los extremos, tal como se describe en la Figura 2.2, por lo que la matriz del
canal queda

HDEG = hRX H hRX , (2.7)

siendo hRX y hT X respectivamente los vectores que modelan los M canales


existentes entre la abertura y el receptor y los N canales existentes entre
el transmisor y la abertura. Denominamos a este canal como degenerado
porque, debido a su construcción, el rango de la matriz de canal resultante
es siempre 1.

Figura 2.2: Canal MIMO degenerado

Por último, podemos señalar que ha habido trabajos encaminados a


caracterizar y estandarizar diferentes canales radioeléctricos como pueden ser
los llevados a cabo para el estándar IEEE 802.16 [9] o por el grupo 3GPP [10].

8
2.2.2. Función de transferencia

Una vez definido el canal de comunicaciones MIMO con N antenas


transmisoras y M antenas receptoras, podemos establecer la función de
transferencia del mismo, entendida como la relación matemática que
transforma la señal de entrada en la señal de salida.
Partiendo de los vectores de símbolos de entrada, x[n], y salida, y[n],

 
x1 [n]
 x2 [n] 
x[n] = 
 ... ,
 (2.8)
xN [n]
 
y1 [n]
 y2 [n] 
 
y[n] =  .. , (2.9)
 . 
yM [n]

podemos establecer la función de transferencia

P
X −1
y[n] = H[m]x[n − m], (2.10)
m=0

de forma que cada una de M componentes del vector de salida y[n] está
compuesta por las contribuciones de los N subcanales que se forman entre
las N antenas transmisoras y dicha antena receptora, teniendo en cuenta,
adicionalmente, que existen P − 1 componentes adicionales de multitrayecto
para cada una de estas contribuciones, en concreto

N P
X X −1 N
X
yj [n] = hji [m]xi [n−m] = (hji [0]xi [n] + . . . + hji [P − 1]xi [n − P + 1]) .
i=1 m=0 i=1
(2.11)
Por último, es necesario tener en cuenta el ruido equivalente del receptor,
considerado aditivo, blanco y gaussiano (AWGN, Additive White Gaussian
Noise) y multivariante con distribución N (0, σ 2 I) en forma de un vector r[n].

P
X −1
y[n] = H[m]x[n − m] + r[n]. (2.12)
m=0

9
2.3. Capacidad

2.3.1. Expresiones de la capacidad

La capacidad se define como la máxima tasa de información que puede ser


transferida por un sistema de comunicaciones de forma fiable. Este parámetro
es de gran importancia, ya que define el rendimiento del sistema mediante
un límite superior de sus prestaciones. Los estudios de capacidad se iniciaron
con el conocido trabajo de Shannon [11] para canales SISO. Los resultados
equivalentes para canales MIMO fueron desarrollados en [3, 4] y mostraron
un incremento muy importante de la capacidad para esta clase de sistemas.
Un tutorial introductorio sobre el tema puede encontrarse en [12].
Las expresiones simplificadas de la capacidad (medida en bits/s/Hz) en
sistemas SISO, MISO, SIMO y MIMO, para una relación señal a ruido (SNR,
Signal to Noise Ratio) media igual a ρ y siendo A el mínimo entre el número
de antenas en transmisión (N ) y recepción (M ) son respectivamente

CSISO = log2 (1 + ρ), (2.13)


CM ISO = log2 (1 + ρ), (2.14)
CSIM O = log2 (1 + M ρ), (2.15)
CM IM O = A log2 (1 + ρ). (2.16)

Lo más relevante de las expresiones anteriores es el aumento de la


capacidad de los sistemas MIMO respecto a los sistemas SISO, MISO y SIMO
tal como podemos apreciar en las Figuras 2.3(a) y 2.3(b).

30
25

25 SISO−MISO(3x1)
SIMO
SIMO(1x3) 20
MIMO
MIMO(3x3)
Capacidad (bps/Hz)

20
Capacidad (bps/Hz)

15
15

10
10

5 5

0
0 5 10 15 20 25 30 35 0
1 2 3 4 5 6 7
SNR (dB) Antenas

(a) Capacidad de canal vs SNR (b) Capacidad de canal vs antenas

Figura 2.3: Capacidades de canal para sistemas SISO, MISO, SIMO y MIMO

10
2.3.2. Multiplexado espacial y solución óptima

El análisis más detallado de la expresión matemática de la capacidad


del canal MIMO, siguiendo la referencia [12], nos permite obtener una
interpretación física del aumento de la misma respecto a los sistemas
tradicionales, así como determinar la estrategia óptima para alcanzarla.
Partimos de la expresión general de la capacidad de un sistema MIMO

   
PT X H
C = EH log2 det IM + HH , (2.17)
N σ2

donde EH denota la esperanza matématica respecto a la matriz de canal H,


N es el número de antenas en el transmisor, M es el número de antenas
en el receptor, PT X es la potencia total transmitida, σ 2 es la potencia de
ruido en el receptor e IM es la matriz identidad de dimensiones M × M .
Se puede realizar una descomposición en valores singulares (SVD, Singular
Value Decomposition) de la matriz de canal H, expresándola en términos de
matrices unitarias U y V de vectores singulares y una matriz diagonal Σ con
los valores singulares como

H = U Σ VH . (2.18)

Haciendo uso de (2.18), reescribimos la capacidad como

   
PT X H H
C = EH log2 det IM + UΣΣ U . (2.19)
N σ2

La capacidad del canal ahora está expresada en términos de matrices


unitarias y diagonales y puede comprobarse que la capacidad total es la suma
de un número de canales paralelos SISO con ruido blanco aditivo gaussiano.
El número L de canales paralelos es igual al rango de la matriz H,

L = rg(H) ≤ mı́n (N, M ). (2.20)

Entonces, se puede expresar finalmente la capacidad del canal MIMO

( L  )
X PT X 2
C = EH log2 1+ λ , (2.21)
i=1
N σ2 i

siendo λi los valores singulares de H.

11
Por lo tanto, la alta capacidad alcanzable por los sistemas MIMO es
debida a la existencia de un cierto número de canales SISO actuando en
paralelo que pueden transportar flujos independientes de datos que, una
vez en el receptor, pueden ser separados si se lleva a cabo el procesamiento
espacio-temporal adecuado.
El multiplexado espacial es una de las características más relevantes de
los sistemas MIMO y hace referencia a este aumento de la capacidad por la
creación de canales paralelos de comunicaciones, que lleva a una eficiencia
espectral mayor, ya que todos los flujos de datos se están transmitiendo
simultáneamente y en la misma banda de frecuencias. Las condiciones
necesarias para conseguir dicho aumento son las siguientes:

La matriz de canal H debe tener un rango alto.


El mínimo número de antenas tanto en el transmisor como en el receptor
marca el máximo número de subcanales posibles.
Debe llevarse a cabo el procesamiento espacio-temporal adecuado tanto
en el transmisor como en el receptor.

Podemos analizar por separado los casos en los que el transmisor tiene
conocimiento o no del canal de comunicaciones MIMO tal como lo ve el
receptor, lo que se conoce como CSI (Channel State Information).
Transmisor sin conocimiento del canal. El transmisor MIMO no tiene una
estimación del canal, por lo que se limita a trasmitir por las N antenas
siguiendo el esquema de codificación y modulación acordado con el receptor,
emitiendo la misma potencia por cada antena. En este caso no se alcanza
necesariamente el máximo de la capacidad ofrecida por el canal.
Transmisor con conocimiento del canal. El transmisor MIMO posee una
estimación del canal, por lo que, además de trasmitir por las N antenas
siguiendo el esquema de codificación y modulación acordado con el receptor,
puede optimizar la comunicación a través del procesamiento adecuado en
transmisión y recepcion, así como la potencia emitida por cada antena para
acercarse a la capacidad máxima del canal, técnica conocida como water-
filling [13]. En este caso, la potencia asignada a cada uno de los L subcanales
ǫi es proporcional al autovalor λi correspondiente, que es una medida de la
ganancia del mismo. Por lo que, bajo la restricción de que la potencia total
transmitida debe mantenerse constante, la capacidad puede expresarse como

( L  )
X PT X 2
C = EH log2 1 + ǫi λ . (2.22)
i=1
N σ2 i

12
2.4. Diversidad

Las técnicas de diversidad están enfocadas a mejorar la calidad del


sistema, en términos de BER (Bit Error Rate), mediante el procesado de
las réplicas de una misma señal que alcanzan el receptor, consideradas
estadísticamente independientes, haciendo frente al desvanecimiento.
Tradicionalmente, en sistemas SISO, se han utilizado técnicas de diversidad:

Diversidad temporal. Transmitiendo en instantes separados por un


intervalo superior al tiempo de coherencia del canal.
Diversidad frecuencial. Transmitiendo simultáneamente en frecuencias
separadas más del ancho de banda de coherencia del canal.
Diversidad espacial. Disponiendo una separación entre antenas
receptoras tal que cada una de ellas reciba un canal independiente.

Las técnicas de diversidad temporal y frecuencial incurren en un uso


importante de los recursos disponibles disminuyendo la eficiencia espectral,
porque o bien se debe reducir la tasa efectiva de transmisión de información
(diversidad temporal) o bien se deben multiplicar los recursos asignados al
sistema (diversidad frecuencial). La diversidad espacial aporta unas ventajas
en este sentido importantes, ya que se mantiene la eficiencia espectral [1].
Los sistemas MIMO se caracterizan por hacer uso de la diversidad espacial
tanto en transmisión como en recepción, lo que les confiere ventajas a costa de
un procesamiento más complejo. Considerando la estructura del canal (2.1),
el grado máximo de diversidad ofrecido un sistema MIMO N ×M , entendido
como el número máximo de canales independientes para ser procesados, es
N M . Según la interpretación en [14], un sistema MIMO N×M es equivalente,
a nivel de prestaciones, a un sistema SIMO 1×N M confirmando el máximo
grado de diversidad alcanzable por los sistemas MIMO.

2.4.1. Diversidad en recepción

La diversidad en recepción ha sido ampliamente estudiada y utilizada


desde hace décadas en los sistemas SISO. Las 2 técnicas principales para el
procesamiento de las señales de llegada por las distintas antenas en esta clase
de sistemas han sido el esquema de selección y el esquema de combinación.
Por otra parte, la diversidad en recepción en sistemas MIMO puede basarse
en la acumulación de la función de coste de detección para cada una de las
ramas de llegada o en el procesamiento digital conjunto de las señales de
todas las antenas según algún criterio de diseño [1].

13
2.4.2. Diversidad en transmisión y codificación espacio-
temporal

La diversidad en transmisión persigue el mismo objetivo que la diversidad


en recepción, la mejora de la fiabilidad de sistemas de comunicaciones. Sin
embargo, debido a la complejidad asociada a nivel de procesamiento de
señal, no ha sido estudiada hasta hace poco tiempo. Los primeros sistemas
de diversidad en transmisión estaban basados en esquemas que requerían
conocimiento del canal en el mismo (caso de la selección de antena de
transmisión), mientras que los sistemas MIMO hacen uso de esquemas de
codificación espacio-temporal sin necesidad de conocimiento del canal [1].
La codificación espacio-temporal (STC, Spatio Temporal Coding) está
basada, en términos generales, en la creación de correlación entre los flujos
de datos provenientes de una fuente de datos independientes e idénticamente
distribuidos, sin ninguna clase de correlación espacial o temporal. Estos
flujos atraviesan el codificador espacio-temporal, que crea cierto tipo de
correlación en ambas dimensiones tras lo cual son transmitidos por las
antenas. El receptor, que puede incluso tener una única antena, hace uso
de la información que posee sobre el proceso de codificación para realizar la
detección.
El proceso de codificación espacio-temporal idealmente dispersa un
símbolo de entrada a lo largo de la dimensión temporal (distintos
momentos de transmisión) y de la dimensión espacial (diferentes antenas
de transmisión), de forma que dicho símbolo se propague a través de los N M
subcanales de la matriz H, alcanzando el grado máximo de diversidad.
Comentamos brevemente las características de 2 de los tipos posibles de
codificación espacio-temporal.
Códigos espacio-temporales trellis. Se realiza una codificación espacio-
temporal basada en la transmisión de unos códigos diseñados para conseguir
la máxima diversidad ofrecida por el canal y que deben ser procesados en el
receptor por un detector de Viterbi de máxima verosimilitud (procesamiento
no lineal) [5]. Esta codificación proporciona una ganancia importante en
rendimiento, a costa de un detector cuya complejidad crece exponencialmente
con el número de antenas transmisoras y la memoria del canal.
Códigos espacio-temporales bloque. Se realiza una codificación espacio-
temporal basada en el esquema de Alamouti [14] para sistemas 2×1 y 2×2
y generalizada por Tarokh et al. [6], tal que se transmiten unos códigos
ortogonales con un rendimiento ligeramente por debajo del caso anterior pero
manteniendo una complejidad reducida para el receptor, ya que se realiza una
detección de máxima verosimilitud mediante un procesamiento lineal.

14
2.5. Diseño de sistemas MIMO

2.5.1. Arquitectura de sistemas MIMO

Mostramos en esta sección las arquitecturas principales de sistemas


MIMO con sus bloques constituyentes y flujos de datos.
MIMO monousuario. Un sistema MIMO monousuario comunica un único
transmisor con un único receptor, cada uno de ellos equipado con múltiples
antenas, tal como se muestra en la Figura 2.4. En esta configuración, el
procesamiento es básicamente simétrico en ambos extremos. Este será el
modelo que utilizaremos durante el resto del proyecto.

Figura 2.4: Arquitectura de sistema MIMO monousuario

MIMO multiusuario. Un sistema de MIMO multiusuario comunica, en


terminología de comunicaciones móviles, una estación base, con múltiples
antenas, con un determinado número de usuarios, cada uno equipado con
una única o múltiples antenas, tal como se muestra en la Figura 2.5. En esta
configuración el procesamiento ya no es simétrico en ambos extremos. Puede
encontrarse un análisis de este tipo de sistemas MIMO en [15]

Figura 2.5: Arquitectura de sistema MIMO multiusuario

15
Independientemente de la arquitectura, existen varios bloques cuya
función es la misma y que pasamos a describir en términos generales.
Fuente de datos. Generador de información en forma de bits.
Proceso TX. Bloque de procesamiento habitual en sistemas SISO, efectuando
operaciones, entre otras, de entrelazado, codificación de canal y conversión
de bits a símbolos.
Proceso ST-TX. Bloque de procesamiento específico de sistemas MIMO,
efectuando las operaciones de codificación espacio-temporal (Apartado 2.4.2),
en el caso de que la hubiera, y de multiplexado espacial (Apartado 2.3.2).
Proceso ST-RX. Bloque de procesamiento específico de sistemas MIMO,
efectuando las operaciones de decodificación espacio-temporal y procesado
de los flujos de datos procedentes de la multiplexación espacial, lo que puede
incluir procesos de estimación e igualación de canal, tal como analizamos en
el Capítulo 3.
Proceso RX. Bloque de procesamiento habitual en sistemas SISO, efectuando
operaciones, entre otras, de desentrelazado, decodificación de canal y
conversión de símbolos a bits.
Destino de datos. Receptor de datos en forma de bits.
Canal MIMO. Canal radioeléctrico MIMO (Apartado 2.2.1).
Canal retorno CSI. Canal de datos de retorno que informa al transmisor
del canal visto por el receptor para que adapte su procesamiento (Apartado
2.3.2) ya que, en general, no se puede asumir que el canal es simétrico.
En términos de arquitectura del sistema, es necesario tener en cuenta que
la complejidad asociada a un sistema MIMO es apreciablemente mayor a nivel
de proceso digital (HW, FW y SW) que en un sistema SISO convencional
debido a los nuevos bloques espacio-temporales. A nivel de RF, los sistemas
MIMO se caracterizan por la multiplicación de recursos (cadenas tanto
transmisoras como receptoras y antenas).
Un aspecto importante, a nivel de arquitectura, es la relevancia que
están tomando los sistemas MIMO-OFDM (Orthogonal Frequency Division
Multiplex ), diseñados de tal forma que se convierta un canal dispersivo con
ISI en un conjunto de canales planos en frecuencia, mediante la adición
de moduladores/demoduladores OFDM en cada una de las cadenas de las
antenas transmisoras y receptoras [1].
Por último, señalar que un sistema MIMO debiera ser compatible hacia
atrás con tecnologías SISO, tanto a nivel de redes como terminales.

16
2.5.2. Aspectos de diseño

En este apartado analizamos brevemente algunos aspectos de diseño de


sistemas de comunicaciones MIMO, teniendo en cuenta las características
enumeradas en secciones anteriores.
Los sistemas MIMO pueden proporcionar una ganancia máxima de
capacidad de gcap = mı́n (N, M ) subcanales paralelos independientes para
la transmisión (Apartado 2.3.2) y una ganancia de diversidad máxima de
gdiv = N M mejorando la BER del sistema (Sección 2.4). Sin embargo, aunque
existen estudios sobre esquemas capaces de alcanzar simultáneamente ambos
objetivos anteriores [16], en general, en la práctica esto no es posible por
lo que debe optarse por una solución de compromiso. Este resultado puede
explicarse cualitativamente por el hecho de que si disponemos de un cierto
número de canales paralelos de comunicaciones transmitiendo a su máxima
capacidad para conseguir una ganancia máxima gcap = mı́n (N, M ) implica
que no se está añadiendo ninguna clase de información redundante para
protección frente a errores. Igualmente, si el objetivo de diseño es conseguir
una ganancia máxima de diversidad gdiv = N M , ello implica que se está
añadiendo una cantidad apreciable de información redundante, por lo que no
se está optimizando la tasa de información. Bajo ciertas condiciones puede
obtenerse la relación óptima entre ambas ganancias y establecerse como un
objetivo de diseño o como modelo contra el que comparar el rendimiento de
distintos esquemas, tal como se ha presentado en [17].
Respecto a la configuración del sistema MIMO en cuanto al número
de antenas en transmisión y recepción, ya hemos visto que solamente la
presencia de múltiples antenas en ambos extremos permite la posibilidad del
multiplexado espacial (Apartado 2.3.2), siendo una de las principales ventajas
que proporcionan estos sistemas, por lo que una primera aproximación
es mantener el mismo número de antenas tanto el transmisión como en
recepción. En el caso de que no fuera posible, lo habitual, por requerimientos
de procesamiento de señal que analizamos en el Capítulo 3, es mantener el
número de antenas en recepción mayor o igual que en transmisión. En los
casos particulares de sistemas SIMO podremos hacer uso de un aumento
moderado de la capacidad y en los sistemas MISO de la capacidad de
codificación espacio-temporal.
Finalmente, en cuanto a la presencia o no de un canal de realimentación
para que el transmisor tenga una estimación del canal visto por el receptor,
esta información es necesaria en el transmisor MIMO si se pretende hacer una
asignación óptima de potencias según la estrategia water-filling con el fin de
maximizar la capacidad, para lo cual es necesario realizar una descomposición
en valores singulares de la matriz de canal H en ambos extremos del sistema.

17
18
Capítulo 3

Revisión de técnicas de detección


para sistemas MIMO

3.1. Introducción

A lo largo del Capítulo 2 hemos presentado las ventajas proporcionadas


por los sistemas MIMO dentro del ámbito tecnológico de las comunicaciones
inalámbricas. Comprobamos que el aumento de la capacidad del canal MIMO
y la viabilidad de realizar una codificación de protección frente a errores que
tenga en cuenta la dimensión espacial lleva a estos sistemas a un rendimiento
superior (en términos de velocidad de transferencia de información y calidad
del enlace medida como BER) frente a los sistemas tradicionales SISO.
La desventaja asociada es la existencia de una mayor complejidad, que se
traduce en un procesamiento de señales de mayor intensidad, tanto en el
transmisor como en el receptor, y en la multiplicación de los recursos HW de
RF asignados al sistema.
A lo largo de este capítulo nos centramos en el procesamiento espacio-
temporal digital de los sistemas MIMO. En particular, analizamos el
procesamiento espacio-temporal digital llevado a cabo en un receptor MIMO
de una arquitectura monousuario. Analizamos un conjunto de técnicas de
detección, que son aquellos algoritmos que, partiendo de las observaciones
disponibles en cada una de las antenas receptoras, provenientes de los
símbolos del transmisor a través del canal, generan unos símbolos estimados
a través de alguna clase de procesamiento numérico y que, idealmente, deben
ser idénticos a los símbolos generados y transmitidos por la fuente, de manera
que la calidad del enlace de comunicaciones, medida en función de la tasa de
error de símbolo, sea lo mayor posible.

19
3.2. Arquitectura y modelo de señal

El primer aspecto que debemos considerar es la arquitectura y modelo de


señal utilizados durante el desarrollo de las técnicas de detección. Tal como
hemos señalado ya, nos basamos en una arquitectura MIMO monousuario
N × M (M >N ), de tal forma que existan un único transmisor y receptor,
cada uno de ellos equipado con múltiples antenas. No tenemos en cuenta
ninguna clase de codificación espacio-temporal encaminada a mejorar la
calidad del enlace en términos de BER. En cuanto a la multiplexación
espacial, el transmisor realiza la misma asignación de potencia a cada antena
y simplemente lleva a cabo una conversión serie-paralelo del flujo de datos
proveniente de la fuente, lo que implica que no se alcanza necesariamente
la máxima capacidad disponible y que el transmisor y receptor no tienen
necesidad de poseer una estimación del canal, por lo que tampoco existe
ninguna clase de canal de realimentación. El receptor aplica la técnica de
detección y recupera los flujos de datos originales, que son encaminados a un
conversor paralelo-serie. No tenemos en cuenta el procesamiento particular
SISO (entrelazado, codificación de canal...) y consideramos que se realiza en
otro nivel. Todo ello nos lleva a particularizar la arquitectura de la Figura
2.4 al esquema de la Figura 3.1.

Figura 3.1: Arquitectura MIMO para técnicas de detección

El canal MIMO lo caracterizamos, según el Apartado 2.2.1, como un


canal inalámbrico de visión no directa (HN LOS ) con entradas complejas según
una distribución Rayleigh y P − 1 componentes de multitrayecto adicionales
al rayo directo, así mismo, consideramos que el canal resulta invariante o
lentamente variante en el tiempo, de forma que las técnicas de detección son
capaces de hacer un seguimiento del mismo.
Durante el desarrollo y análisis de las distintas técnicas consideramos que
las señales están representadas en banda base, de modo que se suprime el
efecto de la portadora, ya que no resulta de interés para los objetivos de
este proyecto. También consideramos a partir de este momento que todas las
señales involucradas son de naturaleza compleja.

20
La función de transferencia del canal MIMO definida en el Apartado
2.2.2 sigue siendo válida, de manera que, para un sistema MIMO N × M ,
proporciona las M componentes de salida del canal, las observaciones
procesadas por el receptor MIMO, a partir del conocimiento del mismo y
del vector de señales de entrada.
El procesamiento llevado a cabo por estas técnicas de detección es un
suavizado en lugar del filtrado tradicional. El filtrado genera las estimaciones
de los símbolos transmitidos para cada instante de tiempo basándose en las
señales recibidas para ese instante de tiempo y las recibidas con anterioridad.
El suavizado genera las estimaciones de los símbolos transmitidos para cada
instante de tiempo basándose en las señales recibidas para ese instante
de tiempo y las recibidas con anterioridad y posterioridad. La ventaja
proporcionada por el suavizado se hace evidente en un entorno en el cual las
componentes directas de la matriz de canal hji [0] no son las de mayor energía
respecto al resto de componentes del multitrayecto hji [n], n = 1, . . . , P − 1.
El fundamento de este comportamiento radica en el hecho de que, bajo esas
condiciones, un filtro no procesa la mayor parte de la energía correspondiente
al símbolo que está estimando, ya que está distribuida en las observaciones
posteriores. Sin embargo, un suavizador procesa tanto las observaciones
recibidas anteriores como posteriores, por lo que es capaz de procesar toda
la energía del símbolo que esta siendo estimado independientemente de la
distribución energética del mismo. La desventaja asociada al suavizado es
el retraso temporal (del orden de periodos de símbolo) introducido por el
procesado de las observaciones posteriores. Dadas las características del canal
MIMO de visión no directa, tal como se analiza en el Apartado 2.2.1, el uso
de suavizadores es adecuado. Mostramos en las Figuras 3.2(a) y 3.2(b), como
ilustración de los conceptos anteriores, perfiles de potencia de canales SISO
adecuados para filtrado y suavizado.

1 1

0.9 0.9

0.8 0.8
Potencia normalizada

0.7 0.7
Potencia normalizada

0.6 0.6

0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
Tiempo Tiempo

(a) Canal adecuado para filtrado (b) Canal adecuado para suavizado

Figura 3.2: Canales SISO para filtrado y suavizado

21
Teniendo en cuenta lo anteriormente expuesto, podemos mostrar la
dependencia de la salida de filtros y suavizadores respecto a sus señales de
entrada. Partimos de la secuencia de vectores de señales recibidas y[n] por
el receptor MIMO a lo largo del tiempo, resaltando aquellos utilizados para
el filtrado y el suavizado en el instante de tiempo n.

F ILT RO
z }| {
Vectores recibidos ⇒ . . . y[n − 2] y[n − 1] y[n] y[n + 1] y[n + 2] . . . (3.1)
| {z }
SU AV IZADOR

Uno de los aspectos de diseño del suavizador es la longitud del


mismo, para lo cual es necesario tener en cuenta la memoria del canal
de comunicaciones, de forma que el suavizador procese, como mínimo,
P − 1 símbolos anteriores y P − 1 símbolos posteriores para su correcto
funcionamiento. Por último, señalar que los suavizadores generan a su salida
una estimación blanda del símbolo bajo estudio, por lo que si se quiere tener
una estimación dura del mismo, ya sea para entregarla al destino de datos
o bien por necesidad de la propia técnica de detección, es necesario procesar
esta estimación blanda con un decisor que dé a su salida el símbolo de la
constelación más cercano a la estimación blanda del suavizador.
El procesamiento digital llevado a cabo en los receptores puede llegar a
ser de una gran complejidad, lo cual es debido a los estrictos requerimientos
en cuanto a calidad del enlace en entornos hostiles, que implica que se deba
recurrir a técnicas de alto coste computacional, y la estructura inherente
de los sistemas MIMO, que multiplica la cantidad de cálculos que deben
realizarse. Debido a ello, ha habido un interés continuo en desarrollar técnicas
de detección (tanto en sistemas SISO como MIMO) que sean lo más eficaces
posible al menor coste de procesamiento. A lo largo de este proyecto, nos
centramos en técnicas lineales de detección que, aunque subóptimas desde
el punto de vista de rendimiento, presentan una complejidad computacional
relativamente baja en comparación con las técnicas no lineales. Así mismo,
consideraremos también técnicas que, aunque desde un punto de vista estricto
no son lineales, sí que presentan una complejidad de orden lineal.
De forma genérica, planteamos la relación entre el vector de salida s[n] del
algoritmo de recepción a partir del vector de entrada yA [n] de observaciones
como

s[n] = WH yA [n], (3.2)

donde s[n] el vector de salida de N componentes que contiene las estimaciones


blandas de los símbolos trasmitidos en el instante temporal n y sobre el cual

22
se aplica una detección dura para obtener los símbolos estimados, yA [n] es el
vector que contiene las señales necesarias para el suavizador y W es la matriz
cuyas columnas representan cada uno de los N filtros espacio-temporales que
operan para conseguir la salida. En particular, podemos escribir

T
s[n] = s1 [n] s2 [n] . . . sN [n] , (3.3)

T
yA [n] = y1 [n − L] . . . y1 [n + L] . . . yM [n − L] . . . yM [n + L] , (3.4)


W= w1 w2 . . . wN . (3.5)

Las técnicas de detección están basadas en la minimización/maximización


de alguna función de coste/verosimilitud respectivamente para determinar la
matriz de suavizadores W, lo que implica que se debe aplicar algún algoritmo
de búsqueda para la obtención de dicho mínimo/máximo. Cada una de las
técnicas presentadas aplica un algoritmo particular de búsqueda local, que
es el analizado y utilizado a lo largo de este proyecto en las simulaciones.
Los algoritmos locales de búsqueda no garantizan alcanzar la mejor solución
posible, ya que dependen en gran medida de su inicialización, sin embargo dan
resultados aceptables con un coste computacional considerablemente menor
que los algoritmos de búsqueda global.
Las técnicas de detección que analizamos y desarrollamos en este
proyecto pueden ser englobadas como técnicas estadísticas, de forma que se
fundamentan en explotar la información estadística disponible del sistema
(tal como pueden ser las características de la fuente de información, del
canal, de la constelación de señales utilizada) para realizar un procesamiento
lineal de las señales recibidas. Sin ánimo de completitud, podemos citar otros
tipos de algoritmos de detección, como aquellos basados en teoría de espacios
vectoriales [18] o aquellos basados en el principio de predicción lineal [19].
El hecho de utilizar técnicas de detección basadas en información
estadística causa que, en algunos casos, las modulaciones que pueden ser
utilizadas para cada una de ellas estén restringidas a unas determinadas
clases. Esta restricción es debida a que el principio de funcionamiento de
algunas técnicas de detección está fuertemente ligado al tipo de constelación,
por lo que no utilizar la indicada llevaría a una degradación muy importante
en el rendimiento. Durante el análisis de cada técnica se comenta la
adecuación de la misma a distintos tipos de modulaciones.

23
Un aspecto sumamente importante en comunicaciones sobre sistemas
MIMO es la sincronización entre los distintos flujos de datos. Tal como
puede apreciarse en la arquitectura de referencia de la Figura 3.1, los
datos del transmisor son divididos en N flujos, cada unos de los cuales
es radiado por una de las N antenas transmisoras. En el receptor se
reciben M flujos de datos que, tras ser procesados adecuadamente, son
convertidos en los N flujos originales. El procesamiento por los suavizadores
puede introducir un desplazamiento temporal del flujo de datos detectado,
siendo ese desplazamiento temporal independiente en cada uno de los N
suavizadores, lo que puede provocar que el sincronismo original entre los flujos
de datos se pierda en el receptor generando una degradación importante del
rendimiento. Esta desviación es relativamente sencilla de compensar en los
sistemas en los que se emplean técnicas semiciegas de detección, ya que la
inclusión de datos conocidos por el receptor ayuda a la tarea de sincronizar
correctamente los flujos de datos. En el caso de sistemas que aplican técnicas
ciegas de detección esta tarea es más compleja y se debe recurrir a algoritmos
computacionalmente más costosos.
Una característica relevante de las técnicas de detección es si proporcionan
una estimación de la matriz de canal H como resultado del proceso. En
algunos casos, tal estimación forma parte intrínseca del funcionamiento de la
técnica, por lo que su cálculo es un paso más dentro del algoritmo. En otros
casos, la técnica de detección no incluye la estimación de la matriz, pero puede
ser útil llevarla a cabo para solucionar problemas del sistema de otra índole
(tal como puede ser el problema de sincronización entre flujos de datos).
Asociado a la estimación de la matriz de canal, en general ni el transmisor ni el
receptor tienen conocimiento del orden de la matriz de canal (definido como el
número de componentes de multitrayecto presentes, (Apartado 2.2.1)), siendo
en ocasiones las técnicas de detección sensibles a una estimación tanto por
exceso (por un coste computacional alto) como por defecto (posibilidad de no
detectar correctamente al no considerar correctamente el efecto del canal). A
lo largo de este proyecto los recursos asignados al procesamiento del receptor
se han estimado por exceso, ya que estamos principalmente interesados en un
estudio de rendimiento más que en una implementación real que debe tener
en cuenta la asignación eficiente de recursos.
Por último, señalamos que dividimos las técnicas de detección en 3
grupos fundamentales cuyas características analizamos en las secciones
correspondientes. Partimos de la técnica óptima no lineal de detección de
secuencias de máxima verosimilitud, analizamos posteriormente 2 técnicas
lineales semiciegas y 2 técnicas lineales ciegas de detección. Analizamos el
principio de funcionamiento, los fundamentos matemáticos y características
de cada una de ellas, posponiendo los resultados numéricos y comparativas
al Capítulo 5.

24
3.3. Detección óptima de máxima
verosimilitud

Principio de funcionamiento

La detección de secuencias de máxima verosimilitud (MLSD, Maximum


Likelihood Sequence Detection) basada en el algoritmo de Viterbi es óptima
en el sentido de minimizar la probabilidad de error de la secuencia de
símbolos, por lo que, aunque se trate de una técnica de detección no lineal, la
analizamos en primer lugar porque nos proporciona una referencia del mejor
rendimiento alcanzable en esta clase de sistemas.
La detección de secuencias de máxima verosimilitud es una técnica
desarrollada por Forney [20] basada en la aplicación del principio de máxima
verosimilitud a sistemas de comunicaciones en los que existe un canal con
memoria, como los considerados en este proyecto. En tales condiciones, cada
uno de los símbolos recibidos depende también de símbolos transmitidos con
anterioridad a través de los coeficientes de interferencia intersimbólica de la
matriz de canal H así como de los símbolos transmitidos por cada una de las
N antenas del transmisor, por lo que una detección basada exclusivamente
en el periodo de símbolo actual no resulta óptima. Esta técnica considera
secuencias de observaciones recibidas y[n], calculando para cada una de estas
secuencias cuál es la secuencia de símbolos transmitidos x[n] más probable y
decidiendo por ella como símbolos transmitidos.
El cálculo de las probabilidades de las secuencias de entrada es una tarea
de procesamiento muy intenso, ya que el número de secuencias que debe
ser examinado en un sistema MIMO crece de manera exponencial con el
cardinal de la constelación utilizada, el número de antenas transmisoras y la
memoria del canal de comunicaciones, por lo que debe utilizarse un método
eficiente para llevarla a cabo. El algoritmo de Viterbi [21] es un algoritmo
inicialmente desarrollado para la decodificación de códigos convolucionales
pero con una adaptación directa al caso que nos ocupa. El algoritmo se basa
en identificar el canal de comunicaciones con memoria, del cual debe poseer
el receptor una estimación fiable, con una máquina de estados, con sus nodos
y transiciones correspondientes, y llevar a cabo una representación gráfica
del mismo a través de un diagrama trellis. El algoritmo realiza entonces una
búsqueda eficiente sobre dicho trellis de las secuencias de símbolos de entrada
más probables, reteniendo finalmente la más probable de todas.
A lo largo de esta sección realizamos primero el análisis de está técnica
óptima para el caso SISO, extendiendo posteriormente los resultados de
manera directa al caso MIMO que nos interesa, resaltando las diferencias.

25
Expresiones para sistemas SISO

Considerando canales SISO con memoria P , el criterio de máxima


verosimilitud puede expresarse de la siguiente manera

x̂[n] = arg max {p(y[n]|x[n])} , (3.6)


x[n]∈A

donde la secuencia estimada de símbolos transmitidos x̂[n], pertenecientes


al alfabeto de la modulación A, es aquella que maximiza la probabilidad
de recibir las señales y[n]. Asumiendo ruido aditivo blanco gaussiano, la
Ecuación (3.6) puede desarrollarse como

 2 
 P
X −1 

x̂[n] = arg min y[n] − h[l]x[n − l] , (3.7)
x[n]∈A  l=0

por lo que el detector MLSD puede ser considerado como un detector que
minimiza la distancia euclídea entre las observaciones y[n] y la respuesta del
canal h[n] a los símbolos estimados x̂[n].
Sin entrar en detalles del proceso de detección, que pueden ser consultados
en [20, 21], el diagrama trellis sobre el cual se aplica el algoritmo de Viterbi
en sistemas SISO posee las características que se detallan en la Figura 3.3.

Figura 3.3: Diagrama trellis para sistemas SISO

El número de estados del trellis es igual al cardinal de la constelación


utilizada |A| elevado a la memoria del canal P , mientras que el número de
transiciones de salida desde cada nodo y el número de transiciones de llegada
a cada nodo es igual al cardinal de la constelación |A|. Una regla heurística,
para realizar el proceso eficientemente, es guardar secuencias de longitud 5P
símbolos [22].

26
Expresiones para sistemas MIMO

En el caso de la detección de secuencias de máxima verosimilitud para


sistemas MIMO N × M , seguiremos la referencia [23], que proporciona
un análisis general de técnica de detección para esta clase de sistemas.
Considerando canales MIMO con memoria P tales como los descritos en
el Apartado 2.2.1, el criterio puede expresarse de la siguiente manera,

x̂[n] = arg max {p(y[n]|x[n])} , (3.8)


x[n]∈AN

donde la secuencia estimada de vectores de símbolos transmitidos x̂[n],


pertenecientes al alfabeto de la modulación AN , es aquella que maximiza la
probabilidad de recibir los vectores de observaciones y[n]. Asumiendo ruido
aditivo blanco gaussiano, la Ecuación (3.8) puede desarrollarse de manera
análoga al caso SISO para obtener

 2 
 P
X −1 

x̂[n] = arg min y[n] − H[l]x[n − l] . (3.9)
x[n]∈A N  
l=0

Igual que en el caso SISO, el detector MLSD para sistemas MIMO puede ser
considerado como un detector que minimiza la distancia euclídea entre los
vectores de observaciones y[n] y la respuesta del canal H a los vectores de
símbolos estimados x̂[n].
Al igual que en el caso anterior, no entramos en los detalles del proceso de
detección y presentamos el diagrama trellis sobre el cual se aplica el algoritmo
de Viterbi en sistemas MIMO, el cual posee las características que se detallan
en la Figura 3.4.

Figura 3.4: Diagrama trellis para sistemas MIMO

27
El número de estados del trellis es igual al cardinal de la constelación
utilizada |A| elevado a la memoria del canal P multiplicado por el número
de antenas transmisoras N , mientras que el número de transiciones de
salida desde cada nodo y el número de transiciones de llegada a cada nodo
es igual al cardinal de la constelación |A| elevado al número de antenas
transmisoras N . Por lo tanto, podemos comprobar que la complejidad del
trellis es considerablemente mayor que en el caso SISO debido a la existencia
de múltiples antenas en el lado del transmisor, haciéndolo impracticable
incluso para configuraciones de antenas relativamente sencillas, por lo que
se ha trabajado en conseguir algoritmos eficientes para llevar a cabo esta
tarea de detección, como pueden ser, a modo de ejemplo, los basados en la
decodificación esférica [24].
La existencia de múltiples antenas en el receptor no se traduce en una
mayor complejidad de la estructura del trellis asociado, sino en un aumento
de la diversidad en recepción ya que puede considerarse que cada antena
j -ésima de recepción forma junto a las N antenas transmisoras un sistema
MISO N ×1 con la función asociada de coste

2
P
X −1
j
CM ISO = yj [n] − hj [l]x[n − l] , j = 1, ..., M, (3.10)

l=0

donde hj [l] el vector que define el canal MISO correspondiente. De tal forma
que la función de coste global del sistema MIMO, CM IM O , que debe ser
j
minimizada puede expresarse como la suma de los costes CM ISO ,

M
X j
CM IM O = CM ISO , (3.11)
j=1

por lo que que según aumenta el número de antenas receptoras M , el


rendimiento mejora, ya que aumenta el coste total derivado de eligir una
secuencia de símbolos errónea.
Por último, podemos encontrar en [23] expresiones aproximadas para la
probabilidad de error de bit, expresiones tanto para la cota de la unión
como para la cota inferior de la misma. Sin embargo, dichas expresiones
están desarrolladas para unas condiciones particulares, por lo que no son
directamente aplicables a los sistemas en los que nos centramos. La técnica
de detección de secuencias de máxima verosimilitud es óptima minimizando la
probabilidad de error, por lo que las técnicas lineales de detección analizadas
en este proyecto son consideradas subóptimas desde este punto de vista.

28
3.4. Técnicas semiciegas de detección

De forma general, las técnicas semiciegas de detección se basan en la


transmisión de una corta secuencia de datos conocidos (símbolos piloto) junto
a los datos de usuario, de forma que el receptor sea capaz de ajustar su
algoritmo de detección de la mejor forma posible aplicando normalmente
el criterio de error cuadrático mínimo (LS, Least Squares) a estos datos
conocidos y un algoritmo ciego a los datos de usuario. A diferencia de los
sistemas basados en la transmisión de largas secuencias de entrenamiento (a
modo de ejemplo, GSM), el procesamiento de los datos conocidos no está
enfocado a ajustar de manera fina los filtros digitales del detector sino a
regularizar la parte ciega del algoritmo que se encarga de esa tarea.
Las técnicas semiciegas tienen como principal ventaja su rápida
convergencia respecto a las técnicas totalmente ciegas. Sin embargo, como
contrapartida podemos destacar que incurren en una eficiencia espectral
menor que en el caso de las alternativas ciegas, ya que se transmite un menor
número de símbolos de usuario por unidad de tiempo al ser necesario la
inclusión de los datos conocidos de ajuste.

3.4.1. Detección semiciega basada en el principio de


máxima verosimilitud

Principio de funcionamiento

La técnica semiciega de detección para sistemas MIMO basada en el


principio de máxima verosimilitud es desarrollada en [25]. Esta técnica
se basa en ajustar la función de densidad de probabilidad de las señales
procesadas por el receptor, según el criterio de máxima verosimilitud,
a la distribución considerada ideal, de forma que se supriman tanto
la interferencia intersimbólica debida a la memoria del canal como la
interferencia entre los distintos flujos de datos presentes.
Esta técnica lleva a cabo un procesamiento lineal sobre las observaciones
y aprovecha unas secuencias cortas de datos conocidos trasmitidas por
cada una de las antenas para evitar los problemas de convergencia a
soluciones locales. La técnica plantea un problema que no permite una
solución con una expresión cerrada, por lo que se recurre al algoritmo de
esperanza-maximización (EM, Expectation-Maximization) como medio para
solventarlo. Una de las características relevantes de esta técnica es que se
deriva exclusivamente de argumentos estadísticos y no de soluciones ad-hoc
al problema encontrado.

29
Expresiones

El objetivo de esta técnica de detección es conseguir que la función de


densidad de probabilidad de las señales ya procesadas por el suavizador se
aproxime lo más posible a la función de densidad de probabilidad ideal
en la que se han suprimido tanto la interferencia intersimbólica como la
interferencia entre los distintos flujos de datos. El procesamiento lineal del
receptor, tal como presentamos en la Sección 3.2, puede ser dividido en N
subproblemas paralelos, cada uno de ellos correspondiente a la detección de
cada uno de los N flujos de datos originales de la fuente, de forma que la
estimación del símbolo i-ésimo se obtiene como

si [n] = wiH yA [n], i = 1, ..., N, (3.12)

donde

 
y1 [n]
 .. 
 . 
 
 y1 [n + L] 
 .. 
yA [n] = 
 . 
 (3.13)
 y [n] 
 M 
 .. 
 . 
yM [n + L]

es el vector de observaciones apiladas y wi es el suavizador de dimensiones


(L + 1)M × 1 correspondiente a la detección del flujo de datos i-ésimo (el
parámetro de diseño L marca la longitud del suavizador).
El proceso de obtención de los coeficientes de los N suavizadores comienza
asumiendo que wi∗ son los suavizadores ideales que suprimen la interferencia
intersimbólica y entre flujos de datos, dando como resultado el símbolo
detectado junto con el ruido aditivo blanco gaussiano del receptor,

si [n] = wi∗H yA [n] = xi [n] + ri [n], i = 1, ..., N, (3.14)

de forma que xi [n] es el símbolo transmitido y ri [n] es una muestra de ruido


de una variable gaussiana compleja de media cero y varianza σi2 = σg2 wi∗H wi∗ ,
siendo σg2 la potencia original del ruido equivalente del receptor y σi2 la
potencia de ruido filtrado de cada uno de los flujos de datos extraídos.
Por el momento, por simplicidad, consideramos que σi2 es una constante y
posteriormente se mostrará un sencillo algoritmo para su actualización.

30
Como ilustración de lo anterior, en la Figura 3.5 se muestra la función de
densidad de probabilidad de las señales procesadas por el suavizador ideal
wi∗ en un canal SISO para una modulación de fase en cuadratura (QPSK,
Quadrature Phase Shift Keying) en la que se puede observar que solamente
queda como elemento de distorsión el ruido gaussiano del receptor.

Figura 3.5: Función de densidad de probabilidad de señales QPSK procesadas


para canal igualado

Por otra parte, en la Figura 3.6 se muestra la función de densidad


de probabilidad de las señales antes del suavizador o procesadas por un
suavizador no ideal en un canal SISO que no ha eliminado completamente la
interferencia intersimbólica (en este caso un canal con una memoria P = 2),
que aparece presente además del ruido.

Figura 3.6: Función de densidad de probabilidad de señales QPSK para canal


no igualado

31
Teniendo en cuenta lo anterior, en cierto momento el i-ésimo suavizador
ideal habrá procesado los vectores de señales suficiente para generar K
estimaciones blandas. Se puede demostrar que bajo las asunciones de que
los símbolos transmitidos son independientes e idénticamente distribuidos y
que el ruido de salida del suavizador es blanco (lo cual es razonable ya que
el suavizador ideal wi∗ implícitamente genera este tipo de ruido al suprimir
la correlación del ruido a su salida), la función de densidad de probabilidad
conjunta de estos símbolos si = {si [0], . . . , si [K − 1]} es

 K K−1 " #
1 Y −
|si [n]−x|2

fsi (wi∗ ) = Ex e σ2
i , (3.15)
πσi2 n=0

donde Ex [·] representa la esperanza estadística respecto al símbolo deseado x.


Teniendo en cuenta la modulación empleada A, con símbolos xl , l = 1 . . . |A|,
la esperanza de la Ecuación (3.15) puede desarrollarse de la siguiente forma,

" # |A|
" #
|si [n]−x|2 X |si [n]−xl |2
− −
σ2 σ2
Ex e i = Pr(xl ) e i , (3.16)
l=1

siendo Pr(xl ) la probabilidad del símbolo xl .


Dadas las expresiones anteriores, se puede deducir que el suavizador
buscado wi debe conseguir el comportamiento más parecido posible al ideal
wi∗ cuyas características hemos analizado, por lo que un criterio posible para
determinarlo es aplicar el principio de máxima verosimilitud a la Ecuación
(3.15) para conseguir cada uno de los suavizadores estimados

( K−1
" #)
X −
|si [n]−x|2

b i = arg max L(wi∗ ) =


w log Ex e σ2
i , i = 1, ..., N, (3.17)
wi∗ n=0

donde L(wi∗ ) es la verosimilitud de wi respecto a las estimaciones blandas


del suavizador si [n]. Se puede comprobar por tanto que este criterio busca
que el suavizador calculado consiga las estimaciones blandas que maximicen
la probabilidad de proceder de la distribución óptima (aquella en la que se
ha suprimido toda interferencia menos el ruido aditivo blanco gaussiano).
Teniendo en cuenta que cada uno de los N suavizadores es calculado en
paralelo según el mismo criterio basado en propiedades estadísticas, una de
las consecuencias es la posibilidad de que 2 ó más suavizadores distintos
capturen el mismo flujo de datos. Una posible solución es transmitir junto

32
a los datos de usuario una pequeña secuencia de datos conocidos y distintos
para cada flujo de longitud B<K, condicionando la Ecuación (3.17) a estos
símbolos conocidos xi,B = {xi [0], . . . , xi [B − 1]}. De esta manera se llega al
siguiente criterio semiciego para el cálculo de los suavizadores:

b i = arg max {L(wi∗ )|xi,B } ,


w (3.18)
wi∗

donde

B−1 K−1
" #
X X −
|si [n]−x|2

L(wi∗ )|xi,B = − |si [n] − xi [n]|2 + log Ex e σ2


i . (3.19)
n=0 n=B

El término de regularización asociado a los símbolos piloto en la Ecuación


(3.19) se encarga de evitar la captura de un flujo de datos determinado por
parte de suavizadores distintos al configurado para ello, ya que cada uno de
ellos tendrá asociada una secuencia de datos distinta y disminuirá el valor de
la verosimilitud. Este comportamiento se acentúa según aumenta la longitud
de la secuencia conocida de datos.
La Ecuación (3.19) no permite una solución cerrada, por lo que se opta
por una aproximación basada en el algoritmo EM. El algoritmo EM es
un algoritmo numérico iterativo enfocado a la resolución de problemas de
máxima verosimilitud [26, 27], cuyas características más relevantes son su
convergencia garantizada bajo ciertas condiciones a un máximo local en el
peor de los casos y una verosimilitud no decreciente en cada iteración.
Siguiendo la notación habitual para el algoritmo EM, se considera
la secuencia de estimaciones blandas {si [n]}n=0...K−1 los datos observados
o incompletos y la secuencia de datos originales {xi [n]}n=0...K−1 los
datos ocultos. Por lo tanto, los datos completos son la secuencia
{si [n], xi [n]}n=0...K−1 y se puede llegar al siguiente algoritmo iterativo con
sus pasos de esperanza (E) y maximización (M)

B−1
X K−1
X
2  
E: U (w, ŵi [l]) = − |si [n] − xi [n]| − Exi [n]|si [n];ŵi [l] |si [n] − xi [n]|2
n=0 n=B
(3.20)
M: w
b i [l + 1] = arg max {U (w, ŵi [l])} (3.21)
w

En (3.20), Exi [n]|si [n];ŵi [l] [·] indica la esperanza respecto a los símbolos xi [n]
condicionada a las estimaciones blandas si [n] con un suavizador ŵi [l].

33
Teniendo en cuenta que la Ecuación (3.21) es una expresión cuadrática
pura posee una solución analítica, de tal manera que se puede expresar la
iteración completa del algoritmo EM de la siguiente forma,

K−1
!−1 B−1 K−1
!
X X X
b i [l+1] =
w H
y[n]y [n] y[n]x∗i [n] + Exi [n]|si [n];ŵi [l] [x∗i [n]] y[n] .
n=0 n=0 n=B
(3.22)
La esperanza del segundo término de la Ecuación (3.22) puede desarrollarse
por medio de la aplicación del teorema de Bayes

" #
|si [n]−xi [n]|2

σ2
Exi [n] x∗i [n]e i

Exi [n]|si [n];ŵi [l] [x∗i [n]] =  |si [n]−x′ |2


 , (3.23)

σ2
E x′ e i

consiguiendo de esta manera una expresión cerrada para la iteración.


Se puede observar que la expresión anterior depende de la potencia del
ruido procesado por el suavizador, que previamente consideramos constante.
Sin embargo dicha potencia depende de los coeficientes ŵi , por lo que una
posible y sencilla regla de adaptativa para dicho valor es la siguiente:

σi2 [l] = σg2 ŵiH [l]ŵi [l], (3.24)

de tal forma que para cada uno de los N suavizadores la potencia del ruido
procesado se calcula a partir de la potencia de ruido original del receptor, de
la cual se supone que se posee una estimación fiable a priori, y los coeficientes
de cada suavizador en la iteración correspondiente.
La longitud de la secuencia de entrenamiento B se fija en [25] en torno a
la décima parte de la longitud total de la secuencia K. Dado que la función de
la secuencia de entrenamiento es básicamente la distinción entre los distintos
flujos de usuarios, la elección de las mismas es un aspecto a tener en cuenta
para que no haya problemas de captura errónea.
Una característica relevante de este algoritmo es que es capaz de trabajar
con todo tipo de constelaciones, ya que el principio de funcionamiento basado
en la función de densidad de probabilidad no impone ninguna restricción
sobre la misma, tal como se puede apreciar en las Ecuaciones (3.15), (3.19)
y (3.22).

34
3.4.2. Detección semiciega basada en CMA

Principio de funcionamiento

La técnica semiciega de detección para sistemas MIMO basada en el


algoritmo de módulo constante (CMA, Constant Modulus Algorithm) es
desarrollada en [28]. Esta técnica define una función de coste basada en
los criterios LS y CM (Constant Modulus), de forma que su minimización
implique que se supriman tanto la interferencia intersimbólica debida a la
memoria del canal como la interferencia entre los distintos flujos de datos.
Esta técnica lleva a cabo un procesamiento lineal sobre los símbolos
recibidos y aprovecha unas secuencias cortas de datos conocidos trasmitidas
por cada una de las antenas para evitar los problemas de convergencia lenta
o errónea típicos del algoritmo CM. La determinación de los suavizadores se
lleva a cabo mediante un algoritmo de búsqueda local de segundo orden de
tipo Gauss-Newton [29].

Algoritmo CM

El algoritmo CM, desarrollado originalmente por Godard [30], es


probablemente el algoritmo ciego de igualación de canales más utilizado en
sistemas de comunicaciones y sobre el cual más se ha estudiado y trabajado
en sus diversos aspectos, debido a su relativa sencillez conceptual así como a
sus buenos resultados.
El objetivo del algoritmo CM es la igualación de canales con memoria
a través de la definición de una función de coste que caracteriza la
interferencia intersimbólica a la salida del suavizador, al mismo tiempo que
es independiente de la fase de la portadora de la modulación. Todo ello se
lleva a cabo a través de la siguiente función de coste (definida en este caso
para un canal SISO por sencillez),

h 2 i h 2 i
J(w) = E |s|2 − 1 =E |wH yA |2 − 1 . (3.25)

La minimización del coste de la Ecuación (3.25) está asociada a que la


esperanza de la estimación blanda del suavizador s tenga un módulo cercano
a la unidad. Debido a este criterio, a priori, las constelaciones más adecuadas
para su uso con el algoritmo CM son aquellas cuyos símbolos poseen un
módulo de valor unidad, como las modulaciones de fase (PSK, Phase Shift
Keying). Sin embargo, el rendimiento también es bueno para modulaciones de
potencia no constante como QAM (Quadrature Amplitude Modulation) [30].

35
Mostramos en la Figura 3.7(a) y en la Figura 3.7(b) respetivamente las
contelaciones QPSK y QAM de 16 símbolos junto con el contorno, en azul,
que define el coste cero para el CMA.
2 2

1 1
Cuadratura

Cuadratura
0 0

−1 −1

−2 −2
−2 −1 0 1 2 −2 −1 0 1 2
Fase Fase

(a) Constelación QPSK para CMA (b) Constelación QAM para CMA

Figura 3.7: Constelaciones para CMA

A la vista de las gráficas anteriores, es evidente la idoneidad de las


modulaciones de fase puras para la aplicación del CMA, ya que un suavizador
que estime a la perfección los símbolos incurrirá en un coste nulo según (3.25).
Por otra parte, las constelaciones tipo QAM no generan un coste mínimo
cuando han sido estimadas con precisión en el receptor lo que puede llevar
a problemas. A pesar de que el CMA tiene un rendimiento aceptable para
este tipo de constelaciones de potencia no constante [30], se han desarrollado
variantes del algoritmo original que tienen en cuenta este tipo de señales,
normalmente definiendo distintas zonas dentro del espacio de la constelación
y asociando a cada una de ellas una función de coste particular, de forma
que se aplica la función de coste de la zona en la que se sitúe la estimación
blanda del suavizador [31].
De las gráficas anteriores también se puede observar que para las
modulaciones de fase puras, cualquier rotación de fase debida a la portadora
o al suavizador mantiene constante el coste CM, debido a que la Ecuación
(3.25) es insensible a la fase de las señales estimadas del suavizador. De
tal forma que surgen varias cuestiones respecto a este asunto. En primer
lugar, es necesario alinear las estimaciones de salida del suavizador a los
ángulos correctos (p. ej. 0o , 90o , 180o y 270o en el caso de QPSK) para que
no se deteriore el rendimiento en la etapa de decisión dura. En el artículo
original [30], se propone un bloque de recuperación de fase que se ajusta
al mismo tiempo que los suavizadores en base a sus estimaciones y que
recobra el alineamiento correcto según el criterio de error cuadrático mínimo
(MMSE, Minimum Mean Square Error ). A lo largo de este proyecto seguimos

36
la aproximación propuesta en [32], que se basa en apreciar que cada uno de
los símbolos originales xa de la constelación A-PSK junto con su fase pueden
expresarse como

2πa
xa = ejθa , θa = , a = 0, ..., A − 1, (3.26)
A

de forma que el término de fase θa de cada símbolo de la constelación puede


ser expresado de la forma equivalente

 
A
sin θa = 0. (3.27)
2

De esta manera, el alineamiento perfecto de fase de las mismas θ̂a genera un


coste cero de la Ecuación (3.27) y cualquier desajuste lo incrementa. Teniendo
en cuenta ambos factores (módulo y fase) podemos definir la función de coste

h   
2
2 i 2 A
J(w) = E |s| − 1 + E sin θ̂a , (3.28)
2

que, para modulaciones PSK, es capaz de eliminar la interferencia


intersimbólica y alinear correctamente las estimaciones blandas.
La segunda cuestión relativa a la fase corresponde con el hecho de que,
supuesto un alineamiento perfecto de fase de las estimaciones de salida del
suavizador, una rotación de dichas estimaciones con un valor igual a la
separación de fase original de la constelación ( 2π A
en una modulación A-
PSK) obtiene el mismo coste en la Ecuación (3.28) por lo que no existe
una referencia absoluta del símbolo transmitido, pudiendo llevar a una
degradación severa del rendimiento. Una posible solución a este problema
es la trasmisión mediante un esquema diferencial, de tal forma que la
información transmitida se encuentra en las transiciones entre símbolos,
siendo por lo tanto insensible a las rotaciones de fase.
Uno de los aspectos más delicados del CMA es su inicialización y
convergencia. La superficie de coste de la Ecuación (3.25) es una función
multimodal de los coeficientes del suavizador w, por lo que, a diferencia
de aquellas superficies que son convexas, una inicialización del suavizador
incorrecta puede llevar a una convergencia lenta debido a la atracción de los
puntos silla o incluso a un mínimo local de la función de coste que no es el
óptimo, por lo que se ha dedicado mucho esfuerzo para conseguir técnicas
adecuadas para este cometido [33].

37
Una de las técnicas de inicialización más extendidas es la denominada
inicialización de pico único (single spike initialization), que está basada en
asignar un valor nulo a todos los coeficientes del suavizador a excepción de
uno de ellos, cuya localización suele ser la zona central de coeficientes [33].
Otra técnica posible, utilizada en este proyecto, es la presentada en [34],
que se basa en apreciar que la respuesta conjunta (convolución) del canal de
comunicaciones y el suavizador debe ser, idealmente, una función delta con
un cierto desplazamiento temporal k respecto al origen, tal como δ[n − k].
De esta forma, si la inicialización del suavizador consigue aproximar esta
respuesta conjunta, el algoritmo de búsqueda ya comenzará con un cierto
grado de convergencia.
La inicialización del suavizador según este criterio se realiza mediante el
cálculo de la función de autocorrelación de la señal de llegada (mostrada para
el caso SISO, siendo la extensión al caso MIMO directa)

LX
max

v[k] = y[n]y ∗ [n − k], k = −L, ..., L, (3.29)


n=−Lmax

donde Lmax es el límite para el cálculo de la autocorrelación, siendo más


fiable cuanto mayor sea este valor, y 2L+1 la longitud calculada de la función
de autocorrelación. Cada uno de los 2L + 1 coeficientes wk del suavizador w
son inicializados según los valores calculados de la autocorrelación

v[k]
w[k] = , k = −L, ..., L, (3.30)
v[0]
PLmax
normalizada por el factor v[0] = n=−Lmax |y[n]|2 .
El CMA es capaz, en un sistema de comunicaciones SISO, de eliminar la
interferencia intersimbólica de forma que se recupere la secuencia original de
datos. Una de las características relevantes del algoritmo es que, en sistemas
de comunicaciones MIMO, es capaz de extraer de forma correcta un flujo de
datos correspondiente a un usuario cuando se aplica a las señales recibidas
yA [n], de forma que es capaz de eliminar la interferencia entre flujos de datos
así como la interferencia intersimbólica [35–37].
El CMA es una técnica ciega de detección y los problemas asociados
comentados en este apartado desaparecen cuando este algoritmo es utilizado
como parte de una técnica semiciega como las estudiadas. La inclusión de
datos conocidos aporta la información necesaria para que la inicialización del
CMA sea correcta con una buena convergencia y que la indeterminación de
fase desaparezca, por lo que se convierte en una poderosa herramienta.

38
Expresiones

El objetivo de esta técnica de detección es la supresión tanto de la


interferencia intersimbólica como de la interferencia entre los distintos flujos
de datos a través de la minimización de una función de coste definida por
los criterios LS y CM. Aunque en [28] se considera también el problema del
desfase temporal entre las ráfagas de datos de los distintos flujos, ese objetivo
no se enmarca dentro de este proyecto, por lo que lo dejamos de lado y
revisamos la técnica propuesta en su formulación original. El procesamiento
lineal del receptor, tal como presentamos en la Sección 3.2, puede ser dividido
en N subproblemas paralelos, cada uno de ellos correspondiente a la detección
de cada uno de los N flujos de datos originales de la fuente,

si [n] = wiH yA [n], i = 1, ..., N, (3.31)

donde

 
y1 [n]
 .. 
 . 
 
 y1 [n + L] 
 .. 
yA [n] = 
 . 
 (3.32)
 y [n] 
 M 
 .. 
 . 
yM [n + L]

es el vector de observaciones apiladas, wi es el suavizador de dimensiones


(L + 1)M × 1 correspondiente a la detección del flujo de datos i-ésimo y L
marca la longitud del suavizador.
Considerando una secuencia de datos conocidos de longitud B y una
longitud de datos de usuario K−B, la función de coste que se busca minimizar
es

B−1
X K−1
X 

J(wi ) = xi [n] − wiH yA [n] 2 + ρ wiH yA [n] − 1 2 , (3.33)
n=0 n=1

donde ρ es el coeficiente de regularización. Se aprecia que se busca minimizar


la diferencia entre las estimaciones blandas del suavizador respecto a los B
datos conocidos según el criterio LS, así como minimizar simultáneamente el
coste CM de todos los símbolos.

39
El suavizador i-ésimo se obtiene resolviendo el problema de optimización

(B−1 K−1
)
X 2
X   2
b i = arg min
w xi [n] − wiH yA [n] + ρ wiH yA [n] − 1 . (3.34)
w
n=0 n=1

El algoritmo de búsqueda utilizado para encontrar la solución del problema


(3.34) es Gauss-Newton [29], que se trata de un algoritmo de búsqueda local
iterativo que tiene en cuenta también la información de las derivadas de
segundo orden de la función de coste (a través de la matriz Hessiana). Las
expresiones para el cálculo iterativo de los suavizadores son

 −1 h   i
b i [l+1] = w
w b i [l]− R̂C + ρR̂T b i [l] − P̂ + ρ R̂T − R̂P (w
R̂C w b i [l]) w b i [l] ,
(3.35)
donde

B
1 X H
R̂C = yA [n]yA [n], (3.36)
B n=1

K
1 X H
R̂T = yA [n]yA [n], (3.37)
K n=1

B
1 X ∗
P̂ = x [n]yA [n], (3.38)
B n=1 i

K
1 X H −1
b i [l]) =
R̂P (w b i [l]yA [n] yA [n]yA
w H
[n], (3.39)
K n=1

 −1
b i [0] = R̂C + δI
w P̂. (3.40)

Las expresiones anteriores muestran que el algoritmo Gauss-Newton tiene


una complejidad alta en comparación a los métodos basados en las derivadas
de primer orden, debido al cálculo en cada iteración de varias matrices y
vectores y la inversión de alguna de ellas. La gran ventaja de este método de
segundo orden es que presenta una convergencia más rápida que los métodos
basados en la derivada primera, ya que la dirección de optimización en cada
iteración apunta al mínimo de la función de coste.

40
Una vez determinados los suavizadores, se lleva a cabo un procesamiento
que explota la propiedad del alfabeto finito de la señal deseada a través
del modo de proyección desacoplada [28]. Esta técnica iterativa procesa
los símbolos previamente estimados por el suavizador según el criterio
LS, considerando sin embargo solamente aquellos símbolos estimados cuya
distancia al alfabeto de la modulación sea menor que un cierto valor ∆ como
símbolos conocidos para el LS.
El modo de proyección desacoplada toma como valores iniciales s̃0i [n] los
símbolos estimados por cada uno de los suavizadores si [n]. En la iteración l,
los nuevos símbolos s̃li [n] se calculan a partir de las siguientes expresiones

s̃li [n] = w̃iH yA [n], l ≥ 1, (3.41)

donde

w̃i = R̃−1 P̃, (3.42)


1 X H
R̃ = yA [ng ]yA [ng ], (3.43)
Ñ g=1


1 X  l 
P̃ = f s̃i [ng ] yA [ng ], (3.44)
Ñ g=1

siendo f [·] el proceso de detección dura y ng , g = 1...Ñ son los índices


temporales para los cuales la distancia del símbolo al alfabeto es menor que
un valor ∆, tal como

h  i
ng = n, min |xh − s̃li [n]| < ∆ . (3.45)
h

La longitud de la secuencia de entrenamiento B se fija en [28] a un


valor algo superior a la décima parte de la longitud total de la secuencia
K. La elección de estas secuencias es un aspecto a tener en cuenta para
que no haya problemas de captura errónea. Debido a que esta técnica se
basa fundamentalmente en el CMA, a priori es adecuada solamente para
constelaciones de potencia constante, tales como las modulaciones de fase
pura, lo que puede ser considerado como una restricción de la misma.

41
3.5. Técnicas ciegas de detección

Las técnicas ciegas de detección estudiadas se basan en explotar las


características de las señales utilizadas en el sistemas de comunicaciones
(tales como pueden ser la potencia de los símbolos de la constelación o la
independencia entre flujos de datos), ajustando el procesamiento del receptor
exclusivamente en función de dichas características y las observaciones del
receptor (desconocidas a priori). Por lo tanto, no se transmite ninguna
secuencia de datos conocidos junto a los datos de usuario.
Las técnicas ciegas presentan como principal ventaja su alta eficiencia
espectral, ya que no es necesaria la transmisión de secuencias de datos
conocidos para la convergencia, por lo que solamente se transmiten datos
de usuario. Sin embargo, la desventaja principal son los problemas de
convergencia que presentan respecto a las técnicas semiciegas, ya que la falta
de una inicialización adecuada puede llevar a una convergencia muy lenta o
incluso a la no convergencia de los algoritmos.

3.5.1. Detección ciega iterativa basada en CMA

Principio de funcionamiento

La técnica ciega de detección iterativa para sistemas MIMO basada en el


CMA es desarrollada en [35]. Esta técnica se basa en procesar las señales de
llegada de manera iterativa, de forma que en cada una de las N iteraciones
se detecta uno de los flujos de datos transmitidos a través de la aplicación del
CMA. Tras la detección de cada flujo de datos, se lleva a cabo una estimación
del subcanal SIMO establecido entre la antena del flujo de datos detectado
y las antenas receptoras a través del cálculo de la correlación entre la señal
detectada y las señales recibidas, tras lo cual se suprime dicho flujo de datos
transmitido a través del canal de las señales recibidas. Este proceso se lleva
a cabo hasta que todos los flujos de datos han sido detectados. La aplicación
de esta técnica causa que se supriman tanto la interferencia intersimbólica
debida a la memoria del canal como la interferencia entre los distintos flujos
de datos.
Esta técnica lleva a cabo un procesamiento lineal sobre los símbolos
recibidos sin hacer uso de secuencias de datos conocidos. El algoritmo de
búsqueda propuesto para la minimización de la función de coste es el descenso
de gradiente. Una de las características relevantes de esta técnica es que,
además de la detección de las señales, se obtiene una estimación de la matriz
de canal H.

42
Detección iterativa

El proceso de detección iterativa llevado a cabo puede describirse según


la Figura 3.8.

Figura 3.8: Proceso de detección iterativa

El proceso va detectando de forma sucesiva cada uno de los N flujos de


datos y los va sustrayendo de las señales recibidas al ser considerados como
interferencia que puede ser eliminada.
La ventaja principal del proceso de detección iterativa es su relativa
sencillez, ya que solamente es necesario el cálculo simultáneo de un
suavizador, el correspondiente al flujo i-ésimo i = 1, ..., N , lo que alivia la
carga computacional del receptor.
Las desventajas asociadas a este tipo de detección son varias. En primer
lugar, debido a la naturaleza iterativa de la técnica, los flujos de datos no
pueden se detectados y entregados a su destino de manera simultánea, lo que
puede ser un inconveniente en sistemas con fuertes restricciones de tiempo
real. En segundo lugar, debido a que existe una dependencia entre los datos
de las distintas iteraciones puede producirse propagación de errores desde
una iteración hasta las siguientes, ya que un error de estimación de símbolo
afecta a toda las etapas posteriores. Por último, una cuestión crítica para el
buen funcionamiento del proceso iterativo es que exista una sincronización
perfecta a lo largo del proceso (lo que implica que se debe conocer el posible
retardo introducido por cada suavizador), ya que de no existir se incurriría
en fallos generalizados en etapas posteriores por la propagación de errores.

43
Expresiones

El objetivo de esta técnica de detección es la supresión tanto de la


interferencia intersimbólica como de la interferencia entre los distintos flujos
de datos a través de la minimización iterativa de una función de coste definida
por el criterio CM. Debido al principio de funcionamiento, el procesamiento
lineal del receptor no puede ser dividido en N subproblemas paralelos aunque
se mantienen las expresiones para cada uno de los suavizadores

si [n] = wiH yA [n], i = 1, ..., N, (3.46)

donde

 
y1 [n − L]
 .. 
 . 
 
 y1 [n + L] 
 .. 
yA [n] = 
 . 
 (3.47)
 y [n − L] 
 M 
 . 
 .. 
yM [n + L]

es el vector de observaciones apiladas, wi es el suavizador de dimensiones


(2L + 1)M × 1 correspondiente a la detección del flujo de datos i-ésimo y L
marca la longitud del suavizador.
La función de coste minimizada en cada iteración es

h 2 i h 2 i
2
J(wi ) = E |si [n]| − 1 =E |wiH yA [n]|2 −1 , (3.48)

de manera que se persigue resolver el problema de optimización

n h 2 io
b i = arg min E |wiH yA [n]|2 − 1
w . (3.49)
w

Con el objetivo de mantener una carga computacional baja, la búsqueda


de la solución del problema de optimización (3.49) se lleva a cabo mediante
un algoritmo de descenso de gradiente

  
b i [l + 1] = w
w b i [l] − µE |si [n]|2 − 1 s∗i [n]yA [n] . (3.50)

44
Según el proceso de la Figura 3.8, el primer paso en cada iteración es la
detección dura de uno de los N flujos de datos transmitidos,

 
x̂i [n] = f [si [n]] = f wiH yA [n] . (3.51)

Una vez obtenida la secuencia de datos transmitida en la iteración analizada,


se lleva a cabo el proceso de sustracción del flujo de datos detectado del
conjunto de observaciones remanente en dicha iteración.
En primer lugar se realiza una estimación del canal SIMO 1 × M
equivalente entre la antena transmisora correspondiente al flujo de datos
detectado i-ésimo y las M antenas del receptor. Para ello, se calcula la
correlación entre los simbolos detectados x̂i [n] y las observaciones yj [n],

E [x̂i [n − τ ]yj [n]]


ĥij [τ ] = , j = 1, ..., M, (3.52)
E [|x̂i [n]|2 ]

de forma que se realiza una estimación de cada uno de los M coeficientes del
canal SIMO buscado ĥij [τ ] con sus componentes temporales de multitrayecto.
La estimación es buena si la longitud de los datos utilizados es lo
suficientemente larga como para que se suprima el efecto de los restantes
flujos de datos todavía no extraídos, ya que se parte de la premisa de
independencia estadística espacial y temporal entre los N flujos de datos.
En segundo lugar, una vez se tiene el flujo de símbolos detectados y el
canal SIMO 1 × M equivalente, se puede calcular la contribución de estos
símbolos i-ésimos x̂i [n], denominada yij [n], a los símbolos recibidos yj [n]
mediante la operación de convolución según el modelo del Apartado 2.2.2,

P
X −1
yij [n] = ĥij [τ ]x̂i [n − τ ]. (3.53)
τ =0

En tercer y último lugar, se procede a eliminar la contribución del i-ésimo


flujo de datos (3.53) de los símbolos recibidos yj [n], j = 1, ..., M,

yj′ [n] = yj [n] − yij [n], j = 1, ..., M, (3.54)

de tal forma que en la siguiente iteración, se consideran como observaciones


recibidas el conjunto yj′ [n] del cual se ha extraído el efecto del flujo i-ésimo.
El procedimiento descrito se lleva a cabo de forma iterativa N veces hasta
que se han detectado los N flujos de datos transmitidos.

45
Una de las características relevantes de esta técnica de detección es que
es capaz de obtener una estimación explícita de la matriz MIMO del canal,
que denominamos Ĥ, a partir de las N estimaciones de canales SIMO. Sin
embargo, dicha estimación está sujeta a indeterminaciones de desplazamiento
temporal y permutación. La indeterminación del desplazamiento temporal es
debida a que, durante la detección de cada uno de los flujos, los suavizadores
pueden introducir un desplazamiento temporal en la secuencia de datos.
La permutación es debida que el proceso iterativo no garantiza recuperar
cada uno de los flujos de datos en un orden concreto, por lo que la matriz
Ĥ puede diferir en el orden de las columnas respecto a la real H. Estas
indeterminaciones pueden ser expresadas de forma matricial de la siguiente
manera teórica que permite analizar su impacto en la técnica de detección,

H = ĤDP, (3.55)

donde D es una matriz de dimensiones M × M que corrige el posible


desplazamiento erróneo de cada una de las entradas ĥij [τ ] de la matriz Ĥ
y P es una matriz de permutación de dimensiones M ×M que reordena las
columnas de Ĥ al tener una elemento igual a la unidad en cada fila y columna
y el resto de sus elementos igual a cero. Estas indeterminaciones condicionan
de manera esencial el rendimiento alcanzable por esta técnica de detección, ya
que cualquier desplazamiento temporal de uno o más flujos o la permutación
de los mismos lleva a fallos sistemáticos de decisión.
El ruido del receptor afecta de manera doble a esta técnica de detección.
Por un parte, como al resto de las técnicas, la estimación blanda de salida
del suavizador es afectada por la adición del ruido blanco gaussiano. Por
otra parte, partiendo de (3.52) y tras un breve desarrollo se llega a que los
coeficientes ĥij [τ ] incluyen tanto la información deseada de los mismos como
una componente adicional dependiente del ruido y de los coeficientes del
suavizador, en concreto

E [x̂i [n − τ ]yj [n]]


ĥij [τ ] = ≈ σx2 hij [τ ] + σg2 wi [τ ], (3.56)
E [|x̂i [n]|2 ]

donde σx2 es la potencia de señal y σg2 es la potencia de ruido. Se aprecia


que, a falta de un procesado posterior, el ruido provoca que los coeficientes
del suavizador se sumen a los de canal, siendo mayor la interferencia cuanto
mayor sea el ruido.
Debido a que esta técnica se basa en el CMA, a priori es adecuada
solamente para constelaciones de potencia constante, tales como las
modulaciones de fase pura, lo que puede ser considerado como una restricción.

46
3.5.2. Detección ciega paralela basada en CMA

Principio de funcionamiento

La técnica ciega de detección paralela para sistemas MIMO basada en


el CMA es desarrollada en paralelo en [36] y en [37], aunque seguiremos
básicamente la referencia [36]. Esta técnica está basada en detectar de forma
paralela todos los flujos de datos transmitidos a través de la aplicación
simultánea de N suavizadores definidos según el criterio CM. Dado que
el CMA extrae un flujo de datos sin ninguna otra restricción, existe la
posibilidad de que se extraiga el mismo flujo por parte de 2 ó más suavizadores
lo que llevaría a una degradación muy importante del rendimiento. Dicho
problema se solventa añadiendo un término a la función de coste CM
que penalice la extracción simultánea del mismo flujo de datos por parte
de suavizadores diferentes, lo que se consigue a través del cálculo de las
correlaciones cruzadas entre los distintos flujos de datos detectados a la salida
de cada suavizador.
Esta técnica realiza un procesamiento lineal sobre los símbolos recibidos
sin hacer uso de secuencias de datos conocidos, suprimiendo la interferencia
intersimbólica debida a la memoria del canal como la interferencia entre
los distintos flujos de datos. El algoritmo de búsqueda propuesto para la
minimización de la función de coste compuesta es el descenso de gradiente.

Detección paralela

El proceso de detección paralela llevado a cabo puede describirse según


la Figura 3.9.

Figura 3.9: Proceso de detección paralela

47
El receptor detecta simultáneamente cada uno de los N flujos de datos,
evitando la captura de un mismo flujo por varios suavizadores por medio del
cálculo de las correlaciones entre los flujos de datos detectados y penalizando
esta circunstancia para que no se produzca.
Las ventajas de esta técnica de detección paralela son varias. En primer
lugar, los flujos de datos pueden ser detectados y entregados a su destino
en paralelo simultáneamente, lo que puede ser imprescindible en algunas
aplicaciones. En segundo lugar, a diferencia de la detección iterativa, no se
produce propagación de errores ya que el resultado de un suavizador no
influye directamente en el resto (solamente de forma indirecta a través de las
correlaciones cruzadas).
La desventaja principal del proceso de detección paralela es su
complejidad mayor comparado con la estrategia de detección iterativa,
debido a que deben calcularse de forma simultánea N suavizadores además
de realizar los cálculos de las correlaciones cruzadas entre los flujos de
datos detectados en cada iteración, lo cual impone un coste computacional
relativamente alto.

Expresiones

El objetivo de esta técnica de detección es la supresión de forma paralela


tanto de la interferencia intersimbólica como de la interferencia entre los
distintos flujos de datos a través de la minimización de una función de
coste definida por el criterio CM más un término que penaliza la extracción
del mismo flujo de datos por más de un suavizador. Debido al principio
de funcionamiento, el procesamiento del receptor puede ser dividido en N
subproblemas paralelos. La estimación del i-ésimo flujo de datos se realiza

si [n] = wiH yA [n], i = 1, ..., N, (3.57)

donde

 
y1 [n − L]
 .. 
 . 
 
 y1 [n + L] 
 .. 
yA [n] = 
 . 
 (3.58)
 y [n − L] 
 M 
 .. 
 . 
yM [n + L]

48
es el vector de observaciones apiladas, wi es el suavizador de dimensiones
2(L + 1)M × 1 correspondiente a la detección del flujo de datos i-ésimo y L
marca la longitud del suavizador.
La función de coste que debe ser minimizada es

h 2 i N
X δX
M AX

J(wi ) = E 2
|si | − 1 + |rig [δ]|2 (3.59)
g=1,g6=i δ=−δM AX

donde rig [δ] es la función de correlación entre el flujo i-ésimo y el flujo g-


ésimo y δM AX es el desfase temporal máximo que se considera para el cálculo
de las correlaciones,

 
rig [δ] = E si [n]s∗g [n − δ] . (3.60)

De forma que se busca minimizar el coste CM respecto a los símbolos


procesados teniendo en cuenta las correlaciones cruzadas. Se aprecia en la
Ecuación (3.59) que el mínimo de la función de coste se alcanza cuando
se ha conseguido detectar correctamente según el término CM y el flujo de
datos no ha sido detectado por otra rama de procesamiento, lo que lleva
a un coste mínimo para el segundo término. El cálculo de las correlaciones
se lleva a cabo para un desplazamiento máximo δM AX , lo que implica que
se tienen en cuenta los posibles desplazamientos temporales introducidos
por los suavizadores en los correspondientes flujos de salida a la hora de
analizar posibles coincidencias y a la hora de actualizar los coeficientes de los
suavizadores para evitar tal situación.
Cada uno de los suavizadores buscados se obtiene como resutado del
problema de optimización

( )
h 2 i N
X δX
M AX

b i = arg min E
w |si |2 − 1 + |rig [δ]|2 . (3.61)
w
g=1,g6=i δ=−δM AX

La aplicación del método de búsqueda de descenso de gradiente sobre la


función de coste (3.61) lleva a la siguiente expresión iterativa para el cálculo
de los suavizadores:

b i [l + 1] = w
w b i [l] − µ∆i (3.62)

49
donde µ es el parámetro de adaptación del descenso de gradiente y ∆i el
término que indica la dirección de optimización en la superficie de coste del
algoritmo. Específicamente

N
X δX
 2
  M AX
 
∆i [l] = E |si [n]| − 1 s∗i [n]yA [n] + H
rig [δ]E sg [n − δ]yA [n] .
g=1,g6=i δ=−δM AX
(3.63)
Uno de los aspectos que merece ser comentado es que el término de
correlaciones cruzadas entre los distintos flujos de datos es insensible a la
rotación de fase que puede aparecer en las técnicas basadas en el CMA
(Apartado 3.4.2). Si el mismo flujo de datos es detectado por 2 suavizadores
distintos pero uno de los flujos detectados sufre una rotación de fase respecto
al otro, el segundo término de la función de coste (3.59) lo penaliza igualmente
en una etapa previa al proceso de demodulación diferencial necesario para
entregar al receptor una secuencia de datos con una referencia absoluta.
Aunque no está contemplado en el desarrollo original, al igual que en la
detección ciega iterativa (Apartado 3.5.1) se puede realizar una estimación
de la matriz de canal H con las mismas limitaciones en cuanto a la
existencia de indeterminaciones respecto a los desplazamientos temporales
y permutación de las columnas de la misma. Estas limitaciones afectan
igualmente al rendimiento alcanzable por esta técnica en su formulación
original provocando errores sistemáticos de detección.
Al igual que todas las técnicas basadas en el CMA, esta técnica de
procesamiento paralelo a priori es adecuada solamente para constelaciones de
potencia constante, tales como las modulaciones de fase pura, lo que puede
ser considerado como una desventaja.

50
Capítulo 4

Técnica ciega de detección MIMO


de máxima verosimilitud con
correlaciones cruzadas

4.1. Introducción

A lo largo del Capítulo 3 hemos llevado a cabo la presentación de un


conjunto de técnicas de detección para sistemas de comunicaciones MIMO.
En particular, hemos analizado el principio de funcionamiento y expresiones
de la técnica óptima de detección de máxima verosimilitud, de 2 técnicas
semiciegas de detección y 2 técnicas ciegas de detección. Esta revisión nos ha
permitido valorar distintas estrategias para abordar el procesamiento digital
de detección del receptor MIMO, considerando para cada una de ellas sus
puntos fuertes y débiles. Idealmente, la técnica óptima de detección, desde un
punto de vista global, es aquella que obtiene el mejor rendimiento posible en
cuanto a probabilidad de error de detección con la menor complejidad posible,
tarea que se aborda intentando conseguir una solución de compromiso que
tenga en cuenta las necesidades concretas de la aplicación bajo estudio.
A lo largo de este capítulo, nos basamos en las técnicas ya estudiadas
junto con nuevas propuestas para definir una técnica lineal ciega de detección
paralela basada en el principio de máxima verosimilitud (MV) y correlaciones
cruzadas (CC). Llevamos a cabo la definición de la función de verosimilitud
regularizada, el algoritmo de búsqueda local utilizado para la maximizacion
de la misma, la técnica de inicialización de la matriz de suavizadores, un
pequeño análisis cualitativo sobre la superficie de error de la función de coste
y una posible solución sencilla al problema de la sincronización y permutación
de los flujos de datos detectados característico de las técnicas ciegas.

51
4.2. Arquitectura y modelo de señal

La arquitectura propuesta puede describirse según la Figura 4.1.

Figura 4.1: Arquitectura de la técnica de detección MV-CC

El receptor detecta simultáneamente cada uno de los N flujos de datos


según el principio de máxima verosimilitud, evitando la captura de un mismo
flujo por varios suavizadores por medio del cálculo de las correlaciones entre
los flujos de datos detectados y penalizando esta circunstancia para que no
se produzca. Posteriormente se lleva a cabo la sincronización entre los flujos
y la ordenación de los mismos.
El procesamiento lineal del receptor, tal como presentamos en la Sección
3.2, puede ser dividido en N subproblemas paralelos. La estimación del i-
ésimo flujo de datos se realiza

si [n] = wiH yA [n], i = 1, ..., N, (4.1)

donde

 
y1 [n − L]
 .. 
 . 
 
 y1 [n + L] 
 .. 
yA [n] = 
 . 
 (4.2)
 y [n − L] 
 M 
 . 
 .. 
yM [n + L]

es el vector de observaciones apiladas, wi es el suavizador de dimensiones


2(L + 1)M × 1 correspondiente a la detección del flujo de datos i-ésimo y L
marca la longitud del suavizador.

52
4.3. Función de verosimilitud regularizada

La función de verosimilitud regularizada, que denominamos Vc (wi ), debe


basarse, al tratarse de una técnica ciega de detección, en las propiedades
estadísticas del sistema, ya que no se llega a transmitir ninguna secuencia
conocida de datos. Optamos por una función mixta de verosimilitud y coste
con 2 términos bien diferenciados. Por una parte, un término de verosimilitud,
denominado V (wi ), que favorezca que la función de densidad de probabilidad
de las señales procesadas por los suavizadores sea lo más parecida a la óptima
(aquella en la que se han suprimido la interferencia intersimbólica y entre
flujos). Por otra parte, un término de coste, denominado C(wi ), que penalice
la extracción del mismo flujo de datos por parte de más de un suavizador.
De forma que podemos expresarla

Vc (wi ) = V (wi ) − C(wi ). (4.3)

De la definición de la función de verosimilitud regularizada se deriva que


se busca la maximización de la misma, lo que implica una verosimilitud V (wi )
máxima (se ha conseguido la detección de un flujo eliminando la interferencia
intersimbólica y entre flujos) junto con un coste C(wi ) mínimo (ningún flujo
de datos ha sido detectado simultáneamente por más de un suavizador).
Definimos en primer lugar el término de verosimilitud que favorece que la
función de densidad de probabilidad de las señales procesadas sea la óptima
desde el punto de vista de detección. Hacemos uso de las mismas expresiones
que las presentadas en el algoritmo semiciego basado en el principio de
máxima verosimilitud (Apartado 3.4.1), por lo que solamente presentamos
los resultados finales.
Bajo las asunciones de que los símbolos transmitidos son independientes
e idénticamente distribuidos, que el ruido de salida de cada uno de los
suavizadores es blanco, aditivo y gaussiano y que se están considerando
bloques de K símbolos si = {si [0], . . . , si [K − 1]} para el cálculo de la
verosimilitud, entonces podemos expresar la verosimilitud de wi respecto
a las estimaciones blandas del suavizador si [n] como

K−1
" #
X −
|si [n]−x|2
σ2
V (wi ) = log Ex e i , (4.4)
n=0

donde Ex [·] representa la esperanza estadística respecto al símbolo deseado


x perteneciente al alfabeto de la modulación A y σi2 es la potencia del ruido
de salida del suavizador i-ésimo.

53
Definimos ahora el término de coste que penaliza que se extraiga el mismo
flujo de datos por varios suavizadores. Partimos del término de correlaciones
cruzadas de la técnica ciega de detección paralela (Apartado 3.5.2)

N
X δX
M AX

CDP = |rig [δ]|2 , (4.5)


g=1,g6=i δ=−δM AX

donde rig [δ]

 
rig [δ] = E si [n]s∗g [n − δ] (4.6)

es la función de correlación entre el flujo i-ésimo y el flujo g-ésimo y δM AX


es el desfase temporal máximo considerado para el cálculo.
La comprensión del comportamiento de la función de correlación nos
ayudará a introducir mejoras sustanciales en el término de coste. Con este
objetivo en mente, mostramos en las Figuras 4.2(a) y 4.2(b) respectivamente
la función de autocorrelación y la función de correlación cruzada, ambas
normalizadas, de 2 secuencias de datos independientes de una modulación
QPSK con una longitud de 10 símbolos. En el caso de la función de
autocorrelación, podemos observar el máximo central, la simetría respecto
a este máximo y los valores no nulos para desplazamientos distintos de
cero (estos valores tienden a cero según la longitud de la secuencia tiende
a infinito). En el caso de la función de correlación cruzada entre las 2
secuencias se aprecia que no existe ningún máximo definido, que tampoco
existe simetría respecto al desplazamiento nulo y que los valores son de una
magnitud pequeña respecto al máximo de la función de autocorrelación (estos
valores tienden a cero según la longitud de la secuencia tiende a infinito).

1 1

0.9 0.9

0.8 0.8

0.7 0.7

0.6 0.6

0.5 0.5
|r|

|r|

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
−10 −5 0 5 10 −10 −5 0 5 10
Delta Delta

(a) Auto correlación (b) Correlación cruzada

Figura 4.2: Correlaciones para secuencias de datos

54
El objetivo del término de coste es impedir que el mismo flujo de datos
sea detectado más de una vez por distintas ramas del receptor. Teniendo en
cuenta que parte de la actualización de los suavizadores durante el proceso de
búsqueda depende de este término de coste, lo que pretendemos es que dicha
actualización parcial sea lo más sensible posible a este término, entendida
como que la actualización debería ser de valor nulo cuando no existiera
correlación entre los flujos de salida de los distintos suavizadores y máxima
cuando existiera correlación entre 2 flujos.
El término de coste CDP es poco sensible, según la definición anterior,
ya que al llevarse a cabo el sumatorio de la función de correlación cruzada
sobre todos los posibles desplazamientos δ, la diferencia entre 2 secuencias
correlacionadas y no correlacionadas se reduce en la práctica al valor del
máximo central del primer caso.
La primera aproximación que proponemos de término de coste es la que
denominamos CM AX , que se basa en no realizar el sumatorio sobre todos los
valores δ de la función de correlación, sino simplemente considerar el valor
máximo de la misma en el rango [−δM AX , δM AX ], aumentando la sensibilidad.
El término propuesto puede expresarse como

N
X 
CM AX = máx |rig [δ]|2 , δ ∈ [−δM AX , δM AX ]. (4.7)
g=1,g6=i

Presentamos en la Figura 4.3 la comparativa de la sensibilidad (relación


entre el coste para 2 secuencias correlacionadas y el coste para 2 secuencias no
correlacionadas) de los términos de coste analizados para distintas longitudes
de secuencia. Podemos observar el importante aumento de la sensibilidad
para el nuevo término según aumenta la longitud de las secuencias.
8

7
CMAX
CDP
6
Sensibilidad

1
0 5 10 15 20
Longitud de la secuencia (simbolos)

Figura 4.3: Sensibilidad de los términos CDP y CM AX

55
Podemos mejorar aún más la sensibilidad definiendo un término de coste
independiente de la longitud de secuencia que solamente tenga en cuenta
aquellos valores máximos de la función de correlación que superen un cierto
umbral β. De esta manera, se mantiene el coste alto cuando 2 secuencias están
correlacionadas y un coste nulo en el caso de que no estén correlacionadas. En
las Figuras 4.4(a) y 4.4(b) mostramos ambos casos con un umbral β = 0,6.
1 1

0.9 0.9

0.8 0.8

0.7 0.7

0.6 0.6
|r|

|r|
0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
−10 −5 0 5 10 −10 −5 0 5 10
Delta Delta

(a) Auto correlación (b) Correlación cruzada

Figura 4.4: Correlaciones con umbral β para secuencias de datos

Podemos definir entonces la nueva función de coste CU M B , que será la


utilizada como C(wi ), y la función umbral de la siguiente manera:
N
X  
C(wi ) = CU M B = umb máx |rig [δ]|2 , β 2 , δ ∈ [−δM AX , δM AX ],
g=1,g6=i
(4.8)


x si |x| ≥ η
umb {x, η} = . (4.9)
0 si |x| < η

Por último, sobre la base de las pruebas realizadas, no existe una


diferencia apreciable de rendimiento en cuanto a utilizar las estimaciones
blandas o las estimaciones duras correspondientes. Así mismo, la mayor carga
computacional del algoritmo proviene del cálculo en cada iteración de las
correlaciones cruzadas, que puede ser parametrizado (Sección 5.2).
La función completa de verosimilitud regularizada del algoritmo con sus
constantes de normalización (γ y ρ) puede entonces expresarse como

K−1
" # N
X −
|si [n]−x|2 X  
Vc (wi ) = γ log Ex e σ2
i −ρ umb máx |rig [δ]|2 , β 2 .
n=0 g=1,g6=i
(4.10)

56
4.4. Inicialización

La inicialización de la matriz W de suavizadores puede llevarse a cabo


siguiendo la misma técnica que la utilizada para el algoritmo CM (Apartado
3.4.2), ya que la idea subyacente de aproximar la respuesta inicial conjunta del
canal y cada uno de los suavizadores a una delta con un cierto desplazamiento
temporal δ[n−k] para que exista un cierto grado de convergencia inicial sigue
siendo válida, tal como se constata en [34].
Cada uno de los N suavizadores del receptor es inicializado a través del
cálculo de la función de autocorrelación de la señal recibida vi [k] de una de las
M ramas del receptor. Teniendo en cuenta que el receptor no posee a priori
ninguna información adicional del canal de comunicaciones, un procedimiento
posible es asignar de forma aleatoria una de las M secuencias de señales
recibidas a cada uno de los N suavizadores para su inicialización, tal como

LX
max k = −L, ..., L
vi [k] = yj [n]yj∗ [n − k], i = 1, ..., N , (4.11)
n=−Lmax j = 1, ..., M

donde Lmax es el límite considerado para el cálculo de la autocorrelación,


siendo el resultado más fiable cuanto mayor sea este valor, y 2L + 1 es la
longitud de la función de autocorrelación calculada. De esta forma, cada uno
de los 2L + 1 coeficientes del suavizador wi [k] es inicializado según los valores
calculados de la autocorrelación junto con un término de normalización,

vi [k] k = −L, ..., L


wi [k] = PL , . (4.12)
vi [m] i = 1, ..., N
m=−L

El coste computacional de esta técnica de inicialización es mayor que


en el caso de realizarla según el método de pico único central (single spike
initialization) o de forma aleatoria. Sin embargo, teniendo en cuenta que
la superficie de error no es convexa y que, por lo tanto, la existencia de
mínimos locales y puntos silla pueden retrasar o evitar la convergencia final,
consideramos que merece la pena una inicialización adecuada.
Una de las características relevantes de la función (4.10) es que el
término de correlaciones cruzadas fuerza la separación, dentro del espacio de
coeficientes, de los suavizadores que detecten el mismo flujo de datos. Una
consecuencia es que la inicialización de los suavizadores puede llegar a ser la
misma, bajo la condición de utilizar el método propuesto de búsqueda de la
Sección 4.5, ya que el término de coste provocará que se alejen mutuamente.

57
4.5. Algoritmo de búsqueda

El algoritmo MV-CC debe utilizar un algoritmo de búsqueda para


encontrar el máximo de la función (4.10), ya que no es posible encontrar una
expresión cerrada para las soluciones. Optamos por un algoritmo de primer
orden basado en la derivada de la función de verosimilitud regularizada,
que proporciona la dirección, dentro del espacio de coeficientes de los
suavizadores, del aumento de la misma en el punto considerado.
Partiendo de las expresiones básicas del algoritmo de gradiente para la
búsqueda del máximo para cada uno de los suavizadores, se obtiene

b i [l + 1] = w
w b i [l] + ∆i [l] = w
b i [l] + µ∇Vc (w
b i [l])|wb i [l] , (4.13)

donde ∆i [l] es el término de cambio correspondiente, igual al vector de


gradiente (operador ∇) de la función (4.10) con µ el parámetro de adaptación.
Una mejora sencilla y eficaz para acelerar la convergencia y tratar
situaciones en las que la superficie de verosimilitud regularizada posea una
estructura con valores singulares muy dispares en magnitud es añadir un
término de inercia al algoritmo de búsqueda [29]. De tal manera que las
expresiones para el algoritmo quedan de la siguiente manera,

b i [l + 1] = w
w b i [l] + ∆i [l] = w
b i [l] + µ∇Vc (w
b i [l])|wb i [l] + α∆i [l − 1], (4.14)

donde α es el parámetro de adaptación del término de inercia, 0 ≤ α ≤ 1,


tal como se analiza en [29].
Por lo tanto, la aplicación del algoritmo de gradiente con inercia a la
función (4.10) produce las siguientes expresiones:

b i [l])|wb i [l] = ∇V (w
∇Vc (w b i [l])|wb i [l] ,
b i [l])|wb i [l] − ∇C(w (4.15)

" #
|si [n]−x|2
yA [n](x∗ −s∗i [n]) − σ2
K−1
Ex σi2
e i
X
b i [l])|wb i [l] =
∇V (w  |si [n]−x|2
 , (4.16)

n=0 σ2
Ex e i

N
X δX
M AX
 ∗  
b i [l])|wb i [l] =
∇C(w umb rig [δ], β E s∗g [n − δ]yA [n] . (4.17)
g=1,g6=i δ=−δM AX

58
Mostramos en el cuadro 4.1 el pseudocódigo correspondiente a la técnica
de máxima verosimilitud con término de correlaciones cruzadas para el
suavizador i-ésimo.

Inicialización (l = 0).

vi [k]
1. Inicializar el suavizador i-ésimo según wi [k] = PL
vi [m]
.
m=−L

2. Inicializar ∆i [0] = 0, siendo 0 el vector nulo de dimensiones 2(L + 1)M × 1.

Iteración l -ésima.

 
|si [n]−x|2

 y [n](x∗ −s∗i n]) σ2 
Ex  A e i 
σ2
P
K−1 i
1. Calcular ∇V (w
b i [l])|wb i [l] = 
|si [n]−x|2
 .
n=0 −
 σ2 
E x e i 

P
N P
δM AX  ∗  
2. Calcular ∇C(w
b i [l])|wb i [l] = umb rig [δ], β E s∗g [n − δ]yA [n] .
g=1,g6=i δ=−δM AX

3. Calcular ∇Vc (w b i [l])|wb i [l] .


b i [l])|wb i [l] − ∇C(w
b i [l])|wb i [l] = ∇V (w

4. Calcular ∆i [l] = µ∇Vc (w


b i [l])|wb i [l] + α∆i [l − 1].

5. Calcular w
b i [l + 1] = w
b i [l] + ∆i [l].

Cuadro 4.1: Pseudocódigo de la técnica MV-CC

Podemos apreciar que la complejidad del algoritmo de búsqueda es


comparativamente menor que en el caso de los algoritmos basados en las
derivadas de segundo orden, ya que no deben ser calculadas las matrices
Hessianas y las matrices inversas asociadas a este clase de métodos de
búsqueda local. La inclusión del término de inercia produce un aumento
apreciable de la velocidad de convergencia, a costa de un pequeño aumento
de la complejidad por las operaciones adicionales y la adición del parámetro
α, lo que hemos podido constatar en las pruebas realizadas, corroborando los
argumentos expuestos en [29].

59
Una de las desventajas asociadas al uso de algoritmos de búsqueda
local (tales como el ascenso de gradiente con inercia utilizado) es que no
se garantiza que el proceso de búsqueda alcance un máximo global de la
función de verosimilitud regularizada, lo que lleva a un rendimiento inferior
al óptimo. A continuación presentamos una modificación del algoritmo de
búsqueda que, en ciertas situaciones, es capaz de evitar que un suavizador
que se encuentre en un máximo global o incluso local empeore su rendimiento
por verse desplazado a un máximo local de menor valor de la función de
verosimilitud regularizada.
Comenzamos la propuesta notando que, de las Ecuaciones (4.10) y (4.17),
cuando una secuencia de datos es detectada simultáneamente por más de
un suavizador cada uno de ellos es actualizado de manera que se alejen
mutuamente dentro del espacio de coeficientes, lo que nos puede llevar a
situaciones como la descrita en la Figura 4.5, donde mostramos, de forma
simplificada y en el caso unidimensional, el comportamiento de 2 suavizadores
(posición dentro del espacio de coeficientes y dirección de la actualización).
Partimos de una inicialización que ha situado a 2 suavizadores dentro del
área de atracción del mismo máximo de (4.10) (o incluso de una situación
en la que un suavizador ya se encuentra en el máximo global y el otro entra
durante el proceso de búsqueda en la región de atracción correspondiente),
por lo tanto detectando la misma secuencia y provocando que ambos procesos
se dirijan hacia el mismo máximo global (Figura 4.5(a)). El término de coste
C(wi ) provoca que ambos suavizadores se alejen mutuamente (Figura 4.5(b)),
pudiendo alejarse tanto del máximo global que ambos caigan dentro del área
de atracción de máximos locales adyacentes, lo que nos lleva a que finalmente
ninguno de los suavizadores se ha situado en el máximo global que optimiza
el rendimiento (Figura 4.5(c)).
VC(w)

VC(w)

VC(w)

Coeficiente Coeficiente Coeficiente

(a) Acercamiento (b) Separación (c) Estabilidad

Figura 4.5: Proceso de búsqueda original

Podemos remediar en parte el comportamiento anterior marcando como


objetivo que la actualización de los suavizadores en esa situación se lleve a
cabo según el término de verosimilitud V (wi ) o según el término de coste
C(wi ), atendiendo a un criterio bien definido.

60
El criterio seguido para determinar el suavizador que se encuentra
más adaptado es el término de verosimilitud V (wi ) de (4.10). Asumiendo
que, hasta el momento en el que se considera que 2 secuencias
están correlacionadas, la función de verosimilitud regularizada depende
exclusivamente del término V (wi ), entonces podemos considerar que el
suavizador con mayor valor de verosimilitud es el más adaptado y, por lo
tanto, el que debe adaptarse exclusivamente según este término, ignorando el
de coste; a la inversa, el resto de los suavizadores se adaptan según el término
de coste ignorando el de verosimilitud. Por lo tanto, en el caso extremo en que
los N suavizadores se encuentren en conflicto, el único en adaptarse según la
verosimilitud será aquel wi tal que

V (wi ) > V (wj ), j = 1, ..., N, j 6= i. (4.18)

Analizamos el mismo caso anterior teniendo en cuenta la modificación


propuesta. Partimos de la misma situación inicial en la que 2 suavizadores
se encuentran en la misma región de atracción del máximo global,
convergiendo al mismo hasta que se considera que las secuencias detectadas
correspondientes son iguales (Figura 4.6(a)). En dicho momento, se calcula la
verosimilitud de las secuencias detectadas y se decide mantener como mejor
adaptado el suavizador de mayor verosimilitud, tras lo que éste sigue su
adaptación según V (wi ), mientras el otro se adapta según C(wi ) (Figura
4.6(b)). El resultado es que el suavizador originalmente mejor adaptado
alcanza el máximo global optimizando el proceso (Figura 4.6(c)).
VC(w)

VC(w)

VC(w)

Coeficiente Coeficiente Coeficiente

(a) Acercamiento (b) Separación (c) Estabilidad

Figura 4.6: Proceso de búsqueda modificado

Por último, el proceso de búsqueda local depende en gran medida de la


inicialización de los suavizadores, por lo que puede llegar a ocurrir que un
suavizador se quede estancado en un máximo local de bajo rendimiento o
en un valle de la superficie de verosimilitud regularizada, lo que nos llevaría
a un rendimiento degradado. Por lo tanto, se ha previsto un mecanismo de
reinicialización basada en el esquema original (Sección 4.4) que se activa de
manera periódica en el caso que la verosimilitud de alguno de los suavizadores
no alcance un valor mínimo, que es considerado un parámetro del sistema.

61
4.6. Superficie de verosimilitud regularizada

La superficie de verosimilitud regularizada se obtiene a partir de la


ecuación (4.10) en función de los coeficientes de cada uno de los suavizadores.
La descripción de la misma es importante ya que su conocimiento proporciona
soluciones a problemas de inicialización y búsqueda, aparte de otras
consideraciones teóricas. No pretendemos dar una descripción matemática
rigurosa sobre la superficie del algoritmo propuesto, lo que sobrepasaría
los objetivos del proyecto, sino simplemente ofrecer una breve descripción
cualitativa como punto de partida para un estudio posterior.
El algoritmo propuesto conlleva la existencia de N superficies de
verosimilitud regularizada en paralelo, una por cada uno de los suavizadores.
Cada una de estas superficies es multimodal, lo que implica la necesidad
de una inicialización adecuada, así como la existencia de varios máximos,
mínimos y puntos silla en cada una de ellas, lo que dificulta el análisis.
El carácter multimodal de la superficie se explica al menos por el término
de verosimilitud V (wi ), que genera el mismo valor para 2 suavizadores
cuyas secuencias de salida son una versión rotada una de la otra (con el
valor adecuado de rotación de fase según la constelación) o con distinto
desplazamiento temporal. La ausencia de símbolos piloto causa que, a priori
para cada uno de los N suavizadores, todos los máximos válidos tengan el
mismo valor de la función de verosimilitud regularizada.
La otra característica relevante de las N superficies es la relación
de dependencia que existe entre ellas. Las superficies de las técnicas
semiciegas (Apartados 3.4.1 y 3.4.2) son independientes las unas de las
otras. Las superficies de la detección ciega iterativa (Apartado 3.5.1) son
dependientes entre ellas, pero la operación secuencial provoca que no haya
cambios en tiempo real sobre la superficie del suavizador que se está
calculando. Solamente la detección ciega paralela (Apartado 3.5.2) comparte
las características de la técnica propuesta. En este caso, la morfología de
las N superficies va cambiando en tiempo real según se van ajustando los
suavizadores. Este comportamiento es debido al término de coste C(wi ), ya
que a partir del momento en el que un suavizador alcanza un máximo de
verosimilitud extrayendo un flujo de datos, las restantes N − 1 superficies se
ven alteradas debido a que dicho máximo se ve penalizado por el término de
coste, que impide que se extraiga nuevamente el mismo flujo de datos. En
el caso de que alguno de los suavizadores restantes ya se haya estabilizado
en otro máximo, este cambio de morfología no les afecta, sin embargo,
los suavizadores que se encuentren en proceso de búsqueda pueden verse
afectados súbitamente por este cambio, viéndose forzados a cambiar la zona
de búsqueda dentro de la superficie correspondiente.

62
4.7. Sincronización de flujos de datos

Ya señalamos en la Sección 3.2 la importancia de la adecuada ordenación


y sincronización temporal de los N flujos de datos de salida del proceso de
detección para no incurrir en una degradación severa del rendimiento. Las
técnicas de detección semiciegas solucionan de forma implícita esta cuestión,
ya que la inclusión de datos conocidos por el receptor les proporciona la
información suficiente para este proceso. Sin embargo, las técnicas totalmente
ciegas no disponen de este conocimiento por lo que se ven condicionadas a
incluir un bloque adicional que lleva a cabo estas tareas. Aportamos una
sencilla solución a esta cuestión que puede ser adaptada fácilmente a la
técnica ciega MV-CC propuesta (en general a cualquier técnica ciega).
El esquema propuesto está basado en la utilización de N secuencias
cortas, diferentes y fijas, conocidas por el transmisor y el receptor, cada
una de las cuales es intercalada en el mismo instante temporal, de manera
unívoca y periódica en cada uno de los N flujos transmitidos, creando un
patrón repetitivo que permite la ordenación y sincronización entre flujos en
el receptor mediante la aplicación de métodos estadísticos de segundo orden.
La inclusión de las secuencias debe ser repetitiva en el tiempo, ya que no
existe conocimiento a priori del momento en el que el receptor comenzara su
proceso de adaptación. Destacamos que la eficiencia espectral del sistema
modificado de comunicaciones MV-CC prácticamente se mantiene en los
valores originales, ya que consideramos que el volumen de las secuencias de
datos conocidos no supera el 1 % del volumen total de datos transmitidos.
Por último, el caracter ciego de la técnica original MV-CC se mantiene, ya
que los nuevos datos no contribuyen en ningún momento a la adaptación de
los suavizadores del receptor, lo que es debido a que la mayoría de las tramas
de datos no incluyen estos símbolos piloto.
El primer paso necesario es la definición de cada una de las N secuencias
fijas utilizadas sSIN C [n] de longitud LSIN C . La consideración inmediata
derivada de (4.10) es que estas secuencias deben ser ortogonales entre sí para
todos los posibles desplazamientos temporales entre ellas, de manera que el
término C(wi ) no penalice el proceso de adaptación. La ortogonalidad de los
secuencias para distintos desplazamientos limita la utilización de métodos
iterativos para su definición (a modo de ejemplo las matrices Hadamard),
por lo que recurrimos a secuencias aleatorias, que presentan las cualidades
requeridas (correlación teórica nula entre ellas y, para cada una de ellas,
correlación máxima distinta de cero para desplazamiento nulo). Por lo tanto,
cada una de las secuencias puede ser expresada de la siguiente manera:

siSIN C [n] ∈ A, n = 1, ..., LSIN C , i = 1, ..., N. (4.19)

63
Una vez los N flujos de datos han sido extraídos según el criterio MV-CC,
cada uno de ellos es procesado por el esquema de ordenación y sincronización,
tal como se aprecia en la Figura 4.1. El receptor conoce las secuencias de
sincronización y el flujo en el que se han introducido de manera unívoca
para determinar el orden entre ellos, por lo que lleva a cabo la correlación
de cada una de estas secuencias con los datos de cada uno de los flujos
detectados efectuando un total de N 2 correlaciones en paralelo. Teniendo en
cuenta las propiedades de las secuencias y su independencia de los datos de
usuario transmitidos, podemos esperar que, en condiciones ideales, la salida
de cada uno de estos procesos de correlación genere un máximo cuando haya
encontrado una de las secuencias de sincronización y un valor cercano a cero
en caso de no encontrarla, considerando adicionalmente que dichas secuencias
aparecen de forma unívoca en cada flujo y no se van a repetir en distintos
flujos. Mostramos en las Figuras 4.7(a) y 4.7(b) respectivamente la salida del
proceso de correlación de un flujo de datos con la secuencia correcta y con la
secuencia incorrecta, apreciándose la presencia periódica de los máximos en
el primer caso y la ausencia de los mismos en el segundo caso.

150 150

100 100
Correlacion

50 50
Correlacion

0 0

−50 −50

−100 −100
0 1000 2000 3000 4000 5000 0 1000 2000 3000 4000 5000
Tiempo Tiempo

(a) Secuencia correcta (b) Secuencia incorrecta

Figura 4.7: Correlaciones con secuencias de sincronización

Una vez el receptor dispone de las N 2 salidas de correlación (N salidas


correspondientes a cada secuencia de sincronización para cada uno de los N
flujos de datos) procede a depurarlas para conservar solamente la información
relevante, para lo cual aplica un umbral, que es función de la longitud de
las secuencias y del esquema de modulación utilizada en el sistema, para
conservar exclusivamente aquellos valores correspondientes a un positivo
de identificación de secuencias y se lleva a cabo una normalización de los
valores de salida para posteriores decisiones en el proceso. Bajo condiciones
ideales, solamente N de las N 2 salidas tendrán valores distintos de cero
tras este proceso, correspondiéndose con la detección de las N secuencias
de sincronización.

64
Podemos observar en las Figuras 4.8(a) y 4.8(b) respectivamente la salida
del proceso de correlación tras la aplicación del umbral y la normalización
para el caso de la detección correcta o incorrecta de una secuencia de
sincronización determinada.
1 1

0.8 0.8

0.6 0.6

0.4 0.4
Correlacion

0.2 0.2

Correlacion
0 0

−0.2 −0.2

−0.4 −0.4

−0.6 −0.6

−0.8 −0.8

−1 −1
0 1000 2000 3000 4000 5000 0 1000 2000 3000 4000 5000
Tiempo Tiempo

(a) Secuencia correcta (b) Secuencia incorrecta

Figura 4.8: Correlaciones con secuencias de sincronización procesadas

El siguiente paso es aplicar una máscara al resultado normalizado de


las correlaciones para determinar la presencia periódica de las secuencias de
sincronización. El objetivo de la máscara es doble; por una parte, detecta la
periodicidad adecuada de los positivos normalizados, que es la característica
que evidencia la presencia de una secuencia de sincronización, protegiéndose
además de posibles falsos negativos (casos en los que la secuencia de
sincronización no ha sido detectada y, por lo tanto, no ha generado ningún
positivo de identificación); por otra parte, la presencia de falsos positivos
(casos en los que se ha generado un positivo de identificación no causado
por una secuencia de sincronización) también es procesada adecuadamente,
ya que éstos no son generados con la periodicidad adecuada. La estructura
de la máscara m[n] es sencillamente un tren de NSIN C deltas con el periodo
marcado PSIN C ,

NSIN
X C −1

m[n] = δ[n − kPSIN C ]. (4.20)


k=0

El último paso del proceso es la sincronización temporal de los N flujos


en base a los resultados anteriores, que se lleva a cabo comparando los
retardos relativos entre los positivos correspondientes a las secuencias de
sincronización y desplazando adecuadamente los flujos de datos en el eje
temporal. Adicionalmente, la ordenación de los N flujos se realiza de manera
sencilla ya que cada flujo es identificado de manera unívoca por una secuencia
de sincronización concreta.

65
Mostramos en el Cuadro 4.2 el pseudocódigo correspondiente al
procesamiento, por parte del transmisor y del receptor, de la técnica de
sincronización y ordenación de flujos de datos.

Transmisor MIMO. Para los flujos N transmitidos.

1. Generar N secuencias siSIN C [n] únicas y fijas.

2. Introducir de manera unívoca y síncrona cada una de las siSIN C [n] en uno
de los N flujos de datos transmitidos, de manera conocida por el receptor.

Receptor MIMO. En paralelo, para cada uno de los N flujos detectados.

1. Correlacionar el flujo detectado con las N secuencias siSIN C [n].

2. Aplicar umbral normalizador a cada una de las N correlaciones obtenidas.

3. Correlacionar las secuencias normalizadas anteriores con la máscara m[n].

a. Si (correlación > umbral identificación) → siSIN C [n] identificada.

b. Si (correlación < umbral identificación) → siSIN C [n] no identificada.

4. Ordenar los flujos según el orden de las siSIN C [n] identificadas.

5. Sincronizar los flujos según el desfase entre las siSIN C [n] identificadas.

Cuadro 4.2: Pseudocódigo de la técnica de sincronización y ordenación

66
Capítulo 5

Simulaciones y análisis

5.1. Introducción

A lo largo de los Capítulos 3 y 4 hemos presentado diversas técnicas de


detección para sistemas de comunicaciones MIMO, destacando los principios
teóricos en los que se basan junto con las expresiones matemáticas asociadas.
En este capítulo presentamos las simulaciones numéricas de dichas técnicas
junto con los análisis correspondientes, que deben proporcionar tanto una
descripción del rendimiento alcanzable según distintos criterios, como una
ayuda en la etapa de diseño de un sistema real ya que permiten estimar los
parámetros del mismo para un correcto funcionamiento.
Las simulaciones y análisis son agrupados en 3 bloques principales
conforme a los resultados de este proyecto. Un primer bloque dedicado
al análisis de la nueva técnica de detección MV-CC. Un segundo bloque
dedicado al análisis de la nueva técnica de ordenación y sincronización de
flujos de datos. Un tercer bloque dedicado al análisis conjunto y comparación
de las 5 técnicas estudiadas a lo largo de esta memoria (2 técnicas semiciegas,
2 técnicas ciegas y la técnica MV-CC).
Uno de los aspectos importantes a la hora de realizar las simulaciones
e interpretaciones de los resultados obtenidos en las comparaciones entre
distintas técnicas es la igualdad de condiciones de simulación. Llevamos a
cabo una unificación de criterios a la hora de definir los parámetros de las
simulaciones, tales como pueden ser la relación señal a ruido, el tipo de
constelación utilizada (que fijamos a QPSK por ser la única válida para todas
ellas) y los canales utilizados (los mismos para cada técnica para no desvirtuar
los resultados). En cada sección detallamos las condiciones particulares de
simulación y los parámetros utilizados.

67
5.2. Simulaciones y análisis de la técnica de
detección MV-CC

La técnica ciega de detección de máxima verosimilitud con correlaciones


cruzadas es desarrollada en el Capítulo 4, por lo que ahora nos limitamos a
presentar las simulaciones y análisis correspondientes a los nuevos aspectos
de diseño posponiendo los resultados de rendimiento a la Sección 5.4.
El primer aspecto que abordamos es la inicialización de los N
suavizadores. Tal como explicamos en la Sección 4.4, el término de
correlaciones cruzadas de la función de verosimilitud regularizada (4.10)
y la estrategia de búsqueda permiten que cada uno de los suavizadores
sea inicializado de forma idéntica, ya que se encargarán de separarlos
(dentro del espacio de coeficientes) debido a la correlación entre los flujos
de símbolos estimados. Mostramos en la Figura 5.1 la evolución temporal,
según se itera sobre las observaciones, del valor absoluto de la diferencia
P2L+1
(∆ = r=1 |wi [r] − wj [r]|) de 2 suavizadores idénticamente inicializados
según la presencia del término de correlaciones cruzadas (CC).
3.5

2.5

1.5 CC presente
Delta

CC no presente
1

0.5

−0.5

−1
0 2000 4000 6000 8000 10000
Iteraciones

Figura 5.1: Evolución de suavizadores según la inicialización

Podemos observar cómo el valor ∆ es nulo a largo de la adaptación


de los suavizadores cuando el término de correlaciones cruzadas no está
presente, debido a la inicialización común y el hecho de operar sobre las
mismas observaciones, por lo que los suavizadores evolucionan de forma
idéntica extrayendo el mismo flujo de datos, degradando de manera crítica
el rendimiento. La inclusión del término de correlaciones cruzadas junto con
el nuevo mecanismo de búsqueda provocan que, dentro del espacio de los
coeficientes, los suavizadores se alejen entre ellos cuando se ha detectado
que están extrayendo el mismo flujo de datos. La evolución de la curva

68
correspondiente a este caso muestra el comportamiento esperado, en el
momento en el que los 2 suavizadores están extrayendo el mismo flujo son
fuertemente separados con el objetivo de situarlos en regiones de atracción de
distintos máximos de la función de verosimilitud regularizada (4.10), tal como
se puede comprobar en las primeras 200 iteraciones de la adaptación, tras
lo cual cada uno de ellos continúa la búsqueda del máximo de manera más
moderada en la correspondiente región de atracción, comportamiento que
puede deducirse de la estabilización progresiva de ∆. La influencia del término
de correlaciones cruzadas y el comportamiento consecuente es directamente
extrapolable a un número arbitrario de procesadores y flujos de datos.
El siguiente aspecto que analizamos es la eficacia de la técnica de
inicialización propuesta en la Sección 4.4, para lo cual presentamos los
resultados simulados en el Cuadro 5.1. Las simulaciones llevadas a cabo
han consistido en comprobar el rendimiento, en términos de la tasa de
error de símbolo, de un sistema MIMO 2 × 3 bajo distintas técnicas de
inicialización de los suavizadores, concretamente, una inicialización aleatoria,
una inicialización de pico (asignando un único valor distinto de cero para
cada suavizador), la inicialización de la Sección 4.4, que denominamos
autocorrelación, y una variante de esta última en la que los suavizadores
son idénticamente inicializados aprovechando el término de correlaciones
cruzadas y que denominamos paralela. Presentamos para cada una de las
4 técnicas el porcentaje de usuarios correctamente extraídos y detectados
sobre el total simulados, así como la tasa media de error de símbolo de dichos
usuarios detectados y el número medio de símbolos por usuario necesarios
para conseguir la convergencia del algoritmo y llevar a cabo dicha detección.
Las simulaciones se han realizado sobre 10 canales MIMO, 6 de los cuales
son canales sin visión directa (HN LOS ) y los 4 restantes son canales de
visión directa (HLOS ), divididos en 2 grupos de 2 canales con factor de
Rice respectivamente K = 5 y K = 10, de forma que sean considerados
los casos más habituales en entornos reales. Cada uno de los 10 canales ha
sido promediado sobre 10 tramas distintas de 10000 símbolos transmitidos
por usuario. Ya que el objetivo es la comparación de las distintas técnicas de
inicialización, cada una de ellas ha sido simulada con los mismos canales
y las mismas tramas de símbolos, de forma que los resultados reflejen
exclusivamente el comportamiento de las técnicas de inicialización.

Técnica Extracción Tasa de error Convergencia


Aleatoria 63 % 2,96×10−3 6.127
Picos 85,5 % 8,52×10−3 3.836
Autocorrelación 90 % 0,57×10−3 2.433
Paralela 80 % 0,93×10−3 3.438

Cuadro 5.1: Análisis comparativo de técnicas de inicialización

69
A la vista de los resultados de las simulaciones podemos respaldar la
idoneidad de la técnica de inicialización utilizada en la técnica MV-CC
presentada en la Sección 4.4. La técnica de inicialización aleatoria es una
de las primeras en ser desarrolladas para el procesamiento en receptores y
presenta los resultados más discretos de todos, destacando negativamente por
la lenta convergencia; sin embargo nos proporciona un punto de referencia
del rendimiento para técnicas más elaboradas. La técnica de picos es de fácil
implementación, con un coste computacional muy bajo y proporciona buenos
resultados por lo que ha sido ampliamente utilizada para sistemas SISO y
ha demostrado su validez en sistemas MIMO, con una tasa de extracción y
convergencia mejores que en el caso aleatorio a costa de un ligero aumento de
la probabilidad de error de símbolo. La técnica de autocorrelación utilizada
en el algoritmo MV-CC mejora los resultados de la técnica de picos ya que
consigue una tasa de extracción ligeramente mayor, aunque las mayores
ventajas son la consecución de máximos de la función de verosimilitud
regularizada de mayor calidad (la tasa de error es un orden de magnitud
menor que en las técnicas anteriores, lo cual es un resultado notable) y una
convergencia del algoritmo en un 63 % del tiempo necesario para la técnica de
picos en término medio. La variante propuesta paralela se basa en analizar si,
tras la idéntica inicialización de los suavizadores, el término de correlaciones
cruzadas que actúa desde el primer momento es capaz de llevar, dentro del
espacio de coeficientes, cada uno de los suavizadores a una región de un
máximo de calidad de la función de verosimilitud regularizada; de manera
que consigue unos resultados que también mejoran los de la inicialización de
pico pero sin llegar al rendimiento de la técnica de autocorrelación. Estos
resultados demuestran que la técnica de autocorrelación es la más adecuada
de las analizadas, resaltando especialmente en la tasa de error conseguida y
la velocidad de convergencia, lo que unido a una táctica de reinicialización
adecuada de los suavizadores, consistente en una comprobación periódica de
la verosimilitud media de los símbolos estimados y una reinicilización de los
suavizadores en el caso que dicha verosimilitud esté por debajo de un umbral
prefijado, puede conseguir una extracción cercana al 100 % de los casos en
un tiempo moderado.
Una de las consideraciones importantes en el diseño del algoritmo es la
determinación, o al menos la estimación dentro de un rango aproximado, de
los parámetros del mismo. En particular, el umbral β a partir del cual se
considera que 2 secuencias de símbolos de salida están correlacionadas y las
constantes de normalización γ y ρ de los términos de verosimilitud y coste
respectivamente, tal como se detalla en la Sección 4.3. Estos parámetros de
la técnica determinan de modo crítico el rendimiento de la misma, pudiendo
obtener desde un buen rendimiento hasta la inoperancia total según sus
valores, por lo que llevamos a cabo los análisis correspondientes.

70
El umbral β determina el nivel a partir del cual se considera que las
secuencias de salida de cada uno de los suavizadores están correlacionadas o
no, por lo que el rendimiento de la técnica se verá afectado en gran medida
según su valor. A priori, podemos esperar que para valores medios y altos del
umbral β, las secuencias de símbolos tengan que estar muy correlacionadas
entre sí para que entre en funcionamiento el término de correlaciones
cruzadas, dejando poco margen a coincidencias aleatorias entre las mismas
que provoquen dicha activación. Según el mismo argumento, valores bajos
del umbral β activan rápidamente el término de correlaciones cruzadas, en
algunos casos incluso no existiendo una correlación debida a la extraccion
del mismo flujo de datos sino a coincidencias aleatorias. Mostramos en la
Figura 5.2 la probabilidad de superación del umbral β para 2 secuencias
independientes de 100.000 símbolos cada una, para distintos valores de β y
distintas longitudes del desfase temporal máximo δM AX considerado para las
correlaciones.
0
10

−1
Probabilidad de superacion de ß

10

−2
10

−3
10 ðMAX=2
ðMAX=4
ð =6
−4 MAX
10 ð =8
MAX

−5
10
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
Umbral ß

Figura 5.2: Probabilidad de superación de β

Teniendo en cuenta que el desfase temporal máximo δM AX es una función


de la longitud de los suavizadores y la memoria del canal P , las curvas
utilizadas habitualmente son las correspondientes a δM AX = 6 y δM AX = 8.
Consideramos, de forma arbitraria, una probabilidad de superación del
umbral β de 10−4 o menor, lo que nos lleva directamente a considerar valores
de β en torno a 0,6. De esta manera, buscamos minimizar la probabilidad de
que el término de correlaciones cruzadas se active y modifique los coeficientes
de los suavizadores de manera aleatoria en lugar de cuando le corresponde
debido a la extracción simultánea del mismo flujo de datos, lo que podría
llevar a la expulsión de un suavizador de la región de atracción de un máximo
de la función (4.10) de manera injustificada con la consiguiente degradación
del rendimiento del sistema.

71
Las constantes de normalización γ y ρ de los términos de verosimilitud y
coste respectivamente marcan el peso de cada uno de estos términos según
la función de verosimilitud regularizada (4.10). Desde un punto de vista
global, la estrategia de búsqueda definida en la Sección 4.5, el umbral β
y las constantes γ y ρ determinan el comportamiento de la técnica MV-CC,
por lo que mostramos en el Cuadro 5.2 un resumen del mismo según estos
parámetros y la región donde se encuentre el suavizador (región buena si
el suavizador es el único o el de mayor verosimilitud dentro de la misma o
región mala si es el suavizador con menor verosimilitud dentro de la misma).

UMBRAL β ALTO
Término CC alto
Región buena El suavizador se adapta según MV y no se produce expulsión
aleatoria de la región debido al alto umbral β.
Región mala El suavizador es expulsado fuertemente de la región, debido
al alto factor CC, al detectarse una alta correlación.
Término CC bajo
Región buena El suavizador se adapta según MV y no se produce expulsión
aleatoria de la región debido al alto umbral β.
Región mala El suavizador es débilmente expulsado de la región, debido al
bajo factor CC, al detectarse una alta correlación.
UMBRAL β BAJO
Término CC alto
Región buena El suavizador se adapta según MV y puede darse una fuerte
expulsión aleatoria de la región debido al bajo umbral β.
Región mala El suavizador es expulsado fuertemente de la región, debido
al alto factor CC, al detectarse una baja correlación.
Término CC bajo
Región buena El suavizador se adapta según MV y puede darse una débil
expulsión aleatoria de la región debido al bajo umbral β.
Región mala El suavizador es débilmente expulsado de la región, debido al
bajo factor CC. al detectarse una baja correlación.

Cuadro 5.2: Comportamiento de la técnica MV-CC

A la vista del comportamiento global de la técnica MV-CC especificado en


el Cuadro 5.2 podemos confirmar la idoneidad de un umbral β alto, así como
un fuerte término CC (constante ρ) como la combinación más eficaz y fiable.
Optamos por un término de verosimilitud (constante γ) relativamente bajo
para conseguir una mejor adaptación al máximo correspondiente (evitando
oscilaciones respecto al mismo) a costa de un ligero empeoramiento de
la velocidad de convergencia. Siguiendo este criterio, optamos por unas
constantes de normalización γ = 0,01 y ρ = 1.

72
A continuación realizamos las simulaciones encaminadas a demostrar
la validez y ventajas aportadas por el método modificado de búsqueda
propuesto en la Sección 4.5, que actualiza cada suavizador según el término
de verosimilitud o de coste en función del valor de verosimilitud alcanzado
por el mismo en la secuencia de salida de símbolos estimados. Mostramos
en el Cuadro 5.3 los resultados de la simulación llevada a cabo sobre los
mismos 10 canales MIMO 2×3 utilizados a lo largo de esta sección junto con
las mismas tramas de símbolos para todos ellos. La modificación propuesta
pretende mejorar el rendimiento evitando la expulsión de un suavizador
que se encuentre en un máximo de la función (4.10) debido al término de
correlaciones cruzadas de otro suavizador que entre dentro de la misma
región y produzca una secuencia de símbolos altamente correlacionada con la
primera, por lo que, para cada uno de los canales, hemos inicializado uno de
los suavizadores directamente en un máximo de la función de verosimilitud
y coste (previamente calculado) mientras que el segundo suavizador ha sido
inicializado en las inmediaciones del mismo de manera aleatoria, de manera
que nos aproximemos lo más posible a la situación descrita en la Figura 4.6(a)
en la configuración inicial.

Técnica Extracción Tasa de error Convergencia


Original 62,5 % 1,01×10−3 1.800
Propuesta 90,5 % 0,71×10−3 1.492

Cuadro 5.3: Análisis comparativo de técnicas de búsqueda

El parámetro más importante simulado en el Cuadro 5.3 es la tasa de


extracción de flujos de datos para cada una de las técnicas de búsqueda,
ya que proporciona una idea del funcionamiento de la misma. Podemos
comprobar que la tasa de extracción es claramente superior para la
modificación propuesta en el escenario analizado, mientras que el resto de
parámetros simulados se mantienen en unos valores similares. En el caso de la
tasa de extracción, es necesario tener en cuenta que, al haber sido inicializado
el segundo suavizador de manera aleatoria en el entorno del primero, existe
la posibilidad de que éste se haya situado fuera de la región de atracción
del máximo analizado, ya que no conocemos a priori sus dimensiones. La
inicialización aleatoria puede realizarse controlando la varianza de la misma
(respecto al módulo de los coeficientes del suavizador), siendo la localización
del segundo suavizador más cercana al máximo cuanto menor sea la varianza,
lo que nos aseguraría estar en la región de atracción pero demasiado cerca
del máximo (lo cual podría ser una situación no realista), por lo que hemos
optado por una inicialización de varianza mayor. Teniendo en cuenta este
comportamiento, podemos considerar que el resultado obtenido para la tasa
de extracción de la técnica original es optimista, por lo que todavía sería
mayor el beneficio del uso de la algoritmo propuesto.

73
Tal como señalamos en la Sección 3.2, la longitud de los suavizadores
M (2L + 1) es uno de los parámetros de diseño del receptor MIMO con
mayor influencia. Un suavizador de longitud excesivamente alta llevará a cabo
su cometido correctamente, ya que procesa los símbolos necesarios para la
estimación del símbolo actual, a costa de una carga computacional muy alta.
Un suavizador de longitud excesivamente corta libera al receptor de la alta
carga computacional, al coste inasumible de no llevar a cabo correctamente
la estimación del símbolo actual. Detallamos que la longitud de cada uno de
los suavizadores debe ser tal que se procesen al menos los P − 1 símbolos
anteriores y posteriores al actual. Mostramos en la Figura 5.3 las simulaciones
realizadas para un sistema MIMO 2×3 con una memoria P = 3 y distintas
longitudes de los suavizadores. La configuración del receptor y los símbolos
transmitidos son los mismos en cada caso para aislar el efecto del tamaño de
los suavizadores.
0
10
Probabilidad de error de simbolo

−1
10

L=0
−2
L=1
10 L=2
L=3
L=4

−3
10
10 11 12 13 14 15
Relacion señal a ruido (dB)

Figura 5.3: Probabilidad de error de símbolo de la técnica MV-CC según la


longitud de los suavizadores

Podemos observar cómo el comportamiento comienza a acercarse al


óptimo para L = 2, que es el valor correspondiente a la longitud del canal
simulado. Valores menores de L no son capaces de compensar adecuadamente
el canal, mientras que valores mayores de L no aportan una ventaja sustancial
a costa de una complejidad mayor. La mejora observada para valores de L
superiores al marcado por la longitud del canal discreto equivalente parece
ser debida al procesamiento de un mayor número de símbolos, lo que podría
ser aportar información adicional sobre el comportamiento del canal de
comunicaciones subyacente; sin embargo, este análisis está fuera del ámbito
de este proyecto. Por lo tanto, a falta de una estimación exacta de la longitud
del canal equivalente, es recomendable una estimación por exceso de la
longitud de los suavizadores para un correcto funcionamiento.

74
Analizamos ahora el valor δM AX , que representa el desplazamiento
temporal máximo considerado para las correlaciones del término de coste de
(4.10). Al igual que otros parámetros del receptor, la determinación de δM AX
afecta al rendimiento. Por una parte, un valor excesivamente alto impone
una carga computacional extra sin ninguna ventaja asociada. Por otra parte,
un valor excesivamente bajo puede deteriorar el rendimiento de forma crítica
al no ser el receptor capaz de detectar la extracción simultánea de un mismo
flujo de datos.
El parámetro δM AX debe ser determinado teniendo en cuenta el máximo
desplazamiento temporal que puede aparecer entre 2 flujos de datos.
Dicho desplazamiento temporal aparece como consecuencia de la respuesta
impulsional conjunta (convolución) correspondiente a distintos flujos de
la respuesta del canal de comunicaciones y el suavizador correspondiente.
Debemos entonces determinar el desfase temporal máximo y mínimo que
puede ser experimentado por un flujo de datos, ya que la diferencia entre
ellos será el valor adecuado para δM AX .
Teniendo en cuenta los símbolos sobre los que actúa un suavizador (3.4),
puede apreciarse que la respuesta del suavizador sobre cada una de las M
secuencias de símbolos de llegada afecta como mucho a L símbolos anteriores
o posteriores, siendo la respuesta impulsional no causal, de longitud (2L + 1)
y centrada en el origen. Por otra parte, la respuesta del canal para cada flujo
de datos es causal y de longitud P. Por lo tanto, la respuesta impulsional
conjunta para el flujo i-ésimo hi [n] desde la fuente de datos hasta el destino
correspondiente es

M
X ∞
X
hi [n] = wji [m]hji [m − n], (5.1)
j=1 m=−∞

donde wji [n] es un vector formado por un subconjunto de coeficientes del


suavizador i-ésimo, en particular, aquellos coeficientes correspondientes a
la antena j -ésima del receptor MIMO. De esta manera, obtenemos las N
respuestas conjuntas del canal más el suavizador para cada flujo de datos.
La respuesta impulsional conjunta hi [n] para el flujo de datos puede
mostrar componentes no nulas para valores n ∈ [−L, L + P − 1]. Por lo tanto,
el valor correspondiente al desplazamiento temporal máximo considerado
para las correlaciones es la diferencia entre estos valores límites, ya que
se corresponde con la situación en la que un flujo de datos sufre un
desplazamiento temporal de −L símbolos y el mismo flujo de datos detectado
por otro suavizador sufre un desplazamiento temporal de L + P − 1 símbolos.
Por lo tanto, δM AX = 2L + P − 1.

75
Otro de los aspectos importantes del algoritmo MV-CC que debe ser
considerado es la complejidad del mismo, entendida como la cantidad de
recursos necesarios para su ejecución, ya sea en cantidad de memoria utilizada
o en cantidad de tiempo necesario para la ejecución (siendo éste último
el parámetro en el que centraremos el análisis). Tal como señalamos en la
Sección 4.3, una parte importante de la carga computacional del algoritmo
MV-CC viene determinada por el cálculo en cada una de las iteraciones de las
correlaciones cruzadas entre los flujos de datos extraídos. Teniendo en cuenta
que el término de coste no contribuye directamente a la adaptación de los
suavizadores (tarea realizada por el término de verosimilitud) es interesante
conseguir una eficiencia mayor manteniendo la capacidad de penalizar la
extracción simultánea del mismo flujo de datos reduciendo simultáneamente
las operaciones realizadas.
La reducción de la carga computacional del algoritmo la llevamos a
cabo parametrizando el cálculo de las correlaciones cruzadas de (4.10)
para que se lleve a cabo cada PCC símbolos en lugar de cada símbolo.
Este procedimiento propuesto asume que la adaptación por verosimilitud
normalizada es lo suficientemente lenta para permitir este espaciado temporal
y que la adaptación de los suavizadores interferentes en un área de atracción
ya ocupada no sea demasiado buena.
Mostramos en la Figura 5.4 las simulaciones de la tasa de error de símbolo
llevadas a cabo para un sistema MIMO 2 × 3 y memoria P = 2 según la
relación señal a ruido para diferentes valores de PCC . La inicialización de
los 2 suavizadores es idéntica, así como los símbolos transmitidos en cada
configuración, para identificar más fácilmente el comportamiento según PCC .

0
10
Probabilidad de error de simbolo

−1
10

−2 P =1
CC
10 P =5
CC
P =10
CC
PCC=25
PCC=50

−3
10
10 11 12 13 14 15
Relacion señal a ruido (dB)

Figura 5.4: Probabilidad de error de símbolo de la técnica MV-CC según PCC

76
Mostramos igualmente en el Cuadro 5.4 el tiempo neto de CPU (medido
en segundos) necesario para la ejecución de las simulaciones anteriores según
el valor de PCC .

Factor PCC Tiempo CPU


PCC = 1 6.016
PCC = 5 2.725
PCC = 10 2.303
PCC = 25 2.085
PCC = 50 1.967

Cuadro 5.4: Análisis comparativo de la complejidad de la técnica MV-CC


según PCC

El objetivo es conseguir un algoritmo eficaz, en términos de detección


y tasa de error, al menor coste computacional posible. Podemos observar
que valores de PCC ≤ 10 presentan un comportamiento óptimo, desde el
punto de vista de probabilidad de error de símbolo, como el obtenido para
la configuración original PCC = 1. Por encima de estos valores podemos
apreciar cómo aparecen fallos generalizados de detección, para todo el rango
de relación señal a ruido, por la incapacidad de separar correctamente
los suavizadores dentro del espacio de coeficientes cuando se ha detectado
extracción del mismo flujo de datos. Así mismo, la carga computacional se
reduce de manera acusada para PCC = 5, siendo las disminuciones más
moderadas para valores de PCC superiores lo que nos lleva a estimar, de
manera aproximada, que el término de coste en la configuración original
supone en torno al 70 % de la carga computacional total. Por lo tanto,
optamos por la configuración PCC = 5, que nos proporciona una eficacia como
la del algoritmo original (con un margen amplio frente a posibles errores) y
una reducción de la carga computacional por encima del 50 % respecto al
algoritmo original.
Podemos señalar que existe una relación entre los valores de PCC válidos
para el algoritmo y las constantes de normalización de los términos de
verosimilitud (γ) y coste (ρ) de (4.10), ya que cada una de estas constantes
determina el avance de un suavizador dentro del espacio de coeficientes por lo
que, de forma cualitativa, cuanto mayor sea la relación entre ellos (ρ/γ) mayor
puede ser el valor válido de PCC debido a que son necesarios más iteraciones
de la adaptación por verosimilitud para revertir la adaptación debida al
término de coste de las correlaciones cruzadas. Así mismo, señalamos también
que sería posible implementar una solución adaptativa relativamente sencilla
de PCC , que fijara su valor en tiempo real en función de la verosimilitud
acumulada de cada uno de los flujos de datos extraídos para optimizar el uso
de los recursos del receptor.

77
Por último, mostramos en la Figura 5.5 la superficie de verosimilitud de los
suavizadores para un sistema MIMO 2×2 sin memoria (P = 1) y constelación
BPSK (Binary Phase Shift Keying), siendo estos parámetros necesarios
para poder realizar una representación gráfica. Podemos observar el carácter
multimodal de la misma (2 máximos por cada uno de los suavizadores, el
que detecta la secuencia original correspondiente y el que detecta la misma
secuencia rotada 180o ), tal como comentamos en la Sección 4.6.

Figura 5.5: Superficie de verosimilitud

Mostramos en la Figura 5.6 la superficie de verosimilitud anterior


complementada con el término de coste para un suavizador (considerando
que el otro ya ha alcanzado su máximo), comprobando cómo los máximos de
verosimilitud correspondientes a la otra rama del receptor se ven penalizados
y no constituyen un máximo para la adaptación del suavizador restante.

Figura 5.6: Superficie de verosimilitud regularizada

78
5.3. Simulaciones y análisis de la técnica de
ordenación y sincronización

La técnica de ordenación y sincronización de los flujos de datos es


desarrollada en la Sección 4.7, por lo que ahora nos limitamos a presentar las
simulaciones y análisis correspondientes.
Presentamos en primer lugar en la Figura 5.7 la eficiencia de la técnica,
entendida como el porcentaje de datos de sincronización respecto al total de
datos, definiendo distintas curvas para distintas longitudes de la secuencia
de sincronización (LSIN C ) respecto a valores del periodo de dicha secuencia.
Manteniendo el criterio de que los datos de sincronización no supongan
más del 1 % de datos totales se obtiene directamente al periodo mínimo de
repetición, lo que nos proporciona un primer criterio para determinar dicho
parámetro de la técnica.
3
Ocupacion de datos de sincronizacion (%)

2.5 LSINC=5
LSINC=10
LSINC=25
2
LSINC=50

1.5

0.5

0
500 1000 1500 2000 2500 3000 3500 4000 4500 5000
Periodo de la secuencia de sincronizacion (simbolos)

Figura 5.7: Eficiencia de la técnica de ordenación y sincronización de flujos

La longitud de las secuencias de sincronización utilizadas determina


no solamente la eficiencia de la técnica, sino que marca el rendimiento
alcanzable de la misma, siendo seguramente el parámetro más importante
que debe ser fijado. La longitud de las secuencias de sincronización determina
tanto el valor del máximo correspondiente a una identificación positiva
de una secuencia dentro del flujo de datos como a la media del valor
absoluto de una identificación negativa con los datos de usuario. Una manera
de describir esta característica es calculando la relación entre los valores
descritos anteriormente, tal como presentamos en la Figura 5.8, a la que
denominamos sensibilidad de la técnica y que muestra la relación positiva
prácticamente lineal que existe entre los valores, algo esperable a priori
teniendo en cuenta la metodología de cálculo.

79
La gráfica de la sensibilidad se muestra a continuación.

7.5

6.5

Sensibilidad
5.5

4.5

3.5

3
5 10 15 20 25 30 35 40 45 50
Longitud de la secuencia de sincronizacion (simbolos)

Figura 5.8: Sensibilidad según la longitud de la secuencia de sincronización

La probabilidad de un falso positivo, es decir, la probabilidad de que se


produzca un positivo de identificación de una secuencia cuando realmente
dicha secuencia no está presente, simulada para distintas longitudes de
secuencia y distintos umbrales normalizados de decisión (respecto al máximo
de un positivo auténtico) es mostrada en la Figura 5.9. El análisis muestra
que para un rango medio de umbrales ([0,5−0,7], una solución de compromiso
global) solamente para longitudes de secuencia de 25 y 50 símbolos obtenemos
unos valores parcialmente por debajo de 10−2 y 10−3 respectivamente,
considerados como aceptables a priori.

0
10

−1
10
Probabilidad de falso positivo

−2
10

−3
10
LSINC=5
−4 L =10
10 SINC
L =25
SINC
LSINC=50
−5
10

−6
10
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
Umbral normalizado

Figura 5.9: Probabilidad de un falso positivo según el umbral normalizado

80
La probabilidad de un falso negativo, es decir, la probabilidad de
que no se genere un positivo de identificación a pesar de que la
secuencia correspondiente está presente, simulada para distintas longitudes
de secuencia, un rango de probabilidad de error de símbolo detectado y un
umbral normalizado de 0,6 es mostrada en la Figura 5.10. Teniendo en cuenta
que el sistema global de comunicaciones debiera funcionar para una SER de
10−3 o menor, todas las longitudes de secuencia analizadas generarían una
probabilidad de falso negativo en el orden o por debajo de 10−3 . Si relajamos
la SER a 10−2 comprobamos que solamente las longitudes de 10, 25 y 50
símbolos generan una probabilidad de falso negativo por debajo de 10−3 .

0
10

LSINC=5
−1 LSINC=10
10
Probabilidad de falso negativo

LSINC=25
LSINC=50
−2
10

−3
10

−4
10

−5
10 −1 −2 −3
10 10 10
Probabilidad de error de simbolo

Figura 5.10: Probabilidad de un falso negativo según la probabilidad de error


de símbolo

Una vez analizados los aspectos básicos de la técnica de ordenación y


sincronización (eficiencia, probabilidad de falso positivo y probabilidad de
falso negativo), procedemos a analizar el rendimiento global de la misma
en función de dichos aspectos básicos, entendido como la probabilidad
de conseguir una sincronización correcta entre los flujos de datos en
función de la probabilidad de error de símbolo (que a su vez puede
ser directamente relacionada con la relación señal a ruido del sistema).
Considerando la sencillez teórica y práctica del principio de funcionamiento
de la técnica, podemos llegar a unas expresiones matemáticas para el
rendimiento de la misma, lo que nos permite especificar cuáles son los
parámetros determinantes y como su variación afecta al rendimiento. Esta
aproximación es interesante porque ofrece una herramienta útil para la tarea
de diseño de un sistema de comunicaciones bajo estudio, a diferencia de
los resultados obtenidos a través de simulaciones que pueden no ser tan
reveladores en cuanto a la naturaleza del comportamiento de la técnica.

81
La determinación de las expresiones implica fijar claramente las
condiciones de análisis. El rendimiento se va a evaluar considerando la
probabilidad de conseguir la sincronización correcta de los N flujos de
datos para bloques de datos recibidos de longitud NSIN C PSIN C símbolos,
es decir, la longitud mínima necesaria para la identificación de la máscara
m[n]. La sincronización será correcta siempre y cuando se hayan identificado
correctamente cada una de las N secuencias de sincronización en los N
flujos correspondientes. Considerando que la sincronización de cada flujo es
independiente del resto, podemos expresar la probabilidad de sincronización
global PG en función de las N sincronizaciones individuales, denominadas
PU , de la siguiente manera.

PG = [PU ]N . (5.2)

Por lo tanto, debemos desarrollar la expresión de PU . La sincronización


unitaria correcta está sujeta a que se cumplan 2 condiciones independientes,
la primera de ellas es que se produzcan NSIN C positivos correspondientes
a la secuencia de sincronización (implicitamente separados por el periodo
correcto PSIN C ), mientras que la segunda condición es que no se produzcan
NSIN C falsos positivos consecutivos con separación PSIN C símbolos que
puedan ser interpretados como positivos correspondientes a la secuencia
de sincronización. La primera de estas condiciones se producirá con una
probabilidad Pp mientras que la segunda lo hará con una probabilidad Pn ,
por lo que podemos expresar la probabilidad de la sincronización unitaria
como

PU = Pp Pn . (5.3)

Las condiciones anteriores pueden ser expresadas respectivamente en


función de la probabilidad de falso negativo y la probabilidad de falso
positivo, cuyos valores han sido simulados para distintas longitudes de
secuencia. Teniendo en cuenta la independencia entre estos eventos, es sencillo
llegar a las expresiones finales

Pp = (1 − Pf n )NSIN C , (5.4)

Pn = (1 − PfNpSIN C )PSIN C , (5.5)

siendo Pf p y Pf n las probabilidades de falso positivo y falso negativo,


simuladas en las Figuras 5.9 y 5.10, respectivamente.

82
Por lo tanto, la probabilidad de una sincronización unitaria PU correcta
es

PU = (1 − Pf n )NSIN C (1 − PfNpSIN C )PSIN C . (5.6)

Teniendo en cuenta que la probabilidad de una sincronización unitaria


(5.6) debe ser lo más alta posible, podemos destacar los parámetros críticos.
Si consideramos una Pf n y Pf p altas del mismo orden de magnitud, el
parámetro NSIN C aparece como determinante en el exponente de Pf p para
contrarrestar el efecto del exponente PSIN C , ya que al ser éste último del
orden de 103 para mantener una alta eficiencia espectral (Figura 5.7) produce
un valor extremadamente bajo a menos que la base se mantenga por encima
de cierto nivel (de forma aproximada con una PfNpSIN C < 10−4 ). Por lo tanto,
son la Pf p junto con NSIN C los parámetros que deben ser analizados y
seleccionados con mayor cuidado.
Mostramos a continuación en la Figura 5.11 la probabilidad de
sincronización unitaria en función de la probabilidad de error de símbolo del
sistema (lineas continuas) según la Ecuación (5.6) para distintos umbrales
(por lo tanto para distintas Pf p ), una longitud de secuencia de 10 símbolos,
un valor NSIN C = 2 y PSIN C = 1000. Así mismo presentamos también las
correspondientes simulaciones numéricas (líneas discontinuas).

0
10
Probabilidad de error de sincronizacion unitaria

−1
10

UMB=0.6
−2 UMB=0.7
10
UMB=0.8
UMB=0.9
UMB=0.6
UMB=0.7
UMB=0.8
−3 UMB=0.9
10 −1 −2 −3
10 10 10
Probabilidad de error de simbolo

Figura 5.11: Rendimiento de la técnica según la SER y umbrales

La primera observación que podemos realizar respecto a la Figura 5.11 es


la corroboración de la validez del modelo teórico desarrollado en la Ecuación
(5.6) a partir de las simulaciones numéricas, destacando la utilidad de dicha
expresión para determinar los parámetros importantes de la técnica.

83
La segunda observación importante hace referencia a la importancia
del umbral (que fija una Pf p concreta) para un buen rendimiento. Un
umbral demasiado bajo genera una tasa excesivamente alta de falsos
positivos de detección de la secuencia de sincronización, independientemente
de la probabilidad de error de símbolo del sistema, lo que degrada el
comportamiento al producirse falsos positivos de sincronización. La longitud
de la secuencia de sincronización marca cómo de sensible es el rendimiento
de la técnica respecto al umbral de decisión, ya que a menor longitud menor
es la sensibilidad (Figura 5.8) y más probable un falso positivo (Figura 5.9).
Hemos simulado una longitud de secuencia de 10 símbolos, obteniendo unos
resultados aceptables teniendo en cuenta que no es un valor alto.
Mostramos en la Figura 5.12 la probabilidad de sincronización unitaria
en función de la tasa de error de símbolo del sistema (lineas continuas) según
la Ecuación (5.6) para un umbral de 0.7 y distintos valores de NSIN C , una
longitud de secuencia de 10 símbolos y PSIN C = 1000. Así mismo presentamos
las correspondientes simulaciones numéricas (líneas discontinuas).

0
10
Probabilidad de error de sincronizacion unitaria

−1
10

−2
10
NSINC=2
NSINC=3
−3
10 NSINC=4
NSINC=2
NSINC=3
−4
10 NSINC=4

−5
10 −1 −2 −3
10 10 10
Probabilidad de error de simbolo

Figura 5.12: Rendimiento de la técnica según la SER, umbrales y NSIN C

Al igual que en el caso anterior, destacamos la validez del modelo


teórico según las simulaciones numéricas. Así mismo, podemos observar la
importancia del valor de NSIN C para el rendimiento de la técnica en los
casos en los que la Pf p es relativamente alta, según la Ecuación (5.6).
Considerando los resultados presentados a lo largo de esta sección,
podemos concluir que la sincronización global a partir de un único bloque
de datos se realiza con una alta probabilidad, por lo que si consideramos
un mayor número de bloques podemos deducir que la probabilidad de
sincronización del sistema se aproxima al 100 %.

84
5.4. Simulaciones y análisis comparativos de
las técnicas de detección

Las diferentes técnicas de detección para sistemas MIMO son


desarrolladas en el Capítulo 3, por lo que ahora nos limitamos a presentar
las simulaciones y análisis conjuntos correspondientes.
El aspecto principal que analizamos es la tasa de error de símbolo
conseguida por cada una de las técnicas estudiadas frente a la relación señal
a ruido. Analizamos la tasa de error de símbolo en diferentes configuraciones
(número de antenas transmisoras y número de antenas receptoras) y
condiciones de propagación (canales LOS y NLOS, así como memoria del
canal) de forma que podamos hacer una valoración global de su rendimiento
en condiciones lo más próximas a la realidad. La modulación utilizada es
QPSK en todos los casos y un esquema de codificación diferencial de la
fase. La relación señal a ruido se define como SNR = 10 log σs Traza
2 (HHH )
M σg2
de forma que normalice el resultado según las características del canal y
las comparaciones sean coherentes. Analizamos el rango de relación señal a
ruido [0 − 20]dB, simulándose para cada valor un total de 100.000 símbolos.
El parámetro que marca la longitud de los suavizadores se fija en L = P para
las técnicas semiciegas (tal como se fija en los artículos correspondientes) y
L = 3 para las técnicas ciegas.
Mostramos en las Figuras 5.13, 5.14 y 5.15 la tasa de error de símbolo
para un sistema MIMO 2×3 de visión no directa con una longitud de canal
equivalente de P = 1, P = 2 y P = 3 símbolos respectivamente.

0
10

−1
Probabilidad de error de simbolo

10

−2
10

−3
10 Semiciego MV
Semiciego CMA
Ciego CMA
Ciego CC
−4
10 Ciego MV−CC

−5
10
0 5 10 15 20
Relacion señal a ruido (dB)

Figura 5.13: Tasa de error de símbolo MIMO 2×3 y P = 1

85
0
10

−1

Probabilidad de error de simbolo


10

−2
10

−3
10 Semiciego MV
Semiciego CMA
Ciego CMA
−4
Ciego CC
10 Ciego MV−CC

−5
10
0 5 10 15 20
Relacion señal a ruido(dB)

Figura 5.14: Tasa de error de símbolo MIMO NLOS 2×3 y P = 2

0
10

−1
Probabilidad de error de simbolo

10

−2
10

−3
10 Semiciego MV
Semiciego CMA
Ciego CMA
−4
Ciego CC
10 Ciego MV−CC

−5
10
0 5 10 15 20
Relacion señal a ruido (dB)

Figura 5.15: Tasa de error de símbolo MIMO NLOS 2×3 y P = 3

Podemos apreciar en primer lugar el efecto de la longitud equivalente P


del canal de comunicaciones sobre el rendimiento. Según la longitud del canal
MIMO va aumentando el rendimiento alcanzable va disminuyendo, de forma
que las curvas se desplazan paulatinamente hacia la parte superior derecha de
la gráfica. Este comportamiento es esperable, ya que una mayor longitud P
es equivalente a un número mayor de componentes de multitrayecto, lo que
complica la detección de cada flujo de datos. Recordamos que la longitud
de los suavizadores ha sido fijada según lo establecido en los artículos de
referencia o según un valor suficiente para todas las longitudes de canal
analizadas. Podemos observar cómo el deterioro del rendimiento es más
acentuado en el caso de las técnicas semiciegas que en el caso de las técnicas

86
ciegas para relaciones de señal a ruido superiores a 10dB según aumenta el
multitrayecto. Respecto al comportamiento, las técnicas semiciegas son más
progresivas, en el sentido de que la probabilidad de error de símbolo disminuye
gradualmente según aumenta la relación señal a ruido, lo que atribuimos al
hecho de disponer de los datos conocidos de entrenamiento en condiciones
de mucho ruido. La técnica ciega MV-CC presenta un pequeño escalón
en torno a 5dB a partir del cual presenta un comportamiento progresivo,
aunque este cambio no es muy significativo. La técnica ciega CMA sí que
presenta un cambio muy abrupto en torno a los 10dB, punto a partir del cual
comienza a funcionar correctamente, lo que creemos que puede ser debido a
una incorrecta estimación de los subcanales de la matriz MIMO debido al
efecto del ruido (3.56), que provoca fallos de detección generalizados debido
a la naturaleza iterativa de la técnica; este efecto podría ser compensado de
manera relativamente sencilla pero se trata de un objetivo fuera del ámbito
de este proyecto. La técnica ciega CC presenta fallos generalizados para todo
el rango de relación señal a ruido y diferentes longitudes de canal, lo cual
era esperable teniendo en cuenta la definición del término de correlaciones
cruzadas utilizado (3.59), que tiene en cuenta todos los valores de la función
de correlación cruzada entre los flujos sin tener en consideración si dicha
correlación es aleatoria o debida a la extracción del mismo flujo de datos;
este comportamiento es corregido y mejorado por la definición del término
de coste de la técnica MV-CC (4.8), tal como puede apreciarse en las curvas
correspondientes.
Mostramos en las Figuras 5.16, 5.17 y 5.18 la tasa de error de símbolo
para un sistema MIMO 2×4 de visión no directa con una longitud de canal
equivalente de P = 1, P = 2 y P = 3 símbolos respectivamente.

0
10

−1
Probabilidad de error de simbolo

10

−2
10

−3 Semiciego MV
10
Semiciego CMA
Ciego CMA
Ciego CC
−4
10 Ciego MV−CC

−5
10
0 5 10 15 20
Relacion señal a ruido (dB)

Figura 5.16: Tasa de error de símbolo MIMO NLOS 2×4 y P = 1

87
0
10

−1

Probabilidad de error de simbolo


10

−2
10

−3
10 Semiciego MV
Semiciego CMA
Ciego CMA
Ciego CC
−4
10 Ciego MV−CC

−5
10
0 5 10 15 20
Relacion señal a ruido (dB)

Figura 5.17: Tasa de error de símbolo MIMO NLOS 2×4 y P = 2

0
10

−1
Probabilidad de error de simbolo

10

−2
10

−3
10 Semiciego MV
Semiciego CMA
Ciego CMA
−4
Ciego CC
10 Ciego MV−CC

−5
10
0 5 10 15 20
Relacion señal a ruido (dB)

Figura 5.18: Tasa de error de símbolo MIMO NLOS 2×4 y P = 3

Podemos observar cómo, en términos generales, el rendimiento del sistema


aumenta, siendo un resultado esperable ya que el receptor dispone de un
mayor número de cadenas de recepción (mayor diversidad al disponer de
un mayor número de observaciones independientes de los mismos símbolos
transmitidos) para la detección del mismo número de flujos de datos que en
el caso anterior. El caso P = 1 muestra claramente una mejora entre 2dB
y 3dB del rendimiento de las técnicas respecto al caso anterior, incluso el
funcionamiento de la técnica ciega CC para relaciones de señal a ruido altas,
lo que podría ser debido a las condiciones particulares del canal analizado
con poco ruido junto con una inicialización adecuada. El caso P = 2 obtiene
peores resultados de los previstos, lo que podría ser explicado por el canal

88
simulado ya que todas las técnicas obtienen un resultado peor de lo esperado.
El caso P = 3 mantiene la mejora de entre 2db y 3dB respecto a la primera
configuración. Por otra parte, podemos destacar tanto el salto abrupto de
rendimiento de la técnica ciega CMA que se mantiene (lo que es esperable
teniendo en cuenta sus causas, que no dependen de la configuración de
antenas del sistema), como la aparición en varios casos de una asíntota del
rendimiento de la técnica semiciega CMA.
Mostramos en las Figuras 5.19, 5.20 y 5.21 la tasa de error de símbolo
para un sistema MIMO 3×4 de visión no directa con una longitud de canal
equivalente de P = 1, P = 2 y P = 3 símbolos respectivamente.
0
10

−1
Probabilidad de error de simbolo

10

−2
10

−3
10 Semiciego MV
Semiciego CMA
Ciego CMA
Ciego CC
−4
10 Ciego MV−CC

−5
10
0 5 10 15 20
Relacion señal a ruido (dB)

Figura 5.19: Tasa de error de símbolo MIMO NLOS 3×4 y P = 1

0
10

−1
Probabilidad de error de simbolo

10

−2
10

−3
10 Semiciego MV
Semiciego CMA
Ciego CMA
−4
Ciego CC
10 Ciego MV−CC

−5
10
0 5 10 15 20
Relacion señal a ruido (dB)

Figura 5.20: Tasa de error de símbolo MIMO NLOS 3×4 y P = 2

89
0
10

−1

Probabilidad de error de simbolo


10

−2
10

−3
10 Semiciego MV
Semiciego CMA
Ciego CMA
−4
Ciego CC
10 Ciego MV−CC

−5
10
0 5 10 15 20
Relacion señal a ruido (dB)

Figura 5.21: Tasa de error de símbolo MIMO NLOS 3×4 y P = 3

Comprobamos que el rendimiento no mejora por el incremento de


las antenas transmisoras, tal como se esperaba. Por otra parte, el
comportamiento puede ser descrito según los comentarios anteriores.
Mostramos en las Figuras 5.22, 5.23 y 5.24 la tasa de error de símbolo para
un sistema MIMO 2×3 de visión directa con una longitud de canal equivalente
de P = 2 símbolos y factor K = 10, K = 30 y K = 50 respectivamente.
Modelamos la primera submatriz H[0] (la línea de visión directa) según (2.4)
con el factor K correspondiente, mientras que la segunda submatriz H[1] (el
multitrayecto) es modelada según HN LOS como distribución Rayleigh.

0
10

−1
Probabilidad de error de simbolo

10

−2
10

−3
10 Semiciego MV
Semiciego CMA
Ciego CMA
−4
Ciego CC
10 Ciego MV−CC

−5
10
0 5 10 15 20
Relacion señal a ruido (dB)

Figura 5.22: Tasa de error de símbolo MIMO LOS 2×3, P = 2 y K = 10

90
0
10

−1

Probabilidad de error de simbolo


10

−2
10

−3
10 Semiciego MV
Semiciego CMA
Ciego CMA
−4
Ciego CC
10 Ciego MV−CC

−5
10
0 5 10 15 20
Relacion señal a ruido (dB)

Figura 5.23: Tasa de error de símbolo MIMO LOS 2×3, P = 2 y K = 30

0
10

−1
Probabilidad de error de simbolo

10

−2
10

−3
10 Semiciego MV
Semiciego CMA
Ciego CMA
−4
Ciego CC
10 Ciego MV−CC

−5
10
0 5 10 15 20
Relacion señal a ruido (dB)

Figura 5.24: Tasa de error de símbolo MIMO LOS 2×3, P = 2 y K = 50

Las simulaciones anteriores muestran cómo el rendimiento de todas las


técnicas de detección empeora según aumenta el grado de visión directa entre
el transmisor y el receptor (factor K), de forma que se reduce progresivamente
el rango de la matriz de canal H y, por lo tanto, la capacidad alcanzable por
el sistema. Observamos el deterioro más progresivo y lento de las técnicas
semiciegas en comparación a las técnicas ciegas, ya que incluso en condiciones
de un factor K muy alto son capaces de conseguir un rendimiento en torno
a 10−1 para condiciones de poco ruido mientras que las técnicas ciegas
presentan fallos generalizados de detección. Destacamos la relativa robustez
de la técnica propuesta MV-CC en estas condiciones adversas.

91
El segundo aspecto que analizamos de forma conjunta es la complejidad
de cada una de las técnicas de detección analizadas, entendida como la
cantidad de recursos necesarios para su ejecución, ya sea en cantidad de
memoria utilizada o en cantidad de tiempo necesario para la ejecución
(siendo éste último el parámetro en el que centraremos el análisis). La
complejidad temporal proporciona una estimación de la carga computacional
de cada algoritmo, por lo que se trata de un dato útil en la etapa de diseño
del sistema de comunicaciones. Pretendemos evaluar comparativamente el
coste de ejecución de las técnicas de detección según diversos parámetros
(configuración de antenas, longitud del canal equivalente y relación señal a
ruido) para lo cual las condiciones de simulación deben ser lo más parejas
posibles. Debemos resaltar que en el análisis de la complejidad temporal de las
técnicas de detección no se ha tenido en cuenta el algoritmo de sincronización
temporal y ordenación de flujos propuesto. Hemos optado por no tener en
cuenta este algoritmo para las técnicas ciegas de detección, de manera que
evaluemos su complejidad intrínseca
Mostramos en la Figura 5.25 las simulaciones correspondientes al tiempo
de ejecución de cada una de las técnicas de detección analizadas para
diferentes configuraciones de antenas de transmisión y recepción, canales con
una longitud equivalente P = 1, una relación señal a ruido de 10dB y 50.000
símbolos transmitidos por cada antena.

700
Semiciego MV
Semiciego CMA
600
Ciego CMA
Ciego CC
Ciego MV−CC
Tiempo de ejecucion (s)

500

400

300

200

100

0
2x3 2x4 3x4
Configuracion MIMO

Figura 5.25: Complejidad temporal de las técnicas de detección según la


configuración de antenas

Podemos observar primeramente que la complejidad temporal de las


técnicas ciegas es mayor que la de las técnicas semiciegas para todas las
configuraciones, destacando negativamente la técnica ciega CC debido al
cálculo símbolo a símbolo de las correlaciones cruzadas entre los flujos de

92
datos detectados. Así mismo, apreciamos cómo el aumento del número de
antenas de recepción (desde una configuración 2 × 3 a una configuración
2 × 4) aumenta la complejidad temporal de forma no significativa en todas
las técnicas. Sin embargo, el aumento del número de antenas de transmisión
(desde una configuración 2×4 a una configuración 3×4) puede tener un efecto
muy acusado causado por el aumento correspondiente del número de flujos
de datos que deben ser detectados y debe ser tenido en cuenta. Este efecto es
especialmente acusado en el caso de la técnica ciega CC debido al aumento
no lineal del número de correlaciones cruzadas que deben ser calculadas (lo
que sucede igualmente en la técnica ciega MV-CC sin ser tan crítico debido
a la parametrización según PCC )
Mostramos en la Figura 5.26 las simulaciones correspondientes al tiempo
de ejecución de cada una de las técnicas de detección analizadas para
diferentes valores de la relación señal a ruido, un canal MIMO 2 × 3 con
una longitud equivalente P = 1 y 50.000 símbolos transmitidos por cada una
de las antenas transmisoras.

450

400

350 Semiciego MV
Tiempo de ejecucion (s)

Semiciego CMA
300 Ciego CMA
Ciego CC
250 Ciego MV−CC

200

150

100

50

0
0 10 20
Relacion señal a ruido (dB)

Figura 5.26: Complejidad temporal de las técnicas de detección según la


relación señal a ruido

Comprobamos que todas las técnicas de detección analizadas presentan


la misma complejidad temporal según el valor de la relación señal a ruido con
la excepción de la técnica semiciega MV, la cual muestra una disminución
acusada de la complejidad según aumenta la relación señal a ruido. Creemos
que este comportamiento es debido a la utilización del algoritmo EM como
medio de optimización de la función de verosimilitud/coste correspondiente
a diferencia del resto de técnicas, que basan la optimización en algoritmos
de búsqueda local según la dirección de la derivada de la función de
verosimilitud/coste.

93
Por último, mostramos en la Figura 5.27 las simulaciones correspondientes
al tiempo de ejecución de cada una de las técnicas de detección analizadas
para diferentes valores de la longitud equivalente del canal MIMO P , para
un canal MIMO 2×3, una relación señal a ruido de 10dB y 50.000 símbolos
transmitidos por cada antena.

600

Tiempo de ejecucion (s) 500

400 Semiciego MV
Semiciego CMA
Ciego CMA
300 Ciego CC
Ciego MV−CC

200

100

0
1 2 3
Longitud equivalente del canal

Figura 5.27: Complejidad temporal de las técnicas de detección según la


longitud equivalente del canal P

Podemos observar que el aumento de la longitud equivalente del canal


lleva asociado, en el peor de los casos, un moderado aumento lineal de la
complejidad temporal de las técnicas de detección debido a la asignación de
recursos adicionales para cada una de las N ramas de recepción.
La complejidad de una técnica de detección es un parámetro que
debe ser considerado, ya que existe un compromiso entre la misma y
los recursos HW/FW/SW asignados al receptor. Teniendo en cuenta las
simulaciones y comentarios anteriores puede llevarse a cabo una estimación de
la complejidad de cada técnica de detección para escenarios no directamente
contemplados en estos análisis, de manera que sirva como información
adicional en el proceso de diseño de alto nivel del sistema de comunicaciones.

94
Capítulo 6

Conclusiones

6.1. Resultados del proyecto

A lo largo de este proyecto hemos tratado diversas cuestiones sobres


sistemas de comunicaciones MIMO de manera más o menos profunda, por lo
que merece la pena destacar los resultados más relevantes obtenidos conforme
a los objetivos marcados.
En primer lugar, hemos proporcionado una introducción teórica al campo
de las comunicaciones inalámbricas en sistemas MIMO. Hemos presentado
aquellos aspectos diferenciadores respecto a los sistemas tradicionales SISO
que les confieren unas ventajas sustanciales, destacando principalmente el
aumento de la capacidad del canal si se realiza un procesamiento adecuado
en transmisor y receptor y la posibilidad de llevar a cabo una codificación
que tenga en cuenta la dimensión espacial para mejorar el rendimiento. Así
mismo, hemos ofrecido alguna orientación básica de orden práctico para el
diseño de esta clase de sistemas, que puede ser útil a la hora de fijar un
diseño preliminar de alto nivel en la implementación de un sistema real de
comunicaciones basado en estas técnicas. También destacamos las referencias
bibliográficas facilitadas en este marco introductorio, de forma que el lector
interesado puede encontrar los artículos, libros e informes consultados para
mayor detalle sobre un área en concreto. Los sistemas MIMO aparecen como
una de las tecnologías más prometedoras dentro del ámbito tecnológico de
las comunicaciones inalámbricas y pueden llegar a marcar el futuro en este
área. Las posibles aplicaciones van desde la implemetación de enlaces punto
a punto (basándose en una arquitectura monousuario) como enlaces punto
a multipunto (basándose en una arquitectura multiusuario), por lo que las
oportunidades de investigación, desarrollo y de negocio son importantes y
deben ser tenidas en cuenta.

95
Posteriormente, hemos simulado numéricamente y analizado 4 técnicas
de detección estadísticas para sistemas MIMO, ya existentes, con la siguiente
valoración para cada unas de ellas.

Técnica semiciega MV. Técnica de detección que presenta unos buenos


resultados en cuanto a tasa de error de símbolo tanto en canales
de visión directa como visión no directa, con un comportamiento
monótono de mejora según aumenta la relación señal a ruido desde
valores muy bajos de la misma. La técnica presenta la complejidad
temporal más baja de las analizadas, destacando especialmente en
relaciones de señal a ruido altas en las que consigue una convergencia
rápida. Una característica es su versatilidad, ya que puede ser utilizada
con modulaciones de potencia no constante.

Técnica semiciega CMA. Técnica de detección que presenta unos


buenos resultados en cuanto a tasa de error de símbolo tanto en
canales de visión directa como canales de visión no directa, aunque
ocasionalmente presenta una asíntota de rendimiento, de forma que la
tasa de error de símbolo no decrece según aumenta la relación señal a
ruido; este comportamiento no ha podido ser explicado ni tampoco es
nombrado en el artículo original. La técnica presenta una complejidad
temporal baja muy estable frente a todos los parámetros analizados.
Considerando que está basada en el algoritmo CM, su utilización es
especialmente adecuada, aunque no restringida, a modulaciones de
potencia constante.

Técnica ciega CMA. Técnica de detección que presenta unos muy


buenos resultados en cuanto a tasa de error de símbolo con un
comportamiento monótono de mejora exclusivamente por encima de
una relación señal a ruido umbral para canales de visión no directa y
canales de visión directa con factor K bajo. La complejidad temporal
asociada es media y bastante estable respecto a los parámetros
analizados. Debido a su fundamento en el algoritmo CM, su utilización
es especialmente adecuada, aunque no restringida, a modulaciones de
potencia constante.

Técnica ciega CC. Técnica de detección que presenta unos resultados


totalmente defectuosos hasta el punto de convertirla en inservible
para su uso real en la gran mayoría de escenarios y configuraciones
analizados. Así mismo, la complejidad temporal asociada es la más
alta de todas las técnicas y la que comparativamente más crece
según los parámetros analizados. Al estar basada en el algoritmo CM,
su utilización es especialmente adecuada, aunque no restringida, a
modulaciones de potencia constante.

96
La aportación más destacable de este proyecto es la propuesta de un
nueva técnica ciega de detección estadística basada en el principio de máxima
verosimilitud con un término de correlaciones cruzadas, cuya valoración
presentamos a continuación.

Técnica ciega MV-CC. Técnica de detección que presenta unos muy


buenos resultados en cuanto a tasa de error de símbolo tanto en
canales de visión directa como canales de visión no directa con un
factor K moderado y un comportamiento monótono de mejora de la
misma según aumenta la relación señal a ruido desde valores bajos.
La técnica hace uso de un algoritmo de búsqueda local modificado con
el objetivo de mejorar la convergencia a máximos de mayor calidad
de la función de verosimilitud regularizada. La complejidad temporal
asociada es media y aumenta de manera moderada según los parámetros
analizados, lo cual es debido al diezmado llevado a cabo en el proceso
de cálculo de las correlaciones cruzadas. Teniendo en cuenta el principio
de máxima verosimilitud en el que se basa, la técnica es adecuada para
modulaciones de potencia no constante.

La otra aportación destacable del proyecto es la propuesta de la técnica


de ordenación y sincronización de flujos cuya valoración presentamos.

Técnica de ordenación y sincronización. Técnica conceptualmente


sencilla para la ordenación y sincronización temporal de los flujos de
datos detectados por un receptor MIMO basada en la transmisión
periódica de unas secuencias cortas conocidas de símbolos y en el
procesamiento estadístico de segundo orden que se lleva a cabo en
el receptor. Este algoritmo es adaptable a todas las técnicas ciegas
de detección analizadas. Una de las características relevantes es la
derivación de las expresiones matemáticas cerradas del rendimiento
de la misma, lo que permite una comprensión mayor del mismo y
constituye una ayuda significativa en la etapa de diseño de un sistema.

Por último, entre las simulaciones numéricas llevadas a cabo, podemos


destacar el efecto que tiene la configuración del sistema MIMO (en particular
el número de antenas transmisoras y receptoras) sobre el rendimiento del
sistema medida como SER. En general, podemos destacar que el aumento
del número de antenas receptoras implica un rendimiento mayor al aumentar
las observaciones independientes y por lo tanto, la diversidad disponible.
Por otra parte, el aumento de antenas transmisoras (considerando siempre
N < M ) viene asociado a la posibilidad de un aumento de la capacidad del
canal a través del multiplexado espacial junto con una mayor complejidad
computacional.

97
6.2. Líneas futuras de trabajo

Proponemos a continuación una serie de posibles líneas de trabajo que


surgen a partir del trabajo realizado de análisis, desarrollo y simulación
numérica de las técnicas presentadas a lo largo de la memoria de este proyecto
de fin de carrera. Nos centramos exclusivamente en aquellas propuestas
relativas a la técnica MV-CC original de este proyecto, dejando de lado las
relativas a las técnicas desarrolladas por otros autores.

Las técnicas ciegas de detección son muy sensibles a la inicialización


de los procesadores del receptor en el caso de utilizar algoritmos de
búsqueda local. Aunque los resultados obtenidos en este proyecto en
cuanto a inicialización son buenos, podría estudiarse más a fondo este
aspecto teniendo en cuenta las características de las superficies de
verosimilitud regularizada del algoritmo MV-CC.
El cálculo de las correlaciones cruzadas entre los flujos detectados
conlleva un alto coste computacional, por lo que el desarrollo de
algoritmos eficientes para esta tarea sería un avance considerable en
receptores con recursos limitados.
El algoritmo EM ha demostrado una alta velocidad de convergencia a
los máximos de la función de verosimilitud especialmente en condiciones
de una alta relación señal a ruido. El desarrollo del marco teórico para
su posible utilización en el algoritmo MV-CC, en lugar del algoritmo
de gradiente, sería de gran utilidad.
Los parámetros del algoritmo MV-CC (constantes de normalización,
paso de búsqueda, umbrales, desfase máximo y diezmado de las
correlaciones cruzadas) han sido derivados para escenarios lo más
generales posible, sin embargo en algunas circunstancias particulares
podrían no ser válidos. El desarrollo de técnicas adaptativas para la
determinación de estos parámetros podría ser ventajoso para escenarios
variantes en el tiempo.
Todos los análisis y desarrollos de las técnicas de detección se han
realizado para un sistema de comunicaciones MIMO monousuario.
La posible derivación (además de factibilidad) de estas técnicas para
sistemas multiusuario es una tarea abierta.
Los análisis de las técnicas de detección se han llevado a cabo mediante
simulaciones numéricas. El siguiente paso para demostrar su viabilidad
práctica sería realizar una campaña de medidas es sistemas reales
evaluando el rendimiento alcanzado.

98
Apéndice A

Glosario

3G-HSDPA: 3rd Generation High Speed Downlink Packet Access

3GPP: 3rd Generation Partnership Project

AWGN: Additive White Gaussian Noise

BER: Bit Error Rate

BPSK: Binary Phase Shift Keying

CC: Correlaciones Cruzadas

CM: Constant Modulus

CMA: Constant Modulus Algorithm

CNAF: Cuadro Nacional de Atribución de Frecuencias

CSI: Channel State Information

CPU: Central Process Unit

EM: Expectation Maximization

ETSI: European Telecommunications Standards Institute

FW: FirmWare

GSM: Group Special Mobile / Global System for Mobile Comunications

HW: HardWare

IEEE: Institute of Electrical and Electronics Engineers

99
ISI: Inter Symbol Interference

ITU: International Telecommunicacions Union

LOS: Line Of Sight

LS: Least Squares

MIMO: Multiple Input Multiple Output

MISO: Multiple Input Single Output

MLSD: Maximum Likelihood Sequence Detection

MMSE: Minimum Mean Square Error

MV: Máxima Verosimilitud

NLOS: No Line Of Sight

OFDM: Orthogonal Frequency Division Multiplexing

PMR: Private Mobile Radio

PSK: Phase Shift Keying

QAM: Quadrature Amplitude Modulation

QPSK: Quadrature Phase Shift Keying

RF: Radio Frecuencia

SER: Symbol Error Rate

SIMO: Single Input Multiple Output

SISO: Single Input Single Output

SNR: Signal to Noise Ratio

STC: Spatio Temporal Coding

SVD: Singular Value Decomposition

SW: SoftWare

UMTS: Universal Mobile Telecommunications System

WiMax: Worldwide Interoperability for Microwave Access

WiFi: Wireless Fidelity

100
Bibliografía

[1] A. J. Paulraj, R. Nabar, and R. Gore. Introduction to Space-Time


Wireless Communications. Cambridge University Press, 2003.

[2] A. J. Paulraj and T. Kailath. Increasing capacity in wireless broadcast


systems using distributed transmission/directional reception. Patent 5
345 599, 1994.

[3] I. E. Telatar. Capacity of multi-antenna gaussian channels. AT&T Bell


Laboratories, BL0 112 170-950 615-07TM, 1995.

[4] G. J. Foschini and M. J. Gans. On limits of wireless communications in


a fading environment when using multiple antennas. Wireless Personal
Communications, 6:311–335, March 1998.

[5] V. Tarokh, N. Seshadri, and A. R. Calderbank. Space-time codes for


high data rate wireless communication: Performance criterion and code
construction. IEEE Transactions in Information Theory, 44(2):744–765,
March 1998.

[6] V. Tarokh, H. Jafarkhani, and A. R. Calderbank. Space time block codes


from orthogonal designs. IEEE Transactions in Information Theory,
45(5):1456–1467, July 1999.

[7] D. Gesbert, M. Shafi, D. Shiu, P. J. Smith, and A. Naguib. From theory


to practice: An overview of MIMO space time coded wireless systems.
IEEE Journal on Selected Aeras in Communications, 21(3):281–302,
April 2003.

[8] A. J. Paulraj, D. Gore, R. U. Nabar, and H. Bölcskei. An overview of


MIMO communications. a key to gigabit wireless. Proceedings of the
IEEE, 92(2):198–218, February 2004.

[9] Erceg et al. Channel models for fixed wireless applications. IEEE,Tech.
Rep., IEEE 802.16 Work Group, 2001.

101
[10] Lucent, Nokia, Siemens, and Ericsson. A standardized set of MIMO
radio propagation channels. 3GPP TSG-RAN WG1 23, November 2001.

[11] C. E. Shannon. A mathematical theory of communications. Bell System


Technical Journal, 27:379–423 and 623–656, 1948.

[12] B. Holter. On the capacity of the MIMO channel - a tutorial


introduction. Proceedings of the IEEE Norvegian Symposium on Signal
Processing (NORSIG01), pages 167–172, October 2001.

[13] T. M Cover and J. A. Thomas. Elements of Information theory. John


Wiley & Sons, Inc., 1991.

[14] S. M. Alamouti. A simple transmit diversity technique for wireless


communications. IEEE Journal on Selected Aeras in Communications,
16(8):1451–1458, October 1998.

[15] D. Tse and P. Viswanath. Fundamentals of Wireless Communication.


Cambridge University Press, 2005.

[16] Xialoi Ma and G. B. Giannakis. Full-diversity full-rate complex-


field space-time coding. IEEE Transactions on Signal Processing,
51(11):2917–2930, November 2003.

[17] L. Zheng and D.N.C. Tse. Diversity and multiplexing: a fundamental


tradeoff in multiple-antenna channels. IEEE Transactions on
Information Theory, 49:1073–1096, May 2003.

[18] A. van der Veen, S. Talwar, and A. J. Paulraj. A subspace approach to


blind space-time signal processing for wireless communication systems.
IEEE Transactions on Signal Processing, 45(1):173–190, January 1997.

[19] A. Gorokhov and P. Loubaton. Blind identification of MIMO-FIR


systems: A generalized linear prediction approach. Elsevier Signal
Processing, 73:105–124, 1999.

[20] G. D. Forney Jr. Maximum-likelihood sequence estimation of


digital sequences in the presence of intersymbol interference. IEEE
Transactions on Information Theory, 18(3):363–378, May 1972.

[21] G. D. Forney Jr. The Viterbi algorithm. Proceedings of the IEEE,


61(3):268–278, March 1973.

[22] J. G. Proakis and M. Salehi. Communication Systems Engineering.


Prentice Hall International Editions, 1994.

102
[23] J. G. Proakis and B. A. Bjerke. Equalization and decoding for multiple
input multiple output wireless channels. EURASIP Journal on Applied
Signal Processing, (3):249–266, 2002.

[24] U. Fincke and M. Pohst. Improved methods for calculating vectors of


short length in a lattice, including a complexity analysis. Mathematics
of Computation, 44(170):463–471, April 1985.

[25] M. F. Bugallo, J. Míguez, and L. Castedo. An application of the


maximum likelihood principle to semiblind space-time linear detection in
multiple-access wireless communications. Proceedings of the 11th IEEE
Signal Processing Workshop on Statistical Signal Processing, pages 198–
201, 2001.

[26] A. P. Dempster, N. M. Laird, and D. B. Rubin. Maximum likelihood


from incomplete data via the EM algorithm. Journal of the Royal
Statistical Society. Series B (Methodological), 39(1):1–38, 1977.

[27] S. M. Kay. Fundamentals of Statistical Signal Processing: Estimation


Theory. Prentice Hall, 1993.

[28] A. M. Kuzminskiy and D. Hatzinakos. Semi-blind spatiotemporal


processing with temporal scanning for short burst SDMA systems.
Signal Processing, 80(10):2063–2073, October 2000.

[29] C. M. Bishop. Neural Networks for Pattern Recognition. Oxford


University Press, 1995.

[30] D. N. Godard. Self-recovering equalization and carrier tracking in


two-dimensional data communication system. IEEE Transactions on
Communications, 28(11):1867–1875, November 1980.

[31] W.A. Sethares, G.A. Rey, and C.R. Johnson Jr. Approach to blind
equalization of signals with multiple modulus. IEEE Proc. ICASSP,
pages 972–975, April 1989.

[32] Z. Xu. New cost function for blind estimation of M-PSK signals.
Wireless Communications and Networking Conference, 2000. WCNC.
2000 IEEE, 3:1501–1505, September 2000.

[33] C. Johnson, P. Schniter, T. Endres, J. Behm, D. Brown, and R. Casas.


Blind equalization using the constant modulus criterion: A review.
Proceedings of the IEEE, 86(10):1927–1950, October 1998.

[34] A. Özen, I. Kaya, and B. Soysal. A supervised constant modulus


algorithm for blind equalization. Wireless Personal Communications,
pages 1–16, 2010. 10.1007/s11277-010-0045-1.

103
[35] J. K. Tugnait. Blind equalization and channel estimation for multiple-
input multiple-output communications systems. Proceedings IEEE 1996
ICASSP, pages 2443–2446, May 1996.

[36] C. B. Papadias and A. Paulraj. A space-time constant modulus


algorithm for SDMA systems. Proceedings IEEE/VTS 46th Vehicular
Technology Conference (VTC-96), April 1996.

[37] L. Castedo, C. J. Escudero, and A. Dapena. A blind signal separation


method for multiuser communications. IEEE Transactions on Signal
Processing, 45(5):1343–1348, May 1997.

104

También podría gustarte