Romero Foro2 3714
Romero Foro2 3714
Romero Foro2 3714
Alumno:
Javier Romero
SANGOLQUÍ, 12/12/2019
Algoritmos para procesamiento de señales.
Muchas aplicaciones en procesamiento de señales requieren de algunos parámetros de
interés que dan información de observación.
Más específicamente, la inferencia Bayesiana necesita computación c-posteriori
estimados expresados como complicadas multidimensionales integrales.
Desafortunadamente, las expresiones analíticas para estas estimaciones no pueden ser
encontradas en el mundo actual para las más reales aplicaciones, y el método Monte Carlo
es el único aprobado.
Es una clase muy poderosa de la técnica Monte Carlo esta es formada por el algoritmo
Markov Chain Monte Carlo como sus siglas indican (MCMC), ellos generan una cadena
de Markov que es una distribución estacionaria que coincide con una tarjeta de densidad
posterior.
Introducción.
Los métodos Bayesianos son muy populares en el procesamiento de señales los últimos
años. Necesitan la aplicación sofisticada de las técnicas de Monte Carlo, tanto como la
Markov Chain Monte Carlo, y filtros de partículas, para la eficiencia computacional y las
posteriores estimaciones dadas.
Para mayor especificación el MCMC algoritmos generados como una cadena que es una
distribución que coincide con la probabilidad de función de densidad posterior,
típicamente, el único requerimiento es estar lista para evaluar de inmediato la función,
donde el conocimiento de normalización constante es usualmente no necesitado.
El más popular método de MCMC es el algoritmo Metropolis- Hastings, la técnica MH
es un método muy simple, fácil de aplicar, esta es la razón de su éxito y por lo cual la
más utilizada en cada iteración, un nuevo candidato es generado desde una proposición
y es comparada con la cadena anterior al estado, en este orden para decidir el siguiente
estado, la actuación del MH a veces no es tan satisfactoria, para esta instancia, cuando
el posterior multimodal, o cuando la dimensión del espacio se incrementa, la correlación
entre los ejemplos generados son usualmente altos y como consecuencia, la varianza
de los crecientes resultados estimados, para dar mayor velocidad a la convergencia y
reducir el periodo de “quemado” de la cadena de MH, muchas extensiones tienen
proposiciones en literatura.
En este trabajo, nos proveemos en una exhaustiva revisión sofisticada de los métodos
MCMC en cada iteración, considera diferentes candidatos cómo es posible con respecto
a la cadena. Mas específicamente en cada iteración con diferentes ejemplos son
comparados por ciertos pesos y entonces uno de ellos es seleccionado como un posible
nuevo estado.
La principal ventaja de estos algoritmos es que ellos fomentan la exploración de una clara
porción del ejemplo del espacio, decreciendo la correlación entre los estados generados
por la cadena, en este trabajo trataremos de describir diferentes algoritmos de esta familia,
independientemente introducidos a la literatura.
La principal contribución en este presente trabajo se basa en el mismo marco de referencia
y la notación, remarcando diferencias, relaciones limitaciones y partes fuertes.
Todas las técnicas discutidas convergen en la densidad posterior de interés, el primer
esquema de MCMC llamada Orientaciones Vías Monte Carlo OBMC, fue propuesta en
contextura molecular, después en un algoritmo más general llamado Multiple Try
Metropolis (MTM) que fue introducido. El Algoritmo que fue extensivo estudiado y
generalizado de diferentes maneras, otras técnicas, alternativas para los esquemas MTM,
y luego son llamados resemblados con los métodos MCMC. Ellos siguen una similar
aproximación para aprovechar el método MTM, pero empleando una función diferente
por seleccionar el siguiente estado de la cadena, con respecto al esquema genérico MTM.
En MCMC no requiere una generación de ejemplos auxiliares.
En las técnicas anteriores, los candidatos están bajo una dirección de lote, en el algoritmo
Delayed Rejection Metropolis (DRM), en caso de un rechazo del estado, los autores
sugieren para una aceptación considerada de pruebas un nuevo candidato. Si este
candidato es de nuevo rechazado, el procedimiento puede ser iterado antes que un deseado
número de aceptaciones.
En los últimos años, otro método Monte Carlo que combine una partícula filtrada y el
MCMC se ha convertido popular en la comunidad del procesamiento de señales, para esta
instancia, en este caso la partícula Metropolis Hastings (PMH) y la partícula Marginal
Metropolis Hastings.
Donde ℓ(𝑦|𝜃) denota una función de probabilidad con la observación del modelo 𝑔(𝜃)
es la prioridad de la probabilidad de la función de densidad y la función marginal de
probabilidad, y es posible para evaluar la no normalizada función dada.
El estudio analítico posterior de densidad de la función fe e integrales envolvente son
típicos.
.
𝐼 = 𝐸𝜋 [𝑓(𝜃)] = ∫ 𝑓(𝜃)𝜋(𝜃)𝑑𝜃
𝐷
.
1
= ∫ 𝑓(𝜃)𝜋(𝜃)𝑑𝜃
𝑍
𝐷
𝑇
1
𝐼̂𝑇 = ∑ 𝑓(𝜃)
𝑇
𝑡=1
Debajo de estos esquemas el más importante de los ejemplos que se puede determinar son
los algoritmos MCMC y tiene una prueba MH y cada una de las iteraciones donde están
otros métodos y una secuencia de pruebas empleadas. Futhermore la mayoría de esta
técnica usa la importancia Sampling que aproximan la densidad.
𝜋(𝜃)
𝑤(𝜃|𝜃𝑡−1 ) =
𝑞(𝜃|𝜃𝑡−1)
Pero esta tiene una posibilidad única que se mostrara después, como la forma general,
cuando la proposición depende del estado previo de la cadena, 𝑞(𝜃|𝜃𝑡−1 ) esta requiere
una generación N-1 y la probabilidad de aceptación con el método MTM viene dada de
la siguiente manera.
(1)
𝑤(𝜃 (1) )|𝜃𝑡−1
𝛼(𝜃𝑡−1 |𝜃 ) = 𝑚𝑖𝑛 (1, )
𝑤(𝑣 (1) |𝜃 (1) )
Conclusión
Dentro de los métodos utilizados y la relación que guardan con el método Monte Carlo
viene dada una revisión de cómo se pueden relacionar y como teniendo múltiples
candidatos en el orden de selección para el siguiente estado de cadena, tenemos que
presentar y comparar diferentes métodos como es el MTM(Multiple Try Metropolis),
también vamos a ver el MCMC y la comparación con los esquemas de rechazo, también
vamos a describir el grupo de ejemplos del grupo Metropolis con una técnica que genera
una cadena de estados.
Entonces mostramos que los ejemplos vienen acompañados de experimentos numéricos
para mostrar su validez y también el hiperparametro de selección gaussiana que da un
modelo de regresión lineal y dos problemas de localización uno que envuelve un análisis
de datos dados.