Romero Foro2 3714

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 7

DEPARTAMENTO DE ELÉCTRICA Y ELECTRÓNICA

CARRERA DE ELECTRÓNICA Y TELECOMUNICACIONES

ASIGNATURA PROCESOS ESTOCÁSTICOS


FORO 2
NRC: 3714

Profesor: Dr. Marco Flores

Alumno:

Javier Romero

SANGOLQUÍ, 12/12/2019
Algoritmos para procesamiento de señales.
Muchas aplicaciones en procesamiento de señales requieren de algunos parámetros de
interés que dan información de observación.
Más específicamente, la inferencia Bayesiana necesita computación c-posteriori
estimados expresados como complicadas multidimensionales integrales.
Desafortunadamente, las expresiones analíticas para estas estimaciones no pueden ser
encontradas en el mundo actual para las más reales aplicaciones, y el método Monte Carlo
es el único aprobado.
Es una clase muy poderosa de la técnica Monte Carlo esta es formada por el algoritmo
Markov Chain Monte Carlo como sus siglas indican (MCMC), ellos generan una cadena
de Markov que es una distribución estacionaria que coincide con una tarjeta de densidad
posterior.

Introducción.
Los métodos Bayesianos son muy populares en el procesamiento de señales los últimos
años. Necesitan la aplicación sofisticada de las técnicas de Monte Carlo, tanto como la
Markov Chain Monte Carlo, y filtros de partículas, para la eficiencia computacional y las
posteriores estimaciones dadas.
Para mayor especificación el MCMC algoritmos generados como una cadena que es una
distribución que coincide con la probabilidad de función de densidad posterior,
típicamente, el único requerimiento es estar lista para evaluar de inmediato la función,
donde el conocimiento de normalización constante es usualmente no necesitado.
El más popular método de MCMC es el algoritmo Metropolis- Hastings, la técnica MH
es un método muy simple, fácil de aplicar, esta es la razón de su éxito y por lo cual la
más utilizada en cada iteración, un nuevo candidato es generado desde una proposición
y es comparada con la cadena anterior al estado, en este orden para decidir el siguiente
estado, la actuación del MH a veces no es tan satisfactoria, para esta instancia, cuando
el posterior multimodal, o cuando la dimensión del espacio se incrementa, la correlación
entre los ejemplos generados son usualmente altos y como consecuencia, la varianza
de los crecientes resultados estimados, para dar mayor velocidad a la convergencia y
reducir el periodo de “quemado” de la cadena de MH, muchas extensiones tienen
proposiciones en literatura.
En este trabajo, nos proveemos en una exhaustiva revisión sofisticada de los métodos
MCMC en cada iteración, considera diferentes candidatos cómo es posible con respecto
a la cadena. Mas específicamente en cada iteración con diferentes ejemplos son
comparados por ciertos pesos y entonces uno de ellos es seleccionado como un posible
nuevo estado.
La principal ventaja de estos algoritmos es que ellos fomentan la exploración de una clara
porción del ejemplo del espacio, decreciendo la correlación entre los estados generados
por la cadena, en este trabajo trataremos de describir diferentes algoritmos de esta familia,
independientemente introducidos a la literatura.
La principal contribución en este presente trabajo se basa en el mismo marco de referencia
y la notación, remarcando diferencias, relaciones limitaciones y partes fuertes.
Todas las técnicas discutidas convergen en la densidad posterior de interés, el primer
esquema de MCMC llamada Orientaciones Vías Monte Carlo OBMC, fue propuesta en
contextura molecular, después en un algoritmo más general llamado Multiple Try
Metropolis (MTM) que fue introducido. El Algoritmo que fue extensivo estudiado y
generalizado de diferentes maneras, otras técnicas, alternativas para los esquemas MTM,
y luego son llamados resemblados con los métodos MCMC. Ellos siguen una similar
aproximación para aprovechar el método MTM, pero empleando una función diferente
por seleccionar el siguiente estado de la cadena, con respecto al esquema genérico MTM.
En MCMC no requiere una generación de ejemplos auxiliares.
En las técnicas anteriores, los candidatos están bajo una dirección de lote, en el algoritmo
Delayed Rejection Metropolis (DRM), en caso de un rechazo del estado, los autores
sugieren para una aceptación considerada de pruebas un nuevo candidato. Si este
candidato es de nuevo rechazado, el procedimiento puede ser iterado antes que un deseado
número de aceptaciones.
En los últimos años, otro método Monte Carlo que combine una partícula filtrada y el
MCMC se ha convertido popular en la comunidad del procesamiento de señales, para esta
instancia, en este caso la partícula Metropolis Hastings (PMH) y la partícula Marginal
Metropolis Hastings.

2.- Planteamiento del problema y preliminares.


En muchas aplicaciones de procesamiento de señales, lo principal consiste en interferir
una variable de interés, estas dan unas observaciones de medición, en el marco de
referencia del método Bayesiano, el conocimiento total por los parámetros, después de la
información fue observada es representada por la probabilidad posterior de la función de
densidad.
ℓ(𝑦|𝜃)𝑔(𝜃)
𝜋(𝜃) = 𝑝(𝜃|𝑦) =
𝑍(𝑦)
1
𝜋(𝜃) = 𝜋(𝜃).
2

Donde ℓ(𝑦|𝜃) denota una función de probabilidad con la observación del modelo 𝑔(𝜃)
es la prioridad de la probabilidad de la función de densidad y la función marginal de
probabilidad, y es posible para evaluar la no normalizada función dada.
El estudio analítico posterior de densidad de la función fe e integrales envolvente son
típicos.
.

𝐼 = 𝐸𝜋 [𝑓(𝜃)] = ∫ 𝑓(𝜃)𝜋(𝜃)𝑑𝜃
𝐷

.
1
= ∫ 𝑓(𝜃)𝜋(𝜃)𝑑𝜃
𝑍
𝐷

Donde 𝑓(𝜃) es una función de integral genérica.

Parámetros estáticos y dinámicos.


En algunas aplicaciones específicas, la variable de interés 𝜃 puede ser descrita en
diferentes partes.
Monte Carlo integración.
En muchos escenarios, la integral no puede ser computada en una forma cerrada, y las
aproximaciones numéricas son típicamente requeridas. Y muy determinadas en los
métodos cuadráticos, la dimensión D de inferencia que se muestra tiene esquemas de
cuadratura que vienen a ser menos eficientes dentro de los parámetros requeridos. En este
caso el común consiste en aproximar la integral usando el método Monte Carlo,
considerando la función T independiente y también distribuyéndola y algunos ejemplos
posteriores, se puede construir una estimación consistente.

𝑇
1
𝐼̂𝑇 = ∑ 𝑓(𝜃)
𝑇
𝑡=1

3.- Método de Markon cadena con el método Monte Carlo. (MCMC)


Este método genera el algoritmo ergo tico de Markov en cadena con una variante y la
densidad posterior.
Es consistente comenzando por un vector, con respecto al directo que presenta el método
de Montecarlo aprobando y utilizando ejemplos de esta aplicación, desde los ejemplos de
este método viene la correlación positivamente, en el orden para improvisar la actuación
del método MCMC que tiene una función decreciente.

3.1.- EL algoritmo Metropolis – Hostings (MH)


Uno de los más populares mayormente aplicados algoritmos es los (MH), llamándolo de
nuevo para evaluar el punto de la función proporcionalmente para las variables que se
pueden utilizar dentro de esta técnica. La proposición de densidad se denota con la
función 𝑞(𝜃|𝜃𝑡−1) que describe el algoritmo en detalle del método (MH).
El algoritmo regresa por la secuencia de los estados, podemos saber al siguiente estado
puede ser propuesto, pero con la primera derivada. El algoritmo (MH) satisface el detalle
de balanceamiento con la condición de que sea suficiente para garantizar la cadena
ergotice de π de distribución estacionaria, aceptamos la probabilidad de que la función
pueda ser reescrita.

4.- MCMC usando múltiples candidatos.


En el método estándar MH describimos acerca de cada una de las iteraciones con un
nuevo ejemplo generado para ser probado dentro del previo estado, otra generalización
de los esquemas generados por MH con muchos candidatos y se extiende la probabilidad
de aceptar diferentes propiedades y que pueden ser puestas como gráficos dentro de lo
que consideramos una gráfica de probabilidad.

Debajo de estos esquemas el más importante de los ejemplos que se puede determinar son
los algoritmos MCMC y tiene una prueba MH y cada una de las iteraciones donde están
otros métodos y una secuencia de pruebas empleadas. Futhermore la mayoría de esta
técnica usa la importancia Sampling que aproximan la densidad.

4.1.- El algoritmo Múltiple Try Metropolis (MTM).


Este algoritmo tiene múltiples ejemplos de los tipos de métodos utilizados dentro de todo
este trabajo, donde tendremos N ejemplos, entonces uno de ellos es seleccionado acorde
algunos pesos, finalmente el candidato selecto es a captado y como un nuevo estado
generalizado como una función de probabilidad α.
Comprobamos con el algoritmo ya utilizado anteriormente el MTM, tenemos que
considerar la importancia de los pesos.

𝜋(𝜃)
𝑤(𝜃|𝜃𝑡−1 ) =
𝑞(𝜃|𝜃𝑡−1)

Pero esta tiene una posibilidad única que se mostrara después, como la forma general,
cuando la proposición depende del estado previo de la cadena, 𝑞(𝜃|𝜃𝑡−1 ) esta requiere
una generación N-1 y la probabilidad de aceptación con el método MTM viene dada de
la siguiente manera.
(1)
𝑤(𝜃 (1) )|𝜃𝑡−1
𝛼(𝜃𝑡−1 |𝜃 ) = 𝑚𝑖𝑛 (1, )
𝑤(𝑣 (1) |𝜃 (1) )

𝑤(𝜃 (1) )|𝜃𝑡−1


= 𝑚𝑖𝑛 (1, )
𝑤(𝜃𝑡−1 |𝜃 (1) )

4.2.1. La relación entre el método I-MTM2, PMH y I-MH


Una simple mira para el primer método nombrado nos dice que están estrictamente
relacionados, entonces la estructura de estos dos algoritmos coincide. La principal
diferencia encontrada son los candidatos en PMH que se generan secuencialmente,
usando un esquema SIR, si no se reensamblan los pasos donde los candidatos son
aplicados, entonces I-MTM2 y el PMH son exactamente el mismo algoritmo, donde los
candidatos están bajo una forma una opción o una forma secuencial.

5.- Costo computacional diferencias y conexiones.


La actuación de los logaritmos descritos viene de las improvisaciones de N en general
con las correlaciones entre simples métodos para las aceptaciones que recrean el nuevo
estado. Como N incrementa, vienen de un similar y exacto ejemplo dibujando uno
directamente de la tarjeta de densidad de una función.
En general vamos a computar y analizar el número total de evaluaciones de estas
funciones, en PMH los componentes a utilizar son diferentes los cuales tratan
secuencialmente estar relaciones con la aplicación de los diferentes pasos.

6.- Experimentos numéricos.


Probamos diferentes MCM candidatos en diferentes experimentos numéricos, en el
primer ejemplo, una comparación de técnicas y por posiciones dadas. Consideramos
diferentes formas de números y también parámetros de la proposición, en la segunda
simulación numérica comparamos las partículas de los métodos a utilizar, el tercero fue
un hiperparametro del Proceso de selección Gaussiana un modelo de regresión, en los
últimos dos ejemplos tenemos problemas de localización en el sensor, en el cuarto
algunos de los parámetros de WSN están modificados.
Para los diferentes experimentos se utilizó primero una comparación de eficiencia para
demostrar la valides de la función dada y las secuencias iteradas que van funcionar dentro
de los parámetros validados.
Continuamos con la descripción de los elementos y unos experimentos numéricos que fue
el que comparo los esquemas de las partículas que conocemos. En si fue una forma de
relacionarlos y buscar puntos que se encuentren dentro de los mismos métodos.
Dentro del experimento más entendible se dio los modelos de regresión con el
hiperparametro para el proceso Gaussiano, entonces asumiendo tal modelo también se
considera la función de kernel.

Conclusión
Dentro de los métodos utilizados y la relación que guardan con el método Monte Carlo
viene dada una revisión de cómo se pueden relacionar y como teniendo múltiples
candidatos en el orden de selección para el siguiente estado de cadena, tenemos que
presentar y comparar diferentes métodos como es el MTM(Multiple Try Metropolis),
también vamos a ver el MCMC y la comparación con los esquemas de rechazo, también
vamos a describir el grupo de ejemplos del grupo Metropolis con una técnica que genera
una cadena de estados.
Entonces mostramos que los ejemplos vienen acompañados de experimentos numéricos
para mostrar su validez y también el hiperparametro de selección gaussiana que da un
modelo de regresión lineal y dos problemas de localización uno que envuelve un análisis
de datos dados.

También podría gustarte