Proyecto Ysla
Proyecto Ysla
Proyecto Ysla
Sede Huamachuco
INGENIERÍA DE MINAS
INFORME DE “CADENAS DE
MARKOV”
Ing. ROJAS ESCOBAR, José Alvan
SIMULACION DE OPERACIONES
MINERAS
Presentado Por:
ANTICONA REYES, Ronald
CAMPOS SANDOVAL, Milber
MARQUINA ROJAS, Gaby
PEÑA GONZALEZ, Ancelmo
CICLO: X
HUAMACHUCO
Octubre, 2018
UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA
PRESENTACION
ÍNDICE
CONTENIDO PAG.
I. INTRODUCION ............................................................................... 3
V. BIBLIOGRAFIA: ........................................................................... 20
I. INTRODUCION
Las cadenas de Markov está destinado a una clase de modelos de probabilidad
que son útiles en una amplia variedad de ciencias. Las cadenas de Markov han
encontrado aplicaciones en la biología, la física, la demografía, la economía, etc.
II. OBJETIVOS
El objetivo es analizar y entender los conceptos teoricos y practicos de las
“CADENAS DE MARKOV”
PROCESOS
S discreto S continuo
ESTOCÁSTICOS
Sucesión de
variables
T discreto Cadena
aleatorias
continuas
3.3. Notaciones
Por ser 1 la probabilidad del suceso seguro, cada fila ha de sumar 1, es decir,
i S , q
jS
ij 1
Una matriz que cumpla estas dos propiedades se llama matriz estocástica
Esto es, denota la primera vez que la cadena entra al conjunto de estados C.
Ecuaciones de Chapman-Kolmogorov:
Teorema: Las probabilidades de transición en n etapas vienen dadas por la matriz
Qn:
X t n j
i, j S , P q ( n)
X t i ij
Cadenas Positivo-Recurrentes
Una cadena de Markov se dice positivo recurrente si todos sus estados son
positivo recurrentes. Si la cadena es además irreducible es posible demostrar
que existe un único vector de probabilidad invariante y está dado por:
πx= 1/μx
Cadena de Tiempo Continuo: Esta suposición es adecuada para muchos
problemas, pero existen ciertos casos (como en algunos modelos de líneas de
espera) en los que se requiere un parámetro ( llamado “t”) de tiempo continuo,
debido a que la evolución del proceso se observa de manera continua a través
del tiempo.
Solucion:
Distribución estacionaria:
j S , p j lím qijn
n
p
jS
j 1
j S , p j pi qij p
jS
j 1
iS
p
p QT p, donde p 0
p1
p0 p1 1
Propiedades de estado
Dados dos estados de una cadena, pueden establecerse dos tipos de relaciones
entre ellos:
El estado i es descendente de j si cuando iniciamos el proceso es i existe una
probabilidad no nula de que el proceso llegue a j. En este caso, diremos que
existe un camino entre los estados i y j.
Los estados i y j se comunican si i es descendiente de j y j es descendiente
de i.
Para analizar estas relaciones entre estados, es útil recordar que, según la
teoría de grafos, toda matriz cuadrada tiene asociado un grafo, cuya
representación gráfica se puede elaborar a partir de la matriz de probabilidades
de transición, el diagrama de transiciones de estados.
Propiedades de clase
Una clase de equivalencia será final si cuando el proceso llega a uno de los
estados de la clase, en las transiciones siguientes el proceso evoluciona
siempre dentro de los estados de la clase.
Aquellas clases de equivalencia que no sean clases finales serán las claves
de paso. Las clases de paso tienen un interés muy limitado en el estudio de
las cadenas de Markov.
Puesto que el sistema debe ser capaz de evolucionar indefinidamente entre un
número finito de estados, toda cadena debe tener al menos una clase final. Si
en su evolución a lo largo de infinitas transiciones el sistema puede pasar por
todos los estados, entonces habrá una única clase final que los englobara a
todos ellos. Este caso es el que hemos definido anteriormente como cadena
ergódica.
Física
Las cadenas de Markov son usadas en muchos problemas de la termodinámica
y la física estadística. Ejemplos importantes se pueden encontrar en la Cadena
de Ehrenfest o el modelo de difusión de Laplace.
Meteorología
Si consideramos el clima de una región a través de distintos días, es claro que
el estado actual solo depende del último estado y no de toda la historia en sí,
de modo que se pueden usar cadenas de Markov para formular modelos
climatológicos básicos.
Modelos epidemiológicos
Una importante aplicación de las cadenas de Markov se encuentra en el proceso
Galton-Watson. Éste es un proceso de ramificación que se puede usar, entre
otras cosas, para modelar el desarrollo de una epidemia (véase modelaje
matemático de epidemias).
Internet
El pagerank de una página web (usado por Google en sus motores de
búsqueda) se define a través de una cadena de Markov, donde la posición que
Simulación
Las cadenas de Markov son utilizadas para proveer una solución analítica a
ciertos problemas de simulación tales como el Modelo M/M/1.3
Juegos de azar
Son muchos los juegos de azar que se pueden modelar a través de una cadena
de Markov. El modelo de la ruina del jugador, que establece la probabilidad de
que una persona que apuesta en un juego de azar finalmente termine sin dinero,
es una de las aplicaciones de las cadenas de Markov en este rubro.
Economía y Finanzas
Las cadenas de Markov se pueden utilizar en modelos simples de valuación de
opciones para determinar cuándo existe oportunidad de arbitraje, así como en
el modelo de colapsos de una bolsa de valores o para determinar la volatilidad
de precios. En los negocios, las cadenas de Márkov se han utilizado para
analizar los patrones de compra de los deudores morosos, para planear las
necesidades de personal y para analizar el reemplazo de equipo.
Música
Diversos algoritmos de composición musical usan cadenas de Markov, por
ejemplo el software Csound o Max.
IV. CONCLUSIONES:
Como conclusión las cadenas de Markov nos permite hacer análisis sobre el
estudio de los comportamientos de ciertos sistemas en ciertos periodos que
pueden ser cortos o largos. Además se tiene una relación con las
probabilidades absolutas. Pero sin embargo lo más importante es el estudio
del comportamiento sistemas a largo plazo, cuando el número de
transiciones tiene al infinito.
Al conocer más o menos las probabilidades de un experimento, esto a su vez
nos permitirá conocer a corto plazo los estados en que se encontrarían en
periodos o tiempos futuros y tomar decisiones que afectarán o favorecerán
nuestros intereses, y tomar una decisión de manera consciente y no se
comentan muchos errores.
Esto también nos proporcionara un tiempo estimado para que identifiquemos
cada estado y el periodo en que se encuentra con la implementación de un
proceso, también se establece las probabilidades como una herramienta más
en las cadenas de Markov.
V. BIBLIOGRAFIA:
Introducción A Las Cadenas De Markov
Investigación de operaciones, 5ª edición, Editorial taha, pp. 822-826
Estado Estable
Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor
Wayne l.
wishston, Editorial Thompson, pp. 934-938.