Clase 1-Markov
Clase 1-Markov
Clase 1-Markov
https://www.youtube.com/watch?v=HuXWD
EQlrHE
Investigación de Operaciones II
Semestre 2023-01
Eduard Alexander Gañan Cardenas
Ing Industrial, MSc. Ciencias Estadística
[email protected]
• Compromiso académico.
• Para preguntas particulares escribir al chat de Teams o al correo [email protected]
• Las asesorías se realizarán Presencial (sala profesores Bloque E – 3º piso) o por medio del Chat de Teams : lunes 4-6 p.m.
• Recuerden estar revisando el correo electrónico y el foro para comunicaciones del curso.
Material de consulta
1. ANDERSON, D.R., SWEENEY, D.J., WILLIAMS, T.A. Métodos Cuantitativos para los Negocios.
International Thomson Editores. México, 2005.
2. HILLIER, Frederick S. y LIEBERMAN, Gerald J. Investigación de operaciones. México, D.F.: McGraw-
Hill, 2002. 1223 p. ISBN 9701034864
Procesos estocásticos
y
Cadenas de Markov
Cadenas de Markov
Procesos estocásticos
Ejemplos de procesos estocásticos
• La demanda de un producto.
• Los ingresos por ventas de una compañía.
• Los rendimientos de un activo financiero.
• Cantidad de productos en un inventario.
• La evolución del clima en una región.
• Número de accidentes de tránsito.
• Estado de suscripción de un cliente a un periódico.
• Estado o disponibilidad de una máquina.
• Número de accidentes/incapacidades laborales.
Cadenas de Markov
Procesos estocásticos
Un proceso estocástico se define como una colección indexada de variables aleatorias
𝑿𝒕 𝒄𝒐𝒏 𝒕 ∈ 𝑻 . Con frecuencia 𝑿𝒕 representa una característica de interés cuantificable indexada
en el tiempo t.
Procesos estocásticos de tiempo discreto con espacio de estados finito: corresponden a los
procesos donde el sistema puede tomar uno de los M estados o categorías posibles (las
categorías son mutuamente excluyentes) y es observado en tiempos dados como días, semanas,
meses, etc, etiquetados como 𝑡 = 0, 1, 2, ….
Cadenas de Markov
Ejemplo del clima
El clima en el pueblo puede cambiar con rapidez de un día a otro. Sin embargo, las posibilidades de tener
clima soleado mañana es de alguna forma mayor si hoy está soleado, es decir, si no llueve. En particular,
la probabilidad de que mañana esté soleado es de 0.8 si hoy está soleado, pero es de sólo 0.6 si hoy
llueve. Estas probabilidades no cambian si se considera la información acerca del clima en los días
anteriores a hoy:
𝑋𝑡 = 𝑋0 , 𝑋1 , 𝑋2 , … es una representación
Lluvioso Soleado
matemática de la forma en que evoluciona el
clima a través del tiempo
0.2
Propiedad Markoviana
Un proceso estocástico 𝑋𝑡 es una cadena de Markov si cumple la siguiente propiedad
markoviana:
P 𝑋𝑡+1 = 𝑗 𝑋𝑡 = 𝑖, 𝑋𝑡−1 = 𝑘𝑡−1 , … , 𝑋0 = 𝑘0 = 𝑷(𝑿𝒕+𝟏 = 𝒋|𝑿𝒕 = 𝒊)
para todo 𝑡 = 0, 1, 2, …. y todo estado i, j, 𝑘0 ,…, 𝑘𝑡−1
Ejemplo
Análisis de la cuota del mercado
Se busca analizar la cuota del mercado y la lealtad de los clientes para Murphy’s y
Ashley’s, las únicas tiendas de abarrotes en una pequeña ciudad. Nos enfocamos en la
secuencia de los viajes de compras de un cliente y asumimos que éste hace un viaje de
compras cada semana a Murphy’s o a Ashley’s, pero no a ambos.
Ejemplo
Análisis de la cuota del mercado
Cadenas de Markov
Probabilidades de transición
Cadenas de Markov
Probabilidades de transición estacionarias
𝑷 𝑿𝒕+𝟏 = 𝒋 𝑿𝒕 = 𝒊 = 𝑷 𝑿𝟏 = 𝒋 𝑿𝟎 = 𝒊 ,
para todo 𝑡 = 0, 1, 2, ….
Probabilidades de estado
Notación:
• Sea 𝜋𝑖 𝑡 = probabilidad de que el sistema esté en estado 𝑖 en el periodo 𝑡.
• Sea 𝜋𝑖 = probabilidad de estado estacionario de que el sistema esté en estado 𝑖, Sin 𝑡.
• 𝜫 𝑡 = 𝝅𝒊 𝑡 , … , 𝝅𝐶 𝑡 , es el conjunto de probabilidades para cada estado en 𝑡. Además,
σ𝐶𝑖=1 𝜋𝑖 (𝑡) = 1
Ejemplo
Análisis de la cuota del mercado
Suponga que se tiene un cliente cuyo último viaje de compras semanal fue a Murphy’s.
R/ Encontrar 𝜋𝑀 𝑡 = 1 = 0,9
R/ Encontrar 𝜋𝑀 𝑡 = 2 = ?
R/ Encontrar 𝜋𝑀 𝑡 = 10 = ?
Cadenas de Markov
Ejemplo
Análisis de la cuota del mercado
1. R/ Encontrar 𝝅𝑴 𝒕 = 𝟏 = ?
𝜋𝑀 2 = 𝑃 𝑋1 = Murphy ∩ 𝑋2 = Murphy +
𝑃 𝑋1 = Ashley ∩ 𝑋2 = Murphy
Para iniciar el proceso, del ejemplo se sabe que el cliente inicia en Murphy’s, entonces
tenemos que Π 0 = 𝜋𝑀 0 = 1, 𝜋𝐴 0 = 0
Cadenas de Markov
Ejemplo
Análisis de la cuota del mercado
Entonces, para Π 0
𝛱 0 = 1 0
Entonces, para Π 1
𝛱 1 =𝛱 0 𝑃
0.9 0.1
𝛱 1 = 1 0
0.2 0.8
𝛱 1 = 1 ∗ 0.9 + 0 ∗ 0.2 | 1 ∗ 0.1 + 0 ∗ 0.8 = 0.9 0.1
𝛱 1 = 0.9 0.1
Entonces, para Π 2
𝛱 2 =𝛱 1 𝑃
0.9 0.1
𝛱 2 = 0.9 0.1
0.2 0.8
𝛱 2 = 0.9 ∗ 0.9 + 0.1 ∗ 0.2 | 0.9 ∗ 0.1 + 0.1 ∗ 0.8
𝛱 2 = 0.83 0.17
Cadenas de Markov
Ejemplo
Análisis de la cuota del mercado
La probabilidad 𝝅𝒊
será independiente
𝜋𝑖 𝑡 = 0 𝜋𝑖 𝑡 = 1 𝜋𝑖 𝑡 = 2 𝜋𝑖 del estado inicial del
… sistema.
𝑖𝑛𝑖𝑐𝑖𝑜
𝑡𝑟𝑎𝑛𝑠 = 1 𝑡𝑟𝑎𝑛𝑠 =2 𝑡𝑟𝑎𝑛𝑠 = 𝑛
𝑡
Despues de un número n grande de transiciones, la
probabilidad de que el sistema esté en un estado 𝒊, es de 𝝅𝒊 .
Esto NO significa que el sistema estará en ese estado 𝒊, solo
indica su probabilidad.
Cadenas de Markov Ejemplo
Análisis de la cuota del mercado
¿Cómo obtener de forma rápida las probabilidades de estado estacionario?
(3) π𝑀 + π𝐴 = 1
(3) 1 ∗ π𝑀 + 1 ∗ π𝐴 = 1 1 1 1
-0,1 0,2 0
(1) −0,1 ∗ πM + 0.2 ∗ π𝐴 = 0 π𝑀 π𝐴
𝒙 = {π𝑀 , π𝐴 } =?
𝒙 = 𝑨−𝟏 𝒃
Cadenas de Markov
Ejemplo
Análisis de la cuota del mercado
El proceso de Markov nos dice que a la larga Murphy’s tendrá π1 = 2/3 del
mercado y Ashley’s π2 = 1/3, lo cual para un potencial de 1000 clientes:
a) Construya el diagrama de transición del proceso. ¿Cuáles son los estados del proceso?
b) Muestre el diagrama de árbol de dos periodos para un cliente que por última vez compró Red Pop. ¿Cuál es la
probabilidad de que este cliente compre Red Pop en el segundo periodo?
c) ¿Cuál es la cuota de mercado a largo plazo para cada uno de estos productos?
d) Se planea una campaña de publicidad para Red Pop, a fin de incrementar la probabilidad de atraer clientes de Super
Cola. La gerencia cree que la nueva campaña incrementará la probabilidad a 0.15 de que un cliente cambie de Super
Cola a Red Pop.
e) ¿Cuál es el efecto proyectado de la campaña publicitaria en las cuotas de mercado?
Cadenas de Markov
Ejercicio 2
El centro de cómputo de la Universidad de Rockbottom ha experimentado tiempo de inactividad de computadoras.
Suponga que los ensayos de un proceso de Markov asociado se definen como periodos de una hora y que la
probabilidad de que el sistema esté activo o inactivo está basada en el estado del sistema en el periodo previo. Datos
históricos muestran las siguientes probabilidades de transición.
c. ¿Cuáles son las probabilidades de estado estacionario de que el sistema esté funcionando o no?
d. Si el costo del sistema que no está funcionando durante cualquier periodo se estima que es de $500 (incluidas las
utilidades perdidas durante el tiempo de inactividad o mantenimiento) ¿Cuál es el costo ahorrado en el tiempo con el
nuevo componente?
Cadenas de Markov
Ejercicio 3
En Colombia se tienen 3 operadores principales de telefonía móvil como tigo, Claro y movistar. La participación actual de
cada operador en el mercado es 0.4 para Claro, 0.25 para tigo y 0.35 para movistar. De un estudio realizado, se tiene
que un usuario actualmente de tigo tiene una probabilidad de permanecer en tigo de 0.60, de pasar a Claro 0.2 y de
pasarse a movistar de 0.2; si en la actualidad el usuario es cliente de Claro tiene una probabilidad de mantenerse en
Claro del 0.5 de que esta persona se cambie a tigo 0.3 y que se pase a movistar de 0.2; si el usuario es cliente en la
actualidad de movistar la probabilidad que permanezca en movistar es de 0.4, de que se cambie a tigo de 0.3 y a Claro
de 0.3.
a) ¿Cuál es la probabilidad que un paciente en estado crítico un día Jueves esté estable el día Sábado?
b) ¿Cuál es la probabilidad que un paciente que está en estado estable el Lunes experimente alguna complicación y no
esté estable nuevamente el Miércoles?
c) ¿Qué porcentaje de la Unidad de Cuidados Intensivos usted diseñaría y equiparía para pacientes en estado crítico?
d) Si el costo de atención de un paciente en estado crítico es de $5000, en serio es de $3000 y en estable es de $800.
¿Cuál debe ser el presupuesto que se debería asignar a la unidad de cuidados intensivos?