Clase 1-Markov

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 33

Tomado de

https://www.youtube.com/watch?v=HuXWD
EQlrHE
Investigación de Operaciones II
Semestre 2023-01
Eduard Alexander Gañan Cardenas
Ing Industrial, MSc. Ciencias Estadística
[email protected]
• Compromiso académico.
• Para preguntas particulares escribir al chat de Teams o al correo [email protected]
• Las asesorías se realizarán Presencial (sala profesores Bloque E – 3º piso) o por medio del Chat de Teams : lunes 4-6 p.m.
• Recuerden estar revisando el correo electrónico y el foro para comunicaciones del curso.
Material de consulta

1. ANDERSON, D.R., SWEENEY, D.J., WILLIAMS, T.A. Métodos Cuantitativos para los Negocios.
International Thomson Editores. México, 2005.
2. HILLIER, Frederick S. y LIEBERMAN, Gerald J. Investigación de operaciones. México, D.F.: McGraw-
Hill, 2002. 1223 p. ISBN 9701034864
Procesos estocásticos
y
Cadenas de Markov
Cadenas de Markov

Procesos estocásticos
Ejemplos de procesos estocásticos
• La demanda de un producto.
• Los ingresos por ventas de una compañía.
• Los rendimientos de un activo financiero.
• Cantidad de productos en un inventario.
• La evolución del clima en una región.
• Número de accidentes de tránsito.
• Estado de suscripción de un cliente a un periódico.
• Estado o disponibilidad de una máquina.
• Número de accidentes/incapacidades laborales.
Cadenas de Markov

El análisis de un modelo de proceso de Markov no pretende


optimizar cualquier aspecto particular de un sistema.

Más bien, el análisis busca predecir o describir el comportamiento


futuro o estacionario del sistema.
Cadenas de Markov

Procesos estocásticos
Un proceso estocástico se define como una colección indexada de variables aleatorias
𝑿𝒕 𝒄𝒐𝒏 𝒕 ∈ 𝑻 . Con frecuencia 𝑿𝒕 representa una característica de interés cuantificable indexada
en el tiempo t.

Los procesos estocásticos son de interés para describir el comportamiento o evolución de un


sistema en el tiempo, por ejemplo, 𝑿𝒕 puede representar los niveles de inventario al final de la
semana t.

Procesos estocásticos de tiempo discreto con espacio de estados finito: corresponden a los
procesos donde el sistema puede tomar uno de los M estados o categorías posibles (las
categorías son mutuamente excluyentes) y es observado en tiempos dados como días, semanas,
meses, etc, etiquetados como 𝑡 = 0, 1, 2, ….

Solo estudiaremos Procesos estocásticos de


tiempo discreto con espacio de estados finito
Cadenas de Markov
Cadenas de Markov

Cadenas de Markov
Ejemplo del clima

El clima en el pueblo puede cambiar con rapidez de un día a otro. Sin embargo, las posibilidades de tener
clima soleado mañana es de alguna forma mayor si hoy está soleado, es decir, si no llueve. En particular,
la probabilidad de que mañana esté soleado es de 0.8 si hoy está soleado, pero es de sólo 0.6 si hoy
llueve. Estas probabilidades no cambian si se considera la información acerca del clima en los días
anteriores a hoy:

0.6 𝐸𝑠𝑡𝑎𝑑𝑜 0, 𝑠𝑖 𝑒𝑙 𝑑í𝑎 𝑡 𝑒𝑠𝑡á 𝑠𝑜𝑙𝑒𝑎𝑑𝑜


𝑋𝑡 = ቊ
0.4 0.8 𝐸𝑠𝑡𝑎𝑑𝑜 1, 𝑠í 𝑒𝑙 𝑑í𝑎 𝑡 𝑒𝑠𝑡á 𝑙𝑙𝑢𝑣𝑖𝑜𝑠𝑜

𝑋𝑡 = 𝑋0 , 𝑋1 , 𝑋2 , … es una representación
Lluvioso Soleado
matemática de la forma en que evoluciona el
clima a través del tiempo
0.2

Estado 𝑿𝒕 = 𝒊 el proceso se encuentra en el estado 𝒊 en el


𝑿𝒕 = 𝒊 en tiempo 𝒕.
Por ejemplo 𝑿𝟑𝟎 = 𝟎, el clima se encuentra en
tiempo estado soleado el día 30.
Cadenas de Markov

Propiedad Markoviana
Un proceso estocástico 𝑋𝑡 es una cadena de Markov si cumple la siguiente propiedad
markoviana:
P 𝑋𝑡+1 = 𝑗 𝑋𝑡 = 𝑖, 𝑋𝑡−1 = 𝑘𝑡−1 , … , 𝑋0 = 𝑘0 = 𝑷(𝑿𝒕+𝟏 = 𝒋|𝑿𝒕 = 𝒊)
para todo 𝑡 = 0, 1, 2, …. y todo estado i, j, 𝑘0 ,…, 𝑘𝑡−1

Esto significa que la probabilidad del evento futuro solo


depende del estado actual del proceso

La probabilidad del clima de mañana solo depende del


clima de hoy
Cadenas de Markov

Ejemplo
Análisis de la cuota del mercado
Se busca analizar la cuota del mercado y la lealtad de los clientes para Murphy’s y
Ashley’s, las únicas tiendas de abarrotes en una pequeña ciudad. Nos enfocamos en la
secuencia de los viajes de compras de un cliente y asumimos que éste hace un viaje de
compras cada semana a Murphy’s o a Ashley’s, pero no a ambos.

El cliente cada semana tiene dos opciones de compra:

Estado M: el cliente compra en Murphy’s.


Estado A: el cliente compra en Ashley’s.

Cada viaje semanal de compra se conoce como ensayo del proceso.

¿Cuál es la probabilidad que un cliente compre en la tienda Murphy’s en un periodo


dado?
Cadenas de Markov

Ejemplo
Análisis de la cuota del mercado

Se realiza investigación de mercados, donde se estudia el patrón de compra semanales de 100


compradores a lo largo de un periodo de 10 semanas. A partir de la investigación, se obtiene la
siguiente matriz de transición que muestra la probabilidad de que un cliente permanezca con la
misma tienda o se cambie a la tienda competidora conforme el proceso avanza de un ensayo a
otro o de una semana a otra.

Las probabilidades de 0.9 y 0.8 pueden ser


interpretadas como medidas de lealtad a la
tienda, puesto que indican la probabilidad
de una visita repetida a la misma tienda.
Asimismo, las probabilidades de 0.1 y 0.2
miden las características de cambio de
tienda de los clientes.
Tomado de Anderson, Sweeney y Williams(2005)
Cadenas de Markov

Cadenas de Markov
Probabilidades de transición

Las probabilidades condicionales 𝑷𝒊𝒋 = 𝑷 𝑿𝒕+𝟏 = 𝒋 𝑿𝒕 = 𝒊 de una cadena de Markov


se llaman probabilidades de transición (de un paso)

𝒑𝒊𝒋 = probabilidad de realizar una transición del estado 𝒊 al


estado 𝒋 en el siguiente periodo

𝑷 representa la matriz de probabilidades de transición, por ejemplo para el caso de las


tiendas de abarrotes tenemos:
Murphy Ashley Observe que:
Murphy 𝒑𝟎𝟎 = 𝟎. 𝟗 𝒑𝟎𝟏 = 𝟎. 1 𝒑𝟎𝟎 + 𝒑𝟎𝟏 = 𝟏
𝑃= 𝒑𝟏𝟎 + 𝒑𝟏𝟏 = 𝟏
Ashley 𝒑𝟏𝟎 = 𝟎. 2 𝒑𝟏𝟏 = 𝟎. 8
Cadenas de Markov

Cadenas de Markov
Probabilidades de transición estacionarias

Probabilidades de transición estacionarias significa que las probabilidades de


transición no cambian en el tiempo, es decir:

𝑷 𝑿𝒕+𝟏 = 𝒋 𝑿𝒕 = 𝒊 = 𝑷 𝑿𝟏 = 𝒋 𝑿𝟎 = 𝒊 ,
para todo 𝑡 = 0, 1, 2, ….

En términos del ejemplo de la tienda de abarrotes, significa que la probabilidad


𝒑𝑀→𝐴 = 𝟎. 1, de pasar de Murphy a Ashley del día 0 al día 1, es la misma que del día
30 al 31.
Cadenas de Markov

Probabilidades de estado

Notación:
• Sea 𝜋𝑖 𝑡 = probabilidad de que el sistema esté en estado 𝑖 en el periodo 𝑡.
• Sea 𝜋𝑖 = probabilidad de estado estacionario de que el sistema esté en estado 𝑖, Sin 𝑡.
• 𝜫 𝑡 = 𝝅𝒊 𝑡 , … , 𝝅𝐶 𝑡 , es el conjunto de probabilidades para cada estado en 𝑡. Además,
σ𝐶𝑖=1 𝜋𝑖 (𝑡) = 1

Note la diferencia entre 𝑃 y 𝜫


Cadenas de Markov

Ejemplo
Análisis de la cuota del mercado

Suponga que se tiene un cliente cuyo último viaje de compras semanal fue a Murphy’s.

1. ¿Cuál es la probabilidad de que este cliente compre en Murphy’s en el siguiente viaje de


compras semanal, periodo 1?

R/ Encontrar 𝜋𝑀 𝑡 = 1 = 0,9

2. ¿Cuál es la probabilidad de que el cliente compre en Murphy’s en el periodo 2?

R/ Encontrar 𝜋𝑀 𝑡 = 2 = ?

3. ¿Cuál es la probabilidad de que el cliente compre en Murphy’s en el periodo 10?

R/ Encontrar 𝜋𝑀 𝑡 = 10 = ?
Cadenas de Markov
Ejemplo
Análisis de la cuota del mercado

1. R/ Encontrar 𝝅𝑴 𝒕 = 𝟏 = ?

En este caso 𝜋𝑀 1 = 𝑃𝑖𝑗 = 𝑃11 = 0.9


Cadenas de Markov
Ejemplo
Análisis de la cuota del mercado
Murphy’s Ashley’s
2. R/ Encontrar 𝝅𝑴 𝒕 = 𝟐 = ? 0.9 0.1
𝑃=
0.2 0.8
Los caminos para
𝑃(𝑋1 = Murphy ∩ 𝑋2 = Murphy) llegar a Murphy

𝜋𝑀 2 = 𝑃 𝑋1 = Murphy ∩ 𝑋2 = Murphy +
𝑃 𝑋1 = Ashley ∩ 𝑋2 = Murphy

𝜋𝑀 2 = 0.81 + 0.02 = 0.83

𝑃(𝑋1 = Ashley ∩ 𝑋2 = Murphy)


1. M -> A -> M
2. M -> A -> A
3. M -> M -> A
4. M -> M -> M
En 𝒕 = 𝟎 el cliente
empieza Murphy
Cadenas de Markov
Ejemplo
Análisis de la cuota del mercado

En general, para encontrar la probabilidad de que el sistema esté en algún estado 𝑖 en un


periodo de tiempo 𝑡 + 1, es decir, 𝜋𝑖 𝑡 + 1 , es utiliza:

𝜫 𝒕+𝟏 =𝜫 𝒕 𝑷 𝛱 𝑝𝑒𝑟𝑖𝑜𝑑𝑜 𝑠𝑖𝑔𝑢𝑖𝑒𝑛𝑡𝑒 = 𝛱 𝑝𝑒𝑟𝑖𝑜𝑑𝑜 𝑎𝑐𝑡𝑢𝑎𝑙 𝑃

donde 𝜫 𝒕 = 𝝅𝒊 𝒕 , … , 𝝅𝑴 𝒕 , es decir, es un vector de las probabilidades de los estados


en el periodo 𝑛. 𝑷 es la matriz de transición, estable en el tiempo.

Para iniciar el proceso, del ejemplo se sabe que el cliente inicia en Murphy’s, entonces
tenemos que Π 0 = 𝜋𝑀 0 = 1, 𝜋𝐴 0 = 0
Cadenas de Markov
Ejemplo
Análisis de la cuota del mercado
Entonces, para Π 0
𝛱 0 = 1 0
Entonces, para Π 1
𝛱 1 =𝛱 0 𝑃
0.9 0.1
𝛱 1 = 1 0
0.2 0.8
𝛱 1 = 1 ∗ 0.9 + 0 ∗ 0.2 | 1 ∗ 0.1 + 0 ∗ 0.8 = 0.9 0.1
𝛱 1 = 0.9 0.1

Entonces, para Π 2
𝛱 2 =𝛱 1 𝑃
0.9 0.1
𝛱 2 = 0.9 0.1
0.2 0.8
𝛱 2 = 0.9 ∗ 0.9 + 0.1 ∗ 0.2 | 0.9 ∗ 0.1 + 0.1 ∗ 0.8
𝛱 2 = 0.83 0.17
Cadenas de Markov
Ejemplo
Análisis de la cuota del mercado

3. ¿Cuál es la probabilidad de que el cliente compre en Murphy’s en el


periodo 10?

Continuando con las iteraciones t = 0,1,2,3, …, se obtiene la siguiente tabla hasta t = 10

Observe que después de


t=10, no hay un gran
cambio en las
probabilidades: estas son
las probabilidades de
estado estacionario.
Cadenas de Markov

Probabilidades de estado estacionarias

La probabilidad 𝝅𝒊
será independiente
𝜋𝑖 𝑡 = 0 𝜋𝑖 𝑡 = 1 𝜋𝑖 𝑡 = 2 𝜋𝑖 del estado inicial del
… sistema.
𝑖𝑛𝑖𝑐𝑖𝑜
𝑡𝑟𝑎𝑛𝑠 = 1 𝑡𝑟𝑎𝑛𝑠 =2 𝑡𝑟𝑎𝑛𝑠 = 𝑛
𝑡
Despues de un número n grande de transiciones, la
probabilidad de que el sistema esté en un estado 𝒊, es de 𝝅𝒊 .
Esto NO significa que el sistema estará en ese estado 𝒊, solo
indica su probabilidad.
Cadenas de Markov Ejemplo
Análisis de la cuota del mercado
¿Cómo obtener de forma rápida las probabilidades de estado estacionario?

R/Debe solucionar el siguiente sistema de ecuaciones:


𝜫 = 𝜫𝑷 • Π = Π𝑃 donde Π = 𝝅𝒊 , … , 𝝅𝑴
• σ𝑀
𝑖=1 𝜋𝑖 = 1
Para el ejemplo tenemos
𝝅𝟏 : 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑒𝑠𝑡𝑎𝑐𝑖𝑛𝑎𝑟𝑖𝑎 𝑀𝑢𝑟𝑝ℎ𝑦 Se elimina la
𝝅𝟐 : 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑒𝑠𝑡𝑎𝑐𝑖𝑛𝑎𝑟𝑖𝑎 𝐴𝑠ℎ𝑙𝑒𝑦 ecuación 1 o 2
Se obtienen
2
1. 0.9π1 +0.2π2 = π1 El sistema se resuelve π1 = = 0,67
partiendo de la ecuación 3
2. 0.1π1 +0.8π2 = π2 3 y reemplazando en
3. π1 + π2 = 1 alguna de las restantes 1
π2 = = 0,33
3
probabilidades de
estado estacionario
π𝑀 π𝐴 = π𝑀 π𝐴 0.9 0.1
π𝑀 = 0,9 ∗ π𝑀 + 0,2 ∗ π𝐴
0.2 0.8
π𝐴 = 0,1 ∗ π𝑀 + 0,8 ∗ π𝐴

Eliminamos la ecuación (2) y nunca eliminar la (3)

(1) 0.9πM +0.2π𝐴 = π𝑀 (1) 0.9 ∗ πM +0.2 ∗ π𝐴 = π𝑀


(2) 0.1π𝑀 +0.8π𝐴 = πA (3) 1 ∗ π𝑀 + 1 ∗ π𝐴 = 1

(3) π𝑀 + π𝐴 = 1

Resolver el sistema de ecuaciones utilizando Ax=b 𝒙 = 𝑨−𝟏 𝒃


(1) 0.9 ∗ πM +0.2 ∗ π𝐴 = π𝑀
(3) 1 ∗ π𝑀 + 1 ∗ π𝐴 = 1

Ajustar ecuación (1)

(1) −1 ∗ π𝑀 + 0.9 ∗ πM +0.2 ∗ π𝐴 = 0


(1) (−1 + 0.9) ∗ πM + 0.2 ∗ π𝐴 = 0
(1) −0,1 ∗ πM + 0.2 ∗ π𝐴 = 0
A b

(3) 1 ∗ π𝑀 + 1 ∗ π𝐴 = 1 1 1 1
-0,1 0,2 0
(1) −0,1 ∗ πM + 0.2 ∗ π𝐴 = 0 π𝑀 π𝐴

𝒙 = {π𝑀 , π𝐴 } =?

𝒙 = 𝑨−𝟏 𝒃
Cadenas de Markov
Ejemplo
Análisis de la cuota del mercado

Si en el sistema se tienen 1000 clientes ¿cuál es la participación de mercado que


tendrá Murphy’s y Ashley’s?

El proceso de Markov nos dice que a la larga Murphy’s tendrá π1 = 2/3 del
mercado y Ashley’s π2 = 1/3, lo cual para un potencial de 1000 clientes:

• Los clientes de Murphy’s serán 667.


• Los clientes de Ashley’s serán 333.
Cadenas de Markov
Ejercicio 1
La gerencia de la New Fungled Softdrink Company cree que la probabilidad de que un cliente que compra Red Pop o la
competencia más importante de la empresa, Super Cola, está basada en la compra más reciente del cliente. Suponga
que las siguientes probabilidades de transición son apropiadas:

Red pop Super cola


Red pop 0,9 0,1
Super cola 0,1 0,9

a) Construya el diagrama de transición del proceso. ¿Cuáles son los estados del proceso?
b) Muestre el diagrama de árbol de dos periodos para un cliente que por última vez compró Red Pop. ¿Cuál es la
probabilidad de que este cliente compre Red Pop en el segundo periodo?
c) ¿Cuál es la cuota de mercado a largo plazo para cada uno de estos productos?
d) Se planea una campaña de publicidad para Red Pop, a fin de incrementar la probabilidad de atraer clientes de Super
Cola. La gerencia cree que la nueva campaña incrementará la probabilidad a 0.15 de que un cliente cambie de Super
Cola a Red Pop.
e) ¿Cuál es el efecto proyectado de la campaña publicitaria en las cuotas de mercado?
Cadenas de Markov
Ejercicio 2
El centro de cómputo de la Universidad de Rockbottom ha experimentado tiempo de inactividad de computadoras.
Suponga que los ensayos de un proceso de Markov asociado se definen como periodos de una hora y que la
probabilidad de que el sistema esté activo o inactivo está basada en el estado del sistema en el periodo previo. Datos
históricos muestran las siguientes probabilidades de transición.

a. Si el sistema inicialmente está funcionando, ¿cuál es la probabilidad


de que deje de hacerlo en la siguiente hora de operación?
b. ¿Cuáles son las probabilidades de estado estacionario de que el
sistema esté funcionando y o de que no?

Una causa del tiempo de inactividad en el problema 3 se rastreó


a una pieza específica de la computadora. La gerencia cree que
el cambio a un componente diferente dará por resultado las
siguientes probabilidades de transición:

c. ¿Cuáles son las probabilidades de estado estacionario de que el sistema esté funcionando o no?
d. Si el costo del sistema que no está funcionando durante cualquier periodo se estima que es de $500 (incluidas las
utilidades perdidas durante el tiempo de inactividad o mantenimiento) ¿Cuál es el costo ahorrado en el tiempo con el
nuevo componente?
Cadenas de Markov
Ejercicio 3
En Colombia se tienen 3 operadores principales de telefonía móvil como tigo, Claro y movistar. La participación actual de
cada operador en el mercado es 0.4 para Claro, 0.25 para tigo y 0.35 para movistar. De un estudio realizado, se tiene
que un usuario actualmente de tigo tiene una probabilidad de permanecer en tigo de 0.60, de pasar a Claro 0.2 y de
pasarse a movistar de 0.2; si en la actualidad el usuario es cliente de Claro tiene una probabilidad de mantenerse en
Claro del 0.5 de que esta persona se cambie a tigo 0.3 y que se pase a movistar de 0.2; si el usuario es cliente en la
actualidad de movistar la probabilidad que permanezca en movistar es de 0.4, de que se cambie a tigo de 0.3 y a Claro
de 0.3.

a) Indique cuáles son los estados del proceso.


b) Construya el diagrama de transición del proceso.
c) Construya la matriz de transición del proceso.
d) Si el ensayo del proceso es mensual, ¿cómo será la composición del mercado luego de 3 meses?
e) A la larga cómo será la participación de cada operador en el mercado de telefonía móvil?
Cadenas de Markov
Ejercicio 4
Los consumidores de café en el área metropolitana usan tres marcas A, B, C. En marzo se hizo una encuesta en la que
se entrevistó a 8450 personas que compran café y los resultados fueron los siguientes:

Compra en el mes actual


Compra mes
anterior Marca A Marca B Marca C TOTAL
Marca A 507 845 338 1690
Marca B 676 2028 676 3380
Marca C 845 845 1690 3380
TOTAL 2028 3718 2704 8450
a) Si las compras se hacen mensualmente, ¿cuál será la distribución del mercado de café en el área
metropolitana en el mes de junio?
b) A la larga, ¿cómo se distribuirán los clientes de café?
c) Considerando el mismo potencial de clientes, ¿en junio cuál será el número de clientes leales a sus
marcas de café?
Cadenas de Markov
Ejercicio 5
En una Unidad de Cuidados Intensivos en un determinado hospital, cada paciente es clasificado de acuerdo a un estado
crítico, serio o estable. Estas clasificaciones son actualizadas cada mañana por un médico internista, de acuerdo a la
evaluación experimentada por el paciente. Las probabilidades con las cuales cada paciente se mueve de un estado a
otro se resumen en la tabla que sigue.

Crítico Serio Estable


Crítico 0,6 0,3 0,1
Serio 0,4 0,4 0,2
Estable 0,1 0,4 0,5

a) ¿Cuál es la probabilidad que un paciente en estado crítico un día Jueves esté estable el día Sábado?
b) ¿Cuál es la probabilidad que un paciente que está en estado estable el Lunes experimente alguna complicación y no
esté estable nuevamente el Miércoles?
c) ¿Qué porcentaje de la Unidad de Cuidados Intensivos usted diseñaría y equiparía para pacientes en estado crítico?
d) Si el costo de atención de un paciente en estado crítico es de $5000, en serio es de $3000 y en estable es de $800.
¿Cuál debe ser el presupuesto que se debería asignar a la unidad de cuidados intensivos?

También podría gustarte