Cadenas de Markov Parte I PDF
Cadenas de Markov Parte I PDF
Cadenas de Markov Parte I PDF
OPERACIONES II
CADENAS DE MARKOV
Parte I
Ing. Esp. Carlos Miguel Rodríguez Moreno, M. Sc.
CADENAS DE MARKOV INVESTIGACIÓN DE
Parte I OPERACIONES II
Definiciones esenciales
1. 𝑞' es la probabilidad de que 2. Las probabilidades de transición de los
la cadena se encunetre en el cambios de estado se representan en una
estado 𝑖 en el tiempo 0 Matriz de probabilidad de transición o
(𝑃 𝑿# = 𝑖 = 𝑞! ). Matriz de transición 𝑃 de orden 𝑠 𝑥 𝑠, de la
siguiente manera:
Por tanto se conoce como
distribución de probabilidad 𝑝$$ 𝑝$% … 𝑝$&
inicial para la cadena de 𝑝%$ 𝑝%% … 𝑝%&
𝑷= ⋮ ⋮ ⋱ ⋮
Markov al vector:
𝑝&$ 𝑝&% … 𝑝&&
𝒒 = 𝑞$ 𝑞% … 𝑞& &
1 𝑝!" = 1 ∀ 𝑖 = 1, 2, … , 𝑠
"'$
CADENAS DE MARKOV INVESTIGACIÓN DE
Parte I OPERACIONES II
Ejemplo
Suponga que toda la industria de bebidas de cola produce solo dos tipos. Dado que una
persona la última vez compró cola 1, hay un 90% de probabilidades de que su siguiente
compra sea cola 1. Dado que la última compra de una persona fue cola 2, hay 80% de
probabilidades de que su siguiente compra sea cola 2.
Ejemplo
$ $
$ % % % 0 0 $ $ $
0 $ $
) ) 0 0 * % *
$ $ % % % $
𝑃$ = 0 𝑃% = % $ 𝑃) = 0
% % ) )
$ ) 0 0 ) ) % $
0 $ ) 0
* * 0 0 ) )
* *
CADENAS DE MARKOV INVESTIGACIÓN DE
Parte I OPERACIONES II
Luego, suponga que cada cliente realiza una compra de refresco de cola durante
cualquier semana (52 semanas = 1 año). Suponga que hay 100 millones de clientes
que consumen refresco de cola. A la compañía le cuesta $1 producir un refresco de
cola y lo vende en $2. Por $500 millones al año, una empresa publicitaria garantiza
disminuir de 10 a 5% la fracción de clientes de cola 1 que cambian a cola 2 después
de una compra. ¿Debe la compañía que fabrica cola 1 contratar a la empresa
publicitaria?
CADENAS DE MARKOV INVESTIGACIÓN DE
Parte I OPERACIONES II
1
𝑚!" = 1 + 1 𝑝!+ 𝑚+" 𝑚!! =
+ ," 𝜋!
¡MUCHAS GRACIAS!