Proyecto Ysla

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 21

Universidad Nacional De Trujillo

Sede Huamachuco
INGENIERÍA DE MINAS

INFORME DE “CADENAS DE
MARKOV”
Ing. ROJAS ESCOBAR, José Alvan

SIMULACION DE OPERACIONES
MINERAS
Presentado Por:
 ANTICONA REYES, Ronald
 CAMPOS SANDOVAL, Milber
 MARQUINA ROJAS, Gaby
 PEÑA GONZALEZ, Ancelmo

CICLO: X

HUAMACHUCO

Octubre, 2018
UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

PRESENTACION

Los triunfos se disfrutan mejor cuando son el verdadero resultado de un mejor


esfuerzo, constante y paciente, por este motivo tenemos a bien presentar el
siguiente trabajo, con el cual fue de gran ayuda para adquirir conocimientos
esenciales de “CADENAS DE MARKOV” y el cual también esperamos que
sea de gran ayuda para que las nuevas generaciones de estudiantes de esta
carrera afronte con éxito las dificultades que deberán encontrar más adelante.

Asimismo en este trabajo hemos tratado de plasmar lo más importante el cual


nos será de mucha ayuda en el futuro.

Final mente queremos expresar nuestros compromisos con la facultad de


ingeniería de minas y además esperamos recibir sugerencias,
recomendaciones que conlleven a engrandecer nuestro trabajo.

SIMULACION DE OPERACIONES MINERAS Página 1


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

ÍNDICE

CONTENIDO PAG.

I. INTRODUCION ............................................................................... 3

II. OBJETIVOS .................................................................................... 4

III. MARCO CONCEPTUAL................................................................. 4

3.1. Procesos estocásticos ........................................................... 4


3.2. Cadenas De Markov ................................................................ 5
3.3. Notaciones................................................................................ 5
3.4. Tipos de estados y/o cadenas de Markov ........................... 8
3.5. Clasificación de los estados de Markov ............................ 13
3.6. Aplicaciones de las cadenas de Markov ........................... 17

IV. CONCLUSIONES: ........................................................................ 19

V. BIBLIOGRAFIA: ........................................................................... 20

SIMULACION DE OPERACIONES MINERAS Página 2


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

I. INTRODUCION
Las cadenas de Markov está destinado a una clase de modelos de probabilidad
que son útiles en una amplia variedad de ciencias. Las cadenas de Markov han
encontrado aplicaciones en la biología, la física, la demografía, la economía, etc.

Un factor importante que se debe considerar al seleccionar una herramienta de


toma de decisiones es su grado de confiabilidad, ya que así la incertidumbre y el
riesgo resultan menores.

Una relación de algunos elementos de apoyo cuantitativo en la toma de


decisiones gerenciales es el análisis de Markov

Las cadenas de Markov se pueden utilizar en modelos simples de valuación de


opciones para determinar cuándo existe oportunidad de arbitraje, así como en el
modelo de colapsos de una bolsa de valores o para determinar la volatilidad de
precios.

SIMULACION DE OPERACIONES MINERAS Página 3


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

II. OBJETIVOS
El objetivo es analizar y entender los conceptos teoricos y practicos de las
“CADENAS DE MARKOV”

III. MARCO CONCEPTUAL


3.1. Procesos estocásticos
Un proceso estocástico es una familia de variables aleatorias definida sobre
un espacio de probabilidad. Es decir:
X t :   , t  T  ,   X t    X , t 

Normalmente el índice t representa un tiempo y X(t) el estado del proceso


estocástico en el instante t.
El proceso puede ser de tiempo discreto o continuo si G es discreto o
continuo. Si el proceso es de tiempo discreto, usamos enteros para
representar el índice: {X1, X2,...}

Clasificación de los procesos estocásticos

PROCESOS
S discreto S continuo
ESTOCÁSTICOS

Sucesión de
variables
T discreto Cadena
aleatorias
continuas

T continuo Proceso puntual Proceso continuo

Ejemplos de procesos estocásticos:


1. Serie mensual de ventas de un producto
2. Estado de una máquina al final de cada semana (funciona/averiada)
3. Nº de clientes esperando en una cola cada 30 segundos

SIMULACION DE OPERACIONES MINERAS Página 4


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

4. Marca de detergente que compra un consumidor cada vez que hace la


compra. Se supone que existen 7 marcas diferentes
5. Nº de unidades en almacén al finalizar la sema.

3.2. Cadenas De Markov


“Las cadenas de Markov son una herramienta para analizar el comportamiento y el
gobierno de determinados tipos de procesos estocásticos, esto es, procesos que
evolucionan de forma no determinista a lo largo del tiempo en tomo a un conjunto
de estados. Por tanto, representa un sistema que varía su estado a lo largo del
tiempo. Siendo cada cambio una transición del sistema. Dichos cambios no están
predeterminados, aunque sí lo está la probabilidad del próximo estado en función
de los estados, probabilidad que es constante a lo largo del tiempo (sistema
homogéneo en el tiempo). Eventualmente, es una transición, el nuevo estado puede
ser el mismo que el anterior y es posible que exista la probabilidad de influir en las
probabilidades de transición actuando sobre el sistema (decisión).”

3.3. Notaciones

Cadenas homogéneas y no homogéneas: Una cadena de Markov se dice


homogénea si la probabilidad de ir del estado i al estado j en un paso no depende
del tiempo en el que se encuentra la cadena, esto es:

Para todo n y para cualquier i, j.

Si para alguna pareja de estados y para algún tiempo n la propiedad antes


mencionada no se cumple diremos que la cadena de Markov es no homogénea.

Probabilidades de transición: La probabilidad de ir del estado i al estado j en n


unidades de tiempo es:

SIMULACION DE OPERACIONES MINERAS Página 5


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

En la probabilidad de transición en un paso se omite el superíndice de modo que


queda:

Un hecho importante es que las probabilidades de transición en n pasos satisfacen


la ecuación de Chapman-Kolmogorov, esto es, para cualquier k tal que
0 < k < n se cumple que:

Donde E denota el espacio de estados.

Cuando la cadena de Markov es homogénea, muchas de sus propiedades útiles se


pueden obtener a través de su matriz de transición, definida entrada a entrada

esto es, la entrada i, j corresponde a la probabilidad de ir del estado i a


j en un paso. Del mismo modo se puede obtener la matriz de transición en n pasos
como:

Matriz de trancicion: Al trabajar con cadenas de Markov, a menudo es útil pensar


la sucesión de ensayos como experimentos efectuados en cierto sistema físico,
cada resultado dejando a este sistema en cierto estado.
 q00 q01 q02 ...
 
 qij i , jS
q q11 q12 ...
Q   10
q q21 q22 ...
 20 
 ... ...
 ... ...

Propiedades de la matriz de transición:


Por ser los qij probabilidades,
i, j  S , qij  0,1

Por ser 1 la probabilidad del suceso seguro, cada fila ha de sumar 1, es decir,
i  S , q
jS
ij 1

SIMULACION DE OPERACIONES MINERAS Página 6


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

Una matriz que cumpla estas dos propiedades se llama matriz estocástica

Diagrama de transición de estados: El diagrama de transición de estados (DTE)


de una CM es un grafo dirigido cuyos nodos son los estados de la CM y cuyos arcos
se etiquetan con la probabilidad de transición entre los estados que unen. Si dicha
probabilidad es nula, no se pone arco

Cadena de Markov homogénea: Decimos que una cadena de Markov es


homogénea o estacionaria cuando se verifica que:

Es decir que las probabilidades de transición solo dependen de la diferencia entre


los instantes de tiempo y no del valor absoluto de estos. Esta característica se
cumple en muchos casos de interés práctico. Las cadenas de Markov homogéneas
que van a ser de nuestro interés son aquellas en las que en régimen permanente el
vector de estado tiende a un valor asintóticamente estable, es decir:

Vector de probabilidad invariante: Se define la distribución inicial.

Diremos que un vector de probabilidad (finito o infinito numerable) es invariante para


una cadena de Markov si donde P denota la matriz de transición de la
cadena de Markov. Al vector de probabilidad invariante también se le llama
distribución estacionaria o distribución de equilibrio.

SIMULACION DE OPERACIONES MINERAS Página 7


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

Tiempos de entrada: Si definimos el primer tiempo de entrada a C como


la variable aleatoria

Esto es, denota la primera vez que la cadena entra al conjunto de estados C.

Recurrencia: En una cadena de Markov con espacio de estados E, si x∈E se


define: Y diremos que:
x es estado recurrente sí. Lx =1
x es transitorio si Lx < 1
x es absorbente si Px , x =1
Una clase de comunicación es clase recurrente si todos sus estados son
recurrentes. Sea si x∈E diremos que:
x es cero-recurrente si
x es positivo-recurrente si
El real se interpreta como el tiempo promedio.

Ecuaciones de Chapman-Kolmogorov:
Teorema: Las probabilidades de transición en n etapas vienen dadas por la matriz
Qn:
X t n  j
i, j  S , P    q ( n)
 X t  i  ij

Demostración: Por inducción sobre n, Caso base (n=1). Se sigue de la definición


de qij

3.4. Tipos de estados y/o cadenas de Markov


Subconjuntos cerrados: Un subconjunto cerrado CS se dice que es
irreducible sii no contiene ningún subconjunto propio cerrado.
Sea CS, con C. Diremos que C es cerrado sii iC jC, j no es
alcanzable desde i, o lo que es lo mismo, ij=0. En particular, si C={i},
entonces i es absorbente. S siempre es cerrado.

SIMULACION DE OPERACIONES MINERAS Página 8


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

Estados recurrentes y transitorios:


Si S es irreducible, se dice que la CM es irreducible. En el DTE, esto ocurre
sii dados i,j cualesquiera, j es alcanzable desde i.
Diremos que un estado jS es recurrente sii jj=1. En otro caso diremos que
j es transitorio. Se demuestra que una CM sólo puede pasar por un estado
transitorio como máximo una cantidad finita de veces. En cambio, si
visitamos un estado recurrente, entonces lo visitaremos infinitas veces.
Proposición: Sea CS cerrado, irreducible y finito. Entonces iC, i es
recurrente
Ejemplos: La CM de la línea telefónica es irreducible. Como además es
finita, todos los estados serán recurrentes. Lo mismo ocurre con el ejemplo
del buffer
Ejemplo: En el lanzamiento del dado, tenemos los subconjuntos cerrados
{0}, {100}, con lo que la CM no es irreducible. Los estados 0 y 100 son
absorbentes, y el resto son transitorios.

Periodicidad: El periodo de un estado x∈E se define como:

donde el mcd denota el máximo común divisor.

Si d(x)=1 diremos que x es un estado aperiódico.


Una cadena de Markov se dice aperiódica si todos sus estados son
aperiódico.

Ejemplo: En la siguiente CM todos los estados son periódicos de periodo d=2:

Ejemplo: En la siguiente CM todos los estados son periódicos de periodo d=3:

SIMULACION DE OPERACIONES MINERAS Página 9


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

Cadenas irreducibles: Una cadena de Markov se dice irreducible si se


cumple cualquiera de las siguientes condiciones (equivalentes entre sí):
1. Desde cualquier estado de E se puede acceder a cualquier otro.
2. Todos los estados se comunican entre sí.
3. C(x)=E para algún x∈E.
4. C(x)=E para todo x∈E.
5. El único conjunto cerrado es el total.
La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son
ejemplos de cadenas de Markov irreducibles.

Cadenas Positivo-Recurrentes
Una cadena de Markov se dice positivo recurrente si todos sus estados son
positivo recurrentes. Si la cadena es además irreducible es posible demostrar
que existe un único vector de probabilidad invariante y está dado por:
πx= 1/μx
Cadena de Tiempo Continuo: Esta suposición es adecuada para muchos
problemas, pero existen ciertos casos (como en algunos modelos de líneas de
espera) en los que se requiere un parámetro ( llamado “t”) de tiempo continuo,
debido a que la evolución del proceso se observa de manera continua a través
del tiempo.

Cadenas absorbentes: Una cadena de Markov con espacio de estados finito


se dice absorbente si se cumplen las dos condiciones siguientes:
1. La cadena tiene al menos un estado absorbente.
2. De cualquier estado no absorbente se accede a algún estado absorbente.
Si denotamos como A al conjunto de todos los estados absorbentes y a su
complemento como D, tenemos los siguientes resultados:

Su matriz de transición siempre se puede llevar a una de la forma.


 Q' R 
Q   
 0 I 

SIMULACION DE OPERACIONES MINERAS Página 10


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

Donde la submatriz Q corresponde a los estados del conjunto D, I es la


matriz identidad, 0 es la matriz nula y R alguna submatriz.
, esto es, no importa en donde se encuentre la cadena,
eventualmente terminará en un estado absorbente.

Ejemplo: En un juego participan dos jugadores, A y B. En cada turno, se


lanza una moneda al aire. Si sale cara, A le da 1 € a B. Si sale cruz, B le
da 1 € a A. Al principio, A tiene 3 € y B tiene 2 €. El juego continúa hasta
que alguno de los dos se arruine. Calcular:

La probabilidad de que A termine arruinándose.


La probabilidad de que B termine arruinándose.
El número medio de tiradas que tarda en acabar el juego.

Tendremos una CM con un estado por cada posible estado de cuentas de


A: S={1, 2, 3, 4, 5, 0}. Descomponemos Q:

Realizamos los cálculos necesarios.

Solucion:

Probabilidad de que A termine arruinándose.

SIMULACION DE OPERACIONES MINERAS Página 11


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

La ruina de A está representada por el estado 0, que es el 2º estado


absorbente. Como empezamos en el 3er estado transitorio (A empieza
con 3 €), debemos consultar la 3ª fila, 2ª columna de (I–Q’)–1R, que
nos da una probabilidad de 0,4 de que A empiece con 3 € y termine en
la ruina.

Probabilidad de que B termine arruinándose


Como es el suceso contrario del apartado a), su probabilidad será 1–
0,4=0,6. También podríamos haber consultado la 3ª fila, 1ª columna
de (I–Q’)–1R.

Distribución estacionaria:

Teorema: Sea X una CM irreducible, aperiódica y recurrente. Entonces,

j  S , p j  lím qijn 
n 

Diremos que una CM alcanza la distribución estacionaria sii existen los


límites del teorema anterior y además se cumple que:

p
jS
j 1

Existencia de la distribución estacionaria: Sea X finita y ergódica.


Entonces la distribución estacionaria existe y viene dada por la solución de
las siguientes ecuaciones:

j  S , p j   pi qij p
jS
j 1
iS

A la última ecuación se le llama ecuación normalizadora, ya que obliga a


que el vector formado por los pj esté normalizado (en la norma 1)

Ejemplo: Hallar la distribución estacionaria (si existe) del ejemplo de la línea


telefónica.

SIMULACION DE OPERACIONES MINERAS Página 12


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

1º Comprobar que la CM es finita y ergódica, para así saber que existe la


distribución estacionaria. Lo es, con lo cual dicha distribución existe.

2º Plantear las ecuaciones de equilibrio (una por nodo):

Nodo 0 : p0  0,9 p0  0,3 p1 Nodo 1 : p1  0,1 p0  0,7 p1

O lo que es más fácil,

   p 
p  QT p, donde p   0 
 p1 

3º Plantear la ecuación normalizadora:

p0  p1  1

3.5. Clasificación de los estados de Markov


De lo expuesto hasta ahora, si queremos analizar el comportamiento a largo
plazo de un proceso estocástico que cumpla la propiedad markoviana,
necesitamos:
Una metodología para poder clasificar la cadena como ergódica o no
ergódica por una parte, y como regular, semirregular o cíclica por otra,
examinado la matriz de probabilidades de transición.

Una metodología que permita el cálculo de la matriz de probabilidades.

La clasificación de las cadenas de Markov puede realizarse mediante dos


metodologías:

El análisis topológico, examinando las propiedades de los estados de la


cadena y estableciendo clases de equivalencia entre los estados.

SIMULACION DE OPERACIONES MINERAS Página 13


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

El análisis espectral, examinando los valores propios de la matriz de


probabilidades de transición de un paso.

Una vez clasificada la cadena, puede obtenerse información acerca de la forma


que presente la matriz de probabilidades estacionarias, lo cual facilita su
obtención.

Análisis Topológico de las cadenas de Markov: Permite la clasificación de


las cadenas a partir de la información suministrada por la matriz P utilizando
propiedades relativas a la relación entre estados (propiedades de estado).
Estas propiedades permiten, a su vez, definir subconjuntos de estados
denominados clases. También podremos definir, entonces, las propiedades de
clase.

Propiedades de estado
Dados dos estados de una cadena, pueden establecerse dos tipos de relaciones
entre ellos:
El estado i es descendente de j si cuando iniciamos el proceso es i existe una
probabilidad no nula de que el proceso llegue a j. En este caso, diremos que
existe un camino entre los estados i y j.
Los estados i y j se comunican si i es descendiente de j y j es descendiente
de i.

Existirá un ciclo dentro de una cadena de Markov si existe un camino en la


cadena que comunique al estado i consigo mismo. Dicho circuito se
caracteriza por el numero mínimo de transiciones que necesitara el sistema
para volver al estado i, si se inició el proceso en ese estado. Dicho número
constituirá la longitud del ciclo.

Obsérvese que, con las definiciones dadas, la existencia de un circuito implica


que todos los estados que lo forman están comunicados. Se conviene que todo
estado esta comunicado consigo mismo, ya que se al menos puede acceder a

SIMULACION DE OPERACIONES MINERAS Página 14


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

él en cero transiciones (circuito de longitud cero), con independencia de que


además existan otros circuitos de longitud mayor.

Para analizar estas relaciones entre estados, es útil recordar que, según la
teoría de grafos, toda matriz cuadrada tiene asociado un grafo, cuya
representación gráfica se puede elaborar a partir de la matriz de probabilidades
de transición, el diagrama de transiciones de estados.

Cada estado de la cadena se representa por un vértice del grafo y cada


transición con probabilidad no nula se representa por una relación entre los
vértices que representan los estados anterior y posterior de la misma. De esta
manera el diagrama se representan todas las situaciones en las que un estado
i es descendente respecto de j.

SIMULACION DE OPERACIONES MINERAS Página 15


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

Propiedades de clase

Hemos establecido que un estado está siempre comunicado consigo mismo, la


relación entre estados estar comunicado es reflexiva, simétrica y transitiva, por
lo que se trata de una relación de equivalencia. Po este motivo, podemos decir
que un conjunto de estados comunicados entre si constituye un clase de
equivalencia. De esta manera podemos clasificar diversas clases los estados
de una cadena de Markov.

Podemos definir la propiedad de clase siguiente para las clases de equivalencia


que se hayan establecido:

Una clase de equivalencia será final si cuando el proceso llega a uno de los
estados de la clase, en las transiciones siguientes el proceso evoluciona
siempre dentro de los estados de la clase.

SIMULACION DE OPERACIONES MINERAS Página 16


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

Aquellas clases de equivalencia que no sean clases finales serán las claves
de paso. Las clases de paso tienen un interés muy limitado en el estudio de
las cadenas de Markov.
Puesto que el sistema debe ser capaz de evolucionar indefinidamente entre un
número finito de estados, toda cadena debe tener al menos una clase final. Si
en su evolución a lo largo de infinitas transiciones el sistema puede pasar por
todos los estados, entonces habrá una única clase final que los englobara a
todos ellos. Este caso es el que hemos definido anteriormente como cadena
ergódica.

3.6. Aplicaciones de las cadenas de Markov

Física
Las cadenas de Markov son usadas en muchos problemas de la termodinámica
y la física estadística. Ejemplos importantes se pueden encontrar en la Cadena
de Ehrenfest o el modelo de difusión de Laplace.

Meteorología
Si consideramos el clima de una región a través de distintos días, es claro que
el estado actual solo depende del último estado y no de toda la historia en sí,
de modo que se pueden usar cadenas de Markov para formular modelos
climatológicos básicos.

Modelos epidemiológicos
Una importante aplicación de las cadenas de Markov se encuentra en el proceso
Galton-Watson. Éste es un proceso de ramificación que se puede usar, entre
otras cosas, para modelar el desarrollo de una epidemia (véase modelaje
matemático de epidemias).

Internet
El pagerank de una página web (usado por Google en sus motores de
búsqueda) se define a través de una cadena de Markov, donde la posición que

SIMULACION DE OPERACIONES MINERAS Página 17


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

tendrá una página en el buscador será determinada por su peso en la


distribución estacionaria de la cadena.

Simulación
Las cadenas de Markov son utilizadas para proveer una solución analítica a
ciertos problemas de simulación tales como el Modelo M/M/1.3

Juegos de azar
Son muchos los juegos de azar que se pueden modelar a través de una cadena
de Markov. El modelo de la ruina del jugador, que establece la probabilidad de
que una persona que apuesta en un juego de azar finalmente termine sin dinero,
es una de las aplicaciones de las cadenas de Markov en este rubro.

Economía y Finanzas
Las cadenas de Markov se pueden utilizar en modelos simples de valuación de
opciones para determinar cuándo existe oportunidad de arbitraje, así como en
el modelo de colapsos de una bolsa de valores o para determinar la volatilidad
de precios. En los negocios, las cadenas de Márkov se han utilizado para
analizar los patrones de compra de los deudores morosos, para planear las
necesidades de personal y para analizar el reemplazo de equipo.

Música
Diversos algoritmos de composición musical usan cadenas de Markov, por
ejemplo el software Csound o Max.

SIMULACION DE OPERACIONES MINERAS Página 18


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

IV. CONCLUSIONES:
Como conclusión las cadenas de Markov nos permite hacer análisis sobre el
estudio de los comportamientos de ciertos sistemas en ciertos periodos que
pueden ser cortos o largos. Además se tiene una relación con las
probabilidades absolutas. Pero sin embargo lo más importante es el estudio
del comportamiento sistemas a largo plazo, cuando el número de
transiciones tiene al infinito.
Al conocer más o menos las probabilidades de un experimento, esto a su vez
nos permitirá conocer a corto plazo los estados en que se encontrarían en
periodos o tiempos futuros y tomar decisiones que afectarán o favorecerán
nuestros intereses, y tomar una decisión de manera consciente y no se
comentan muchos errores.
Esto también nos proporcionara un tiempo estimado para que identifiquemos
cada estado y el periodo en que se encuentra con la implementación de un
proceso, también se establece las probabilidades como una herramienta más
en las cadenas de Markov.

SIMULACION DE OPERACIONES MINERAS Página 19


UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE INGENIERIA

V. BIBLIOGRAFIA:
Introducción A Las Cadenas De Markov
Investigación de operaciones, 5ª edición, Editorial taha, pp. 822-826

Métodos cuantitativos de organización industrial II


Escrito por Joan B. Fonollosa – José M. Sallan, Albert Suñé.
Edicions UPC 2002.

Elementos de Probabilidad y Estadística


Elmer B. Mode
Reverte 2005 Reimpresión

Probabilidad De Transiciones Estacionarias De N Pasos


Investigación de operaciones, 5ª edición, Editorial taha, pp. 824-826
Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor
Wayne l.

Estado Estable
Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor
Wayne l.
wishston, Editorial Thompson, pp. 934-938.

SIMULACION DE OPERACIONES MINERAS Página 20

También podría gustarte