Procesos Estocasticos USACH
Procesos Estocasticos USACH
Procesos Estocasticos USACH
Estocásticos
para
Ingeniería
MATLAB
nuestra Universidad.
El lector, encontrará en los primeros capítulos, gran parte de los elementos que
constituyen los cursos de Estadística para las diversas carreras de las distintas facultades
para el Análisis de Filas, dejando los capítulo finales del texto para su discusión.
los elementos que sirven de base para la toma decisiones, al disponer de información
parcial: como efectuar y apreciar la identificación de parámetros ( Estimación
Comunicaciones. Sin embargo, un alumno debidamente orientado, al leer las secciones que
le sean de interés, podrá encontrar los conceptos, sus alcances y problemas que ilustran
Deseo expresar mis agradecimientos, a los ingenieros que en las diversas versiones de este
curso, han sido mis alumnos de esta asignatura, por su aporte de ejemplos de aplicaciones
presente edición; así como los esfuerzos realizados por las secretarias Olga Urzúa, y
PROFESOR
PARTE II
INFERENCIA ESTADÍSTICA 99
PARTE III
LINEAS DE ESPERA 151
CAPÍTULO VII: ESTRUCTURA Y CARACTERIZACIÓN DE LINEAS 153
DE ESPERA
7.1.- Estructura básica de una línea de espera 153
7.2.- Notación en la teoría de líneas de espera 154
7.2.1.- Nomenclatura para componentes de un sistema 154
Referencias 284
Anexo:
Introducción a procedimientos Estadísticos en Matlab 285
Indice 323
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
PARTE I
Lograr conclusiones válidas de nuestro ámbito en estudio a partir de información parcial no debe ser una
tarea que se diga fácil, aunque puede ser simple en algunos casos muy particulares.
El método estadístico, procedimiento mediante el cual se pretende dicho propósito, debe entonces
contemplar, etapas que cautelen por el adecuado tratamiento de la información a disponer, desde los
propósitos mismos del estudio hasta las conclusiones que de él emanen. Por lo tanto, tales etapas deben ser
enmarcadas por el pilar universal de la búsqueda de la verdad, conocido por todos como Método
Científico.
DETECCIÓN Y ENUNCIADO
DE UN PROBLEMA
DEDUCCIÓN DE CONSECUENCIA
VERIFICABLE
VERIFICACIÓN DE LA CONSECUENCIA
no verificación rechazar hipótesis
CONCLUSIÓN
Podemos decir entonces, que el Método Estadístico, comprende las siguientes etapas:
- Definición de universo en estudio
- Caracterización de las variables en estudio
- Especificación de la unidad de muestreo
- Diseño del esquema de muestreo y encuesta
- Análisis de la información: presentación y verificación del modelo propuesto
- Conclusiones, que contemplen la representatividad de la información que se dispone, para así
cuantificar el grado de seguridad en las decisiones que aquí se adopten.
13
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Entenderemos por población, al universo en estudio, y cualquier subconjunto de él, se denomina muestra. Los
elementos de una muestra se denominan observaciones. La rama de la estadística que aborda el como lograr
una muestra, su composición y representatividad, se denomina muestreo.
De manera muy resumida podemos decir que nuestra concepción del estudio de los fenómenos
es la siguiente:
TOMA DE DECISIONES
FENOMENOS
INCERTIDUMBRE MODELOS (NO DETERMINISTICOS)
POBLACIÓN
INFERENCIA ESTADÍSTICA
INFORMACIÓN
(MUESTRA) MODELO MUESTRAL
Por tal motivo, en ésta primera parte abordaremos los elementos básicos que disponemos, para apreciar los
datos muestrales de que se disponga; y luego estudiaremos, algunos modelos de comportamiento, útiles para la
segunda parte, que es conducente a la toma de decisiones, cuando se dispone de información muestral.
14
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
CAPITULO I
ESTADÍSTICA DESCRIPTIVA
Para identificar, qué elementos de estadística descriptiva son los más adecuados, para describir y
representar un conjunto de observaciones, de una variable o atributo de interés, es indispensable clasificar
correctamente esa variable.
Llamaremos recorrido de una variable al conjunto de valores que ella puede asumir. Tal conjunto puede ser o
no numerable, así lo identificaremos respectivamente, como :
discreto , o bien
continuo
Es importante hacer notar, que la clasificación de una variable se realiza considerando sólo su naturaleza
intrínseca, la que puede diferir, de aquella que se obtiene al considerar la forma "correcta" en que esa
variable se registró en un estudio particular. Así, una variable codificada numéricamente, no
necesariamente es una variable cuantitativa.
15
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo1.1
Experimento:
El reconocimiento facial es un tema que sigue siendo de investigación debido a la posibilidad de implementar
diferentes técnicas de análisis y /o de reconocimiento de configuraciones, hacia el rostro humano. Dentro de
los diferentes algoritmos que cumplen esta función, nos encontramos con aplicaciones del algoritmo de redes
neuronales artificiales (RNA) y algoritmo de análisis de componentes independientes (PCA).
El algoritmo RNA, simula neuronas artificiales para aprender y/o asociar diferentes características del rostro y
autentificarlos. Por otro lado, el algoritmo PCA, utiliza un análisis estadístico del rostro, extrayendo los
valores y vectores propios del rostro y a través de correlación, busca las características similares entre una
imagen con otra, a través de la medida de la distancia euclidiana.
Disponemos de una base de datos en el reconocimiento facial, el cual contiene información sobre la jornada,
el tiempo, las técnicas utilizadas como algoritmos de reconocimiento, entre otras variables.
Se realizó una muestra (véase Anexo al presente capítulo), de 60 observaciones de reconocimiento facial de
un grupo de personas, registrando 8 características (variables), de las cuales 4 son cualitativas y 4 son
cuantitativas.
La información desplegada en Anexo, como base de datos, procede de dos archivos texto con una columna
(ítem) de identificación en común .
- Uno con columnas: ítem, Jornada, Clima, Niveldereconocimiento y Estado
- El otro, con columnas: ítem, Performance, RNA, difrnaypca
Los datos originales, se encontraban en dos archivos texto, los importamos directamente y agrupamos en un
solo objeto. Para transformarlo en operativo se debe proceder de la siguiente manera:
Script:
T1=readtable('archivo1de2cap1.txt'); T1; size(T1)
T2=readtable('archivo2de2cap1.txt'); T2; size(T2); T2(:,[1])=[ ]; T2
T=[T1 T2];T; T=[T1 T2];T; size(T);
% las variables se encuentran en T, como un solo objeto, pero pueden ser identificadas operacionalmente como a continuación
item=T.item; x1=T.Jornada; x2=T.clima; x3=T.nivrec;x4=T.Estado;x5=T.PerfRNA;x6=T.PerfPCA;x7=T.DifRNAyPCA;
Experimento que utilizaremos, para ejemplificar cada uno de los temas de este capítulo.
16
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Son presentaciones de recuento de datos, mediante tablas de: valores o clasificaciones de la(s) observaciones
de la(s) variables en estudio, con sus repeticiones en tales clasificaciones. Con el objeto de considerar en forma
resumida la información disponible, para realizar una primera apreciación de ella, a través de gráficos y
estadísticas, que más adelante detallamos.
ni
fi , Fi f1 fi F1 f1 , FK 1
n
Cuando debemos enfrentar el estudio de un gran número de datos cuantitativos, lo más conveniente es
construir una partición Ai ik1 del intervalo I min x i , max x i . A los elementos de esta
partición, se acostumbra llamarlos categorías o clases, cada una de ellas se identifica tomando como
representante su punto medio o marca de clase que también denotaremos por xi . Denotándose además las
repeticiones en cada clase, de la misma manera que las ya definidas. Así entonces, una vez construidas las
clases, solo podremos identificar los valores observados de X con estas agrupaciones (y no con sus valores
observados).
El valor de k en cada caso, lo da el buen criterio, aunque, en la literatura se pueden encontrar sugerencias
como la de Sttürgues k= 1+3.3 lg n, que permite determinar un número de clases que crece muy lentamente
respecto de n.
Disponiendo del número k de categorías requeridas, una alternativa para construirlas consiste en considerar:
: x0 min x i , xk max x i , xi xi1 a, i=1,...,k
longitud de I
a= amplitud de Ai
k
A i x i-1´, x i ´, i = 1,..., k - 1, A k x k 1 , x k
Lo que debiera originar, clases de igual amplitud, pero el lector podrá verificar que por motivos operacionales
esto no es siempre cierto y se debe disponer de al menos una clase de tamaño inferior o superior a las
restantes.
17
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Script:
tablajornada=tabulate(T.Jornada);col1=tablajornada(:,1);col2=cell2mat(tablajornada(:,2));col3=cell2mat(tablajornada(:,3))/100
col4=cumsum(col2);col5=cumsum(col3)
latabla = table(col2,col3, col4, col5, 'VariableNames',{'frecabsolutas' 'frecrelativas' 'frecabsac' 'frecrelac'}, 'RowNames',{'mañana'
'tarde' 'noche'});disp(' Tabla de Frecuencias');disp(' Variable: Jornada ')
disp(' absolutas relativas abs.ac. rel.ac.');disp(latabla)
Ejemplo1.3:
Tabla de Frecuencias para la variable Performance de RNA
LimInferior LimSuperior frec.abs frec.rel frec.absac frec.relac
51.4000 57.9714 5.0000 0.0833 5.0000 0.0833
57.9714 64.5429 4.0000 0.0667 9.0000 0.1500
64.5429 71.1143 10.0000 0.1667 19.0000 0.3167
71.1143 77.6857 7.0000 0.1167 26.0000 0.4333
77.6857 84.2571 7.0000 0.1167 33.0000 0.5500
84.2571 90.8286 17.0000 0.2833 50.0000 0.8333
90.8286 97.4000 10.0000 0.1667 60.0000 1.0000
Script
n=length(x5);mi=min(x5); ma=max(x5);k=1+3.3*log10(n); k=ceil(k);a=(ma-mi)/k;clases= linspace(mi,ma,k+1)
Linfclases=clases(1,1:k); Lsupclases=clases(1,2:k+1);h=histogram(x5,clases);ni=h.Values
fi=ni/n; Ni(1)=ni(1); for h=2:k; Ni(h)=Ni(h-1)+ ni(h);h=h+1; end;
Fi(1)=fi(1); for h=2:k; Fi(h)=Fi(h-1)+ fi(h);h=h+1; end;
salidadetabla=[Linfclases' Lsupclases' ni' fi' Ni' Fi'];
disp('LimInferior LimSuperior frec.abs frec.rel frec.absac frec.relac')
disp(salidadetabla);
Este es el caso las n observaciones se han clasificado de acuerdo a dos características o variables X e Y de
Ai 1i 1 para
c
interés, en particiones X, Bj para Y. Se considera entonces:
j 1
fij
Es evidente que también fi j . Por tal motivo si en todas las celdas Ai Bj , ésta frecuencia
f. j
condicional no depende de la condición o restricción, es decir fi j ctei , i, j fi j fi , i, j . En
tal caso, se habla de independencia entre X e Y.
De esto se desprende, que en el caso de independencia entre X e Y, también se cumple que
fij fi. f. j , i, j, que habitualmente se toma como caracterización de independencia.
Ejemplo1.4:
Tabla1: Cantidad de Ensayos según condiciones ambientales
Jornada versus Clima
nublado despejado
mañana 31 0
tarde 0 15
noche 14 0
Script:
% Tabla1
[tablax1x2, chi2x1x2,px1x2]=crosstab(x1,x2); tablax1x2 ;col1=tablax1x2(:,1);col2=tablax1x2(:,2)
latabla=table(col1, col2, 'VariableNames',{' nublado' 'despejado'}, 'RowNames',{'mañana' 'tarde' 'noche'})
disp('Cantidad de Ensayos según condiciones ambientales');disp( ' Jornada versus Clima');disp(latabla)
%Tabla2
col1=tablax1x2(:,1); marginalj1=(sum(col1))/n; columna1=[col1/n;marginalj1];col2=tablax1x2(:,2); marginalj2=(sum(col2))/n;
columna2=[col2/n;marginalj2];
marginali1=(tablax1x2(1,1)+ tablax1x2(1,2))/n; marginali2=(tablax1x2(2,1)+ tablax1x2(2,2))/n;
marginali3=(tablax1x2(3,1)+ tablax1x2(3,2))/n;Total=marginali1+marginali2+marginali3;
columna3=[marginali1;marginali2;marginali3; Total];
latablax1x2=table(columna1 ,columna2, columna3, 'VariableNames',{' nublado' 'despejado' 'marginallineas'}, 'RowNames',{'mañana'
'tarde' 'noche' 'marginalcolumnas'});disp('Proporciones de Ensayos según condiciones ambientales');disp('Jornada versus Clima');
disp(latablax1x2);
%Tabla3
f1punto=marginali1; f2punto=marginali2;f3punto=marginali3;fpunto1=marginalj1; fpunto2=marginalj2;
g11=f1punto*fpunto1; g12= f1punto*fpunto2; g21=f2punto*fpunto1; g22= f2punto*fpunto2;
g31=f3punto*fpunto1; g32= f3punto*fpunto2; g1=[g11; g21;g31]; g2=[g12 ; g22;g32];
tablag = table(g1,g2,'VariableNames',{' nublado' 'despejado'}, 'RowNames',{'mañana' 'tarde' 'noche'});
disp('Proporciones de Ensayos bajo independencia de condiciones ambientales');
disp(' Frecuencias Relativas fij obtenidas mediante fij=fi. f.j');
disp( ' Jornada versus Clima');disp(tablag);
19
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Existen diversas formas de representar gráficamente la información estadística, teniendo como objetivo el
exhibir:
- distribución de frecuencias uni o multidimensionales o
- relaciones entre variables
Para la elección del gráfico más adecuado, debemos considerar su propósito y nivel de medición de cada
variable:
barras simples: barras espaciadas construidas sobre las clases de altura igual a su frecuencia relativa.
sectoriales : círculo dividido en sectores circulares de área similar a la proporción que les corresponde
según su propia frecuencia relativa
barras agrupadas: barras separadas simultáneo para las variables, para cada una de las clases comunes.
barras subdivididas: barras separadas para cada clase , de altura dada por la suma de las frecuencias
relativas de cada variable en dicha clase, donde debe quedar distinguido los aporte de tales
variables en cada barra.
histograma: sobre ejes cartesianos se colocan en las abscisas las clases y se diseñan rectángulos de alturas
iguales a las frecuencias relativas corregidas.
Se entiende por frecuencia relativa corregida, a la frecuencia relativa dividida por un factor
como la amplitud de su respectiva clase, con el objeto de que tal frecuencia no impresione por
lo amplio de la categoría que representa, si no por lo que ella deba contener, en relación a la
magnitud de las restantes clases consideradas.
polígono de frecuencias: poligonal formada sobre el histograma, que une las alturas de los puntos medios de
las clases.
ojiva: poligonal, formada sobre el gráfico de ejes cartesianos, en cuyas abscisas se ubican las clases y
ordenadas las frecuencias relativas acumuladas; uniendo las alturas de los puntos medios de
las clases.
correlación: ejes cartesianos donde se marcan las observaciones (al menos bi-dimensionales).
línea: ejes cartesianos donde se marcan las observaciones y se unen según su orden de aparición.
20
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
D T frec.
BARRAS BARRAS
SIMPLES AGRUPADAS
I O frec.
S D (1)
(3)
C A
R S
E X1 X2 X3 X4
T
SECTORIAL
BARRAS
A x2 SUBDIVIDIDAS
frec.
(2) 100%
x1 (4)
x3 80%
60%
x4
40%
20%
0%
HISTOGRAMA
C I frec.
Y
ajustada
N (7)
O T (5)
xx
xx xx
E xx xx
xx xx xx xx
N R xx xx xx xx
xx
xx xx xx
V xx
T A xx
x X
L
I O
S POLIGONO LINEA
N frec.
DE FREC. (8)
O
x
U (6)
R
A A
Z
O t
N x
21
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo1.5
Observación:
En datos con una distribución más homogénea, como lo es para este caso, y=[g1 g2], bajo supuesto de
independencia; se aprecia mejor la resultante en estos gráficos para comparación ( barras agrupadas y/o
subdivididas):
Script:
y = [0.3875 0.1292; 0.1875 0.0625; 0.1750 0.0583 ];bar(y); bar(y,'stacked')
1.4.- Estadísticas
Podemos clasificar las estadísticas en grupos de acuerdo a nuestro interés por qué tipo cualidad nos
interese medir a partir de las observaciones. Por ello es que en la literatura el lector podrá encontrarlas
también con el nombre de medidas. Esta clasificación comprende los siguientes tipos:
estadísticas de posición o de tendencia central: proporcionan un valor, asociado o de entre el
rango de valores de la variable en estudio en torno al cual de algún modo se aglutinan las
observaciones.
estadísticas de dispersión o variabilidad: originan un valor que nos indica en cierta forma cuán
aglutinadas están las observaciones respecto de una particular estadística de posición
estadísticas de forma: proporcionan valores que permiten caracterizar la forma del histograma:
estadísticas de simetría: evalúan bajo cierto criterio hacia que sector del histograma se encuentra la
mayor parte de las observaciones
estadísticas de curtosis o achatamiento: otorgan un valor que permite interpretar la curvatura del
histograma.
Estadísticas de asociación: proporcionan un valor que indica cuán ligadas se encuentran algunas
variables.
Moda M0 : es el valor de la categoría de mayor recuento. En variables continuas, donde se presentan los
extremos relativos del polígono de frecuencias ( o de su idealización), se consideran
también como asociados a modas diferentes.
Estadística de orden X : valor de la observación, que ocupa el lugar
i
i-ésimo, luego de ordenar las
Rango (R(Xi)): lugar que ocupa la observación Xi, una vez que las observaciones han sido ordenadas de
menor a mayor. En caso de empates es el promedio de tales ubicaciones.
23
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
X (( n 1) / 2) , si n es impar
Me 1
X (n / 2) X n / 2+1 , si n es par
2
n
N j 1
n
P x j 1 a j 100 , j = min i / N i .
nj 100
(Expresión que se obtiene al considerar un polígono de frecuencias sobre el gráfico de ejes
cartesianos en cuyas abscisas se ubican las clases y ordenadas las frecuencias absolutas).
Media M X X : es la media aritmética de las observaciones,
1 n k
X x1 ... x n /n x i x ifi
n i 1 i 1
Media Geométrica: Mg= 𝑛√∏𝑛𝑖=1 𝑥𝑖 , apropiada para datos de progresión geométrica o con tasa de interés
compuesto, promediar razones, números índices, entre otros casos; log X log Mg
−1 −1
̅̅̅̅̅
1 𝑛
Media Armónica:𝐻 = (𝑋) = ( 1)
∑𝑛
𝑖=1 𝑥𝑖
Media Winzorisada: También, con el objeto de lograr un promedio menos inestable (robusto), se define como
media winzorisada, al promedio de las observaciones, luego de reemplazar ambas colas
en un porcentaje de las observaciones por sus nuevos valores extremos.
24
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
-Estadísticas de orden:
orden obs. n° Estadística de Orden para x5
1.0000 17.0000 51.4000
2.0000 20.0000 54.9000
3.0000 58.0000 55.3000
4.0000 12.0000 57.4000
5.0000 39.0000 57.6000
6.0000 29.0000 58.0000
7.0000 3.0000 58.2000
-Rangos:
obs. n° valor Rango
1.0000 67.2000 16.0000
2.0000 79.6000 29.0000
3.0000 58.2000 7.0000
4.0000 83.5000 32.0000
5.0000 78.9000 28.0000
6.0000 65.5000 12.0000
7.0000 90.4000 50.000
-Mediana: 82.400
-Percentiles: por ejemplo deciles
58.1000 65.6500 70.1000 76.8000 82.4000 86.0000 88.0000 90.0000 92.5000 97.4000
-Medias:
Script:
prctile(x5,[10 20 30 40 50 60 70 80 90 100]);
A=sortrows([ item x5 ],2); disp(' orden obs. n° Estadística de Orden para x5'); disp([item A]);
B=[A ,[1:60]']; n=60
disp('obs. n° valor Rango');% también directamente mediante tiedrank(x5)
for k=1:7;
for h=1:n;
if B(h,2)== x5(k)
rango(h)=B(h,3);
disp([k x5(k) rango(h)]);
end
end
end
yy=[x5 x6 x7]; mean(yy);% medias de las componentes de yy
mean(yy); grpstats(yy,T.Jornada); % medias según valores de x1
t10x5=trimmean(x5,10); t20x5=trimmean(x5,20); t40x5=trimmean(x5,40); t50x5=trimmean(x5,50)
mediastruncadas=[t10x5 t20x5 t40x5 t50x5]
disp (' Medias Truncada para Performance RNA ')
disp(' 10% 20% 40% 50% de la muestra')
disp(' 5% 10% 20% 25% de cada extremo de la muestra')
disp(mediastruncadas)
25
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Amplitud intercuartílica (rango intercuartílico): Q3 Q1 es la amplitud del 50% central de los datos
n 2 k 2
Varianza muestral V X S2 :
2
S xi X / n
: X X
2
xi X fi
i 1 i 1
Se dice desviación típica (o standard) al valor S, y también se anotará SX al referirnos a la
desviación típica de la variable X de entre otras variables en estudio.
n 2
n 2
Varianza muestral insesgada s2 :
s2 xi X / n 1
i 1
Coeficiente de variación C. V. ( X) : C.V.(X)= S/ X , (es muy útil para comparar variabilidad entre dos
muestras). Aquella muestra que presenta el menor valor de C.V., se dice; que es la más
homogénea, y en caso contrario heterogénea.
Script:
CVx5=(std(x5))/mean(x5)
disp(' Varianza Desv. Coef.de Rango')
disp(' estandard variac. Intercuartílico')
disp([var(x5) std(x5) CVx5 prctile(x5,75)- prctile(x5,25)])
boxplot(x5)
En el caso bidimensional, se habla de estadísticas marginales, a las realizadas con las frecuencias
marginales, que corresponden a estudiar una variable ignorando la presencia de la otra. En el caso de
considerar los valores a que está sujeta la otra variable, tales estadísticas deben realizarse con las pertinentes
frecuencias condicionales. Así entonces se contempla:
26
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
1
media aritmética de X sujeta a que y B j : M X y B j : M X B j xi fi j
i 1
c
media aritmética de Y sujeta a que x Ai : M Y x Ai : M Y Ai y jf ji
j1
2
1
varianza muestral de X sujeta a que y B j : V X y B j : V X B j = xi M X| B j fi| j
i 1
c
varianza muestral de Y sujeta a que x Ai : V Y| x Ai : V Y| Ai = y j M Y|Ai f j|i
2
j 1
Estas definiciones permiten explicar la varianza de una variable a través de la siguiente expresión que es
denominada, descomposición de la varianza, que consiste en exponer los aportes en la varianza de una
variable, en términos de variabilidad de y entre los grupos o estratos que la componen, al considerar una
clasificación que es dada por otra variable. Así la descomposición de una variable X en términos de los grupos
originados por su restricción, dada por los valores de Y, queda como:
V X M V X| B j V M X| B j , donde
Como podremos apreciar, estas estadísticas están en términos de: transformaciones de estadísticas de
respecto de la media.
4
a XX / S 4 3, que de acuerdo a si es:
27
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo1.8
Perf.RNA Perf.PCA Diferencia
asimetría -0.5116 -0.2327 0.0317
curtosis -0.9715 -0.8618 -0.8606
Script:
disp(' Perf.RNA Perf.PCA Diferencia'); as=skewness(X2);a= kurtosis(X2)-3; disp(as);disp(a)
Según la escala de medición a que correspondan las variables a analizar, se han definido estadísticas para los
particulares objetivos e interpretaciones que se pretenda detectar. Por tal motivo se distinguen entre las
diversas alternativas, algunas como las siguientes, que se exponen para el caso de analizar una muestra bi-
variada formada por n observaciones: (X1,Y1),........,(Xn,Yn ).
Estadística de Pearson ( r ): Para cuantificar la ligazón entre dos variables cuantitativas, se puede
considerar un valor como, la covarianza, denotado y definido mediante:
n 1 c
cov X, Y
xi X yi Y / n
xi X y j Y fij ,
i 1 i 1 j 1
que será, un valor grande, si a medida que los datos se alejan de la media en una de las variables la otra
también lo hace respecto de su propia media.
Ahora para responder la pregunta obvia, ¿cuando tal valor es grande?, debemos recurrir a algo no obvio pero
natural para acotar una expresión de suma de productos, conocido como desigualdad de Cauchy-Schwartz:
n n n
ai bi 2 ai 2 bi 2 , ai , bi números reales.
i 1 i 1 i 1
Considerando ai X i X , bi Yi Y , al aplicar directamente ésta desigualdad, logramos :
cov 2 (X,Y) V(X) V(Y), lo que es equivalente a - Sx Sy cov(X,Y) Sx Sy , con lo que damos
respuesta a la interrogante aquí planteada.
Así obtenemos una medición más clara que la dada sólo por la covarianza, pues valores próximos a -1 o 1
nos indican un alto grado de ligazón (lineal), y la interpretación de valores próximos a cero ha de entenderse
como de no ligazón (lineal) entre las variables.
Se debe tener presente, que toda afirmación, referente al comportamiento de los datos observados (de una o
más variables), para generalizarse al comportamiento de la población en estudio; debe contemplar un análisis,
enmarcado en lo que nos referiremos formalmente más adelante como inferencia.
28
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Estadística de Kendall (): diseñada para el caso ordinal y se basa en estudiar los registros de las variables
comprometidas para cada observación y contabilizar sus concordancias y discrepancias con las restantes
observaciones, en el siguiente sentido:
concordancias ( observaciones con la misma relación de orden estricto entre sus respectivas componentes), y
discordancias (observaciones que poseen una relación de orden inverso estricto entre sus respectivas
componentes).
Excluyendo empates (coincidencias entre componentes), se origina la estadística (coeficiente de correlación)
de Kendall:
= (Nc-Nd)/(n(n-1)/2)
donde Nc, Nd denotan el número de pares de observaciones concordantes y discordantes, respectivamente.
n
Como = n(n-1)/2, es el total de concordancias, discordancias y empates en la muestra, entonces
2
-1 1 .
Estadística de Spearman (): apropiada para el caso ordinal, es una aplicación de la estadística de Pearson
a la muestra conformada por los rangos de ambas características registradas en cada variable:
entonces =
( R( X
i 1
i ) R ( X ))( R (Yi ) R (Y ))
,
n n
( R( X
i 1
i ) R ( X )) 2 ( R (Yi ) R (Y )) 2
i 1
n
que en ausencia de empates = R( X i ) (n 1) / 2R(Yi ) (n 1) / 2 / n(n 2 1) / 12 ; caso en el
i 1
n
=1-6T/(n(n2-1)), donde T= R( X i ) R(Yi ) .
2
cual, esta expresión, también se reduce a:
i 1
De esta manera, cuando || =1 o 0, respectivamente; nos revela, si en las observaciones, existe o no una
asociación lineal exacta entre los rangos de ambas características en estudio. Claramente se aprecia de la
expresión estructurada para ausencia de empates (cuando las observaciones en cada característica no
representan repetición), que el valor =1, es sinónimo de que los respectivos rangos en cada observación son
coincidentes R( X i ) R(Yi ), i 1,..., n .
Estadística Chi-cuadrado ( ): definida para el caso nominal; permite detectar cuán próximas están las
2
frecuencias relativas: observadas (Oi), de las propuestas , esperadas o teóricas (E i), mediante:
(Oi Ei ) 2
k
2
, donde k es el número de clases o grupos distintos a considerar.
i 1 Ei
La cual, se aplica para identificar modelos de comportamiento plausible de una variable cualitativa, detectar
independencia, o casos muy particulares de asociación que se presuma entre variables.
29
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo1.9
La asociación entre :
- Jornada y Clima: para detectar si estas son características independientes, se evalúa retomando el Script del
ejemplo 1.4 o bién directamente de lo ya obtenido, lográndose para estas 60 observaciones:
Oij Eij
31 0 23.16 7.7502
0 15 11.25 3.75
14 0 10.5 3.5
de donde calculamos la estadística Chi-cuadrado=58.9279, valor enorme, lo que indica un alejamiento
sustantivo respecto a una conducta independiente, por ende sugiere que deben estar muy asociadas ambas
situaciones. Sobre lo cual es posible ser más categórico según veremos más adelante en Ejemplo6.7.
Script:
O=[31 0;0 15;10 0]; Edivn=[0.386 0.12917; 0.1875 0.0625; 0.175 0.058333]
E=n*Edivn; chicuadrado=sum(sum(((O-E).^2)./E))
corr(x5,x6)
[RHOspearman,PVAL] = corr(x5,x6,'Type','Spearman');[RHOkendall,PVAL] = corr(x5,x6,'Type','Kendall');
[RHOpearson,PVAL] = corr(x5,x6,'Type','Pearson');disp(' Pearson Kendall Spearman');
disp( [RHOpearson RHOkendall RHOspearman])
30
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
31
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
CAPITULO II
ESPACIO DE PROBABILIDAD
Las nociones básicas en la teoría de probabilidad son sucesos y probabilidad, donde la probabilidad
tiene el sentido de intentar un orden de estos sucesos según formalizaremos más adelante.
Los fenómenos a estudiar en esta sección son aquellos del tipo no determinístico (aleatorio o
estocástico), de los cuales sólo se conocen los resultados factibles antes de su realización, pero
no cual será su resultado antes de que este ocurra.
Consideraremos a seguir que las ordenaciones de probabilidad para sucesos, sugeridas, están dadas por
funciones real valoradas que verifican ciertas características y a las que llamaremos funciones de
probabilidad o bien medidas de probabilidad, las propiedades de dichas ordenaciones se han de
desprender de las operaciones y relaciones a definir entre sucesos.
Si identificamos como E a un particular experimento aleatorio, y por M a aquel conjunto constituido por
todos los resultados posibles de E; podemos entender como espacio muestral a un conjunto originado por
alguna agrupación de los componentes de M.
Definición
Diremos que es un espacio muestral asociado al experimento E sii
existe una aplicación epiyectiva f : M , m f (m) w ;
así w es el elemento de asociado al resultado m del experimento E.
De esta manera el propio M es un espacio muestral y naturalmente el más detallado. Razón por lo que en la
literatura (como la que aquí se presenta) orientada a las aplicaciones se identifica como el espacio muestral
asociado al experimento al propio M, dejándose el uso de aquella función epiyectiva diferente de la
identidad para análisis más formales.
Ejemplo2.1
Consideremos el experimento E que consiste en:
1) Lanzar al aire en forma aleatoria una moneda 2 veces y observar la cara superior una vez que ha caído, así
entonces nuestro conjunto de resultados posibles debe constar de dos componentes que se identifiquen
con cada moneda; M={(cara,sello),(sello,cara),(sello,sello),(cara,cara)} y disponemos entre otros de los
siguientes espacios muestrales:
= {(c,s),(s,c),(s,s),(c,c)} , o
= {0,1,2} , si apreciamos el número de caras ocurridas.
33
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
2) Observar la vida útil de un particular articulo, entonces nuestro conjunto de resultados posibles debe
presentar el tiempo transcurrido hasta que falle y por lo tanto M= IR+ (a lo mas) igual al conjunto de los
números reales positivos, por lo cual podemos mencionar:
= IR+
={c,s} , si nos interesamos en saber si satisface o no cierta propiedad (como puede ser la norma
de calidad exigida)
Nos referiremos a los subconjuntos del espacio muestral asociado al experimento E, como sucesos. Aquellos
sucesos formados por un sólo elemento se dirán elementales.
La ocurrencia o no de un particular suceso estará determinada entonces por la pertenencia a del particular
resultado de este experimento, en los términos que a continuación definimos.
Definición
Sean: w un particular resultado del experimento, A un suceso, diremos que:
A ocurre wA
De esta manera al considerar un suceso A en un espacio muestral ; A no ocurre w A
c c
(e.d. A ocurre w A w A ), razón por la que nos referiremos al suceso A como el suceso
contrario de A.
Al igual que los conjuntos, los sucesos pueden ser definidos por proposiciones en términos de verdadero o
falso, asociadas a ocurre o no ocurre respectivamente. Apreciaremos a continuación algunas propiedades
referentes a sucesos, emanadas de definir sus operaciones, de forma análoga que para conjuntos.
Propiedades
34
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
c) Sea {Ai iIN}, definiendo: lim sup Ai = i , lim inf Ai = i ; entonces,
k 1 ik k 1 ik
lim sup Ai ocurre i ocurre k, kIN
ik
ocurren infinitos Ai
lim inf Ai ocurre i ocurre para al menos un k IN
i k
ocurren todos los Ai , excepto un número finito.
En estos términos podemos decir que, todas las propiedades del álgebra de conjuntos se verifican para el
álgebra de sucesos, modificándose sólo la forma de expresarlo. Por ejemplo en la teoría de conjuntos una
de las leyes de Morgan se presenta como:
c
A A c , en nuestros términos nos expone que el decir "no ocurre al menos uno de los sucesos"
iI i i I
i
Definición
Definición
Sea espacio muestral , A2 es un -álgebra (de conjuntos de ) siempre y cuando satisfaga las siguientes
tres condiciones:
i) A
ii) A A Ac A
iii) An A, n, nIN An A
n IN
Además entenderemos por espacio medible, al par (,A), donde es el espacio muestral de interés y A una
-álgebra asociada.
Propiedades
Ahora nuestra inquietud es ver si es factible el disponer de una tal estructura además de las
triviales: A={,} y A =2.
35
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Definición
Sea = {intervalos en IR}, se define la -álgebra de Borel en IR, A ())=: , como la -álgebra más pequeña
que contiene a ( todos los intervalos en IR), y sus elementos se denominan borelianos.
Observación
Como no es el propósito de este curso el extenderse en estos elementos formales, de ahora en adelante, cada
vez que hablemos de -álgebra asociada a un espacio muestral nos referiremos a la -álgebra trivial A =2.
Nos corresponde ahora el exponer los conceptos conducentes a estructurar una cierta ordenación de los
sucesos en un determinado espacio muestral.
Definición
Se denomina medida de probabilidad (o simplemente probabilidad) sobre el espacio medible (,A ), a toda
aplicación P: A IR , AP(A) que satisfaga las siguientes condiciones:
i) P (A) 0, A A
ii) P ()= 1
iii) Si {An / An A, nIN} es una familia disjunta (toda intersección finita de elementos de esta familia
es vacía), entonces P( An ) =
n IN
P(An).
n IN
La terna (, A, P) formada por un espacio muestral, una -álgebra y una medida de probabilidad asociada se
denomina espacio de probabilidad. Recordando que sólo utilizaremos la -álgebra trivial, la podemos omitir
y reducirnos simplemente a escribir esto como (, P).
Notación
En atención, a la tercera propiedad de las medidas de probabilidad, podemos adoptar una muy cómoda
notación, cuando estemos en presencia de: {An / An A , nIN } una familia disjunta de sub-conjuntos de
(la que también es denominada familia de eventos mutuamente excluyentes), escribiremos
A n en lugar
de A n . Así, en particular para A,B conjuntos disjuntos anotaremos A+B en lugar de A B.
36
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Propiedades
Observación
Para un espacio de probabilidad (, P), tal que:
es finito, siendo n su cardinalidad (o número de elementos) que denotaremos =n, y
P(w)= p, w , ( es decir todos sus sucesos son equiprobables),
entonces:
1) p = 1/n,
#A k
2) A A; P(A)= , donde #A = k, es la cardinalidad (o número de elementos) de A,.
# n
Este resultado es el que habitualmente se conoce como: "la probabilidad de un suceso A"
(en espacios muestrales finitos) "es el número de casos favorables (#A) dividido por el número de casos
posibles (#)". Para lo cual sólo necesitamos saber contar. Lo cual en muchos casos no es tarea fácil, el
lector encontrará en Vilenkin (1976) un agradable texto que rápidamente dejará en evidencia lo que significa
esta tarea a través de anecdóticos casos. Los respectivos elementos de conteo se basan en dos axiomas:
adición y multiplicación, que dan origen a las permutaciones, combinaciones y arreglos que se encuentran en
una vasta bibliografía.
Ejemplo2.2
1) (Los cumpleaños)
Para un curso de 20 alumnos, determine la probabilidad de que al menos 2 alumnos de este
curso coincidan en el día de su cumpleaños.
Solución
E: es el experimento que consiste en anotar el día de cumpleaños de cada uno de los 20 alumnos.
Como es habitual en tales conmemoraciones no consideraremos años bisiestos, quedando entonces en
nuestro espacio muestral el registro de las eventuales observaciones, de la siguiente manera:
={ x1 ,......, x20 / xi 1,....,365 , i=1,..., 20}
x i : es el día del año en que el alumno i esta de cumpleaños
A: el suceso (de interés) que indica coincidencia de al menos 2 personas en el día de su cumpleaños,
entonces
c
A : indica que no hay coincidencia alguna en el día de cumpleaños en un tal grupo.
# = (365)20 , # = 365 364
c
346,
c
#
P(A) = 1 - P( ) = 1-
c
= 1 - 0.5886 = 0.4114
#
37
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Como curiosidad podemos apreciar que para distinto número de alumnos ( distintos experimentos) se
tienen los siguientes valores de probabilidad:
Experimento 1 2 3 4 5 6 7 8 9 10 11
n 5 10 15 20 22 23 25 30 40 50 60
P(A) .027 .117 .253 .411 .476 .507 .567 .706 .891 .97 .994
Script:
x=[5 10 15 20 22 23 25 30 40 50 60]
y=[.027 .117 .253 .411 .476 .507 .567 .706 .891 .97 .994]
plot(x,y, 'r--o')
2) (Los pedidos)
A petición de una empresa faenadora, desde n de entre M granjas se envía un número determinado de
pollos para su procesamiento. Admitiendo que los pedidos pueden ser surtidos sin inconveniente por
cualquiera de las granjas, estos se realizan indistintamente a cada granja sin preferencia u ordenamiento
alguno (al azar). Determine la probabilidad de que una granja deba satisfacer exactamente k pedidos.
Solución
M: números de granjas, n: número de pedidos
E: consiste en realizar n pedidos a M granjas
= {(x1,......,xn ) / xi {1,....,M},i=1....,n}
x i : pedido i-ésimo.
A : el suceso que nos indica que k de los n pedidos se solicitan a una sola granja.
# = Mn
#A= número de maneras de realizar k pedidos entre n a una particular granja y los restantes a las demás
=(número de formas de realizar k pedidos de entre n) multiplicado por el (número de maneras de
requerir n-k pedidos a M-1 granjas)
n
= (M-1)n-k
k
nk
n n n 1
k
1
P(A) = (M-1)n-k / Mn = (M-1)n (M-1)-k/Mn = 1
k k k M M
Resultado de particular comportamiento para distintos valores de n; lo cual ilustramos para m=2 y
retomaremos en el capítulo3
Script:
k= 0:5; PA=binopdf(k,5,0.5); plot(k,PA,'bo'); k= 0:10;PA1=binopdf(k,10,0.5); plot(k,PA1,'bo')
k= 0:30;PA2=binopdf(k,30,0.5); plot(k,PA2,'bo')
38
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
3) (Las coincidencias)
Al llegar a su oficina y mirar su escritorio la secretaria de un cierto ejecutivo observa que las cartas
listas para colocar en los respectivos sobres dirigidos a n empresarios que había dejado el día anterior no
estaban en su lugar y menos en el respectivo orden. Su autoritario jefe que la observa confundida le ordena
colocar los sobres, cerrarlos y enviar al correo de inmediato. Es entonces que ella decide colocar las cartas
en los sobres sin preocuparse de su correcto destinatario. Determine la probabilidad de que a lo menos una
carta haya sido colocada en el sobre correcto.
Solución
No tenemos más que suponer que lo que se produjo es un total desorden entre cartas y sobres, entonces la
introducción de cartas en sobres la secretaria la realizó totalmente al azar.
Siendo Ai el suceso la carta i es colocada en el sobre correcto tenemos que,
n
P(Ai ) = 1/n, i=,...,n , y lo que nos interesa es calcular la probabilidad de Ai, lo cual
i 1
requiere de: P(Ai Aj) = 1/(n(n-1)), i,j {1,....,n},ij
P(Ai Aj Ak) = 1/(n(n-1)(n-2)), i,j,k {1,....,n}, subíndices diferentes
n
n
1 1 1 1 n 1
A i .....
i 1 i n i n n 1 i j n n 1 n 2 n!
1 n 1 n 1 1 n 1
= n ....
n 2 n n 1 3 n n 1 n 2 n!
1 1 1 1 1 n 1
= 1- .... .
2! 3! 4 ! 5! n!
n
Además lím A i 1 e 1 es el valor de la probabilidad de haber enviado al menos un sobre al
n i 1
destinatario correcto, cuando tenemos una situación extrema de incontables (pero numerables) sobres.
Para poder estudiar cuán factible de ocurrir es un determinado suceso, sabiendo que otro
particular ha ocurrido (o se ha dado). Podemos situarnos en un nuevo espacio muestral como la restricción
del original al suceso dado y entonces definir la nueva función de probabilidad. Sin embargo para lograr una
relación coherente con el valor de la probabilidad del suceso ocurrido se opta por definir una nueva medida de
probabilidad a partir de la anterior en términos de la proporción de las veces que ocurren ambos sucesos
simultáneamente respecto de la ocurrencia del ya dado. Por esta razón es que de la siguiente manera se
presentan las ideas de esta nueva función de probabilidad.
Definición
Sean: (, A,P) un espacio de probabilidad, BA, tal que P(B)>0, entonces se define la función de probabilidad
condicional PB ( que también de acostumbra anotar P(.B)) como aquella aplicación dada por:
39
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
PB : A, IR, A PB (A) =: P(AB) = P (A B) / P(B), a la cual nos referiremos como probabilidad de A dado
B.
Efectivamente, la aplicación PB (A) = P (A B) / P(B), A A ; es una medida de probabilidad, por lo cual
(,A,PB ) se denomina espacio de probabilidad condicional (condicionado a B).
Definición
Sea (,A,P) un espacio de probabilidad. Diremos que los sucesos A,B A son independientes sii:
P(A B) = P(A) P(B)
Observación
Sean (,A,P) espacio de probabilidad, A,B A tal que P(B)>0 entonces,
A,B independientes P(AB) = P(A).
En otras palabras, la independencia entre dos sucesos se refleja en que la probabilidad condicional de uno de
ellos dado el otro no depende de este; quedando entonces la probabilidad de que tal suceso condicionado
ocurra como la probabilidad sólo de su propia ocurrencia, sin que el suceso considerado como condición
intervenga.
A seguir presentamos la extensión del concepto de independencia al caso de considerar una sucesión de
sucesos.
Definición
Sean:(, A,P) espacio de probabilidad, I={n/nk, n,k,IN} familia de subíndices,
{Ai / Ai A, iI} familia de sucesos. Diremos que {Ai / Ai A, iI } son conjuntamente independientes sii:
Dado J I, P A i A i
iJ i
J
Por tal motivo, en una familia de n términos (finita) para afirmar dicha propiedad se deben efectuar, 2 n-(n+1),
verificaciones.
Observación
En una familia de sucesos, la independencia de a pares de todos los sucesos que la componen, no implica la
independencia conjunta de todos ellos.
Los sucesos A={w1, w4}, B={w2 , w4}, C= {w 3 , w 4 }, como se aprecia a continuación resultan ser
independientes de a pares pero no conjuntamente independientes:
P(A) = P(B) = P(C) = 1/4 + 1/4 = 1/2, entonces P(A)P(B) = P(A)P(C) = P(B)P(C) =1/4 ,
P(A) P(B) P(C) = (1/2)3 =1/8 .
40
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo2.3
Solución
Efectivamente puesto que:
= {1,2,3,4,5,6} , A = {2,4,6}, y B = {1,2,3,4}
=6, #A=3, #B=4, entonces P(A)=3/6, P(B)=4/6, con lo cual se concluye que:
34 12 1 2
P(A) P(B) = .
66 23 3 6
2) (El control de calidad)
Supongamos que una maquina produce un artículo defectuoso con probabilidad p (e.d. un 100p% de su
producción es defectuosa). Para su control se seleccionan al azar 6 artículos producidos por esta
máquina. Determine la probabilidad de que resulten:
i) los 6 artículos defectuosos
ii) al menos uno defectuoso
iii) dos de los seis artículos defectuosos
Solución
En este caso podemos considerar:
= {0,1,2,3,4,5,6} o bien al propio conjunto M aludido en 2.1, que en este caso esta dado por :
{{xi /xi {defectuoso, no defectuoso}, i=1,..,6}}.
Identificando sucesos como a continuación se indica:
Di : el artículo i-ésimo seleccionado resulta defectuoso
Ni : " " " " " no defectuoso,
siendo la selección completamente al azar, se está admitiendo la independencia de resultados, y denotando
q=1-p tenemos que :
D i D 1 p 6
6
6
i) P(D1 D2 D3 D4 D5 D6 ) =
i 1
6 6
c
ii) Sea B = D i entonces Bc = Di indica que todos los artículos son no defectuosos, por lo tanto:
i 1 i 1
P(B) = 1-P(Bc ) = 1-q6
iv) P (D1 D2 N3 N4 N5 N6 ) = P(D1 )P(N2 )P(N3 )P(D4 )P(N5 )P(N6 ) = p2q4 , y sabiendo que
6
de maneras pueden presentarse dos defectuosos entre seis, se concluye que:
2
6 2 4
P(dos de los seis artículos son defectuosos) = pq
2
41
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
p qn-1 pues las primeras n-1 personas no están a su favor y en la n-ésima entrevista se alcanza el k-ésimo
éxito (en este caso k=1) .
Además el lector puede verificar fácilmente que:
n 1 k n k
a) p q , es la probabilidad de requerir n encuestados para completar k adeptos por tal
k 1
candidato, n∈ {𝑘, 𝑘 + 1, 𝑘 + 2, … … . }
b) en el caso de universo electoral no acotado:
con probabilidad aproximadamente uno (certeza) se tiene al menos un votante a favor, ed. con seguridad
no todos lo descartan (claro es seguro que "alguien" vota por el).
Script:
p=1/2; k=1; x=0:10; f1=nbinpdf(x,k,0.5); plot(x,f1,'o');
4) (El coleccionista)
No hay quién en algún período de su infancia no haya coleccionado estampillas para intentar
(muchas veces sin éxito) completar los r espacios de un determinado álbum de figuras.
Admitiendo el hecho no muy cierto que la empresa editora emite todas las estampillas del álbum en
igual cantidad y las empaca totalmente al azar en pequeños sobres. Determine la probabilidad de que al
comprar una cantidad de sobres equivalentes a n (nr) estampillas, todavía no completemos el álbum.
Solución
Con tales supuestos se indica la independencia conjunta de los sucesos:
Ai :el suceso la estampa i no aparece entre las n compradas, i=1,....,r
r
entonces nos interesa obtener la probabilidad de que ocurra: A i que nos indica falta al menos un espacio
i 1
por llenar en el álbum.
P(Ai) = (1-(1/r))n = ((r-1)/r)n
P(Ai Aj Ah ) = ((r-3)/r)n……………………………
P
r 1 A = ((r-(r-1))/r)n , y r
P Ai = 0
i 1 i i 1
42
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
r r
i r 1/r r 2 /r r 3/r ... 1 r r 1/r
n n n r 1 n
i 1 i i j
r r r 1 r
= r r - 1/r r 2 /r r 3/r ... 1 r r 1/r n
n n n
2 3 r 1
Se deja al lector el analizar como cambia esta probabilidad en función de los valores de r y n.
A continuación presentamos las tres propiedades más útiles en las aplicaciones de esta medida de
probabilidad condicional. Se conocen habitualmente como teoremas de la probabilidad: producto, total y
Bayes, respectivamente.
Propiedades
n 1 A > 0 entonces, n A A A i A j
i 1
n
1) Sean Ai A, iI tal que P
i 1 i i 1 i 1
i2 j 1
2) Sea {Ei A / iI} una participación de (entonces P(Ei )=1), tal que, P(Ei )>0, iI entonces,
2.2) Dado jI; P(Ej A) =P(Ej ) P(A Ej ) /{ P(Ei) P(A Ej)}, que es consecuencia inmediata de 2.1 .
i I
Ejemplo2.4
1) (La fiesta de 15 años)
Habitualmente una celebración se inicia con pocos invitados que gradualmente llegan durante su
desarrollo.
Unos entusiastas menores de edad desean que la fiesta planeada para 20 jóvenes, en homenaje a
Paulina que hoy cumple 15 anos, ha comenzado y encontrándose la homenajeada, sus 2 hermanos, junto a
sus primeros invitados en llegar, su mejor amiga, un primo y tres amigos, se informan que nadie más sabe
de ésta fiesta.
Esperando que la fiesta en parte prospere y sin comunicación posible con quienes no se informaron,
recurren al inefable padre de Paulina para que recoja más amistades en su automóvil que tiene capacidad
para cinco ocupantes. Este intentando ordenar las peticiones de los miembros de la fiesta impone la
siguiente estrategia; realizará tres viajes, cada vez antes de salir, escogerá un joven al azar si es niño o
niña, saldrá sólo, y regresará con 4 niños o bien 4 niñas respectivamente.
Después de tanta incomodidad inicial, la fiesta logra tener el carácter de tal según lo planificado,
restándole al padre de Paulina el decir buenas noches y así cada invitada, siempre pudo con algún niño
compartir. Determinar la probabilidad p que tenía esto de ocurrir.
Solución
En resumen se pudieron formar 10 parejas ingresando grupos de a cuatro jóvenes a partir de un grupo de 8
jóvenes compuesto por dos niñas y 6 niños originado al seleccionar al azar un joven para que regresara al
grupo original junto con otros cuatro del mismo sexo, tantas veces como se requiriera hasta lograr 20
personas. Para tal efecto debieron llegar por este sistema 8 niñas y 4 niños.
Los sucesos que intervienen son:
43
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Mi : el padre de Paulina sale para recoger niñas en i-ésimo viaje, i=1,..,3; , y aquel que nos interesa es,
c
1
2 3 1 c2 3 1 2 c3 , compuesto por tres sucesos
mutuamente excluyentes y equiprobables; así
1 2 3c 1 2 1 3c 1 2
2 6 6 3 3 9
p=3
8 12 16 64 64 64
2) (Las propuestas)
Una empresa consultora de proyectos en ingeniería en obras civiles, estudia la presentación a
diversas propuestas según la capacidad de sus equipos de trabajo reunidos como departamentos de: estudio
de suelos, cálculo de estructuras, e inspección de faenas.
Desde su puesta en marcha a la fecha esta consultora se ha adjudicado 130 propuestas de un total de
1500 en que ha participado (500 en cada instancia) según le compete, siendo adjudicadas:
50 de suelos,
40 de estructuras, de las cuales 10 también corresponden a estudios de suelos realizados por esta
empresa.
De las faenas adjudicadas 10 y 20 corresponden a estudios de estructuras y suelos respectivamente,
efectuados por la misma empresa.
La característica de la empresa es que por una u otra razón nunca gana un proyecto de inicio a fin
(propuestas de los 3 departamentos para proyectos en las distintas etapas de una misma obra, nunca se las
ha adjudicado).
a) Basándose en esta información, determine:
i) Si los departamentos de esta consultora ganan sus propuestas independientemente unos de otros?
ii) La probabilidad de que las propuestas se las adjudique solamente un solo departamento.
iii) La probabilidad de que la consultora gane la propuesta de realizar inspección de una faena, habiendo
perdido las de suelo y estructuras de la misma.
b) Toda propuesta se caracteriza por el adecuado manejo del presupuesto que ella misma propuso para su
adjudicación. Si a la información anterior agregamos que la mencionada consultora tiene serias
dificultades para lograr financiarse con el presupuesto de estructuras, suelos y la faena misma en un 78,
95, y 85 por ciento de los proyectos respectivamente adjudicados, determine:
i) La probabilidad de que una propuesta adjudicada a esta empresa no se encuentre en serias dificultades
para lograr financiarse.
ii) Sabiendo la gerencia de esta consultora el rumor interno de la empresa, que una propuesta ya por ellos
adjudicada esta teniendo serias dificultades para lograr financiarse; de inmediato es llamado el director
del departamento de suelos a presentar su balance. Cuál es la probabilidad de que la gerencia se
equivoque?
Solución
a) Esta empresa ha participado en 500 propuestas en tres ocasiones diferentes.
Identificando por G, S, E, F a los sucesos: gana propuesta, gana propuesta en suelos, estructuras y
faenas respectivamente, tenemos que:
xi / xi xi1 , xi 2 , xi 3 , xi1 S , S c , xi 2 E , E c , xi 2 F , F c , i 1,....,500
propuestas suelos estructuras faenas total
ganadas 50 40 40 130
perdidas 450 460 460 1370
P(S)=50/500, P(E) = 40/500 = P(F) P(G) = 130/1500
i) #(S E) = 10 de entre 500 P(S E) = 10/500 = .02
P(S) P(E) = (50/500) (40/500) = 4/500 = .008 .02
44
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
S E
20 10
20
c c
# S E F 20 # S E F
c c
# S F 10
20 10 c
E c
10 en consecuencia,
9 F
S Ec Fc Sc E Fc Sc Ec F 20 20 10/500 0.1
iii) F S c E c F S c E c / S c E c
= 10 / 500 / 1 S E
= 10 / 500 / 1 80 / 500 1 / 42.
b) = {y-propuesta adjudicada / y {se financia, no se financia} entonces # = 130
Admitamos que se identifican por S', E', F' los sucesos: la propuesta seleccionada de entre las
adjudicadas es de suelos estructuras y faenas respectivamente, y
D: el suceso , propuesta adjudicada tiene serios problemas de financiamiento.
Por lo tanto #Sc = 50, #Ec =40=#Fc, en consecuencia P(Sc) = 50/130 = 0.38, P(Ec) = P(Fc) = 40/130 =0.307
i) P(D)= P(Sc)P(DSc) + P(Ec)P(DEc) + P(Fc)P(DFc)
= 0.38 0.95 + 0.307 (0.78 + 0.85)
= 0.86141
P(Dc ) = 1- 0.86141 = 13859
ii) P(ScD) = P(Sc) P(DSc) / P(D)
= 0.38 0.95 / 0.86141
= 0.419
P(Sc D) = 1 - 0.419 = 0.58, es la probabilidad de que la gerencia se equivoque, y por su valor se
aprecia que es con la que con mayor certeza comete error, pero analizando bien estos resultados se
observa que la gerencia usó su buen juicio respaldada por estos valores.
45
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
CAPITULOIII
TRANSFORMACIONES ALEATORIAS
Dado un espacio de probabilidad ,2
, P , el objetivo de esta sección, es reducir el espacio muestral
asociado al experimento en estudio, a otro, donde muy explícitamente se reflejen las características
de interés en términos de números reales y proceder en tales condiciones a analizar su comportamiento.
Definición
P
X 1 A [0,1
PX
X
AIR
IR
IR
donde PX , la (medida de) probabilidad asociada a la v.a.X, se construye de la siguiente manera:
PX A PX 1 A Pw / X w A : P X A
Nota
47
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
A PX A
a, b P(a < X < b)
a, b P(a X < b)
]a,b] P(a < X b)
a, b P(a X b)
x, P(X x)
, x P(X x) = F x se llama función de
(distribución) de probabilidad.
Ejemplo3.1
Consideremos un juego, basado en el experimento de lanzar una moneda totalmente al azar; en el cual
para poder participar en cada apuesta se debe pagar $3000 (por el derecho a juego); donde el premio (para
cada apostador) es $1000 ( o premio de consuelo) si el resultado es {1,2}, $3000 ( no pierde) si el
resultado es {3,4} y $6000 ( recupera el doble de lo invertido) si el resultado es 6. En cualquier otro caso,
el apostador pierde lo pagado para poder participar. Entonces:
- 2000 , w 1,2
0 w 3,4
,
X ( w)
3000 , w6
3000 , o.c.
Script:
x=[-3500 -3000 -2000 0 3000 3500];y=[0 1/6 1/3 1/3 1/6 0 ];plot(x,y,'.');%con retoques en salida del editor de gráficos
Lo cual podríamos promediar, respecto a los pesos o ponderaciones dadas por estas probabilidades,
resultando:
-2000 *1/3 +0*1/3+ (-3000)*1/6 + 3000*1/6=(-4000+3000)/6 = -1000/6 =- 167, lo que indicaría que la
expectativa por apuesta para el jugador, es lograr una pérdida de $167, que as u vez , es la ganancia para
el dueño del juego. Se deja al lector el diseño de premios para la mejor ganancia.
Para este caso, al dar forma a una función (de distribución) de probabilidad, con las probabilidades
acumuladas hasta X=x, nos referimos a F(x)=P(X x), x IR;
debemos considerar IR en los sgtes. términos:
0 x 3000
1 / 6 3000 x 2000
F ( x ) 1 / 2, 2000 x 0
5 / 6, 0 x 3000
1, x 3000
Script:
t=linspace(-4000,4000,100)
f=(t<-3000).*(0)+((t>=-3000)&(t<-2000)).*(1/6)+((t>=-2000)&(t<0)).*(1/2)+((t>=0)&(t<3000)).*(5/6)+(t>=3000).*(1)
plot(t,f,'bo')
Pero, disponiendo de una forma de construir de manera arbitraria este tipo de funciones, podríamos
disponer de modelos para una diversidad de problemas que en forma directa, permitiría interpretar y
evaluar resultados de variables aleatorias. Situación que abordamos en la sección de a continuación.
Como información previa, debemos tener presente el siguiente concepto y notación de cálculo
infinitesimal:
Notación
F(a-)= lím F (x) = lím F (a h) , límite por la izquierda de F en el punto a
x a h 0
Definición
Existe un vínculo directo entre las funciones de distribución y la medidas de probabilidad que se
puedan construir para una v.a. X.; el que está dado de la siguiente manera:
dada una medida de probabilidad P de una v.a. X, entonces F x = P(X x) es función de
distribución y se conoce como la función de distribución de la v.a.X.
dada una función de distribución F en IR, entonces definiendo una aplicación P1 sobre los
49
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
P ,b F b
P1 (]a,b])= F(b)-F(a) 1
Ejemplo3.2:
Consideremos un experimento aleatorio, sobre el cual actúa una variable aleatoria, donde el gráfico de
su distribución F adopta la siguiente forma:
Script:
t=linspace(-8,8,1000);
f=(t<=-4).*(0)+((t>=-4)&(t<-2)).*(0.3*unifcdf(t,-4,-2))+((t>=-2)&(t<0)).*(0.5)+(t>=0).*(normcdf(t,0,1)); plot(t,f,'.')
Como se aprecia, F cumple con la definición de distribución, además presenta una forma creciente, F(x)
=0 si x<-4, discontinua en x=-2, pero donde debe ser contínua por la derecha, no diferenciable en x=-4,
y x=0, asíntota Y=1:
Debido a que esta función tiene solo un punto de discontinuidad, en x=-2, este el único punto con
probabilidad distinta de cero y su valor es la magnitud del salto de dicha discontinuidad:
P(X=-2)=F(-2)-F(-2-)=0.5-0.2=0.3
P (Xϵ[-5,-3])=P(-5≤ X ≤-3 )=F(-3)-F(-5-)= F(-3)=0.15. Todo otro cálculo se rige por las reglas
recién descritas.
50
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Disponer de algún método para construir funciones de distribución es de real importancia, pues cada
una identifica la ley de comportamiento de un particular fenómeno en estudio.
Efectivamente hay al menos "dos maneras" de lograrlo; mediante funciones de cuantía o de densidad
de probabilidad, también denominadas de densidad discreta o contínua respectivamente.
Definición
Se dice que una función f : D IR. IR., tal que f x 0, x D, f x 0x D c , es:
- cuantía ssi D es numerable, y f x 1
x D
Ahora, exponemos el nexo entre estas funciones de cuantía o densidad con las funciones de
distribución, también llamado método de construcción de distribuciones:
f t , si f es cuantía
F x : dF t
x
tx
dF x
Así, cuando f es densidad si f x .
dx
Lo que motiva el simbolizar por dF a la suma o integral antes señalada, y dF por f, para f cuantía o
densidad.
Este método, conduce a diferentes tipos de distribuciones y por lo tanto de variables de acuerdo a si se
utiliza una función de cuantía o bien una de densidad:
v.a. discreta
f cuantía
X F
f densidad
v. a. contínua
51
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
e.d. Si X es una v.a. cuya función de distribución proviene de una función de cuantía o densidad,
diremos que tal variable es discreta o continua respectivamente. De esta definición se desprende que, la
probabilidad que una v.a.X discreta o continua con distribución F, asuma valores en A IR , se obtiene
mediante:
P X A dF .
A
Las distribuciones aquí aludidas se conocen como regulares, las cuales tienen forma de escalera si
proceden de una función de cuantía ( como el ejemplo 3.1), o curva continua creciente si procede de una
función de densidad. Sin embargo existen también otras denominadas singulares o mezclas entre estos
dos tipos de funciones de cuantía y densidad, dando origen al tipo de distribución ( bastante genérica por
cierto), como la presentada en el ejemplo3.2.
Ejemplo 3.3
𝛼𝑒 −𝛼𝑥 , 𝑥 > 0
𝑓1 (𝑥) = {
0, 0. 𝑐
y un 75% de las veces a modo fast, con velocidad servicio, que se comporta según una densidad
0.25 α
0.75 5α
De esta manera, el tiempo de servicio en este punto del sistema, es una v.a.X con densidad ( el lector
puede verificar directamente este hecho):
1 3 𝛼 −𝛼𝑥 15 −5𝛼𝑥
𝑓 𝑥 = 𝑓1 𝑥 + 𝑓2 𝑥 = {4 𝑒
( ) ( ) ( ) + 𝛼𝑒
4
𝑥>0
4 4
0, 𝑜. 𝑐.
Queda en evidencia que una combinación lineal de densidades con peso acumulados unitario, es también
densidad y que no es extraño en casos prácticos.
52
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
2/3 , 0 x 1
f x x / 12 , 1 x 3
0
, o.c.
f x dx , x0
0 x
x
f x dx 0 f x dx , 0 x 1
F ( x) f x dx 0
1 x
f x dx f x dx f x dx
0 1
, 1 x 3
f x dx
, x3
para:
x x
x<0; f x dx = 0 dx 0
x x 1
f x dx = f x dx 3
2 2 2
0<x<1;
0 0
3
dx x ;
3 0
x x 2 3
x x
f x dx = f x dx 3
1
1<x<3;
1 0
12
dx
24
;
1
x x
x>3; f x dx = 0 dx 0
3 3
0 , x0 0 , x0
2 2
x , 0 x 1 x , 0 x 1
x
F ( x) f x dx
3
x 3 2
f x dx
2
, 1 x 3 2 x , 1 x 3
3 1 3 24
1 , x3 1 , x3
La probabilidad que esta v.a. X, tenga resultados en un conjunto A en IR, se obtendrá integrando la
densidad sobre A, o bien mediante las reglas entregadas en la presente sección para utilizar F.
53
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
3.1.2.- MODELOS
Se entiende por modelo (probabilístico) a la función de cuantía o de densidad que caracteriza a
la distribución del fenómeno en estudio, por tal motivo se habla de modelos discretos o contínuos
respectivamente, y se acostumbra identificar a la v.a. con su particular cuantía o densidad f más que
por su distribución F, lo que se abrevia Xf. Los sgtes. modelos son de uso habitual en aplicaciones.
3.1.2.1.- Discretos - Continuos
A continuación presentamos las v.a. más utilizadas en las aplicaciones, junto con sus
respectivos soportes.
a) DISCRETOS:
X ~ B(n,p) Binomial de parámetros n y p.
n
f x p x q n x , x 0,1,..., n, q 1 p,0 p 1 . Repetición de n ensayos de
x
detección de falla (Bernoulli o B(1,p)) con taza de falla p constante en cada ensayo o
experimentos similares al ejemplo de pedidos a una misma granja).
X ~ Bneg (k,p) Binomial Negativa de parámetros k y p.
x 1 k x k
f x p q , x k , k 1, k 2,..., q 1 p,0 p 1 . Repetición de ensayos
k 1
B(1,p) que se detiene al lograr por primera vez k fallas o experimento tipo encuesta de aceptación.
Cuando x 1
k 1, f x pq , x IN, q = 1 - p, también se denomina Pascal o
Geométrica.
X ~ Hipg(n1 ,n2 ) Hipergeométrica de parámetros n1 ,n2.
n1 n2 N
f x / , x max{0, n n2 },..., minn1 , n, max{0, n1 - n} n x n2 ,
x n x n
N n1 n2 . Sselección al azar y sin reemplazo, de n objetos desde dos grupos.
X ~ P() Poisson de parámetro
x
f x exp , x IN0
x!
(aprox. de Binomial cuando, p pequeño, np constante para n grande)
b) CONTINUOS:
X ~ Exp() exponencial de parámetro , f x exp x , x 0
. Tiempo de falla,
con velocidad de crecimiento proporcional al tiempo.
X~U([a,b]) uniforme en [a,b], f(x)=1/(b-a), x [a,b], (tiempo de fallas al azar en [a,b])
f x 2 2 1 / 2
exp ( x )2 /( 2 2 ) , x IR ,
x 1
X ~ , gamma de parámetros , , donde f x exp x / , x 0
donde x 1 e x dx, 1 1, n n 1 ! n IN.
0
1, Exp 1/ ; para n IN.: n, : n Erlang , ( n / 2,2) : 2 n, distribución
Chi-cuadrado con n grados de libertad
W , Weibull de parámetros , , f x x 1 exp
x , x 0
(tiempo de fallas asimétrico, unimodal)
54
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Para fines operativos en Anexo MATLAB (12) se encuentra un listado de este tipo de funciones (sigla),
distribución (siglacpf), densidad o cuantía ( sigladpf) según corresponda. En los sgtes. gráficos, se
representan los valores distintos de cero de las respectivas funciones de densidad f y distribución F
55
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
56
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Se observa, que la asimetría que presentan estos gráficos para las distintas f ( cuantías o densidades), es
uno de los principales aspectos que caracteriza a cada una de ellas y naturalmente a la v.a. asociada.
Otra importante propiedad de la función de cuantía Poisson es que da origen a la ley de comportamiento
de fenómenos muy utilizados en el análisis de lineas de espera que satisfagan las siguientes condiciones:
A un lugar llegan elementos (concurrentes) para ser atendidos (procesados, ensamblados, examinados,
informados,evaluados,...), ante un servidor establecido para tal propósito:
- el número de concurrentes en lapsos de tiempo consecutivos son sucesos independientes
- los sucesos número de concurrentes en un lapso de tiempo, ocurren con probabilidad proporcional a
dicho lapso.
- en lapsos de tiempo muy pequeños ocurre a lo más una concurrencia (esto hace posible que se
origine una fila)
El evento en que el tiempo t + dt ha ocurrido exactamente x veces, puede llevarse a cabo de dos maneras
diferentes y excluyentes:
1. Existen x ocurrencia por tiempo t, con probabilidad p(x; t) y ninguna en dt, con probabilidad 1- vdt
Dada la suposición de independencia, la probabilidad conjunta es p(x; t) (1- vdt).
2. Existen x –1 ocurrencias por tiempo t, con probabilidad p(x-1; t) y una durante dt, con probabilidad
vdt. Recordando nuevamente el supuesto de independencia, la probabilidad de que ello ocurra
simultáneamente ( o en forma conjunta ) es: p(x-1; t) vdt.
Después de multiplicar, transponer p(x; t) al primer miembro, y dividir por dt, se tiene:
p( x; t dt ) p( x; t )
=v[p(x – 1; t) – p(x; t)].
dt
57
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
que es una ecuación diferencial lineal con respecto a t y una ecuación de diferencias finitas de primer
orden, con respecto a x.
dp( 0; t )
Si x = 0, obtenemos =v[p( – 1; t) – p(0; t)] = - vp(0; t), pues p( – 1; t)=0, entonces
dt
dp( 0; t )
= - v p(0; t), que al separar variables e integrar se reduce a
dt
In[p(0; t)] = In (c ) – vt, o p(0; t) = c e-vt , pero p(0,t)=1 p(0; t) = e-vt
dp( 1; t ) dp( 1; t )
Si x = 1, obtenemos = v[p(0; t) – p(1; t)], o + vp(1; t)= ve-vt, ecuación diferencial
dt dt
no homogénea con condición inicial p(1; 0) = 0 ; cuya solución es p(1; t) = (vt)e-vt
dp(2; t )
Análogamente para x = 2 y p(2; 0)= 0 se obtiene p(2, t ) 2 te t
dt
Al continuar este proceso, asumiendo p(x; 0) = 0;. puede deducirse que la probabilidad de tener
Fijando el tiempo en T = t, unidades de tiempo, para la v.a. X: número de sucesos en lapso [0, t], se ha
deducido que si tales sucesos ocurren con frecuencia , en cada unidad de tiempo; XPx(t )=Px(),
con = vt.
Ahora al estudiar tales ocurrencias en [t1, t2], intervalo de amplitud t = t2 – t1 , el número de ellas en tal
lapso, es una v.a. X tal que X Px( (t2 – t1)).
Además surge un interesante resultado, al considerar el suceso X =1, que por lo anterior, podemos admitir
que ocurre en un lapso de amplitud t. Lo que es equivalente, a estudiar el resultado de una variable
aleatoria T , definida como
T: tiempo de espera para que ocurra el próximo suceso Poisson.(tiempo de espera entre sucesos),
con distribución : FT(t) = P(T t): probabilidad que esperemos a lo sumo t instantes para que el
próximo suceso ocurra
es decir : 1-Ft(t) = P(T > t) :probabilidad de que ocurra el primer suceso despues de t instantes
=P(X=0)= f(0) = e- t : probabilidad de que ningún suceso ocurra en el lapso t
d d - t
así 1-Ft(t) = e- t, entonces
(1-Ft(t)) = ( e ) -fT(t) =- e- tt fT(t) = e- t T exp().
dt dt
Lo que se resume: a número de llegadas por unidad de tiempo P(), el “número” de unidades de tiempo
entre arribos es exp().
58
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo3.4
Sea X: Nº de pasajeros que llegan a un terminal en un lapso t (en [0, t]), X P(t)= P()
T: tiempo que transcurre entre la llegada de uno y otro pasajero, T exp(t)= exp()
1) Si el promedio de usuarios que llegan por minuto es 10 = t. Para unidades minutos t =1 y ==10,
es decir la ley de comportamiento (función de densidad) del tiempo transcurrido hasta que llegue el
próximo usuario es:
fT(t) =10 e-10t. t >0
2) Para determinar, cuanto tiempo hemos de considerar para que la llegada entre uno y otro usuario sea
al azar (se logre con probabilidad igual a ½): nos planteamos
Solución:
X: cantidad de resultados iguales a 6 en 20 repeticiones B(1, 1/6), entonces X es N(20,1/6)
P(X=3) P(3<=X<=17)
0.237886566137850 0.433454362223004
2.- Si realizamos hoy una encuesta, entrevistando electores hasta encontrar el primero a favor del
candidato que figura en todas las encuestas con un 60% de las preferencias.; determine la probabilidad
que requiera entrevistar:
- 7 electores para encontrar el primero a favor de tal candidato;
- al menos 7 electores para encontrar el segundo elector a favor de tal candidato.
- calcular cuartiles y quintiles para las v.a. involucradas
Solución
X: cantidad de entrevistas para lograr el primero a favor es geométrica o Binomial Negativa Bneg( 1,0.6)
Y: cantidad de entrevistas para lograr el segundo a favor es Binomial Negaiva; Bneg(2,0.6)
P(X=7) P(Y>=7)
0.000983040000000 0.993534124647965
Script
disp(' P(X=7) P(Y>=7)');disp( [nbinpdf(7,1,0.6) 1- binocdf(6,20,0.6)]);disp( 'para la v.a. X')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([nbininv( 0.25,1,0.6) nbininv( 0.5,1,0.6) nbininv( 0.75,1,0.6) nbininv( 0.20,1,0.6) nbininv( 0.40,1,0.6) nbininv( 0.60,1,0.6)
nbininv( 0.80,1,0.6)]);disp(' para la v.a. Y');disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([nbininv( 0.25,2,0.6) nbininv( 0.5,2,0.6) nbininv( 0.75,2,0.6) nbininv( 0.20,2,0.6) nbininv( 0.40,2,0.6) nbininv( 0.60,2,0.6)
nbininv( 0.80,2,0.6)])
59
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
3.- Al llegar clientes a requerir un cierto servicio, lo hacen según un proceso Poisson de 10 personas por
minuto. determine la probabilidad que:
- nadie llegue durante un minuto
- nadie llegue durante 5 minutos
- arriben más de 10 personas por minuto
- llegue al menos 5 y a lo más 15 personas por minuto
- lleguen al menos 60 personas en 5 minutos
- el tiempo entre la llegada de una y otra persona es inferior a dos minutos
- calcular cuartiles y quintiles
Solución:
X: cantidad de llegadas de clientes ( personas) que llegan por unidad de tiempo ( minuto), X es P(10)
Y: cantidad de llegadas en 5 minutos, Y es P(5*10)=P(50)
Z: tiempo entre llegadas, Z es Exp(10)
Script:
disp(' P(X=0) P(Y=0) P(X>10) P(5<=X<=15) P(Y>=60) P(Z<2) ')
disp( [poisspdf(0,10) poisspdf(0,50) 1-poisscdf(10,10) poisscdf(15,10)-poisscdf(5,10) 1-poisscdf(59,50) expcdf(2,10) ])
disp( 'para la v.a. X')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([poissinv(0.25,10) poissinv( 0.5,10) poissinv( 0.75,10) poissinv( 0.2,10) poissinv( 0.4,10) poissinv( 0.6,10) poissinv( 0.8,10) ])
disp( 'para la v.a. y')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([poissinv(0.25,50) poissinv( 0.5,50) poissinv( 0.75,50) poissinv( 0.2,50) poissinv( 0.4,50) poissinv( 0.6,50) poissinv( 0.8,50) ])
disp( 'para la v.a. Z')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([expinv(0.25,10) expinv( 0.5,10) expinv( 0.75,10) expinv( 0.2,10) expinv( 0.4,10) expinv( 0.6,10) expinv( 0.8,10) ])
hold on ; x4=-1:0.001:50 ; y4= exppdf(x4,10); zzzz4=( x4<=13.8) .* exppdf(x4,10)+ (x4>13.8) .* (0); plot(x4,y4);
yyyyf=spline(x4,zzzz4,x4); area(x4,yyyyf);set(gca,'xtick', [0 13.8629 ]) ; colormap autumn;
title('Representación de Q3 para Exp(10)'); hold off
4.- Salvo contadas excepciones, si un artefacto falla de manera totalmente al azar entre el tercer y sexto
año de efectuada la compra, determine la probabilidad que falle:
- al cumplir el cuarto año
- durante el cuarto año
- falle después del cuarto año
- que falle antes de 5 años si ha superado los 4 años, e identifique el modelo aleatorio subyacente
- calcular cuartiles y quintiles
60
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Solución:
X : tiempo de falla es uniforme entre 3 y 6 años ,
es decir su densidad f(x) es uniforme U(3,6)
Probabilidad de falla al cumplir el cuarto año: P(X=4)=0.
Lo solicitado se realiza directamente según
script.
por tanto, para obtener tal percentil α= (F(y)-F(4))/ 1- F(4) entonces p=F(y) = F(4)+α* (1-F(4)).
dFY ( y ) f ( y)
, 4 y6 0.5 , 4 y6
dy 1 F (4)
fY(y)= =
0 ,
0 , o.c. o.c.
Este modelo, identifica la v.a. Y como uniforme truncada, haciendo referencia a la v.a. X de la cual
procede; específicamente X truncada a X>4
Script:
disp(' P(4<=X<5) P(X>4) P(X<5|X>4) ')
disp( [unifcdf(5,3,6)-unifcdf(4,3,6) 1- unifcdf(4,3,6) (unifcdf(5,3,6)-unifcdf(4,3,6))/(1-unifcdf(4,3,6)) ])
format short; disp( 'para la X'); disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([unifinv(0.25,3,6) unifinv(.5,3,6) unifinv(.75,3,6) unifinv(.2,3,6) unifinv(.4,3,6) unifinv(.6,3,6) unifinv(.8,3,6) ])
a1=[0.25 0.5 0.75]; a2=0.2 :0.2:0.8 ; a=[a1 a2 ]; p= unifcdf(4,3,6)+a*(1-unifcdf(4,3,6)); percentilesY=unifinv(p,3,6)
disp( 'para la Y= X|X>4'); disp(' Q1 Q2 Q3 P20 P40 P60 P80'); disp(percentilesY)
t=linspace(0,10,1000);h=(t<=4).*(0)+ ((t>4)&(t<6)).*(1/2)+ (t>=6).*(0); h1=(t<=3).*(0)+
((t>3)&(t<6)).*(1/3)+(t>=6).*(0)
5.- Aceptando que la temperatura interna del cuerpo en personas adultas, sin diagnóstico de afección
alguna o pre-existencia, es normal N(36.5,1).
5.-1-Determine cuán probable es que una persona tenga una temperatura:
- de 37 grados
- inferior a 36.6 grados
- entre 36.6y 37.5
- que sobrepase los 38.5 grados
- calcular cuartiles y quintiles
Solución:
X: es N(36,5,1), una v.a. continua , por lo tanto P(X=37)=0
Solución:
Con la v.a. X con distribución N(36.5,1),
calculemos p=P(X>37)=0.3085
Y es B( n,p)=B(10,p)
Script:
p=1-normcdf(37,36.5,1);
disp(' p P(Y>=5) P(Z=5)');
disp([ p 1-binocdf(4,10,p) nbinpdf(5,1,p)])
hold on; x4=33:0.001:40; zzzz4=(x4>37).*(y4); plot(x4, y4);
set(gca,'xtick', [ 36.5 37]) ; yyyyf=spline(x4,zzzz4,x4); area(x4,yyyyf) ; hold off
5.3.- Que porcentaje de las personas con temperatura sobre 36 grados, presentan temperaturas inferiores a
los 37 grados, e identifique el modelo subyacente:
Solución:
Consideremos el evento de interés sobre del cual se efectúa lo solicitado:
Y = X=y| X>36;
FY(y)= P(X<= y | X>36)=P(36<X<y)/P(X>36)
= (F(y)-F(36))/ (1- F(36)),
62
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Script:
(normcdf(37,36.5,1)-normcdf(36,36.5,1))/(1-normcdf(36,36.5,1))
hold on; x=35:0.01:40; f=(x<36).*(0)+ (x>36).*((normpdf(x,36.5,1))/(1-normcdf(36,36.5,1)));
ff= (x>37).*((normpdf(x,36.5,1))/(1-normcdf(36,36.5,1))); plot(x, f,'r.'); set(gca,'xtick', [ 36 37 40 ]); fff=spline(x,ff,x); area(x,fff)
Fcond= (x<36).*(0)+ (x>36).*((normcdf(x,36.5,1)-normcdf(36,36.5,1))/(1-normcdf(36,36.5,1))); plot(x,Fcond,'r.')
Sea FX la función de distribución asociada a una v.a.X, Y=goX con g:D IR IR una función
creciente estricta, tal que XD c.s., entonces
FY y PY y PgoX y FX g 1 y .
De lo cual se desprende que, en el caso de X v.a. discreta, la obtención de dFY con Y=goX es muy
simple y para el caso continuo sólo es suficiente una exigencia adicional. Lo que presentamos en
el siguiente resultado, conocido como teorema del cambio de variable unidimensional.
Teorema
Sea X v.a. discreta o continua con D soporte de dFX , Y= goX con g:D IRIR función, entonces
b) Si X es v.a. continua; Y es v.a. continua con soporte g(D), g monótona estrica y diferenciable:
f Y y f X g 1 y dyd g y ,
1
y g D
A continuación presentamos un ejemplo, al primero de tres grupos de casos trascendentes para múltiples
aplicaciones, en lo que se refiere a transformaciones aleatorias como recurso para múltiples aplicaciones
Ejemplo3.6
1) X ~ N , Z X ~ N(0,1)
2
Nota. Este hecho es el que nos permite llevar todos los cálculos de probabilidades de variables normales a
N(0,1). Proceso conocido como estandarización; en particular para esta X ~ N , ,
2
su distribución,
X x x
FX x P X x P P Z , Y ~ N (0,1).
Este resultado, en la mayor parte de la literatura, hasta antes de softwares MATLAB, R,
63
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
SPSS… ; era necesario abordarlo al comienzo de toda presentación de variable aleatoria normal, para
hacer uso de tabla de distribución N(0,1), como recurso ineludible para calcular, cualquier
probabilidad de una v.a.normal arbitraria, que como ya hemos visto, no es necesaria.
Aquí se aprecia, lo relevante de N(0,1), que va más allá de un recurso operativo; su comportamiento, como
veremos al final de este capítulo, será el centro de la atención en la Parte II del presente texto; pero en lo
inmediato hay que distinguir los siguientes puntos notables de una v.a. N(0,1) y su extensión a una normal
arbitraria a partir de lo señalado en el párrafo anterior.
0.9772 0.9987
2 3
x
El 5% de valores superiores de la v.a.X, corresponde al puntaje z 1.6449 1.645 ;
es decir: x 1.645 , entonces x 1.645
Entonces:
0, yo
FY ( y )
F( y ) F ( y ), y0
p 0.1 0.2 0.25 0.4 0.5 0.6 0.6827 0.75 0.8 0.9 0.95 0.9445
y 0.0158 0.0642 0.1015 0.2750 0.4549 0.7083 1 1.3233 1.6424 2.7055 3.8415 4
Para valores:
y<0; FY ( y ) P(Y y ) P(Y ) 0
0, y0
FY ( y ) y, 0 y 1 , a la cual, corresponde el gráfico F=U(0,1); además una vez
1 y 1
0, y0
1, 0 y 1
derivada , logramos la densidad f de la v.a.Y: f Y ( y ) 1, 0 y 1
0 0, o.c.
y 1
Así entonces, dada una distribución F creciente estricta, y una muestra y1 ,.... yn con distribución U[0,1], al
1
considerar el sistema yi F ( xi ), i 1,..., n ; podemos obtener xi F ( yi ) , muestra tamaño n de una
v.a. X con distribución F ( X ~ F ).
Por esta y múltiples razones, es que todo sistema o procedimiento procedimiento para simular, debe ser
muy eficiente para la generación de números (pseudo) aleatorios en el intervalo (0,1).
Para aplicar directamente este procedimiento, basta que F sea creciente estricta, en el intervalo donde se
encuentra todo el peso de la v.a.X.. Procedimiento que en muchos casos, no es tan directo y se hace
necesario otros recursos, como es el caso de simular N(0,1), debido a lo complejo de invertir la
correspondiente distribución. Cabe destacar, que en la actualidad, la mayor parte de los procedimientos
para simular v.a. ya se encuentran implementados de manera muy eficiente, como en el caso de
MATLAB, R,SAS, SPSS u otro recurso de esta índole.
A continuación, presentamos según script que se acompaña: una m.a.(7), dos m.a.(10), y una m.a.(10);
N(0,1), Exp(1), Weibul(1,1) respectivamente:
66
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
CAPITULOIII
TRANSFORMACIONES ALEATORIAS
Dado un espacio de probabilidad ,2
, P , el objetivo de esta sección, es reducir el espacio muestral
asociado al experimento en estudio, a otro, donde muy explícitamente se reflejen las características
de interés en términos de números reales y proceder en tales condiciones a analizar su comportamiento.
Definición
P
X 1 A [0,1
PX
X
AIR
IR
IR
donde PX , la (medida de) probabilidad asociada a la v.a.X, se construye de la siguiente manera:
PX A PX 1 A Pw / X w A : P X A
Nota
47
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
A PX A
a, b P(a < X < b)
a, b P(a X < b)
]a,b] P(a < X b)
a, b P(a X b)
x, P(X x)
, x P(X x) = F x se llama función de
(distribución) de probabilidad.
Ejemplo3.1
Consideremos un juego, basado en el experimento de lanzar una moneda totalmente al azar; en el cual
para poder participar en cada apuesta se debe pagar $3000 (por el derecho a juego); donde el premio (para
cada apostador) es $1000 ( o premio de consuelo) si el resultado es {1,2}, $3000 ( no pierde) si el
resultado es {3,4} y $6000 ( recupera el doble de lo invertido) si el resultado es 6. En cualquier otro caso,
el apostador pierde lo pagado para poder participar. Entonces:
- 2000 , w 1,2
0 w 3,4
,
X ( w)
3000 , w6
3000 , o.c.
Script:
x=[-3500 -3000 -2000 0 3000 3500];y=[0 1/6 1/3 1/3 1/6 0 ];plot(x,y,'.');%con retoques en salida del editor de gráficos
Lo cual podríamos promediar, respecto a los pesos o ponderaciones dadas por estas probabilidades,
resultando:
-2000 *1/3 +0*1/3+ (-3000)*1/6 + 3000*1/6=(-4000+3000)/6 = -1000/6 =- 167, lo que indicaría que la
expectativa por apuesta para el jugador, es lograr una pérdida de $167, que as u vez , es la ganancia para
el dueño del juego. Se deja al lector el diseño de premios para la mejor ganancia.
Para este caso, al dar forma a una función (de distribución) de probabilidad, con las probabilidades
acumuladas hasta X=x, nos referimos a F(x)=P(X x), x IR;
debemos considerar IR en los sgtes. términos:
0 x 3000
1 / 6 3000 x 2000
F ( x ) 1 / 2, 2000 x 0
5 / 6, 0 x 3000
1, x 3000
Script:
t=linspace(-4000,4000,100)
f=(t<-3000).*(0)+((t>=-3000)&(t<-2000)).*(1/6)+((t>=-2000)&(t<0)).*(1/2)+((t>=0)&(t<3000)).*(5/6)+(t>=3000).*(1)
plot(t,f,'bo')
Pero, disponiendo de una forma de construir de manera arbitraria este tipo de funciones, podríamos
disponer de modelos para una diversidad de problemas que en forma directa, permitiría interpretar y
evaluar resultados de variables aleatorias. Situación que abordamos en la sección de a continuación.
Como información previa, debemos tener presente el siguiente concepto y notación de cálculo
infinitesimal:
Notación
F(a-)= lím F (x) = lím F (a h) , límite por la izquierda de F en el punto a
x a h 0
Definición
Existe un vínculo directo entre las funciones de distribución y la medidas de probabilidad que se
puedan construir para una v.a. X.; el que está dado de la siguiente manera:
dada una medida de probabilidad P de una v.a. X, entonces F x = P(X x) es función de
distribución y se conoce como la función de distribución de la v.a.X.
dada una función de distribución F en IR, entonces definiendo una aplicación P1 sobre los
49
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
P ,b F b
P1 (]a,b])= F(b)-F(a) 1
Ejemplo3.2:
Consideremos un experimento aleatorio, sobre el cual actúa una variable aleatoria, donde el gráfico de
su distribución F adopta la siguiente forma:
Script:
t=linspace(-8,8,1000);
f=(t<=-4).*(0)+((t>=-4)&(t<-2)).*(0.3*unifcdf(t,-4,-2))+((t>=-2)&(t<0)).*(0.5)+(t>=0).*(normcdf(t,0,1)); plot(t,f,'.')
Como se aprecia, F cumple con la definición de distribución, además presenta una forma creciente, F(x)
=0 si x<-4, discontinua en x=-2, pero donde debe ser contínua por la derecha, no diferenciable en x=-4,
y x=0, asíntota Y=1:
Debido a que esta función tiene solo un punto de discontinuidad, en x=-2, este el único punto con
probabilidad distinta de cero y su valor es la magnitud del salto de dicha discontinuidad:
P(X=-2)=F(-2)-F(-2-)=0.5-0.2=0.3
P (Xϵ[-5,-3])=P(-5≤ X ≤-3 )=F(-3)-F(-5-)= F(-3)=0.15. Todo otro cálculo se rige por las reglas
recién descritas.
50
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Disponer de algún método para construir funciones de distribución es de real importancia, pues cada
una identifica la ley de comportamiento de un particular fenómeno en estudio.
Efectivamente hay al menos "dos maneras" de lograrlo; mediante funciones de cuantía o de densidad
de probabilidad, también denominadas de densidad discreta o contínua respectivamente.
Definición
Se dice que una función f : D IR. IR., tal que f x 0, x D, f x 0x D c , es:
- cuantía ssi D es numerable, y f x 1
x D
Ahora, exponemos el nexo entre estas funciones de cuantía o densidad con las funciones de
distribución, también llamado método de construcción de distribuciones:
f t , si f es cuantía
F x : dF t
x
tx
dF x
Así, cuando f es densidad si f x .
dx
Lo que motiva el simbolizar por dF a la suma o integral antes señalada, y dF por f, para f cuantía o
densidad.
Este método, conduce a diferentes tipos de distribuciones y por lo tanto de variables de acuerdo a si se
utiliza una función de cuantía o bien una de densidad:
v.a. discreta
f cuantía
X F
f densidad
v. a. contínua
51
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
e.d. Si X es una v.a. cuya función de distribución proviene de una función de cuantía o densidad,
diremos que tal variable es discreta o continua respectivamente. De esta definición se desprende que, la
probabilidad que una v.a.X discreta o continua con distribución F, asuma valores en A IR , se obtiene
mediante:
P X A dF .
A
Las distribuciones aquí aludidas se conocen como regulares, las cuales tienen forma de escalera si
proceden de una función de cuantía ( como el ejemplo 3.1), o curva continua creciente si procede de una
función de densidad. Sin embargo existen también otras denominadas singulares o mezclas entre estos
dos tipos de funciones de cuantía y densidad, dando origen al tipo de distribución ( bastante genérica por
cierto), como la presentada en el ejemplo3.2.
Ejemplo 3.3
𝛼𝑒 −𝛼𝑥 , 𝑥 > 0
𝑓1 (𝑥) = {
0, 0. 𝑐
y un 75% de las veces a modo fast, con velocidad servicio, que se comporta según una densidad
0.25 α
0.75 5α
De esta manera, el tiempo de servicio en este punto del sistema, es una v.a.X con densidad ( el lector
puede verificar directamente este hecho):
1 3 𝛼 −𝛼𝑥 15 −5𝛼𝑥
𝑓 𝑥 = 𝑓1 𝑥 + 𝑓2 𝑥 = {4 𝑒
( ) ( ) ( ) + 𝛼𝑒
4
𝑥>0
4 4
0, 𝑜. 𝑐.
Queda en evidencia que una combinación lineal de densidades con peso acumulados unitario, es también
densidad y que no es extraño en casos prácticos.
52
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
2/3 , 0 x 1
f x x / 12 , 1 x 3
0
, o.c.
f x dx , x0
0 x
x
f x dx 0 f x dx , 0 x 1
F ( x) f x dx 0
1 x
f x dx f x dx f x dx
0 1
, 1 x 3
f x dx
, x3
para:
x x
x<0; f x dx = 0 dx 0
x x 1
f x dx = f x dx 3
2 2 2
0<x<1;
0 0
3
dx x ;
3 0
x x 2 3
x x
f x dx = f x dx 3
1
1<x<3;
1 0
12
dx
24
;
1
x x
x>3; f x dx = 0 dx 0
3 3
0 , x0 0 , x0
2 2
x , 0 x 1 x , 0 x 1
x
F ( x) f x dx
3
x 3 2
f x dx
2
, 1 x 3 2 x , 1 x 3
3 1 3 24
1 , x3 1 , x3
La probabilidad que esta v.a. X, tenga resultados en un conjunto A en IR, se obtendrá integrando la
densidad sobre A, o bien mediante las reglas entregadas en la presente sección para utilizar F.
53
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
3.1.2.- MODELOS
Se entiende por modelo (probabilístico) a la función de cuantía o de densidad que caracteriza a
la distribución del fenómeno en estudio, por tal motivo se habla de modelos discretos o contínuos
respectivamente, y se acostumbra identificar a la v.a. con su particular cuantía o densidad f más que
por su distribución F, lo que se abrevia Xf. Los sgtes. modelos son de uso habitual en aplicaciones.
3.1.2.1.- Discretos - Continuos
A continuación presentamos las v.a. más utilizadas en las aplicaciones, junto con sus
respectivos soportes.
a) DISCRETOS:
X ~ B(n,p) Binomial de parámetros n y p.
n
f x p x q n x , x 0,1,..., n, q 1 p,0 p 1 . Repetición de n ensayos de
x
detección de falla (Bernoulli o B(1,p)) con taza de falla p constante en cada ensayo o
experimentos similares al ejemplo de pedidos a una misma granja).
X ~ Bneg (k,p) Binomial Negativa de parámetros k y p.
x 1 k x k
f x p q , x k , k 1, k 2,..., q 1 p,0 p 1 . Repetición de ensayos
k 1
B(1,p) que se detiene al lograr por primera vez k fallas o experimento tipo encuesta de aceptación.
Cuando x 1
k 1, f x pq , x IN, q = 1 - p, también se denomina Pascal o
Geométrica.
X ~ Hipg(n1 ,n2 ) Hipergeométrica de parámetros n1 ,n2.
n1 n2 N
f x / , x max{0, n n2 },..., minn1 , n, max{0, n1 - n} n x n2 ,
x n x n
N n1 n2 . Sselección al azar y sin reemplazo, de n objetos desde dos grupos.
X ~ P() Poisson de parámetro
x
f x exp , x IN0
x!
(aprox. de Binomial cuando, p pequeño, np constante para n grande)
b) CONTINUOS:
X ~ Exp() exponencial de parámetro , f x exp x , x 0
. Tiempo de falla,
con velocidad de crecimiento proporcional al tiempo.
X~U([a,b]) uniforme en [a,b], f(x)=1/(b-a), x [a,b], (tiempo de fallas al azar en [a,b])
f x 2 2 1 / 2
exp ( x )2 /( 2 2 ) , x IR ,
x 1
X ~ , gamma de parámetros , , donde f x exp x / , x 0
donde x 1 e x dx, 1 1, n n 1 ! n IN.
0
1, Exp 1/ ; para n IN.: n, : n Erlang , ( n / 2,2) : 2 n, distribución
Chi-cuadrado con n grados de libertad
W , Weibull de parámetros , , f x x 1 exp
x , x 0
(tiempo de fallas asimétrico, unimodal)
54
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Para fines operativos en Anexo MATLAB (12) se encuentra un listado de este tipo de funciones (sigla),
distribución (siglacpf), densidad o cuantía ( sigladpf) según corresponda. En los sgtes. gráficos, se
representan los valores distintos de cero de las respectivas funciones de densidad f y distribución F
55
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
56
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Se observa, que la asimetría que presentan estos gráficos para las distintas f ( cuantías o densidades), es
uno de los principales aspectos que caracteriza a cada una de ellas y naturalmente a la v.a. asociada.
Otra importante propiedad de la función de cuantía Poisson es que da origen a la ley de comportamiento
de fenómenos muy utilizados en el análisis de lineas de espera que satisfagan las siguientes condiciones:
A un lugar llegan elementos (concurrentes) para ser atendidos (procesados, ensamblados, examinados,
informados,evaluados,...), ante un servidor establecido para tal propósito:
- el número de concurrentes en lapsos de tiempo consecutivos son sucesos independientes
- los sucesos número de concurrentes en un lapso de tiempo, ocurren con probabilidad proporcional a
dicho lapso.
- en lapsos de tiempo muy pequeños ocurre a lo más una concurrencia (esto hace posible que se
origine una fila)
El evento en que el tiempo t + dt ha ocurrido exactamente x veces, puede llevarse a cabo de dos maneras
diferentes y excluyentes:
1. Existen x ocurrencia por tiempo t, con probabilidad p(x; t) y ninguna en dt, con probabilidad 1- vdt
Dada la suposición de independencia, la probabilidad conjunta es p(x; t) (1- vdt).
2. Existen x –1 ocurrencias por tiempo t, con probabilidad p(x-1; t) y una durante dt, con probabilidad
vdt. Recordando nuevamente el supuesto de independencia, la probabilidad de que ello ocurra
simultáneamente ( o en forma conjunta ) es: p(x-1; t) vdt.
Después de multiplicar, transponer p(x; t) al primer miembro, y dividir por dt, se tiene:
p( x; t dt ) p( x; t )
=v[p(x – 1; t) – p(x; t)].
dt
57
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
que es una ecuación diferencial lineal con respecto a t y una ecuación de diferencias finitas de primer
orden, con respecto a x.
dp( 0; t )
Si x = 0, obtenemos =v[p( – 1; t) – p(0; t)] = - vp(0; t), pues p( – 1; t)=0, entonces
dt
dp( 0; t )
= - v p(0; t), que al separar variables e integrar se reduce a
dt
In[p(0; t)] = In (c ) – vt, o p(0; t) = c e-vt , pero p(0,t)=1 p(0; t) = e-vt
dp( 1; t ) dp( 1; t )
Si x = 1, obtenemos = v[p(0; t) – p(1; t)], o + vp(1; t)= ve-vt, ecuación diferencial
dt dt
no homogénea con condición inicial p(1; 0) = 0 ; cuya solución es p(1; t) = (vt)e-vt
dp(2; t )
Análogamente para x = 2 y p(2; 0)= 0 se obtiene p(2, t ) 2 te t
dt
Al continuar este proceso, asumiendo p(x; 0) = 0;. puede deducirse que la probabilidad de tener
Fijando el tiempo en T = t, unidades de tiempo, para la v.a. X: número de sucesos en lapso [0, t], se ha
deducido que si tales sucesos ocurren con frecuencia , en cada unidad de tiempo; XPx(t )=Px(),
con = vt.
Ahora al estudiar tales ocurrencias en [t1, t2], intervalo de amplitud t = t2 – t1 , el número de ellas en tal
lapso, es una v.a. X tal que X Px( (t2 – t1)).
Además surge un interesante resultado, al considerar el suceso X =1, que por lo anterior, podemos admitir
que ocurre en un lapso de amplitud t. Lo que es equivalente, a estudiar el resultado de una variable
aleatoria T , definida como
T: tiempo de espera para que ocurra el próximo suceso Poisson.(tiempo de espera entre sucesos),
con distribución : FT(t) = P(T t): probabilidad que esperemos a lo sumo t instantes para que el
próximo suceso ocurra
es decir : 1-Ft(t) = P(T > t) :probabilidad de que ocurra el primer suceso despues de t instantes
=P(X=0)= f(0) = e- t : probabilidad de que ningún suceso ocurra en el lapso t
d d - t
así 1-Ft(t) = e- t, entonces
(1-Ft(t)) = ( e ) -fT(t) =- e- tt fT(t) = e- t T exp().
dt dt
Lo que se resume: a número de llegadas por unidad de tiempo P(), el “número” de unidades de tiempo
entre arribos es exp().
58
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo3.4
Sea X: Nº de pasajeros que llegan a un terminal en un lapso t (en [0, t]), X P(t)= P()
T: tiempo que transcurre entre la llegada de uno y otro pasajero, T exp(t)= exp()
1) Si el promedio de usuarios que llegan por minuto es 10 = t. Para unidades minutos t =1 y ==10,
es decir la ley de comportamiento (función de densidad) del tiempo transcurrido hasta que llegue el
próximo usuario es:
fT(t) =10 e-10t. t >0
2) Para determinar, cuanto tiempo hemos de considerar para que la llegada entre uno y otro usuario sea
al azar (se logre con probabilidad igual a ½): nos planteamos
Solución:
X: cantidad de resultados iguales a 6 en 20 repeticiones B(1, 1/6), entonces X es N(20,1/6)
P(X=3) P(3<=X<=17)
0.237886566137850 0.433454362223004
2.- Si realizamos hoy una encuesta, entrevistando electores hasta encontrar el primero a favor del
candidato que figura en todas las encuestas con un 60% de las preferencias.; determine la probabilidad
que requiera entrevistar:
- 7 electores para encontrar el primero a favor de tal candidato;
- al menos 7 electores para encontrar el segundo elector a favor de tal candidato.
- calcular cuartiles y quintiles para las v.a. involucradas
Solución
X: cantidad de entrevistas para lograr el primero a favor es geométrica o Binomial Negativa Bneg( 1,0.6)
Y: cantidad de entrevistas para lograr el segundo a favor es Binomial Negaiva; Bneg(2,0.6)
P(X=7) P(Y>=7)
0.000983040000000 0.993534124647965
Script
disp(' P(X=7) P(Y>=7)');disp( [nbinpdf(7,1,0.6) 1- binocdf(6,20,0.6)]);disp( 'para la v.a. X')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([nbininv( 0.25,1,0.6) nbininv( 0.5,1,0.6) nbininv( 0.75,1,0.6) nbininv( 0.20,1,0.6) nbininv( 0.40,1,0.6) nbininv( 0.60,1,0.6)
nbininv( 0.80,1,0.6)]);disp(' para la v.a. Y');disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([nbininv( 0.25,2,0.6) nbininv( 0.5,2,0.6) nbininv( 0.75,2,0.6) nbininv( 0.20,2,0.6) nbininv( 0.40,2,0.6) nbininv( 0.60,2,0.6)
nbininv( 0.80,2,0.6)])
59
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
3.- Al llegar clientes a requerir un cierto servicio, lo hacen según un proceso Poisson de 10 personas por
minuto. determine la probabilidad que:
- nadie llegue durante un minuto
- nadie llegue durante 5 minutos
- arriben más de 10 personas por minuto
- llegue al menos 5 y a lo más 15 personas por minuto
- lleguen al menos 60 personas en 5 minutos
- el tiempo entre la llegada de una y otra persona es inferior a dos minutos
- calcular cuartiles y quintiles
Solución:
X: cantidad de llegadas de clientes ( personas) que llegan por unidad de tiempo ( minuto), X es P(10)
Y: cantidad de llegadas en 5 minutos, Y es P(5*10)=P(50)
Z: tiempo entre llegadas, Z es Exp(10)
Script:
disp(' P(X=0) P(Y=0) P(X>10) P(5<=X<=15) P(Y>=60) P(Z<2) ')
disp( [poisspdf(0,10) poisspdf(0,50) 1-poisscdf(10,10) poisscdf(15,10)-poisscdf(5,10) 1-poisscdf(59,50) expcdf(2,10) ])
disp( 'para la v.a. X')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([poissinv(0.25,10) poissinv( 0.5,10) poissinv( 0.75,10) poissinv( 0.2,10) poissinv( 0.4,10) poissinv( 0.6,10) poissinv( 0.8,10) ])
disp( 'para la v.a. y')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([poissinv(0.25,50) poissinv( 0.5,50) poissinv( 0.75,50) poissinv( 0.2,50) poissinv( 0.4,50) poissinv( 0.6,50) poissinv( 0.8,50) ])
disp( 'para la v.a. Z')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([expinv(0.25,10) expinv( 0.5,10) expinv( 0.75,10) expinv( 0.2,10) expinv( 0.4,10) expinv( 0.6,10) expinv( 0.8,10) ])
hold on ; x4=-1:0.001:50 ; y4= exppdf(x4,10); zzzz4=( x4<=13.8) .* exppdf(x4,10)+ (x4>13.8) .* (0); plot(x4,y4);
yyyyf=spline(x4,zzzz4,x4); area(x4,yyyyf);set(gca,'xtick', [0 13.8629 ]) ; colormap autumn;
title('Representación de Q3 para Exp(10)'); hold off
4.- Salvo contadas excepciones, si un artefacto falla de manera totalmente al azar entre el tercer y sexto
año de efectuada la compra, determine la probabilidad que falle:
- al cumplir el cuarto año
- durante el cuarto año
- falle después del cuarto año
- que falle antes de 5 años si ha superado los 4 años, e identifique el modelo aleatorio subyacente
- calcular cuartiles y quintiles
60
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Solución:
X : tiempo de falla es uniforme entre 3 y 6 años ,
es decir su densidad f(x) es uniforme U(3,6)
Probabilidad de falla al cumplir el cuarto año: P(X=4)=0.
Lo solicitado se realiza directamente según
script.
por tanto, para obtener tal percentil α= (F(y)-F(4))/ 1- F(4) entonces p=F(y) = F(4)+α* (1-F(4)).
dFY ( y ) f ( y)
, 4 y6 0.5 , 4 y6
dy 1 F (4)
fY(y)= =
0 ,
0 , o.c. o.c.
Este modelo, identifica la v.a. Y como uniforme truncada, haciendo referencia a la v.a. X de la cual
procede; específicamente X truncada a X>4
Script:
disp(' P(4<=X<5) P(X>4) P(X<5|X>4) ')
disp( [unifcdf(5,3,6)-unifcdf(4,3,6) 1- unifcdf(4,3,6) (unifcdf(5,3,6)-unifcdf(4,3,6))/(1-unifcdf(4,3,6)) ])
format short; disp( 'para la X'); disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([unifinv(0.25,3,6) unifinv(.5,3,6) unifinv(.75,3,6) unifinv(.2,3,6) unifinv(.4,3,6) unifinv(.6,3,6) unifinv(.8,3,6) ])
a1=[0.25 0.5 0.75]; a2=0.2 :0.2:0.8 ; a=[a1 a2 ]; p= unifcdf(4,3,6)+a*(1-unifcdf(4,3,6)); percentilesY=unifinv(p,3,6)
disp( 'para la Y= X|X>4'); disp(' Q1 Q2 Q3 P20 P40 P60 P80'); disp(percentilesY)
t=linspace(0,10,1000);h=(t<=4).*(0)+ ((t>4)&(t<6)).*(1/2)+ (t>=6).*(0); h1=(t<=3).*(0)+
((t>3)&(t<6)).*(1/3)+(t>=6).*(0)
5.- Aceptando que la temperatura interna del cuerpo en personas adultas, sin diagnóstico de afección
alguna o pre-existencia, es normal N(36.5,1).
5.-1-Determine cuán probable es que una persona tenga una temperatura:
- de 37 grados
- inferior a 36.6 grados
- entre 36.6y 37.5
- que sobrepase los 38.5 grados
- calcular cuartiles y quintiles
Solución:
X: es N(36,5,1), una v.a. continua , por lo tanto P(X=37)=0
Solución:
Con la v.a. X con distribución N(36.5,1),
calculemos p=P(X>37)=0.3085
Y es B( n,p)=B(10,p)
Script:
p=1-normcdf(37,36.5,1);
disp(' p P(Y>=5) P(Z=5)');
disp([ p 1-binocdf(4,10,p) nbinpdf(5,1,p)])
hold on; x4=33:0.001:40; zzzz4=(x4>37).*(y4); plot(x4, y4);
set(gca,'xtick', [ 36.5 37]) ; yyyyf=spline(x4,zzzz4,x4); area(x4,yyyyf) ; hold off
5.3.- Que porcentaje de las personas con temperatura sobre 36 grados, presentan temperaturas inferiores a
los 37 grados, e identifique el modelo subyacente:
Solución:
Consideremos el evento de interés sobre del cual se efectúa lo solicitado:
Y = X=y| X>36;
FY(y)= P(X<= y | X>36)=P(36<X<y)/P(X>36)
= (F(y)-F(36))/ (1- F(36)),
62
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Script:
(normcdf(37,36.5,1)-normcdf(36,36.5,1))/(1-normcdf(36,36.5,1))
hold on; x=35:0.01:40; f=(x<36).*(0)+ (x>36).*((normpdf(x,36.5,1))/(1-normcdf(36,36.5,1)));
ff= (x>37).*((normpdf(x,36.5,1))/(1-normcdf(36,36.5,1))); plot(x, f,'r.'); set(gca,'xtick', [ 36 37 40 ]); fff=spline(x,ff,x); area(x,fff)
Fcond= (x<36).*(0)+ (x>36).*((normcdf(x,36.5,1)-normcdf(36,36.5,1))/(1-normcdf(36,36.5,1))); plot(x,Fcond,'r.')
Sea FX la función de distribución asociada a una v.a.X, Y=goX con g:D IR IR una función
creciente estricta, tal que XD c.s., entonces
FY y PY y PgoX y FX g 1 y .
De lo cual se desprende que, en el caso de X v.a. discreta, la obtención de dFY con Y=goX es muy
simple y para el caso continuo sólo es suficiente una exigencia adicional. Lo que presentamos en
el siguiente resultado, conocido como teorema del cambio de variable unidimensional.
Teorema
Sea X v.a. discreta o continua con D soporte de dFX , Y= goX con g:D IRIR función, entonces
b) Si X es v.a. continua; Y es v.a. continua con soporte g(D), g monótona estrica y diferenciable:
f Y y f X g 1 y dyd g y ,
1
y g D
A continuación presentamos un ejemplo, al primero de tres grupos de casos trascendentes para múltiples
aplicaciones, en lo que se refiere a transformaciones aleatorias como recurso para múltiples aplicaciones
Ejemplo3.6
1) X ~ N , Z X ~ N(0,1)
2
Nota. Este hecho es el que nos permite llevar todos los cálculos de probabilidades de variables normales a
N(0,1). Proceso conocido como estandarización; en particular para esta X ~ N , ,
2
su distribución,
X x x
FX x P X x P P Z , Y ~ N (0,1).
Este resultado, en la mayor parte de la literatura, hasta antes de softwares MATLAB, R,
63
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
SPSS… ; era necesario abordarlo al comienzo de toda presentación de variable aleatoria normal, para
hacer uso de tabla de distribución N(0,1), como recurso ineludible para calcular, cualquier
probabilidad de una v.a.normal arbitraria, que como ya hemos visto, no es necesaria.
Aquí se aprecia, lo relevante de N(0,1), que va más allá de un recurso operativo; su comportamiento, como
veremos al final de este capítulo, será el centro de la atención en la Parte II del presente texto; pero en lo
inmediato hay que distinguir los siguientes puntos notables de una v.a. N(0,1) y su extensión a una normal
arbitraria a partir de lo señalado en el párrafo anterior.
0.9772 0.9987
2 3
x
El 5% de valores superiores de la v.a.X, corresponde al puntaje z 1.6449 1.645 ;
es decir: x 1.645 , entonces x 1.645
Entonces:
0, yo
FY ( y )
F( y ) F ( y ), y0
p 0.1 0.2 0.25 0.4 0.5 0.6 0.6827 0.75 0.8 0.9 0.95 0.9445
y 0.0158 0.0642 0.1015 0.2750 0.4549 0.7083 1 1.3233 1.6424 2.7055 3.8415 4
Para valores:
y<0; FY ( y ) P(Y y ) P(Y ) 0
0, y0
FY ( y ) y, 0 y 1 , a la cual, corresponde el gráfico F=U(0,1); además una vez
1 y 1
0, y0
1, 0 y 1
derivada , logramos la densidad f de la v.a.Y: f Y ( y ) 1, 0 y 1
0 0, o.c.
y 1
Así entonces, dada una distribución F creciente estricta, y una muestra y1 ,.... yn con distribución U[0,1], al
1
considerar el sistema yi F ( xi ), i 1,..., n ; podemos obtener xi F ( yi ) , muestra tamaño n de una
v.a. X con distribución F ( X ~ F ).
Por esta y múltiples razones, es que todo sistema o procedimiento procedimiento para simular, debe ser
muy eficiente para la generación de números (pseudo) aleatorios en el intervalo (0,1).
Para aplicar directamente este procedimiento, basta que F sea creciente estricta, en el intervalo donde se
encuentra todo el peso de la v.a.X.. Procedimiento que en muchos casos, no es tan directo y se hace
necesario otros recursos, como es el caso de simular N(0,1), debido a lo complejo de invertir la
correspondiente distribución. Cabe destacar, que en la actualidad, la mayor parte de los procedimientos
para simular v.a. ya se encuentran implementados de manera muy eficiente, como en el caso de
MATLAB, R,SAS, SPSS u otro recurso de esta índole.
A continuación, presentamos según script que se acompaña: una m.a.(7), dos m.a.(10), y una m.a.(10);
N(0,1), Exp(1), Weibul(1,1) respectivamente:
66
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
N(0,1)
Muestra1: -1.1480 0.1049 0.7223 2.5855 -0.6669 0.1873 -0.0825
Muestra2: -1.9330 -0.4390 -1.7947 0.8404 -0.8880 0.1001 -0.5445
Muestra3: 0.3035 -0.6003 0.4900 0.7394 1.7119 -0.1941 -2.1384
Exp(1)
Muestra1: 1.3693 0.2054 1.4125 0.0734 1.0499 1.6266 1.3820 0.4844 0.7480 1.0451
Muestra 2: 0.1853 0.5357 0.5983 0.0864 1.2523 0.2781 0.2827 0.9664 0.5659 2.5789
Weibull (1,1)
Muestra: 1.3661 0.6813 0.3580 0.1155 0.0416 0.6029 1.9760 1.9018 1.3567 0.1735
Script:
(normrnd(0,1,7,3))';(exprnd(1,10,2))';(wblrnd(1,1,10,1))'
Con el objeto de disponer de un valor que nos caracterice en términos de los parámetros que
componen a dF, la forma de la v.a.X discreta o continua asociada, se ha pensado en obtener un valor
central, promedio, esperado o de expectativa de X respecto de las ponderaciones dadas por su propia
ley de comportamiento dF. El que servirá de base para disponer de otros valores de forma
(poblacional), llegando incluso a ser una poderosa herramienta para identificar su distribución.
Definición
Sea X una v.a. discreta o contínua, se define su media o valor esperado (esperanza) y denota como
E[X] al número real
x dFX : E[X], cuando exista.
Se puede verificar fácilmente en el caso discreto y de manera muy interesante por los recursos que
ha de utilizarse en el caso contínuo que si consideramos Y=goX ;
E[Y] y dFY g x dFX
Definición
Para una v.a. X discreta o continua, a IR ; se define (a,r) como el momento (teórico) de orden r
respecto de a, al número real dado por
E[ X a ]
r
x a r dFX : a, r , cuando exista.
En particular: 0,1 x dFX E[X] valor esperado o media de X.
Por este mecanismo, disponemos entonces de conceptos más generales que los citados en
estadística descriptiva, cuyo significado acompañamos:
67
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Comentario:
Cuando se informa (ESI-INE 2016) que la v.a. X : ingreso mensual p/persona en Chile, se presenta con
un valor:
- medio de $517540,
- con mediana $ 350000,
todo análisis, bajo el supuesto de comportamiento normal (Gauss) es incorrecto, ya que la curva normal
es simétrica con punto de simetría igual a la mediana , el cual coincide con la media; y en caso de una
aproximación, al menos se tendrían valores cercanos, pero no tan ostensiblemente distintos.
Afirmaciones, que por cierto son estadísticamente verificables, como veremos en la Parte II.
Propiedades
∫ (1 − 𝐹𝑋 (𝑥))𝑑𝑥, 𝑠𝑖 𝑋 𝑒𝑠 𝑣. 𝑎. 𝑐.
𝐸 [𝑋 ] = 0
+∞
∑ 𝑃 (𝑋 > 𝑥 ),
𝑠𝑖 𝑋 𝑒𝑠 𝑣. 𝑎. 𝑑.
{ 𝑥=0
1 − 𝐹𝑋 (𝑥) = 𝑃(𝑋 > 𝑥 ), se denomina función de sobrevivencia, cuando X v.a.c representa tiempos de
duración, vida útil o similares.
2) E [aX+b] = a E[X] + b.
2 2
De lo cual se desprende que V(X) = E[X ] - E [X] , V(aX+b) = a 2 V(X)
3) Para C=]a,b[ tal que P(C)=1 E[X] C
4) Si h i : Ai IR IR, i=1,2 tales que h1 h2 en C, PX (C)=1, se tiene que E[h1 (X)] E[h2 (X)]
6) Desigualdades
P X a E X / a r , a 0
r
6.1) (Markov)
6.2)(Chernoff)Si X (t ) = E[e
tX
] , a 0 P X a e ta X (t ), t 0 P X a eta X (t ), t 0
6.3) (Chebychev) Si c IR, E X c entonces, 0 , P X c EX c /
2 2 2
En particular: P( X E X ) V ( X ) / 2 .
1 1
E[ XY ] E[ X ]1 / r E[ Y ]1 / s , r 1, s 0 , 1 , (Schwartz si r=s=2)
r s
6.4)(Holder)
r s
r1 / r r1 / r
E[ X Y ]1 / r E X EY ,r 1
r
6.5)(Minkowski)
d 2h
6.6) (Jensen) Si h : A IR IR, tal que existe 0 en C, PX (C)=1, (h convexa en C soporte de X),
dx 2
entonces h (E[X]) E[h(X)].
En particular, si C IR :
(E[X])r E[X r ] , r IR,
68
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Definición
Dada una v.a. discreta o contínua X, una aplicación X : D IR IR, t X (t)=
tX
E[e ]; que satisface
1) D es un intervalo abierto que contiene al 0 ,
r
2) X (t ), t D; r k
t r
r r tX
3) X (t ) E t r e , t D; r k
t r
se denomina función generadora de momentos (centrales respecto del origen) hasta orden k.
Si ψ𝑋 (𝑡) = 𝐸[(1 + 𝑡) 𝑋 ] satisface estas tres condiciones ( en que la propiedad 3 ha de entenderse
como el dar cumplimiento a que la derivada pueda ingresar dentro de la esperanza), se denomina función
generadora de momentos factoriales ( en torno a t=1).
En rigor, tanto X como X son operadores, y como veremos inmediatamente; respectivamente, nos
proporcionan los momentos: factoriales y cuantíuas , y centrales respecto del origen, antes definidos
como (0,r).
𝜓𝑋 (𝑒 𝑡 − 1) = 𝐸 [(1 + 𝑒 𝑡 − 1) 𝑋 ] = 𝐸 [𝑒 𝑡𝑋 ] = 𝜑𝑋 (𝑡)
También se logran los mismos resultados con 𝑋 (𝑡) = 𝐸[𝑡 𝑋 ] efectuando los análisis en torno
a t=1, es decir:
𝜕
𝑋 (1) = 𝐸[𝑋],
𝜕𝑡
𝜕2
𝑋 (1) = 𝐸[𝑋(𝑋 − 1)]
𝜕𝑡𝑟2
𝜕
𝑋 (1) = 𝐸[𝑋(𝑋 − 1)(𝑋 − 2) … . (𝑋 − (𝑟 − 1)], 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑟 𝑒𝑛𝑡𝑒𝑟𝑜 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜
𝜕𝑡 𝑟
69
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑋 (𝑡) = 𝐸 [𝑡 𝑋 ] = ∑∞ 𝑥 ∞ 𝑥
𝑥=0 𝑡 𝑓 (𝑥 ) = 𝑓 (0) + ∑𝑥=1 𝑡 𝑓 (𝑥 );
Naturalmente, en esta descomposición 𝑓(𝑥) 𝑒𝑠 el coeficiente de 𝑡 𝑥 , el cual se puede obtener de
𝑋 mediante:
𝑋 ( 0) = 𝑓 (0)
∞ ∞ ∞
𝜕 𝜕 𝜕
𝑋 (𝑡) = ∑ 𝑡 𝑥 𝑓(𝑥 ) = ∑ 𝑥𝑡 𝑥−1 𝑓(𝑥 ) = 𝑓(1) + ∑ 𝑥𝑡 𝑥−1 𝑓(𝑥 ); 𝑋 (0) = 𝑓(1)
𝜕𝑡 𝜕𝑡 𝜕𝑡
𝑥=1 𝑥=1 𝑥=2
∞ ∞
𝜕2 𝜕2
( 𝑡 ) = ∑ 𝑥(𝑥 − 1)𝑡 𝑥−1 ( )
𝑓 𝑥 = 2𝑓 ( 2 ) + ∑ 𝑥(𝑥 − 1)𝑡 𝑥−1 ( )
𝑓 𝑥 ; 𝑋 (0) = 𝑓(2)
𝜕𝑡 2 𝑋 𝜕𝑡 2
𝑥=1 𝑥=3
𝜕𝑥
(0) = 𝑥! 𝑓(𝑥)
𝜕𝑡 𝑥𝑥 𝑋
1 𝜕
𝑥 𝑋
(0) = 𝑓(𝑥), 𝑥 𝑒𝑛 𝐷;
𝑥! 𝜕𝑡
Definición
Dada una v.a. discreta o contínua X, D un intervalo abierto que contenga a 0; la aplicación
X
:D IR IC, t X (t)= E[e ] itX
Proposición
Tal función característica (operador) , siempre existe y es única, por lo tanto caracteriza o identifica a la
v.a.X.
A diferencia de la función generadora, tal función característica siempre existe, además:
𝑋
- 𝑋 (𝑒 𝑖𝑡 ) = 𝐸 [(𝑒 𝑖𝑡 ) ] = 𝐸[𝑒 𝑖𝑡𝑋 ] = X t
- si X en D X t X it .
Resultado que efectivamente, permite caracterizar las v.a., al reconocer tal aplicación por su procedencia
o revisando las diferentes de funciones características que se encuentra en Anexo : Tabla de
características de variables aleatorias trascendentales, la cual también contiene un detalle de los
respectivos valores de interés abordados en la sección anterior.
70
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
X (t ) Ee itX e itx dF ( x) e itx f ( x)dx e itx e x dx e itxx dx e (it ) x dx
0 0 0 0 0
1
it
1
( it )e
( it ) x
= dx 1 X (it )
it 0
it 1 it
1 1 2
t d t t 1
con X (t ) 1 ; EX
d 1
( X (t )) 1 1 ,
dt t 0 dt
t 0 t 0
d 2
3
E X 1 t 1 21 t 1
2
d 2
2
( X (t )) ;
dt 2 dt
2
2
t 0 t 0 t 0
2
1
V ( X ) E X 2 E 2 X
2 1
2
2
Efectivamente:
𝑋 (0) = 𝑒 −𝜆 = 𝑓(0),
….
1 𝜕𝑥 𝜆𝑥 𝜆(𝑡−1) 𝜆𝑥 −𝜆
(0) = 𝑒 | = 𝑒 = 𝑓(𝑥)
𝑥! 𝜕𝑡 𝑥 𝑋 𝑥! 𝑡=0 𝑥!
𝜕𝑟
𝜕𝑡 𝑟
𝑋 (1) = 𝜆𝑟 𝑒−𝜆(𝑡−1) |𝑡=1 = 𝜆𝑟 ; 𝐸[𝑋(𝑋 − 1) … (𝑋 − (𝑟 − 1)] = 𝜆𝑟 , r=1,2,…..
71
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
72
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
73
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Definición
Una función X: IRn es un vector aleatorio (vec.a.) asociado a (,IA) sii X: IRn
Se adopta la notación X para diferenciarlas de las X v.a..
Ahora al disponer de un vec.a. tenemos:
P
X 1 A [0,1]
X
P X
A IRn
donde PX , la (medida de) probabilidad asociada al vec.a. X , se construye de la siguiente manera:
PX A PX 1 A P W / X W A : P X A
3.2.1.- Construcción de Medida de Probabilidad para un vec.a.
Definición
aquel operador que actúa sobre funciones F: IRn IR de la siguiente manera:
h F x1,.., xi 1, xi , xi 1,..xn F x1,.., xi 1, xi hi , xi 1,..xn F x1,.., xi 1, xi , xi 1,..xn
i
Propiedades
1) h F(x1 ,..., x n ) =
F(x1 + h1,..., xn + hn ) -
{F(x1, x2 + h2 ,..., xn + hn )+...+F(x1 + h1,..., xn-1 + hn-1, xn )} +
{F(x1, x 2 , x 3 + h 3 ,..., x n + h n ) + ... + F(x1 + h1 ,..., x n - 2 + h n - 2 , x n -1, x n )}+
+...+ (-1) F(x1 ,..., xn ).
n
Definición
Una función F: IRn IR se denomina función de distribución (de probabilidad en IRn ) sii:
F x1 ,..., xn 0, x1 ,..., xn IR n ,
ba F x1 ,..., xn 0, si a a1 ,..., a n , b b1 ,..., bn , ai bi i ,
F continua por la derecha en cada componente,
F , x2 ,..., xn ... F x1 ,..., xn1 , 0 y F ,..., 1 .
Al igual que en el caso real, existe una correspondencia bi-unívoca entre el espacio
IP = {P:(IRn , n ) IR / P es medida de probabilidad} y el espacio IF = {F: IRn IR / F es función de
distribución}, que puede exponerse de la siguiente manera:
Se repite entonces en este caso la relevancia de las funciones de distribución y por tal motivo es
conveniente disponer de algún método de construcción. Para ello basta con extender a IRn las
definiciones de función de cuantía y densidad reales, como veremos a continuación.
Definición
Se dice que una función f: :D IR IR, f(x) 0, x D,
n
f x 0x D, es:
-cuantía sii D es numerable, y f x 1
x D
Luego, podemos exponer el nexo entre estas funciones de cuantía o densidad con las funciones
de distribución de la siguiente manera:
para x = (x1,...,xn ) IR
n
f t , f cuantía
F x t t1 ,...,t n A / t i x i ,i
: dF (t )
.... f x dx1...dxn
x1 xn
f densidad n , x
- i
i 1
F x
n
vec.a.discreto
f X cuantía
FX
X
f X densidad
vec.a. contínuo
e.d. Si X es un vec.a. cuya función de distribución proviene de una función de cuantía o densidad,
respectivamente, diremos que tal vector es discreto o bien continuo.
Propiedad
1)Si f X es una función de cuantía o densidad con soporte en D Rn , que define una distribución FX
asociada a PX , entonces
f X x , si f X es cuantía
x A
2) Siendo f X densidad, ai bi ; para cualquier intervalo desde ai hasta bi, , que denotaremos ai , bi ,
se verifica:
n
PX ai , bi n dFX f X x dx1 dx n
b1 bn
i 1 i1 ai ,bi a1 an
3) Todo subespacio propio de IRn , tiene probabilidad igual a cero de ocurrir (salvo un milagro, ocurre).
3.2.2.- MODELOS
Nuestro concepto de modelo (probabilístico), definido en 3.1.2 fue general. Atendiendo a ello es
que nos referiremos en forma análoga a modelos discretos y continuos, e identificaremos a un
vec.a. X con su particular cuantía o densidad f, mediante la notación X ~ f X .
a) DISCRETO
X ~ Multinomial
76
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
X ~ Hipergeométrica (dos variables)
N N N3 N
f x 1 2 / ; con n N= N1+N2+N3 ,
x1 x2 n x1 x2 n
x ( x1 , x2 ) {( x1 , x2 ) t.q. x1 0,.., min n, N1, x2 0,.., min n, N 2 ,0 n x1 x2 N3}
(selección al azar sin reemplazo, de objetos provenientes de una agrupación de 3 tipos excluyentes)
b) CONTINUO:
1 ,
V aij i , j 1,.., p ;
f x 2 V 1 exp x V 1 x ,
p/2 1/ 2
x IRp
2
En particular si aij 0, i j , aij 2 , i j , entonces V 2I ;
n
1
(x
p/2
f X 2 2 exp i ) 2 .
2
2 i
i 1
1 ,
f x 2 V 1 exp x V 1 x ,
1/ 2
x IR2
2
Su gráfico, es similar al de la siguiente figura, la cual es una superficie (campana) que se acerca a cero en
todas las direcciones del plano (x,y), de secciones verticales campanas unidimensionales como las ya
abordadas y elipses en las secciones transversales paralelas al plano x,y, las cuales se reducen a
circunferencias en aquellas distribuciones donde 12 22 , y 12 0
77
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
X ~ Np ( , /n)
X (1)
5.- Si X = ( 2) donde X(1) , X (2) son una partición del vector X ~ Np ( ,) de
X
5.2.- X(1)| X (2) ~ Nq (1|2 , 1|2) , con 1|2 = (1) +X (2) - (2)) y
5.4.- Cov(X(1), X1.2) = es decir la asociación del primer vector aletorio y el mismo bajo
restricción a otro vector es tanta como la variabilidad de su transformación dada por el
espacio residual.
5.5.- Cov(X(2), X1.2) = 0lo que sumado a la normalidad, nos indica que en base a esta
ortogonalidad, entonces existe independencia entre las variaciones residuales X 1.2 y fijas X(2).
78
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
N(0,1)
Muestra1: -1.1480 0.1049 0.7223 2.5855 -0.6669 0.1873 -0.0825
Muestra2: -1.9330 -0.4390 -1.7947 0.8404 -0.8880 0.1001 -0.5445
Muestra3: 0.3035 -0.6003 0.4900 0.7394 1.7119 -0.1941 -2.1384
Exp(1)
Muestra1: 1.3693 0.2054 1.4125 0.0734 1.0499 1.6266 1.3820 0.4844 0.7480 1.0451
Muestra 2: 0.1853 0.5357 0.5983 0.0864 1.2523 0.2781 0.2827 0.9664 0.5659 2.5789
Weibull (1,1)
Muestra: 1.3661 0.6813 0.3580 0.1155 0.0416 0.6029 1.9760 1.9018 1.3567 0.1735
Script:
(normrnd(0,1,7,3))';(exprnd(1,10,2))';(wblrnd(1,1,10,1))'
Con el objeto de disponer de un valor que nos caracterice en términos de los parámetros que
componen a dF, la forma de la v.a.X discreta o continua asociada, se ha pensado en obtener un valor
central, promedio, esperado o de expectativa de X respecto de las ponderaciones dadas por su propia
ley de comportamiento dF. El que servirá de base para disponer de otros valores de forma
(poblacional), llegando incluso a ser una poderosa herramienta para identificar su distribución.
Definición
Sea X una v.a. discreta o contínua, se define su media o valor esperado (esperanza) y denota como
E[X] al número real
x dFX : E[X], cuando exista.
Se puede verificar fácilmente en el caso discreto y de manera muy interesante por los recursos que
ha de utilizarse en el caso contínuo que si consideramos Y=goX ;
E[Y] y dFY g x dFX
Definición
Para una v.a. X discreta o continua, a IR ; se define (a,r) como el momento de orden n respecto de
a, al número real dado por
E[ X a ]
r
x a r dFX : a, r , cuando exista.
En particular: 0,1 x dFX E[X] valor esperado o media de X.
Por este mecanismo, disponemos entonces de conceptos más generales que los citados en
estadística descriptiva, cuyo significado acompañamos:
67
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Comentario:
Cuando se informa (ESI-INE 2016) que la v.a. X : ingreso mensual p/persona en Chile, se presenta con
un valor:
- medio de $517540,
- con mediana $ 350000,
todo análisis, bajo el supuesto de comportamiento normal (Gauss) es incorrecto, ya que la curva normal
es simétrica con punto de simetría igual a la mediana , el cual coincide con la media; y en caso de una
aproximación, al menos se tendrían valores cercanos, pero no tan ostensiblemente distintos.
Afirmaciones, que por cierto son estadísticamente verificables, como veremos en la Parte II.
Propiedades
∫ (1 − 𝐹𝑋 (𝑥))𝑑𝑥, 𝑠𝑖 𝑋 𝑒𝑠 𝑣. 𝑎. 𝑐.
𝐸 [𝑋 ] = 0
+∞
∑ 𝑃 (𝑋 > 𝑥 ),
𝑠𝑖 𝑋 𝑒𝑠 𝑣. 𝑎. 𝑑.
{ 𝑥=0
1 − 𝐹𝑋 (𝑥) = 𝑃(𝑋 > 𝑥 ), se denomina función de sobrevivencia, cuando X v.a.c representa tiempos de
duración, vida útil o similares.
2) E [aX+b] = a E[X] + b.
2 2
De lo cual se desprende que V(X) = E[X ] - E [X] , V(aX+b) = a 2 V(X)
3) Para C=]a,b[ tal que P(C)=1 E[X] C
4) Si h i : Ai IR IR, i=1,2 tales que h1 h2 en C, PX (C)=1, se tiene que E[h1 (X)] E[h2 (X)]
6) Desigualdades
P X a E X / a r , a 0
r
6.1) (Markov)
6.2)(Chernoff)Si X (t ) = E[e
tX
] , a 0 P X a e ta X (t ), t 0 P X a eta X (t ), t 0
6.3) (Chebychev) Si c IR, E X c entonces, 0 , P X c EX c /
2 2 2
En particular: P( X E X ) V ( X ) / 2 .
1 1
E[ XY ] E[ X ]1 / r E[ Y ]1 / s , r 1, s 0 , 1 , (Schwartz si r=s=2)
r s
6.4)(Holder)
r s
r1 / r r1 / r
E[ X Y ]1 / r E X EY ,r 1
r
6.5)(Minkowski)
d 2h
6.6) (Jensen) Si h : A IR IR, tal que existe 0 en C, PX (C)=1, (h convexa en C soporte de X),
dx 2
entonces h (E[X]) E[h(X)].
En particular, si C IR :
(E[X])r E[X r ] , r IR,
68
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Definición
Dada una v.a. discreta o contínua X, una aplicación X : D IR IR, t X (t)=
tX
E[e ]; que satisface
1) D es un intervalo abierto que contiene al 0 ,
r
2) X (t ), t D; r k
t r
r r tX
3) X (t ) E t r e , t D; r k
t r
se denomina función generadora de momentos (centrales respecto del origen) hasta orden k.
Si ψ𝑋 (𝑡) = 𝐸[(1 + 𝑡) 𝑋 ] satisface estas tres condiciones ( en que la propiedad 3 ha de entenderse
como el dar cumplimiento a que la derivada pueda ingresar dentro de la esperanza), se denomina función
generadora de momentos factoriales ( en torno a t=1).
En rigor, tanto X como X son operadores, y como veremos inmediatamente; respectivamente, nos
proporcionan los momentos: factoriales y cuantíuas , y centrales respecto del origen, antes definidos
como (0,r).
𝜓𝑋 (𝑒 𝑡 − 1) = 𝐸 [(1 + 𝑒 𝑡 − 1) 𝑋 ] = 𝐸 [𝑒 𝑡𝑋 ] = 𝜑𝑋 (𝑡)
También se logran los mismos resultados con 𝑋 (𝑡) = 𝐸[𝑡 𝑋 ] efectuando los análisis en torno
a t=1, es decir:
𝜕
𝑋 (1) = 𝐸[𝑋],
𝜕𝑡
𝜕2
𝑋 (1) = 𝐸[𝑋(𝑋 − 1)]
𝜕𝑡𝑟2
𝜕
𝑋 (1) = 𝐸[𝑋(𝑋 − 1)(𝑋 − 2) … . (𝑋 − (𝑟 − 1)], 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑟 𝑒𝑛𝑡𝑒𝑟𝑜 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜
𝜕𝑡 𝑟
69
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑋 (𝑡) = 𝐸 [𝑡 𝑋 ] = ∑∞ 𝑥 ∞ 𝑥
𝑥=0 𝑡 𝑓 (𝑥 ) = 𝑓 (0) + ∑𝑥=1 𝑡 𝑓 (𝑥 );
Naturalmente, en esta descomposición 𝑓(𝑥) 𝑒𝑠 el coeficiente de 𝑡 𝑥 , el cual se puede obtener de
𝑋 mediante:
𝑋 ( 0) = 𝑓 (0)
∞ ∞ ∞
𝜕 𝜕 𝜕
𝑋 (𝑡) = ∑ 𝑡 𝑥 𝑓(𝑥 ) = ∑ 𝑥𝑡 𝑥−1 𝑓(𝑥 ) = 𝑓(1) + ∑ 𝑥𝑡 𝑥−1 𝑓(𝑥 ); 𝑋 (0) = 𝑓(1)
𝜕𝑡 𝜕𝑡 𝜕𝑡
𝑥=1 𝑥=1 𝑥=2
∞ ∞
𝜕2 𝜕2
( 𝑡 ) = ∑ 𝑥(𝑥 − 1)𝑡 𝑥−1 ( )
𝑓 𝑥 = 2𝑓 ( 2 ) + ∑ 𝑥(𝑥 − 1)𝑡 𝑥−1 ( )
𝑓 𝑥 ; 𝑋 (0) = 𝑓(2)
𝜕𝑡 2 𝑋 𝜕𝑡 2
𝑥=1 𝑥=3
𝜕𝑥
(0) = 𝑥! 𝑓(𝑥)
𝜕𝑡 𝑥𝑥 𝑋
1 𝜕
𝑥 𝑋
(0) = 𝑓(𝑥), 𝑥 𝑒𝑛 𝐷;
𝑥! 𝜕𝑡
Definición
Dada una v.a. discreta o contínua X, D un intervalo abierto que contenga a 0; la aplicación
X
:D IR IC, t X (t)= E[e ] itX
Proposición
Tal función característica (operador) , siempre existe y es única, por lo tanto caracteriza o identifica a la
v.a.X.
A diferencia de la función generadora, tal función característica siempre existe, además:
𝑋
- 𝑋 (𝑒 𝑖𝑡 ) = 𝐸 [(𝑒 𝑖𝑡 ) ] = 𝐸[𝑒 𝑖𝑡𝑋 ] = X t
- si X en D X t X it .
Resultado que efectivamente, permite caracterizar las v.a., al reconocer tal aplicación por su procedencia
o revisando las diferentes de funciones características que se encuentra en Anexo : Tabla de
características de variables aleatorias trascendentales, la cual también contiene un detalle de los
respectivos valores de interés abordados en la sección anterior.
70
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
X (t ) Ee itX e itx dF ( x) e itx f ( x)dx e itx e x dx e itxx dx e (it ) x dx
0 0 0 0 0
1
it
1
( it )e
( it ) x
= dx 1 X (it )
it 0
it 1 it
1 1 2
t d t t 1
con X (t ) 1 ; EX
d 1
( X (t )) 1 1 ,
dt t 0 dt
t 0 t 0
d 2
3
E X 1 t 1 21 t 1
2
d 2
2
( X (t )) ;
dt 2 dt
2
2
t 0 t 0 t 0
2
1
V ( X ) E X 2 E 2 X
2 1
2
2
Efectivamente:
𝑋 (0) = 𝑒 −𝜆 = 𝑓(0),
….
1 𝜕𝑥 𝜆𝑥 𝜆(𝑡−1) 𝜆𝑥 −𝜆
(0) = 𝑒 | = 𝑒 = 𝑓(𝑥)
𝑥! 𝜕𝑡 𝑥 𝑋 𝑥! 𝑡=0 𝑥!
𝜕𝑟
𝜕𝑡 𝑟
𝑋 (1) = 𝜆𝑟 𝑒−𝜆(𝑡−1) |𝑡=1 = 𝜆𝑟 ; 𝐸[𝑋(𝑋 − 1) … (𝑋 − (𝑟 − 1)] = 𝜆𝑟 , r=1,2,…..
71
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Pascal o p 2 6q k
Binomial x 1 k x k 2
2 p pet
k/ p kq / p 3 6 2 (1 1/ )(1 2 / ) 3 4 (1 1 / )
Negativa kq .
p q ,
t
kq
Bneg(k,p) k 1 1 qe ((1 2 / ) 2 (1 1 / ))2
k Z+, x k , k 1,... ( , ) ( )( ) / ( )
p ]0,1[
Poisson t
x e / x!, x 0,1,... 1/ 3 1/ e ( e 1) K t ((r 1) / 2) /( r (r / 2))
P( ), >0
K F (((r s) / 2) /((r / 2)(s / 2)))(r / s) r / 2
72
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Uniforme 9
U(, ), <
1 , x 2 0
et et ,t0
5 t
2 12
Exponencial e- x, x > 0 2 9 (1-t/)-1, t <
1/ 1 / 2
Exp(), > 0
Gamma
x r 1 e x ,x>0 3(1+2/r)
(r, ) r/ (1-t/)-r, t <
( r ) r / 2 2/ r
r > 0, > 0
r x r
Chi-cuadrado 1 1
r 2r 3(1+4/r)
1 2t 2 , t
2 x2 e 2 3/ 2
(r), r > 0 2 / r 2
2 r / 2 ( r / 2)
Normal o Gauss
1 x 2 1 2 2
1 t t
N( , 2) , - < x < 2 0 3 2
e 2
- < < , > 0 2 e
Lognormal 1 In ( x ) 2
2 2
1 2 ,x>0 1
Lg(, 2) 2
e e 2 (e 1)
- < < , > 0 2 x 2
e
Beta x 1 (1 x) 1 , 0 x 1
(,) 2
(4) (5)
> 0, > 0 , 1
Weibull
W(, ) x 1 / (1 1 / ) 2 / ((1 2 / ) 2 (1 1/ )) (6) (7)
x 1 e ,x > 0
> 0, > 0
t-Student r 1 0
r 3( r 2 )
x2 2
t(r ) , - < x < ,r>2
r>0 K t 1 0 r2 r 1
r
,r>1
Fisher o Snedecor r s
r s
1 2
F(r,s)
2s 2 r s 2 , s > 1
KF 2 r ,x>0 ,s > 2 2
r > 0, n > 0 x 1 x s2 r s 2 s 4
s
Cauchy / no existe no existe no existe no existe no existe
, x
C(), >0 ( x )2 2
Rayleigh x2
x /2 (2 / 2) 2
R(), >0 2 2
e ,x 0
2
Laplace x 2
L(,β), ,β>0 e , x 0 6 e t
2 2 / 2 2 2
t
73
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Definición
Una función X: IRn es un vector aleatorio (vec.a.) asociado a (,IA) sii X: IRn
Se adopta la notación X para diferenciarlas de las X v.a..
Ahora al disponer de un vec.a. tenemos:
P
X 1 A [0,1]
X
P X
A IRn
donde PX , la (medida de) probabilidad asociada al vec.a. X , se construye de la siguiente manera:
PX A PX 1 A P W / X W A : P X A
3.2.1.- Construcción de Medida de Probabilidad para un vec.a.
Definición
aquel operador que actúa sobre funciones F: IRn IR de la siguiente manera:
h F x1,.., xi 1, xi , xi 1,..xn F x1,.., xi 1, xi hi , xi 1,..xn F x1,.., xi 1, xi , xi 1,..xn
i
Propiedades
1) h F(x1 ,..., x n ) =
F(x1 + h1,..., xn + hn ) -
{F(x1, x2 + h2 ,..., xn + hn )+...+F(x1 + h1,..., xn-1 + hn-1, xn )} +
{F(x1, x 2 , x 3 + h 3 ,..., x n + h n ) + ... + F(x1 + h1 ,..., x n - 2 + h n - 2 , x n -1, x n )}+
+...+ (-1) F(x1 ,..., xn ).
n
Definición
Una función F: IRn IR se denomina función de distribución (de probabilidad en IRn ) sii:
F x1 ,..., xn 0, x1 ,..., xn IR n ,
ba F x1 ,..., xn 0, si a a1 ,..., a n , b b1 ,..., bn , ai bi i ,
F continua por la derecha en cada componente,
F , x2 ,..., xn ... F x1 ,..., xn1 , 0 y F ,..., 1 .
Al igual que en el caso real, existe una correspondencia bi-unívoca entre el espacio
IP = {P:(IRn , n ) IR / P es medida de probabilidad} y el espacio IF = {F: IRn IR / F es función de
distribución}, que puede exponerse de la siguiente manera:
Se repite entonces en este caso la relevancia de las funciones de distribución y por tal motivo es
conveniente disponer de algún método de construcción. Para ello basta con extender a IRn las
definiciones de función de cuantía y densidad reales, como veremos a continuación.
Definición
Se dice que una función f: :D IR IR, f(x) 0, x D,
n
f x 0x D, es:
-cuantía sii D es numerable, y f x 1
x D
Luego, podemos exponer el nexo entre estas funciones de cuantía o densidad con las funciones
de distribución de la siguiente manera:
para x = (x1,...,xn ) IR
n
f t , f cuantía
F x t t1 ,...,t n A / t i x i ,i
: dF (t )
.... f x dx1...dxn
x1 xn
f densidad n , x
- i
i 1
F x
n
vec.a.discreto
f X cuantía
FX
X
f X densidad
vec.a. contínuo
e.d. Si X es un vec.a. cuya función de distribución proviene de una función de cuantía o densidad,
respectivamente, diremos que tal vector es discreto o bien continuo.
Propiedad
1)Si f X es una función de cuantía o densidad con soporte en D Rn , que define una distribución FX
asociada a PX , entonces
f X x , si f X es cuantía
x A
2) Siendo f X densidad, ai bi ; para cualquier intervalo desde ai hasta bi, , que denotaremos ai , bi ,
se verifica:
n
PX ai , bi n dFX f X x dx1 dx n
b1 bn
i 1 i1 ai ,bi a1 an
3) Todo subespacio propio de IRn , tiene probabilidad igual a cero de ocurrir (salvo un milagro, ocurre).
3.2.2.- MODELOS
Nuestro concepto de modelo (probabilístico), definido en 3.1.2 fue general. Atendiendo a ello es
que nos referiremos en forma análoga a modelos discretos y continuos, e identificaremos a un
vec.a. X con su particular cuantía o densidad f, mediante la notación X ~ f X .
a) DISCRETO
X ~ Multinomial
76
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
X ~ Hipergeométrica (dos variables)
N N N3 N
f x 1 2 / ; con n N= N1+N2+N3 ,
x1 x2 n x1 x2 n
x ( x1 , x2 ) {( x1 , x2 ) t.q. x1 0,.., min n, N1, x2 0,.., min n, N 2 ,0 n x1 x2 N3}
(selección al azar sin reemplazo, de objetos provenientes de una agrupación de 3 tipos excluyentes)
b) CONTINUO:
1 ,
V aij i , j 1,.., p ;
f x 2 V 1 exp x V 1 x ,
p/2 1/ 2
x IRp
2
En particular si aij 0, i j , aij 2 , i j , entonces V 2I ;
n
1
(x
p/2
f X 2 2 exp i ) 2 .
2
2 i
i 1
1 ,
f x 2 V 1 exp x V 1 x ,
1/ 2
x IR2
2
Su gráfico, es similar al de la siguiente figura, la cual es una superficie (campana) que se acerca a cero en
todas las direcciones del plano (x,y), de secciones verticales campanas unidimensionales como las ya
abordadas y elipses en las secciones transversales paralelas al plano x,y, las cuales se reducen a
circunferencias en aquellas distribuciones donde 12 22 , y 12 0
77
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
X ~ Np ( , /n)
X (1)
5.- Si X = ( 2) donde X(1) , X (2) son una partición del vector X ~ Np ( ,) de
X
5.2.- X(1)| X (2) ~ Nq (1|2 , 1|2) , con 1|2 = (1) +X (2) - (2)) y
5.4.- Cov(X(1), X1.2) = es decir la asociación del primer vector aletorio y el mismo bajo
restricción a otro vector es tanta como la variabilidad de su transformación dada por el
espacio residual.
5.5.- Cov(X(2), X1.2) = 0lo que sumado a la normalidad, nos indica que en base a esta
ortogonalidad, entonces existe independencia entre las variaciones residuales X 1.2 y fijas X(2).
78
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
x ( 2 ) IR n- p f X 1 , X 2 x , x
1 2
dFX 1 x f X 1 x
1 1
IR n- p X 1 , X 2
f x 1 , x 2 dx 2
1 1
es la función de cuantía o densidad asociada a X de X respecto de X . En
y se denomina marginal
consecuencia este vector también es discreto o continuo según lo sea X . Concluimos entonces que un
vec.a. es discreto o continuo si y solo si todas sus componentes son v.a. discretas o continuas
respectivamente.
1
Ahora si nos interesamos en el comportamiento de este mismo vec.a. X discreto o continuo , pero
2
condicionado a que el vec.a. discreto o continuo X formado por una parte o todas las componentes de
1 2
X que no se encuentran en X , asuma un particular valor x . Podemos pensar entonces en lograr
1
primero la función de distribución asociada que se denominará distribución condicional de X dado
2 2
X =x ; siguiendo lo realizado en probabilidades, le denotaremos de la siguiente manera:
P X 1 , x i1 X 2 x 2
P
: F 1
i 1 X 1 X 2 x
2 x
f X 1 , X 2 x 1 , x 2
PX 1
X 1
X 2
x 2
f X 2 x 2
, si f X 2 x 2 > 0
Corresponde entonces, para este caso, el asumir que cuando existe dFX 1 | X 2 x 2 x , es dada mediante
1
f X 1 , X 2 x 1 , x2
dFX 1 | X 2 x 2 x 1
f X 2 x ,
2
la que denominaremos función de cuantía condicional de
X
1
dado X 2 x 2 y en lugar de
dFX 1 | X 2 x 2 x1 , se denota f X 1 | X 2 x 2 x 1 .
79
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Para el caso continuo de igual manera definiremos su análoga y se denominará función de densidad
1 2 2
condicional de X dado X =x .
Podemos concluir a este respecto que también en este caso de vec a. discreto o continuo condicional
podemos realizar la siguiente representación:
FX 1 |X 2 = x 2 X 1 p
dFX | X x x
1
i 1
, xi1
1 2 2
En el Capítulo anterior cuando hablamos de sucesos, decíamos que ellos ocurren en forma
independiente siempre y cuando la probabilidad de que ocurran simultáneamente coincide con el
producto de las probabilidades de cada uno de ellos. También ahora podremos hablar de esto al referirnos a
1 2
los valores en que son transformados tanto a través de X como por X , pues
A partir de este último resultado, haciendo referencia a sucesos conjuntamente independientes, permite
construir la siguiente definición
Definición:
Entenderemos por independencia conjunta de un grupo X 1 ,...,X n de v.a. , todas discretas (o continuas),
como el hecho en el cual toda combinación de ellas tiene una función de cuantía (o densidad)conjunta ,
expresable como el producto de las cuantías marginales de cada una de sus componentes. Así X 1 ,...,X
n conjuntamente independientes (variables independientes v.i.), entonces
n
f X X f X i x i , donde X X 1 ,, X n , x x1 ,, x n .
i 1
Denotaremos X 1 ,...,X n m.a.(n), muestra aleatoria tamaño n de X (v.a. discreta o continua): variables
aleatorias independientes idénticamente distribuidas (v.a.i.i.d.). En tal caso f X X f X x1 ....... f X xn .
Ejemplo3.7
La respuesta conjunta o resultados que puede asumir una muestra aleatoria de tamaño n (m.a.(n)) de una
v.a.X, da forma al vector aleatorio X ( X 1 , X 2 ,...., X n ) ). Para el caso X ̴ Exp(λ ), estas n realizaciones
a la vez, rigen su comportamiento a través de la función de densidad conjunta:
f X X f X i xi f X1 x1 f X 2 x2 f X 3 x3 f X n xn
n
i 1
80
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
x+y≤z
z-t
| x
t
Ejemplo3.8:
a)Consideremos Z=X+Y, donde X,Y son v.a. U(a,b) e independientes. Entonces:
∞
∞ ∞
1 1 1
𝑓𝑍 (𝑧) = ∫ 𝑓𝑋 (𝑡)𝑓𝑌 (𝑧 − 𝑡)𝑑𝑡 = ∫ 𝐼(𝑎,𝑏) (𝑡) 𝐼 (𝑧 − 𝑡)𝑑𝑡 = ∫ 𝐼(𝑎,𝑏) (𝑡) 𝐼(𝑎,𝑏) (𝑧 − 𝑡)𝑑𝑡
−∞ −∞ 𝑏 − 𝑎 𝑏 − 𝑎 (𝑎,𝑏) (𝑏 − 𝑎)2
−∞
Apreciando en el plano (z,t) las restricciones del integrando: 𝑎 < 𝑧 − 𝑡 < 𝑏; a<t<b, 𝑎 + 𝑡 < 𝑧 < 𝑏 + 𝑡
entonces:
a<t; 𝑎 + 𝑡 < 𝑧 < 𝑏 + 𝑡 implica: 2a<z<a+b, en tal caso
𝐼(𝑎,𝑏) (𝑡) 𝐼(𝑎,𝑏) (𝑧 − 𝑡) = 𝐼(2𝑎,𝑧) (𝑡)
t<b; 𝑎 + 𝑡 < 𝑧 < 𝑏 + 𝑡 implica a+b<z<2b
𝐼(𝑎,𝑏) (𝑡) 𝐼(𝑎,𝑏) (𝑧 − 𝑡) = 𝐼(𝑧,2𝑏) (𝑡)
81
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Así, finalmente:
𝑧 − 2𝑎
, 2𝑎 < 𝑧 ≤ 𝑎 + 𝑏
(𝑏 − 𝑎)2
𝑓𝑍 (𝑧) = 2𝑏 − 𝑧
, 𝑎 + 𝑏 < 𝑧 < 2𝑏
(𝑏 − 𝑎)2
{ 0, 𝑜. 𝑐
Como se aprecia, la suma de dos v.a. uniformes e incluso idénticas; deja de ser uniforme.
lográndose:
0, 𝑧<𝑎
−1 −λ (𝑧−𝑎)
(𝑒 − 1), 𝑎<𝑧<𝑏
𝑓𝑍 (𝑧) = 𝑏−𝑎
−1 −λ(𝑧−𝑎) − 𝑒 −λ(𝑧−𝑏) ),
{𝑏 − 𝑎 (𝑒 𝑧>𝑏
Naturalmente, salvo dificultades de integración; son más sencillos los casos en que las funciones de densidad utilizadas al
aplicar convolución, no requieren funciones indicadoras para su formulación.
f Z z n1 FX ( z ) f X ( z ).
n 1
82
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo3.9:
Consideremos una m.a.( n) de una v.a. X ̴ Exp(λ ), que bien puede corresponder al tiempo entre llegadas de
clientes a un cierto servicio, bajo los principios de un Proceso Poisson:
0, x0
e x , x 0 x 0, x0
f ( x) F ( x)
0
f ( x)dx, x 0 1 e , x 0
x
0, 0.c.
Y=tiempo máximo entre n llegadas consecutivas
Z=tiempo mínimo ( menor tiempo) entre estas n llegadas
y0
y
0,
FY y FX
n
1 e
y n
, y0
,
y0
y f X ( y)
0,
f Y y nFX
n 1
n 1 e
e ,
y n 1 y
y0
0, z 0 0, z0
FZ z 1 1 FX z
1 e
z n
nz
, z 0 1 e , z 0
0, z 0 0, z0
f Z z n1 FX ( z )
n 1
f X ( z) ( n 1) z z
nz
ne e , z 0 ne , z 0
por lo tanto: Z es v.a. Exp (n)
Tabla de percentiles para X, Y,Z, se acompaña percentiles que representa X=1,para X,Y ,Z
Para el caso: λ=1, n=10
v.a. 0.1 0.2 Q1 Q2 0.6321 Q3 0.8 0.9 0.95
X~Exp(1) 0.1054 0.2231 0.2877 0.6931 1 1.3863 1.6094 2.3026 2.9957
Y 1.515 1.9061 2.0445 2.7036 0.0102 3.5628 3.8137 4.5582 5.2753
Z~Exp(10) 0.0105 0.0223 0.0288 0.0693 0.0952 0.1386 0.1609 0.2303 0.2996
83
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Entonces, es interesante disponer también, de algún método similar al de v.a. para determinar el
comportamiento de una alteración (transformación) de un vec.a., más arbitraria. A continuación
presentamos un resultado que se basa en el Teorema de Cálculo para garantizar función inversa y que en este
ámbito es conocido como “teorema del cambio de variable”, en su versión n dimensional.
una función g: D IR IR , entonces
n m
a) Si X es vec.a.discreto; Y es vec.a.discreto de soporte g D
fY y
x y
f X x , y g D con y x / g x y
b) Si X es vec.a. continuo; m=n, Y es vec.a.continuo de soporte g D . Además para g diferenciable con
diferencial no nulo en D
fY y f X g 1 y g 1 y , y g D
Se ha denotado por g 1 y , al valor absoluto del jacobiano (determinante de la matriz de
derivadas parciales) de g 1 evaluada en y .
Corolario
No podemos aplicar directamente este teorema cuando Y g1 X , con g1 : IR IR, X es vec.a. continuo.
n
n
Sin embargo podemos hacerlo si estructuramos una aplicación g : IR IR , que satisfaga las
n
hipótesis del teorema e incluya entre sus componentes a g1 , como puede ser algo de la forma,
g g1 ,...., g n y cada gi : IRn IRi 2, así podemos lograr dF Y como el comportamiento marginal
de g1 respecto de g .
De este teorema, se desprenden los siguientes ejemplos teóricos de enorme relevancia en aplicaciones
Ejemplo3.10
2 n
X
1) X ~ N(0,1), Y ~ ~ t n Student de parámetro n
Y /n
2) X ~ n , Y ~ m
2 2 X /n
~ F(n,m) Fischer (o Snedecor) de parámetros n,m.
Y /m
2
X X
n
(n 1) s
i
N , 2 entonces : ~ (n 1)
i 1 2
3) Todas normales
2
2
84
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
En lo principal, el valor esperado de v .a. es un operador lineal. Ahora su análogo para este caso también
debe serlo. Extenderemos este concepto de la siguiente manera: entenderemos por valor esperado de un
vector aleatorio X X 1 ,...., X n , como el vector formado por los valores esperados de sus
componentes, es decir
EX EX 1 ,...., EX n .
Restándonos entonces el determinar sólo el valor esperado de una variable aleatoria originada como
transformación de un vec.a., que es a lo que se refiere la siguiente definición.
Definición
Sea X una vec.a.discreto o contínuo, definimos el valor esperado de una transformación (v.a.) Y goX ,
donde g: IR IR y se denotará por E[Y], al número real
n
n
g x dFX , cuando este exista.
IR
Observación
Para un vec.a. discreto o continuo X X 1
, X 2 , podemos realizar el siguiente comentario de
verificación muy simple:
Cuando X 1 , X 2 vec.a. independientes, entonces:
E g1 X 1 g 2 X 2 E g1 X 1 E g 2 X 2 , g1 , g 2 .
85
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
n n
𝑌 (𝑡) = X i t , además Y t se reduce a Y t Xi t . Aun más, en muestras
i 1 i 1
aleatorias , X1 ,..., X n son v.a.i.i.d de una v.a.X, entonces X i (t ) X (t ), para todo i; concluyéndose
Ejemplo3.11
Sean X i ik1 v.a. independientes,
1. Y X1 ... X k tal que:
X1 ... X k 2
1.1) E[ X i ]= , V ( X i ) = , Xk E[ X k ] , V [ X k ]
2
k k
1.2) X i ~ N i , i Y ~ N , , 1 .... k , 1 ... k
2 2 2 2 2
Los tres primeros casos de este ejemplo, se desprenden directamente del comentario previo, al apreciar lo
siguiente:
1 2 2 1 22 1 2 2 2
i1t 1 t int k t x i ( 1 .... k ) t (1 ...... k ) t
e 2
e 2
e 2
1 t / 1
......(1 t / ) k
(1 t / )(1 ..... k )
El cuarto caso requiere del teorema del cambio de variable.
En los casos 2n , tn , F(n,m), , por razones prácticas, se hace referencia a los respectivos parámetros
como grados de libertad de tales densidades. Las aplicaciones de los resultados obtenidos son enormes,
primeramente lo apreciaremos en el siguiente ejemplo y veremos más adelante, que la importancia de estas
distribuciones radica en que, representan el comportamiento de diferentes transformaciones de v.a.,
frecuentemente utilizadas en la toma de decisiones:
.
Ejemplo3.12
Si X 1 ,..., X n es una m.a.(n) ( v.a. indep, del mismo modelo) de una población normal N x , x2 . Al
2
s x2 X i X /( n 1) se obtiene:
n
considerar su media X y varianza muestral
i 1
1) T n X / ~ N 0,1;
2) T n X x / sx ~ t n 1
s x2 / x2 s x y
2 2
independiente de la anterior.
86
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Estos tres resultados, prácticamente por si solos, son el eje principal para la obtención de los resultados que se
abordan en la Parte II del presente texto.
,
V E{ X E{ X } X E{ X } } E{ X i E{ X i }X j E{ X j }}i1,...,n : V X
j 1,...,n
es una matriz, que se conoce como matriz de varianzas covarianzas; debido a que sus elementos de la,
diagonal son E[(Xi - E[Xi ])(Xi - E[Xi ])] = V(Xi ), varianza de X i , i .
antidiagonal corresponden a la medición del vínculo entre dos variables diferentes que componen a dicho
vector aleatorio.
E[(X i - E[X i ])(X j - E[X j ])] =: cov(X i , X j ), y se denomina covarianza entre Xi , X j .
De ello se desprende también una matriz de gran importancia, denominada de correlaciones; y es aquella
cov X i , X j
ij ; ij
V X i V X j
cuyos elementos son de la forma , y que anotaremos por es
entonces una matriz de n líneas por n columnas cuyos elementos de la diagonal son todos unos.
X 1 , X 2 ) es vec.a,d. o c., para una aplicación g: IR p IR, de la definición de valor esperado:
Si (
E g X 1 X 2 x 2 g X 1 dFX 1 X 2 x 2 x 1
IR p
1 2 2 1 1
también conocida como función de regresión de g(X ) en X =x , y en el caso en que g(X )=X
2 2
se llama simplemente función de regresión en X =x , y en la literatura habitualmente se denota como
x 2
,
(no tiene relación alguna con otro concepto definido y denotado en forma similar a lo
anteriormente realizado en este texto).
Además es evidente que:
2
X p
1
E E g X X x E( 2) g X dFX 1 X 2 x 2 x E g X
1 2 1
1
IR
Notación
1 2
Sean X un vec.a. discreto o continuo X = X , X , una aplicación g: IR IR . Se denota por
p q
V g X 1 X 2 x 2 a la matriz de varianzas covarianzas condicional de g(X 1 ) dado X 2 = x 2 , que
se obtiene como:
V g X 1 X 2 x 2 E g X 1 E g X 1 X 2 x 2
2
X 2 x 2 , donde
87
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
g ( X ) Eg ( X ) X x g ( X ) Eg ( X ) X x
1 1 2 2 2 1 1 2 2 ´
g ( X ) Eg ( X ) X x .
1 1 2 2
x , en consecuencia
2
x V X X x
2 1 2 2
= E X E X X x X E X X X x
1 1 2 2 , 1 1 2 2 2
Observación
1) Como ilustración, si consideramos X X 1 , X 2 ,
1
entonces en términos condicionales la
correspondiente matriz de varianzas covarianzas es:
V X 1 | X 2 x 2 cov X 1 , X 2 | X 2 x 2
x 2
cov X 1 , X 2 | X x V X 2 | X 2 x 2
2 2
Sin embargo como podremos apreciar en el siguiente ejemplo, el recíproco también es cierto en el
caso gaussiano.
Ejemplo3.13
Consideremos X X 1 , X 2 un vec.a., con dF dada por N ,V según el modelo contínuo presentado en
1, 2 ,
a
3.2.2: n=2, V (aij ), aii i2 , 12 12 : ; en cuyo caso
1 2
1
a) x 2 E X 1 X 2 x 2 1 ( x2 2 ) , es de la forma A Bx2 , un “modelo lineal”; es
2
decir en términos de resultados esperados, la v.a. X1 depende de X2 a través de una recta, alterando su
media, que cambia permanentemente respecto a los valores de X2= x2 , excepto cuando x2 2 .
X1 x 2 E X 1 X 2 x 2
1
X2
2
88
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Tal dependencia, expresa que X2 tiene su mayor impacto en X1 cuando la relación entre ambas según
Pearson ρ=1. Por otra parte cuando ρ=0, no se espera que X2 afecte a X1 a través de una asociación lineal.
b) x2 V X1 X 2 x2 12 1 2 .
c) Para variables con distribución conjunta normal: no correlacionadas es sinónimo de independientes.
V X 1 0
12 0 ; V , por lo cual
V X 2
Al asumir cov( X1 , X2 ) =0 o su equivalente
0
fX1 , X2 fX1 fX2 y por lo tanto X1 , X2 son v.a. independientes. Además
f Xi ~ N i , , i
2
V X i , i 1,2.
i
2
Ejemplo 3.14.
Sea X una variable aleatoria Gaussiana de media nula y varianza unitaria, definimos otra variable aleatoria Y
tal que,
La densidad conjunta tiene como soporte un sub-conjunto de dimensión1 en IR2 , por ende la distribución
conjunta no se origina mediante un vec a c. y menos una densidad Gaussiana multivariable.
Incluso, se puede demostrar que las variables X e Y se encuentran no-correlacionadas. Sin embargo, esto no
implica que las variables sean independientes ya que no son conjuntamente Gaussianas.
89
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo3.15.
Sea X una variable aleatoria Gaussiana de media nula y varianza unitaria. Sea W una variable aleatoria
Bernoulli equiprobable e independiente de X, W = 1 con probabilidad p = 0,5 , W=−1 con probabilidad p =
0,5 . Definimos una nueva variable aleatoria Y = W X.
De manera similar al caso anterior y debido a la simetría de la f.d.p. Gaussiana, Y es Gaussiana. Sin
embargo, como puede apreciarse en el gráfico de 500 realizaciones o m.a.de (X,Y):
También, al igual que en el caso anterior, debido a que todas las realizaciones se encuentran en un sub-
conjunto de dimensión 1 en IR2, la distribución conjunta no procede como Gaussiana multivariable.
Además, X e Y no correlacionadas, no es garantía de independencia, ya que en este caso son dependientes:
E[W]=1*p+(-1)*(1-p)=1*0.5-1*0.5=0, E[Y]=E[WX]=E[W]E[X]=0
Cov(X,Y)=E[(X-E[X])(Y-E[Y])]=E[XY]=E[WX2]=E[W] E[X2]=0 ya que E[W]=0
Consideremos:
N una v.a.d. con valores en {1,2,3,…,n,…}, independiente de X v.a.d o c
𝑆𝑁 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑁 = ∑ 𝑋𝑖
𝑖=1
3.2.5.4.1.-Valor de Expectativa:
A partir de 3.2.5.3, considerando se tiene que:
90
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
3.2.5.4.2.-Distribución
Por 3.2.5.3 y 3.2.51. al aplicar funciones características:
SN (t ) E SN (t ) | N n E Sn (t ) E X (t ) E z N , z X (t )
N
N N N N
siendo:
E z N N ( z ), función generadora de momentos factoriales, centrada en cero (véase 3.1.4.2)
N
SN (t ) N ( X (t ))
es decir:la función característica de 𝑆𝑁 , queda determinada mediante la generadora de momentos factoriales
(centrada en t=0) de la cantidad de clientes N , evaluada en la función característica de cada servicio.
Ejemplo 3.16
Considerando:
La cantidad de llegadas a requerir servicio como una v.a. 𝑁~𝐵𝑛𝑒𝑔(1, 𝑝) , geométrica de parámetro p.
Tiempos de atención X 1 ,..., X n ,…… para N=n clientes, i.i.d.(o muestra de) 𝑋~𝐸𝑥𝑝(𝜆), exponencial de
parámetro 𝜆; determinemos la distribución de
𝑁
𝑆𝑁 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑁 = ∑ 𝑋𝑖
𝑖=1
En base a la Proposición de 3.1.4.3:
peit pt
𝑋 (𝑒 𝑖𝑡 ) = X t = X it = ; 𝑋 (𝑡 ) =
1 qeit 1 qt
1
Por su parte: X (t ) , t
it
1
p
1 p p
it
1
S N (t ) N ( X (t )) N N
1 it it 1 q it q p it 1 it
it p
𝑆𝑁 ~𝐸𝑥𝑝( p ), además entre otros aspectos, podemos corroborar el resultado garantizado en 3.2.5.4.1:
1 1 11
p E[ X ] E N E X E[ S N ]
p p
Por lo tanto, si bien la distribución de los tiempos acumulados se mantiene dentro de su misma clase de
distribución exponencial, su expectativa aumenta directamente con la probabilidad p de que ocurra una
llegada.
(lo cual discrepa del ejemplo 5.7, pag. 275 de A.León García, Probability and Random Processes for
Electrical Engineering, Second Edition 1994)
91
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑐.𝑠
Convergencia Casi Segura y anota 𝑋𝑛 → 𝑋 ssi 𝑋𝑛 → 𝑋 salvo para un subconjunto A de Ω, P(A)=0
𝑃
Convergencia en Probabilidad y anota 𝑋𝑛 → 𝑋 ssi dado 𝜀 > 0, lim𝑛→∞ 𝑃 ({𝑤 ∈ Ω, t. q|𝑋𝑛 (𝑤) − 𝑋 (𝑤)| >
𝜀 }) = 0
𝐷
Convergencia en Distribución y anota 𝑋𝑛 → 𝑋 𝑠𝑖𝑖 lim 𝐹𝑋𝑛 = 𝐹𝑋 , la convergencia que conocemos del
𝑛→∞
cálculo infinitesimal.
Ejemplo 3.17
Observación:
𝑐.𝑠 𝑃
𝑋𝑛 → 𝑋 ⟾ 𝑋𝑛 → 𝑋
Efectivamente:
𝑐.𝑠
Si 𝑋𝑛 → 𝑋 , 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑃 (𝑋𝑛 → 𝑋 ) = 1; 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝜀 > 0
1 = 𝑃({𝑤 𝑡. 𝑞. |𝑋𝑛 (𝑤) − 𝑋 (𝑤)| < 𝜀}, 𝑝𝑎𝑟𝑎 𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑜𝑠 𝑛 𝑎 𝑝𝑎𝑟𝑡𝑖𝑟 𝑑𝑒 𝑎𝑙𝑔ú𝑛 𝑁),
Debido a este resultado, el cual garantiza que la convergencia c.s. implica convergencia en Probabilidad; esta
última se denomina convergencia débil y se hace referencia a convergencia c.s. como convergencia fuerte
92
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
En particular, ante la presencia de muestras aleatorias de gran tamaño, es decir {𝑿𝒏 , 𝒏 ≥ 𝟏}𝒅𝒆 𝒗. 𝒂. 𝒊. 𝒊. 𝒅. es
posible obtener resultados que destacan la importancia de la correspondiente media muestral y de la
distribución normal. Los cuales se encuentran principalmente reflejados en los criterios de a continuación.
2
P( X n ) 1
n 2
Lo cual significa, que conociendo el valor de σ2, al considerar una certeza ( o valor de probabilidad) 1-α, y
proximidad , pre-establecidas; es posible disponer de un número de observaciones ( o tamaño muestral n)
que de garantías que la media se encuentre a distancia menor que de la media poblacional:
2 2 2
1 1 2 2 n 2
n n
Ejemplo3.18
Para una población:
1
1.- En que consideramos ε=σ2 ; entonces, basta considerar n
1
2.- Bernoulli ; σ2= p(1-p)/2, lo cual es máximo cuando p=1/2, entonces es apropiado un tamaño n
4 2
2
Además P( X n ) 1 1, si n
n 2
El resultado conocido como Ley Débil de los Grandes Números, garantiza este resultado, para el caso en que
la varianza poblacional es desconocida e incluso cuando esta no existe.
93
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Es decir: casi seguramente lim X n (esto es válido, salvo para un sub- conjunto de Ω con probabilidad
x
Para Sn: el tiempo transcurrido hasta que la n-ésima componente falla, entonces Sn X1 ... X n
𝑊𝑡 𝑊𝑡 𝑊𝑡
Por lo tanto, en término de convergencia ( o límite) en probabilidad : 𝑆 < ≤𝑆
𝑊𝑡+1 𝑡 𝑊𝑡
1
𝜇
94
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Corolario1
Para una secuencia de v.a.i.i.d. que se estudia corresponde una colección X 1 ,..., X n ,…, donde c/u de ellas
registra el tiempo de duración de un cierto elemento (que secuencialmente es reemplazado a medida que
falla), E[ X ] E[ X i ]= X y los correspondientes costos Y1 ,..., Yn ,… de cada reemplazo tales que
E[Y ] E[Yi ]=Y . Entonces
Wt
Yi
P lim i 1 Y 1
t t X
e.d. a la larga el costo por unidad de tiempo es tanto como la razón de las expectativas de costo y tiempos de
duración por unidad reemplazada
dem.
Disponemos de una secuencia bi-dimensional ( X1 , Y1 ),...,( X n , Yn ),.... i.i.d, E[( X i ,Yi )]=( X , Y ) .
Pudiéndose reescribir:
Wt Wt
Y Y i i
Wt Y
i 1
i 1
t Wt t X
1
y
X
Puesto que:
Wt 1
P(lim ) 1 , es resultado del reciente teorema
t t X
Wt
Y
i 1
i
: es el costo promedio de los primeros Wt reemplazos, es decir la media muestral de los primeros Wt
Wt
costos; por tanto al aplicar LFGN:
Wt
Yi
P lim i 1
y 1
x Wt
Corolario2
Sean:
X 1 ,..., X n ,... secuencia de v.a. i.i.d que marca tiempos entre llegadas de clientes para requerir un servicio
r(t):la v.a. que contabiliza el tiempo residual a partir del instante t , hasta que ocurre la próxima llegada
Entonces
La proporción del tiempo en que el tiempo residual es una demora superior a ε unidades, a la larga está dada
por:
95
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
∞
1
∫(1 − 𝐹𝑋 (𝑥))𝑑𝑥
𝐸[𝑋]
𝜀
dem.
Wt
𝑋 − 𝜀, 𝑠𝑖 𝑋𝑖 > 𝜀
Sean: 𝑌𝑖 = { 𝑖
0, 𝑜. 𝑐
} = 𝑚á𝑥{0, 𝑋𝑖 − 𝜀}, entonces r t Yi , en probabilidad al
i 1
aplicar Corolario1, se obtiene:
Wt
r t
Yi
Y
i 1
t t X
con:
Y E[Y ] E[máx 0, X ] , al recordar 3.1.4.1 propiedades de la esperanza
= P(Y x)dx P( X x)dx P( X x )dx = 1 FX ( x )dx 1 FX ( x)dx
0 0 0 0
El resultado que vamos a presentar constituyó la atención central de los probabilistas por mucho tiempo
(se comenta que mas de cincuenta años). Lapso en el cuál se dedicó bastante tiempo a estructurar las
condiciones que muchos problemas prácticos satisfacían y que tan curioso resultado originaban. Al
aumentar las variables (o mediciones de ensayos en ciertos experimentos) la acumulación de resultados se
comportaba empíricamente muy próxima a la de una distribución Normal.
Teorema
Para un espacio de probabilidad (,IA, P), y una colección Xni v.a.discretas o contínuas sobre , i 1,.., kn ;
independientes n IN tq 0; lim bn 0 1*
( )
n
Sn ESn
kn
1 kn
, Sn X ni , bn
2
Yn xni E X ni . dFX n
V ( Sn ) i 1 V Sn i 1 Ani i
xni E X ni .
2
Este resultado, también es válido para muestras aleatorias muy grandes, ya que en tal caso, se satisface la
condición de Lindeberg. Hecho común de encontrar en la literatura básica con el nombre de este
Teorema Central del Límite y que presentamos a continuación.
*
se conoce como la condición de Lindeberg
96
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo3.19
Se presenta, una ilustración, mediante simulación 1000 m.a.(n) de v.a. Exp(λ).
Corolario
Sn n n ( X )
Yn , n IN, entonces lim FYn FY , donde dFY N ( 0,1)
n n
Sea X1,..., Xn m.a.(n) de una población X ~ B(1,p). Entonces S n X 1 ... X n ~ Bn, p , además
S n np Xp
para Yn entonces lim FYn FY tal que dFY N ( 0,1).
np1 p p1 p / n n
1
PS n a P a S n a Pa* Y b *, con Y , v.a.N(0,1) para n suficientemente grande,
1
2 2
donde : a* (a 1 / 2 np) / npq , b* (a 1 / 2 np) / npq , PS n a FY (b*) FY (a*).
97
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Sin embargo, habrá ocasiones donde esta sea una buena aproximación como por ejemplo en este caso para
n=50 o 60:
Script:
n=10.10:70;a=(4.5-n/6)/sqrt(n*5/6);b=(5.5-n/6)/sqrt(n*5/6);probde5=normcdf(b)- normcdf(a);
salida=[ n a b normcdf(a) normcdf(b) probde5 binopdf(5,n,1/6)];
disp(' n a b F(a) F(b) F(b)-F(a) P(z=5)');disp(salida)
98
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
PARTE II
INFERENCIA ESTADÍSTICA
Ejemplos
Si disponemos de una muestra aleatoria de una población que identificamos como:
Binomial f x Bx, n, p , p, 0,1
Exponencial f x Exp x, , , IR
Normal f x N x, , 2 , , 2 , IRxIR
Podemos apreciar entonces que el espacio paramétrico es siempre un subconjunto de IRk , donde k es
el número de componentes de . En este contexto, para dilucidar las inquietudes arriba mencionadas
podemos proceder mediante las correspondientes metodologías que a continuación mencionamos:
a) estimación puntual: consiste en seleccionar un representante para a partir de una adecuada
transformación de la m.a.(n) con valores en .
b) estimación por conjuntos confidenciales: decidir una asignación 1- de confianza en la afirmación de
que tal parámetro este en un recinto, que puede ser de la forma a < < b.
c) docimasia de hipótesis: es el analizar conjeturas como H0 : 0 vs . H1: 1 minimizando los
errores TIPO I Y TIPO II:
decidir
Realidad 0 1
0 ACIERTO ERROR TIPO I
1 ERROR TIPO II ACIERTO
Basando nuestra decisión en un subconjunto C, denominado región crítica tal que:
c
{todas las m.a.(n) de la población en estudio} = C + C .
Adoptamos nuestra decisión de la siguiente manera: una muestra X 1 ,..., X n C indica que existe
evidencia significativa para rechazar H0 ; en caso contrario se puede afirmar que no hay evidencia suficiente
para rechazar significativamente a H0 .
Tal determinación no puede ser escueta y debe contemplar los riesgos de tomar una decisión incorrecta o
cometer algún tipo de error I o II, ocasionado por la particular muestra escogida.
La información que admitimos disponer debe satisfacer los requerimientos de ser una
m.a.(n). en el sentido formal que se expuso en el Capítulo 3. Es decir, observaciones representativas,
seleccionadas totalmente al azar y no vinculadas entre si, mas que por el sólo hecho de provenir de una
misma población. Debemos precisar que si alguno de estos supuestos no se satisface, los resultados que se
exponen a continuación pueden no seguir siendo válidos.
99
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
CAPITULO IV
ESTIMACIÓN PUNTUAL
Definición
Si designamos por,
* X1 ,..., X n m.a.n de una población con densidad f x .
Definición
Ejemplo4.1
s 2 nS 2 / n 1 22 es estimador de 2 .
100
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Existen diversos métodos para obtener un estimador de el parámetro desconocido asociado al supuesto
modelo del comportamiento de la población en estudio. A continuación
presentamos dos de los métodos más utilizados para tal propósito y posteriormente analizaremos sus
propiedades.
i 1
alcance su valor máximo, es decir fˆ x máx f x .
Por lo tanto el valor así determinado por construcción es un estimador y hace que sea más factible o
verosímil la presente muestra de tal población. Esto motivó a denominar a f x función de verosimilitud, y
al valor que éste método entrega como estimador de máxima verosimilitud (E.M.V.).
Para la obtención de dicho valor podemos recurrir a su búsqueda mediante la aplicación de una función
monótona creciente como es ln(.), así transformamos los productos en suma, exponentes en términos más
simples y mantenemos el mismo valor de con el que se logra el máximo anterior.
Recurriendo a las condiciones para la determinación de extremos de funciones reales, podemos decir que
si existe tal , se puede obtener de la ecuación:
L n
0, donde L = Lx , ln f x ln f xi
i 1
Ejemplo4.2
a) Bernoulli de parámetro p;
n 1 x
L ln p xi 1 p i ln p nX 1 p
i 1
n 1 X
L n X ln p n1 X ln 1 p
L nX n1 X
1 0 nX 1 p npX 1 0
p p 1 p
L
0 X X p X p p 0 pˆ X
p
101
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
b) Exponencial de parámetro ;
c) Normal de parámetros , 2 ;
1 x 2 n 1 x 2
n
L ln exp i 2 ln 2 2 i
i 1 2
2 2 2 2 2
i 1
1 x i 2
n
= ln 2 ln
1 2
i 1 2 2 2 2
1 n x
2
= ln 2 ln 2 i 2
n n
2 2 2 i 1
L 1 n xi
2 1 0
2 i 1 2
L n
x 2
2 n 2 1 i 2 1 0
2 2 i 1 2
n
x i 0 ˆ X
2
i 1
n
n 2 xi 0 S
2 2
i 1
Ejemplo4.3
Como veremos ahora, en el caso de una población Normal, el método de los momentos nos entrega los
mismos resultado que M.M.V.; el lector puede verificar que esto no siempre es cierto.
ˆ X
, entonces ˆ X , 2 X 2 X 2 S 2
ˆ X
2 2 2
102
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Con el objeto de clasificar y comparar diferentes estimadores para un mismo parámetro, definimos
algunos conceptos que nos indiquen de que manera es que se aproximan al parámetro en estudio.
Definición
Se define como sesgo de un estimador del parámetro y anotaremos sesgo ( ) al número real dado
por el valor absoluto de, la diferencia en media entre este estimador y su parámetro, es decir sesgo
ˆ Eˆ .
Como E E , entonces sesgo ( ) = 0 siempre y cuando E , en tal caso se dice que
es un estimador insesgado de .
A continuación presentamos un concepto diferente pero también orientado a medir discrepancia entre
estimador y parámetro.
Definición
Entenderemos por error cuadrático medio de un estimador y anotaremos E.C.M. , al número real
E ˆ .
2
Ahora veamos como se relacionan ambos conceptos con la variabilidad propia del estimador al recorrer todas
las muestra posibles.
Propiedad
Sea un estimador del parámetro , obtenido a partir de X1 ,..., X n m.a.n de una población
caracterizada por f x , para algún , entonces
E.M.C.ˆ V ˆ sesgo 2 ˆ.
Por lo tanto E.M.C.ˆ V ˆ es una condición necesaria y suficiente para que sea un estimador
insesgado de .
dem.
E.C.M .ˆ E ˆ E ˆ E ˆ E ˆ
2 2
= E ˆ E ˆ 2ˆ E ˆ E ˆ E ˆ
2 2
103
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Podemos advertir entonces que el E.C.M. está formado por dos tipos de variabilidad respecto de valores
que pueden ser diferentes. En efecto pues la varianza indica variabilidad respecto de su propia media y el
sesgo lo hace respecto del parámetro en estudio. El problema entonces de seleccionar estimadores no es
simple pues se puede dar el caso como veremos en el siguiente caso de estimador insesgado pero con varianza
mayor que otro sesgado dando origen a un error cuadrático medio menor en el segundo caso.
Ejemplo4.4
Z X i X / 2
n
E S 2 2 1 1 / n , E s 2 2
2
v.a. x2n1 , y como
i 1
Por lo cual los estimadores 2 S2 , 2 s2 , son sesgado e insesgado respectivamente, sin embargo
1 2
E.C.M. V 2 , como veremos a continuación:
2
1 2
2 2 4 2 4
V V Z V Z
2 n 1 n 1
2
n 1
2 4
V 2 V Z 2 V Z 2n 1 4 / n2
1
n
2n 1 4 2 1 4 2n 1
1
2
2
2
E.C.M . 2
n
1
1 1
1 n2 n2 n
2n 1 4 2n 4 2 2 2
E.C.M . 2 4 4
V .
1 n2 n2 n n 1 2
El teorema que presentamos a continuación nos permite determinar la cota mínima que puede asumir la
varianza de un estimador insesgado arbitrario. Así entonces la comparación anterior nos permitirá descartar
los insesgados o buscar uno cuya varianza sea inferior a la del sesgado.
Teorema
Sea un estimador insesgado de para una población caracterizada por una f x , , L la
función logaritmo de la función de verosimilitud citada en la presentación del M.M.V. ; entonces bajo
L 2
V ˆ
1
ciertas condiciones de regularidad , donde E , se denomina cantidad de
información de Fisher.
104
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
L 2 l 2 2 L 2l
E nE E 2 nE 2 , l l x, ln f x .
Ejemplo4.5
Determinemos la cota de Cramer-Rao para el caso de estimadores insesgados del parámetro de una población
normal.
2l 2 1 X 2
nE 2 nE 2 ln exp
2 2
2
2
2
= nE 2
1
ln 2 2
X 2
X
nE
2
2 2
2
1 n
= nE 2 2
2
si es estimador insesgado de entonces V ˆ , y de igual manera
n
1 X
2l 2
2 nE
2
nE
2 2 2
22
2
1
= nE 4
X 2 n 1 V X = n 1 1 n
4
2
2
3
2 4 2 3
2 4 2 4
2 2 4
Se concluye V para cualquier estimador insesgado 2 de 2 .
,
n
Definición
Un estimador insesgado de que satisface la cota de Cramer-Rao (e.d. V ˆ 1 ) lo denominaremos
eficiente. Denominación que se ajusta a los hechos ya que en éste aspecto no podemos lograr uno mejor.
En el caso de disponer de 1 , 2 , dos estimadores cualesquiera de , se denomina eficiencia relativa de
1 , respecto de 2 al valor E.C.M. ˆ1 / E.C.M. ˆ2 . Es decir en términos de la media cuadrática nos dice
en cuanto más discrepa del parámetro en estudio, un estimador en relación a otro.
Además se dispone de resultados conducentes a saber cuando y mediante qué procedimiento podemos
obtener un estimador eficiente (insesgado y cuya varianza alcance la cota de Cramer-Rao).
105
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Teorema
Corolario
En resumen si existe estimador eficiente, lo podemos obtener por el método de máxima verosimilitud.
De no existir estimador eficiente; cabe ahora el preguntarnos en que casos podemos darnos cuenta de estar
en presencia del estimador insesgado de varianza mínima (no eficiente). Condiciones suficientes para
tal caso proporcionamos en la siguiente sección.
En la literatura podemos encontrar otras interesantes propiedades de los estimadores, que también
miden pero en otro sentido un grado de aproximación al parámetro en estudio.
Mostramos a continuación algunas de estas ideas , que formalmente se basan en los conceptos de
convergencia (límite de sucesiones de v.a.) abordados en el Capítulo 3, mediante los cuales se estudia lo que
ocurriría en distintos aspectos a medida que la muestra crezca indefinidamente, acercándose a la población
misma.
Tipos de convergencia
Si es el parámetro de una población X, basado en una m.a.(n). Un estimador de lo podemos exponer como
ˆ ˆn ˆX ˆ X1 ,..., X n , entonces se dice que es
asintóticamente insesgado sii: ˆn converge a 0.
consistente en error cuadrático medio (media cuadrática) sii ˆn 2 converge a 0.
Para de dimensión superior ˆn 2
: ˆn ' ˆn
consistente (simple) sii 0, Pˆn converge a 0.
106
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Definición
Una partición IH de se dice minimal sii dada H' IH , partición de IH tal que H' H, (es
decir toda otra partición es más fina que ella).
Definición
Una estadística T para un parámetro , se dice suficiente (para la familia f x , ) sii la partición
del espacio * originada por T es suficiente (e.d. t, la distribución condicional originada por P t no
depende de ).
Así entonces diremos que una estadística T es suficiente minimal sii su correspondiente partición es
suficiente minimal. Por lo tanto una estadística suficiente minimal es función de cualquier otra
estadística suficiente. Además si existe es "única" salvo biyecciones..
Teorema (Factorización)
Dado un estimador insesgado, el siguiente resultado de carácter general nos destaca la importancia de poseer
una estadística suficiente para determinar otro estimador insesgado de menor varianza.
Teorema (Rao-Blackwell)
Sean X1,..., Xn m.a.(n) de una población, f x , , g1 estimador insesgado de g(t) y T estadística
suficiente para , entonces
a) g2 g1 , es estimador insesgado de g()
b) V gˆ 2 V gˆ 1
107
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
En efecto todo esto es posible gracias a una propiedad adicional de T denominada completitud que a
continuación abordamos.
Definición
Definición
Se dice que ID = f x / , es una familia exponencial sii
k
f x a b x exp Qi i x , para Qi , i funciones con valores reales.
i 1
Observación
a) Sean ID = f x / : ID X , familia exponencial con b( X )=1, T( X )= 1 x ,...k x , entonces
contiene bloque k-dimensional ID es completa
Nota
Ahora entonces sabemos cuando existe solo un P c.s. estimador insesgado que sea función de una
determinada estadística suficiente.
En consecuencia a partir de cualquier estimador insesgado y una estadística T suficiente con ID
completa; mediante el Teorema de Rao-Blackwell, lograremos C. el mismo estimador insesgado (que sea
función de T). Por lo tanto el estimador así obtenido es E.I.V.M..
Ejemplo4.6
i 1
g x h x , con
g x 2 n exp x1 ... x n , x x1 ... x n
h x x i , no depende de .
n
i 1
entonces T es estadística suficiente para
108
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
b) ID f x / 0, : ID X f x es exponencial con k=1
f x 2 n P xi exp x1 ... xn
n
i 1
a bx exp Q1 1 x , donde
a 2 n , bx hx , Q1 , 1 .
c) ID es completa Pues 0, , contiene a un intervalo o bloque k=1 dimensional.
d) Disponemos de un estimador insesgado de
Siendo X v.a. (2,1/) entonces
X 1
IR x dF x IR exp x dx IR x,1,1/ dx
1 2
por lo cual toda componente de la muestra aleatoria es un estimador insesgado de entonces adoptaremos
X11 .
e) A partir del teorema de Rao-Blackwell, como disponemos de una estadística suficiente
X X1 ... X n , con ID completa y un estimador insesgado 1 X11 de , logramos
ˆ2 ˆ2 ˆ1 el estimador función de T, insesgado de varianza mínima :
Sea Y: IR IR , x x1 ,..., x n y tal que
n n
X 1 X ,..., n X X 1 ,..., X n 1 , ,
y y1 ,..., y n x1 ,..., x n 1 , t , x t
n 1
f y f X x y f X y1 ,..., y n 1 , t y i J 1 x ,
i 1
n 1
t y i 0, y i 0i 1,..., n 1
i 1
n 1 0
J 1 x det 1, n 1 matriz identidad de (n-1) x (n-1)
11 1 1
n 1
f y 2 n exp t x1 y 2
y n 1 t y i , pues J 1 x 1,
i 1
j 1
y i , j 2,..., n 1
con 0 x1 t , 0 y j t
i 1
n 3 n2
t x1 t x1 y 2 t yi t yi n 1
f x1 , t x1 exp t
2n
y2 y3 i 1
y n2 i 1
y n 1 t y i dy n 1 dy n 2 ..dy 3 dy 2
y2 0 y3 0 yn 2 0 y n 1 0
i 1
n 3
n 3 1
3
t x1 t x1 y 2 t yi
f x1 , t x1 exp t
2n
y2 y 3 ........ i 1
y n2 t yi dy n 2 dy 3 dy 2
y2 0 y3 0 yn 2 0
i 1 3!
109
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
a n2
xa x dx
a
n
debido a que , podemos obtener
0 n 1n 2
n4
n 3 1
5
tx t x1 x 2 t yi
f x1 , t 2 n x1 exp t y2 y3 i 1
y n 3 t y i dy n 3 dy 3 dy 2
y2 0 y3 0 yn 3 0
i 1 5!
tx
f x1 , t 2 n x1 exp t y 2 t x1 y 2
2 n 2 1 1
dy
y2 0 2n 2 1 2
2 n x1 exp t t x 1
2 n 11 1
2n 1 1!
2 n x1 exp t t x 1 2 n 3 1
2n 3!
f t 2 n exp t t 2 n 1
1
2n 1!
2 x1 exp t t x1 2 n 3
1
f X1 t
x1
2n 3!
2 n exp t t 2 n 1
1
2n 1!
2 n 3
x
2n 12n 2x1 1 1
1
, 0 x1 t
t t2
X 1 t f X 1 t
x1
dx1 2n 12n 2t 1 , 0 x1 t
t
0
Finalmente podemos decir que el estimador buscado es
ˆ2 ˆ2 X 2n 12n 2X 2n 12n 2 / X 1 ... X n .
1
110
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
CAPITULO V
REGIONES CONFIDENCIALES
La estimación puntual nos ha conducido a estimadores como una manera de determinar un valor del
parámetro en estudio que más se aproxime al verdadero valor según los criterios y propiedades estudiadas en
el capítulo anterior.
Sin embargo no nos ha permitido asignar una credibilidad o seguridad de que el particular valor encontrado
sea o no el verdadero.
En esta sección identificaremos regiones en las cuales se encontrará nuestro parámetro con un alto grado de
seguridad. Tal credibilidad debe estar relacionada con la ley de probabilidad de la población en estudio
independiente del particular valor que el parámetro asuma.
Por construcción T es entonces una variable aleatoria y tiene sentido el pretender determinar un conjunto A
talque: P(TA)=1-.
El valor 1- se denomina nivel de confianza y el conjunto A es precisamente quién nos originará la region
confidencial que estará dada por: RC= / X ,
Es decir para una m.a.(n) X1... Xn de la población
f x , la v.a. X , H puede ser observada
como una transformación de que satisface lo siguiente:
1 H / H 1
y nuestra región confidencial, RC = H
1
.
El lector puede notar que la región confidencial RC resultante por este proceso no es única, más aún hay
innumerables de ellas para un mismo nivel de confianza 1-.
111
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Por lo tanto ante tan diversas soluciones ¿Cúal es entonces la utilidad de tal metodología?. La respuesta es
simple hay efectivamente innumerables RC para un mismo nivel de confianza y cada una es solución con una
certeza del (1-)% tan válido como cualquiera de las otras.
Por ello, para distribuciones simétricas, en la literatura se acostumbra considerar regiones que dejen /2 de
probabilidad hacia los extremos ( ambas colas), logrando así expresiones simples.
Efectivamente para la v.a. T con distribución F dada por una densidad D, y si se opta por considerar un
intervalo A=[a,b] entonces: 1 H a, b / H 1 a, b para lo cuál
a D / 2 y b D1 / 2 es una de las alternativas, donde la notación D significa que H D . En
tal caso para D simétrica se tiene que a=-b.
Cuando la región confidencial tiene la forma de intervalo ésta adopta el nombre de intervalo confidencial.
Al considerar A como un intervalo [a,b], en muchos casos (al menos en los cuales T es v.a.c.) al calcular
[a,b] obtendremos tambien intervalos.
a) Bernoulli
Intervalo para =p
Para n grande, X p / pq / n D N 0,1, simétrica; pˆ X
considerando la aproximación H(p)= X p/ pˆ 1 pˆ / n X p/ X 1 X / n
entonces 1-= H a, a a H p a
1 / 2 0,1 H p N1 / 2 0,1
despejando p se obtiene,
X X 1 X / n N1 / 2 0,1 p X X 1 X / n N1 / 2 0,1
El espacio paramétrico, obliga a que este intervalo debe ser considerado en su sección al interior del
espacio paramétrico , en este caso intervalo [0,1]. Además se reduce su extensión a medida que el tamaño
muestral crece. Comentario válido para este tipo de análisis en general.
Intervalo de Confianza
l l p
X X 1 X / n N1 / 2 0,1 X X X 1 X / n N1 / 2 0,1
Estimador
112
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo5.1
Determinemos intervalo del 95% de confianza para la proporción de respuestas afirmativas, en cierto
experimento ,al disponer de una m.a.(n=20) procedente de observar ( mediante simulación con p=0.3; a través
de sentencia x=binornd(1,0.3,20,1)), las siguientes respuestas afirmativas (1), o negativas (0), a
entrevistados respecto a un particular sondeo de opinión :
0 1 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 1
X =0.35, X 1 X =0.4894 , 1-=0.95, entonces N1 / 2 0,1 = N 0.975 0,1 norminv(0.975)=1.96
X 1 X / n N1 / 2 0,1 =-0.2145, X 1 X / n N1 / 2 0,1 0.2145
Intervalo de Confianza
l l l l l p
0 0.1355 0.35 0.5645 1
Estimación
Intervalo de confianza= [0.1355, 0.5645]
Resultado, que se puede obtener directamente mediante la siguiente sentencia
Scrpt:
n=length(x); mean(x)+ norminv([0.025 0.975]) *((std(x))/sqrt(n))
% resultado aprox. Clopper-Pearson: media=0.35, intervaloconf=[ 0.1539 ; 0.5922] al usar [media, intervaloconf] = binofit(7,20,0.05)
Observemos que la simulación efectuada, no arroja respuestas con valor medio concordante a lo programado,
incluso para muestras de mayor tamaño, lo cual deja una duda respecto a la capacidad del software para este
tipo de simulación; incertidumbre resuelta en el capítulo siguiente.
b) Normal
b.1) Intervalo para ; ̂ X
b.1.1) varianza conocida;
X X
H D 0,1, simétrica; N1 / 2 0,1 N1 / 2 0,1
n n
X / n N1 / 2 0,1 X / n N1 / 2 0,1
La siguiente imagen, muestra como aumenta la amplitud de estos intervalos en función de la desviación típica.
X / n N1 / 2 0,1
X / n N1 / 2 0,1
113
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo5.2
Calculemos un intervalo del 95% de confianza para la media de la siguiente m.a.(n=40) normal procedente
de (simulación normrnd(85,3,40,1)), una medida de eficiencia de un cierto proceso de captura de
señales ( imagen, sonido,dato):
81.1721 86.8511 86.8381 85.8681 86.1859 82.3883 83.5069 84.6800 82.9365 85.9956
92.0957 83.5533 86.9423 81.8967 89.0187 82.0926 85.6261 83.1442 86.5360 85.0341
84.8680 93.8473 83.1099 84.8594 93.0491 81.5599 86.6590 81.7706 88.0919 85.9826
86.9564 84.1634 85.7356 89.4175 78.1747 80.1001 86.2464 83.0357 84.1110 80.5092
Intervalo de Confianza
l l l l l
0 64.0436 85.1153 86.1869 100
Estimación
Script:
n=length(x); mean(x)+ [-tinv(0.975,n-1) tinv(.975,n-1)]*std(x)/sqrt(n) ; pd=fitdist(x', 'Normal')
% sentencia diseñada para diversos modelos de distribución propuestos y niveles de confianza
b.2.1)media conocida
n
H 2 xi / 2 D x 2 n , no simétrica
2
i 1
n n n
x 2 / 2 xi / 2 x12 / 2 n , xi / x12 / 2 n 2 xi / x2 / 2 n
n 2 2 2
i 1 i 1 i 1
114
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
b.2.2)media desconocida; ˆ 2 s 2
H 2 xi X / 2 n 1s 2 / 2 D x 2 n 1, no simétrica
n
2
i 1
Intervalo de Confianza
l l σ2
n 1s 2 / x12 / 2 n 1 n 1s 2 / x2 / 2 n 1
Para los datos del caso reciente, a este respecto podemos decir lo siguiente:
var(x)=11.228, x02.97539 =58.1201 , x02.025 39 =23.6543
n 1s 2 / x12 / 2 n 1 39s 2 / x02.97539 =7.5342
n 1s 2 / x2 / 2 n 1 39s 2 / x02.02539 =18.5121
Intervalo confidencial para la varianza: [7.534, 18.5121], sacando raíz, obtenemos similar intervalo para la
desviación estándar [2.7449;4.3026] . Lo cual informa, que con una certeza del 955 , podemos afirmar que los
datos tienen una dispersión aprox. entre un 2,7% y 4,3%.
Intervalo de Confianza
l l l σ2
7.5342 11.228 18.5121
Estimación
Por cierto, intervalo no simétrico respecto a la estimación, ya que proviene de una densidad asimétrica.
Script:
[sqrt((n-1)*var(x)/chi2inv(0.975,39)) sqrt((n-1)*var(x)/chi2inv(0.025,39))]
En el caso de disponer, de dos muestras aleatorias de diferentes poblaciones, nos puede interesar
analizar entre si, sus comportamientos medios o desviaciones típicas; tales es el caso, de disponer de dos
muestras del mismo como las vistas en los ejemplos anteriores, que a continuación exponemos.
a) Bernoulli x px , y py
Intervalo para px py , diferencia de proporciones entre dos poblaciones Bernoulli
Para n,m grandes
X ( px y y )
~ D = N0,1, simétrica; pˆ x X , pˆ y
px qx / n p y q y / m
X ( px p y )
consideramos la aproximación H
X 1 X / n Y 1 Y / m
115
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
X ( px p y )
N1 / 2 0,1 N1 / 2 0,1
X 1 X / n Y 1 Y / m
despejando p se obtiene,
X X 1 X / n Y 1 Y / m 1 / 2 0,1 p x p y
X X 1 X / n Y 1 Y / m 1 / 2 0,1
Intervalo de Confianza
l l l px p y
X
Estimador
X X 1 X / n Y 1 Y / m 1 / 2 0,1
X X 1 X / n Y 1 Y / m 1 / 2 0,1
Ejemplo5.3
Implementemos este procedimiento para comparar respuestas X e Y , basada en respectivos resultados
muestrales de una encuestas de sondeo de opinión realizada de manera independiente a hombres (n=20)
como a mujeres (m=15):
Hombres: 0 1 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 1
Mujeres: 0 0 1 1 1 1 0 0 0 0 1 0 0 1 0
pˆ x X 0.35, p̂ y =0.4, p̂ x - p̂ y = -0.0500 ,
var( x) var( y)
n
m
X 1 X / n Y 1 Y / m 0.0291
Intervalo Confidencial para px p y : [-0.3844 0.2844]
Intervalo de Confianza
l l l px p y
[-0.3844 -0.0500 0.2844
Estimación
Lo cual indica, que en cierto modo, con alta certeza, no se encuentran diferencias de opinión.
Script:
x=[0 1 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 1]; n=length(x); mean(x)
y=[0 0 1 1 1 1 0 0 0 0 1 0 0 1 0]; m=length(y); mean(y)
mean(x) - mean(y)+(norminv([0.025 0.975]))*sqrt((var(x))/n +(var(y))/m)
b) Normal
b.1) Intervalo para x y , diferencia entre las respectivas medias en poblacionales Normales indep.
b.1.1) varianzas conocidas
116
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
X ( x y )
H ~ D 0,1, simétrica;
x2 / n y2 / m
X ( x y )
1 / 2 0,1 1 / 2 0,1
x2 / n y2 / m
despejando se obtiene,
X x2 / n y2 / m 1 / 2 0,1 x y X x2 / n y2 / m 1 / 2 0,1.
X ( x y )
0,1,
1/ n k / m
X ( x y )
H t n m 2,
s p 1/ n k / m
de distribución t (simétrica) con s 2p n 1s x2 m 1s y2 / n m 2
X ( x y )
t1 / 2 n m 2 t1 / 2 n m 2
s p 1/ n k / m
X s p 1 / n k / m t1 / 2 n m 2 x y X s p 1 / n k / m t1 / 2 n m 2
X ( x y )
H t v ,
s x2 / n s y2 / m
de distribución t (simétrica), con grados de libertad, dados por: =[0], parte entera de
117
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
2
v0 s x2 / n s y2 / m / s 2 x / n / n 1 s 2 y / m / m 1
2 2
.
X ( x y )
t1 / 2 v t1 / 2 v
s x2 / n s y2 / m
X s x2 / n s y2 / m t1 / 2 v x y X s x2 / n s y2 / m t1 / 2 v
Intervalo de Confianza
l l l x y
X
Estimador
X sx2 / n s y2 / m t1 / 2 v
X s x2 / n s y2 / m t1 / 2 v
Ejemplo5.4
Calcular intervalo del 95% de confianza, que permita comparar la cantidad de paquetes computacionales
KB/seg que llega a determinado servidor durante la primera hora de trabajo del día (X), respecto a similar
hecho al cierre de la jornada laboral (Y). Por comodidad, salvo cambio de escala los datos son los
originales.
Mañana: 9.2202 11.1292 15.8082 13.6085 20.1604 20.3646 12.6768 18.5005 20.5818
16.2839 21.4935 19.2497 15.8564 18.5072 15.7776 13.3404 16.4338
Tarde: 25.3260 21.7183 40.9392 26.9915 49.5734 22.3345 30.0787 39.2436 49.5631
27.7321 17.8877 32.2304 13.1209 22.5354 27.4468 38.4060 37.9343 24.7519
33.3154 22.1085
Intervalo de Confianza
l l l l x y
-18.6531 -13.7505 -8.848 0
Estimador
Al parecer, la mayor parte del tiempo en observación, horario Tarde tiene una mayor demanda de servicio.
118
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Script:
x=[9.2202 11.1292 15.8082 13.6085 20.1604 20.3646 12.6768 18.5005 20.5818 16.2839 21.4935 19.2497 15.8564
18.5072 15.7776 13.3404 16.4338];
y=[ 25.3260 21.7183 40.9392 26.9915 49.5734 22.3345 30.0787 39.2436 49.5631 27.7321 17.8877 32.2304
13.1209 22.5354 27.4468 38.4060 37.9343 24.7519 33.3154 22.1085]
n=length(x); m= length(y);
nu=(((var(x))/n +(var(y))/m)^2)/((((var(x))/n )^2)/(n-1) +(((var(y))/m )^2)/(m-1));
disp(' mediaX varianzaX mediaY varianzaY n m nu t')
disp([mean(x) var(x) mean(y) var(y) n m nu tinv(0.975,nu)])
mean(x)-mean(y)+sqrt(var(x)/n +var(y)/m) * [tinv(0.025,nu) tinv(0.975,nu)]
xi x / x2 x x
2 2
y2 i
H i 1
2 i 1
F n, m , no simétrica
x
y y / y y y
m m
2
i i
i 1 i 1
n
x x
2
2 i
F / 2 n, m i 1
F1 / 2 n, m
y
x2
y y
m
2
i
i 1
y y y y
m m
2 2
i
2 i
i 1
F / 2 n, m i 1
F1 / 2 n, m
y
m
x2 m
x x x x
2 2
i i
i 1 i 1
x X / x2
n
2
i
y2 n 1s x2 1 /( n 1)
H i 1
2
x m 1s y2 1 /( m 1)
y / y2
m
2
i
i 1
y2 s x2
así H 2 2 F n 1, m 1
x sy
s y2 y2 s y2
F / 2 n 1, m 1 2 2 F1 / 2 n 1, m 1
s x2 x sx
119
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Intervalo de Confianza
y2
l l l
x2
s y2 s y2
F / 2 n 1, m 1 F1 / 2 n 1, m 1
s x2 s x2
5.2.3.-Muestra repetida
El siguiente ejemplo nos indica como estudiar los comportamientos medios para comparar de variables que
se miden simultáneamente para cada observación.
Dada (X1,Y1 ),...,(Xn ,Yn ), m.a.(n) de una población normal bivariada N ,V , de vector de medias y
matriz de varianzas covarianzas V de la forma:
x x2 xy
, V : (comúnmente también denotada, sigma mayúscula)
y2
y xy
Al considerar Di = Xi - Yi entonces
Di es v.a. N(E[ Di ],V( Di )) con: E[ Di ]=,
V( Di ) = x y2 2 xy 2
2
.
Por lo cual , al disponer de una m.a. de v.a. D1,...,Dn Normal, podemos ver si es posible, el adaptar este
problema al primero de esta sección parte (b):
D N , 2
s d2 , es estimador insesgado de V( Di ),
entonces,
2
(n-1) s d / 2 x2n1
D ( x y )
H t n 1
sd
n
así entonces, al igual que en el primer ejemplo ( b.1.2) de esta sección, se concluye que:
sd sd
X t1 / 2 n 1 x y X t1 / 2 n 1
n n
120
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Intervalo de Confianza
l l l x y
X
Estimador
sd
X t1 / 2 n 1
n
t1 / 2 n 1
sd
X
n
Ejemplo5.5
Construyamos intervalo de confianza del 95% para la diferencia en sondeo de opinión, entre Hombres y sus
correspondientes parejas :
Hombres: 0 1 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 1 ( simulada con p=0.3)
Mujeres: 0 0 0 0 1 0 0 0 1 0 1 1 1 1 0 0 1 1 0 0 (simulada con p=0.4)
En este caso disponemos de una m.a. de (X,Y) de tamaño n=20, respuestas de dimensión 2 . Así, nuestra
variable auxiliar d=X-Y, con valores observados:
d: 0 1 0 0 -1 0 0 0 -1 1 -1 0 0 0 1 0 -1 -1 0 1
mediaX mediaY media(d) var(d) std(d) tamaño muestra Tcrítico
0.3500 0.4000 -0.0500 0.4711 0.6863 20.0000 2.0930
Intervalo de Confianza
l l l x y
-0.3712 -0.0500 0.2712
Estimación
Lo cual refleja, una escasa diferencia entre ambas respuestas
Script:
x=[0 1 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 1]; y=(binornd(1,0.4,20,1))'; d=x-y; n=length(d)
disp('mediaX mediaY media(d) var(d) std(d) tamaño muestra t')
disp([mean(x) mean(y) mean(d) var(d) std(d) n tinv(0.975,n-1)])
mean(d)+(std(d)/sqrt(n))*[tinv(0.025,n-1) tinv(0.975,n-1)]
121
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo5.6
Recordemos nuestra base de datos en anexo del capítulo I, y comparemos la capacidad o eficiencia de
reconocimiento de imágenes entre ambos sistemas ( X,Y) desarrollados mediante RNA y PCA y puestos a
prueba paralelamente, es decir para que cada observación sea la resultante de ambos métodos sobre una misma
figura, la cual va cambiando en cada nueva medición (pareada).
75.0000 65.1000 51.4000 69.9000 85.0000 54.9000 85.0000 86.0000 93.0000 66.9000 90.0000 90.0000 92.3000 65.8000
83.0000 82.0000 90.2000 73.0000 70.8000 83.1000 88.0000 88.0000 78.3000 92.0000 53.3000 57.0000 91.7000 62.7000
58.0000 92.7000 76.8000 63.9000 83.0000 86.0000 70.3000 94.0000 77.5000 89.2000 57.6000 62.3000 86.5000 81.8000
88.0000 85.8000 74.0000 88.0000 97.9000 80.6000 85.1000 58.4000 70.9000 85.3000 74.6000 74.0000 67.0000 63.7000
97.4000 65.8000 87.0000 69.7000 87.0000 88.0000 95.0000 93.0000 90.0000 91.0000 78.6000 76.8000 74.4000 75.1000
82.6000 75.0000 68.5000 91.6000 66.0000 56.3000 55.4000 99.9000 87.1000 61.6000 98.2000 79.0000 54.9000 57.7000
d: -7.7000 -0.5000 -22.1000 9.1000 6.9000 -17.6000 19.7000 21.6000 -2.6000 9.8000 -14.7000 -23.8000 25.8000
-0.8000 -8.0000 -16.9000 -38.8000 -3.1000 14.2000 -28.2000 -3.0000 -2.0000 14.7000 -25.1000 36.7000 33.0000
0.6000 3.1000 -30.0000 6.9000 2.8000 -24.1000 -14.9000 5.4000 -14.8000 35.6000 6.6000 3.9000 -17.0000
-11.7000 19.5000 18.1000 14.8000 -9.2000 18.5000 -21.9000 21.0000 31.7000 39.6000 -6.9000 2.9000 29.4000
-19.6000 -2.2000 19.5000 17.4000 12.0000 -32.7000 -22.2000 31.3000
l l l x y
-3.5682 1.5 6.5682
Estimación
Script: sqrt((n-1)*var(x)/chi2inv(0.975,39))
sqrt((n-1)*var(x)/chi2inv(0.025,39))
n=length(A); d=(x5-x6)'
disp('mediaX mediaY media(d) var(d) std(d) tamaño muestra t')
disp([mean(x5) mean(x6) mean(d) var(d) std(d) n tinv(0.975,n-1)])
mean(d)+(std(d)/sqrt(n))*[tinv(0.025,n-1) tinv(0.975,n-1)]
122
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
CAPITULO VI
DOCIMASIA DE HIPOTESIS
Presentamos a continuación los elementos que sirven de base para el análisis de conjeturas referentes a la
población en estudio presentadas como: Ho vs. H1 ( Hipótesis nula versus Hipótesis alternativa).
Sea C subconjunto del universo formado por *={todas las muestras tamaño n de la población en estudio},
según definimos al inicio de esta segunda parte, así *=C+Cc . Luego al disponer de una muestra aletoria que
pertenezca a:
C c 1 = P(aceptar H0 H0 es falsa) = P(error tipo II) =
C 1 1
Este conjunto C, también llamado región crítica; debe contemplar en lo posible que: , sean mínimos
posibles. Logrando con esto,
X mínimo en 0 y máximo en 1 .
Neyman & Pearson estudiaron el cuociente entre la función de verosimilitud según H1 y Ho , para abordar el
problema Ho : 0 =o, H1 : 1 =1 (Hipótesis simple versus simple), como una manera de generar
dócimas tales que tuvieran potencia máxima en 1 y potencia acotada por (nivel de significación) en
123
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
o , para un arbitrario , 0< <1, ( suficientemente pequeño, tanto como se desee la probabilidad de error
tipo I ); es decir
C , 0 ,
C max C , 1.
C
Tal estrategia, se extendió a problemas con más de un elemento en las respectivas hipótesis, pudiéndose lograr
resultados óptimos (nivel en la hipótesis nula , y potencia uniformemente máxima PUM en la hipótesis
alternativa), mientras el cuociente de las funciones de verosimilitud señalado fuese una función monótona. Las
ideas hasta aquí utilizadas sirvieron de base para elaborar la siguiente estrategia más general: para problemas
de la forma Ho : 0 , H1 : 1 = oc , determinar
sup dF x
1
X ,
sup dF x
0
donde dF es la densidad o cuantía poblacional, k constante por determinar en función de ; para así considerar
C= X / ( X ) k , región crítica de tamaño , en el sentido de que
supP (C ) / 0 .
Luego al considerar la siguiente transformación, denominada dócima; se nos indica con qué probabilidad se
rechaza o no H0 :
1 , si X k
D X
0, o.c.
En consecuencia para resolver un problema de la forma H 0 : 0 vs. H 1 : 1 se puede adoptar
C X tq. X k , donde el valor de k quede por determinar para que se satisfagan los
requisitos de potencia máxima en 1 y nivel en 0 .
En muchos casos es posible dar la siguiente forma a la región crítica así obtenida:
C X tal que X k ' y o X k" ,
para alguna estadística T, donde k' y o k" también se determinan a partir de la solución del problema de
optimización:
C , 0
C max C , .
C
1
124
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Notación
Hemos visto, que dado un valor 0,1 para resolver un problema de docimasia, usualmente resulta
una región crítica C en términos de una estadística T asociada a una cierta distribución D, muy posiblemente
en términos de D1 , D , D1 / 2 ,o D / 2 .
Aprovechando esta curiosidad, los diversos softwares estadísticos, proporcionan resultados basados en un
particular valor de probabilidad de la estadística T observada, denominado p-valor o p-value ; concepto que
ahora se expone.
p-value: es el valor de la significancia observada o probabilidad del conjunto asociado a la región crítica
originado al reemplazar el valor de la (tabla de) distribución por del valor T observado.
A continuación, citamos algunos casos de cálculo de significancia para la correspondiente región crítica:
Se alerta al lector, que para utilizar resultados efectuados mediante procedimientos computacionales, es
imprescindible interpretar adecuadamente el p-value según se ha indicado.
En la siguiente sección exponemos en su forma más sencilla (a un criterio) una importante herramienta
útil para detectar si una variable presenta alteraciones en presencia de dosificaciones de una u otras
variables. Por lo tanto conveniente de abordar previo a la modelación de una determinada característica.
125
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Basándonos en estos argumentos a continuación presentamos diversos problemas con sus respectivas
regiones críticas C de nivel . El lector podrá verificar, la estrecha relación complementaria entre tales
regiones críticas y respectivos intervalos de confianza presentados en el capítulo anterior.
Ejemplo6.1
Para los datos del Ejemplo5.1, verifiquemos si efectivamente tal m.a.(n=20) procede de una B(1,0.3),
es decir de un experimento con 30% de tasa de respuestas afirmativas.
En este caso p0=0.3 y fijemos una significancia del 5%:
H0 : p = 0.3 vs. H1 : p 0.3 ; C={m.a.(n) / T >N1-/2 (0,1)},
126
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
También podemos efectuar una representación de las correspondientes funciones de potencia para cada
Test. Donde se aprecia: nivel =0.05 y PUM en H1 , principios bajo los cuales se han resuelto los
respectivos problemas de optimización , para tales toma de decisiones:
La función de potencia jp X en H es la probabilidad que una muestra ϵ C para el respectivo caso j:
1
127
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Tal discusión, se recomienda al lector que la efectúe de forma similar para los casos de comparaciones
de parámetros que a continuación se desarrollan.
Script:
valorcritico= [-1.6449, 1.6449, 1.96 ]; mediax=p0-(valorcritico/sqrt(n))*sqrt(p0*(1-p0))
p0=0.3; n=20; mediax=[0.1 0.48 0.55]; T=sqrt(n)*(mediax-p0)/sqrt(p0*(1-p0))
p=0.001:0.01:0.999999;b=p0+sqrt(p0*(1-p0))*1.6449/sqrt(n); a=p0-sqrt(p0*(1-p0))*1.6449/sqrt(n); z1=sqrt(p.*(1-p)).^(-1)
plot(p,normcdf(sqrt(n)*(a-p).*z1), p,1-normcdf(sqrt(n)*(b-p).*z1) );
c2=p0+sqrt(p0*(1-p0))*1.96/sqrt(n); c1=p0-sqrt(p0*(1-p0))*1.96/sqrt(n)
pdc= normcdf(sqrt(n)*(c1-p).*z1)+1-normcdf(sqrt(n)*(c2-p).*z1);plot(p,pdc)
Ejemplo6.2
Verifiquemos, si efectivamente los datos de Ejemplo5.2 al considerarlos que proceden de población
normal, esta es con media 85.
H0 : = 0.3 vs. H1 : 0.3 ; C={m.a.(n) / T > t1-/2 (n-1)},
T= n X 0 / s = 0.2115 < 2.0227= t 0.975 (39) = t1-/2 (n-1) ; no hay evidencia para rechazar H0
X / 02 2 n
2
donde T= i
i 1
Caso: desconocido
129
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo6.3
Verifiquemos, si los datos del Ejemplo5.2, asumidos de comportamiento normal; tienen una dispersión
igual a 3.
H0 : = 3 vs. H1 : 3 ; C={m.a.(n) / T > 12 / 2 (n-1)}
Para este caso : n=40 ; T (n -1)s 2 / 02 39s 2 /9 2 39
T=39 (3,3508)2/9 = 48.6541< 58.1201; por lo cual, no hay evidencia significativa a un nivel del 5%
para rechazar que 2 = 9
130
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo6.4
131
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
i Oi P(Ai)
i i 2
i
]-∞ ; 51.4000] 0 0.0148 0
[51.4000 ; 57.9714] 5 0.0348 0.7092
[57.9714 ; 64.5429] 4 0.0811 0.1893
[64.5429 ; 71.1143] 10 0.1445 0.6723
[71.1143 ; 77.6857] 7 0.1964 0.2357
[77.6857 ; 84.2571] 7 0.2037 0.2267
[84.2571 ; 90.8286] 17 0.1613 1.7581
[90.8286 ; 97.4000] 10 0.0974 1.0064
[97.4 ; +∞[ 0 0.0660 0.0001
Total 60 1 T=17.1787
Como p=2; gl= k-p-1=9-3=6, debido a que : T> valor crítico=14.4494; entonces disponemos de
evidencia que la distribución se aparta significativamente de un comportamiento Normal.
Por otra parte, MATLAB directamente entrega una solución aproximada, al truncar la
distribución y por ende reducir gl.:
decisión T gl p-value
indica rechazo----------- 1.0000 16.0798 5 0.0066
Script:
n=length(x5)
x=[51.4 57.9714 64.5429 71.1143 77.6857 84.2571 90.8286 97.4], sqrt(156.1601)
F=normcdf(x,78.5767, sqrt(156.1601));
A=[ -1 1 0 0 0 0 0 0; 0 -1 1 0 0 0 0 0;0 0 -1 1 0 0 0 0;0 0 0 -1 1 0 0 0; 0 0 0 0 -1 1 0 0 ; 0 0 0 0 0 -1 1 0; 0 0 0 0 0 0 -1 1;]
E=n*A*F'; EE=[normcdf(51.4, 78.5767,sqrt(156.1601)); E; 1-normcdf(97.4,78.5767,sqrt(156.1601))]; sum(EE)
o=[0 5 4 10 7 7 17 10 0];h=((o'-EE).^2)./EE; T=sum(h)
[h,p,stats]=chi2gof(x5,'Alpha', 0.05);% cálculo directo sobre los datos originales x5; pd=fitdist(x, 'Normal')
6.1.1c.2.- Kolsmogorov-Smirnov(K-S)
Sea Fn la distribución empírica de una v.a. X ; distribución basada en una m.a.(n) de X.
0 , x X (1)
r
Fn ( x) , X ( r ) X X ( r 1)
n
1 , X X (n)
132
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
n n
Ejemplo6.5
De manera alternativa, a lo desarrollado en Ejemplo6.4, realicemos ahora el test K-S
Script:
z=(mean(x5)-x5)/std(x5); % puntajes Z;[a,b,c]=ecdf(z); plot(b,normcdf(b),b,Fn)
[h,pvalue,estadKS,valorcriticotest] = kstest(z,[z normcdf(z)],0.05)
disp('decisión p-value estadística K-S Valor Crítico'); disp([h,estadKS,pvalue,valorcriticotest])
Ejemplo6.6
Mediante simulación, dispongamos de una muestra de n observaciones N(1,4) y verifiquemos si
efectivamente procede de una distribución Normal mediante test K-S.
Con lo cual se obtuvo una m.a. donde la estimación por método MV es:
Media muestral= 0.54
Desv.std.=4.16.46,
Se aprecia en la correspondiente figura que la mayor discrepancia , entre distribución empírica y teórica
ocurre en x=-2 aprox.
133
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Script:
x=normrnd(1,4, 30,1); % simulación de una m.a.(30)N(1,16); [Fn , xestorden]=ecdf(x); % distribución empírica en azul
plot(xestorden,Fn,xestorden,normcdf(xestorden,mean(x),std(x))); [H,P,T,CV] = kstest(x,normcdf(x,mean(x),std(x)),0.05)
1 j c
Si denotamos como:
A 11 1 j 1c ij X h i j
:
i i1 ij ic i. X h i
:
l l1 lj lc . j X h j
Se asume independencia en dicha clasificación siempre y cuando pi. p. j coincide con pij para todo i,j.
Para estudiar si tal propiedad se cumple en dicha población , se estudia el siguiente problema:
Siendo: pi. , p. j los respectivos estimadores de máxima verosimilitud para pi. , p. j , bajo H0 ; tenemos
1 c 1 l
pˆ i. ij
n j 1
, pˆ . j ij
n i 1
134
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
l c ij
2
l c ij 0.5 2
ij
i 1 j 1 ij
Ejemplo6.7
Para la Tabla1 de frecuencias observadas (Oij) de clasificación del ejemplo 1.4, en tal oportunidad la Tabla3
contiene (Eij/n). Entonces para resolver aun 5% de significancia:
H 0 : ij i.. j , i 1,2,3; j 1,2 vs. H1 : i, j tal que ij i.. j
H0: independencia entre jornada de trabajo y condiciones ambientales, vs H 1: situaciones probablemente
relacionadas
C={m.a.(n=60) tales que T > 0.95 ((1)(2))}={m.a.(n=60) tales que T > 0.95 (2)}
2 2
Oij Eij
31 0 23.16 7.7502
0 15 11.25 3.75
14 0 10.5 3.5
Script:
n=60;chi2inv(0.92,2)
O=[31 0;0 15;10 0]; Edivn=[0.386 0.12917; 0.1875 0.0625; 0.175 0.058333]
E=n*Edivn; sum(sum(((O-E).^2)./E))
6.1.2a.- X 1, px , 1, p y
Dócimas para diferencia de proporciones.
135
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
X
donde 1/ 2
N(0,1)
X
1 X 1
n m
Ejemplo6.8
Retomemos los datos del Ejemplo5.3 y resolvamos a un nivel de significancia del 5%, la conjetura (
afirmación) que no hay diferencias de respuestas entre hombres y mujeres:
Como las respuestas para cada caso son del tipo {0,1}, formalmente nuestro problema es:
H 0 : x y vs. H1 : x y ; C = m.a.n 20, m 15 / 0.9750,1
X 0.35 0.4
1/ 2
- 0.2931 0.2931 <1.96= 0.9750,1
X
1 X 1
0.0291
n m
Pudiéndose afirmar, que no existe evidencia de diferencias significativas de respuestas entre hombre y mujeres.
Mediante sentencia MATLAB se dispone de un resultado muy aproximado ( ya que es una aplicación para
muestras normales, con varianzas conocidas)
diferencias entre medias desv.std decisión intervalo de confianza T gl p-value
-0.0500 0.4970 0 -0.3953 0.2953 -0.2946 33 0.7702
Script:
x=[0 1 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 1]; y=[0 0 1 1 1 1 0 0 0 0 1 0 0 1 0]; [h, p,iclim,stats]=ttest2(x,y)
disp('diferencias entre medias desv.std decisión intervalo de confianza T gl p-value]')
disp([mean(x)-mean(y) stats.sd h iclim stats.tstat stats.df p] )
-varianzas conocidas
H0 : x y vs. H1 : x y ; C = m.a.n, m / 1 0,1
H0 : x y vs. H1 : x y ; C = m.a.n, m / 0,1
H0 : x y vs. H1 : x y ; C = m.a.n, m / 1 / 2 0,1
X
donde 1/ 2
N(0,1)
x2 y2
n m
-varianzas desconocidas
136
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
2
2
v s x2 / n s y2 / m / s x2 / n / n 1 s y2 / m / m 1 .
2
Ejemplo6.9
Consideremos la información proporcionada en Ejemplo5.4 y analicemos el tráfico es similar en ambas
jornadas.
Disponemos de n=17, m=20Asumiendo comportamiento normal en ambos horarios, disponemos de
H0 : x y vs. H1 : x y ; C = m.a.n, m / t1 / 2 v
El output que proporciona la sentencia ttest2 de MATLAB, para el Ejemplo6.8 es propicia, pero la
advertimos estándard, y no es apta para el presente caso, ya que utiliza grados de libertad glMlab=(n+m-2):
decisión desv.stdMlab intervalo de confianzaMlab TMlab glMlab p-valueMlab
señala rechazo -- 1.0000 7.6881 -18.8992 -8.6019 -5.4218 35 0.0000
Script:
x=[9.2202 11.1292 15.8082 13.6085 20.1604 20.3646 12.6768 18.5005 20.5818 16.2839 21.4935 19.2497 15.8564
18.5072 15.7776 13.3404 16.4338];
y=[ 25.3260 21.7183 40.9392 26.9915 49.5734 22.3345 30.0787 39.2436 49.5631 27.7321 17.8877 32.2304
13.1209 22.5354 27.4468 38.4060 37.9343 24.7519 33.3154 22.1085]
n=length(x); m=length(y);alpha=0.05;nu=(((var(x))/n +(var(y))/m)^2)/((((var(x))/n )^2)/(n-1) +(((var(y))/m )^2)/(m-1));
Tcritico=tinv(1-alpha/2,nu);diferencia=mean(x)-mean(y); desvsd=sqrt(var(x)/n +var(y)/m);
T=abs(diferencia/desvsd); pvalor=2*(1-tcdf(T,nu));
disp(' diferencia desvsd n m T gl p-value Valor crítico '); disp([ diferencia desvsd n m T nu pvalor Tcritico ])
% no utilizar para este tipo de problemas la sentencia ttest2
[h, p,iclim,stats]=ttest2(x,y); disp('decisión desv.stdMlab intervalo de confianzaMlab TMlab glMlab p-valueMlab ' )
disp([h stats.sd iclim stats.tstat stats.df p ] )
137
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
X n
t n 1 donde d i = X i i , sd2 i
d d
d X
2
sd i 1 n 1
n
(En los problemas de comparaciones de medias citados en II.2 y III nos puede interesar docimar
hipótesis referentes a comparación de medias respecto de un valor a fijo como las siguientes:
H o : x y a vs. H1 : x y a
H o : x y a vs. H1 : x y a
H o : x y = a vs. H1 : x y a
en cuyo caso las regiones críticas respectivas mantienen su forma pero con un cambio en el numerador de
la estadística T, que consiste en considerar ahora X a en lugar de X ).
Ejemplo6.10
En referencia a la m.a.(n=20) del Ejemplo5.5 , analicemos la afirmación: no hay diferencia entre respuestas
H o : p x p y vs. H1 : p x p y ; C m.a.n / t.97519.
t n 1 donde d i = X i i
d
sd
n
Con observaciones:
d: 0 1 0 0 -1 0 0 0 -1 1 -1 0 0 0 1 0 -1 -1 0 1
Script:
d=[0 1 0 0 -1 0 0 0 -1 1 -1 0 0 0 1 0 -1 -1 0 1]; [h,p,ci,stats]= ttest(d,0,0.05,'both')
disp('media desv.std decisión intervalo confianza T g.l p-value ')
disp([mean(d) stats.sd h ci stats.tstat stats.df p ]);
138
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo6.11
Analicemos, si en cierto modo, es posible afirmar, que no hay diferencia entre la capacidad de reconocimiento
de imágenes por los métodos RNA y PCA, en base a los datos utilizados en Ejemplo5.6 y bajo el supuesto de
normalidad de esta información.
Consideremos entonces la normalidad conjunta de las variables (X,Y), significancia del 5%:
Script:
[h,p,ci,stats]= ttest(d,0,0.05,'both'); disp('media desv.std decisión intervalo confianza T g.l p-value ')
disp([mean(d) stats.sd h ci' stats.tstat stats.df p ])
Primeramente, abordaremos el análisis a un criterio, el cual surge de una necesidad muy frecuente en el análisis
donde se estudia la intervención de un factor ( entre otros u otras circunstancias) que afectan a una variable
denominada dependiente, por lo eventualmente dependiente de tales factores.
6.2.1.-ANÁLISIS A UN CRITERIO
Diversos problemas de decisión, requieren más de 2 parámetros a considerar. Como es el caso de analizar
cinco tipos de tratamientos se suelos (procesos de producción, modificaciones a un producto, etc.). Si
5
lo abordamos por dócimas de medias, tendremos 10 diferentes problemas de docimasia, lo que
2
incurre en una modificación notoria del error tipo I en su conjunto.
Un adecuado procedimiento fue incialmente elaborado para resolver este tipo de problemas que se
denomina precisamente análisis de varianza y es el que exponemos en las siguientes líneas:
Suponga que:
139
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Consideremos las sgtes. observaciones yi1,..., yin de una m.a.(n) de la v.a. Y. Con lo cual estamos en
presencia de la siguiente disposición de la información muestral:
observaciones
1 y11 y12 ......... y1n1
Tratamientos 2 y21 y22 ......... y2n2
3 y31 y32 ......... y3n3
:
:
m ym1 ym2 ......... ymn m
Consideremos que las respuestas a los diversos tratamientos, están en términos de los efectos i que
ellos provocan, de manera aditiva en cada unidad observada:
Notaciones:
ni m ni
yi yij , y.. y ij
j 1 i 1 j 1
Ho : 1 2 ... m 0 . i 0
vs
i 1 i 1 i 1 i 1 j 1
140
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
por lo tanto:
SST
=SSMODELO + SSERROR SSERROR = SST SS
- MODELO
m(n-1)=mn-m=N-m
grados
de
libertad
} N-1 = m-1 + N-m
En lo que respecta al comportamiento de tales sumas de cuadrados, reemplazamos y por Y en cada término de
cada una de las expresiones anteriores; siendo entonces que podemos decir:
En consecuencia si consideramos las respectivas sumas de cuadrados medios que denotamos por:
MSST=SST /(N-m), MSSM=SSMODELO / (m-1), MSSE=SSERROR /(N-m)= ˆ 2
pudiendo concluir entonces que la estadística:
141
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
p-value inferior a 0.05, ( indica evidencia para rechazar H0); deja en evidencia, la existencia de diferencias
significativas a un nivel del 5% (de significancia) entre tratamientos.
Ejemplo6.12
Basándonos en la información dispuesta en Anexo de Cap.1, ahora es técnicamente posible responder la
interrogante:
¿Podrá ser posible que la performance del procedimiento de reconocimiento de imágenes via RNA, esté afecta
a la jornada en que fue realizada?.
Tipo de Jornada: la forman 3 categorías (mañana,tarde ,noche) que dan objeto a tres grupos de respuestas de
performance RNA:
Tamaños de muestra Medias por tratamiento
ni medias p/grupo
31 80.4613
15 79.5400
14 73.3714
ANOVA Table
Source SS df MS F Prob>F
Groups 503.3492 2 251.6746 1.647 0.20166
Error 8710.0981 57 152.8087
Total 9213.4473 59
Script:
[p,tbl,stats]=anova1(x5,x1); disp(' ni medias p/grupo');disp([stats.n' stats.means'])
142
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo6.13
Admitiendo que el peso promedio Y [kg.] de cosecha de producto por planta, tiene un comportamiento
Normal y considerando las siguientes observaciones:
5.275 5.745 4.549 4.453 5.334 5.732 4.593 4.444
Que se acompaña de respectivos antecedentes de riego, fertlizante, y tipo de suelo:
Tipo de riego : 1 2 1 2 1 2 1 2
Fertilizante: si si no no si si no no
Tipo de suelo: arenoso arenoso arenoso arenoso otro otro otro otro
Determinar si el peso Y está afectado por alguna de estos antecedentes y/o interacción de ellos.
Una vez analizadas c/u de las tablas ANOVA para detectar el aporte de los respectivos efectos por si
solos. La sgte., de efecto f2, es la única que detecta efectos significativos :
ANOVA
Source SS df MS F Prob>F
Groups 2.0473 1 2.0473 59.5728 0.0002481*
Error 0.2062 6 0.034366
Total 2.2535 7
Script:
y = [5.275 5.745 4.549 4.453 5.334 5.732 4.593 4.444]';f1 = [1 2 1 2 1 2 1 2]; f2= {'si';'si';'no';'no';'si';'si';'no';'no'};f3= {'arenoso';
'arenoso'; 'arenoso'; 'arenoso'; 'otro'; 'otro'; 'otro'; 'otro'}; anova1(y,f2)
143
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
6.2.1.2.1.- Puntual
Siendo eij = yij --i los residuos del modelo en estudio; al aplicar el método de mínimos cuadrados
(M.M.C.), nos planteamos la minimización de:
i 1 j 1 i 1 j 1
m ni
yij 0
L L i 1 j 1
0 m
u i y o, 1,2,..m
j 1
ij i i
L L m ni
u i yij 0
i 1 j 1
0 m
, , y o, 1,2,..m
j 1
ij i i
Como el efecto de los tratamientos es una desviación de la media general, es plausible adicionar al sistema
m
anterior la restricción
i 1
i 0. Obteniéndose como solución de éste a,
ˆ y.., ˆi yi. y.., i 1,2,...m. Lˆ ,ˆ Mín L , .
,
Además, si identificamos por: i al efecto del tratamiento i entonces su estimación puntual
(M.M.C.) está dada por: ˆ i ˆ ˆ yi.
2
Se desprende fácilmente del modelo adoptado que: yi. ~ i ,
ni
Si es conocido (situación que sabemos utópica), entonces
yi . i
~ 0,1;
2
ni
2 2
yi . 1 / 2 0,1 i. yi. 1 / 2 0,1
ni ni
Cuando se desconoce el valor de ; entonces al reemplzarlo por su estimador:
144
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
yi. i
~ t N - m ;
ˆ 2
ni
ˆ ˆ
yi. t1-/2 m i. yi. t1-/2 m
ni ni
1 1 1 1
yi. y j . 1 / 2 0,1 i j yi. y j . 1 / 2 0,1
n n n n
i j i j
yi. y j i j
Cuando es desconocido: t (N-m);
1 1
ˆ
ni n j
1 1 1 1
yi. y j . ˆ t1-/2 m i j yi. y j . ˆ t1-/2 m
n n n n
i j i j
Ejemplo6.14
Estimemos con 95% de confianza, los resultados esperados por y entre tratamientos, basados en las n=60
observaciones abordadas en Ejemplo6.12.
ˆ ˆ
yi . t1-/2 m i. yi. t1-/2 m
ni ni
Intervalo de confianza para i. :
limInf limSup
76.0154 84.9072
73.1486 85.9314
66.7557 79.9871
1 1 1 1
yi. y j . ˆ t1-/2 m i j yi. y j . ˆ t1-/2 m
n n n n
i j i j
145
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
1 2 -3.5246 5.3672
1 3 0.6985 13.4812
2 3 -0.4471 12.7843
De estos, no contiene al “0”el Intervalo de confianza para la diferencia entre tratamientos 1y 3; sin embargo
carecen de nivel de confianza global para las tres comparaciones, y por ende no puede ser interpretado como el
que induce a diferencias significativas, ya que ANOVA no la detectó. Estos, solo representan, para si mismos,
márgenes de respuestas confiables entre discrepancias. En cambio, si la ANOVA hubiera arrojado resultados
conducentes a rechazar su correspondiente hipótesis, entonces sabríamos que entre tratamientos 1 y 3 se
encuentra la discrepancia significativa entre los tres tratamientos.
Script:
N=60;m=3; alpha=0.05; sigma=12.3616;stats.n ;stats.means; tinv(1-alpha/2,N-m)
a=stats.means-sigma*((sqrt(stats.n)).^(-1))*tinv(1-alpha/2,N-m)
b=stats.means+sigma*((sqrt(stats.n)).^(-1))*tinv(1-alpha/2,N-m)
disp(' limInf limSup');disp([a' b'])
A=[1 -1 0;1 0 -1;0 1 -1];
a=A*(stats.means')- (sigma*((sqrt(stats.n)).^(-1))*tinv(1-alpha/2,N-m))'
b=A*(stats.means')+ (sigma*((sqrt(stats.n)).^(-1))*tinv(1-alpha/2,N-m))'
disp(' limInf limSup');disp([a b])
La situación más simple de este tipo de problemas es el caso de clasificación a dos factores, en la cual bajo dos
criterios o circunstancias cualitativas (o segmentadas) pre-establecidas, se efectúan mediciones de una variable
aleatoria Y, planteándose la disposición de la información que a continuación presentamos, cuando Criterio 1
dispone una clasificación en p grupos y Criterio2 en q grupos.
Y observada Criterio A
bajo dos
criterios
1 ………………… p
1 y111,.............. y11n11 ………………… y1p1,.............. y1 pn1 p
Criterio B ………………...
: : :
………………… yijk
: : :
q yq11,.............. yq1nq1 ………………… yqp1,.............. yqpnqp
Ante lo cual, se propone el siguiente modelo de efecto aditivo con interacciones, que permitirá decidir
respecto al efecto global de estas condiciones y/o su aporte conjunto sobre la variable Y; especificando que
cada observación obedece a una realización de una v.a. Y, de la siguiente manera:
146
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
La forma más simple de explicar este tipo de diseño, es el experimento que consiste en evaluar la calidad de un
producto( o servicio) procesado (o realizado) bajo dos aspectos o criterios, uno con p y otro con q
condiciones.
Por ejemplo, Y es la medición del tamaño de una planta, estudiada en pxq almácigos , siendo p los diferentes
nutrientes y q las condiciones de riego.
Con el objeto, de poder disponer de elementos que permitan resolver el correspondiente problema de decisión
,supondremos que los componentes de error: ijk ~ N(0, 2 ) son independientes e idénticamente distribuidos.
Para decidir si el modelo es pertinente significativo, se efectúa el sgte. planteamiento:
p q p q
donde:
i 1
i j ij ij 0 , i,j
j 1 i 1 j 1
Notación:
q nij p q nij
p q nij p q nij
i 1 j1 k i 1 j1 k
147
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
p q nij
p q nij
Además, cada uno de ellos, al dividirlos por , y en su lugar considerar las v.a de donde proceden estos
2
datos, se puede verificar que son v.a.independientes que respectivamente tienen un comportamiento χ2 , con
grados de libertad correspondientes a la siguiente descomposición:
p q nij
(Yi Y ) 2 SSCriterioA p q nij
(Y j Y ) 2 SSCriterioB
i 1 j1 k 1 2
2
2 ( p 1),
i 1 j 1 k 1 2
2
2 (q 1),
p q nij
(Yij Yi Y j Y ) 2 SS Interacción
i 1 j 1 k 1 2
2
2 (( p 1)(q 1),
p q nij
(Yijk Yij ) 2
SS error
i 1 j 1 k 1 2
2
2 ( N pq)
TABLA ANOVA
FUENTE DE SUMA DE GRADOS DE CUADRADO MEDIO ESTADÍS- DISTRIBUCIÓN
VARIACIÓN CUADRADOS LIBERTAD TICA F
T
Criterio1 SSCriterio1 p-1 SSCriterio1 MSS A F(p-1,N-pq) p-value
MSS A
p 1 MSSe
Criterio2 SSCriterio2 q-1 SSCriterio2 MSS B F(q-1,N-pq)
MSS B p-value
q 1 MSSe
Interacción SSInteracción (p-1)(q-1) MSS AB
SSint eracción F((p-1)(q-1),N-pq)
MSS AB MSS e p-value
( p 1)(q 1)
148
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
En consecuencia:
eijk yijk ˆ ˆi ˆ j ˆij
De manera similar, se diseña y aborda el problema con más de dos factores fijos.
Este es el caso más simple de diseños experimentales, los cuales pueden contemplar más factores fijos, factores
aleatorios parciales o completos, anidados en parcelas, parcelas subdivididas, factorial en bloque, cuadrados
latinos, grecolatinos entre otras subdivisiones, y múltiples consideraciones, para lo cual recomendamos la
lectura de Manual Estadístico 2000, L.Figueroa et alii.
Ejemplo6.15
Utilizando la información del ejemplo6.13, estudiemos el aporte de todos los efectos e interacciones posibles.
Analysis of Variance
Source Sum Sq. d.f. Mean Sq. F Prob>F
X1 0.048516 1 0.048516 1.2372 0.32835
X2 2.0473 1 2.0473 52.2066 0.0019462 *
X3 0.00082013 1 0.00082013 0.020914 0.89201
Error 0.15686 4 0.039215
Total 2.2535 7
*de los tres factores por si solos, el fertilizante es el que tiene efecto significativo en el tamaño del producto
Analysis of Variance
Source Sum Sq. d.f. Mean Sq. F Prob>F
f1 0.048516 1 0.048516 1075.1496 0.019409 *
f2 2.0473 1 2.0473 45369 0.0029888 *
f3 0.00082013 1 0.00082013 18.1745 0.14668
f1*f2 0.15485 1 0.15485 3431.4931 0.010867 *
f1*f3 0.0019531 1 0.0019531 43.2825 0.096031
f2*f3 1.5125e-05 1 1.5125e-05 0.33518 0.6659
Error 4.5125e-05 1 4.5125e-05
Total 2.2535 7
- no solo el fertilizante es importante en esta producción, sino que debe prestarse atención al tipo de riego
- en los diferentes niveles de interacciones de Tipo de riego y fertilizante se detectan diferencias significativas
en el peso del producto.
Script:
anovan(y,{f1,f2,f3}); anovan(y,{f1 f2 f3},'model', 'interaction', 'varnames',{'f1','f2','f3'} )
149
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
PARTE III
LINEAS DE ESPERA
Tales costos X (referente el tiempo de espera de un servicio),Y (referente al consumo de recursos, humanos ,
financieros y materiales que requiere ese servicio), están inversamente correlacionados; es decir si X crece
entonces Y decrece, e inversamente.
La teoría de líneas de espera se ha llegado a utilizar con bastante éxito para determinar:
a) El número de médicos que deben atender el servicio de emergencia de un hospital variando ese número
en el tiempo y en el espacio.
b) El número de camas que debe tener el pabellón de ginecología-obstétrica de un hospital.
c) El número de cajas que deben esperar en una tienda o en un autoservicio, en función de la hora y el día
de la semana.
d) El número de transportes que deben distribuir productos perecibles en una zona.
e) El número de operadores de tráfico aéreo, que varían en el tiempo y el lugar.
f) La secuenciación de encendido de semáforos a lo largo de una avenida.
g) El número de grupos de mantenimiento de algunas líneas aéreas.
Una línea de espera en su concepto más simple, se origina por la llegada aleatoria de clientes que entran en
un establecimiento a recibir un servicio proporcionado por un servidor. La naturaleza de los clientes, el
establecimiento y los servicios varían con la respectiva organización:
151
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Si el tiempo que se utiliza para servir a un cliente es mayor al que transcurre entre la llegada consecutiva de 2
clientes; se formarán líneas de espera. En caso contrario no se formarán líneas de espera.
Análisis matemático: de poder aplicarse produce resultados óptimos. Sin embargo requiere de suposiciones
muy estrictas en cuanto ala naturaleza de:
las llegadas de clientes.
tipo de servicio.
número de servidores.
estructura del sistema.
Proceso de simulación: tiene una aplicación más general que el análisis matemático ya que prácticamente se
puede utilizar para cualquier sistema. Su desventaja entre otros aspectos es que no
origina valores óptimos.
Procederemos a analizar líneas de espera con un enfoque matemático, exponiendo interesantes aplicaciones,
dejando la discusión de los procesos de simulación para una etapa posterior.
152
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
CAPITULO VII
ESTRUCTURA
Y
CARACTERIZACIÓN DE LINEAS DE ESPERA
Toda línea de espera, está constituida por un “cliente” que requiere un “servicio”, proporcionado por un
“servidor” en un determinado período.
Los clientes entran aleatoriamente al sistema y forman una o varias filas de acuerdo a ciertas reglas pre –
establecidas, conocidas como “disciplina” del servicio, bajo las cuales se proporciona el servicio a los
elementos de la fila.
El cliente será atendido en un período determinado de tiempo, llamado, ”tiempo de servicio”. Al finalizar,
este lapso, abandona el sistema. Los clientes que se forman en una fila lo hacen en una “área de espera”.
a) El número de clientes que pueden esperar en la fila. Esta pueden ser finitos o infinitos. En la realidad
sólo existen los primeros; matemáticamente se facilitan los cálculos si se supone el segundo caso.
b) La fuente que genera la población de clientes. Esta fuente puede tener una producción finita o infinita
(no confundir con la población que espera que también puede ser finita o infinita).
c) La modalidad de espera de los clientes (en una fila o en varias, con o sin opción a cambiarse de fila).
d) El tiempo entre la llegada de un cliente y el inmediatamente anterior. Este lapso (intervalo) puede ser
constante
o una v.a.i., con distribución conocida o no.
El enfoque matemático está desarrollado para constante o v.a.Poisson; para otras distribuciones se
utiliza el enfoque de simulación, o también, cuando las llegadas no son independientes (por ejemplo
cuando pacientes originados por un mismo accidente son trasladados a un centro de emergencia).
e) El tiempo se servicio. Puede ser constante o v.a. dependiente o independiente con distribución conocida
o no.
El enfoque matemático ha proporcionado resultados de las líneas de espera cuando el tiempo de servicio
es: constante, se distribuye exponencial o Erlang. Para otras distribuciones se utiliza el enfoque de
simulación.
Se dice que el tiempo de servicio es dependiente, cuando varía (se alarga o se acorta) por factores de
presión del sistema (por ej. las quejas de la gente que espera) ; es independiente cuando la duración del
servicio no se afecta por este tipo de presiones.
f) La disciplina de la fila. Se puede utilizar una política en la cual el primero que llega a la fila es el
primero al que se le proporciona el servicio; existen políticas de prioridad (prelación), como es el caso
de los servicios médicos de emergencia, en donde las características del cliente indican en que orden se
le proporciona el servicio.
La disciplina también puede ser: último que entra, primero que sale (como es el caso de inventario
acumulado en columnas) o bien una disciplina aleatoria.
153
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Aquí abordamos sólo la condición de estable y específicamente aquellos casos donde en un período
determinado solo se puede abrir una entrada al sistema (nacimiento) y una salida del mismo (muerte). Por
ello estos procesos estables se conocen como nacimiento y muerte.
Como presentaremos a continuación, los elementos básicos de un modelo de espera dependen de los
siguientes factores:
- Distribución de llegadas (llegadas individuales o masivas en grupo).
- Distribución del tiempo de servicio (servicio individual o masivo).
- Diseño de la instalación de servicio (estaciones en serie, paralelo o red).
- Disciplina de servicio (FCFS, LCFS, SIRO) y prioridad de servicio.
- Tamaño de la línea de espera (finito o infinito).
- Fuente de llamadas (finita o infinita).
- Conducta humana (cambios, elusión y renuncia).
Consideremos la secuencia de v.a. {Nt} que dan forma a un proceso estocástico, mediante lo cual en cada instante t,
lleva el conteo de quienes concurren (clientes) a un sistema para requerir servicio
λn: número esperado ( promedio) de llegadas por unidd de tiempo cundo hay n entes en el sistema
: nº promedio de llegadas al sistema por unidad de tiempo (minuto, hora, día, etc.); independiente de
los elementos en el sistema y del tiempo.
Lo cual ante un sistema de llegadas y esperar en fila por atención de servicios mediante S servidores,
origina otro proceso estocástico {𝑋𝑡 } que registra la cantidad de clientes en el sistema (cantidad de llegadas
que no han salido del sistema), cuyo espacio de estados denotaremos por E . Siendo nϵ E , (entero no
negativo ):
Pn (t) = 𝑃{𝑋𝑡 = 𝑛}: probabilidad de que en el momento t de llegada a la fila haya n personas
(entes o clientes) en el sistema; s recibiendo servicio, s 1,
n -s esperando en la fila.
Así P0(t): probabilidad de que en el momento t de arribo a la fila, el sistema esté vacío.
n: número esperado ( promedio) de atenciones (servicios), por unidad de tiempo cundo hay n entes en el
sistema e independiente del tiempo
: promedio de servicios del sistema, por unidad de tiempo (minuto, hora, día, etc.); independiente de
los elementos en el sistema y del tiempo.
= /: factor de utilización o intensidad de tráfico del sistema (cuando las llegadas y servicios son
constantes).
Si >1, se forma una fila (llegan más de los que se le puede dar servicio en esa unidad de tiempo), e
indica la necesidad de añadir al sistema más servidores, S; hasta que se logre que el factor de
utilización del sistema con servidores múltiples ( en paralelo) s= /(s) 1. Lo que querrá decir
que el sistema con tales servidores múltiples podrá dar servicio por unidad de tiempo a todas las
llegadas en dicho intervalo de tiempo.
Tq: esperanza del tiempo de espera para que reciba el servicio la última llegada a la fila, (tiempo
de espera).
Tw: esperanza del tiempo de espera para que la última llegada a la fila abandone el sistema una vez
atendida, (tiempo demora):
TW=Ts + (Tiempo esperado de servicio una vez que comienza a ser atendido)
1/ : tiempo promedio entre dos llegadas consecutivas.
1/: tiempo promedio de servicio a un cliente.
154
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
n: número esperado de llegadas, de nuevos clientes por unidad de tiempo cuando hay “n” en el
sistema.
n: numero esperado de servicios por unidad de tiempo, cuando existen n clientes en el sistema.
Representa la tasa combinada de servicios a la cual trabajan todos los servidores ocupados.
{l(t)}: el proceso estocástico que registra en todo momento t, el conteo de entes en la fila; l(t)= 𝑋𝑡 − 1
L(t)=E[l(t)]: valor esperado del número de entes formadas en la fila (esperan ser atendidos) en el instante t;
cuando L(t) es independiente del tiempo, anotaremos L(t)=L
W(t)= [𝑋𝑡 ] : Valor esperado del número de entes (clientes) en el sistema en el instante t; cuando W(t) es
independiente de t , anotaremos W(t)=W.
Cs: número esperado de clientes que no requieren de servicio en el momento de arribar al sistema; lo cual
tiene sentido sólo en población finita
s: utilización promedio de c/u de los S servidores (S 1), dada en porcentaje de tiempo.
𝑐̅: cantidad esperada de servidores ocupados
Kendall D. (1953) Introdujo una notación para las diferentes líneas de espera.
Lee A. (1966) Complementó lo anterior; configurándose así la siguiente nomenclatura:
(a/b/c): (d/e/f), donde
a: Distribución de llegada
b: Distribución de servicio
c: Número de servidores en paralelo en el sistema
d: disciplina e servicios
e: máximo número de clientes que pueden estar en el sistema (esperando y recibiendo servicio)
f: Fuente de generación de clientes
Los siguientes códigos corresponden a los símbolos:
a y b:
M: llegada con distribución de Poisson y servicio distribuido exponencialmente.
D: llegada o servicio determinístico.
E: llegada y servicios distribuidos respectivamente con distribución de Erlang y Gama.
GI: llegadas con distribución general e independiente.
G: servicios con una distribución general independiente.
d:
FCFS: primero que llega, primero que se le proporciona el servicio.
LCFS: último que llega, primero que se le proporciona el servicio.
SIRO: servicio en orden aleatorio.
GD: disciplina general de servicio.
NPRP: servicio prioritario no abortivo.
PRP: servicio prioritario abortivo.
7.3.- Caracterización
Consideremos el caso en que los clientes que concurren al sistema mediante un proceso {N t} , obedecen a un
comportamiento Poisson homogéneo con parámetro λ, como el descrito en el capítulo III, y que de igual
manera actúan los servidores con un promedio de atenciones .
Recordemos que en tal tipo de procesos Poisson, el valor medio de ocurrencias por unidad de tiempo es la
inversa del tiempo medio entre ( o por ocurrencias). 155
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
La disciplina de la fila es, “primero que llega, primero a que se le proporciona el servicio”.
Población infinita y sala de espera de capacidad ilimitada.
T tiempo entre llegadas ( también se acostumbra decir, tiempo de llegada) con distribución exponencial
exp(), media 1/ .
(Por ejemplo: Si llegan 5 clientes en promedio c/minuto, =5, entonces la medida de la distribución es 0.2
minutos o cada 12 segundos se espera que alguien llegue).
Y: Tiempo de servicio exponencial exp() = e-X, con media de servicio 1/.
A continuación calcularemos Pn (t), P0(t) y los parámetros de efectividad del sistema: W, L, Ts, Tw.
C
b) Probabilidad de no requerir servicio en t: 1-t = P(C) P(C ) = t
Así:
Pn (t +t): La probabilidad de tener m personas en el sistema en cualquier tiempo t + t es
Pn (t + t ) = [( n personas en el sistema en el tiempo t, una recibiendo servicio, m-1 esperan)
(no llegan clientes en t) (no se culmina el servicio en t )] o
[ n personas en el sistema en el tiempo t, una recibiendo servicio, m-1 esperan) (una
llegada en el tiempo t) (un servicio en t)]}o
[( (n+1) en el sistema en el tiempo t, una recibiendo servicio y m esperan) (no
llegan clientes t) (se culmina un servicio en t )]o
[( (n-1) personas en el sistema en tiempo t, una recibiendo servicio, m-2 esperan) (una
llegada en t) (no requiere servicio en t)]
= P((A B C) (A G E) (D B E) (F G C))
n+1 Donde:
A= m clientes en el sistema en el instante t
n D= (m+1) clientes en el sistema en el instante t
F= (m-1) personas en el sistema en tiempo t
n-1 B= nadie llega en t
t t+ t C= nadie sale en t
E= salida en t = Cc
t G= llegada en t = Bc
Pm (t+ t) = P(A)P(B)P(C) + P(A)P(G)P(E) + P(D)P(B)P(E) + P(F)P(G)P(C) .
nadie sale salida salida nadie sale
nadie llega llegada nadie llega llegada
llegada salida
tiempo t en t en t P m (t+t ) = P(A) [P(B) P(C) + P(G) P(E)] +
m+1 0 1 + P(D) P(B) P(E)
m 0 0 + P(F) P(G) P(C)
m-1 1 1
1 0
156
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Pm (t+t) = Pm (t) [(1-m t ) (1- 𝜇𝑚 ∆t ) + mt 𝜇𝑚 ∆t ]+ Pm+1 (t) (1-m+1 t ) ( 𝜇𝑚+1 ∆t )+Pm-1 (t)(m-1t )
(1− 𝜇𝑚 ∆t )
P m (t +t) = P m (t) ((1- t )(1 – t )+ t t )+P m1 (t) (1- t ) (t )+Pm-1(t) t(1- t )
= P m (t) (1–t- t+ (t) + (t ) )+P m1 (t) (t- (t ) )+Pm-1 (t) t –
2 2 2
dPm
En serie de Taylor: P m (t+t) = P m (t)+ (t) t,
dt
si t o Pm (t+t ) = P m (t); P m (t +t ) - P m (t) =0 dPm (t) t =o, entonces
dt
P m1 (t) – (+ )P m (t) + P m1 (t) = 0 (+ ) P m (t)= P m1 (t)+ P m1 (t)
Pn (t)= ( )𝑛 P o (t)
Por ser P medida de probabilidad, , :
1 ( / ) r
1= ∑∞
𝑛=0 𝑃𝑛 (𝑡) = P o (t)(1+ +( ) 2 +…+( )𝑛 +…) = P o (t) lim P o (t) (1- )-1
r 1 ( / )
P o (t) = 1- =
𝜆 𝑛 𝜇−𝜆 𝑛
Pn (t) = (𝜇) = 𝜌 (1 − 𝜌) Pn (t) =𝜌𝑛 (1 − 𝜌) , n ϵ E={0,1,2,…,n,…}
𝜇
157
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Probabilidades, que dan forma a 𝑓𝑋𝑡 (𝑛) = 𝑃 {𝑋𝑡 = 𝑛} = (1 − 𝜌)𝜌𝑛 , 𝑛 = 0,1, … , función de cuantía de cada
v.a. 𝑋𝑡 .
Siendo Zt=𝑋𝑡 + 1 ,entonces
𝑓𝑍𝑡 (𝑛) = 𝑓𝑋𝑡 (𝑛 − 1) = (1 − 𝜌)𝜌𝑛−1 , 𝑛 − 1 = 0,1, …
conocida como geométrica de parámetro p=ρ, con q=1- ρ . La cual no depende de t y por ello, todo procedimiento
que involucre cálculo de probabilidad, tendrá resultado independiente de t.
1 𝜌
𝑊(𝑡) = 𝑊 = 𝐸 [𝑋𝑡 − 1] = 𝐸 [𝑌𝑡 ] − 1 = −1 =
1−𝜌 1−𝜌
𝜌
𝑊=
1−𝜌
7.3.1.3.- Número esperado de clientes en la fila
Siendo lt=𝑋𝑡 − 1 ,entonces
L (t) = E(nº de personas (esperando) en la fila) = 𝐸 [𝑙𝑡 ]=L
∞ ∞
=1 − 𝑃(𝑋𝑡 = 0) = 1 − (1 − 𝜌) = 𝜌
𝜌 𝜌2
𝐿 =𝑊−𝜌 = −𝜌=
1−𝜌 1−𝜌
𝐿 = 𝜌𝑊
158
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Además: Tq=
L = 1−𝜌
𝜌
= 𝜇(1−𝜌) ,entonces: Tq L W
𝜇𝜌
(1 Po (t )) (1 )
TW = Tq +E[Y]= Tq +
1 = +
1 1
= (1+
) , por consiguiente
(1 ) 1
1 L 𝑊 𝑇𝑞
TW = =
(1 ) (1 ) (1 ) λ 𝜌
de esta manera: 𝑇𝑞 = 𝜌 𝑇𝑊 ;
𝑊
𝑇𝑊 = λ
Definición:
La probabilidad que todos los servidores del sistema se encuentren ocupados se denomina Función de Pérdida
Erlang B ( o simplemente Función Erlang B)y se denota B(s, ρ)=P(Xt=s), donde s es el número de servidores. Por
cierto es una pérdida por bloqueo de servicio al encontrarse copados los servidores, momento en que el cliente bien
puede no esperar ( no hacer fila) y desistir del servicio salir del sistema).
La probabilidad que alguien al llegar a la fila deba esperar para ser atendido, se denomina Función de Erlang C
del sistema con s servidores y denota por C(s,ρ)= P(Xt≥s).
Siendo pcop la probabilidad que el sistema esté copado (por ejemplo el sistema ha superado la capacidad del recinto
de espera o no hay recinto de espera). En general todas las situaciones en que un cliente debe abandonar el sistema
por no alcanzar a ser incluido en él. Se define la tasa de llegadas perdidas o tasa de pérdida de un sistema como la
tasa de llegadas por la tasa de pérdida: 𝝀𝒑é𝒓𝒅𝒊𝒅𝒂 = 𝝀𝒑𝒄𝒐𝒑 . Es decir, la proporción de llegadas que ha de esperarse
perder por unidad de tiempo, ya que los clientes seguirían llegando a un sistema que ha dejado de atender por copar
su capacidad.
Se considera como tasa de efectividad del sistema y denota 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 ; al margen entre tasa de llegadas y tasa de
pérdida. De esta manera 𝝀𝒆𝒇𝒆𝒄𝒕𝒊𝒗𝒊𝒅𝒂𝒅 = 𝝀 − 𝝀𝒑é𝒓𝒅𝒊𝒅𝒂 = 𝝀 − 𝝀𝒑𝒄𝒐𝒑 = 𝝀(𝟏 − 𝒑𝒄𝒐𝒑 ). Consecuente con ello, se definen
las siguientes medidas de demanda del sistema:
- Carga ofrecida o intensidad de tráfico: 𝝀 𝑬[𝒀]
- Carga efectiva (o transportada): 𝝀𝒆𝒇𝒆𝒄𝒕𝒊𝒗𝒊𝒅𝒂𝒅 𝑬[𝒀]
7.3.1.6.- Propiedades
7.3.1.6a.-Distribución de Cantidad de Clientes en el Sistema y Función Erlang C
Siendo Xt: la v.a. número de clientes en el sistema
La distribución de Xt está dada por:
P(Xt≤m)=∑𝑚 𝑚
𝑛=0 𝑃(𝑋𝑡 = 𝑛 ) = (1 − 𝜌)(1 + 𝜌 + ⋯ + 𝜌 ) = 1 − 𝜌
𝑚+1
La probabilidad de que haya alguien en el sistema (al menos un cliente)=P(Xt >0)=ρ=: C(1,ρ), proporción de
tiempo del sistema en funcionamiento en que el único servidor estará ocupado.
159
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
0 1 ……………....n-1 n n+1 …
2 3
1 2 3 n-1 n n+1
El reciente desarrollo infinitesimal, a partir de este diagrama, permite plantearnos directamente las
ecuaciones de balance ( o equilibrios) en términos instantáneos de tiempo ( cuando t 0):
Siendo n un elemento del espacio de estados:
λ0P o (t) =1P 1 (t),
(n+ n) Pn (t)= n-1Pn-1 (t)+ Pn+1 (t)
Sistema que es válido para todo tipo de sistemas de filas sin limitantes de capacidad de servicio.
Al considerar un proceso en el cual: Pn (t)=pn , ( independientes del tiempo o Xt v.a.
160
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
idénticamente distribuidas ):
𝜆0 𝑝0 = 𝜇1 𝑝1
𝜆𝑛−1 𝑝𝑛−1 + 𝜇𝑛+1 𝑝𝑛+1 = (𝜇𝑛 + 𝜆𝑛 )𝑝𝑛 , 𝑛≥1
𝜆0
De la primera ecuación se desprende: 𝑝1 = 𝑝0 𝜇1
(𝜇𝑛 +𝜆𝑛 )𝑝𝑛 −𝜆𝑛−1 𝑝𝑛−1
Procediendo por recurrencia en la segunda ecuación: 𝑝𝑛+1 = 𝜇𝑛+1
𝜆0
(𝜇1 + 𝜆1 )𝑝1 − 𝜆0 𝑝0 (𝜇1 + 𝜆1 )𝑝0 𝜇1 − 𝜆0 𝑝0 𝜆0 𝜆1
𝑝2 = = = 𝑝0
𝜇2 𝜇2 𝜇1 𝜇2
(𝜇2 + 𝜆2 )𝑝2 − 𝜆1 𝑝1 𝜆1 𝜆2 𝜆0 𝜆1 𝜆2
𝑝3 = = 𝑝1 = 𝑝0
𝜇3 𝜇2 𝜇3 𝜇1 𝜇2 𝜇3
…………
𝑛
𝜆𝑖−1
𝑝𝑛 = 𝑝0 ∏
𝜇𝑖
𝑖=1
Reduciéndonos a la situación abordada en la presente sección, por el momento, es de nuestro interés
resolver el caso en que, para todo n:
λn = λ , n= , (independientes del estado)
Por tal motivo, las ecuaciones de balance entre tasa de flujo esperada de entrada ( destacada
con verde) y salida ( marcada con rojo) al estado n, que corresponde considerar son:
𝜆0 𝑝0 = 𝜇𝑝1
{
𝜆𝑝𝑛−1 + 𝜇𝑝𝑛+1 = (𝜇 + 𝜆)𝑝𝑛 , 𝑛≥1
- Debe esperar , porque en el instante t de su llegada, ya hay n clientes en el sistema ( n-1 en la fila y uno
siendo antendido); con el consecuente tiempo de espera tq>0 :
𝑛
(𝑡𝑞 | 𝑋𝑡 = 𝑛) = 𝑟𝑛 = ∑ 𝑡𝑗 , 𝑛 ≥ 1
𝑗=1
𝜇 𝑛 𝜇−𝜏 −𝑛 𝜏 −𝑛
con función característica: Ф𝑟𝑛 (𝜏) = ∏𝑛𝑗=1 Ф𝑡𝑗 (𝜏 ) = ( ) =( ) = (1 − 𝜇) . Lo cual indica, que
𝜇−𝜏 𝜇
1
el comportamiento de 𝑟𝑛 , obedece a una densidad gamma de parámetros (𝑛, 1/𝜇), 𝑟𝑛 γ (n, 𝜇):
161
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑡
Por lo cual : P(tq> t) = 1- P(Tq t) =1 − ∫0 𝑓𝑇𝑞 (𝑡)𝑑𝑡 = 𝜌𝑒 −𝜇(1−𝜌)𝑡 , 𝑡≥0
𝜇𝜌 (1 − 𝜌)𝑒 −𝜇(1−𝜌)𝑡 , 𝑡 > 0
𝑑𝐹𝑡𝑞 (𝑡) = 𝑓𝑇𝑞 (𝑡) = {
1 − 𝜌, 𝑡=0
Así, siendo tq una v.a. mixta, finalmente podemos expresar su distribución mediante:
1 − 𝜌𝑒 −𝜇(1−𝜌)𝑡 , 𝑡 > 0
𝐹𝑡𝑞 (𝑡) = 𝑃(𝑡𝑞 ≤ 𝑡) = { ,
1 − 𝜌, 𝑡=0
Ahora, más fácilmente que el cálculo ya realizado de su valor esperado, lo podemos efectuar de diversas
formas:
∞ ∞ ∞
−𝜇(1−𝜌)𝑡 ∞
𝐸[𝑡𝑞 ] = ∫ 𝑡 𝑑𝐹𝑡𝑞 (𝑡) = 0(1 − 𝜌) + ∫ 𝑡𝜇𝜌(1 − 𝜌)𝑒 𝑑𝑡 = 𝜌 (−𝑡𝑒 −𝜇(1−𝜌)𝑡 |0 + ∫ 𝑒 −𝜇(1−𝜌)𝑡 )
0 0 0
−1 ∞ 𝜌
−𝜇(1−𝜌)𝑡 |
= 𝜌 𝜇(1−𝜌) 𝑒 = 𝜇(1−𝜌), como también:
0
∞ ∞ ∞
𝑛 1
𝐸 [𝐸[𝑡𝑞 | 𝑙(𝑡) = 𝑛]] = ∑(𝐸[𝑡𝑞 | 𝑙(𝑡) = 𝑛]) 𝑃𝑛 (𝑡) = ∑ 𝑃𝑛 (𝑡) = ∑ 𝑛𝑃𝑛 (𝑡) = 𝐸 [𝑋𝑡 ]
𝜇 𝜇
𝑛=0 𝑛=0 𝑛=0
1 𝜌
=
𝜇 1−𝜌
162
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
con expectativa de demora habiendo n+1 en el sistema (con reciente llegada ya incluída). Para cada n≥1:
𝑛+1
𝐸 [𝑡𝑊 | 𝑋𝑡 = 𝑛 + 1] = 𝐸 [𝑟𝑛+1 ] =
𝜇
,
∞ ∞
∞ ∞ ∞ ∞
∗]
𝑃𝑛 (𝑡) 1
E[ 𝑙 = ∑ (𝑛 − 1)𝑓𝑙 ∗ (𝑛 − 1) = ∑ (𝑛 − 1) 2 = 2 (∑ 𝑛 𝑃𝑛 (𝑡) − ∑ 𝑃𝑛 (𝑡))
𝜌 𝜌
𝑛=2 𝑛=2 𝑛=2 𝑛=2
1 1 𝜌 1 1
= 2 (𝐸 [𝑊] − 𝑃1 (𝑡) − 𝑃(𝑋𝑡 > 1)) = 2 ( − 𝑃1 (𝑡) − (1 − 𝑃0 (𝑡) − 𝑃1 (𝑡))) = =
𝜌 𝜌 1−𝜌 1 − 𝜌 𝑃0 (𝑡)
0 1 …………….... m-1 m
2 3
1 2 3 m-1 m
163
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Las ecuaciones de equilibrio son las ya establecidas en la presente sección, pero, con una restricción adicional:
P 1 (t) = λP o (t)
(+ ) Pn (t)= Pn-1 (t)+ Pn+1 (t), 1≤n≤m
Pm(t) = λPm-1(t)
𝜇𝑝𝑛 = 𝜆𝑝0
o en su forma equivalente: { ( + ) 𝑝𝑛 = 𝑝𝑛−1 + 𝑝𝑛+1 , 1 ≤ 𝑛 ≤ 𝑚
𝜇𝑝𝑚 = 𝜆𝑝𝑚−1
De las dos primeras ecuaciones ( al igual que en 7.3.1), se obtiene la siguiente relación, para la
probabilidad de que hayan n clintes en el sistema:
𝜌𝑛 𝑃0 (𝑡), 𝑛 ≤ m
P𝑛 (𝑡) = {
0, 𝑛>𝑚
En términos generales, ya hemos establecido:
Pn t
Pn t
Pn t
P t 1 1 P t P t P t 1/ P t 1/ P t , que ahora en el caso
n 0
n 0
n 0
0
n 0 n 0
0 0 0
finito, no diverge; y por ello no se requiere restricción sobre ρ, sino que además se reduce a:
𝜆 𝑚+1
1−
𝜇
𝜆 𝜆2 𝜆𝑚 𝑃0 (𝑡) , 𝜌 ≠ 1 , entonces
1 = ∑𝑚
𝑛=0 𝑃𝑛 (𝑡 ) = 𝑃0 (𝑡 ) (1 + 𝜇 + 𝜇 + ⋯ + 𝜇 ) = { 1−
𝜇
𝜆
𝑃0 (𝑡)(𝑚 + 1), 𝜌 = 1
1−𝜌 1−𝜌
, 𝜌≠1 𝜌𝑛 1−𝜌𝑚+1 , 𝜌 ≠ 1
1−𝜌 𝑚+1
𝑃0 (𝑡) = { 1 , P𝑛 (𝑡) = { 𝜌𝑛
𝑝𝑎𝑟𝑎 𝑛 = 0,1, … . 𝑚
, 𝜌=1 , 𝜌 = 1
𝑚+1 𝑚+1
W = [Xt]=∑𝑚 𝑚 𝑛 𝑚 𝑛 𝑚
𝑛=0 𝑛𝑃𝑛 (𝑡 ) = ∑𝑛=0 𝑛 𝜌 𝑃0 (𝑡 ) = 𝑃0 (𝑡 ) ∑𝑛=0 𝑛 𝜌 = 𝜌𝑃0 (𝑡 ) ∑𝑛=0 𝑛 𝜌
𝑛−1
𝑚
𝑑 𝑑 1 − 𝜌𝑚+1 −(𝑚 + 1)𝜌𝑚 (1 − 𝜌) + 1 − 𝜌𝑚+1
= 𝜌𝑃0 (𝑡) ∑ 𝜌𝑛 = 𝜌𝑃0 (𝑡) ( ) = 𝜌𝑃0 (𝑡)
𝑑𝜌 𝑑𝜌 1−𝜌 (1 − 𝜌)2
𝑛=0
−(𝑚+1)𝜌𝑚+𝑚𝜌 𝑚+1 +1
= 𝜌𝑃0 (𝑡) (1−𝜌)2
1 𝑚(𝑚+1) 𝑚
𝜌 = 1: 𝑊 = 𝑃0 (𝑡) ∑𝑚 𝑛 𝑚
𝑛=0 𝑛 𝜌 = 𝑚+1 ∑𝑛=0 𝑛 = =
2(𝑚+1) 2
1 + (𝑚𝜌 − (𝑚 + 1))𝜌𝑚
𝜌 , 𝜌≠1
𝑊={ (1 − 𝜌)(1 − 𝜌𝑚+1 )
𝑚
, 𝜌=1
2
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝐿 𝑊
Aplicando Fórmulas de 𝐋𝐢𝐭𝐭𝐥𝐞; 𝐿=𝑊+ , 𝑇𝑞 = 𝜆 , 𝑇𝑊 = 𝜆
𝜇 𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑
siendo:
1−𝜌
𝜆𝑝é𝑟𝑑𝑖𝑑𝑎 = 𝜆 𝑃(𝑋𝑡 = 𝑚)= 𝜆𝑃𝑚 (𝑡) = 𝜆𝜌𝑚 1−𝜌 𝑚+1 ;
164
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
véase:
MAT2.Vol2009,T5.Recordando a Erlang…: http://mat.uab.cat/matmat/PDFv2009/v2009n05.pdf ,
Taha (2012)Inv. Op. Pag.609
S.Ross(1985), pág.316
Ejemplo7.1 (gasolinera)
Una gasolinera tiene diversas plataformas de servicio: petróleo (diesel), gasolina en diversos octanos, parafina
(kerosene), lubricación, lavados manuales y o automáticos de vehículos.
Poniendo atención sólo al servicio diesel, que supongamos se proporciona a través de sólo un puesto de servicio,
donde:
- las llegadas de vehículos diesel muestran una distribución aproximadamente Poisson, mientras que el
servicio muestra una distribución exponencial.
- el promedio de llegadas a requerir diesel es de 5 vehículos por hora, mientras que los servicios promedios en
este puesto son de 7 por hora. Sólo se puede dar servicio en esa bomba a un vehículo a la vez y se sirve a los
vehículos en el orden de llegada.
Determine todos los parámetros que describan cuantitativamente a esta bomba diesel, para que más tarde se pueda
tomar una decisión, acerca de la instalación de otras bombas diesel en ese lugar.
Solución
5
5, 7 1
7
P0 t 1
5
La probabilidad de encontrar la bomba diesel vacía es 1 1 0.29
7
3
La probabilidad de encontrar un vehículo cargando y dos P3 t P0 t 3 0.29 0.11
esperando en la fila
2 2
L 1.79 [vehículos]
1
El número medio(esperado) de vehículos que hacen fila
El número medio(esperado) de vehículos en el sistema W 2.5 [vehículos]
1
El tiempo medio (esperado) de espera en la fila Tq =W/ =0.36 [hora]
= 22 [minutos]
1 1
El tiempo medio (esperado) para salir del sistema Tw Ts 0 ,36 0.5 [hora]
7
La probabilidad de que en el sistema se
4
5
P(M > 3) = 0.26
4
encuentren más de 3 vehículos es
7
La probabilidad de que la espera en la
fila sea mayor a 0.75 [hora] o 45’ P(tq> 0.75) = 𝜌𝑒 −𝜇(1−𝜌)0.75 = 0.16
165
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
El costo diario (cada 24 horas) de esperar cargar combustible por vehículo es:
1 1 1
2( c arg as / día ) ( hora espera / c arg a) 500.000( pesos / mes) ( mes / dias ) ( dias / hora)
2 22 18
500.000 50.000 pesos
1262.6
22 18 396 día
Consideremos un sistema M/G/1, en el cual las llegadas son Poisson P(λ), pero los servicios con distribución
arbitraria, cuyos tiempos de servicio Y1,Y2,,…. ,Yn,…. son v.a i.i.d. con distribución originada a partir de una v.a.Y
con densidad 𝑓𝑌 (𝑦) .
Independiente que las llegadas sean Poisson, y más aún, admitiendo que estas ocurren cada vez que un cliente es
atendido; el tiempo de servicio residual r(t) abordado en.Corolario2 de 3.2.6.3, se comporta como un v.a. R
independiente de t tal que:
P(r (t ) y) P( R y )
1
E Y y
1 FY y dy , entonces
d 1
1
dFR ( y)
d
P( R y )
dy E Y y
1 FY y dy
1 d
P(Y y)dy (1 FY y )
E Y dy y E Y
dy
+∞ +∞ +∞ +∞
1 1
𝐸 [𝑅] = ∫ 𝑦 𝑑𝐹𝑅 (𝑦) = ∫ 𝑦 𝑑𝐹𝑅 (𝑦) = ∫ 𝑦 (1 FY y ) 𝑑𝑦 = ∫ 𝑦(1 − F𝑌 (y)) 𝑑𝑦
−∞ 0 0
E Y 𝐸[𝑌]
0
+∞ +∞
1 1 𝜇𝑌 (0,2) 𝐸[𝑌 2 ]
= (𝑦 2 (1 − F𝑌 (y))|∞ 2
0 + ∫ 𝑦 (−f𝑌 (y)) 𝑑𝑦) = ∫ 𝑦 2 𝑓𝑌 (y) 𝑑𝑦 = =
2𝐸[𝑌] 2𝐸[𝑌] 2𝜇𝑌 (0,1) 2𝐸[𝑌]
0 0
para lo cual disponemos en 3.1.4.2. de funciones generadoras de estos valores o momentos respectos del origen.
La expectativa del tiempo residual, sólo depende del tiempo de servicio a través de sus dos primeros momentos
respecto del origen.
𝑁 = 𝑙𝑡 = 𝑋𝑡 − 1,
𝑁
𝑆𝑁 = 𝑌1 + 𝑌2 + ⋯ + 𝑌𝑁 = ∑ 𝑌𝑖
𝑖=1
donde
0, 𝑋𝑡 = 0
Я={ , con 𝑋𝑡 : cantidad de clientes en el sistema , según hemos definido en esta tercera parte.
𝑅, 𝑋𝑡 > 0
Я es un v.a. que es transformación de R, con distribución originada a partir de la mezcla ( densidad mixta):
𝑝, 𝑋𝑡 = 0
𝑑𝐹𝑅 (𝑦) = { ,
𝑞 ∙ 𝑑𝐹𝑅 (𝑦), 𝑋𝑡 > 0
𝑉 (𝑌 ) 𝑉 (𝑌 )
𝐸 [𝑌 2 ] 𝑉 (𝑌)+𝐸 2 [𝑌] 1 + 2[ ] 1 + 2[ ] 1 + 𝐶𝑉 2 (𝑌)
𝐸 𝑌 𝐸 𝑌
𝑇𝑞 = 𝜆 ∙ =𝜆∙ = 𝜆 ∙ 𝐸 2 [𝑌 ] = 𝜌𝐸 [𝑌] = 𝜌𝐸 [𝑌] ,
2(1 − 𝜌 ) 2(1 − 𝜌 ) 2 (1 − 𝜌 ) 2(1 − 𝜌 ) 2 (1 − 𝜌 )
√𝑉(𝑌)
siendo 𝐶𝑉 (𝑌) = =: C, coeficiente de variación de 𝑌
𝐸[𝑌]
1 + 𝐶2
𝑇𝑞 = 𝜌𝐸 [𝑌]
2(1 − 𝜌 )
expresión conocida como formula de valor medio de Pollaczek-Khinchin-PK, la cual además se puede reescribir:
1 + 𝐶2 1 + 𝐶 2 𝜌𝐸 [𝑌] 1 + 𝐶 2 1 + 𝐶2 ∗
𝑇𝑞 = 𝜌𝐸 [𝑌] = ∙ = = 𝑇𝑞 ,
2 (1 − 𝜌 ) 2 1−𝜌 2 (1 ) 2
con 𝑇𝑞∗ : tiempo de espera en sistema M/M/1 , obtenido en 7.3.1.4
167
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
1 + 𝐶2 1 + 𝐶2 1 + 𝐶 2 𝜌2 1 + 𝐶2 ∗
𝐿 = λ ∙ 𝑇𝑞 = λ 𝜌𝐸 [𝑌] = 𝜌2 = = 𝐿
2(1 − 𝜌 ) 2 (1 − 𝜌 ) 2 1−𝜌 2
1 + 𝐶2 1 + 𝐶2 ∗
𝑇𝑊 = 𝐸 [𝑌] + 𝑇𝑞 = 𝐸 [𝑌] (1 + 𝜌 ) = 𝐸 [𝑌 ] + 𝑇𝑞 ;
2(1 − 𝜌 ) 2
1 + 𝐶2 1 + 𝐶2 ∗
𝑊 = λ 𝑇𝑊 = λ𝐸 [𝑌] (1 + 𝜌 ) = 𝜌 (1 + 𝑊 )
2(1 − 𝜌 ) 2
𝐿∗ , 𝑇𝑞∗ , 𝑊 ∗ : los parámetros, largo de fila, tiempo de espera y cantidad de clientes en un sistema M/M/1
𝑇𝑞2 = 𝐸[Я∗ ] + 𝐸[𝑆𝑁1 ] + 𝐸[𝑆𝑁2 ] + 𝐸[𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 𝑑𝑒 𝑝𝑟𝑖𝑜𝑟𝑖𝑑𝑎𝑑 1 𝑞𝑢𝑒 𝑙𝑙𝑒𝑔𝑎𝑛 𝑑𝑢𝑟𝑎𝑛𝑡𝑒 𝑙𝑎 𝑒𝑠𝑝𝑒𝑟𝑎]
= 𝐸 [Я∗ ] + 𝐸[𝑆𝑁1 ] + 𝐸[𝑆𝑁2 ] + 𝐸[𝑆𝑁(2) ],
1
(2)
𝑁1 : 𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠 𝑐𝑜𝑛 𝑝𝑟𝑖𝑜𝑟𝑖𝑑𝑎𝑑 1 𝑚𝑖𝑒𝑛𝑡𝑟𝑎𝑠 𝑠𝑒 𝑒𝑠𝑝𝑒𝑟𝑎,
∗ (2)
= 𝐸[Я ] + 𝐸 [𝑁1 ]𝐸[𝑌1 ] + 𝐸 [𝑁2 ]𝐸[𝑌2 ] + 𝐸[𝑁1 ]𝐸[𝑌1 ]]
(2)
= 𝐸[Я∗ ] + 𝐿1 ∙ 𝐸[𝑌1 ] + 𝐿2 ∙ 𝐸[𝑌2 ] + 𝐿1 𝐸[𝑌1 ],
(2)
𝐿1 : 𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑒𝑠𝑝𝑒𝑤𝑟𝑎𝑑𝑎 𝑑𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠 𝑐𝑜𝑛 𝑝𝑟𝑖𝑜𝑟𝑖𝑑𝑎𝑑 1 𝑚𝑖𝑒𝑛𝑡𝑟𝑎𝑠 𝑠𝑒 𝑒𝑠𝑝𝑒𝑟𝑎𝑒𝑛 𝑓𝑖𝑙𝑎 𝑑𝑒 𝑝𝑟𝑖𝑜𝑟𝑖𝑑𝑎𝑑 2
= 𝐸[Я∗ ] + 𝜆1 ∙ 𝑇𝑞1 ∙ 𝐸[𝑌1 ] + 𝜆2 ∙ 𝑇𝑞2 ∙ 𝐸[𝑌2 ] + 𝜆1 ∙ 𝑇𝑞2 ∙ 𝐸 [𝑌1 ],
= 𝐸[Я∗ ] + 𝜆1 ∙ 𝐸[𝑌1 ] ∙ 𝑇𝑞1 + 𝜆2 ∙ 𝐸[𝑌2 ] ∙ 𝑇𝑞2 + 𝜆1 ∙ 𝐸 [𝑌1 ] ∙ 𝑇𝑞2
= 𝐸[Я∗ ] + 𝜌1 ∙ 𝑇𝑞1 + 𝜌2 ∙ 𝑇𝑞2 + 𝜌1 ∙ 𝑇𝑞2
𝐸 [Я∗ ]
= 𝐸[Я∗ ] + 𝜌1 ∙ + 𝜌2 ∙ 𝑇𝑞2 + 𝜌1 ∙ 𝑇𝑞2
1 − 𝜌1
∗
𝐸 [Я ]
= + 𝜌2 ∙ 𝑇𝑞2 + 𝜌1 ∙ 𝑇𝑞2
1 − 𝜌1
𝐸 [Я∗ ]
𝑇𝑞2 (1 − 𝜌1 − 𝜌2 ) =
1 − 𝜌1
168
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝐸 [Я∗ ]
𝑇𝑞2 =
(1 − 𝜌1 )(1 − 𝜌1 − 𝜌2 )
Por recurrencia, se desprende que:
𝐸 [Я∗ ]
𝑇𝑞𝑘 = , 𝑘 = 2,3, … 𝐾
(1 − 𝜌1 − ⋯ − 𝜌𝑘−1 )(1 − 𝜌1 − ⋯ − 𝜌𝑘−1 − 𝜌𝑘 )
donde:
𝐸[𝑌∗ 2 ]
𝐸 [Я∗ ] = 𝜆 ∙ ,
2
𝜆 = 𝜆1 + ⋯ + 𝜆𝐾 ,
𝜆1 ∙ 𝐸 [𝑌1 ] + ⋯ + 𝜆𝐾 ∙ 𝐸 [𝑌𝐾 ]
𝐸 [𝑌∗ ] = : 𝑚𝑜𝑚𝑒𝑛𝑡𝑜 𝑑𝑒 𝑜𝑟𝑑𝑒𝑛1 𝑝𝑜𝑛𝑑𝑒𝑟𝑎𝑑𝑜 𝑑𝑒𝑙 𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜 𝑒𝑛 𝑒𝑙 𝑠𝑖𝑠𝑡𝑒𝑚𝑎
𝜆
𝐸[𝑌∗ 2 ]: 𝑚𝑜𝑚𝑒𝑛𝑡𝑜 𝑑𝑒 𝑜𝑟𝑑𝑒𝑛 𝑑𝑜𝑠 𝑒𝑛 𝑒𝑙 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 ( 𝑝𝑜𝑛𝑑𝑒𝑟𝑎𝑑𝑜 𝑠𝑒𝑔ú𝑛 𝑒𝑥𝑝𝑒𝑐𝑡𝑎𝑡𝑖𝑣𝑎 𝑑𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠)𝑑𝑒 𝑙𝑜𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑣𝑜𝑠 𝑡𝑖𝑒𝑚𝑝𝑜𝑠 𝑑𝑒 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜
𝜆1 ∙ 𝐸 [𝑌12 ] + ⋯ + 𝜆𝐾 ∙ 𝐸 [𝑌𝐾2 ]
𝐸[𝑌∗ 2 ] = ,
𝜆
𝐸[𝑌12 ] + ⋯ + 𝐸[𝑌𝐾2 ]
En particular, cuando 𝜆𝑘 = 𝜆 para todo 𝑘, tal expectativa se reduce a ∶ 𝐸[𝑌∗ 2 ] =
𝐾
Ejemplo7.1.1
Un sistema de servicios, atiende clientes según tres tipos de clientes, los cuales arriban según v.a. Nk con
distribuciones Poisson k=1,2,3 ; a tasas (de parámetros): 𝜆1 = 1, 𝜆2 = 𝜆3 = 2 p/minuto. Los respectivos
tiempos de servicios 𝑌𝑘 en minutos son gausianos 𝑁(0.5,0.25), 𝑁(0.2,0.01) , 𝑁(0.01,0.01) . Determinar tiempos
de espera y demora para este sistema sistema sin y con prioridades para lo distintos tipos de clientes.
a) Sin prioridades
1 2 2
𝜆 = 𝜆1 + 𝜆2 + 𝜆3 = 1 + 2 + 2 = 5; 𝑡𝑎𝑠𝑎 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠, 𝑐𝑜𝑛 𝑝𝑟𝑜𝑝𝑜𝑟𝑐𝑖𝑜𝑛𝑒𝑠 (𝑑𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠) , ,
5 5 5
92
𝜌𝑎 =: 𝜌 = 𝜆𝐸 [𝑌∗ ] = 𝜆1 ∙ 𝐸 [𝑌1 ] + ⋯ + 𝜆𝐾 ∙ 𝐸 [𝑌𝐾 ] = 𝜆1 ∙ 𝐸 [𝑌1 ] + 𝜆2 ∙ 𝐸 [𝑌2 ] + 𝜆3 ∙ 𝐸 [𝑌3 ] = = 0.92
100
25 1 2 1
+ (2) , 𝑘=1 , 𝑘=1
100 2
1 2 2 3
𝐸 [𝑌𝑘2 ] = 𝑉 (𝑌𝑘 ) + 𝐸 2 [𝑌𝑘 ] = + (10) , 𝑘=2 = 100
, 𝑘=2
100
2 101
1 1 , 𝑘=3
{100 + (100) , 𝑘=3 {10000
1 1 1 2 ∙ 3 2 ∙ 101 1
𝐸[𝑌∗ 2 ] = (𝜆1 ∙ 𝐸 [𝑌12 ] + 𝜆2 ∙ 𝐸 [𝑌22 ] + 𝜆3 ∙ 𝐸 [𝑌32 ]) = ( + + ) = 1.0802
𝜆 𝜆 2 100 10000 𝜆
𝐸[𝑌∗ 2 ] 1.0802
𝐸 [Я∗ ] = 𝜆 ∙ = = 0.5401; ocupando 7.3.1.7.1
2 2
169
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
92
𝑇𝑊 = 𝑇𝑞 + 𝐸 [𝑌∗ ] = 6.75125 + = 6.93525
500
b) Con prioridades
1
, 𝑘=1
2
2
𝜌𝑘 = 𝜆𝑘 𝐸[𝑌𝑘 ] = , 𝑘=2 ,
10
1
, 𝑘=3
{100
1 2 2 5 2 2 72
𝑐𝑜𝑛 𝜌𝑏 =: 𝜌 = 𝜌1 + 𝜌2 + 𝜌3 = + + = + + = = 0.72 < 1
2 10 100 10 10 100 100
𝜆1 (1 − 𝜌𝑎 ) 𝜆2 (1 − 𝜌𝑎 ) 𝜆3 (1 − 𝜌𝑎 )
𝑇𝑞𝑏 = : 𝑇𝑞 = 𝑇 + 𝑇 + 𝑇
𝜆 1 − 𝜌1 𝑞𝑎 𝜆 (1 − 𝜌1 )(1 − 𝜌1 − 𝜌2 ) 𝑞𝑎 𝜆 (1 − 𝜌1 − 𝜌2 )(1 − 𝜌1 − 𝜌2 − 𝜌3 ) 𝑞𝑎
(1 − 𝜌𝑎 ) 𝜆1 𝜆2 𝜆3
= ( + + )𝑇
𝜆 (
1 − 𝜌1 (1 − 𝜌1 ) 1 − 𝜌1 − 𝜌2 ) ( 1 − 𝜌1 − 𝜌2 1 − 𝜌1 − 𝜌2 − 𝜌3 ) 𝑞𝑎
)(
𝑒𝑠 𝑑𝑒𝑐𝑖𝑟 , 𝑒𝑠 𝑢𝑛𝑎 𝑐𝑜𝑟𝑟𝑒𝑐𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑚𝑖𝑠 𝑚𝑜 𝑝𝑎𝑟á𝑚𝑒𝑡𝑟𝑜 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑎𝑙 𝑐𝑎𝑠𝑜 sin 𝑝𝑟𝑖𝑜𝑟𝑖𝑑𝑎𝑑
Además, en este tipo de procesos, asumimos que las llegadas son Poisson e independientes de los tiempos de
servicio; estableciéndose, que los clientes llegan en instantes independientes del estado del sistema. Por ello, la
probabilidad al llegar un cliente encuentre que ya hay x en el sistema es la proporción del tiempo ( que a la larga) hay
x clientes en el sistema; esto es 𝑋𝑡 → 𝑋 lo que conocemos como P(𝑋𝑡 = 𝑥)=P(X=x). Por ello (*), se entiende como
la probabilidad de que X pase del estado y al x, usando Zt=Z:
𝑃(𝑋𝑡 = 𝑥, 𝑋𝑡−1 = 𝑦)
𝑃𝑋 (𝑦, 𝑥 ) =: 𝑃(𝑋𝑡 = 𝑥|𝑋𝑡−1 = 𝑦) = ;
𝑃(𝑋𝑡−1 = 𝑦)
170
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Así:
𝑃(𝑋𝑡 = 𝑥, 𝑋𝑡−1 = 𝑦) = 𝑃𝑋 (𝑦, 𝑥 )𝑃(𝑋 = 𝑦);
∞ ∞ 𝑥+1
𝑃(𝑋 = 𝑥 ) = ∫ 𝑃𝑋 (𝑦, 𝑥 ) 𝑑𝐹𝑋 (𝑦) = ∑ 𝑃𝑋 (𝑦, 𝑥 ) 𝑃𝑋 (𝑦) = 𝑃𝑋 (0, 𝑥 )𝑃𝑋 (0) + ∑ 𝑃𝑋 (𝑦, 𝑥 ) 𝑃𝑋 (𝑦)
−∞ 𝑦=0 𝑦=1
Veamos el aporte a este planteamiento, desde el punto de vista de la función generadora de probabilidad (momentos
factoriales), según se presentó en 3.1.4.2.c:
∞ ∞ ∞ 𝑥+1
∞ ∞ 𝑥+1 ∞ ∞ ∞
∞ ∞
∞ ∞
𝑦=0 ℎ=0
∞
171
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑡 − 𝑍 (𝑡 )
𝑃𝑋 (0) = 𝑋 (𝑡 )
(𝑡 − 1) 𝑍 (𝑡)
∞ 0
Es sabido que: 𝑋 (𝑡) → ∫−∞ 𝑑𝐹𝑋 = 1, 𝑐𝑢𝑎𝑛𝑑𝑜 𝑡 → 1, por ello lim𝑡→1 𝑋 (𝑡) 𝑒𝑠 𝑑𝑒 𝑙𝑎 𝑓𝑜𝑟𝑚𝑎 0
lográndose una expresión más simple para P(X=0) y por ende también para la func. Generadora Factorial :
𝑑 𝑑
(𝑡−1) ∙ 𝑃𝑋 (0) ∙ 𝑍 (𝑡) 𝑃𝑋 (0) ∙ 𝑑𝑡 ((𝑡 − 1) ∙ 𝑍 (𝑡)) 𝑍 (𝑡) + (𝑡 − 1) ∙ 𝑑𝑡 (𝑡)
𝑍
lim = lim = 𝑃𝑋 (0) ∙ lim
𝑡→1 𝑡 − 𝑍 (𝑡 ) 𝑡→1 𝑑 𝑡→1 𝑑
𝑑𝑡 (𝑡 − 𝑍 𝑡 )
( ) 𝟏 − 𝑑𝑡 (𝑡)
𝑍
1 𝑃𝑋 (0)
= 𝑃𝑋 (0) =
𝑑 1 − 𝐸[𝑍]
− 𝑑𝑡 (𝑡)
𝑍
𝑃𝑋 (0)
1 = lim 𝑋 (𝑡) =
𝑡→1 1 − 𝐸[𝑍]
𝑍 (𝑡) = 𝜑𝑌 (𝜆(𝑡 − 1)): función generadora de momentos centrales de la v.a. Y, evaluada en 𝛼 = 𝜆(𝑡 − 1)
En este escenario:
𝑑 𝑑 𝑑
(1) = 𝜑𝑌 (𝜆(1 − 𝑡))|
𝐸 [𝑍 ] = = 𝜆 𝜑𝑌 ( t) | = 𝜆𝐸 [𝑌] = 𝜌
𝑑𝑡 𝑍 𝑑𝑡 𝛼=0 𝑑𝑡 𝑡=1
Finalmente, al reemplazar en la func. Generadora Factorial de X, obtenemos:
(𝒕 − 𝟏) ∙ 𝝋𝒀 (𝝀(𝒕 − 𝟏))
𝑿 (𝒕) = (𝟏 − 𝝆)
𝒕 − 𝝋𝒀 (𝝀(𝒕 − 𝟏))
expresión conocida como ecuación de transformación de Pollaczek-Khinchin (PK transformación)
Aplicación
Una utilización trivial de este resultado, es la deducción correspondiente al caso M/M/1; efectivamente para atención
Yde tipo exponencial Exp(μ), su correspondiente generadora de momentos es:
−1
𝑡 1 𝜇
𝝋𝒀 (𝒕) = (1 − ) = 𝑡 =𝜇−𝑡
𝜇 1−
𝜇
172
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Entonces:
𝜇
𝝋𝒀 (𝜆(𝑡 − 1)) =
𝜇 − 𝜆( 𝑡 − 1)
𝜇
(𝑡 − 1) ∙ 𝜇 (𝑡 − 1) ( 𝑡 − 1) 1−𝜌
𝜇 − 𝜆 (𝑡 − 1 )
𝑿 ( 𝒕) = ( 1 − 𝜌 ) 𝜇 = (1 − 𝜌 ) = (1 − 𝜌 )
( )
=
𝑡 − 𝑡(𝜇 − 𝜆(𝑡 − 1)) − 𝜇 𝑡 − 𝜌𝑡 𝑡 − 1 − 1 1 − 𝜌𝑡
𝜇 − 𝜆 (𝑡 − 1)
(𝑡 − 1) ∙ 𝜑𝑌 (𝜆(𝑡 − 1))
𝜑𝑡𝑊 (𝜆(𝑡 − 1)) = (1 − 𝜌)
𝑡 − 𝜑𝑌 (𝜆(𝑡 − 1))
Siendo 𝜏 = 𝜆(𝑡 − 1)
𝜏 𝜑𝑌 ( 𝜏 ) 𝜏𝜑𝑌 (𝜏)
𝜑𝑡𝑊 (𝜏) = (1 − 𝜌) = (1 − 𝜌 )
𝜆 𝜏 + 1 − 𝜑𝑌 ( 𝜏 ) 𝜏 + 𝜆 − 𝜆𝜑𝑌 (𝜏)
𝜆
𝝉
𝝋𝒕𝒒 (𝝉) = (𝟏 − 𝝆)
𝝉 + 𝝀 − 𝝀𝝋𝒀 (𝝉)
tambien conocida como una transformación P-K
Aplicación
-Continuando con la ilustración en M/M/1,para corroborar resultados y conocidos , obtenemos:
𝜇
𝜏𝜑𝑌 (𝜏) 𝜏∙𝜇−𝜏 𝜏∙𝜇 (1 − 𝜌 ) ∙ 𝜇
𝜑𝑡𝑊 (𝜏) = (1 − 𝜌) = (1 − 𝜌 ) 𝜇 = (1 − 𝜌 ) ( =
𝜏 + 𝜆 − 𝜆𝜑𝑌 (𝜏) 𝜏 +𝜆 − 𝜆𝜇−𝜏 𝜏 + 𝜆 )( 𝜇 − 𝜏 ) − 𝜆𝜇 −𝜏 −𝜆+𝜇
( 1 − 𝜌 )𝜇
=
(1 − 𝜌 )𝜇 − 𝜏
173
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
(1−𝜌)𝜇
la cual procede de una función característica Ф𝑡𝑊 (𝜏) = 𝑖𝜏−(1−𝜌)𝜇, asociada a una v.a. 𝑡𝑊 ~ 𝐸𝑥𝑝((1 − 𝜌)𝜇)
𝜏 𝜏 (𝜇 − 𝜏)(1 − 𝜌) (𝜇 − 𝜏 )
𝜑𝑡𝑞 (𝜏) = (1 − 𝜌) = (1 − 𝜌 ) 𝜇 = = (1 − 𝜌 )
𝜏 + 𝜆 − 𝜆𝜑𝑌 (𝜏) 𝜏 +𝜆 − 𝜆𝜇 −𝜏 (𝜏 + 𝜆)(𝜇 − 𝜏) − 𝜆𝜇 −𝜏 − 𝜆 + 𝜇
(𝜇 − 𝜏 − 𝜆 + 𝜆 ) 𝜆 𝜆 ∙ (1 − 𝜌 )
= (1 − 𝜌) = (1 + ) (1 − 𝜌 ) = (1 − 𝜌 ) +
−𝜏 − 𝜆 + 𝜇 −𝜏 − 𝜆 + 𝜇 (1 − 𝜌 )𝜇 − 𝜏
Debido a que:
𝑡𝑞 (0) = 𝑓𝑡𝑞 (0) = 𝑃(𝑡𝑞 = 0) = 𝑃𝑋 (0) = 1 − 𝜌
𝜆 ∙ (1 − 𝜌 ) (1 − 𝜌 )𝜇 𝜆 ∙ (1 − 𝜌 )
Ф𝑡𝑞 (𝜏) = (1 − 𝜌) + = (1 − 𝜌) ∙ 𝐼𝑡𝑞 =0 + Ф (𝜏 ),
(1 − 𝜌)𝜇 (1 − 𝜌)𝜇 − 𝑖𝜏 ( 1 − 𝜌 )𝜇 𝐻
1 − 𝜌, ℎ=0
1 − 𝜌, ℎ = 0
𝜆 ∙ (1 − 𝜌 ) (1−𝜌)𝜇ℎ
𝑓𝑡𝑞 (ℎ) = 𝑓 (ℎ ), ℎ > 0 = {𝜆 ∙ ( 1 − 𝜌 ) 𝑒 , ℎ>0
( 1 − 𝜌 )𝜇 𝐻
0, 𝑜. 𝑐.
{ 0, 𝑜. 𝑐. }
-De esta particular aplicación, se desprende que aquellas funciones generadoras de momentos que aditivamente se
descompongan en un término constante y demás expresiones como combinación lineal (c.l.)de generatrices
identificables; permiten reconocer la densidad de 𝑡𝑞 con la sgte. asociación:
-la constante corresponde P(𝑡𝑞 = 0)
-la c.l. que compaña al termino anterior se ha de entender como una c.l. o mezcla de las referidas densidades todas
ya identificadas
A modo de ilustración:
1 −9 2 100
Si 𝑡𝑞 (𝜏) = 𝜑𝑡𝑞 (𝜏) = (1 − 𝜌) (𝑎0 + 𝑎1 (1−2𝜏) + 𝑎2 𝑒 𝑡+0.02𝑡 + 𝑎3 𝑡 2 +100 𝑒 3𝑡 )
𝑓𝑡𝑞 (ℎ) = (1 − 𝜌)(𝑎0 ∙ 𝐼𝑡𝑞 =0 + 𝑎1 𝑓1 (ℎ) + 𝑎2 𝑓2 (ℎ) + 𝑎3 𝑓3 (ℎ)),
donde ∶ 𝑓𝑡𝑞 (0) = 𝑃(𝑡𝑞 = 0), 𝑓1 (ℎ) = (18)
2
( h) , 𝑓2 (ℎ) = 𝑁(1,0.01) (ℎ), 𝑓3 (ℎ) = 𝐿(10,3) (ℎ)
Este modelo contempla, un servicio con tiempo de atención 𝑌~𝐸𝑥𝑝(𝜇) , en consecuencia un número aleatorio de
atenciones P(µ) por unidad de tiempo, lo que indica que estamos ante un proceso Poisson que contabiliza la cantidad
de servicios por unidad de tiempo: pero no se restringe a tiempo exponencial entre llegadas; considera llegadas con
distribución conocida y arbitraria, para lo cual se designa como G la distribución del lapso entre llegadas con media
1
[unidades de tiempo].
𝜆
Situación que en general no permite advertir el comportamiento aleatorio de cantidad de llegadas (por unidad de
tiempo), o si estas ocurren de manera independiente en lapsos de tiempo disjuntos. Por ende, no da lo mismo
situarse en cualquier instante del tiempo, frente a este sistema en funcionamiento, lo que obliga efectuar una
descomposición de llegadas , esperas, servicios y salidas , diferente a lo realizado en M/M/1.
Observemos el sistema, desde el punto de vista que dispone un cliente al llegar; definiendo
174
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Disponemos así de un proceso {𝑋𝑛 , 𝑛 ≥ 1}, sobre el cual podemos admitir, las probabilidades de transición se
obtienen apreciando que al ocurrir una llegada, encuentra i clientes en el sistema 𝑋𝑛 = 𝑖, la siguiente llegada que
ocurre en un lapso de tiempo △ 𝑡, encontrará al cliente anterior menos los ya atendido (el anterior inclusive):
𝑋𝑛+1 = 𝑖 + 1 − 𝑗, 𝑗 = 0,1, … . 𝑖;
Siendo j=0,1,2,….,i,i+1:
𝑝(𝑖, 0) = 𝑃(𝑐𝑢𝑎𝑛𝑑𝑜 𝑙𝑙𝑒𝑔𝑎 𝑠𝑢𝑗𝑒𝑡𝑜 𝑖 + 1, 𝑛𝑜 𝑒𝑠𝑝𝑒𝑟𝑎 𝑝𝑜𝑟 𝑠𝑒𝑟 𝑎𝑡𝑒𝑛𝑑𝑖𝑑𝑜 )
= 1 − 𝑃(𝑎𝑙 𝑙𝑙𝑒𝑔𝑎𝑟 𝑖 + 1, 𝑦𝑎 𝑠𝑒 𝑎𝑡𝑒𝑛𝑑𝑖ó 𝑎 𝑡𝑜𝑑𝑜𝑠 𝑙𝑜𝑠 𝑖 𝑐𝑙𝑖𝑒𝑛𝑡𝑒𝑠 𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟𝑒𝑠)
𝑖
= 1 − ∑ 𝑝(𝑖, 𝑖 + 1 − 𝑗)
𝑗=0
(𝐽 = 𝑗|𝐺 = 𝑡)~𝑃(𝜇𝑡)
∞
a la larga 𝑃 𝐽 = 𝑗 = ∫0 𝑃 𝑗 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 𝑜𝑐𝑢𝑟𝑟𝑎𝑛 𝑒𝑛𝑡𝑟𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠 𝑒𝑛 𝑙𝑎𝑝𝑠𝑜 𝐺𝑑𝑒 𝑎𝑚𝑝𝑙𝑖𝑡𝑢𝑑 = 𝑡)𝑑𝐹𝐺 (𝑡)
( ) (
∞ ∞ ∞
(𝜇𝑡)𝑗
= ∫ 𝑃(𝐽 = 𝑗|𝐺 = 𝑡)𝑑𝐹𝐺 (𝑡)) = ∫ 𝑓𝐽=𝑗|𝐺=𝑡) (𝑗, 𝑡)𝑑𝐹𝐺 (𝑡) = ∫ 𝑒 −𝜇𝑡 ∙ 𝑑𝐹𝐺 (𝑡)
𝑗!
0 0 0
Denotando: 𝑃(𝑖, 𝑗) = 𝑝(𝑖, 𝑖 + 1 − 𝑗), la probabilidad de efectuar j atenciones en un lapso de amplitud t de tiempo
dado por los arribos i e i+1 ; permite presentar resumidamente:
0, 𝑗 >𝑖+1
𝑝(𝑖, 0), 0
𝑃(𝐽 = 𝑗, 𝑎𝑡𝑒𝑛𝑐𝑖𝑜𝑛𝑒𝑠 𝑒𝑛 𝑡𝑖𝑒𝑚𝑜𝑝𝑜 𝑡) = ∞ (𝜇𝑡)𝑗
∫ 𝑒 −𝜇𝑡 ∙ 𝑑𝐹𝐺 (𝑡), 0 < 𝑗 ≤ 𝑖 + 1
𝑗!
{0
∞ ∞
175
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
∞ ∞
(𝜇𝑡)𝑖+1−𝑗
𝜋𝑗 = ∑ 𝜋𝑖 ∫ 𝑒 −𝜇𝑡 ∙ 𝑑𝐹𝐺 (𝑡), 𝑗≥1
(𝑖 + 1 − 𝑗)!
𝑖=𝑗−1 0
Sistema como ya mencionamos de única solución, la cual podemos buscarla de la forma más simple como polinomio
de grado j en alguna constante β; sea entonces 𝜋𝑗 = 𝑐 ∙ 𝛽 𝑗 (obviamente deben satisfacerse las restricciones c>0,
0< 𝛽 < 1); la solución propuesta, que de encontrar el par (c, β ) que de cumplimiento al citado sistema, indicará
que es la solución buscada:
∞ ∞ ∞
1
1 = ∑ 𝜋𝑗 = ∑ 𝑐 ∙ 𝛽 = 𝑐 ∑ 𝛽 𝑗 = 𝑐
𝑗
, 𝛽 < 1; 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑐 = 1 − 𝛽
1−𝛽
𝑗=0 𝑗=0 𝑗=0
𝜋𝑗 = 𝑐 ∙ 𝛽 𝑗 = (1 − 𝛽 )𝛽 𝑗 , 𝑗≥0
por su parte 𝛽:
∞ ∞
(𝜇𝑡)𝑖+1−𝑗
𝑐 ∙ 𝛽 = ∑ 𝑐 ∙ 𝛽 ∫ 𝑒 −𝜇𝑡
𝑗 𝑖
∙ 𝑑𝐹𝐺 (𝑡)
(𝑖 + 1 − 𝑗 )!
𝑖=𝑗−1 0
∞ ∞ ∞ ∞
𝑖 −𝜇𝑡
(𝜇𝑡)𝑖+1−𝑗 (𝜇𝑡)𝑖+1−𝑗
∑ 𝑐∙𝛽 ∫𝑒 ∙ 𝑑𝐹𝐺 (𝑡) = 𝑐 ∑ 𝛽 𝑖 ∫ 𝑒 −𝜇𝑡 ∙ 𝑑𝐹𝐺 (𝑡)
(𝑖 + 1 − 𝑗 )! (𝑖 + 1 − 𝑗 )!
𝑖=𝑗−1 0 𝑖=𝑗−1 0
∞ ∞
(𝜇𝑡)𝑖+1−𝑗
= 𝑐∫ (𝑒 −𝜇𝑡 ∑ 𝛽𝑖 ) ∙ 𝑑𝐹𝐺 (𝑡)
(𝑖 + 1 − 𝑗 )!
0 𝑖=𝑗−1
∞ ∞
(𝜇𝛽𝑡)𝑖+1−𝑗
= 𝑐∫ (𝑒 −𝜇𝑡 −(1−𝑗) 𝛽 ∑ ) ∙ 𝑑𝐹𝐺 (𝑡)
(𝑖 + 1 − 𝑗 )!
0 𝑖=𝑗−1
∞ ∞
(𝜇𝛽𝑡)ℎ
= 𝑐𝛽 𝑗−1 ∫ (𝑒 −𝜇𝑡 𝛽 𝑗−1 ∑ ) ∙ 𝑑𝐹𝐺 (𝑡)
ℎ!
0 ℎ=0
∞ ∞
La cual no es simple de resolver, debiéndose recurrir a algoritmos de métodos numéricos, aunque hay casos que
reducen dificultades, cuando G es tal que P(G>0)=1, pudiendo dar cabida a una simple ecuación:
𝛽 = 𝜑𝐺 (𝜇(𝛽 − 1)) .
Finalmente, tenemos las probabilidades de presenciar j atenciones (o servicios por el único servidor):
𝑝𝑗 = 𝑐 ∙ 𝛽 𝑗 = (1 − 𝛽 )𝛽 𝑗 , 𝑗 ≥ 0
∞ ∞ ∞ ∞
𝑗+1 𝑗+1 (1 − 𝛽 )
𝑇𝑊 = 𝐸 [𝑡𝑊 ] = E[𝐸[𝑡𝑊 |𝐽 = 𝑗]] = ∑ 𝐸 [𝑡𝑊 |𝐽 = 𝑗] 𝑝𝑗 = ∑ 𝑝𝑗 = ∑ (1 − 𝛽 )𝛽 𝑗 = ∑(𝑗 + 1) 𝛽 𝑗
𝐽 𝜇 𝜇 𝜇
𝑗=0 𝑗=0 𝑗=0 𝑗=0
∞ ∞
(1 − 𝛽 ) 𝑑 𝑗+1 (1 − 𝛽 ) 𝑑 (1 − 𝛽 ) 𝑑 1
= ∑ 𝛽 = (𝛽 ∑ 𝛽 𝑗 ) = (𝛽 );
𝜇 𝑑𝛽 𝜇 𝑑𝛽 𝜇 𝑑𝛽 1 − 𝛽
𝑗=0 𝑗=0
1
𝑇𝑊 =
𝜇 (1 − 𝛽 )
176
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
1 1 1 1
𝑇𝑊 = 𝑇𝑞 + 𝐸 [𝑌] = 𝑇𝑞 + ; 𝑇𝑞 = 𝑇𝑊 − = −
𝜇 𝜇 𝜇 (1 − 𝛽 ) 𝜇
𝛽
𝑇𝑞 =
𝜇 (1 − 𝛽 )
Como
𝜆 𝜆𝛽
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜆 ; 𝑊 = 𝜆𝑇𝑊 = , 𝐿 = 𝜆𝑇𝑞 =
𝜇 (1 − 𝛽 ) 𝜇 (1 − 𝛽 )
Aplicación:
Si abordamos desde este punto de vista un sistema M/M/1; G=Exp(𝜆), P(G>0)=1; entonces
𝜆 𝜆 𝜌 𝜆
𝛽 = 𝜑𝐺 (𝜇(𝛽 − 1)) = 𝜆−𝜇(𝛽−1) = 𝜆−𝜇(𝛽−1) = 𝜌−(𝛽−1) 𝑐𝑜𝑛 𝜌 = 𝜇; ;
𝜌
𝛽= 𝛽 2 − (𝜌 + 1)𝛽 + 𝜌 = 0 ( 𝛽 − 𝜌 ) (𝛽 + 1) 𝛽 = 𝜌
𝜌−𝛽+1
Dada la analogía expuesta respecto a 𝑝0 , podemos referirnos el caso M/M/1, (véase 7.3.1.6d), en el cual
Era una mezcla con pesos 1-𝛽, 𝛽 entre comportamiento constante (cuando el servidor esta en ocio) y otro aleatorio
1
(al encontrarse el servidor ocupado) entonces exponencial de media 𝜇(1−𝛽). Ahora, el presente sistema proporciona
0, 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑒𝑠𝑡á 𝑣𝑎𝑐í𝑜
𝑡𝑞 = {𝑡 ∗ , aunque sin disponer de la distribución de 𝑡𝑞 , es posible afirmar:
𝑞𝑜𝑐𝑢𝑝 , 𝑡𝑞 > 0
𝛽 ∗ ∗ ∗
= 𝑇𝑞 = 𝐸[𝑡𝑞 ] = 0 ∙ 𝑃(𝑡𝑞𝑜𝑐𝑢𝑝 = 0) + 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ] ∙ 𝑃(𝑡𝑞𝑜𝑐𝑢𝑝 > 0)
𝜇 (1 − 𝛽 )
∗ ∗
= 0 ∙ 𝑝0 + 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ] ∙ (1 − 𝑝0 ) = 𝛽 ∙ 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ]
∗
𝛽
𝛽 ∙ 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ]=
𝜇 (1 − 𝛽 )
∗ ∗
1
𝑇𝑞𝑜𝑐𝑢𝑝 =: 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ]=
𝜇 (1 − 𝛽 )
Por otra parte, conceptualmente , la proporción del tiempo en que el servidor está en ocio:
𝑝0 =
𝑙𝑎 𝑠𝑢𝑚𝑎 𝑑𝑒 𝑙𝑜𝑠 𝑡𝑖𝑒𝑚𝑝𝑜𝑠 𝑒𝑛 𝑜𝑐𝑖𝑜 𝑒𝑛 𝑛 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜 𝑑𝑒 𝑡𝑖𝑒𝑚𝑝𝑜 𝑒𝑛 𝑜𝑐𝑖𝑜 𝑒𝑛 𝑛 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠
lim𝑛→∞ 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑡𝑖𝑒𝑚𝑝𝑜𝑠 𝑒𝑛 𝑜𝑐𝑖𝑜 𝑚𝑎𝑠 𝑎𝑡𝑒𝑛𝑐𝑖𝑜𝑛𝑒𝑠 𝑒𝑛 𝑛 𝑎𝑟𝑟𝑖𝑏𝑜𝑠 = lim
𝑛→∞ 𝑠𝑢𝑚𝑎 𝑑𝑒 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜𝑠 𝑒𝑛 𝑜𝑐𝑖𝑜 𝑦 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟 𝑜𝑐𝑢𝑝𝑎𝑑𝑜 𝑒𝑛 𝑛 𝑎𝑟𝑟𝑖𝑏𝑜𝑠
∗ ∗
𝐸[𝑡𝑞𝑜𝑐𝑖𝑜 ] 𝑇𝑞𝑜𝑐𝑖𝑜
= ∗
=: ∗ ∗
𝐸[𝑡𝑞𝑜𝑐𝑖𝑜 ] + 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝
∗ ] 𝑇𝑞𝑜𝑐𝑖𝑜 + 𝑇𝑞𝑜𝑐𝑢𝑝
∗
𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ]
1 − 𝑝0 = ∗
𝐸[𝑡𝑞𝑜𝑐𝑖𝑜 ] + 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝
∗ ]
Así, tenemos la sgte. relación respecto al tiempo de funcionamiento:
∗
𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ] 1 − 𝑝0 𝛽
∗ = =
𝐸[𝑡𝑞𝑜𝑐𝑖𝑜 ] 𝑝0 1−𝛽
177
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
∗
𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ] 𝛽 ∗ ∗
1−𝛽 ∗ ∗
∗ = (1 − 𝛽 ) ∙ 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ] = 𝛽 ∙ 𝐸[𝑡𝑞𝑜𝑐𝑖𝑜 ] ∙ 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ] = 𝑇𝑞𝑜𝑐𝑖𝑜
𝐸[𝑡𝑞𝑜𝑐𝑖𝑜 ] 1 − 𝛽 𝛽
∗
1
𝑇𝑞𝑜𝑐𝑖𝑜 =
𝛽𝜇
La presente sección, supone que la población que requiere el servicio es finita, por lo cual consideremos enteros:
m >0 : número de elementos de la población.
n: elementos que concurren al sistema (n< m)
En este caso debemos pensar que de manera totalmente aleatoria, n ( objetos distintos y distinguibles) de los m
elementos de la población concurren a una fila, ubicándose en ella de 𝑃𝑚,𝑛 maneras, estableciéndose la siguiente
relación de equilibrio:
-Mientras atiende al primero, llegan todos los demás
λ λ λ λ λ
0 1 …………….... m-1 m
2 3
-Cuando hay n clientes en el sistema, m-n no han concurrido todavía…………
λ λ λ λ λ
…… ……………....
n-1 n n+1 …
m-(n-1)
-se detiene , cuando atiende el último una vez que este llega luego del penúltimo
λ
m-1 m ………………………………
P 1 (t) =m λP o (t)
(+(m-n) ) Pn (t)= (m-(n-1)) Pn-1 (t)+ Pn+1 (t), 1≤n≤m
Pm(t) = λPm- 1(t)
178
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
De lo cual se desprende: 𝑃𝑛 (𝑡) = (𝑚 − (𝑛 − 1))𝜌𝑃𝑛−1 (𝑡) = (𝑚 − (𝑛 − 1))(𝑚 − (𝑛 − 2))𝜌2 𝑃𝑛−2 (𝑡) , , que
recurrentemente nos conduce a: 𝑃𝑛 (𝑡) = (𝑚 − (𝑛 − 1))(𝑚 − (𝑛 − 2)) … … . . (𝑚 − 1)𝑚𝜌𝑛 𝑃0 (𝑡)
𝑚!
𝜌𝑛 𝑃0 (𝑡) , 𝑛≤𝑚
( )
𝑃𝑛 𝑡 = { (𝑚 − 𝑛 )!
0, 𝑛>𝑚
𝜌𝑛 𝑃0 (𝑡)𝑃𝑚,𝑛 , 𝑛 ≤ 𝑚
={
0, 𝑛>𝑚
de la cual se deduce:
𝑚!
𝑃𝑛 (𝑡) 𝜌𝑛 , 𝑛≤m
= { (𝑚 − 𝑛 )!
𝑃0 (𝑡)
0, 𝑛>𝑚
que permite resolver:
𝑚 𝑚 𝑚
𝑃𝑛 (𝑡) 𝑚!
1 = ∑ 𝑃𝑛 (𝑡) = 𝑃0 (𝑡) ∑ = 𝑃0 (𝑡) ∑ 𝜌𝑛 ;
𝑃0 (𝑡) (𝑚 − 𝑛 )!
𝑛=0 𝑛=0 𝑛=0
1
𝑃0 (𝑡) =
𝑚!
∑𝑚
𝑛=0 𝜌
𝑛
(𝑚 − 𝑛 )!
𝑚!
𝜌𝑛 (𝑚−𝑛)! 𝑃0 (𝑡), 𝑛 ≤ 𝑚
𝑃𝑛 (𝑡) = {
0, 𝑛>𝑚
𝐿 1
, 𝑊 = 𝐿 + 1 − 𝑃0 (𝑡) , 𝑇𝑞 = 𝜇(1−𝑃 , 𝑇𝑊 = 𝑇𝑞 + 𝜇
0 (𝑡))
W(t) = [𝑋𝑡 ]=W : Valor esperado del número de clientes en el sistema, que resulta independiente de t.
=
𝑚 𝑚 𝑚
𝑛
𝑚! 1 1
( )
∑ 𝑛 P𝑛 t = ∑ 𝑛 𝜌 ( )
𝑃 𝑡 = 𝑚! 𝑃0 𝑡 ∑( ) 𝑛 𝜌𝑛 = 𝑚 − (1 − 𝑃0 (𝑡))
(𝑚 − 𝑛 )! 0 (𝑚 − 𝑛 )! 𝜌
𝑛=0 𝑛=0 𝑛=0
𝑚 𝑚
𝑚! 1
𝐿 = ∑(𝑛 − 1) P𝑛 (t) = ∑ (𝑛 − 1)𝜌𝑛 𝑃 (𝑡) = 𝑚 − (1 + ) (1 − 𝑃0 (𝑡)) = 𝑊 − (1 − 𝑃0 (𝑡))
(𝑚 − 𝑛 )! 0 𝜌
𝑛=2 𝑛=2
{m-Xt}: proceso estocástico que indica en el instante t la cantidad de clientes fuera del sistema
E[m-Xt]: número esperado de clientes fuera del sistema
1
𝐸 [𝑚 − 𝑋𝑡 ] = 𝑚 − 𝐸 [𝑋𝑡 ] = 𝑚 − 𝑊 = (1 − 𝑃0 (𝑡))
𝜌
𝜆
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜆𝐸[𝑚 − 𝑋𝑡 ] = 𝜆(𝑚 − 𝑊 ) = (1 − 𝑃0 (𝑡)) = 𝜇(1 − 𝑃0 (𝑡)) = 𝜇 (1 − 𝑝0 )
𝜌
1
𝑚 − (1 + 𝜌) (1 − 𝑃0 (𝑡))
𝐿 1 𝑚 1+𝜌
𝑇𝑞 = = = ( − )
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝜇(1 − 𝑃0 (𝑡)) 𝜇 1 − 𝑃0 (𝑡) 𝜌
179
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
1
𝑊 𝑚 − 𝜌 (1 − 𝑃0 (𝑡)) 1 𝑚 1 𝑚 1
𝑇𝑊 = = = ( − )= −
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝜇(1 − 𝑃0 (𝑡)) 𝜇 1 − 𝑃0 (𝑡) 𝜌 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝜆
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑
𝑊 = 𝑇𝑊 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝑚 −
𝜆
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑
de esta manera se puede interpretar como la expectativa de veces que (al llegar un cliente, encuentra )los
𝜆
servidores desocupados (ociosos).
Además:
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑚
𝑇𝑊 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝑚 − , es equivalente a 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 =
𝜆 1
𝜆 + 𝑇𝑊
7.3.2.1.-Propiedades
7.3.2.1a.- Diagrama de relaciones de equilibrio abreviado
……………....
0 1 m-1 m ; λn =(m-n) λ
2 3
Entenderemos por punto de saturación del sistema o tamaño 𝒎∗ de la población para saturación: al punto donde se
intersectan la asíntotas del tiempo (esperado) neto de permanencia en el sistema.
𝑚→0 1 𝑚→0
𝑇𝑊 → 𝐸 [𝑍] = , es decir ∶ 𝜇𝑇𝑊 → 𝑔1 (𝑚) = 1
𝜇
𝑚 𝑚→0 𝑚
en tal caso 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = → ℎ1 (𝑚) =
1 1 1
𝜆 + 𝑇𝑊 𝜆+𝜇
De lo cual , se aprecia que 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 crece directamente (en forma lineal) con el tamaño de la población.
𝑚→0
Tratándose de una tendencia a medida que → ; decrece proporcionalmente a la forma en que m decrece.
Para m grande :
𝑚→∞ 𝑚→∞
𝑝0 → 0 ; 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜇(1 − 𝑝0 ) → ℎ 2 (𝑚 ) = 𝜇
Es decir la tasa de efectividad, crece pero lentamente y tiende a acercarse a un valor límite 𝜇.
180
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
1 1
𝑚 (𝜆 + 𝜇 ) 1
ℎ1 (𝑚) = ℎ2 (𝑚) = 𝜇 𝑚= =1+
1 1 1 𝜌
𝜆+𝜇 𝜇
μTW 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑
1
m m
m* m*
Los gráficos de las propias funciones de interés así como las asíntotas, son representaciones de funciones de m,
número entero no negativo; motivo por el cual tales gráficos no obedecen a curvas, siendo estas, líneas segmentadas.
Solución
1
1
8
Pn t m!
Sea n: número de aviones que esperan ( o enviados a ) reparación. Calculemos n
P0 t m n !
181
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
n m m! Pn t
m n ! n P0 t
0 4 1 1 1
1 4 4 0.125 0.5
2 4 12 0.01563 0.1875
3 4 24 0.00195 0.04688
4 4 24 0.00024 0.00576
4 Pn t
P t
1.74024
n 0 0
P0 t
1
0.57.4 , probabilidad de que no existan aviones en reparación.
1.74024
P2(t): probabilidad de que 1 esté siendo reparado (atendido) y (sólo) otro en espera
P2(t)=(0.574) (12) ( 0.01563)=0.11
L= 4 -
1 8 (1-0.574)=0.17 (aviones)
1
W: Número medio de aviones en el sistema, entonces W=0,17+1-0.574=0.6 (aviones)
Solución
Unidad de Tiempo a usar 1 año convertir todos los costos unitarios a costos por año.
días horas horas
Nº de horas de vuelo por año = 365 año · 14 día = 5110 año
182
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
horas horas
Nº de horas de servicio de mantenimiento por año = 5·100 año = 500 año
Nº de horas en un año = 24 x 365 = 8760
horas
Nº de horas avión detenido en tierra = 8760 – (5110+500)=3150 detención habitual sin falla
año
a) Costos de tiempo muerto de cada avión
$10 6 1
Costo fijo por avión: 5110 · 10000 + 500 · 5000 + 3150 · 2000 =59.9 ·
año avión
Siendo Tw el tiempo medio de cada avión en el sistema de reparación, T w = 0.175 (64 días en el año)
$106
costo asociado a (Tw ) tiempo muerto: 59.9 x 0.175 = 10.48
avión
$10 3 $10 6
b) Si el sueldo mensual de tripulación es 400
=4,8 , el costo de tiempo muerto de tripulación
mes año
0.175 4,8 año$10 6 / año $10 6
asociado a una nave con fallas es: =0.21 avión
4 avión
c) Como sabemos la nómina mensual del equipo de reparación más costos mensuales es:
$10 6
200.000+125.000 [$/ms] = 3.9 ,
año
así el costo del tiempo de reparación de un avión sin el valor de repuestos es
$10 6 $10 6 $10 6
(Tw – Tq) 3,9 año = (0.175 - 0.05) · 3,9 = 0,49
año avión avión avión
$10 6
Costo total de un avión en el sistema de reparación: 10,48+0.21+0.49= 11.18
avión
Consideremos un sistema al que pueden llegar un número infinito de clientes en espera de recibir un mismo servicio,
por parte de s (s>1) servidores en paralelo:
La política es atender en orden de llegada y el servicio lo proporciona el primer servidor que se haya desocupado.
Al principio todos los servidores están desocupados y se irán ocupando en forma progresiva (primero el 1, luego el
2 y así sucesivamente) a medida que llegan los clientes.
Pn (t+t) = Pn (t) [(1-n t ) (1- 𝜇𝑛 ∆t ) + nt 𝜇𝑛 ∆t ]+ Pn+1 (t) (1-n+1 t ) ( 𝜇𝑛+1 ∆t )+Pn-1 (t)(n-1t )
183
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
(1− 𝜇𝑛 ∆t )
en términos de ecuaciones de balance (7.3.1.6c )conduce a :
𝑛
𝜆𝑖−1
𝑝𝑛 = 𝑝0 ∏
𝜇𝑖
𝑖=1
a) n s , se considera: 𝜇𝑛 =n:
𝑛 𝑛 𝑛
𝜆𝑖−1 𝜆 𝜌 𝜌𝑛 𝜆
𝑝𝑛 = 𝑝0 ∏ = 𝑝0 ∏ = 𝑝0 ∏ = 𝑝0 , 𝜌= factor de utiización de cada servidor
𝜇𝑖 𝑖𝜇 𝑖 𝑛! 𝜇
𝑖=1 𝑖=1 𝑖=1
b) n > s; 𝜇𝑛 = 𝑠𝜇;
𝜌 𝑠 𝜌 𝑛−𝑠 𝜌 𝑛−𝑠
= 𝑝0 𝑛−𝑠 = 𝑝𝑠 𝑛−𝑠 = 𝑝𝑠 𝜌𝑠𝑛−𝑠
𝑠! 𝑠 𝑠
1 1
s 1
s 1 1 n 1 s s
𝑝0 = Pn (t ) Pn (t ) =
n 1 ns n 0 n! s! s
𝑠−1 −1
1 𝜌𝑠 1
𝑝0 = (∑ 𝜌𝑛 + )
𝑛! 𝑠! 1 − 𝜌𝑠
𝑛=0
7.3.3.1.- Tamaño esperado de la fila
0, 𝑋𝑡 < 𝑠
𝑙𝑡 = {
𝑋𝑡 − 𝑠, 𝑋𝑡 ≥ 𝑠
∞ ∞ ∞ ∞
𝜌ℎ+𝑠+1
𝐿 = 𝐸 [𝑙𝑡 ] = ∑(𝑛 − 𝑠)𝑃(𝑋𝑡 = 𝑛) = ∑ (𝑛 − 𝑠)𝑃𝑛 (𝑡) = ∑(ℎ + 1)𝑝ℎ+𝑠+1 = ∑(ℎ + 1) 𝑝
𝑛=𝑠 𝑛=𝑠+1 ℎ=0 ℎ=0
𝑠! 𝑠ℎ+1 0
∞ ∞ ∞ ∞
𝜌𝑠 𝜌 𝜌 ℎ 𝑑 ℎ+1 𝑑
= 𝑝0 ∑(ℎ + 1) ( ) = 𝑝𝑠 𝜌𝑠 ∑(ℎ + 1)𝜌𝑠ℎ = 𝑝𝑠 𝜌𝑠 ∑ 𝜌𝑠 = 𝑝𝑠 𝜌𝑠 (𝜌 ∑ 𝜌𝑠ℎ )
𝑠! 𝑠 ℎ=0 𝑠 𝑑𝜌𝑠 𝑑𝜌𝑠 𝑠
ℎ=0 ℎ=0 ℎ=0
𝜌𝑠
= 𝑝 ,
2 𝑠
(1 − 𝜌𝑠 )
lo cual también puede ser expresado ( de forma más extensa) en términos de 𝑝0
184
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝜌𝑠 𝜌 𝑠+1 𝜇𝜌 𝑠
𝐿= 𝜌𝑠 𝑝0 = 𝑝0 = 𝑝
𝑠! (1 − 𝜌𝑠 ) 2 𝑠! 𝑠 (1 − 𝜌𝑠 ) 2 (𝑠 − 1)! (𝑠𝜇 − )2 0
λpérdida=0, λefectividad = λ
𝑊 = 𝐿 + 𝜌𝑠
𝐿 𝜇𝜌 𝑠
𝑇𝑞 = 𝐸 [𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑒𝑠𝑝𝑒𝑟𝑎 𝑒𝑛 𝑙𝑎 𝑓𝑖𝑙𝑎] = = 𝑝
𝜆 (𝑠 − 1)! (𝑠𝜇 − )2 0
1
𝑇𝑊 = 𝐸 [𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑑𝑒𝑚𝑜𝑟𝑎] = 𝐸 [tiempo de espera en el sistema] = 𝑇𝑞 +
𝜇
7.3.3.3.-Propiedades
7.3.3.3a.-Factor de utilización del sistema𝜌𝑠
La condición para que no se formen filas de largo infinito, en el caso de:
- un servidor fue 1
- s servidores múltiples, se requiere :
𝜌
𝜌𝑠 = = < 1, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝜌 = < 𝑠
𝑠 𝑠𝜇 𝜇
La Función de Erlang C de este sistema, es C(s,ρ)= 𝑃 (𝑙𝑡 > 0) = 𝑃(𝑋𝑡 ≥ 𝑠), donde:
∞ ∞ ∞ ∞ ∞
𝜌ℎ−𝑠 𝜌ℎ−𝑠 𝑝𝑠
𝑃(𝑋𝑡 ≥ 𝑠) = ∑ 𝑝ℎ = ∑ 𝑝𝑠 ℎ−𝑠 = 𝑝𝑠 ∑ ℎ−𝑠 = 𝑝𝑠 ∑ 𝜌𝑠 ℎ−𝑠 = 𝑝𝑠 ∑ 𝜌𝑠 ℎ =
ℎ=𝑠 ℎ=𝑠
𝑠 ℎ=𝑠
𝑠 ℎ=𝑠 ℎ=0
1 − 𝜌𝑠
Como :
𝜌𝑠 𝜌𝑠
𝑝𝑠 = 𝑝0 ; explícitamente 𝑪(𝒔, 𝝆) = 𝑝0
𝑠! 𝑠! (1 − 𝜌𝑠 )
Para el presente caso, veremos que esta función, nos conduce a una versión análoga a lo realizado en
(M/M1):(GD/∞/∞). A partir de 7.3.3.1:
185
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑠𝜌 𝜌𝑠 𝜌𝑠
𝐿 = 𝐸 [ 𝑙𝑡 ] = 𝑝𝑠 = 𝑝𝑠 = 𝐶(𝑠, 𝜌)
(𝑠 − 𝜌)
2
(1 − 𝜌𝑠 )
2 1 − 𝜌𝑠
𝜌 𝜌 𝑠−1 𝜌
para 𝑠 ≥ 1: 𝐁(𝐬, 𝛒) = 𝑝0 = B(s − 1, ρ)
𝑠 (𝑠 − 1)! 𝑠
En particular para s suficientemente grande, ρB(s − 1, ρ) ≈ 0:
ρB(s − 1, ρ)
B(s, 𝛒) ≈
𝒔 + ρB(s − 1, ρ)
mediante transformaciones abordadas en CapIII): 𝐹𝑇 (𝑡) = 1 − (1 − 𝐹 (𝑡)𝑠 = 1 − 𝑒 −𝑠𝜇𝑡 , que corresponde a una
distribución Exp(s) , y por ende s efectivamente es la cantidad de clientes atendidos por unidad de tiempo
expectativa de la distribución Poisson de tal registro de cantidades.
-No se requiere hacer fila, 𝑜 𝑛o hay que esperar para ser atendido: Tq=0; porque al menos un servidor está
desocupado:
𝑃(𝑡𝑞 = 0) = 𝑃(𝑋𝑡 < 𝑠) = 1 − 𝑃(𝑋𝑡 ≥ 𝑠) = 1 − 𝑪(𝒔, 𝛒); en tal caso 𝑃(𝑇𝑞 = 0|𝑋𝑡 < 𝑠) = 1
-Se requiere hacer fila; tal caso 𝑜𝑐𝑢𝑟𝑟𝑒 𝑡𝑞 = 𝑡 > 0; cuando estamos ante una fila de largo n ≥ 0,
porque todos los servidores estan ocupados:
(1 − 𝜌𝑠 )𝜌𝑠 𝑛 , 𝑛 ≥ 0
𝑓𝑙𝑡 (𝑛) = 𝑃 (𝑙𝑡 = 𝑛) = {
0, 𝑜
Siguiendo la línea de lo desarrollado en 7.3.1.5.e; el tiempo transcurrido es la suma de tales tiempos,
186
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑛+1
∞ ∞ 𝑡
𝑡 𝑛 1 −(𝑛+1) −𝑠𝜇𝑡
𝐹𝑡𝑞+ (𝑡) = 𝑃(𝑡𝑞+ ≤ 𝑡) = ∑ 𝑃(𝑙𝑡 = 𝑛)𝑃(𝑡𝑞 ≤ 𝑡| 𝑋𝑡 = 𝑛 + 𝑠) = ∑ (1 − 𝜌𝑠 )𝜌𝑠 ∫ 𝑛
( ) 𝑒 𝑑𝑡
𝑛! 𝑠𝜇
𝑛=0 𝑛=0 0
𝑡 ∞ 𝑡 ∞
1 −1 𝑡 𝑛 1 −𝑛 1 −1 𝑡 𝑛 1 −𝑛
𝐹𝑡𝑞+ (𝑡) = (1 − 𝜌𝑠 ) ( ) ∫ 𝑒 −𝑠𝜇𝑡 ∑ 𝜌𝑠 𝑛 ( ) 𝑑𝑡 = (1 − 𝜌𝑠 ) ( ) ∫ 𝑒 −𝑠𝜇𝑡 ∑ ( ) 𝑑𝑡
𝑠𝜇 𝑛! 𝑠𝜇 𝑠𝜇 𝑛! 𝑠𝜇𝜌𝑠
0 𝑛=0 0 𝑛=0
𝑡 ∞ 𝑡
1 −1 (𝑠𝜇𝜌𝑠 𝑡)𝑛 𝑠𝜇𝜌 𝑡
𝐹𝑡𝑞+ (𝑡) = (1 − 𝜌𝑠 ) ( ) ∫ 𝑒 −𝑠𝜇𝑡 𝑒 −𝑠𝜇𝜌𝑠𝑡 ∑ 𝑒 𝑠 𝑑𝑡 = ∫(1 − 𝜌𝑠 )𝑠𝜇𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 𝑑𝑡
𝑠𝜇 𝑛!
0 𝑛=0 0
Pero: 𝑔(𝑡) = (1 − 𝜌𝑠 )𝑠𝜇𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 , es una densidad 𝑑𝑒 𝑢𝑛𝑎 𝑣. 𝑎. 𝑡𝑞+ 𝐸𝑥𝑝(∗ ) con ∗ =(1 − 𝜌𝑠 )𝑠𝜇
Cuya distribución es:
𝐹𝑡𝑞+ (𝑡) = 1 − 𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 , 𝑡 > 0
Considerando ambos eventos ( requerir o no hacer fila):
𝐹𝑡𝑞 (𝑡) = 𝑃(𝑡𝑞 ≤ 𝑡) = 𝑃(0 ≤ 𝑡𝑞 ≤ 𝑡) = 𝑃 ((𝑡𝑞 = 0) ∪ ( 0 < 𝑡𝑞 ≤ 𝑡)) = 𝑃(𝑡𝑞 = 0) + 𝑃( 0 < 𝑡𝑞 ≤ 𝑡)
= 𝑃(𝑡𝑞 = 0) + 𝑃( 𝑡𝑞 ≤ 𝑡|𝑡𝑞 > 0) ∙ 𝑃( 𝑡𝑞 > 0) = 𝑃(𝑡𝑞 = 0) + 𝑃(𝑡𝑞+ < 𝑡) ∙ 𝑃( 𝑡𝑞 > 0)
𝐹𝑡𝑞 (𝑡) = 1 − 𝑪(𝒔, 𝛒) + 𝑪(𝒔, 𝛒)(1 − 𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 ) = 1 − 𝑪(𝒔, 𝛒)𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 , t ≥0
𝑓𝑡𝑞 (𝑡) = 𝑑𝐹𝑡𝑞 (𝑡) = (1 − 𝑪(𝒔, 𝛒)) ∙ 𝐼𝑡=0 (𝑡) + 𝑪(𝒔, 𝛒) ∙ 𝑔(𝑡) ∙ 𝐼𝑡>0 (𝑡) ,
1 − 𝑪(𝒔, 𝛒), 𝑡 = 0
𝑓𝑡𝑞 (𝑡) = {
𝑪(𝒔, 𝛒) ∙ 𝑔(𝑡), 𝑡 > 0
Naturalmente:
1
𝑇𝑞 = 𝐸[𝑡𝑞 ] = (1 − 𝑪(𝒔, 𝛒)) ∙ 0 + 𝑪(𝒔, 𝛒)𝐸[𝐸𝑥𝑝(∗ , 𝑡)] = 𝑪(𝒔, 𝛒) (1−𝜌 )𝑠𝜇 lo cual es coincidente con la
𝑠
expresión ya obtenida en 7.3.3.2
𝑓𝑌 (𝑡) = 𝜇𝑒 −𝜇𝑦 , 𝑦 ≥ 0
∞ ∞
187
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
∞
2( −𝑠𝜇(1−𝜌𝑠 )𝑡
𝑠𝜇2 (1 − 𝜌𝑠 )𝑪(𝒔, 𝛒)𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡
= 𝑠𝜇 1 − 𝜌𝑠 )𝑪(𝒔, 𝛒)𝑒 ∫ 𝑒 −(−𝑠𝜇( 1−𝜌𝑠)+𝜇)𝑦 𝑑𝑦 =
𝜇(𝑠(𝜌𝑠 − 1) + 1)
0
𝑡 𝑡
𝟏 𝟏
𝑭𝑡𝑤+ (𝑡) =: ∫ 𝑓𝑡𝑤 (𝑡)𝑑𝑡 = − ∫ 𝑠𝜇 (1 − 𝜌𝑠 )𝑒 −𝑠𝜇(𝜌𝑠−1)𝑡 𝑑𝑡 = (𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 − 1 )
𝑠−1−𝜌 𝑠−1−𝜌
0 0
𝑃(𝑡𝑤 ≤ 𝑡, 𝑡𝑞 > 0) = 𝑃(𝑡𝑞 + 𝑌 ≤ 𝑡, 𝑡𝑞 > 0) = 𝑃(𝑡𝑞 + 𝑌 ≤ 𝑡|𝑡𝑞 > 0)𝑃(𝑡𝑞 > 0) = 𝑪(𝒔, 𝛒) ∙ 𝑭𝑡𝑤+ (𝑡)
Cuando 𝑡𝑞 = 0
𝑃(𝑡𝑤 ≤ 𝑡, 𝑡𝑞 = 0) = 𝑃(𝑡𝑞 + 𝑌 ≤ 𝑡, 𝑡𝑞 = 0) = 𝑃(𝑡𝑞 = 0, 𝑌 ≤ 𝑡) = 𝑃(𝑡𝑞 = 0)𝑃(𝑌 ≤ 𝑡) = 𝑷(𝑡𝑞 = 0)(𝟏 − 𝒆−𝝁𝒕 )
= (1 − 𝑪(𝒔, 𝛒))(𝟏 − 𝒆−𝝁𝒕 )
(1−𝑪(𝒔,𝛒)) 𝑪(𝒔,𝛒)
𝑡𝑤 = 𝐼𝑡=0 + 𝒀 + 𝑠−1−𝜌 𝑍, 𝑑𝑜𝑛𝑑𝑒 𝑌~𝐸𝑥𝑝(𝜇), 𝑍~𝐸𝑥𝑝(𝑠𝜇(1 − 𝜌𝑠 )),
𝑠−𝜌−1
188
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑠 −1
𝜌𝑛
𝑝0 = (∑ )
𝑛!
𝑛=0
𝑠 −1
𝑛 𝑛
𝜌 𝜌
𝑃(𝑋𝑡 = 𝑛) = 𝑝𝑛 = { 𝑛! (∑ ) , 0≤𝑛≤𝑠
𝑛!
𝑛=0
0, 𝑜. 𝑐.
𝑠 −1
𝜌𝑠 𝜌𝑛
𝐵(𝑠, 𝜌) = 𝑃(𝑋𝑡 = 𝑠) = (∑ ) = 𝑝𝑐𝑜𝑝
𝑠! 𝑛!
𝑛=0
𝑡𝑤 ~ 𝐸𝑥𝑝(𝜇), ya que el sistema solo admite clientes cuando hay servidor desocupado
TW=E[𝑡𝑤 ]=E[Y], Y: tiempo en ser atendido (de servicio) en cualquier servidor
Por 7.31.5b fórmulas de Little:
1
𝑊 = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑇𝑊 = 𝝀 (𝟏 − 𝑝𝑐𝑜𝑝 ) = 𝜌(1 − 𝐵(𝑠, 𝜌))
𝜇
𝑐̅ = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝐸 [𝑍] = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑇𝑊 = 𝑊
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜆
𝜌𝑛
𝑝𝑛 = 𝑝0 , para todo 𝑛, entonces:
𝑛!
∞ −1
𝜌𝑛
𝑝0 = (∑ ) = 𝑒 −𝜌
𝑛!
𝑛=0
𝜌𝑛
Así: 𝑝𝑛 = 𝑛! 𝑒 −𝜌 , para todo 𝑛 = 0,1, … . Por lo cual:
𝑋𝑡 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜌);
L=0
𝑇𝑞 = 0
𝑊 = 𝐸[𝑋𝑡 ] = 𝜌
𝑊 𝜌 1
𝑇𝑊 = = =
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝜆 𝜇
, lo cual es también un resultado directo de la sección anterior.
189
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
1
4 1 n 1 5 5
Así P0 (t)=
n 0 n! 5! 5
1
4 1 15 n 1 15 5 5 8
= = 0.1526,
n 0 n! 8 5! 8 5 8 15
es la probabilidad de que al llegar un vehículo (en el tiempo t); el sistema esté vacío, es decir, todas las casetas están
libres y por ende nadie espera en la fila.
0.1526 15 n
, n5
n! 8
Pn t n
0.1526 15 , n 5
5!5n 5 8
15 81.875 5
L= 0.1526 = 0.0283 [vehículos]
4! 40 15 2
15
W=L+ =0.0283 + = 0.0283+1.875 =1.903 [vehículos]
8
L 0.0283
Tq = =0.0019 [hora] 7 [segundos]
15
1
Tw = 0.0019 + = 0.1269 [hora] 7 minutos con 36 segundos
8
L = 13.61 (vehículo),
190
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
W = L + = 15.49,
L 13.61
Tq = =0.90 [de hora] = 55 [minutos]
15
1
Tw = Tq =1.03 (hora) 62 [minutos] aumenta demasiado
+
0.03226 0.03226
n! 1.875 , n 2 n! 1.875 , n 2
n n
Pn t
0.03226
n2
1.875n , n 2 n 1 1.875n , n 2
0.03226
2!2 2
0, 𝑗 >𝑖+1
𝑃(𝑐𝑜𝑚𝑝𝑙𝑒𝑡𝑎𝑟 𝑖 + 1 − 𝑗 𝑎𝑡𝑒𝑛𝑐𝑖𝑜𝑛𝑒𝑠), 𝑠≤ 𝑗 ≤ 𝑖+1
𝑃(𝑖, 𝑗) = 𝑝(𝑖, 𝑖 + 1 − 𝑗) =
𝑃(𝑐𝑜𝑚𝑝𝑙𝑒𝑡𝑎𝑟 𝑖 + 1 − 𝑗 𝑑𝑒 𝑙𝑜𝑠 𝑖 + 1 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠), 𝑗 ≤ 𝑖 + 1 ≤ 𝑠
{𝑃(𝑐𝑜𝑚𝑝𝑙𝑒𝑡𝑎𝑟 𝑖 + 1 − 𝑗 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 𝑒𝑛𝑡𝑟𝑒 𝑠 𝑒𝑓𝑒𝑐𝑡𝑢𝑎𝑑𝑜𝑠), 𝑗 < 𝑠 ≤ 𝑖 + 1
𝑃(𝑐𝑜𝑚𝑝𝑙𝑒𝑡𝑎𝑟 𝑖 + 1 − 𝑗 𝑎𝑡𝑒𝑛𝑐𝑖𝑜𝑛𝑒𝑠) =
191
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
− 𝑗 ≤ 𝑖 + 1 ≤ 𝑠: en este caso hasta i+1 servidores están ocupados, j pueden terminar en tiempo superior a
t e i+1-j dentro del lapso t :
(𝐽 = 𝑖 + 1 − 𝑗|𝐺 = 𝑡)~𝐵(𝑖 + 1 − 𝑝), 𝑝 = 𝑃(𝑌 > 𝑡) = 1 − 𝑒 −𝜇𝑡
∞
𝑖+1
𝑃(𝑐𝑜𝑚𝑝𝑙𝑒𝑡𝑎𝑟 𝑖 + 1 − 𝑗 𝑑𝑒 𝑙𝑜𝑠 𝑖 + 1 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠) = ∫ ( ) (𝑒−𝜇𝑡 )𝑗 (1 − 𝑒−𝜇𝑡 )𝑖+1−𝑗 ∙ 𝑑𝐹𝐺 (𝑡)
𝑗
0
− 𝑗 < 𝑠 ≤ 𝑖 + 1: en este caso los s servidores no están ocupados todo el tiempo. Considerando 7.3.3.3d, el
sistema funciona con tiempo de servicio T exponencial Exp(𝑠𝜇), cuya función característica es
𝑖𝑡 −1
𝜓𝑌 = (1 − )
𝑠𝜇
𝑇∗ =h t-h
siendo 𝑇∗ = 𝑆𝑖+1−𝑗 = 𝑌1 + ⋯ + 𝑌𝑖+1−𝑗 : tiempo de servicio de i+1-j atenciones;
𝑖𝑡 −(𝑖+1−𝑗)
𝜓𝑆𝑖+1−𝑗 = (1 − ) , 𝑝𝑜𝑟 𝑙𝑜 𝑐𝑢𝑎𝑙 𝑆𝑖+1−𝑗 ~ 𝛾(𝑖 + 1 − 𝑗, 𝑠𝜇)
𝑠𝜇
s s h e s h s s x e s h
i 1 j 1 i j
f Si1 j (h) ,h 0
(i 1 j ) (i j )!
Para 0<h<t:
𝑠 𝑗 𝑠−𝑗
𝑃(𝑛𝑜 𝑠𝑒𝑟 𝑎𝑡𝑒𝑛𝑑𝑖𝑑𝑜𝑠 𝑗 𝑒𝑛𝑡𝑟𝑒 𝑠 𝑐𝑙𝑖𝑒𝑛𝑡𝑒𝑠 𝑒𝑛 𝑙𝑎𝑝𝑠𝑜 (𝑡 − ℎ)) = ( 𝑗 ) (𝑒 −𝜇(𝑡−ℎ) ) (1 − 𝑒 −𝜇(𝑡−ℎ) )
∞ 𝑡
192
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
0, 𝑗 >𝑖+1
∞
(𝑠𝜇𝑡)𝑖+1−𝑗
∫ 𝑒 −𝑠𝜇𝑡 ∙ 𝑑𝐹𝐺 (𝑡), 𝑠≤ 𝑗 ≤ 𝑖+1
(𝑖 + 1 − 𝑗)!
0
∞
𝑃(𝑖, 𝑗) = 𝑝(𝑖, 𝑖 + 1 − 𝑗) = 𝑖+1
∫( ) (𝑒 −𝜇𝑡 )𝑗 (1 − 𝑒 −𝜇𝑡 )𝑖+1−𝑗 ∙ 𝑑𝐹𝐺 (𝑡) , 𝑗 ≤ 𝑖 + 1 ≤ 𝑠
𝑗
0
∞ 𝑡
𝑠 𝑗 𝑠−𝑗
∫ ∫ ( 𝑗 ) (𝑒 −𝜇(𝑡−ℎ) ) (1 − 𝑒 −𝜇(𝑡−ℎ) ) 𝑑𝐹𝑇∗ (ℎ)𝑑𝐹𝐺 (𝑡) , 𝑗 < 𝑠 ≤ 𝑖 + 1
{0 0
𝜋𝑗 = ∑ 𝜋𝑖 ∙ 𝑃(𝑖, 𝑗)
𝑖=0
∞
1 = ∑ 𝜋𝑗
𝑗=0
Ahora considerando: 𝜋𝑠−1+𝑗 = 𝑐 ∙ 𝛽 𝑗 , 𝑗 = 0,1,2, … … …. , de lo cual al analizar tiempo de espera en la fila , siendo
entonces de interés la situación 𝑠 ≤ 𝑗 , donde naturalmente:
∞
Este modelo, considera arribos en conteo según un proceso Poisson P(𝜆), para ser atendidos en multiservidores, (
servidores en paralelo),, s servidores c/u con tiempo aleatorio de atención 𝑌~𝐺, con G una distribución arbitraria.
Para este tipo de modelos, no se dispone de resultados formales exactos, aunque si de ciertas aproximaciones como
la que emana del caso de capacidad finita que fue publicado en 1977 por S. Nozaki & S. Ross “Approximations in
193
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
finite Capacity Multiserver Queues with Poisson Arrivals, Operations Research Center, UCLA-Berkeley.
(https://pdfs.semanticscholar.org/d8bc/72111309fd72b14e39bdfec7e605f1bb8c53.pdf) Lo cual, con posterioridad la
cual aparece de manera muy breve en pag.355-356 del texto Introduction to Probability Models, S. Ross (1985),
Ac. Press,Inc.
A causa de saturación hay clientes que abandonan el sistema ( sistema copado), entonces la correspondiente tasa de
efectividad es:
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜆 (1 − 𝑝𝑐𝑜𝑝 ) , 𝑝𝑐𝑜𝑝 = 𝑃(𝑋𝑡 = 𝑁)
Corresponde a una generalización también respecto a la capacidad presentada en 7.3.3.3g , que abordó el caso N=s,
pero la presente situación, se realiza una adecuación de los planteamientos entonces utilizados, lográndose una
primera aproximación:
𝐸 [𝑌 2 ]
(1 − 𝑝𝑐𝑜𝑝 − ∑𝑠−1
𝑗=0 𝑃(𝑋𝑡 = 𝑗) − (𝑁 − 𝑠)𝐸[𝑌]𝑝𝑐𝑜𝑝
2𝐸 [𝑌]
𝑇𝑞 ≅
(𝑠 − 𝜆𝐸 [𝑌]) (1 − 𝑝𝑐𝑜𝑝 )
Debido a la dificultad para obtener 𝑝𝑐𝑜𝑝 , 𝑃(𝑋𝑡 = 𝑗), 𝑗 = 1, … 𝑠; mediante una segunda aproximación, se alcanza
la sgte. expresión operacional:
7.3.3.5.2.-Capacidad Infinita
Para N grande, 𝜆𝐸 [𝑌] < 𝑠, es decir 𝜌𝑠 < 1 ; la expresión presentada en la sección anterior, se reduce a:
𝜆𝑠 𝐸 [𝑌 2 ](𝐸[𝑌])𝑠−1
𝑇𝑞 ≅
(𝜆𝐸 [𝑌])𝑗 (𝜆𝐸 [𝑌])𝑘
2(𝑠 − 1)! (𝑠 − 𝜆𝐸 [𝑌])2 (∑𝑠−1 +
𝑗=0 𝑗! (𝑠 − 1)! (𝑠 − 𝜆𝐸 [𝑌]))
Anteriormente , entre otras aproximaciones , mencionamos una muy simple (Lee & Longton. Queueing process
associated with airline passenger check-in. Operations Research Quarterly, 10:56–71, 1959. ):
1 + 𝐶2 ∗
𝑇𝑞 ≅ ( ) 𝑇𝑞 , 𝑇𝑞∗ : 𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑒𝑠𝑝𝑒𝑟𝑎 𝑒𝑛 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑀/ 𝑀/ 𝑠
2
La cual fleja una extensión a s servidores como aproximación directa de similar expresión P-K lograda formalmente
para M/G/1 en 7.3.1.7.1. Pero, punto de partida para el trabajo de Gupta et alii (2009)“On the inapproximability of
M/G/s: Why two momentos of job size distribution are not enough”, Queueing Systems, theory and App, Springer
(https://link.springer.com/article/10.1007/s11134-009-9133-x); del cual se desprende formalmente la imposibilidad
de alcanzar resultados formales, con los elementos clásicos hasta aquí utilizadas en el tema, y presentando
interesantes aproximaciones, como los siguientes resultados, para sistemas con servicios tal que 𝑉 (𝑌) = 𝐶 2 ,
definiendo
𝐶2
𝑇𝑞𝑠𝑢𝑝 =: 𝑠𝑢𝑝{𝑇𝑞 , 𝑡. 𝑞. 𝐸 [𝑌] = 1, 𝐸 [𝑌 2 ] = 𝐶 2 + 1}
𝐶 2
𝑇𝑞𝑖𝑛𝑓 =: 𝑖𝑛𝑓{𝑇𝑞 , 𝑡. 𝑞. 𝐸 [𝑌] = 1, 𝐸 [𝑌 2 ] = 𝐶 2 + 1}
∗∗
𝑇𝑞 : 𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑒𝑠𝑝𝑒𝑟𝑎 𝑒𝑛 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑀/ 𝐷/ 𝑠 , Y: determinístico , Y=1
- en sistemas con al menos un servidor disponible en promedio, ρ < (s-1)/s =1-1/s, se cumple lo siguiente:
𝐶2
𝑇𝑞𝑠𝑢𝑝 ≥ (𝐶 2 + 1)𝑇𝑞∗∗ ,
𝐶2
𝑇𝑞𝑖𝑛𝑓 ≤ 𝑇𝑞∗∗ , en consecuencia
194
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝐶 2
𝑇𝑞𝑠𝑢𝑝
𝐶2
≥ 𝐶2 + 1
𝑇𝑞𝑖𝑛𝑓
- para sistemas con todos los servidores ocupados en promedio, ρ > (s-1)/s =1-1/s:
𝐶2
(𝐶 2 + 1) ∗
𝑇𝑞𝑠𝑢𝑝 ≥ 𝑇𝑞 ,
2
2
𝐶 −1 𝑠−1
𝐶2
𝑇𝑞𝑖𝑛𝑓 ≤ 𝑇𝑞∗ + 2(1−𝜌) (𝜌 − 𝑠 ), de lo cual también se deduce
2 (𝐶 2 + 1) ∗
𝐶
𝑇𝑞𝑠𝑢𝑝 𝑇𝑞
≥ 2
𝐶 2 2
𝐶 −1 𝑠−1
𝑇𝑞𝑖𝑛𝑓 𝑇𝑞∗ + (𝜌 − 𝑠 )
2(1 − 𝜌)
(https://www.cs.cmu.edu/~harchol/Papers/QUESTA09.pdf)
𝜌𝑛 𝑚
𝑝0 𝑃𝑚,𝑛 , 0≤𝑛≤𝑠 ( ) 𝜌 𝑛 𝑝0 , 0≤𝑛≤𝑠
𝑛! 𝑛
𝑃𝑛 (𝑡) = 𝑝𝑛 = { = { 𝑚 𝑛! 𝜌 𝑛
𝜌𝑛
𝑝0 𝑃 , 𝑠<𝑛≤𝑚 ( ) 𝑝 , 𝑠<𝑛≤𝑚
𝑠! 𝑠 𝑛−𝑠 𝑚,𝑛 𝑛 𝑠! 𝑠 𝑛−𝑠 0
𝑚 −1 𝑠 𝑚 −1 𝑠 𝑚 −1
𝑝𝑛 𝑝𝑛 𝑝𝑛 𝑚 𝑚 𝑛! 𝜌 𝑛
𝑝0 = (∑ ) = (∑ + ∑ ) = (∑ ( ) 𝜌 𝑛 + ∑ ( ) ) ,
𝑝0 𝑝0 𝑝0 𝑛 𝑛 𝑠! 𝑠 𝑛−𝑠
𝑛=0 𝑛=0 𝑛=𝑠+1 𝑛=0 𝑛=𝑠+1
𝑚 𝑠 𝑚
𝑚 𝑚 𝑛! 𝜌 𝑛
𝑊 = 𝐸 [𝑋𝑡 ] = ∑ 𝑛𝑝𝑛 = ∑ 𝑛 ( ) 𝜌 𝑛 𝑝0 + ∑ 𝑛 ( ) 𝑝
𝑛 𝑛 𝑠! 𝑠 𝑛−𝑠 0
𝑛=0 𝑛=0 𝑛=𝑠+1
0, 𝑋𝑡 ≤ 𝑠
𝑙𝑡 = {
𝑋𝑡 − 𝑠, 𝑋𝑡 > 𝑠
195
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑚 𝑚 𝑠 𝑠
𝑚 𝑠 𝑠 𝑠
= ∑(𝑛 − 𝑠)𝑝𝑛 − ∑(𝑛 − 𝑠)𝑝𝑛 = 𝐸 [𝑋𝑡 − 𝑠] + ∑(𝑠 − 𝑛)𝑝𝑛 = 𝐸 [𝑋𝑡 ] − 𝑠 + ∑(𝑠 − 𝑛)𝑝𝑛
𝑛=0 𝑛=0 𝑛=0 𝑛=0
𝑠 𝑠 𝑠
𝑚 𝑚
= 𝑊 − 𝑠 + 𝑝0 ∑(𝑠 − 𝑛) ( ) 𝜌 𝑛 = 𝑊 − 𝑠 + 𝑝0 (𝑠 ∑ 𝜌 𝑛 − ∑ ( ) 𝑛𝜌 𝑛 )
𝑛 𝑛
𝑛=0 𝑛=0 𝑛=0
donde:
𝑠 𝑠 𝑠
𝑚 1 − 𝜌 𝑠+1 𝑚 𝑑 1 − 𝜌 𝑠+1 𝑑
𝑠 ∑ 𝜌 − ∑ ( ) 𝑛𝜌 𝑛 = 𝑠
𝑛
− 𝜌 ∑ ( ) 𝜌𝑛 = 𝑠 −𝜌 (1 + 𝜌)𝑠
𝑛 1−𝜌 𝑛 𝑑𝜌 1−𝜌 𝑑𝜌
𝑛=0 𝑛=0 𝑛=0
1 − 𝜌 𝑠+1
=𝑠 − 𝑠𝜌(1 + 𝜌)𝑠−1
1−𝜌
1 − 𝜌 𝑛+𝑠
𝐿 = 𝑊 − 𝑠 + 𝑠𝑝0 ( − 𝜌(1 + 𝜌)𝑠−1 )
1−𝜌
s = (W-L)/s: utilización esperada (promedio) de c/u de los s servidores (S 1), dada en porcentaje de tiempo
1 𝑊 𝑊
= 𝑊 = =
𝜇 𝑐 𝜇 𝑐 𝜇(𝑊 − 𝐿)
1
Tw = Tq + E[Z]= Tq +
- considerar 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜆(𝑚 − 𝐿) y aplicar fórmulas de Little ( lo cual es una aproximación muy gruesa):
𝐿 𝑊
𝑇𝑞 = , 𝑇𝑊 =
𝜆 (𝑚 − 𝐿 ) 𝜆 (𝑚 − 𝐿 )
196
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Solución
días horas
Suponga que los mecánicos trabajan 6 días a la semana sem , 10 horas por día día
Hay 26 días hábiles en el mes, y adoptamos unidad de tiempo la [hora].
= 0.1923 [aviones/hora]
1 aviones atendidos
= = 0.033333 ,
30horas / avión hora
0.019231
2= = = 0.2884<1
s ( 2)0.0333
n 0 1 2 3 4 5 6 7 8
Pn 1 4.6156 9.3 16.1 23.2 26.8 23.2 13.4 3.86
P0
8
n
, 0n2 1
n 8 P
P0 n 121.6 0.0082
P 1
n n
P0 8!
8 - n !2!2 n 2
, 2n8 n 0 P0
entonces:
n 0 1 2 3 4 5 6 7 8
Pn 0.0082 0.0379 0.0765 0.1325 0.1912 0.2206 0.1908 0.1101 0.031
197
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
8
largo (esperado de la) fila : L = n 2 P n = 2.6764 [aviones]
n3
8
nº (esperado) en sistema : W = n P n = 4.6197 [aviones]
n 0
nº (esperado) en operación: Cs = m-W = 8-4.6197 = 3.380 [aviones]
Este tipo de espera es característica del sector productivo, donde las líneas de ensamble requieren de una serie de
actividades que se desarrollan en serie. En estos procesos, la salida de una de las etapas es insumo de la etapa
siguiente.
En este caso supondremos:
La llegada al sistema con n servidores en serie es v.a. P(), - media.
Disciplina de la fila 1º que llega 1º que sale.
El tiempo de servicio en etapa (estación) i, i =1,...,n es v.a.i. Exp (i), = i-media
La capacidad de espacio para espera entre dos estaciones consecutivas, es ilimitada.
Entonces, la probabilidad de Xtj :cantidad en cada instante t de clientes para cada c/ subsistema o en c/estación, es
𝑠
𝑛 𝜆
𝑃(𝑋𝑡1 = 𝑛1 , . . . , 𝑋𝑡𝑠 = 𝑛𝑠 ) = 𝑃(𝑋𝑡1 = 𝑛1 ). . . 𝑃(𝑋𝑡𝑠 = 𝑛𝑠 ) = ∏ 𝜌𝑖 𝑖 (1 − 𝜌𝑖 ), 𝜌𝑖 < , 𝑖 = 1,2, … . . , 𝑠
𝜇𝑖
𝑖=1
W: número de clientes en el sistema es la suma en los subsistemas una fila 1 servidor,
Wi: número de clientes que esperan en sistema i (incluyendo los están siendo atendidos)
𝑠 𝑠
𝜌𝑖
𝑊 = ∑ 𝑊𝑖 = ∑
1 − 𝜌𝑖
𝑖=1 𝑖=1
En consecuencia:
𝑠 𝑠
𝜌𝑖2
𝐿 = ∑ 𝐿𝑖 = ∑
1 − 𝜌𝑖
𝑖=1 𝑖=1
198
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑠 𝑠 𝑠 𝑠
𝜌𝑖 1 1
𝑇𝑞 = ∑ 𝑇𝑞𝑖 = ∑ , 𝑇𝑊 = ∑ 𝑇𝑊𝑖 = ∑
1 − 𝜌𝑖 𝜇𝑖 (1 − 𝜌𝑖 )𝜇
𝑖=1 𝑖= 𝑖=1 𝑖=1
Ejemplo7.5.1
La unidad móvil de servicios de salud visita comunidades rurales 2500 habitantes (al menos), que no cuentan con la
infraestructura fija donde se proporciona este tipo de servicio (clínica, dispensarios o postas médicas), pero a donde
llegan vías de comunicación (caminos).
Al llegar la unidad a la población, se presta un servicio preventivo de salud que consiste en lo siguiente:
Registro de datos personales (A-1) Rayos X (A-2)
Toma de presión arterial (A-3) Muestra de sangre (A-4)
Muestra de orina (A-5) Revisión médica (A-6)
La unidad móvil cuenta con un personal de 6 especialistas, c/u de los cuales se responsabiliza por la ejecución de la
actividad correspondiente a su especialidad. Actividades que se desarrollan en serie.
Se reciben, en promedio 10 pacientes por hora.
entonces:
=10
Por lo anterior, se dispone la siguiente información para el parámetro i correspondiente al número de servicios
proporcionados por hora en la actividad Ai, i = 1,...,6=s
I 1 2 3 4 5 6
i 60 60 60 60 60 65
20 30 60 30 60 12
3 2 1 2 1 5
10 10 10 10 10 10
i 0 ,5 0 ,3 0 ,17 0 ,3 0 ,17 0 ,83
i 20 30 60 30 60 12
6
W= 1 i 7 ,28
i 1 i
Tq : tiempo de espera (para todas las actividades) en las filas del sistema:
6
i 1 0,5 1 0,33 1
1
0,83 1
Tq = ... 0,49( hora) 29( minutos )
i 1 i i 0,5 20 0,17 30 0,17 12
6
1
1 0,625 hora 38 minutos
1 1 1 1 1
Tw = ...
i 1 i i 0,5 20 0,17 12
Un análisis para varias estaciones por especialidad (no debe efectuarse matemáticamente), debe efectuarse por
simulación.
7.3.5.1.-Propiedades
Lo recién desarrollado permite abordar sistemas más complejos, que se denominan redes, las cuales contemplan
sistemas en los cuales los clientes siempre permanecen en él, ingresan o lo abandonan en cualquier momento.
Admitamos que a este sistema en serie de la presente sección 3.5, los clientes una vez atendidos por un servidor, si
lo desean son atendidos por cualquier servidor del mismo sistema ( se admite abandono del sistema), al cual se
dirigen con probabilidad pij, y además a c/u de los servidores de este sistema (en serie), también concurren clientes
desde fuera del sistema según un comportamiento Poisson P(ri ) de llegadas.
De esta manera:
-la probabilidad p que un cliente abandone el sistema luego de ser atendido por el servidor i, queda establecida por:
𝑠 𝑠
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝑟1 + 𝑟2 + ⋯ … + 𝑟𝑠
En tal caso, la tasa de llegadas 𝜆𝑗 a cada servidor j, queda establecida mediante el sgte. sistema de s ecuaciones:
𝑠
200
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝜆𝑗
𝜌𝑗 = , el cual debe satisfacer; 𝜌𝑗 < 1
𝜇𝑗
Sea Xtj el proceso que en cada instante t , lleva el recuento de clientes en el subsistema j, entonces:
𝑛𝑗
𝑃(𝑋𝑡𝑗 = 𝑛𝑗 ) = 𝜌𝑗 (1 − 𝜌𝑗 ), 𝑛𝑗 entero no negativo
𝑠 𝑠 𝑠 𝑠
𝜌𝑖 𝜌𝑖2
𝑊 = ∑ 𝑊𝑖 = ∑ , 𝐿 = ∑ 𝐿𝑖 = ∑
1 − 𝜌𝑖 1 − 𝜌𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1
Ejemplo 7.3.5.1a
1)Consideremos un sistema, compuesto por dos servidores, al cual ingresan clientes según un comportamiento
Poisson de parámetros 3 y 7 hacia los servidores 1 y 2 respectivamente. Además los correspondientes servidores
trabajan según un comportamiento también Poisson con tasas de servicio 9 y 12. Una vez que el cliente es atendido
por el servidor 1 se dirige al servidor 2 con probabilidad 1/3 o abandona el sistema, y por otra parte, un 80% de las
veces quienes han sido atendidos por el servidor 2 se dirigen al servidor uno o bien abandonan el sistema.
𝜆1 81
𝜆1 = 3 + 𝜆1 0 + 𝜆2 0.8 𝜆1 = 3 + 0.8𝜆2 𝜆1 = 11
81 𝜌1 = = 99
𝜇1
{ 1 { 1
𝜆2 = 4 + 𝜆1 3 + 𝜆2 0 𝜆2 = 4 + 3 𝜆1 𝜆2 = 11
60
𝜌2 =
𝜆2 60
= 132
𝜇2
𝑛 𝑛 81 𝑛1 8 60 𝑛2 72 144 81 𝑛1 60 𝑛2
𝑃(𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 ) = 𝜌1 1 (1 − 𝜌1 )𝜌2 2 (1 − 𝜌2 ) = ( ) ( ) = ( ) ( )
99 99 132 132 3267 99 132
𝜌 𝜌 81 60
𝑊 = 𝑊1 + 𝑊2 = 1−𝜌1 + 1−𝜌2 = + 72 =10,9583333
1 2 8
201
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝜌12 𝜌22 81 81 60 60
𝐿 = 𝐿1 + 𝐿2 = + = + = 8,66287879
1 − 𝜌1 1 − 𝜌2 99 8 132 72
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝑟1 + 𝑟2 = 3 + 4 = 7
𝑊
𝑇𝑊 = = 1,56547619
7
𝐿
𝑇𝑞 = = 1,23755411
7
2) Supongamos que los paquetes de señales llegan a una CPU de acuerdo a un comportamiento Poisson P(r1), los
1
cuales son procesados en un tiempo exponencial 𝐸𝑥𝑝 (𝜇 ). Terminado este procesamiento, los paquetes totalmente
1
procesados salen del sistema con probabilidad p, o requieren ser procesados en forma complementaria en otra CPU,
1
como fuente Input/output (I/O), la cual opera según una distribución 𝐸𝑥𝑝 ( ), para ser nuevamente procesados.
𝜇1
𝜆1 𝑟1 𝜆2 (1 − 𝑝)𝑟1
𝜌1 = = , 𝜌2 =
=
𝜇 1 𝑝𝜇1 𝜇2 𝑝𝜇2
𝑛 𝑛 𝑟1
𝑛1 𝑟1 (1 − 𝑝)𝑟1 𝑛2 (1 − 𝑝)𝑟1
𝑃(𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 ) = 𝜌1 1 (1 − 𝜌1 )𝜌2 2 (1 − 𝜌2 ) = ( ) (1 − )( ) (1 − )
𝑝𝜇1 𝑝𝜇1 𝑝𝜇2 𝑝𝜇2
𝜌1 𝜌2 𝑟1 (1 − 𝑝)𝑟1
𝑊 = 𝑊1 + 𝑊2 = + = +
1 − 𝜌1 1 − 𝜌2 𝑝𝜇1 − 𝑟1 𝑝𝜇2 − (1 − 𝑝)𝑟1
El cual es de la misma forma ( salvo constante de proporcionalidad ) que el sgte. sistema que posee solución única
para 𝜋𝑗 , 𝑗 = 1, … , 𝑠 ∶
𝑠 𝑠
Así, para cada j, y para cada c-upla de enteros no negativos (𝑛1 , 𝑛2 , … , 𝑛𝑠 ), tal que 𝑛1 + 𝑛2 + ⋯ + 𝑛𝑠 = 𝑚 :
𝜆𝑗 (𝑚) =: 𝜆𝑗 = 𝐶𝑚 𝜋𝑗
𝑃(𝑋𝑡1 = 𝑛1 ). . . 𝑃(𝑋𝑡𝑠 = 𝑛𝑠 )
𝑃(𝑋𝑡1 = 𝑛1 , . . . , 𝑋𝑡𝑠 = 𝑛𝑠 ) =
𝐶𝑚
𝑠
𝑛 𝜆𝑗
𝐶𝑚 = ∑ ∏ 𝜌𝑖 𝑖 (1 − 𝜌𝑖 ) , 𝜌𝑗 =
𝜇𝑗
𝐴𝑚 𝑖=1
Finalmente:
∏𝑠𝑖=1 𝜌𝑖𝑛𝑖 (1 − 𝜌𝑖 )
𝑃𝑚 (𝑋𝑡1 = 𝑛1 , … , 𝑋𝑡𝑠 = 𝑛𝑠 ) =: 𝑃(𝑋𝑡1 = 𝑛1 , … , 𝑋𝑡𝑠 = 𝑛𝑠 ) = { , 𝑛1 + 𝑛2 + ⋯ + 𝑛𝑐 = 𝑚
𝐶𝑚
0, 𝑜. 𝑐.
De lo cual se deduce:
𝑠 𝑠 𝑠
𝑛 𝑛
𝐶𝑚 = ∑ ∏ 𝜌𝑖 𝑖 (1 − 𝜌𝑖 ) = ∏(1 − 𝜌𝑖 ) ∑ ∏ 𝜌𝑖 𝑖
𝑛1 +𝑛2 +⋯+𝑛𝑠 =𝑚 𝑖=1 𝑖=1 𝑛1 +𝑛2 +⋯+𝑛𝑠 =𝑚 𝑖=1
∏𝑠𝑖=1 𝜌𝑖𝑛𝑖
, 𝑛1 + 𝑛2 + ⋯ + 𝑛𝑐 = 𝑚
𝑃𝑚 (𝑋𝑡1 = 𝑛1 , … , 𝑋𝑡𝑠 = 𝑛𝑠 ) = {∑ 𝑛1 +𝑛2 +⋯+𝑛𝑠 =𝑚 ∏𝑠𝑖=1 𝜌𝑖𝑛𝑖
0, 𝑜. 𝑐.
Para m arbitrario es conveniente disponer de una aproximación, como la basada en la sgte. interpretación ( lo cual
se conoce como Teorema de Llegadas):
𝑃(𝑢𝑛 𝑐𝑙𝑖𝑒𝑛𝑡𝑒 𝑞𝑢𝑒 𝑠𝑒 𝑑𝑖𝑟𝑖𝑔𝑒 𝑑𝑒𝑠𝑑𝑒 𝑒𝑙 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟 𝑖 𝑎𝑙 𝑗 𝑜𝑏𝑠𝑒𝑟𝑣𝑎: 𝑛1 𝑒𝑛 𝑠𝑢𝑏𝑠𝑖𝑠𝑡𝑒𝑚𝑎 1, . . . , 𝑛𝑠 𝑒𝑛 𝑠𝑢𝑏𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑠)
= 𝑃𝑚−1 (𝑋𝑡1 = 𝑛1 , . . . , 𝑋𝑡𝑠 = 𝑛𝑠 )
es decir: la distribución se mantiene, salvo adecuación a número de entidades.
De lo cual se desprende:
𝜆𝑗 (𝑚 − 1) = 𝐶𝑚−1 𝜋𝑗
Cuando hay m clientes en el sistema, para el subsistema j formado por fila de espera y servicio dado por servidor j,
consideremos:
203
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑚 = ∑ 𝑊𝑗 (𝑚)
𝑗=1
𝑚 − 1 = ∑ 𝑊𝑗 (𝑚 − 1) = 𝐶𝑚−1 ∑ 𝜋𝑗 𝑇𝑊𝑗 (𝑚 − 1)
𝑗=1 𝑗=1
𝑚−1
𝐶𝑚−1 =
∑𝑠𝑗=1 𝜋𝑗 𝑇𝑊𝑗 (𝑚 − 1)
1
El procedimiento, se inicia con 𝑇𝑊𝑗 (1) = 𝜇 , y disponiendo de cada 𝜋𝑗 ,
𝑗
1
𝜋𝑗 𝑇𝑊𝑗 (1) 𝜋𝑗 𝜇
1 1 𝑗
𝑇𝑊𝑗 (2) = + = + , … … … … … … ….
𝜇𝑗 𝜇𝑗 ∑𝑠𝑗=1 𝜋𝑗 𝑇𝑊𝑗 (1) 𝜇𝑗 𝜇 ∑𝑠 𝜋 1
𝑗 𝑗=1 𝑗 𝜇
𝑗
Luego, se aplica también para obtener los términos de las secuencias:
𝑚−1
𝐶𝑚−1 = ∑𝑠 𝜋 𝑇 (𝑚−1) , 𝑊𝑗 (𝑚 − 1) = 𝐶𝑚−1 𝜋𝑗 𝑇𝑊𝑗 (𝑚 − 1),
𝑗=1 𝑗 𝑊𝑗
Corresponde a situaciones particulares de 7.3.5.1b en que los servicios son secuenciales, cíclico (nadie abandona el
sistema) con o sin reemplazo. Por tanto abordaremos estas situaciones como:
Ejemplo7.3.5.1b
1) Consideremos un sistema de s servidores como en 7.3.5.1b, tales que pii+1=1 si i=1,2,….,s-1, ps1=1. Por ende un
sistema cerrado, que se puede representar como:
μ1 μ2 μs
204
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝜋𝑗 = ∑ 𝜋𝑖 𝑝𝑖𝑗 } 𝜋𝑗 = 𝜋𝑗−1 , 𝑗 = 2, … , 𝑠; 𝜋1 = 𝜋𝑠
𝑖=1
𝑠
1
1 = ∑ 𝜋𝑗 = 𝑠 𝜋 , lo cual implica: 𝜋 =
𝑠
𝑗=1
𝐶2 𝜆𝑗 (2) 𝐶2
𝜆𝑗 (2) = 𝐶2 𝜋𝑗 = , entonces 𝜌𝑗 = =
𝑠 𝜇𝑗 𝑠𝜇𝑗
Considerando nuestras expresiones recursivas, los parámetros de un sistema de este tipo para m=2 clientes se
obtienen partir de :
1
𝑇𝑊𝑗 (1) = 𝜇 ,
𝑗
1 1
𝜋𝑗 𝜇
1 𝑗 1 𝑠𝜇𝑗 1 1
𝑇𝑊𝑗 (2) == + = + = +
𝜇𝑗 𝜇 ∑𝑠 𝜋 1 𝜇𝑗 𝜇 ∑𝑠 1 𝜇𝑗 𝜇2 ∑𝑠 1
𝑗 𝑗=1 𝑗 𝜇 𝑗 𝑗=1 𝑠𝜇 𝑗 𝑗=1 𝜇
𝑗 𝑗 𝑗
𝑚 2 2𝑠
𝐶𝑚 = ; entonces 𝐶2 = =
∑𝑠𝑗=1 𝜋𝑗 𝑇𝑊𝑗 (𝑚) 1 1 1
∑𝑠𝑗=1 𝑇𝑊𝑗 (2) ∑𝑠𝑗=1 +
𝑠 𝜇𝑗 2 ∑𝑠 1
𝜇𝑗 𝑗=1 𝜇
𝑗
𝐶2 2
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (𝑗, 2) = 𝜆𝑗 (2) = 𝐶2 𝜋𝑗 = = ;
𝑠 𝑠 1 1
∑𝑗=1 +
𝜇𝑗 1
𝜇𝑗2 ∑𝑠𝑗=1 𝜇
𝑗
1 1
2 (𝜇 + 1)
𝑗
𝜇𝑗2 ∑𝑠𝑗=1
𝜇𝑗
𝑊𝑗 (2) = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (𝑗, 2)𝑇𝑊𝑗 (2) = ; 𝑠𝑖 𝜇𝑗 = 𝑐𝑡𝑒 = 𝜇 ,
1 1
∑𝑠𝑗=1
𝜇𝑗 + 1
𝜇𝑗2 ∑𝑠𝑗=1 𝜇
𝑗
En particular,
2 2𝜇 2𝜇(1 + 𝑠)
𝑠𝑖 𝜇𝑗 = 𝑐𝑡𝑒 = 𝜇: 𝜆𝑗 (2) = = , 𝑊𝑗 (2) =
𝑠 1 1 + 𝑠2 1 + 𝑠2
+
𝜇 𝑠𝜇
Al continuar la recurrencia se obtienen los parámetros del sistema para un número mayor de clientes en el sistema.
205
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
μ1 μ2
𝑠 2
1
𝜋1 =
𝜋1 = 𝜋1 𝑝11 + 𝜋2 𝑝21 = 𝑝𝜋1 + 𝜋2 2−𝑝
}
𝜋2 = 𝜋1 𝑝12 + 𝜋2 𝑝22 = (1 − 𝑝)𝜋1 1−𝑝
𝜋 =
{ 2 2−𝑝
Las tasas de llegadas, a los respectivos servidores j=1, 2 coinciden con a:
𝐶𝑚
, 𝑗=1
2−𝑝 𝜆𝑗 (𝑚) 𝐶𝑚 𝜋𝑗
{𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (𝑗, 𝑚) = 𝜆𝑗 (𝑚) = 𝐶𝑚 𝜋𝑗 = ; 𝜌𝑗 = =
1−𝑝 𝜇𝑗 𝜇𝑗
𝐶𝑚 , 𝑗 = 2
{2 − 𝑝
𝑛 𝑛
𝜌1 1 (1−𝜌1 )𝜌2 2 (1−𝜌2 )
, 𝑛1 + 𝑛2 = 𝑚
𝑃𝑚 (𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 ) = { 𝐶𝑚 , pero, debido a que
0, 𝑜. 𝑐.
1 𝑛 𝑛
1= ∑ 𝑃𝑚 (𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 ) = ∑ 𝜌1 1 (1 − 𝜌1 )𝜌2 2 (1 − 𝜌2 )
𝐶𝑚
𝑛1 +𝑛2 =𝑚 𝑛1 +𝑛2 =𝑚
𝑛 𝑛 𝑛 𝑚−𝑛1
𝐶𝑚 = ∑ 𝜌1 1 (1 − 𝜌1 )𝜌2 2 (1 − 𝜌2 ) = (1 − 𝜌1 )(1 − 𝜌2 ) ∑ 𝜌1 1 𝜌2
𝑛1 +𝑛2 =𝑚 0≤𝑛1≤𝑚
𝜌 𝑚+1
𝜌
𝑚
𝑛1 1 − (𝜌1 )
1 2
= (1 − 𝜌1 )(1 − 𝜌2 )𝜌2𝑚 ∑ ( ) = (1 − 𝜌1 )(1 − 𝜌2 )𝜌2𝑚 𝜌1
𝜌2 1 −
𝑛1=0 𝜌2
De esta manera, como en nuestro caso en desarrollo s=2:
𝑛 𝑚−𝑛1 𝑛 𝑚−𝑛1
𝜌1 1 (1−𝜌1 )𝜌2 (1−𝜌2 ) 𝜌1 1 𝜌2
𝑃𝑚 (𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 , 𝑛1 + 𝑛2 = 𝑚 ) = 𝑃𝑚 (𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑚 − 𝑛1 ) = 𝜌 𝑚+1
= 𝜌 𝑚+1
=
1−(𝜌1 ) 1−(𝜌1 )
(1−𝜌1 )(1−𝜌2 )𝜌2𝑚 2
𝜌
2
𝜌
1−𝜌1 1−𝜌1
2 2
𝜌
𝜌 𝑛1 1− 1 1−𝜌 𝜌1
𝜌2
= (𝜌1 ) 𝜌 𝑚+1
= 𝜌𝑛1 1−𝜌 𝑚+1 , al considerar 𝜌 = :
2 1−( 1 ) 𝜌2
𝜌2
Expresión de la forma expuesta en 7.3.1.5g; por lo cual el primer sistema del que estamos abordando, se comporta
como si fuese un Sistema de una fila un servidor de Capacidad Finita m (M/M/1):(GD/m/∞ ).
𝐶𝑚 𝜋1 𝜇2
𝜌1 𝜇1 𝜋1 𝜇2 2−𝑝 𝜇2
pero: 𝜌 = = = = =
𝜌2 𝐶𝑚 𝜋2 𝜋2 𝜇1 (1 − 𝑝)𝜇1 (1 − 𝑝)𝜇1
𝜇2 2−𝑝
lo cual indica: dependencia directa de 𝜇2 ( tasa de funcionamiento I/O) e inversamente a la probabilidad
206
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Siendo p es la proporción de programas que requieren ser reemplazados, 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (1, 𝑚) = 𝜆1 (𝑚); la tasa de
𝜆 (𝑚)
programas reemplazados es: 𝑝𝜆1 (𝑚) y consecuente con lo anterior, de la capacidad de utilización 𝜌1 = 1 de tal 𝜇1
primer sistema, es posible expresar lo siguiente:
𝜆1 (𝑚) 1−𝜌 1−𝜌
1 − 𝜌1 = 1 − = 𝑃𝑚 (𝑋𝑡1 = 0, 𝑋𝑡2 = 𝑚 ) = 𝜌0 𝑚+1
=
𝜇1 1−𝜌 1 − 𝜌𝑚+1
1−𝜌 𝑚
De lo cual se obtiene explícitamente la tasa de programas reemplazados: 𝑝𝜆1 (𝑚) = 𝑝𝜇1 𝜌 1−𝜌𝑚+1
3)Para el sistema cerrado:
CPU I/O
μ1 μ2 μ3
En este caso s=3, donde la CPU actúa como fuente generadora de señales a una tasa λ=μ1.
Según: 7.3.2.-. Una fila – un servidor – población finita (M/M/1):(GD /∞/m ), el primer subsistema cuenta con una
fuente generadora de señales (o llegadas), cuya tasa de efectividad:
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (1, 𝑚) = 𝜆1 (𝑚) = 𝜆(1 − 𝑃(𝑋𝑡1 = 0)) o tasa de ingreso (efectivo) de señales al sistema
donde:
𝑛 2−𝑛
𝜌2 2 𝜌3 2
𝑃𝑚 (𝑋𝑡1 = 0, 𝑋𝑡2 = 𝑛2 , 𝑋𝑡3 = 𝑛3 ) = ∑
(𝜌12 + 𝜌22 + 𝜌32 + 𝜌1 𝜌2 + 𝜌1 𝜌3 + 𝜌2 𝜌3 )
𝑛2 +𝑛3 =2
𝜌22 +𝜌32 + 𝜌1 𝜌2
=
(𝜌12 + 𝜌22 + 𝜌32 + 𝜌1 𝜌2 + 𝜌1 𝜌3 + 𝜌2 𝜌3 )
Otro sistema de fila de este mimo tipo de serie con población finita es un sistema abierto, en que c/cliente luego de
ser atendido por el servidor s abandona el sistema; lo cual corresponde al presente caso y habitualmente se
representa mediante
207
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Llegadas λ salida
μ1 μ2 μs
1
así también: 𝜋 = 𝑠 , el cual puede replantearse en tales términos de sistema cerrado, pero con s+1 servicios, ya que
la fuente generadora se agregó en su planteamiento como elemento (servicio) anexo.
7.3.7.- Linea Simple, con llegadas y servicios no constantes, distribuidos respectivamente con
distribución de Poisson y exponencial.
La llegada En muchas líneas se obliga que los servidores trabajen más rápido debido a
El servicio
factores de presión que ejercen quienes están en la fila lo que induce a que el
tiempo medio de servicio cte, si además ocurre lo mismo con la llegada cte, veremos que sucede en estos
casos:
1 : tasa de servicio medio “normal” (cuando no se ejerce presión, o c = 0) que son de casos anteriores.
c : coeficiente de presión de trabajo, c > 0. Indica el efecto de la gente que espera en la fila.
1.0
c=0.6
c=0.4
c=0.06
c=0.4 c=0.4
c=0 c=0
0 1.0
0
s1 s1
s=1
s=2
208
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
En otros sistemas, más que cambiar la tasa de servicio se afecta la llegada de clientes. Por ejemplo se puede
disminuir su llegada desviándola a otros sistemas donde se prestan servicios similares. En este caso: n =
(n+1)-b 0 , n = 0, 1, 2,..., b > 0 y cuya interpretación es análoga al parámetro c.
Suponga que el tiempo promedio de servicio de emergencia (de posta) disminuye a medida que se llena la sala de
espera, debido a que los médicos de guardia empiezan a delegar parte de su trabajo (lo de menos complicación) a las
enfermeras.
Admita que un Doctor tarda en promedio:
24 [minutos] por paciente, si la sala de espera está vacía.
12 [minutos] por paciente, si llegan a haber 5 pacientes en espera (6 en el sistema).
Se requiere estudiar el sistema, suponiendo que los pacientes llegan en intervalos de ½ [hora] en (media)
con distribución Poisson, para los casos en que haya un médico de guardia, (s = 1) y dos médicos de guardia (s
= 2).
Solución
- Tiempo promedio de servicio
Si nadie espera (o hay menos de 5 pacientes esperando)
60
n =
min / hora 2.5 [pacientes/hora]
24 minutos / pacientes
60
Si hay 5 o más pacientes esperando 6 = 5 [pacientes/hora]
12
lg( 5 / 25)
6 = nc 1 5 = 6c 1 5=6c 2,5 c lg 6 = lg 5/2,5 c= = 0.4
lg 6
2
0 ,8 1 si s 1
1 2 ,5
Como =2 [pacientes/hora] entonces:
2
0 ,4 1 si s 2
s 1 22 ,5
S=1 S=2
P0 0.367 0.440
W 1.251 0.864
209
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
S=1 S=2
/(S) 0.8 0.4
P0 0.367 0.440
P1 0.294 0.352
L 0.618 0.16
W 1.251 0.864
Tq 18/2 [minutos] 5 [minutos]
Tw 37/2 (minutos) 29 [minutos]
P(Ts >0) 0.633 0.208
Al estimar, los costos de espera y servicio; se puede determinar, con cuántos doctores es más conveniente
proporcionar este servicio.
En algunos sistemas existen prioridades entre los servicios que se proporcionaron a la población que los
solicita. Por ejemplo, un caso estable, en un servicio de salud de emergencia, no tiene la misma prioridad que un caso
crítico. Así también, en comunicaciones, lo es la transmisión de: imagen, sonido, datos.
Existen algunos resultados teóricos, derivados del análisis matemático con distribución de Poisson para este
tipo de las llegadas y servicios; donde los clientes son atendidos según la clase de prioridad que posean.
Denotando por,
S : número de servidores
: promedio de servicio para c/servidor (todos los servidores atienden de manera similar)
k : tipo de prioridad existente entre r clases ; k = 1, 2,..., r.
k : promedio de llegada de clientes en la clase de prioridad k
n
Se tiene: k , , considerando el caso , y las siguientes expresiones:
k 1
k
S s1 j
i
A = S! S B0 = 1, Bk = 1- i 1 k = 1, 2,...,r
s
S
j 0 j!
Para un cliente de clase k, k = 1, 2,..., r :
1 1
Twk ,
ABk 1 Bk
1
Además: 𝑇𝑞𝑘 = 𝑇𝑊𝑘 − 𝜇 , 𝑊𝑘 = 𝑘 𝑇𝑊𝑘
Estos resultados, son válidos para un sistema denominado “sin aborto de servicio” (no se suspende el servicio a un
cliente, por la llegada de otro, con mayor prioridad). En estos casos un cliente con prioridad mayor que los que
esperan entra al sistema colocándose adelante de la fila, pero debe esperar que un servidor se desocupe para que él
entre a servicio.
Existen resultados para sistema con aborto de servicio, donde se suspende el servicio a un cliente, para atender a otro
con prioridad mayor. Para el caso de un servidor (S=1), se tiene el siguiente resultado:
1/
Twk k = 1, 2,...,r
Bk 1 B k
210
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
El servicio de emergencia tiene una política abortiva; es decir se interrumpe el tratamiento de un caso:
- Estable para dar cabida a un caso serio o crítico
- Serio para dar entrada a un caso crítico
El estudio “mostró” complementariamente que en promedio, la atención a un paciente dura 20 minutos, que los
casos críticos se presentan en promedio cada 5 horas, los serios uno cada 100 minutos y los estables, 1 cada 50
minutos.
Solución
Se tiene: Prioridades A, M, B
1
pacien / hora, k 1
0.2, k 1
5
1 pacientes minutos paciente
k 60 , k 2 0.6 k 2
100 minutos hora hora
1 pacientes minutos 1.2 k 3
50 60 minutos hora , k 3
2
Además: 0.66 1 , entonces, para un número de servidores S=1,y S=2:
3
211
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Las decisiones más comunes en cualquier línea de espera, se refieren a fijar el nivel de parámetros que a
continuación se mencionan, tal que se logre un equilibrio en el costo de operar el sistema y el costo asociado a la
espera. El nivel de estos parámetros se puede fijar individualmente o combinando unos con otros. Estos parámetros
son:
Si se combina el número de servidores con el costo de espera, se obtiene una función de costo similar a la de la
figura siguiente:
212
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
1
S* S:número de servidores
Donde el costo del sistema aumenta si se incrementa el número de servidores, mientras que el costo de espera
disminuye. El costo total que es la suma del costo del sistema más el de servicio, obtiene su mínimo en: S*.
La dificultad está en la determinación explícita de los costos de espera, no tanto así los costos del sistema. Estos
últimos sólo son la erogación monetaria (fija y variable) correspondiente a la operación y mantenimiento del sistema.
En realidad, dada la característica aleatoria de una línea de espera, se debe hablar de valores esperados de costo, y no
del costo propiamente tal. Por lo tanto, si g(n) representa el costo esperado de demora de n clientes y Pn es la
probabilidad de que existan n personas en el sistema en un período de tiempo determinado, el valor esperado del
costo de demora, E[g(n)] es:
n
E[g(n)] = Pi g ( i ) , n = 1, 2, 3,...,+.
i 0
Ejemplo7.8
Suponga que en una clínica que atienda a los obreros de una fábrica, se ha realizado un estudio de costos y se ha
concluido empíricamente, que el costo de espera de un obrero que acuda a la clínica es función de la pérdida en la
productividad diaria de la fábrica.
La Empresa tiene dos obreros cuya función específica es cubrir las vacantes de todas aquellas que acuden a
la clínica. Por lo tanto, la falta de dos obreros, en cualquier período de tiempo, tiene un costo de espera nulo. Se ha
calculado que cuando faltan más de dos obreros por día, se pierde en productividad cien pesos por obrero por día.
Esto origina una función de costo:
0, n 0 ,1,2
g(n)=
100( n 2 ), n 2
Del estudio realizado en la clínica se derivan las siguientes estimaciones de Pn , la probabilidad de que en un período
de tiempo determinado, se encuentren n obreros en la clínica. (Esperando servicio y en atención médica). Las
estimaciones de Pn se han hecho bajo la situación real de tener un solo grupo de médicos (dos doctores y dos
enfermeras, s=2).
Se supone que la llegada de obreros a la clínica es aleatoria, con un promedio de llegadas por hora, mientras que
los servicios de salud tienen una distribución exponencial con un valor medio de servicios por hora.
Se estudia al sistema con uno y dos grupos médicos. Utilizando las respectivas expresiones:
1, Pn 1 n , al considerar S=1, un grupo de médicos;
213
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
nP , si 0nS
0
Pn , para el caso S2
n
P0 , si n S
S ! S n s
1
1 n s
1
n 0 1 2 3 4 5 6 7 8 9 10
Pn S=1 0.271 0.217 0.173 0.139 0.097 0.058 0.029 0.012 0.003 0.00 0.00
S=2 0.433 0.346 0.139 0.055 0.019 0.006 0.000 0.000 0.000 0.00 0.00
g(n) 0 0 0 100 200 300 400 500 600 700 800
Pn g(n) S=1 0 0 0 14 19 17 12 6 2 0 0
S=2 0 0 0 6 4 2 0 0 0 0 0
10
70 $ por día , si S 1
E[g(n)]= Pn g(n)=
S2
n 0 12 $ por día , si
Suponga que el costo de operar y mantener la clínica es de $40 por día si se dispone de un grupo médico y de $65
por día si se tienen dos.
Entonces el costo total esperado será de: 70+40 =110 $ por día para un grupo médico.
12+65 =75 $ por día para dos grupos médicos.
La decisión en base a uno o dos grupos, entonces será por: 2 grupos médicos en esa clínica.
Un análisis más exhaustivo, puede realizarse estudiando esta clínica para 3, 4, 5,... grupos médicos y obtener los
respectivos costos (de nº de servidores, en este caso grupos de médicos); para determinar el número óptimo (que
minimice el costo total) de grupos médicos.
Tipo 1 Dada la función de costo de espera (o el costo esperado), una función de costo de servicio del sistema, los
parámetros y ; se desea encontrar el número óptimo de servidores, S, que minimizan el costo total
esperado.
Tipo 2 Dada una función marginal de servicio por unidad de tiempo para fija, el valor de y un rango
permisible de variación de , se desea encontrar el número de servidores S y el valor de , que minimizan
el costo total. (e.d. calcular la mejor eficiencia del sistema (rapidez con el menor número de servidores
posibles), ajustando y S. Este sería el caso de sistemas referentes a trabajos de carga y descarga de
muelles, trabajos de mantenimiento o de supervisión, vigilancia o inspección.
Tipo 3 Dado un costo marginal de servicio por unidad de tiempo, un costo fijo de servicio por unidad de servicio
por unidad de tiempo, un valor de y , se desea encontrar el número de estaciones de servicio y el
número de servidores por estación, que minimizan el costo total. Este sería el caso de encontrar, por
ejemplo, el número de baños para hombres y mujeres en un aeropuerto y dentro de cada baño,
214
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
calcular el número de toilets y lavamanos. Los baños serían las estaciones de servicio y los toilets de cada
baño serían los servidores dentro de cada estación de servicio.
Si basamos nuestro proceso de decisión de una línea de espera en el equilibrio de dos costos:
Costo de espera (costo social) y
Costo de servicio.
El proceso de decisión requiere de una evaluación cuantitativa de la línea de espera (cálculo de P n, L, W, Ts,
Tw, etc.,...) y una estimación de la forma explícita de las funciones de costo asociadas a la espera y a la operación y
mantenimiento del sistema. Esta última estimación (de costos) es en la vida real, difícil y laboriosa al determinar.
Ejemplo7.9
Estudio de líneas de espera, población de gineco-obstetricia (centro) de un pequeño hospital de 174 camas.
El problema de decisión consiste en:
- El número adecuado de camas con que debe contar dicho centro a fin de equilibrar el
- Costo de espera de las parturientas con el.
- Costo de operación y mantenimiento del centro.
La pregunta es si las 22 camas satisfacen los requerimientos del hospital en forma eficiente.
De una muestra aleatoria de 4 meses (enero, junio, septiembre y octubre) se obtuvo la siguiente información:
1
ˆ X ((0)11+...+(9)·3) = 3.42 = 1, permanencia media observada
289
12 ( k p 1) 120.05 (10 1 1) 02.95 (8) = 15.507, entonces una apropiada distribución para la
permanencia en el centro es P(), =3.42 .
215
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
(en rigor no se dispone de evidencia para afirmar que el comportamiento de la permanencia en este centro difiera
significativamente de Poisson , a un nivel del 5% de significación)
Luego de observar la frecuencia de utilización, en días, de las camas del centro, se procedió a calcular el número de
pacientes días (frec. en días por nº de camas):
así: 6 camas utilizadas en un día, observada 28 días; produce 6·28 =168 días – pacientes.
xi mi 3588
Promedio de camas ocupadas o pacientes: X 9.83 ˆ 2
n 365
Se dispone entonces de la información suficiente para obtener: L, W, Ts y Tw para diferentes valores de s.
El promedio de pacientes que llegan al centro (después de salir de sala de partos) es una v.a. Poisson
camasocupadas
P , 2
9.83
2.87
1 3.42 día
El promedio de pacientes que se les proporciona una cama por día es:
1 1
0.292 el factor de utilización del centro es:
1 3.42
2.87 9.83
s , 0s24 S: número de camas
s s0.292 s
Nº total de camas Frecuencia en días Días paciente Probabilidad real Probabilidad teórica
usadas en 1 día mi xi mi (observada)Oi o esperada Ei-según
xi mi/n P(=9.8)
0 0 0 0.0 0.0001
1 0 0 0.0 0.0005
2 1 2 0.0027 0.0027
3 1 3 0.0027 0.0087
4 4 16 0.0110 0.0213
5 18 90 0.0493 0.0418
6 28 168 0.0767 0.0682
7 27 189 0.0740 0.0955
8 55 440 0.1507 0.1170
9 51 459 0.1397 0.1274
10 35 350 0.0959 0.1249
11 42 462 0.1151 0.1112
12 37 444 0.1014 0.0908
13 19 247 0.0521 0.0685
14 15 210 0.0411 0.0479
15 18 270 0.0493 0.0313
16 8 128 0.0219 0.0192
17 2 34 0.0055 0.0111
18 2 36 0.0055 0.0060
19 1 19 0.0027 0.0031
20 0 0 0.00 0.0015
21 1 21 0.0027 0.0007
22 0 0 0.00 0.0003
23 0 0 0.00 0.0001
24 0 0 0.00 0.0001
Total 365 3588 1.0 0.9999
216
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Luego como se aprecia en la tabla siguiente, dicho centro con 22 camas esta sub-utilizada. Lo que en términos de
costo quiere decir; que se pagaba un gran costo adicional por operación y mantenimiento, para evitar el riesgo de que
una parturienta se quedará sin atención (con las consecuencias del caso).
L = 0.0795 pacientes esperando una cama; W= 9.9 pacientes en el centro esperando por día
días
Tq = 0.0277 40 , lo que no es grave, ya que en promedio, no se esperaría más de 40
paciente
minutos (menos de una hora) por servicio.
días
Tw = 3.45 3 días, 10 horas, 481 minutos/paciente
paciente
días horas
Con 12 camas la espera es: Tq = 0.6526 16 y L=1.87 son casi dos personas esperando
paciente paciente
una cama; esto si pondría en aprietos al sistema. La recomendación entonces es de reducir el número de camas de
22 a 16.
Es claro que S 10, ya que de lo contrario s > 1 ,
s 1 s 1
s
s
P0
1
s! s!
s
, L
s - 1! s 2
P0
s 0
1
s s 1
1
s P0 (s-)2 L Ts W Tw
1
1 0 s!
[días/pacientes] [días/pacientes]
s
s!
s
s 1
s s!
Problemas
1. En una estación de gasolina los autobuses llegan a una bomba diesel con una distribución que
se aproxima a la de Poisson, mientras que los servicios tienen una distribución exponencial.
El promedio de llegadas es de 8 autobuses por hora mientras que se proporcionan 7 servicios
por hora. Sólo se puede proporcionar servicio a un autobús a la vez en cada bomba y la
disciplina de la cola es “primero que llega, primero que se sirve”. Suponga que los costos de
operación y mantenimiento de cada bomba son de 13000 pesos día, mientras que los costos
de operación y mantenimiento de cada autobús (sueldos, refacciones, seguros, depreciación,
etc.) son de 500 mil pesos/,mes. Suponga que el autobús trabaja 22 días al mes, 18 horas
por día y carga diesel en esa bomba dos veces al día. Analice el problema para 2, 3 y 4
bombas suponiendo una población infinita de autobuses. ¿Cuántas bombas sugiere usted que
se instalen en ese lugar?
5. Un cajero electrónico que proporciona servicio a los clientes en sus respectivos automóviles
opera con las siguientes características. La llegada de clientes tienen una distribución de
Poisson con valor medio de 8 por hora. El tiempo de servicio tiene una distribución
exponencial con valor medio de 4 minutos. El espacio frente a la ventanilla tiene capacidad
para un máximo de 4 automóviles, incluyendo al carro que se le está proporcionando servicio.
7. Repita el ejemplo que denominamos: estaciones de peaje S=5 casetas, para 3 y 4 casetas,
suponiendo que cada caseta está atendida en cada turno por 2 personas que se
complementan, con un sueldo diario de 200 pesos por persona. Las casetas trabajan 3 turnos
de 8 horas por día. Describa cuantitativamente al sistema y compare estos resultados con el
costo de los recursos humanos necesarios para atenderlas ¿Qué es lo mas conveniente?
218
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
8. Suponga que para corregir un sistema de servicio al público se proponen las 3 alternativas
que se ilustran a continuación:
Servidor 1
a) Llegadas Salida
Servidor 2
Servidor 1
b) Llegadas Salida
Servidor 2
En el caso a), la llegada de clientes en cada cola tiene una distribución de Poisson con =
4.5 por hora. Cada servidor procesa clientes con una distribución exponencial negativa a
razón de 12 por hora.
En el caso b), la llegada de clientes tiene una distribución de Poisson con = 9 por hora.
Cada servidor procesa clientes igual que en la alternativa a).
En el caso c), la llegada de clientes es igual a la de b), pero el servidor, supereficiente procesa
a 24 clientes por hora, con una distribución exponencial negativa.
Para los casos a) y b), cada servidor recibe un salario diario de 1000 pesos. Para el caso c),
el salario del superservidor es de 30000 pesos.
¿Que alternativa tiene un mejor equilibrio entre el costo de espera y el costo de proporcionar
el servicio?
10. Si el número de horas del ejemplo anterior se reduce a 8 por turno, con 3 turnos de trabajo
por día y el número de aviones aumenta a 15, cuantifique usted el sistema de
mantenimiento para 2, 3, 4 y 5 grupos de mantenimiento por turno. ¿Cuál es su
recomendación?
11. En un proceso de producción una pieza al salir de forja pasa a troquelado, niquelado y
empaquetado. Para cada proceso se cuenta con una máquina especial. El insumo
219
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
de todo ese proceso es una barra de acero. Se reciben en promedio 150 barras de acero
cada hora.
Tiempo
promedio de
1/8 1/4 1/5 1/2
servicio de una
pieza en
minutos
¿Cuál es la probabilidad de que al entrar una barra de acero al sistema, existan 2 piezas en
forja, ninguna en troquelado, dos en niquelado y ninguna en empaquetado? Describa,
cuantitativamente, a la línea de espera.
12. Suponga que para digitar la información de un censo industrial, una digitadora profesional
tarda, en promedio 4.76 minutos. Sin embargo, si se llegan a acumular 10 formas censales
en el proceso (una en digitación y nueve en espera), las digitadoras, bajo la presión de sus
supervisores, aceleran el trabajo llegando a digitar dicha información en 3 minutos promedio
por forma. Si se supone que las formas censales arriban con una distribución de Poisson a
razón de 11 formas por hora, describa al sistema bajo 1 y 2 digitadoras. La distribución del
tiempo de digitación es exponencial negativa.
13. Suponga que un aeropuerto considera 4 tipos de prioridades para autorizar un aterrizaje.
a) Prioridad cero o baja, aterrizaje normal.
b) Prioridad uno o media, aterrizaje cuando algún instrumento o aparato no crítico del
avión muestra una falla.
c) Prioridad dos o alta, aterrizaje cuando algún instrumento o aparato crítico del avión
muestra una falla.
d) Prioridad tres o crítica, aterrizaje cuando el aparato tiene un incendio o el
combustible se ha agotado.
Observando el funcionamiento anual del aeropuerto, se encontró que el 80% de los casos
son de prioridad cero, el 15% de prioridad uno, el 4.997% de prioridad dos y sólo el 0.0003%
es de prioridad tres. La llegada de aviones al aeropuerto es una variable aleatoria con
distribución de Poisson. El aeropuerto recibe un vuelo normal cada 18 minutos, en
promedio; un vuelo de prioridad media cada hora, 36 minutos en promedio; un vuelo de
prioridad dos cada 4 horas 48 minutos, 10 segundos en promedio y un vuelo de prioridad
crítica cada 333 días 7 horas 55 minutos 12 segundos, en promedio.
El servicio que presta la torre de control para que aterricen los aviones es una variable
aleatoria con distribución exponencial y valor medio de 2 ½ minutos por avión. En la torre
de control se tiene un grupo de controladores por pista de aterrizaje que está en servicio.
14. Las llegadas a un conmutador telefónico tienen una distribución de Poisson con valor medio
de 4 llamadas por hora. La duración de la respuesta a la llamada telefónica tiene una
distribución exponencial con valor medio de 12 minutos. El costo de cada operador
220
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Determine el número de operadores telefónicos que minimizan el costo total esperado por
hora del sistema.
15. Suponga que la empresa que administra el Metro de Santiago considera necesario pintar los
carros del Metro una vez por año. La primera alternativa, acorde a la política de generación
de empleo, supone que los carros se pintan a mano por 2 grupos de pintores. El tiempo
promedio de pintura de un carro es de 8 horas, y el costo anual total de esta alternativa es
de 10 millones de pesos. La alternativa dos consiste en mecanizar el proceso de pintura por
medio de una máquina especializada. El tiempo promedio de pintura es de 5 horas y el
costo total anual es de 14.3 millones de pesos. La llegada de carros del Metro al taller de
pintura es una variable aleatoria con distribución de Poisson y valor medio de 1 carro cada
12 horas. Los tiempos de pintura en ambas alternativas son variables aleatorias con
distribución exponencial. El costo del tiempo de espera de un carro que no puede
proporcionar servicio al público, porque se encuentra en el taller de pintura se ha estimado
en 7.50 pesos/hora. El taller de pintura en ambas alternativas trabaja las 24 horas los 365
días del año es decir 8760 horas por año. ¿Que alternativa recomienda para esta empresa?
16. Suponga que la llegada de furgones de ferrocarril cargados con gramíneas (maíz, trigo,
arroz), a los correspondientes silos, es una variable aleatoria con distribución de Poisson y
valor medio de un furgón cada 2 horas.
El tiempo de descarga del furgón por un grupo de estibadores (10 estibadores) tiene una
distribución exponencial con valor medio de 1 hora con 20 minutos.
¿Cuántos grupos de estibadores recomienda usted bajo los siguientes dos supuestos):
221
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
CAPITULO VIII
SIMULACIÓN
Toda representación de un experimento, en que dispongamos en forma ficticia de sus resultados se considera una
simulación u emulación. Como bien sabemos, los experimentos no determinísticos o aleatorios son nuestros
experimentos de interés, los cuales se pueden modelar mediante variables aleatorias asociadas a funciones de
distribución (discretas, continuas, mixtas o singulares). En este documento la simulación que abordaremos está
orientada a la emulación de experimentos aleatorios regidos por la realización de variables aleatorios discretas o
continuas.
Como veremos más adelante toda simulación está basada en que se dispone de una muestra aleatoria tamaño n de
una variable aleatoria uniforme, es decir, se asume que disponemos de n números aleatorios. Tal hecho
habitualmente se trabaja en base a distribución uniforme (0,1), y por ende, habrá de disponer de n números
aleatorios en tal intervalo.
Los mecanismos que se utilizan para simular números aleatorios son muy próximos a dar resultados con bondad de
ajuste que puede considerarse satisfactoria, por tal motivo es que se les denomina números pseudo-aleatorios.
A partir de la generación de números pseudo aleatorios, simularemos variables aleatorias por diversos métodos ,
exponiendo el más apropiado en cada caso, en términos de la complejidad ( esperada ) del algoritmo asociado.
Continuaremos, con la simulación de procesos, que constituyen la base de los fenómenos de espera, que comúnmente
se deben analizar en estudios de sistemas de: producción, comunicaciones (datos, sonido, imagen), flujos viales, y
servicios, entre otros. Finalizando con la entrega de los elementos que permitan diseñar algoritmos de simulación de
procesos de las más diversas arquitecturas y los elementos a exigir en la entrega de resultados de tales
procedimientos computacionales.
Definición
Consideremos tres números enteros, a,b,c, tales que: a, b ZI,c IN
Se define a R b (a relacionado con b ) ssi b – a = k · c, V k ZI
Esta vinculación a R b es una relación que se denota: a b mod c, lo cual se lee a congruente con b módulo c.
223
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Observación
2)ZIc = 0,1, 2,..., c 1 es la partición originada, mediante congruencia módulo c.
demostración
dados b ZI,c IN , siconsideramos: a R b a b mod c, c IN,como una ecuación
para determinar a, el representante de la clase con que b se encuentra asociado ,
a R b b – a = k · c, V k ZI, c > 0.
b a b a
k k = entero + resto, 0 resto<1
c c c c
a {0, 1, 2,…, c - 1} a b / a b mod c , ZI= a
aZI c
Ejemplo8.1:
1. c = 1: entonces ZI1 = 0
a b mod 1 b – a = k · 1 = k, diferencia de entero siempre es un entero, luego si a = 0 b – a = b – 0
= b, entonces los congruentes con 0, también son aquellos enteros cuya diferencia es un entero y por lo tanto
todos los enteros están en la misma clase, así b 0 b ZI, 0 = ZI
2. c = 2 :entoncesZI2 = 0,1
a b mod 2 b–a=k·2=2·k
si a = 0 b – a = b – 0 = b = 2 · k 0 b / b es par
si a=1 b - 1 = 2k b = 2 k + 1 1 b / b es impar
3. c = 3 :entonces ZI3 = 0,1,2
a b mod 3: b–a=k·3=3·k
si a = 0 b – a = b – a = b = k · b múltiplo de 3
si a = 1 b–1=3·k b = 3 k + 1 b es el siguiente de un múltiplo de 3.
si a = 2 b = 3 k + 2 b es el sub-siguiente de un múltiplo de 3
luego 0 = {0, 3, 6, 9,…}, 1 = {1, 4, 7, 10,…} y 2 = {2, 5, 8, 11,...}
224
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo8.2
La pregunta puede también plantearse como: ¿con que número 500 es mod 3?.
Lo que equivale a plantearse la ecuación para a: a b mod 3,
b a 500 500 a
k , V k ZI,
3 3
en tal caso
c c 3
500 500 2
entonces a ·3 (166, 6 166)·3 0, 6·3 ·3 2
3 3 3
Observación
b b
Dados c IN, b ZI , la ecuación b a mod c; tiene solución a ·c
c c
Definición
Dados x0 IN, c IN, una sucesión {xn}, dada recursivamente mediante: xn = xn-1 mod c,
forma una secuencia de clases, denominada pseudo-aletoria congruencial, cuyo primer término x0 se denomina
semilla.
Observación
Ejercicio
Realizar secuencias de números pseudo-aleatorios en [0,1] a partir de los 3 criterios señalados: congruencial,
multiplicativo y mixto con semilla 100, a = 7, b = 3; calculado directamente y al efectuar programa en Turbo C para
simular números entre 0 y 1 al incluir procedimiento de su rutina interna random y comparar resultados.
225
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Para estudiar este tipo de problemas, es necesario disponer de algunos conceptos y resultados, de uso frecuente en
este ámbito y que dicen relación con tipos de convergencia de variables aleatorias. Tales definiciones, fueron
abordadas en el Capítulo 3 y Capítulo 4, que ahora reunimos en el siguiente párrafo:
Se dice que una sucesión de v.a. {Xn}todas discretas o continuas converge a una v.a. X, lo que anotaremos Xn X.
a) Débilmente: (o en probabilidad) anotándose Xn X siempre y cuando:
0 : lim P( X n X ) 0
n
Existen diversos resultados respecto a este tipo de convergencias, los que se conocen como Leyes de los grandes
números. Además, en la literatura, se refieren a los casos a) y b) como leyes débil y fuerte de los grandes números
(LDGN, LFGN), respectivamente. El caso (c) se utiliza ampliamente para estudiar eficiencia de estimadores.
Uno de los resultados centrales a que se recurre es el Teorema (L.F.G.N. Kolmogorov), el cual considera una
sucesión {Xn} de v.a. discretas o continuas i.i.d.
X n
c ·s
i) Si IE [Xi] =
ii) Si IE [Xi] = , V [Xi] =2 S2 = X n2 X n2
c·s
2
Estos resultados constituyen la base del cálculo para evaluación de “sumas”, series e integrales; metodología que se
conoce como Métodos Monte Carlo.
Solución
1, 0 x 1
1
U 0,1, densidad uniforme
I g ( x)·1 dx = 0 g ( x)·dF ( x) , con dF ( x) 0
1
0 EOC
I = IE [g(X)] =
g X 1 ... g X n c. s
Bajo la existencia de I = , entonces. Yn , con Yi = g (Xi)
n
226
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo8.3
1
I e x dx
2
Calcular aproximadamente:
0
Solución:
x2 1, 0 x 1
g(x)= e ≤ 1 , x [0,1], existe I= = IE [g (X)] con dFx =U [0,1] Simulando una
0, o.c.
m.a.(5) de X, se obtienen los siguientes valores xi , de observaciones de una m.a.(5) U[0,1], y podemos calcular
g(xi)
i 1 2 3 4 5
xi 0.1 0.3 0.4 0.2 0.7
g(xi) 0.99 0.91 0.85 0.96 0.61
5
g ( xi )
Luego, g 0.865 I
i 1 5
Ejemplo8.4
1 1
Calcular aproximadamente: I e
x2 y2
dxdy
0 0
Solución
x1 ,..., xn g ( x ) , I ... g x dx ,
1 1
En términos generales si g[0,1]k IR, x
0 0
puede apreciarse que: I = IE [g( X )], X U[0,1]k entonces X1,…, Xk, v.a. i.i.d U[0,1]
Disponiendo de m.a.(n) de X , X 1 ,..., X n , con X i X i1 ,..., X in , {Xij}v.a.i.i.d. U[0,1] ,i,j.
n
xi
Entonces: g x I , donde: g x g
c. s
.
i 1 n
x2 y2
En este ejemplo g (x, y) = e ≤ 1, luego al disponer de (xi,yi) m.a.(6)Uniforme en [0,1]x[0,1], o
equivalentemente dos m.a.(6) Uniforme en [0,1]:
I 1 2 3 4 5 6
xi 0.1 0.5 0.8 0.3 0.7 0.5
yi 0.3 0.2 0.4 0.9 0.4 0.6
g(xi,yi) 0.72 0.58 0.4 0.38 0.44 0.45
Luego g = 0.495 = I
227
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
0 1
h h 0
h h 0
Ejemplo8.5
I e x dx
2
Calcular aproximadamente:
0
Solución
Sabemos que I existe y que además I= / 2 0.8862 . Ahora, en los actuales términos,
2
1
1 1 1 1
I=
0
e x
x 2
dx g~( x )dx E[ g~( X )] g~( x )
0
Así que al disponer de una m.a.(10) de una v.a. X , Uniforme en [0,1], con observaciones:
i 1 2 3 4 5 6 7 8 9 10
xi 0.0016 0.8756 0.3740 0.7461 0.1854 0.9591 0.7302 0.5386 0.0384 0.9961
g~ (xi) 0 1.2781 0.4308 1.5998 0 1.0849 1.6361 1.6548 0 1.0077
Ejemplo8.6
Obtener m.a.(6) mediante Xn = 40 Xn-1 mod 70 con X0 = 10, y efectuar las integrales que se señalan:
X 40 X mod 70
b a k ·c 40·10 x1 k ·70 x1 400 k ·70
1 0 c
a b
con k 5 x1 50
Como tales números pseudo aleatorios se sitúan entre {0,1,....,69} entonces x/69 [0,1]; x/69 representa a las
observaciones de U[0,1] , así originadas.
228
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
i xi xi/69
0 10 0,145
1 50 0,725
2 40 0,58
3 60 0,87
4 20 0,29
5 30 0,435
6 10 0,145
1
1) 0 sen x2 dx sen(0,725)2+sen (0,53)2+sen(0,87)2+sen(0,29)2+sen(0,435)2+sen (0,145)2
= 0,0092 + 0,0059 + 0,0132 + 0,0015 + 0,0033+0,0004 = 0,0056
ln y 2 dy 3,0074+2,8434+3,1629+2,4857+2,6698+2.2894= 2,7431
3 1
ln x 3 dx
3
2)
2 0
Ejercicios
Disponiendo de una m.a.(10) , mediante método congruencial Xn= 53 Xn-1 mod 93, X0 =13, evaluar cada una de las
siguientes integrales:
ln 1 x 2 y 2 z 2 dxdydz ,
3 x2 y 2 dxdy
3 ln x dx ,
1 1 1
1
e ,
0 0 0 2 0
Ejemplo8.7
Teniendo en cuenta, que el valor , representa el área de la circunferencia unitaria, y que ésta se encuentra inserta en
un cuadrado también con centro cero y de lados 2:
Considerando:
un vec.a.X ( X 1 , X 2 ) uniforme sobre el cuadrado [-1,1]x[-1,1],
A = A( X )= B(0,1)= X / X 1 X 2 / , la Bola unitaria ( de centro cero y , radio 1);
2 2
Px A
#A Área de A
entonces 4 PX ( A) ,
# Área del cuadrado 4
luego, nuestro objetivo se reduce a, calcular aproximadamente PX (A) .
Deduzcamos entonces la distribución de X a partir de Y Y1 ,Y2 uniforme sobre el cuadrado [0,1]x[0,1]; el que
está conformado por Y1, Y2 v.a. i.i.d. U[0,1]
229
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
c, x 1,1 1,1
X ~ f X x c·I 1,1 ( x1 )· I 1,1 ( x2 )
0, e. o. c
Construyamos f X a partir de f Y ; lo que se reduce a obtener fxi a partir de fyi. Ahora, podemos lograr una v.a. X
v.a. U[-1,1], como una transfomación de una v.a. Y U[0,1], de la siguiente manera:
nos planteamos x = h(y), para lo cual basta considerar h una recta tal que h(0)=-1, h(1)=1,
dh dh 1 1
así h(y) = 2y – 1 , 2 ,
dy dy 2
1
f Y1 y1 ·2 ; h 0 x1 h 1 2
1
; 1 x1 1
f X1 x1
0 ; eoc 0 ; o. c.
entonces:
PX A f x x1 , x2 dx1dx2
11
· dx dx
1
dx dx E
I
2 2 1 2 B0,1 4 1 2 X A 1 2 Y A (Y )
x , x E
I X
B 0,1 B 0,1
2 2
A( X (Y )) Y Y1 , Y2 / 2Y1 1 2Y2 1 1 : A(Y )
Disponiendo de una simulación de y1 ,..., y n m.a.(n) de puntos y i [0,1] [0,1], correspondientes a observaciones
simuladas de Y Y1 ,Y2 uniforme sobre el cuadrado [0,1]x[0,1], calcularemos:
1 , yi A(Y )
zi entonces z 4z .
0 4
, e.o.c.
A continuación expondremos los métodos que se disponen para simular v.a. regulares (v.a. discretas o continuas).
Los métodos que se expondrán para generar este tipo de variables continuas se basan en disponer de una simulación
previa, de n observaciones de una variable aleatoria U[0,1].
ph < <
h 0
p
n 0
h X = xi
230
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Observación
Para una v.a. X con soporte previamente ordenado, en la práctica, el algoritmo de la transformada inversa: para F(xi –
1) ≤ < F(xi), actúa asignando X = xi, es decir, el valor simulado de tal v.a. X, es el primero en que su distribución
acumulada, supera un valor ya simulado de U [0,1] .
A continuación veremos dos casos muy conocidos de v.a. en que su algoritmo de simulación por el presente método
es de mayor complejidad.
231
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Algoritmo:
P1) Sea P1,…,Pn un reordenamiento de A.
P2) Dado ~ U [0,1]; i = [n ]+1
P3) Intercambiar Pi con Pn
P4) n = n -1 ; n < 1 ; Fin
P5) Ir a (P2)
La similitud entre Serie y Suma ( de números reales) radica en lo siguiente: si los últimos términos de la sucesión son
0, la serie formada por tales términos, se reduce a una suma (sumatoria de números).
Consideremos {ai}iN (una sucesión arbitraria) de términos general : entendemos por serie convergente de término
n
general ai , que anotamos a
i 1
i ; cuando la sucesión ai converge a un número real, siendo éste el
i 1 n
valor que asume la serie. En otro caso, se dice que la serie diverge.
Establecida la convergencia de una serie, el presente método tiene como objetivo aproximarnos a su valor
a ai .
i 1
De esta manera, al considerar una X v.a.d. que sepamos simular, caracterizada por una cuantía dFx(x) = f(x), con
soporte D: esta v.a. asume los valores X = xi = i , i D, luego f(i) = P(x = i).
ai ai
Siendo a = a f (i) · f (i) b · f (i) ,
iD
i
iD iD
i con bi =
f (i )
= g (i),
Sabiendo que la media muestral es un buen estimador de a, basado en X1,…, Xn v.a. i.i.d. , es decir m.a(n) de X, para
lo cual debemos simular x1,…, xn , n respuestas X ~ f, para estructurar g(x1),…, g(xn), y así disponer de aˆ g x ,
como una aproximación válida de a.
Este criterio, no sólo se restringe a series de números reales, ya que no depende de la operación u estructuras
algebraicas que gestan la serie, si no sólo del como seleccionar sus elementos.
232
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo8.8
n
ai
Aproximar n
i 1
n n
ai 1 1
Solución: n a ·n
i 1 i 1
i , i D = {1,…, n} , f(i) =
n
, i D, luego f es cuantía: UD .
Siendo 1,…, k simulación de U [0,1]; xi = [n i]+1, dispondremos de x1,…, xk, observaciones de X, para formar
a xi , i 1,..., k , y obtener aˆ a muestral.
Teorema:
Sean X, Y v.a. discretas con soporte y funciones de cuantía
f x j p j j D p j pj
, sea c cota superior de , es decir c , j .
f y j q j j D q j jD qj
entonces mediante el siguiente algoritmo se simula X ~ fX
Algoritmo:
P1: Simular Y = j , v.a. cuantía fy ; fy(y) = qy
P2: Simular v.a. U[0,1]
pj
P3: < ; X = j ; Fin
cq j
P4: ir a P1
Ejemplo8.9
Simular m.a.(3), de una v.a. X, discreta una función de cuantía fX dada por:
X=x -2 0 3 -10 1
fX (x) 0.1 0.3 0.1 0.2 0.3
Solución:
pj = fX (j), j D = {-2,0,3,-10,1}
~ ~
Sea Y ~ uniforme en {1,2,3,4,5}, entonces al considerar Y= Y ( Y ) , asociación mediante:
~y 1 2 3 4 5
~
Y( y ) -2 0 3 -10 1
1
se obtiene Y uniforme en D , así fY (j) = qj = = 0.2, jD
5
~
a) simulemos Y , para luego generar Y para ser utilizada como v.a. de referencia para X
233
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Siendo ~ U (0,1)
~y = [5 ] + 1
0.3 0.7 0.2 0.9 0.25 0.3 0.15 0.4 0.6 0.8
~y 2 4 2 5 2 2 1 3 4 5
y 0 -10 0 1 0 0 -2 3 -10 1
b) Simular la v.a. X
p j p j
b1) Obtención de c = sup , j D , como D es finito, entonces c= máx , j D
q j q j
j -2 0 3 -10 1
Pj 0.1 0.3 0.1 0.2 0.3
qj 0.2 0.2 0.2 0.2 0.2
pj 1 3 1 1 3
qJ 2 2 2 2
3
c = = 1.5 número medio de intentos para simular cada valor de la variable aleatoria x.
2
b2) Algoritmo
P1: Simular Y = j
P2: Simular ~ U[0,1]
2 pJ
P3: < ; X=j
3q J
P4: ir a (P1)
234
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Este método, se basa en que la variable aleatoria de interés, puede representarse, a través de una descomposición
basada en combinaciones lineales de otras variables aleatorias.
X con probabilid ad
X 1
X 2 con probabilid ad 1
Comentario
1. El soporte D de la variable aleatoria X que queremos simular nos permite buscar variables aleatorias X1, X2 con
soporte contenido en D y reducir cálculos de simulación a tales variables; cuyo soporte sea lo más reducido posible,
mientras tal descomposición lo permita.
2. Se recomienda estudiar descomposiciones de la v.a. X en términos de distribuciones que simplifiquen los cálculos
como por ejemplo explotar ampliamente las v.a. uniforme.
Ejemplo8.10
Solución:
1
A partir de X1 ~ UD f X 1 (j ) = =: pj , J D, , por determinar , qj , tal que:
7
2 1
Primeramente = + (1 - ) qj , j {1,2,3}
10 7
235
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
1 2 (1 ) 1
al asumir : qj = , j D, = + = ()
7 10 7 7 7
2 17
qj = 0 , j {1,2,3}, = = > 1 ()
10 7 7
1 2 (1 )
qj = j {1,2,3}, = + = 7/3 > 1 ()
10 10 7 10
2 14 10
qj = a , j {1,2,3}, = + (1 - ) a a
10 7 70(1 )
14 5 9
si = 0.5 a =
35 35
1
Ahora con = 0.5, al analizar el caso: (1 )q j , j {4,5,6,7}; qJ = 2/35.
10 7
1
Entonces X1 ~ f X 1 (j ) = , J D
7
9 / 35 , J 1,2,3
f X 2 (j ) =
2 / 35 , J 4,5,6,7
X2 ~
1 1
X ~ f X (j ) = f X 1 (j ) + f (j )
2 2 X2
Algoritmo:
P1: Simular u ~ U[0,1]
P2: u ≤ ½ ; Simular X1 = x1 ; x = x1; Fin
P3: > ½ ; Simular X2 = x2 ; x =x2 ; Fin
Comentario:
k
Si una v.a. X tiene distribución f X ( j ) i f X i ( j ) , j D numerable , se puede simular de la
i 1
siguiente manera:
se considera el conjunto I ={1,2,…, k} cuyos elementos tienen probabilidades i.
simular valor uniforme para simular un valor de iI , para luego simular valor xi de la v.a. Xi asociada al valor
anterior.
236
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
8.3.1.-Proceso Poisson
Observación:
Siendo {Nt} Proceso Poisson que nos indica el número de arribos en el lapso [0,T], T = 1; intervalo donde los eventos
ocurren de manera independiente, con frecuencia de ocurrencia, y en lapsos pequeños a lo más sucede una
ocurrencia; se deduce (véase sección 3.1.2.2) que tales variables aleatorias Nt poseen distribución Poisson de
parámetro , así, para un lapso T arbitrario Nt ~ Poisson de parámetro T.
Determinemos una metodología para simular el número de eventos Poisson que ocurre dentro de un lapso unitario T
= 1:
Al apreciar un proceso subyacente {Xi}, que nos indica el instante del tiempo en que ocurre el un evento del proceso
{Nt} desde que ocurrió el anterior evento, i IN; el cual podemos reconocer como el proceso constituido por v.a.i
que señalan los tiempos entre ocurrencias Poisson. Entonces
X1 : instante en que el 1er evento Poisson ocurre.
X2: tiempo en que ocurre el 2º evento desde que ocurrió el anterior.
i-1 i
0| | | | 1
X1 Xi
Entonces Xi representa el instante de ocurrencia del i-ésimo evento desde que ocurriera el
(i-1) -ésimo.
1
Xi ~ exp (), de media
N1: número de eventos que ocurren hasta t = 1.
N1: número total de llegadas cuyo tiempo entre ellas no exceda el valor de T = 1.
n
N1 = máximo n / X i 1
11
Simulación de N1:
Recordemos que los tiempos entre llegadas son v.a. iid, exp ( ).
1
Simulando i ~ U[0,1], entonces Xi = ln i ~ exp ()
n 1
N1 = máximo n / ln i 1
11
n 1 n n n
Pero
ln i ≤ 1 ln i - ln i - i e-
i 1 i 1 11 11
n
Así: N1 = máx n / i e (1)
i 1
n
Entonces N1+1 es tal que i < e-
11
Por lo tanto:
237
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
n
N1 = mín n / i e 1 (2)
i 1
Luego disponemos de expresiones alternativas (1) o (2), para simular la cantidad o número de eventos Poisson que
ocurren en lapso de tiempo T = 1.
Además, podemos extender este resultado, para un lapso arbitrario de amplitud T=t ,
NT : nº de ocurrencias en [o, t]
n t
NT = mín n / i e 1
i 1
Simulemos ahora los tiempos de ocurrencia de los eventos Poisson en [o, t]
Objetivo: Simular instantes de arribo y registrar número de eventos, en horario no superior a T, de un Proceso
Poisson .
Algoritmo:
Paso 1: t = 0 ; I = 0
Paso 2: Generar ~ U[0,1]
1
Paso 3: t = t + ln ; t > T ; Fin
Paso 4: Número de ocurrencias I = I + 1 ; S (I) = t ; hora de llegada del evento I.
Paso 5: Ir a P.2
Ejemplo: = 3
I=I+1 1 S(I) = t
ln
3
1 0.2 0.54 0.54
2 0.3 0.4 0.54 + 0.4 = 0.94
3 0.25 0.46 0.94 + 0.46 = 1.4 > 1
Algoritmo:
P1) t = 0, I = 0
P2) Generar ~ U[0,1]
1
P3) t = t ln u ; t > 1 ; Fin
3
P4) I = I + 1 ; S (I) = t
P5) Ir a (P2)
238
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Un proceso de esta naturaleza es aquel que se define con las propiedades del proceso Poisson ya mencionado
levantando la exigencia de incrementos estacionarios, por ende, imponiendo la condición de que la tasa de
ocurrencias en un instante t es función del tiempo.
Siendo NT un proceso Poisson no homogéneo con tasa de ocurrencia t , t > 0 satisface lo siguiente:
a) N(0) = 0
b) Número de ocurrencia en intervalos disjuntos es independiente. (N(t), N(t + s) – N(t) v.a.i)
ocurra un evento en t , t n
c) lim IP (t )
n 0 n
IP ocurra un evento en [t, t + n] ~ t · n n – pequeño.
ocurra un evento en t , t n
d) lim IP 0
n 0 n
Observaciones:
1. Un proceso no homogéneo con tasa de llegadas (t) = , cte. se denomina homogéneo y es coincidente con
el proceso Poisson mencionado anteriormente.
2. Los incrementos son variables Poisson con la siguiente propiedad:
N (t + s) – N (t) es una v.a. Poisson con m (t + s) – m (t) P(m (t + s), m (t))
0 s ds
t
m (t) =
3. (t) (Tasa de ocurrencia) de un proceso Poisson no-homogéneo también se denomina función de
intensidad.
4. Una de las interpretaciones que más nos interesa corresponde a una de sus aplicaciones más importantes.
Si un proceso Poisson homogéneo de tasa ocurre, e independientemente registramos en cada instante t del
tiempo tales ocurrencias pero con probabilidad p (t); entonces el proceso así originado es un Poisson no homogéneo
con tasa (t) = · p (t).
Demostración:
Sea {z t} el proceso que consiste en contabilizar con probabilidad p(t) la ocurrencia de un evento regido por un
proceso Poisson con tasa de ocurrencia.
Por demostrar que la función de intensidad (t) asociado a {Zt} está dada por (t) = p(t)
Zt: contabiliza con probabilidad p(t) el nº de eventos en lapso [0, t] de un proceso Poisson con tasa de ocurrencias.
Sea h pequeño:
P (registrar un evento en [t, t + h])
= P ((ocurra un evento en [t, t + h] ^ este evento sea registrado) v (ocurra más de un evento en [t, t + h] ^ la
registremos)).
= P ((ocurra un evento en [t, t + h] ^ este evento sea registrado) + P (ocurra más de un evento en [t, t + h] ^ la
registremos)).
= P ( ocurra un evento en t , t h ^ sea registrado )
B A
= P (ocurra un evento en [t, t + h] · P (sea registrado / ocurra un ciento))
= · h · p (t)
registra un evento en t , t h hpt
P( pt
h h
239
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
t
Podemos descomponer (t) = · = p (t)
t
p (t) = probabilidad de contabilizar ocurrencias de Proceso Poisson con tasa .
Para > (t) > 0, fijo
Para reducir complejidad, es conveniente considerar como la menor de las cotas superiores de (t). Esto nos
conduce obligatoriamente a la determinación de puntos extremos de (t).
Algoritmo: Este algoritmo debe reflejar ocurrencias de proceso Poisson con tasa y ser registrados según p (t) =
t
P1) t = 0 ; I = 0;
P2) Generar , ~ U[0,1]
1
P3) t = t - en , ; t > T; Fin;
P4) Generar n 2 ~ U[0,1]
t
P5) 2 > p (t) = ; ir a P2)
P6) I = I + 1 ; S(I) = t;
P7) Ir a P2).
Ejemplo8.11
Estudiemos en un lapso de amplitude T = 1; un proceso Poisson no-homogéneo con función de intensidad (t) = 2 +
t, efectuando su simulación.
(t) = 2 + t < 2 + 1 = 3
t 2 1
Tal proceso puede ser descrito como el registro con probabilidad p (t) = - de eventos Poisson con tasa
3
= 3 de ocurrencia
1 1 T P(t) n2 I = I +1 S(I)
- en 1
3
0.72 0.109 0.109 0.703 0.44 1 0.109
0.74 0.100 0.209 0.736 0.93 1 0.109
0.52 0.217 0.426 0.809 0.91 1 0.109
0.39 0.313 0.739 0.913 0.93 1 0.109
0.27 0.436 1.175 0.22
0.53 0.211 0.18
0.17 0.590 0.60
n-emulaciones de realizaciones en lapso [0, T]; y calcular las correspondientes estadísticas de las variables en
estudio.
Demostraciones pendientes
a) Los tiempos Xn hasta que ocurre el evento n luego del -1 (tiempo entre los sucesos -1 y n); son v.a.
exponenciales exp ().
Demostraciones:
X1: es el tiempo hasta que transcurre el primer evento Poisson P().
{X1 > t} es un suceso que representa la ocurrencia de que el 1º evento P() ocurra más allá de t instantes.
en [0, t], N(t) = 0
con N(t) = número de ocurrencias del Proceso Poisson ( ) hasta el instante t.
d dFX1 t
1 – FX1 (t) = e-t / , que al derivar resulta - -e-t
dt dt
e t , t 0
FX 1 t Así, X1 ~ exp ()
0 e.o.c.
Para X2: tiempo hasta que ocurre el 2º evento luego de ocurrido el 1º.
n
Además: Sn = xi ~ (n, ) / * Gamma*/
i 1
b) En {N (t)} Proceso Poisson, se satisface: N (t) ~ P (t) ; N (t + s) – N (t) ~ P (t)
Demostración:
t
/ n
0
t
t
Dividamos el lapso [0,t] en n-segmentos de igual amplitud:
n
t
Siendo h = 0; es válido en c/u de estos segmentos que: la probabilidad de que ocurra un evento
n grande
n nao
es proporcional al lapso.
t t
P(N (h) = 1) = h P (N ( )= 1) = = t = p =
n n
ht h 1t
Luego en n , n tenemos:
241
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
h 1t ht t ht t
P N N h 1 p
n n n n n
t
En cada intervalo de amplitud disponemos de una v.a. Y~ p (1, p).
n
t t ht
Fy = FN = FN h 1 N
n n n
De esta manera:
n ht t
N(t) = N(t) – N(0) = N n N h 1 n
k 1
Yk
n
= yh , tq Fyk Fy y ~ 1, p
h1
Como los incrementos son v.a.; esto es yh-1, yh son v.a.; además id (1, p)
t
Además: np = n = t = cte ; n grado.
n
lim FN t x
t x e t = Poisson P(t)
n x1
Este método se refiere a la metodología basada en la generación de números aleatorios descrita en 3.1.3.3),
mediante aplicación directa de la transformada inversa de la función de distribución que describe la ley de
aleatoriedad de la variable de interés.
Este método es una extensión de su similar expuesto anteriormente para v.a. discretas. Bajo condiciones de
F y
regularidad la constante C sup yD X , D; soporte de X e Y.
FY y
A diferencia de lo anterior ahora podría ser obtenida como punto extremo de tales cuocientes utilizando cálculo
diferencial (derivando con respecto de Y luego obtener puntos críticos y entonces extremos)
Características de este algoritmo: Son idénticas al algoritmo anterior en su estructura como en su complejidad.
242
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo8.12
3 x r 1
Sea X ~ ,1 ; e-x ;x > 0
r
FX(x) =
2
3
Simular X x , =1
2
Solución:
r X r 1
FX (x) = e-x
3
2
(1) 3 / 2 x 3 / 21 x x ex
e
=
3 / 2 32
3 3 3 1 1
1 1
2 2 2 2 2 2
2
· xe x ,x 0
FX x
0 e.o.c.
+
D = soporte de v.a. X = IR
e y
,y 0
Siendo Y ~ exp (); Fy (y) =
0 e.o.c.
D: soporte v.a. Y = IR+
1 1 y 1
y1/ 2 1e y 1
dh 2
e
dy 2 y
243
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
1 1
e y 1
2
= y 2 1
2 y
dh
1 y 0
1
0
dy 2 y
1 + 2 ( - 1) y = 0
1
y
2 1
Casos a considerar
2
=1 h (y) = y½ , y > 0 : no acotada.
1
>1 h (y) = <0 D
2 1
0 < < 1 ; valores factibles para (parámetros útiles).
1
2 1 1
e 2 1
2 1
C = C () =
2 1 1
= · e 1/ 2
21
Complejidad (media) del algoritmo es C() que la podemos reducir, considerando
C = min C ()
0 1
2e
1 / 2
1
= min ·
0 1 2 1
C (0) = C
max 0 1 = 0 1 0
0 1
1 y obtengamos 0
Sea g () =
dg 1
() = 1 · (-1) = 2 (1 - ) - = 2 -3
d 1 2
dg 2
() = 0 2 - 3 = 0 0 punto crítico y máximo.
d 3
2e 1/ 2 1 3 1
C = C (0) = · 3 1.25
2 2 1 2 e
3
3
b) valor de comparación:
244
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
2 1 y 2 1
y 2 e 3
2
Fx y h y 3
cF y y
=
c 3 1
3
2 e
2 12 y 32 1 1
= y e
3 2
2 y3
= ye e
3
3
c) Algoritmo para simular v.a. X ~
2
2
Simular v.a. Y ~ exp
3
3
P1 Generar n1 ~ U[0,1]; y = ln u ;;
2
P2 Generar n2 ~ U[0,1]
2
P3 Si n2 < y e e-y/3 ; X = y
3
P4 a P1
Ejercicio8.13
Solución:
a) Identificar distribución de la v.a. X para x > 0.
Fx (x) = P (X ≤ x)
= P (|z| ≤ x)
= P (-z ≤ x ≤ z)
= Fz (x) – Fz (-x)
= Fz (x) – (1 – Fz (x))
= Z Fz (x) – 1 , z ~ N (0,1) regular
Fx x Z Fz x 1 = 2 fz (x)
d d
fx (x) =
dx dx
Si x < 0: P(|z| < x) = P () = 0 Fx (x) = 0 fx (x) = 0
2 f x , x 0
f x x z
0 , e.o.c.
245
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
2 2
x2
e ,x 0
= 2
0 ,x 0
y
Sea g (y) = y
2
g’ (y) = y - = 0 y =
2
y
0
y
- = 0 y = 2
z
Si y = -=- <
2 2
2
g (y) = g () =
2 2
2 2 2
c () = exp 2 e2
2 2 2
246
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
2
2 2
C ( ) = e
2
Luego toda exponencial puede utilizarse como referencia y la complejidad A – R es este valor C ()
2 2 1
= e 1 2
2 2
dc 1
1 0
2
0 1 2 0
d 1
Algoritmo:
P1) Simular y, w: v.a. exp (1) independientes.
P2) w >
1
1 y 2 ; X = y
2
P3) Ir a (P1)
Algoritmo resultante:
P1) Generar , u2 v.a. U[0,1]
P2) y = ln n1, w = -ln u2
P3) w >
1
1 y 2 ; X = y
2
P4) Ir a (P1)
2 f z x ; x 0
Así: fx (x) =
0 ;x 0
1
f x x , x 0
fz (x) = 2
f x x x 0
1
2
1
X , si n
Z1 = 2 , n ~ U 0,1
1
X , si n
2
= 1 Fx (t) + 1
2 2
dFz1 1 dFx 1 f (t) = f (t)
fz1 (t) = = · =
dt 2 dt 2 x z
= 12 - 12 Fx (-t)
dFz1
fz1 (t) = = - 12 fx (-t) (-1)
dt
= 12 fx (-t) = fz (t)
fz1 (t) = fz (t) , t IR
2
2 x2
P1) Simular X ~ fx (x) = e , x>0
2
P2) Simular ~ N U[0,1] 249
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
P3) ~ ≤ ½ ; z = x
1
P4) ~ > ; z = -x
2
P5) w = + z , (con lo que opcionalmente se logra w ~ N (, 2))
Ejercicio propuesto: Exponer en detalle método para simular v.a. normales con Matriz
Var-covarianza especificada y programa correspondiente.
250
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
X2
X1
D X : Soporte de X D X = IR x IR = IR2
x1 M cos
g Coordenadas polares
x2 M sen
X
g : IR2 IR+ x IR , x = (x1, x2) g ( x ) = (M ( x ), ( x )) = X 12 X 22 , arcta 2
X1
Sea:
D = M2 M = d
Entonces:
x1 d cos
x2 d sen
Sea:
g1 : IR2 IR+ x IR1 , x = (x1, x2) g1 ( x )
con g1 ( x ) = (d, )
=
2 X
X 1 X 22 , arctg 2
X1
251
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Od Od 2 x1 2 x2
Ox1 Ox2
Jg1 = = 1 X2 1 1
O · ·
O X
2 X
1 X
2 X1
Ox 1 2 1 2
1 Ox1 X1 X1
2 x1 2 x2
2 X1 X2
Jg1 = =
X2 X1 X 12 X 22 X 2 X1
X 12 X 22 X 12 X 22
Jg1 =
X 12
2
X 22
X X
2
1
2
2
1
Jg1-1 =
2
Así
f x x d , Jg11 d , g1 Dx
g1 = (d, ) ~ fg (d, ) =
0 e.o.c.
Pero:
X12 X 22
d
f x x
1 1
e 2 e2
2 2
1 d 1
(d, ) ~ f(d, ) (d, ) = e 2· (d, ) R+ x [0, 2]
2 2
Además:
f(d, ) (d, ) = U U( ) exp (d; ½)
0,2
~ U[0,2]
d ~ exp (1/2)
, d independientes.
= 22 2 ~ U[0,1]
1 , 2 v.a.i.
b) Método Polar
Siendo 1 , 2 v.a.i.i.d. U[0,1]
V1 = 2 1 -1 V1,V2 v.a.i.i.d U[-1,1]
V2 = 2 2 -1
Denominemos por:
B(0,1) = w V ,V / V
1 2 1
2
V22 1
Consideremos entonces, este conjunto de puntos w en el espacio bidimensional, que son uniformes en el disco
unitario, región, que usualmente se anota de la forma señalada.
1
w V1 ,V2 B0,1
Así f w (V1,V2) =
0 eoc
V1 V1 V2 V2
cos = sen =
V12 V22 R V12 V22 R
V R cos
R= V12 V22 1
V2 R sen
Determinar comportamiento de (R, ) = h (V1, V2)
h
(V1, V2)
(R, )
OV1 OV1
OR O cos R sen
Jn-1 = =R
sen R cos
OV2 OV2
OR O
f w wR, ·J n1 hB0,1
f(R, ) (R, ) =
0 eoc
1
R, 0 R 1 0 2
=
0, o.c.
1
2R , 0 R 1,0 2
2
f(R, ) (R, ) =
0, o.c.
253
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
= U · fR (R)
0, 2
2 R, 0 R 1
Con fR (R) =
0 eoc
dR 1
Siendo S = IR2 R = S
dS 2 S
dR 1
FS (S) = fR (R(S)) · 2 S· ,0<S<1
dS 2 S
1, 0 S 1
fS (S) =
0, eoc
S ~ U[0,1] inde
Ejemplo8.14
Considere la siguiente secuencia de mínimos aleatorios en [0,1] para simular una m.a.(2) de
a) Una v.a. X ~ N (2, 9)
b) Una v.a. X
~ N (0,
I2)
c) Una v.a. Y = A X + B, donde
X es N (0, I)
b1 a1 a2
B = A =
a 4
,
b2 a3
1 2 3 4 5 6 7 8 9 10
1 0.1 0.6 0.7 0.3 0.5 0.6 0.7 0.8 0.9 0.99
2 0.9 0.4 0.2 0.9 0.47 0.75 0.83 0.91 0.9 0.8
3 0.8 0.3 0.9 0.4 0.72 0.4 0.2 0.4 0.9 0.4
Solución:
X 2
Al considerar X ~ N (2, 9), entonces Z = ~ N (0,1)
3
Siendo Y = |Z|, resulta
254
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
2 y 22
2 e ,y0
Y ~ fy (y) =
0 y0
u1 u2 u3 u4 y w 1 w>h |z| z x
(1 – y)2 = h
2
0.1 0.9 0.8 no 2.3 0.105 0.848 no - - -
0.6 0.4 0.3 si 0.51 0.916 0.119 si 0.51 0.51 3.532
0.7 0.2 0.9 no 0.357 1.609 0.207 si 0.357 -0.357 0.929
Muestra de tamaño 2.
b) Un v.a. X ~ N (0, I2)
P1) Simular u1, u2 v.a. iid U[0,1]
P2) V1 = 2 u1 -1 ; V2 = 2 u2 -1 ; S = Y1
2
Y22 ;
P3) S > 1 ; Ir a P1)
Vi
P4) xi = 2 ln S ; i =1, 2
S
V1 V2 S
2 ln S
Xi = Ui i = 1.2
u1 u2 2 u1 -1 2 u2 -1 V12 V22 S>1 s
0.3 0.9 -0.4 0.8 0.8 no X1 = -0.298 ,X2 = 0.597
0.5 0.47 0 -0.060 0.0036 no X1 = 0 ,X2 = -3.355
0.6 0.75
255
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
f (x) = + f (x) -
f x
= + (1 - )
1
f x
= · 1 + (1 - )
1
1 ,0 x 1 U 0,1
g (x) =
0
e.o.c.
= f (x) = = U[0,1]
f x f x f1 x
f2 (x) = =
1 1
Así: f (x) = f1 (x) + (1 - ) f2 (x) 0<x<1
Por lo tanto:
Fx (x) = P (X ≤ x)
= P (Población 1) P (X ≤ x / x Población 1) +
P (Población 2) P (X ≤ x / x Población 2)
Pob. 1 V Pob.2 = Viceversa.
(Pob. 1) (Pob. 2) = (disjuntas)
pob
Población 1 con comportan f1
Población 2 con comportan f2 1 -
Fx (x) = P (X ≤ x | x ~ f1) + (1 - ) P (X ≤ x | X ~ f2)
x x
= f1 (t) dt r (1 - ) f2 (t) dt
x
= ( f1 (t) + (1 - ) f2 (t)) dt
x
= f (t) dt
Comentario: Para poblaciones que por ejemplo presenten una característica bimodal es posible que ellas obedezcan a
una mezcla, composición o combinación lineal de leyes de comportamiento de varias poblaciones; el desarrollo
anterior muestra el como efectuar tal descomposición en un caso simple.
Además el declarar
f(x) = f1 (x) + (1 - ) f2 (x)
256
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Algoritmo:
P1) Simular n ~ U[0,1]
P2) Si n < ; simular y1 ~ f1 ; x = y1
P3) e.o.c. ; simular y2 ~ f2 ; x = y2
Siendo el valor grande ( 1) se presenta la conveniencia de utilizar este método ya que al simular la variable X
tiende a parecerse a una uniforme.
Ejemplo8.15
Para X v.a.c. con densidad f (x), siendo 0 < < 1; f (x) = f1 (x) + f (x) - f1 (x)
f1 : densidad de apoyo.
f x f1 x
f (x) = f1 (x) + (1 - )
1
con f2 (x) = (f (x) - f1 (x)) / (1 - )
Descomposición (mezcla de x)
Algoritmo: (Para simular x)
P1) Simular n ~ U[0,1];
P2) n < ; simular y1 ~ f1; X = y1
P3) Simular y2 ~ f2 ; X = y2;
f ( x)
= , jx
f1 ( x )
f x
basta considerar: inf xDx
f1 x
n
f x i f i x
f n1 x i 1
n
1 i
i 1
257
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
El objetivo de esta sección es simular el flujo resultante de un modelo probabilística que se caracteriza por el ingreso
de objetos a un sistema en donde son procesados de acuerdo a reglas específicas del particular sistema, para
posteriormente abandonar el sistema. Procederemos a estudiar desde el punto de vista de la simulación aquellos
problemas conocidos como experimentos de espera, filas de espera que escapan a lo abordado en Capítulo VII.
Esta área puede ser identificada también como el estudio de fenómenos cliente – servidor, ya que gran parte de tales
fenómenos la componen objetos que concurren a un sistema a requerir un servicio para luego retirarse.
En nuestro estudio nos interesa disponer de estimaciones de las cantidades de objetos que circulan en el sistema e
instantes en que ocurren eventos dentro del sistema.
Para simular situaciones como las anteriores consideramos dos tipos de elementos
Parte 1: Para ejecutar una simulación se realiza un seguimiento permanente de ciertas variables
que son identificadas como:
a) Variable tiempo (t): que se refiere al tiempo t transcurrido.
b) Variables de conteo o contadores: Se registra el recuento del nº de veces que ciertos eventos han
ocurrido, hasta el instante t.
(Es decir, contabiliza lo ocurrido en (0, t))
c) Variable Estado del Sistema: (ES) Naturalmente describe el nº de elementos en los distintos estados
del sistema.
- Los tiempos en que ocurren los eventos.
- La cantidad de particulares eventos que han ocurrido.
- Las cantidades de eventos que se encuentran en los distintos estados del sistema.
Parte 2: Cada vez que ocurre un evento valores de tales variables son actualizados.
Como salida se reúnen los datos de interés para determinar el momento de ocurrencia del siguiente evento
se mantiene una lista de eventos y el momento en que se espera acontezcan.
Los modelos de filas que consideramos a continuación representarán sistema de llegada y servicios con
distribución.
258
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
G (General o arbitraria)
Considerando que las más diversas arquitecturas de sistema se pueden descomponer en combinaciones o
acoplamiento de sub-internas en serie o paralelos a continuación simulaciones basadas en estos dos tipos.
Salida
Entrada
(arriba)
Servidor
La modalidad del servicio es que el servicio atiende al primero que llega al sistema y luego continuará con el que ha
esperado más tiempo.
t – fijo, luego del cual no se sostienen más llegadas entonces el servidor atiende a todos los que están en el
sistema.
Nos interesa simular cantidades como la siguiente y tiempo X de cada cliente en la fila, ene. Sistema hora y hora X
en que el servidor termina la tarea, es decir, hora en que sale del sistema el último cliente.
Nota: Los elementos centrales a considerar para simular un sistema como el señalado son los siguientes.
tp : Tiempo extra o sobre tiempo en el tiempo más allá del T, en que sale el último cliente.
¿A qué hora sale el último cliente?
T + tp hora de salida del último cliente.
Algoritmo: Una fila, un servidor en [0, t]
259
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
S
A D
Arribos Salidas
Servidor
LE = (tA, tD)
Etapa 3: Para actualizar el sistema avanzamos en el tiempo hasta que ocurre el siguiente evento. Por lo tanto nos
enfrentamos a uno de los siguientes casos dependiendo del menor elemento de la lista e eventos.
0 t
Situaciones:
tD
1) tA ≤ tD
tA ≤ T
0 tA t
Llega un cliente antes que (cierre el servicio) el servidor se
desocupará.
t = tA;
NA = NA + 1;
N = n + 1;
Se modifica LE:
2) tD ≤ tA tD ≤ T
tA
Ocurre una salida antes que alguien
llegue.
tD = t;
ND = ND + 1;
n = n – 1; 0 tD t
260
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
3) n > 0 hay gente dentro del sistema T < min {tA, tD}
Si n > 0 y ~ G1 ; tD = t + y
Proceder nuevamente como en 3.
Si n = 0 ir a 4)
Tp: máx {0, t - t} demora más allá del T que el servidor necesita para retirarse (atender al último cliente)
(tiempo extra del servidor para terminar su labor)
Ejemplo8.16
[0,10] [minutos]
t NA ND n tD tA A(NA) D(ND)
0 0 0 0 +
0.76 1 0 1 + 0.76 0.76
0.76 1 1 0 0.76+0.08 0.76 0.76
1.16 2 1 1 + 1.16 1.16
1.19 3 2 1.19 1.19
261
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
tA tD NA ND n
0.76 + 1 0 1
0.76 0.84 1 1 0
1.16 1.56 2 1 1
1.19 1.56 3 1 2
1.49 1.56 4 1 3
1.56 1.56 5 2 3
1.78 5 3 2
2.08 5 4 1
2.1 5 5 0
En esta ocasión nos interesa los tiempos que un cliente pasa por cada sistema en forma secuencial, así también como
las llegadas y salidas del sistema completo.
2) Las variables:
a) La variable tiempo t.
b) Conteo; NA: nº de llegadas al sistema en [0, t]
NA: nº de salidas del sistema en [0, t]
c) Estado del sistema: ts = (n1, n2)
n1 = nº de elementos en subsistema 1.
n2 = nº de elementos en subsistema 2.
4) Registro de Salida:
D (n): hora de salida del cliente n-ésimo (del sistema)
Ai (n): hora de arribo al sub-sistema del cliente n-ésimo.
E1) Iniciación:
t=0 NA = ND = 0 ts = (n1 = 0; n2 = 0) t1 = t2 = +
Generamos t0 = hora de arribo del 1º cliente tA = t0.
E2) en un avance en el t0
Estamos en instante (hora) t; ES = (n1, n2)
LE = (tA, t1, t2) las situaciones a analizar dependen del menor valor de LE.
E3) Actualizamos:
Nos movemos en t hasta que ocurre un evento registrado en t0 LE. Sea yi ~ Gi: t0 demora de el cliente en servidor i.
Situaciones:
t = tA
NA = NA+1 n1 = n1+1
Generamos TT hora de siguiente llegada tA = Tt;
Si n1 = 1 generamos su salida de este sub-sistema.
t1 = t + Y1 ; Sea Yi ~ G1
Registrando salida; A (NA) = t
2) t1 = mín (tA, t1, t2)
t = t1 ;
n1 = n1-1 , n2 = n2+1;
Si n = 0, t1 = ;
En otro caso t1 = t + Y1 Y1 ~ G1
Si n2 = 1 generamos Y1 ~ G1 t1 = t + Y2; registro de salida A2: (NA – n1) = t
3) t2 = mín (tA, t1, t2)
t = t2
ND = ND+1
n2 = n2-1
Si n2 = u ; t2 = +
Tarea
1) Estudiar algoritmo para k-servidor.
2) Listados:
tA t1 t2 NA N1 N2 A1 A2 ND D
0.5 + + 1 1 0 0.5 0 0 0
3) Estadística: tipo medio de espera en cada fila sistema nº de medio de elementos de cada fila.
Queda como ejercicio propuesto, para analizar según las diversas opciones que deban contemplarse en base a las
siguientes consideraciones:
G: Distribución del tipo de atención
T: tiempo fijo
Variables de tiempo
t: vble. o tipo
Variables a conteo
NA : nº de llegadas
ND : nº de salidas
/* Si no hay clientes tD = */
263
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Algoritmo:
Paso 1 : t = NA = ND = 0
ES = 0
Paso 2 : T0 = tA
Hint: el algoritmo debe permanentemente mantener una lista actualizada de los clientes en el sistema según el
instante en que llegan a las diferentes etapas de éste.
Ejemplo 8.17
En una empresa de certificación de calidad en motores de inducción mono-polares trifásicos de imanes perpetuos,
ocupados en grandes cantidades en correas transportadores de la minería debido a sus muchas prestaciones y
confiabilidad, trabaja con un sistema experto que es el encargado de realizarle las pruebas necesarias para la
certificación de ellos. El sistema consta de una correar transportadora que se encargar de llevar los motores hacia una
cúpula donde se encuentran los brazos robóticos, manejados por el sistema experto, que se encargan de realizarle las
pruebas necesarias para certificar los motores. En la Fig.1 se muestra un esquema del sistema.
Para poder optimizar el funcionamiento del sistema experto implementado se necesita calcular los parámetros del
sistema, además se desean calcular las siguientes probabilidades:
264
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Desarrollo:
17
𝜌= = 0,85
20
𝜆 17
𝑊= = = 5,667 [𝑀𝑜𝑡𝑜𝑟𝑒𝑠]
𝜇 − 𝜆 20 − 17
El valor esperado del número de motores en la fila, esperando para ser atendidos es:
𝑊 5,667
𝑇𝑠 = = = 0,283 [ℎ𝑜𝑟𝑎𝑠]
𝜇 20
𝑇𝑠 0,283
𝑇𝑤 = = = 0,333 [ℎ𝑜𝑟𝑎𝑠]
𝜌 0,85
𝑃(𝑡𝑠 > 𝑔) = 𝜌𝑒 −𝜇(1−𝜌)𝑔 Para g=0,75 𝑃(𝑡𝑠 > 0,75) = 0,85𝑒 −17(1−0,85)0,75 = 0,1255
265
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Un sistema de control debe manejar la descargar de 7 estanques que realizan mezclas primarias de un componente
para luego ser descargadas hacia un camión. La salida de cada estanque está conectada a una tubería central que da
hacia el camión, esto se muestra en la Fig.2. El sistema de control activa la descarga de un estanque cuando este
alcanza la temperatura de mezcla ideal, pero a su vez se preocupa de que mientras un estanque descarga los otros que
estén listos queden a la espera de ocupar la tubería central teniendo en cuenta que el primero que entra en espera es el
primero en ser atendido.
Por otro lado el tiempo promedio de mezclas listas sucesivas es de 1 hora por estanque mientras que el tiempo
promedio de descarga por estanque es de 20 minutos.
Desarrollo:
Se tiene que:
𝜆=1
1
𝜇= =3
1
3
Por lo tanto
1
𝜌= = 0,33
3
266
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑃𝑛(𝑡)
n m m!/(m-n)! 𝜌𝑛 𝑃0 (𝑡)
0 7 1 1 1
1 7 7 0,33333333 2,33333333
2 7 42 0,11111111 4,66666667
3 7 210 0,03703704 7,77777778
4 7 840 0,01234568 10,3703704
5 7 2520 0,00411523 10,3703704
6 7 5040 0,00137174 6,91358025
7 7 5040 0,00045725 2,30452675
𝟕
𝑃𝑛 (𝑡)
∑ = 45,73
𝑃0 (𝑡)
𝒏=𝟎
𝑃0 = 0,00219
𝜆+𝜇 1+3
𝐿=𝑚− (1 − 𝑃0 ) = 7 − (1 − 0,00219) =3.00876 [Cantidad de estanques]
𝜆 1
𝐿 4,0656
𝑇𝑠 = = = 1,3582 [𝐻𝑜𝑟𝑎𝑠]
𝜇(1 − 𝑃0 ) 3(1 − 0,00219)
1 1
𝑇𝑤 = 𝑇𝑠 + = 1,3582 + = 1,6915 [𝐻𝑜𝑟𝑎𝑠]
𝜇 3
267
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo 8.18
Una fábrica de producción de carbón vegetal posee 7 hornos que se encargan de carbonizar paquetes de maderos (un
paquete es igual a 100 kilos de madera) que entran a ellos manejados por una correa transportadora. El esquema de
esta distribución se muestra en la Fig.3. Por su lado el sistema de control se encarga de manejar todo el
accionamiento de la correa y la carbonización en los hornos para lo cual posee sensores que avisan cuando un horno
está ocupado y en tal caso la correa transportadora deberá direccionarse hacia otro horno, creando así una fila de
espera con varios servidores para carbonizar los maderos
Por otro lado la cantidad de paquetes que llegan en promedio a la correa transportadora es de 1 por segundo y
además cada horno se demora 5 segundos en promedio en quemar un paquete.
Desarrollo:
Se tiene que:
𝜆 = 1 [𝑃𝑎𝑞𝑢𝑒𝑡𝑒𝑠/𝑆𝑒𝑔𝑢𝑛𝑑𝑜]
1
𝜇= = 0.2 [𝑃𝑎𝑞𝑢𝑒𝑡𝑒𝑠/𝑆𝑒𝑔𝑢𝑛𝑑𝑜]
5
𝑆 = 7 [𝐻𝑜𝑟𝑛𝑜𝑠]
𝜆 1
𝜌= = =5
𝜇 0.2
Se tiene que:
268
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
𝑆−1 𝑆−1
1 𝑛 1 𝑆 𝑆𝜇 −1 1 1 7 ∗ 0,2 −1
𝑃0 = (∑ 𝜌 + 𝜌 ) = (∑ 5𝑛 + 57 ) = 0,00598
𝑛! 𝑆! 𝑆𝜇 − 𝜆 𝑛! 7! 7 ∗ 0,2 − 1
𝑛=0 𝑛=0
El valor esperado del número de paquetes esperando entrar a un horno (o sea en la fila):
𝜆𝜇𝜌 𝑆 1 ∗ 0,2 ∗ 57
𝐿= 𝑃0 = ∗ 0,00598 = 0,81037 [𝑃𝑎𝑞𝑢𝑒𝑡𝑒𝑠]
(𝑆 − 1)! (𝑆𝜇 − 𝜆) 2 (7 − 1)! (7 ∗ 0,2 − 1)2
𝜆 1
𝑊=𝐿+ = 0,81037 + = 5,81037 [𝑃𝑎𝑞𝑢𝑒𝑡𝑒𝑠]
𝜇 0,2
Considerando los cálculos anteriores tenemos que el tiempo esperado de espera de los paquetes de madera en la
correa es:
𝐿 0,81037
𝑇𝑠 = = = 0,81037[𝑠𝑒𝑔𝑢𝑛𝑑𝑜𝑠]
𝜆 1
1 1
𝑇𝑤 = 𝑇𝑠 + = 0,81037 + = 5,81037 [𝑠𝑒𝑔𝑢𝑛𝑑𝑜𝑠]
𝜇 0,2
La empresa que maneja el sistema de control del problema 1b ha decidido agregarle una segunda tubería y un
segundo camión para la descarga, para así disminuir el tiempo de espera en la fila.
Desarrollo:
1
𝜆 = 1, 𝜇 = 1 =3
3
1
Por lo tanto S=2 , 𝜌 = 2∗3 = 0,1667
𝑚 𝜆
( ) ( )𝑛 0≤𝑛≤𝑆
𝑃𝑛 𝑛 𝜇
=
𝑃0 𝑚! 𝜆
( )𝑛 𝑆<𝑛≤𝑚
{(𝑚 − 𝑛)! 𝑆! 𝑆 𝑛−𝑆 𝜇
269
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
n m Pn/P0 Pn
0 7 1 0,10196161
1 7 2,33333333 0,23791042
2 7 2,33333333 0,23791042
3 7 1,94444444 0,19825868
4 7 1,2962963 0,13217245
5 7 0,64814815 0,06608623
6 7 0,21604938 0,02202874
7 7 0,03600823 0,00367146
Tabla 1
𝑊 2,32550
𝑇𝑆 = = = 0,49749 [𝐻𝑜𝑟𝑎𝑠]
𝜇(𝑊 − 𝐿) 3 ∗ (2,32550 − 0,76733)
1 1
𝑇𝑊 = 𝑇𝑆 + = 0,49749 + = 0,83082 [𝐻𝑜𝑟𝑎𝑠]
𝜇 3
Ejemplo8.19
Una empresa de ensamblaje de motores de inducción mono-polares trifásicos de imanes perpetuos posee una línea de
montaje de 4 estaciones las que se detallan a continuación:
270
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Por otro lado se sabe que se reciben en promedio 30 motores por hora y el servicio en cada estación es de 50, 40, 35
y 37 motores por hora respectivamente.
Además se quiere saber la probabilidad de que en la respectivas filas estén el siguiente numero de motores: 6, 3, 3 y
0 respectivamente.
Desarrollo:
Los cálculos parciales de los parámetros del sistema están en la siguiente tabla:
λ μi ρi Wi Tsi Twi Pi
30 50 0,6 1,5 0,03 0,05 0,0186624
30 40 0,75 3 0,075 0,1 0,10546875
30 35 0,85714286 6 0,17142857 0,2 0,089962516
30 37 0,81081081 4,28571429 0,11583012 0,14285714 0,189189189
𝑛
1 1
𝑇𝑊 = ∑( ) = 0,4929 [𝐻𝑜𝑟𝑎𝑠]
1 − 𝜌𝑖 𝜇𝑖
𝑖=1
271
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
En Simulink se pueden implementar los sistemas descrito en estos problemas de dos maneras, la primera, utilizando
el Toolbox Simevents que está diseñado para trabajar con problemas de teoría de líneas de espera. En el anexo 1 se
explica con más detalle el funcionamiento de dicho Toolbox, además, el problema 1.a se desarrollo usando esta
herramienta.
También es posible hacer un diagrama de bloques, incorporando las ecuaciones que son necesarias para resolver
estos problemas, lo cual es más lento, pero más ilustrativo, por lo cual fue la opción escogida para desarrollar los
respectivos sistemas, descritos en los problemas anteriores.
Ejemplo 8.20
A la fila llegan entidades con una distribución exponencial, que se obtienen de los bloques “Generador entidades” y
“Distribución exponencial”. La salida del bloque “fila” ingresan al bloque “Servidor” del tipo FIFO, que tiene
distribución Poisson, obtenida del bloque “Distribución Poisson”, la salida del bloque Poisson se conecta a un bloque
terminador para cerrar sistema. El resto, es visualizar las salidas a través de los bloques “Display`s”. Cabe destacar
que todos los bloques utilizados están en la librería de SimEvents.
Finalmente, se simula el sistema completo. En los bloques “Display’s” se observa que los valores obtenidos en forma
manual y a través de la simulación coinciden.
Cabe destacar, que para obtener estos valores, fue necesario realizar una conversión entre el tiempo de trabajo
utilizado en Simulink y las unidades empleadas en el cálculo manual de este problema, esta es la razón por la cual los
valores obtenidos usando SimEvents están en minutos, y las obtenidas manualmente están en horas.
Parte a:
Se implemento el problema utilizando los bloques estándar de Simulink. El diagrama de bloque se muestra a
continuación:
272
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Mediante los bloques “Lambda” y “Mu” es posible variar los parámetros para poder simular distintas condiciones.
Para obtener las respuestas del sistema “L, W, Ts, Tw”, se emplean bloques “Embedded Matlab Function” en los que
es posible programar rutinas a voluntad. A continuación, a modo de ejemplo, se muestran las rutinas programadas
para obtener W y Ts:
273
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Se observa una concordancia en los resultados obtenidos. Es importante señalar que los resultados de los tiempos se
encuentran en horas.
Parte b
Para contrastar resultados es implemento el problema en MATLAB utilizando un archivo *.m file. El código se
muestra a continuación:
Se implementaron las formulas para calcular los parámetros. La simulación entrego los siguientes resultados:
274
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Los resultados obtenidos son similares a los cálculos formales realizados previamente.
275
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejmplo8.21
Resolución de Ejmplo8.18
Parte a
A través de los bloques “lambda, mu y S” es posible ingresar los parámetros del sistema. La ventaja de esta
implementación es que se pueden variar los parámetros a voltuntad y obtener rápidamente las respuestas del sistema.
En nuestro caso, basta con hacer una simulación de 0.5 segundos (incluso menos) para obtener los resultados. Los
valores de “lambda, mu y S” se setean en 1, 0.2 y 7, respectivamente, para comprobar los resultados obtenidos al
resolver este ejercicio en forma manual.
Para obtener las respuestas del sistema “L, W, Ts, Tw”, se emplean bloques “Embedded Matlab Function” en los que
es posible programar rutinas a voluntad. A continuación, a modo de ejemplo, se muestran las rutinas programadas
para obtener L y W:
276
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Para obtener L, es necesario primero calcular el valor de P0, por lo que también se incluye dicha rutina:
Finalmente, se simula el sistema completo. En los bloques “Display’s” se observa que los valores obtenidos en forma
manual y a través de la simulación coinciden.
Parte b.
A través de los bloques “lambda, mu y S” es posible ingresar los parámetros del sistema, que se setean en 1, 3 y 2,
respectivamente. Para obtener las respuestas del sistema “L, W, Ts, Tw”, también se emplean bloques “Embedded
Matlab Function”. A continuación, a modo de ejemplo, se muestran las rutinas programadas para obtener L y W:
278
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Finalmente, se simula el sistema completo. En los bloques “Display’s” se observa que los valores obtenidos en forma
manual y a través de la simulación coinciden
279
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Ejemplo 8.22
A través de los bloques “lambda, mu” es posible ingresar los parámetros del sistema. En este caso, el valor de
lambda es 30, y el valor de mu es un vector que contine los valores para los mu i= [50 40 35 37]. Para obtener las
respuestas del sistema “L, W, Ts, Tw”, también se emplean bloques “Embedded Matlab Function”. A continuación,
a modo de ejemplo, se muestran las rutinas programadas para obtener Ts y W:
280
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Finalmente, se simula el sistema completo. En los bloques “Display’s” se observa que los valores obtenidos en forma
manual y a través de la simulación coinciden:
Ejemplo8.23
Es necesario hacer el testeo de dos tipos de rectificadores eléctricos para encontrar posibles fallas. El primer tipo de
rectificador es de la familia de los SCR y el segundo tipo es de la familia de los BJT. Los rectificadores tipo SCR
llegan para ser testeados cada 10 minutos puesto son mucho menos comunes que los rectificadores BJT que lo hacen
cada 1 minuto. Ambos tipos de rectificadores llegan son almacenados en una correa transportadora que puede
almacenar 1000 unidades, una vez completas las 1000 unidades, los rectificadores SCR se despachan primero al
escáner, y luego lo hacen los rectificadores BJT. El tiempo para hacer el testeo de calidad de los rectificadores SCR
es de 2 minutos, y solo 1 minuto para testear un rectificador tipo BJT. Dependiendo del tiempo de testeo, los
rectificadores son atendidos por el escáner A o escáner B, respectivamente. Se requiere saber el tiempo total de
atención esperado para un rectificador tipo SCR y para uno tipo BJT.
281
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Funcionamiento:
A través de los bloques “time-based entity generator” se crean las entidades que representan a los rectificadores.
Cabe notar, que el bloque “set attribute” define a qué tipo de rectificador corresponde cada entidad, 1 para los tipo
BJT y 2 para los tipo SCR.
Luego, las entidades representantes de los rectificadores tipos SCR y BJT ingresan al bloque “Path combiner” que
acepta entidades desde cualquiera de sus puertas y las despacha por su única salida. Esto permite que las entidades
entren a una misma cola, bloque “Priority Queue”, que almacena hasta 1000 unidades para luego despachar las
entidades correspondientes al tipo SCR, y posteriormente despachar al tipo BJT. A través del bloque “Output
Switch”, las entidades con atributo 2 son atediadas “Single server1”y las con atributo 1 son atendidas por “Single
server”.
Luego, a través de los bloques “Signal scope” es posible encontrar los tiempos de espera deseados:
282
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Observando los gráficos, se puede ver que el tiempo que toma el testeo de los rectificadores tipo SCR es cercano a
cero, pues en la correa transportadora se despachan siempre primero. En cambio, el tiempo que toma el testeo de los
rectificadores tipo BJT se incrementa conforme pasa el tiempo de simulación pues, siempre se les da prioridad a los
rectificadores tipo SCR.
Observación:
La teoría de filas de espera puede ser una herramienta muy utilizada por los ingenieros controlistas. Dentro de los
innumerables procesos que se realizan dentro de una fábrica existen muchas formas en la que las filas de esperas se
encuentran presentes. Tener en consideración estos detalles permite tener un correcto diseño de las instalaciones,
asegurando un buen desempeño del proceso de producción.
Se implementó en MATLAB una serie de ejemplos que previamente habían sido resueltos, permitiendo comparar los
resultados; constatando la validez, flexibilidad y riqueza de resultados que proporciona la programación utilizada.
Las simulaciones realizadas en MATLAB Simulink tienen la ventaja de ser graficas y permitir modificar de forma
simple e intuitiva los parámetros involucrados en el sistema. Logrando implementar distintos sistemas en poco
tiempo con resultados reales.
Se realizo una implementación en archivo *.m file que resulto un poco más tediosa. A simple vista puede ser más
complicada de entender pero tiene correspondencia con los sistemas implementados en MATLAB Simulink.
Los clientes preferenciales no son muy vistos dentro del área de control de procesos. Pero presentan gran
importancia por el tipo de problemas y lo frecuente de su uso en los mas diversos procesos de atención de público,
sistemas de comunicación, tramitaciones, flujos en redes, en general sistemas de producción y servicios.
Es importante señalar lo necesario de distinguir, reconocer y utilizar resultados formales de de la teoría de filas de
esperas cuando corresponda.
Por otra parte, en la práctica es frecuente el no cumplimiento de las condiciones para su aplicación formal ya que
como se ha visto en el Capítulo 8, son pocas las variantes de arquitecturas, que contemplan conductas Poisson en
este tipo de sistemas y entonces se requiere aplicar simulación para una clara apreciación del proceso, para la
ineludible determinación de los parámetros del sistema. Sin lo cual, a este respecto, no es posible efectuar estudios
validos o tomar decisiones con respaldo estadístico.
283
Referencias
Cox, D.R, y W.L. Smith, Queues, London Methuén & Co., 1961
Cruon R., Queueing Theory. Recent Developments and Applications. American Elsevier, 1967
Feller W. An Introd. to Probability Theory and its Applications, Vol. I.J. Wiley & Sons. 1965
Feller W. An Introd. to Probability Theory and its Aplications, Vol. II, J. Wiley & Sons, 1966
Gross, D. y Harris C.M. Fundamentals of Queueing Theory, J. Wiley & Sons 1974.
Leon-Garcia A., Probability and Random Processes for Electrical Engineering, Add.-Wesley,1994
Parzen E., Modern Probability Theory ans Its Applications, J. Wiley & Sons, 1960
Rao C.R. Linear Statistical Inference and Its Applications, John Wiley & Sons, 1965
284
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
INTRODUCCIÓN A
PROCEDIMIENTOS
ESTADÍSTICOS
MATLAB
285
286
Contenido
Sección Tema
1 Base de datos 291
1.1 Importar a tabla de datos 292
1.2 Importar datos Excel 292
1.2.1 Mediante opción en menú 292
1.2.2 Etapas para importación mediante sentencias 292
1.2.2.1 Importación para lectura 292
1.2.2.2 Formato operativo 293
1.3 Ingreso de datos por pantalla 294
2 Objetos 294
2.1 Construcción de objetos 294
2.2 Funciones para caracteres 295
3. Operadores lógicos 295
4 Operaciones algebraicas 296
4.1 Operaciones entre escalares 296
4.2 Operaciones entre vectores y matrices 296
4.3 Operaciones elemento a elemento 296
5 Desagregación y Concatenación 296
5.1 Desagregación 296
5.2 Concatenación 297
6 Gráficos 297
6.1 Grafico con grilla 298
6.2 Grafico de aplicaciones con dominio restringido 298
6.3 Gráficos simultáneos 298
6.3.1 Gráficos en una misma imagen 298
6.3.2 Gráficos superpuestos 298
6.4 Gráficos de curvas dadas por secciones 299
6.5 Anotaciones 299
7 Funciones PCHIP y SPLINES 299
8 Área achurada 300
9 Derivación , integración y ecuaciones formales o simbólicas 301
10 Estadística Descriptiva 301
10.1 Tablas de frecuencias 301
10.1.1 Tablas de frecuencias para variables cualitativas 301
10.1.2 Tablas de frecuencias para variables cuantitativas 301
10.1.3 Tablas de frecuencias bi-dimensionales 302
10.2 Gráficos estadísticos 302
10.2.1 Gráfico circular 302
10.2.2 Gráfico de barras separadas 302
287
10.2.3 Gráfico de Pareto 303
10.2.4 Gráfico de barras agrupadas 303
10.2.5 Gráfico de barras sub-divididas 303
10.2.6 Gráficos de cajas ( Box-Plot) 303
10.2.7 Histogramas 303
10.2.8 Ojiva con ajuste Normal 304
10.2.9 Gráficos Línea simultáneos 304
10.3 Medidas de Posición 305
10.4 Medidas de Dispersión 306
10.5 Medidas de Forma: Asimetría y Curtosis 306
10.6 Medidas de Asociación: Covarianza, Correlación, Chi-cuadrado 306
11 Probabilidades 307
12 Variables Aleatorias 307
12.2 Histogramas con ajuste a distribución arbitraria 308
12.3 Valores de v.a. para probabilidad acumulada dada (Comando inv) 308
12.4 p-valor 308
12.5 Transformaciones de una distribución 309
13 Gráficos de distribuciones marcando puntos notables 309
13.1 Gráfico para N(0,1) marcando puntos en +-1.96l 309
13.2 Gráfico N(mu,sigma), marcando areas de colas uni o bi-laterales 309
13.3 Áreas bajo la curva de distribuciones arbitrarias 309
13.3.1 Gráficos de curva y curva con 95% de área achurada 309
13.3.2 Áreas críticas Normal de dos colas y una cola superior al 5% 310
14 Generación de muestras aleatorias 310
14.1 Uso de comando rand 311
14.2 Uso de comando rnd 311
14.3 Técnicas de Re-Muestreo mediante Bootstrap 311
14.3.1 Dada una muestra, obtención de medias en muestras Bootstrap 311
14.3.2 Dada una muestra bi-dimensional, obtención de correlaciones en 311
muestras Bootstrap
14.3.3 Generación de muestras Bootstrap de v.a. con distribución 311
especificada
15 Inferencia 312
15.1 Dócimas en muestras procedentes de poblaciones Normales 312
15.1.1 Una m.a. 312
15.1.1.1 Intervalo de confianza para la media, con varianza conocida 312
15.1.1.2 Test respecto a la media 312
15.1.2 Dos m.a. 313
15.1.3 Una m.a. pareada 313
15.2 Tests de Bondad de ajuste: ᵡ2 ,K-S , S-W, Lill 313
15.2.1 Gráficos de superposición entre F distribución empírica 313
estandarizada de X y F teórica dada por N(0,1).
15.2.2 Test Chi-cuadrado 314
15.2.3 Test K-S 314
288
15.2.3.1 Caso Normal totalmente especificada 314
15.2.3.2 Caso General y no totalmente especificada 314
15.2.4 Test Lilliefors 314
15.2.5 Test Shapiro-Wilk 314
16 ANOVA 314
16.1 ANOVA a un factor o comparación entre tratamientos 314
16.2 ANOVA a dos factores e interacción 315
17 Regresión Mediante Mínimos Cuadrados 315
17.1 Mínimos cuadrados desde Command Windows 315
17.2 Obtención del modelo clásico MICO 315
17.3 Tabla ANOVA para modelo clásico MICO 315
17.4 Ajuste polinomial 315
18 Simulación de Procesos 316
18.1 Simulink 316
289
290
MATLAB
Las herramientas de programación, que proporciona MATLAB, entre ellas es de nuestro interés
Simulink ( orientada a la simulación de procesos), se construyen con equipos de profesionales, tanto
en la etapa de diseño como revisión y proporcionando una amplia difusión de sus respaldos.
Es un software con capacidad de lograr resultados tanto operacionales como simbólicos y además
escalable, ya que los análisis a través de agrupaciones de datos, GPU y a nivel de nubes de internet
se implementan con ligeros cambios de código. No siendo necesario volver a escribir en otros
códigos, rehacer o aprender otra programación para trabajar con Big Data al hacer uso de
información en forma remota.
Nuestro interés es proporcionar las herramientas y recomendaciones necesarias, para ilustrar las
aplicaciones en estadística que contempla el presente curso, y orientar hacia mayores desarrollos
en este ámbito.
De esta manera hemos considerado los siguientes aspectos para entregar de manera ágil y directa
lo que se ha estimado como necesario, para el presente texto.
1.-Base de datos
Para importar datos se requiere especificar tipo de separación entre columnas y declarar
línea donde se encuentran los nombres de las columnas:
filename = 'miarchivo.txt';
291
delimiterIn = ' ';% delimitación por espacios
headerlinesIn = 1;% nombres en primera linea
A = importdata(filename,delimiterIn,headerlinesIn);
Para desplegar las columnas se debe crear un ciclo:
for k = [2, 7]; % señalamos las columnas de interés
disp(A.colheaders{1, k})
disp(A.data(:, k))
disp(' ')
end
Cuando la delimitación es por comas , basta con: [A,delimiterOut]=importdata('miarchivo.txt')
También permite importar datos desde el clipboard (memoria virtual), mediante un copy
paste especial: basta con copy y luego A= importdata('-pastespecial')
Mayores detalles, encontrará en:
https://www.mathworks.com/help/matlab/ref/importdata.html
xlsread('datos21.xlsx');
292
- "textos" guarda string y arreglos de letras, y
-"todo" guarda todo, osea, es un conjunto de digitos y
arreglos/letras.
Por ello, es de nuestro interés, siempre recurrir a la matriz
"todo", aunque no reconozca los nombres como tal de las variables que
figuran en la primera fila.
Así todas las columnas con sus registros por fila completos,
automáticamente se les da lectura como una base de datos estadística,
mediante vectores columnas (de variables), pero en formato "cell"
Con las siguientes instrucciones se despliega la información,
reconocen y denominan las variables :
disp(tododatos21); id = tododatos21(:,1);
disp(id);
CompPesq=tododatos21(:,2); Tipo1=tododatos21(:,3);
Produccion=tododatos21(:,4); Exportacion=tododatos21(:,5);
Capital=tododatos21(:,6); Tipo2=tododatos21(:,7);
Si queremos los datos de la tabla, tomamos desde la fila 2 en adelante
(hasta 28 en este caso particular)
293
format long; permite extensión máxima en precisión de resultados,
otras opciones son: short ( que viene por defecto),
shortE,longE,shortG, shortEng,, longEng, bank, hex..
fx >> home en Command Windows , limpia el ambiente Cwindows
2.- Objetos
Los objetos que se consideran este software son datos (expresiones,
caracteres,o números) en forma de:Vectores o matrices
294
Los elementos de los vectores se identifican entre paréntesis redondos
mediate indice y en matrices se hace con ambos sub-índices:
a(3); b=a',; b(3); son formas de identificar el mismo elemento
A(3,2): elemento 3,2 de A, es lo mismo que A(7) ya que Mlab lee por
columnas
M=[1 2 3;4 5 6;7 8 9; 1 3 2]; es una matriz 3x3 separando filas con
punto y coma
vec(2:5); rescata componentes dos a la 5 del vector vec
M(:,2:3); columnas 2 y 3 completas de M
2.2. Cadenas de caracteres
Tales elementos se escriben entre ' '
Si necesita escribir comillas, estas se escriben dentro de las otras y
forman parte del carácter.
c1='nombre'; distingue mayúculas y espacios
size(c1); una fila y 6 caracteres
d=[c1, ' NotasPEP1']; c2=' NotasPEP1'
https://www.youtube.com/watch?v=xZ47J4c8Yrg
hhttps://www.youtube.com/watch?v=DIc-dWvrOmU
295
while v(i)<7
disp('Es menor que 7')
v(i)=0
i=i+1;
end
v
296
variables X1 y X2.. del espacio de trabajo : clearvars X1 X2
eliminar variables excepto X1 y X2: clearvars -except X1 X2
- filas 3 a la 7 usando: archivo(3:7,:)=[]
o bien: linalg::delRow(A, list)
5.2.-Concatenación
Es un proceso de al agregar líneas o columnas, así
tenemos, que al adicionar líneas o columnas se realiza una
Concatenación Horizontal (de filas)y/o
vertical(columnas)respectivamente.
Dispongamos de las sgtes. variables:
x1=CapitalInicial;x2=Exportacion;
x3=Produccion
- concatenación hacia abajo u horizontal, agrega filas
XX=[x1;x2;x3]; disp(XX);
- concatenación hacia el lado o vertical, agrega columnas
XXX=[x1 , x2 , x3 ] o bien XXX==[x1 x2 x3]; disp(XXX');
Lo cual también se puede hacer entre vectores, matrices y/o arreglos,
siempre que las respectivas dimensiones lo permitan.
http://www.fce.unal.edu.co/media/files/documentos/uifce/proyectos/ANAL
ISIS%20ESTADISTICO%20EN%20MATLAB.pdf
https://issuu.com/cristiangils/docs/analisis_estadistico_en_matlab
http://caminos.udc.es/info/asignaturas/obras_publicas/103/pdfs/matlab.
pdf
6.- Gráficos
Para graficar y =f(x) en el plano, basta con ejecutar la
sentencia: plot(x,y).
x4=[2 5 8 9 10]; y4=[2 0.7 2 3 3.3]; plot(x4,y4)
Eso sí, que la sentencia supone una curva y ante valores discretos,
construye la correspondiente poligonal, y puede que la resultante no
sea una función.Pero grafica los puntos en el plano si agregamos un
carácter en la sentencia, como por ejemplo: plot(x4,y4,’o’), o bien
plot(x4,y4,’+’)
297
Se pueden implementar diversos tipos de líneas, al agregar una tercera
componente A de tipo carácter, en tal sentencia, mediante
plot(x,y,A)con A cualquier combinación de elementos de
color{b,g,r,c,m,y,k}, marcas {-,:,-.,--} y/o
símbolos{.,0,x,+,*,s,d,v,^,<,>,p,h}.
x4=[2 5 8 9 10]; y4=[2 0.7 2 3 3.3]; plot(x4,y4)
Para gráficos 3D, véase:
http://www.sc.ehu.es/sbweb/fisica3/basico/graficos/graficos.html
http://personales.unican.es/corcuerp/Matlab_Simulink/Slides/Matlab_gra
ficos3D.pdf
http://www.utm.mx/~vero0304/HCPM/12-Graficas-3D(primera%20parte).pdf
Principales funciones para gráficos tridimensionales: plot3(x,y,z), comet3(x,y,z)
,mesh(z) o mesh(x,y,z), surf(z) o surf(x,y,z), shading interp,
shading flat, colormap(map_name) contour(z) o contour(x,y,z),
surfc(z) o surfc(x,y,z), pcolor(z) o pcolor(x,y,z), respectivamente
generan gráficos tridimensionales: de manera lineal, una versión animada de plot3,una
superficie de malla, superficie, interpola entre los colores, colorea cada sección de un solo
color,permite seleccionar el patrón de color, gráfica de contorno, superficie combinada con
una gráfica de contorno y un gráfico en pseudo-color
6.1.- Gráficos con grilla
Permite, marcando puntos de interés al graficar una función.
En este caso se debe declarar inicio y término de gráficos con
aplicación de grilla. Ilustraremos este caso , utilizando una recta
dada por la función f=2x:
x=-5:3:10;plot(x,2*x)
plot(x,2*x,'LineWidth',4);% línea de ancho=4
grid on
set(gca,'xtick', [-4 -2 2 4 6 10]);
set(gca,'ytick', [-3 -1 2 4 6 10 15]);
grid off;
6.3.2.- Superpuestos
Para lograr varios gráficos en un mismo plano cartesiano, se debe
tener presente que: todos los gráficos que se ordene dibujar entre
los comandos hold on y hold off se representarán en la misma figura.
298
hold on
x=[-3*pi:1:3*pi];
plot(x,sin(x))
plot(x,tan(x),'r')
hold off
Otra manera es plot(x,sin(x),'co-',x,tan(x),'r')
Ejemplo1:
t=linspace(-8,8,100)
f=(t<=-1.96).*(sin(2*pi*t))+((t>-3)&(t>3)).*(1)+(t<=-1.96).*(cos(2*pi*t))
plot(t,f)
grid on
Ejemplo2:
t=linspace(-5,5,1200)
f=(t<=-1) .*(exp(t))+ (t>1) .* (sin(t)) ,donde ud no la defina, f=0
plot(t,f,t, normpdf(t))
set(gca,'ytick', [0 0.1 0.2 0.3 0.4 0.5]);
set(gca,'xtick', [-1.96 1.96]);
Ejemplo3:
t=linspace(-1,500,1200) ; se debe adecuar el linspace según la curva
f=(t>=0) .* (exp(-t/60)); plot(t,f,'r');
Ejemlo4:
x=-10:.1:-5; y=2+sin(x); z=-5:.1:2; t=exp(z);
u=2:.1:10; v=log(u.^2+1); plot(x,y,z,t,u,v); grid on
xlabel('x'), ylabel('f(x)')
title('Representacion grafica de una funcion definida a trozos')
6.5.- Anotaciones
Para realizar, títulos, leyendas, etiquetas se puede recurrir a los
siguientes comandos:
title (‘texto’): agrega texto entre comillas como título del
gráfico. xlabel(‘texto’): agrega texto entre comillas al lado del
eje x. ylabel(‘texto’): agrega texto entre comillas al lado del eje
y. legend(‘texto’): coloca leyenda especificada en el texto.
gtext(‘texto’): coloca texto señalado con mouse en la ventana de
trabajo.
Para más detalles, recurrir a ventana gráfica de MATLAB.
299
s = spline(x,y,xq1);%extrapola al aplicarse en valores fuera de xq1
plot(x,y,'o',xq1,p,'-',xq1,s,'-.')
Áreas: http://matlab.izmiran.ru/help/techdoc/ref/area.html
%http://www.ugr.es/~prodelas/AnNumCaminos/ftp/Tema6.htm
Gráficos, véase:
300
http://www2.caminos.upm.es/Departamentos/matematicas/Fdistancia/PIE/ma
tlab/temasmatlab/TEMA%205.pdf
http://arantxa.ii.uam.es/~iama/graficos.pdf
https://blogdelingeniero1.wordpress.com/2014/03/01/funciones-por-
partes-o-a-tramos-en-matlab/
10.-ESTADÍSTICA DESCRIPTIVA
véase
https://issuu.com/cristiangils/docs/analisis_estadistico_en_matlab');
10.1.-Tablas de Frecuencias
10.1.1.-Para variables cualitativas
tablaTipo1= tabulate(Tipo1); % tabla de frecuencias para variable
Tipo1
col1= cell2mat(tablaTipo1(:,1))
col2= cell2mat(tablaTipo1(:,2))
col3= cell2mat(tablaTipo1(:,3))/100
col4= cumsum (col2)
col5= cumsum(col3)
latabla= [ col2 col3 col4 col5]
disp('tabla de Frecuencias');
disp('absolutas relativas acumuladas relativas acumuladas');
disp(latabla);
%http://www.est.uc3m.es/esp/nueva_docencia/leganes/ing_telecomunicacion/es
tadistica/practica1_teleco10.pdf
10.1.2.- Para variables cuantitativas
tabulate(Produccion) realiza una rudimentaria tabla de frecuencias
para datos mostrando recuento y frecuencias porcentuales.
Hay que construirla ya que no se dispone de construcción de tabla de
frecuencias por intervalos
% regla de Sturges;
k=1+3.3*log10(n);% para n=27 resulta exactamente k=5,72356
a=(ma-mi)/k; % resulta a=13,1039 para este caso
clases=([mi mi+a mi+2*a mi+3*a mi+a*4 ma])';
% donde mi=min(variable),ma=max(variable);
ni=histogram(Produccion, clases);%frecuencias absolutas variable
Produccion
sum(ni); fi=ni/n; % frecuencias relativas
sum(fi);salidadetabla=[ clases, ni , fi ];
301
disp('clases frec.absolutas frec.relativas ');
disp(salidadetabla);
10.2.-Gráficos estadísticos
10.2.1.- Circulares
pie(latabla(:,2))
pie(cell2mat(tablaTipo1(:,2))); colormap autumn;
Color map no es sentencia necesaria, aunque tiene opciones:
spring summer autumn winter
Caso de variable cuantitativa x1 Cpital Inicial segmentada en c
clases con frec relativas fi:
explode = zeros(size(fi));[c,offset] = max(fi);explode(offset) = 1;
h=pie(fi,explode);colormap autumn;
% ahora agreguemos rotulos
textObjs = findobj(h,'Type','text');
oldStr = get(textObjs,{'String'});
val = get(textObjs,{'Extent'});
oldExt = cat(1,val{:});
Names = {'Emprendimientos CORFO: ';'Pequeñas Empresas: ';'Medianas
Empresas:';'Grandes Empresas Nacionales: ';'Holding Extrangeros: '};
newStr = strcat(Names,oldStr);
set(textObjs,{'String'},newStr)
val1 = get(textObjs, {'Extent'});
newExt = cat(1, val1{:});
offset = sign(oldExt(:,1)).*(newExt(:,3)-oldExt(:,3))/2;
pos = get(textObjs, {'Position'});
textPos = cat(1, pos{:});
textPos(:,1) = textPos(:,1)+offset;
set(textObjs,{'Position'},num2cell(textPos,[3,2]));
10.2.2.- Barras separadas
tablita=tabulate(Tipo1);
xdatos=cell2mat(tablita(:,1)); xrecuento=(cell2mat(tablita(:,2)))/n;
Procederemos segmentando en 4 partes la salida gráfica y ubicando en
cada cuadrante los siguientes gráficos
subplot(2,2,1); bar(xrecuento,'r'); title('Frec. Rel. en Gráfico de
barras vert.');
subplot(2,2,2); barh(xrecuento,'g'); title('Frec. Rel. en Grágico de
barras hor.');
subplot(2,2,3); bar3(xrecuento, 'b'); title('Frec. Rel. en Grágico de
barras vert.3D');
subplot(2,2,4); bar3h(xrecuento,'m');title('Frec. Rel. en Grágico de
barras hor. 3D');
para este caso, la paleta de colores de barras, se invoca mediante:
'b' , 'r' , 'g', 'b', 'c' , 'm' ,'y' ,'k', 'w'
% no admite variables nominales para rotular columnas
302
10.2.3.- Gráficos de Pareto
codelines = [200 120 555 608 1024 101 57 687];
coders = ...
{'Metropolitana','Valpso','Rancagua','Arica','Osorno','Temuco','Los
ndes','Renca'};
title('Diagrama Pareto');
pareto(codelines,coders );
Los gráficos de Pareto muestran los valores en el vector Y como barras
dibujadas en orden descendente. Los valores en Y deben ser no
negativos y no incluir NaN. Solo se muestra el primer 95% de la
distribución acumulada.
10.2.4.- Gráficos de Barras Agrupadas
bar([latabla(:,2) latabla(:,4)]); %barras de columnas 2 y 4 de latabla
bar(latabla(:,4),latabla(:,2));%barras col2 rotulando eje x con col4
bar3(latabla(:,2), Tipo1);% no la realiza por ser Tipo1 nominal tanto
en esta como toda otra que se utilice comando bar.
y = sin((-pi:pi).^2) ; % Put the baseline at y = -0.2
h = bar(y,'BaseValue',-0.2);
% Get a handle to the baseline
hbl = get(h(1),'BaseLine') ;
% Change to a red dotted line
set(hbl,'Color','red','LineStyle',':')
%http://5minutosdematlab.blogspot.cl/2011/10/como-hacer-un-diagrama-
de-barras.html
303
absolutas y marcas de clases
grid on;
xlabel('Producción');
ylabel('Número de veces');
title('Histograma de Produccion');
hist(Produccion,Tipo1); % histograma por grupos
304
Tipos de trazo +,-, --, :,.,0,x,*... entre otros
plot(x1,x2); %es un desastre ya que interpola todo automáticamente
plot(x1,x2,'rx:');
% marca diferente la interpolación entre otras opciones
% https://www.mat.ucm.es/~rrdelrio/documentos/rrrescorial2002.pdf
%http://ocw.upc.edu/sites/all/modules/ocw/estadistiques/download.php?file=51427/2011/1/54507/
tema_2_graficos_en_matlab-5150.pdf
10.3.-Medidas de Posición
Prom_Producccion=mean(Produccion) %Obtiene la media de Producción
mean(x1); %calcula pero no la hace visible como respuesta = valor
nanmean(x1); % media de x1 ignorando datos faltantes
mediadex1=mean(x1); % calcula y la almacena pro no la hace visible
como valor
grpstats(XXX,Tipo1); %grupos de medias de las variables que componen
XXX, según Tipo1
disp(' mediadex1'); disp(mediadex1); % imprime en dos lineas
fprintf('media de x1 = %6.8f \n',mediadex1);
%imprime en la misma linea con 4 decimales a distancia 6 del texto
fprintf('media de x1 = %6.4f \n',mean(x1));
% calcula e imprime en la misma linea con 4 decimales
X = [x1,x2,x3]; mean(X);
disp(' vector de medias del vector X de dimnsión=3'); disp(mean(X));
vectordemediasdeX =[mean(x1),mean(x2),mean(x3)]
range(x1)=max(x)-min(x); % calcula rango de x1
tiedrank(x5); Estadística de Rangos para las observaciones de x5
median(x1); % mediana
median(X); % mediana de las columnas de la matriz XXX de 27x3
nanmean(x1); % media incluyendo valores faltantes o perdidos
prctile(x1,50);% percentil alpha por ciento de x1 (admite matriz)es
decir si alpha*100=50 es la mediana
prctile(X,50); % percentiles 50% de la matriz XXXX
quantile es un comando que arroja cálculos erróneos por ello usamos:
Q3dex1=prctile(x1,75);Q1dex1=prctile(x1,25); % rango intercuartílico
iqr(x1); % rango intercuartílico
geomean(x1); % media geométrica
harmmean(x1); % media harmónica
trimmean(x1,0.2); % media recortada en ambas colas o truncada sin
10% o alpha/2 *100 de datos extremos,0<alpha<1
305
% winsorising(x1,alpha*100) no funciona media winzorisada como tal
reemplazando datos extremos por sus más cercanos
Ejemplos de aplicación de comandos: mediana, percentiles, media
Recortada
vectordemedianasdeX =
[prctile(x1,50),prctile(x2,50),prctile(x2,50),prctile(x3,50)]
w1= [0,0,2,2,3,4,4.1537,4.8,5, 5,6,90,153];
prctile(w1,50);
percentilesdew1= prctile(w1,[2.5 25 50 75 97.5]);% percentiles desde
2,5 PORCIENTO AL 97.5
disp('percentiles 2.5 Q1 Q2 Q3 97.5 porciento
para w1 = ');
disp(percentilesdew1);
mediaw1=mean(w1); medianaw1=prctile(w1,50);
fprintf('media de w1 = %6.4f \n',mean(w1));
t10w1=trimmean(w1,10); fprintf('media recortada en 10 por ciento de
w1= %6.4f \n',t10w1);
t20w1=trimmean(w1,20); fprintf('media recortada en 20 por ciento de
w1= %6.4f \n',t20w1);
t30w1=trimmean(w1,30); fprintf('media recortada en 30 por ciento de
w1= %6.4f \n',t30w1);
t40w1=trimmean(w1,40); fprintf('media recortada en 40 por ciento de
w1= %6.4f \n',t40w1);
t50w1=trimmean(w1,50); fprintf('media recortada en 50 por ciento de
w1= %6.4f \n',t50w1);
t95w1=trimmean(w1,95); fprintf('media recortada en 95 por ciento de
w1= %6.4f \n',t95w1);
Notemos que la media recortada trunca los alpha/2 porciento de valores
extremos tanto superior como inferior, cálculo que tiende a
aproximarse hacia la media
% http://benediktehinger.de/blog/science/matlab-winsorized-mean-over-all-
dimension/
% https://www.mathworks.com/videos/new-spreadsheet-import-tool-in-r2011b-
69037.html
306
corr(x1,x2);% correlación entre x1 y x2
cov(X); % matriz de var cov de vector X dado por la matriz de
datos 27x3
corr(X); % matriz de correlaciones de Pearson
corrcoef(X); % también calcula matriz de correlaciones Pearson
[RHO,PVAL] = corr(a',b','Type','Spearman');% puede reemplazarse
Spearman por Pearson, Kendall ( para tau de Kendall)
[tablex1porx2,chi2x1porx2,pxiporx2]=crosstab(x1,x2)
% para variables cuantitativas debe armarse así como se hizo para las
clases en tablas de frecuencias. O bien recurrir a la sentencia en
su versión más de output: extensa [tbl,chi2,p,labels], con labels la
rotulación en caracteres de cada clase para ambas variables en esta
tabulación.
tablex1porx2;chi2x1porx2;pxiporx2; % valores que corresponden a
tabulación cruzada, Estadística Chi-cuadrado y su p-valor de
rechazo a hipótesis de independencia
[tablax1x2, chi2x1x2,px1x2]=crosstab(Tipo1,Tipo2);
tablax1x2; chi2x1x2 ;px1x2;
rng default; % for reproducibility
a1 = unidrnd(3,50,1);a2 = unidrnd(3,50,1);%dos m.a.(50)de U(1,3)
[tablea1a2,chi2a1a2,pa1a2] = crosstab(a1,a2); %Cross-tabulate x1,x2.
tablea1a2; chi2a1a2 ; % estadística Chi cuadrado
pa1a2; % p value de chicuadrado 2x2
% https://www.vitutor.com/estadistica/descriptiva/a_17.html
11.-Probabilidades
Elementos para Conteo
Combinaciones nchoosek(n,k)combinaciones n sobre k
factoriales factorial(n)=n!=prod(1:n) factorial de n
Arreglo para n=n1+n2+n3 objetos con repeticiones n1,n2,n3
arreglo=(factorial(n))/((factorial(n1))*factorial(n2))*factorial(n3))
307
Weibull wbl wblcdf(valor, alpha,beta) wblpdf
Gamma gamma gammacdf(valor,alpha,beta)
gammapdf(x,alpha,beta)=gammainc(valor/beta,alpha)
Beta beta beta(valor, a,b) betapdf
* se encuentra programada para número extra de lanzamientos para
lograr k éxitos, por ello la v.a. parte de cero
12.2.- Histogramas con ajuste a distribución arbitraria
rng default;
b= betarnd(3,10,100,1);
%Construct a histogram using 10 bins with a beta distribution fit.
hold on
h=histfit(b,10,'beta')
h(2).Color = [.2 .2 .2]; % color curva
h2=histfit(b,10,'gamma')
h2(2).Color = [.5 .5 .5]
h3=histfit(b,10,'t')
h3(1).FaceColor = [.8 .8 1]; % color histogram
h3(2).Color = [2 2 2]
hold off
histfit(b,10,'kernel');histfit(b,10,'exp');histfit(b,10,'weib')
%https://www.mathworks.com/help/stats/histfit.html#d119e400211
308
12.5.- Transformaciones de una distribución
Para una v.a.X, con pd= fitdist(x,'Nombre de la distribucion')
los siguientes comandos indican:
cdf Función de distribución
icdf=inv Inversa da la Función de distribución
iqr (pd) Rango Intercuatilico
mean Media
median Mediana
negloglik -log verosimilitud de la densidad
paramci Intervalo confidencial para parámetro
pdf Función de densidad
proflik Profile función de verosimilitud
random Números Aleatorios
std Desviación Standard
truncate(pd,lower,upper) Densidad truncada
var Varianza
309
set(gca,'xtick', [ -1.96 1.96 ]) ; colormap autumn
title('Área Normal central del 95%')
hold off
310
semilla o garantizar reproductibilidad, en la sesión Matlab previo a
cada simulación, utilizando: rng('shuffle'); o bién rng default .
311
Por ejemplo, calcular la media de 40 muestras Bootstrap sacadas de
entre una muestra original de tamaño de exponencial de parámetro 5
y = exprnd(5,10,1);
m = bootstrp(40,@mean,y);
[fi,xi] = ksdensity(m);
plot(xi,fi);
https://www.mathworks.com/help/stats/resampling-statistics.html#bq_u9bq
15.- Inferencia
15.1.-Dócimas en muestras procedentes de una población Normal.
A manera de introducción, respecto a la obtención de Intervalos de
Confianza así como regiones Críticas, podemos mencionar que
operacionalmente las metodologías nos conducen a considerar el
puntaje Z o estandarización de una v.a. X con distribución
Normal,N(mu,varianza(X)), y proceder de l sgte. manera:
mu=E(X)
Z=(dato-E(X))/sqrt(V(X)) que es N(0,1)
norminv([0.025 0.975]); da como resultado : -1.9600 1.9600
cada dato puede estar entre tales extremos un 95% de las veces
E(X)+ norminv([0.025 0.975]) *sqrt(V(X)
E(X)+ [-1.96 1.96]) *sqrt(V(X))
[E(X)-1.96*sqrt(V(X)) E(X)+1.96*sqrt(V(X))]
Para E(X)= 20, V(X)=9:
[20-1.96*sqrt(9) 20+1.96*sqrt(9)]
el resultado es : [14.1200 25.8800]
por tanto el 95% de los datos (resultados) del experimento se
encuentran entre tales valores. Además valore muestrales cuya media
no se encuentre en tal intervalo, pondría e en duda la validez del
supuesto E(X)= 20.
312
[h,ptest] = ttest(x,mu,alpha,'colas')
colas= right, left, both
alpha es nivel de significación 0.05 usualmente
Dispongamos de la m.a. x=1:2:100;
Ejemplo:
Test Ho: mu=0,H1: mu ~= 0; ttest(x); entrega solo la decisión
El caso de test: H0: mu=mu0,H1: mu ~= mu0, con mu=40
[h,p,ci,stats]= ttest(x,mu0,0.05,'both')
stats proporciona Estadística T gl std=S
h es la decisión: h=1 rechazar , h=0 no rechazar
both se refiere a H1 bilateral:
p-value = 2(l-valor deP( t(gl)> valor absoluto de T )) =0,0190,
area dos colas 2*(1-tcdf(2.4254,49))
Para docimar h0: mu>40 [h,p,ci,stats]= ttest(x,40,0.05,'left')
resulta p=0,9905
Para docimar h0: mu <40
[h,p,ci,stats]= ttest(x,40,0.05,'right'), resulta p=0,0095 , la
mitad de 0,0190
ci: es intervalo de confianza 1-alpha, ciinf cisup
313
set(Gx,'LineWidth',3);
legend([Fx Gx],'CDF empírica, CDF N(0,1)','Location','SE');
title('Grafico distribución Empírica Std y Normal(0,1)')
hold off
15.2.2.- Test Chi-cuadrado
pd=fitdist(datos, ‘nombre distribución’); %estima la distribución
entrega parámetros y respectivos intervalos confidenciales.
[h,p,stats]=chi2gof(datos, nombrecdf,pd );% h=0,1 decisión aceptar,
rechazar, p-value, valor estadística Chi-cuadrado
15.2.3.- Test K-S
15.2.3.1. Caso Normal totalmente especificada
test H0: F es N(0,1) , H1: F no N(0,1), nivel de sig. alpha=5%
Siendo Z la estandarización de X
[ hks , pks, statks , cvks ] = kstest(Z);
hks;pks;statks ; cvks;
Entrega valor de la estadística de prueba= ksstat y el p-valor
valor crítico aproximado cv del test.
15.2.3.2.- Caso General y no totalmente especificada
Lo ilustraremos con distribución Normal, pudiendo ser cualquier otra
de entre el listado mencionado en 12. columna cdftest H0: F es
Normal , H1: F no Normal , nivel de sig. alpha=5. Los parámetros se
determinan a través de los estimadores Máximo Verosímil:
CDFall=normcdf(x,mean(x),std(x));
[H,P,KSSTAT,CV] = kstest(x,[x,CDFall],0.05)
15.2.4.- Test Lilliefors
Ho: F es Normal de parámetros (mu,sigma), nivel de sig. alpha=5%
Parámetros que se estimasn mediante (mu,sigma)=(media,S)
[H,P,LSTAT,CV] = lillietest(x);
15.2.5.- Test Shapiro-Wilk
Siendo F teórica una distribución Normal( mu,sigma)no especificados
o bien F es Exponencial de parámetro lambda no especificado . En
cualquiera de los casos, tales parámetros se estiman según máxima
verosimilitud.
Ho: F es Normal de parámetros (mu,sigma), nivel de sig. alpha=5%
Parámetros que se estimasn mediante (mu,sigma)=(media,S)
[H, pValue, SWstatistic] = SWTEST(x)
O bien [H, pValue, SWstatistic] = SWTEST(x), 0.05)
Por default resuelve F Normal al 5%, e igualmente se puede
implementar:
lillietest(MPG,'Distr','exp')
https://www.mathworks.com/help/stats/kstest.html
htts://ocw.mit.edu/courses/mathematics/18-443-statistics-for-applications-
fall-2006/lecture-notes/lecture14.pdf
http://radio.feld.cvut.cz/matlab/toolbox/stats/kstest.html
16.- ANOVA
16.1.- ANOVA a un factor o comparación entre tratamientos
Ejemplo:
ds = dataset(MPG,Weight);
ds.Year = ordinal(Model_Year);
mdl = LinearModel.fit(ds,'MPG ~ Year + Weight^2');
tbl = anova(mdl)
tb2= anova(mdl,'summary')
o bien directamente utilizando:
[p,tbl.stats]=anova1(variabledependiente,variablegrupo)
314
16.2.- ANOVA a dos factores e interacción
load popcorn
popcorn
p=anova2(popcorn,3);% para diseño balanceado
Entrega salida en dos ambientes: en Cwindows y
en el ambiente gráfico una tabla Anova casi completa detalla
lo mismo; pero falta p-value de la propia ANOVA
16.2.- ANOVA para más de 2 factores e interacciones
p = anovan(y,{g1 g2 g3}),% excluye interacciones
p = anovan(y,{g1 g2 g3} ,'model', 'interaction', 'varnames',
{'g1','g2','g3'})
315
hold on;plot(x1,y1);hold off
18.1.- Simulink
Es un paquete de herramientas orientadas al evento para realizar
emulaciones y representaciones gráficas de experimentos o procesos, y
en especial; simulación estadística de procesos, a partir del marco
referencial de la teoría de filas, cuyos elementos principales son
cliente y servidor.
Modulo: SimEvents
Entidades:
Las simulaciones de eventos discretos involucra ítems discretos de interés. Por definición, esos ítems
son llamados “Entidades”
Ejemplo:
Aviones esperando acceso a la pista (en un Aeropuerto con cola de acceso a la pista).
316
Un bloque gráfico puede representar un componente que procesa las entidades, pero las propias
entidades no tienen una representación gráfica. Al diseñar y analizar la simulación de eventos
discretos, es posible optar por centrarse en las propias entidades o en los procesos que sufren. Por
ejemplo, se podría plantear preguntas sobre el tiempo medio de espera para una serie de entidades
entrando en una cola, o preguntas acerca de etapa en un proceso de múltiples pasos (que las entidades
objeto) es más susceptible al fracaso.
Evento:
En una simulación de eventos discretos un evento es un incidente instantáneo discreto que produce
cambios en variables de estado, salidas, y / o la ocurrencia de otros eventos. Ejemplos de eventos de
este que se emplean en este Toolbox son:
Colas:
En una simulación de eventos discretos, una cola almacena entidades con una cierta extensión de
tiempo que no se puede determinar con antelación. Se intenta que las entidades salgan de la cola tan p
ronto como sea posible, pero su éxito depende de si el siguiente bloque acepta nuevas entidades.
Servidores
En una simulación de eventos discretos, un servidor almacena entidades por determinado tiempo,
llamado el tiempo de servicio, y después despacha a la entidad. Durante el período de servicio, el se
dice que el servidor está al servicio de la entidad que almacena.
El tiempo de servicio para cada entidad se calcula cuando llega, lo que contrasta con el
desconocimiento inherente del tiempo de almacenamiento para las entidades en las colas. Si el
siguiente bloque al servidor no acepta la llegada de una entidad que ha completado su servicio, el
servidor se ve obligado a sostener la entidad por más tiempo.
317
Características distintivas de los diferentes servidores:
El número de entidades que el servidor puede procesar al mismo tiempo, lo que podría ser finito o
infinito.
Características de (o el método de procesamiento) el tiempo de servicio para las entidades que llegan
al servidor.
Si el servidor permite o no, a ciertas entidades adelantarse a las entidades que ya están almacenados en
el servidor.
En algunos casos, un servidor de un modelo es similar a un aspecto del sistema análogo del mundo real
que está siendo modelado. Por ejemplo, podría usar un servidor para representar:
Una persona (como un cajero de banco) que realiza una transacción con cada llegada de los clientes.
Un transmisor que procesa y envía mensajes.
Una máquina que reúne las piezas en una fábrica.
Un equipo que ejecuta programas.
Para mostrar como se utiliza esta poderosa herramienta de Matlab, partimos creando un modelo
sencillo:
Un sistema de líneas de espera, en el que los "clientes" - entidades - llegan a una tasa fija
determinista, esperan en una cola, y avanzan a un servidor que opera a una tasa fija determinista. Este
tipo de sistema se conoce como un sistema de espera en cola D/D/1. La notación indica una tasa de
llegadas determinista, una tasa de servicio determinista, y un único servidor.
Cada bloque posee un cuadro de dialogo en el que se setean los parámetros deseados. En este ejemplo
inicial se busca configurar los bloques para crear un gráfico que muestre cuando cada entidad sea
despachada del servidor, asumiendo una población infinita en la cola.
“Time-Bases Entity Generator”: este bloque genera entidades usando intervalos de tiempo o a través d
e distribuciones estadísticas. En este caso, se configura para que genere una Entidad cada 1 segundo
(tasa determinista).
318
“Fifo Queue”: Este bloque almacena N entidades con la secuencia FIFO (Firts In Firts Out) durante un
periodo de tiempo (N capacidad de almacenamiento, numero de entidades que puede almacenar). En
nuestro caso se setea con capacidad infinita.
“Single Server”: Este bloque procesa una entidad por un período de tiempo, y entonces intenta
despacharla a través del puerto OUT. Si el puerto de salida está bloqueado, entonces la entidad se
mantiene en este bloque hasta que la salida de este bloque esté desbloqueado. En este caso, el tiempo
de servicio se establece en 1, lo que significa que el servidor emplea 1 segundo procesando cada
entidad que llega recibe.
319
“Entity Sink”: este bloque permite o bloquea entidades. Permite poner fin al camino de una entidad. En
nuestro caso se setea para que permita recibir las entidades que salen del bloque “Single Server”.
“Signal Scope”: Este bloque permite mostrar gráficamente los resultados obtenidos de la simulación.
No requiere configuración.
320
'
http://dgf.uchile.cl/rene/GF600/Apunte_de_MATLAB.pdf
https://es.mathworks.com/discovery/teoria-colas.html
https://es.scribd.com/document/265658394/Queue-System-SIMULINK-MATLAB-pdf
http://ocw.upc.edu/sites/all/modules/ocw/estadistiques/download.php?file=5
1427/2011/1/54513/tema_5_simulink-5156.pdf
321
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
Índice
A
Achatamiento 27 Desviación mediana 26
Aleatorio 33 Discordancias 29
Álgebra de sucesos 34 Disjuntos 36
Amplitud 26 Distribución 49,74
Análisis de número de servidores, 209-212 Efectos de tratamientos 139
Asimetría 27 Eficiencia 105
Asintóticamente insesgado 106 Eficiencia relativa 105
Erlang 53,159,185,186
B Error cuadrático medio 103
Bondad de ajuste 130 Error tipo I, tipo II 99,123
Binomial 53,72, 97 Escala cualitativa, variable cualitativa 15
Binomial negativa 38,72 Escala cuantitativa, variable cuantitativa 15
Borel 36 Escalas de medición 15
Espacio de probabilidad 33,36
Espacio medible 35
C Espacio muestral 33
Cambio de variable 63, 84 Estadística como Ciencia 13
Cantidad de información de Fisher 104 Estadística descriptiva 15
Capacidad Finita 163 Estadísticas 23,100,111,123
Carga ofrecida 159 Estadísticas condicionadas 26
Casi seguramente 92 Estadísticas de Asociación 28
Casos favorables, posibles 37 Estadísticas de curtosis 27
Categorías 17 Estadísticas de Dispersión 26
Chebychev 68 Estadísticas de Forma 27
Chernoff 68 Estadísticas de Posición 23
Chi-cuadrado 29,72,131 Estadísticas de orden 23
Clases 17 Estadísticas de simetría 27
Clasificación de variables 15 Estadísticas marginales 26
Coeficiente de determinación 28 Estimación de efectos de tratamientos 144
Coeficientes de correlación 28,87 Estimación por conj. confidenciales 111
Completa 108 Estimación puntual 100
Concordancias 29 Estimador 100
Condicional 18, 39, 79 Estocástico 33
Conjuntamente independientes 40,80 Etapas del Método Científico 13
Consistente 106 Etapas del Método Estadístico 14
Convergencia 93 Excluyentes 36
Convolución 81 Exponencial 53,73,108
Correlación 28
Costos en lineas de espera 151,209,212
Cota de Cramér-Rao 105
F
Covarianza 28,87 Factor de utilización del sistema 154
Cuantía 51,54,72 Familia completa 108
Cuartiles 24,59 Familia exponencial 108
Curtosis (achatamiento) 27,67,72,73 Fisher 104
Frecuencias absolutas, relativas 17
Frecuencias marginales, condicionales 18
D Función característica 70
Densidad 51,54,73 Función de distribución 47,74
Descomposición de la varianza 27,141 Función de pérdida
Desigualdades 68,194 Función de potencia 123
Desviación estándar 26 Función de regresión 87
Desviación media 26 Función de verosimilitud 101
323
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
G
Gamma 53,73 Métodos Montecarlo 226
Generación de números aleatorios 66 Métodos Recursivos 233
Generadoras de momentos 69 Método de Composición 235
Generación de variables al. discretas 230 Mínimo entre v.a. 82
Gráficos estadísticos 20 Minkowski 68
Moda 23
Modelo de efectos fijos 139
H Modelo Probabilístico 54
Hipergeométrica 53,72 Modelos discretos, continuos 54
Histograma 20 Momento de orden r respecto a 67
Holder 68 Momento factorial de orden r 69
Muestra aleatoria 80
Muestreo 14
I Multinomial 76
Independencia 19,80,134
Indicadores de asimetría, curtosis 27
Inferencia estadística 99 N
Insegado 103 Nivel de confianza 112
Intensidad de tráfico 159 Nivel de significación 123
Intervalar 15 Nominal 15
Intervalos confidenciales 112 Normal 53,73,76
Número de clases 17
J Número medio en el sistema 155
Jennsen 68 Números pseudos aleatorios 223
Número medio en espera 155
K
Kendall 29 O
Ocio del servidor 177
L Ocurrencia de sucesos 34
Lindeberg 96 Ojiva 20
Little 160 Operador de salto parcial 74
Logaritmo de verosimilitud L 101 Ordinal 15
Ley Débil de los Grandes Números 93
Ley Fuerte de los Grandes Números 94 P
Partición minimal 107
M Partición suficiente 107
Marginal 18, 79 Pearson 28
Matlab 286 Percentil 24,59
Máxima verosimilitud 101 Población 14
Matriz de varianzas covarianzas 87 Poisson 34, 36, 40
Máximo entre v.a. 82 Polígono de frecuencias 20
Media 23, 67, 85 Pollaczek-Khinchin 170,
Media condicional 27, 87 Potencia uniformemente máxima 124
Media cuadrática 106 Probabilidad 36
Mediana 23,57 Probabilidad condicional 39
Medida de probabilidad 36 Probabilidad de error tipo: I, II 123
Método Aceptación-rechazo 242 Proceso Poisson 57,155,237
Método Científico 13 Proceso Poisson no Homogéneo 239
Método de los momentos 102 p-value 125
Método de máxima verosimilitud 101
Método de Transformada Inv. 230
Método Estadístico 14
324
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa
R
Rango 23
Recorrido continuo 15
Recorrido discreto 15
Región crítica 123
Regiones confidenciales 110
S
- álgebra de sucesos 19
Significación (significancia) 123
Simulación de Proc Poisson 237,239
Simulación de una v.a. Normal 248
Simulación de Normal Multivariada 250
Snedecor 74,84,86
Soporte 51
Spearman 29
Student 73, 84
Suceso 34,
Sucesos disjuntos o excluyentes 36
Suficiente 107
T
Tabla ANDEVA 142,148
Tablas de frecuencias 17
Tamaño del recorrido 15
Tasa de efectividad 159
Tasa de flujos 160
Teorema de factorización 107
Teorema del cambio de variable 63,81
Teorema Rao-Blackwell 107
Tiempo de demora 154
Tiempo de espera 154
Teorema Central del Limite 96
Transformaciones aleatorias 63,81
Transformada de Fourier de v.a. 70
Tratamientos 140
U
Uniforme 72
V
Valor esperado 67,72,73,85
Variable aleatoria 47
Varianza muestral 26
Vector aleatorio 74
Verosimilitud 101
W
Weibull 74
325