Tema0008 2016 - v1 - Esesesesese
Tema0008 2016 - v1 - Esesesesese
Tema0008 2016 - v1 - Esesesesese
INTRODUCCIÓN
- Sirve para modelar numerosas situaciones como, por ejemplo: Muestreo de piezas que salen de una
cadena de producción y que se catalogan como Defectuosas o Aceptables. Llegadas de clientes a un
establecimiento comercial que pueden Adquirir o No adquirir determinado producto o servicio.
Tomadores de determinada póliza de seguro de vida que pueden Fallecer o No fallecer en un año.
Lanzamiento de una moneda sucesivas veces.
Distribución de Bernoulli:
La distribución de Bernoulli surge de asociar una variable X a cada ensayo de modo que
1 si sale E
X
0 si sale F
Media: = EX = p.
Varianza: 2 = Var(X) = p (1-p).
Desviación Típica: = DT(X) = p (1 p ) .
Nótese que la varianza es máxima cuando p = q = 1/2.
Distribución Binomial:
Es frecuente que nuestro interés se centre en conocer cuántos Éxitos han ocurrido en un número
determinado de ensayos:
- Número de artículos defectuosos en una muestra de n artículos.
- Número de clientes que adquieren un producto de entre los n que entraron en el establecimiento.
- Número de siniestros entre los suscriptores de una póliza de seguro de vida.
Definición: Se dice que una variable aleatoria X sigue la distribución binomial de parámetros n y p,
con n número natural y 0 < p < 1, y se representa X b ( n , p ) si su distribución de probabilidades
es:
n
P ( X k ) p k (1 p ) nk , k 0,1, 2, ..., n.
k
Notar que:
a) La probabilidad de cualquier secuencia de n ensayos con k veces E y n-k veces F es, por la
independencia de los ensayos, P ( E , E , F , E , F ,..., E ) ppqpq... p p k q n k
b) El número de secuencias distintas de E y F que se pueden formar con k E’s y n-k F’s es
n n!
= .
k k! (n - k)!
0.25
0.2
0.3
0.2
0.15
pr.
pr.
pr.
0.2 0.15
0.1
0.1
0.1
0.05
0.05
0 0 0
0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10
Media: = EX = np.
Varianza: 2 = Var(X) = np(1-p).
Desviación Típica: = DT(X) = np (1 p ) .
Nótese que la varianza es máxima cuando p = q = 1/2.
La distribución binomial es simétrica para p=0.5. Si p<0.5 presenta asimetría positiva y si p>0.5
presenta asimetría negativa.
Cálculo de Probabilidades:
Para valores pequeños de n (n = 1, 2,..., 10), haremos el cálculo directamente. Para valores grandes de
n utilizaremos distintas aproximaciones que estudiaremos más adelante.
Ejemplo: Supongamos que la probabilidad de que cierta secretaria cometa algún error de tipografía
es 0.4 para cada página, y que hay independencia en la elaboración de páginas distintas. Se pide:
a) Hallar la probabilidad de que un escrito de 5 páginas no contenga errores de tipografía.
b) Hallar la probabilidad de que en dicho escrito haya al menos 3 páginas con errores.
Solución: Recorrer página por página el escrito para ver si está o no libre de errores de tipografía,
es un Proceso de Bernoulli con p = 0.4. Si definimos la variable aleatoria
se tiene que X b ( n , p ) = b ( 5 , 0 . 4 ) .
Aproximación binomial-normal:
Para valores de n suficientemente grandes, las probabilidades binomiales se pueden aproximar por
medio de la distribución normal. Esta aproximación consiste en lo siguiente:
Si X es una v.a. con distribución binomial, Xb(n,p) y n es grande, (npq>5), entonces
X np aprox .
N ( 0, 1)
npq
Esta aproximación se basa en que la distribución binomial se puede escribir como suma de variables
de Bernoulli independientes. En efecto, si Xb(n,p) entonces se puede considerar que
n
X X
i 1
i ,con X 1 ,..., X n v .a .i.i.d . B ( p ) y aplicar el Teorema Central del Límite teniendo en cuenta
Para evitar estos problemas se emplea la denominada corrección por continuidad que consiste en
asignar al valor entero a el intervalo (a - 0.5, a + 0.5).
Como la distribución binomial asigna probabilidades positivas a los números enteros se trata de restar
o sumar 0.5 a los extremos de los intervalos según que sean extremos abiertos o cerrados para que los
valores enteros en el intervalo sean los mismos antes y después de hacer la corrección.
Así, por ejemplo:
a 0.5 np X np a 0.5 np
P ( X a) Pa 0.5 X a 0.5 P a 0.5 np a 0.5 np
npq npq npq
npq npq
a 0.5 np X np b 0.5 np
P(a X b) Pa 0.5 X b 0.5 P b 0.5 np a 0.5 np
npq npq npq
npq npq
a 0.5 np X np b 0.5 np
P (a X b) Pa 0.5 X b 0.5 P b 0.5 np a 0.5 np
npq npq npq
npq npq
Ejemplo: La tasa de artículos defectuosos producidos por una cadena de producción es del 2%.
a) Hallar la probabilidad de que en una muestra de 500 artículos extraídos al azar e
independientemente haya más de 20 defectuosos.
b) Hallar el tamaño que tiene que tener una muestra para que la probabilidad de que haya al menos
10 artículos defectuosos sea mayor que 0.95.
Planteamos una ecuación con la igualdad, y con ello obtenemos el tamaño de muestra mínimo que
garantiza la probabilidad 0.95 pedida. Con valores de n superiores también se supera, por supuesto,
la probabilidad 0.95.
Una simple comprobación nos muestra que la solución del problema es n>802.11, es decir, n803.
La otra solución de la ecuación corresponde a la solución de la inecuación con el valor +1.65 en el
lado derecho.
Para finalizar debemos hacer la comprobación: npq = 15.7388 > 5, lo que valida la aproximación.
Ejemplo: Un comerciante recibe artículos de un proveedor quien le anuncia que la tasa de artículos
defectuosos es inferior al 3%, cantidad que, de ser cierta, el comerciante considera razonable. Para
cerciorarse de la validez de la afirmación del proveedor, el comerciante somete a un control
exhaustivo una muestra de 200 artículos elegidos al azar e independientemente y adopta la siguiente
regla de decisión: Si aparecen 5 ó más artículos defectuosos en la muestra, cancela el pedido; en
caso contrario confirma el pedido.
a) Hallar la probabilidad de que un lote correcto (tasa<3%) sea rechazado por el control.
b) Hallar la probabilidad de no rechazar un lote con un tasa del 4% de defectuosos.
Solución: La inspección artículo por artículo es un proceso de Bernoulli con p = tasa de defectos. La
variable aleatoria de interés es:
X = Número de artículos defectuosos entre 200 inspeccionados.
Sabemos que su distribución de probabilidades es X b ( n , p ) b ( 200 , p ).
a) Pongámonos en el caso extremo p = 0.03. En caso de que p < 0.03, la probabilidad pedida será
menor que la que obtengamos en el supuesto p = 0.03. Es decir, vamos a obtener el máximo de las
probabilidades de rechazar el lote para los distintos valores de p que cumplen las especificaciones
del proveedor. Por tanto, X b ( n , p ) b ( 200 , 0 . 03 ), npq 5 . 82 5 y está justificado el uso de la
aproximación binomial-normal para obtener la probabilidad pedida:
X np 5 0.5 6
P ( X 5) P ( X 5 0.5) P 1 5 0.5 6 1 (0.6217) 0.73.
npq 5.82 5.82
b) Supongamos ahora que la tasa de defectos fuese del 4%, entonces tenemos que
X b ( n , p ) b ( 200 , 0 . 04 ), npq 7 . 68 5
y por tanto:
X np 4 0.5 8
P ( X 4) P ( X 4 0.5) P 4 0.5 8 (1.26) 0.104.
npq 7.68 7.68
Este problema se puede enmarcar dentro de lo que llamaremos Contraste de Hipótesis que
estudiaremos más adelante. Se han establecido dos hipótesis sobre el modelo de probabilidad
desconocido para la población de artículos: Una es que se cumplen las especificaciones del
fabricante (p0.03) y la otra alternativa es que no se cumplen (p>0.03).
Para decidir sobre cuál de ellas es la válida se construye una regla de decisión basada en la
información obtenida a partir de una muestra aleatoria de artículos de la población. En este caso, la
regla de decisión es: Creemos las especificaciones del fabricante siempre que salgan menos de 5
artículos defectuosos en una muestra de 200; si, por el contrario, salen 5 o más, concluimos que el
fabricante está equivocado.
Lógicamente, cualquier regla de decisión de esta naturaleza, puede estar sujeta a dos tipos de
errores: Creer las especificaciones del fabricante cuando no sean correctas (apartado b) y no
creerlas cuando sean correctas (apartado a). La calidad de una regla de decisión estadística
dependerá, lógicamente, de que las probabilidades de cometer estos errores sean lo más pequeñas
que sea posible.
Distribución Geométrica:
En ocasiones, nuestro interés en un Proceso de Bernoulli radica en conocer cuántos ensayos
transcurren hasta que se produce el primer Éxito:
- Número de artículos inspeccionados hasta que aparece el primer Defectuoso.
- Número de declaraciones auditadas por un inspector hasta que aparece la primera fraudulenta.
- Número de clientes que se informan de determinado producto hasta que uno lo adquiere.
Definición: Se dice que una variable aleatoria X sigue la distribución geométrica de parámetro p, con
0 < p < 1, y se representa X g ( p ) si su distribución de probabilidades es:
La independencia entre los ensayos hace que también tengan distribución g ( p ) las variables
P X k n
i 1
q qkn
p
P X kn i k n 1
q n P X n
X k P X k
q i 1
p q k
i k 1
Puede demostrarse además que es la única ley con espacio muestral k=1, 2,… que tiene esta
propiedad.
Distribución de Pascal:
Una generalización natural de la ley geométrica surge de estudiar cuántos ensayos transcurren hasta
que se produce el Éxito número r:
- Número de artículos inspeccionados hasta que aparecen r Defectuosos.
- Número de declaraciones de I.V.A. auditadas por un inspector hasta que aparecen r fraudulentas.
- Nº de clientes que se informan de un producto hasta que se adquieren las r unidades disponibles.
Definición: Se dice que una variable aleatoria X sigue la distribución de Pascal de parámetros r y p,
con r entero positivo y 0 < p < 1, y se representa X P (r, p ) si su distribución de probabilidades
es:
k 1 r
P( X k ) p (1 p ) k r , k r , r 1, r 2,...
r 1
La independencia entre los ensayos hace que también tengan distribución P(r, p) las variables
Cálculo de Probabilidades:
Las probabilidades de la distribución de Pascal no son fáciles de obtener directamente pero se pueden
obtener a partir de una distribución binomial como sigue:
Supongamos que tenemos una v.a. X con distribución de Pascal, XP(r,p), es decir, X se puede
representar en un proceso de Bernoulli como
X = Número de ensayos hasta el r-ésimo Éxito.
Como es equivalente decir que el Éxito número r tarda más de n ensayos en ocurrir, P(X > n), y
que decir que en n ensayos ocurren como mucho r-1 Éxitos, P(Y r-1), tenemos que
n k r 1
P( X n ) P(Y r 1) p (1 p ) n k
k 0 k
con lo que podemos utilizar todos los procedimientos disponibles para la distribución binomial a la
hora de calcular probabilidades para la distribución de Pascal.
Ejemplo: En cierta factoría de montaje en serie se estima que el 30% de los días de trabajo se
produce algún paro parcial por averías menores y se supone que hay independencia entre lo que
ocurre en días distintos. Cada vez que se acumulan tres días con paros parciales, la empresa decide
hacer un paro total para poner a punto el sistema. Obtener la probabilidad de que transcurran más
de 10 días sin producirse un paro total.
Solución: Analizar día a día si se ha producido o no algún paro parcial es un Proceso de Bernoulli
de parámetro p = 0.3. Si definimos la v.a. X = Número de días que transcurren hasta el tercero con
paros parciales, tenemos que esta variable sigue la distribución de Pascal P(3,0.3).