Distribuciones de Probabilidad

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 30

DISTRIBUCIONES DE PROBABILIDAD.

Toda distribución de probabilidad es generada por una variable aleatoria x, la que puede ser de dos
tipos:
1 . Variable aleatoria discreta (x).
Se le denomina variable porque puede tomar diferentes valores, aleatoria, porque el valor tomado
es totalmente al azar y discreta porque solo puede tomar valores enteros y un número finito de
ellos.
Una distribución discreta describe la probabilidad de ocurrencia de cada valor de una variable
aleatoria discreta. Una variable aleatoria discreta es una variable aleatoria que tiene valores
contables, tales como una lista de enteros no negativos.
Con una distribución de probabilidad discreta, cada valor posible de la variable aleatoria discreta
puede estar asociado con una probabilidad distinta de cero. Por lo tanto, una distribución de
probabilidad discreta suele representarse en forma tabular.
Ejemplos:
x® Variable que nos define el número de burbujas por envase de vidrio que son generadas en un
proceso dado.
x®0, 1, 2, 3, 4, 5, etc, etc. burbujas por envase
x®Variable que nos define el número de productos defectuosos en un lote de 25 productos.
x®0, 1, 2, 3,....,25 productos defectuosos en el lote
x®Variable que nos define el número de alumnos aprobados en la materia de probabilidad en un
grupo de 40 alumnos.
x®0, 1, 2, 3, 4, 5,....,40 alumnos aprobados en probabilidad
Con los ejemplos anteriores nos damos cuenta claramente que los valores de la variable x siempre
serán enteros, nunca fraccionarios.

Variable aleatoria discreta (x). Porque solo puede tomar valores enteros y un número
finito de ellos. Por ejemplo:

 x ® Variable que define el número de alumnos aprobados en la materia de probabilidad en


un grupo de 40 alumnos (1, 2 ,3…ó los 40).

PROPIEDADES DE UNA VARIABLE ALEATORIA DISCRETA (X)


a. 0≤p(xi)£1 Las probabilidades asociadas a cada uno de los valores que toma x deben ser
mayores o iguales a cero y menores o iguales a 1.

a. Sp(xi) = 1 La sumatoria de las probabilidades asociadas a cada uno de los valores que
toma x debe ser igual a 1.
Ejemplo para variable aleatoria discreta
Se tiene una moneda que al lanzarla puede dar sólo dos resultados: o cara (50%), o cruz (50%).
La siguiente tabla muestra los posibles resultados de lanzar dos veces una moneda:

PROBABILIDAD DE
PRIMER SEGUNDO NUMERO DE CARAS EN 2
LOS 4 RESULTADOS
LANZAMIENTO LANZAMIENTO LANZAMIENTOS
POSIBLES

CARA CARA 2 0.5 X 0.5 = 0.25

CARA CRUZ 1 0.5 X 0.5 = 0.25

CRUZ CARA 1 0.5 X 0.5 = 0.25

CRUZ CRUZ 0 0.5 X 0.5 = 0.25

Al realizar la tabla de distribución del número posible de caras que resulta de lanzar una
moneda dos veces, se obtiene:

PROBABILIDAD DE ESTE
NÚMERO DE CARAS LANZAMIENTOS RESULTADO

P(CARA)

0 (CRUZ, CRUZ) 0.25

(CARA, CRUZ)

1 + 0.50

(CRUZ, CARA)

2 (CARA, CARA) 0.25


ESPERANZA MATEMATICA
Varianza
La varianza es un promedio ponderado de las desviaciones al cuadrado de una variable
aleatoria de su media. Los pesos son las probabilidades.
Aun cuando el valor esperado proporciona el valor medio de la variable aleatoria, a menudo
necesitamos una medida de variabilidad o dispersión. Ahora la varianza se usa para resumir
la variabilidad en los valores de una variable aleatoria. A continuación se presenta la fórmula
para la varianza de una variable aleatoria discreta.

Como muestra la ecuación, una parte esencial de la fórmula de la varianza es la desviación,


x -  , la cual mide a qué distancia está el valor esperado, o la media,  , de un valor
particular de la variable aleatoria. Para calcular la varianza de una variable aleatoria, las
desviaciones se elevan al cuadrado y luego se ponderan por el valor correspondiente de la
función de probabilidad. La suma de estas desviaciones al cuadrado ponderadas para todos
los valores de la variable aleatoria se conocen como la varianza. Las notaciones Var (x) y
σ2 se usan para denotar la varianza de una variable aleatoria.
El cálculo de la varianza para la distribución de probabilidad del número de automóviles vendidos durante un día en
DiCarlo Motors se resume en la tabla 5.5. Vemos que la varianza es 1.25. La desviación estándar, , se define como la
raíz cuadrada positiva de la varianza. Por tanto, la desviación estándar para el número de automóviles vendidos durante un
día es

La desviación estándar se mide en las mismas unidades que la variable aleatoria ( = 1.118 automóviles) y por tanto a
menudo se prefiere para describir la variabilidad de una variable aleatoria. La varianza 2 se mide en unidades cuadradas
y por tanto, es más difícil de interpretar.
Distribución de probabilidad continúa

Una distribución de probabilidad continua, la distribución


normal.

En teoría de la probabilidad una distribución de


probabilidad se llama continua si su función de
distribución es continua. Puesto que la función de
distribución de una variable aleatoria X viene dada

por , la definición implica que en una distribución de


probabilidad continua X se cumple P[X = a] = 0 para
todo número real a, esto es, la probabilidad de
que X tome el valor a es cero para cualquier valor de a. Si la distribución de X es continua, se
llama a X variable aleatoria continua.
En las distribuciones de probabilidad continuas, la distribución de probabilidad es la integral de
la función de densidad, por lo que tenemos entonces que:

Mientras que en una distribución de probabilidad discreta un suceso con probabilidad cero
es imposible, no se da el caso en una variable aleatoria continua. Por ejemplo, si se mide
lo largo de una hoja de roble, el resultado 3,5 cm no es posible, pero tiene probabilidad uno
porque hay infinitos valores posibles entre 3 cm y 4 cm. Cada uno de esos valores
individuales tiene probabilidad cero, aunque la probabilidad de ese intervalo no lo es. Esta
aparente paradoja no se resuelve por el hecho de que la probabilidad de que X tome algún
valor en un conjunto infinito como un intervalo, no puede calcularse mediante la adición
simple de probabilidades de valores individuales. Formalmente, cada valor tiene una
probabilidad infinitesimal que estadísticamente equivale a cero.
Existe una definición alternativa más rigurosa en la que el término "distribución de
probabilidad continua" se reserva a distribuciones que tienen función de densidad de
probabilidad. Estas funciones se llaman, con más precisión, variables
aleatorias absolutamente continuas (véase el Teorema de Radon-Nikodym). Para una
variable aleatoria Xabsolutamente continua es equivalente decir que la probabilidad
P[X = a] = 0 para todo número real a, en virtud de que hay un incontables conjuntos de
medida de Lebesgue cero (por ejemplo, el conjunto de Cantor).
Una variable aleatoria con la distribución de Cantor es continua de acuerdo con la primera
definición, pero según la segunda, no es absolutamente continua. Tampoco es discreta, ni
una media ponderada de variables discretas y absolutamente continuas.
En aplicaciones prácticas, las variables aleatorias a menudo ofrece una distribución discreta
o absolutamente continua, aunque también aparezcan de forma natural mezclas de los dos
tipos.
Para una variable continua hay infinitos valores posibles de la variable y entre cada dos de
ellos se pueden definir infinitos valores más. En estas condiciones no es posible deducir la
probabilidad de un valor puntual de la variable; como se puede hacer en el caso
de variables discretas, pero es posible calcular la probabilidad acumulada hasta un cierto
valor (función de distribución de probabilidad), y se puede analizar como cambia la
probabilidad acumulada en cada punto (estos cambios no son probabilidades sino otro
concepto: la función de densidad.
En el caso de variable continua la distribución de probabilidad es la integral de la función de
densidad, por lo que tenemos entonces que:

Sea X una variable continua, una distribución de probabilidad o función de densidad de


probabilidad (FDP) de X es una función f(X) tal que, para cualesquiera dos números a
y b siendo a  b.

La gráfica de f(X) se conoce a veces como curva de densidad, la probabilidad de que X tome
un valor en el intervalo [a, b] es el área bajo la curva de la función de densidad; así, la función
mide concentración de probabilidad alrededor de los valores de una variable aleatoria
continua.
P(a X b) =área bajo la curva de f(x) entre a y b
Para que f(x) sea una FDP (FDP = f(x) legítima, debe satisfacer las siguientes dos
condiciones:

Ya que la probabilidad es siempre un número positivo, la FDP es una función no decreciente


que cumple:

Algunas FDP están declaradas en rangos de - a , como la de la distribución normal.

Variable continúa
Las variables continuas son variables numéricas que tienen un número infinito de
valores entre dos valores cualesquiera. Una variable continua puede ser numérica o de
fecha/hora. Por ejemplo, la longitud de una pieza o la fecha y hora en que se recibe
un pago.

Si usted tiene una variable discreta y desea incluirla en un modelo de regresión o de


ANOVA, puede optar por tratarla como un predictor continuo (covariable) o un
predictor categórico (factor). Si la variable discreta tiene muchos niveles, puede ser
mejor tratarla como una variable continua. Cuando un predictor es tratado como una
variable continua, una función lineal o polinómica simple puede describir
adecuadamente la relación entre la respuesta y el predictor. Cuando usted trata un
predictor como una variable categórica, un valor de respuesta diferente se ajusta a
cada nivel de la variable sin tener en cuenta el orden de los niveles del predictor.
Considere esta información, además del propósito del análisis, para decidir qué es lo
mejor para su situación.

Esperanza matemática
En estadística la esperanza matemática (también llamada esperanza, valor esperado, media
poblacional o media) de una variable aleatoria X, es el número E[X] o E[x] que formaliza la idea
de valor medio de un fenómeno aleatorio.
Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de
cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa
la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la
probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado
número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos
puede no ser "esperado" en el sentido más general de la palabra (el valor de la esperanza puede
ser improbable o incluso imposible).
Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos
hacer el cálculo

y cabe destacar que 3,5 no es un valor posible al tirar el dado. En este caso, en el que todos
los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.
Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar.
Por ejemplo, la ruleta francesa tiene 37 casillas equiprobables. La ganancia para acertar una
apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos
apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por
tanto, considerando los 37 posibles resultados, la esperanza matemática del beneficio para
apostar a un solo número es:

Que es exactamente -0,027027. Por lo tanto uno esperaría, en media, perder unos 2,7
céntimos por cada euro que apuesta, y el valor esperado para apostar 1 euro son 0.97273
euros. En el mundo de las apuestas, un juego donde el beneficio esperado es cero (no
ganamos ni perdemos) se llama un "juego justo".
Nota: El primer término es la "esperanza" de perder la apuesta de 1€, por eso el valor es
negativo. El segundo término es la esperanza matemática de ganar los 35€. La esperanza
matemática del beneficio es el valor esperado a ganar menos el valor esperado a perder.
Para una variable aleatoria discreta con valores posibles x1, x2…xn y sus probabilidades
representadas por la función de probabilidad p(xi) la esperanza se calcula como ejemplo:

Para una variable aleatoria absolutamente continua, la esperanza se calcula mediante la


integral de todos los valores y la función de densidad f(x):

La definición general de esperanza se basa, como toda la teoría de la probabilidad, en el


marco de la teoría de la medida y se define como la siguiente integral:

La esperanza también se suele simbolizar con  =


Las esperanzas 𝔼[𝑥 𝑘 ] para k= 0, 1, 2…se llaman momentos de orden k. Más importantes
son los momentos centrados 𝔼[(𝑥 − 𝔼[𝑥])𝑘 ].
No todas las variables aleatorias tienen un valor esperado. Por ejemplo, la distribución de
Cauchy no lo tiene.

VARIANZA
En teoría de probabilidad, la varianza o variancia (que suele representarse como 2) de
una variable aleatoria es una medida de dispersión definida como la esperanza del cuadrado
de la desviación de dicha variable respecto a su media.
Su unidad de medida corresponde al cuadrado de la unidad de medida de la variable: por
ejemplo, si la variable mide una distancia en metros, la varianza se expresa en metros al
cuadrado. La varianza tiene como valor mínimo 0. La desviación estándar (raíz cuadrada de la
varianza) es una medida de dispersión alternativa, expresada en las mismas unidades que los
datos de la variable objeto de estudio. Hay que tener en cuenta que la varianza puede verse
muy influida por los valores atípicos y no se aconseja su uso cuando las distribuciones de las
variables aleatorias tienen colas pesadas. En tales casos se recomienda el uso de otras
medidas de dispersión más robustas.
Si tenemos un conjunto de datos de una misma variable, la varianza se calcula de la siguiente
forma:

Variable aleatoria

Caso continuo

Caso discreto
Distribución de frecuencias
En estadística, se le llama distribución de frecuencias a la agrupación de datos en categorías
mutuamente incluye que indican el número de observaciones en cada categoría.1 Esto
proporciona un valor añadido a la agrupación de datos. La distribución de frecuencias presenta
las observaciones clasificadas de modo que se pueda ver el número existente en cada clase.
Tipos de frecuencias

 Frecuencia completa
La frecuencia completa por su denominación es el número de veces que aparece un
determinado valor en un valor estadístico. Se representa por fila. La suma de la frecuencia
completa es igual al número total de datos, que se representa por N. Para indicar
resumidamente estas sumas se utiliza la letra griega Σ (sigma mayúscula) que se lee
sumatoria.
 Frecuencia relativa
Se dice que la frecuencia relativa es el cociente entre la frecuencia absoluta de un
determinado valor y el número total de datos. Se puede expresar en tantos por ciento y se
representa por hi. La suma de las frecuencias relativas es igual a 1
Frecuencia relativa (hi) es el cociente entre la frecuencia absoluta y el tamaño de la muestra
(N). Es decir:

Siendo el fi para todo el conjunto i. Se presenta en una tabla o nube de puntos en una
distribución de frecuencias.
Si multiplicamos la frecuencia relativa por 100 obtendremos el porcentaje o tanto por ciento
(pi).
 Frecuencia acumulada
La frecuencia acumulada es la suma de las frecuencias absolutas de todos los valores
inferiores o iguales al valor considerado.
La frecuencia acumulada es la frecuencia estadística F(XXr) con que el valor de un variable
aleatoria (X) es menor que o igual a un valor de referencia (Xr).
La frecuencia acumulada relativa se deja escribir como Fc(X≤Xr), o en breve(Xr), y se calcula
de

Fc (Hr) = HXr / N

donde MXr es el número de datos X con un valor menor que o igual a Xr, y N es número total
de los datos. En breve se escribe:

Fc = M / N
Cuando Xr=Xmin, donde Xmin es el valor mínimo observado, se ve que Fc=1/N, porque M=1.
Por otro lado, cuando Xr=Xmax, donde Xmax es el valor máximo observado, se ve que Fc=1,
porque M=N.
En porcentaje la ecuación es:

Fc(%) = 100 M / N

 Frecuencia relativa acumulada


La frecuencia relativa acumulada es el cociente entre la frecuencia acumulada de un
determinado valor y el número total de datos. Se puede expresar en tantos por ciento.
Ejemplo:
Durante el mes de julio, en una ciudad se han registrado las siguientes temperaturas
máximas:
32, 31, 28, 29, 33, 32, 31, 30, 31, 31, 27, 44

 Distribución de frecuencias agrupadas

La distribución de frecuencias agrupadas o tabla con datos agrupados se emplea si las


variables toman un número grande de valores o la variable es continua. Se agrupan los
valores en intervalos que tengan la misma amplitud denominados clases. A cada clase se le
asigna su frecuencia correspondiente. Límites de la clase. Cada clase está delimitada por el
límite inferior de la clase y el límite superior de la clase.
La amplitud de la clase es la diferencia entre el límite superior e inferior de la clase. La marca
de clase es el punto medio de cada intervalo y es el valor que representa a todo el intervalo
para el cálculo de algunos parámetros. En caso de que el primer intervalo sea de la forma (-
∞,k], o bien [k,+∞) donde k es un número cualquiera, en el caso de (-∞,k], para calcular la
marca de clase se tomará la amplitud del intervalo adyacente a el (ai+1), y la marca de clase
será ((k-ai+1) +k)/2. En el caso del intervalo [k,+∞) también se tomará la amplitud del intervalo
adyacente a el (ai-1) siendo la marca de clase ((k+ai-1)+k)/2.

Construcción de una tabla de datos agrupados:


3, 15, 24, 28, 33, 35, 38, 42, 43, 38, 36, 34, 29, 25, 17, 7, 34, 36, 39, 44, 31, 26, 20, 11, 13, 22,
27, 47, 39, 37, 34, 32, 35, 28, 38, 41, 48, 15, 32, 13.

1. Se localizan los valores menor y mayor de la distribución. En este caso son 3 y 48.
2. Se restan y se busca un número entero un poco mayor que la diferencia y que sea
divisible por el número de intervalos que queramos establecer.
Es conveniente que el número de intervalos oscile entre 6 y 15.
En este caso, 48 - 3 = 45, incrementamos el número hasta 50 : 5 = 10 intervalos.
Se forman los intervalos teniendo presente que el límite inferior de una clase pertenece al
intervalo, pero el límite superior no pertenece al intervalo, se cuenta en el siguiente intervalo.

Intervalo ci ni Ni fi Fi

[0, 5) 2.5 1 1 0.025 0.025

[5, 10) 7.5 1 2 0.025 0.050

[10, 15) 12.5 3 5 0.075 0.125

[15, 20) 17.5 3 8 0.075 0.200

[20, 25) 22.5 3 11 0.075 0.275

[25, 30) 27.5 6 17 0.150 0.425

[30, 35) 32.5 7 24 0.175 0.600

[35, 40) 37.5 10 34 0.250 0.850

[40, 45) 42.5 4 38 0.100 0.950

[45, 50) 47.5 2 40 0.050 1

Total: 40 1
Ensayo de Bernoulli
En la teoría de probabilidad y estadística, un ensayo de Bernoulli es un
experimento aleatorio en el que sólo se pueden obtener dos resultados (habitualmente
etiquetados como éxito y fracaso). Se denomina así en honor a Jakob Bernoulli.
Desde el punto de vista de la teoría de la probabilidad, estos ensayos están modelados por
una variable aleatoria que puede tomar sólo dos valores, 0 y 1. Habitualmente, se utiliza el 1
para representar el éxito.
Si p es la probabilidad de éxito, entonces el valor del valor esperado de la variable aleatoria
es p y su varianza, p (1-p).
Los procesos de Bernoulli son los que resultan de la repetición en el tiempo de ensayos de
Bernoulli independientes pero idénticos.
Ejemplos
En la práctica, los ensayos de Bernoulli se utilizan para modelar fenómenos aleatorios que
sólo tienen dos resultados posibles, como por ejemplo:

 Al lanzar una moneda, comprobar si sale cara (éxito) o cruz (fracaso). Se suele suponer
que una moneda tiene una probabilidad de éxito de 0,5.
 Al lanzar un dado, ver si se obtiene un seis (éxito) o cualquier otro valor (fracaso).
 Al realizar una encuesta política, tras escoger un votante al azar, ver si éste votará "si" en
un referéndum próximo.
 ¿Era el recién nacido niña?
 ¿Son verdes los ojos de una persona?
 ¿Decidió un cliente potencial comprar determinado producto?
Hay que entender que éxito y fracaso son etiquetas para los resultados y que no debe ser
interpretado literalmente.

Distribución binomial
En estadística, la distribución binomial es una distribución de probabilidad discreta que
cuenta el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre
sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de
Bernoulli se caracteriza por ser dicotómico, esto es, solo dos resultados son posibles. A uno de
estos se denomina «éxito» y tiene una probabilidad de ocurrencia p y al otro, «fracaso», con
una probabilidad2 q = 1 - p. En la distribución binomial el anterior experimento se repite n veces,
de forma independiente, y se trata de calcular la probabilidad de un determinado número de
éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial de
parámetros n y p, se escribe:

La distribución binomial es la base del test binomial de significación estadística.


Ejemplos
Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por
esta distribución:

 Se lanza un dado diez veces y se cuenta el número X de tres obtenidos:


entonces X ~ B(10, 1/6)

Experimento binomial
Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los
experimentos es independiente de los restantes (la probabilidad del resultado de un experimento
no depende del resultado del resto). El resultado de cada experimento ha de admitir sólo dos
categorías (a las que se denomina éxito y fracaso). Las probabilidades de ambas posibilidades
han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p).
Se designa por X a la variable que mide el número de éxitos que se han producido en
los n experimentos.
Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución de
probabilidad binomial, y se denota B(n,p).

Características analíticas
Su función de probabilidad es

Ejemplo
Supongamos que se lanza un dado (con 6 caras) 51 veces y queremos conocer la probabilidad
de que el número 3 salga 20 veces. En este caso tenemos una X ~ B(51, 1/6) y la probabilidad
sería P(X=20):
Propiedades

Distribución Uniforme
Es la más sencilla de las distribuciones continuas. Surge cuando consideramos una
variable aleatoria que toma valores en un intervalo finito de manera equiprobable.
Esta se define como una variable aleatoria continua, X, se dice que se distribuye
como una distribución uniforme de parámetros a, b, tales que –∞< a < b< +∞.

siempre se verifica que su función de densidad viene dada por la expresión:


Lo más significativo que vamos a destacar de esta distribución es que su esperanza viene dada por
la expresión:

y su varianza por

La función de distribución dada una variable aleatoria uniforme es

Distribución Normal
Es una de las distribuciones más importantes. Es el modelo de distribución más
utilizado en la práctica, ya que multitud de fenómenos se comportan según una
distribución normal. Esta distribución de caracteriza porque los valores se
distribuyen formando una campana de Gauss, en torno a un valor central que
coincide con el valor medio de la distribución: Las ventajas teóricas de este modelo
hacen que su uso se generalice en las aplicaciones reales. Sea X una variable
aleatoria continua, se dice que se distribuye como una normal

Donde se verifica que x +∞<.es el valor medio de la distribución y es precisamente


donde se sitúa el centro de la curva (de la campana de Gauss), y σ es cualquier
valor entre –∞ y +∞, si su función de densidad viene dada por:

Cuando la media de la distribución es 0 y la varianza es 1, se denomina "normal tipificada", y su


ventaja reside en que hay tablas, o rutinas de cálculo que permiten obtener esos mismos valores,
donde se recoge la probabilidad acumulada para cada punto de la curva de esta distribución. Es se
verá con más detalle en el siguiente apartado.
Propiedades:

• Tiene un parámetro que es la media E[x]= μ .

• Tiene otro parámetro que nos da la dispersión. v[x]= σ2 .

• La media, la moda y la mediana coinciden.

• Es una función simétrica respecto a la media, como se puede ver en el gráfico.

• Si definimos la variable Y = a X + b, donde X se distribuye como una normal de parámetros X→N


(μ, σ ); , entonces:

• Sean dos variables aleatorias normales que se distribuyen X1 → N( μ1 , σ1 ), y X2 → N(μ2, σ2) se


define una nueva variable de la forma Y = X1 + X2, entonces esta nueva variable se distribuye como:
DISTRIBUCIÓN EXPONENCIAL

A pesar de la sencillez analítica de sus funciones de definición, la distribución


exponencial tiene una gran utilidad práctica ya que podemos considerarla como un
modelo adecuado para la distribución de probabilidad del tiempo de espera entre
dos hechos que sigan un proceso de Poisson. De hecho la distribución exponencial
puede derivarse de un proceso experimental de Poisson con las mismas
características que las que enunciábamos al estudiar la distribución de Poisson,
pero tomando como variable aleatoria , en este caso, el tiempo que tarda en
producirse un hecho

Obviamente, entonces , la variable aleatoria será continua. Por otro lado existe una
relación entre el parámetro  de la distribución exponencial , que más tarde
aparecerá , y el parámetro de intensidad del proceso  , esta relación es  = 

Al ser un modelo adecuado para estas situaciones tiene una gran utilidad en los
siguientes casos:

 Distribución del tiempo de espera entre sucesos de un proceso de Poisson

 Distribución del tiempo que transcurre hasta que se produce un fallo, si se cumple
la condición que la probabilidad de producirse un fallo en un instante no depende
del tiempo transcurrido .Aplicaciones en fiabilidad y teoría de la supervivencia.

Función de densidad.

A pesar de lo dicho sobre que la distribución exponencial puede derivarse de un


proceso de Poisson , vamos a definirla a partir de la especificación de su función.
de densidad:

Dada una variable aleatoria X que tome valores reales no negativos {x  0}


diremos que tiene una distribución exponencial de parámetro  con   0, si y sólo
si su función de densidad tiene la expresión:

Diremos entonces que


Gráficamente como ejemplo
planteamos el modelo con
parámetro  =0,05

En consecuencia , la función de distribución será:

En la principal aplicación de esta distribución , que es la Teoría de la Fiabilidad,


resulta más interesante que la función de distribución la llamada Función de
Supervivencia o Función de Fiabilidad.

La función de Supervivencia se define cómo la probabilidad de que la


variable aleatoria tome valores superiores al valor dado X:

Si el significado de la variable aleatoria es "el tiempo que transcurre hasta que


se produce el fallo": la función de distribución será la probabilidad de que el fallo
ocurra antes o en el instante X: y , en consecuencia la función de supervivencia
será la probabilidad de que el fallo ocurra después de transcurrido el tiempo X ;
por lo tanto, será la probabilidad de que el elemento, la pieza o el ser considerado
"Sobreviva" al tiempo X ; de ahí el nombre.

Gráficamente, la función de distribución para un modelo exponencial de


parámetro  =0,05 sería :
En la que se observa lo que
sería la diferencia entre
función de distribución y la de
supervivencia

La Función Generatriz de Momentos será :

tendremos así que la F.G.M será :

Una vez calculada la F.G.M podemos , partiendo de ella , calcular la media y


la varianza

Así la media será:


En cuando a la varianza su expresión será :

ya que

La mediana del modelo exponencial será aquel valor de la variable x =Me


que verifica que F(Me) = ½

De manera que por lo

que

Tasa instantánea de fallo.

Dentro del marco de la teoría de la fiabilidad si un elemento tiene una


distribución del tiempo para un fallo con una función de densidad f(x) , siendo x
la variable tiempo para que se produzca un fallo , y con una función de
supervivencia S(X) La probabilidad de que un superviviente en el instante t falle
en un instante posterior t +  t será una probabilidad condicionada que vendrá dada
por:

Al cociente entre esta probabilidad condicionada y la amplitud del intervalo


considerado, t , se le llama tasa media de fallo en el intervalo [t , t+ t] :

Y a la tasa media de fallo en un intervalo infinitésimo es decir, al límite de la tasa


media de fallo cuando  t 0 se le llama Tasa Instantánea de Fallo (o,
simplemente, tasa de fallo) en t:
La tasa de fallo es, en general, una función del tiempo, que define
unívocamente la distribución.

Pues bien, puede probarse que el hecho de que la tasa de fallo sea constante
es condición necesaria y suficiente para que la distribución sea exponencial y que
el parámetro es, además, el valor constante de la tasa de fallo.

en efecto:

si

de donde integrando esta


ecuación diferencial entre 0 y x :

de modo que la función de distribución será

Función de Distribución de una


Exponencial

Si X tiene una distribución


exponencial

de manera que

Así pues si un elemento tiene una distribución de fallos exponencial su tasa


de fallos se mantiene constante a lo largo de toda la vida del elemento. La
probabilidad de fallar en un instante no depende del momento de la vida del
elemento en el que nos encontremos; lo que constituye la propiedad fundamental
de la distribución que ahora enunciamos:
Propiedad fundamental de la distribución exponencial

La distribución exponencial no tiene memoria :

Poseer información de que el elemento que consideramos ha sobrevivido un


tiempo S (hasta el momento) no modifica la probabilidad de que sobreviva t
unidades de tiempo más. La probabilidad de que el elemento falle en una hora (o
en un día, o en segundo) no depende del tiempo que lleve funcionando. No existen
envejecimiento ni mayor probabilidad de fallos al principio del funcionamiento

Expresión que no depende , como se observa , del tiempo sobrevivido s.

Ley de los grandes números

La ley de los grandes números es un teorema fundamental de la teoría de la


probabilidad que indica que si repetimos muchas veces (tendiendo al infinito)
un mismo experimento, la frecuencia de que suceda un cierto evento tiende a
ser una constante.

La ley de los grandes números señala que si se lleva a cabo repetidas veces un
mismo experimento (por ejemplo lanzar una moneda, tirar una ruleta, etc.), la
frecuencia con la que se repetirá un determinado suceso (que salga cara o sello,
que salga el número 3 negro, etc.) se acercará a una constante. Dicha constante
será a su vez la probabilidad de que ocurra este evento.

Origen de la Ley de los grandes números

La ley de los grandes números fue mencionada por primera vez por el matemático
Gerolamo Cardamo aunque sin contar con ninguna prueba rigurosa.
Posteriormente, Jacob Bernoulli logró hacer una demostración completa en su obra
“Ars Conjectandi” en el año 1713. En los años 1830´s el matemático Siméon Denis
Poisson describió con detalle la Ley de los Grandes Números lo que vino a
perfeccionar la teoría. Otros autores también harían aportaciones posteriores.

Ejemplo de la Ley de los grandes números

Supongamos el siguiente experimento: lanzar un dado común. Ahora consideremos


el evento de que nos salga el número 1. Como sabemos, la probabilidad de que
salga el número 1 es de 1/6 (el dado tiene 6 caras, una de ellas es el uno).
¿Qué nos dice la Ley de los Grandes Números?, nos dice que a medida que vamos
aumentando el número de repeticiones de nuestro experimento (hacemos más
lanzamientos del dado), la frecuencia con la que se repetirá el evento (nos sale 1)
se acercará cada más a una constante, que tendrá un valor igual a su probabilidad
(1/6 o 16,66%).

Posiblemente a los primeros 10 o 20 lanzamientos, la frecuencia con que nos sale


1 no será del 16% sino que de otro número 5% o 30%. Pero a medida que hacemos
más y más lanzamientos (digamos 10000), la frecuencia en que aparece el 1 será
muy cercana al 16,66%.

En el siguiente gráfico vemos un ejemplo de un experimento real en donde se lanza


un dado repetidas veces. Acá podemos ver cómo se va modificando la frecuencia
relativa de sacar un determinado número.

Tal como indica la Ley de los grandes números, en los primeros lanzamientos la
frecuencia es inestable pero a medida que aumentamos el número de lanzamientos,
la frecuencia tiende a estabilizarse a un cierto número que es la probabilidad de que
ocurra el suceso (en este caso números del 1 al 6 ya que se trata del lanzamiento
de un dado).

Mala interpretación de la Ley de los grandes números

Muchas personas interpretan mal la ley de los grandes números creyendo que un
evento tenderá a compensar a otro. Así por ejemplo, creen que dado que la
probabilidad de que salga el número 1 en el lanzamiento de un dado debe ser
cercana a 1/6, cuando el número 1 no aparece en los primeros 2 o 5 lanzamientos,
es muy probable que aparezca en el siguiente. Esto no es cierto, la Ley de los
Grandes Números sólo se aplica para muchas repeticiones, por lo que podemos
estar todo el día lanzando un dado y no alcanzar la frecuencia de 1/6.
El lanzamiento de un dado es un evento independiente y por ende, cuando aparece
cierto número, este resultado no afecta al próximo lanzamiento. Sólo después de
miles de repeticiones podremos comprobar que la Ley de los Grandes Números
existe y que la frecuencia relativa de que nos salga un número (en nuestro ejemplo
el 1) será de 1/6.

La mala interpretación de la teoría puede llevar a personas (sobretodo jugadores de


apuestas) a perder dinero y tiempo.

DISTRIBUCIONES BIDIMENCIONALES
Variable Bidimensional (X,Y) Sobre una población se observan simultáneamente
dos variables X e Y. La distribución de frecuencias bidimensional de (X,Y) es el
conjunto de valores, es la frecuencia absoluta conjunta o total de elementos en la
población que presenta el valor bidimensional (xi, yj). La frecuencia relativa conjunta
es la proporción de elementos en la población que presenta el valor.

5.4.1 Introducción.

Estudiaremos dos características de un mismo elemento de la población (altura y


peso, dos asignaturas, longitud y latitud). De forma general, si se estudian sobre
una misma población y se miden por las mismas unidades estadísticas una variable
X y una variable Y, se obtienen series estadísticas de las variables X e Y.
Considerando simultáneamente las dos series, se suele decir que estamos ante una
variable estadística bidimensional.

5.4.2 Distribuciones discretas Distribución Binomial

Una distribución discreta describe la probabilidad de ocurrencia de cada valor de una


variable aleatoria discreta. Una variable aleatoria discreta es una variable aleatoria que
tiene valores contables, tales como una lista de enteros no negativos. Con una
distribución de probabilidad discreta, cada valor posible de la variable aleatoria
discreta puede estar asociado con una probabilidad distinta de cero. Por lo tanto, una
distribución de probabilidad discreta suele representarse en forma tabular.

Ejemplo del número de quejas de clientes

Con una distribución discreta, a diferencia de una distribución continua, usted puede
calcular la probabilidad de que X sea exactamente igual a algún valor. Porejemplo,
puede utilizar la distribución discreta de Poisson para describir el número de quejas de
clientes en un día. Supongamos que el número promedio de quejas por día es 10 y
usted desea saber la probabilidad de recibir 5, 10 y 15 quejas de clientes en un día.

x P (X = x)

5 0.037833

10 0.12511

15 0.034718

5.2.3 Distribuciones conjuntas, marginales y condicionales


Distribuciones conjuntas
En probabilidad, dados dos eventos aleatorios X y Y, la distribución conjunta de X y Y es
la distribución de probabilidad de la intersección de eventos de X y Y, esto es, de los
eventos X e Y ocurriendo de forma simultánea. En el caso de solo dos variables aleatorias se
denomina una distribución bivariada, pero el concepto se generaliza a cualquier número de
eventos o variables aleatorias.

DISTRIBUCIONES MARGINALES
En teoría de probabilidades, la distribución marginal es la distribución de
probabilidad de un subconjunto de variables aleatorias de un conjunto de variables
aleatorias. La distribución marginal proporciona la probabilidad de un subconjunto
de valores del conjunto sin necesidad de conocer los valores de las otras variables.
Esto contrasta con la distribución condicional, que proporciona probabilidades
contingentes sobre el valor conocido de otras variables.
El término variable marginal se usa para referirse a una variable del subconjunto
de retenido y cuyos valores pueden ser conocidos.1 La distribución de las variables
marginales, la distribución marginal, se obtiene marginalizando sobre la
distribución de variables descartadas y las variables descartadas se llaman a veces
variables marginalizadas. El caso más simple es el de dos variables aleatorias
reales X e Y para la que se conozca su distribución de probabilidad conjunta .

DISTRIBUCIONES CONDICIONALES

Probabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo


que también sucede otro evento B. La probabilidad condicional se escribe P(A|B)
o P(A/B), y se lee «la probabilidad de A dado B».
No tiene por qué haber una relación causal o temporal entre A y B. A puede
preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede
causar B, viceversa o pueden no tener relación causal. Las relaciones causales o
temporales son nociones que no pertenecen al ámbito de la probabilidad. Pueden
desempeñar un papel o no dependiendo de la interpretación que se le dé a los
eventos.
Un ejemplo clásico es el lanzamiento de una moneda para luego lanzar un dado.
¿Cuál es la probabilidad que en el dado salga un 6 dado que ya haya salido una
cara en la moneda? Esta probabilidad se denota de esta manera: P(6|C).
El condicionamiento de probabilidades puede lograrse aplicando el teorema de
Bayes.

5.4.4. Valor esperado de una función de variable aleatoria

Una variable aleatoria es una función que asigna un valor, usualmente numérico,
al resultado de un experimento aleatorio. Por ejemplo, los posibles resultados de
tirar un dado dos veces: (1, 1), (1, 2), etc. o un número real (p.e., la temperatura
máxima medida a lo largo del día en una ciudad concreta).
Los valores posibles de una variable aleatoria pueden representar los posibles
resultados de un experimento aún no realizado, o los posibles valores de una
cantidad cuyo valor actualmente existente es incierto (p.e., como resultado de
medición incompleta o imprecisa). Intuitivamente, una variable aleatoria puede
tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes
valores; una distribución de probabilidad se usa para describir la probabilidad de
que se den los diferentes valores. En términos formales una variable aleatoria es
una función definida sobre un espacio de probabilidad.
Las variables aleatorias suelen tomar valores reales, pero se pueden considerar
valores aleatorios como valores lógicos, funciones o cualquier tipo de elementos (de
un espacio medible). El término elemento aleatorio se utiliza para englobar todo ese
tipo de conceptos relacionados. Un concepto relacionado es el de proceso
estocástico, un conjunto de variables aleatorias ordenadas (habitualmente por
orden o tiempo).

5.4.5 Valor esperado y variancia de funciones lineales


Se podría usar un argumento parecido para justificar las fórmulas para la varianza
de la población 2 σ y la desviación estándar de la población σ . Estas medidas
numéricas describen la dispersión o variabilidad de la variable aleatoria mediante
el “promedio” o “valor esperado” de las desviaciones cuadráticas de los valores de
x a partir de su media µ .

5.4.6 Esperanza matemática condicional


es el número o que formaliza la idea de valor medio de un fenómeno aleatorio.
Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la
probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho
suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado
de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene
constante y el experimento se repite un elevado número de veces. Cabe decir que
el valor que toma la esperanza matemática en algunos casos puede no ser
"esperado" en el sentido más general de la palabra (el valor de la esperanza puede
ser improbable o incluso imposible).
Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es
3,5. Podemos hacer el cálculo
PROPIEDADES

1. Si X es siempre positiva, entonces siempre lo es E(X).


2. La esperanza matemática de una constante es igual a esa misma

constante, es decir, si c es una constante, entonces .


3. Si X está delimitada por dos números reales, a y b, tal que: a < X < b,

Sean X1, . . . , Xn variables aleatorias definidas sobre el mismo espacio de


probabilidad, con funciones de distribuci´on FX1 , . . . , FXn y funci´on de
distribuci´on conjunta FX. Se dice que dichas variales son mutuamente
independientes (o, simplemente, independientes) si FX(x1, . . . , xn) = FX1 (x1)· · ·
FXn (xn), ∀x1, . . . , xn ∈ R

También podría gustarte