Distribuciones de Probabilidad
Distribuciones de Probabilidad
Distribuciones de Probabilidad
Toda distribución de probabilidad es generada por una variable aleatoria x, la que puede ser de dos
tipos:
1 . Variable aleatoria discreta (x).
Se le denomina variable porque puede tomar diferentes valores, aleatoria, porque el valor tomado
es totalmente al azar y discreta porque solo puede tomar valores enteros y un número finito de
ellos.
Una distribución discreta describe la probabilidad de ocurrencia de cada valor de una variable
aleatoria discreta. Una variable aleatoria discreta es una variable aleatoria que tiene valores
contables, tales como una lista de enteros no negativos.
Con una distribución de probabilidad discreta, cada valor posible de la variable aleatoria discreta
puede estar asociado con una probabilidad distinta de cero. Por lo tanto, una distribución de
probabilidad discreta suele representarse en forma tabular.
Ejemplos:
x® Variable que nos define el número de burbujas por envase de vidrio que son generadas en un
proceso dado.
x®0, 1, 2, 3, 4, 5, etc, etc. burbujas por envase
x®Variable que nos define el número de productos defectuosos en un lote de 25 productos.
x®0, 1, 2, 3,....,25 productos defectuosos en el lote
x®Variable que nos define el número de alumnos aprobados en la materia de probabilidad en un
grupo de 40 alumnos.
x®0, 1, 2, 3, 4, 5,....,40 alumnos aprobados en probabilidad
Con los ejemplos anteriores nos damos cuenta claramente que los valores de la variable x siempre
serán enteros, nunca fraccionarios.
Variable aleatoria discreta (x). Porque solo puede tomar valores enteros y un número
finito de ellos. Por ejemplo:
a. Sp(xi) = 1 La sumatoria de las probabilidades asociadas a cada uno de los valores que
toma x debe ser igual a 1.
Ejemplo para variable aleatoria discreta
Se tiene una moneda que al lanzarla puede dar sólo dos resultados: o cara (50%), o cruz (50%).
La siguiente tabla muestra los posibles resultados de lanzar dos veces una moneda:
PROBABILIDAD DE
PRIMER SEGUNDO NUMERO DE CARAS EN 2
LOS 4 RESULTADOS
LANZAMIENTO LANZAMIENTO LANZAMIENTOS
POSIBLES
Al realizar la tabla de distribución del número posible de caras que resulta de lanzar una
moneda dos veces, se obtiene:
PROBABILIDAD DE ESTE
NÚMERO DE CARAS LANZAMIENTOS RESULTADO
P(CARA)
(CARA, CRUZ)
1 + 0.50
(CRUZ, CARA)
La desviación estándar se mide en las mismas unidades que la variable aleatoria ( = 1.118 automóviles) y por tanto a
menudo se prefiere para describir la variabilidad de una variable aleatoria. La varianza 2 se mide en unidades cuadradas
y por tanto, es más difícil de interpretar.
Distribución de probabilidad continúa
Mientras que en una distribución de probabilidad discreta un suceso con probabilidad cero
es imposible, no se da el caso en una variable aleatoria continua. Por ejemplo, si se mide
lo largo de una hoja de roble, el resultado 3,5 cm no es posible, pero tiene probabilidad uno
porque hay infinitos valores posibles entre 3 cm y 4 cm. Cada uno de esos valores
individuales tiene probabilidad cero, aunque la probabilidad de ese intervalo no lo es. Esta
aparente paradoja no se resuelve por el hecho de que la probabilidad de que X tome algún
valor en un conjunto infinito como un intervalo, no puede calcularse mediante la adición
simple de probabilidades de valores individuales. Formalmente, cada valor tiene una
probabilidad infinitesimal que estadísticamente equivale a cero.
Existe una definición alternativa más rigurosa en la que el término "distribución de
probabilidad continua" se reserva a distribuciones que tienen función de densidad de
probabilidad. Estas funciones se llaman, con más precisión, variables
aleatorias absolutamente continuas (véase el Teorema de Radon-Nikodym). Para una
variable aleatoria Xabsolutamente continua es equivalente decir que la probabilidad
P[X = a] = 0 para todo número real a, en virtud de que hay un incontables conjuntos de
medida de Lebesgue cero (por ejemplo, el conjunto de Cantor).
Una variable aleatoria con la distribución de Cantor es continua de acuerdo con la primera
definición, pero según la segunda, no es absolutamente continua. Tampoco es discreta, ni
una media ponderada de variables discretas y absolutamente continuas.
En aplicaciones prácticas, las variables aleatorias a menudo ofrece una distribución discreta
o absolutamente continua, aunque también aparezcan de forma natural mezclas de los dos
tipos.
Para una variable continua hay infinitos valores posibles de la variable y entre cada dos de
ellos se pueden definir infinitos valores más. En estas condiciones no es posible deducir la
probabilidad de un valor puntual de la variable; como se puede hacer en el caso
de variables discretas, pero es posible calcular la probabilidad acumulada hasta un cierto
valor (función de distribución de probabilidad), y se puede analizar como cambia la
probabilidad acumulada en cada punto (estos cambios no son probabilidades sino otro
concepto: la función de densidad.
En el caso de variable continua la distribución de probabilidad es la integral de la función de
densidad, por lo que tenemos entonces que:
La gráfica de f(X) se conoce a veces como curva de densidad, la probabilidad de que X tome
un valor en el intervalo [a, b] es el área bajo la curva de la función de densidad; así, la función
mide concentración de probabilidad alrededor de los valores de una variable aleatoria
continua.
P(a X b) =área bajo la curva de f(x) entre a y b
Para que f(x) sea una FDP (FDP = f(x) legítima, debe satisfacer las siguientes dos
condiciones:
Variable continúa
Las variables continuas son variables numéricas que tienen un número infinito de
valores entre dos valores cualesquiera. Una variable continua puede ser numérica o de
fecha/hora. Por ejemplo, la longitud de una pieza o la fecha y hora en que se recibe
un pago.
Esperanza matemática
En estadística la esperanza matemática (también llamada esperanza, valor esperado, media
poblacional o media) de una variable aleatoria X, es el número E[X] o E[x] que formaliza la idea
de valor medio de un fenómeno aleatorio.
Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de
cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa
la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la
probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado
número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos
puede no ser "esperado" en el sentido más general de la palabra (el valor de la esperanza puede
ser improbable o incluso imposible).
Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos
hacer el cálculo
y cabe destacar que 3,5 no es un valor posible al tirar el dado. En este caso, en el que todos
los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.
Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar.
Por ejemplo, la ruleta francesa tiene 37 casillas equiprobables. La ganancia para acertar una
apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos
apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por
tanto, considerando los 37 posibles resultados, la esperanza matemática del beneficio para
apostar a un solo número es:
Que es exactamente -0,027027. Por lo tanto uno esperaría, en media, perder unos 2,7
céntimos por cada euro que apuesta, y el valor esperado para apostar 1 euro son 0.97273
euros. En el mundo de las apuestas, un juego donde el beneficio esperado es cero (no
ganamos ni perdemos) se llama un "juego justo".
Nota: El primer término es la "esperanza" de perder la apuesta de 1€, por eso el valor es
negativo. El segundo término es la esperanza matemática de ganar los 35€. La esperanza
matemática del beneficio es el valor esperado a ganar menos el valor esperado a perder.
Para una variable aleatoria discreta con valores posibles x1, x2…xn y sus probabilidades
representadas por la función de probabilidad p(xi) la esperanza se calcula como ejemplo:
VARIANZA
En teoría de probabilidad, la varianza o variancia (que suele representarse como 2) de
una variable aleatoria es una medida de dispersión definida como la esperanza del cuadrado
de la desviación de dicha variable respecto a su media.
Su unidad de medida corresponde al cuadrado de la unidad de medida de la variable: por
ejemplo, si la variable mide una distancia en metros, la varianza se expresa en metros al
cuadrado. La varianza tiene como valor mínimo 0. La desviación estándar (raíz cuadrada de la
varianza) es una medida de dispersión alternativa, expresada en las mismas unidades que los
datos de la variable objeto de estudio. Hay que tener en cuenta que la varianza puede verse
muy influida por los valores atípicos y no se aconseja su uso cuando las distribuciones de las
variables aleatorias tienen colas pesadas. En tales casos se recomienda el uso de otras
medidas de dispersión más robustas.
Si tenemos un conjunto de datos de una misma variable, la varianza se calcula de la siguiente
forma:
Variable aleatoria
Caso continuo
Caso discreto
Distribución de frecuencias
En estadística, se le llama distribución de frecuencias a la agrupación de datos en categorías
mutuamente incluye que indican el número de observaciones en cada categoría.1 Esto
proporciona un valor añadido a la agrupación de datos. La distribución de frecuencias presenta
las observaciones clasificadas de modo que se pueda ver el número existente en cada clase.
Tipos de frecuencias
Frecuencia completa
La frecuencia completa por su denominación es el número de veces que aparece un
determinado valor en un valor estadístico. Se representa por fila. La suma de la frecuencia
completa es igual al número total de datos, que se representa por N. Para indicar
resumidamente estas sumas se utiliza la letra griega Σ (sigma mayúscula) que se lee
sumatoria.
Frecuencia relativa
Se dice que la frecuencia relativa es el cociente entre la frecuencia absoluta de un
determinado valor y el número total de datos. Se puede expresar en tantos por ciento y se
representa por hi. La suma de las frecuencias relativas es igual a 1
Frecuencia relativa (hi) es el cociente entre la frecuencia absoluta y el tamaño de la muestra
(N). Es decir:
Siendo el fi para todo el conjunto i. Se presenta en una tabla o nube de puntos en una
distribución de frecuencias.
Si multiplicamos la frecuencia relativa por 100 obtendremos el porcentaje o tanto por ciento
(pi).
Frecuencia acumulada
La frecuencia acumulada es la suma de las frecuencias absolutas de todos los valores
inferiores o iguales al valor considerado.
La frecuencia acumulada es la frecuencia estadística F(XXr) con que el valor de un variable
aleatoria (X) es menor que o igual a un valor de referencia (Xr).
La frecuencia acumulada relativa se deja escribir como Fc(X≤Xr), o en breve(Xr), y se calcula
de
Fc (Hr) = HXr / N
donde MXr es el número de datos X con un valor menor que o igual a Xr, y N es número total
de los datos. En breve se escribe:
Fc = M / N
Cuando Xr=Xmin, donde Xmin es el valor mínimo observado, se ve que Fc=1/N, porque M=1.
Por otro lado, cuando Xr=Xmax, donde Xmax es el valor máximo observado, se ve que Fc=1,
porque M=N.
En porcentaje la ecuación es:
Fc(%) = 100 M / N
1. Se localizan los valores menor y mayor de la distribución. En este caso son 3 y 48.
2. Se restan y se busca un número entero un poco mayor que la diferencia y que sea
divisible por el número de intervalos que queramos establecer.
Es conveniente que el número de intervalos oscile entre 6 y 15.
En este caso, 48 - 3 = 45, incrementamos el número hasta 50 : 5 = 10 intervalos.
Se forman los intervalos teniendo presente que el límite inferior de una clase pertenece al
intervalo, pero el límite superior no pertenece al intervalo, se cuenta en el siguiente intervalo.
Intervalo ci ni Ni fi Fi
Total: 40 1
Ensayo de Bernoulli
En la teoría de probabilidad y estadística, un ensayo de Bernoulli es un
experimento aleatorio en el que sólo se pueden obtener dos resultados (habitualmente
etiquetados como éxito y fracaso). Se denomina así en honor a Jakob Bernoulli.
Desde el punto de vista de la teoría de la probabilidad, estos ensayos están modelados por
una variable aleatoria que puede tomar sólo dos valores, 0 y 1. Habitualmente, se utiliza el 1
para representar el éxito.
Si p es la probabilidad de éxito, entonces el valor del valor esperado de la variable aleatoria
es p y su varianza, p (1-p).
Los procesos de Bernoulli son los que resultan de la repetición en el tiempo de ensayos de
Bernoulli independientes pero idénticos.
Ejemplos
En la práctica, los ensayos de Bernoulli se utilizan para modelar fenómenos aleatorios que
sólo tienen dos resultados posibles, como por ejemplo:
Al lanzar una moneda, comprobar si sale cara (éxito) o cruz (fracaso). Se suele suponer
que una moneda tiene una probabilidad de éxito de 0,5.
Al lanzar un dado, ver si se obtiene un seis (éxito) o cualquier otro valor (fracaso).
Al realizar una encuesta política, tras escoger un votante al azar, ver si éste votará "si" en
un referéndum próximo.
¿Era el recién nacido niña?
¿Son verdes los ojos de una persona?
¿Decidió un cliente potencial comprar determinado producto?
Hay que entender que éxito y fracaso son etiquetas para los resultados y que no debe ser
interpretado literalmente.
Distribución binomial
En estadística, la distribución binomial es una distribución de probabilidad discreta que
cuenta el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre
sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de
Bernoulli se caracteriza por ser dicotómico, esto es, solo dos resultados son posibles. A uno de
estos se denomina «éxito» y tiene una probabilidad de ocurrencia p y al otro, «fracaso», con
una probabilidad2 q = 1 - p. En la distribución binomial el anterior experimento se repite n veces,
de forma independiente, y se trata de calcular la probabilidad de un determinado número de
éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial de
parámetros n y p, se escribe:
Experimento binomial
Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los
experimentos es independiente de los restantes (la probabilidad del resultado de un experimento
no depende del resultado del resto). El resultado de cada experimento ha de admitir sólo dos
categorías (a las que se denomina éxito y fracaso). Las probabilidades de ambas posibilidades
han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p).
Se designa por X a la variable que mide el número de éxitos que se han producido en
los n experimentos.
Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución de
probabilidad binomial, y se denota B(n,p).
Características analíticas
Su función de probabilidad es
Ejemplo
Supongamos que se lanza un dado (con 6 caras) 51 veces y queremos conocer la probabilidad
de que el número 3 salga 20 veces. En este caso tenemos una X ~ B(51, 1/6) y la probabilidad
sería P(X=20):
Propiedades
Distribución Uniforme
Es la más sencilla de las distribuciones continuas. Surge cuando consideramos una
variable aleatoria que toma valores en un intervalo finito de manera equiprobable.
Esta se define como una variable aleatoria continua, X, se dice que se distribuye
como una distribución uniforme de parámetros a, b, tales que –∞< a < b< +∞.
y su varianza por
Distribución Normal
Es una de las distribuciones más importantes. Es el modelo de distribución más
utilizado en la práctica, ya que multitud de fenómenos se comportan según una
distribución normal. Esta distribución de caracteriza porque los valores se
distribuyen formando una campana de Gauss, en torno a un valor central que
coincide con el valor medio de la distribución: Las ventajas teóricas de este modelo
hacen que su uso se generalice en las aplicaciones reales. Sea X una variable
aleatoria continua, se dice que se distribuye como una normal
Obviamente, entonces , la variable aleatoria será continua. Por otro lado existe una
relación entre el parámetro de la distribución exponencial , que más tarde
aparecerá , y el parámetro de intensidad del proceso , esta relación es =
Al ser un modelo adecuado para estas situaciones tiene una gran utilidad en los
siguientes casos:
Distribución del tiempo que transcurre hasta que se produce un fallo, si se cumple
la condición que la probabilidad de producirse un fallo en un instante no depende
del tiempo transcurrido .Aplicaciones en fiabilidad y teoría de la supervivencia.
Función de densidad.
ya que
que
Pues bien, puede probarse que el hecho de que la tasa de fallo sea constante
es condición necesaria y suficiente para que la distribución sea exponencial y que
el parámetro es, además, el valor constante de la tasa de fallo.
en efecto:
si
de manera que
La ley de los grandes números señala que si se lleva a cabo repetidas veces un
mismo experimento (por ejemplo lanzar una moneda, tirar una ruleta, etc.), la
frecuencia con la que se repetirá un determinado suceso (que salga cara o sello,
que salga el número 3 negro, etc.) se acercará a una constante. Dicha constante
será a su vez la probabilidad de que ocurra este evento.
La ley de los grandes números fue mencionada por primera vez por el matemático
Gerolamo Cardamo aunque sin contar con ninguna prueba rigurosa.
Posteriormente, Jacob Bernoulli logró hacer una demostración completa en su obra
“Ars Conjectandi” en el año 1713. En los años 1830´s el matemático Siméon Denis
Poisson describió con detalle la Ley de los Grandes Números lo que vino a
perfeccionar la teoría. Otros autores también harían aportaciones posteriores.
Tal como indica la Ley de los grandes números, en los primeros lanzamientos la
frecuencia es inestable pero a medida que aumentamos el número de lanzamientos,
la frecuencia tiende a estabilizarse a un cierto número que es la probabilidad de que
ocurra el suceso (en este caso números del 1 al 6 ya que se trata del lanzamiento
de un dado).
Muchas personas interpretan mal la ley de los grandes números creyendo que un
evento tenderá a compensar a otro. Así por ejemplo, creen que dado que la
probabilidad de que salga el número 1 en el lanzamiento de un dado debe ser
cercana a 1/6, cuando el número 1 no aparece en los primeros 2 o 5 lanzamientos,
es muy probable que aparezca en el siguiente. Esto no es cierto, la Ley de los
Grandes Números sólo se aplica para muchas repeticiones, por lo que podemos
estar todo el día lanzando un dado y no alcanzar la frecuencia de 1/6.
El lanzamiento de un dado es un evento independiente y por ende, cuando aparece
cierto número, este resultado no afecta al próximo lanzamiento. Sólo después de
miles de repeticiones podremos comprobar que la Ley de los Grandes Números
existe y que la frecuencia relativa de que nos salga un número (en nuestro ejemplo
el 1) será de 1/6.
DISTRIBUCIONES BIDIMENCIONALES
Variable Bidimensional (X,Y) Sobre una población se observan simultáneamente
dos variables X e Y. La distribución de frecuencias bidimensional de (X,Y) es el
conjunto de valores, es la frecuencia absoluta conjunta o total de elementos en la
población que presenta el valor bidimensional (xi, yj). La frecuencia relativa conjunta
es la proporción de elementos en la población que presenta el valor.
5.4.1 Introducción.
Con una distribución discreta, a diferencia de una distribución continua, usted puede
calcular la probabilidad de que X sea exactamente igual a algún valor. Porejemplo,
puede utilizar la distribución discreta de Poisson para describir el número de quejas de
clientes en un día. Supongamos que el número promedio de quejas por día es 10 y
usted desea saber la probabilidad de recibir 5, 10 y 15 quejas de clientes en un día.
x P (X = x)
5 0.037833
10 0.12511
15 0.034718
DISTRIBUCIONES MARGINALES
En teoría de probabilidades, la distribución marginal es la distribución de
probabilidad de un subconjunto de variables aleatorias de un conjunto de variables
aleatorias. La distribución marginal proporciona la probabilidad de un subconjunto
de valores del conjunto sin necesidad de conocer los valores de las otras variables.
Esto contrasta con la distribución condicional, que proporciona probabilidades
contingentes sobre el valor conocido de otras variables.
El término variable marginal se usa para referirse a una variable del subconjunto
de retenido y cuyos valores pueden ser conocidos.1 La distribución de las variables
marginales, la distribución marginal, se obtiene marginalizando sobre la
distribución de variables descartadas y las variables descartadas se llaman a veces
variables marginalizadas. El caso más simple es el de dos variables aleatorias
reales X e Y para la que se conozca su distribución de probabilidad conjunta .
DISTRIBUCIONES CONDICIONALES
Una variable aleatoria es una función que asigna un valor, usualmente numérico,
al resultado de un experimento aleatorio. Por ejemplo, los posibles resultados de
tirar un dado dos veces: (1, 1), (1, 2), etc. o un número real (p.e., la temperatura
máxima medida a lo largo del día en una ciudad concreta).
Los valores posibles de una variable aleatoria pueden representar los posibles
resultados de un experimento aún no realizado, o los posibles valores de una
cantidad cuyo valor actualmente existente es incierto (p.e., como resultado de
medición incompleta o imprecisa). Intuitivamente, una variable aleatoria puede
tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes
valores; una distribución de probabilidad se usa para describir la probabilidad de
que se den los diferentes valores. En términos formales una variable aleatoria es
una función definida sobre un espacio de probabilidad.
Las variables aleatorias suelen tomar valores reales, pero se pueden considerar
valores aleatorios como valores lógicos, funciones o cualquier tipo de elementos (de
un espacio medible). El término elemento aleatorio se utiliza para englobar todo ese
tipo de conceptos relacionados. Un concepto relacionado es el de proceso
estocástico, un conjunto de variables aleatorias ordenadas (habitualmente por
orden o tiempo).