Diseños de muestreo
Muestreo estratificado.
El muestreo estratificado es un diseño de muestreo probabilístico en el que dividimos a
la población en subgrupos o estratos. La estratificación puede basarse en una amplia
variedad de atributos o características de la población como edad, género, nivel socioeconómico, ocupación, etc.
En un diseño de muestreo estratificado, los pasos que daremos serán, en primer lugar,
establecer en base a que atributo vamos a estratificar; en segundo lugar, definiremos cuantas variables de ese atributo se dan en la población y, por tanto, en cuantos estratos dividimos a la población (la figura 1 nos muestra un diseño de muestreo estratificado con 5 estratos, L = 5). Una vez determinados los subgrupos, el siguiente paso consistirá en conocer el total de población que pertenece a cada estrato ( N1, N2, N3, N4, N5) y, por último, tomaremos una muestra de forma aleatoria de cada uno de los estratos que tenemos (n1, n2, n3, n4, n5). La suma de las submuestras constituirá nuestra muestra total (n1 + n2 + n3 + n4 + n5 = n).
1. El tamaño de cada una de las muestras sea proporcional al tamaño de cada estrato. En este caso, la proporción de sujetos en la muestra es similar a lo que ocurre en la población.
2. Tomar muestras cuyo tamaño no sea proporcional al tamaño del estrato, en este caso la proporción de individuos con un determinado atributo en la muestra es mayor que lo que ocurre en la población.
Muestreos no probabilísticos
Los diseños de muestreo no probabilísticas son aquellos en los que las unidades de análisis se recogen utilizando métodos en los que no interviene el azar, de modo que no es posible estimar la probabilidad que tiene cada elemento de ser incluido en la muestra y no todos los elementos tienen posibilidad de ser incluidos.
Entre los muestreos no probabilísticos, desarrollaremos brevemente:
– Muestreo consecutivo
– Muestreo de conveniencia
– Muestreo a criterio
Muestreo Consecutivo.
Es el muestreo no probabilístico más utilizado. Si se realiza de manera adecuada, la
representatividad de la muestra que se obtiene puede ser semejante a la obtenida con
un muestreo probabilístico.
Muestreo de conveniencia.
El muestreo de conveniencia es un diseño de muestreo en el que se seleccionan aquellos
sujetos más fácilmente accesibles, que en ocasiones pueden ser voluntarios.
Si deseáramos conocer la opinión de los individuos sobre los servicios sanitarios,
podríamos optar por situarnos en una calle determinada y realizar el cuestionario
elaborado a personas que paseen por esa calle, en este caso realizaríamos un muestreo
de conveniencia.
Cuando colocamos un anuncio en un periódico para recabar individuos que quieran
participar en la investigación, realizamos también un muestreo de conveniencia.
Muestreo a criterio.
El muestreo a criterio, también llamado muestreo intencional, es un tipo de muestreo
donde es el propio investigador el que selecciona a aquellos sujetos que considere más
apropiados para formar la muestra.
El muestreo a criterio se aplica a menudo cuando se desea tomar una muestra de
expertos. Por ejemplo, si deseáramos conocer que dificultades encuentra la enfermería
para investigar, y el método que utilizásemos fuese una técnica de consenso, como por
ejemplo la técnica Delphi, a la hora de seleccionar el grupo de expertos que participarían,
podríamos optar por realizarlo mediante un muestreo a criterio.
Definición de función de distribución[editar]
Artículo principal: Función de distribución
Dada una variable aleatoria {\displaystyle \scriptstyle X}, su función de distribución, {\displaystyle \scriptstyle F_{X}(x)}, es
{\displaystyle F_{X}(x)=\mathrm {Prob} (X\leq x)=\mu _{P}\{\omega \in \Omega |X(\omega )\leq x\}}
Por simplicidad, cuando no hay lugar a confusión, suele omitirse el subíndice {\displaystyle \scriptstyle X} y se escribe, simplemente, {\displaystyle \scriptstyle F(x)}. Donde en la fórmula anterior:
{\displaystyle \mathrm {Prob} \,}, es la probabilidad definida sobre un espacio de probabilidad y una medida unitaria sobre el espacio muestral.
{\displaystyle \mu _{P}\,} es la medida sobre la σ-álgebra de conjuntos asociada al espacio de probabilidad.
{\displaystyle \Omega \,} es el espacio muestral, o conjunto de todos los posibles sucesos aleatorios, sobre el que se define el espacio de probabilidad en cuestión.
{\displaystyle X:\Omega \to \mathbb {R} } es la variable aleatoria en cuestión, es decir, una función definida sobre el espacio muestral a los números reales.
Propiedades[editar]
Como consecuencia casi inmediata de la definición, la función de distribución:
Es una función continua por la derecha.
Es una función monótona no decreciente.
Además, cumple
{\displaystyle \lim _{x\to -\infty }F(x)=0,\qquad \lim _{x\to +\infty }F(x)=1}
Para dos números reales cualesquiera {\displaystyle a} y {\displaystyle b} tal que {\displaystyle (a<b)}, los sucesos {\displaystyle (X\leq a)} y {\displaystyle (a<X\leq b)} son mutuamente excluyentes y su unión es el suceso {\displaystyle (X\leq b)}, por lo que tenemos entonces que:
{\displaystyle P(X\leq b)=P(X\leq a)+P(a<X\leq b)}
{\displaystyle P(a<X\leq b)=P(X\leq b)-P(X\leq a)}
y finalmente
{\displaystyle P(a<X\leq b)=F(b)-F(a)}
Por lo tanto una vez conocida la función de distribución {\displaystyle F(x)} para todos los valores de la variable aleatoria {\displaystyle x} conoceremos completamente la distribución de probabilidad de la variable.
Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y sin embargo para ver una representación gráfica de la probabilidad es más práctico el uso de la función de densidad.
Distribución Binomial
Para hablar de la distribución Binomial primero tenemos que decir que esta dada por la sumatoria de eventos bernoulli, la distribución de Bernoulli (o distribución dicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito (p) y valor 0 para la probabilidad de fracaso (q = 1 − p).
Si X es una variable aleatoria que mide "número de éxitos", y se realiza un único experimento con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria X se distribuye como una Bernoulli de parámetro p.
X˜Be(p)
La fórmula será:
f(x) = px(1 − p)1 − x con x = {0,1}
Su función de probabilidad viene definida por:
La distribución binomial es una distribución de probabilidades que surge al cumplirse cinco condiciones:
Existe una serie de N ensayos,
En cada ensayo hay sólo dos posibles resultados,
En cada ensayo, los dos resultados posibles son mutuamente excluyentes,
Los resultados de cada ensayo son independientes entre si, y
La probabilidad de cada resultado posible en cualquier ensayo es la misma de un ensayo a otro.
Su función de probabilidad es
donde
siendo las combinaciones de n en x (n elementos tomados de x en x)
La esperanza y la varianza son
La Función de Distribución de la v.a. Binomial
Las siguientes características son las que describen a una distribución Binomial
Función generadora de momentos (mgf)
Función característica
Ejemplo:
Supóngase que en cierta población el 52 por ciento de todos los nacimientos que se registraron son varones. Si aleatoriamente se escogen cinco registros de nacimientos dentro de esa población, ¿cuál es la probabilidad de que exactamente tres de ellos pertenezcan a varones?
Tenemos los siguientes datos:
N = 5 X = 3 p = 0.52
Distribución Poisson
La distribución Poisson fue nombrada así en honor a Denise Poisson en su libro Recherchés sur la probabilité des jugements...., un trabajo importante en probabilidad publicado en el año 1837, la distribución de Poisson recién aparecía. La distribución de Poisson describe la probabilidad como un acontecimiento fortuito ocurrido en un tiempo o intervalo de espacio bajo las condiciones que la probabilidad de un acontecimiento ocurre es muy pequeña, pero el número de intentos es muy grande, entonces el evento actual ocurre algunas veces.
En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta. asi tiempo fijo si estos eventos ocurren con una frecuencia media conocida y son independientes del tiempo discurrido desde el último evento.
La función de masa de la distribución de Poisson es:
donde λ es un parámetro positivo que representa la frecuencia esperada del fenómeno modelado por la distribución.
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes tienen una interpretación combinatorio. De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-ésimo momento iguala al número de particiones de tamañon.
La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a la parte entera de lamda, el mayor de los enteros menores que λ . Cuando λ es un entero positivo, las modas son λ y λ − 1.
La función generadora de momentos de la distribución de Poisson con valor esperado λ es
Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles.
La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a otra de parámetro λ es
Como consecuencia del teorema central del límite, para valores grandes de λ, una variable aleatoria de Poisson X puede aproximarse por otra normal dado que el cociente
converge a una distribución normal de media nula y varianza 1.
Función de distribución(cdf)
Función característica
Ejemplo:
Si en promedio, llegan tres pacientes por minuto al servicio de emergencia del hospital del Niño durante la hora del almuerzo. ¿Cuál es la probabilidad de que en un minuto dado, lleguen exactamente dos pacientes?
Datos: l = 3 pacientes por minuto
Distribución Normal
La distribución normal fue presentada por vez primera por Abraham de Moivre en un artículo del año 1733,2 que fue reimpreso en la segunda edición de su The Doctrine of Chances, de 1738, en el contexto de cierta aproximación de la distribución binomial para grandes valores de n. Su resultado fue ampliado por Laplace en su libroTeoría analítica de las probabilidades (1812), y en la actualidad se llama Teorema de De Moivre-Laplace.
Gauss, que afirmaba haber usado el método desde 1794, lo justificó rigurosamente en 1809 asumiendo una distribución normal de los errores. El nombre de Gauss se ha asociado a esta distribución porque la usó con profusión cuando analizaba datos astronómicos3 y algunos autores le atribuyen un descubrimiento independiente del de De Moivre.4 Esta atribución del nombre de la distribución a una persona distinta de su primer descubridor es un claro ejemplo de la Ley de Stigler.
Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana.
En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo valor de p y valores de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una curva en "forma de campana".
Función de densidad
Se dice que una variable aleatoria continua X sigue una distribución normal de parámetros μ y σ y se denota X~N(μ, σ) si su función de densidad está dada por:
donde μ (mu) es la media y σ (sigma) es la desviación típica (σ2 es la varianza).
Se llama distribución normal "estándar" a aquélla en la que sus parámetros toman los valores μ = 0 y σ = 1. Para esta la función de densidad tiene la siguiente expresión:
La función de distribución de la distribución normal está definida como sigue:
La función generadora de momentos se define como la esperanza de e(tX). Para una distribución normal, la función generadora de momentos es:
como puede comprobarse completando el cuadrado en el exponente.
La función característica se define como la esperanza de eitX, donde i es la unidad imaginaria. De este modo, la función característica se obtiene reemplazando t por it en la función generadora de momentos.
Para una distribución normal, la función característica es:
Aproximación de la Binomial por la Normal (Teorema de De Moivre) :
Demostró que bajo determinadas condiciones (para n grande y tanto p como q no estén próximos a cero) la distribución Binomial B(n, p) se puede aproximar mediante una distribución normal
Ejemplo:
Se supone que los resultados de un examen siguen una distribución normal con media 78 y varianza 36. Se pide:
¿Cuál es la probabilidad de que una persona que se presenta el examen obtenga una calificación superior a 72?
Teorema central del límite: si el tamaño de la muestra es lo suficientemente grande (a partir de 30) y si las muestras se extraen aleatoriamente, este teorema nos dice que la distribución de muestreo de la media aproximadamente tendrá una distribución normal con una media igual a la de la población y con una varianza igual a la varianza de la población dividida por el tamaño de la muestra.
El Teorema del Límite Central
El Teorema del límite central establece que bajo ciertas condiciones (como pueden ser independientes e idénticamente distribuidas con varianza finita), la suma de un gran número de variables aleatorias se distribuye aproximadamente como una normal.
La importancia práctica del Teorema del límite central es que la función de distribución de la normal puede usarse como aproximación de algunas otras funciones de distribución. Por ejemplo:
Una distribución binomial de parámetros n y p es aproximadamente normal para grandes valores de n, y p no demasiado cercano a 1 ó 0 (algunos libros recomiendan usar esta aproximación sólo si np y n(1 − p) son ambos, al menos, 5; en este caso se debería aplicar una corrección de continuidad).
La normal aproximada tiene parámetros μ = np, σ2 = np(1 − p).
Una distribución de Poisson con parámetro λ es aproximadamente normal para grandes valores de λ.
La distribución normal aproximada tiene parámetros μ = σ2 = λ.
La exactitud de estas aproximaciones depende del propósito para el que se necesiten y de la tasa de convergencia a la distribución normal. Se da el caso típico de que tales aproximaciones son menos precisas en las colas de la distribución. El Teorema de Berry-Esséen proporciona un límite superior general del error de aproximación de la función de distribución.
Conclusiones
Las distribuciones que en este trabajo se trataron brevemente están relacionadas entre sí cubriendo más aplicaciones a la vida real, en general podemos decir que cada una de estas aporta a campos trascendentales desde hospitales hasta política, ya que la exactitud en los resultados que estas nos ofrecen facilitan la toma de decisiones para grandes instituciones.