Resumen Probabilidad y Estadistica

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 48

Unidad N° 4

Variable Aleatoria
Variable aleatoria X: es una función real medible que asocia un valor numérico a cada resultado del espacio
muestral (evento) asociado a un experimento aleatorio. A cada evento se le asigna un número real, permitiéndonos
trabajar con variables de tipo cualitativas.
Las variables aleatorias deben ser definidas para poder ser trabajadas con mayor facilidad; definir una variable
aleatoria significa pasar los eventos cualitativos a expresiones matemáticas, por lo general se expresan como
funciones. Si tomamos el ejemplo de una moneda que es lanzada 2 veces, entonces los resultados posibles son
{cc,ck,kc,kk}. Es decir que hay 4 posibles resultados cualitativos. Para poder analizar esto matemáticamente
definimos una variable aleatoria, que en este caso puede ser el número de caras. Pueden salir 2 caras, 1 sola cara o
ninguna. Esto representa los valores de variable aleatoria que son 0, 1 y 2. El experimento deja de trabajar con datos
cualitativos y pasa a trabajar con datos cuantitativos.
• FUNCIÓN: número de caras al lanzar dos monedas al aire

Donde X es la variable aleatoria y x el valor de variable.

Tipos de Variables aleatorias:


• DISCRETAS: número finito de valores o infinito numerable (intervalo de los enteros positivos donde no se
conoce el máximo)
Ejemplos:
o Número de caras en el lanzamiento de dos monedas (Discreto finito, 4 posibilidades)
o Número de piezas defectuosas que aparecen en un proceso de fabricación (discreto infinito
numerable, el tiempo no está determinado)
o Número de llamadas telefónicas que se reciben en una central durante un determinado periodo de
tiempo (discreto finito, está acotado el tiempo)
o Número de depósitos efectuados al día en una entidad bancaria (discreta finita, el tiempo está
determinado en días)
• CONTINUAS: número infinito no numerable de valores (intervalo de los reales, “números con decimales”).
Se dice que son “superdensos”.
Ejemplos:
o Estatura de los miembros de una población
o Ingresos de los asalariados en una determinada región
o Cantidad de agua caída en una determinada región
o Longitud de los tornillos fabricados en una planta metalúrgica

Funciones de probabilidad2: una función de probabilidad de una variable aleatoria discreta es una función
que asigna probabilidades a los valores de la variable aleatoria (con números enteros). A cada probabilidad de que
suceda un suceso le corresponde la cantidad de casos favorables. Su fórmula es la siguiente:
𝑓(𝑥) = 𝑃(𝑋 = 𝑥) → indica probabilidad de que la variable aleatoria tome un valor definido

2
3 Funciones de probabilidad y distribución (uv.es)
21
Además, la función debe cumplir con 2 propiedades:
1. La probabilidad de cada valor de variable aleatoria debe estar entre 0 y 1. → 0 ≤ 𝑓(𝑥) ≤ 1
2. La suma de las probabilidades asignadas a todos los
valores de la variable aleatoria debe ser 1. ∑𝑇𝑜𝑑𝑎 𝑥 𝑓(𝑥) =
1
En el caso de lanzar un dado: la variable aleatoria es el resultado
de lanzar un dado y los valores de variable aleatoria son
x = {1,2,3,4,5,6}
Para obtener la probabilidad de cada número tengo que
preguntarme: “¿Cuántos unos tengo en un dado?” (Casos
favorables) y además conozco el total de casos posibles que son 6.
𝑛° 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑑𝑒 𝐴
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑜𝑐𝑢𝑟𝑟𝑎 𝐴 =
𝑛° 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠

Gráfico de barras

Distribución acumulativa de probabilidad: Una


función de distribución o función acumulativa de probabilidad es la
probabilidad que la variable aleatoria sea menor o igual a un valor
dado de dicha variable.
𝑓(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∑x≤xi 𝑓(𝑥𝑖 ) → Probabilidad de
que la variable aleatoria sea menor o igual a un valor determinado.
Para el ejemplo de los dados:

(Suma consecutiva de las frecuencias relativas)

FÓRMULAS ÚNICAMENTE APLICABLES PARA VARIABLES DISCRETAS:

Función de densidad de probabilidad3: Sea X una variable aleatoria continua. Entonces, una función de
densidad de probabilidad de X es una función f(x) tal que para 2 números cualquier a y b con 𝑎 ≤ 𝑏.
𝑏
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = ∫𝑎 𝑓(𝑥)𝑑𝑥 → probabilidad de que la variable aleatoria esté entre a y b

3
Función de probabilidad de una variable aleatoria continua | Matemóvil (matemovil.com)
22
La probabilidad de que X asuma un valor en el intervalo [a, b] es el área sobre este intervalo y bajo la gráfica de la
función densidad. Se puede apreciar mejor en la siguiente gráfica:

Área bajo la curva de densidad como valores de


probabilidad

Siempre es una función positiva debido a


que la función de probabilidad siempre está entre
valores de 0 y 1.
La función de probabilidad de una variable aleatoria continua siempre cumplirá con estas condiciones:
1. 𝑓(𝑥) ≥ 0 → para todas las x

2. ∫−∞ 𝑓(𝑥)𝑑𝑥 = 1 = área bajo toda la gráfica de f(x) → significa en todo el rango de definición
PROPIEDAD IMPORTANTE: En la función de probabilidad de una variable aleatoria continua sucede
algo bien interesante si queremos calcular la probabilidad de que la variable aleatoria sea igual a un valor puntual en
c. → 𝑃(𝑋 = 𝑐)
La probabilidad se calcula mediante el área bajo la curva, pero el área bajo una curva de densidad situada sobre
𝑐
cualquier valor único es 0: 𝑃(𝑋 = 𝑐) = ∫𝑐 𝑓(𝑥)𝑑𝑥 = 0
Esto nos permite afirmar que la probabilidad de que X que en algún intervalo entre a y b no depende de si el límite
inferior a, o el límite superior b, está incluido en el cálculo de la probabilidad:
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃(𝑎 < 𝑋 < 𝑏) = 𝑃(𝑎 < 𝑋 ≤ 𝑏) = 𝑃(𝑎 ≤ 𝑋 < 𝑏)
APLICABLE ÚNICAMENTE PARA VARIABLES CONTINUAS.
La función de distribución acumulativa es la función que para un valor x, nos da la
probabilidad de que la variable aleatoria sea menor o igual que dicho valor x.
Recuerda que a la función de distribución acumulativa la denominamos F(x). →
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥)
Si por ejemplo tenemos que calcular F(8) haríamos lo siguiente: 𝐹(8) = 𝑃(𝑋 ≤ 8)

Sea X una variable aleatoria continua con función de densidad de probabilidad f(x). La función de distribución
𝑥
acumulativa de X es la función: 𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥) = ∫ 𝑓(𝑡)𝑑𝑡
−∞
f(t) es la función de densidad y F(X) es la función de distribución, por lo tanto, la derivada de la función de
𝑑𝐹(𝑥)
distribución es la función de densidad. 𝑓(𝑥) =
𝑑𝑥
De forma gráfica, F(x) es el área bajo la curva de densidad a la izquierda de x. Recordemos que cuando trabajamos
con la función de densidad, el área representa la probabilidad.
𝑃(𝑋 > 𝑎) = 1 − 𝐹(𝑎) → Probabilidad de que X sea mayor a un número
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝐹(𝑏) − 𝐹(𝑎) ; 𝑎 < 𝑏 → Probabilidad de que X esté en un rango
definido (Regla de Barrow)
Ejemplo de ejercicio resuelto en math:

23
A tener en cuenta:
Cuando en una oración nos encontramos con las siguientes preposiciones estas quieren indicar:
• A lo sumo = como Máximo = esto o menos
• Al menos = como Mínimo = esto o más = cuando menos
Por ej.: Al menos 2 de los autos están manchados ⟶ 1 - Ac(1) (uno menos la acumulada en 1).

Momentos de una variable aleatoria


Valor Esperado; Si conocemos los momentos de una variable aleatoria (todos los momentos), entonces
podemos saber de qué tipo de función se trata. Supongamos que tenemos una variable aleatoria x y una función g:
de reales sobre reales. Se define el valor esperado de la variable aleatoria 𝑔(𝑥) como la sumatoria de los productos
de los valores 𝑔(𝑥𝑖 ) por los valores respectivos de probabilidad. Es decir que para variables:
• DISCRETAS: calculamos la esperanza de una variable aleatoria como la sumatoria de los productos de los
valores de esa función, por su respectiva probabilidad o frecuencia.
• CONTINUAS: entendemos como la esperanza de una función de variable aleatoria a la integral en el campo
de definición de los productos de los valores de g(x) (función de variable aleatoria) por f(x)dx, dando
resultados convergentes (n° menores que infinito y que no necesariamente tendrán que ser iguales). f(x) es
la función densidad de probabilidad.

Esperanza Matemática: 𝐸 [𝑋] = ∑ 𝑥𝑖∈𝑆 𝑋 ∗ 𝑃(𝑋 = 𝑥𝑖 )

La esperanza matemática también es llamada promedio o valor más esperado. Se calcula como la sumatoria de los
valores de X por sus respectivas probabilidades.
1. Esperanza de una constante
2. Esperanza de una constante y una variable

Momentos en el origen: los momentos de orden k respecto al parámetro c, se obtienen calculando la


esperanza de las potencias de los desvíos de la variable aleatoria respecto de c; los momentos respecto al origen son
aquellos casos en los que c=0 y el subíndice k indica el orden de los mismos.
• Momento de orden k respecto al parámetro c: 𝑀𝑘𝑐 = 𝐸[(𝑋 − 𝑐)𝑘 ]
• Si c = 0, Momentos respecto al origen: 𝛼𝑘 = 𝐸[𝑋 𝑘 ]
Momentos centrales o centrados: Cuando c es la media de la variable aleatoria entonces tenemos los
momentos centrados o centrales que son la esperanza de la potencia de los desvíos de los valores de variable
aleatoria respecto a la media.
• Si c = 𝝁𝒙 , Momentos centrales: 𝝁𝒌 = 𝐸[(𝑋 − 𝜇𝑥 )𝑘 ]
Media de una variable aleatoria: La media de una variable aleatoria es la esperanza de X. Es análoga a la
fr. Se haya según si sea discreta o continua de la siguiente forma:
• DISCRETAS: La sumatoria de los productos de v.a. X por su respectiva probabilidad.
• CONTINUAS: Es la integral en el campo de definición de los productos de x por f(x)dx, de −∞ a +∞.

24
Varianza de una v.a.: El momento centrado de orden 2 es la Esperanza de la potencia cuadrática de los
desvíos. Se obtiene como:
Donde α12 es la media.

Momentos expresados en forma genérica:

Esto se realiza sólo hasta el momento 4, debido a que después de esto comienzan a repetirse. Por ej.
𝜇′5 = 𝜇′1 𝑦 𝜇′6 = 𝜇′2

Relación entre ambos Momentos:


Podemos relacionar ambos momentos a través del binomio de Newton.
𝑟 𝑟 𝑟
𝜇𝑟 = 𝐸(𝑥 − 𝜇)𝑟 = 𝐸| ( ) (−1)𝑖 𝑥 𝑟−𝑖 𝜇𝑖 | = ( ) (−1)𝑖 𝐸(𝑥 𝑟−𝑖 )𝜇𝑖 → ∑𝑛𝑖 ( ) (−1)𝑖 𝜇𝑟−1

𝜇𝑖
𝑟
𝑖 𝑖 𝑖
Donde ( )es una combinatoria r en i
𝑖

Desigualdad de Tchebycheff (no hay que estudiarlo):


La probabilidad de que la variable aleatoria esté entre una desviación estándar a la
1
izquierda o una desviación estándar a la derecha es siempre es mayor que 1 − :
𝑘2

25
Distribuciones Discretas Teóricas de Probabilidad
Distribución Binomial: Esta distribución, que puede considerarse como la generalización del modelo de
Bernoulli (experimento aleatorio), se aplica cuando los sucesos sean:
• Dicotómicos
• Independientes, con reposición.
• El experimento se realiza n veces en las mismas condiciones.
• De probabilidad de ocurrencia constante “éxito” (p) o constante “fracaso” (1-p = q)
• La variable aleatoria es la cantidad de éxitos (o fracasos) que se obtienen en n ensayos.
• Para construir una distribución binomial es necesario conocer el número de pruebas que se repiten o
variable aleatoria y la probabilidad de que suceda un éxito en cada una de ellas.

Distribución de Poisson:
• La variable aleatoria es el número de ocurrencias que sucede un evento en un espacio o tiempo
determinado.
• La probabilidad de ocurrencia es constante en dicho espacio o tiempo determinado (con poca frecuencia),
probabilidad de ocurrencia de los denominados sucesos raros.
• Su contexto es el mismo que el de la distribución binomial, de tal modo que también se genera la
Distribución de Poisson cuando el número de ensayos es grande y la probabilidad del suceso tiende a cero.
• No se sabe el total de posibles resultados.
• La Distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una
frecuencia de ocurrencia media λ (lambda), la probabilidad que ocurra un determinado número de eventos
durante un intervalo de tiempo dado o una región específica.

26
• Si n es grande y p pequeña podemos utilizar la Distribución de Poisson.
• Siempre es una distribución asimétrica positiva.
• Siempre será leptocúrtica.

Distribución Hipergeométrica: Esta distribución, es referida a un modelo de muestra donde hay


elementos de 2 tipos posibles. Indica la probabilidad de obtener un número de objetos x de uno de los tipos, al
sacar una muestra de tamaño n, de un total de N objetos, de los cuales k es el tipo requerido.
Utilizamos esta distribución cuando tenemos muestras obtenidas de poblaciones relativamente chicas, sin
reemplazo. Además, es utilizada en la prueba exacta de Fisher, para probar la diferencia entre dos proporciones, y
en muestreos de aceptación por atributos, cuando se toman muestras de un lote aislado de tamaño finito.
Es parecida a la distribución binomial con la diferencia de que los sucesos no son independientes. Las probabilidades
no son constantes para todos los elementos. La muestra de tamaño es generalmente pequeña.
Su fórmula es:

Distribución Binomial Negativa: Este tipo de distribución tiene el contexto de aplicación de la distribución
binomial. Se aplica cuando los sucesos sean:
• Dicotómicos
• Independientes
• Probabilidad de éxito o fracaso constante
La diferencia reside en que la variable aleatoria es el número de ensayos necesarios para obtener cierta cantidad de
éxitos; es el número de fracasos que ocurren hasta conseguir un número determinado de éxitos.

27
El número combinatorio nos determina de cuántas formas se puede organizar o dar la situación. Si sumamos la
cantidad de éxitos y la cantidad de fracasos nos tiene que dar la cantidad de ensayos o tamaño de la muestra.

Distribución Geométrica: Esta distribución es un caso particular de distribución binomial negativa cuando el
número de éxitos es 1.
Supongamos que tenemos:
• Una serie de ensayos Bernoulli independientes.
• Con probabilidad de éxito constante.
• Si X: es el número de ensayos necesarios hasta obtener el primer
éxito, entonces X tiene una distribución geométrica con parámetro p.

Comparación entre las distribuciones


Distribución Distribución Distribución de Distribución Distribución
DISCRETAS Binomial Hipergeométrica Poisson Binomial Geométrica (caso
Negativa D.B.N.)

Población Relativamente Relativamente Grande


Grande Chica

Sucesos ✔️ ✔️ ✔️ ✔️ ✔️
Dicotómicos

Sucesos ✔️ ❌ ✔️ ✔️ ✔️
Independientes

Cte. Éxito y ✔️ ❌ ✔️ ✔️ ✔️
Cte. Fracaso n° de éxitos = 1

cantidad de éxitos cantidad de éxitos n° de ocurrencias n° de ensayos n° de ensayos


Variable (o fracasos) que se (o fracasos) que se que sucede un necesarios para necesarios hasta
Aleatoria obtienen en n obtienen en n evento en un obtener cierta obtener el primer
ensayos ensayos espacio o tiempo cantidad de éxitos éxito
determinado

Simétrica, ??? Asimétrica Asimétrica Asimétrica positiva


Asimetría Asimétrica Negativa positiva positiva
o Positiva

Apuntamiento Platicúrtica ??? Leptocúrtica Leptocúrtica Leptocúrtica

28
Distribución Multinomial:
Es una distribución de probabilidad conjunta para múltiples variables aleatorias (𝑋1 , 𝑋2 , (. . . ), 𝑋𝑘 ) discretas donde
cada 𝑋𝑖 ~𝑏(𝑛, 𝑝𝑖 ), dándose cuando en cada prueba o ensayo independiente (con reposición) del E.A. interesa contar
el número de exitos en cada una de la k maneras como se puede dar un atributo.
Se utiliza en variables aleatorias policotómicas. Hay más de dos resultados posibles. Los parámetros de esta
distribución son el tamaño de la muestra y las probabilidades constantes de cada uno de los eventos.
Ejemplo:
El atributo calidad de un producto se puede dar como: Excelente, bueno, regular y malo.
PROPIEDADES:
1. Son n pruebas o ensayos repetidos e idénticos (con reposición).
2. En cada prueba o ensayo se pueden producir k resultados.
3. Las probabilidades de cada uno de los k resultados (𝑝1 , 𝑝2 , (… ), 𝑝𝑘 ) permanecen constantes en todas
las pruebas o ensayos.
4. Son pruebas o ensayos independientes.
5. El interés se centra en contar los 𝑋1 , 𝑋2 , (. . . ), 𝑋𝑘 éxitos que se producen en los n ensayos de cada una
de las k categorías posibles de observar cada vez.
6. La suma de la cantidad de veces que ocurran los eventos da el tamaño de la muestra.
7. La suma de las probabilidades de todas las clases tiene que dar igual a 1.

Si una prueba ó intento puede dar cualquiera de los k resultados posibles 𝐸1 , 𝐸2 , (… ), 𝐸𝑘 con
probabilidades 𝑝1 , 𝑝2 , (… ), 𝑝𝑘 , entonces la distribución multinomial dara la probabilidad de que:

29
Unidad N° 5

Distribuciones Continuas Teóricas de Probabilidad


Como dato inicial: cuando una variable es continua, da lo mismo si el intervalo es abierto o cerrado, porque en los
extremos no hay valor de probabilidad en el punto. El valor de probabilidad en el punto es cero.

Distribución Uniforme: Es la más simple de todas las distribuciones modelo y en ella la variable aleatoria
asume cada uno de los valores con una probabilidad idéntica.
• Siempre es simétrica
• Siempre es platicúrtica
• Su función es la de densidad de probabilidad
• Es muy útil con la generación de n° aleatorios
𝑎+𝑏
• La media = mediana.
2
Se utiliza mucho como base de soporte del cálculo de números aleatorios, porque cuando se quiere generar
aleatoriamente los números en un rango determinado, es útil que todos los valores tengan la misma probabilidad.
Esta distribución es la única que tiene este atributo.
La distribución uniforme tiene la característica de que es constante en un intervalo dado, ya sea este abierto o
cerrado; se puede definir de la siguiente manera:
Sea la variable aleatoria X que puede asumir valores 𝑥1 , 𝑥2 , (. . . ), 𝑥𝑘 con idéntica probabilidad. Entonces la distribución
uniforme discreta viene dada por:

O sea que el parámetro clave en esta distribución es k = número de valores que asume la variable aleatoria X y que
sería un parámetro de conteo.
Así por ejemplo cuando se lanza un dado correcto, cada una de las seis caras posibles conforman el espacio
muestral: La v.a X: número de puntos en la cara superior del dado tiene una
distribución de probabilidad Uniforme discreta, puesto que:

= para x = 1, 2, 3, 4, 5,6
en otro caso.
Un ejercicio importante:
¿A cuántas desviaciones estándar se puede alejar la variable aleatoria uniforme respecto de la media?

𝒂+𝒃
𝑴𝒆𝒅𝒊𝒂𝒏𝒂 + 𝒌 ∗ 𝒔 𝑫𝒆𝒔𝒗𝒊𝒂𝒄𝒊𝒐𝒏𝒆𝒔 𝑬𝒔𝒕á𝒏𝒅𝒂𝒓 = 𝒂 𝑜 𝒃 𝑬𝒙𝒕𝒓𝒆𝒎𝒐𝒔 𝑺𝒖𝒑. 𝒐 𝑰𝒏𝒇.
𝟐
Para hallar a cuántas desviaciones estándar se puede alejar la variable respecto de la media tan solo debemos
despejar k de la fórmula. Nos quedará que:
𝑎+𝑏 𝑎+𝑏 2𝑏 − 𝑎 − 𝑏
(𝑏 − ) (𝑏 − )
𝑘= 2 →𝑘= 2 ∗ √12 → 𝑘 = 2 ∗ 2√3 →
𝑏−𝑎 𝑏 − 𝑎 𝑏 − 𝑎
( )
√12

30
2𝑏 − 𝑎 − 𝑏 (𝑏 − 𝑎) 1
𝑘= ∗ 2√3 → 𝑘 = ∗ 2√3 → 𝑘 = ∗ 2√3 = √3
2(𝑏 − 𝑎) 2(𝑏 − 𝑎) 2
En conclusión, se puede alejar 3 desviaciones estándar de la media.

Distribución Normal: es de suma importancia en estadística por tres razones principales:


1. Numerosas variables continuas de fenómenos aleatorios tienden a comportarse probabilísticamente
mediante ésta.
2. Es el límite al que convergen tanto variables aleatorias continuas como discretas.
3. Proporciona la base de la inferencia estadística clásica debido a su relación con el teorema del límite central.
PROPIEDADES:
• Su gráfica tiene forma acampanada. (Campana de Gauss, gran aplicación en la física)
• El valor esperado, la mediana y la moda tienen el mismo valor cuando la variable aleatoria se distribuye
normalmente.
• Su dispersión media es igual a 1.33 desviaciones estándar. Es decir, el alcance intercuartil está contenido
dentro de un intervalo de dos tercios de una desviación estándar por debajo de la media a dos tercios de una
desviación estándar por encima de la media.
• Su asimetría es igual a 0, lo que significa que es simétrica.
• Es mesocúrtica.
• El área total bajo la curva de densidad siempre tiene que ser igual a 1.
FUNCIÓN DE DENSIDAD:

FUNCIÓN DE DISTRIBUCIÓN:

Tipificación o Estandarización:
Para no trabajar con distintas distribuciones normales, para cada media y cada desviación estándar lo que se
procede a hacer es estandarizar la variable natural X. Para poder tipificar se realiza un centrado de la variable,

31
haciendo la diferencia de la media y los desvíos. Luego se hace un escalamiento respecto de la desviación estándar,
es decir, que Z va a estar midiendo o referenciando las distancias de la variable aleatoria en términos de la
desviación estándar.

Es la misma distribución normal, sin embargo, se dice que


está estandarizada.
En las variables z y t se puede utilizar solo z, el Math ya no
necesita una variable auxiliar.

Aproximación de la Binomial con la Normal (Teorema de Moivre - Laplace):


La distribución Binomial, cuando el tamaño de la muestra es grande, es medio complicada trabajarla.
Cuando n es grande y p y q no están próximos a cero, sino que a 0,5 (si están próximos a 0,5, la distribución es
simétrica y hay una buena aproximación de la Binomial con la Normal) la distribución Binomial B(n,p) se puede
aproximar mediante una distribución normal.

Hay que tener en cuenta que el tamaño de la muestra sea adecuado y para eso usamos la siguiente regla: El
producto del tamaño de la muestra (n) por la probabilidad de éxito (p) sea mayor o igual que 5 sobre el tamaño de la
muestra (La del fracaso es lo mismo ya que dan iguales, podemos considerar cualquiera de las dos). Si se cumple esa
condición, podemos decir que la media es np y la desviación estándar es √𝒏𝒑𝒒; esto se puede transformar en una
distribución normal. Esto lo hacemos considerando una variable “Z” centrada respecto de media binomial (x-np) y
estandarizada con respecto a la desviación estándar binomial (√𝒏𝒑𝒒). Si es así, entonces vamos a trabajar a la
variable como una normal estándar:

32
La diferencia esencial entre una variable binomial y una variable normal es que la variable binomial es discreta y la
variable normal es continua.

Acá sí es importante tener en cuenta si la variable aleatoria es menor, menor-igual o igual a un número, ya que la
variable aleatoria natural es binomial y no continua(debemos tratarla como una variable discreta). Será discreta pero
la trabajaremos como continua.
Si quiero hallar la probabilidad: 𝑃(𝑥 < 𝑎)(es decir el acumulado hasta el número anterior a “a”), debo tomar la
𝑃(𝑥 ≤ 𝑎 − 0.5). Al restarle 0.5, estoy teniendo en cuenta el valor anterior a “a”.
Si quiero sacar la probabilidad: 𝑃(𝑥 ≤ 𝑎) estoy tomando el punto “a” directamente, entonces cómo debemos hacer
la corrección de continuidad o corrección de Yates le debemos sumar 0.5 → 𝑃(𝑥 ≤ 𝑎 + 0.5).
Si quiero hallar la probabilidad en un intervalo: 𝑃(𝑎 ≤ 𝑥 ≤ 𝑏)voy a tener que tomar la variable desde “a” hacia la
izquierda 0,5 y desde “b” hacia la derecha 0,5 → 𝑃(𝑎 − 0,5 ≤ 𝑥 ≤ 𝑏 + 0,5).
La 𝑃(𝑎 < 𝑥 < 𝑏) será 𝑃(𝑎 + 0,5 ≤ 𝑥 ≤ 𝑏 − 0,5).
Si la variable aleatoria es binomial con tamaño n y probabilidad de éxito p, lo que hago es tomar una distribución
normal con media n*t y desviación estándar √𝑛𝑝𝑞 . Para transformarlo en normal hago la estandarización de la
variable, el centrado o la diferencia respecto a la media y el escalamiento respecto a la desviación estándar. De esta
manera, lo puedo trabajar como una distribución normal común.

Distribución Gamma: Esta distribución es de suma importancia debido a que es base de otras distribuciones.
La distribución gamma modela en general tiempos. Tiene 2 parámetros un alpha (α) y un theta (θ), el primero es un
factor de forma y el segundo es un factor de escala.

33
• Tiene Asimetría Positiva
• Es Leptocúrtica
• En caso de no conocer su parámetro lo podemos averiguar con estadística
Típico ejemplo para este tipo de distribuciones:
Supóngase que una pieza está sometida a una cierta fuerza de manera que se romperá después de aplicar un
número específico de ciclos de fuerza. si los ciclos ocurren de manera independiente y a una frecuencia promedio
dada, entonces el tiempo que debe transcurrir antes de que el material se rompa es una variable aleatoria que sigue
una distribución gamma, su función densidad viene expresada por:

Esta distribución se emplea de manera extensa en gran diversidad de


áreas:
• Para representar el tiempo de falla de un sistema, que falla solo si, de manera exacta los componentes fallan
y la falla de cada componente ocurre a una frecuencia constante 𝜆 = 1/𝜃 por unidad de tiempo.
• En líneas de espera para completar una reparación que se lleva a cabo en subestaciones; en cada una de las
cuales es un evento independiente que ocurre a una frecuencia constante igual a 𝜆 = 1/𝜃.
• Intervalos de tiempos entre dos fallos de un motor
• Intervalos de tiempos entre dos llegadas de automóviles a una gasolinera
• Tiempos de vida de sistemas electrónicos, etc
FORMA DE LA GRÁFICA SEGÚN LOS VALORES DE ALPHA:

Ejemplo de esperanza importante:

Distribución Exponencial Negativa: modela los tiempos para que haya una falla en el sistema. Resulta
que la exponencial es un caso especial de la Distribución Gamma, ambas tienen un gran número de aplicaciones. Las
distribuciones exponenciales y gamma juegan un papel importante tanto en la teoría de colas como en problemas de
confiabilidad.
El tiempo entre las llegadas en las instalaciones de servicio, y el tiempo de falla de los componentes y sistemas
eléctricos, frecuentemente involucran la distribución exponencial. La relación entre la gamma y la exponencial
permite que la distribución gamma se utilice en tipos similares de problemas (más generales).
La variable aleatoria x tiene una distribución exponencial, con parámetro 𝛽, y su función de densidad es:

La media de una distribución exponencial es el parámetro 𝛽 y la desviación estándar es √𝛽.

34
Ejemplo de combinación de 2 distribuciones:

Distribución Ji-Cuadrada (Χ 2 ): en realidad la distribución ji-cuadrada es la distribución muestral de 𝑠2. O


sea que, si se extraen todas las muestras posibles de una población normal y a cada muestra se le calcula su
varianza, se obtendrá la distribución muestral de varianzas.
Para estimar la varianza poblacional o la desviación estándar, se necesita conocer el estadístico 𝑋 2 . Si se elige una
(𝑛−1)𝑠 2
2
muestra de tamaño n de una población normal con varianza 𝜎 , el estadístico: → Variable ji-cuadrada
2
tiene una distribución muestral que es una distribución ji-cuadrada con 𝑔𝑙 = 𝑛 − 1 (grados de libertad) y se
denota Χ 2(X es la minúscula de la letra griega ji).
Para determinar este tipo de variable necesitamos conocer el tamaño de la muestra n, la desviación estándar s y la
varianza poblacional 𝝈.
2 (𝑛−1)𝑠2
Por lo tanto el estadístico ji-cuadrada está dado por: 𝑋 =
𝜎2
donde n es el tamaño muestral, s2la varianza muestral y 2la varianza de la población de donde se extrajo la muestra.
El estadístico ji-cuadrada también se puede dar con la siguiente expresión:
2 ∑(𝑥−ẋ)2
𝑋 = 2 → sumatoria del cuadrado de los desvíos respecto a sigma cuadrado
𝜎
PROPIEDADES DE LAS DISTRIBUCIONES JI-CUADRADA
1. Los valores X2 de son mayores o iguales a
0 → 𝑋2 ≥ 0
2. La forma de la distribución 𝑋 2 depende
de 𝑔𝑙 = 𝑛 − 1. En consecuencia, hay un
número infinito de distribuciones 𝑋 2 .
3. El área bajo la curva de ji-cuadrada y sobre
el eje horizontal es 1.
4. La distribución 𝑋 2 no son simétricas. Tienen
colas estrechas que se extienden a la
derecha; esto significa que están sesgadas a
la derecha. (Acumulación a la izquierda)
5. Cuando n>2, la media de una distribución
𝑋 2 es n-1 y la varianza es 2(n-1).
6. El valor modal de una distribución 𝑋 2 se da
en el valor (n-3).
Un método estadístico, llamado técnica ji-cuadrada, tiene cuatro aplicaciones principales:
1. Probar la supuesta independencia de dos variables cualitativas de una población.
2. Hacer inferencias sobre más de dos proporciones de una población.

35
3. Hacer inferencias sobre la varianza de la población.
4. Realizar pruebas de bondad de ajuste para evaluar la credibilidad de
que los datos muestrales, vienen de una población cuyos elementos
se ajustan a un tipo específico de distribución de probabilidad.

La distribución de ji-cuadrada, o chi-cuadrada, como también se le conoce,


tiende a la normalidad, tal y como se muestra en la siguiente figura a medida
que aumentan los grados de libertad.
Para poder aplicar Ji-cuadrado la variable debe estar distribuida
normalmente.
Ejemplo
Suponga que los tiempos requeridos por un cierto autobús para alcanzar un de sus destinos en una ciudad grande
forman una distribución normal con una desviación estándar 𝜎 =1 minuto. Si se elige al azar una muestra de 17
tiempos, encuentre la probabilidad de que la varianza muestral sea mayor que 2.
Solución:

Distribución Beta: modela proporciones de cantidades, su variable serán todos los valores entre 0 y 1. La
proporción va a tener un mínimo 0 y un máximo 1, que representan el 100%.
Tiene 2 parámetros, un parámetro Alpha y un parámetro beta, ninguno de los 2 es un parámetro de escala, son
parámetros de forma. Quiere decir que los parámetros definen la forma de la distribución.

36
ANÁLISIS DE FORMA SEGÚN VARÍEN LOS PARÁMETROS:
La distribución beta es posible para una variable aleatoria
continua que toma valores en el intervalo [0,1], lo que la
hace muy apropiada para modelar proporciones. En la
inferencia bayesiana, por ejemplo, es muy utilizada como
distribución a priori cuando las observaciones tienen una
distribución binomial.
Uno de los principales recursos de esta distribución es el
ajuste a una gran variedad de distribuciones empíricas,
pues adopta formas muy diversas dependiendo de cuáles
sean los valores de los parámetros de forma 𝛼 y 𝛽,
mediante los que viene definida la distribución.

Ejemplo de distribución beta:


Un distribuidor mayorista de gasolina tiene tanques de almacenamiento de gran cantidad con un
abastecimiento fijo, los cuales se llenan cada lunes. Él, desea saber el porcentaje de gasolina vendido
durante la semana.
Después de varias semanas de observación, el mayorista descubre que este porcentaje podría describirse
mediante una distribución beta con 𝛼 = 4 y 𝛽 = 2.

37
Unidad N° 6

Población y muestra
Para que cualquier estudio de investigación sea efectivo, es necesario seleccionar la población de estudio que sea
verdaderamente representativa en toda la población. Antes de comenzar su estudio, la población objetivo debe ser
identificada y acordada. Seleccionando y conociendo su muestra con suficiente antelación, se eliminará en gran
medida cualquier retroalimentación que se considere útil para el estudio.
Si el objetivo de tu encuesta es comprender la efectividad de un producto o servicio, entonces la población de
estudio debe ser los clientes que lo han usado o que mejor se adapten a sus necesidades y que usarán el
producto/servicio.
Sería muy costoso y lento recolectar datos de toda la población de tu mercado objetivo. Mediante un
muestreo preciso de su población de estudio, es posible construir una imagen real del mercado objetivo utilizando las
tendencias de los resultados.
La representatividad de la muestra depende del tamaño de la misma y el tipo de muestreo que se produce. La
importancia de que la muestra sea representativa en un conjunto de datos es que permite inferir sobre muchas
características de la población objetivo, de manera tal de que mis conclusiones tengan mayor grado de validez de lo
que pueden tener cuando la muestra es no representativa.
Hay 2 tipos de muestreo:

1. No Probabilístico: el muestreo no probabilístico es una técnica utilizada en


la muestra estadística que, a diferencia de la muestra probabilística, no permite
que todos los individuos de una población a investigar, posean las mismas
oportunidades de selección.
En este tipo de muestreo predominan aquellos individuos que, al cumplir con
cierta cualidad o característica, benefician la investigación.
Existen distintos tipos de muestreo no probabilístico:
• CONVENIENCIA: Es aquel donde el investigador realiza la muestra,
seleccionando individuos que considera accesibles y de rápida
investigación. Esto generalmente lo hace por proximidad a él mismo. Ocurre generalmente cuando
uno desea obtener información respecto a algún conjunto de datos y tiene a mano una fuente de
datos que es de fácil acceso al investigador.
Las principales características de este tipo de muestreos son la accesibilidad y la rapidéz.
Lógicamente las conclusiones que se extraerán de este estudio no necesariamente serán extensibles
a toda la población
Ejemplo: Un investigador decide realizar un estudio sobre la opinión de un profesor en un aula
determinada. Al utilizar el muestreo por conveniencia, conforma su muestra con los primeros 5
alumnos de la lista del aula.
• POR CUOTAS: A través del muestreo por cuotas, el investigador se asegura de que la muestra sea
equitativa y proporcional, de acuerdo con las características, cualidades o rasgos de la población a
estudiar. Se completa por partes el tamaño de la muestra.
Ejemplo: un investigador debe realizar una muestra sobre los empleados de una empresa, en la que
el 60% son mujeres y el 40% son hombres. Para hacerlo, selecciona individuos que sean
proporcionales a la población, a través de un muestreo por conveniencia o a la elección del
investigador.
• BOLA DE NIEVE: También conocido como muestreo en cadena, este método consiste en que el
investigador exija, al primer sujeto de la muestra, identificar o señalar a otra persona que cumpla
con los requisitos de la investigación. Se utiliza cuando no es fácil la accesibilidad a los datos y se
requieren recomendaciones (se basa en esto).
Ejemplo: un investigador decide realizar una investigación cuya muestra la conforman individuos
con una rara enfermedad. De esta manera, al encontrar un individuo con dichas características, el
investigador le pide ayuda para encontrar otras personas con estas condiciones para conformar la
muestra.
Otro ejemplo puede ser una investigación referida a las drogas.

38
• DISCRECIONAL: También conocido como muestreo por juicio o intencional, mediante esta técnica
los sujetos se eligen para conformar un grupo específico, de personas que resultan más adecuadas
para el análisis que otras (se elige a criterio propio la muestra).
Ejemplo: Se desea realizar una investigación sobre el comportamiento de los padres con sus hijos.
Por lo tanto, el investigador selecciona como muestra a personas que tengan hijos, ya que las
considera aptas de conocimiento para formar parte de la investigación.

VENTAJAS Y DESVENTAJAS DEL MUESTREO NO PROBABILÍSTICO


VENTAJAS:
• Menos costos para realizar la investigación.
• Se pueden controlar las características de la muestra.
• Conlleva menos tiempo, ya que se conoce al individuo que formará parte de la muestra.
• Se pueden conocer características poco comunes.
• Elige de manera más fácil la muestra.

DESVENTAJAS:
• No asegura la representación total de la población.
• No generaliza y es subjetiva (no se puede generalizar).
• No es recomendable en el caso de que la investigación sea causal o descriptiva.
• Sus conclusiones están sujetas a un pequeño entorno.

Siempre que estemos estudiando los fenómenos causales o descriptivos NO podremos utilizar el método
no probabilístico
2. Probabilístico: Todos los individuos de una población
tienen la misma posibilidad de ser seleccionados (azar). Se debe
tener disponible un listado completo de todos los elementos de
la población, a esto se le llama MARCO DE MUESTREO.

• ALEATORIO SIMPLE (MAS): Es aquel en el cual todos los elementos de la


población tienen la misma probabilidad de ser seleccionados. Este sistema
funciona a través de un método de “sorteo” entre un universo de individuos, en
el que se le asigna a cada integrante un número para ser escogido.
Ejemplo: si se necesita seleccionar una muestra de 50 personas entre un
universo de 1000, se le asignará a esas 1000 personas un número y, a modo de
sorteo, se le seleccionarán 50 números al azar que conformarán la muestra requerida.
Dicho procedimiento garantiza que todos los elementos muestrales tengan la misma probabilidad
de ser seleccionados para formar parte de la muestra (muestreo representativo).
VENTAJAS:
• Es sencillo para armar las muestras.
• Toma de forma equitativa la selección de las muestras a partir de una población.
• En general, todos los individuos tienen iguales oportunidades de ser seleccionados
• la población es representativa, siendo el único margen de error la suerte, llamada error de
muestreo.
• El mejor método a la hora de explicar resultados, ya que su selección es aleatoria e
imparcial.
• Por la representatividad obtenida se pueden realizar generalizaciones con respecto a la
población, a partir de los resultados de las muestras.
DESVENTAJAS:
• Se requiere de una lista completa de todos los miembros de la población.
• Esta lista debe estar debidamente elaborada, completa y actualizada.
• En las poblaciones grandes es difícil disponer de los datos necesarios para este tipo de
muestreo, por lo que se recomienda utilizar otra técnica.
• SISEMÁTICO: se basa en enlistar a toda una población, elegir de forma aleatoria al primer
individuo para la muestra y luego, a partir de un intervalo definido por el investigador, seleccionar
al resto de los individuos que conformarán la muestra.

39
Ejemplo: supongamos que necesitamos extraer una muestra de 10 personas a partir de una
población total de 100 y el primer individuo seleccionado para la muestra es el número 3. A partir de
este, mediante un intervalo de 4 decidido por el investigador, se seleccionarán los próximos
individuos hasta completar la muestra, de manera que serán los números 7,11,15, etc.
VENTAJAS:
• Permite obtener buenas propiedades de representatividad.
• Es un sistema muy rápido y simple, ya que evita la necesidad
de generar números aleatorios de individuos en la muestra.
• Garantiza una selección perfectamente equitativa de la
población, lo que resulta muy útil en la distinción de grupos.
• Evita la necesidad de usar diferentes estratos, aunque existe
variedad de individuos en cada fragmento.
DESVENTAJAS:
• el orden en el que se coloca a la población seleccionada
puede llegar a tener un tipo de periodicidad oculta, la cual
puede coincidir con el intervalo seleccionado, ocasionando
una muestra sesgada.

Coeficiente de elevación: es el número


de veces que el tamaño de la población
contiene al tamaño de la muestra (N/n).

• ESTRATIFICADO: consiste en dividir toda la población,


sobre la cual se realizará una investigación, en diferentes
estratos o subgrupos. Generalmente, estos estratos se
conforman por individuos que comparten características
similares. Una vez estratificada la población se debe
seleccionar, al azar y de forma proporcional, a los
individuos finales de cada uno de los estratos que
conformarán la muestra estadística.

En naranja y celeste, dos estratos diferentes,


de los cuales se seleccionarán personas al azar.
Existen distintos tipos de muestreo estratificados:
A. PROPORCIONADO: cuando el tamaño de la muestra, de cada uno de los estratos, es proporcional
al tamaño de la población.

40
B. DESPROPORCIONADO: permite al investigador realizar una muestra de forma equitativa, sin
importar la cantidad de individuos que conformen la población del estrato.

Las ventajas y desventajas del muestreo estratificado son las siguientes:


VENTAJAS:
• Cuenta con mayor capacidad de hacer inferencia y comparaciones dentro de un grupo
• Presenta un mínimo de errores en las muestras del mismo tamaño, por lo que necesita de
muestras pequeñas para que exista el mismo margen de error.
• Las muestras son más representativas, ya que los elementos de cada estrato o grupo son
representados en la muestra.
• El investigador puede obtener mayor conocimiento de la población abordada.
• Permite aplicar diversos métodos de investigación y procedimientos en los diferentes
estratos.
DESVENTAJAS:
• Es necesario obtener información sobre la proporción de la población perteneciente en cada
estrato.
• Se requiere información sobre las variables de estratificación de cada elemento de la
población, ya que sino puede ser muy costosa la recopilación.
• En un método más costoso, ya que implica tiempo y es complicado en comparación con
otros métodos.
• Si se cuenta con un gran número de variables, la selección de la estratificación resultará más
difícil.
• CONGLOMERADO: también denominado Cluster o muestreo por Racimos. Son unidades
geográficas (distritos, pueblos, organizaciones, clínicas)
Ejemplos: Facultad de Ciencias Económicas, Facultad de Ciencias Jurídicas y Sociales, Facultad de
Química y Farmacia.

41
La característica de los conglomerados es que tienen la
misma información que otro conglomerado, pero
poseen unidades mucho más amplias de los
encuestados.
Limitantes: financieras, tiempo, geografía y otros
obstáculos, como por ejemplo la accesibilidad.
Se utiliza para censos.
Se reducen costos, tiempo y energía al considerar que
muchas veces las unidades de análisis se encuentran
encapsuladas o encerradas en determinados lugares físicos o geográficos: Conglomerados.
Unidad de análisis: Sujetos o personas
Unidad muestral en este caso: conglomerado a través del cual se logra el acceso a la unidad de
análisis.
Selección en 2 etapas:
• Los racimos o conglomerados
• En los racimos se seleccionan a los sujetos a ser medidos

42
Unidad N° 7

Distribuciones Muestrales y tamaño muestral


Teorema del límite central: si se seleccionan muestras aleatorias de n observaciones de una población con
media 𝞵 y desviación estándar 𝝈, entonces cuando n es grande, la distribución muestral de medias tendrá
aproximadamente una distribución normal con una media igual a 𝞵 y una desviación estándar de n.
Cuando el tamaño de la muestra es grande la distribución muestral de medias se comporta normalmente con una
media igual a la media poblacional y la desviación estándar, será la desviación poblacional sobre la raíz cuadrada del
tamaño de la muestra.
La aproximación será cada vez más exacta a medida que n sea cada vez mayor.

La variable Z cuando considero un intervalo determinado, voy a tener que el área bajo la curva va a ser 𝟏 − 𝜶 (parte
central), a esto se le denomina nivel de confianza (en porcentaje). Alpha es el área fuera de la zona, como es simétrica
cada zona es igual 𝛼/2 (parte periferial).

43
Determinación del tamaño muestral requerido para estimar 𝞵
El tamaño de la muestra y el tamaño del intervalo de confianza va a depender del tamaño de la población y el nivel de
confianza deseado. Para trabajos científicos se utiliza el 95% de manera aceptable, y para trabajos más finos con un
99%.
Cuando planeamos reunir una muestra aleatoria simple de datos que se usarían para estimar una media poblacional
𝞵, ¿cuántos valores muestrales deben obtenerse? Por ejemplo, suponga que queremos estimar el peso medio de
pasajeros de líneas aéreas (un valor importante por razones de seguridad). ¿Cuántos pasajeros deben seleccionarse al
azar y pesarse? La determinación del tamaño de una muestra aleatoria simple es un aspecto muy importante,

Muchas veces no conocemos el valor de sigma por lo cual debemos saber cómo manejar 𝞼 desconocida al calcular el
tamaño muestral:
Cuando se aplica la fórmula de arriba, existe un dilema práctico: la fórmula requiere que sustituyamos algún valor de
la desviación estándar poblacional 𝞼, pero en realidad ésta suele desconocerse. Cuando se determina un tamaño
muestral requerido (sin construir un intervalo de confianza), existen algunos procedimientos que pueden funcionar
para este problema:
1. Use la regla práctica del intervalo para estimar la desviación estándar como sigue:
𝑟𝑎𝑛𝑔𝑜
𝜎≅ → el rango/4 nos da un valor que es mayor o igual a 𝞼 al menos el 95% de las veces.
4
2. Realice un estudio piloto empezando por el proceso de muestreo. Comience el proceso de muestreo y,
utilizando los primeros valores, calcule la desviación estándar muestral s y úsela en lugar de 𝞼. Entonces, el
valor estimado de 𝞼 puede mejorar conforme se obtienen más datos muestrales, y de este modo es posible
refinar el tamaño muestral.
3. Estime el valor de 𝞼 utilizando los resultados de algún otro estudio hecho con antelación.
FACTOR DE CORRECCIÓN POR POBLACIÓN FINITA:
Cuando la población es finita, es decir que conozco el tamaño, entonces debo hacer una corrección, multiplicando la
fórmula anterior por un factor de corrección.

44
Resulta que hay otra opción cuando la muestra no es muy grande ni infinita (hablamos de muestras pequeñas, es
decir menores de 30).
En estos casos hay que tener sumo cuidado, cuando se habla de una distribución normal de una muestra pequeña
hay que aplicar la teoría de las muestras pequeñas, donde lo que vamos a hacer es usar la distribución t de Student
(proviene de la distribución normal), siempre y cuando no contemos con la varianza poblacional o la desviación
estándar poblacional.
En los casos en que no se conoce tampoco 𝞵 suele conocerse 𝝈𝟐 ; en el caso más realista de 𝝈𝟐 desconocida, los
intervalos de confianza se construyen con la t de Student (otra fdp continua para la que hay tablas) en lugar de la z.
Se obtiene el intervalo de confianza de la siguiente manera:

O, haciendo énfasis en que 𝑠/√𝑛 es el error estándar estimado de la media:


s=desviación muestral
De esta manera de construir los intervalos de confianza sólo es válida si la variable es normal. Cuando n es grande
(>30) se puede sustituir t por z sin mucho error. Si es 30 exacto se puede elegir cuál usar.

NABLA: variable que se denomina grados de libertad y es igual al tamaño de la muestra menos 1.
→ 1 − 𝑛 = 𝜈 (igual que en la distribución Ji-Cuadrada).

Distribución muestral de proporciones


De la muestra 1 evalúo qué porcentaje o proporción hay de cierta variable respecto del total. Supongamos que de la
muestra 1 un elemento está 30 veces de 50 del total, o sea que la proporción sería de 0.6, hacemos lo mismo con cada
una de las muestras. Todos estos valores de proporción de una variable en una población constituyen un conjunto
llamado distribución muestral de proporciones. (La anterior era de medias)

45
La fórmula que se utilizará para el cálculo de probabilidad en una distribución muestral de proporciones está basada
en la aproximación de la distribución normal a la binomial. Esta fórmula nos servirá para calcular la probabilidad del
comportamiento de la proporción en la muestra.

Para que tenga un comportamiento normal [0,1] esa distribución muestral de proporciones debe ser centrada
respecto de la proporción total, sobre la desviación estándar de la distribución muestral de proporción (primera
fórmula). Es decir que como resultado obtenemos una distribución normal estándar.
Al despejar P de la segunda fórmula podemos observar que no es posible despejar a P por completo, por lo cual
procedemos a realizar una aproximación, donde en lugar de tomar la proporción poblacional, voy a tomar la
proporción muestral o estimada. Entonces reemplazo por la p obteniendo así el intervalo de confianza buscado.
El error máximo que puedo cometer para estimar la proporción poblacional a través de la proporción muestral es el
error dado por la tercer fórmula. Esta fórmula a su vez me permite hallar el tamaño de la muestra, haciendo el despeje
pertinente.

46
DEBEMOS TENER EN CUENTA DOS COSAS:
• Si nosotros conocemos el valor el valor estimado de la proporción muestral utilizamos ese valor
• Si desconocemos el valor estimado de la proporción muestral debemos suponerlo. En tal caso suponemos
que vale 0,25, esto se debe a que para 0,5 tenemos la mayor desviación estándar, teniendo así el máximo
tamaño de muestra que puedo pretender.

Regla del redondeo: para asegurar que el tamaño muestral requerido sea al menos tan grande como debe
ser, si el tamaño muestral calculado no es número entero, redondee al siguiente número entero mayor. Es decir que
si el resultado fuera 6,1 redondeamos directamente a 7.

Uso del factor de corrección para una población finita: cuando tenemos una población
relativamente pequeña con tamaño N, y el muestreo se hace sin reemplazo, modificamos E para incluir el factor de
corrección por población finita que se presenta aquí y despejamos n para obtener así el resultado que se da a
continuación:

Tamaño de muestra en muestreo aleatorio estratificado


Se utiliza cuando debo conocer qué tamaño de muestra debe tomarse en cada estrato.
La primer fórmula para estimar la media se obtiene de la sumatoria de los pesos de cada estrato (que se obtiene de la
relación entre el tamaño del estrato y el tamaño total de la muestra), también llamada sumatoria del mayor relativo
del estrato; la sumatoria es multiplicada por la varianza del estrato, dividiendo a todo el numerador por el error
estimado (e) al cuadrado, sobre el valor crítico (Z) al cuadrado, a esto le sumamos el valor que está en el numerador,
dividido por el tamaño de la muestra.
De esta forma obtenemos el tamaño a seleccionar de cada estrato.
Esta asignación de la muestra puede darse de 2 formas:
a. PROPORCIONAL AL TAMAÑO DEL ESTRATO: donde el tamaño calculado anteriormente lo multiplico por
el peso relativo, obteniendo cual es el tamaño de la muestra de ese estrato en particular de acuerdo con su
tamaño proporcional.
b. ASIGNACIÓN ÓPTIMA: Se obtiene de multiplicar n por el tamaño de estrato y por la desviación estándar,
dividiendo todo por la sumatoria del producto del tamaño del estrato por la desviación estándar.
Si en vez de querer estimar el valor aproximado de la población, queremos estimar la proporción (P) vamos a realizar
la operación dada a la derecha de la tabla, donde N es el tamaño de la muestra, e el error, z el valor crítico, P la
proporción de cada estrato y Q que es igual a 1-P.
47
48
Tamaño Muestral para estimar la varianza

49
Unidad N° 8

Estimación puntual y de intervalo


ESTIMACIÓN: se denomina estimación al conjunto de técnicas que permiten dar un valor aproximado de un
parámetro de una población a partir de los datos proporcionados por una muestra; es decir, nos permite predecir un
valor de un parámetro de la población.
Utilizamos una estimación cuando queremos realizar el estudio de una población cualquiera de la que
desconocemos sus parámetros, por ejemplo, su media poblacional o la probabilidad de éxito, (si la población sigue
una distribución binomial), debemos tomar una muestra aleatoria de dicha población para calcular la aproximación a
dichos parámetros que conocemos y queremos estimar.
Con las conclusiones de la muestra vamos a poder inferir los comportamientos, prediciendo resultados.
El nivel de confianza con el que deseamos trabajar dependerá de la precisión de la estimación.
La muestra siempre se toma aleatoriamente, a través de métodos probabilísticos para garantizar la
representatividad. Sin embargo, esto no garantiza que la estimación sea siempre la adecuada, siempre existe la
probabilidad de que la muestra me dé un valor lejano al que representa a la población (aleatoriedad).

Estimación Puntual o Particular:


Una estimación es puntual cuando se usa un solo valor extraído de la muestra para estimar el parámetro desconocido
de la población. Al valor usado se le llama estimador.
La media de la población se puede estimar puntualmente
mediante la media de la muestra:
̅=𝝁
𝒙
La proporción de la población se puede estimar
puntualmente mediante la proporción de la muestra:
̂=𝒑
𝒑
La desviación típica de la población se puede estimar
puntualmente mediante la desviación típica de la muestra,
aunque hay mejores estimadores:
𝒔=𝝈
A. INSESGADO: Un estimador es insesgado si su distribución tiene como valor esperado al parámetro que se
desea estimar. Es cuando la esperanza del estimador es igual (o aprox. igual) al parámetro que se desea
estimar.
̅) = 𝝁
𝑬(𝒙
B. CONSISTENCIA: A mayor tamaño muestral mejor estimación. Un requisito lógico para un estimador es que
su precisión mejore al aumentar el tamaño muestral. Es decir, que esperamos obtener mejores estimaciones
cuanto mayor sea el número de individuos.
Si se cumple dicho requerimiento, diremos que un estimador es consistente. Desde un punto de vista más
riguroso diremos que un estimador es consistente si converge en la probabilidad al verdadero valor del
parámetro que queremos estimar.
C. EFICIENCIA: A menor varianza mejor estimador. Hemos visto que es razonable trabajar con estimadores
centrados, sin embargo, esta no puede ser la única propiedad que le pidamos a un estimador ya que, en
general, podremos encontrar un gran número de estimadores centrados de un mismo parámetro. Por tanto,
necesitaremos algún criterio adicional para seleccionar entre estimadores centrados y dicho criterio será la
eficiencia. Una estimación suele ser eficiente cuando los datos están menos dispersos.

Propiedades del estimador:


SESGO: se dice que un estimador es insesgado si la media de la distribución del estimador es igual al
parámetro.
Estimadores insesgados son la Media muestral (estimador de la Media de la población) y la Varianza
(estimador de la Varianza de la población).

50
Estimador de varianza
La Varianza es un estimador sesgado, no nos da la varianza poblacional dado que tiende a subestimar su valor. Por
ej.: la Media de las Varianzas obtenidas con la Varianza.
En un muestreo de 1000 muestras (n=25) en que la Varianza de la población es igual a 9.56, la
Varianza ha resultado igual a 9.12, esto no es coincidente. Por eso debemos utilizar lo que
denominaremos como Cuasivarianza, que es un estimador insesgado. Esta, nos daría que la
Media de las Varianzas muestrales es igual a 9.5, resultado que es coincidente con la Varianza
Poblacional.
A la hora de elegir un estimador de 𝜎 2 = 𝑉𝑎𝑟[𝑥] podemos comenzar con el estimador más natural:
1 2 ∑(𝑋𝑖 −𝑋̅)2
𝑠 2 = ∑𝑛𝑖=1(𝑋𝑖 − 𝑋)2 𝑠̃ =
𝑛 𝑛−1
Podemos comprobar que cuando el carácter que se estudia sobre la población es gaussiano, en realidad este es el
estimador máximo verosímil para la varianza. Sin embargo, se comprueba también su falta de sesgo, lo que hace más
adecuado que se utilice como estimador de la varianza el concepto antes mencionado: la cuasivarianza muestral.

Estimación por intervalos de confianza


En estadística, se llama intervalo de confianza a un par de números entre los cuales se estima que estará cierto valor
desconocido con una determinada probabilidad de acierto. Formalmente, estos números determinan un intervalo,
que se calcula a partir de datos de una muestra, y el valor desconocido es un parámetro poblacional. Este intervalo,
como ya hemos visto, tiene extremos o fronteras superiores e inferiores, pero no límites.
NIVEL DE CONFIANZA: se denomina así a la probabilidad de éxito que en la estimación
se representa con 1 − 𝛼, es medido en porcentaje y lo establece el investigador.
NIVEL DE SIGNIFICACIÓN: en estas circunstancias, denominamos a 𝜶 el error aleatorio
o Nivel de Significación, esto es, una medida de las posibilidades de fallar en la
estimación mediante tal intervalo.
La confianza del intervalo debe ser entendida como la fracción de intervalos calculados a
partir de una gran serie de muestras de tamaño idéntico que contienen el valor verdadero
del parámetro poblacional.
El nivel de confianza con el que deseamos trabajar no es una elección sin importancia,
puesto que del nivel de confianza dependerá la precisión de la estimación que obtengamos,
es decir, la anchura del intervalo. A mayor nive de confianza exigido, mayor será el radio o
ancho del intervalo y por tanto menor la precisión en la estimación. Generalmente se trabaja con niveles de confianza
del orden del 90% o 95%.
El área bajo la curva es igual a 0.95 en la parte central, y 0.25 en los respectivos extremos, es decir 𝜶/𝟐.
ESTIMACIÓN DEL INTERVALO PARA LA MEDIA POBLACIONAL Y 𝜎 POBLACIONAL CONOCIDA:
El objetivo es conseguir una estimación de la media 𝜇 (desconocida) de una población, cuya desviación típica 𝜎 es
conocida. Para ello se recurre a una muestra de tamaño n, para la que se obtiene su media x aproximada.

51
Si partimos de una población que sigue una distribución Z N(0,1), bastará con encontrar el punto crítico 𝑧𝛼/2 para
tener un intervalo que contenga la media poblacional con probabilidad c
𝑝(−𝑧𝛼/2 < 𝑍 < 𝑧𝛼/2 ) = 𝑐
Si en el caso general tomamos:
𝑋̅ − 𝜇
𝑍= 𝜎
√𝑛
En el caso de poblaciones que no son normales, o que simplemente no sabes si lo son o no, necesitamos que el tamaño
de la muestra sea suficientemente grande (n > 30) para poder aplicar el Teorema Central del Límite para obtener que
el intervalo de confianza para la media 𝜇 de una población con desviación típica conocida 𝜎 es:
𝜎 𝜎
(𝑥̅ − 𝑍𝛼/2 , 𝑥̅ + 𝑍𝛼/2 )
√𝑛 √𝑛

Estimación por intervalos de confianza para una proporción

𝑠 𝑠
𝑋̅ − 𝑡𝑛−1 ≤ 𝜇 ≤ 𝑋̅ + 𝑡𝑛−1
√𝑛 √𝑛

52
Estimación por intervalos de confianza para la Varianza 𝝈2
Siempre proviene de una población distribución normal.
(𝑛−1)∗𝑠2 2 (𝑛−1)∗𝑠2
2 ,𝑛−1 <𝜎 < 2 → Población con Distribución Normal
𝑋𝛼/2 𝑋1− 𝛼/2 ,𝑛−1

Ejemplo: a un grupo de individuos se les sometió a una dieta especial y al final se les midió el nivel de colesterol en el
plasma, los resultados fueron los sgtes.:
6.0, 6.4, 7, 5.8, 6, 5.8, 5.9, 6.7, 6.1, 6.5, 6.3, 5.8 [mmol/litro]
Suponiendo que la población del colesterol tiene una distribución normal, construya un IC del 95% para la varianza
poblacional del nivel de colesterol.

Varianza m o varianza solamente en Math da el valor de la varianza muestral. Si quiero la desviación estándar saco la
raíz cuadrada.

53
Unidad N° 9

Correlación y Regresión
Se refiere al afán de predecir cuál es el comportamiento de un conjunto de datos. Es utilizado en el trading, donde
trabajan con estadística para poder tener en claro la tendencia de un conjunto de datos, y así poder predecir que
puede llegar a pasar, sin embargo es tan azaroso que no siempre ocurre. Esto se debe a la gran cantidad de variables.
Si nosotros estuviéramos seguros de que va a ocurrir un suceso, eso no sería probabilidad, sería certeza.
CORRELACIÓN: es un grupo de técnicas para medir la asociación entre dos variables. (Ejemplo: podemos medir la
correlación que hay entre la existencia de fuentes de trabajo y nivel de vida) Podemos correlacionar cosas ridículas,
que no tiene sentido (Por ejemplo la temperatura del día con el hambre, tal vez no tiene correlación pero se puede
medir si tienen algún grado de asociación o no). Hay que utilizar la coherencia y el criterio para correlacionar cosas,
que de alguna forma veamos que están vinculadas. Según la correlación tenemos variables, de las cuales requiere:
• VARIABLE DEPENDIENTE: Variable que se predice o estima. Se muestra en el eje Y.
• VARIABLE INDEPENDIENTE: Variable que proporciona la base para la estimación. Es la variable de
pronóstico. Se muestra en el eje X.

Análisis de correlación
Ejemplo:
Número de llamadas de ventas y
copiadoras vendidas para 10 vendedores:
-Variable independiente: El
número de llamadas de ventas
-Variable Dependiente: El número
de copiadoras vendidas

No hay una relación, puede haber alguna


asociación o correlación. Primero vemos si existe, pero no podemos cuantificarla.
Diagrama de dispersión que representa las llamadas de ventas y las copiadoras vendidas:
Este diagrama también es llamado nube de puntos o diagrama de puntos
Marcamos con un punto cada par ordenado. A partir del gráfico determinamos si
hay alguna asociación o correlación. Debemos ver si existe:
Los representantes con más llamadas tienden a vender más copiadoras. Aunque
parece haber una relación positiva entre las dos variables (a mayor cantidad de
llamadas mayor cantidad de fotocopiadoras vendidas), no todos los puntos se
encuentran en una recta positiva entre las dos variables, no todos los puntos se
encuentran en una recta.

Covarianza: esto nos permite sectorizar en cuadrantes el gráfico, y de acuerdo a ese resultado podemos estimar
de qué tipo es la relación entre las dos variables, si es positiva o negativa; nos indica que la nube de puntos va a
tener una tendencia ascendente o descendente. Pero no podemos analizar la correlación lineal. El comando de esto
en Excel es ‘=COVAR()’. Es para ver si están asociadas, puede dar 0 pero sin embargo estar relacionadas, en este caso
solo indica que no hay una relación lineal.

Coeficiente de Correlación de Pearson: nos mide el grado de asociación entre las variables.
1. El coeficiente de correlación de la muestra se identifica por letra minúscula r.
2. Muestra la dirección y fuerza de la relación lineal (recta) entre dos variables en escala de intervalo o en escala
de razón. (si la relación no es lineal hay otro tipo de teorías)
3. Varía de -1 hasta +1, inclusive.
4. Un valor cercano a 0 indica que hay poca asociación entre las variables.
5. Un valor cercano a 1 indica una asociación directa o positiva entre las variables.
6. Un valor cercano a -1 indica una asociación inversa o negativa entre las variables.

54
Resulta una relación directa entre el número de llamadas de ventas y el número de copiadoras
vendidas. Como 0.759 está muy cercano a 1.00, se concluye que hay una asociación positiva fuerte.
Esto implica que mientras más llamadas se reciban, más fotocopiadoras venderán.
Un ejemplo de asociación negativa perfecta puede ser a la hora de comprar motores con una cierta
cantidad de dinero, entonces por cada motor (con un costo fijo) nos va a ir disminuyendo en forma
proporcional la cantidad de dinero, teniendo así una correlación lineal inversa perfecta.
Nosotros utilizaremos el Excel para determinar la correlación y no
utilizaremos la fórmula.

Regresión Lineal Simple


Es una técnica estadística utilizada para predecir o estimar una variable cuantitativa en función de otra variable
cuantitativa. Ahora vamos a predecir, dado un valor independiente cual es el valor dependiente que podemos esperar,
siempre hablando de regresiones lineales simples.

Y es la variable que deseamos


PREDECIR o ESTIMAR, y X es la
variable EXPLICATIVA.

Análisis de Regresión
Es una ecuación que expresa la relación lineal (recta) entre dos variables; determina ecuaciones de las rectas.
Estima el valor de la variable dependiente Y con base en un valor seleccionado de la variable independiente X.

55
Si bien por los puntos podemos trazar muchísimas rectas, para determinar cuál es la recta más adecuada debemos
aplicar el concepto del método de los mínimos cuadrados; con el cual obtendremos una recta que minimice los errores
de las distancias o desvíos de cada valor de variable y respecto del valor medio. (recta de regresión). Las incógnitas
son la ordenada al origen y la pendiente de la recta, se hace aplicando los ptos. críticos y hallando los valores de las
incógnitas.

La recta de mínimos cuadrados proporciona el “mejor” ajuste; el método subjetivo no es confiable.


Donde:
̂ =𝒂+𝒃𝑿
𝒀
̂ → se lee y prima, es el valor estimado de la variable Y para un valor de X seleccionado.
𝒀
𝒂 → es la intersección Y. Es el valor estimado de Y cuando X=0. En otras palabras, a es el valor estimado de Y donde la
recta de regresión cruza el eje Y cuando X es cero (ordenada al origen).
𝒃 → es la pendiente de la recta, o cambio promedio en Ypor cada cambio de una unidad (ya sea aumento o reducción)
en la variable independiente X.
𝑿 → es cualquier valor de la variable independiente que se seleccione.
𝑆𝑦 𝑛 ∑ 𝑥𝑦 − ∑ 𝑥 ∑ 𝑦
𝑏=𝑟 =
𝑆𝑥 n ∑ 𝑥 2 − (∑ 𝑥 )2
Donde:
𝒓 → es el coeficiente de correlación.
𝒔𝒚 → es la desviación estándar de Y (la variable dependiente)
𝒔x → es la desviación estándar
𝑎 = 𝑦̅ − 𝑏 𝑥̅
(Todas estas fórmulas solo las usamos si calculamos a mano)

Donde:
̅ → es la media de la Y (la variable dependiente)
𝒚
̅ → es la media de la X (la variable independiente)
𝒙

De estas fórmulas también determinaremos la:

Confiabilidad del modelo


𝟐
de regresión
Coeficiente de regresión (𝑹 ): indica la proporción de la varianza de la variable y que es explicada por su relación
lineal con la variable x. Esto nos da un número que se
interpreta como un porcentaje de error (explicado
por el modelo), mientras que el complemento de este
es el error que no explica el modelo de relación lineal.
También es llamado de determinación.
Es 1 o -1 cuando la relación entre las dos variables es
perfecta, 0, cuando no existe relación lineal entre las
variables.
Puede explicarse la varianza en dos partes; la
varianza explicada por x o debida a la relación lineal
con x y la varianza no explicada o debida a otros
factores.

56
Si 𝑹𝟐 = 𝟎. 𝟓𝟕𝟔 significa que el 57% de la variación en los números de copiadoras vendidas es explicada por la cantidad
de llamadas realizadas y el 43% se debe a otros factores.

En el DD: Hay una correlación positiva. Mientras más estudia, la probabilidad de obtener un puntaje más alto
aumenta.

91% explica el comportamiento de la recta, solamente un 9% que no explica este modelo.

57
Unidad N° 10

Test de Hipótesis
Hipótesis: es una afirmación o conjetura (suposición) acerca de un parámetro de una o más poblaciones y que está
sujeta a verificación. Explicación provisoria acerca de algo. Toma como base la información que nos da la muestra.
Ejemplo de los parámetros: desviación estándar, media, vida útil, etc.
• HIPÓTESIS NULA: es cualquier hipótesis que se desea probar. Si se comprueba decimos que es acertada, sino
decimos que no es concluyente o se rechaza. La hipótesis nula se rechaza sólo si los datos ofrecen
suficiente evidencia para no considerarla verdadera. Se denota 𝐻0
• HIPÓTESIS ALTERNATIVA: es la hipótesis que se acepta cuando la hipótesis nula es rechazada; es la contraria
a la nula. Se denota 𝐻1

Prueba de hipótesis: procedimiento basado en evidencia de la muestra y la teoría de probabilidades para


determinar si la hipótesis es una afirmación razonable.

¿Por qué la hipótesis nula se rechaza sólo si los datos ofrecen suficiente evidencia para
no considerarla verdadera?
Dado que las muestras se obtienen al azar, la media en cada muestra será distinta, por lo que esas diferencias no se
atribuyen a problemas en el producto, sino que son causadas por el azar. La media en cada muestra será distinta, por
lo que esas diferencias no se atribuyen a problemas en el producto, sino que son causadas por el azar. Esta vida media
está influenciada por otros factores.

¿Cómo se sabe qué tanto es “suficiente evidencia"?


NIVEL DE SIGNIFICANCIA: Es la probabilidad de rechazar la hipótesis nula
cuando es verdadera. Se denota por 𝛼. Normalmente utilizamos el 5%, le
damos una posibilidad muy pequeña a que esto ocurra. Definiendo
indirectamente zonas de aceptación a través de 𝛼, dependiendo si es a dos o
una cola. El test de hipótesis consistirá en definir estas zonas. La hipótesis
alternativa nos define si es a dos (cuando el símbolo sea distinto) o una cola.
Este nivel de significancia permite establecer, con base en probabilidades, un
criterio para determinar si se tiene “suficiente evidencia” para descartar la hipótesis nula.

¿Cuánto es un nivel de significancia “aceptable”?


No se desea que la probabilidad de rechazar la hipótesis nula cuando es verdadera sea demasiado alta. Generalmente
las pruebas de hipótesis se realizan con niveles de significancia de 5% o 1%. Vamos a trabajar con un nivel de confianza
de un 95% o 99%.

¿Es confiable esta decisión basada en datos de una muestra”?


Al basarse en datos de la muestra es posible cometer dos tipos de errores:
• Error tipo I: se comete cuando se rechaza una hipótesis que
es correcta. La probabilidad de cometer este error se denota
𝜶
• Error tipo II: se comete cuando se acepta una hipótesis que
es incorrecta, La probabilidad de cometer este error se
denota 𝜷
Estos NO son complementarios, a pesar de que cuando uno
aumenta el otro disminuye.

¿Qué sigue ahora?


Ya teniendo en claro lo anterior, debemos buscar o seleccionar un estadístico de prueba que nos brinde la evidencia,
es decir, un valor que se emplea para ser contrastado contra el valor crítico, o sea, el valor determinado por el nivel
de significancia en una distribución de probabilidad apropiada.
Esto permite establecer una regla para tomar la decisión de aceptar o rechazar la hipótesis nula.
Tomamos la muestra y sacamos el estadístico adecuado.

58
Pasos para probar una hipótesis
1. Se establece la hipótesis nula y la hipótesis alternativa.
2. Se selecciona un nivel de significancia para la prueba.
3. Se identifica el estadístico de prueba. (Si es una media, varianza, etc.)
4. Se formula una regla para tomar decisiones. (Dependiendo de si es un análisis de dos o una cola)
5. Se toma una muestra y se llega a una decisión: se acepta o se rechaza la hipótesis nula.

PROCEDIMIENTO PARA PRUEBAS DE HIPÓTESIS SOBRE LA MEDIa


PASO 1. Plantear las hipótesis.
La hipótesis nula se plantea como: 𝐻0 : 𝜇 = 𝜇0
La hipótesis alternativa entonces podría ser alguna de las siguientes: 𝐻1 : 𝜇 > 𝜇0
𝐻1 : 𝜇 < 𝜇0
𝐻1 : 𝜇 ≠ 𝜇0
PASO 2. Especificar el nivel de significación 𝛼 (la probabilidad de error tipo I) con que se desea trabajar.
Los valores usualmente usados son 5% y 1%.
Si se escoge una probabilidad de error tipo I muy pequeña esto hace que la probabilidad de error tipo II sea muy
grande.

PASO 3. Se usa el estadístico de prueba apropiado.


En el caso de la media, dependiendo del tamaño de la muestra y si se conoce o no la desviación estándar poblacional,
se usan los estadísticos de prueba siguientes.
Estadístico de prueba:
𝑥̅ −𝜇
Con 𝑛 ≥ 30 y con 𝜎 conocida o con 𝑛 < 30 y 𝜎 conocida: 𝑧𝑐 = 𝜎 → Valor de la variable aleatoria según el
√𝑛
Teorema del Límite Central.
Estadístico de prueba:
Con 𝑛 ≥ 30 y con 𝜎 desconocida:
𝑥̅ −𝜇
𝑧𝑐 = s →En vez de 𝜎, usamos s calculándolo y utilizando una D. Normal Estándar.
√𝑛
Estadístico de prueba:
𝑥̅ −𝜇
Con 𝑛 < 30 y 𝜎 desconocida, no tengo que usar la normal, debo utilizar la distribución T-Student: t = s
√𝑛
A este valor se le llamará “z calculada” o “t calculada”; valor de z con la muestra, indica si vamos a aceptar o
rechazar el acontecimiento.
PASO 4. Se especifica un criterio de aceptación o rechazo de la hipótesis nula según el estadístico de prueba usado
en el paso anterior.
En las hipótesis para la media el criterio puede ser: Prueba de una cola si 𝐻1 : 𝜇 > 𝜇0
Prueba de una cola si 𝐻1 : 𝜇 < 𝜇0
Prueba de dos colas si 𝐻1 : 𝜇 ≠ 𝜇0
Calculamos nuestro Zt (z tabulado o de Excel) con nivel de significancia 𝛼 (0,05 usualmente) con ayuda del comando
de Excel INV.NORM.ESTAND(), no hay problema con la cantidad de decimales con las que trabajemos. Una vez hecho
esto, lo comparamos con el Zc (z calculado o por fórmula), viendo donde cae este último en función de Zt para
determinar si se acepta o rechaza la hipótesis. En términos de t sería: 𝒕𝒄 calculado y 𝒕𝒕 tabulado o teórico.
También podemos evaluar la proporción, calculando el valor de probabilidad a partir del Estadístico de Prueba (busco
el valor de Z acumulando hasta Zc), cuando 𝛼 > 𝑝 se rechaza la 𝐻0 , decimos que “p es tan o más extraño que 𝐻0 ”
PASO 5. Se acepta o se rechaza la 𝐻0 y se toma la decisión.

59
Pruebas de hipótesis para la proporción
En el caso de una sola proporción P las hipótesis son:
Hipótesis nula: 𝐻0 : 𝑃 = 𝑝0 → donde 𝑝0 es la constante determinada.
Hipótesis alternativa: se tienen las siguientes tres posibilidades: 𝐻1 : 𝑃 > 𝑝0
𝐻1 : 𝑃 < 𝑝0
𝐻1 : 𝑃 ≠ 𝑝0
El estadístico de prueba es:
𝑥−𝑛𝑃
𝑧𝑐 = → El criterio de aceptación o rechazo de la 𝐻0 es igual al de la prueba de las medias.
√𝑛𝑃𝑄
Donde x es el número de eventos en la muestra, P la proporción supuesta, 𝒑𝟎 = 𝑥/𝑛 la proporción muestral y n el
tamaño de la muestra.
Calculamos 𝒁𝜶 con Excel con nivel de suficiencia 𝛼, INV.NORM.ESTAND(𝛼). Una vez hecho esto, lo comparamos con
el Zc, viendo donde cae este último en función de 𝒁𝜶 para determinar si se acepta o rechaza la hipótesis.

¿Para qué sirve la estadística?


Tenemos una población de la cual a veces no conocemos
los parámetros poblacionales (media, desviación estándar,
varianza). Aleatoriamente elegimos generalmente una
muestra, de la cual, si conocemos la media y la desviación
estándar porque las podemos calcular, los descriptores
muestrales o estadísticos son conocidos y nos van a
permitir inferir (suponer) cual es el comportamiento de la
media o desviación estándar poblacional; esto es lo que
hacemos en estadística.

Intervalos de confianza
Media poblacional cuando se conoce 𝜎:
Media poblacional cuando no se conoce 𝜎 y la muestra es mayor que 30:

Cuando la muestra es menor que 30 y no se conoce la desviación estándar poblacional, usamos la variable t o la
distribución t:

Estos valores de 𝑧𝛼/2 𝑜 𝑡𝛼/2 los podemos determinar con el Excel.

60
Error tipo I (𝜶) y error tipo II (β)
Los distintos tipos de errores no son complementarios, si
bien cuando uno aumenta el otro disminuye, no lo hacen
de forma complementaria.

Hipótesis estadísticas
1. Selección de una prueba estadística apropiada
2. Selección de un nivel de significancia (95%)
3. Formulación de la hipótesis: 𝐻0 y 𝐻1
4. Cálculo de estadísticos y comparación con valor
crítico o análisis de la probabilidad asociada (p)
5. Decisión

Resultados discrepantes: Outliers


Resultados que no pertenecen a un conjunto (muestra o población). Se encuentran fuera
de la zona de aceptación.
No se puede conocer 𝛽 si no tenemos el valor o dato de 𝛼.

Criterio de los límites de confianza


* Dado un conjunto de datos, se calculan
promedio y desviación estándar.
* Se calculan los límites de confianza
para una determinada probabilidad.
* Si el dato dudoso no se encuentra en el
intervalo, se debe rechazar y recalcular
los parámetros estadísticos.
Es importante tener en cuenta que para
un nivel de significación del 5% hay un
5% de riesgo (1/20) de rechazar
incorrectamente un valor sospechoso.

Comparación de un promedio con un valor determinado (n < 30)


Suposiciones: Distribución aproximadamente normal
Hipótesis: Nula - 𝐻0 : 𝜇 = 𝜇0
Alternativa - 𝐻1 : * Dos colas: 𝜇 ≠ 𝜇0
* Una cola: 𝜇 < 𝜇0 y 𝜇 > 𝜇0
𝑥̅ −𝜇
Test estadístico: Distribución “t” con (n-1) grados de libertad t = s
√𝑛
Decisiones:

Comparación de dos muestras (n < 30)


Suposiciones: Dos muestras independientes (1 y 2) de distribución aproximadamente normal
Hipótesis: Nula - 𝐻0 : 𝜇 = 𝜇0
Alternativa - 𝐻1 : * Dos colas: 𝜇 ≠ 𝜇0
* Una cola: 𝜇 < 𝜇0 y 𝜇 > 𝜇0
Test estadístico: depende de que la relación (varianza mayor/varianza menor) sea menor o mayor que 𝑭𝒄𝒓í𝒕𝒊𝒄𝒐.
Si 𝑭𝒄𝒂𝒍𝒄𝒖𝒍𝒂𝒅o > 𝑭𝒄𝒓í𝒕𝒊𝒄𝒐: las Varianzas son estadísticamente diferentes y la prueba tiene una variación.

61
Comparación de dos varianzas
Se calcula el estadístico F (cociente de 2 varianzas, el de mayor valor va en el
numerador y el de menor en el denominador). Utilizamos el comando de
Excel INV.F( , , )

DADA UNA SITUACIÓN DEL TIPO:


Se espera que unos bombillos tengan una vida de 1000 horas, ya que, cuando se venden, eso es lo que se ofrece a
los compradores. La gerencia tiene algunas dudas, pues algunos clientes se han quejado, por lo que debe determinar
si efectivamente la vida media de los bombillos es inferior a la ofrecida.
Entonces, se toma una muestra aleatoria de bombillos. Estos bombillos serán probados para determinar su vida
media. Al tomar la decisión con base en datos muestrales se corre el riesgo de que, por causa del azar, esos bombillos
tengan una vida mayor, o menor, que la real (media poblacional). La cuestión es qué tan aceptable es la vida media
mayor o menor, si estamos subestimando o no. En esta situación se debe determinar si la afirmación:
La vida media de los bombillos es 1000 horas es verdadera o es falsa.
Esta afirmación cuya veracidad se prueba se conoce como hipótesis. El procedimiento para realizar esta evaluación
se llama Prueba de Hipótesis.
El temor de la empresa es que la vida media de los bombillos sea inferior a 1000 horas, pues esa ha sido la queja de
los clientes. Entonces, si se rechaza la hipótesis nula de que:
La vida media de los bombillos es 1000 horas
Se estaría tomando por válida la hipótesis alternativa:
La vida media de los bombillos es menor que 1000 horas
En este caso:
Hipótesis nula: La vida media de los bombillos es 1000 horas
Hipótesis alternativa: La vida media de los bombillos es menor
que 1000 horas
Simbólicamente se representa: 𝐻0 : 𝜇 = 1000
𝐻1 : 𝜇 < 1000
Suponga que la empresa tomó una muestra de 24 bombillos y los probó para
determinar la vida media. Y así contar con datos para la prueba de
hipótesis. En la muestra se obtuvo una vida media de 970 horas. ¿Se puede
concluir que la vida media de los bombillos es menor que 1000 horas?
El nivel de significancia de 5%, nos sirve para determinar la evidencia
suficiente; esto sería rechazar que la diferencia de 30 horas menos se debe al
azar (o sea, por cuestión del azar la muestra contenía bombillos de menor duración).

62
¿Qué significan los errores para esta empresa?
Error tipo I : Por causa del azar los bombillos de la muestra tenían una vida muy baja
y se rechaza que la vida media es de 1000 horas siendo verdadera esta hipótesis.
Consecuencia: La empresa va a tratar de mejorar su proceso de producción
innecesariamente, lo cual le hará incurrir en costos mayores.
Error tipo Il: Por causa del azar los bombillos de la muestra tenían una vida muy alta
y se acepta que la vida media es de 1000 horas siendo falsa esta hipótesis.
Consecuencia: La empresa no va a tratar de mejorar su proceso de producción, pero
debería hacerlo, lo cual le generará clientes insatisfechos.
PLANTEAMIENTO DEL PROBLEMA
Roy es un empresario exitoso a nivel local pues es el único distribuidor de electrodomésticos y productos tecnológicos
de la zona. En su tienda los consumidores pueden adquirir aparatos
como lavadoras y refrigeradoras, y también televisores,
computadoras, tablets y otros productos. Roy leyó que hay un fuerte
crecimiento de las compras por Internet a nivel nacional y desea
implementar un sistema de ventas online en su negocio.
Un proveedor le asegura a Roy que en su zona el porcentaje de internautas que realizan compras por Internet es tan
alto como el porcentaje a nivel nacional. Si así fuera, vender sus productos en Internet podría ser una gran oportunidad
para su negocio.
Roy aplicó un cuestionario a una muestra de 50 personas que fueran residentes de la zona y que usaran Internet
regularmente, y les preguntó si habían realizado compras en línea en el último trimestre. La encuesta reveló que 30
internautas de la zona han realizado compras por Internet en ese periodo. Estos datos desanimaron a Roy, pues solo
el 60% de los entrevistados respondió afirmativamente. ¿Son estos datos evidencia suficiente para afirmar que el 74%
de los internautas de la zona realizan compras por Internet? ¿O ese porcentaje es menor?
¿Cómo puede saberse si la afirmación del proveedor es verdadera? ¿O es falso que el 74% de los internautas de la
zona realizan compras por Internet?
Para dar respuesta a esta pregunta hay que realizar una Prueba de Hipótesis. Hay que probar la hipótesis de que el
74% de los internautas de la zona realizan compras por Internet
Se plantea la prueba de hipótesis como:
Hipótesis nula: La proporción (%) de los internautas de la zona que realizan compras por Internet es igual a 74%
Hipótesis alternativa: La proporción (%) de los internautas de la zona que realizan compras por Internet es menor que
74% Simbólicamente se representa: 𝐻0 : 𝑃 = 74%
𝐻1 : 𝑃 < 74% (lo que creemos que nos va a perjudicar)
¿Qué sigue ahora?
Debemos seleccionar un estadístico de prueba, que nos permite establecer una regla para tomar la decisión de aceptar
o rechazar la hipótesis nula.
PROCEDIMIENTO PARA PRUEBAS DE HIPÓTESIS SOBRE LA MEDIA: EJEMPLO
Una empresa fabrica focos que tienen una vida útil de 800 horas, con desviación estándar de 40 horas. Al tomar una
muestra de 40 focos estos tienen una duración promedio de 788 horas. Determine a un nivel de significación del 5%
si la media poblacional de estos focos es efectivamente de 800 horas.
Paso 1: En el ejemplo se desea probar que la media verdadera es de 800 horas: 𝐻0 : 𝜇 = 800
Como en la muestra la media es 788, menor que 800, la hipótesis alternativa lógica es: 𝐻1 : 𝜇 < 800
Paso 2: En el ejemplo se especifica un valor de 𝛼 de 0,05.
Paso 3: En el ejemplo se tiene 𝑛 > 30 y 𝜎 conocida, n= 40 y = 40 horas por lo que se calcula z:
𝑥̅ −𝜇 788-800
𝑧𝑐 = 𝜎 = 40 = -1.897 → valor de z con la muestra, indica si vamos a aceptar o rechazar el
√𝑛 √40
acontecimiento.
Paso 4: En el ejemplo, 𝐻1 : 𝜇 < 800 la prueba es de una cola por lo tanto se tiene
cola izquierda.
De la tabla normal con 𝛼 = 0,05, se obtiene 𝑍𝑡 = −1,645.
Como 𝑍𝑐 = −1,897 y 𝑍𝑡 = −1,645,
|𝑍𝑐 | > |𝑍𝑡 | → 𝑍𝑐 𝑐𝑎𝑒 𝑒𝑛 𝑧𝑜𝑛𝑎 𝑑𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝑑𝑒 𝐻0 . En este caso podemos decir
que los focos no son eficientes.
Paso 5: En el ejemplo se rechaza la 𝐻0 .
Se rechaza que 𝜇 = 800 y se acepta la 𝐻1 : 𝜇 < 800. La conclusión es que a un
nivel de significación del 5% se rechaza la hipótesis nula 𝐻0 de que la vida media de los focos es de 800 horas y se

63
considera que existe evidencia estadística para aceptar la hipótesis alternativa de que la vida útil de los focos es menor
de 800 horas.
EJEMPLO
Una muestra aleatoria de los archivos de una compañía indica que las órdenes de compra para cierta pieza de
maquinaria fueron entregadas en 10, 12, 16, 14, 15, 10, 11 y 13 días. Anteriormente se había hecho una estimación
del tiempo promedio de entrega el cual resultó ser de 10,5 días. Verifique, a un nivel de significación del 5% si ese
valor se mantiene sin cambio.
Solución
Se tiene que 𝜇0 = 10,5 días, además 𝑛 = 8. De los datos de la muestra se obtiene:
Media muestral = 12,63 (media de los días) y s = 2,264.
Como media muestral es mayor que 𝐻0 , se planteará una hipótesis alternativa de 𝜇 > 0.
Paso 1. Hipótesis: 𝐻0 : 𝜇 = 𝜇0 ↔ 𝐻0 : 𝜇 = 10,5
𝐻1 : 𝜇 > 𝜇0 ↔ 𝐻1 : 𝜇 > 10,5
Paso 2. Especificar el nivel de significación (la probabilidad de error tipo I) con que se desea trabajar.
Los calores usualmente usados son 5% y 1%.
• Si se escoge una probabilidad de error tipo I muy pequeña esto hace que la probabilidad de error tipo II sea
muy grande.
• En el ejemplo se especifica un valor de 𝛼 de 0,05.
De la tabla, con 𝑎 = 0,05 y 𝑔𝑙 = 8 − 1 = 7, se obtiene para una cola 𝑡0 = 1,895.
Paso 3. Se usa el estadístico de prueba apropiado.
𝑥̅ −𝜇 12.63-10.5
Como 𝑛 < 30 y 𝜎 desconocida, se calcula t: t = s = 2.26 = 2.66
√𝑛 √8
Paso 4. Se especifica un criterio de aceptación o rechazo de la hipótesis nula según el
estadístico de prueba usado en el paso anterior.
En términos de t sería: t calculado>t tabulado o teórico
• Si |𝑡𝑐 | > |𝑡𝑡 |: Se rechaza la hipótesis nula 𝐻0 , y se acepta la hipótesis
alternativa 𝐻1 .
• Si |𝑡𝑐 | ≤ |𝑡𝑡 |: se mantiene la hipótesis nula 𝐻0 .
Como |𝑡𝑐 |> |𝑡𝑡 |, se rechaza 𝐻0 , con 𝛼 = 0,05.
Paso 5.
Se concluye que existe evidencia estadística para afirmar que el tiempo promedio de entrega cambió, ahora es mayor
de 10,5 días.

PRUEBAS DE HIPÓTESIS PARA LA PROPORCIÓN: EJEMPLO


El encargado de compras de una empresa asegura que por lo menos el 2% de los pedidos que recibe de cierto
proveedor deben ser devueltos por no cumplir con lo especificado. El proveedor encuentra en sus registros que de los
últimos 160 pedidos entregados a ese cliente 2 fueron rechazados por esa razón. Basándose en los resultados de esta
muestra y a un nivel de significación del 5% determine quién tiene la razón.
Solución

64
Se tienen la siguiente información:
Proporción supuesta: 𝑃 = 0,02 y 𝑄 = 1 − 𝑃 = 1 − 0,02 = 0,98
Tamaño de muestra: 𝑛 = 160
Número de eventos en la muestra: 𝑥 = 2
Proporción muestral: 𝑝 = 𝑥/𝑛 = 2/160 = 0,0125
Se plantean las hipótesis como: 𝐻0 : 𝑃 = 𝑃0 ↔ 𝐻0 : 𝑃 = 0.02
𝐻1 : 𝑃 = 𝑃0 ↔ 𝐻1 : 𝑃 < 0.02
De la tabla de la distribución normal, con 𝛼= 0,05; 𝑍𝛼 =-1,645.
𝑥−𝑛𝑃 2-160*0.02
Se calcula z: 𝑧𝑐 = = = -0.678
√𝑛𝑃𝑄 √160*0.02*0.98
Como el valor absoluto de 𝒁c es menor que el valor absoluto de 𝑍𝛼 o Zt, se cae en la zona de aceptación de la 𝐻0 .
Se acepta 𝐻0 , con 𝛼= 0,05. A un nivel de significancia de 5%, se puede considerar que el encargado de compras de la
empresa cliente tiene razón, el porcentaje es de por lo menos un 2%.
EJERCICIO
Pruebe la aseveración de que la proporción de adultos
que fumaron un cigarrillo la semana pasada es menor
de 0.25, si se tomó una muestra de 1.018 sujetos, de
los cuales 224 dicen que fumaron un cigarrillo la
semana pasada. Use 𝛼 = 0.01.

COMPARACIÓN DE UN PROMEDIO CON UN VALOR DETERMINADO (n < 30): EJEMPLO


Verificar si el contenido de “Lasalocid Sodium” en un alimento (determinado por nuestro laboratorio) coincide con
el declarado por el fabricante. Contenido Nominal declarado: 85𝑚𝑔𝑘𝑔2
Nuestro laboratorio efectuó las sgte. determinación (10 replicados).
87 88 84 84 87 81 86 84 88 86
Suposiciones:
* Las determinaciones de Lasatocid Sodium están distribuidas aproximadamente en forma normal (antes se realiza
rechazo de datos dudosos).
Hipótesis:
* 𝐻0 : No hay diferencia estadísticamente significativa entre la media de nuestras medidas y el valor declarado (m =
85).
* 𝐻1 : (dos colas) Existe diferencia estadísticamente significativa entre la media de nuestras medidas y el valor
declarado (m ≠ 85).

65
COMPARACIÓN DE DOS MUESTRAS (n < 30): EJEMPLO
En un ejercicio Interlaboratorio dos laboratorios analíticos ejecutan un método estándar para determinar la [𝑷𝑶𝟑𝟒 ]
de una muestra de agua do río. Cada laboratorio efectúa 8 replicados.

66
COMPARACIÓN DE DOS VARIANZAS: EJEMPLO
En un ejercicio Interlaboratorio dos laboratorios analíticos ejecutan un método estándar para determinar la [𝑷𝑶𝟑𝟒 ]
de una muestra de agua do río. Cada laboratorio efectúa 8 replicados.

67
Ejemplo
Las capas de óxido en las obleas semiconductoras son depositadas en una mezcla de gases para alcanzar el espesor
apropiado. La variabilidad del espesor es una característica crítica de la oblea, y lo deseable para los siguientes pasos
de la fabricación 35 tener una variabilidad baja. Para ello se estudian dos mezclas diferentes de gases con la finalidad
de determinar con cuál se obtienen mejores resultados en cuanto 2 la reducción en la variabilidad del espesor del
óxido. Veintiún obleas son depositadas en cada gas. Las desviaciones estándar de cada muestra del espesor del óxido
son 𝑠1 = 1.96 angstroms y 𝑠2 = 2.13 angstroms. ¿Existe evidencia que indique una diferencia en las desviaciones?
Utilice 𝛼 = 0,05.

Decisión y Justificación: tomo 1,18 está entre los dos valores de 𝐻0 no se rechaza se rechaza y se concluye con un
𝛼=0.05 que existe suficiente evidencia para decir que las varianza de las poblaciones son iguales.
ÚLTIMO EJEMPLO
En su incansable búsqueda de un sistema de llenado adecuado, cierta empresa prueba dos máquinas. Robo-fill se
usa para llenar 16 tarros y da una desviación estándar de 1.9 onzas en el llenado. Con Automat-fill se llenan 21
frascos que dan una desviación estándar de 2.1 onzas. Si la empresa tiene que elegir uno de estos sistemas en
función de la uniformidad de llenado. ¿Cuál deberá seleccionar? Use un 𝛼 = 0.10

Decisión y Justificación:
Como 1.22 es menor que 2.20 no se rechaza H0, y se concluye con un = 0.10 que la variación de llenado de la
máquina Robo-Fill no es menor a la de Automat-Fill.

68

También podría gustarte