Estadistica Parametrica y No Parametrica

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 29

UNIVERSIDAD SAN PEDRO

FACULTAD DE CIENCIAS ECONOMICAS Y


ADMINISTRATIVAS
ESCUELA PROFESIONAL DE ADMINISTRACION

PRUEBA PARAMETRICA Y NO PARAMETRICA

DOCENTE: Dr. ALCIBIADES SOSA PALOMINO

ELABORADO POR:
LOPEZ SOTO, Keren Cesia

Fecha de presentación: 22-07-2019


HUACHO – PERÚ
2019
AGRADECIMIENTO
La vida se encuentra plagada de retos, y uno de ellos es la universidad.
Tras vernos dentro de ella; nos hemos dado cuenta que más allá de ser un
reto, es una base no solo para nuestro entendimiento del campo de la
Administración; sino para lo que concierne nuestro futuro.
Le agradezco a mi Universidad y a nuestro maestro por habernos abierto
las puerta a este mundo llamado universidad.

ii
DEDICATORIA
Dedico este trabajo Principalmente a Dios,
por habernos dado la vida y por permitirnos estar en la
Universidad. Dedico este primer trabajo, a nuestras
familias, por creer en mi; por su apoyo
Incondicional y paciencia.
A todos ellos les dedico esta Trabajo

iii
INDICE

11
INTRODUCCIÓN

En el presente trabajo se mostrara la Investigacion sobre el tema de


Estadistica principalmente en dos partes: las técnicas paramétricas y las no
paramétricas. Las primeras se basan en suposiciones especificas acerca de la
población de la que se desea hacer algún tipo de inferencia. Mientras que en cambio
las técnicas no paramentricas hacen supuestos muy generales respecto a la
distribución poblacional de la que se desea hacer inferencias. Tradicionalmente lo
que separa ambas técnicas estadísticas es el supuesto de que la población de la que
se toma los datos sigue una distribución normal.
Durante mucho tiempo los estadísticos han preferido las técnicas
paramétricas o han optado por diversas transformaciones a fin de poder aplicarlas,
dejando como recurso final a las pruebas no paramétricas cuando se ha podido
encontrar evidencia estadística de que la población sigue una distribución nomal.
Es difícil suponer sin pruebas de hipótesis apropiadas, mientras que las
pruebas no paramétricas permiten soluciones “elegantes” donde los supuestos son
mas sencillos de cumplir que los propuestos por las técnicas paramétricas.
Teoricamente conocemos que las pruebas paramétricas superan a las pruebas no
paramétricas en potencia de explicación cuando la población es normal como se
indico anteriormente, entonces recurriremos para la comparación de ambas pruebas
a fin de conocer que pruebas se desempean mejor que otras en ciertos casos.
En los presentes capítulos conoceremos sus bases teóricas, es decir los
conceptos de estas dos principales partes que son la prueba paramentrica y la Prueba
no paramétrica

12
CAPÍTULO I

13
1. PRUEBAS PARAMETRICAS
La estadística paramétrica es una rama de la estadística inferencial que comprende
los procedimientos estadísticos y de decisión que están basados en distribuciones
conocidas. Estas son determinadas usando un número finito de parámetros. Esto es,
por ejemplo, si conocemos que la altura de las personas sigue una distribución
normal, pero desconocemos cuál es la media y la desviación de dicha normal. La
media y la desviación típica de la distribución normal son los dos parámetros que
queremos estimar. Cuando desconocemos totalmente qué distribución siguen
nuestros datos entonces deberemos aplicar primero un test no paramétrico, que nos
ayude a conocer primero la distribución.

La mayoría de procedimientos paramétricos requiere conocer la forma de


distribución para las mediciones resultantes de la población estudiada. Para la
inferencia paramétrica es requerida como mínimo una escala de intervalo, esto
quiere decir que nuestros datos deben tener un orden y una numeración del
intervalo. Es decir nuestros datos pueden estar categorizados en: menores de 20
años, de 20 a 40 años, de 40 a 60, de 60 a 80, etc, ya que hay números con los cuales
realizar cálculos estadísticos. Sin embargo, datos categorizados en: niños, jóvenes,
adultos y ancianos no pueden ser interpretados mediante la estadística paramétrica
ya que no se puede hallar un parámetro numérico (como por ejemplo la media de
edad) cuando los datos no son numéricos.
Las pruebas no paramétricas engloban una serie de pruebas estadísticas que tienen
como denominador común la ausencia de asunciones acerca de la ley de
probabilidad que sigue la población de la que ha sido extraída la muestra. Por esta
razón es común referirse a ellas como pruebas de distribución libre.

1.1 VENTAJAS
 Más poder de eficiencia.
 Más sensibles a los rasgos de los datos recolectados.
 Menos posibilidad de errores.
14
 Robustas (dan estimaciones probabilísticas bastante exactas).

1.2 DESVENTAJAS
 Más complicadas de calcular.
 Limitaciones en los tipos de datos que se pueden evaluar.

1.3 TIPOS DE DISTRIBUCIONES EN LA ESTADÍSTICA PARAMÉTRICA


Entre los tipos de distribuciones de probabilidad más conocidas y utilizadas en la
estadística paramétrica se encuentran:
1.3.1 Distribuciones de probabilidad discretas
 Distribución uniforme
 Distribución binomial
 Distribución de Bernoulli
 Distribución hipergeométrica
 Distribución binomial negativa
 Distribución geométrica
 Distribución de Poisson
1.3.2 Distribuciones de probabilidad continuas
 Distribución uniforme continua
 Distribución ji-cuadrado o chi-cuadrado
 Distribución exponencial
 Distribución Gamma
 Distribución normal
 Distribución F de Snecdor
 Distribución t de Student

1.4 DISTRIBUCIONES DE PROBABILIDAD DISCRETA


1.4.1 Distribucion Uniforme

15
Decimos que una variable aleatoria discreta (X) tiene distribución uniforme
cuando la probabilidad en todos los puntos de masa probabilística es la
misma; es decir, cuando todos los posibles valores que puede adoptar la
variable (x1, x2,...,xk) tienen la misma probabilidad.

Pongamos el socorrido pero útil caso del lanzamiento de un dado. Si


definimos una variable aleatoria (X) como el número resultante tras su
lanzamiento, los valores que puede tomar
esa variable aleatoria son {1, 2, 3, 4, 5, 6}. Pues bien, esa variable aleatoria
tiene distribución uniforme si, como es el caso, la probabilidad es la misma
para cada uno de los resultados posibles.

f(x) = 1/n

1.4.2 Distribucion Binomial


Una buena parte de los fenómenos que ocurren en la vida real pueden ser
estudiados como una variable aleatoria discreta con distribución binomial,
por lo que su estudio puede ser de gran utilidad práctica.
Una distribución binomial es una distribución de probabilidad discreta que
describe el número de éxitos al realizar n experimentos independientes entre
sí, acerca de una variable aleatoria.
Existen una gran diversidad de experimentos o sucesos que pueden ser
caracterizados bajo esta distribución de probabilidad. Imaginemos el
lanzamiento de una moneda en el que definimos el suceso “sacar cara” como
el éxito. Si lanzamos 5 veces la moneda y contamos los éxitos (sacar cara)
que obtenemos, nuestra distribución de probabilidades se ajustaría a una
distribución binomial.
Por lo tanto, la distribución binomial se entiende como una serie de pruebas
o ensayos en la que solo podemos tener 2 resultados (éxito o fracaso), siendo
el éxito nuestra variable aleatoria.
16
1.4.3 Distribución de Bernoulli
Para comprender el proceso de Bernouilli pensemos, por ejemplo, en
situaciones en las que sólo hay dos posibles resultados mutuamente
excluyentes (verdadero/falso, en un test; defectuoso/no defectuoso, en los
artículos que salen de una fábrica; aprobado/suspendido, en los resultados
de un examen,etc....). Decimos que son mutuamente excluyentes porque no
pueden darse simultáneamente (un examen no puede estar aprobado y
suspendido al mismo tiempo; una respuesta no puede ser simultáneamente
verdadera o falsa, etc...). Una manera común de designar estos dos
resultados es como Exito (E) o Fracaso (F).
Una segunda característica de los fenómenos que siguen el denominado
Proceso de Bernouilli es que las pruebas de las que se obtienen los éxitos o
los fracasos son independiente. Así, el hecho de que un artículo salga
defectuoso en una línea de producción no tiene que ver con el resultado
obtenido en el siguiente artículo que examinamos.

1.4.4 Distribución hipergeométrica


Es una distribución discreta que modela el número de eventos en una
muestra de tamaño fijo cuando usted conoce el número total de elementos
en la población de la cual proviene la muestra. Cada elemento de la muestra
tiene dos resultados posibles (es un evento o un no evento). Las muestras no
tienen reemplazo, por lo que cada elemento de la muestra es diferente.
Cuando se elige un elemento de la población, no se puede volver a elegir.
17
Por lo tanto, la probabilidad de que un elemento sea seleccionado aumenta
con cada ensayo, presuponiendo que aún no haya sido seleccionado.

Utilice la distribución hipergeométrica para muestras obtenidas de


poblaciones relativamente pequeñas, sin reemplazo. Por ejemplo, la
distribución hipergeométrica se utiliza en la prueba exacta de Fisher para
probar la diferencia entre dos proporciones y en muestreos de aceptación
por atributos cuando se toman muestras de un lote aislado de tamaño finito.
La distribución hipergeométrica se define por 3 parámetros: tamaño de la
población, conteo de eventos en la población y tamaño de la muestra.

1.4.5 Distribución binomial negativa


Esta distribución puede considerarse como una extensión o ampliación de
la distribución geométrica . La distribución binomial negativa es un modelo
adecuado para tratar aquellos procesos en los que se repite un determinado
ensayo o prueba hasta conseguir un número determinado de resultados
favorables (por vez primera) .Es por tanto de gran utilidad para aquellos
muestreos que procedan de esta manera. Si el número de resultados
favorables buscados fuera 1 estaríamos en el caso de la distribución
geométrica . Está implicada también la existencia de una dicotomía de
resultados posibles en cada prueba y la independencia de cada prueba o
ensayo, o la reposición de los individuos muestreados.

18
1.4.6 Distribución geométrica
En teoría de probabilidad y estadística, la distribución geométrica es
cualquiera de las dos distribuciones de probabilidad discretas siguientes:
la distribución de probabilidad del número X del ensayo de Bernoulli
necesaria para obtener un éxito, contenido en el conjunto { 1, 2, 3,...} o
la distribución de probabilidad del número Y = X − 1 de fallos antes del
primer éxito, contenido en el conjunto { 0, 1, 2, 3,... }.
Cual de éstas es la que uno llama "la" distribución geométrica, es una
cuestión de convención y conveniencia.

1.4.7 Distribución de Poisson


La distribución de Poisson es una distribución de probabilidad discreta que
se aplica a las ocurrencias de algún suceso durante un intervalo
determinado. Nuestra variable aleatoria x representará el número de
ocurrencias de un suceso en un intervalo determinado, el cual podrá ser
tiempo, distancia, área, volumen o alguna otra unidad similar o derivada de
éstas.

1.5 DISTRIBUCIONES DE PROBABILIDAD CONTINUAS


1.5.1 Distribución uniforme continua
En teoría de probabilidad y estadística, la distribución uniforme continua es
una familia de distribuciones de probabilidad para variables aleatorias
19
continuas, tales que para cada miembro de la familia, todos los intervalos de
igual longitud en la distribución en su rango son igualmente probables. El
dominio está definido por dos parámetros, a y b, que son sus valores mínimo
y máximo. La distribución es a menudo escrita en forma abreviada como
U(a,b

1.5.2 Distribución ji-cuadrado o chi-cuadrado


El estadístico ji-cuadrado (o chi cuadrado), que tiene distribución de
probabilidad del mismo nombre, sirve para someter a prueba hipótesis
referidas a distribuciones de frecuencias. En términos generales, esta prueba
contrasta frecuencias observadas con las frecuencias esperadas de acuerdo
con la hipótesis nula. En este artículo se describe el uso del estadístico ji-
cuadrado para probar la asociación entre dos variables utilizando una
situación hipotética y datos simulados. Luego se describe su uso para
evaluar cuán buena puede resultar una distribución teórica, cuando pretende
representar la distribución real de los datos de una muestra determinada. A
esto se le llama evaluar la bondad de un ajuste. Probar la bondad de un ajuste
es ver en qué medida se ajustan los datos observados a una distribución
teórica o esperada. Para esto, se utiliza una segunda situación hipotética y
datos simulados.
Del mismo modo que los estadísticos “z”, con su distribución normal y “t”,
con su distribución t de Student, nos han servido para someter a prueba
hipótesis que involucran a promedios y porcentajes, el estadístico ji-
cuadrado (o chi cuadrado), que tiene distribución de probabilidad del mismo
nombre.
En términos generales, esta prueba contrasta frecuencias observadas con las
frecuencias esperadas de acuerdo con la hipótesis nula.

20
1.5.3 Distribución exponencial
Mientras que la distribución de Poisson describe las llegadas por unidad de
tiempo, la distribución exponencial estudia el tiempo entre cada una de estas
llegadas. Si las llegadas son de Poisson el tiempo entre estas llegadas es
exponencial. Mientras que la distribución de Poisson es discreta la
distribución exponencial es continua porque el tiempo entre llegadas no
tiene que ser un número entero. Esta distribución se utiliza mucho para
describir el tiempo entre eventos. Más específicamente la variable aleatoria
que representa al tiempo necesario para servir a la llegada.
Ejemplos típicos de esta situación son el tiempo que un medico dedica a una
exploración, el tiempo de servir una medicina en una farmacia, o el tiempo
de atender a una urgencia.
El uso de la distribución exponencial supone que los tiempos de servicio
son aleatorios, es decir, que un tiempo de servicio determinado no depende
de otro servicio realizado anteriormente ni de la posible cola que pueda estar
formándose. Otra característica de este tipo de distribución es que no tienen
"edad" o en otras palabras, "memoria".

1.5.4 Distribución Gamma


Utilice la distribución gamma para modelar valores de datos positivos que
sean asimétricos a la derecha y mayores que 0. La distribución gamma se
utiliza comúnmente en estudios de supervivencia de fiabilidad. Por ejemplo,
la distribución gamma puede describir el tiempo que transcurre para que
falle un componente eléctrico. La mayoría de los componentes eléctricos de
un tipo particular fallará aproximadamente en el mismo momento, pero unos
pocos tardarán más en fallar.
La distribución gamma es una distribución continua que se define por sus
parámetros de forma y escala. La distribución gamma de 3 parámetros se
define por sus parámetros de forma, escala y valor umbral. Por ejemplo, en
la siguiente gráfica, la distribución gamma se define según valores de forma
21
y escala diferentes cuando el valor umbral se establece en 0.0. Note que la
mayoría de los valores en una distribución gamma ocurren cercanos entre
sí, pero algunos valores quedan al final de la cola superior.

Cuando el parámetro de forma es un entero, la distribución gamma a veces


se menciona como distribución de Erlang. La distribución de Erlang se
utiliza frecuentemente en aplicaciones de teorías de colas.

1.5.5 Distribución normal


La distribucion normal es , con mucho , la m·s importante de todas las
distribuciones de probabilidad . Es una distribuciÛn de variable continua ,
con campo de variación ]-∞ ,∞ [ . Fue Ç descubierta por Gauss al estudiar
la distribucion de los errores en las observaciones astronomicas.
Debe su importancia a tres razones fundamentales:
Por un lado, un gran numero de fenomenos reales se pueden modelizar con
esta distribucion (tales el caso de las caracteristicas cuantitativas de casi
todas las grandes poblaciones). Por otro lado, muchas de las distribuciones
de uso frecuente tienden a aproximarse a la distribucion normal bajo ciertas
condiciones ; y , por ultimo ,en virtud del Teorema Central del Limite, todas
aquellas variables que puedan considerarse causadas por un gran numero de

22
pequeños efectos (como pueden ser los errores de observacion) tienden a
distribuirse con una distribucion normal.

1.5.6 Distribución F de Snecdor


Es una distribución de probabilidad de gran aplicación en la inferencia
estadística , fundamentalmente en la contrastación de la igualdad de
varianzas de dos poblaciones normales, y , fundamentalmente en el análisis
de la varianza , técnica que permite detectar la existencia o inexistencia de
diferencias significativas entre muestras diferentes y que es, por tanto
esencial , en todos aquellos casos en los que se quiere investigar la
relevancia de un factor en el desarrollo y naturaleza de una característica.
1.5.7 Distribución t de Student
Supóngase que se toma una muestra de una población normal con media

y varianza . Si es el promedio de las n observaciones que contiene la

muestra aleatoria, entonces la distribución es una distribución


normal estándar. Supóngase que la varianza de la población 2 es
desconocida. ¿Qué sucede con la distribución de esta estadística si se
reemplaza por s? La distribución t proporciona la respuesta a esta
pregunta.

La media y la varianza de la distribución t son =0y para


>2, respectivamente.

La siguiente figura presenta la gráfica de varias distribuciones t. La


apariencia general de la distribución t es similar a la de la distribución
normal estándar: ambas son simétricas y unimodales, y el valor máximo de
la ordenada se alcanza en la media = 0. Sin embargo, la distribución t
tiene colas más amplias que la normal; esto es, la probabilidad de las colas
23
es mayor que en la distribución normal. A medida que el número de grados
de libertad tiende a infinito, la forma límite de la distribución t es la
distribución normal estándar.

1.6 DIFERENCIA ENTRE ESTADÍSTICA PARAMÉTRICA Y NO


PARAMÉTRICA
La diferencia entre estadística paramétrica y no paramétrica está basada en el
conocimiento o desconocimiento de la distribución de probabilidad de la
variable que se pretende estudiar.

La estadística paramétrica utiliza cálculos y procedimientos asumiendo que


conoce cómo se distribuye la variable aleatoria a estudiar. Por el contrario, la
estadística no paramétrica utiliza métodos para conocer cómo se distribuye un
fenómeno para, más tarde, utilizar técnicas de estadística paramétrica.

Las definiciones de ambos conceptos se ilustran a continuación:


 Estadística paramétrica: Hace referencia a una parte de la inferencia
estadística que utiliza estadísticos y criterios de resolución
fundamentados en distribuciones conocidas.

24
 Estadística no paramétrica: Se trata de una rama de la inferencia
estadística cuyos cálculos y procedimientos están fundamentados en
distribuciones desconocidas.
1.7 LA ESTADÍSTICA PARAMÉTRICA Y NO PARAMÉTRICA SON
COMPLEMENTARIAS
Utilizan métodos diferentes porque sus objetivos son distintos. Sin embargo, se
trata de dos ramas complementarias. No siempre sabemos con certeza —de
hecho pocas veces lo sabemos cómo se distribuye una variable aleatoria. Así
pues, se hace necesario utilizar técnicas para averiguar a qué tipo de distribución
se asemeja más.
Una vez hemos averiguado cómo se distribuye podremos realizar cálculos y
técnicas específicas de ese tipo de distribuciones. Ya que, por ejemplo, no se
calcula de la misma forma el valor medio en una distribución de una Poisson
que de una Normal.
Aun así, es importante indicar que la estadística paramétrica es mucho más
conocida y popular. Muchas veces, en lugar de utilizar la estadística no
paramétrica, directamente se asume que un variable se distribuye de una forma.
Es decir, se parte de una hipótesis de partida que se cree que es la correcta. Sin
embargo, cuando se quiere realizar un trabajo de forma rigurosa, en caso de no
estar seguros, debemos utilizar la estadística no paramétrica.
De lo contrario, por muy bien aplicadas que estén las técnicas de la estadística
paramétrica, los resultados serán imprecisos.

25
CAPÍTULO II

26
2. PRUEBAS NO PARAMETRICAS
La estadisitica no paramétrica es una rama de la estadística que estudia las
pruebas y modelos estadísticos cuya distribución subacente no se ajusta a los
llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues
son los datos observados los que la determina. La utilización de estos métodos se
hace recomendable cuando no se puede asumir que los datos se ajusten a una
distribución conocida, cuando el nivel de medida empleado no sea, como minimo,
de intervalo.
Una estadística no paramerica esta basada en un modelo que especifica solo
condiciones muy generales y ninguna acerca de la forma especifica de la
distribución de la cual fue obtenida la muestra.
Los preocedimientos no paramétricos permiten probar diferentes hipótesis
acerca de la población, precisamente donde los procedimientos paramétricos no
actúan.
2.1 VENTAJAS
 Si el tamaño de la muesra es muy pequeño, puede no haber otra opción que
usar una prueba no paramétrica, a menos que la naturaleza de la distribución
de la población se conozca con exactitud.
 Las pruebas no paramétricas típicamente hacen menos suposiciones acerca
de los datos y pueden ser mas relevantes a una situación particular.
 Los métodos no paramétricos están disponibles para tratar datos que son
simplemente clasificatorios, es decir medidos en escala nominal.
 Existen pruebas no paramétricas que son adecuadas para tratar muestras
obtenidas en observaciones de diferentes poblaciones.
 La interpretación de las prueba no paramétrica suele ser mas directa que la
interpretación de las pruebas paramétricas.

2.3 DESVENTAJAS
 Las estadísticas no paramétricas no son sistemáticas.

27
 Las estadística no paramétrica se relaciona con la conveniencia, por lo que
en ocasiones puede ser un problema elegir la adecuada.
2.4 LAS PRINCIPALES PRUEBAS NO PARAMETRICAS
 Prueba 𝑋 2 de Pearson
 Contraste de los signos e intervalos de confianza
 Prueba de rangos asignados dee Wilcoxxon
 Prueba de Mann-Whitney
 Coeficiente de correlacion de Spearman
 Prueba exacta de Fisher
 Prueba de la Mediana
 Prueba de KruskalWallis
 Prueba de Anderson Darling
 Prueba de Cohen Kappa
 Prueba de Friedman
 Prueba de Cochran
 Prueba de Kendall
 Prueba de Kolmogòrov Smimov
 Prueba de Siegel Tukey
 Prueba Binomial
 Prueba de Kuiper
 Prueba de Cambio de McNemar
 Tablas de Contingencia
 Prueba de Wald Wolfowitz
2.5 TIPOS DE DISTRIBUCIONES EN LA ESTADÍSTICA PARAMÉTRICA
2.5.1 Prueba 𝑿𝟐 de Pearson
La Prueba 𝑿𝟐 de Pearson es considerada como una prueba no paramétrica
que mide la discrepacia entre una distribución observada otra teorica
(bondad de ajuste), indicando en que medida las diferencias existentes entre
ambas, de haberlas, de deben al azar en el contraste de hipótesis. Tambien

28
se utiliza para probar la independencia de dos variables entre si, mediante la
presentación ded os datos en tablas de coningencia.

2.5.2 Contraste de los signos e intervalos de confianza


El contraste no paramétrico mas sencillo de realizar es el contraste de
signos. Se utiliza principalmente contrastar hipótesis sobre la posición
central (mediana) de una distribución poblacional o para analizar datos de
muestras mareadas. El contraste de signos se emplea en los estudios de
mercado para averiguar si los consumidores prefieren uno de dos productos.
Dado que los encuestados manifiesan simplemente su preferencia. Los daos
son nominales y se prestan a métodos no paramétricos.

2.5.3 Prueba de rangos asignados dee Wilcoxxon


Uno de los inconvenientes del contraste de signos es que solo tiene en cuenta
una cantidad mu reducida de información, a saber, los sginos de las
diferencias. Cuando el tamaño de la muestra es pequeño, es de esperar, pues,
que el contraste no sea mu poderoso. El contraste de Wilcoxon basado en la
ordenación de las diferencias es un método para incorporar información
sobre la magnitud de las diferencias entre pares enlazados. Sigue siendo un
contraste que no depende de la distribución. Al igual que muchos contrastes
no paramétricos se basa en las ordenaciones.
La prueba de Wilcoxon puede emplearse cuando se dispone de una muestra
aleatoria de pares enlazados. Si la distribución poblacional de las diferencias
en estas muestras pareadas es simétrica y que queremos contrastar la
hipótesis nula de que esta distribución esta centrado en 0. Descartando los
pares entre los que la diferencia es 0, ordenamos las n diferencias abosolutas
restantes en sentido ascendente; en caso de empate, el puesto asignado es la
media de los puestos que ocupan en la ordenación. Se calculan las sumas de
los puestos correspondientes a las diferencias positivas y negativas yy la
menor de estas sumas es el estadístico de Wilcoxon, T, es decir,
29
T = min (T+,T-)
2.5.4 Prueba de Mann Whitney
Se presenta cuadno se toman muestras aleatorias independientes de las dos
poblaciones, el contraste U de Mann Whitney. La distribución del
estadístico de Mann Whiteney, U, se aproxima a la distribución normal a un
ritmo bastante rápido a medida que aumenta el numero de observaciones
muestrales. La aproximación es adecuada si cada muestra contiene al menos
10 observaciones. Por lo tanto, solo consideraremos aquí las muestras en las
que n1≥10 y n2 ≥10. Para contrastar la hipótesis nula de que la posición
central de las dos distribuciones poblacionales es igual, suponemos que,
aparte de la existencia de cualquier posible diferencia entre las posiciones
centrales, las dos distribuciones poblacionales son idénticas.

2.5.5 Coeficiente de correlacion de Spearman


El coeficiente de correlacion muestral puede verse seriamente afectado por
las observaciones extremas. Ademas, los contrastes basados en el recurren
para su validez al supuesto de la normalidad. Puede obtenerse una medida
de la correlacion en la que no influen seriamente los valores extremos en la
que pueden basarse contrastes validos de sitribucion poblacionales mu
generales utilizando los puestos en ordenaciones. El contraste resultante
será en ese caso no paramétrico.

2.5.6 Prueba exacta de Fisher


Prueba de la probabilidad exacta de Fisher para tablas de 2x2 es una técnica
extremadamente satisfactoria para analizar datos discetos (tanto nominales
como ordinales) cuando dos muestras independientes son pequeas.
Se usa cuando las observaciones de dos muestras independientes al azar
caen dentro de dos clases mutuamente excluyentes; las cuales son
representadas por frecuencias en una tabla 2x2.

30
Los encabezados de los renglones, pueden tener cualquiera de dos
clasificaciones: por arriba por debajo de la media, acertaron erraron,
ciencias mayores y artes mayores, acuerdos desacuerdo, etc.
La prueba determina si los dos grupos dfieren en las proporciones en donde
caen dentro de cualquiera de las clasificaciones.

2.5.7 Prueba de la Mediana


Es un procedimiento para evaluar si dos grupos independientes difieren en
sus tendencias culturales. Mas precisamente, esta prueba nos proporciona
información acerca de que tan probable es que dos grupos independientes
(no necesariamente de mismo tamaño) hayan sido extraidos de la misma
población con la misma mediana. La hipótesis nula plantea que los dos
grupos son la misma población y tienen la misma mediana; la hipótesis
alterna puede plantear que la mediana de una poblacional es diferente de la
otra población, o que la medianaa de una población es superios que la otra
población.

2.5.8 Prueba de KruskalWallis


2.5.9 Prueba de Anderson Darling
2.5.10 Prueba de Cohen Kappa
2.5.11 Prueba de Friedman
2.5.12 Prueba de Cochran
2.5.13 Prueba de Kendall
2.5.14 Prueba de Kolmogòrov Smimov
2.5.15 Prueba de Siegel Tukey
2.5.16 Prueba Binomial
2.5.17 Prueba de Kuiper
2.5.18 Prueba de Cambio de McNemar
2.5.19 Tablas de Contingencia
2.5.20 Prueba de Wald Wolfowitz
31
32
CONCLUCIONES

33
REFERENCIAS ELECTRONICAS
Extraído de:
http://www.iuma.ulpgc.es/~nunez/mastertecnologiastelecomunicacion/Rec
ursosGenerales/TesisEstadisticaParametricayNoParametrica.pdf
Extraido de:
https://www.scientific-european-federation-osteopaths.org/wp-
content/uploads/2019/01/Estad%C3%ADstica-param%C3%A9trica.pdf
Extraido de:
http://www.iuma.ulpgc.es/~nunez/mastertecnologiastelecomunicacion/Rec
ursosGenerales/TesisEstadisticaParametricayNoParametrica.pdf
Extraido de:
https://www.medwave.cl/link.cgi/Medwave/Series/MBE04/5033
Extraido de:
https://economipedia.com/definiciones/estadistica-parametrica.html
Extraido de:
https://www2.ulpgc.es/hege/almacen/download/5/5509/Tema_1.pdf
34
Extraido de:
https://economipedia.com/definiciones/distribucion-binomial.html
Extraido de:
http://estatisticsdistribuciones.blogspot.com/
Extraido de:
https://fisicaymates.com/distribucion-de-poisson/
Extraido de:
https://www.medwave.cl/link.cgi/Medwave/Series/MBE04/5266
Extraido de:
https://support.minitab.com/es-mx/minitab/18/help-and-how-
to/probability-distributions-and-random-data/supporting-
topics/distributions/gamma-distribution/
Extraido de:
https://www.uv.es/ceaces/pdf/normal.pdf
Extraido de:
http://www.itchihuahua.edu.mx/academic/industrial/estadistica1/cap03.ht
ml
Extraido:
https://economipedia.com/definiciones/diferencia-entre-estadistica-
parametrica-y-no-parametrica.html

35
36

También podría gustarte