Power de Correlación y Regresión
Power de Correlación y Regresión
Power de Correlación y Regresión
COEFICIENTES: r de Pearson,
Spearman y Q de Kendall
REGRESIÓN LINEAL
RECTAS DE REGRESIÓN
CORRELACIÓN LINEAL PARA
VARIABLES CUANTITATIVAS
Se considera que dos variables cuantitativas están relacionadas
entre sí cuando los valores de una de ellas varían de forma
sistemática con respecto a los valores de la otra. Dicho de otro
modo, si tenemos dos variables, X e Y, existe relación entre ellas si al
aumentar o disminuir los valores de X también lo hacen los de Y, o
por el contrario si al aumentar los valores de X disminuyen los de Y.
Definición de Correlación
La correlación es una medida descriptiva mide la co-variación de dos
variables.
• La correlación es la medición del grado y el sentido en el que pares
de valores relacionados en dos variables tienden a cambiar juntos.
También proporciona una medición del grado en que pueden
predecirse los valores en una variable, a partir de los valores de la
otra variable.
Recuerde: no significa que entre las dos variables
exista una relación de causa – efecto.
¿Cómo comprobar si hay relación entre las variables?
• El Sentido
• La Forma
El coeficiente de Correlación de Pearson se utiliza en el nivel intervalar
y racional.
CORRELACIÓN ENTRE VARIABLES CUANTITATIVAS
• La fuerza mide el grado en que los pares de observaciones quedan representados en una
línea. Si la nube de observaciones es estrecha y alargada, una línea recta representará
adecuadamente a la nube de puntos y a la relación y por tanto ésta será fuerte.
• La forma establece el tipo de línea a emplear para definir el mejor ajuste. Se pueden
emplear tres tipos de líneas: una línea recta, una curva monotónica o una curva no
monotónica.
CONDICIONES PARA LA APLICACIÓN DEL
COEFICIENTE r de PEARSON
r=+1
CORRELACIÓN LINEAL NEGATIVA
CORRELACIÓN PERFECTA NEGATIVA
CORRELACIÓN NULA
EJEMPLO DE CORRELACIÓN POSITIVA
r =+0,94
EL COEFICIENTE DE CORRELACIÓN LINEAL
r de PEARSON
Fórmula:
Ʃ(x-Mx)(y-My)
r= --------------------
N. Sx. Sy
EL COEFICIENTE DE CORRELACIÓN LINEAL
DE PEARSON
• Se simboliza: r
• El signo indica la dirección de la correlación (positiva o negativa) y el valor numérico, la
magnitud o grado de la correlación. Ejemplo:
-0, 90 = Correlación negativa muy fuerte
Cuando se trabaja con programas de análisis estadístico en PC, reportan si el coeficiente de
correlación es significativo o no, de la siguiente manera:
s = 0,001 (significancia)
r = 0,7831 ( valor del coeficiente de correlación)
Si “s” es menor del valor 0,05, se dice que el coeficiente es significativo al nivel de 0,05 (
95% de confianza de que la correlación sea verdadera y 5% de probabilidad de error). Si “s”
es menor a 0,01, el coeficiente es significativo al nivel de 0,01 (99% de confianza de que la
correlación sea verdadera y 1% de probabilidad de error).
INTERPRETACIÓN DE R DE PEARSON
r CORRELACIÓN RELACIÓN
• 0.00 - 0.20 pequeña muy poco intensa
• 0.20 - 0.40 baja pequeña pero apreciable
• 0.40 - 0.60 mediana considerable
• 0.60 - 0.80 alta intensa
• 0.80 – 0.99 muy alta muy intensa
• +/– 1 perfecta perfecta
Q de Kendall
• Se utiliza para saber si dos variables dicotómicas (tienen dos
categorías mutuamente excluyentes), medidas en el nivel nominal
está relacionadas.
Fórmula: A.D-B.C
Q=-------------
A.D+B.C
EJEMPLO
FUMA
SEXO SI NO
VARÓN 10 A 40 B
MUJER 30 C 25 D
TOTAL 40 65
Coeficiente de Spearman
CORRELACIÓN POR RANGO DE SPEARMAN (estadística no
paramétrica)
A 1 3
La siguiente tabla muestra el rango u orden obtenido en el primer
B 2 4 examen de Estadística (X) y el rango u orden obtenido en el segundo
C 3 1 examen de Estadística (Y) de 8 estudiantes universitarios.
D 4 5
E 5 6
F 6 2
G 7 8
H 8 7
EJEMPLO
X Y d=X_Y d2 (X-Y)2
1 3 -2 4
2 4 -2 4
3 1 2 4
4 5 -1 1
5 6 -1 1
6 2 4 16
7 8 -1 1
8 7 1 1
∑=32
REGRESIÓN
• La regresión es su forma más sencilla se llama regresión lineal
simple. Se trata de una técnica estadística que analiza la relación
entre dos variables cuantitativas, tratando de verificar si dicha
relación es lineal.
• Si tenemos dos variables hablamos de regresión simple, si hay más
de dos variables regresión múltiple.
• Su objetivo es explicar el comportamiento de una variable Y, que
denominaremos variable explicada (o dependiente), a partir de otra
variable X, que llamaremos variable explicativa (o independiente).
REGRESIÓN LINEAL
• Definición: Es un modelo matemático para estimar el efecto de una variable sobre otra. Esta asociado con el
coeficiente r de Pearson.
• Es la estimación de una recta que mejor se ajusta a las observaciones. Esta recta se obtiene aplicando el criterio
de los cuadrados mínimos, lo que significa que la suma de las distancias de cada punto a la recta teórica,
elevados al cuadrado, será un valor mínimo.
• Variables: Dos. Una se considera como independiente y otra como dependiente. La regresión supone que hay una
variable fija, controlada por el investigador (es la variable independiente o predictora), y otra que no está
controlada (variable respuesta o dependiente). La correlación supone que ninguna es fija: las dos variables están
fuera del control de investigador.
• Nivel de Medición: Intervalar y Racional.
• Ecuación de la recta: Y = a + b.x, donde Y es un valor de la variable dependiente que se desea predecir, “a” es la
ordenada en el origen (distancia donde la recta corta el eje Y desde el origen). “b” la pendiente y “x” la valor de la
variable independiente.
Criterio de los mínimos cuadrados
DIAGRAMA DE DISPERSIÓN
12
y = 1.1771x - 1.7604
10
R 2 = 0.8867
Notas del parcial de Psicología II
0
0 2 4 6 8 10 12
Notas del parcial de Estadística
PREDECIR EL VALOR DE Y CUANDO X VALE 5
R² = 0,8867
ERROR ESTÁNDAR DE ESTIMACIÓN
PREDICTIVA
Mide la dispersión alrededor de la recta de regresión
s(est y) = sy √1 – r2
INDICES PARA INTERPRETAR EL COEFICIENTE DE
CORRELACIÓN
Coeficiente de alienación:
K=√1-r2 % de azar o incertidumbre en el pronóstico