Regresion Lineal
Regresion Lineal
Regresion Lineal
1. Introducción.
2. La ecuación de la recta.
3. El criterio de mínimos cuadrados.
4. Representación gráfica.
5. Coeficientes de regresión estandarizados.
6. El coeficiente de determinación.
7. Introducción a la regresión múltiple.
Concepto
Criterio de mínimos cuadrados: Es aquel que minimiza las distancias cuadráticas de los
puntos con la línea.
Repaso de la ecuación de una recta
Y=A+BX
inteligencia
n 2
Y Y
i 1
i i
'
sea mínimo
Inteligencia (X)
Cálculo de la ecuación de regresión lineal (de Y sobre X)
11
10
5
RENDIM
3
80 90 100 110 120 130
INTELIG
Cálculo de la ecuación de regresión lineal (de Y sobre X)
n 2
i i
Y
i 1
Y '
es mínimo
Observa....
Ordenada origen
A Y BX
B
XY nXY
X nX
Pendiente 2 2
X Y XY X2
suj1 120 10 1200 14400
suj2 100 9 900 10000
suj3 90 4 360 8100
suj4 110 6 660 12100
4 SUMA SUMA
3120 44600
PROMEDIO PROMEDIO
105 7.25
N
4
b
xy IMPORTANTE: B=b
Pendiente
x 2 Es decir, la pendiente en puntuaciones
diferenciales es la MISMA que en
puntuaciones directas
Por tanto, la recta de regresión en puntuaciones diferenciales es en nuestro caso:
y’=0’15x
Cálculo de la ecuación de regresión lineal (de Y sobre X)
Sabemos que
Bb
xy
x 2
Y por el tema de
variabilidad sx2
x 2
xy
Bb
xy n sxy rxy sx s y r s y
Se deduce que
x x 2 2 xy
sx2 sx2 sx
n
Cálculo de la ecuación de regresión lineal (de Y sobre X)
En definitiva, sy
B b rxy
sx
sy 1
b rxy rxy rxy
sx 1
y
sy
A Y rxy X
sx
Puntuaciones observadas Yi
Puntuaciones predichas Yi
Error de predicción
con la recta de Yi Yi
regresión de Y sobre X
s y2
(Y Y ) 2
n
Los errores de predicción en la recta de regresión de Y sobre X
(Y Y ) 2
es mínimo
s y2
(Y Y ) 2
n
Los errores de predicción en la recta de regresión de Y sobre X
s y2. x
i i
(Y Y
) 2
n
Esta es la varianza de Y no explicada por X
s y2. x
Que despejando sale rxy2 1
s y2
¿Cuán buena es la predicción de la recta de regresión? El coeficiente de
determinación como índice de la bondad de ajuste de nuestro modelo (la
recta de regresión)
Si todos los puntos del diagrama de dispersión están sobre la recta (con pendiente
diferente de 0), s y2. xserá 0, y el coeficiente de determinación será 1
entonces
Cuanto más se alejen los puntos de la recta de regresión, mayor será el valor de
s y2. x del coeficiente de determinación será menor y menor.
el valor
El coeficiente de determinación y la proporción de varianza
asociada/explicada/común (1)
Empecemos con una tautología
Yi Yi (Yi Yi )
Esta expresión indica que la puntuación observada por el sujeto i-ésimo es igual a la
puntuación predicha para dicho sujeto más un error de predicción.
Se puede demostrar que las puntuaciones predichas y los errores de predicción son
independientes, con lo que podemos señalar
s y2 s y2 ' s y2. x
s y2 Varianza total de Y
s y2. x
Y sabíamos que rxy2 1 2
s y
s y2 s y2. x s y2´
luego rxy2 2
s y s y2
Hemos visto el caso de un predictor (X) y una variable predicha (Y), y obtenido la recta
de regresión de Y sobre X por el procedimiento de mínimos cuadrados.
Es importante que os deis cuenta que las ponderaciones B 2, B3, ..., son
análogas a las que vimos en el caso de la recta de regresión.
s1.3
X 1 ' A B2 X 2 B3 X 3 ... Bk X k Por ejemplo B2 r12.3
s2.3
X 1 ' A B2 X 2 B3 X 3 ... Bk X k
x1 ' b2 x2 b3 x3 ... bk xk
Y aplicando la misma lógica, el valor de los pesos es el mismo que el que
teníamos en puntuaciones directas
b2 B2 b3 B3 etcétera
Introducción a la regresión lineal múltiple (4)
Datos (N=5)
R1.23 0 '904
R cuadrado Error típ. de la
Modelo R R cuadrado corregida estimación
1 .904a .817 .634 1.744
a. Variables predictoras: (Constante), NEURO, ANSIE
Coeficientesa
Como en el caso de 1 predictor:
2
s
Coeficientes
Coeficientes no estandarizad
estandarizados os
2 x1'
Modelo
1 (Constante)
B
11.288
Error típ.
2.221
Beta t
5.082
Sig.
.037 R1.23 2
ANSIED
NEUROT
-1.139
.365
.510
.421
-1.293
.502
-2.233
.868
.155
.477
s x1
a. Variable dependiente: RENDIM
El modelo lineal general
Y A BX (Y Y ')
Y A BX e
en términos generales Y B0 B1 X 1 e
El modelo lineal general (3)
La expresión general es
Y B0 B1 X 1 ... Bk X k e
Y: Variable dependiente
X1, X2, ..., variables independientes (predictoras de Y)
e: error aleatorio
B1, B2, ..., son los pesos que determinan la contribución de cada
variable independiente.