Temario Tema 3 23-24
Temario Tema 3 23-24
Temario Tema 3 23-24
3
1. El estimador de Mínimos Cuadrados Ordinarios
4
1. El estimador de Mínimos Cuadrados Ordinarios (MCO)
1.1 Estimación MCO en el modelo lineal simple (una constante y
una sola variable explicativa):
Sea el modelo Yi=β0+ β1X1i+εi i=1…n donde por ejemplo
Y=consumo y X=renta ¿Qué queremos calcular?
• Nuestro objetivo consiste en estimar (calcular) los parámetros
poblacionales β0 y β1 a partir de un conjunto de datos sobre Y y
sobre X1.
• Supondremos que nuestros datos son una realización de una muestra
aleatoria de tamaño n de una población. ¿Es esto realista?
– Con datos de consumo y renta de un conjunto de individuos en un
año es razonable suponer que (Y1, X1),…,(Yn , Xn) sea una muestra
aleatoria.
– Con datos de consumo y renta de un país, de un conjunto de años,
5
ya no es fácil suponer que (Y1, X1),…,(Yt, Xt) sean independientes.
1. El estimador de Mínimos Cuadrados Ordinarios (MCO)
Supongamos que tenemos datos (xi ,yi) de 4 individuos.
x
Se busca la recta que pasa lo más cerca posible de
todos los datos. La que mejor se ajusta a los datos.
6
1. El estimador de Mínimos Cuadrados Ordinarios (MCO)
y
y4 .
û4 {
yˆ = βˆ0 + βˆ1 x
y3 .} û3
y2 û2 {.
y1 .} û1
x1 x2 x3 x4 x
18
y1 .} û1
x1 x2 x3 x4 x
18
Buscamos la recta que mejor se ajusta a los datos en el sentido de minimizar la suma de
cuadrados de las distancias verticales entre los puntos y la recta. 𝑢𝑢� 𝑖𝑖 = 𝑌𝑌𝑖𝑖 − 𝛽𝛽̂0 + 𝛽𝛽̂1 𝑋𝑋𝑖𝑖 9
1. El estimador de Mínimos Cuadrados Ordinarios (MCO)
Para obtener los estimadores MCO de 𝛽𝛽̂0 𝑦𝑦𝛽𝛽̂1 tenemos que:
𝑛𝑛 2
Nótese que:
1. La recta de regresión pasa por el centro de los datos: 𝑋𝑋,̄ 𝑌𝑌̄
𝛽𝛽̂0 + 𝛽𝛽̂1 𝑋𝑋̄ = 𝑌𝑌̄
2. La pendiente de la recta tiene el mismo signo y es
proporcional a la covarianza entre las variables: 𝑆𝑆𝑌𝑌𝑌𝑌
� 𝑋𝑋 2 𝑖𝑖 = 93698 � 𝑌𝑌 2 𝑖𝑖 = 57166,245
𝑖𝑖=1 𝑖𝑖=1
12
Estimar los coeficientes del modelo por MCO.
1. El estimador de Mínimos Cuadrados Ordinarios (MCO)
𝑛𝑛 𝑛𝑛 𝑛𝑛 𝑛𝑛
� 𝑌𝑌 2 𝑖𝑖 = 57166,245
𝑖𝑖=1
13
1. El estimador de Mínimos Cuadrados Ordinarios (MCO)
1.2. Estimación MCO en el modelo lineal general:
Yi=β0+ β1X1i+… + βkXki+εi i=1…n
¿Cómo podemos estimar los parámetros β0, β1 , …, βk y σ2 ?
Análogamente a lo que vimos en el modelo de regresión simple, se busca:
𝑀𝑀𝑀𝑀𝑀𝑀 � 𝜀𝜀𝑖𝑖̂ 2
𝑖𝑖=1
Siendo 𝜀𝜀𝑖𝑖̂ = e𝑖𝑖 = 𝑌𝑌𝑖𝑖 − 𝑌𝑌�𝑖𝑖 = 𝑌𝑌𝑖𝑖 − 𝛽𝛽̂0 + 𝛽𝛽̂1 𝑋𝑋1𝑖𝑖 +. . . +𝛽𝛽̂𝑘𝑘 𝑋𝑋𝑘𝑘𝑘𝑘 = residuo
14
1. El estimador de Mínimos Cuadrados Ordinarios (MCO)
� 𝜀𝜀𝑖𝑖̂ = 0
𝑖𝑖=1
𝑛𝑛
� 𝑋𝑋1𝑖𝑖 𝜀𝜀𝑖𝑖̂ = 0
𝑖𝑖=1
⋮
𝑛𝑛
� 𝑋𝑋𝑘𝑘𝑘𝑘 𝜀𝜀𝑖𝑖̂ = 0
𝑖𝑖=1
16
1. El estimador de Mínimos Cuadrados Ordinarios (MCO)
• Tenemos un sistema con k+1 ecuaciones lineales donde las
k+1 incógnitas son los coeficientes de la regresión.
• El sistema tendrá solución única bajo los supuestos del modelo
vistos en el tema 2 (que no exista multicolinealidad exacta).
• Si existiera multicolinealidad exacta el sistema tendría infinitas
soluciones.
• Veamos un ejemplo sencillo:
17
1. El estimador de Mínimos Cuadrados Ordinarios (MCO)
Ejemplo: Y=β0+ β1X1i+ β2X2i+εi
siendo: X1i =λX2i
Sustituimos esta igualdad en las condiciones de primer orden:
𝑛𝑛 𝑛𝑛 𝑛𝑛 𝑛𝑛
20
2. Propiedades de los estimadores de MCO
Por simplificar el análisis vamos a ver el caso del modelo lineal
simple: Yi=β0+ β1X1i+εi i=1…n, aunque los resultados son
extrapolables al modelo lineal general.
2.1 Propiedades del estimador de la pendiente
1. Linealidad en Y
Podemos demostrar que el estimador MCO de la pendiente
puede escribirse como:
𝑛𝑛
∑𝑛𝑛𝑖𝑖=1 𝑋𝑋𝑖𝑖 − 𝑋𝑋̄ 𝑌𝑌𝑖𝑖 − 𝑌𝑌̄ 𝑋𝑋𝑖𝑖 − 𝑋𝑋̄
𝛽𝛽̂1 = = � 𝑤𝑤𝑖𝑖 𝑌𝑌𝑖𝑖 Donde 𝑤𝑤𝑖𝑖 = 𝑛𝑛
𝑛𝑛 ̄
∑𝑖𝑖=1 𝑋𝑋𝑖𝑖 − 𝑋𝑋 2 ∑𝑖𝑖=1 𝑋𝑋𝑖𝑖 − 𝑋𝑋̄ 2
𝑖𝑖=1
2. Normalidad:
Como 𝛽𝛽̂0 es combinación lineal de variables normales
tendrá una distribución condicionada normal.
25
2. Propiedades de los estimadores de MCO
3 Esperanza del estimador:
Utilizando el supuesto visto en el tema 2 de que E(εi/Xi)=0 que implica
que E(Yi/Xi) =β0+β1Xi podemos demostrar que la esperanza del
estimador del término constante es: 𝐸𝐸 𝛽𝛽̂0 /𝑋𝑋𝑖𝑖 = 𝛽𝛽0
Por tanto 𝜷𝜷� 𝟎𝟎 es un estimador insesgado de β0
26
2. Propiedades de los estimadores de MCO
4 Varianza del estimador: Utilizando el supuesto de que V(εi/Xi)=σ2
(homocedasticidad) 2
𝜎𝜎
Podemos demostrar que: 𝑉𝑉 𝛽𝛽̂0 /𝑋𝑋𝑖𝑖 = + 𝑉𝑉 𝛽𝛽̂1 /𝑋𝑋𝑖𝑖 𝑋𝑋̄ 2
𝑛𝑛
La precisión en la estimación de β0 (menor varianza) aumentará:
1. Cuando aumente la precisión en la estimación de la media de Y,
𝜎𝜎 2
̄ 𝑖𝑖 ) =
ya que V(Y/𝑋𝑋
𝑛𝑛
2. Cuando aumente la precisión en la estimación de β1, 𝑉𝑉 𝛽𝛽̂1 /𝑋𝑋𝑖𝑖
27
2. Propiedades de los estimadores de MCO
2.3 Eficiencia de los estimadores de MCO
Teorema de Gauss-Markov:
En el contexto del modelo de regresión lineal simple o múltiple
(bajo los supuestos realizados en el tema 2) los estimadores
MCO de β0 y β1 son los de menor varianza entre los estimadores
lineales e insesgados.
28
2. Propiedades de los estimadores de MCO
2.4. Consistencia y normalidad en muestras grandes
Vamos a estudiar las propiedades de los estimadores cuando el tamaño
muestral es cada vez mayor (n→∞ ).
1. Estimador consistente:
Una secuencia de estimadores de un parámetro θ obtenidos con
muestras cada vez más grandes es consistente si esta secuencia
converge en probabilidad a θ.
Esto significa que las distribuciones de los estimadores que obtenemos
con muestras cada vez más grandes se concentran cada vez más cerca
del verdadero valor del parámetro, de tal forma que la probabilidad de
que el estimador sea arbitrariamente diferente de θ converge a cero.
𝜃𝜃̂ es un estimador consistente de 𝜃𝜃, si para todo 𝜀𝜀 > 0,
limn→∞ Pr � 𝜃𝜃̂ − 𝜃𝜃 >𝜀𝜀 } = 0 ̂ = 𝜃𝜃
𝑃𝑃 lim( 𝜃𝜃)
29
2. Propiedades de los estimadores de MCO
2. Ley de los Grandes Números:
Sean Y1,…,Yn variables aleatorias idéntica e independientemente
distribuidas con media μ y varianza σ2.
̄ = 𝜇𝜇
Entonces, se cumple que: 𝑃𝑃 lim( 𝑌𝑌)
¿Qué significa esto?
La media muestral es un estimador consistente de la media
poblacional.
∑ 𝑛𝑛
𝑖𝑖=1 𝑌𝑌
𝑖𝑖 − ̄ 2
𝑌𝑌
Así mismo, se cumple para S2 que: 𝑃𝑃 lim( 𝑆𝑆 2 ) = 𝜎𝜎 2 𝑆𝑆 2 =
𝑛𝑛
¿Qué significa esto?
La varianza muestral es un estimador consistente de la varinza
poblacional. S2 es un estimador consistente de σ2
Los momentos muestrales son estimadores consistentes de sus
análogos poblacionales. 30
2. Propiedades de los estimadores de MCO
3. Normalidad asintótica:
Sea G1…, Gn una sucesión de estadísticos (nuestros
estimadores MCO son estadísticos), cada uno de ellos
dependientes de su correspondiente muestra y1, …, yn (nuestros
estimadores MCO dependen de una muestra).
Gn es asintóticamente normal cuando, para n grande, su
función de distribución es una N(0,1).
Habitualmente se expresa este hecho como:
𝑑𝑑
𝐺𝐺n → 𝑁𝑁(0,1) 𝑜𝑜 𝐺𝐺n ~𝑁𝑁(0,1)
𝑎𝑎
plim(𝛽𝛽̂i ) = 𝛽𝛽i
34
2. Propiedades de los estimadores de MCO
6. Distribución asintótica de los estimadores MCO:
En el contexto del modelo de regresión lineal simple,
Donde 𝛽𝛽̂i es un estimador de 𝛽𝛽i con E 𝛽𝛽̂i /𝑋𝑋𝑖𝑖 = 𝛽𝛽i y V 𝛽𝛽̂i /𝑋𝑋𝑖𝑖 = 𝑠𝑠 𝛽𝛽̂i
36
3. Ajuste
3.1. Coeficiente de determinación R2:
- Queremos medir de alguna forma la capacidad que tienen las
variables independientes de explicar la variable dependiente.
- Buscamos un número que resuma hasta qué punto el modelo es
capaz de explicar las variaciones de la variable dependiente.
- En el Modelo Lineal Simple esa medida resume hasta qué punto
la recta de regresión MCO se ajusta a los datos.
- Queremos explicar la variabilidad de “y” (Variabilidad Total, VT)
explicada por la recta de regresión lineal (Variabilidad explicada,
VE) . Donde: VT=∑𝑖𝑖 𝑌𝑌𝑖𝑖 − 𝑌𝑌̄ 2 VE=∑𝑖𝑖 𝑌𝑌�𝑖𝑖 − 𝑌𝑌̄ 2
38
3. Ajuste
- El R2 toma valores entre 0 (ninguna explicación lineal de las
variaciones de Y) y 1 (total explicación de las variaciones de Y)
ya que:
𝑉𝑉𝑉𝑉
𝑅𝑅2 = y dado que VT=VNE+VE donde VNE es la variabilidad
𝑉𝑉𝑉𝑉
no explicada
2
𝑉𝑉𝑉𝑉 𝑉𝑉𝑉𝑉 − 𝑉𝑉𝑉𝑉𝑉𝑉 𝑉𝑉𝑉𝑉𝑉𝑉 ∑𝑖𝑖 𝜀𝜀𝑖𝑖̂ 2
Aplicando esto: 𝑅𝑅 = = =1− =1−
𝑉𝑉𝑉𝑉 𝑉𝑉𝑉𝑉 𝑉𝑉𝑉𝑉 𝑛𝑛𝑆𝑆𝑦𝑦2
2
𝑆𝑆𝑋𝑋𝑋𝑋 𝑆𝑆𝑋𝑋𝑋𝑋
= 2 2 = 𝑟𝑟 2 𝛽𝛽̂1 =
𝑆𝑆𝑋𝑋 𝑆𝑆𝑌𝑌 𝑆𝑆𝑋𝑋2
40
3. Ajuste
• El R2 o coeficiente de determinación es una medida descriptiva
del ajuste global del modelo.
• El R2 mide el porcentaje de variación de Y que se explica
linealmente con las variaciones de todas las X.
• El R2 aumenta de valor al aumentar de número de
regresores sean estos relevantes o no.
• Para eliminar éste fenómeno se define el R2 “ajustado o corregido
de grados de libertad”:
41
3. Ajuste
3.2. El R2 “ajustado o corregido de grados de libertad”:
2
𝑛𝑛 − 1 ∑ 𝜀𝜀
𝑖𝑖 𝑖𝑖̂ 𝑛𝑛 − 1
𝑅𝑅̄ 2 = 1 − =1− (1 − 𝑅𝑅 2 )
𝑛𝑛 − 𝑘𝑘 − 1 ∑𝑖𝑖 𝑌𝑌𝑖𝑖 − 𝑌𝑌̄𝑖𝑖 2 𝑛𝑛 − 𝑘𝑘 − 1
∑𝑖𝑖 𝜀𝜀𝑖𝑖̂ 2
= 1 − 𝑅𝑅 2
∑𝑖𝑖 𝑌𝑌𝑖𝑖 − 𝑌𝑌̄𝑖𝑖 2
42
3. Ajuste
3.3. Error estándar de la regresión
• El S.E (Standart Error en Eviews o Gretel) de la regresión es una
medida de la bondad del ajuste de la estimación.
• Se define como:
∑𝑖𝑖 𝜀𝜀𝑖𝑖̂ 2
𝜎𝜎� =
𝑛𝑛 − 𝑘𝑘 − 1
43
1. El estimador de Mínimos Cuadrados Ordinarios (MCO)
3.4. Ejemplo de cálculo de R2 en un modelo lineal simple:
Se desea estudiar la relación entre el salario-hora de los individuos y
sus años de estudio. Para ello se plantea el siguiente modelo:
Yi =β0+ β1 Xi +εi
donde Yi es el salario-hora en decenas de euros del individuo i y Xi
son los años de estudio del individuo i. Empleando una muestra de
528 asalariados se han realizado los siguientes cálculos:
𝑛𝑛 𝑛𝑛 𝑛𝑛
� 𝑋𝑋 2 𝑖𝑖 = 93698 � 𝑌𝑌 2 𝑖𝑖 = 57166,245
𝑖𝑖=1 𝑖𝑖=1
̂12 𝑆𝑆𝑋𝑋2
𝛽𝛽 ̂12 ∑𝑛𝑛𝑖𝑖=1 𝑋𝑋𝑖𝑖 − 𝑋𝑋̄
𝛽𝛽 2
𝛽𝛽̂12 ∑𝑛𝑛𝑖𝑖=1 𝑋𝑋𝑖𝑖 2 − 𝑛𝑛 𝑋𝑋̄ 2
𝑅𝑅 2 = 2 = =
𝑆𝑆𝑌𝑌 ∑𝑛𝑛𝑖𝑖=1 𝑌𝑌𝑖𝑖 − 𝑌𝑌̄ 2 ∑𝑛𝑛𝑖𝑖=1 𝑌𝑌𝑖𝑖 2 − 𝑛𝑛 𝑌𝑌̄ 2
2
6910
0,81392 93698 − 528
528
𝑅𝑅 2 = 2 = 0,1551
4777,1
57166,245 − 528
528 45
3. Ajuste
46