Multicolinealidad 3 PDF
Multicolinealidad 3 PDF
Multicolinealidad 3 PDF
Emanuelle Alemar
December 2, 2019
1 Introducción
Si tenemos un modelo de regresión múltiple con dos variables independientes X1 y X2 (k = 2), una
situación de multicolinealidad perfecta implicarı́a que X1 serı́a proporcional a X2 , es decir, X1 = cX2 ,
donde c es un escalar o cantidad fija. Como X1 y X2 son las unicas variables independientes, el
modelo se puede escribir como
h i
Y = Xβ + = X1 X2 β + (1)
h i
donde X1 X2 es una matriz n × 2 y β es el vector de parámetros 2 × 1. Notando que
" # " #
X1 h i X10 X1 X10 X2
X 0X = X1 X2 = (2)
X2 X20 X1 X20 X2
Tomando determinante,
" #
0 X10 X1 X10 X2
det(X X) = det = (X10 X1 )(X20 X2 ) − (X20 X1 )(X10 X2 ) (3)
X20 X1 X20 X2
1
Si hay mutlicolinealidad perfecta, X1 = cX2 y
1
(X 0 X)−1 = CX 0 X (6)
det(X 0 X)
En la mayorı́a de las aplicaciones, no obstante, son muy pocos los casos en los que ocurre colinealidad
perfecta. Son mucho más abundantes los casos de colinealidad casi perfecta. En este caso podriamos
tener dos variables independientes que estén fuertemente correlacionadas (ejemplo: empleo y PNB
real), pero no que una sea una proporción fija de la otra y viceversa. En este caso, el determinante
de X 0 X será un número muy pequeño, lo que implicará por la ecuación (6) que los elementos de
(X 0 X)−1 asumirán valores altos.
Dado que ya habı́amos discutido que la matriz de varianza-covarianza de los estimadores M.C.O
toma la forma var(β̂) = σ 2 (X 0 X)−1 , si (X 0 X)−1 asume valores altos, entonces la varianza de los
estimadores M.C.O estará inflada y los estimadores no serán eficientes. Esto implicará que no
podremos hablar de los parámetros con la mayor certeza o precisión posible, pues al aumentar
var(β̂), los intervalos de confianza del parámetro β se hacen más anchos.
Otra manera de ver este resultado es mediante el estadı́stico de docimacia para cada parámetro
(estadśitico t), el cual bajo la hipótesis nula de β = 0 se construye como
β̂ − β β̂
tc = q =q (7)
var(β̂) var(β̂)
por lo que a medida que var(β̂) aumenta, se reduce el estadı́stico t. Mientras mas ”perfecta”
sea la colinealidad, mayor será la varianza del estimador β̂, por lo que mas cerca estará el estadı́stico
2
calculado del area de no rechazo de la hipótesis nula (H0 : β = 0). Por ende, los estadı́sticos t
nos llevarán a concluir que no hay relación entre cada variable de manera individual y la variable
dependiente. A pesar de esto, se pueden observar valores altos del R2 o de los estadı́sticos F
calculados, pues las variables en conjunto tienen poder explicativo pero no se pueden separar los
efectos individuales de cada variable. Esto porque, al estar fuertemente correlacionadas, se pudiera
confundir el efecto de una variable con el de otra.
Y = β0 + β1 X1 + β2 X2 + (8)
Y − 3X2 = β0 + β1 X1 + (9)
En este caso, como la variable X2 no aparece en el lado derecho del modelo a estimarse, ya no
existe el problema de multicolinealidad. Esto implica que la varianza de los coeficientes estimados
por M.C.O, en este caso de βˆ1 , se reduce, lo que implica que los parámetros estimados son más
precisos.
References
[1] Griffiths, W. E., Hill, R. C., Judge, G. G. (1993). Learning and practicing econometrics. New
York: Wiley.