MULTICOLINEALIDAD
MULTICOLINEALIDAD
MULTICOLINEALIDAD
Las variables explicativas del modelo de regresión deben ser independientes entre si, pero si se da el
caso de no ser así se tendrá un modelo que presenta el problema de la multicolinealidad.
Se satisface la condición,
- Si todas no son simultáneamente cero hay dependencia lineal entre las variables, y se tendrá
- Si todos son ceros las variables son independientes, satisfaciendo así el supuesto de no
Consecuencias
1)
En el caso de multicolinealidad perfecta los estimadores de los coeficientes de regresión se hacen
indeterminados y sus errores estándar son infinitos, tal como se demuestra en seguida para el caso
V(B2) = (infinito)
multicolinealidad los errores estándar aumenta y los valores del estadístico disminuyen lo
que implica aceptar con más facilidad la hipótesis en prueba.
7. Con base a la prueba se rechaza la hipótesis en prueba, pero se obtienen no
significativos.
8. Los estimadores de los errores estándar se vuelven muy sensibles a los pequeños cambios en los
datos.
DETECCIÓN DE LA MULTICOLINEALIDAD
Se pueden detectar que las variables independientes están altamente correlacionadas
si:
1) Se Produce un elevado con pocas razones significativas.
2) Hay altas correlaciones simples entre las variables independientes, sin embargo,
esto queda en duda pues a pesar de que las correlaciones simples son bajas, existe
la multicolinealidad.
En los modelos de regresión múltiple las correlaciones de orden cero no son una guía
simple sobre la presencia de multicolinealidad.
3) En los análisis de correlaciones parciales; el múltiple es elevado pero las
correlaciones parciales son comparativamente bajas.
4) Al regresionar cada variable con las restantes Y al hallar el Rx1.x2,x3....xk y
reemplazarlo en el estadístico.
Edad (x2). -