MULTICOLINEALIDAD

Descargar como doc, pdf o txt
Descargar como doc, pdf o txt
Está en la página 1de 7

MULTICOLINEALIDAD

Las variables explicativas del modelo de regresión deben ser independientes entre si, pero si se da el
caso de no ser así se tendrá un modelo que presenta el problema de la multicolinealidad.

Supuesto: independencia entre las variables explicativas o independientes


1. El término de la multicolinealidad es usado para expresar la existencia de una relación lineal
entre las variables independientes de un modelo de regresión múltiple (dos o más variables).
2. La multicolinealidad puede ser perfecta o casi perfecta.
a) si es perfecta, existe una relación lineal exacta entre las variables con una correlación entre
las variables igual a uno.
En el modelo de regresión múltiple.

Se satisface la condición,

con donde son constantes y

- Si todas no son simultáneamente cero hay dependencia lineal entre las variables, y se tendrá

muchas soluciones para los coeficientes de regresión

- Si todos son ceros las variables son independientes, satisfaciendo así el supuesto de no

multicolinealida entre las variables.

b) cuando la multicolinealidad entre las variables no es perfecta, se satisface la expresión

donde el termino es estocástico y resulta adicionado a la relación entre las variables

independientes, la cual se toma inexacta.

Consecuencias

1)
En el caso de multicolinealidad perfecta los estimadores de los coeficientes de regresión se hacen

indeterminados y sus errores estándar son infinitos, tal como se demuestra en seguida para el caso

de un modelo de regresión de tres variables expresada en forma de desviaciones


(indeterminado)

V(B2) = (infinito)

1. En el caso de multicolinealidad no perfecta los coeficientes de regresión si pueden ser estimados


la condición para este caso es

2. En presencia de multicolinealidad los estimadores de MCO continúan siendo insesgado.


3. La multicolinealidad no destruye la propiedad de varianza mínima.
4. La multicolinealidad sucede en una muestra más no en la población, por eso se dice que es un
fenómeno muestral.
5. Como los errores estándar de los estimadores son grandes los intervalos de confianza para los
coeficientes de regresión poblacionales serán más amplios.
6. Las razones para la prueba de los coeficientes son no significativas. Esto es cuando existe

multicolinealidad los errores estándar aumenta y los valores del estadístico disminuyen lo
que implica aceptar con más facilidad la hipótesis en prueba.
7. Con base a la prueba se rechaza la hipótesis en prueba, pero se obtienen no
significativos.
8. Los estimadores de los errores estándar se vuelven muy sensibles a los pequeños cambios en los
datos.

DETECCIÓN DE LA MULTICOLINEALIDAD
Se pueden detectar que las variables independientes están altamente correlacionadas
si:
1) Se Produce un elevado con pocas razones significativas.
2) Hay altas correlaciones simples entre las variables independientes, sin embargo,
esto queda en duda pues a pesar de que las correlaciones simples son bajas, existe
la multicolinealidad.
En los modelos de regresión múltiple las correlaciones de orden cero no son una guía
simple sobre la presencia de multicolinealidad.
3) En los análisis de correlaciones parciales; el múltiple es elevado pero las
correlaciones parciales son comparativamente bajas.
4) Al regresionar cada variable con las restantes Y al hallar el Rx1.x2,x3....xk y
reemplazarlo en el estadístico.

el entonces se dice que Xi es


colineal con las restantes variables, en caso contrario, decimos que la variable
considerada no es colineal con las restantes y se retiene la variable bajo prueba en el
modelo.
MEDIDAS REMEDIALES DE LA MULTICOLINEALIDAD
Las medidas remédiales de la multicolinealidad es:

1.- Utilizar información obtenida en forma previa o externa al modelo.


2.- Combinando información de series de tiempo y de corte transversal
3.- Omitiendo uno o más variables altamente Colineales.
4.- Transformando la información
5.- Obteniendo información nueva adicional
LAS DATOS PARA EL PRESENTE TRABAJO SON DE ESTADO NUTRICIONAL DE
LOS NIÑOS, DONDE LAS VARIABLES SON ESTATURA o TALLA, PESO y EDAD.
Observación TALLA (cm.) PESO (Kg.) EDAD (meses)
1 61.0 6.00 4
2 63.0 6.50 5
3 66.0 7.00 7
4 70.0 8.00 11
5 76.0 10.00 16
6 78.0 10.80 22
7 80.0 11.00 24
8 81.0 11.90 26
9 83.0 12.00 27
10 84.0 12.60 30
11 86.0 13.00 34
12 88.0 13.10 36
13 89.0 13.20 40
14 91.0 13.40 42
15 92.0 13.80 44
16 93.0 14.60 45
17 94.0 15.00 46
18 96.0 15.50 47
19 97.0 15.70 48
20 98.0 16.00 49
21 100.0 16.20 51
22 101.0 16.30 53
23 102.0 17.00 54
24 103.0 17.50 57
25 105.0 18.00 60
26 107.0 19.00 66
27 110.0 20.00 69
28 112.0 21.00 70
29 114.0 21.00 71
30 121.0 21.90 72

Variable dependiente (Y)


Talla o estatura. -
En el niño se mide la longitud corporal como índice del desarrollo del organismo, el ritmo del
crecimiento no es uniforme y presenta variaciones de unos niños a otros. Pues en el mismo
niño un crecimiento lento en los primeros años de vida puede acelerarse mas tarde y
viceversa.
El indicador de esta variable endógena será de 40 a 121 centímetros
Variables independientes (x)
Peso(x1). -
El peso es un dato de principal importancia para el niño.
El indicador de esta variable será de 3 a 22 kilogramos.

Edad (x2). -

Tiempo transcurrido desde el nacimiento, medidos por años y meses.


El indicador será de 0 a 72 meses.

En la multicolinealidad las variables explicativas del modelo de regresión deben ser


independientes entre si, pero si se da el caso de no ser así se tendrá un modelo que presenta
el problema de la multicolinealidad.
Primero tendremos que conocer si los datos presentan multicolinealidad o no, para conocer
esto debemos tener en cuenta lo siguientes pasos.
a) Se sospechará que la multicolinealidad esta presente en situaciones en que los
coeficientes de correlación simple entre las variables independientes esto es
donde i, es diferente de j, lo cual estará dada en una matriz de correlaciones, sean
altas y a la vez ninguno o poco de los coeficientes de regresión parciales son
independientemente significativos con base a la prueba t convencional.
b) Calcular los coeficientes de correlación simples; los cuales deberán presentarse fuera
del intervalo de <0.75,0.99> para no presentar multicolinealidad, si es que alguno de
los coeficientes de correlación cae dentro del intervalo entonces podemos decir que
existe multicolinealidad.
Aquí puede presentarse dos casos.
Cuando se presenta la multicolinealidad
Al presentar la multicolinealidad esta debe ser corregida. Una forma de corregir este
supuesto es incrementar el número de observaciones, siendo esta forma la más
recomendable para atenuar la multicolinealidad y así poder ayudarnos el tamaño de
muestra buscado.
La situación de perfecta multicolinealidad es bastante extrema, generalmente no existe
relaciones lineales exactas entre las variables independientes, en especial para cifras de
series de tiempo. Pero si la multicolinealidad se presenta severa los coeficientes de
correlaciones será cada ves más altos, debiendo entonces excluir la variable que la está
produciendo con el riesgo de cometer error de especificación.
Cuando no se presenta la multicolinealidad
Si los coeficientes de correlaciones menores del intervalo < 0.75, 0.99 > entonces
debemos emplear el proceso de simulación para determinar el tamaño de muestra.
COEFICIENTE DE DETERMINACIÓN
Parámetro estadístico que permite medir la proporción de relación y la bondad de ajuste
de la línea de regresión ajustada al conjunto de datos.
Es decir, trata de demostrar en que medida ajusta la línea de regresión a los datos, el
mide proporción o porcentaje de variación total en Y explicada por el modelo de
regresión.
COEFICIENTE DE CORRELACION PARCIAL
El coeficiente de correlación parcial, mide el grado de asociación entre dos o más
variables una vez eliminada la influencia lineal de otro conjunto de variable.
La multicolinealidad permite detectar si existe una relación lineal entre las variables
explicativas Xi en estudio.

El modelo es de la siguiente forma:

Regression Summary for Dependent Variable: TALLA


R= .99645878 R²= .99293011 Adjusted R²= .99240641
F(2,27)=1896.0 p<.00000 Std.Error of estimate: 1.3309
St. Err.   St. Err.    
BETA of BETA B of B t(27) p-level
Intercpt     47.2720273 2.55212306 18.5226285 7.0601E-17
PESO 0.67041583 0.12299112 2.38904125 0.43828151 5.45092864 9.0909E-06
EDAD 0.3279592 0.12299112 0.24672077 0.09252512 2.66652743 0.0127885

como el coeficiente de determinación es R² = .99293011 es un valor alto, entonces


podemos decir buen ajuste o tienen buena relación entre la variable dependiente y las
variables independientes.
1° elegimos la variable predeterminada más significativa valiendo el criterio de los
coeficientes de correlación parciales simples mas altos.

R= .99552412 R²= .99106828 Adjusted R²= .99074929

F(1,28)=3106.9 p<.00000 Std.Error of estimate: 1.4690

  St. Err.   St. Err.    

BETA of BETA B of B t(28) p-level

Intercpt     40.8610715 0.94496028 43.2410466 3.4853E-27

PESO 0.99552412 0.0178603 3.54757166 0.06364555 55.7395107 3.086E-30

Coeficiente de Determinación es alto R²= .99106828 y consiguientemente el Coeficiente de


correlación parcial también es alto r = 0.99552411, entonces nos demuestran que los datos se
ajustan en la recta de regresión.

También podría gustarte