Cap 10 y 13 Gujarati Final

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 66

++

UNIVERSIDAD DE CUENCA
FACULTAD DE CIENCIAS ECONÓMICAS Y ADMINISTRATIVAS

CAPÍTULOS 10 Y 13
(DAMODAR GUJARATI)

INTEGRANTES:
Adriana Bermeo
Jessica Carrión
Suley Naranjo
Marcela Palacios

CURSO: EC 05-01
MULTICOLINEALIDAD

El problema de la multicolinealidad hace referencia a la existencia de relaciones lineales entre


las variables explicativas del modelo de regresión.

En los datos de series de tiempo, puede ser que las regresoras del modelo compartan una
tendencia común; es decir, que todas aumenten o disminuyan a lo largo del tiempo. Por ejemplo,
en la regresión del total del consumo sobre el ingreso, la riqueza y la población, las regresoras
ingreso, riqueza y población tal vez todas crezcan con el tiempo a una tasa aproximadamente
igual, con lo cual se presentaría la colinealidad entre dichas variables.

Existen diversas fuentes de multicolinealidad y puede deberse a los siguientes factores:

1. El método de recolección de información.


2. Restricciones en el modelo o en la población objeto de muestreo.

3. Especificación del modelo.

4. Un modelo sobre determinado. (el modelo tiene más variables explicativas que el número de
observaciones).

Dado el modelo de regresión lineal general

𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1𝑖 + 𝛽2 𝑋2𝑖 + ⋯ + 𝛽𝑘 𝑋𝑘𝑖 + 𝑢𝑖

∀𝑖 = 1,2,3 … , 𝑛

Se dice que existe una relación lineal exacta entre las variables explicativas del mismo siempre
que

𝜆1 𝑋1𝑖 + 𝜆2 𝑋2𝑖 + ⋯ + 𝜆𝑖 𝑋𝑘𝑖 = 0

∃𝜆𝑖 ≠ 0 ∀𝑖 = 1,2,3 … , 𝑛

El término mencionado se utiliza con objeto de incluir tanto la problemática de la


multicolinealidad perfecta como imperfecta ósea cuando la correlación entre las variables
explicativas sea de la forma, esta vez agregando una variable aleatoria.

𝜆1 𝑋1𝑖 + 𝜆2 𝑋2𝑖 + ⋯ + 𝜆𝑖 𝑋𝑘𝑖 + 𝑣𝑖 = 0

Cuando es un problema de multicolinealidad perfecta y 𝜆2 ≠ 0, se puede expresar a 𝑋2 como una


combinación lineal exacta entre el resto de las variables explicativas.

𝜆1 𝜆𝑘
𝑋2𝑖 = 𝑋 − ⋯ − 𝑋𝑘𝑖
𝜆2 1𝑖 𝜆2

Cuando es un problema de multicolinealidad imperfecta y 𝜆2 ≠ 0, se puede expresar a 𝑋2 como


una combinación lineal de las variables explicativas y de la variable aleatoria 𝑣𝑖 .

𝜆1 𝜆𝑘 1
𝑋2𝑖 = − 𝑋1𝑖 − ⋯ − 𝑋𝑘𝑖 − 𝑣𝑖
𝜆2 𝜆2 𝜆2

En el caso de multicolinealidad perfecta, los coeficientes de regresión permanecen


indeterminados y sus errores estándar son infinitos, en este caso no puede obtenerse una
solución única para los coeficientes de regresión individual. Pero se puede obtener una solución
única para combinaciones lineales de estos coeficientes.

En términos matriciales el problema de multicolinealidad se aborda a partir del comportamiento


de la matriz de regresores. La condición de que el rango de la matriz 𝑋 , 𝑋 coincida con el número
de variables explicativas del modelo permite la obtención de estimaciones más o menos precisas
de sus parámetros. Sin embargo cuando el rango de dicha matriz sea menor que el número de
regresores no se podrán estimar los parámetros porque la matriz no será invertible.

CONSECUENCIAS DE LA MULTICOLINEALIDAD
El único efecto de la multicolinealidad tiene que ver con la dificultad de obtener los coeficientes
estimados con errores estándar pequeños.

En los casos de casi o alta multicolinealidad es probable que se presenten las siguientes
consecuencias:

1. Los estimadores presentan varianzas y covarianzas grandes que dificultan la estimación


precisa.

2. Los intervalos de confianza tienden a ser mucho más amplios, lo cual propicia una aceptación
más fácil de la “hipótesis nula cero”.

3. La razón t de uno o más coeficientes tiende a ser estadísticamente no significativa.

4. La medida global de bondad de ajuste, puede ser muy alta.

5. Los estimadores de MCO y sus errores estándar son sensibles a pequeños cambios en los
datos.

Las consecuencias anteriores se demuestran de la siguiente manera

Distintos supuestos acerca de la relación existente entre dos regresores se representan de la


siguiente manera, dado un modelo con dos variables explicativas expresado en desviaciones con
respecto a la media

𝑦𝑖 = 𝛽1 𝑋1𝑖 + 𝛽2 𝑋2𝑖 + 𝑢𝑖 ∀𝑖 = 1,2,3 … , 𝑛

el vector de estimadores mínimos cuadráticos de los parámetros 𝛽1 𝑦 𝛽2

𝑛 𝑛 𝑛
2
∑ 𝑥2𝑖 − ∑ 𝑥1𝑖 𝑥2𝑖 ∑ 𝑦𝑖 𝑥1𝑖
𝛽̂ 1
( 1) = 𝑖=1
𝑛
𝑖=1
𝑛
𝑖=1
𝑛
𝛽̂2 ∑𝑛𝑖 𝑥1𝑖
2 ∑𝑛 2 𝑛 2
𝑖 𝑥2𝑖 − (∑𝑖=1 𝑥1𝑖 𝑥2𝑖 ) 2
− ∑ 𝑥1𝑖 𝑥2𝑖 ∑ 𝑥1𝑖 ∑ 𝑦𝑖 𝑥2𝑖
[ 𝑖=1 𝑖=1 ] [ 𝑖=1 ]

y la estimación de la matriz estimada de varianzas-covarianzas del vector 𝛽̂ , 𝑉𝑎𝑟 − 𝑐𝑜𝑣


̂ (𝛽̂ )
𝑛 𝑛
2
∑ 𝑥2𝑖 − ∑ 𝑥1𝑖 𝑥2𝑖
̂ 𝜎̂𝑢2 𝑖=1 𝑖=1
𝑉𝑎𝑟 − ̂ (𝛽̂ ) =
𝑐𝑜𝑣 2 𝑛 𝑛
∑𝑛𝑖 𝑥1𝑖
2 ∑𝑛𝑖 𝑥2𝑖
2
− (∑𝑛𝑖=1 𝑥1𝑖 𝑥2𝑖 ) 2
− ∑ 𝑥1𝑖 𝑥2𝑖 ∑ 𝑥1𝑖
[ 𝑖=1 𝑖=1 ]

SUPUESTO DE AUSENCIA DE RELACIÓN LINEAL ENTRE LAS VARIABLES


EXPLICATIVAS
En el caso de que las variables x1 y x2 sean linealmente independientes la covarianza entre
ambos será nula siendo

𝑛 𝑛
2 ∑𝑛𝑖=1 𝑦𝑖 𝑥1𝑖
∑ 𝑥2𝑖 0 ∑ 𝑦𝑖 𝑥1𝑖
𝛽̂ 1 ∑𝑛 𝑥 2
( 1) = 𝑛 2 𝑛 2 𝑖=1
𝑛
𝑖=1
𝑛 = 𝑛 𝑖 1𝑖
̂
𝛽2 ∑𝑖 𝑥1𝑖 ∑𝑖 𝑥2𝑖 ∑𝑖=1 𝑦𝑖 𝑥2𝑖
2
0 ∑ 𝑥1𝑖 ∑ 𝑦𝑖 𝑥2𝑖 [ ∑𝑛𝑖=1 𝑥2𝑖
2
]
[ 𝑖=1 ] [ 𝑖=1 ]

Dado que− ∑𝑛𝑖=1 𝑥1𝑖 𝑥2𝑖 = 0

y
𝑛
2
∑ 𝑥2𝑖 0 1
̂ 𝜎̂𝑢2 ∑𝑛 𝑥 2
𝑉𝑎𝑟 − ̂ (𝛽̂ ) =
𝑐𝑜𝑣 𝑛 𝑛
𝑖=1
𝑛 = 𝜎̂𝑢2 𝑖=1 1𝑖
2 2
∑𝑖 𝑥1𝑖 ∑𝑖 𝑥2𝑖 1
2
0 ∑ 𝑥1𝑖 [∑𝑛𝑖=1 𝑥2𝑖
2
]
[ 𝑖=1 ]

Se simplificaría el proceso de estimación cuando ambos factores explicativos se distribuyen de


forma independiente.

SUPUESTO DE RELACIÓN LINEAL EXACTA ENTRE LAS VARIABLES EXPLICATIVAS

En el caso de que la relación lineal entre las variables consideradas fuese exacta

𝑋2 = 𝜆𝑋1

El denominador de la matriz de betas sería igual a cero y no sería posible la estimación del
modelo. Se particularizaría en una expresión indeterminada como

𝑛 𝑛 𝑛
2
∑ 𝑥2𝑖 − ∑ 𝑥1𝑖 𝑥2𝑖 ∑ 𝑦𝑖 𝑥1𝑖
𝛽̂ 1 0
( 1) = 𝑖=1
𝑛
𝑖=1
𝑛
𝑖=1
𝑛 =
𝛽̂2 ∑𝑛𝑖 𝑥1𝑖
2 ∑𝑛 2 𝑛 2 0
𝑖 𝑥2𝑖 − (∑𝑖=1 𝑥1𝑖 𝑥2𝑖 ) 2
− ∑ 𝑥1𝑖 𝑥2𝑖 ∑ 𝑥1𝑖 ∑ 𝑦𝑖 𝑥2𝑖
[ 𝑖=1 𝑖=1 ] [ 𝑖=1 ]

Mientras que las varianzas y desviaciones típicas de las betas aumentarían indefinidamente.
𝑛 𝑛
2 2
∑ 𝜆2 𝑥1𝑖 ∑ 𝜆2 𝑥1𝑖
̂ 𝜎̂𝑢2 𝑖=1 𝑖=1
𝑉𝑎𝑟 − ̂ (𝛽̂ ) =
𝑐𝑜𝑣 2 𝑛 𝑛
𝜆2 ∑𝑛𝑖 𝑥1𝑖
2
− 𝜆2 (∑𝑛𝑖=1 𝑥 21𝑖 ) 2 2
− ∑ 𝜆𝑥1𝑖 ∑ 𝑥1𝑖
[ 𝑖=1 𝑖=1 ]
𝑛 𝑛
2 2
∑ 𝜆2 𝑥1𝑖 ∑ 𝜆2 𝑥1𝑖
𝜎̂𝑢2 𝑖=1 𝑖=1
= 𝑛 𝑛
0
2 2
− ∑ 𝜆𝑥1𝑖 − ∑ 𝜆𝑥1𝑖
[ 𝑖=1 𝑖=1 ]

En la práctica ante una situación de este tipo no sería posible separar las influencias individuales
de 𝑋1 𝑦 𝑋2 sobre la muestra considerada. La estimación de Beta 1 representa la tasa promedio de
cambio que experimenta la variable dependiente cuando 𝑋1 Se incrementa unitariamente
permaneciendo 𝑋2 constante.

Un problema de multicolinealidad Perfecta supone básicamente un problema de identificación


del modelo. En una situación de multicolinealidad Perfecta se obtendrá únicamente una
estimación única de las distintas combinaciones lineales de los coeficientes del modelo.

SUPUESTO DE LA RELACIÓN LINEAL NO EXACTA ENTRE LAS VARIABLES


EXPLICATIVAS

En la práctica generalmente se manifiesta la existencia de un cierto grado de multicolinealidad


entre las variables explicativas del modelo considerado. En el caso de que la relación lineal entre
las variables no fuese exacta

𝑋2 = 𝜆𝑋1 + 𝑣𝑖 ∀𝑖 = 1,2,3 … , 𝑛

Siendo 𝜆 ≠ 0 y 𝑣𝑖 un termino de perturbación aleatoria tal que

∑ 𝑥𝑗𝑖 𝑣𝑖 = 0
𝑖=1

La estimación de sus coeficientes sería factible si

𝛽̂1
( )
𝛽̂2
𝑛 𝑛 𝑛 𝑛
2
𝜆 2
∑ 𝑥1𝑖 + ∑ 𝑣𝑖2 − ∑ 𝑥1𝑖 𝑥2𝑖 ∑ 𝑦𝑖 𝑥1𝑖
1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
= 2 𝑛 𝑛 𝑛 𝑛
∑𝑛𝑖 𝑥1𝑖
2
(𝜆2 ∑𝑛𝑖=1 𝑥1𝑖
2
+ ∑𝑛𝑖=1 𝑣𝑖2 ) − (𝜆 ∑𝑛𝑖=1 𝑥1𝑖
2
) 2 2
−𝜆 ∑ 𝑥1𝑖 ∑ 𝑥1𝑖 𝜆 ∑ 𝑦𝑖 𝑥1𝑖 + ∑ 𝑦𝑖 𝑣𝑖
[ 𝑖=1 𝑖=1 ] [ 𝑖=1 𝑖=1 ]
Y

̂
𝑉𝑎𝑟 − ̂ (𝛽̂ )
𝑐𝑜𝑣
𝑛 𝑛
2
∑(𝜆𝑥1𝑖 + 𝑣𝑖 ) − ∑ 𝑥1𝑖 (𝜆𝑥1𝑖 + 𝑣𝑖 )
𝜎̂𝑢2 𝑖=1 𝑖=1
= 2 𝑛 𝑛
∑𝑛𝑖 𝑥1𝑖
2 ∑𝑛𝑖=1(𝜆𝑥1𝑖 + 𝑣𝑖 )2 − (∑𝑛𝑖=1 𝑥1𝑖 (𝜆𝑥1𝑖 + 𝑣𝑖 )) 2
− ∑ 𝑥1𝑖 (𝜆𝑥1𝑖 + 𝑣𝑖 ) ∑ 𝑥1𝑖
[ 𝑖=1 𝑖=1 ]

Obsérvese que si fuese suficientemente pequeño reflejarían una situación de una colinealidad
casi perfecta entre las variables 𝑋1 𝑦 𝑋2 .

El problema de multicolinealidad alta se presenta frecuentemente en el análisis empírico y


presenta problemas de estimación suficientemente importantes para garantizar que le
consideremos como una violación al modelo clásico de regresión lineal, incluso en el caso de
multicolinealidad casi perfecta los estimadores mínimos cuadráticos continuarán siendo
insesgados.

Básicamente las consecuencias del problema de la multicolinealidad dependerán del grado de


asociación lineal entre las variables explicativas es por ello por lo que muchos autores valoran
en términos relativos las consecuencias de este problema.

¿Cómo detectar la multicolinealidad?

Siendo un problema de tipo muestral, no hay estadísticas específicas aplicables para su


detección. Pero, se han desarrollado reglas prácticas formales y otras informales para
determinar cómo afecta la estimación y contraste del modelo y qué variable o variables son las
causantes del mismo:

1. Un coeficiente de determinación 𝑹𝟐 elevado con pocos estadísticos t-Student


significativos.

Si el cociente de determinación toma un valor alto, la prueba F-Snedecor rechazará la


hipótesis nula (los coeficientes de regresión poblacionales que acompañan a las variables
explicativas sean simultáneamente iguales a cero). Si la prueba t-Student (valora la relevancia
individual de cada variable explicativa) no fuese significativa, sería una situación contradictoria;
lo que significaría que los regresores elegidos en la especificación influirían conjuntamente en el
comportamiento de la variable dependiente, aunque no de forma individual. La
multicolinealidad suele ser la causa que justifica una situación de este tipo.
2. Altas correlaciones de orden cero entre las variables explicativas.
Siendo la observación del coeficiente de correlación simple entre dos variables explicativas,
si el coeficiente tomara un alto valor, por ejemplo superior a 0,8, la multicolinealidad constituiría
un problema a considerar en el modelo; se trata de una condición suficiente y no necesaria.

3. Regresiones auxiliares.
La multicolinealidad es la existencia de relaciones lineales entre las variables explicativas del
modelo. La regresión de cada variable explicativa 𝑋𝑗 en función del resto de regresores,
(calculando el correspondiente coeficiente de determinación) permitirá averiguar qué regresor
depende linealmente del resto de variables explicativas. Cada regresión se denomina regresión
auxiliar a la regresión principal, teniendo en cuenta la relación entre el estadístico F-Snedecor y
el coeficiente de determinación,
𝑅𝑥2𝑗… 𝑥1 𝑥2 …𝑥𝑘
(𝑘 − 1)
𝐹 ∗𝑗 =
(1 − 𝑅𝑥2𝑗… 𝑥1 𝑥2 …𝑥𝑘 )
(𝑛 − 𝑘)

Siendo el estadístico prueba particularizado, bajo hipótesis nula 𝐻0 = 𝑅𝑥2𝑗… 𝑥1 𝑥2 …𝑥𝑘 =0, a

contrastar con el valor crítico correspondiente a una distribución F-Snedecor con k − 1 y n − k,


grados de libertad en el numerador y denominador, respectivamente, siendo n el tamaño
muestral y k el número de variables explicativas y, 𝑅𝑥2𝑗… 𝑥1 𝑥2 …𝑥𝑘 el coeficiente de determinación de

la regresión auxiliar.

Según Klein, el problema de la multicolinealidad se da en el modelo cuando el coeficiente de


determinación original sea menor que el de la regresión auxiliar elegida. Si la regresión auxiliar
es estadísticamente significativa, se decidirá si la variable 𝑋𝐽 considerada se elimina o no del
modelo.

̂ 𝑱 ).
4. Factor de agrandamiento de la varianza 𝑭𝑨𝑽 (𝜷

Siendo la razón entre la varianza observada y la que habría sido en el caso de la variable 𝑋𝑗
considerada estuviera incorrelada con el resto de regresores del modelo. El 𝐹𝐴𝑉 (𝛽̂𝐽 ) muestra en
qué medida aumenta la varianza del estimador 𝛽̂𝑗 , como consecuencia de la no ortogonalidad de
las variables explicativas del modelo,
1
̂ 𝑱) =
𝑭𝑨𝑽 (𝜷
(1 − 𝑅𝑗2 )

𝑅𝑗2 ∶ Coeficiente de determinación de la regresión auxiliar.

5. El número de condición.

Siendo la raíz cuadrada de la razón, entre las raíces características mayor y menor de la
matriz X´X,

𝜆𝑚á𝑥
𝑥(𝑋) = √
𝜆𝑚𝑖𝑛

Mide la sensibilidad de las estimaciones mínimo-cuadráticas, ante pequeñas


modificaciones de los datos muestrales. Es el más adecuado en la actualidad.
Según los estudios realizados, con datos observados y simulados, el problema demo de la
multicolinealidad, es una cuestión a considerar cuando 𝑥(𝑋) tome un valor comprendido entre
20 y 30.

Soluciones a la multicolinealidad

Ya que la multicolinealidad muestra deficiencias en la información muestral, no se


dispone de reglas generales para su corrección. Pero se dan algunas soluciones y
recomendaciones según la severidad con que se presente el problema.

Actuaciones sobre la muestra


Un modelo econométrico tiene por objeto la modelización de un determinado fenómeno,
en base a la información muestral disponible, por ello el diseño muestral es un objetivo
prioritario.
La existencia de las relaciones lineales entre las variables explicativas del modelo,
aumenta sustancialmente la varianza muestral de los estimadores mínimo cuadráticos, las
soluciones a proponer deben encaminarse hacia su reducción.
Por lo que hay distintas vías alternativas. Aumentar la variabilidad de las variables
explicativas colineales con la introducción de nuevas observaciones, no siempre es una solución
viable, ni proporciona resultados satisfactorios, dado que lo importante no es el número de
observaciones sino su contenido, si al añadir nuevas observaciones se mantiene la estructura del
problema. En los diseños experimentales, se podrá además incrementar directamente la
variabilidad de los regresores, sin necesidad de incrementar el tamaño muestral.
Una posible solución al problema de la multicolinealidad es la combinación de datos de
corte transversal serie temporal, “mezcla de datos”. Siendo una técnica atractiva con numerosas
aplicaciones y favorable en estimaciones de corte transversal no varían de una muestra a otra,
su uso puede llevar a problemas de interpretación.

Establecimiento de restricciones sobre comportamiento de los parámetros


poblacionales
En el problema de la multicolinealidad la utilización de la información extramuestral es
una alternativa, estableciendo restricciones sobre el comportamiento de los parámetros del
modelo o aprovechando información derivada de otros estudios empíricos.
Utilizando esta opción, se reduce el número de parámetros a estimar en el modelo
contribuyendo a corregir posibles deficiencias de la información muestral. Las restricciones
consideradas en cada caso deberán tener un significado económico claro.

Transformación de variables
Con el problema de la multicolinealidad se presenta en una muestra en forma de serie
temporal, la tendencia, aproximadamente común, una de las variables explicativas podrá ser la
causa de dicho problema. En una situación de este tipo, la utilización de variables en forma de
primeras diferencias puede hacer disminuir el grado de correlación entre los regresores del
modelo.
Las soluciones de este tipo, deben utilizarse con suma cautela, ya que pueden constituir
el origen de otro tipo de problemas econométricos. La transformación que utiliza las primeras
diferencias constituye el origen de algunos problemas adicionales. El término de error que
aparece en el modelo transformado puede no satisfacer alguna de las hipótesis básicas del
modelo de regresión, en concreto la independencia serial de los residuos mínimo-cuadráticos.
Con una solución de este tipo se reducen los grados de libertad, al perderse una observación en
el proceso de diferenciación, debiendo tener en cuenta en muestras de pequeñas. Además, el
procedimiento de diferenciación no puede ser el adecuado en muestras de corte transversal,
donde no existe un ordenamiento lógico de las observaciones.
Otras transformaciones propuestas serían la consideración de las tasas de crecimiento,
en vez de utilizar los valores absolutos de las variables, proporciones, transformaciones
logarítmicas etc. Al proponer transformaciones se debe valorar su contenido económico.

Eliminación de las variables


Consiste en omitir alguna de las variables colineales en el modelo, es una de las
soluciones más simples, aunque puede dar origen a importantes sesgos y errores de
especificación en el modelo.
Esta solución se podrá adoptar cuando el objetivo se concretase en la realización de
predicciones y, esta decisión se afianzaría si además se comprobase que los signos de los
coeficientes de la regresión fuesen incorrectos cuando se considerase esa variable explicativa, y
la varianza del error de predicción baja, cuando se excluyese.
Técnicas estadísticas incluidas en el análisis multivariante, como análisis factorial y de
componentes principales se utilizan para resolver el problema de multicolinealidad.

EJEMPLOS RESUELTOS CON EVIEWS

CAPÍTULO 10

Sensibilidad de los estimadores de MCO y sus errores estándar ante cambios

pequeños en los datos

Siempre que la multicolinealidad no sea perfecta, es posible la estimación de los coeficientes de


regresión; sin embargo, las estimaciones y sus errores estándar se tornan muy sensibles aun al
más ligero cambio de los datos.

Con base en los siguientes datos


Se obtiene la regresión 10.5.6

Comando: ls Y C X2 X3

Esta regresión muestra que ninguno de los coeficientes de regresión es individualmente


significativo en los niveles de significancia convencionales de 1 o de 5%, a pesar de que 𝛽̂2 sea
significativo en el nivel de 10% con base en la prueba t de una cola.

Ahora consideremos la tabla

La única diferencia entre las tablas 10.3 y 10.4 es que se intercambiaron el tercer y el cuarto
valores de X3. Con la información de la tabla 10.4 ahora obtenemos la regresión 10.5.7
Comando: ls Y C X2 X3

Como resultado de un ligero cambio en los datos vemos que β̂2, antes estadísticamente
significativo en un nivel de significancia de 10%, deja ahora de serlo aun en ese nivel.

Observe también que en (10.5.6) la cov (β̂2, β̂3) = −0.00868

Mientras que en (10.5.7) es −0.0282, un aumento superior a tres veces su valor inicial

En forma similar, los errores estándar de β̂2 y β̂3 aumentan entre las dos regresiones, síntoma
característico de la colinealidad. Esto se confirma con las regresiones (10.5.6) y (10.5.7). En la
primera regresión, la suma de los dos coeficientes parciales de las pendientes es 0.4493, en tanto
que en la segunda regresión dicha suma es 0.4284, prácticamente la misma.
EJEMPLO 10.1 Gasto de consumo en relación con el ingreso y la riqueza

Datos: Considere los datos hipotéticos de la tabla 7.4, sobre gasto de consumo Y, ingreso X2 y
riqueza X3. (A9:C19)

La tabla 10.5 contiene datos hipotéticos sobre consumo, ingreso y riqueza. Si suponemos que el
gasto de consumo se relaciona linealmente con el ingreso y la riqueza, entonces, con base en la
tabla 10.5, obtenemos la regresión 10.6.1:

Comando: ls Y C X2 X3

La regresión (10.6.1) muestra que el ingreso y la riqueza explican en conjunto alrededor de 96%
de la variación en los gastos de consumo. A pesar de esto, ningún coeficiente de las pendientes es
estadísticamente significativo de manera individual. Además, no sólo la variable riqueza es
estadísticamente no significativa, sino que también tiene el signo incorrecto. A priori, se
esperaría una relación positiva entre el consumo y la riqueza.
Es interesante observar este resultado desde un punto de vista geométrico. Para ello con base en
la regresión (10.6.1) se establecieron intervalos de confianza individuales a 95% de confianza
para β2 y β3.

Procedimiento:

1. Se selecciona la regresión sobre la que se quiere establecer los parámetros.


2. Clic en View, y seguidamente en Coefficient Diagnostics

3. Seleccionar Confidence intervals

Se obtiene finalmente:
y gráficamente:

Como muestran estos intervalos, cada uno de ellos, en forma individual, incluye el valor de cero.
Por tanto, individualmente podemos aceptar la hipótesis de que las dos pendientes parciales son
cero. Pero cuando establecemos el intervalo de confianza conjunto para probar la hipótesis de
que β2=β3= 0, esa hipótesis no puede aceptarse, pues el intervalo de confianza conjunto, en
realidad una elipse, no incluye el origen. Como ya señalamos, cuando la colinealidad es alta, no
son confiables las pruebas sobre las regresoras individuales; en tales casos, la prueba F global es
la que mostrará si Y está relacionada con las diversas regresoras. El ejemplo muestra en forma
muy evidente lo que hace la multicolinealidad. El hecho de que la prueba F sea significativa, pero
los valores t de X2 y X3 no sean significativos individualmente implica que las dos variables están
tan correlacionadas que es imposible aislar el impacto individual del ingreso o de la riqueza
sobre el consumo.
Haciendo la regresión de X3 sobre X2 (10.6.3):

Comando: ls X3 C X2

lo cual muestra una colinealidad casi perfecta entre X3 y X2.

Ahora veamos lo que sucede si sólo efectuamos la regresión de Y sobre X2 (10.6.4)

Comando: ls Y C X2
En (10.6.1), la variable ingreso no era estadísticamente significativa, mientras que ahora es muy
significativa. Si en lugar de efectuar la regresión de Y sobre X2 lo hacemos sobre X3, obtenemos la
regresión 10.6.5.

Comando: ls Y C X3

Se observa que la riqueza tiene ahora un impacto significativo sobre el gasto de consumo,
mientras que en (10.6.1) no tenía ninguno. Las regresiones (10.6.4) y (10.6.5) muestran con toda
claridad que, en situaciones de extrema multicolinealidad, eliminar la variable altamente
colineal con frecuencia provoca que la otra variable X se torne estadísticamente significativa.
Este resultado sugiere que una forma de evadir la colinealidad extrema es eliminar la variable
colineal.

EJEMPLO 10.2 Ejemplo ampliado: los datos Longley

Se concluye este capítulo con el análisis de los datos recopilados por Longley. Aunque se
obtuvieron originalmente para evaluar la exactitud de cálculo de los mínimos cuadrados
estimados de varios paquetes de software, los datos Longley. Se convirtieron u ejemplo para
ilustar diversos problemas econométricos incluyendo la multicolinealidad.

Datos: Los datos se reproducen en la tabla 10.7 y son series de tiempo para el periodo 1947-
1962, donde Y= número de personas con trabajo (en miles), X1= índice implícito de deflación de
precios para el PIB, X2= PIB (en millones de dólares), X3= número de desempleados (en miles),
X4= número de personas enlistadas en las fuerzas armadas, X5= población no institucionalizada
mayor de 14 años y X6= año (igual a 1 para 1947, 2 para 1948 y 16 para 1962).

Si el objetivo es predecir Y con base en las seis variables X, se obtienen los siguientes resultados

Comando: ls Y c X1 X2 X3 X4 X5 X6
A primera vista, dichos resultados sugerirían que se tiene un problema de colinealidad, pues el
valor R2 es muy alto; sin embargo, unas cuantas variables son estadísticamente no significativas
(X1, X2, y X5), lo cual constituye un síntoma característico de multicolinealidad.

A continuación, se presentan las intercorrelaciones entre las seis regresoras

En Eviews 10 se obtiene de la siguiente manera:

1. Seleccionar las 5 variables regresoras.


2. Clic en Quick
3. Seleccionar Group Series
4. Click en Correlations

Finalmente se obtiene:

Esta tabla suministra lo que se llama matriz de correlación. En la tabla, las entradas de la
diagonal principal (las que van desde la esquina superior izquierda hacia la esquina inferior
derecha) suministran la correlación de una variable consigo misma, la cual por definición
siempre es 1; además, las entradas fuera de la diagonal principal son las parejas de correlaciones
entre las variables X. El primer renglón de esta tabla proporciona la correlación de X 1 con las
otras variables X. Como se ve, varias de estas correlaciones a pares son muy altas, lo cual sugiere
que quizá haya un grave problema de colinealidad.

Con objeto de aclarar más la naturaleza del problema de la multicolinealidad, observe las
regresiones auxiliares; es decir, la regresión de cada variable X sobre las restantes variables X.
Para ahorrar espacio, se presentarán sólo los valores R2 obtenidos con base en esas regresiones,
las cuales se listan en la tabla 10.10. Como los valores R2 de las regresiones auxiliares son muy
altos (con la posible excepción de la regresión de X4) sobre las restantes variables X, al parecer
existe un grave problema de colinealidad. La misma información se obtiene a partir de los
factores de tolerancia. Como ya mencionamos, mientras más cercano a cero esté el factor de
tolerancia, mayor será la evidencia de colinealidad.

Para ello se toman los datos obtenidos en cada regresión, para adjuntar en una tabla resumen,
en la que los términos de tolerancia vienen dados por 1- R2

Tabla 10.10

Al aplicar la regla práctica de Klein observamos que los valores R2 obtenidos de las regresiones
auxiliares exceden el valor general R2 (es decir, el que se obtuvo de la regresión de Y sobre todas
las variables X), que es igual a 0.9954, en 3 de 6 regresiones auxiliares, lo cual de nuevo sugiere
que sin duda los datos Longley están plagados del problema de multicolinealidad. A propósito, si
aplica la prueba F dada en (10.7.3), se debe verificar que todos los valores R2 dados en las tablas
anteriores son estadística y significativamente diferentes de cero.

Ahora que establecimos que existe un problema de multicolinealidad, ¿qué acciones correctivas
pueden llevarse a cabo? Reconsidere el modelo original. En primer lugar, el PIB puede
expresarse no en términos nominales, sino en términos reales, lo cual se realiza al dividir el PIB
nominal entre el índice de deflación del precio implícito.

Comando: SERIES X2_R= X2/X1


En segundo lugar, en vista de que la población no institucional mayor de 14 años aumenta con el
tiempo debido al crecimiento natural de la población, estará muy correlacionada con el tiempo,
la variable X6 del modelo. Por tanto, en lugar de conservar esas dos variables, mantenemos la
variable X5 y desechamos X6.

En tercer lugar, no hay ninguna razón de peso para incluir X3, el número de personas
desempleadas; quizá la tasa de desempleo fuese una mejor medida de las condiciones del
mercado de trabajo; sin embargo, no hay ningún dato al respecto. Por consiguiente, eliminamos
la variable X3. Con estos cambios obtenemos los siguientes resultados de la regresión
(PIB_REAL= PIB real):

Comando: ls Y C X2_REAL X4 X5

Aunque R2 disminuyó un poco en comparación con la R2 original, aún es muy alta. Ahora todos
los coeficientes estimados son significativos y sus signos tienen sentido desde el punto de vista
económico.
CAPÍTULO 13

CREACION DE MODELOS ECONOMETRICOS: ESPECIFICACION DEL MODELO Y LAS

PRUEBAS DE DIAGNOSTICO.

13.1. Criterios de selección del modelo

Según Hendry y Richard, la elección de un modelo para el análisis empírico debe


satisfacer los siguientes criterios:

1. Ser adecuado para los datos; es decir, las predicciones basadas en el modelo
deben ser lógicamente posibles.
2. Ser consistente con la teoría; es decir, debe tener un sentido económico
pertinente.
3. Tener regresoras exógenas débiles; es decir, las variables explicativas, o
regresoras, no deben estar correlacionadas con el término de error.
4. Mostrar constancia en los parámetros; es decir, los valores de los parámetros
deben ser estables. De otra forma el pronóstico se dificultará.
5. Exhibir coherencia en los datos; es decir, los residuos estimados a partir del
modelo deben ser puramente aleatorios.
6. Ser inclusivo; es decir, el modelo debe abarcar o incluir todos los modelos
contendientes, en el sentido de que debe poder explicar sus resultados. En
resumen, otros modelos no pueden ser mejores que el elegido.

13.2. Tipos de errores de especificación

Si el modelo de regresión del análisis no está especificado “correctamente” nos


enfrentamos al problema de error de especificación del modelo.
Al formular un modelo empírico, se puede cometer uno o más errores de
especificación:

1. Omisión de una variable relevante: una vez formulado el modelo con base en la
teoría pertinente, no se aconseja eliminar una variable de dicho modelo.
2. Inclusión de una variable innecesaria: el mejor enfoque es incluir sólo las
variables explicativas que, en teoría, influyan directamente en la variable
dependiente y no se hayan tomado en cuenta en otras variables incluidas.
3. Adopción de la forma funcional incorrecta: Para determinar si la incompetencia
del modelo se debe a uno o más problemas están algunos métodos, como el
examen de residuos, Durbin-Watson, entre otros.
4. Errores de medición.
5. Especificación incorrecta del término de error estocástico.
6. Suposición de que el término de error está normalmente distribuido.

Los primeros cuatro tipos de error son errores de especificación del modelo, pues
lo que se tiene en mente es un modelo “verdadero”, sin embargo, no estimamos el
modelo correcto.
En los errores de especificación incorrecta del modelo, donde, ni siquiera se sabe
cuál es el verdadero modelo. Por lo que existe cierto tipo de controversia.

13.3. Consecuencias de los errores de especificación del modelo

Existen dos tipos de errores de especificación:

1. Subajuste de un modelo.
2. Sobreajuste de un modelo.

Inclusión de una variable irrelevante (sobreajuste de un modelo)

Ahora supongamos que:

𝑌𝑖 = 𝛽1 − 𝛽2 𝑋2𝑖 + 𝑢𝑖 (13.3.6)

es verdadero, pero especificamos el siguiente modelo:

𝑌𝑖 = 𝛼1 + 𝛼2 𝑋2𝑖 + 𝛼3 𝑋3𝑖 + 𝑣𝑖 (13.3.7)


y cometemos así el error de especificación al incluir una variable innecesaria en el
modelo.

Las consecuencias de este error de especificación son las siguientes:

1. Todos los estimadores de MCO de los parámetros del modelo “incorrecto” son
insesgados y consistentes.
2. La varianza del error 𝜎 2 está correctamente estimada.
3. Los procedimientos usuales de intervalos de confianza y de pruebas de hipótesis
conservan su validez.
4. Las α estimadas por lo general serán ineficientes, es decir, sus varianzas
generalmente serán más grandes que las de las 𝛽̂ del verdadero modelo.

EJEMPLO 13.1 Ejemplo ilustrativo: De nuevo la mortalidad infantil


Datos:
Los datos necesarios se proporcionan en la tabla 6.4. Fecundidad y otros datos de 64
países. (A8:D72)
MI es el número de muertes de niños menores de 5 años por cada 1000 nacido vivos, el
PIBPC es el PIB per cápita en 1980 y la TAM se mide en porcentaje.

Estimación:

Al hacer la regresión de la mortalidad infantil (MI) sobre el PIB per cápita (PIBPC)
y sobre la tasa de alfabetización de las mujeres (TAM), es decir

𝑀𝐼𝑖 = 𝛽1 + 𝛽2 𝑃𝐼𝐵𝑃𝐶𝑖 + 𝛽3 𝑇𝐴𝑀𝑖 + 𝑢𝑖

obtuvimos los siguientes resultados con el paquete estadístico EViews10:

Comando: ls MI C PIBPC TAM


se puede ver los valores parciales de los coeficientes de pendiente de las dos variables
−0.0056 y −2.2316, respectivamente.

Pero si ahora eliminamos la variable (TAM) obtenemos los resultados de la ecuación

𝑀𝐼𝑖 = 𝛼1 + 𝛼2 𝑃𝐼𝐵𝑃𝐶𝑖 + 𝑢𝑖

Comando: ls MI C PIBPC

Si consideramos al primer modelo como el correcto, entonces este último es un


modelo mal especificado, pues omite la variable relevante TAM. Ahora podemos
observar que, en el modelo correcto, el coeficiente de la variable PIBPC fue −0.0056, en
tanto que en el modelo “incorrecto” es ahora de −0.0114. Es decir, ahora la variable
PIBPC tiene un mayor impacto sobre la MI en comparación con el verdadero modelo.
Pero si hacemos la regresión de TAM sobre PIBPC, es decir la regresión de la variable
excluida sobre la incluida, 𝑇𝐴𝑀𝑖 = 𝛾 + 𝑏32 𝑃𝐼𝐵𝑃𝐶𝑖 + 𝑢𝑖

Comando: ls TAM C PIBPC

observamos que el coeficiente de pendiente en la regresión (𝑏32 ) es 0.00256. Lo anterior


indica que conforme PIBPC aumenta una unidad, en promedio, TAM se incrementa
0.00256 unidades.

Omisión de una variable relevante (Subajuste del modelo)

Siendo el verdadero modelo:

𝑌𝑖 = 𝛽1 − 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝑢𝑖 (13.3.1)

pero, por alguna razón ajustamos el siguiente modelo:

𝑌𝑖 = 𝛼1 − 𝛼2 𝑋2𝑖 + 𝑣𝑖 (13.3.2)

Las consecuencias de omitir 𝑋3 son las siguientes:

1. Si la variable excluida, está correlacionada con la variable incluida 𝑋2, el


coeficiente de correlación entre las dos variables es diferente de cero, 𝛼̂1 𝑦 𝛼̂2 son
sesgados e inconsistentes.
2. Aunque 𝑋2 𝑦 𝑋3 no estén correlacionados, 𝛼̂1 es sesgado, pese a que 𝛼̂2 sea ahora
insesgado.
3. La varianza de la perturbación 𝜎 2 está incorrectamente estimada.
2
4. La varianza medida convencionalmente de 𝛼̂ 2 (= 𝜎 2 / ∑ 𝑥2𝑖 −) es un estimador
sesgado de la varianza del verdadero estimador 𝛽̂2 .
5. En consecuencia, es probable que el intervalo de confianza usual y los
procedimientos de pruebas de hipótesis conduzcan a conclusiones equivocadas
sobre la significancia estadística de los parámetros estimados.
6. Y que los pronósticos basados en el modelo incorrecto y los intervalos de
confianza del pronóstico no son confiables.

Nos preguntamos ¿el coeficiente del PIB, 𝛼2 del modelo “incorrecto”, suministrará un
estimado insesgado del verdadero impacto del PIBPC sobre MI, mismo que está dado
por 𝛽2 en el modelo correcto, sabiendo que se ha omitido la variable 𝑋3(TAM) del
modelo?

Dado que TAM aumenta en 0.00256 unidades, su efecto en MI será


(−2.2316)(0.00256) = 𝛽̂3 𝑏32 = −0.00543. Por tanto, aplicando la siguiente ecuación
𝐸(𝛼2 ) = 𝛽2 + 𝛽2 𝑏32 tenemos que [−0.0056 + (−2.2316)(0.00256)] ≈ −0.0111, que es
casi el valor del coeficiente PIBPC, obtenido en el modelo incorrecto. Como ilustra este
ejemplo, el verdadero efecto del PIBPC sobre la MI es mucho menor (−0.0056) de lo que
indica el modelo incorrecto (−0.0114).

13.4. Pruebas de errores de especificación

Detección de variables innecesarias (sobreajuste de un modelo)

Suponga que desarrollamos un modelo de k variables para explicar un fenómeno:

𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + ⋯ + 𝛽𝑘 𝑋𝑘𝑖 + 𝑢𝑖 (13.4.1)

Pero no se tiene la certeza de que, por ejemplo, la variable Xk debe estar en el


modelo. Una forma fácil de averiguarlo es probar la significancia del 𝛽𝑘 estimado
mediante la prueba t usual: 𝑡 = 𝛽̂𝑘 /𝑒𝑒 (𝛽̂𝑘 ).

Con estas pruebas de significancia, tenemos en mente un modelo específico.


Aceptamos ese modelo como hipótesis mantenida o “verdad”, con ese modelo,
mediante las pruebas usuales t o F podemos averiguar la relevancia verdadera de una o
más regresoras.
Pero observe con cuidado que con las pruebas t y F no podemos construir un
modelo en forma iterativa, por lo que existe otra estrategia de elaborar un modelo se
llama método ascendente, en el cual se empieza con un modelo más pequeño y se
amplía conforme se prosigue.

O, un término más descriptivo: minería de datos, conocido también como


regresión al tanteo, extracción de datos, sondeo de datos y procesamiento masivo de
datos numéricos. El objetivo principal de la minería de datos es desarrollar el “mejor”
modelo después de varias pruebas de diagnóstico, de manera que el modelo final resulte
“bueno” en el sentido de que todos los coeficientes estimados tengan los signos
“correctos”, sean estadísticamente significativos de acuerdo con las pruebas t y F.

Nivel de significancia nominal frente a nivel de significancia verdadero en presencia de


minería de datos.

Un peligro de la minería de datos al cual se enfrenta el investigador desprevenido


es que los niveles convencionales de significancia como 1, 5 o 10% no son los
verdaderos.

Por supuesto, en la práctica la mayoría de los investigadores sólo informa los


resultados de su regresión “final” sin reconocer que llegaron a los resultados tras una
considerable minería de datos.

Sin embargo este enfoque no es factible ni deseable. No es factible porque es una


teoría económica extraña que conduce a un modelo único. No es deseable porque un
aspecto crucial del aprendizaje mediante los datos es conocer los tipos de modelos que
los datos apoyan o rechazan. Aunque, por una extraña suerte, el modelo inicial mostrase
un buen ajuste, con frecuencia resultará importante explorar y conocer las clases de
modelos con que los datos concuerdan o no.

Pruebas para variables omitidas y forma funcional incorrecta

En la práctica, nunca estamos seguros de que el modelo adoptado para pruebas


empíricas represente “la verdad, toda la verdad y nada más que la verdad”. Con base en
la teoría y en el trabajo empírico previo; para determinar la validez del modelo se
presentan algunos de los siguientes métodos:

Examen de los residuos

El examen de los residuos es un buen diagnóstico visual para detectar la


autocorrelación o la heteroscedasticidad. Pero estos residuos también se examinan, para
detectar errores de especificación en los modelos, como la omisión de una variable
importante o la definición de una forma funcional incorrecta. Si en realidad existen tales
errores, una gráfica de los residuos permite apreciar patrones distinguibles.

Para ilustrarlo, considere la verdadera función del costo total, donde Y=costo
total y X=producción:

𝑌𝑖 = β1 + β2 𝑋𝑖 + β3 𝑋𝑖2 + β4 𝑋𝑖3 + 𝑢𝑖 (13.4.4)

pero un investigador ajusta la siguiente función cuadrática:

𝑌𝑖 = α1 + α2 𝑋𝑖 + α3 𝑋𝑖2 + 𝑢2𝑖 (13.4.5)

y otro investigador ajusta la siguiente función lineal:

𝑌𝑖 = λ1 + λ2 𝑋𝑖 + 𝑢3𝑖 (13.4.6)

Se puede ver cómo se comportan los residuos estimados en los tres modelos. En
la siguiente gráfica: a medida que nos movemos de izquierda a derecha, es decir, a
medida que nos acercamos a la verdad, no sólo los residuos son más pequeños sino,
asimismo, éstos no presentan los giros cíclicos pronunciados asociados con modelos mal
especificados.
La utilidad de examinar la gráfica de residuos es entonces clara: si hay errores de
especificación, los residuos presentan patrones distinguibles.

El estadístico d de Durbin-Watson

Para aplicar la prueba de Durbin-Watson para detectar error (o errores) de


especificación de un modelo, procedemos de la siguiente manera:

1. A partir de un modelo supuesto, obtenga los residuos de MCO.


2. Si se cree que el modelo supuesto está mal especificado porque excluye una
variable explicativa relevante,
3. Calcule el estadístico d a partir de los residuos así ordenados mediante la fórmula
d usual, a saber,
∑𝑛𝑡=2(𝑢̂𝑡 − 𝑢̂𝑡−1 )2
𝑑=
∑𝑛𝑡=1 𝑢̂𝑡2

Nota: En este contexto, el subíndice t es el índice de la observación que no


necesariamente se refiere a una serie de tiempo.

4. Con base en las tablas de Durbin-Watson, si el valor d estimado es signifi cativo,


se puede aceptar la hipótesis de mala especificación del modelo. Si es así, las
medidas correctivas surgen naturalmente por sí mismas.

Prueba RESET de Ramsey


Ramsey propuso una prueba general de errores de especificación conocida como
RESET (prueba del error de especificación en regresión). Con el ejemplo costo-
producción, la función de costos es lineal en la producción de la siguiente forma:

𝑌𝑖 = λ1 + λ2 𝑋𝑖 + 𝑢3𝑖

Si graficamos los residuos 𝑢̂𝑖 obtenidos de esta regresión frente a 𝑌̂𝑖 , la estimación
de Yi de este modelo, obtenemos la gráfica:

Los pasos de RESET son los siguientes:

1. A partir del modelo se obtiene Yi estimada, es decir, 𝑌̂𝑖 .


2. Efectúe de nuevo la regresión, introduciendo 𝑌̂𝑖 en alguna forma, en la gráfica
anterior, se observa una relación curvilínea entre 𝑢̂𝑖 y 𝑌̂𝑖 , que indica que se pueden
introducir 𝑌̂2 𝑦 𝑌̂3 como regresoras adicionales. Así, efectuamos la regresión:

𝑌𝑖 = β1 + β2 𝑋𝑖 + β3 𝑋𝑖2 + β4 𝑋𝑖3 + 𝑢𝑖

3. Sea 𝑅 2 obtenida de R2nueva , y la obtenida de R2vieja Entonces utilizamos la prueba F


introducida,

para averiguar si el incremento en 𝑅 2 , es estadísticamente significativo.


4. Si el valor F calculado es signifi cativo, por ejemplo, en el nivel de 5%, podemos
aceptar la hipótesis de que el modelo está mal especificado.

Del ejemplo ilustrativo, tenemos los siguientes resultados (errores estándar entre
paréntesis):

Ahora, al aplicar la prueba F, tenemos que:

El valor F es muy significativo, lo cual indica que el modelo está mal especificado.
Por supuesto, llegamos a la misma conclusión con el examen visual de los residuos como
también con el valor d de Durbin-Watson. Debe añadirse que, en vista de que 𝑌̂𝑖 es
estimada, se trata de una variable aleatoria y, por tanto, las pruebas de significancia
habituales aplican si la muestra es razonablemente grande.

Una ventaja de RESET es que es fácil de aplicar, pues no requiere la especificación


del modelo alterno. Sin embargo, ésta también es su desventaja, pues saber que el
modelo está mal especificado no necesariamente ayuda a elegir una opción mejor.

Prueba del multiplicador de Lagrange (ML) para agregar variables

Ésta es una alternativa para la prueba RESET de Ramsey.


Si comparamos la función lineal de costos 𝑌𝑖 = λ1 + λ2 𝑋𝑖 + 𝑢3𝑖 con la función
cúbica de costos 𝑌𝑖 = β1 + β2 𝑋𝑖 + β3 𝑋𝑖2 + β4 𝑋𝑖3 + 𝑢𝑖 la primera es una versión
restringida de la última.

La regresión restringida 𝑌𝑖 = λ1 + λ2 𝑋𝑖 + 𝑢3𝑖 supone que los coeficientes de los


términos de producción elevados al cuadrado y al cubo son iguales a cero. Para probar
esto, la prueba ML se realiza de la siguiente manera:

1. Estime la regresión restringida mediante MCO y obtenga los residuos, 𝑢̂𝑖 .


2. Si la regresión no restringida resulta ser la verdadera regresión, los residuos
obtenidos en la función restringida deben estar relacionados con los términos de
la producción elevada al cuadrado y al cubo, es decir, 𝑋𝑖2 , 𝑋𝑖3 .
3. Esto indica que se efectúe la regresión de los 𝑋𝑖2 obtenidos en el paso 1 sobre
todas las regresoras (incluidas las de la regresión restringida), lo cual, en el
presente caso, significa que:

(13.4.11)

v es un término de error con las propiedades usuales.

4. Para un tamaño de muestra grande, Engle demostró que n (el tamaño de la


muestra) multiplicado por 𝑅 2 estimado en la regresión (auxiliar) sigue una
distribución ji cuadrada con gl iguales al número de restricciones impuestas por
la regresión restringida, dos en el ejemplo presente, pues los términos 𝑋𝑖2 , 𝑋𝑖3 son
eliminados del modelo. Simbólicamente:

(13.4.12)

asin:asintóticamente, es decir, en muestras grandes.

5. Si el valor ji cuadrada obtenido de (13.4.12) excede el valor ji cuadrada crítico en


el nivel de significancia seleccionado, rechazamos la regresión restringida. De lo
contrario, no la rechazamos.

Los resultados de la regresión:

(13.4.13)
donde Y es el costo total y X es la producción.

Cuando se hace la regresión con los residuos de (13.4.13), como se acaba de


sugerir en el paso 3, obtenemos los siguientes resultados:

(13.4.14)

EJEMPLO 13.2 Reconsidere la función cúbica del costo total de producción.


Datos:

Considere los datos de la Tabla 7.4 sobre Producción de un bien (X) y su costo de
producción total (Y) en el corto plazo. (A7:B17)

Examen de los residuos

Los residuos se examinan, para detectar errores de especificación en los modelos,


como la omisión de una variable importante o la definición de una forma funcional
incorrecta. Si en realidad existen tales errores, una gráfica de los residuos permite
apreciar patrones distinguibles.

Para ilustrar lo anterior, suponga que la verdadera función del costo total se describe
de la siguiente manera,
𝑌𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝛽3 𝑋𝑖2 + 𝛽4 𝑋𝑖3 + 𝑢𝑖

pero un investigador ajusta la siguiente función cuadrática:

𝑌𝑖 = 𝛼1 + 𝛼2 𝑋𝑖 + 𝛼3 𝑋𝑖2 + 𝑢2𝑖

y otro investigador ajusta la siguiente función lineal:

𝑌𝑖 = 𝜆1 + 𝜆2 𝑋𝑖 + 𝑢3𝑖

veamos cómo se comportan los residuos estimados en los tres modelos a partir de los
resultados obtenidos del paquete estadístico EViews10:

Procedimiento:

1. Ejecutar la regresión lineal con el comando: ls Y C X


2. En View de la ventana regres_lineal ir a Actual, Fitted, Residual, y hacer click en
Residual Graph.

3. Repetir el proceso para la regresión cuadrática usando el comando: ls Y C X X^2.


De la misma forma para la regresión cúbica con el comando: ls Y C X X^2 X^3
4. Finalmente, se obtienen los siguientes gráficos
La figura habla por sí misma: a medida que nos movemos de izquierda a derecha, es
decir, a medida que nos acercamos a la verdad, no sólo los residuos son más pequeños
(en valor absoluto) sino, asimismo, éstos no presentan los giros cíclicos pronunciados
asociados con modelos mal especificados. La utilidad de examinar la gráfica de residuos
es entonces clara: si hay errores de especificación, los residuos presentan patrones
distinguibles.

El estadístico 𝒅 de Durbin-Watson

Con base en las tablas de Durbin-Watson, si el valor 𝑑 estimado es significativo, se


puede aceptar la hipótesis de mala especificación del modelo. El estadístico 𝑑 de Durbin-
Watson se puede visualizar en los resultados obtenidos de cada regresión.
Para la función lineal de costos, vemos que el 𝑑 estimado es 0.716, lo cual indica que
hay “correlación” positiva en los residuos estimados: para 𝑛 = 10 y 𝑘 ′ = 1, los valores 𝑑
críticos a 5% son 𝑑𝐿 = 0.879 y 𝑑𝑈 = 1.320.

De la misma manera, el valor 𝑑 calculado para la función cuadrática de costos es


1.038, mientras que los valores críticos a 5% son 𝑑𝐿 = 0.697 y 𝑑𝑈 = 1.641, lo cual señala
indecisión.

Para la función cúbica de costo, la verdadera especificación, el valor 𝑑 estimado es


2.700 la cual no indica “correlación” positiva alguna en los residuos.
En conclusión, el estadístico 𝑑 para las funciones de costos lineal y cuadrática indica
la presencia de errores de especificación. Los remedios son claros: introduzca los
términos cuadrático y cúbico en la función lineal de costos y el término cúbico en la
función cuadrática de costos. En otras palabras, efectúe la regresión del modelo cúbico
de costos.

Prueba RESET de Ramsey

Es una prueba general de errores de especificación propuesta por Ramsey. Para


ejemplificar esta prueba consideramos que la función de costos es lineal en la
producción y obtenemos una gráfica de sus residuos estimado (𝑢̂𝑖 ) frente a 𝑌̂𝑖 , la
estimación de 𝑌𝑖 ,. Usando el paquete estadístico Eviews10 procedemos de la siguiente
manera:

1. En View de la ventana regres_lineal ir a Actual, Fitted, Residual, y hacer click en


Actual, Fitted, Residual Table

2.
̂𝑖 (columna Fitted) como
3. A continuación, copiar y pegar tanto los valores de los 𝑌
de los 𝑢̂𝑖 (columna Residual) en un empty group.
4. Dar nombre a las series, ir a view y seleccionar Graph…
5. Elegir el tipo de grafico “XY Line” .

6. Finalmente, obtenemos el siguiente gráfico

Los residuos en esta figura muestran un patrón en el cual su media cambia


sistemáticamente con 𝑌̂𝑖 , además esta relación curvilínea entre 𝑢̂𝑖 y 𝑌̂𝑖 , indica que se
pueden introducir 𝑌̂𝑖2 y 𝑌̂𝑖3 como regresoras adicionales. Así, efectuamos la regresión
𝑌𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝛽3 𝑌̂𝑖2 + 𝛽4 𝑌̂𝑖3 + 𝑢𝑖

Comando: ls Y C X Y_ESTIMADO^2 Y_ESTIMADO^3

A continuación, debemos averiguar si el incremento en 𝑅 2 es estadísticamente


significativo lo que sugeriría que la función lineal de costos estaba mal especificada, para
ello nos apoyamos en una prueba 𝐹 . Mediante Eviews10 proseguimos de la siguiente
manera:

1. En View de la ventana de esta regresión ir a Coefficient Diagnostics, y hacer click


en Wald Test-Coefficient Restrictions.
2. Ingresar la hipótesis nula, como se observa a continuación

3. Finalmente se obtiene los siguientes resultados.


Tenemos un valor 𝐹 de 284.43 que resulta muy significativo, lo cual indica que el
modelo lineal está mal especificado. Por supuesto, llegamos a la misma conclusión con el
examen visual de los residuos como también con el valor d de Durbin-Watson.

Debe añadirse que, en vista de que 𝑌̂𝑖 es estimada, se trata de una variable aleatoria y,
por tanto, las pruebas de significancia habituales aplican si la muestra es
razonablemente grande. Una ventaja de RESET es que es fácil de aplicar, pues no
requiere la especificación del modelo alterno. Sin embargo, ésta también es su
desventaja, pues saber que el modelo está mal especificado no necesariamente ayuda a
elegir una opción mejor.

Prueba del multiplicador de Lagrange (𝑴𝑳) para agregar variables

Ésta es una alternativa para la prueba RESET de Ramsey. Si comparamos la función


lineal de costos con la función cúbica de costos, la primera es una versión restringida de
la última. La regresión restringida supone que los coeficientes de los términos de
producción elevados al cuadrado y al cubo son iguales a cero. Para probar esto, la
prueba 𝑀𝐿 se realiza de la siguiente manera usando el paquete estadístico Eviews10:

1. Obtener los residuos estimados 𝑢̂𝑖 de la regresión restringida 𝑌𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝑢𝑖


, (datos ya hallados en pasos previos).
2. Efectúe la regresión de los 𝑢̂𝑖 obtenidos en el paso 1 sobre todas las regresoras
(incluidas las de la regresión restringida), es decir

𝑢̂𝑖 = 𝛼1 + 𝛼2 𝑋𝑖 + 𝛼3 𝑋𝑖2 + 𝛼4 𝑋𝑖3 + 𝑣𝑖


Comando: ls RESIDUO C X X^2 X^3

2
Aplicando la prueba 𝑀𝐿, es decir 𝑛𝑅 2 ~ 𝒳(𝑛𝑢𝑚𝑒𝑟𝑜 𝑑𝑒 𝑟𝑒𝑠𝑡𝑟𝑖𝑐𝑐𝑖𝑜𝑛𝑒𝑠) aunque el

tamaño de la muestra sea de 10, obtenemos 𝑛𝑅 2 = (10)(0.9896) = 9.896. De la tabla 𝑗𝑖


cuadrada observamos que, para 2 gl, el valor 𝑗𝑖 cuadrada crítico a 1% es alrededor de
9.21. Por consiguiente, el valor observado de 9.896 es significativo en el nivel de 1% y la
conclusión sería rechazar la regresión restringida (es decir, la función lineal de costos).
Con base en la prueba RESET de Ramsey llegamos a una conclusión similar.

13.5. Errores de Medición

Errores de medición en la variable dependiente Y

Los errores de medición en la variable dependiente aún producen estimaciones


insesgadas de los parámetros y de sus variaciones

Sin embargo, las varianzas estimadas son más grandes que en el caso en el cual
no existen errores de medición.
Considerando:

(1) 𝑌𝑖∗ = 𝛼 + 𝛽𝑋𝑖 + 𝜇𝑖

𝑌𝑖∗ = 𝑔𝑎𝑠𝑡𝑜 𝑑𝑒 𝑐𝑜𝑛𝑠𝑢𝑚𝑜 𝑝𝑒𝑟𝑚𝑎𝑛𝑒𝑛𝑡𝑒

𝑋𝑖 = 𝑖𝑛𝑔𝑟𝑒𝑠𝑜 𝑎𝑐𝑡𝑢𝑎𝑙

Puesto que el gasto de consumo permanente, no puede medirse directamente


puede utilizarse una variable de gasto observable Y:

𝑌𝑖 = 𝑌𝑖∗ + 𝜀𝑖

𝜀𝑖 : 𝑑𝑒𝑛𝑜𝑡𝑎 𝑙𝑜𝑠 𝑒𝑟𝑟𝑜𝑟𝑒𝑠 𝑑𝑒 𝑚𝑒𝑑𝑖𝑐𝑖ó𝑛 𝑒𝑛 𝑌𝑖∗

𝑌𝑖 = (𝛼 + 𝛽𝑋𝑖 + 𝜇𝑖 ) + 𝜀𝑖

𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + (𝜇𝑖 + 𝜀𝑖 )

(2) 𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + 𝑣𝑖

Donde 𝑣𝑖 = 𝜇𝑖 + 𝜀𝑖 es un término de error compuesto que contiene el término de


perturbación poblacional y el término de error de medición.

Suponiendo que los errores de medición en 𝑌𝑖∗ no están correlacionados con 𝑋𝑖 y


el error ecuacional y el error de medición no están correlacionados.

Los β estimados de (1) y (2) son estimadores insesgados de los verdaderos


valores de β.

Las varianzas si son distintas:

𝜎𝜇2 𝜎𝜇2 + 𝜎𝜀2


𝑣𝑎𝑟(𝛽̂ ) = (1) 𝑣𝑎𝑟(𝛽̂ ) =
∑ 𝑥𝑖2 ∑ 𝑥𝑖2

Errores de medición en la variable explicativa X

La presencia de errores de medición en las variables explicativas hacen imposible


la estimación consistente de los parámetros.

Considerando:

(1) 𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖∗ + 𝜇𝑖
𝑌𝑖 = 𝑔𝑎𝑠𝑡𝑜 𝑑𝑒 𝑐𝑜𝑛𝑠𝑢𝑚𝑜 𝑎𝑐𝑡𝑢𝑎𝑙

𝑋𝑖∗ = 𝑖𝑛𝑔𝑟𝑒𝑠𝑜 permanente

En vez de observar el ingreso permanente se observa:

𝑋𝑖 = 𝑋𝑖∗ + 𝑤𝑖

𝑤𝑖 : 𝑑𝑒𝑛𝑜𝑡𝑎 𝑙𝑜𝑠 𝑒𝑟𝑟𝑜𝑟𝑒𝑠 𝑑𝑒 𝑚𝑒𝑑𝑖𝑐𝑖ó𝑛 𝑒𝑛 𝑋𝑖∗

𝑌𝑖 = 𝛼 + 𝛽(𝑋𝑖 − 𝑤𝑖 ) + 𝜇𝑖

𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + (𝜇𝑖 − 𝛽𝑤𝑖 )

(2) 𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + 𝑧𝑖

Donde 𝑧𝑖 = 𝜇𝑖 − 𝛽𝑤𝑖 una composición de error ecuacional y de medición.

Aunque supongamos que 𝑤𝑖 tiene media cero es serialmente independiente y no


está correlacionado con 𝜇𝑖 no se puede suponer que el término de error compuesto 𝑧𝑖 es
independiente de X ya que:

𝑐𝑜𝑣(𝑧𝑖 , 𝑋𝑖 ) = −𝛽𝜎𝑤2

La variable 𝑋𝑖 y 𝑧𝑖 están correlacionados, como consecuencia se viola un supuesto


básico del MCRL de que la variable explicativa no está correlacionada con el término de
perturbación estocástico, entonces los estimadores MCO no solamente están sesgados,
sino que son también inconsistentes, es decir permanecen sesgados aun cuando el
tamaño de la muestral aumente.

¿Cuál es la solución si los errores de medición están presentes en las variables


explicativas?

1. Se puede suponer que si 𝜎𝑤2 es pequeña comparada con 𝜎𝑥2 no existe problema y
se procede a la estimación usual MCO.
Sin embargo en la práctica no es fácil medir 𝜎𝑤2 o 𝜎𝑥2 y por consiguiente no se
puede juzgar sus magnitudes.
2. Usar variables instrumentales o representadas que aunque están altamente
correlacionadas con las variables explicativas no están correlacionadas con los
términos de error ecuacional y de medición.
En realidad, no hay respuesta convincente al problema de los errores de estimación y es
por ello que es crucial que la medición de los datos sea los más precisa posible.

13.6. Especificación incorrecta del término de error estocástico

Un problema común de los investigadores es la especificación del término de


error, que ingresa en el modelo de regresión. Como el término de error no se puede
observar de manera directa, no hay una forma sencilla de determinar la forma en que
ingresa en el modelo. Consideramos que el logaritmo del error satisface los supuestos
característicos de MCO, como resultado nos genera una esperanza matemática de un
estimador sesgado pues su valor promedio no es igual a la verdadera beta.

Resultando:

e = base del logaritmo natural.

𝛼̂= es un estimador insesgado, su valor promedio no es igual a la verdadera β.

13.7 Modelos Anidados y no anidados

Es útil diferenciar entre modelos anidados y no anidados una vez se haya hecho la
prueba de especificación. Para distinguirlos, considere los siguientes modelos:

Modelo A: Yi = β1 + β2 X2i + β3 X3i + β4 X4i + β5 X5i + ui

Modelo B: Yi = β1 + β2 X2i + β3 X3i + ui

Decimos que el modelo B está anidado en el modelo A porque es un caso especial del
modelo A, el modelo A se reduce al modelo B si estimamos el modelo de A y rechazamos
la hipótesis de que los β4 = β5 = 0 con la prueba F o con la prueba t.

Modelo C: Yi = α1 + α2 X2i + α3 X3i + ui


Modelo D: Yi = β1 + β2 Z2i + β3 Z3i + vi

Los modelos C y D son no anidados porque no puede derivarse uno como caso especial
del otro, ya que pues el modelo C no contiene a 𝑍3𝑖 , y el modelo D no contiene a 𝑋2𝑖.

Incluso si se encuentran las mismas variables en el modelo, por la forma funcional


pueden ser dos modelos no anidados

MODELO E: Yi = β1 + β2 lnZ2i + β3 lnZ3i + wi

Los modelos D y E son no anidados, pues no se puede derivar uno como caso especial del
otro.

EJEMPLO 13.3 Un ejemplo


Datos: Considere los datos de la Tabla 13.2 que proporciona información hipotética
sobre 𝑌* (verdadero gasto de consumo), 𝑋* (verdadero ingreso), 𝑌 (gasto de consumo
medido) y 𝑋 (ingreso medido). Todas las cifras están en dólares. (B13:H23)

Errores de medición en la variable dependiente 𝒀

Con base en esta información y usando Eviews10 se obtiene la verdadera función de


consumo (regresión 𝑌𝑖 *sobre 𝑋𝑖 *):

Comando: ls Y_ C X_
mientras que si utilizamos 𝑌𝑖 en lugar de 𝑌𝑖 *, obtenemos

Comando: ls Y C X_

Como indican estos resultados y de acuerdo con la teoría, los coeficientes estimados
continúan siendo iguales. El único efecto de los errores de medición en la variable
dependiente es que los errores estándar estimados de los coeficientes tienden a ser más
grandes, lo cual se aprecia con claridad.

Errores de medición en la variable explicativa X.


Sabiendo que la regresión verdadera sigue siendo la misma. Suponemos ahora que en
lugar de 𝑋𝑖 * utilizamos 𝑋𝑖 . (Nota: En realidad, 𝑋𝑖 * pocas veces es observable.) Los
resultados de la regresión obtenida en Eviews10 son los siguientes:

Comando: ls Y_ C X

Estos resultados están de acuerdo con la teoría: cuando hay errores de medición en
la(s) variable(s) explicativa(s), los coeficientes estimados están sesgados. Por fortuna,
en este ejemplo el sesgo es relativamente pequeño; de la fórmula del límite de
probabilidad de 𝛽 es evidente que el sesgo depende de 𝜎𝑤2 /𝜎𝑋∗
2
, y en la generación de la
información supusimos que 𝜎𝑤2 = 36 y 𝜎𝑋∗
2
= 3667, con lo que redujimos el factor de
sesgo, alrededor de 0.98% ( 36/3 667).

13.8 Pruebas de hipótesis no anidadas


Existen dos métodos para probar hipótesis no anidadas:

1) el método de discriminación

2) el método de discernimiento se toma en cuenta la información proporcionada por


otros modelos.

Método de discriminación

Cuando ambos modelos tienen la misma variable dependiente, podemos elegir entre dos
(o más) modelos con base en algún criterio de bondad de ajuste, como:
 𝑅2
 𝑅 2 Ajustada
 el criterio de información de Akaike (CIA)
 el criterio de información de Schwarz (CIS)
 el criterio Cp de Mallows.

Al comparar dos o más modelos, la regresada debe ser la misma

Método de discernimiento

La prueba F no anidada o la prueba F incluyente

En base a estos modelos no aninados

Modelo C: Yi = α1 + α2 X2i + α3 X3i + ui

Modelo D: Yi = β1 + β2 Z2i + β3 Z3i + vi

Estimamos el siguiente modelo hibrido:

MODELO F: Yi = λ1 + λ2 X2i + λ3 X3i +λ4 Z2i + λ5 Z3i + ui

El modelo anida a los modelos C y D sin embargo C no esta anidada en D ni viceversa,


para demostrarlo utilizamos una prueba F usual.

Sin embargo, surgen problemas con este procedimiento de prueba. En primer lugar, si
las X y las Z están demasiado correlacionadas, entonces es muy probable que una o más
de las λ sean en lo individual estadísticamente insignificantes. En este caso, no hay
forma de decidir si el modelo C o el D es el correcto. En segundo lugar, la elección de la
hipótesis de referencia puede determinar el resultado de la elección del modelo sobre
todo si hay una gran multicolinealidad en las regresoras rivales.

La prueba J de Davidson-MacKinnon

La prueba J procede de la siguiente forma:

1. Estimamos el modelo D y de él obtenemos los valores Y estimados, ̂


YiD .
2. Agregamos el valor Y pronosticado como una regresora adicional al modelo C y
estimamos el siguiente modelo:
Yi = α1 + α2 X2i + α3 X3i + α4 ̂
YiD + ui
3. Con la prueba t, se prueba la hipótesis de que α4 = 0

4. Si no se rechaza la hipótesis de que α4 = 0 , podemos aceptar el modelo C como el


verdadero modelo, pues ̂
YiD no tiene un poder explicativo adicional más allá de lo que
contribuye el modelo C. En otras palabras, el modelo C incluye al modelo D.

5. Ahora cambiamos los papeles de las hipótesis, o de los modelos C y D. Estimamos


primero el modelo C.

Las pruebas dadas se realizan de manera independiente, tenemos los siguientes


resultados probables:

En caso de que ambos se rechacen, ningún modelo explica el comportamiento de Y.

Otro problema con la prueba J es que cuando se utiliza el estadístico t para probar la
significancia de la variable Y estimada en los modelos, el estadístico t tiene la
distribución normal estándar sólo para muestras grandes. Por consiguiente, la prueba J
quizá no sea muy poderosa (en el sentido estadístico) para muestras pequeñas, pues
tiende a rechazar la hipótesis.

Otras pruebas para la selección del modelo

 la prueba Cox
 la prueba JA
 la prueba P
 la prueba de inclusión Mizon-Richard

EJEMPLO 13.4 Gasto de consumo personal e ingreso personal disponible


Datos: Considere los datos de la Tabla 13.3, la cual proporciona el gasto de consumo
personal per cápita (𝐺𝐶𝑃𝑃) y el ingreso personal disponible per cápita (𝐼𝑃𝐷𝑃), ambos
en dólares de 2008, en Estados Unidos de 1970 a 2005.
La prueba J de Davidson-MacKinnon

Para ilustrarla, nos basamos en la información de la tabla 13.3 y procedemos a


comparar dos modelos rivales, la hipótesis o modelo A con la hipótesis o modelo B, los
mismos que son:

A partir de la información previa de la tabla 13.3, consideramos los siguientes


modelos rivales:

Modelo A: 𝐺𝐶𝑃𝑃𝑡 = 𝛼1 + 𝛼2 𝐼𝑃𝐷𝑃𝑡 + 𝛼3 𝐼𝑃𝐷𝑃𝑡−1 + 𝑢𝑡

Modelo B: 𝐺𝐶𝑃𝑃𝑡 = 𝛽1 + 𝛽2 𝐼𝑃𝐷𝑃𝑡 + 𝛽3 𝐺𝐶𝑃𝑃𝑡−1 + 𝑢𝑡

El modelo A establece que el GCPP depende del IPDP en el periodo actual y previo;
este modelo es un ejemplo de modelo de rezago distribuido. El modelo B postula que el
GCPP depende del IPDP actual y del GCPP del periodo anterior; este modelo representa
el modelo autorregresivo.

Los resultados obtenidos en Eviews10 de la estimación de estos modelos son los


siguientes:

Modelo A:
Comando: ls GCPP C IPDP IPDP(-1)

Modelo B:

Comando: ls GCPP C IPDP GCPP(-1)

Si se tuviese que elegir entre estos dos modelos con base en el método de
discriminación, según el criterio 𝑅 2 , quizá se elegiría el modelo B porque es un poco
más alto que el A. Además, en el modelo B ambas variables son estadísticamente
significativas en lo individual, en tanto que en el A sólo el IPDP actual es
estadísticamente significativo (aunque puede haber un problema de colinealidad). Sin
embargo, para efectos predictivos no existe mucha diferencia entre los dos valores
estimados de 𝑅 2 .

Para aplicar la prueba J, procedemos a comparar los dos modelos rivales


anteriormente vistos.

Procedemos a aplicar la prueba J, primero suponga que el modelo A es la hipótesis


nula, es decir, el modelo mantenido, y el modelo B es la hipótesis alternativa. A
continuación, seguimos los siguientes pasos en Eviews 10:

1. Obtener los valores estimados del modelo B

2. Utilizar los valores estimados del GCPP en el paso 1 como una regresora
incondicional en el modelo A, y estimamos el nuevo modelo:
̂ 𝑡𝐵 + 𝑢𝑡
𝐺𝐶𝑃𝑃𝑡 = 𝛼1 + 𝛼2 𝐼𝑃𝐷𝑃𝑡 + 𝛼3 𝐼𝑃𝐷𝑃𝑡−1 + 𝛼4 𝐺𝐶𝑃𝑃

Comando: ls GCPP C IPDP IPDP(-1) GCPP_B

3. Además aplicamos una prueba 𝑡, con la hipótesis de que 𝛼4 = 0 (dato ya hallado


en el paso anterior)
̂ 𝑡𝐵 , es estadísticamente significativo (al nivel de
Como vemos el coeficiente de 𝐺𝐶𝑃𝑃
dos colas 0,004) con un estadístico 𝑡 alto de 3.31, según el procedimiento de la prueba J
se tiene que rechazar el modelo A y aceptar el B.

Ahora supondremos que el modelo B es la hipótesis mantenida y que el A es la


alternativa, exactamente siguiendo el mismo procedimiento de antes, es decir
obtenemos los valores GCPP estimados del modelo A, que los usamos como regresoras
del modelo B y finalmente aplicamos una prueba 𝑡, donde ahora probamos la hipótesis
de que 𝛽4 = 0. Siendo los resultados de la regresión del nuevo modelo los siguientes:
̂ 𝑡𝐴 + 𝑢𝑡
𝐺𝐶𝑃𝑃𝑡 = 𝛼1 + 𝛼2 𝐼𝑃𝐷𝑃𝑡 + 𝛼3 𝐺𝐶𝑃𝑃𝑡−1 + 𝛼4 𝐺𝐶𝑃𝑃
̂ 𝑡𝐴 también es estadísticamente significativo
En esta regresión el coeficiente de 𝐺𝐶𝑃𝑃
(al nivel de dos colas 0,0425), con un estadístico 𝑡 de −2.19. Este resultado indica que
ahora debemos preferir el modelo B en vez del A.

Todo lo anterior muestra que ningún modelo es particularmente útil para explicar el
comportamiento del gasto de consumo personal per cápita en Estados Unidos de 1970 a
2005.

13.9 Criterios para la selección de modelos


Existen diversos criterios para elegir entre modelos rivales y/o comparar con
propósitos de pronóstico dentro y fuera de la muestra. El primero señala sobre todo
cómo elegir el modelo que se ajusta a los datos de determinada muestra. El pronóstico
fuera de la muestra se refiere a la forma de determinar cómo un modelo ajustado
pronostica valores futuros de la regresada, dados los valores de las regresoras, por lo
cual hay diversos criterios para este fin:

El criterioR2

Se define como

SCE SCR
R2 = = 1−
SCT SCT
Surgen varios problemas con R2 . En primer lugar, mide la bondad de ajuste dentro de la
muestra, por lo cual no hay garantía de que pronosticará bien las observaciones fuera de
la muestra. En segundo lugar, al comparar dos o más valores de R2 , la variable
dependiente debe ser la misma. En tercer lugar, es que una R2 no puede disminuir
cuando se agregan más variables al modelo.

𝐑𝟐 𝐚𝐣𝐮𝐬𝐭𝐚𝐝𝐚

Debido a la inconveniencia de aumentar regresoras para incrementar el valor de R2 , se


desarrolló una R2 ajustada

R2 ajustada penaliza cuando se agregan más regresora y se incrementa solo si el valor


absoluto de la variable añadida es mayor que 1, es mejor que R2 sin embargo regresada
debe ser la misma para que la comparación sea válida.

Criterio de información Akaike (CIA)

La idea de imponer una penalización por añadir regresoras al modelo se desarrolló más
en el criterio CIA, el cual se define como:

O también

Al comparar dos o más modelos, se preferirá el que tenga el menor valor CIA. Una
ventaja del CIA es que resulta útil para la predicción fuera de la muestra de un modelo
de regresión.

Criterio de información Schwarz (CIS)


El criterio CIS se define como

al igual que en CIA, CIS sirve para comparar el desempeño del pronóstico dentro de la
muestra y fuera de la muestra de un modelo.

Criterio Cp de Mallows

C.P. Mallows elaboró el siguiente criterio para seleccionar modelos, conocido como
criterio Cp:

Si el modelo con p regresoras es adecuado en lo que se refiere a que no muestra una


carencia de ajuste, se puede demostrar que es aproximadamente que

Al elegir un modelo de acuerdo con el criterio, se debe buscar un modelo con un valor
bajo de Cp, aproximadamente igual que p. En otras palabras, si seguimos el principio de
parsimonia, elegiremos un modelo con p regresoras (p < k) que proporcione un ajuste
adecuado a los datos.

Pronóstico ji cuadrada (χ2)

Este es un modelo de regresión basado en n observaciones y con el cual se desea


pronosticar con él los valores (medios) de la regresada para t observaciones adicionales
El pronóstico χ2 se define como sigue:

 û2i es el error de pronóstico para el periodo i (n + 1, n + 2, . . . , + n + t)


 σ2 es el estimador usual de MCO para σ2 basada en la regresión ajustada.
̂
 con t grados de libertad, donde t es el número de periodos para los que se realizó
el pronóstico.

χ2 tiene un poder estadístico débil, lo cual significa que la probabilidad de que la


prueba rechace correctamente una hipótesis nula falsa es baja y por tanto la prueba
debe utilizarse más como indicador.

13.10 Otros temas relacionados con la creación de modelos econométricos


Valores atípicos, apalancamiento e influencia

Al reducir la suma de cuadrado residual (SCR), los MCO dan igual ponderación a cada
observación en la muestra. Pero cada una de éstas quizá no tenga igual efecto en los
resultados de la regresión debido a la presencia de tres tipos de puntos de datos
especiales, llamados valores atípicos, puntos de apalancamiento y puntos de influencia.

Un valor atípico puede definirse como una observación con un “gran residuo”. El residuo
representa la diferencia (positiva o negativa) entre el valor real de la regresada y su
valor estimado.

Un dato ejerce apalancamiento (grande) si está desproporcionadamente distante de


la mayor parte de los valores de una(s) regresora(s). Es capaz de empujar la línea de
regresión hacia él mismo, lo que distorsiona la pendiente de la línea de regresión. Si esto
sucede, este punto se denomina un punto de influencia. La eliminación de tales puntos
de datos de la muestra afecta de manera drástica a la línea de regresión. En base a esto
es importante detectarlos con diferentes paquetes de software.
Mínimos cuadrados recursivos

Los utilizamos si no conocemos el punto de inflexión estructural en datos de series de


tiempo.

Suponga que primero utilizamos los datos de un periodo t y estimamos la función, para
obtener los estimados de β1 y β2 . Luego utilizamos los datos de t +1 y de nuevo
estimamos la función para obtener los estimados de los dos parámetros. Continuamos
añadiendo así puntos de datos sobre Y y X hasta agotar la muestra. Como es de
imaginarse, cada regresión proporciona un nuevo conjunto de estimaciones para los
parámetros.

Si el modelo es estructuralmente estable, las variaciones de los valores estimados de los


dos parámetros serán mínimas y en esencia aleatorias y si los valores estimados de los
parámetros cambian en forma significativa, esto indica un rompimiento estructural. Por
tanto, los MCR constituyen una herramienta útil con las series de tiempo, pues el tiempo
está ordenado cronológicamente.

Prueba de la falla de predicción de Chow

Esta prueba se puede modificar para comprobar el poder predictivo de un modelo de


regresión, esta prueba es igual al pronóstico chi cuadrado.

Si no hay un cambio estructural significativo en los valores de los parámetros, los


valores de ahorro estimados del periodo t, con base en las estimaciones de los
parámetros del periodo anterior, no deben ser muy distintos de los valores reales que
prevalecieron en el último periodo mencionado. Si hay una diferencia mediante la
prueba F verificamos si es grande o pequeña.

Si los errores son independientes y están distribuidos de manera idéntica y normal, el


estadístico F dado sigue la distribución F, con n1 y n2 , gl, respectivamente.

13.11 UN EJEMPLO CONCLUYENTE


1. Un modelo de determinación de salarios por hora
Para examinar los factores que determinan los salarios por hora consideraremos un
modelo salarial tipo Mincer a fin de saber qué factores determinan los salarios por hora :

𝑆𝑎𝑙ℎ𝑜 = 𝛽1 + 𝛽2 𝐸𝑠𝑐𝐽 + 𝛽3 𝑆𝑒𝑥𝑜𝑗 + 𝛽4 𝐻𝑖𝑠𝑝𝑎𝑛𝑜𝐽 + 𝛽5 𝐸𝑥𝑝𝑜𝑗 + 𝛽6 𝐸𝑑𝑜𝑐𝑖𝐽 + 𝛽7 𝑅𝑎𝑧𝑎𝑗 + 𝛽8 𝑅𝑒𝑔𝑖𝑜𝑛 𝐽

+ 𝛽9 𝑆𝑖𝑛𝑑𝑗 + 𝑢𝑖

 𝑆𝑎𝑙ℎ𝑜 : salario por hora ($),


 Esc: escolaridad en años
 Sexo: 1 si es femenino, 0 en otro caso
 Hispano: 1 si es hispano, 0 en otro caso
 Raza: 1 si no es ni blanco ni hispano, 0 en otro caso
 Expo: Experiencia en el mercado laboral
 Edoci: Estado civil. 1 si es casado, 0 en otro caso
 Región: Región de residencia, 1 si es del sur, 0 en otro caso
 Sind: 1 Si es trabajo sindicalizado, 0 en otro caso

Los datos consistieron en 528 personas entrevistadas en 1985 como parte de la


encuesta sobre población lo que periódicamente realiza la oficina de censos de
Estados Unidos.
Se espera que el salario por hora este positivamente relacionado con la
escolaridad, la experiencia el estado civil, la pertenencia a sindicatos; y que
negativamente esté relacionado con las categorías hispano, raza , sexo y religión.
Los resultados de la regresión son los siguientes:
Como puede observarse todas las variables son estadísticamente significativas. El
valor de 𝑅 2 de casi 0.2826 podria parecer bajo, pero estos valores se suelen observar en
datos transversales cuando hay muchas observaciones además este valor es
estadísticamente significativo puesto que el valor de F también lo es y el valor p es casi
cero.

Debido a que las variables hispano, estado civil y raza tienen insignificancia estadística
individual se las elimina y se corre la regresión nuevamente:

Ahora todas las variables son estadísticamente significativas en lo individual a un


nivel del 5% vemos que los coeficientes se pueden interpretar de manera directa, por
ejemplo el valor -0.8408 de la región sugiere que si las otras variables se mantienen
constantes, en promedio los trabajadores del sur ganan casi 84 centavos menos por hora
que sus colegas de cualquier otra parte, quizá por el costo de vida menor en el sur.
Como se esperaba la regresión donde se eliminan las tres variables tiene un R20
ajustada menor que la regresión larga. Los estadísticos Akaike y Schawardz : ambos son
menores en las regresiones cortas en comparación con las largas lo cual muestra como
penalizan por introducir más regresoras en el modelo.

13.13 Advertencia para el practicante


El econometrista aplicado, como el teórico, pronto descubre a partir de la experiencia
que un modelo útil no es el ‘verdadero’ o ‘real’, sino el escueto, factible e informativo.

Kennedy, de la Universidad Simon Fraser de Canadá, establece los siguientes “diez


mandamientos de la econometría aplicada.

1. Utilizarás el sentido común y la teoría económica.

2. Plantearás las preguntas adecuadas.

3. Conocerás el contexto.

4. Inspeccionarás los datos.

5. No idolatrarás la complejidad.

6. Verás las consecuencias de tus resultados y serás perseverante con ellos.

7. Estarás consciente de los costos de la minería de datos.

8. Estarás dispuesto a comprometerte.

9. No confundirás significancia con sustancia

10. Te confesarás ante la presencia de la sensibilidad.

También podría gustarte