Pronosticos Box Jenkins
Pronosticos Box Jenkins
Pronosticos Box Jenkins
Profesora Titular
[email protected]
Pronósticos:
Metodología
de Box-Jenkins
Marzo 2009
La vida humana gira en torno a dos polos: los hábitos y las decisiones.
Los hábitos representan el mundo del automatismo, la repetición y la
rutina, así como los caminos trillados; es la esfera de la inercia, facilidad,
seguridad, de las cosas que caen por su propio peso.
Las decisiones son todo lo contrario: el alto en el camino, el lugar de la y
griega que hace reconsiderar la ruta, el momento de considerar y
ponderar las alternativas, el momento dramático de escoger o desechar
perspectivas que también atraen. M. Rodríguez y M. Márquez
Agradecimientos
notas; y al Dr. Jesús H. del Río Martínez, por sus valiosas enseñanzas acerca
de cómo elaborar trabajos de investigación, así como sus aportaciones al
último capítulo.
Gracias también a las más de veinte generaciones de alumnos de Ma-
temáticas Aplicadas y Computación de la Facultad de Estudios Superiores
Acatlán de la Universidad Nacional Autónoma de México, con quienes se
fueron construyendo estas ideas.
1. Conceptos fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1. Pronósticos y decisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Una aproximación sistemática (ARIMA) . . . . . . . . . . . . . . . . . . 2
1.3. Serie de tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.2. Componentes de una serie de tiempo . . . . . . . . . . . . . . . . 4
1.4. Objetivos del análisis de series de tiempo . . . . . . . . . . . . . . . . . . 7
1.5. Modelos univariados y multivariados . . . . . . . . . . . . . . . . . . . . . . 8
1.6. Metodología de Box-Jenkins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7. Funciones de primer y segundo orden . . . . . . . . . . . . . . . . . . . . . 11
1.7.1. Función de media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.7.2. Función de varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7.3. Funciones de relación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.8. Detección de la periodicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.8.1. Propiedades de la función seno . . . . . . . . . . . . . . . . . . . . . 13
1.8.2. Función seno generalizada . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.8.3. Coeficientes de la serie de Fourier . . . . . . . . . . . . . . . . . . 17
1.8.4. Espectro lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.8.5. Periodograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.8.6. Periodograma integrado . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.9. Funciones muestrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.9.1. Función de media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.9.2. Función de varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.9.3. Función de autocovarianza y autocorrelación . . . . . . . . . 30
2. Modelos estacionarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.1. Estacionaridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.1.1. Dos conceptos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.1.2. Importancia de la estacionaridad . . . . . . . . . . . . . . . . . . . 33
2.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.1. Matriz de varianzas y autocovarianzas . . . . . . . . . . . . . . 35
2.2.2. Matriz de autocorrelaciones . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.1. Ejemplo de datos estacionarios . . . . . . . . . . . . . . . . . . . . . 36
2.3.2. Ejemplo de datos no estacionarios . . . . . . . . . . . . . . . . . . 38
X Índice general
3. Modelos no estacionarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2. Estabilización de la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.3. Eliminación de la tendencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.4. Variación estacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.5. Modelos ARIMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4. Pronósticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2. Pronósticos de costo mínimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.3. Cálculo de los pronósticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.4. Límite de los pronósticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.4.1. Pronóstico de un modelo AR(1) . . . . . . . . . . . . . . . . . . . . 70
4.4.2. Pronóstico de un modelo MA(1) . . . . . . . . . . . . . . . . . . . . 71
4.4.3. Pronóstico de un modelo ARMA(1,1) . . . . . . . . . . . . . . . 72
4.5. Actualización de los pronósticos . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5. Metodología de Box-Jenkins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.2. Identificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.2.1. Interpretación de la ACF . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.2.2. Interpretación de la PACF . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.3. Estimación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.3.1. Mínimos cuadrados y máxima verosimilitud . . . . . . . . . . 77
5.3.2. Procedimiento de estimación . . . . . . . . . . . . . . . . . . . . . . . 78
5.3.3. Inicialización de la serie de tiempo . . . . . . . . . . . . . . . . . . 79
5.3.4. Estimación no lineal de los parámetros . . . . . . . . . . . . . . 80
5.3.5. Valor inicial de los parámetros . . . . . . . . . . . . . . . . . . . . . 83
5.3.6. Ejemplo: estimación de ARMA(1,1) . . . . . . . . . . . . . . . . 84
Índice general XI
5.4. Diagnóstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.4.1. Análisis de la estacionaridad . . . . . . . . . . . . . . . . . . . . . . . 86
5.4.2. Modelo sobre-estimado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.4.3. Modelo sub-estimado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.4.4. Datos faltantes y atípicos . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.4.5. Comparación de modelos . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.5. Pronóstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Índice de figuras
12
0
0 20 40 60 80 100
Esta gráfica no muestra tendencia, los datos están todos alrededor de una
media constante cero, la varianza es constante(i. e. la serie es homoscedás-
tica), no hay variación estacional ni ciclo. Éste es el tipo de gráfica que se
espera encontrar en los residuales que genere un buen modelo de series de
tiempo. Adicionalmente, existen pruebas de hipótesis para verificar que
se cumplen las propiedades del ruido blanco.
Variable exógena: aquella cuyo valor no depende del resultado del mo-
delo. (Hace las veces de variable independiente).
Variable endógena: aquella cuyo valor depende del resultado del modelo.
(Hace las veces de variable dependiente).
Yt Filtro de
estacionaridad
Filtro de
Wt integración
Filtro
Zt autorregresivo
Filtro de medias
móviles
et
Ruido blanco
Serie
Original Yt
Gráfica
ACF
PACF
Periodograma
Identificar ¿Se
¿Se puede
puede
¿Es
¿Es Identificar un
un Estimar los
Modelo mejorar
mejorar el
el
estacionaria?
estacionaria? Modelo Tentativo
Tentativo parámetros
modelo?
modelo?
Hacerla
Hacerla Serie
estacionaria
estacionaria Transformada Zt Pronosticar
µt = E(Yt ) (1.1)
Obsérvese que la función anterior podría entonces tomar diversos valores
a lo largo del tiempo. En algunos casos podrá ser constante y se dirá entonces
que la serie de tiempo no muestra tendencia.
Autocov(Yt , Yt−k )
Autocorr(Yt , Yt−k ) = p (1.4)
Var(Yt )Var(Yt−k )
Como puede verse, ambas funciones dependen tanto de la posición en
el tiempo t, como de la magnitud del intervalo que separa a la pareja de
variables, es decir, k. Como la función de autocorrelación se utilizará muy
a menudo a lo largo de este texto, su nombre será sustituido por las siglas
ACF, provenientes de su equivalente en inglés: AutoCorrelation Function.
Por su parte, la función de autocorrelación parcial mide la contribu-
ción al modelo de cada nueva variable endógena (variable histórica) que se
agrega al modelo de pronóstico. Esta función se abreviará como PACF (por
su equivalencia en inglés: Partial AutoCorrelation Function). En el Capítulo
2 se explicará la forma de obtenerla.
1.8 Detección de la periodicidad 13
1.50
Longitud
1.00
0.50
Amplitud
Fase
0.00
0.00 1.00 2.00 3.00 4.00 5.00 6.00 7.00
-0.50
-1.00
-1.50
x
¿Cómo variar las propiedades de la función seno para hacerla más gener-
al? Si se desea obtener una función cuya amplitud tenga un valor de A, la
ecuación correspondiente sería:
f (x) = A sen(x)
Así, en la Figura 1.8 se observa la función seno anterior junto con una
nueva función seno cuya amplitud es de A = 2.
2.50
2.00
1.50
1.00
0.50
A=1
0.00
0.00 1.00 2.00 3.00 4.00 5.00 6.00 7.00 A=2
-0.50
-1.00
-1.50
-2.00
-2.50
x
Modificar la fase es muy sencillo, basta con sumar (o restar) una constante
al argumento de la función, de la siguiente forma:
f (x) = A sen(x + φ)
Por ejemplo, en la Figura 1.9 se observa la función seno original junto con
la nueva función f (x) = sen(x − 1); al modificar la fase la función seno sufre
un desplazamiento horizontal.
Ahora, para manipular la longitud —y por lo tanto la frecuencia— de la
función, puede considerarse que la función seno pasa por un conjunto de N
puntos discretos equidistantes, de tal manera que, si la longitud es 2π como
1.8 Detección de la periodicidad 15
1.50
1.00
0.50
phi=0
0.00
0.00 1.00 2.00 3.00 4.00 5.00 6.00 7.00 phi=-1
-0.50
-1.00
-1.50
x
2.50
2.00
1.50
1.00
0.50
f(t)
0.00
0 2 4 6 8 10 12 14 16 18
-0.50
-1.00
-1.50
-2.00
-2.50
t
f1 = 1/N
f2 = 2/N
f3 = 3/N
..
.
f[N/2] = 1/2
Donde:
N/2 si N es par
[N/2] =
(N − 1)/2 si N es impar
Estas frecuencias corresponden a las longitudes recíprocas que pueden
enlistarse como sigue:
L1 = N
L2 = N/2
L3 = N/3
..
.
L[N/2] = 2
Obsérvese que la máxima longitud posible consiste en una función seno
que toma todos los puntos para concluir un solo período, mientras que la
mínima longitud consiste en que se complete todo un período cada dos puntos.
1.8 Detección de la periodicidad 17
Así, la combinación lineal de [N/2] funciones seno que pasan por los N
puntos de la serie de tiempo puede expresarse de acuerdo con la ecuación 1.5
de la función seno generalizada:
[N/2]
X 2πkt
Yt = Ak sen + φk (1.5)
N
k=0
αk = Ak sen φk (1.6)
βk = Ak cos φk (1.7)
Y se sustituyen en la ecuación anterior, se obtiene lo siguiente:
[N/2]
X 2πkt 2πkt
Yt = αk cos + βk sen (1.8)
N N
k=0
Ejemplo 1: Serie de tiempo con longitud 16. Supongamos que se tiene una
serie de tiempo sumamente sencilla, con 16 valores cuya gráfica se presenta
en la Figura 1.11 y que se obtienen evaluando la función Yt = sen 2πkt
N para
k = 1, 2, . . . , 16.
1.50
1.00
0.50
0.00
Yt
0 2 4 6 8 10 12 14 16 18
-0.50
-1.00
-1.50
t
Para estos datos es posible calcular los coeficientes de Fourier, tal como
se muestra en el Cuadro 1.1.
k ak bk
0 0.0 -
1 0.0 1.0
2 0.0 0.0
3 0.0 0.0
4 0.0 0.0
5 0.0 0.0
6 0.0 0.0
7 0.0 0.0
8 0.0 0.0
Cuadro 1.1. Coeficientes de Fourier del Ejemplo 1
t Yt t Yt
1 0 9 0
2 1 10 1
3 0 11 0
4 1 12 1
5 0 13 0
6 1 14 1
7 0 15 0
8 1 16 1
Cuadro 1.2. Datos del Ejemplo 2
1.20
1.00
0.80
0.60
Yt
0.40
0.20
0.00
0 2 4 6 8 10 12 14 16 18
t
k ak bk
0 0.5 -
1 0.0 0.0
2 0.0 0.0
3 0.0 0.0
4 0.0 0.0
5 0.0 0.0
6 0.0 0.0
7 0.0 0.0
8 0.5 0.0
Cuadro 1.3. Coeficientes de Fourier Ejemplo 2
t Yt t Yt
1 1.00 11 0.38
2 0.60 12 0.45
3 0.18 13 0.17
4 0.41 14 0.59
5 0.06 15 0.23
6 0.01 16 0.67
7 0.67 17 0.76
8 0.44 18 0.99
9 0.71 19 0.95
10 0.58 20 0.43
k ak bk
0 0.51 -
1 0.14 -0.11
2 0.20 -0.14
3 -0.03 0.06
4 -0.07 -0.02
5 -0.04 0.03
6 -0.03 0.09
7 -0.12 0.03
8 -0.12 -0.10
9 -0.03 0.09
10 0.00 0.00
1.20
1.00
0.80
0.60
Yt
0.40
0.20
0.00
0 5 10 15 20
t
A0 = a0 (1.10)
Las amplitudes correspondientes a cada frecuencia serán:
p
Ak = a2k + b2k para k = 1, 2, . . . , [N/2] (1.11)
Y las fases se obtienen como:
φk = arctan abkk para k = 1, 2, . . . , [N/2] (1.12)
Ejemplo 1: Serie de tiempo con longitud 16. Con los datos ya expuestos y
los coeficientes de Fourier, es posible obtener los valores de las amplitudes y
fases que se muestran en el Cuadro 1.6.
k Ak φk
0 0.0 -
1 1.0 1.57
2 0.0 -
3 0.0 -
4 0.0 -
5 0.0 -
6 0.0 -
7 0.0 -
8 0.0 -
Cuadro 1.6. Amplitudes y fases del Ejemplo 1
Ejemplo 2: Serie de tiempo con longitud 2. Con los datos ya expuestos y los
coeficientes de Fourier, es posible obtener los valores de las amplitudes y fases
del Cuadro 1.7:
Con las amplitudes y fases es posible entonces graficar el espectro lineal
correspondiente, como se muestra en la Figura 1.15. En ella es posible apreciar
1.8 Detección de la periodicidad 23
1.20
1.00
0.80
Amplitudes Ak
0.60
0.40
0.20
0.00
0.00 0.06 0.13 0.19 0.25 0.31 0.38 0.44 0.50
-0.20
Frecuencias armónicas k/N
k Ak φk
0 0.5 -
1 0.0 -
2 0.0 -
3 0.0 -
4 0.0 -
5 0.0 -
6 0.0 -
7 0.0 -
8 0.5 0.0
Cuadro 1.7. Amplitudes y fases del Ejemplo 2
que las dos frecuencias cuya amplitud es distinta de cero son las correspon-
dientes al término constante y la armónica f8 = 8/16, la cual corresponde
a una longitud de 2. De esta forma comprobamos que, a través de los coefi-
cientes de Fourier, se recuperan las características de la función seno original.
Ejemplo 3: Serie de tiempo aleatoria. Con los datos ya expuestos y los coe-
ficientes de Fourier, es posible obtener los valores de las amplitudes y fases
que se muestran en el Cuadro :
Estos valores generan el espectro lineal que se muestra en la Figura 1.16.
En ella es posible apreciar que sobresalen prácticamente todas las amplitudes
y ninguna de ellas domina. Esto significa que la serie carece de periodicidad,
lo cual es lógico considerando que procede de datos completamente aleatorios.
24 1 Conceptos fundamentales
0.60
0.50
0.40
Amplitudes Ak
0.30
0.20
0.10
0.00
0.00 0.06 0.13 0.19 0.25 0.31 0.38 0.44 0.50
Frecuencias armónicas k/N
k Ak φk
0 0.52 -
1 0.21 -0.18
2 0.07 -0.72
3 0.19 0.94
4 0.17 -0.41
5 0.05 0.05
6 0.09 -0.34
7 0.14 -0.87
8 0.13 1.38
9 0.07 -0.50
10 0.02 -1.57
Cuadro 1.8. Amplitudes y fases del Ejemplo 3
1.8.5. Periodograma
0.4
0.35
0.3
0.25
Amplitudes Ak
0.2
0.15
0.1
0.05
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
Frecuencias armónicas k/N
Periodograma I(ωk)
5
0
0.00 0.06 0.13 0.19 0.25 0.31 0.38 0.44 0.50
Frecuencias armónicas ωk
4.5
3.5
3
Periodograma I(ωk)
2.5
1.5
0.5
0
0.00 0.06 0.13 0.19 0.25 0.31 0.38 0.44 0.50
Frecuencias armónicas ωk
2.5
Periodograma I(ωk)
1.5
0.5
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
Frecuencias armónicas ωk
γk = Cov(Yt , Yt+k )
= E Yt − Ȳ Yt+k − Ȳ (1.17)
ρk = Corr(Yt , Yt+k )
Cov(Yt , Yt+k )
= p
Var(Yt )Var(Yt+k )
γk
= (1.19)
γ0
Donde el valor de ρk debe ser tal que −1 ≤ ρk ≤ 1, porque tanto la matriz
de autocorrelación como la de autocovarianzas son definidas positivas.
Finalmente, el estimador de la función de autocorrelación en este caso
será:
γˆk
rk = ρˆk = (1.20)
γˆ0
2 Modelos estacionarios
2.1. Estacionaridad
2.1.1. Dos conceptos
Así, para una serie de tiempo estacionaria, este valor sólo depende de k,
en el caso de series estacionarias, es decir, la relación entre dos variables
sólo depende del intervalo que las separa y no de su posición en el tiempo
t. Por lo tanto, la función de autocorrelación se estima como:
γ̂k
rk = ρ̂k = (2.8)
γ̂0
Obsérvese que, si la posición en el tiempo t no es relevante, las auto-
correlaciones serán simétricas, puesto que las variables Yt y Yt−k están
separadas por un intervalo de longitud k, de la misma forma que lo están
Yt y Yt+k . Por lo tanto:
ρk = ρ−k (2.9)
Por lo anterior, únicamente se considerarán las autocorrelaciones positi-
vas. La gráfica de las autocorrelaciones estimadas rk contra los valores de
k suele llamarse correlograma. Esta gráfica permite detectar aquellas
autocorrelaciones que destacan sobre las otras. También actuará como
un refuerzo para identificar posible periodicidad (variación estacional o
ciclo), puesto que en ese caso destacarán las autocorrelaciones para los
períodos iguales a la longitud. Por ejemplo, si destacan las autocorrela-
ciones en k = 12 y los datos son mensuales, se puede concluir que existe
variación estacional. Esto se complementará con la información que ar-
rojen el periodograma y el periodograma integrado.
Por supuesto, si bien todo proceso estocástico en sentido estricto lo será
también en sentido amplio, el inverso no es necesariamente cierto.
2.2. Matrices
2.2.1. Matriz de varianzas y autocovarianzas
Cabe señalar que esta matriz es definida positiva, puesto que el producto
matricial para cualquier vector renglón x de 1 × N :
1 ρ2
ρ2 1 > 0
Por lo tanto:
1 − ρ2k > 0
−1 < ρk < 1 (2.12)
2.3. Ejemplos
2.3.1. Ejemplo de datos estacionarios
Yt = et + Π1 et−1 (2.15)
et = Yt − Π1 et−1
Yt = et + Π1 (Yt−1 − Π1 et−2 )
Yt = Π1 Yt−1 + et − Π12 et−2
Yt = Ψ1 Yt−1 + et (2.18)
2. Es lógico pensar que a medida que las variables se alejan en el tiempo sus
coeficientes, es decir, sus ponderaciones, vayan disminuyendo y tendiendo
a cero. Es decir, que los valores más lejanos en el tiempo tengan menos
influencia en el modelo.
3. Bajo ciertas condiciones, puede demostrarse que el modelo lineal general
puede cambiarse a la forma invertida y viceversa.
4. Puede notarse que un modelo finito de la forma lineal general se trans-
forma en un modelo infinito de forma invertida y viceversa. Se preferirá
siempre aquel modelo que tenga menos variables.
ρ1 = φ1 ρ0
ρ1 = ρ11 (1)
⇒ ρ11 = ρ1 (2.21)
ρ1 = φ1 ρ0 + φ2 ρ1
ρ2 = φ1 ρ1 + φ2 ρ0
(2.22)
Entonces:
ρ1 = φ1 + φ2 ρ1
ρ2 = φ1 ρ1 + φ2
(2.23)
De donde:
1
ρ1
ρ1 ρ2
ρ22 = (2.24)
1 ρ1
ρ1 1
Y así sucesivamente. Posteriormente la PACF se estimará como ρ̂kk = rkk a
través de los estimadores rk .
La gráfica de cada autocorrelación muestral rkk contra los valores corres-
pondientes de k para k = 1, 2, 3, . . . recibe el nombre de función de au-
tocorrelación parcial y se abrevia como PACF (Partial AutoCorrelation
Function).
Yt = φ1 Yt−1 + et (2.26)
44 2 Modelos estacionarios
µ = φ1 µ
(1 − φ1 ) µ = 0
0
µ=
1 − φ1
µ=0 (2.28)
γ0 = φ21 γ0 + σ 2
1 − φ1 γ0 = σ 2
2
σ2
γ0 = (2.29)
1 − φ21
(2.30)
2.6 Modelos autorregresivos AR 45
Puesto que la varianza debe ser positiva, será constante siempre y cuando
se cumpla que:
1 − φ21 > 0
φ21 < 1
|φ1 | < 1 (2.31)
Así, de acuerdo con la ecuación 2.31 el modelo AR(1) tiene una condi-
ción de estacionaridad que incluye la condición que se había planteado
anteriormente para la media constante.
3. La función de autocorrelación ACF debe depender únicamente del inter-
valo k entre dos variables y no de su posición en el tiempo t. Si se revisa
cada una de las auctocovarianzas considerando que la media es cero, se
tendrá para k = 1:
γ1 = Autocov(Yt , Yt−1 )
= E [(φ1 Yt−1 + et ) Yt−1 ]
2
= φ1 E Yt−1 + E [et Yt−1 ]
= φ1 γ0 (2.32)
Para k = 2:
γ2 = Autocov(Yt , Yt−2 )
= E [(φ1 Yt−1 + et ) Yt−2 ]
= φ1 E [Yt−1 Yt−2 ] + E [et Yt−2 ]
= φ1 γ1
= φ21 γ0 (2.33)
Para k = 3:
γ3 = Autocov(Yt , Yt−3 )
= E [(φ1 Yt−1 + et ) Yt−3 ]
= φ1 E [Yt−1 Yt−3 ] + E [et Yt−3 ]
= φ1 γ2
= φ31 γ0 (2.34)
γk = Autocov(Yt , Yt−k )
= E [(φ1 Yt−1 + et ) Yt−k ]
= φ1 E [Yt−1 Yt−k ] + E [et Yt−k ]
= φ1 γk−1
= φk1 γ0 (2.35)
46 2 Modelos estacionarios
Debe cumplir las siguientes condiciones en sus parámetros para ser esta-
cionario:
φ1 + φ2 < 1
φ2 − φ1 < 1
|φ2 | < 1 (2.38)
E(Yt ) = µ = 0 (2.39)
ρ1 = φ1 ρ0 + φ2 ρ1
= φ1 + φ2 ρ1
→ (1 − φ2 )ρ1 = φ1
φ1
ρ1 = (2.42)
1 − φ2
Para k = 2:
ρ2 = φ1 ρ1 + φ2 ρ0
= φ1 ρ1 + φ2
φ21
= + φ2 (2.43)
1 − φ2
(2.44)
2.7 Modelos de medias móviles MA 49
Yt = et − θ1 et−1 (2.47)
γ1 = Autocov(Yt , Yt−1 )
= E [(et − θ1 et−1 ) (et−1 − θ1 et−2 )]
= −θ1 E e2t−1
= −θ1 σ 2 (2.51)
Para k = 2:
γ2 = Autocov(Yt , Yt−2 )
= E [(et − θ1 et−1 ) (et−2 − θ1 et−3 )]
=0 (2.52)
Para k = 3, 4, 5, . . .:
γk = 0 (2.53)
Yt = et − θ1 et−1
et = Yt + θ1 et−1
et−1 = Yt−1 + θ1 et−2
⇒ Yt = et − θ1 (Yt−1 + θ1 et−2 )
= et − θ1 Yt−1 − θ12 et−2
= et − θ1 Yt−1 − θ12 Yt−2 − θ13 Yt−3 + . . . (2.55)
Por lo tanto, para que la ecuación anterior tenga sentido, se requiere im-
poner ahora una condición de invertibilidad la cual implica que |θ1 | < 1.
Asimismo, de la ecuación 2.55 se desprenden los valores de la PACF que
representan las contribuciones parciales de cada Yt−k . Así pues tanto la grá-
fica de la ACF como la de la PACF tendrán dos formas posibles, mismas
que se ejemplifican en la Figuras 2.14 y 2.15. Como puede verse, la ACF de
un modelo MA(1) se trunca en k = 1 mientras que su PACF es decreciente
infinita.
2. Función de varianza:
3. Función de autocorrelación:
γk
ρk =
γ
0 −θ (1−θ )
1 2
1+θ12 +θ22 k = 1
= 1+θ−θ2 +θ
2
2 k=2 (2.58)
1 2
0 k>2
θ1 + θ2 < 1
θ2 − θ1 < 1
|θ2 | < 1 (2.59)
Además, es sencillo verificar que tanto su ACF como su PACF serán decre-
cientes infinitas.
2. Función de varianza:
3. Función de autocorrelación:
1
k=0
(φ1 −θ1 )(1−φ1 θ1 )
ρk = 1+θ 2 −2φ1 θ1
k=1
φ ρ 1
k ≥2
1 k−1
Yt = φ1 BYt + et
Lo cual permite reorganizar la ecuación como:
(1 − φ1 B)Yt = et
(1 − φ1 B − φ2 B 2 − . . . − φp B p )Yt = (1 − θ1 B − θ2 B 2 − . . . − θq B q )et
φ(B) = 1 − φ1 B − φ2 B 2 − . . . − φp B p (2.62)
θ(B) = 1 − θ1 B − θ2 B 2 − . . . − θq B q (2.63)
Entonces los modelos generales ARMA(p, q) pueden escribirse como:
3.1. Introducción
∆2 Zt = ∆Zt − ∆Zt−1
= (Zt − Zt−1 ) − (Zt−1 − Zt−2 )
= Zt − 2Zt−1 + Zt−2 (3.3)
Zt = et Ruido blanco
∆Zt = Zt − Zt−1 = et − et−1 ARMA(0,1)
Yt = Zt + Yt−1
= Zt + Zt−1 + Yt−2
..
.
= Zt + Zt−1 + Zt−1 + · · · (3.5)
∆s Zt = Zt − Zt−s (3.6)
∆2s Zt = ∆s Zt − ∆s Zt−s
= (Zt − Zt−s ) − (Zt−s − Zt−2s )
= Zt − 2Zt−s + Zt−2s (3.7)
Zt = et Ruido blanco
∆s Zt = Zt − Zt−s = et − et−s Modelo con variación estacional
64 3 Modelos no estacionarios
Puede verificarse con facilidad que las ecuaciones 3.9 y 3.10 son algebraica-
mente equivalentes.
No debe olvidarse que habrá que probar también, como se verá más ade-
lante, el modelado de la variación estacional.
Dentro de Statgraphics, es necesario indicar que una serie de tiempo podría
tener variación estacional para que se activen las opciones correspondientes a
ella. Esto se hace al seleccionar los datos, en la ventana de diálogo Descriptive
Options, como se ve en la Figura 3.4.
Si has seleccionado los datos y no señalaste la variación estacional, no
te preocupes, puedes hacerlo en cualquier momento a través del botón Input
Dialog: .
4.1. Introducción
Zd+sD+1 , Zd+sD+2 , . . . , ZN −1
N +h − (mh +
E[C(eN (h))] = E[c(Z d))2 ]
2 2
= c E(ZN +h − mh ) − 2dE(Z
N +h − mh ) + d
= c E(ZN +h − mh )2 + d2
EZt = µ
Zt − µ = φ1 (Zt−1 − µ) + et
Zt = (1 − φ1 )µ + φ1 Zt−1 + et
ZN (h) = EZN +h = (1 − φ1 )µ + φ1 ZN (h − 1)
ZN (2) = (1 − φ1 )µ + φ1 ((1 − φ1 )µ + φ1 ZN )
= (1 − φ1 )(1 + φ1 )µ + φ21 ZN
4.4 Límite de los pronósticos 71
EZt = µ
êN = ZN − µ + θ1 êN −1
ZN (2) = µ
ZN (3) = µ
..
.
ZN (h) = µ
5.1. Introducción
5.2. Identificación
El procecimiento para identificar el modelo adecuado para una serie de
tiempo real consiste en contar con una especie de “catálogo” de modelos y sus
caractarísticas esenciales, para compararlos con esas mismas características,
pero de los datos reales.
Los elementos básicos para la identificación son:
La función de autocorrelación (ACF)
La función de autocorrelación parcial (PACF)
El periodograma
El periodograma integrado
Puesto que ya se ha revisado la interpretación del periodograma y perio-
dograma integrado, se analizará la interpretación de ACF y PACF.
ˆ k ) = s2 ≈ 1 1 + 2(r2 + r2 + . . . + r2 ) ∀k > q
Var(r rk 1 2 q (5.3)
N
Ahora, el estadístico formulado en la ecuación 5.1 sigue entonces una dis-
tribución t-de-Student, con tantos grados de libertad como datos disponibles,
para un nivel de confianza de (1 − α)100 %. Puesto que la metodología de
Box-Jenkins requiere de contar por lo menos con 80 datos, para que sea posi-
ble detectar tendencia y variación estacional, así como hacer diferencias sin
reducir demasiado el tamaño de muestra, puede considerarse que el valor en
tablas de la t-de-Student, para α = 0.05 es 1.96 o, aproximadamente, 2.
Por ello, puede establecerse como regla de decisión la siguiente:
1. Aceptar H0 si |trk | < 2, es decir, considerar que ρk es estadísticamente
insignificante.
2. Rechazar H0 en caso contrario, es decir, considerar que ρk es significativo.
Resulta conveniente contar con una herramienta visual para efectuar este
análisis de manera rápida. Puede utilizarse la prueba de hipótesis para con-
struir un intervalo de confianza que se agrega a la gráfica de la ACF, con el
objeto de identificar rápidamente cuáles valores sobresalen de dicho intervalo
que se construye como:
ˆ kk ) = s2 ≈ 1 ∀k > p
Var(r (5.8)
rkk
N
Ahora, el estadistico formulado en la ecuación 5.1 sigue entonces una dis-
tribución t-de-Student, con tantos grados de libertad como datos disponibles,
para un nivel de confianza de (1 − α)100 %. Puesto que la metodología de
Box-Jenkins requiere de contar por lo menos con 80 datos, para que sea posi-
ble detectar tendencia y variación estacional, así como hacer diferencias sin
reducir demasiado el tamaño de muestra, puede considerarse que el valor en
tablas de la t-de-Student, para α = 0.05 es 1.96 o, aproximadamente, 2.
Por ello, puede establecerse como regla de decisión la siguiente:
5.3 Estimación 77
5.3. Estimación
En esta sección se discute el proceso por medio del cual se estiman los
parámetros de un modelo ARIMA(p,d,q). Para la estimación puede usarse
el método de los momentos, máxima verosimilitud o mínimos cuadrados. De
acuerdo con William S. Wei [39], lo más recomendable es utilizar máxima
verosimilitud que resultará equivalente a mínimos cuadrados. Sin embargo,
como se obtendrá un sistema de ecuaciones no lineales, será necesario echar
mano de otras herramientas matemáticas para linealizar.
Así, los vectores que minimizan la ecuación 5.12 pueden denotarse como:
h i
φ̂ = φ̂1 , . . . , φ̂p
h i
θ̂ = θ̂1 , . . . , θ̂p
F Zt = Zt+1 (5.16)
80 5 Metodología de Box-Jenkins
φ(B)Zt = δ0 + et (5.19)
Sin embargo, la ecuación 5.25 puede linearse a trávés de una rutina it-
erativa, utilizando los dos primeros términos de una serie de Taylor [10].
La linealización se hará alrededor de algún valor inicial de cada uno de los
elementos de los vectores φ y θ. Hecho esto, se efectúa la regresión con
la ecuación linealizada, con lo cual se obtienen los estimadores de mínimos
cuadrados para φ y θ, mismos que se utilizarán como punto de partida para
una nueva linealización, y así sucesivamente, hasta que ocurra la convergencia
o se concluya un número de iteraciones preestablecido.
Para observar este proceso iterativo con más detalle, conviene generar un
nuevo vector β con contendrá los p + q + 1 parámetros que van a estimarse,
es decir: [δ0 , φ, θ]. Así pues, el objetivo será elegir los valores del vector β
que minimicen:
N −d−sD
X N −d−sD
X
2 2
S(β) = [et /Z, β] = [et ] (5.26)
t=1 t=1
El lado izquierdo de la ecuación anterior puede verse como una variable de-
pendiente compuesta, que tendrá diferentes valores para t = 1, 2, . . . , N −
d − sD. Obsérvese que [et,0 ] es el valor del residual correspondiente al tiempo
t, dado el vector inicial β0 . Del lado derecho de la ecuacion hay p + q + 1
variables independientes, multiplicadas por el mismo número de parámetros
desconocidos βi , así como un error aditivo.
Puesto que se tiene ya un modelo de regresión lineal múltiple, los pará-
metros βi pueden estimarse con la ecuación 5.22, en la cual:
Pp+q+1
[eN −d−sD+1,0 ] + i=1 βi,0 xi,N −d−sD+1
[eN −d−sD+2,0 ] + p+q+1 βi,0 xi,N −d−sD+2
P
i=1
Y = (5.32)
..
.
Pp+q+1
[eN,0 ] + i=1 βi,0 xi,N
x1,N −d−sD+1 x2,N −d−sD+1 . . . xp+q+1,N −d−sD+1
x1,N −d−sD+2 x2,N −d−sD+2 . . . xp+q+1,N −d−sD+2
X= (5.33)
.. .. .. ..
. . . .
x1,N x2,N ... xp+q+1,N
5.3 Estimación 83
β1
β2
β= (5.34)
..
.
βp+q+1
Se realiza entonces la regresión ordinaria por mínimos cuadrados para
producir un nuevo estimador de β, al cual se llamará β1 . En seguida, uti-
lizando una nueva expansión de Taylor para et alrededor de β1 , se obtiene
una nueva versión de la ecuación de regresión, cuyos parámetros se estiman
nuevamente por mínimos cuadrados ordinarios, generando el nuevo vector β2 .
Este proceso se repite hasta que se satisfaga la primera de tres condiciones:
1. Criterio 1: En inglés stopping criterion 1. El vector de parámetros esti-
mados prácticamente no varía de una estimación a la siguiente, es decir,
para la k-ésima iteración se cumple que:
(1 − φ1 B)Zt = (1 − θ1 B)et
1 − φ1 B
et = Zt (5.37)
1 − θ1 B
La ecuación anterior es no lineal con respecto a θ1 , pero puede aproxi-
marse a través de la expansión en serie de Taylor, utilizando los dos primeros
términos. Esto implica calcular las primeras derivadas de et con respecto a
φ1 y θ1 , evaluadas en los valores iniciales correspondientes φ1,0 y θ1,0 :
∂et
x1,t =−
∂φ1 φ1,0
θ1,0
B
= Zt (5.38)
1 − θ1,0 B
∂et
x2,t = −
∂θ1 φ1,0
θ1,0
B − φ1,0 B 2
= Zt (5.39)
(1 − θ1,0 B)2
x1,1 = 0
x1,2 = Z1
x1,3 = θ1,0 Z1 + Z2
..
.
x2,1 = 0
x2,2 = Z1
x2,3 = 2θ1,0 x2,2 − Z2 + φ1,0 Z1
..
.
Con los valores iniciales φ1,0 y θ1,0 se calculan los residuales et,0 , con lo cual
puede formularse ya el modelo de regresión lineal como:
5.4. Diagnóstico
Si Dios hubiera esperado a tener todo perfecto, no estaríamos aquí.
J. A. Cronin
estadístico t es mayor que dos (-3.38) y su P-value es menor que 0.05 (0.0012).
En cambio, la media tiene un estadístico t de -1.44 y un P-value de 0.1529,
que indican que es estadísticamente insignificante, por lo cual debe eliminarse
la constante del modelo para re-estimar los parámetros. En la parte inferior
de la tabla se muestran tanto la varianza como el error estándar estimados de
los residuales, cuyos 72 grados de libertad (degrees of freedom) corresponden
al total de datos originales (86), menos los correspondientes a una diferencia
estacional (12), menos 2 parámetros estimados (δ0 y θ1 ).
Para modificar el modelo en Statgraphics se usa el clic derecho del ratón
sobre la ventana de resultados y se elige Analysis Options. En este caso debe
eliminarse la marca de la ventana Constant, como se ve en la Figura 5.2. La
at = (1 − λB)et (5.45)
Zt = (1 − θ1 B)(1 − λB)et
Zt = (1 − (θ1 + λ)B + θ1 λB 2 )et (5.46)
(1 − λB)at = et
at = (1 − λB)−1 et (5.48)
(1 − φ1 B)Zt = (1 − λB)−1 et
(1 − λB)(1 − φ1 B)Zt = et
(1 − (λ + φ1 )B + λφ1 B)Zt = et (5.49)
Una vez que se han formulado todos los modelos que parezcan factibles
para el conjunto de datos, es conveniente compararlos en un cuadro que per-
mita tener una mirada global a las características de todos ellos. El software
Statgraphics ofrece esta opción a través de ir identificando cada modelo con
letras (de la “A” a la “E”, es decir, pueden compararse hasta cinco modelos
5.5 Pronóstico 93
5.5. Pronóstico
Una vez que se haya elegido el mejor modelo, podrán efectuarse los pronós-
ticos de manera muy sencilla. El paquete Statgraphics, por ejemplo, genera
estos valores con la opción Forecast table y las gráficas correspondientes con
Time Series Plot y Forecast Plot. Todas ellas pueden guardarse o copiarse
y pegarse en otro software. Los pronósticos incluyen el valor puntual y el
intervalo de confianza para el valor de α que defina el analista.
Si bien el software se encarga de deshacer las diferencias ordinarias y
estacionales, habrá que revisar si ocurre lo mismo con las transformaciones.
Statgraphics y SAS, por ejemplo, realizan la transformación inversa de forma
automática.
94 5 Metodología de Box-Jenkins
ción del período de estimación de los cinco modelos anteriores. Mientras que
6.1. Introducción
Como ya se ha visto, es común que muchas series de tiempo como aquellas
relacionadas con aspectos turísticos, de salud o económicos, tengan algún tipo
de variación estacional. Se ha dicho que esta variación puede intentar elim-
inarse a través de diferencias estacionales. Sin embargo, también es posible
modelarla a través de la inclusión de variables apropiadas en los modelos.
Para este fin, existen dos grandes tipos de modelos:
Modelos exlcusivamente estacionales, es decir, aquellos que únicamente re-
flejan un comportamiento periódico.
Modelos multiplicativos, esto es, son modelos que involucran tanto la parte
ordinaria que ya se ha revisado como la parte estacional.
A continuación se explican y ejemplifican ambos casos.
Obsérvese que ahora se utilizan tanto las letras griegas como la letra “Q” en
mayúscula, para diferenciar de los modelos ordinarios.
Resulta sencillo demostrar que este modelo tiene condiciones de invertibil-
idad pero no de estacionaridad. Por ejemplo, es bastante sencillo demostrar
que para el modelo SMA(1) debe cumplirse que |Θ1 | < 1.
Asimismo, la ACF de los modelos SMA(Q) se trunca en k = Q, pero sólo
con valores significativos en múltiplos de s. En particular, la ACF del modelo
SMA(1) será:
ρ1 = 0
ρ2 =
Θ1
ρs = − (6.7)
1 + Θ12
ρs+1 = 0
..
.
ρ2s = 0 (6.8)
ρ2s+1 = 0
..
.
ρ11 = 0
ρ22 = 0
..
.
ρss = −Θ1 (6.9)
ρs+1,s+1 = 0
..
.
ρ2s,2s = −Θ12 (6.10)
ρ2s+1,2s+1 = 0
..
.
ρ3s,3s = −Θ13 (6.11)
ρ2s+1,2s+1 = 0
..
.
En la Figura 6.2 se muestran la ACF y PACF de un modelo SMA(1)
simulado con s = 4.
Donde:
Φ(B s ) = 1 − Φ1 B s − Φ2 B 2s − . . . − ΦP B P s (6.15)
s s 2s Qs
Θ(B ) = 1 − Θ1 B − Θ2 B − . . . − ΘQ B (6.16)
¿Cómo serán ACF y PACF de los modelos SARIMA? Como puede es-
perarse, ambas serán decrecientes infinitas pero únicamente tendrán valores
significativos en múltiplos de s. Por otro lado, los parámetros tendrán tanto
condiciones de estacionaridad como de invertibilidad.
En la Figura 6.3 se muestran la ACF y PACF de un modelo SARMA(1,1)
simulado con s = 4.
Zt = Φ1 Zt−4 + at (6.18)
4
(1 − Φ1 B )Zt = at (6.19)
at = φ1 at−1 + et (6.20)
(1 − φ1 B)at = et
at = (1 − φ1 B)−1 et (6.21)
(1 − Φ1 B 4 − φ1 B + Φ1 φ1 B 5 )Zt = et
Zt = φ1 Zt−1 + Φ1 Zt−4
−Φ1 φ1 Zt−5 + et (6.24)
Obsérvese ahora que la ecuación 6.24 no es otra cosa más que un modelo
AR(5) en el cual:
φ1 = φ1
φ2 =0
φ3 =0
φ4 = Φ1
φ5 = Φ1 φ1
Así pues, el modelo ARMA(1,0,0)(1,0,0)4 o simplemente AR(1) × SAR(1),
equivale a un modelo AR(5). Sin embargo, es preferible el primer modelo de
acuerdo con el principio de parsimonia, puesto que sólo tiene dos parámetros,
mientras que el segundo tiene 5.
De aquí se concluye también que la ACF de este modelo será decreciente
infinita, mientras que su PACF se truncará en k = 5, con valores que destacan
en 1, 4 y 5. También puede comprenderse ahora por qué en algunos casos ex-
isten parámetros intermedios no significativos, como se comentó en la sección
del diagnóstico de modelos.
En la Figura 6.4 se muestran la ACF y PACF de un modelo AR(1)×
SAR(1) simulado con s = 4.
Zt = at − Θ1 at−4 (6.25)
4
Zt = (1 − Θ1 B )at (6.26)
at = et − θ1 et−1 (6.27)
at = (1 − θ1 B)et (6.28)
Zt = (1 − Θ1 B 4 − θ1 B + Θ1 θ1 B 5 )et
Zt = et − θ1 et−1 − Θ1 et−4 + Θ1 θ1 et−5 (6.30)
Obsérvese ahora que la ecuación 6.30 no es otra cosa más que un modelo
MA(5) en el cual:
θ1 = θ1
θ2 =0
θ3 =0
θ4 = Θ1
θ5 = Θ1 θ1
Así pues, el modelo ARMA (0,0,1) (0,0,1)4 o simplemente MA(1) ×
SMA(1), equivale a un modelo MA(5). Sin embargo, es preferible el primer
modelo de acuerdo con el principio de parsimonia, puesto que sólo tiene dos
parámetros, mientras que el segundo tiene 5.
De aquí se concluye también que la ACF de este modelo se truncará en
k = 5, con valores que destacan en 1, 4 y 5, mientras que su PACF será
decreciente infinita. También puede comprenderse ahora por qué en algunos
casos existen parámetros intermedios no significativos, como se comentó en
la sección del diagnóstico de modelos.
En la Figura 6.5 se muestran la ACF y PACF de un modelo MA(1)×
SMA(1) simulado con s = 4.
6.4 Resumen de modelos 105
7.4. Metodología
Para efectuar este ejercicio se contó con los datos correspondientes a las
remesas familiares totales por mes, en millones de dólares, procedentes del
Banco de México [16]. Se obtuvieron las cifras de enero de 1995 a diciembre
2008, mismas que se observan en la 7.1.
7.6. Resultados
Los valores resultantes de la estimación de parámetros del modelo selec-
cionado, es decir, del modelo ARIM A(2, 1, 0) × (2, 0, 0)12 , se muestran en
el 7.1. En este mismo cuadro se verifica que todos los parámetros resultan
significativos, ya que sus estadísticos t son mayores a dos y sus valores-P son
menores que α) = 0.05. La constante se eliminó por no ser significativa.
De aquí que el modelo para los datos será, de acuerdo con estos valores:
Donde: Zt = ∆ ln(Yt ).
7.7. Pronósticos
En cuanto a los pronósticos, es notable el cambio en la tendencia. En lugar
del crecimiento sostenido anterior, el modelo muestra un patrón a la baja.
114 7 Ejemplo de aplicación
Las líneas hacia arriba y abajo del pronóstico son los límites del intervalo de
confianza, es decir, se prevé que el valor real de las remesas esté entre estos
dos valores, con un 95 por ciento de confianza. En los datos de 1995 a 2008
se observa un ajuste excelente del modelo propuesto.
Por otro lado, en la 7.8 se observan únicamente los pronósticos con sus
correspondientes intervalos de confianza del 95 por ciento. En este caso son
notables los valores altos para los meses de mayo (día de las madres) y oc-
tubre, con un valor mínimo en noviembre de cada año.
7.8. Discusión
El modelo obtenido puede considerarse apropiado, ya que sus residuales
se comportan como ruido blanco, cumple satisfactoriamente con las pruebas
estadísticas y, durante el período de validación, genera pronósticos ajusta-
7.8 Discusión 115
dos a los datos reales. Además, todos los coeficientes son estadísticamente
significativos.
Como es evidente en la Figura 5, los datos muestran heteroscedasticidad
que se estabilizó a través de la transformación logaritmo natural, así como
una tendencia dividida en tres intervalos con distinto comportamiento. Un
período de crecimiento moderado de 1995 a 2000; otro con incremento más
pronunciado de 2001 a 2005; y finalmente el período 2006 a 2008 muestra
inicialmente un comportamiento similar al período anterior, hasta el año
2007, en el cual la pendiente parece tender a cero o inclusive hacerse negativa.
De acuerdo con lo anterior, el modelo pronostica, para los años de 2009 a
2011, una pendiente negativa, con intervalos de confianza crecientes, debidos
a la heteroscedasticidad ya mencionada.
De manera consistente con los datos, este modelo predice valores altos de
las remesas para los meses de mayo y octubre. El mes de mayo se explica
porque hay un envío importante debido a los festejos del día de la Madre.
El incremento de octubre es consistente en los últimos cuatro años, pero
su origen no es claro y requiere de más investigación. Por otra parte, los
meses de noviembre y diciembre se aprecia un decremento sistemático, muy
posiblemente asociado con el hecho de que son temporadas en las que muchos
de los migrantes regresan a México a pasar las fiestas de navidad y traen con
ellos los recursos, en lugar de enviarlos por los medios tradicionales.
El pronóstico parece apoyar entonces la hipótesis de que las remesas que
ingresan a nuestro país disminuirán en cantidad, frecuencia y monto durante
los próximos años. Esto debe tomarse en cuenta ya que han sido consider-
adas como un ingreso sustancial que repercute tanto en las familias de los
migrantes (efecto microeconómico), como en el país que en años recientes se
ha sustentado de manera significativa en ellas (efecto macroeconómico). Es-
to coincide con Cortina et al. [12] quienes consideran “probable que el flujo
de remesas a México decrezca durante esta década” y que “el gobierno de
México cometería un error si supone que los flujos de remesas continuarán
creciendo”.
Ante esta situación, el propio Banco de México señala que “México es uno
de los países con mayor flujo de emigrantes del mundo” y que “esto refleja
la necesidad de llevar a cabo cambios estructurales todavía pendientes en
nuestro país, que permitan generar mayores oportunidades de trabajo pro-
ductivo y bien remunerado” [15]. Asimismo, indica que las remesas familiares
no son una fuente de ingresos sostenible a largo plazo, en virtud de que las
segundas y terceras generaciones de mexicanos se han establecido allá como
familias completas, además de que el flujo de emigrantes puede variar debido
a razones diversas como el reforzamiento de la seguridad en las fronteras y el
endurecimiento de las políticas de contratación de migrantes.
A estas preocupaciones debe agregarse la posibilidad de que muchos mi-
grantes regresen al país, para encontrar un mercado de trabajo contraído:
116 7 Ejemplo de aplicación
ACF, 12 modelo
armónicas, 18 – de medias móviles, 2
autocorrelación, 32 modelo ARMA, 3
modelo de forma invertida, 41
Box-Jenkins modelo lineal general, 40
– metodología, 9 modelos multivariados, 8
modelos univariados, 8
choques aleatorios, 2
ciclo, 5 observaciones, 4
coeficientes de Fourier, 17
componentes de una serie de tiempo, 4 periodograma, 24
predicción, véase pronóstico
decisiones, 1 principio
diferencias – mejoramiento iterativo, 9
– estacionales, 63 – parsimonia, 9
pronóstico, 2
espectro lineal, 22
estacionaridad, 31 realización, 3, 29
– en sentido amplio, 31 ruido blanco, 7
– en sentido estricto, 31
serie de Fourier, 17
filtros, 9 serie de tiempo, 3
fluctuación aleatoria, 6 – objetivos, 7
frecuencias de Fourier, 18 – – control, 8
función de autocorrelación, 12, 32 – – descripción, 7
función de autocorrelación parcial, 12 – – explicación, 8
función de autocovarianza, 12 – – pronóstico, 8
función de media, 11
función de transferencia, 8 tendencia, 4
función de varianza, 12 – eliminación de, 60
función seno generalizada, 17 transformación, 58