Modelo Lineal General 2020

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 27

Departamento Académico de Ciencias Económicas y Negocios

Internacionales
Escuela Profesional de Ciencias Económicas

ECONOMETRIA I

эконометрия – 计量经济学 – ‫االقتصاد القياسي‬


Dr. Jorge Luis Hernández Napa
INICIO : 03 Agosto 2020
TERMINO : 20 Noviembre 2020
TOTAL : 16 semanas
Resolución Rectoral N° 867-R-UNICA-2020 de 17-07-2020
Departamento Académico de Ciencias Económicas y Negocios
Internacionales
Escuela Profesional de Ciencias Económicas

ECONOMETRIA I

RESOLUCIÓN DEL CONSEJO DIRECTIVO N° 039-2020-SUNEDU-CD

LA VICTORIA FAVORECE A LOS QUE SE PREPARAN


Mark Twain
Departamento Académico de Ciencias Económicas y Negocios
Internacionales
Escuela Profesional de Ciencias Económicas

ECONOMETRIA I

RESULTADO DE APRENDIZAJE: Al finalizar la unidad el estudiante conoce la solución del Modelo


Lineal General, con más de dos variables económicas (acercándose a la realidad económica),
aplicando el método de los mínimos cuadrados, con el objetivo de realizar proyecciones y
predicciones futuras más realistas, del comportamiento de las variables. Aplica las cuentas
nacionales del BCRP y el INEI.
SEMANA 13: PLANTEAMIENTO TEÓRICO DEL MODELO. HIPÓTESIS. DEDUCCIÓN DE FÓRMULAS Y
SOLUCIÓN POR EL MMC: Y t = ƒ (X1 t , X2 t , X3 t ,...,X k t , μ t ): Mod. Poblacional: Y = X b + U. Mod. Muestral:
Y = X b + e. Mod. Estimado: Ŷ = X b

LOGROS: Al finalizar la semana el estudiante reconoce planteamiento, hipótesis y solución por MMC.
Demuestra conocimiento de solución por el MMC.

SEMANA 14: INFERENCIA APLICADA MLG. PRUEBA DE HIPÓTESIS, CONTRASTE E INTERVALOS DE


CONFIANZA. MUESTRA IGUAL A POBLACIÓN: “t” STUDENT, “F” DE FISHER SNEDECOR, χ2 CHI
CUADRADO.

LOGROS: Al finalizar la semana el estudiante conoce, deduce y aplica fórmulas para hallar estadísticos del
MLG. Demuestra aplicación de inferencia y distribuciones teóricas, con datos reales

SEMANA 15: PREDICCIÓN PUNTUAL Y POR INTERVALO, PROYECCIÓN DE VARIABLES EN EL FUTURO:


UTILIZANDO EL MLG. CONTRASTE DE ESTIMADO CON LO REALIZADO. ESTIMACIONES PARA EL
PÚBLICO

LOGROS: Al finalizar la semana el estudiante conoce, deduce fórmulas para hallar predicción puntual, y
por intervalo. Conoce contraste de estimado con realizado. Prepara estimaciones futuras para el público

SEMANA 16: EVALUACIÓN II PARCIAL DE ECONOMETRÍA:

PRUEBA ESCRITA: Con 10 preguntas de ampliación del MLS, El Modelo Lineal General, solución,
predicción, proyección. Practica calificada del trabajo de teoría de la econometría, modelos y el MLS

J.Hdez.Napa 4
CONTENIDO
EL MODELO LINEAL GENERAL (MLG):
1. Definición
2. Representación
3. Especificación de hipótesis
4. Solución del modelo
a. Hallando los parámetros en forma condensada
b. Hallando los parámetros en forma matricial
5. Tabulación de las variables del MLG
6. Propiedades de los estimadores: Variancia y desviación estándar
de los parámetros
7. Variancia y desviación estándar del modelo
8. El coeficiente de correlación del modelo
9. Inversa de la matriz (X’X)
10. Aplicación práctica: La función consumo keynesiana.
BIBLIOGRAFIA
 GUJARATI, Damodar N. : “Econometría”. Edit. McGRAW-HILL/Interamericana Editores, S.A. México 2010. Pág. 188 - 233
 ROSALES; Ramón, y BONILLA, Jorge: “Introducción a la Econometría”. Edit. CEDES. Colombia 2006. Pág. 45 – 50
 CASAS TRAGODARA, Carlos: “Econometría Moderna” Edit. Universidad del Pacífico. Perú 2000. Pág. 09 – 80
V.- EL MODELO LINEAL GENERAL (MLG)
1.- DEFINICIÓN.- Llamaremos Modelo Lineal General (MLG), a la estructura
matricial de representación, para una ecuación de regresión no bivariable. (dos
variables = bivariable). Relaciona una variable endógena (Yt), en función de muchas
variables pre determinadas (Xkt) , más una variable aleatoria (μt). Se soluciona aplican
do teoría matricial y vectorial.

2.- REPRESENTACIÓN.- Sea la relación funcional:

Y t = ƒ (X1 t , X2 t , X3 t ,.........,X k t , μ t )

Explicitada como:
Modelo Poblacional: Y t = b1 + b2 X2 t + b3 X3 t + , ......... , + b k X k t + μ t
Modelo Muestral : Y t = b1 + b2 X2 t + b3 X3 t + , ......... , + b k X k t + e t
Modelo Estimado : Ŷ t = b1 + b2 X2 t + b3 X3 t + , ......... , + b k X k t

Donde:
Y t = variable endógena μ t = variable aleatoria poblacional
X k = variables pre determinadas e t = error muestral
Ŷ t = variable endógena estimada k = número de parámetros
b k = parámetros poblacionales t = tiempo histórico
b k = parámetros muestrales
J.Hdez.Napa X1 t = 1, por intercepto 6
para cada año el modelo poblacional, se representa de la siguiente forma:
Y 1 = b1 + b2 X2 1 + b3 X3 1 + , ........... , + b k X k 1 + μ 1
Y 2 = b1 + b2 X2 2 + b3 X3 2 + , ........... , + b k X k 2 + μ 2
Y 3 = b1 + b2 X2 3 + b3 X3 3 + , ........... , + b k X k 3 + μ 3
.
.
Y n = b1 + b2 X2 n + b3 X3 n + , ........... , + b k X k n + μ n

El modelo lineal general (MLG), se representa en forma matricial y vectorial como


sigue:

Y1 1 X2 1 X3 1.......... , X k 1 b1 μ1
Y2 1 X2 2 X3 2 ........... X k 2 b2 μ2
Y3 = 1 X2 3 X3 3 ........... X k 3 b3 + μ3
. . . . .
. . . . .
Yn 1 X2 n X3 n ........... X k n bk μn

Y X bU
(nx1) (nxk) (kx1) (nx1)
J.Hdez.Napa 7
Representación en forma condensada:
Modelo Poblacional: Y = X b + U
Modelo Muestral : Y = X b + e
Modelo Estimado : Ŷ = X b

Donde:
Y = vector de variable endógena X = matriz de variables predeterminadas
b = vector de parámetros poblacionales b = vector de parámetros muestrales
U = vector de variable aleatoria poblacional e = vector de error muestral

J.Hdez.Napa 8
3.- ESPECIFICACIÓN DE HIPÓTESIS

A. HIPÓTESIS RELATIVAS A LAS VARIABLES ALEATORIAS


1. Toda perturbación aleatoria tiene media nula, por existir errores positivos y negativos, que
tienden a anularse, si se toman en promedio.

μ1 E(μ 1) 0
μ2 E(μ 2) 0
μ3 E(μ 3) 0
E . = . = . = Ǿ
. . .
μn E(μ n) 0

2. Todas las perturbaciones aleatorias tienen las mismas variancias (σμ2 ) ; o sea tienen varian-
cia finita y constante
Var (U ) = E (UU') = σ2 In
Es conocido como el postulado o hipótesis de Homocedasticidad, su abandono implica reem-
plazarlo, por la hipótesis de Heterocedasticidad (cuando la variancia es finita y variable). Se
detecta y se corrige.
3. La variable aleatoria no está autocorrelacionada, implica la independencia de los valores
sucesivos de (u t); el abandono de este supuesto da lugar a la introducción de la hipótesis de
Autocorrelación.
Cov (μ t μ j ) = E (μ t μ j ) = 0 ; ν t ≠ j
De la hipótesis 2 y 3, podemos obtener la matriz de variancia y covariancia:
J.Hdez.Napa 9
μ1 μ 12 μ 1μ 2 μ 1μ 3 . . . . μ 1μ n
μ2 μ 1μ 2 μ 22 μ 2μ 3 . . . . μ 2μ n
μ3 μ 1μ 3 μ 2μ 3 μ 32 . . . . μ 3μ n
E (UU') = E . μ1 μ 2 μ3 ....μn = E . . . .
. . . . .
μn μ 1μ n μ 2μ n μ 3μ n . . . . . μn

E(μ 12) E(μ 1μ 2 ) E(μ 1μ 3) . . . . E(μ 1μ n)


E(μ 1μ 2) E(μ 22) E(μ 2μ 3) . . . . E(μ 2μ n)
E(μ 1μ 3) E(μ 2μ 3) E(μ 32) . . . . E(μ 3μ n)
E (UU') = . . . .
. . . .
E(μ 1μ n) E(μ 2μ n) E(μ 3μ n). . . . . E(μ n2 )

Var(μ 1) Cov(μ 1μ 2 ) Cov (μ 1μ 3) . . . . Cov (μ 1μ n)


Cov(μ 1μ 2) Var(μ 2) Cov (μ 2μ 3) . . . . Cov (μ 2μ n)
Cov(μ 1μ 3) Cov (μ 2μ 3) Var(μ 3) . . . . Cov (μ 3μ n)
E (UU') = . . . .
. . . .
Cov(μ 1μ n) Cov (μ 2μ n) Cov (μ 3μ n). . . . . Var(μ n )

J.Hdez.Napa 10
σ12 0 0 . . . . 0 1 0 0 . . . 0
0 σ22 0 . . . . 0 0 1 0 . . . 0
0 0 σ32 . . . . 0 0 0 1 . . . 0
E (UU') = . . . . = σ2 . . . .
. . . . . . . .
0 0 0. . . . . σn 2 0 0 0 . . . 1

En forma simplificada:
E (UU') = σ2 In
4. La variable aleatoria μ t es independiente de todas las variables exógenas.
E (μ t X k t ) = E (μ t ) E (X k t ) = 0
Si la variable aleatoria, no es independiente de las variables exógenas, entonces
los EMC, son sesgados y no consistentes: Es decir el sesgo no se corrige, con el
aumento del tamaño de la muestra
5. La variable aleatoria μ t , se distribuye aproximadamente en forma normal con
media cero y variancia finita y constante (σu2), es decir:
1 Σ (U’U)
U ~ N ( 0, σ2 In ) → ƒ (U ) = ---- ____- e 2 σ
2

σ√2π

Que es la fórmula, de la función de densidad de una u t en el muestreo. A partir


de esta formula se pueden obtener Estimadores de Máxima Verosimilitud
(EMV).
J.Hdez.Napa 11
B. HIPÓTESIS RELATIVAS A LAS VARIABLES
6. Las variables predeterminadas Xkt no es aleatoria; o sea es una variable fija en el
muestreo
7. La variable endógena Yt , es evidentemente una variable aleatoria, cuyos pará-
metros (en virtud de la Ho. 1, 2, y 6) son:
Media: E (Y) = E (X b + U) = X b + E (U)
E (Y) = X b
Variancia: σY2 = E [ Y – E (Y ) ] 2
σY2 = E [X b + U – X b ] 2
σY2 = E [ U2 ] = E (U’U)
σY2 = σ2 In
8. La variables X t ^ Y t , se obtienen sin errores de observación, o sea no existen
errores de medida, el abandono de esta hipótesis, crea el problema de Errores
en las Variables.
X t ^ Y t = son sin errores de observación
9. La matriz d coeficientes d variables predeterminadas X, tiene rango K < N
R [X’X] = K < N; k = Rango de matriz X ; N = número de var. Predetermina
Garantiza (X’X)–1. El abandono de esta hipótesis, genera un problema en la
econometría, denominado Multicolienalidad.

C. HIPÓTESIS RELATIVAS A LOS PARAMETROS


10. Los parámetros estructurales son constantes, para todas las unidades de la
muestra. Sobre ellos no se emite a priori ninguna restricción.
J.Hdez.Napa 12
4.- SOLUCIÓN DEL MODELO.-
Modelo objetivo a solucionar y desarrollar:

Y t = b1 + b2 X2 t + b3 X3 t + , ......... , + b k X k t + e t
(Sb1Sb2) Sb3Sbk)
[t b1] [t b2[t b3] [tbk
Donde:
2
S ,S Sbk = Desviación Standard de k parám.
R2 , R  tbk =t Student de k parám.
2
F S , S = Varian. y D.S. del modelo
Dw R2 , R = Coef. correlación y det. modelo
Vn F = Prueba de Fisher- Snedecor
Dw, Vn = Prueba de Durbin- Watson, y Von Neuman

Partimos del modelo muestral, y aplicamos el Método de los Mínimos Cuadrados:


e2t = e’e = min., y las condiciones de mínimo
Del modelo muestral: Y = X b+e ; e = Y - X b
Reemplazando : e’e = (Y - X b)’ (Y - X b) = Y’Y – Y’Xb – b’X’Y + b’X’Xb
e’e = Y’Y – 2 b’X’Y + b’X’Xb
й) ∂ [e’e] / ∂ b’ = - 2 X’Y + 2 X’X b = 0 ; ж) ∂ 2 [e’e] / ∂ [b’] 2 = 2 (X’X) > 0

1). FORMA CONDENSADA DE LOS PARAMETROS

Despejando b = ( X’X ) -1 X’Y

J.Hdez.Napa 13
2) FORMA MATRICIAL DE LOS PARAMETROS

N Σ X 2t Σ X 3t . . . Σ X kt -1 Σ Yt
2
Σ X 2t Σ X2t Σ X 2tX 3t . . . Σ X 2tX kt Σ X2t Yt
Σ X 3t Σ X 2tX 3t Σ X3t2 . . . Σ X 3tX kt Σ X 3t Yt
b = ( X’X ) -1 X’Y = . . . . .
(kx1) . . . . .
2
Σ X kt Σ X 2tX kt Σ X 3t X kt . . . . Σ Xkt Σ X kt Yt

(kxk) (kx1)

1). Tratamiento matricial de las observaciones o valores reales observados (VRO):

a. Para ( X’X ) -1:

1 X 21 X 31 . . . . X k1 1 1 1 . . . . 1
1 X 22 X 32 . . . . X k2 X 21 X 22 X 23 . . . . X 2n
1 X 23 X 33 . . . . X k3 X 31 X 32 X 33 . . . . X 3n
X = . . . . X’ = . . . .
. . . . . . . .
1 X 2n X 3n . . . . X kn (nxk) X k1 X k2 X k3 . . . . X kn

J.Hdez.Napa 14
1 1 1 . . . . 1 1 X 21 X 31 . . . . X k1
X 21 X 22 X 23 . . . . X 2n 1 X 22 X 32 . . . . X k2
X 31 X 32 X 33 . . . . X 3n 1 X 23 X 33 . . . . X k3
X’ X = . . . . . . . .
(kxk) . . . . . . . .
X k1 X k2 X k3 . . . . X kn 1 X 2n X 3n . . . . X kn

(kxn) (nxk)
N Σ X 2t Σ X 3t . . . Σ X kt -1
2
Σ X 2t Σ X2t Σ X 2tX 3t . . . Σ X 2tX kt
Σ X 3t Σ X 2tX 3t Σ X3t2 . . . Σ X 3tX kt
( X’X ) -1 = . . . .
. . . .
Σ X kt Σ X 2tX kt Σ X 3t X kt . . . . Σ Xkt2 (kxk)

b. Para X’Y:

1 1 1 . . . . 1 Y1 Σ Yt
X 21 X 22 X 23 . . . . X 2n Y2 Σ X2t Yt
X 31 X 32 X 33 . . . . X 3n Y3 Σ X 3t Yt
X’Y = . . . . . = .
. . . . . .
X k1 X k2 X k3 . . . . X kn Yn Σ X kt Yt (kx1)
J.Hdez.Napa 15
5.- TABULACIÓN DE LAS VARIABLES DEL MLG.-

Pasos a seguir:
1. Se apertura columnas: para N observaciones, total de años.
2. Se apertura columnas: para la variable endógena (Yt), y k variables pre-
determinadas (Xk), se suman (Σ).
3. Se eleva al cuadrado todas las variables (endógenas y predeterminadas) y se
suman.
4. Se multiplica la variable endógena Yt, por cada una de las k variables
predeterminada, y se suman.
5. Se multiplica cada una de las variables predeterminada, por el resto de las
variables predeterminadas.
6. Se obtienen el valor estimado Ŷ t . y se suman
7. Se obtienen las desviaciones e t, la suma es igual a cero.
8. Se elevan al cuadrado las desviaciones e t2 , y se suman.

J.Hdez.Napa 16
TABULACIÓN DEL MODELO LINEAL GENERAL
(1) (2) (3) (4) (5) (6) (7) (8) (9) (10)

OBSE AÑOS Yt X2t X3t .... Xkt Yt 2 X2t 2 . . Xkt2

1 1,950
2 1,951
3 1,952
. .
. .
. .
. .
. .
. .

N 2,017

 Yt  X2t  X3t ....  Xkt  Yt 2  X2t 2  Xkt2


Sumatorias
(=)

(11) (12) (13) (14) (15) (16) (17) (18) (19) (20)
X2t Yt .... Xkt Yt X2t X3t . . X3t X4t . . .... X(k-1)t Xkt Ŷt et e t2

.
.
.
.
.
.
.
.
.
.

X2t Yt ....  Xkt Yt  X2t X3t  X3t X4t .... X(k-1)t  Ŷt  et = 0  e t2


Xkt (=)
J.Hdez.Napa 17
6.- PROPIEDADES DE LOS ESTIMADORES.-
a. La Media de los parámetros:
 Parámetro es lineal
b = [ ( X’X ) -1 X’ ] Y 
 Se muestra la media o insesgabilidad: E (b) = b
b = [ ( X’X ) -1 X’ ] (X b+U)
b = ( X’X ) -1 X’ X b+( X’X ) -1 X’ U
b = b+( X’X ) -1 X’ U (*)
E (b) = b+( X’X ) -1 X’ E (U)
E (b) = b

b. Propiedades del estimador de mínimos cuadrados ordinarios


Todo estimador tiene como requisito para lograr buenas estimaciones, el contar con una
serie de propiedades óptimas, como: lineal, insesgado, varianza mínima, consistencia,etc
Al respecto, el estimador b de MCO cuenta con dichas propiedades, en virtud de las
cuales Gauss y Markov han demostrado la gran capacidad estimativa del mismo:

c. Varianza y desviación standard de los parámetros (Sb2) :


Definición: V (b) = Sb2 = E ( b - bbb’
De (*): ( b -b = ( X’X ) -1 X’ U
Reemplazando Sb2 = E [ ( X’X ) -1 X’ U ]( X’X ) -1 X’ U ]’
Sb2 = E [ ( X’X ) -1 X’ U ]U’ X ( X’X ) -1 ]
Sb2 = ( X’X ) -1 X’ E (UU’) X ( X’X ) -1
Sb2 = σ2 In ( X’X ) -1 X’X ( X’X ) -1
Sb2 = σ2 ( X’X ) -1

o tambien
J.Hdez.Napa Sb2 = S2 ( X’X ) -1 18
7.- VARIANZA Y DESVIACIÓN ESTANDAR DEL MODELO.-
Definición: V no E e2t e’ e Y’Y – b’X’Y
S2 = --------- = -------- = ------- = -----------------
N–k N-k N–k N–k

 Yt 2 – b1  Yt – b2 Σ X2t Yt b3 Σ X3t Yt   bk Σ Xkt Yt


S2 = ------------------------------------------------------------------------------------
N–k

Sustentación:
a. e’e = (Y - X b)’ (Y - X b) = Y’Y – Y’Xb – b’X’Y + b’X’Xb
e’e = Y’Y – 2 b’X’Y + b’X’X [ b ]
e’e = Y’Y – 2 b’X’Y + b’X’X [ ( X’X ) -1 X’Y ]
e’e = Y’Y – 2 b’X’Y + b’ (X’X) ( X’X ) -1 X’Y
e’e = Y’Y – 2 b’X’Y + b’ X’Y
e’e = Y’Y – b’X’Y ( )

b. b’ X’Y:
b’ X’Y = b1  Yt + b2 Σ X2t Yt+ b3 Σ X3t Yt + + bk Σ Xkt Yt
por lo siguiente :

Σ Yt
Σ X2t Yt
Σ X3t Yt
b’ X’Y = [ b1 b2 b3 . . . . b k ] .
(1x1) (1xk) .
Σ X kt Yt

J.Hdez.Napa (kx1) 19
8.- COEFICIENTE DE CORRELACIÓN DEL MODELO.-
1). Sin corregir

VE  (Ŷ t – Ϋ ) 2  ŷ2 b’X’Y
2
R* = ------ = ------------------ = -------- = -----------
VT  ( Yt – Ϋ ) 2 y2 Y’Y

2). Corregido por el intercepto

VE  (Ŷ t – Ϋ ) 2  ŷ2 b’X’Y – 1/N (  Yt ) 2
R2 = ------ = ------------------ = -------- = -----------------------------
VT  ( Yt – Ϋ ) 2 y2 Y’Y – 1/N (  Yt ) 2

b1  Yt + b2 Σ X2t Yt+ b3 Σ X3t Yt + + bk Σ Xkt Yt – 1/N (  Yt ) 2


R2 = -----------------------------------------------------------------------------------------------
Y’Y – 1/N (  Yt ) 2

Sustentación: Relaciones a cumplirse en la solución de los modelos

Variancia Total = Variancia Explicada + Variancia no Explicada → VT = VE + V no E


 ( Yt – Ϋ ) 2 =  (Ŷ t – Ϋ ) 2 +  e t2 →  y 2 =  ŷ 2 +  e t2

) VT =  y 2 =  ( Yt – Ϋ ) 2 =  Yt 2 – 1/N (  Yt ) 2 = Y’Y – 1/N (  Yt ) 2

) VE =  ŷ 2 =  y 2 –  e t2
 ŷ 2 = Y’Y – e’ e – 1/N (  Yt ) 2
 ŷ 2 = b’X’Y – 1/N (  Yt ) 2 por ( )

3). Corregido del Intercepto y los Grados de Libertad


N–1
Ř2 = 1 – --------- ( 1 – R2 ) ↑=1 20
J.Hdez.Napa
N-K
9.- INVERSA DE LA MATRIZ (X’X).-

INVERSA DE MATRIZ
(de cualquier orden)
METODO DE GAUSS-JORDAN ADAPTADO

OPERACIONES FILAS MATRIZ (X’X) a Ik MATRIZ Ik a (X’X) –1 SUMA FILAS = SUMA VERIFICACION

J.Hdez.Napa 21
CURSO ECONOMETRIA
INVERSA DE MATRIZ (de cualquier orden)
METODO DE GAUSS-JORDAN ADAPTADO

OPERACIONES FILAS MATRIZ (X’X) a Ik MATRIZ Ik a (X’X) –1 SUMA FILAS = SUMA VERIFICACION
a α 11 α 12 α 13 α 14 1 0 0 0 ∑1
b α 21 α 22 α 23 α 24 0 1 0 0 ∑2
c α 31 α 32 α 33 α 34 0 0 1 0 ∑3
d α 41 α 42 α 43 α 44 0 0 0 1 ∑4
a ÷ α 11 e 1 β 12 β 13 β 14 a 11 0 0 0 ∑5 = ∑1 ÷ α 11
b – α 21 ( e ) f 0 β 22 β 23 β 24 a 21 1 0 0 ∑6 = ∑2 – α 21 (∑ 5)
c – α 31 ( e ) g 0 β 32 β 33 β 34 a 31 0 1 0 ∑7 = ∑3 – α 31 (∑ 5)
d – α 41 ( e ) h 0 β 42 β 43 β 44 a 41 0 0 1 ∑8 = ∑4 – α 41 (∑ 5)
e – β 12 ( j ) i 1 0 δ 13 δ 14 b 11 b 12 0 0 ∑9 = ∑5 – β 12 (∑ 10 )
f ÷ β 22 j 0 1 δ 23 δ 24 b 21 b 22 0 0 ∑ 10 = ∑6 ÷ β 22
g – β 32 ( j ) k 0 0 δ 33 δ 34 b 31 b 32 1 0 ∑ 11 = ∑7 – β 32 (∑ 10 )
h – β 42 ( j ) l 0 0 δ 43 δ 44 b 41 b 42 0 1 ∑ 12 = ∑8 – β 42 (∑ 10 )
i – δ 13 ( o ) m 1 0 0 λ 14 c 11 c 12 c 13 0 ∑ 13 = ∑9 – δ 13 (∑ 15 )
j – δ 23 ( o ) n 0 1 0 λ 24 c 21 c 22 c 23 0 ∑ 14 = ∑ 10 – δ 23 (∑ 15 )
k ÷ δ 33 o 0 0 1 λ 34 c 31 c 32 c 33 0 ∑ 15 = ∑ 11 ÷ δ 33
l – δ 43 ( o ) p 0 0 0 λ 44 c 41 c 42 c 43 1 ∑ 16 = ∑ 12 – δ 43 (∑ 15 )
m– λ 14 ( t ) q 1 0 0 0 d 11 d 12 d 13 d 14 ∑ 17 = ∑ 13 – λ 14 (∑ 20 )
n – λ 24 ( t ) r 0 1 0 0 d 21 d 22 d 23 d 24 ∑ 18 = ∑ 14 – λ 24 (∑ 20 )
o – λ 34 ( t ) s 0 0 1 0 d 31 d 32 d 33 d 34 ∑ 19 = ∑ 15 – λ 34 (∑ 20 )
p ÷ λ 44 t 0 0 0 1 d 41 d 42 d 43 d 44 ∑ 20 = ∑ 16 ÷ λ 44

J.Hdez.Napa 22
INVERSA DE MATRIZ
(de cualquier orden)
METODO DE GAUSS-JORDAN ADAPTADO
OPERACIONES FILAS MATRIZ (X’X) a Ik MATRIZ Ik a (X’X) –1 SUMA FILAS = SUMA VERIFICACION
a α 11 α 12 α 13 α 14 1 0 0 0 ∑1
b α 21 α 22 α 23 α 24 0 1 0 0 ∑2
c α 31 α 32 α 33 α 34 0 0 1 0 ∑3
d α 41 α 42 α 43 α 44 0 0 0 1 ∑4
a ÷ α 11 e 1 β 12 β 13 β 14 a 11 0 0 0 ∑5 = ∑1 ÷ α 11
b – α 21 ( e ) f 0 β 22 β 23 β 24 a 21 1 0 0 ∑6 = ∑2 – α 21 (∑ 5)
c – α 31 ( e ) g 0 β 32 β 33 β 34 a 31 0 1 0 ∑7 = ∑3 – α 31 (∑ 5)
d – α 41 ( e ) h 0 β 42 β 43 β 44 a 41 0 0 1 ∑8 = ∑4 – α 41 (∑ 5)
e – β 12 ( j ) i 1 0 δ 13 δ 14 b 11 b 12 0 0 ∑9 = ∑5 – β 12 (∑ 10 )
f ÷ β 22 j 0 1 δ 23 δ 24 b 21 b 22 0 0 ∑ 10 = ∑6 ÷ β 22
g – β 32 ( j ) k 0 0 δ 33 δ 34 b 31 b 32 1 0 ∑ 11 = ∑7 – β 32 (∑ 10 )
h – β 42 ( j ) l 0 0 δ 43 δ 44 b 41 b 42 0 1 ∑ 12 = ∑8 – β 42 (∑ 10 )
i – δ 13 ( o ) m 1 0 0 λ 14 c 11 c 12 c 13 0 ∑ 13 = ∑9 – δ 13 (∑ 15 )
j – δ 23 ( o ) n 0 1 0 λ 24 c 21 c 22 c 23 0 ∑ 14 = ∑ 10 – δ 23 (∑ 15 )
k ÷ δ 33 o 0 0 1 λ 34 c 31 c 32 c 33 0 ∑ 15 = ∑ 11 ÷ δ 33
l – δ 43 ( o ) p 0 0 0 λ 44 c 41 c 42 c 43 1 ∑ 16 = ∑ 12 – δ 43 (∑ 15 )
m– λ 14 ( t ) q 1 0 0 0 d 11 d 12 d 13 d 14 ∑ 17 = ∑ 13 – λ 14 (∑ 20 )
n – λ 24 ( t ) r 0 1 0 0 d 21 d 22 d 23 d 24 ∑ 18 = ∑ 14 – λ 24 (∑ 20 )
o – λ 34 ( t ) s 0 0 1 0 d 31 d 32 d 33 d 34 ∑ 19 = ∑ 15 – λ 34 (∑ 20 )
p ÷ λ 44 t 0 0 0 1 d 41 d 42 d 43 d 44 ∑ 20 = ∑ 16 ÷ λ 44

J.Hdez.Napa 23
CONDICIONES A CUMPLIRSE EN EL MLG
1.- Suma de VE real = Suma de VE estimada
 Yt =  Ŷ t

2.- Suma de errores muestrales = 0


 et = 0

3.- La línea estimada Ŷ t pasa por el punto medio y central de las observaciones
(media de X ^ Y)

4.- La suma de los errores es igual a cero


 Para el valor real :  ( Yt - Ϋ ) = 0
 Para el valor estimado :  ( Ŷ t - Ϋ) = 0
 Para la diferencia :  (Yt - Ŷ t ) =  e t = 0

5.- La suma de los errores al cuadrado nos da la variancia


 Variancia total :  ( Yt - Ϋ ) 2 (Para el valor real)
 Variancia explicada :  (Ŷ t - Ϋ ) 2 (Para el valor estimado)
 Variancia no explicada :  e t2 (Para la diferencia)

J.Hdez.Napa 24
GRÁFICO DE CONDICIONES A CUMPLIRSE EN EL MLS
Linea de 45º grados

Consumo Privado (Yt)



Yt =  Ŷ t VRO
 e t = 0 A¤
linea estimada
et
Ŷt = a + b X t
B

C
Ϋ
Yt
( Ẍ, Ϋ )
Ŷt

Producto Bruto Interno (Xt)

Valores: real, estimado errores variancia


AD = Yt = valor real Ʃ (Yt - Ϋ ) = 0 Ʃ (Yt - Ϋ )2 = VT
BD = Ŷt = valor estimado Ʃ (Ŷ t - Ϋ ) = 0 Ʃ (Ŷ t - Ϋ )2 = VE
AB = e t = error Ʃ (Yt - Ŷ t ) = 0 Ʃ (Yt - Ŷ t )2 = et2 = VnoE
J.Hdez.Napa 25
GRACIAS

J.Hdez.Napa 26
J.Hdez.Napa 27

También podría gustarte