1 Repaso Estadistico y Matricial
1 Repaso Estadistico y Matricial
1 Repaso Estadistico y Matricial
3
4
5
6 AGRADECIMIENTOS
Agradecimientos 5
1. Introducción a la Econometrı́a 9
1.1. Concepto y Objetivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.1. ¿Qué es la Econometrı́a? . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.2. Objetivo de la Econometrı́a . . . . . . . . . . . . . . . . . . . . . . . 11
1.2. Metodologı́a de la Econometrı́a . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3. Origen y evolución de la econometrı́a . . . . . . . . . . . . . . . . . . . . . . 15
1.3.1. Etapa pre-econométrica . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.2. Etapa de nacimiento de la Econometrı́a (1900-1930) . . . . . . . . . 16
1.3.3. Etapa de aportaciones básicas (1930-1945) . . . . . . . . . . . . . . . 18
1.3.4. Etapa de desarrollo de la Econometrı́a moderna (1945-1975) . . . . . 19
1.3.5. Crisis de los setenta y aportaciones recientes a la Econometrı́a . . . 20
2. Repaso Algebraico 23
2.1. Algebra de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.1. Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.2. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.3. Vector Canónico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.4. Relación entre matrices y sumatorias . . . . . . . . . . . . . . . . . . 25
2.1.5. Matriz de desvı́os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.6. Geometrı́a de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.1.7. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.8. Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.1.9. Sistema de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . 35
2.1.10. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.1.11. Matrices Particionadas . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.1.12. Producto Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.1.13. Raices y vectores caracterı́sticos . . . . . . . . . . . . . . . . . . . . 42
2.1.14. Diagonalizacion y descomposicion de una matriz . . . . . . . . . . . 44
2.1.15. Derivadas y Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3. Repaso Estadı́stico 51
3.1. Sumatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2. Probabilidades y Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . 51
3.2.1. Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2.2. Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.3. Distribuciones Importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.1. Distribuciones Discretas. . . . . . . . . . . . . . . . . . . . . . . . . . 65
7
8 ÍNDICE GENERAL
3.3.2. Distribuciones Continuas. . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.3. Teorema del lı́mite central y teorı́a de los grandes números . . . . . 72
Frisch (1933a) 1 :
“La Econometrı́a implica la mutua penetración de Teorı́a Económica Cuantitativa y
Observación Estadı́stica” (p. 1).
Valavanis (1959):
((El objetivo de la econometrı́a es expresar las teorı́as económicas bajo una forma
matemática a fin de verificarlas por métodos estadı́sticos y medir el impacto de una
variable sobre otra, ası́ como predecir acontecimientos futuros y dar consejos de
polı́tica económica ante resultados deseables)).
1
Aunque Berndt (1991, p. iii) señala que el término Econometrı́a parece que fue utilizado por primera
vez por Ciompa (1910), Schumpeter (1982, p. 252, nota 2) indica que, como tal, el término “Econometrı́a”
se debe al profesor Frisch.
2
P.A. Samuelson, T. C. Koopmans y J. R. N. Stone. “Report of the evaluative comitee for Econome-
trica”, en Econometrica, vol. 22, núm. 2, abril de 1954, pp. 141-146.
9
10 1. Introducción a la Econometrı́a
Goldberger (1964) 3 :
((La Econometrı́a puede ser definida como la Ciencia social en la cual las herramientas
de la Teorı́a Económica, las Matemáticas y la Inferencia Estadı́stica son aplicadas al
análisis de los fenómenos económicos)) (p. 1).
Klein (1962) 4 :
((El principal objetivo de la Econometrı́a es dar contenido empı́rico al razonamiento
a priori de la Economı́a)).
Malinvaud (1966):
((El arte del económetra consiste en encontrar el conjunto de supuestos que sean
suficientemente especı́ficos y realistas, de tal forma que le permitan aprovechar de
la mejor manera los datos que tiene a su disposición)) (p. 514).
Maddala (1996):
((La Econometrı́a es la aplicación de métodos estadı́sticos y matemáticos al análisis de
datos económicos con el propósito de dar contenido empı́rico a las teorı́as económicas
y verificarlas o refutarlas)) (p. 1).
3
A. S. Goldberger. Econometrı́c history: John Wiley and Sons, Nueva York, 1964, p. 1.
4
Klein, Lawrence R. Econometric Analysis for Public Policy. Ames. Iowa: Iowa State College Press,
1958.
5
Fabiola Potrillo. Introducción a la Econometrı́a.2006. La autora resalta la definición de Econometrı́a
que ofrecen Judge, Hill et al. (1988, p. 1) , como una definición suficientemente completa.
6
David F. Hendry. Econometrics. Alchemy or science: Blackwell Pubüshers, Oxford, 1993.
Dada la complejidad del mundo real, se plantea que el economista debe comenzar
efectuando una abstracción del mismo, ante un sistema o problema concreto, a partir
de la cual se formulan las ((teorı́as económicas)), expresadas generalmente mediante
((modelos)) de tipo general, que conllevan una serie de implicaciones o predicciones
y tratan de dar explicaciones de algún elemento del sistema. A su vez, dado que el
grado de aceptación de las teorı́as es evaluada mediante la ((confrontación)) de sus
implicaciones o hipótesis con la base empı́rica, es crucial el papel de la Econometrı́a,
ya que trata de suministrar las técnicas necesarias para llevar a cabo la mencionada
confrontación. Las hipótesis a verificar - o confrontar con los hechos - se sitúan en
el seno de los ((modelos económicos)), pero la Econometrı́a no trabaja con ellos di-
rectamente, sino hay que concretarlos y darles forma, es decir con los denominados
((modelos econométricos)). Éstos se definen como aquellos modelos económicos que
contienen el conjunto de hipótesis necesarias para su aplicación empı́rica. De esta
forma, los modelos econométricos constituyen, en suma, el instrumento que permite
conectar y confrontar teorı́a y realidad.
Ahora bien, el esquema representado en la Figura 1 (ver Figura 1.1 3.8), transmite
cierta imagen de proceso terminal, con un principio y un fin, cuando la realidad de
la práctica econométrica es diferente, lo que ha levantado importantes crı́ticas, prin-
cipalmente, desde los años setenta. Siguiendo a Maddala 12 , estas crı́ticas se resumen
en las siguientes cuestiones:
Figura 1.1: Principales elementos que integra la Econometrı́a y sus aplicaciones - Adaptado
de Intriligator (1978)
. Etapa pre econométrica, que se extiende hasta finales del siglo XIX.
. Etapa de nacimiento de la Econometrı́a, que abarca el primer tercio del siglo XX.
. Etapa de desarrollo de la Econometrı́a moderna, que concluye con la crisis de los setenta
y de aportaciones recientes a la Econometrı́a.
A continuación se presentan las caracterı́sticas más relevantes de cada una de las etapas
mencionadas.
Davenant utiliza las figuras para sus deducciones y define la aritmética polı́tica como
el arte de razonar con figuras sobre cuestiones relacionadas con el gobierno. Petty y King
son los pioneros en una aproximación teórica- cuantitativa a la economı́a y demuestran
su preocupación por la medición estadı́stica de los hechos económicos. Siendo especı́ficos,
Gregory King se centró en el estudio de la agricultura y el análisis de las relaciones entre la
oferta de cereales y el precio. King no solamente efectuó una recogida y análisis de los da-
tos, sino que incluso llegó a aproximarse a una regresión entre cambios de precio y cambios
13
ver Akerman, 1933
14
ver Morgan, 1990
Por otra parte, en el campo de la Estadı́stica han sido esenciales los trabajos de Tho-
mas Bayes (1702-1861) sobre la teorı́a de la probabilidad y el análisis estadı́stico, con la
formulación del polivalente teorema de Bayes, Karl F. Gauss (1777-1855), por el desarro-
llo de la distribución estadı́stica normal y el tratamiento estadı́stico riguroso del método
de estimación mı́nimo-cuadrático aplicado al análisis de regresión, y William S. Gosset
(1876-1937), a quien se debe la especificación de la distribución t de Student, entre otras
aportaciones. Asimismo, destacan en este periodo las contribuciones de Andrei A Mar-
kov (1856-1922) y Karl Pearson (1857-1936) al desarrollo de la teorı́a de la probabilidad
y al análisis de la correlación estadı́stica, respectivamente. Por último, a Ronald A. Fis-
her (1890-1962) se debe el desarrollo de métodos de estimación adecuados para muestras
pequeñas, el descubrimiento de la distribución de numerosos estadı́sticos muestrales y la
invención del análisis de la varianza y del enfoque de máxima-verosimilitud, por lo que es
considerado uno de los pioneros de la Estadı́stica moderna.
Este enorme progreso de los métodos estadı́sticos, permitió aplicar el análisis de re-
gresión y la contratación de hipótesis a los modelos económicos, ya en los inicios del siglo
XX.
En este contexto, Benini (1907) habı́a llevado a cabo la primera aplicación de la re-
gresión múltiple, concretamente, a la estimación de la demanda de café en función de su
precio y del precio de un bien complementario. Seguidamente, en 1914, se publica el tra-
bajo de Henry L. Moore “Economic Cycles: Their Law and Cause”, en el que este autor
presenta una estimación de las leyes estadı́sticas de la demanda de cereales desde plan-
teamientos deterministas. Este trabajo es generalmente considerado el primer estudio de
15
ley de King, véase Creedy 1986
Dos hechos fundamentales marcan el nacimiento de la econometrı́a con los rasgos bási-
cos con que se caracteriza en la actualidad. La econometrı́a, vinculada al análisis estruc-
tural de las relaciones económicas, también denominada ’tradicional’, surge como conse-
cuencia de la constitución de la Sociedad de Econometrı́a y los trabajos de la Cowles
Commission, en la década de los años treinta.
Después de los intentos sin éxito de Irving Fisher en 1912 para organizar una asociación
para promover la investigación en economı́a cuantitativa desde la Universidad de Yale. Y
ante lo que se acontecerı́a en 1929, Ross y Frisch propusieron a Fisher la organización de
una sociedad internacional que unificara los puntos de vista estadı́stico, económico teórico
y matemático, para el estudio cuantitativo de los hechos económicos . A pesar del escepti-
cismo de Fisher debido a las dificultades surgidas en su primer intento, el 29 de diciembre
de 1930, en el tercer congreso de la sección k de la Asociación Americana para el avance de
la ciencia, se fundó en Cleveland, Ohio, la Sociedad Econométrica27 .El grupo organizador
estaba formado por doce americanos y cuatro europeos e incluı́a importantes economis-
tas(como Keynes), estadı́sticos y matemáticos. La sociedad se extendió rápidamente y dos
años más tarde fundo la revista Econométrica, cuya contribución fue importante para la
difusión de la econometrı́a.
Por tanto, el objetivo de la Sociedad Econométrica fue crear una Sociedad que moti-
vara el estudio cuantitativo de la economı́a, pero haciendo mucho hincapié en la necesidad
de que estos estudios se llevaran a cabo por métodos cientı́ficos ya que los economistas
de esta época aspiraban a encontrar leyes (modelos) similares a los que dominaban en
las ciencias naturales y veı́an en la estadı́stica y las matemáticas las herramientas que
les permitirı́an verificar las teorı́as y predecir fenómenos futuros. De manera explı́cita, la
Sociedad Econométrica buscaba promover la unión de la capacidad deductiva del análisis
matemático con la capacidad inductiva de la estadı́stica, mediante la integración de mo-
delos estadı́stico-matemáticos y el análisis estadı́stico de los datos económicos.
Ahora bien, la Segunda Guerra Mundial produce un cambio en los intereses a corto pla-
zo de la Cowles Commission, que interrumpe temporalmente su programa de investigación
a largo plazo y destina sus esfuerzos, junto con el National Bureau of Economic Research
(NBER), al estudio teórico y empı́rico de un sistema eficaz de control de precios y salarios.
En las dos primeras décadas de esta etapa de la Econometrı́a, los económetras centra-
ron sus esfuerzos en profundizar en los aspectos teóricos y metodológicos de esta disciplina,
con respecto a los métodos matemáticos e inferencia estadı́stica. En estos años, por tan-
to, los avances realizados en el campo de la Econometrı́a aplicada fueron relativamente
escasos. De manera contraria en la década de los sesenta llega la aceptación general de
los modelos econométricos en la mayorı́a de los paı́ses desarrollados y, especialmente, en
Estados Unidos. Ası́ pues, los desarrollos de la econometrı́a empı́rica en estos años son
numerosos, sus aplicaciones son múltiples y se abre un gran mercado que abarca tanto el
sector público como la empresa privada. Los modelos econométricos son entendidos como
un nuevo instrumento útil y válido para la planificación.
Ahora bien, la crı́tica no colapsó el avance de la econometrı́a sino sirvió de base para
una reacción de la econometrı́a hacia la incorporación más intensa de datos y relaciones
microeconómicas, dando lugar a la llamada microeconometrı́a.
. Modelos con datos de panel. Se plantea el uso conjunto de datos históricos y de corte
transversal, obtenidos normalmente desde un panel fijo en el tiempo. La consecuencia
inmediata es la necesidad de variar los parámetros entre agentes económicos y/o el
tiempo, y de aquı́ sus conexiones con la modelización con parámetros cambiantes.
. Diagonal
La matriz cuadrada Ann = [aij ] es:
DIAGON AL ⇔ aij = 0 , ∀ i 6= j y ∃ i , aij 6= 0 , 1 ≤ i ≤ n
. Escalar
La matriz diagonal Ann es ESCALAR, si sus elementos son iguales
⇒ Diagonal ∧ aii = a
. Identidad
La matriz Ann es la matriz IDENTIDAD: ⇔ Ann es Escalar ∧ a = 1
. Triangular
La matriz cuadrada Ann es :
(
T.superior ⇔ aij = 0 ∀ i > j
Ann ⇒
T.inf erior ⇔ aij = 0 ∀ i < j
. Idempotente
La matriz cuadrada Ann = [aij ] es idempotente ⇔ A2 = A
23
24 2. Repaso Algebraico
2.1.2. Operaciones con matrices
. Igualdad
Las matrices Amn = [aij ] ∧ Bmn = [bij ] son iguales ⇔ aij = bij
∀i, j; 1 ≤ i ≤ m, 1 ≤ j ≤ n
. Transpuesta
Sean las matrices Amn = [aij ] y Bnm = [bij ]. Diremos que B es la
TRANSPUESTA de A ⇔ bij = aji ∀ 1 ≤ i ≤ m , 1 ≤ j ≤ n , ∀ i , j y denotamos
B = A0 ∗ Si A = A0 ⇒ (A0 )0 = A ⇒ A es una matriz simétrica
wf u 100
matrix(3,3) A
A.f ill(b = r) 5,1,3,-1,2,4,4,0,1
matrix B = @transpose(A) ∗ A
. Suma
A+0=A
A+B=B+A
A+(B+C)=(A+B)+C
( A + B )’ = A’ + B’
. Multiplicación
El producto de Amn = [aij ] por Bnp = [bij ] se define del siguiente modo:
n
X
Amn Bnp = Cmp = [cij ] / cij = aik bkj , ∀ 1 ≤ i ≤ m , 1 ≤ j ≤ p
1
Producto interno
n
X
a1n , bn1 ⇒ a0 b = a1 b1 + a2 b2 + . . . + an bn = ai bi
1
Producto externo
a1n , bn1 ⇒ a b 0
A × B = C = [Cij ] cij = ai 0 bj
A B 6= B A
(
Sistema de Ecuaciones
C = Ab =
Combinación lineal
Cada columna de C es una combinación lineal de las columnas
de A con ponderadores igual a las columnas de B (El número
C = AB =
de combinaciones lineales es igual al número de columnas de B).
Cada fila de C es una combinación lineal de las filas de B.
N
X
( x0 x ) = xi x0i
1
1 x1
1 N
X x2
i = . xi = x1 + x2 + xN = i0 x x = .
.. 1
..
1 xN
N
X
a = na
1
N
X
xi = i0 x = i0 ai = ai0 i = an
1
i0 i = n
1 ... 1
ii0 = ... . . . ...
1 ... 1
PN
i0 x xi
= 1
= x ⇒ i0 x = nx
n n
EJEMPLO:
c11 c12 . . . c1n a11 a12 . . . a1n b11 b12 . . . b1n
c21 c22 . . . c2n a21 a22 . . . a2n b21 b22 . . . b2n
.. = ..
.. .. . . .. . . .. .. .. . . ..
. . . . . . . . . . . .
cn1 cn2 . . . cnn an1 an2 . . . ann bn1 bn2 . . . bnn
c11 a11 a1n
c22 a21 a2n
⇒ . = b12 . + . . . + bn2 .
.. .. ..
cnn an1 ann
c11 c12 a11 a12 b11 b12 a11 b11 + a12 b21 a11 b12 + a12 b22
= =
c21 c22 a21 a22 b21 b22 a21 b11 + a22 b21 a21 b12 + a22 b22
c11 a a
= b11 11 + b21 12
c21 a21 a22
c21 c22 = a21 b11 b21 + a22 b12 b22
n
X
Xi = i0 X
1
N
X
Xi Yi
1
X 0 X = [X 0 X]ik
N
X
X 0X = Xi Xi0 ; n = N o f ilas
1
x11
x12
Donde Xi es la f ila i − esima de X = .
..
x1k
x11 x12 x11 x21
X = X1 = , X2 =
x21 x22 x12 x22
x211 + x221
0 x11 x21 x11 x12 x11 x12 + x21 x22
XX = =
x12 x22 x21 x22 x12 x11 + x22 x21 x212 + x222
2
X x11 x
Xi Xi0 X1 X10 X2 X20 x11 x12 + 21 x21 x22
= +
x12 x22
1
x211
2
x11 x12 x21 x21 x22
+
x21 x11 x212 x22 x21 x222
x211 + x221
x11 x12 + x21 x22
x12 x11 + x22 x21 x212 + x222
M 0X = X 0
M 0 A = A0
Donde M 0 es la matriz que desvı́a la información del vector X o de la matriz A respecto
de su media.
x1 x1 − x
x2 x2 − x
M 0X = M 0 . = .
.. ..
xk xk − x
0
An×k = M 0 a1 a2 . . . ak = a1 − a1 a2 − a2 . . . ak − ak
Mn×n
M 0 = I − n1 ii0
1 − n1 − n1
0 1 0 1 1 1
M2×2 = − =
0 1 n 1 1 − n1 1 − n1
1 − 12 − 12
⇒ (n = 2) =
− 21 1 − 12
..
.
P
1 − n1 − n1 − n1 x1 − Pnxi
... x1 x1 − x
−1 1 − n1 x2 x2 − nxi x2 − x
0 n
Mn×n = . = =
.. ... ... .. .
.. . P ..
.
− n1 . . . 1 − n1 xn xn − nxi xk − x
1. Propiedades
M 0i = 0
Prueba
1 0 1 i
M 0 i = (I − ii )i = i − ii0 i = i − n = i − i = 0n×1
n n n
Pn
1 (xi − x) = i0 M0 X
M 0 esSimétrica e Idempotente
Prueba
- Simétrica (M 0 )0 = M 0
- Idempotente M 0 M 0 = M 0
EJEMPLO:
→
− 1 →
− 0 →
− 2
a = , b = ; a , b ∈ <2 c = 2→
−
a + b = ; c ∈ <2
0 1 1
a1 b c
, 1 , 1
a2 b2 c2
c1 α1 a1 α2 b1 a1 b
= + = α1 + α2 1
c2 α1 a2 α2 b2 a2 b2
a2 c1 − b1 c2 a1 c2 − b1 c2
∃ ! αi 6= 0 α1 = , α2 =
a1 b2 − b1 a2 a1 b2 − b1 a2
⇒ a1 b2 − b1 a2 6= 0
a1 b2 6= b1 a2
a1 b1
6=
a2 b2
c1 a1 b
= α1 + α2 1
c2 a2 b2
a1 b1 a1 b c
si a, b son tal que 6 = ⇒ , 1 , 1 son L.D
a2 b2 a2 b2 c2
EJEMPLO:
Xn×n ⇒ i x 1 x2 . . . x n
α1 i + α1 x1 + . . . + αn xn = 0 no puede ocurrir
α1 = α2 = . . . = αn = 0 única y trivial
. Vectores generadores
Sea E un conjunto de vectores e1 , e2 , . . . , en . El conjunto de todas las combinacio-
nes lineales de e1 , e2 , . . . , en se denomina espacio vectorial generado por E (“spaned
space”)
. Sub espacio
a1 b1 c1
a = a2 , b = b2 ∈ <3 ⇒ c = c2 ∈ <3
0 0 0
Espacio F, donde F es un plano (sub espacio en <3 ), F no es <2 dado que <2 es un
espacio generado por 2 vectores base <2 no es un subespacio de <3
Las dimensiones se asocian a las coordenadas.
Si F ∈ a un espacio de 3 dimensiones pero se sabe que existe una dimensión igual
a cero ⇒ F solo tiene 2 dimensiones.
EJEMPLO:
1 5 2
A = 2 6 8 R(A) = 2 como máximo
7 1 8
1 2 3
5 4 5
B =
6 1 5
R(B) = 3 como máximo
3 1 4
1 2 3
5 4 5
= α + β ∃ α , β 6= 0 que sean solución
6 1 5
3 1 4
Verificando los rangos de las matrices:
wf u 100
matrix(3,3) A
A.f ill(b = c) 1, 2,7,5,6,1,6,8,8
matrix(4,3) B
B.f ill(b = r) 1, 2,3,5,4,5,6,1,5,3,1,4
. Rango de filas
El espacio generado por el rango filas es el mismo generado por el rango columnas.
. Rango corto
Rang(An×n ) = n0 < n
. Resultados
. Corolario
EJEMPLO:
AB = C
EJEMPLO 1: Y = Xβ + µ
Trampa de dummys
Rang(X4×3 ) = 3 < 3
N 0 de columnas ⇒ X no tiene rango completo por columnas.
. Propiedades de rango
Rang(Xn×k ) = k
Donde X tiene rango completo por columnas
Rang(X 0 X) = k
2.1.8. Determinante
. Notación
Sea An×n ⇒ |A|, det (A)
. Proposición
det(A)6= 0 si la matriz tiene rango completo
wf u 100
matrix(3,3) C
C.f ill(b = r) 2,4,3,-1,3,4,3,0,1
Aij = menori, j
. Cofactor
Sea An×n , el cofactor (i,j) de A será igual a cij
. Propiedades
Qn
a) Matriz Diagonal |Dn×n | = 1 aij
b) Sea Bn×n , |A| =
6 0,c ∈ R
|CB| = C n |B|
c) Sea An×n , Bn×n |AB| = |A||B|
d ) |A| = |A0 |
. Aplicación MCO
Expresar un vector yn como combinación lineal de vectores de la matriz Xn×k
a) y ∈ col(Xn×k )
donde col(Xn×k )es el espacio generado por las columnas de X, donde cada columna
tiene n componentes.
La dimensión de un espacio = N 0 col LI = N 0 vectores LI = k
Es posible encontrar un b : y = Xb
b) Si y ∈
/ col(Xn×k )
y = Xb+e
1 6 1 2 b1 1
1 = −1 −1 3 b2 + −1
2 0 0 0 b3 2
X 0e = 0
Figura 2.5:
1.
A = [1] AX = 0 A tiene rango completo
X = [x] X = 0 ⇒ X = 0 y la solución es trivial
2.
x1
A = [1, 2] X = Rang(A) = 1 < 2 = k
x2
AX = 0
x1 + 2x2 = 0
X tiene infinitas soluciones a parte la trivial.
3.
1 1 x1 0
A = := Rang(A) = 2 6< < 2 = k
1 −1 x2 0
⇒ x1 + x2 = 0
⇒ x1 − x2 = 0
Lo que serı́a imposible a menos que (x1 , x1 ) = (0, 0)
1. Homogéneas AX = 0
2. No Homogéneas AX = b , b 6= 0
An×n Xn×1 = 0
Para que exista solución (x 6= 0) el Rang(A) < n
Si existe una solución, entonces es posible escribir una columna como combinación
lineal de los otros
a1 a2 . . . an x1 x2 . . . xn = 0
a1 x1 + a2 x2 + . . . + an xn = 0
¿Cual es la solución de A que asegura que se tiene solución? Dado que bn×1 ,
X 6= 0 existe si las columnas de A generan todo el espacio <n
⇔ Si las columnas de A son base de <n
⇔ Si las columnas de A son L.I
⇔ |A| =6 0
BA = In =⇒ B = A−1
Si,
BA = I
AB = I
=⇒ B = A−1
AA−1 A = IA = A
=⇒ CAB = CAB
(CA)B = CAB
IB = C(AB)
B = CI
B=C
−1 1 a11 −a12
A =
|A| −a21 a22
Forma general:
Sea Anxn = [aixj ]
Cji
A−1 = [aixj ]0 , aixj = , Cji = (−1)j+i |Aji |
|A|
1 1
A−1 = (matriz C)0 = Adjunta(A)
|A| |A|
Caso particular:
α1 0 ... 0
0 α2 . . . 0
D= .
.. . . .
.. . . ..
0 0 . . . αn
1
α1 0 ... 0
0 1
−1 α2 ... 0
D = .
.. .. ..
..
. . .
1
0 0 ... αn
Propiedades:
. |A−1 | = 1
|A|
. (A−1 )−1 = A
. (A−1 )0 = (A0 )−1
. Si A es simétrica (A0 = A), entonces A−1 es simétrica.
. Si |A| =
6 0, |B| =
6 0, |A| =
6 0 entonces:
(AB)−1 = B −1 A−1
(ABC)−1 = C −1 B −1 A−1
EJEMPLO:
A11 · · · A1s
A = · · · · · · · · ·
Ar1 ··· Ars
Suma y Multiplicación:
Las submatrices deben de tener las misma dimensión
A11 A12 B11 B12
M= ±
A21 A22 B21 B22
A11 A12 B11 B12 A11 B11 + A12 B21 A11 B12 + A12 B22
N= =
A21 A22 B21 B22 A21 B11 + A22 B21 A21 B12 + A22 B22
Casos frecuentes:
.
0
A1 0 0
A1 A2 = A1 A2 A1 A2
A2
1 2
1 0
A1 =
1
1
2 3
0 1 1 1 2
A1 =
2 0 1 3
.
0 0 0
A11 0 A11 0 A11 0 A11 0 A11 A11 0
= 0 = 0
0 A22 0 A22 0 A22 0 A22 0 A22 A22
EJEMPLO:
y = xβ + µ
β1
β2
. . . x k β3 + µ
y = i x 2 x3
..
.
βk
y = iβ1 + β2 x2 + β3 x3 + . . . + βk xk + µ
β1
β2
β3
..
.
y = X1 X2
+µ
βk
1
βk +1
1
.
..
βk
B1
y = X1 X2 +µ
B2
Determinantes de matrices:
A11 0
= |A11 ||A22 |
0 A22
A11 A12
= |A22 ||A11 − A12 A−1
22 A21 |
A21 A22
= |A11 ||A22 − A21 A−1
11 A12 |
Inversa:
−1
A11 (I + A12 F2 A21 A−1 −1
A11 A12 11 ) A11 A12 F2
=
A21 A22 −F2 A21 A−1
11 F2
Yi = β1 + β2 Xi + µ , donde i = 1, · · · n
y1 1 x1 µ1
y2 1 x2 µ2
β1
.. = .. .. + .
. . . 2 β ..
yn 1 xn µn
β1
y= i x +µ
β2
β̂1 0 −1 0
= (X 0 X)−1 X 0 y = [i x]
[i x] i x y
β̂2
0 0 −1 0 0 −1 0
β̂1 ii ix ii ix iy
= 0 0 0 0 0
β̂2 xi xx xi xx xy
0 0
β̂2 = (x M0 x)−1 x y
0 0 0
= (x M0 M0 x)−1 x y
P 0
xy
= P
(xi − x)2
a11 B a12 B . . . a1m B
.. ..
. a22 B . . . .
A⊗B =
.. .. .. ..
. . . .
an1 B an2 B . . . anm B nxm
Propiedades:
. (A ⊗ B)−1 = A−1 ⊗ B −1
. Sea Amxm , Bnxn matrices ⇒ |A ⊗ B| = |A|n |B|m
0 0 0
. (A ⊗ B) = A ⊗ B
. T r(A ⊗ B) = T r(A)T r(B)
. (A ⊗ B)(C ⊗ D) = AC ⊗ BD
Aplicación en Eviews
wf u 100
matrix(3, 3)A
A.f ill(b = r)2, 4, 3, −1, 3, 4, 3, 0, 1
B.f ill(b = c)1, 2, 4, −1, 2, 5, 3, −6, 9
⇒ solución: λ1 cnx1
0
⇒ normalizar c c = 1 equivalente a (ci 2 )1/2 = 1 : norma euclideana.
P
⇒ necesitamos (n − 1) vectores c
Ecuacion caracteristica:
Ac = λc
(A − λI)c = 0, siAc = 0
si |A − λI| , ∃!c 6= 0⇒ ∃ una solución.
observaciones:
Resultados Generales:
sea:
ci asociado a λi
cj asociado a λj
Entonces:
0
ci cj = 0
. Sea:
Matriz caracteristica:
c = c1 c2 . . . ck
λ1 0 . . . 0
0 λ2 . . . 0
A c1 c2 . . . ck = c1 c2 . . . ck . . . .
.. .. . . ..
0 0 . . . λk
Ac1 Ac2 . . . Ack = λ1 c1 λ2 c2 . . . λk ck
. Adicionalmente:
Se sabe que
0
ci cj = 0 (por ortogonalidad)
0
ci ci = 1 (norma)
luego:
0 0
c1 c1 c1 0 ... 0
0 0
0 c2 0 c2 c2 . . . 0
0
c c = c1 c2 . . . ck c1 c2 . . . ck = . c1 c2 . . . ck = . .. = I
. . .
. . .
. . . . .
0 0
ck 0 0 . . . ck ck
Teorema:
Rango de una matriz simetrica es igual al numero de raices caracteristicas o valores pro-
pios diferentes de cero.
λ1 0 ... 0
0 λ2 . . . 0
.. .. . . ..
. . . .
0 0 . . . λk
Teorema:
0
Rango de una matriz no cuadrada Anxk es igual al ]λ 6= 0 que contiene A Akxk
Si
0
Rang(Anxk ) = Rang(A A) = k
λmax 1/2
γ = |( )|
λmin
si |A| = 0 ⇒ algun λ = 0
si ↑ γ ⇒ λmax >> λmin ≈ 0 ⇒ |A| ≈ 0 (cuasi multicolineal)
En la practica γ > 20 (multicolinealidad).
Rang(Λnxn ) = Rang(A)
0
Rang(c Ac) = Rang(A)
Teorema:
Rango de una matriz simetrica es igual al numero de raices caracteristicas o valores propios
diferentes de cero.
λ1 0 . . . 0
0 λ2 . . . 0
.. .. . . .
. . . ..
0 0 . . . λk
Teorema:
0
El rango de una matriz no cuadrada Anxk es igual al ]λ 6= 0 que tiene A Akxk
0
Si Rang(Anxk ) = Rang(A A) = k
Propiedades:
Pn
. T r(Anxn ) = 1 aij , Donde A es simetrica.
. Tr(CA) = CT r(A).
0
. T r(A ) = T r(A).
. T r(A + B) = T r(A) + T r(B).
. T r(±K) = K.
. T r(AB) = T r(BA).
. T r(ABC) = T r(BCA) = T r(CAB).
0 0 0
. T r(a a) = a a = T r(aa )
Teorema:
T r(Anxn ) = λ1 + λ2 + . . . + λn
0
Λ = C AC
0
T r(Λ) = T r(C AC)
0
T r(Λ) = T r(ACC )
T r(Λ) = T r(A)
X X
T r(Λ) = aij = xi = T r(Λ)
Determinante:
Sea Anxn simetrica ⇒ |Anxn | = λ1 λ2 λ3 . . . λn
0
Λ = C AC
0
|Λ| = |C AC|
0
|Λ| = |C ||A||C|
0
|Λ| = |C ||C||A|
0
|Λ| = |C C||A|
|Λ| = |A| = πλi
.
0 0
AA = A2 = (CΛC )(CΛC )
0 0
AA = A2 = (CΛC CΛC )
0
AA = A2 = (CΛ2 C )
.
A0 = I
6 0) y λi = 0 ∀i, la potencia puede ser un numero negativo.
. Si A es no singular (|A| =
.
0
A−1 = (CΛC )−1
0 −1
A−1 = C Λ−1 C −1
0 0
Luego, si C −1 = C , C C = I
Teorema:
Teorema:
Sea Anxn una matriz simetrica, ademas |A| =6 0
0 0
Luego: si A = CΛC ,entonces Ak = CΛk C , ∀ k ∈ número enteros.
v1 a1 + v2 a2 6= 0 ∀a1 , a2 6= 0
Dependencia Lineal:
v1 a1 + v2 a2 = 0
−a2
v1 = v2
a1
Caso usual: A es definida positiva.
3.
1 0
I=
0 1
Donde: λi = 1, ∀i = 1 . . . n
Por lo tanto: I es p.d
0
. AA es p.s.d
0 0
. Se desea demostrar que ∀x 6= 0, x APAx > 0
0 0 0 0
∀x 6= 0 xPA Ax = (Ax) Ax = ξ ξ = ξi 2 > 0
0
∀x 6= 0 ξi 2 = ξ ξ = 0 si ξ = 0
0 0 0
ξ = Ax 6= 0 Rang(Anxk ) = K x A Ax = ξi 2 > 0 por lo tanto, A A es p.d
P
0 0
5. Si A es p.d y |B| =
6 0 ⇒ B AB es p.d
0 0 0
∀x 6= 0 X (B AB )X > 0
⇒ ∀x 6= 0
0 0 0
X B ABX = (BX) A(BX)
0
ξ Aξ > 0 ⇒ ξ 6= 0 , ademas:BX 6= 0 , |B| =
6 0
0
Se cumple: si A es p.d ⇒ ∀ξ 6= 0, ξ Aξ > 0
0 P5 2
. Anxn , simetrica e indempotente, ademas Rang(A) = 5, ⇒, ∀x, x Ax = 1 yi .
∀x 6= 0,
0 0 0
x Ax = x cΛc x
EJEMPLO:
.
0
∂a x
=a
∂x
.
∂Ax 0 ∂Ax
=A, =A
∂x ∂x0
.
0
∂x Ax 0
= Ax + A x
∂x
0
si A = A ⇒
0
∂x Ax
= 2Ax
∂x
Vector Gradiente:
Sea: F (x1 , x2 , . . . , xn )
∂F
∂x1
∂F ∂F
∂x
∆Fx = = .2
∂x ..
∂F
∂xn
∂F
∂2F ∂2F ∂2F
∂x1
∂x1 ∂x1 ∂x1 ∂x2 ... ∂x1 ∂xn
∂2F ∂ ∂F ∂ ∂F .. .. ..
∂x2 ..
= 0 = 0 . =
. . . .
∂x∂x ∂x ∂x ∂x .. .. ..
∂2F
∂F . . ... ∂x2n
∂xn
3.1. Sumatorias
La sumatoria o la operación de suma, es un operador matemático que permite repre-
sentar sumas de muchos sumandos, n o incluso infinitos sumandos. Se expresa con la letra
griega sigma ( Σ ), y se define como:
n
X
xi = xm + xm+1 + xm+2 + · · · + xn
i=m
Propiedades:
Pt Pt
. n=s C · f (n) = C · n=s f (n), donde C es una constante.
Pt Pt Pt
. n=s f (n) ± n=s g(n) = n=s [f (n) ± g(n)].
P P P
. Xi · Yi 6= Xi · Yi .
P 2
Xi 6= ( Xi )2
P
.
Pn
Xi fi
. X= i=1
n . Donde fi son las frecuencias de cada Xi
Sea: N (Ω) = n, el numero de elementos del espacio muestral (número total de sucesos)
y N (A) = nA , es el número de elementos del evento A (o número de sucesos favorables);
la probabilidad del evento A, denotado por “P [A]” es la razón de N(A) a N(Ω), o sea:
Axiomas
51
52 3. Repaso Estadı́stico
. P (Ω) = 1
. Si A1 , A2 , A3 , . . . es una secuencia numerable de eventos mutuamente excluyentes
definidos en Ω , entonces P [A1 ∪ A2 ∪ A3 . . .] = P [A1 ] + P [B1 ] + . . .
Propiedades
Probabilidad condicional
si P (A) > 0
P (A ∩ B)
P (B/A) =
P (A)
NOTAS:
si ]A > 0
]P (A ∩ B)
P (B/A) =
]P (A)
. Si (A ∩ B) = ∅, entonces, P (B/A) = 0
. Si (A ⊂ B), entonces, P(B/A)= P(A/A)=1
P (B)
. Si B ⊂ A, entonces, P(B/A)= P (A)
Teorema de Bayes
. P [Bi ] ≥ 0, i = 1, 2, 3, . . . , k
2. Teorema de probabilidad total
P [Bk ]P [A/k2 ]
3. Teorema de Bayes
P (A) x P (B/Ai )
P (Ai /B) = , para cada i = 1, 2, . . . , k
P (B)
EJEMPLO:
De 2000 usuarios de “TV cable”, 1000 tienen el paquete completo (P1 ) de 120 canales
de TV, 600 tienen el paquete intermedio (P2 ) de 50 canales y el resto el paquete básico
Solución:
Las probabilidades P (Ai ) y P (B/Ai ) se ubican en el digrama de árbol que sigue, donde:
Clasificación:
Las variables aleatorias son variables cuantitativas, por lo tanto, se clasifican en dis-
cretas y continuas.
Rx = {x1 , x2 , x3 , . . . , xk , . . .}
1. Función de probabilidad de una variable aleatoria discreta.
P ≥ 0 ∀x ∈ <
i) f(x)
ii) xi ∈<x (f (xi )) = 1
NOTAS:
[X ≤ x] y su probabilidad inducida P [X ≤ x]
La función de distribución acumulativa de probabilidades de la variable alea-
toria discreta X, cuya función de probabilidad de f(x), se define en todos los
números reales por:
X X
F (x) = P [X ≤ x] = P [X = k] = f (k), para − ∞ < x < ∞.
k≤x k≤x
EJEMPLO:
Sea x la variable aleatoria que se define como el número de caras obtenidas al lanzar
un moneda 4 veces.
Solución:
La función de distribución acumulativa, se define para todo número real como sigue:
2. Función de distribución.
Sea X una variable aleatoria continua con función de densidad f (x). La función
de distribución (o función de distribución acumulada) de la variable
aleatoria X, denotado por “F (x)00 , se define por:
Rx Rx
F (x) = P [X ≤ x] = −∞ dF (x) = −∞ f (x)dx, ∀x ∈ <, donde dF (x) = f (x)dx
EJEMPLO:
Solución:
Rx R2 3
Rx
3. Si 0 ≤ x ≤ 2, F (x) = P [X ≤ x] = −∞ f (t)dt = 0+ 0 4 t(2−t)dt+ 2 0dt =1
0,
si x < 0
F (x) = 43 x2 (1 − x3 ), si 0 ≤ x < 2
1, si x ≥ 2
Conceptos:
. Esperanza matemática
µ = E(x)
Propiedades
Si X es una v.aleatoria, a y b constantes:
a) E(a) = a
b) E[aH(X)] = aE[H(X)] = aµ
c) E[aH(x) + b] = aE[H(x)] + b = aµ + b
d) E[aH(x) + bG(x)] = aE[H(x)] + bE[G(x)]
mr = E[(x − µr )] =
(P
r
x∈Rx (xi − µ) p(x) (si X es v.a discreta)
R +∞ r
−∞ (x − µ) f (x)dx (si X es v.a continua)
La desviación tı́pica σ se define como la raı́z cuadrada, con signo positivo, de la varianza
de la variable aleatoria.
Propiedades de la varianza
= E([a2 X 2 + 2abX + b2 ])
= a2 E(X 2 ) + 2abE(X) + b2 − [a2 [E(X)2 + 2abE(X) + b2 ]
= a2 [E(X 2 ) − [E(X)]2 ]
= a2 V ar(X)
. Asimetrı́a y curtosis
Curtosis
Se llama curtosis o coeficiente de curtosis de una variable aleatoria X a la relación:
E[(X − µ)4 ] µ4
Ck = 4
= 4
σ σ
. Desigualdad de Chebyshev
Si los posibles valores de (X,Y) son finitas o infinito numerable, entonces (X,Y) se
llama variable aleatoria bidimensional discreta. Es decir, los posibles valores
de (X,Y) se puede representar por,
(xi , yi ), i = 1, 2, . . . , n ; j = 1, 2, . . . , m con rango RX×Y . A cada posible resultado
(x,y) de (X,Y), se le asocia un número,
p(x, y) = P [X = x, Y = y]
llamado función de probabilidad conjunta, que cumple las siguientes condicio-
nes,
P y) ≥ 0 ∀P
* p(x, (x, y)
* (x,y) ∈ RX×Y p(x, y) = 0
Los valores [(x, y), p(x, y)] para todo (x, y) ∈ RX×Y , se denomina distribución
de probabilidad conjunta.
La función de distribución acumulada de la variable aleatoria bidimensional está de-
finida por,
x
X y
X
F (x, y) = P [X ≤= x, Y ≤= y] = p(u, v)
u=−∞ v=−∞
La relación entre dos variables aleatorias puede verse hallando la distribución de cada
una de ellas, dado por el valor de la otra.
Recordando, la probabilidad condicional de A dado B:
P [A ∩ B]
P [A|B] =
P [B]
tenemos:
∀ y / P [Y = y] > 0
b) Función de distribución condicional de v.a discretas
La función de distribución condicional de X dado Y = y, se define como:
X
FX|y (x|y) = P [X ≤ x, Y = y] = fX|y (x|y)
k≤x
∀ y / P [Y = y] > 0
c) Valor esperado condicional de v.a discretas
El valor esperado condicional de X dado Y = y, se define como:
X
E(X|Y = y) = xfX|y (x|y) ∀ y / P [Y = y] > 0
x
y/x -1 1
1 1/8 1/4
2 1/2 1/8
X X
E(X|Y = 1) = xfX|y (x|y) = xP [X = x|Y = 1]
x∈Rx x∈Rx
∀ y / fY (y) > 0
c) Valor esperado condicional para v.a con fdp conjunta f
El valor esperado condicional de X dado Y = y, se define como:
Z ∞
E(X|Y = y) = xfX|y (x|y)dx ∀ y / fY (y) > 0
−∞
. Varianza condicional
Sean X e Y variables aleatorias,la varianza condicional de X dado Y = y, se define
como:
σY |X 2 = E = [(X − E(X|y))2 |y]
[?]
!
n px (1 − p)n−x , si x = 0, 1, ..., n
P r(x, n, p) = x
0, de otra forma
∀0 ≤ p ≤ 1
Distribución de Poisson
mx e−m
(
x! , si x = 0, 1, ..., n
P r(x, m) =
0, de otra forma
∀m>0
Distribución de Pareto
(ak a )
f (x, k, a) = ; 0≤k ≤x, m>0
xa+1
1 2
f (x) = (2Π)−1/2 e(−1/2)[(x−µ)/σ] , ∀ − ∞ < x < ∞
σ
2 /2 x−µ
f (z) = (2Π)−1/2 e−z , ∀ − ∞ < x < ∞ donde z =
σ
Distribución log-normal
1 2 2
f (x, m, s) = (2Πs2 )−1/2 e−(log x−m) /(2s ) , x > 0 , 0 < m < ∞ , s > 0
x
Distribución de Weibull
a
f (x, m, a) = am−a xa−1 e−(x/m) , 0 < x < ∞ , m, a > 0
Distribución uniforme
1
f (x) = , a<x<b; b>a
b−a
Sea x una variable aleatoria contı́nua. Se dice que x tiene una distribución exponen-
cial con parámetro real m, si su función de densidad está dado por:
Para x ≥ 0, y m > 0
e−x/m
f(x,m)= m
Distribucion Beta
Una variable aleatoria continua x se dice que tiene una distribución Beta, con para-
metros a,b > 0 si su función de densidad está dada por:
xa−1 (1−x)b−1
f(x,a,b) = B(a,b)
Distribucion Gamma
Una variable aleatoria continua x se dice que tiene una distribución gamma, con
parametros r,b > 0 si su función de densidad está dada por:
Cuando x ≥ 0
−x
b−r xr−1 e b
f(x,b,r) = Γ(r)
Distribucion Chi-cuadrado
Se dice que la variable aleatoria continua X tiene distribución chi- cuadrado con v
grados de libertad, si su funcion de densidad es:
Cuando x ≥ 0,y v>0 Tengase en cuenta que los grados de libertad de parámetros
no tienen que ser un número entero
v −x
x 2 −1 e 2
f(x,v)= v
2 2 Γ( v2 )
Distribucion T-student
Se dice que la variable aleatoria continua x se distribuye según el modelo de pro-
babilidad t-student con v grados de libertad , si su función de densidad está dada por:
−(v+1)
Γ( v+1 ) 2
f(x,v)= 2
(vπ)1/2 Γ( v2 )
(1 + ( xv )) 2
Distribucion Fisher
Se dice que la variable aleatoria continua x se distribuye según el modelo de proba-
bilidad F con v1 y v2 grados de libertad , si su función de densidad está dada por:
v1 v2
v12 v22 (v1 −2)/2 (v
f (x, v1 , v2 ) = B(v1 /2,v2 /2) x 2 + v1 x)−(v2 +v1 )/2
Cuando x ≥ 0, y v1 , v2 > 0
Donde B es la función beta.
Tengase en cuenta que los grados de libertad de parámetros no tienen que ser un
número entero
wf u 1000
’Distribución Chi2
series chi1= @rchisq(1)
series chi2= @rchisq(2)
series chi3= @rchisq(6)
’Distribución Beta(a,b)
series bet1= @rbeta(5, 2)
series bet2= @rbeta(7, 5)
series bet3= @rbeta(1, 3)
series bet4= @rbeta(1, 6)
series bet5= @rbeta(2, 2)
’Distribución Weibull(m,a)
series weib1= @rweib(1, 0,5)
series weib2= @rweib(1, 1)
series weib3= @rweib(1, 1,5)
series weib4= @rweib(7, 1)
series weib5= @rweib(9, 2)
Aplicación en Eviews
Sea x1 una variable aleatoria distribuida uniformemente,v1 una serie que acumula las
medias de x1 que se extraen gracias a las 10000 simulaciones.
wf u 10000
series v1
F OR !k = 1 to 10000
series x1 = rnd
v1(!k) = @mean(x1)
next
x1.hist
v1.hist
lı́m P X n − µ < ε = 1.
n→∞
Aplicación en Eviews
Sea x1 una variable aleatoria que tiene una distribucion chi-cuadrado con 31 grados de
libertad
wf u 10000
series x1 = @rchisq(31)
series x2 = @sqrt(2 ∗ x1)
x1.hist
x2.hist
!gl = 1
!j = 2
F OR !N = 50 T O 200 ST EP 50
F OR !k = 1 T O !rep
smpl 1 !N
series y!j = @rchisq(!gl)
s2(!k, !j) = @mean(y!j)
N EXT
!j =!j + 1
N EXT
f reeze( graf o1) s2.distplot(s) kernel
graf o1.setelem(2) legend(“N ormal − (u = 1; s2 = 1; N = 200)00 )
graf o1.setelem(4) legend(“Chisq − (k = 1; N = 50)00 )
graf o1.setelem(6) legend(“Chisq − (k = 1; N = 100)00 )
graf o1.setelem(8) legend(“Chisq − (k = 1; N = 150)00 )
graf o1.setelem(10) legend(“Chisq − (k = 1; N = 200)00 )
graf o1.legend position(2,5, 0,1) − inbox
graf o1.addtext(t) “Distribución muestral de la media de y”
√
La grafica de la derecha, muestra la distribución muestral de N (ȳ − µ) para una χ2
con 1 grado de libertad y para diferentes valores de N. A diferencia con lo ocurrido con la
distribución de ȳ, las distribuciones muestrales
√ no colapsan conforme N → ∞. La razón
es que la multiplicación de ȳ − µ por N , estabiliza la varianza del promedio,
√ evitando
que ésta tienda a cero. En otras palabras, para todo N se tiene que V ar( N ȳ) = 1. Luego
de estabilizar la varianza y mantener la media, se aprecia que mayores valores de N van
llevando las distribuciones cada vez más cercanas a una normal estandar. Ésta es la idea
principal del TLC. Es importante destacar que mientras la LGN alude a un lı́mite proba-
bilı́stico (una esperanza), el TLC describe el comportamiento de la distribución lı́mite de
una variable aleatoria.
!gl = 1
!j = 2
F OR !N = 50 T O 200 ST EP 50
F OR !k = 1 T O !rep
smpl 1 !N
series y!j = @rchisq(!gl)
s1(!k, !j) = @sqrt(!N ) ∗ (@mean(y!j)−!gl)/(2∗!gl)
N EXT
!j =!j + 1
N EXT
77