Supuestos Del MCO: Teorema Del Limite Central

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 13

Supuestos del MCO

Sergio Diaz

2023-06-21

Teorema del limite central


El teorema del límite central (TLC) es uno de los resultados más importantes en estadística y probabilidad.
Afirma que, bajo ciertas condiciones, la suma o media de un gran número de variables aleatorias indepen-
dientes e idénticamente distribuidas (iid) tiende a seguir una distribución normal, sin importar cuál sea la
distribución original de las variables.
En términos más específicos, el TLC establece lo siguiente:
Las variables aleatorias deben ser independientes entre sí. Esto significa que el resultado de una variable no
afecta el resultado de las otras variables.
Las variables aleatorias deben tener la misma distribución. Esto significa que todas las variables tienen la
misma probabilidad de tomar cualquier valor dentro de su rango.
Las variables aleatorias deben tener una varianza finita. En otras palabras, la dispersión de los valores de
las variables no debe ser infinitamente grande.

Datos con distribucion normal

hist(log(df$l))

1
Histogram of log(df$l)
150
Frequency

100
50
0

2 3 4 5 6 7 8

log(df$l)

Se realizan distintos muestreos sobre estos datos y se obtienen promedios distintos

muestra <- 70
n_muestra <- 50
cont <- c()
for(i in 1:muestra){
mean <- mean(sample(log(df$k),n_muestra))
cont <- c(cont,mean)
}

hist(cont)

2
Histogram of cont
20
15
Frequency

10
5
0

4.6 4.7 4.8 4.9 5.0 5.1 5.2 5.3

cont

Datos sin distribucion normal

hist(df$l)

3
Histogram of df$l
800
600
Frequency

400
200
0

0 500 1000 1500 2000 2500 3000 3500

df$l

Se realizan distintos muestreos sobre estos datos y se obtienen promedios distintos

muestra <- 70
n_muestra <- 50
cont <- c()
for(i in 1:muestra){
mean <- mean(sample(df$k,n_muestra))
cont <- c(cont,mean)
}

hist(cont)

4
Histogram of cont
15
Frequency

10
5
0

200 250 300

cont

Supuestos de GaussMarko

Linealidad

# Ajustar modelo1 de regresión lineal


modelo1 <- lm(q ~ k + l, data = df)
modelo2 <- lm(log(q) ~ log(k) + log(l), data = df)

Modelo no lineal

plot(df$k,modelo1$residuals)

5
60000
modelo1$residuals

20000
−20000

0 500 1000 1500 2000

df$k

plot(df$l,modelo1$residuals)

6
60000
modelo1$residuals

20000
−20000

0 500 1000 1500 2000 2500 3000

df$l

Modelo lineal

plot(log(df$l),modelo2$residuals)

7
2
modelo2$residuals

1
0
−1
−2

2 3 4 5 6 7 8

log(df$l)

plot(log(df$k),modelo2$residuals)

8
2
modelo2$residuals

1
0
−1
−2

2 3 4 5 6 7

log(df$k)

Homocedasticidad

Breusch-Pagan

# Cargar librerías
library(lmtest)

## Warning: package ’lmtest’ was built under R version 4.3.1

## Loading required package: zoo

##
## Attaching package: ’zoo’

## The following objects are masked from ’package:base’:


##
## as.Date, as.Date.numeric

bp_test <- bptest(modelo1)


print(bp_test)

9
##
## studentized Breusch-Pagan test
##
## data: modelo1
## BP = 53.778, df = 2, p-value = 2.101e-12

Interpretacion: Si el p valor es menor ha 0.05 entonces hay heterocedasticidad(problema)

Caso no heterocedastico

bp_test <- bptest(modelo2)


print(bp_test)

##
## studentized Breusch-Pagan test
##
## data: modelo2
## BP = 1.572, df = 2, p-value = 0.4557

Independencia

df$r1 <- modelo1$residuals


df$r2 <- modelo2$residuals
cor(df[,c("l","k","r1")])

## l k r1
## l 1.000000e+00 4.663293e-03 1.332444e-17
## k 4.663293e-03 1.000000e+00 -6.958644e-17
## r1 1.332444e-17 -6.958644e-17 1.000000e+00

Normalidad

Caso no normal

hist(df$r1)

10
Histogram of df$r1
500
Frequency

300
100
0

−40000 −20000 0 20000 40000 60000 80000

df$r1

Caso normal

hist(df$r2)

11
Histogram of df$r2
250
200
Frequency

150
100
50
0

−2 −1 0 1 2 3

df$r2

Test de Shapiro-Wilk

shapiro.test(modelo1$residuals)

##
## Shapiro-Wilk normality test
##
## data: modelo1$residuals
## W = 0.62605, p-value < 2.2e-16

Interpretacion: Si el p valor es menor ha 0.05 entonces no hay normalidad(problema)

shapiro.test(modelo2$residuals)

##
## Shapiro-Wilk normality test
##
## data: modelo2$residuals
## W = 0.99791, p-value = 0.2473

Interpretacion: Si el p valor es menor ha 0.05 entonces no hay normalidad(problema)

12
Test de Anderson-Darling

library(nortest)
ad.test(modelo1$residuals)

##
## Anderson-Darling normality test
##
## data: modelo1$residuals
## A = 90.606, p-value < 2.2e-16

Interpretacion: Si el p valor es menor ha 0.05 entonces no hay normalidad(problema)

ad.test(modelo2$residuals)

##
## Anderson-Darling normality test
##
## data: modelo2$residuals
## A = 0.45538, p-value = 0.2674

Interpretacion: Si el p valor es menor ha 0.05 entonces no hay normalidad(problema)

13

También podría gustarte