Geoe Stadi Stica
Geoe Stadi Stica
Geoe Stadi Stica
Definición de Estadística
Es la Ciencia de la
– ¿Estratificado? ¿Sistemáticamente?
PARÁMETROS
In d
uc
c ió
n
INFERENCIAL
Muestra (n) Generalizar los aspectos
característicos de la muestra
! ) Varianza (s2) Correlación (r)
Media (𝑿
Estadígrafos
De d ESTADÍSTICA
u cc
ió n
DESCRIPTIVA
R OPAI
CONSIDERACIONES BÁSICAS
Expresado por numerales, pueden ser:
Ø CUANTITATIVOS
Dato Cantidades directas de la información.
Ø CUALITATIVOS
Reflejan observaciones cuantificables de categorías empleadas en
el análisis.
1. NOMINAL O CARDINAL
2. ORDINAL O DE RANGO
3. INTERVALO
4. PROPORCIÓN
Tipos de variables
• Cualitativas
Si sus valores (modalidades) no se pueden asociar naturalmente a un número (no se pueden hacer
operaciones algebraicas con ellos)
• Cuantitativas o Numéricas
Si sus valores son numéricos (se puede hacer operaciones algebraicas con ellos)
Medidas de Posición:
Cuantiles
Cuartiles, quintiles, deciles,
Mediana
Medidas de Dispersión:
Amplitud, Varianza, CV.
Medidas de Asociación:
Covarianza, Correlación
Medidas de Forma:
Asimetría
Curtosis
ESTADÍSTICA INDUCTIVA
OBJETIVO CARACTERIZA
avanza
PARTICULAR GENERAL
ESTADÍSTICA DESCRIPTIVA
distribuciones de medidas de
frecuencias y sus tendencia central
representaciones y de dispersión
gráficas
EXPERIMENTO
Proceso mediante el cual se obtiene una observación.
Al menos conceptualmente es posible imaginar experimentos en los cuales el
resultado puede anticiparse (de poco o ningún interés).
Experimento Aleatorio
Es aquel cuyos resultados no pueden predecirse antes de su realización
y, por lo tanto, están sujetos al azar.
ESPACIO MUESTRAL (M o Ω)
El conjunto integrado por todos los resultados posibles de un proceso
experimental u observacional.
EJEMPLOS DE ESPACIOS MUESTRALES
Experimentos aleatorios:
M = {F, D}
M = {1, 2, 3, 4, ...}
Los ... indica el hecho de que cualquier número
entero positivo, no importa cuan grande, puede ser
el resultado del experimento.
M = { ( x, y ) ½x = 1, 2, 3, ...; y = 1, 2, 3, ... }
M = { ( t, c ) ½t > 0 ; c > 0 }
M = {F, D}
M = {vvv, mvv, vmv, vvm, vmm, mvm, mmv, mmm}
M = {0, 1, 2, 3, 4, 5, 6 ,7 ,8, 9, 10}
M = {1, 2, 3, 4, ...}
g) M = { ( t, c ) ½t > 0 ; c > 0 }
Espacio muestral bidimensional continuo.
EVENTO Es un subconjunto del espacio muestral.
Si un espacio muestral es DISCRETO, puede tener tantos eventos
como resultados posibles tenga el experimento.
En espacios muestrales CONTINUOS esto es imposible.
!A
i =1
i =A 1 ! A 2 ! A 3 = M
Sí se cumplen estas condiciones,
entonces A1, A2, A3 forman una
A1 ! A 2 = f A1 ! A 3 = f PARTICIÓN DEL ESPACIO MUESTRAL
A2 ! A3 = f A1 ! A 2 ! A 3 = f
POBLACIÓN Y MUESTRA
Población
Conjunto de resultados potenciales de
un experimento aleatorio si este se
repitiera en todas las unidades a las
que se quiere investigar. También se
la llama población objetivo.
Muestra
Una muestra de una población
estadística es el conjunto de
resultados que se colectan de
hecho en una investigación.
Una muestra debe ser un
subconjunto de la población.
PROBABILIDAD
PROBABILIDAD
En lenguaje cotidiano, el concepto de
probabilidad ésta ligado al de
frecuencia relativa.
Es poco probable enriquecerse jugando a
la lotería o ruleta porque los casos en
que esto ocurra son poco frecuentes.
es decir
{x, f X ( x) = P( X = x)}
conjunto de pares x cada uno de los valores que puede tomar la VA X
ordenados fx(x) probabilidad asociada con el valor particular x
2x + 1
P( X = x) = fX ( x) = ; x = 1, 2, 3, 4, 5
35
x 1 2 3 4 5 S
fx(x) 3/35 5/35 7/35 9/35 11/35 1
REPRESENTACIÓN GRÁFICA DE FUNCIONES DE PROBABILIDAD
Ø Diagramas de puntos
Ø Histogramas de probabilidades
0,4
fX ( x) 0,4
0,3
0,3
0,2
0,2 0,3
0,1 0,2
0,1 0,1 0,1 0,1 0,1 0,1
0 X
0 -2 -1 0 1 2 3 4 X
-3 -2 -1 0 1 2 3 4 5
Fig. 2.1.
1. Histograma
Diagrama de probabilidades.
puntos para una función de probabilidad
FUNCIÓN DE PROBABILIDADES DE UNA VARIABLE ALEATORIA CONTINUA
fx(X)
P(a<x<b)
X
a b
Fig. 2.5 Función de densidad de probabilidades
PROPIEDADES
a) La curva siempre se encuentra sobre el eje de las abscisas.
Es decir fx(X) ³ 0
c) El área delimitada por dos líneas verticales levantadas sobre los puntos a y
b (a < b) y la curva, es la probabilidad de que X tome un valor entre a y b.
MOMENTOS DE VARIABLES ALEATORIAS
r-ésimo Momento
con respecto al Origen ( )
E X r = å X r fX (x ) fX(x) µX = -1
x 0,4
-1(0,4)
0,3 -2(0,2)
E(X ) = å x fX (x )
0(0,2)
ESPERANZA MATEMÁTICA 0,2 0,4
x -3(0,1) 1(0,1)
promedio de los valores asumidos por la 0,1 0,2 0,2
0,1 0,1
variable, donde cada valor es “ponderado” por 0
X
su probabilidad de ocurrencia. -3 -2 -1 0 1
E(X²) = (–3)2 (0,1) + (–2)2 (0,2) + (–1)2 (0,4) + (0)2 (0,2) + (1)2 (0,1) = 2,2
ESPERANZA MATEMÁTICA: Interpretación física
fX(x) µX = -1
0,4
0,3
V.A. Con(nua
0,2 0,4
E(X - µ x ) = å (X - µ x ) fX (x )
r r
(-2)2 (+2)2
x
VARIANZA POBLACIONAL
E(X - µ x ) = Var(X ) = å (X - µ x ) fX (x )
2 2
ì1
ï ; x = 1, 2, 3, 4, 5
fX (x ) = í 5
ï
î0; de otra forma
X 1 2 3 4 5 S
fX ( x) 1/5 1/5 1/5 1/5 1/5 1,0
Esperanza Matemá5ca de X
æ 1ö æ 1ö æ 1ö æ 1ö æ 1ö
µ X = å x fX (x ) = (1)ç ÷ + (2)ç ÷ + (3)ç ÷ + ( 4)ç ÷ + (5)ç ÷ = 3,0
x è5ø è5ø è5ø è5ø è5ø
Varianza de X
æ 1ö æ 1ö æ 1ö æ 1ö æ 1ö
s2X = å (x - µ X ) fX (x ) = (1 - 3) 2 ç ÷ + (2 - 3) 2 ç ÷ + (3 - 3) 2 ç ÷ + ( 4 - 3) 2 ç ÷ + (5 - 3) 2 ç ÷ = 2,0
2
ì1
ï ; x = 1, 2, 3, 4, 5 1,4
fX (x ) = í 5 𝐶𝑉 = . 100 = 47%
ï
î0; de otra forma 3
FORMA DE LA DISTRIBUCIÓN: ASIMETRÍA Y CURTOSIS
1 1
P( X £ Me ) ³ y P( X ³ Me ) ³
2 2
Dicho en palabras: Me es un valor tal que la probabilidad acumulada hasta
(incluyendo a) Me es al menos 1/2, y la probabilidad desde
(incluyendo a) Me es al menos 1/2
Ejemplo 2.16
Se desea conocer el % de individuos que Genen longitud <= 12 cm,
Equivale a querer conocer a qué cuanGl corresponde el valor 12 de la variable
“longitud”.
Es común expresar el cuanGl como %
El cuanGl x0,10 à percenGl 10
El cuanGl x0,75 à percenGl 75, ...
Sirven para fijar límites de tolerancia para los valores de algunas variables.
En medicina, los límites normales de talla o de peso para un niño de dos
años, no son más que los cuantiles 0,05 y 0,95 de la talla o del peso en la
población de niños normales de esa edad.
Ejemplo: Sea X una VA con distribución:
X 1 2 3 4 5 6 S
f X ( x) 0,1 0,1 0,3 0,2 0,2 0,1 1,0
Me = 3
Puesto que: P(X ≤ 3) = 0,5 y P(X ³ 3) = 0,8
Me = 4
Puesto que: P(X ≤ 4) = 0,7 y P(X ³ 4) = 0,5
Me no es única, pues X = 3 y X = 4
satisfacen la definición de Me
MODA DE UNA DISTRIBUCIÓN TEÓRICA
ìx2 + 1
ïï ; x = -2, - 1, 0, 1, 2
Ej.: Sea X una VA con función de probabilidades: fX (x ) = í 15
ï
ïî 0 ; de otra forma
X -2 -1 0 1 2 S
f X ( x) 5/15 2/15 1/15 2/15 5/15 1,0
ì 4x - x 2 + 2
ïï ; x = 0, 1, 2, 3 X 0 1 2 3 S
fX (x ) = í 18
ï f X ( x) 2/18 5/18 6/18 5/18 1,0
ïî 0 ; de otra forma
Mo = 2
RELACIONES IMPORTANTES
µ < Mo < Me Ligera asimetría hacia la izquierda
µ = Mo = Me La distribución es simétrica
la probabilidad mencionada es fx ,y (x , y )
i j
se tiene: fX ,Y ( x i , y j ) = P( X = x i ; Y = y j )
Y
0 1 2 3 S
X
1 0,01 0,02 0,00 0,01 0,04
2 0,11 0,01 0,02 0,00 0,14
3 0,18 0,02 0,02 0,00 0,22
4 0,16 0,07 0,04 0,00 0,27
5 0,09 0,06 0,03 0,01 0,19 X = 3, Y = 0 à (0,18)
6 0,03 0,01 0,03 0,01 0,08
de las 1000 líneas, en 180 se
encuentra tres veces la letra r y cero
7 0,03 0,02 0,01 0,00 0,06
veces la letra g
S 0,61 0,21 0,15 0,03 1,00
ìx + y
ïï 18 ; x = 0, 1, 2; y = 0, 1, 2
fX ,Y (x, y ) = í
ï
ïî 0 ; de otra forma
b) å å f (x , y ) = 1
i j
x ,y i j
Distribuciones Marginales de X y Y
Distribución Marginal de X
X 0 1 2 S
fX(x) 3/18 6/18 9/18 18/18
Distribución Marginal de Y
Y 0 1 2 S
fY(y) 3/18 6/18 9/18 18/18
ìx + y
ïï 18 ; x = 0, 1, 2; y = 0, 1, 2
FUNCIONES MARGINALES de X y Y fX ,Y (x, y ) = í
ï
ïî 0 ; de otra forma
x + y x + 0 x + 1 x + 2 3x + 3 x + 1
f X (x ) = å f X ,Y ( xi , y j ) = å = + + = =
y y 18 18 18 18 18 6
ì x +1
ï ; x = 0, 1, 2
ï 6
fX (x ) = í
FUNCION MARGINAL de X ï
ï
î0 ; de otra forma
x + y 0 + y 1+ y 2 + y y + 1
fY (y ) = å fX ,Y ( x i , y j ) = å = + + =
x x 18 18 18 18 6
ì y +1
ï ; y = 0, 1, 2
ï 6
fY (y ) = í
FUNCION MARGINAL de Y ï
ï0 ; de otra forma
î
MOMENTOS CONJUNTOS DE VARIABLES ALEATORIAS
Momentos Conjuntos con Respecto al Origen
El k-l ésimo momento conjunto con respecto al origen es: EJEMPLO: ESPERANZA CONJUNTA DE X y Y
E( X Y ) = åå x y f
Y
k I k I
i j X i ,Yj (xi ,y j ) X
0
0
0,04
1
0,03
2
0,03
3
0,00
4
0,00
5
0,00
S
0,10
i j 1 0,01 0,10 0,10 0,04 0,00 0,00 0,25
El caso más importante cuando k = 1 y I = 1. 2 0,01 0,09 0,11 0,14 0,04 0,01 0,40
3 0,00 0,03 0,01 0,03 0,08 0,05 0,20
ESPERANZA CONJUNTA DE X y Y
4 0,00 0,00 0,00 0,01 0,03 0,00 0,04
E( XY) = åå x i y j fX i ,Yj ( x i , y j ) 5
S
0,00
0,06
0,00
0,25
0,00
0,25
0,00
0,22
0,00
0,15
0,01
0,07
0,01
1,00
i j
[ ]
E ( X - µ x ) k (Y - µ y ) I = åå ( xi - µ x ) k ( y j - µ y ) I f X i ,Y j ( xi , y j )
i j
COVARIANZA ENTRE X y Y [ ]
Cov( XY ) = E ( X - µ x )(Y - µ y ) = åå ( xi - µ x )( y j - µ y ) f X i ,Y j ( xi , y j )
i j
Y
0 1 2 3 4 5 S
X Cov(X,Y) = (0 – 1,86 )( 0 – 2,36 )( 0,04 ) + (0 – 1,86 )(1 – 2,36 )( 0,03 )
0 0,04 0,03 0,03 0,00 0,00 0,00 0,10
1 0,01 0,10 0,10 0,04 0,00 0,00 0,25
+ ... + ( 5 – 1,86 )( 5 – 2,36 )( 0,01 ) = 0,89
2 0,01 0,09 0,11 0,14 0,04 0,01 0,40
Forma abreviada
3 0,00 0,03 0,01 0,03 0,08 0,05 0,20
4 0,00 0,00 0,00 0,01 0,03 0,00 0,04 Cov(XY) = E(XY) – µXµY
5 0,00 0,00 0,00 0,00 0,00 0,01 0,01
S 0,06 0,25 0,25 0,22 0,15 0,07 1,00 = 5,28 – ( 1,86 ) ( 2,36 ) = 0,89
CORRELACIÓN EN DISTRIBUCIONES TEÓRICAS
Sean X y Y dos VA. Sean sXY, sX y sY la covarianza entre ellas y las desviaciones
estándar respectivas. La correlación entre X y Y se denota por ρXY y tiene por
ecuación.
Cov( XY) s
r XY = = XY
Var( X ) Var( Y) s x s Y
Ejemplo: Calcular la correlación entre el grado de escolaridad de los miembros
de parejas.
Anteriormente se obtuvo: µX = 1,86, µY = 2,36 y sXY = 0,89
0,8904
r XY = = 0,6367
1,0804 1,8104
INDEPENDENCIA DE VARIABLES ALEATORIAS
Dos eventos A y B son independientes si y sólo si:
P(A B) = P(A).P(B)
ì x +1
; x = 0, 1, 2
ìx + y ï
ï 6
ïï 18 ; x = 0, 1, 2; y = 0, 1, 2 fX (x ) = í
fX ,Y (x, y ) = í ï
ï
î0 ; de otra forma
ï ì y +1
ïî 0 ; de otra forma ï
ï
; y = 0, 1, 2
6
fY (y ) = í
ï
ï
î0 ; de otra forma
x + y æ x + 1ö æ y + 1ö
fX ,Y (x, y ) = ¹ç ÷×ç ÷ = fX (x ) × fY (y )
18 è 6 ø è 6 ø
El resultado anterior también puede verificarse en la tabla de probabilidades
conjuntas de X y Y.
3 3
Nótese que: fX ,Y (0,0) = 0 ¹ fX (0) × fY (0) = ×
18 18
Nótese que, aunque 1 3 6 1
fX ,Y (0,1) = fX (0) × fY (1) = × =
18 18 18 18
ì x+3
ïï ; x = 1, 2
f X (x ) = í 9
ì xy - x + 3y - 3 ï
ïï ; x = 1, 2; y = 2, 3, 4 ïî0; de otra forma
fX ,Y (x, y ) = í 54
ï
ïî 0; de otra forma ì y -1
ïï ; y = 2, 3, 4
fY ( y ) = í 6
ï
ïî0; de otra forma
xy - x + 3y - 3 æ x + 3 öæ y - 1 ö
Entonces:
fX ,Y (x, y ) = =ç ÷ç ÷ = fX (x ).fY (y )
54 è 9 øè 6 ø
MODELO PROBABÍLISTICO
Cuando Es posible
12
MODELOS PROBABILISTICOS
Uniforme
Binomial puntual o Bernoulli
Binomial
Hipergeométrica.
Poisson
V.A. DISCRETAS Binomial Negativa
Geométrica o Pascal
Multinomial
Gamma
Exponencial
Uniforme
V. A. Normal
t de Student
CONTINUAS
Ji– cuadrada (X²)
F de Snedecor
FUNCIÓN DE PROBABILIDADES UNIFORME DISCRETA (VA X)
ì1
ïïn ; x = k 1 , k 2 , ... Características:
fX (x ) = í
ï a) M tiene un número finito (n) de resultados posibles
ïî 0; de otra forma Bi (i = 1, 2, ..., n)
n número de resultados posibles en el b) Los eventos Bi tienen la misma probabilidad de
experimento (parámetro) ocurrencia.
ki valores que toma la VA
X 1 3 5 6 7 S
Ejemplo:
f X ( x) 1/5 1/5 1/5 1/5 1/5 1,0
! 1
# ; x = 1, 3, 5, 6, 7
fX ( x ) = " 5 fX(X)
# 0; de otra forma
$
X
ì1
ïïn ; x = 1, 2, ..., n
IMPORTANTE: Cuando la VA toma como valores los primeros
n enteros positivos. fX (x ) = í
ï
ïî0; de otra forma
ESPERANZA MATEMÁTICA Y VARIANZA
n +1
µ x = E( x) = n 2
-1
2 s 2
x = var( x ) =
12
Ejemplo:
En el 2015 se encomendó a un auditor del SRI, revisar la ì 1
ï ; x = 1, 2, ...,74
declaración de impuestos de uno cualquiera de los 74 profesores ï
de la FARNR. fX (x ) = í 74
ï
Para elegir al profesor, el auditor escribe los nombres de cada uno ï
î0 ; de otra forma
de los profesores en sendas tarjetas previamente numeradas.
74 + 1
Selecciona una de ellas y registra el nombre allí escrito. µ x = E( x) = = 37,5
El M resultante está constituido por los nombres de los 74
2
profesores.
74 2 - 1
X: VA nombre del profesor (número) de la tarjeta. s2 x = var(x) = = 456,25
12
DISTRIBUCIÓN BINOMIAL PUNTUAL O BERNOULLI
Jacobo Bernoulli (1654-1705), matemático suizo
Postulados
a) Experimento con dos resultados posibles: éxito (E) y fracaso (F),
presencia o ausencia, sí o no, ... (mutuamente excluyentes).
M = {E, F}.
b) P(E) = P(0 ≤ p ≤ 1) por lo que:
P({E}) = p X 0 1
P({F}) = 1 – p = q P(X = x) 1–p p
Definición
MEDIA Y VARIANZA
ìæ n ö x n- x
ç
ïç ÷ ÷p (1 - p ) ; x = 0, 1, 2,..., n
fX (x ) = íè x ø µX = E(X) = np
ï 0 ; de otra forma
î σ²X = Var(X) = npq q=1–p
0 ≤p ≤1
Símbolo combinatorio
Si c y d son dos números enteros no æ c ö "combinaciones", de c tomadas de d
negativos tales que d ≤ c, el símbolo çç ÷÷ en d y tiene como expresión:
d
è ø
Experimento Bernoulli
Modelo Poisson
Número muy grande de repeticiones, n à ∞
Probabilidades de éxito muy pequeñas forma límite de la
distribución Binomial
"eventos raros"
Definición Una VA tiene una distribución de Poisson, si
ì e - l lx
ï ; x = 0, 1, 2, ...
fX (x ) = í x!
ï 0; de otra forma
î
e » 2,71828... base de los logaritmos naturales Media Varianza
l número (desconocido) > 0 E(X) = l Var(X) = l
l No promedio de éxitos por intervalo (parámetro).
Notación X ~ P(l)
FUNCIÓN DE PROBABILIDADES BINOMIAL NEGATIVA
Definición:
ìæ n - 1ö k n-k n VA número de repeticiones
ïç ÷p q ; n = k, k + 1,... k número de éxitos Parámetros: k y p
fN (n) = P(N = n) = íçè k - 1÷ø Notación: N ~ BN (k,p)
p probabilidad en cada intento
ï 0; de otra forma
î q=1–p
k kq
E(N) = Var (N) =
p p2 Semejanzas y diferencias en la notación
Función VA Parámetro Valores de la VA
En un modelo Binomial
Binomial X n, p X = 0, 1, 2, …, n
¿Cuál es la probabilidad que en n Binomial Negativa N K, p N = k, k + 1, …
repe8ciones se obtengan exactamente k
éxitos (k = 0, 1, ..., n)?
el número de repe+ciones está fijo
la VA es el número de éxitos
Ahora
¿Cuál es la probabilidad que para que se
obtengan k éxitos se requieran n
repeDciones?
el número de éxitos se fija de antemano
la VA es el número de repe+ciones necesarias para
obtener los éxitos requeridos
Muestreo Binomial Inverso
LA DISTRIBUCIÓN GEOMÉTRICA O DISTRIBUCIÓN DE PASCAL
Caso particular de la distribución Binomial Negativa, cuando k = 1
Ejemplos:
Ø Que aparezca un solo caso de una enfermedad mortal previamente
inexistente en un país.
Ø Que se encuentre una planta atacada por un hongo en un invernadero.
ìpqn-1 ; n = 1, 2,...,
fN (n) = í
î 0; de otra forma
1 q
E(N) = Var (N) =
p p2
DISTRIBUCIÓN MULTINOMIAL
Generalización de la Distribución Binomial, donde el interés es calcular la
probabilidad de obtener:
n1, n2, ..., nk k categorías
N = x1 + x2 +...+ xk muestras
p1, p2, ..., pk probabilidad de ocurrencia de cada categoría en la
población
Se dice que una variable 8ene distribución mul8nomial y se denota como
Mul'(N,p1, p2,...., pk-1), cuando su función de densidad está dada por:
𝑁! % % %
𝑝" ! 𝑝# " … 𝑝! # 𝑥 = 𝑥" , 𝑥# , … , 𝑥!
𝑥" ! 𝑥# ! … 𝑥!!
𝑃 𝑋! = 𝑥 =
0; 𝑑𝑒 𝑜𝑡𝑟𝑎 𝑓𝑜𝑟𝑚𝑎
N = x1 + x2 + ... + xk
xi ∈ [0, 1, ..., N]
i = 1, 2, ..., k
P1 + p2 + ... + pk = 1
DISTRIBUCION NORMAL
Importancia:
Modelo adecuado para una gran diversidad de Utilizada como modelo: Ingeniería,
situaciones en el mundo real. Física, Astronomía, Biología,
Por su papel en la teoría estadís8ca, sirve como Agronomía y Medicina
punto de par8da para el desarrollo de muchas
técnicas de inferencia
Una población de naranjas,
diámetro promedio = 10 cm
Variables continuas:
Peso
Longitud
Altura
Temperatura
6 8 12 14 Absorbancia óptica
µ = 10 Resistencia a la tracción, ...
ì 1 é 1 ù
- ê 2 ( x - µ )2 ú
fX(x) ï e ë 2s û
; -¥ < x < ¥
fX (x) = ís 2p
ï
î 0; de otra forma
e = 2,71828...
p = 3,14159...
sX
Parámetros: µ y s2
a b
E(x) = µX x
"
1 #
$
'#( ! Por la importancia de la distribución normal, se
𝑃 𝑎≤𝑋≤𝑏 =( 𝑒 %& ! explica la costumbre de llamar µ a la media y s2 a
! 𝜎 2𝜋
la varianza de cualquier VA.
Cada par de valores µ y s2 determina una función
de densidad distinta.
Notación: X ~ N(µ, s2)
DISTRIBUCION NORMAL ESTÁNDAR
σx = 2 1
μx = 20
z
0
Función de densidad:
ì 1 é 1 ù
- ê 2 ( x - µ )2 ú
ï e ë 2s û
; -¥ < x < ¥
fX (x) = ís 2p
ï
î 0; de otra forma
N(μ, σ): Interpretación geométrica
Se puede interpretar la μ como un factor de traslación.
N(-3,1) N(0,1) N(3,1)
-3 0 3
N(0,1)
N(0,2)
N(0,4)
La σ como un factor de escala,
grado de dispersión.
0
CARACTERÍSTICAS DE LA DISTRIBUCIÓN NORMAL
• La función de densidad es simétrica, mesocúrtica y unimodal.
media = mediana = moda
14 16 18 22 24 26
• Todas las distribuciones normales N(μ, σ), pueden representarse
mediante una traslación μ, y un cambio de escala σ, como N(0,1). Esta
distribución especial se llama normal tipificada.
• Justifica la técnica de tipificación, cuando se intenta comparar
individuos diferentes obtenidos de sendas poblaciones normales.
LA DISTRIBUCION NORMAL ESTÁNDAR …
Ejemplo 1:
fz(Z)
Calcular P(Z ≤ 1,96)
𝜒(") = + 0,4 3 gl
0,3
4 gl
$
Caso más sencillo: 𝜒(")
= 𝑍$ 0,2
5 gl
Si Z ~ N(0, 1) entonces 𝜒 $ = 𝑍 $ 6 gl
0,1
0 1 2 3 4 5 6 7 8 9 10
Zi son normales estándar independientes
X2 tiene distribución Ji-Cuadrada con u gl.
0,10
10 gl
u=4 ( )
E X2( u) = u
0,08 15 gl
20 gl
u=7
Var X( ) = 2u
2
( u)
0,06
0,04
0,02
0
0 5 10 15 20 25 30 35
DISTRIBUCION t DE STUDENT
William Sealy Gosset (1876-1937)
𝑍
𝑡(") = tiene una distribución t de Student
𝜒$ con u grados de libertad.
𝜈 t∞(0, 1)
t3(0, 1)
N(0, 1) t1(0, 1)
t(5)
0
0
DISTRIBUCIÓN F
Si X2(m) y X2(n) dos VA independientes distribuidas como Ji-Cuadrada con m
y n grados de libertad, respec8vamente, entonces:
c 2
( m)
fF(F)
(m = 6, n = 24)
m
F= 2
c ( n)
n F
Uso:
Problemas de inferencia: comparar las varianzas de dos
poblaciones normales, comparar los efectos de dos o más
tratamientos, y otros.
DISTRIBUCIÓN GAMMA
'
Es importante en la modelación de algunos 𝑥 !#$ 𝑒 #"
fenómenos meteorológicos como las precipitaciones. 𝑠𝑖 0 ≤ 𝑥 ≤ ∞
𝑓 𝑥 = 𝛽 ) Γ(𝛼)
Una VA X tiene distribución Gamma si y solo si su
función de densidad es: 0; 𝑒𝑛 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟𝑎𝑟𝑖𝑜
𝛼>0
Notación: X~G(α ,β)
𝛽>0
+
Γ 𝛼 = ( 𝑦 )#$ 𝑒 #, 𝑑𝑦
*
"
!
𝑒 #
𝑠𝑖 0 ≤ 𝑥
𝑓 𝑥 = 𝜃
0; 𝑒𝑛 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟𝑎𝑟𝑖𝑜
𝜃>0
Notación: X ~ Exp(θ)
E(X) = θ V(X) = θ2
Contenido
Definiciones
Relación con la Estadística
Historia
Software
Análisis Geoestadístico
Aplicaciones
Propósito
Variables regionalizadas
Función Aleatoria
Geoestadística: Origen
Otras definiciones:
… se caracteriza por tomar en cuenta la relación espacial de las variables en estudio.
… se enfoca en analizar, procesar e inferir datos georeferenciados.
… conjunto de técnicas para el análisis y predicción de valores distribuidos en el
espacio y/o en el tiempo (valores correlacionados entre si)
Estadística y Probabilidad
Estadística:
Rama de la matemática: Recolección, organizar, presentar y procesar datos,
extrapolar conclusiones con información de una muestra: Descriptiva e Inferencial
a
P( A ) =
n
Probabilidad: Concepto Frecuencial (objetiva)
Si A es un evento y nA es el número de veces que A ocurre en N
repeticiones independientes del experimento, la probabilidad del
evento A, denotada por P(A), se define como:
𝑛$
lim
!→# 𝑁
Objeto de estudio de la
Geoestadística
Semivariograma:
Herramienta principal de la geoestadística.
Ej. Entre un punto y otro punto se puede dar tal condición, pero en
lugares no será posible, ahí hay que hacer interpolaciones y
estimaciones espaciales (Kriging).
Análisis Exploratorio de Datos (AED)
Etapas
Ejemplo:
Ley de cobre, del muestreo, de los puntos cercanos tienen valores similares
v Diagramas de dispersión
v Función de correlación
v Función de covarianza
𝐹&' 𝑋, 𝑌 = 𝑃 𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦
Covararianza
Cov 𝑋, 𝑌 = 𝜎&' = 𝐸 𝑋 − 𝑚( − 𝑌 − 𝑚)
- -
1 1
𝜎&' = 0 𝑥* − 𝑚( 𝑦* − 𝑚) = 0 𝑥* 𝑦* − 𝑚( 𝑚)
𝑁 𝑁
*+, *+,
Semivariograma
- -
1 .
1 .
𝛾&' = 0 𝑑* = 0 𝑥* − 𝑦*
𝑁 2𝑁
*+, *+,
𝟏 𝒑𝒂𝒓𝒂 𝒂 > 𝟎
𝒓𝒙𝒚 = -
−𝟏 𝒑𝒂𝒓𝒂 𝒂 < 𝟎
Diagrama de dispersión (Scattergram)
r = 0,88
r = 0,72
Estadística multivariada
Técnicas multivariadas:
Ø Análisis de Regresión
Ø Análisis de conglomerados
Ø Análisis de componentes principales
Ø Análisis Factorial
Ø Análisis discriminante, …
Regresión lineal y Mínimos cuadrados
𝐂𝐨𝐯 𝒆𝒊 , 𝒆𝒋 = 𝟎 ∀𝒊 ≠ 𝒋 No correlacionados
Sistema de ecuaciones:
R2 = 0,51
R2 = 0,78
Sea una función aleatoria Z(x) definida en una región Ω, entonces el vector aleatorio:
𝒁 𝒙𝟏 , 𝒁 𝒙𝟐 , … , 𝒁 𝒙𝒏
Se caracteriza por su función de distribución de probabilidad n-variada:
𝑭𝒁 𝒙𝟏 ,𝒁 𝒙𝟐 ,…,𝒁 𝒙𝒏 𝒁𝟏 , 𝒁𝟐 , … , 𝒁𝒏 , = 𝑷(𝒁 𝒙𝟏 ≤ 𝒁𝟏 , 𝒁 𝒙𝟐 ≤ 𝒁𝟐 , … , 𝒁 𝒙𝒏 ≤ 𝒁𝒏 )
Covarianza de Z(x)
𝑪𝒐𝒗 𝒙𝒊 , 𝒙𝒋 = 𝑬 𝒁 𝒙𝒊 − 𝒎(𝒙𝒊 ) 𝒁 𝒙𝒋 − 𝒎(𝒙𝒋 )
Semivariograma Z(x)
𝟐𝜸 𝒙𝒊 , 𝒙𝒋 = 𝑽𝒂𝒓 𝒁 𝒙𝒊 − 𝒁(𝒙𝒋 )
𝟏 𝟐
𝜸 𝒙𝒊 , 𝒙𝒋 = 𝑬 𝒁 𝒙𝒊 − 𝒁(𝒙𝒋 )
𝟐
También se conoce como
función de semivariograma o variograma
Estacionaridad de una Función Aleatoria
Media no estacionaria
1 1 !
𝛾 ℎ = 𝑉𝑎𝑟 𝑍 𝑥 − 𝑍 𝑥 + ℎ = 𝐸 . 𝑍 𝑥 − 𝑍(𝑥 + ℎ
2 2
1 2 3 4 5 4 3 2 1
8 pares
h=1
h=2 7 pares
h=3 6 pares
h=4
5 pares
1
ℎ = 1 → 𝐺! = ∗8∗ 1−2 "+ 2−3 "+ 3−4 "+ 4−5 " + 5−4 " + 4−3 " + 3−2 " + 2−1 " = 0,5
2
1
ℎ = 2 → 𝐺! = ∗ 7 ∗ 1 − 3 " + 2 − 4 " + 3−5 " + 4−4 " + 5−3 " + 4−2 " + 3−1 " = 1,7
2
1
ℎ = 3 → 𝐺! = ∗ 6 ∗ 1 − 4 " + 2−5 " + 3−4 " + 4−3 " + 5−2 " + 4−1 " = 3,2
2
1 " " " " "
ℎ = 4 → 𝐺! = ∗ 5 ∗ 1−5 + 2−4 + 3−3 + 4−2 + 5−1 = 4,0
2
Gráfico del Variograma
1 2 3 4 5 4 3 2 1 5 1 3 1 4 2 2 4 3
Comportamiento
irregular entre 𝒉 𝑦 𝜸𝒉
Comportamiento
lineal positivo
𝒉 𝜸𝒉 𝒉 𝜸𝒉
1 0,5 1 2,7
2 1,7 2 1,0
3 3,2 3 3,1
4 4,0 4 4,1
Componentes de un Variograma: Continuidad espacial, Alcance Anisotropías
20 m
Ejemplo:
Si una muestra tiene un alcance = 20 m, se
puede extrapolar hasta 20 m, mas allá no
Gamma (h)
Gamma (h)
Los modelos de variograma son curvas,
generadas a partir de una función matemática, Distancia Distancia
que se ajustan a los datos y permiten conocer la Modelo Logarítmico Modelo Gaussiano
distribución para todos los puntos en el espacio.
Gamma (h)
Gamma (h)
Se utilizan para Krigear Distancia Distancia
Con el variograma experimental quedan zonas donde no Modelo Lineal Modelo wisjiano
existen valores, por tanto es posible que sea necesario
Gamma (h)
Gamma (h)
definir el valor de la variables en puntos donde el
variograma experimental no ofrece información.
Distancia Distancia
Efecto pepita Modelo con efecto agujero
En geología, los más utilizados son los de tipo transicional
Gamma (h)
Gamma (h)
(con meseta): Esférico, Exponencial y Parabólico.
Otro, Modelo Efecto Pepita Puro (solo tiene meseta)
Distancia Distancia
Modelo transitivo
Gamma (h)
Con los puntos se traza una curva y se busca el
mejor ajuste (R2) con la estadística bivariada
Distancia
Modelo esférico
Modelo de potencial (más utilizado)
𝟑
𝜸(𝒉) = 𝝎 𝒉 𝜶 𝒉 𝒉
𝑪 𝟏, 𝟓 − 𝟎, 𝟓 𝒉≤𝒂
𝜸(𝒉) = 𝒂 𝒂
𝑪 𝒉>𝒂
𝜔>0 𝟎 𝒉=𝟎
0 <∝< 2
C = meseta
a una distancia h = 0, siempre 𝛾(%) = 0
Modelo cuadrático Modelo exponencial
(similar al esférico)
𝒉
𝟐 𝑪 𝟏 − 𝒆𝒙𝒑 − 𝒉 > 𝟑𝝎
𝒉 𝒉 𝝎
𝑪 𝟐 − 𝒉≤𝒂 𝜸(𝒉) =
𝜸(𝒉) = 𝒂 𝒂 𝟎 𝒉=𝟎
𝑪 𝒉>𝒂 𝒂𝒍𝒄𝒂𝒏𝒄𝒆 𝒑𝒓á𝒄𝒕𝒊𝒄𝒐 = 𝟑𝝎
𝟎 𝒉=𝟎
Modelo gaussiano Modelo cúbico
𝟐 𝟑 𝟓 𝟕
𝟐 𝒉 𝒉 𝒉 𝒉
𝒉 𝑪 𝟕 − 𝟖, 𝟕𝟓 + 𝟑, 𝟓 − 𝟎, 𝟕𝟓 𝒉≤𝒂
𝜸(𝒉) = 𝑪 𝟏 − 𝒆𝒙𝒑 − 𝒉≥𝟎 𝜸(𝒉) = 𝒂 𝒂 𝒂 𝒂
𝝎 𝑪 𝒉>𝒂
𝟎 𝒉>𝒂
Modelo Efecto agujero Modelo Efecto Pepita
(Hole) (Nugget)
𝒉
𝜸(𝒉) = 𝑪 𝟏 − 𝒄𝒐𝒔 𝝅 𝒉≥𝟎 𝜸(𝒉) = 𝑪 𝟏 − 𝜹(𝒉)
𝒂
C-meseta
Modelo autorizados
𝟏
Modelo Potencia 𝜸 𝒉 = 𝒉𝜽; para 0 < 𝜃 < 2
𝟐
Relación entre la dimensión fractal D (Hausdorff-Besicovitch) y el parámetro 𝜃
𝜽
𝑫=𝟐−
𝟐
Casos Extremos:
𝜃 = 2 y 𝐷 = 1, es una parábola, no representa un proceso aleatorio.
𝜃 = 2 y 𝐷 = 2, ruido puro (efecto nugget)
Modelos Anisotrópicos Anisotropía Geométrica
Fórmula de transformación:
Ejemplo:
Cuando se mide una propiedad en diferentes pozos.
Por lo general, el variograma en la vertical (en
profundidad) presenta una mayor variabilidad (meseta)
que en la dirección horizontal.
Combinación de Modelos
𝛾* ℎ Efecto nugget
𝛾+ ℎ Modelo esférico 1 𝛾" ℎ Modelo esférico 2
Modelación de Variogramas
Determine gamma(h) en las direcciones: 0o, 90o, 135º y 225º azimut (conocer el alcance en las 4 direcciones).
Genere conclusiones en cuanto a la relación de los datos y la zona de influencia en la futura estimación.
Información:
Variable: Concentraciones de Hierro (%) en un nivel mina. Malla 10 x 10 m
"#$
90o
N número de parejas de datos
5o
22
SW
SE
Cálculo de 𝜸(𝒉) 0o Azimut ⬇ Distancia (h)
0
Por propiedad del variograma 10
Malla 10 x 10 m
0 0 0 Para h = 0 à 𝜸 𝒉 = 𝟎 20
10 4,45 21
20 8,71 17 30
30 12,10 13 /(!)
∗
1 "
𝛾 ℎ = G 𝑍 𝑥- − 𝑧 𝑥- + ℎ
Para h = 10 m 0o Azimut (N-S) 2𝑁(ℎ)
-.+
= 4,45
= 8,71
= 12,10
Cálculo de 𝜸(𝒉) 90o Azimut ⬅
h: 0 10 20 30
Malla 10 x 10 m
0 0
4,10 24
8,42 19
12,08 18 /(!)
1
𝛾∗ ℎ = G 𝑍 𝑥- − 𝑧 𝑥- + ℎ "
Para h = 10 m 90o Azimut 2𝑁(ℎ)
-.+
= 4,10
= 8,42
= 12,08
Cálculo de 𝜸(𝒉) 135o Azimut ↖
10 10 10
10 ℎ+0 = 10" + 10" = 14,14 ≈ 14
0 0 0 Malla 10 x 10 m
10 ℎ"1 = 20" + 20" = 28,28 ≈ 28
14 5,03 19
28 11,87 15 10 ℎ0" = 30" + 30" = 42,43 ≈ 42
42 12,44 9
/(!)
1
𝛾∗ ℎ = G 𝑍 𝑥- − 𝑧 𝑥- + ℎ "
Para h = 14 m 135o Azimut 2𝑁(ℎ)
-.+
= 5,03
=11,87
= 12,44
Cálculo de 𝜸(𝒉) 225o Azimut ↗
10 10 10
10 ℎ+*\0 = 10" + 10" = 14,14 ≈ 14
0 0 Malla 10 x 10 m
10 ℎ"1 = 20" + 20" = 28,28 ≈ 28
6,59 17
9,69 13 10 ℎ0" = 30" + 30" = 42,43 ≈ 42
14,22 9
/(!)
1
𝛾∗ ℎ = G 𝑍 𝑥- − 𝑧 𝑥- + ℎ "
Para h = 14 m 225o Azimut 2𝑁(ℎ)
-.+
= 6,59
= 9,69
= 14,22
𝒉 𝜸(𝒉)
Gráfico
variograma
omnidireccional
El comportamiento de las Ponderación de Gamma(h)
Hay que tomar una decisión: direcciones son similares a
hay comportamiento isótropo excepción de la 135o
o anisótropo
Hipótesis:
Existe relación en su alcance en las 4
direcciones.
Para ello, se genera un variograma
omnidireccional, (promedio de las 4
direcciones), que se pondera por las h
variograma omnidireccional Ponderación de Gamma(h)
Malla cuadrada
10 x 10 m
Variograma
omnidireccional la Tolerancia y Ancho de banda, no inciden.
En caso de datos irregulares (no cuadrada), la
estimación por Kriging será diferente,
Clic derecho
Número de
pares de datos
Efecto
pepita
Varianza
(10,75)
Problema:
A partir de información conocida de una propiedad,
medida en ciertas ubicaciones, estimar el valor en
localizaciones en donde se desconoce o se carece
de muestreo, usualmente en una malla.
Estimador BLUE
mejor estimador lineal insesgado
Mejor
Lineal
Insesgado
Ecuaciones de Kriging
#
Variograma: 𝛾 ℎ = 𝑉𝑎𝑟 𝑍 𝑥 + ℎ − 𝑍𝑥)
"
'
𝐸 𝑍 ∗ (𝑥% ) = 𝐸 : 𝜆! 𝑍(𝑥! ) = 𝐸 𝑍 𝑥% =𝑚
!&#
Esto implica
Condición de insesgadez, E(error) = 0 '
: 𝜆! 𝐸 𝑍(𝑥! ) = 𝑚
!&#
Entonces
' '
: 𝜆! 𝑚 = 𝑚 → : 𝜆! = 1
!&# !&#
Ecuaciones de Kriging
Condición que la varianza del error sea mínima Varianza de la estimación:
𝜎$# = 𝑉𝑎𝑟 𝑍% − 𝑍%∗ = 𝐸 𝑍% − 𝑍%∗ #
Para satisfacer la condición de insesgadez
hay que minimizar la función objetivo:
)
𝐹 = 𝜎$# − 2𝜇 - 𝜆! − 1 𝜇 un multiplicador de Larange
!'(
Finalmente:
) Varianza del error de la
estimación: NB. Bajo la hipótesis intrínseca las
- 𝜆" 𝜎!" − 𝜇 = 𝜎!" , 𝑖 = 1, 2, … , 𝑛 covarianzas pueden ser reemplazadas por
)
"'( las semivarianzas 𝜎!" = 𝜎 # − 𝛾!"
) 𝜎$# = 𝜎 # − - 𝜆! 𝜎%" + 𝜇
- 𝜆! = 1 !'(
!'(
Clasificación del Kriging
!&#
Kriging Lineal Ordinario Según la forma del
con valor esperado estacionario desconocido estimador:
Ø Lineales:
v Simple
Requisitos:
v Ordinario
Ø El valor esperado de la función aleatoria sea constante
v Universal
𝒎 𝒙𝒊 = 𝑬 𝒁(𝒙𝒊 ) = 𝒎, ∀𝒊 = 𝟎, 𝟏, … , 𝒏
v Residual
Ø No lineales
Ø Conocer la función de covarianzas o el semivariograma de
la función aleatoria Ø Disyuntivo
𝝈𝒊𝒋 , 𝜸𝒊𝒋 Ø Indicador
Ø Probabilístico
Sistema de ecuaciones:
'
Estimador Varianza del Estimador
: 𝜆* 𝜎!* − 𝜇 = 𝜎+! , 𝑖 = 1, 2, … , 𝑛 ' '
*&#
'
𝑍+∗ = : 𝜆! 𝑍 𝑥! 𝜎%"! = 𝜎++ − : 𝜆! 𝜎!+ + 𝜇
!&# !&#
: 𝜆! = 1
!&#
Kriging Lineal Universal Según la forma del
con presencia de tendencia estimador:
Ø Lineales:
Requisitos: v Simple
Ø Conocer la forma de la tendencia expresada v Ordinario
usualmente mediante polinomios v Universal
v Residual
𝒎 𝒙 = 𝑬 𝒁(𝒙) = : 𝒂𝒍 ∅𝒍 (𝒙)
𝒍
Dificultades prácticas
Ø Conocer la función de covarianzas o el El orden del polinomio que
semivariograma de la función aleatoria sin tendencia explica la tendencia m(x)
nunca se conoce, hay que
𝝈𝒊𝒋 , 𝜸𝒊𝒋 para 𝒁 𝒙 − 𝒎(𝒙) Estimador adivinar.
'
El variograma tampoco es
Sistema de ecuaciones: 𝑍+∗ = : 𝜆! 𝑍 𝑥! conocido y hay que
' 0 !&# estimarlo a partir de los
residuales R(x)
: 𝜆* 𝜎!* − : 𝝁𝒍 ∅𝒍 𝒙𝒊 = 𝜎+! , 𝑖 = 1, 2, … , 𝑛
*&# /&# Varianza del Estimador
' 0
: 𝜆/ ∅𝒍 𝒙𝒊 = ∅𝒍 𝒙𝟎 , 𝑙 = 1,2, … , 𝐿
𝜎%"" = 𝜎++ − : 𝜆! 𝜎!+ + : 𝝁𝒍 ∅𝒍 𝒙
!&/
!&# /&#
Kriging Lineal Residual
Propuesto por Gambolati y Volpi (1978 y 1979), como alternativa para manejar la no estacionaridad
Algoritmo:
1. Obtener el orden K del polinomio que mejor representa a la derivada o tendencia.
2. Ajustar la derivada mediante MCO 𝑚%∗ ( 𝑥)
3. Calcular los residuos 𝑹 𝒙 = 𝒁 𝒙 − 𝑚%∗ ( 𝑥)
4. Estimar y modelar el variograma de los residuos.
5. Aplicar Kriging ordinario a los residuos mediante el variograma.
6. Se realiza la estimación en un punto no observado con:
𝒁∗ 𝒙 = 𝒎∗𝒌 𝒙 + 𝑹∗ (𝒙)
Kriging Indicador
Distribución espacial:
Función de distribución Z
… Kriging Indicador
Valor esperados:
Función de covarianzas:
Varianza:
Función de semivarianza:
… Kriging Indicador
Variograma Indicador
Se estiman para cada valor de corte y son menos sensibles a la presencia de
valores extremos (outliers).
1. El variograma Indicador siempre alcanza una meseta 𝑆(𝑍3 ) = 𝐶# (0, 𝑍3 )
2. 𝑆 𝑍3 función creciente en (−∞, 𝑍4 )
3. 𝑆 𝑍3 función decreciente en (𝑍4 , ∞) 𝑍4 : Mediana
4. Una vez conocida la meseta 𝑆 𝑍3 del variograma se puede calcular la función
de probabilidad acumulativa:
𝐹5 𝑍3 = 0,5 + 𝑠𝑖𝑔𝑛𝑜(𝑍3 − 𝑍4 ) 0,25 − 𝑆(𝑍3 )
… Kriging Indicador
El Kriging simple puede ser aplicado para hallar los pesos usando las
variables indicador y el variograma indicador.
Las ecuaciones del Kriging indicador se resuelven en la práctica para un
número finito (menor que 10, de valores de corte).
Si la estimación de cada valor se realiza por separado no se puede garantizar
que se cumplan las relaciones de orden de una función de distribución válida.
… Kriging Indicador
Ejemplo:
Malla de estimación rectangular
… Aspectos prácticos del Kriging
Se tiene tres puntos muestreados (Z1, Z2, Z3) formando un triángulo equilátero
separados a 50 unidades.
Se desea estimar Z0 (baricentro a 30 unidades)
Función de covarianzas
Considerar que la función aleatoria de la cual tenemos los tres
puntos (Z1, Z2, Z3) , cumple al menos la estacionaridad de segundo
orden y se tiene definida la función de covarianzas (a diferencia
semivarianzas es al revés, va disminuyendo desde una covarianza
de 1,0 (estandarizada) hasta 0 en una distancia de 100 m = alcance)
Efecto
Nugget
La estructuras se suavizan
42 0 !
111 + 50 !
1, 10
,80
Modelo esférico
14 +
0!
10
#
3 ℎ 1 ℎ
= 𝑀𝑒𝑠𝑒𝑡𝑎 − + 𝐶%
2 𝐴𝑙𝑐𝑎𝑛𝑐𝑒 2 𝐴𝑙𝑐𝑎𝑛𝑐𝑒
1. Calcular las distancias de las muestras al punto a estimar (x0)
(h) S1 S2 S3 S4 X0
S1 0 224 180 224 100
S2 224 0 112 316 200
200 !
+1
S3 180 112 0 206 112 00 !
10 180,
=2
0
23,
61
! + 8
16
S4 224 316 206 0 141
23,
15
2
=2
0
!
00 !
10
0!
+2
11 + 5
1.8 0 !
100 !
! 0 !
0
10
0 ! +5
! + 42 100 1.80
1. 23 11
0
10 14 != 316,
! +1
00
300
! = 20
6,16
! +5 0
200
2. Calcular la varianza, 𝛾(ℎ) para ello se necesita el Modelo Esférico
# ' ! ' #
𝛾 ℎ = 𝐶& + 𝑀𝑒𝑠𝑒𝑡𝑎
" ()*+,*-
−
" ()*+,*-
para h < Alcance
Modelo estructural
de este ejemplo
Comportamiento errático en el
origen; el variograma no
empieza en 0, sino en 17 (Cp)
3. Calcular la varianza, 𝛾(ℎ) para las distancias
. 0 7 0 .
𝛾 ℎ = 𝐶- + 𝑀𝑒𝑠𝑒𝑡𝑎 / 1234536
−/ 1234536
para h < Alcance
Generar una interpolación y asignar pesos a las 4 muestras para encontrar el valor estimado de X0 (a quién se le da más peso?)
Métodos tradicionales: inverso a la distancia, cuadrado, toman en cuenta asignando peso por la distancia,
Kriging involucra la herramienta de la variografía para asignar las ponderaciones.
Ponderaciones;
S1 à 39 %
S2 à 2 %
S3 à 33 %
S4 à 26 %
Total 100 %
µ = 6,64
Para calcular la varianza del Kriging ordinario
6. Calcular la ponderación: con el sistema lineal del Kriging ordinario
=SUMAPRODUCTO(Ponderadores;Leyes muestras)
! = 𝟗, 𝟑𝟑
𝒙
Volumen
Área
Punto
Ecuaciones del Kriging Ordinario:
$
! 𝜆! 𝜎%! − 𝜇 = 𝜎%! , 𝑖 = 1, 2, … , 𝑛
!"#
$
! 𝜆% = 1 Condición de insesgo
ΑΛ=Β
%"#
Ponderaciones
Estimar el valor del área: Sistema de ecuaciones:
1. Calcular las semivarianzas entre los puntos x1 y x2
X1 = 5% CuT
X2 = 4% CuT Sistema de Kriging (Puntos)
𝝀𝟏 ∗ 𝜸 𝟏. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟏. 𝟐 + 𝝁 = 𝜸(𝟏, 𝑽)
V à Área a estimar 𝝀𝟏 ∗ 𝜸 𝟐. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟐. 𝟐 + 𝝁 = 𝜸(𝟐, 𝑽)
50 x 50 = 2500 m2 𝝀𝟏 + 𝝀𝟐 = 𝟏
1. Con Ábaco
𝒉𝒙 𝒉𝒚
Ø Calcular la función 𝑯 = ,
𝒂 𝒂
hx à distancia horizontal desde el punto (x1) hacia los límites de la zona a estimar (25 m)
hy à distancia vertical desde el punto (x1) hacia los límites de la zona a estimar (25 m)
𝟐𝟓 𝟐𝟓
𝑯= ; = (𝟎, 𝟒𝟓; 𝟎, 𝟒𝟓) à Buscar en el ábaco Ábaco Modelo Esférico
𝟓𝟓 𝟓𝟓
𝝀𝟏 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟏, 𝟔𝟓 + 𝝁 = 𝜸(𝟏, 𝑽)
𝝀𝟏 ∗ 𝟏, 𝟔𝟓 + 𝝀𝟐 ∗ 𝟎 + 𝝁 = 𝜸 𝟐, 𝑽
𝝀𝟏 + 𝝀𝟐 = 𝟏
Considerando
ℎ
𝛾 ℎ = 2𝑠𝑝ℎ
55
0,45
𝜸 𝟏, 𝑽 = 𝟐 ∗ 𝟎, 𝟒𝟕𝟓 = 𝟎, 𝟗𝟓
Del ábaco se tiene una semivarianza de 0,95 para el punto
X1 respecto al área, esto se reemplaza en el sistema de
ecuaciones:
𝝀𝟏 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟏, 𝟔𝟓 + 𝝁 = 𝟎, 𝟗𝟓
𝝀𝟏 ∗ 𝟏, 𝟔𝟓 + 𝝀𝟐 ∗ 𝟎 + 𝝁 = 𝜸 𝟐, 𝑽
𝝀𝟏 + 𝝀𝟐 = 𝟏
hx
0,45
Nota: El Ábaco no contempla el valor de meseta y efecto Calcular Semivarianza entre X2 y el área
pepita, por lo que se deberá multiplicar la meseta del modelo Igual procedimiento
estructural y sumar el efecto pepita en caso de tenerlo.
Calcular la semivarianza entre el punto y el área: entre x1 y el área 𝜸 𝟏, 𝑽 y x2 y el área 𝜸 𝟐, 𝑽
sin ábaco
¿Cómo discretizar?
Se tiene un punto X1 y se discretiza en 4 puntos (z1, z2, z3, z4)
'+ ' '+ '
que tienen un punto conocido de '
+ '
= 17,68 𝑚
Se determina el valor de la semivarianza a través del modelo estructural a la distancia = 17,68 m
En en este caso, los 4 puntos discretizados están a la misma distancia del punto conocido, la
semivarianza = 0,93.
Como las distancias son iguales se multiplica por 4
Si la distancia fuese distinta, habría que hacer la sumatoria.
$
# $ 1 1
𝛾 𝑊; 𝑊” = ∑ 𝛾 𝑍”; 𝑍𝑗 = ! 𝛾 17,68 ∗ 4 = ∗ 0,93 ∗ 4 = 0,93
$ !*# 4 4
!*#
&
ℎ ℎ
𝛾 ℎ = 2 1,5 − 0,5
𝑎 𝑎
&
17,68 17,68 Área de
𝛾 17,68 = 2 1,5 − 0,5 = 0,93
55 55 discretización
en 4 puntos
Conclusión: utilizando el ábaco semivarianza = 0,95
Con discretización semivarianza = 0,93 (∆= 0,02)
Calcular la semivarianza entre el punto y el área: entre x2 y el área
𝜸 𝟐, 𝑽
1. Con Ábaco
𝒉𝒙 𝒉𝒚
Ø Calcular la función 𝑯 = ,
𝒂 𝒂
hx à distancia horizontal desde el punto (x1) hacia los límites de la zona a estimar (50 m)
hy à distancia vertical desde el punto (x1) hacia los límites de la zona a estimar (50 m)
𝟓𝟎 𝟓𝟎
𝑯= , = (𝟎, 𝟗𝟏; 𝟎, 𝟗𝟏) à Buscar en el ábaco Ábaco Modelo Esférico
𝟓𝟓 𝟓𝟓
Solución Ponderadores
𝝀𝟏 = 𝟎, 𝟕𝟏 à 71 %
hx 𝝀𝟐 = 𝟎, 𝟐𝟗 à 29 %
0,91
𝝁 = 𝟎, 𝟒𝟕
Nota: El Ábaco no contempla el valor de meseta y efecto
pepita, por lo que se deberá multiplicar la meseta del modelo Semivarianzas
estructural y sumar el efecto pepita en caso de tenerlo.
Punto X1 –Área → 𝜸 𝟎, 𝟒𝟕𝟓 = 𝟐 ∗ 𝟎, 𝟒𝟕𝟓 = 𝟎, 𝟗𝟓
Punto X2 –Área → 𝜸 𝟎, 𝟖𝟐 = 𝟐 ∗ 𝟎, 𝟖𝟐 = 𝟏, 𝟔𝟒
1,64 > 0,95 (está más privilegiada, está en el centro)
Estimación del área con Kriging Ordinario (KO)
área V = 50 x 50 = 2500 m2
𝑍 ∗ 𝑥 = 𝜆" ∗ 𝑥" + 𝜆# ∗ 𝑥#
𝒁∗ 𝒙 = 𝟓 𝟎, 𝟕𝟏 + 𝟒 𝟎, 𝟐𝟗 = 𝟒, 𝟕𝟏% 𝑪𝒖𝑻 = 𝑽
200 m
Sistema de Kriging (Puntos)
200 m
𝝀𝟏 ∗ 𝜸 𝟏. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟏. 𝟐 + 𝝀𝟐 ∗ 𝜸 𝟏. 𝟑 + 𝝀𝟐 ∗ 𝜸 𝟏. 𝟒 + 𝝀𝟐 ∗ 𝜸 𝟏. 𝟓 + 𝝁 = 𝜸(𝟏, 𝑽)
𝝀𝟏 ∗ 𝜸 𝟐. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟐. 𝟐 + 𝝀𝟐 ∗ 𝜸 𝟐. 𝟑 + 𝝀𝟐 ∗ 𝜸 𝟐. 𝟒 + 𝝀𝟐 ∗ 𝜸 𝟐. 𝟓 + 𝝁 = 𝜸 𝟐, 𝑽
200 m
200 m
𝝀𝟏 ∗ 𝜸 𝟑. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟑. 𝟐 + 𝝀𝟐 ∗ 𝜸 𝟑. 𝟑 + 𝝀𝟐 ∗ 𝜸 𝟑. 𝟒 + 𝝀𝟐 ∗ 𝜸 𝟑. 𝟓 + 𝝁 = 𝜸(𝟑, 𝑽)
𝝀𝟏 ∗ 𝜸 𝟒. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟒. 𝟐 + 𝝀𝟐 ∗ 𝜸 𝟒. 𝟑 + 𝝀𝟐 ∗ 𝜸 𝟒. 𝟒 + 𝝀𝟐 ∗ 𝜸 𝟒. 𝟓 + 𝝁 = 𝜸(𝟒, 𝑽)
200 m
𝝀𝟏 ∗ 𝜸 𝟓. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟓. 𝟐 + 𝝀𝟐 ∗ 𝜸 𝟓. 𝟑 + 𝝀𝟐 ∗ 𝜸 𝟓. 𝟒 + 𝝀𝟐 ∗ 𝜸 𝟓. 𝟓 + 𝝁 = 𝜸(𝟓, 𝑽)
𝝀𝟏 + 𝝀𝟐 + 𝝀𝟑 + 𝝀𝟒 + 𝝀𝟓 = 𝟏
Distancias (h)
Distancia:
Modelo Estructural Esférico 28
(variograma) X2 a X3 = 200! + 200! 2 ,8
4m
ℎ = 282,84 ≈ 283
200 m
𝛾 ℎ = 2𝑠𝑝ℎ
250
&
ℎ ℎ 400 m
𝛾 ℎ = 2 1,5 − 0,5
𝑎 𝑎
Meseta = 2
Alcance = 250
Efecto pepita: no existe
Modelo Estructural Esférico
(variograma) Con el modelo calcular las semivarianzas:
ℎ 200 200 &
𝛾 ℎ = 2𝑠𝑝ℎ 𝛾 35 = 2 1,5 − 0,5 = 1,89
250 250 250
&
ℎ ℎ
𝛾 ℎ = 2 1,5 − 0,5 Si distancia > alcance (250 m) entonces 𝛾 ℎ = 𝑚𝑒𝑠𝑒𝑡𝑎 = 2,00
𝑎 𝑎
𝛾 283 = 2,00 𝛾 400 = 2,00
Meseta = 2
Alcance = 250 Distancias (h) Semivarianzas 𝛾 ℎ
Efecto pepita: no existe
0,4
Calcular la semivarianza entre el punto y el área: entre x1 y el área 𝜸 𝟏, 𝑽
sin ábaco
100 m
n Número de puntos discretizados en el área
Z” Punto conocido
Zj Punto discretizado
¿Cómo discretizar?
Se tiene un punto X1 y se discretiza en 4 puntos (z1, z2, z3, z4)
#// ' #// '
que tienen un punto conocido de '
+ '
= 70,71 𝑚
Se determina el valor de la semivarianza a través del modelo estructural de la distancia = 70,71 m
En en este caso, los 4 puntos discretizados están a la misma distancia del punto conocido X1, la
semivarianza = 0,83.
Como las distancias son iguales se multiplica por 4
Si la distancia fuese distinta, habría que hacer la sumatoria.
$ $
1 1 1
𝛾 𝑊; 𝑊” = ! 𝛾 𝑍”; 𝑍𝑗 = ! 𝛾 70,71 ∗ 4 = ∗ 0,83 ∗ 4 = 0,83
𝑛 4 4
!*# !*#
&
ℎ ℎ
𝛾 ℎ = 2 1,5 − 0,5
𝑎 𝑎
&
Área de
70,71 70,71 discretización
𝛾 70,71 = 2 1,5 − 0,5 = 0,83
250 250 en 4 puntos
𝜸 𝟐, 𝑽 = 𝜸 𝟑, 𝑽 = 𝜸 𝟒, 𝑽 = 𝜸 𝟓, 𝑽 ¿Cómo discretizar?
Se tiene un punto X3 y se discretiza en 4 puntos (z1, z2, z3, z4)
distancia x3 a z1 = 250 ' + 50 ' = 255,00 𝑚
distancia x3 a z4 = 150 ' + 50 ' = 158,10 𝑚
$
2 5 5 ,0
1
m 𝛾 𝑊; 𝑊” = ! 𝛾 𝑍”; 𝑍𝑗 =
200 m
𝑛
200 m !*#
158 ,1 0 m
1
= 𝛾 158,10 ∗ 2 + 𝛾 255,00 ∗ 2
4
1
= 1,64 ∗ 2 + 2,00 ∗ 2 = 1,82
4
Modelo Estructural Esférico (variograma)
Meseta = 2 Alcance = 250 𝜸 𝟐, 𝑽 = 𝜸 𝟑, 𝑽 = 𝜸 𝟒, 𝑽 = 𝜸 𝟓, 𝑽 = 1,82
h (= 255) > alcance (= 250) entonces 𝛾 255 = 2,00
Conclusiones:
X1 tiene una mayor influencia en el área (60%), producto que se encuentra dentro
de la misma y además en una ubicación central.
Las muestras X2, X3, X4 y X5, se encuentran fuera del área de influencia
mayormente en una cara en particular (no de forma uniforme en la zona).
Calcular la varianza del error (varianza del KO) Varianza de
Depende de 𝜆 y las ponderaciones y los 𝛾 punto-Área 𝝀𝟏 = 𝟎, 𝟔𝟎 dispersión
𝝀𝟐 = 𝝀𝟑 = 𝝀𝟒 = 𝝀𝟓 = 𝟎, 𝟏𝟎𝝁 = 𝟎, 𝟏𝟐 área-área
(V,V)
Las muestra 2, 3, 4 y 5,
tienen los mismos
ponderadores y 𝝈𝟐𝒌 = G 𝝀𝒊 𝜸 𝑽, 𝑿𝒊 + 𝝁 − 𝜸 𝑽, 𝑽
semivarianzas se multiplica
por 4
= 0,6(0,83) + 4(0,10)(1,82) + 0,12 - 1,13
Varianza del KO = 0,22
𝜸 𝑽, 𝑽
Se puede resolver con ábaco o función F
La semivarianza área-área es la distancia entre la H(0,565)
Bloque 2D muestra x2, x3, x4 o x5 con el centro del panel
Variograma esférico C=1 Varianza de dispersión
Área-Área = 2(0,565) = 1,13
ly ay
ax Modelo Estructural
ℎ 0,8
lx 𝛾 ℎ = 2𝑆𝑝ℎ
250
𝑙7 ∥ 𝑙8 𝛾̅ 𝑉, 𝑉 = 𝐹
𝑙0 𝑙1
,
𝑎0 𝑎1
𝑙0 𝑙1
𝛾̅ 𝑉, 𝑉 = 𝐹 , 200 200
𝑎0 𝑎1 𝛾̅ 𝑉, 𝑉 = 𝐹 , = 𝐹(0,8; 0,8)
250 250
0,8
Contenido
Ejercicio:
Base de datos (dataset)
Histograma
Diagrama de dispersión
Variograma experimental
Modelación variográfica
Variograma cruzado
Estimación con Kriging Ordinario
Dataset_Z1_Z2
Deriva en dos mapas (Z1 y Z2) en una área de 500 x 500 m, que
se busca modelar e interpolar
Existe mayor varianza en el mapa Z1, producto del rango entre el
valor de la variable que va de 0 a 13 y en Z2 va de 0 a 3.
a stre
arr
Guardar el proyecto
Histograma
Z1
Z2
Diagrama de dispersión (Scatter-plot)
Correlación Z1 vs Z2
500 x 500
(barrer todo)
0 Azimut y Tolerance = 90
(variograma omnidireccional)
tolerance = 1 (para malla cuadrada, datos
Como es bidimensional dip = 0 regulares)
se mueve solo el Azimut
análisis en la horizontal bandwidth = 1 (ancho de banda, datos
regulares, cuadrados)
N-S
E-W
la Tolerancia y Ancho de banda, no inciden.
En caso de datos irregulares (no cuadrada),
la estimación por Kriging será diferente,
Se busca si existe:
isotropía à cuando en todas las direcciones la variable se comporta similarmente (o tiene el mismo alcance) o
anisotropía à una de las direcciones tiene mayor continuidad
alcance alcance
100 m 100 m
4 direcciones
alcance alcance
400 m 200 m
La anisotropía se mantiene
en 45º (más puntos), por
tanto se quita la de 0o y 90º
Eje < continuidad Eje > continuidad
Clic derecho
meseta
Número de
pares de datos
Modelo
1
Ángulo de
anisotropía
Grabar el Modelo del variograma (Variable z1)
Variograma (Z2) Configuración diferente, las
muestras son irregulares
Modelo
Variable
Principal
Variable
auxiliar o
secundaria
La Variable Principal tiene poca información, por tanto no
son tan robustos los variogramas experimentales.
Varianza de Z1 (8,0) > Varianza de Z2 (0,6)
(se tiene un promedio de semivarianza)
La anisotropía se mantiene
en 45º (mas puntos), por
tanto se quita la de 0o y 90º
Guardar el modelo,
Para estimar
Modelar el
variograma
Kriging Ordinario (KO) de puntos
Crear una Malla (grid_Z1_Z2)
Borrar objeto
100 x 100
contenga todos
los datos
Coordenadas
de inicio
(0,0)
Limite de las
interpolaciones
Kriging Ordinario (KO) de puntos
(bloque requiere una discretización del volumen a estimar)
Mínimo 1 muestra en el
elipsoide y máximo 12
Varianza del
estimación
Varianza del Kriging Ordinario para Z1
Donde no existe información de la
muestra la Varianza del estimación es La varianza es un indicador del error de la estimación.
alta La varianza (desviación con respecto ala media)2,
En Geoestadística es lo mismo, la media es el valor
estimado.
A mayor varianza, la estimación carece de confianza
Asimetría positiva