Geoe Stadi Stica

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 264

EVALUACIÓN DIAGNÓSTICA

Definición de Estadística
Es la Ciencia de la

• Sistematización, recogida, ordenación y


Descriptiva presentación de los datos referentes a un
fenómeno que presenta variabilidad o incertidumbre
para su estudio metódico, con objeto de …

Probabilidad • deducir las leyes que rigen esos fenómenos, …

• y poder de esa forma hacer previsiones sobre los


Inferencia mismos, tomar decisiones u obtener
conclusiones.
Pasos en un estudio estadístico
• Plantear hipótesis sobre una población
• Los fumadores tienen “más bajas” laborales que los no fumadores
• ¿En qué sentido? ¿Mayor número? ¿Tiempo medio?

• Decidir qué datos recoger (diseño de experimentos)


– ¿Qué individuos pertenecerán al estudio? (muestras)
• Fumadores y no fumadores en edad laboral.
• Criterios de exclusión ¿Cómo se eligen? ¿Descartamos los que padecen enfermedades
crónicas?
– ¿Qué datos recoger de los mismos? (variables)
• Número de bajas
• Tiempo de duración de cada baja
• ¿Sexo? ¿Sector laboral? ¿Otros factores?

• Recoger los datos (muestreo)

– ¿Estratificado? ¿Sistemáticamente?

• Describir (resumir) los datos obtenidos


• tiempo medio de baja en fumadores y no (estadísticos)
• % de bajas por fumadores y sexo (frecuencias), gráficos,...
• Realizar una inferencia sobre la población
• Los fumadores están de baja al menos 10 días/año sobre la media que los no fumadores.
• Cuantificar la confianza en la inferencia
– Nivel de confianza del 95%
– Significación del contraste: p=5%
P O B L A C I Ó N (N)
m
MEDIA (µ) VARIANZA (σ2) CORRELACIÓN (⍴)

PARÁMETROS

In d
uc
c ió
n
INFERENCIAL
Muestra (n) Generalizar los aspectos
característicos de la muestra
! ) Varianza (s2) Correlación (r)
Media (𝑿
Estadígrafos

De d ESTADÍSTICA
u cc
ió n

DESCRIPTIVA
R OPAI
CONSIDERACIONES BÁSICAS
Expresado por numerales, pueden ser:
Ø CUANTITATIVOS
Dato Cantidades directas de la información.
Ø CUALITATIVOS
Reflejan observaciones cuantificables de categorías empleadas en
el análisis.

Procedimiento de asignación de numerales a objetos o acontecimientos de acuerdo


con ciertas normas.
Medición
El significado de una medición varía en cuanto al nivel operacional existente entre
los numerales asignados.

Es la expresión numérica del proceso de medición que resulta de la comparación de


Medida dos magnitudes de la misma especie, considerando a una de ellas como unidad.
ESCALAS DE MEDICIÓN

1. NOMINAL O CARDINAL

2. ORDINAL O DE RANGO

3. INTERVALO

4. PROPORCIÓN
Tipos de variables
• Cualitativas
Si sus valores (modalidades) no se pueden asociar naturalmente a un número (no se pueden hacer
operaciones algebraicas con ellos)

• Nominales: Si sus valores no se pueden ordenar


• Sexo, Grupo Sanguíneo, Religión, Nacionalidad, Fumar (Sí/No)

• Ordinales: Si sus valores se pueden ordenar


• Mejoría a un tratamiento, Grado de satisfacción, Intensidad del dolor

• Cuantitativas o Numéricas
Si sus valores son numéricos (se puede hacer operaciones algebraicas con ellos)

• Discretas: Si toma valores enteros


• Número de hijos, Número de cigarrillos, Número de “cumpleaños”

• Continuas: Si entre dos valores, son posibles infinitos valores intermedios.


• Altura, Presión intraocular, Dosis de medicamento administrado, edad
DESCRIPCIÓN ESTADÍSTICA
Tablas Gráficos Medidas descriptivas

Medidas de Posición:
Cuantiles
Cuartiles, quintiles, deciles,
Mediana

Medidas de Tendencia Central:


Media aritmética, Mediana, Moda

Medidas de Dispersión:
Amplitud, Varianza, CV.
Medidas de Asociación:
Covarianza, Correlación
Medidas de Forma:
Asimetría
Curtosis
ESTADÍSTICA INDUCTIVA

OBJETIVO CARACTERIZA

CUANTIFICAR LA INCERTIDUMBRE PROCESO DE


RAZONAMIENTO

avanza

PARTICULAR GENERAL
ESTADÍSTICA DESCRIPTIVA

PATRONES PARA CANTIDADES PARA


TRATA
CARACTERIZAR UN SINTETIZAR LA
ENCONTRAR
FENÓMENO INFORMACIÓN CONTENIDA
EN LOS DATOS

distribuciones de medidas de
frecuencias y sus tendencia central
representaciones y de dispersión
gráficas
EXPERIMENTO
Proceso mediante el cual se obtiene una observación.
Al menos conceptualmente es posible imaginar experimentos en los cuales el
resultado puede anticiparse (de poco o ningún interés).

Experimento Aleatorio
Es aquel cuyos resultados no pueden predecirse antes de su realización
y, por lo tanto, están sujetos al azar.

ESPACIO MUESTRAL (M o Ω)
El conjunto integrado por todos los resultados posibles de un proceso
experimental u observacional.
EJEMPLOS DE ESPACIOS MUESTRALES

Experimentos aleatorios:

a) Se pregunta a un estudiante, su opinión sobre el Profesor. Se


registra la respuesta como favorable (F) o desfavorable (D).

M = {F, D}

b) Se aplica un insecticida a tres larvas y al cabo de 24 horas se


observan si están muertas (m) o vivas (v)

M = {vvv, mvv, vmv, vvm, vmm, mvm, mmv, mmm}

c) Se entrevista a 10 docentes preguntándoles si utilizan el examen


en la evaluación de los estudiantes. Se reporta el número de ellos
que sí usan el examen.

M = {0, 1, 2, 3, 4, 5, 6 ,7 ,8, 9, 10}


EJEMPLOS DE ESPACIOS MUESTRALES...

d) Se pregunta a personas mayores de 30 años si creen en la


existencia de Duendes con el virus VIH. El experimento termina
con la primera persona que da una respuesta afirmativa. Se
registra el número de individuos entrevistados.

M = {1, 2, 3, 4, ...}
Los ... indica el hecho de que cualquier número
entero positivo, no importa cuan grande, puede ser
el resultado del experimento.

e) Se "toma" un litro de leche se determina en el laboratorio el


porcentaje de agua por volumen.

M = { x½0 < x < 100 }

x porcentaje de agua en el litro de leche examinada.


EJEMPLOS DE ESPACIOS MUESTRALES...

f) En una muestra de sangre de un individuo se determina el número


de glóbulos rojos y glóbulos blancos por centímetro cúbico.
(dos características, x número de glóbulos rojos, y número de glóbulos blancos.

M = { ( x, y ) ½x = 1, 2, 3, ...; y = 1, 2, 3, ... }

g) Se mide el tiempo que un individuo tarda en recorrer 100 m y su


capacidad respiratoria.

M = { ( t, c ) ½t > 0 ; c > 0 }

En este caso también se tienen dos variables,


el tiempo (t) y la capacidad respiratoria (c).
Dado un experimento, puede construirse diversos espacios muestrales.
en el caso b) (larvas), se ha optado por un M que describe en detalle todos
los posibles resultados del experimento. Se especifica no sólo cuántos
insectos muertos hay, sino cuáles de ellos.
M = {vvv, mvv, vmv, vvm, vmm, mvm, mmv, mmm}

Si únicamente interesa el número de insectos muertos.


M = { 0, 1, 2, 3 }

En los tres primeros casos el número de elementos del M es finito:


M = {F, D}
M = {vvv, mvv, vmv, vvm, vmm, mvm, mmv, mmm}
M = {0, 1, 2, 3, 4, 5, 6 ,7 ,8, 9, 10}

Estos M reciben el nombre de espacios muestrales finitos.


ESPACIO MUESTRAL DISCRETO
En el caso d) (duendes con VIH). se complica un poco, dado que el número
de resultados posibles no es finito. Sin embargo los resultados pueden
ordenarse en una sucesión (1, 2, 3,...).

M = {1, 2, 3, 4, ...} Espacio muestral infinito denumerable.

Estas cuatro situaciones son ejemplos de espacios muestrales discretos

M = {F, D}
M = {vvv, mvv, vmv, vvm, vmm, mvm, mmv, mmm}
M = {0, 1, 2, 3, 4, 5, 6 ,7 ,8, 9, 10}
M = {1, 2, 3, 4, ...}

Espacio Muestral Discreto: Integrado por un número finito o infinito


denumerable de elementos.
ESPACIO MUESTRAL CONTÍNUO
En el caso e) (leche) nótese que no sólo no es finito el número de
elementos, sino que tampoco pueden ordenarse estos en una sucesión.

M = { x½0 < x < 100 } Espacio muestral continuo

Espacio Muestral Continuo: Contiene a todos los elementos en uno o


varios segmentos de la línea real.

Los casos f) y g), generalizan los conceptos anteriores a situaciones donde


se desea medir dos características simultáneamente.
f) M = { ( x, y ) ½x = 1, 2, 3, ...; y = 1, 2, 3, ... }
Espacio muestral bidimensional discreto

g) M = { ( t, c ) ½t > 0 ; c > 0 }
Espacio muestral bidimensional continuo.
EVENTO Es un subconjunto del espacio muestral.
Si un espacio muestral es DISCRETO, puede tener tantos eventos
como resultados posibles tenga el experimento.
En espacios muestrales CONTINUOS esto es imposible.

Partición de un Espacio Muestral


M = { x½0 < x < 100 } x: % de agua por
volumen

A1 = { x½0 < x ≤ 25 } Leche buena calidad


A2 = { x½25 < x ≤ 50 } Leche mediana calidad
A3 = { x½50 < x < 100 } Leche mala calidad
n

!A
i =1
i =A 1 ! A 2 ! A 3 = M
Sí se cumplen estas condiciones,
entonces A1, A2, A3 forman una
A1 ! A 2 = f A1 ! A 3 = f PARTICIÓN DEL ESPACIO MUESTRAL

A2 ! A3 = f A1 ! A 2 ! A 3 = f
POBLACIÓN Y MUESTRA

Población
Conjunto de resultados potenciales de
un experimento aleatorio si este se
repitiera en todas las unidades a las
que se quiere investigar. También se
la llama población objetivo.

Muestra
Una muestra de una población
estadística es el conjunto de
resultados que se colectan de
hecho en una investigación.
Una muestra debe ser un
subconjunto de la población.
PROBABILIDAD
PROBABILIDAD
En lenguaje cotidiano, el concepto de
probabilidad ésta ligado al de
frecuencia relativa.
Es poco probable enriquecerse jugando a
la lotería o ruleta porque los casos en
que esto ocurra son poco frecuentes.

En un experimento aleatorio no se puede predecir que


resultado ocurrirá, pero éstos presentan una regularidad
estadística consistente en la estabilización de las
frecuencias relativas de los eventos cuando el
experimento se realiza un gran número de veces.
Probabilidad a priori (Kolmogorov, 1937)
Si un experimento puede tener n resultados
mutuamente excluyentes e igualmente posibles, y si la
unión de "a" de ellos (considerados como subconjuntos
del espacio muestral) es el evento A, entonces.
a
P( A ) =
n
Esta definición tiene dos problemas:

1. Es circular, el término "igualmente


posibles" es un concepto relacionado
con lo que se quiere definir.

2. ¿Cómo decir que todos los eventos son


igualmente posibles?
VARIABLE ALEATORIA
Función

que a cada resultado posible de un


experimento aleatorio le asocia un
número real

es decir

es una función definida sobre un


espacio muestral

puede tomar cuando más un número


Discreta infinito denumerable de valores
TIPOS
puede tomar cualquier valor en un
Contínua
intervalo dado
Función de Probabilidades de una VA Discreta X

{x, f X ( x) = P( X = x)}
conjunto de pares x cada uno de los valores que puede tomar la VA X
ordenados fx(x) probabilidad asociada con el valor particular x

2x + 1
P( X = x) = fX ( x) = ; x = 1, 2, 3, 4, 5
35
x 1 2 3 4 5 S
fx(x) 3/35 5/35 7/35 9/35 11/35 1
REPRESENTACIÓN GRÁFICA DE FUNCIONES DE PROBABILIDAD

Ø Diagramas de puntos
Ø Histogramas de probabilidades

Ej: Sea X una VA con la siguiente función de probabilidad:

0,4
fX ( x) 0,4
0,3
0,3
0,2
0,2 0,3
0,1 0,2
0,1 0,1 0,1 0,1 0,1 0,1
0 X
0 -2 -1 0 1 2 3 4 X
-3 -2 -1 0 1 2 3 4 5
Fig. 2.1.
1. Histograma
Diagrama de probabilidades.
puntos para una función de probabilidad
FUNCIÓN DE PROBABILIDADES DE UNA VARIABLE ALEATORIA CONTINUA

fx(X)

P(a<x<b)

X
a b
Fig. 2.5 Función de densidad de probabilidades

PROPIEDADES
a) La curva siempre se encuentra sobre el eje de las abscisas.
Es decir fx(X) ³ 0

b) El área total bajo fx(X) es 1.

c) El área delimitada por dos líneas verticales levantadas sobre los puntos a y
b (a < b) y la curva, es la probabilidad de que X tome un valor entre a y b.
MOMENTOS DE VARIABLES ALEATORIAS

r-ésimo Momento
con respecto al Origen ( )
E X r = å X r fX (x ) fX(x) µX = -1
x 0,4
-1(0,4)
0,3 -2(0,2)
E(X ) = å x fX (x )
0(0,2)
ESPERANZA MATEMÁTICA 0,2 0,4
x -3(0,1) 1(0,1)
promedio de los valores asumidos por la 0,1 0,2 0,2
0,1 0,1
variable, donde cada valor es “ponderado” por 0
X

su probabilidad de ocurrencia. -3 -2 -1 0 1

Ejemplo: Sea X una VAD con la siguiente función de probabilidades:

E(X) = µx = (–3)(0,1) + (–2)(0,2) + (–1)(0,4) + (0)(0,2) + (1)(0,1) = – 1,0

E(X²) = (–3)2 (0,1) + (–2)2 (0,2) + (–1)2 (0,4) + (0)2 (0,2) + (1)2 (0,1) = 2,2
ESPERANZA MATEMÁTICA: Interpretación física

fX(x) µX = -1
0,4

0,3

V.A. Con(nua
0,2 0,4

0,1 0,2 0,2


0,1 0,1 Esta integral no siempre
X existe, en ese caso, se dirá
0
que la variable no 8ene
-3 -2 -1 0 1
esperanza.

Fig. 2.7. La esperanza de X (µX) es el punto de equilibrio del


histograma.
r-ésimo Momento
con respecto a la Media
(-1)2 (+1)2

E(X - µ x ) = å (X - µ x ) fX (x )
r r
(-2)2 (+2)2
x

VARIANZA POBLACIONAL
E(X - µ x ) = Var(X ) = å (X - µ x ) fX (x )
2 2

varianza poblacional de la distribución teórica

... es un “promedio ponderado” de los cuadrados de


los desvíos respecto de la esperanza.
V. A. Con(nua
DESVIACIÓN ESTÁNDAR

s x = s2x = Var(X ) = E(X - µ x ) = å (X - µ ) f (x)


2 2
x X esta integral no siempre existe, en
este caso, se dirá que la v.a. no
8ene varianza.
Ejemplo: Calcular la esperanza matemática y varianza de la V.A. X

ì1
ï ; x = 1, 2, 3, 4, 5
fX (x ) = í 5
ï
î0; de otra forma

X 1 2 3 4 5 S
fX ( x) 1/5 1/5 1/5 1/5 1/5 1,0

Esperanza Matemá5ca de X
æ 1ö æ 1ö æ 1ö æ 1ö æ 1ö
µ X = å x fX (x ) = (1)ç ÷ + (2)ç ÷ + (3)ç ÷ + ( 4)ç ÷ + (5)ç ÷ = 3,0
x è5ø è5ø è5ø è5ø è5ø
Varianza de X
æ 1ö æ 1ö æ 1ö æ 1ö æ 1ö
s2X = å (x - µ X ) fX (x ) = (1 - 3) 2 ç ÷ + (2 - 3) 2 ç ÷ + (3 - 3) 2 ç ÷ + ( 4 - 3) 2 ç ÷ + (5 - 3) 2 ç ÷ = 2,0
2

x è5ø è5ø è5ø è5ø è5ø

Desviación estándar de X: s X = 2,0 = 1,4


COEFICIENTE DE VARIACIÓN

Ventaja: independiente de la escala original de los datos.


Expresa la variabilidad en forma relativa a la magnitud de la esperanza.

Expresa la desviación estándar como % respecto de la esperanza.


Util para comparar la variabilidad de dos o más variables aleatorias,
expresadas en diferentes unidades de medida..

ì1
ï ; x = 1, 2, 3, 4, 5 1,4
fX (x ) = í 5 𝐶𝑉 = . 100 = 47%
ï
î0; de otra forma 3
FORMA DE LA DISTRIBUCIÓN: ASIMETRÍA Y CURTOSIS

La esperanza y varianza resumen aspectos relevantes del gráfico


de la función densidad y de la función de distribución de la VA.
Dos distribuciones pueden tener igual 𝝁 y 𝝈𝟐 y ser aún diferentes.
MEDIANA DE UNA DISTRIBUCIÓN TEÓRICA
La mediana de la distribución de probabilidades de una V.A. X es un valor Me
tal que:

1 1
P( X £ Me ) ³ y P( X ³ Me ) ³
2 2
Dicho en palabras: Me es un valor tal que la probabilidad acumulada hasta
(incluyendo a) Me es al menos 1/2, y la probabilidad desde
(incluyendo a) Me es al menos 1/2

Ejemplo: Sea X una V.A. con función de probabilidades:


X 1 2 3 4 5 S
fX ( x) 0,1 0,2 0,4 0,2 0,1 1,0

En este caso la Me = 3 es única, puesto que: P(X ≤ 3) = 0,7 y P(X ³ 3) = 0,7


CUANTILES DE UNA VARIABLE ALEATORIA

Si X es una VAC, el cuan&l xp se define como el valor x tal que:


P[X ≤ xp] = p
p
si P[X ≤ x] = 0,10 à x es el cuanGl 0,10 de la variable X. xp

Ejemplo 2.16
Se desea conocer el % de individuos que Genen longitud <= 12 cm,
Equivale a querer conocer a qué cuanGl corresponde el valor 12 de la variable
“longitud”.
Es común expresar el cuanGl como %
El cuanGl x0,10 à percenGl 10
El cuanGl x0,75 à percenGl 75, ...

Sirven para fijar límites de tolerancia para los valores de algunas variables.
En medicina, los límites normales de talla o de peso para un niño de dos
años, no son más que los cuantiles 0,05 y 0,95 de la talla o del peso en la
población de niños normales de esa edad.
Ejemplo: Sea X una VA con distribución:

X 1 2 3 4 5 6 S
f X ( x) 0,1 0,1 0,3 0,2 0,2 0,1 1,0

Me = 3
Puesto que: P(X ≤ 3) = 0,5 y P(X ³ 3) = 0,8

Me = 4
Puesto que: P(X ≤ 4) = 0,7 y P(X ³ 4) = 0,5

Me no es única, pues X = 3 y X = 4
satisfacen la definición de Me
MODA DE UNA DISTRIBUCIÓN TEÓRICA

Para una VA DISCRETA la moda (Mo) es el valor de X con mayor probabilidad.


El valor de la Mo, tampoco es un valor único.

ìx2 + 1
ïï ; x = -2, - 1, 0, 1, 2
Ej.: Sea X una VA con función de probabilidades: fX (x ) = í 15
ï
ïî 0 ; de otra forma

X -2 -1 0 1 2 S
f X ( x) 5/15 2/15 1/15 2/15 5/15 1,0

X = – 2 y X = 2 son modas de la distribución


Ejemplo: Sea X una VA con función de distribución:

ì 4x - x 2 + 2
ïï ; x = 0, 1, 2, 3 X 0 1 2 3 S
fX (x ) = í 18
ï f X ( x) 2/18 5/18 6/18 5/18 1,0
ïî 0 ; de otra forma
Mo = 2

RELACIONES IMPORTANTES
µ < Mo < Me Ligera asimetría hacia la izquierda

µ = Mo = Me La distribución es simétrica

µ > Mo > Me Ligera asimetría hacia la derecha


DISTRIBUCIÓN CONJUNTA DE DOS VARIABLES ALEATORIAS

Imagine un experimento para el cual las frecuencias relativas se han


estabilizado, se puede pensar en pij como en la probabilidad de ese evento.

la probabilidad mencionada es fx ,y (x , y )
i j

se tiene: fX ,Y ( x i , y j ) = P( X = x i ; Y = y j )

Tabla 5.5 Distribución conjunta de probabilidades de X y Y


Ej.: De una gran cantidad de revistas se eligen 1000 páginas y en cada
página una línea. En cada línea se cuenta el número de veces que
aparece la letra r y el número de veces que aparece la letra g.
X número de veces que aparece la letra r en cada línea.
Y número de veces que aparece la letra g en cada línea.

Y
0 1 2 3 S
X
1 0,01 0,02 0,00 0,01 0,04
2 0,11 0,01 0,02 0,00 0,14
3 0,18 0,02 0,02 0,00 0,22
4 0,16 0,07 0,04 0,00 0,27
5 0,09 0,06 0,03 0,01 0,19 X = 3, Y = 0 à (0,18)
6 0,03 0,01 0,03 0,01 0,08
de las 1000 líneas, en 180 se
encuentra tres veces la letra r y cero
7 0,03 0,02 0,01 0,00 0,06
veces la letra g
S 0,61 0,21 0,15 0,03 1,00

fX,Y(3, 0) = P(X = 3, Y = 0) = P(tres r y cero g) = 0,18


Ej.: Distribución teórica de una VA bidimensional mediante una
ecuación (función de probabilidades conjunta).

ìx + y
ïï 18 ; x = 0, 1, 2; y = 0, 1, 2
fX ,Y (x, y ) = í
ï
ïî 0 ; de otra forma

PROPIEDADES DE LA DISTRIBUCIÓN CONJUNTA DE PROBABILIDADES


a) fX,Y (xi,yj) ³ 0

b) å å f (x , y ) = 1
i j
x ,y i j
Distribuciones Marginales de X y Y

Distribución Marginal de X

X 0 1 2 S
fX(x) 3/18 6/18 9/18 18/18

Distribución Marginal de Y

Y 0 1 2 S
fY(y) 3/18 6/18 9/18 18/18
ìx + y
ïï 18 ; x = 0, 1, 2; y = 0, 1, 2
FUNCIONES MARGINALES de X y Y fX ,Y (x, y ) = í
ï
ïî 0 ; de otra forma

x + y x + 0 x + 1 x + 2 3x + 3 x + 1
f X (x ) = å f X ,Y ( xi , y j ) = å = + + = =
y y 18 18 18 18 18 6

ì x +1
ï ; x = 0, 1, 2
ï 6
fX (x ) = í
FUNCION MARGINAL de X ï
ï
î0 ; de otra forma

x + y 0 + y 1+ y 2 + y y + 1
fY (y ) = å fX ,Y ( x i , y j ) = å = + + =
x x 18 18 18 18 6

ì y +1
ï ; y = 0, 1, 2
ï 6
fY (y ) = í
FUNCION MARGINAL de Y ï
ï0 ; de otra forma
î
MOMENTOS CONJUNTOS DE VARIABLES ALEATORIAS
Momentos Conjuntos con Respecto al Origen

Sea X y Y V.A. discretas, y sea fX,Y(x,y) su función conjunta de


probabilidades.

El k-l ésimo momento conjunto con respecto al origen es: EJEMPLO: ESPERANZA CONJUNTA DE X y Y

E( X Y ) = åå x y f
Y
k I k I
i j X i ,Yj (xi ,y j ) X
0
0
0,04
1
0,03
2
0,03
3
0,00
4
0,00
5
0,00
S
0,10
i j 1 0,01 0,10 0,10 0,04 0,00 0,00 0,25
El caso más importante cuando k = 1 y I = 1. 2 0,01 0,09 0,11 0,14 0,04 0,01 0,40
3 0,00 0,03 0,01 0,03 0,08 0,05 0,20
ESPERANZA CONJUNTA DE X y Y
4 0,00 0,00 0,00 0,01 0,03 0,00 0,04

E( XY) = åå x i y j fX i ,Yj ( x i , y j ) 5
S
0,00
0,06
0,00
0,25
0,00
0,25
0,00
0,22
0,00
0,15
0,01
0,07
0,01
1,00
i j

E(XY) = (0 x 0)(0,04) + (0 x 1)(0,03) + (0 x 2)( 0,03) + ...


+ (5 x 4)(0,00) + (5 x 5) (0,01 ) = 5,28
Momentos Conjuntos con Respecto a la Media
Sean X y Y VA discretas, con medias µX y µY, respectivamente, y
con función de probabilidades conjunta fX,Y(x,y).

El k-I-ésimo momento con respecto a la media se define como:

[ ]
E ( X - µ x ) k (Y - µ y ) I = åå ( xi - µ x ) k ( y j - µ y ) I f X i ,Y j ( xi , y j )
i j

El caso más importante cuando k = 1 y I = 1

COVARIANZA ENTRE X y Y [ ]
Cov( XY ) = E ( X - µ x )(Y - µ y ) = åå ( xi - µ x )( y j - µ y ) f X i ,Y j ( xi , y j )
i j

Ej.: Con los datos de la escolaridad. En los cuales µX = 1,86 y µY = 2,36

Y
0 1 2 3 4 5 S
X Cov(X,Y) = (0 – 1,86 )( 0 – 2,36 )( 0,04 ) + (0 – 1,86 )(1 – 2,36 )( 0,03 )
0 0,04 0,03 0,03 0,00 0,00 0,00 0,10
1 0,01 0,10 0,10 0,04 0,00 0,00 0,25
+ ... + ( 5 – 1,86 )( 5 – 2,36 )( 0,01 ) = 0,89
2 0,01 0,09 0,11 0,14 0,04 0,01 0,40
Forma abreviada
3 0,00 0,03 0,01 0,03 0,08 0,05 0,20
4 0,00 0,00 0,00 0,01 0,03 0,00 0,04 Cov(XY) = E(XY) – µXµY
5 0,00 0,00 0,00 0,00 0,00 0,01 0,01
S 0,06 0,25 0,25 0,22 0,15 0,07 1,00 = 5,28 – ( 1,86 ) ( 2,36 ) = 0,89
CORRELACIÓN EN DISTRIBUCIONES TEÓRICAS

Sean X y Y dos VA. Sean sXY, sX y sY la covarianza entre ellas y las desviaciones
estándar respectivas. La correlación entre X y Y se denota por ρXY y tiene por
ecuación.
Cov( XY) s
r XY = = XY
Var( X ) Var( Y) s x s Y
Ejemplo: Calcular la correlación entre el grado de escolaridad de los miembros
de parejas.
Anteriormente se obtuvo: µX = 1,86, µY = 2,36 y sXY = 0,89

De las distribuciones marginales se obtiene s x = 1,08


2
s 2y = 1,81

Var(X) = (0-1,86)2(0,10) + (1-1,86)2(0,25) + (2-1,86)2 (0,40) + … + (5-1,86)2 (0,01) = 1,0804

Var(Y) = (0-2,36)2(0,06) + (1-2,36)2(0,25) + (2-2,36)2 (0,25) + … + (5-2,36)2 (0,07) = 1,8104

0,8904
r XY = = 0,6367
1,0804 1,8104
INDEPENDENCIA DE VARIABLES ALEATORIAS
Dos eventos A y B son independientes si y sólo si:

P(A B) = P(A).P(B)

En el caso de V.A. la definición de independencia es como sigue:

Sean X y Y dos VA, y sean fX,Y(x,y), fX(x) y fY(y) su función conjunta


de probabilidades y sus funciones marginales, respectivamente. X y Y
son variables aleatorias independientes si y sólo si:
fX,Y(x,y) = fX(x).fY(y)

para todos los valores posibles de X y Y

Si la función se da en una tabla de doble entrada, esta definición es


equivalente a decir que la probabilidad en cualquier celda es igual al
producto de las probabilidades marginales correspondientes.
Ej.: En la función de probabilidades conjunta

ì x +1
; x = 0, 1, 2
ìx + y ï
ï 6
ïï 18 ; x = 0, 1, 2; y = 0, 1, 2 fX (x ) = í
fX ,Y (x, y ) = í ï
ï
î0 ; de otra forma
ï ì y +1
ïî 0 ; de otra forma ï
ï
; y = 0, 1, 2
6
fY (y ) = í
ï
ï
î0 ; de otra forma

NO son independientes, puesto que:

x + y æ x + 1ö æ y + 1ö
fX ,Y (x, y ) = ¹ç ÷×ç ÷ = fX (x ) × fY (y )
18 è 6 ø è 6 ø
El resultado anterior también puede verificarse en la tabla de probabilidades
conjuntas de X y Y.

3 3
Nótese que: fX ,Y (0,0) = 0 ¹ fX (0) × fY (0) = ×
18 18
Nótese que, aunque 1 3 6 1
fX ,Y (0,1) = fX (0) × fY (1) = × =
18 18 18 18

Las VA no son independientes porque no se cumple para X = 0 y Y = 0. Es decir,


basta que uno de los valores de las celdas no sea igual al producto de las
marginales para que las VA no sean independientes.
Ej.: Sean X y Y dos VA con función de probabilidades conjunta:

ì x+3
ïï ; x = 1, 2
f X (x ) = í 9
ì xy - x + 3y - 3 ï
ïï ; x = 1, 2; y = 2, 3, 4 ïî0; de otra forma
fX ,Y (x, y ) = í 54
ï
ïî 0; de otra forma ì y -1
ïï ; y = 2, 3, 4
fY ( y ) = í 6
ï
ïî0; de otra forma

xy - x + 3y - 3 æ x + 3 öæ y - 1 ö
Entonces:
fX ,Y (x, y ) = =ç ÷ç ÷ = fX (x ).fY (y )
54 è 9 øè 6 ø
MODELO PROBABÍLISTICO
Cuando Es posible

distribución de una VA Emplear las leyes de la


permite representar
probabilidad
para
comportamiento aleatorio de
una variable investigar las constantes
se tiene que caracterizan al fenómeno cuyo comportamiento se
estudia a través de la VA
Modelo probabilístico
ì1
ïïn ; x = 1, 2, ..., n
fX (x ) = í
Modelo probabilístico VA
Modelo ï
ïî0; de otra forma

Representación n +1 Forma específica de la función de


µ x = E( x) =
simplificada de la 2 probabilidades que se supone refleja el
n2 - 1 comportamiento de VA
realidad s x = var(x) =
2

12
MODELOS PROBABILISTICOS

Uniforme
Binomial puntual o Bernoulli
Binomial
Hipergeométrica.
Poisson
V.A. DISCRETAS Binomial Negativa
Geométrica o Pascal
Multinomial
Gamma
Exponencial

Uniforme
V. A. Normal
t de Student
CONTINUAS
Ji– cuadrada (X²)
F de Snedecor
FUNCIÓN DE PROBABILIDADES UNIFORME DISCRETA (VA X)
ì1
ïïn ; x = k 1 , k 2 , ... Características:
fX (x ) = í
ï a) M tiene un número finito (n) de resultados posibles
ïî 0; de otra forma Bi (i = 1, 2, ..., n)
n número de resultados posibles en el b) Los eventos Bi tienen la misma probabilidad de
experimento (parámetro) ocurrencia.
ki valores que toma la VA

Notación fX(x,n), depende de n

X 1 3 5 6 7 S
Ejemplo:
f X ( x) 1/5 1/5 1/5 1/5 1/5 1,0
! 1
# ; x = 1, 3, 5, 6, 7
fX ( x ) = " 5 fX(X)
# 0; de otra forma
$

X
ì1
ïïn ; x = 1, 2, ..., n
IMPORTANTE: Cuando la VA toma como valores los primeros
n enteros positivos. fX (x ) = í
ï
ïî0; de otra forma
ESPERANZA MATEMÁTICA Y VARIANZA
n +1
µ x = E( x) = n 2
-1
2 s 2
x = var( x ) =
12
Ejemplo:
En el 2015 se encomendó a un auditor del SRI, revisar la ì 1
ï ; x = 1, 2, ...,74
declaración de impuestos de uno cualquiera de los 74 profesores ï
de la FARNR. fX (x ) = í 74
ï
Para elegir al profesor, el auditor escribe los nombres de cada uno ï
î0 ; de otra forma
de los profesores en sendas tarjetas previamente numeradas.
74 + 1
Selecciona una de ellas y registra el nombre allí escrito. µ x = E( x) = = 37,5
El M resultante está constituido por los nombres de los 74
2
profesores.
74 2 - 1
X: VA nombre del profesor (número) de la tarjeta. s2 x = var(x) = = 456,25
12
DISTRIBUCIÓN BINOMIAL PUNTUAL O BERNOULLI
Jacobo Bernoulli (1654-1705), matemático suizo
Postulados
a) Experimento con dos resultados posibles: éxito (E) y fracaso (F),
presencia o ausencia, sí o no, ... (mutuamente excluyentes).
M = {E, F}.
b) P(E) = P(0 ≤ p ≤ 1) por lo que:
P({E}) = p X 0 1
P({F}) = 1 – p = q P(X = x) 1–p p

Definición La VA X tiene la distribución Binomial Puntual o de Bernoulli


ìp x (1 - p)1-x ; x = 0, 1 p parámetro de la distribución à fX(x, p)
fX (x ) = í
î 0 ; de otra forma
MEDIA Y VARIANZA DE LA DISTRIBUCIÓN BERNOULLI
0 ≤p ≤1
E(X) = p Var(X) = p (1 – p)
FUNCIÓN DE PROBABILIDAD BINOMIAL

Experimento con dos resultados posibles (mutuamente excluyentes): macho o


hembra, sano o enfermo, rico o pobre, ..
n repe8ciones independientes de un experimento Bernoulli, en cada repe8ción la
probabilidad del evento éxito p = P({E}) permanece constante

Definición
MEDIA Y VARIANZA
ìæ n ö x n- x
ç
ïç ÷ ÷p (1 - p ) ; x = 0, 1, 2,..., n
fX (x ) = íè x ø µX = E(X) = np
ï 0 ; de otra forma
î σ²X = Var(X) = npq q=1–p
0 ≤p ≤1
Símbolo combinatorio
Si c y d son dos números enteros no æ c ö "combinaciones", de c tomadas de d
negativos tales que d ≤ c, el símbolo çç ÷÷ en d y tiene como expresión:
d
è ø

æcö c! = c(c - 1)(c - 2) ... (3)(2)(1)


c!
çç ÷÷ =
è d ø d! (c - d)! 0! = 1 (por definición)

Ejemplo 1: æ7ö 7! 7! 7x6x5x 4x3x2x1


çç ÷÷ = = = = 35
è ø 3! (7 - 3)!
3 3! 4! (3x2x1)(4x3x2x1)

Ejemplo 2: Población = 100 æ100 ö 100! 100!


çç ÷÷ = =
Muestra = 10 è 10 ø 10! (100 - 10)! 10! * 90!

1,73103 E+13 = 17” 310 309’456 440


17 billones 310 mil 309 millones 456 mil 440
FUNCIÓN DE PROBABILIDAD HIPERGEOMÉTRICA
Experimento binomial con repeticiones no independientes.
Si E1 y E2 son éxito en el primer intento y éxito en el segundo intento,
respectivamente, P({E2}/E1) ¹ P({E2})
Definición
ì æ A öæ B ö
ï çç ÷÷çç ÷÷
x
ïï è øè n - x ø ; x = 0, 1,..., n; n £ A y n £ B Media y Varianza
fX (x ) = P( X = x) = í æ N ö
ï çç n ÷÷ µ x = E(X) = np
ï è ø
ïî 0 ; de otra forma
æN-nö
s 2x = var(X ) = npqç ÷
N=A+B No elementos en la población è N -1 ø
AyB No defectuosos y aceptables en la población
n tamaño de la muestra
x No defectuosos en la muestra
Ligado al muestreo sin reposición
FUNCION DE PROBABILIDAD DE POISSON
Simeón Denis Poisson (1781-1840), matemático francés

Experimento Bernoulli
Modelo Poisson
Número muy grande de repeticiones, n à ∞
Probabilidades de éxito muy pequeñas forma límite de la
distribución Binomial
"eventos raros"
Definición Una VA tiene una distribución de Poisson, si
ì e - l lx
ï ; x = 0, 1, 2, ...
fX (x ) = í x!
ï 0; de otra forma
î
e » 2,71828... base de los logaritmos naturales Media Varianza
l número (desconocido) > 0 E(X) = l Var(X) = l
l No promedio de éxitos por intervalo (parámetro).
Notación X ~ P(l)
FUNCIÓN DE PROBABILIDADES BINOMIAL NEGATIVA
Definición:
ìæ n - 1ö k n-k n VA número de repeticiones
ïç ÷p q ; n = k, k + 1,... k número de éxitos Parámetros: k y p
fN (n) = P(N = n) = íçè k - 1÷ø Notación: N ~ BN (k,p)
p probabilidad en cada intento
ï 0; de otra forma
î q=1–p
k kq
E(N) = Var (N) =
p p2 Semejanzas y diferencias en la notación
Función VA Parámetro Valores de la VA
En un modelo Binomial
Binomial X n, p X = 0, 1, 2, …, n
¿Cuál es la probabilidad que en n Binomial Negativa N K, p N = k, k + 1, …
repe8ciones se obtengan exactamente k
éxitos (k = 0, 1, ..., n)?
el número de repe+ciones está fijo
la VA es el número de éxitos
Ahora
¿Cuál es la probabilidad que para que se
obtengan k éxitos se requieran n
repeDciones?
el número de éxitos se fija de antemano
la VA es el número de repe+ciones necesarias para
obtener los éxitos requeridos
Muestreo Binomial Inverso
LA DISTRIBUCIÓN GEOMÉTRICA O DISTRIBUCIÓN DE PASCAL
Caso particular de la distribución Binomial Negativa, cuando k = 1

Ejemplos:
Ø Que aparezca un solo caso de una enfermedad mortal previamente
inexistente en un país.
Ø Que se encuentre una planta atacada por un hongo en un invernadero.

Si k = 1, la función de probabilidades de N, el número de intentos


necesarios para obtener un éxito, es:

ìpqn-1 ; n = 1, 2,...,
fN (n) = í
î 0; de otra forma

1 q
E(N) = Var (N) =
p p2
DISTRIBUCIÓN MULTINOMIAL
Generalización de la Distribución Binomial, donde el interés es calcular la
probabilidad de obtener:
n1, n2, ..., nk k categorías
N = x1 + x2 +...+ xk muestras
p1, p2, ..., pk probabilidad de ocurrencia de cada categoría en la
población
Se dice que una variable 8ene distribución mul8nomial y se denota como
Mul'(N,p1, p2,...., pk-1), cuando su función de densidad está dada por:

𝑁! % % %
𝑝" ! 𝑝# " … 𝑝! # 𝑥 = 𝑥" , 𝑥# , … , 𝑥!
𝑥" ! 𝑥# ! … 𝑥!!
𝑃 𝑋! = 𝑥 =
0; 𝑑𝑒 𝑜𝑡𝑟𝑎 𝑓𝑜𝑟𝑚𝑎
N = x1 + x2 + ... + xk
xi ∈ [0, 1, ..., N]
i = 1, 2, ..., k
P1 + p2 + ... + pk = 1
DISTRIBUCION NORMAL

Ley Normal de los Errores, o Campana


de Gauss en homenaje a Carl Gauss
(1777-1855), matemático intervino en su
desarrollo histórico.

Importancia:
Modelo adecuado para una gran diversidad de Utilizada como modelo: Ingeniería,
situaciones en el mundo real. Física, Astronomía, Biología,
Por su papel en la teoría estadís8ca, sirve como Agronomía y Medicina
punto de par8da para el desarrollo de muchas
técnicas de inferencia
Una población de naranjas,
diámetro promedio = 10 cm

Variables continuas:
Peso
Longitud
Altura
Temperatura
6 8 12 14 Absorbancia óptica
µ = 10 Resistencia a la tracción, ...
ì 1 é 1 ù
- ê 2 ( x - µ )2 ú
fX(x) ï e ë 2s û
; -¥ < x < ¥
fX (x) = ís 2p
ï
î 0; de otra forma
e = 2,71828...
p = 3,14159...
sX
Parámetros: µ y s2

a b
E(x) = µX x
"
1 #
$
'#( ! Por la importancia de la distribución normal, se
𝑃 𝑎≤𝑋≤𝑏 =( 𝑒 %& ! explica la costumbre de llamar µ a la media y s2 a
! 𝜎 2𝜋
la varianza de cualquier VA.
Cada par de valores µ y s2 determina una función
de densidad distinta.
Notación: X ~ N(µ, s2)
DISTRIBUCION NORMAL ESTÁNDAR

X ~ N(µ, s²) X - µX Z ~ N(0,1)


Z=
sX fz(Z)

σx = 2 1

μx = 20
z
0
Función de densidad:

ì 1 é 1 ù
- ê 2 ( x - µ )2 ú
ï e ë 2s û
; -¥ < x < ¥
fX (x) = ís 2p
ï
î 0; de otra forma
N(μ, σ): Interpretación geométrica
Se puede interpretar la μ como un factor de traslación.
N(-3,1) N(0,1) N(3,1)

-3 0 3

N(0,1)
N(0,2)
N(0,4)
La σ como un factor de escala,
grado de dispersión.

0
CARACTERÍSTICAS DE LA DISTRIBUCIÓN NORMAL
• La función de densidad es simétrica, mesocúrtica y unimodal.
media = mediana = moda

• Los puntos de inflexión están a una distancia σ de μ

• Probabilidades (con centro en μ):


σ è 68,27%
2σ è 95,45% Edad:
2,5 σ è 99,00% μ = 20
3σ è 99,73% σ=2

14 16 18 22 24 26
• Todas las distribuciones normales N(μ, σ), pueden representarse
mediante una traslación μ, y un cambio de escala σ, como N(0,1). Esta
distribución especial se llama normal tipificada.
• Justifica la técnica de tipificación, cuando se intenta comparar
individuos diferentes obtenidos de sendas poblaciones normales.
LA DISTRIBUCION NORMAL ESTÁNDAR …
Ejemplo 1:
fz(Z)
Calcular P(Z ≤ 1,96)

Z 0.0 0.01 0.05 0.06 0.07 0.09 1,96 z

0,0 0.5000 0.5040 0.5199 0.5239 0.5279 0.5359

0,1 0.5398 0.5438 0.5596 0.5636 0.5675 0.5753

0,2 0.5793 0.5832 0.5987 0.6026 0.6064 0.6141

1,8 0.9641 0.9649 0.9678 0.9686 0.9693 0.9706

1,9 0.9713 0.9719 0.9744 0.9750 0.9756 0.9767

2,0 0.9772 0.9778 0.9798 0.9803 0.9808 0.9817

P(Z ≤ 1,96) = 0,9750


DISTRIBUCION JI-CUADRADA 0,6
1 gl
2 gl
$
𝑍%$ + 𝑍$$ + 𝑍&$ … + 𝑍"$
0,5

𝜒(") = + 0,4 3 gl
0,3
4 gl
$
Caso más sencillo: 𝜒(")
= 𝑍$ 0,2
5 gl
Si Z ~ N(0, 1) entonces 𝜒 $ = 𝑍 $ 6 gl
0,1

0 1 2 3 4 5 6 7 8 9 10
Zi son normales estándar independientes
X2 tiene distribución Ji-Cuadrada con u gl.
0,10

10 gl
u=4 ( )
E X2( u) = u
0,08 15 gl
20 gl

u=7
Var X( ) = 2u
2
( u)
0,06

0,04

0,02

0
0 5 10 15 20 25 30 35
DISTRIBUCION t DE STUDENT
William Sealy Gosset (1876-1937)

Si Z es una variable N(0,1), y si X2 ~ X2(u) y es independiente


de Z, entonces la variable aleatoria definida por

𝑍
𝑡(") = tiene una distribución t de Student
𝜒$ con u grados de libertad.

𝜈 t∞(0, 1)
t3(0, 1)
N(0, 1) t1(0, 1)
t(5)

0
0
DISTRIBUCIÓN F
Si X2(m) y X2(n) dos VA independientes distribuidas como Ji-Cuadrada con m
y n grados de libertad, respec8vamente, entonces:

c 2
( m)
fF(F)
(m = 6, n = 24)

m
F= 2
c ( n)
n F

Uso:
Problemas de inferencia: comparar las varianzas de dos
poblaciones normales, comparar los efectos de dos o más
tratamientos, y otros.
DISTRIBUCIÓN GAMMA
'
Es importante en la modelación de algunos 𝑥 !#$ 𝑒 #"
fenómenos meteorológicos como las precipitaciones. 𝑠𝑖 0 ≤ 𝑥 ≤ ∞
𝑓 𝑥 = 𝛽 ) Γ(𝛼)
Una VA X tiene distribución Gamma si y solo si su
función de densidad es: 0; 𝑒𝑛 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟𝑎𝑟𝑖𝑜

𝛼>0
Notación: X~G(α ,β)
𝛽>0
+

Γ 𝛼 = ( 𝑦 )#$ 𝑒 #, 𝑑𝑦
*

Forma de la densidad Gamma, para dis/ntos valores de sus parámetros


El máximo (si existe) en esta función de densidad viene dado por x = β(α − 1)
Es posible mostrar que: E(X) = αβ V(X) = αβ2
DISTRIBUCIÓN EXPONENCIAL

Esta densidad es un caso especial de la


función de densidad G(α,β), tomando α = 1
y β = θ, quedando así definida:
Una VA X 8ene distribución Exponencial si
y sólo si su función de densidad es:

"
!
𝑒 #
𝑠𝑖 0 ≤ 𝑥
𝑓 𝑥 = 𝜃

0; 𝑒𝑛 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟𝑎𝑟𝑖𝑜

𝜃>0
Notación: X ~ Exp(θ)
E(X) = θ V(X) = θ2
Contenido
Definiciones
Relación con la Estadística
Historia
Software
Análisis Geoestadístico
Aplicaciones
Propósito
Variables regionalizadas
Función Aleatoria
Geoestadística: Origen

Georges François Paul Marie Matheron (1939 – 2000)


matemático francés e ingeniero civil de minas, conocido como el
fundador de la geoestadística y cofundador de la morfología
matemática.
En 1968, creó el Centre de Géostatistique et de Morphologie
Mathématique en la Escuela de Minas de París en
Fontainebleau.
1962
Formalizó y generalizó matemáticamente
un conjunto de técnicas desarrolladas por

Danie Gerhardus Krige


Krige (1941) (Bothaville, Sudáfrica, 1919 - 2013)
ingeniero de minas
Pionero de la Geoestadística

Rama de la Geografía matemática


que explotaban la correlación espacial para
hacer predicciones en la evaluación de
reservas de las minas de oro en Sudáfrica
Geoestadística: Definición

“aplicación del formalismo de las funciones aleatorias al


reconocimiento y estimación de fenómenos naturales”
Matheron (1962)

Es una rama de la estadística aplicada (Geografía matemática),


para el análisis, modelación y predicción de la variabilidad
(correlación) espacial de fenómenos en ciencias de la tierra
(cualquier fenómeno, siempre que exista correlación espacial). Serie de tiempo

Otras definiciones:
… se caracteriza por tomar en cuenta la relación espacial de las variables en estudio.
… se enfoca en analizar, procesar e inferir datos georeferenciados.
… conjunto de técnicas para el análisis y predicción de valores distribuidos en el
espacio y/o en el tiempo (valores correlacionados entre si)
Estadística y Probabilidad

Estadística:
Rama de la matemática: Recolección, organizar, presentar y procesar datos,
extrapolar conclusiones con información de una muestra: Descriptiva e Inferencial

Probabilidad: Probabilidad a priori (subjetiva)


Kolmogorov (1937)
Medida de la incertidumbre que se le asocia a la ocurrencia de un resultado.

a
P( A ) =
n
Probabilidad: Concepto Frecuencial (objetiva)
Si A es un evento y nA es el número de veces que A ocurre en N
repeticiones independientes del experimento, la probabilidad del
evento A, denotada por P(A), se define como:
𝑛$
lim
!→# 𝑁
Objeto de estudio de la
Geoestadística

El Análisis y la predicción de la distribución espacial de


fenómenos georeferenciados.
Ejemplos:
• Distribución de un mineral en el subsuelo,
• Concentración de contaminantes en la atmósfera,
• Porosidad de un yacimiento petrolero.
Relación con la estadística

Las observaciones en ubicaciones cercanas están correlacionadas,


no se consideran independientes, existe cierta dependencia o
correlación espacial.
Mientras más cercanos mayor dependencia.
Es una rama de la estadística espacial que incluye el estudio de
objetos espaciales.
Historia

1960’s Georges Matheron, Centro de Geoestadística, actualmente centro de


Geociencias, Fontainebleau, Francia.
1970’s Andre Journel, Centre for Reservoir Forecastin, Universidad Stanford,
California, USA.
1070’s Michael David, Ecole Polytechnique, Montreal, Canadá
1970’s 1980’s Margaret Armstrong, Centro de Geoestadística, Fontainebleau.
1970’s Aplicación a la industria petrolera: Francia, Noruega, USA.
2000’s Clayton Deutsch, Center for Computacional Geostatistics, U. Alberta,
Canadá.
Geoestadística: Campos de aplicación

En varias ramas de las ciencias y en las ingenierías.


• Minería
• Hidrogeología (acuíferos)
• Ingeniería civil
• Ciencias agrícolas y forestales, edafología
• Ciencias del mar (pesca)
• Salud pública (corona virus)
• Finanzas
• Procesamiento de imágenes
• Cartografía
• Industria petrolera
Geoestadística: Propósito

A partir de los datos de la muestra estimar o predecir


espacialmente (sin sesgo y con error mínimo) el valor de una
variable en otras localidades.
Software de aplicación

1970’s BLUEPACK, Centro de Geoestadística,


Fontainebleau.
1988 GEO-EAS (Enviromental Protection Agency, USA)
DOS.
1992 GSLIB Clayton Detsch y André Journel. U. de
Stanford Co4digo abierto, lenguaje Fortran.
1990’s ISATIS (nueva version de BLUEPACK) software
comercial de geoestadi3stica de propósito general
(Escuela de Minas de Paris-Geovariances)
1989 GS+ (Gamma Design Software) software
comercial de geoestadística básica en 2D para
Windows.
2004 SGeMS Nicolas Remy (U. de Stanford), código
abierto para Windows.
R Se usa con frecuencia, limite 2D.
Etapas de un Análisis Geoestadístico

1. Análisis exploratorio de los datos (AED)


• Comportamiento (estadística clásica)
• Supuestos estadísticos
2. Análisis de relación espacial (análisis estructural)
• Función que describa la correlación espacial (Variograma)
3. Predicción (Kriging)
ón
• Estimaciones a ci
u
al
Ev
• Simulaciones

Semivariograma:
Herramienta principal de la geoestadística.
Ej. Entre un punto y otro punto se puede dar tal condición, pero en
lugares no será posible, ahí hay que hacer interpolaciones y
estimaciones espaciales (Kriging).
Análisis Exploratorio de Datos (AED)

Etapas

v Análisis descriptivo (gráfico y numérico) de la


naturaleza de los datos.
v Análisis de relaciones entre variables.
v Evaluar los supuestos básicos: normalidad,
linealidad, homocedasticidad.
v Identificar posibles valores atípicos (outliers) y
evaluar el impacto potencial que puedan ejercer
en análisis estadístico posteriores.
v Evaluar el impacto potencial de los datos
perdidos (missing), relacionado con el diseño de
muestreo (no se consideraran).

Estadística univariada (por cada variable)


Herramientas
Estadística bivariada (todos los pares de variables)
Regresión lineal y mínimos cuadrados
Datos con distribución Normal
Datos sin distribución Normal
Distribución con Datos atípicos
La geoestadística es la aplicación de la
Teoría de las Variables Regionalizadas
(VR)

VR: El valor dado en un punto dentro del yacimiento está en función de


su magnitud y de su soporte (VI, forma, orientación).
Ejemplos típicos de VR son la ley, potencia, densidad.

Un fenómeno es regionalizado, cuando se desplaza en el espacio, manifestando


una cierta estructura.
v Un aspecto aleatorio.
v Los puntos cercanos en el espacio (o tiempo) suelen adoptar valores similares.

Ejemplo:
Ley de cobre, del muestreo, de los puntos cercanos tienen valores similares

Una variable, no depende de la parte cuantitativa, se asocia con la ubicación.


Geoestadística:
Tiene en cuenta la ubicación de los datos en el espacio.
Ejemplo:
1 2 3 4 5 4 3 2 1
2 4 5 1 3 3 1 2 4 (distribución aleatoria)
! = 𝟐, 𝟕𝟖
Para las dos muestras: 𝒙 𝒔𝟐 = 𝟏, 𝟗𝟒
La distribución espacial es distinta (tiene importancia en minerías)
Representación gráfica de los datos espaciales

Antes de iniciar cualquier tratamiento geoestadístico, es necesario:


1. Detallado análisis estadístico: distribución de los datos (Normal o LogNormal)
2. Luego, análisis de la distribución espacial (importante para la interpretación
de los resultados geoestadísticos):
ü Mapas de posicionamiento de datos.
ü Mapas de contornos
ü Mapas de símbolos

En minería todas las variables se distribuyen como LogNormal


Se usa la Normal para evitarse un problema matemático y porque
la diferencia en muchos de los casos de minería no es importante.

Media: Normal = 54%


LogNormal = 55 %
(diferencia 1% , no tiene importancia en minería)
Continuidad espacial

La geoestadística asume que las muestras están correlacionadas.


En un yacimiento se debe encontrar una Correlación espacial.
Datos más cercanos tienen más probabilidad de ser similares que datos alejados

Herramientas para medir correlación espacial:

v Diagramas de dispersión

v Función de correlación

v Función de covarianza

v Ecuación del semivariograma (variograma)


Estadística bivariada

En Ciencias de la Tierra interesa conocer el patrón de


dependencia que relaciona a una variable aleatoria X (porosidad)
con otra variable aleatoria Y (permeabilidad)

Función de distribución de probabilidad bivariada

𝐹&' 𝑋, 𝑌 = 𝑃 𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦

Se estima mediante la proporción de pares de valores de X y Y


que se encuentra por debajo del umbral x, y respectivamente
Diagrama de dispersión (Scattergram)

El grado de dependencia entre dos variables aleatorias X y Y


puede ser caracterizado por el diagrama de dispersión alrededor
de una línea de regresión

Covararianza

Cov 𝑋, 𝑌 = 𝜎&' = 𝐸 𝑋 − 𝑚( − 𝑌 − 𝑚)
- -
1 1
𝜎&' = 0 𝑥* − 𝑚( 𝑦* − 𝑚) = 0 𝑥* 𝑦* − 𝑚( 𝑚)
𝑁 𝑁
*+, *+,
Semivariograma

Es el momento de inercia del diagrama de dispersión


con respecto a una línea con pendiente 45º, se define:

- -
1 .
1 .
𝛾&' = 0 𝑑* = 0 𝑥* − 𝑦*
𝑁 2𝑁
*+, *+,

A mayor valor del semivariograma, más dispersos


estarán los valores en el diagrama de dispersión y
menor será la dependencia entre las dos variables
aleatorias
Coeficiente de correlación lineal de Pearson

Caracteriza el grado de dependencia lineal entre dos variables aleatorias.

Ejemplo, si Y = aX + B, entonces se cumple

𝟏 𝒑𝒂𝒓𝒂 𝒂 > 𝟎
𝒓𝒙𝒚 = -
−𝟏 𝒑𝒂𝒓𝒂 𝒂 < 𝟎
Diagrama de dispersión (Scattergram)

r = 0,88

r = 0,72
Estadística multivariada

Técnicas multivariadas:
Ø Análisis de Regresión
Ø Análisis de conglomerados
Ø Análisis de componentes principales
Ø Análisis Factorial
Ø Análisis discriminante, …
Regresión lineal y Mínimos cuadrados

La regresión trata de establecer relaciones


funcionales entre variables aleatorias. Dados N valores de dos variables aleatorias X y Y
La regresión lineal consiste en establecer una Suposiciones:
relación descrita mediante una recta. 1. X es una variable independiente (VI)
Los modelos de regresión permiten hacer 2. Y depende de X en forma lineal
predicciones o pronósticos a partir del modelo
establecido. Modelo lineal
El método para estimar los parámetros del
modelo de regresión es el de los Mínimos Donde:
Cuadrados.
Regresión lineal
Condiciones que deben cumplir los residuos

𝑬 𝒆𝒊 = 𝟎 Valor esperado igual a cero

𝐕𝐚𝐫 𝒆𝒊 = 𝝈𝟐𝒆 Varianza constante

𝐂𝐨𝐯 𝒆𝒊 , 𝒆𝒋 = 𝟎 ∀𝒊 ≠ 𝒋 No correlacionados

𝒆~𝑵 𝟎, 𝝈𝟐𝒆 Distribución Normal


Mínimos Cuadrados Ordinarios (MCO)

Método que consiste en halla los parámetros del modelo de manera


que la suma de los cuadrados de los errores sea mínima.

Sistema de ecuaciones:

Coeficiente de determinación R2 Criterios de la bondad de ajuste


Para los modelos lineales Si
Mide el grado de la bondad de ajuste R2 ≅ 1 el ajuste es bueno
Es igual al coeficiente de correlación lineal al cuadrado.
R2 ≅ 0 las variables no están relacionadas (linealmente
Representa la proporción de varianza explicada por la regresión lineal. al menos), no tiene sentido hacer un ajuste lineal.
Regresión lineal
Y = Permeabilidad X = Porosidad

R2 = 0,51
R2 = 0,78

Análisis de los residuos


Y = logPermeabilidad X = Porosidad
Función aleatoria (FA)

Si a cada punto x que pertenece a un dominio Ω en el espacio se hace


corresponder una VA Z, entonces el conjunto de variables aleatorias
espacialmente distribuidas será una función aleatoria Z(x).
Ejemplo:
La distribución espacial de las facies o la porosidad en un yacimiento.
Variable regionalizada (VR)

Al tomar una muestra de una función aleatoria (una realización), se


obtendrá una función espacial discreta la cual constituye una variable
regionalizada.
Variable regionalizada: Es una realización de una función aleatoria.
Función de distribución de Función Aleatoria

Sea una función aleatoria Z(x) definida en una región Ω, entonces el vector aleatorio:
𝒁 𝒙𝟏 , 𝒁 𝒙𝟐 , … , 𝒁 𝒙𝒏
Se caracteriza por su función de distribución de probabilidad n-variada:
𝑭𝒁 𝒙𝟏 ,𝒁 𝒙𝟐 ,…,𝒁 𝒙𝒏 𝒁𝟏 , 𝒁𝟐 , … , 𝒁𝒏 , = 𝑷(𝒁 𝒙𝟏 ≤ 𝒁𝟏 , 𝒁 𝒙𝟐 ≤ 𝒁𝟐 , … , 𝒁 𝒙𝒏 ≤ 𝒁𝒏 )

Ley espacial de probabilidad de la función aleatoria Esta función en la práctica es


Conjunto de todas las distribuciones para todo valor de n imposible determinar y solo se puede
y para cualquier selección de puntos en Ω esperar inferir los primeros momentos
de la distribución FA Z(x)
Momentos de una Función Aleatoria

Momento de Primer Orden Momentos de Segundo Orden


Valor medio o media de Z(x) Varianza de Z(x)
𝒎 𝒙 = 𝑬 𝒁(𝒙) 𝝈𝟐 𝒙 = 𝑽𝒂𝒓 𝒁(𝒙) = 𝑬 𝒁 𝒙 − 𝒎(𝒙) 𝟐

Covarianza de Z(x)
𝑪𝒐𝒗 𝒙𝒊 , 𝒙𝒋 = 𝑬 𝒁 𝒙𝒊 − 𝒎(𝒙𝒊 ) 𝒁 𝒙𝒋 − 𝒎(𝒙𝒋 )

Semivariograma Z(x)
𝟐𝜸 𝒙𝒊 , 𝒙𝒋 = 𝑽𝒂𝒓 𝒁 𝒙𝒊 − 𝒁(𝒙𝒋 )
𝟏 𝟐
𝜸 𝒙𝒊 , 𝒙𝒋 = 𝑬 𝒁 𝒙𝒊 − 𝒁(𝒙𝒋 )
𝟐
También se conoce como
función de semivariograma o variograma
Estacionaridad de una Función Aleatoria

Función aleatoria estrictamente estacionaria


Si su función de distribución de probabilidad es invariante a
cualquier traslación respecto a un vector h.
Resulta práctico limitar la hipótesis de estacionaridad a
los primeros momentos
Clasificación de las Funciones Aleatoria según su grado de estacionaridad

Funciones Aleatorias de segundo orden Funciones Aleatorias intrínsecas

Funciones Aleatorias NO estacionarias


Funciones Aleatorias NO estacionarias

Ejemplo de variograma en presencia de


tendencia, muestra un crecimiento h2
Ejemplos de Estacionaridad Media estacionaria

Media y varianza constante Media variable y varianza constante

Media no estacionaria

Media constante y varianza no constante Media y varianza no constante


Contenido
Análisis estructural (variográfico)
Estimación del variograma
Componentes de un variograma
Modelos de variogramas
Modelos autorizados
Modelación de variogramas
Variograma experimental
Esquema de uso de datos
Análisis Variográfico o Estructural
Herramienta básica de la geoestadística

Caracterización de la estructura espacial de una propiedad o fenómeno.


Consiste en estimar y modelar una función que refleje la correlación espacial de la variable
regionalizada a partir de la adopción razonada de la hipótesis acerca de su variabilidad.

Función Variograma o Función de covarianzas o Función de semivarianzas:


Media de los cuadrados de las diferencias entre pares de muestras separados
por una distancia (h), de una función aleatoria Z(x).

1 1 !
𝛾 ℎ = 𝑉𝑎𝑟 𝑍 𝑥 − 𝑍 𝑥 + ℎ = 𝐸 . 𝑍 𝑥 − 𝑍(𝑥 + ℎ
2 2

Permite la cuantificación de los parámetros geológicos y


expresa la correlación espacial entre los valores de la muestra.
Estimación del semivariograma
%(')
1
Existen varios estimadores, entre ellos: 𝛾0 ℎ = . 𝑍 𝑥" + ℎ − 𝑍 𝑥" !
2𝑁(ℎ)
"#$

𝑵 𝒉 Número de pares 𝑍 𝑥" 𝑦 𝑍 𝑥" + ℎ separados a una distancia ℎ = ℎ

Desventajas del estimador:


Al ser una media muestral, no es un estimador robusto (si la violación de los supuestos de partida
en los que se basa la estimación -atribuir a la población un tipo de función de distribución que no
es la correcta), no altera de manera significativa los resultados que éste proporciona.
Con frecuencia el empleo de este tipo de estimador produce variogramas experimentales
erráticos (desviaciones del caso ideal para la aplicación).

Desviaciones en orden de importancia:


1. Desviaciones de la distribución
2. Heterogeneidad de la varianza
3. Deviaciones en el muestreo
4. Existencia de valores atípicos (outliers)
Forma general del variograma
Aspectos a considerar para el cómputo del variograma

v Los pares de observaciones N(h) se agrupan


según la distancia dentro de un intervalo con
una tolerancia y dentro de una dirección con cia
an
una tolerancia angular. er
Tol ltol)
v Se estima para valores menores que la mitad (x
Dirección
de la distancia máxima. del vector h5
v Se considera que un número máximo de 25 (ang)

intervalos es suficiente para cualquier h4


propósito y un mínimo de 10 debe ser usado Ancho de banda
h3 (Bandwidth)
para determinar con precisión el alcance y la h )
meseta del variograma. ag
(x l h2
v Se considera que debe haber entre 30 y 50
pares de puntos como mínimo por intervalo. h1
Tolerancia angular (atol)
v Los valores estimados para cada intervalo se
deben graficar contra la distancia promedio de
todos los pares que se encuentran dentro de
dicho intervalo.
Ejemplo de variograma

AIC: Criterio de Información de Akaike


medida de la bondad de ajuste de un modelo estadístico.
Describe la relación entre el sesgo y varianza en la construcción
del modelo (exactitud y complejidad del modelo)
Construcción del Variograma

Calcular el variograma para 4 distancias:

1 2 3 4 5 4 3 2 1

8 pares
h=1
h=2 7 pares

h=3 6 pares

h=4
5 pares

1
ℎ = 1 → 𝐺! = ∗8∗ 1−2 "+ 2−3 "+ 3−4 "+ 4−5 " + 5−4 " + 4−3 " + 3−2 " + 2−1 " = 0,5
2
1
ℎ = 2 → 𝐺! = ∗ 7 ∗ 1 − 3 " + 2 − 4 " + 3−5 " + 4−4 " + 5−3 " + 4−2 " + 3−1 " = 1,7
2
1
ℎ = 3 → 𝐺! = ∗ 6 ∗ 1 − 4 " + 2−5 " + 3−4 " + 4−3 " + 5−2 " + 4−1 " = 3,2
2
1 " " " " "
ℎ = 4 → 𝐺! = ∗ 5 ∗ 1−5 + 2−4 + 3−3 + 4−2 + 5−1 = 4,0
2
Gráfico del Variograma
1 2 3 4 5 4 3 2 1 5 1 3 1 4 2 2 4 3

Comportamiento
irregular entre 𝒉 𝑦 𝜸𝒉

Comportamiento
lineal positivo

𝒉 𝜸𝒉 𝒉 𝜸𝒉
1 0,5 1 2,7
2 1,7 2 1,0
3 3,2 3 3,1
4 4,0 4 4,1
Componentes de un Variograma: Continuidad espacial, Alcance Anisotropías

La continuidad espacial se refleja en la tasa de


crecimiento de la varianza en el eje Y (𝛾(') ) de
Hasta aquí la correlación de la
acuerdo a los aumentos de la distancia de
muestra y se alcanza meseta
muestreo (h) eje X

La covarianza inicia con un valor alto y


va disminuyendo hasta que tiende a
cero y la correlación desaparece.
Alcance: Distanciamiento del muestreo

Con el alcance se puede determinar el


distanciamiento óptimo del muestreo
(solapamiento adecuado)

20 m

Ejemplo:
Si una muestra tiene un alcance = 20 m, se
puede extrapolar hasta 20 m, mas allá no

• 20 m à Distancia mínima del muestreo


• Distancia > 20 m (el valor tiene que ver con
otra muestra).
Anisotropías

El variograma puede tener distintos alcances y mesetas,


según la dirección con que se aparean los datos.

Muestras de forma transversal al deposito,


se tendrá un variograma con un alcance
menor, pero longitudinalmente, el alcance
será mayor

También se puede hacer un variograma en


la vertical
Se puede definir un bloque de equilibrio con
los 3 alcances (largo, ancho y en profundidad)
y se puede tener tamaño óptimo de un bloque
de evaluación de reserva.
Formas del Variograma

Variograma de un yacimiento de pórfido cuprífero con efecto


Variograma de un yacimiento estratiforme con una mineralización pepita (Arteaga et al, 1991)
muy continua (Arteaga et al, 1991)

Aleatoriedad de la ley en un yacimiento de oro (Arteaga et al, 1991)


Modelo esférico Modelo exponencial
Modelos de Variograma

Gamma (h)
Gamma (h)
Los modelos de variograma son curvas,
generadas a partir de una función matemática, Distancia Distancia
que se ajustan a los datos y permiten conocer la Modelo Logarítmico Modelo Gaussiano
distribución para todos los puntos en el espacio.

Gamma (h)
Gamma (h)
Se utilizan para Krigear Distancia Distancia
Con el variograma experimental quedan zonas donde no Modelo Lineal Modelo wisjiano
existen valores, por tanto es posible que sea necesario

Gamma (h)
Gamma (h)
definir el valor de la variables en puntos donde el
variograma experimental no ofrece información.
Distancia Distancia
Efecto pepita Modelo con efecto agujero
En geología, los más utilizados son los de tipo transicional

Gamma (h)
Gamma (h)
(con meseta): Esférico, Exponencial y Parabólico.
Otro, Modelo Efecto Pepita Puro (solo tiene meseta)
Distancia Distancia
Modelo transitivo

Gamma (h)
Con los puntos se traza una curva y se busca el
mejor ajuste (R2) con la estadística bivariada
Distancia
Modelo esférico
Modelo de potencial (más utilizado)
𝟑
𝜸(𝒉) = 𝝎 𝒉 𝜶 𝒉 𝒉
𝑪 𝟏, 𝟓 − 𝟎, 𝟓 𝒉≤𝒂
𝜸(𝒉) = 𝒂 𝒂
𝑪 𝒉>𝒂
𝜔>0 𝟎 𝒉=𝟎
0 <∝< 2

C = meseta
a una distancia h = 0, siempre 𝛾(%) = 0
Modelo cuadrático Modelo exponencial
(similar al esférico)

𝒉
𝟐 𝑪 𝟏 − 𝒆𝒙𝒑 − 𝒉 > 𝟑𝝎
𝒉 𝒉 𝝎
𝑪 𝟐 − 𝒉≤𝒂 𝜸(𝒉) =
𝜸(𝒉) = 𝒂 𝒂 𝟎 𝒉=𝟎
𝑪 𝒉>𝒂 𝒂𝒍𝒄𝒂𝒏𝒄𝒆 𝒑𝒓á𝒄𝒕𝒊𝒄𝒐 = 𝟑𝝎
𝟎 𝒉=𝟎
Modelo gaussiano Modelo cúbico

𝟐 𝟑 𝟓 𝟕
𝟐 𝒉 𝒉 𝒉 𝒉
𝒉 𝑪 𝟕 − 𝟖, 𝟕𝟓 + 𝟑, 𝟓 − 𝟎, 𝟕𝟓 𝒉≤𝒂
𝜸(𝒉) = 𝑪 𝟏 − 𝒆𝒙𝒑 − 𝒉≥𝟎 𝜸(𝒉) = 𝒂 𝒂 𝒂 𝒂
𝝎 𝑪 𝒉>𝒂
𝟎 𝒉>𝒂
Modelo Efecto agujero Modelo Efecto Pepita
(Hole) (Nugget)

𝒉
𝜸(𝒉) = 𝑪 𝟏 − 𝒄𝒐𝒔 𝝅 𝒉≥𝟎 𝜸(𝒉) = 𝑪 𝟏 − 𝜹(𝒉)
𝒂

C-meseta
Modelo autorizados

Solo ciertas funciones pueden ser consideradas modelos válidos de


variogramas y se dice que son modelos autorizados.
El hecho de probar si una función es aceptable o no, está relacionado con
el examen de su Transformada de Fourier. Christakos (1984) obtuvo las
condiciones que el espectro de la función debe reunir para ser un modelo
autorizado.
Como una propiedad importante se debe destacar que cualquier
combinación lineal de modelos autorizados es un modelo autorizado.
Modelos Transitivos o Acotados Modelos no Acotados

Existen casos en que la varianza aparenta


Se derivan a partir de la noción de incrementarse indefinidamente.
autocorrelación entre los valores Si se toma cada vez un menor intervalo de muestreo,
promedio dentro de los bloques. siempre existe alguna variación que queda sin resolver.
La idea es que la función aleatoria, de la Mandelbrot (1982) llamó al resultado de tales procesos
cual la propiedad medida es una fractales.
realización, depende del grado de
traslape de los dos bloques. Ejemplos: El ruido gaussiano fraccional (fGn) y el
movimiento browniano fraccional (fBm)

𝟏
Modelo Potencia 𝜸 𝒉 = 𝒉𝜽; para 0 < 𝜃 < 2
𝟐
Relación entre la dimensión fractal D (Hausdorff-Besicovitch) y el parámetro 𝜃
𝜽
𝑫=𝟐−
𝟐
Casos Extremos:
𝜃 = 2 y 𝐷 = 1, es una parábola, no representa un proceso aleatorio.
𝜃 = 2 y 𝐷 = 2, ruido puro (efecto nugget)
Modelos Anisotrópicos Anisotropía Geométrica

Existen numerosas situaciones en que la variación es


anisotrópica; es decir, depende de la dirección.

Si la anisotropía se puede tener en cuenta mediante


una transformación lineal simple de las coordenadas,
se dice que la anisotropía es geométrica o afín.
La anisotropía se refleja en diferentes alcances
según la dirección. El gráfico direccional de los
rangos forma una elipse.

Fórmula de transformación:

A eje mayor ((variabilidad es más lenta)


B eje menor ((variabilidad es más rápida)
Se aplica como un factor al argumento h del variograma en los
modelos acotados o al gradiente en los modelos no acotados.
𝝀 = 𝑨/𝑩 es una medida de la anisotropía.
Modelos Anisotrópicos

En la práctica se estiman los variogramas en


4 direcciones (0, 45, 90 y 135o).
Se determina los rangos para cada dirección.
Luego se construye el gráfico direccional de
los rangos para decidir si hay anisotropía
geométrica.
Finalmente, se determina A, B y la dirección
(ángulo) de mayor alcance
Anisotropía Zonal

Cuando la anisotropía se refleja en la meseta;


es decir,
en dependencia de la dirección del variograma presenta diferentes mesetas.

Ejemplo:
Cuando se mide una propiedad en diferentes pozos.
Por lo general, el variograma en la vertical (en
profundidad) presenta una mayor variabilidad (meseta)
que en la dirección horizontal.
Combinación de Modelos

Modelo de variograma válido: Combinación lineal de modelos de


variogramas autorizados con coeficientes positivos.
Generalmente, los modelos son combinaciones del tipo:
𝛾 ℎ = 𝛾N ℎ + 𝛾O ℎ 𝛾* ℎ Efecto nugget
𝛾$ ℎ otro modelo

Estructura anidada: Combinación formada por


variogramas con diferentes rangos.
Describen variaciones espaciales a diferentes escalas
y se deben a factores de naturaleza diferente.
Ejemplo:
𝜸 𝒉 = 𝜸𝟎 𝒉 + 𝜸𝟏 𝒉 + 𝜸𝟐 𝒉

𝛾* ℎ Efecto nugget
𝛾+ ℎ Modelo esférico 1 𝛾" ℎ Modelo esférico 2
Modelación de Variogramas

Se recomienda auxiliarse con un procedimiento estadístico (Método de


Algunos geoestadísticos ajustan el modelo Mínimos Cuadrados).
de forma visual.
Con criterio de bondad de ajuste y complejidad del modelo (Criterio de
Información de Akaike –AIC – describe la relación entre el sesgo y
varianza en la construcción del modelo). Mientras más pequeño, mejor se
ajustará el modelo a los datos. Sin embargo, el modelo con el criterio AIC más
pequeño para un conjunto de predictores no necesariamente ajusta los datos
adecuadamente.
Métodos de Modelación de Variogramas
Leave one out: Método sencillo y eficiente.
Consiste en sacar un punto de la muestra y estimar con Kriging el valor en ese punto
usando el modelo del variograma obtenido.
Se continua de igual forma para el resto de los elementos de la muestra.
Como resultado se obtiene un mapa de las diferencias entre el valor real y el estimado.

Si el modelo del variograma refleja adecuadamente la


estructura espacial del conjunto de datos, entonces los
valores estimados deben ser cercanos a los valores
observados.
La “cercanía” puede ser caracterizada con los criterios:
𝟏 𝒏
∑ 𝒁 𝒙𝒊 − 𝒁∗ 𝒙𝒊 cercano a 0
𝒏 𝒊,𝟏
𝟏 𝒏
∑ 𝒁 𝒙𝒊 − 𝒁∗ 𝒙𝒊 𝟐 pequeño
𝒏 𝒊,𝟏
El histograma de los errores normalizados permite identificar
valores atípicos (outliers), datos sospechosos o anomalías de
otra naturaleza.
Variograma: Aplicaciones de la Geoestadística

v Tamaño óptimo de muestra.


v Esquema de muestreo óptimo.
v Densidad óptima de muestreo.
v El área de influencia de cada muestra.
v La naturaleza de la mineralización
Ejercicio
Análisis estructural: Uso del semivariograma Experimental

Determine gamma(h) en las direcciones: 0o, 90o, 135º y 225º azimut (conocer el alcance en las 4 direcciones).
Genere conclusiones en cuanto a la relación de los datos y la zona de influencia en la futura estimación.

Información:
Variable: Concentraciones de Hierro (%) en un nivel mina. Malla 10 x 10 m

Fórmula del semivariograma


%(')
1
0o 𝛾∗ ℎ =
2𝑁(ℎ)
. 𝑍 𝑥" − 𝑧 𝑥" + ℎ !

"#$
90o
N número de parejas de datos
5o
22

h Distancia (lag: 0, 10, 20 y 30)


13
5
o

SW
SE
Cálculo de 𝜸(𝒉) 0o Azimut ⬇ Distancia (h)
0
Por propiedad del variograma 10
Malla 10 x 10 m
0 0 0 Para h = 0 à 𝜸 𝒉 = 𝟎 20
10 4,45 21
20 8,71 17 30
30 12,10 13 /(!)

1 "
𝛾 ℎ = G 𝑍 𝑥- − 𝑧 𝑥- + ℎ
Para h = 10 m 0o Azimut (N-S) 2𝑁(ℎ)
-.+

= 4,45

Para h = 20 m 0o Azimut (N-S)

= 8,71

Para h = 30 m 0o Azimut (N-S)

= 12,10
Cálculo de 𝜸(𝒉) 90o Azimut ⬅
h: 0 10 20 30

Malla 10 x 10 m
0 0
4,10 24
8,42 19
12,08 18 /(!)
1
𝛾∗ ℎ = G 𝑍 𝑥- − 𝑧 𝑥- + ℎ "
Para h = 10 m 90o Azimut 2𝑁(ℎ)
-.+

= 4,10

Para h = 20 m 90o Azimut

= 8,42

Para h = 30 m 90o Azimut

= 12,08
Cálculo de 𝜸(𝒉) 135o Azimut ↖
10 10 10
10 ℎ+0 = 10" + 10" = 14,14 ≈ 14
0 0 0 Malla 10 x 10 m
10 ℎ"1 = 20" + 20" = 28,28 ≈ 28
14 5,03 19
28 11,87 15 10 ℎ0" = 30" + 30" = 42,43 ≈ 42
42 12,44 9
/(!)
1
𝛾∗ ℎ = G 𝑍 𝑥- − 𝑧 𝑥- + ℎ "
Para h = 14 m 135o Azimut 2𝑁(ℎ)
-.+

= 5,03

Para h = 28 m 135o Azimut

=11,87

Para h = 42 m 135o Azimut

= 12,44
Cálculo de 𝜸(𝒉) 225o Azimut ↗
10 10 10
10 ℎ+*\0 = 10" + 10" = 14,14 ≈ 14
0 0 Malla 10 x 10 m
10 ℎ"1 = 20" + 20" = 28,28 ≈ 28
6,59 17
9,69 13 10 ℎ0" = 30" + 30" = 42,43 ≈ 42
14,22 9
/(!)
1
𝛾∗ ℎ = G 𝑍 𝑥- − 𝑧 𝑥- + ℎ "
Para h = 14 m 225o Azimut 2𝑁(ℎ)
-.+

= 6,59

Para h = 28 m 225o Azimut

= 9,69

Para h = 42 m 225o Azimut

= 14,22
𝒉 𝜸(𝒉)

Gráfico
variograma
omnidireccional
El comportamiento de las Ponderación de Gamma(h)
Hay que tomar una decisión: direcciones son similares a
hay comportamiento isótropo excepción de la 135o
o anisótropo

Hipótesis:
Existe relación en su alcance en las 4
direcciones.
Para ello, se genera un variograma
omnidireccional, (promedio de las 4
direcciones), que se pondera por las h
variograma omnidireccional Ponderación de Gamma(h)

Ponderación para h = 10 m, hay 21 + 24 = 45 pares 45 à 100 %


0 21 à X = 47% à 0,47 Peso de Gamma de 4,45
4,27 4,45 ∗ 0,47 + 4,10 ∗ 0,53 = 4,27 0,53 Peso de Gamma de 4,10
5,76
Ponderación para h = 14 m, hay 19 + 17 = 36 pares 36 à 100 %
8,56 19 à X = 53 % à 0,53 Peso de Gamma de 5,03
10,86 5,03 ∗ 0,53 + 6,59 ∗ 0,47 = 5,76 0,47 Peso de Gamma de 6,59
Ponderación para h = 20 m, hay 17 + 19 = 36 pares 36 à 100 %
17 à X = 47 % à 0,47 Peso de Gamma de 8,71
8,71 ∗ 0,47 + 8,42 ∗ 0,53 = 8,56 0,53 Peso de Gamma de 8,42
Ponderación para h = 28 m, hay 15 + 13 = 28 pares 28 à 100 %
15 à X = 54 % à 0,54 Peso de Gamma de 11,87
11,87 ∗ 0,54 + 9,69 ∗ 0,46 = 10,86 0,46 Peso de Gamma de 9,69
variograma omnidireccional Ponderación de Gamma(h)

Ponderación para h = 30 m, hay 13 + 18 = 31 pares 31 à 100 %


0 13 à X = 42% à 0,42 Peso de Gamma de 12,10
4,27 12,10 ∗ 0,42 + 12,08 ∗ 0,58 = 12,08 0,58 Peso de Gamma de 12,08
5,76
Ponderación para h = 42 m, hay 9 + 9 = 18 pares 18 à 100 %
8,56 9 à X = 50 % à 0,50 Peso de Gamma de 12,44
10,86 12,44 ∗ 0,50 + 14,22 ∗ 0,50 = 13,33 0,50 Peso de Gamma de 14,22
12,08
13,33
Gráfico

Fin del ejercicio de la función semivariograma


Análisis:
En 4 direcciones el comportamiento de las Leyes de hierro en un determinado nivel de mina.
Luego:
Generar un modelo teórico y un ajuste teórico a este variograma omnidireccional, para
determinar un alcance, una meseta, un efecto pepita, …
a stre
arr
Preferencias
Histograma
Variograma
Variograma

Malla cuadrada
10 x 10 m

Lag tolerance Direcciones


0,5 de Lag separation (0 45 90 y 135º)

Bandwidth (ancho de banda) depende de la


Análisis en la horizontal
disposición de los datos y suele ser ½ de lag,
dip = 0
en este caso no se necesita , se coloca 1

Variograma
omnidireccional la Tolerancia y Ancho de banda, no inciden.
En caso de datos irregulares (no cuadrada), la
estimación por Kriging será diferente,

Tolerancia angular, depende de la disposición


espacial de los datos, por defecto 22,5o, en este
caso es una malla cuadrada, no se necesita
tolerancia angular, se coloca 1.
Variogramas

Clic derecho
Número de
pares de datos
Efecto
pepita

Varianza
(10,75)

El ajuste del modelo matemático, es la parte subjetiva, que ha llenado


de critica a esta metodología de estimación de recursos mineros.
Alcance = 36 m

Modelo esférico Estimación h = 20 m


, ,
ℎ ℎ 20 20
𝛾' = 𝑐 1,5 − 0,5 𝛾'#!* = 10,75 1,5 − 0,5 = 8,04
𝑎 𝑎 36 36
Contenido
Introducción
Ecuaciones del Kriging
Clasificación del Kriging
Tipos de Kriging lineal más usados
Kriging Simple
Kriging Ordinario
Kriging Universal
Kriging Residual
Kriging Indicador
Aspectos prácticos del Kringing
Introducción

Problema:
A partir de información conocida de una propiedad,
medida en ciertas ubicaciones, estimar el valor en
localizaciones en donde se desconoce o se carece
de muestreo, usualmente en una malla.

Método de estimación espacial à Kriging

Término acuñado para designar al


”mejor estimador lineal insesgado”
(best linear unbiased estimator, BLUE)

Técnica desarrollada por G. Matheron (1962) a partir


de los trabajos de D.G. Krige (pionero en el usos de
la correlación espacial con fines de predicción)

Kriging se considera óptimo:


Ø Es insesgado (valor esperado del error = 0)
Ø Garantiza mínima varianza de la estimación (reduce
al mínimo la varianza del error de la estimación.
Kriging se considera óptimo:

Ø Es insesgado (valor esperado del error = 0)


Ø Garantiza mínima varianza de la estimación (reduce
al mínimo la varianza del error de la estimación.

Estimador BLUE
mejor estimador lineal insesgado

Mejor

Lineal

Insesgado
Ecuaciones de Kriging

Dada una Función Aleatoria estacionaria Valor esperado: 𝐸 𝑍 𝑥! = 𝑚; ∀𝑥


de segundo orden y definida en ciertos
puntos 𝑍 𝑥! , 𝑖 = 1, 2, … , 𝑛 Función de covarianza: 𝐶𝑜𝑣 ℎ = 𝐸 𝑍 𝑥! + ℎ 𝑍(𝑥) − 𝑚"

#
Variograma: 𝛾 ℎ = 𝑉𝑎𝑟 𝑍 𝑥 + ℎ − 𝑍𝑥)
"

'

𝐸 𝑍 ∗ (𝑥% ) = 𝐸 : 𝜆! 𝑍(𝑥! ) = 𝐸 𝑍 𝑥% =𝑚
!&#
Esto implica
Condición de insesgadez, E(error) = 0 '

: 𝜆! 𝐸 𝑍(𝑥! ) = 𝑚
!&#
Entonces
' '

: 𝜆! 𝑚 = 𝑚 → : 𝜆! = 1
!&# !&#
Ecuaciones de Kriging
Condición que la varianza del error sea mínima Varianza de la estimación:
𝜎$# = 𝑉𝑎𝑟 𝑍% − 𝑍%∗ = 𝐸 𝑍% − 𝑍%∗ #
Para satisfacer la condición de insesgadez
hay que minimizar la función objetivo:
)
𝐹 = 𝜎$# − 2𝜇 - 𝜆! − 1 𝜇 un multiplicador de Larange
!'(

Derivando F respecto a 𝜆! y 𝜇 resulta el sistema de


ecuaciones del Kriging:
En forma matricial:
)
𝜕F
= −2𝜎%! + 2 - 𝜆" 𝜎!" − 2𝜇 = 0, 𝑖 = 1, 2, … , 𝑛
𝜕λ*
"'(
) 𝜎!" = 𝐶𝑜𝑣 𝑥! , 𝑥"
𝜕F
= - 𝜆! − 1 = 0
𝜕µ*
!'(

Finalmente:
) Varianza del error de la
estimación: NB. Bajo la hipótesis intrínseca las
- 𝜆" 𝜎!" − 𝜇 = 𝜎!" , 𝑖 = 1, 2, … , 𝑛 covarianzas pueden ser reemplazadas por
)
"'( las semivarianzas 𝜎!" = 𝜎 # − 𝛾!"
) 𝜎$# = 𝜎 # − - 𝜆! 𝜎%" + 𝜇
- 𝜆! = 1 !'(
!'(
Clasificación del Kriging

Según el soporte de la Según la forma del Según el supuesto de la


medición de los datos: estimador: de la distribución de
Ø Lineales: probabilidad:
Ø Puntual v Simple (KS) Ø Paramétrico:
v Ordinario (KO) v Multigaussiano
v Universal (KU) v Disyuntivo
v Residual (KR) v LogNormal
Ø No lineales Ø No paramétricos
Ø Por bloques Ø Disyuntivo Ø Simple
Ø Indicador Ø Ordinario
Ø Probabilístico Ø Universal
Ø Residual
Ø Indicador
Kriging Lineal Simple Según la forma del
con valores esperados conocidos estimador:
Ø Lineales:
Requisitos: v Simple
Ø Conocer valores esperados de la función aleatoria v Ordinario
𝒎 𝒙𝒊 = 𝑬 𝒁(𝒙𝒊 ) , ∀𝒊 = 𝟎, 𝟏, … , 𝒏 v Universal
v Residual
Ø Conocer la función de covarianzas o el semivariograma de Ø No lineales
la función aleatoria Ø Disyuntivo
𝝈𝒊𝒋 Ø Indicador
Ø Probabilístico
Sistema de ecuaciones:
'
Estimador Varianza del Estimador
: 𝜆* 𝜎!* = 𝜎!+ , 𝑖 = 1, 2, … , 𝑛
' '
*&#
' 𝑍+∗ = 𝜆+ + : 𝜆! 𝑍 𝑥! "
𝜎,- = 𝜎++ − : 𝜆! 𝜎!+
𝜆+ = 𝑚 𝑥+ − : 𝜆! 𝑚 𝑥! !&# !&#

!&#
Kriging Lineal Ordinario Según la forma del
con valor esperado estacionario desconocido estimador:
Ø Lineales:
v Simple
Requisitos:
v Ordinario
Ø El valor esperado de la función aleatoria sea constante
v Universal
𝒎 𝒙𝒊 = 𝑬 𝒁(𝒙𝒊 ) = 𝒎, ∀𝒊 = 𝟎, 𝟏, … , 𝒏
v Residual
Ø No lineales
Ø Conocer la función de covarianzas o el semivariograma de
la función aleatoria Ø Disyuntivo
𝝈𝒊𝒋 , 𝜸𝒊𝒋 Ø Indicador
Ø Probabilístico

Sistema de ecuaciones:
'
Estimador Varianza del Estimador
: 𝜆* 𝜎!* − 𝜇 = 𝜎+! , 𝑖 = 1, 2, … , 𝑛 ' '
*&#
'
𝑍+∗ = : 𝜆! 𝑍 𝑥! 𝜎%"! = 𝜎++ − : 𝜆! 𝜎!+ + 𝜇
!&# !&#
: 𝜆! = 1
!&#
Kriging Lineal Universal Según la forma del
con presencia de tendencia estimador:
Ø Lineales:
Requisitos: v Simple
Ø Conocer la forma de la tendencia expresada v Ordinario
usualmente mediante polinomios v Universal
v Residual
𝒎 𝒙 = 𝑬 𝒁(𝒙) = : 𝒂𝒍 ∅𝒍 (𝒙)
𝒍
Dificultades prácticas
Ø Conocer la función de covarianzas o el El orden del polinomio que
semivariograma de la función aleatoria sin tendencia explica la tendencia m(x)
nunca se conoce, hay que
𝝈𝒊𝒋 , 𝜸𝒊𝒋 para 𝒁 𝒙 − 𝒎(𝒙) Estimador adivinar.
'
El variograma tampoco es
Sistema de ecuaciones: 𝑍+∗ = : 𝜆! 𝑍 𝑥! conocido y hay que
' 0 !&# estimarlo a partir de los
residuales R(x)
: 𝜆* 𝜎!* − : 𝝁𝒍 ∅𝒍 𝒙𝒊 = 𝜎+! , 𝑖 = 1, 2, … , 𝑛
*&# /&# Varianza del Estimador
' 0
: 𝜆/ ∅𝒍 𝒙𝒊 = ∅𝒍 𝒙𝟎 , 𝑙 = 1,2, … , 𝐿
𝜎%"" = 𝜎++ − : 𝜆! 𝜎!+ + : 𝝁𝒍 ∅𝒍 𝒙
!&/
!&# /&#
Kriging Lineal Residual
Propuesto por Gambolati y Volpi (1978 y 1979), como alternativa para manejar la no estacionaridad

Modelo: 𝒁 𝒙 = 𝒎 𝒙 + 𝑹(𝒙) Según la forma del


estimador:
𝒎 𝒙 Tendencia
Ø Lineales:
𝑹(𝒙) Residuos v Simple
La derivada o tendencia m(x) se estima con MCO (Mínimos Cuadrados Ordinarios) v Ordinario
A los residuos R(x) sin tendencia se aplica Kriging Ordinario (KO) v Universal
v Residual

Algoritmo:
1. Obtener el orden K del polinomio que mejor representa a la derivada o tendencia.
2. Ajustar la derivada mediante MCO 𝑚%∗ ( 𝑥)
3. Calcular los residuos 𝑹 𝒙 = 𝒁 𝒙 − 𝑚%∗ ( 𝑥)
4. Estimar y modelar el variograma de los residuos.
5. Aplicar Kriging ordinario a los residuos mediante el variograma.
6. Se realiza la estimación en un punto no observado con:
𝒁∗ 𝒙 = 𝒎∗𝒌 𝒙 + 𝑹∗ (𝒙)
Kriging Indicador

Función Indicador de una Función Aleatoria:


Zc : Valor de corte

Distribución espacial:

Función de distribución Z
… Kriging Indicador

La distribución de probabilidad de variables indicador es una distribución Bernoulli


con momentos:

Valor esperados:

Función de covarianzas:

Varianza:

Función de semivarianza:
… Kriging Indicador

Variograma Indicador
Se estiman para cada valor de corte y son menos sensibles a la presencia de
valores extremos (outliers).
1. El variograma Indicador siempre alcanza una meseta 𝑆(𝑍3 ) = 𝐶# (0, 𝑍3 )
2. 𝑆 𝑍3 función creciente en (−∞, 𝑍4 )
3. 𝑆 𝑍3 función decreciente en (𝑍4 , ∞) 𝑍4 : Mediana
4. Una vez conocida la meseta 𝑆 𝑍3 del variograma se puede calcular la función
de probabilidad acumulativa:
𝐹5 𝑍3 = 0,5 + 𝑠𝑖𝑔𝑛𝑜(𝑍3 − 𝑍4 ) 0,25 − 𝑆(𝑍3 )
… Kriging Indicador

Uno de los propósitos de usar la variable indicador, es para estimar la función de


probabilidad acumulativa.
Las funciones de probabilidad estimadas se obtienen mediante combinaciones
lineales de la función indicador.
Esta función es la proporción exacta de valores menores que el valor de corte de
una variable, dentro de un área A.
El valor estimado mediante Kriging indicador representa la probabilidad que el
valor estimado de la función aleatoria sea menor que el valor de corte 𝑍(𝑋) ≤ 𝑍6
El Kriging indicador genera un mapa por cada valor de corte (categoría
indicador), donde se muestran regiones con diferente probabilidad de ocurrencia
para dicho valor de corte (categoría indicador).
… Kriging Indicador

La forma del estimador:

Con la condición para el no sesgo

El Kriging simple puede ser aplicado para hallar los pesos usando las
variables indicador y el variograma indicador.
Las ecuaciones del Kriging indicador se resuelven en la práctica para un
número finito (menor que 10, de valores de corte).
Si la estimación de cada valor se realiza por separado no se puede garantizar
que se cumplan las relaciones de orden de una función de distribución válida.
… Kriging Indicador

Alternativas (Myers, 1984)


1. Resolver el sistema de ecuaciones para el valor de corte correspondiente
a la mediana (Zc – ZM) y luego utilizar los mismos pesos obtenidos en el
Kriging para otros valores de corte Zc
2. Utilizar el CoKriging Indicador; es decir, el estimado se obtiene a partir
de los indicadores 𝑖(𝑥! , 𝑍" ), 𝛼 = 1,2, … , 𝑛 y 𝛽 = 1, 2, … , N . Esta alternativa
es más exacta, pero a la vez más costosa en cuanto a cómputo.
Aspectos prácticos del Kriging

1. Definir una malla de estimación:


v Si bien no hay restricciones para la malla de estimación, generalmente se
eligen malla regulares, debido a que su geometría facilita la representación
gráfica de los resultados en forma de mapas de contornos, relieves, …
v El tamaño de la celda de las mallas debe ser en un orden aproximadamente
igual a la distancia mínima de separación de los datos; puesto que, esta es
la resolución de la información que se dispone.

Ejemplo:
Malla de estimación rectangular
… Aspectos prácticos del Kriging

2. Definir una vecindad de búsqueda:


La vecindad de búsqueda se define con respecto al punto a estimar y
determina cuáles puntos vecinos potencialmente serán tomados en la
estimación.
v Caso isotrópico: tomar una circunferencia con centro en el punto a
estimar y radio igual o menor al alcance del variograma.
v Caso anisotrópico: tomar una elipse con centro en el punto a estimar y
semiejes iguales o menores a los alcances del variograma anisotrópico.

Ejemplo: Radio de búsqueda:


• Igual al rango
Vecindad de búsqueda para el caso anisotrópico
• Mayor que el rango no
tiene sentido (no existe
correlación)
… Aspectos prácticos del Kriging

3. Definir cantidad de puntos:


Una vez definida la vecindad de búsqueda, se debe especificar cuántos puntos
intervendrán en la estimación; esto determina el tamaño de la matriz del Kriging.
Para toda la vecindad se puede tomar como valores prácticos;
• Mínimo de puntos: 4 a 6
• Máximo de puntos: 10 a 25
Cuando se tiene una gran cantidad de puntos, también se pueden establecer
cantidades mínimas y máximas por cuadrante, octante, sextante …
Ilustración la idea del sistema de ecuaciones en forma matricial:

Se tiene tres puntos muestreados (Z1, Z2, Z3) formando un triángulo equilátero
separados a 50 unidades.
Se desea estimar Z0 (baricentro a 30 unidades)

Función de covarianzas
Considerar que la función aleatoria de la cual tenemos los tres
puntos (Z1, Z2, Z3) , cumple al menos la estacionaridad de segundo
orden y se tiene definida la función de covarianzas (a diferencia
semivarianzas es al revés, va disminuyendo desde una covarianza
de 1,0 (estandarizada) hasta 0 en una distancia de 100 m = alcance)

Construir el sistema de ecuaciones del Kriging Ordinario:


𝜎!" = 0,15 Cov(Z1,Z2) a 50 (gráfico) = 𝜎!# = 𝜎"! = 𝜎"# = 𝜎#! = 𝜎#"
𝜎## 𝜎#" 𝜎#7
En la diagonal principal está
la Cov del punto consigo 𝜎-( 𝜎$! = 0,30 Cov(Z0,Z1)
mismo = Var = 1,0 a 30 = 𝜎$" = 𝜎$#
𝜎-#
𝜎-.
-
𝜎"! = 0,15 Cov(Z1,Z2) a 50 = 𝜎#! = 𝜎#
Caso 1 Región de 3000 x 3000 Los contornos o isolíneas se ven … Aspectos prácticos del Kriging
bastante suaves, porque es
esférico (produce más transiciones
Los bloques de suaves que un modelo gaussiano)
correlación se
ven redondeados
porque el modelo
es isótropo (en
todas las
direcciones tiene
el mismo alcance

Mapa de estimación Alrededor de los puntos de


Porosidad %) Datos del muestreo muestreo se grafica el error
mínimo. Por qué no es cero,
Modelo Esférico sin Nugget si la malla pasara por los
puntos fuese 0, es 0,1
Varianza 1,8,
(No necesariamente
tiene que coincidir Aquí faltan datos
con la meseta)
(error >1,0)
Donde hay más
información hay
menos error
(menor La región donde hay puntos
incertidumbre) Mapa de varianza (desv) del error predomina el verde (0,7 a 0,8)
Alcance 1000 de la es1mación
… Aspectos prácticos del Kriging
Otro 2: Se man(ene todo igual, lo que cambia es el efecto Nugget
Desaparecen estructuras
(las más nítidas desaparecen)

a > Nugget > error,


Mapa de es3mación predomina el color
Porosidad %) amarillo (valor 1,0)

Modelo Esférico con Nugget

Efecto
Nugget

Mapa de varianza (desv) del error


de la estimación
… Aspectos prácticos del Kriging
Otro 3: No es isotrópico, hay dos direcciones con diferentes alcances (700 y 1500)
La estructuras se deforman
(alargan)

Modelo Esférico Anisotrópico

Modelo Esférico sin Nugget (para comparar)


… Aspectos prácticos del Kriging
Otro 4: Modelo Gaussiano Anisotrópico sin Nugget

La estructuras se suavizan

Modelo Gaussiano Anisotrópico

Modelo Esférico isotrópico sin Nugget (para comparar)


… Aspectos prácticos del Kriging
Otro 5: Modelo Gaussiano Anisotrópico con Nugget

Desaparecen las estructuras.


a > Nugget desaparecen las
estructuras

Modelo Gaussiano Anisotrópico


con Nugget

Modelo Gaussiano Anisotrópico sin Nugget (para comparar)


Características del Estimador Kriging

1. Es un interpolador “exacto” (pasa por los puntos de la malla, el error es 0).


2. Incorpora el modelo de variabilidad espacial (variograma) hace uso de la variación
espacial, caso contrario no se puede hacer estimación.
3. Proporciona una medida de la precisión de la estimación mediante la varianza
estimación (medida de la incertidumbre en el punto estimado)
4. La varianza de estimación tiene aplicaciones: diseño de muestreo.
5. La precisión depende de varios factores:
v Número de muestras
v Localización espacial
v Distancia entre las muestras y el punto o bloque a estimar.
v Calidad del modelo de variación espacial (variograma, sin una buena
estimación del variograma, no se puede tener una buena estimación con
Kriging).
v Va a ser el ”mejor estimador lineal insesgado” (best linear unbiased es?mator BLUE),
siempre y cuando se verifique todos los análisis (desde el análisis
exploratorio - análisis estructural – estimación espacial)
Kriging ordinario Leyes de plomo

Ejemplo: Fig 1. Geometría de las muestras,


plano bidimensional con
Se tiene un conjunto de cuatro muestras cuadrícula de 100 x 100
de un yacimiento de plomo, cuyas leyes
son:
S1 = 8,2 por 100
S2 = 9,6 por 100
S3 = 13,1 por 100 𝜏!! 𝑎! + 𝜏!" 𝑎" + 𝜏!# 𝑎# + 𝜏!$ 𝑎$ + 𝜇 = 𝜏%!
S4 = 6,4 por 100
𝜏"! 𝑎! + 𝜏"" 𝑎" + 𝜏"# 𝑎# + 𝜏"$ 𝑎$ + 𝜇 = 𝜏%"
Se quiere calcular la ley en el punto X0
(Fig. 1) 𝜏#! 𝑎! + 𝜏#" 𝑎" + 𝜏## 𝑎# + 𝜏#$ 𝑎$ + 𝜇 = 𝜏%#
El variograma se ajusta a un modelo de 𝜏$! 𝑎! + 𝜏$" 𝑎" + 𝜏$# 𝑎# + 𝜏$$ 𝑎$ + 𝜇 = 𝜏%$
tipo esférico de:
𝑎! + 𝑎" + 𝑎# + 𝑎$ + 0 = 1
Alcance (a) = 250 m
Efecto pepita Co = 17 Matriz de del Kriging Ordinaria, sistema de 5 ecuaciones, para darle
una ponderación a cada una de las muestras
Meseta (C) = 66
La quinta ecuación, obliga al cumplimiento de la condición de insesgo
Las ecuaciones del variograma son:
Leyes de plomo
Datos de entrada:
Alcance (a) = 250 m
Efecto pepita (Co) = 17
Meseta (C) = 66
100 m
Modelo Esférico de Variograma 200 m

1. Distancia a X0 desde cada muestra


100 !

42 0 !
111 + 50 !

1, 10
,80
Modelo esférico

14 +
0!
10
#
3 ℎ 1 ℎ
= 𝑀𝑒𝑠𝑒𝑡𝑎 − + 𝐶%
2 𝐴𝑙𝑐𝑎𝑛𝑐𝑒 2 𝐴𝑙𝑐𝑎𝑛𝑐𝑒
1. Calcular las distancias de las muestras al punto a estimar (x0)

(h) S1 S2 S3 S4 X0
S1 0 224 180 224 100
S2 224 0 112 316 200
200 !
+1
S3 180 112 0 206 112 00 !

10 180,
=2

0
23,

61

! + 8
16
S4 224 316 206 0 141

23,

15
2
=2

0
!
00 !
10
0!

+2
11 + 5
1.8 0 !

100 !
! 0 !
0
10
0 ! +5
! + 42 100 1.80
1. 23 11
0
10 14 != 316,
! +1
00
300
! = 20
6,16
! +5 0
200
2. Calcular la varianza, 𝛾(ℎ) para ello se necesita el Modelo Esférico

# ' ! ' #
𝛾 ℎ = 𝐶& + 𝑀𝑒𝑠𝑒𝑡𝑎
" ()*+,*-

" ()*+,*-
para h < Alcance

𝛾 ℎ = 𝐶& + 𝑀𝑒𝑠𝑒𝑡𝑎 𝑝𝑎𝑟𝑎 ℎ ≥ Alcance


Alcance (a) = 250 m
Efecto pepita (C0) = 17
Graficar el Variograma esférico Meseta (C) = 66

Al aumentar la distancia, aumenta


la varianza, hasta estabilizarse en
250 m que es el alcance

Modelo estructural
de este ejemplo

Comportamiento errático en el
origen; el variograma no
empieza en 0, sino en 17 (Cp)
3. Calcular la varianza, 𝛾(ℎ) para las distancias

. 0 7 0 .
𝛾 ℎ = 𝐶- + 𝑀𝑒𝑠𝑒𝑡𝑎 / 1234536
−/ 1234536
para h < Alcance

𝛾 ℎ = 𝐶- + 𝑀𝑒𝑠𝑒𝑡𝑎 𝑝𝑎𝑟𝑎 ℎ ≥ Alcance

Alcance (a) = 250 m


Efecto pepita C0 = 17
Meseta (C) = 66

Var y Cov van sen sentido inverso


4. Sistema de ecuaciones del Kriging Ordinario: para encontrar los ponderadores (a, b, c, d)

Generar una interpolación y asignar pesos a las 4 muestras para encontrar el valor estimado de X0 (a quién se le da más peso?)
Métodos tradicionales: inverso a la distancia, cuadrado, toman en cuenta asignando peso por la distancia,
Kriging involucra la herramienta de la variografía para asignar las ponderaciones.

𝜏!! 𝑎! + 𝜏!" 𝑎" + 𝜏!# 𝑎# + 𝜏!$ 𝑎$ + 𝜇 = 𝜏%!


𝜏"! 𝑎! + 𝜏"" 𝑎" + 𝜏"# 𝑎# + 𝜏"$ 𝑎$ + 𝜇 = 𝜏%"
𝜏#! 𝑎! + 𝜏#" 𝑎" + 𝜏## 𝑎# + 𝜏#$ 𝑎$ + 𝜇 = 𝜏%#
𝜏$! 𝑎! + 𝜏$" 𝑎" + 𝜏$# 𝑎# + 𝜏$$ 𝑎$ + 𝜇 = 𝜏%$
𝑎! + 𝑎" + 𝑎# + 𝑎$ + 0 = 1
µ multiplicador de Lagrange (Joseph Louis Lagrange)
En los problemas de optimización, el método de los
0,00*a + 81,97*b + 75,96*c + 81,94*d + µ = 54,49 multiplicadores de Lagrange, es un procedimiento para
encontrar los máximos y mínimos relativos de funciones
81,97*a + 0,00*b + 58,38*c + 83,00*d + µ = 79,30 de múltiples variables sujetas a restricciones.

75,96*a + 58,38*b + 0,00*c + 80,11*d + µ = 58,38 Σ (a + b + c + d) = 1


81,97*a + 83,00*b + 80,11*c + 0,00*d + µ = 66,92 Condición: la ponderación que se asigne a cada
muestra no sobrepase el 100%
a + b + c + d = 1,00
5. Resolver: manualmente o por sistema de matrices o Software (Ecualin)

0,00*a + 81,97*b + 75,96*c + 81,94*d + µ = 54,49


81,97*a + 0,00*b + 58,38*c + 83,00*d + µ = 79,30
75,96*a + 58,38*b + 0,00*c + 80,11*d + µ = 58,38
81,97*a + 83,00*b + 80,11*c + 0,00*d + µ = 66,92
a + b + c + d = 1,00

Ponderaciones;
S1 à 39 %
S2 à 2 %
S3 à 33 %
S4 à 26 %
Total 100 %

µ = 6,64
Para calcular la varianza del Kriging ordinario
6. Calcular la ponderación: con el sistema lineal del Kriging ordinario

Sumatoria entre las ponderaciones y las leyes

=SUMAPRODUCTO(Ponderadores;Leyes muestras)

! = 𝟗, 𝟑𝟑
𝒙

X0 = (0,392*8,2) + (0,023*9,6) + (0,3278*13,1) + (0,2575*6,4) = 9,37 % Pb


Ponderación por la distancia de cada muestra a X0
h"ps://www.youtube.com/watch?v=tnlxBWGNzxg
Contenido
Estimación de área de forma manual con el método KO
Post estimación de puntos
Pre estimación de volúmenes
Cálculo de la varianza del error
Tres muestras para estimar

Volumen
Área
Punto
Ecuaciones del Kriging Ordinario:

$
! 𝜆! 𝜎%! − 𝜇 = 𝜎%! , 𝑖 = 1, 2, … , 𝑛
!"#
$
! 𝜆% = 1 Condición de insesgo
ΑΛ=Β
%"#

𝛾(𝑥! − 𝑥! ) … 𝛾(𝑥! − 𝑥" ) … 𝛾(𝑥! − 𝑥$ ) 1 𝜆! 𝛾(𝑥! , 𝑉)


⋮ ⋮ ⋮ ⋮ ⋮ Semivarianzas
𝛾(𝑥# − 𝑥! ) … 𝛾(𝑥# − 𝑥" ) ⋯ 𝛾(𝑥# − 𝑥$ ) 1 𝜆 𝛾(𝑥# , 𝑉)
𝜜 𝜦 # =𝜝
⋮ ⋮ ⋮ ⋮

𝛾(𝑥$ − 𝑥! ) … 𝛾(𝑥$ − 𝑥" ) … 𝛾(𝑥$ − 𝑥$ ) 𝜆$ 𝛾(𝑥$ , 𝑉)
1
−𝜇 1
1 … 1 ⋯ 1 0

Ponderaciones
Estimar el valor del área: Sistema de ecuaciones:
1. Calcular las semivarianzas entre los puntos x1 y x2

Puntos conocidos Distancia: x1 a x2 = 25' + 25' = 35,35 ≈ 35

X1 = 5% CuT
X2 = 4% CuT Sistema de Kriging (Puntos)
𝝀𝟏 ∗ 𝜸 𝟏. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟏. 𝟐 + 𝝁 = 𝜸(𝟏, 𝑽)
V à Área a estimar 𝝀𝟏 ∗ 𝜸 𝟐. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟐. 𝟐 + 𝝁 = 𝜸(𝟐, 𝑽)
50 x 50 = 2500 m2 𝝀𝟏 + 𝝀𝟐 = 𝟏

Con el modelo calcular las semivarianzas:


&
Modelo Estructural Esférico 35 35
(variograma) 𝛾 35 = 2 1,5 − 0,5 = 1,65
55 55

𝛾 ℎ = 2𝑠𝑝ℎ
55
& Reemplazando:
ℎ ℎ
𝛾 ℎ = 2 1,5 − 0,5
𝑎 𝑎 𝝀𝟏 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟏, 𝟔𝟓 + 𝝁 = 𝜸(𝟏, 𝑽)
Meseta = 2 𝝀𝟏 ∗ 𝟏, 𝟔𝟓 + 𝝀𝟐 ∗ 𝟎 + 𝝁 = 𝜸 𝟐, 𝑽
Alcance = 55 𝝀𝟏 + 𝝀𝟐 = 𝟏 Ponderadores
Condición de insesgo
Efecto pepita: no existe
Calcular la semivarianza entre el punto y el área: entre x1 y el área 𝜸 𝟏, 𝑽 y x2 y el área 𝜸 𝟐, 𝑽
hay dos metodologías: con ábaco y manual

1. Con Ábaco
𝒉𝒙 𝒉𝒚
Ø Calcular la función 𝑯 = ,
𝒂 𝒂
hx à distancia horizontal desde el punto (x1) hacia los límites de la zona a estimar (25 m)
hy à distancia vertical desde el punto (x1) hacia los límites de la zona a estimar (25 m)
𝟐𝟓 𝟐𝟓
𝑯= ; = (𝟎, 𝟒𝟓; 𝟎, 𝟒𝟓) à Buscar en el ábaco Ábaco Modelo Esférico
𝟓𝟓 𝟓𝟓

Sistema de Kriging Punto-Área

𝝀𝟏 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟏, 𝟔𝟓 + 𝝁 = 𝜸(𝟏, 𝑽)
𝝀𝟏 ∗ 𝟏, 𝟔𝟓 + 𝝀𝟐 ∗ 𝟎 + 𝝁 = 𝜸 𝟐, 𝑽
𝝀𝟏 + 𝝀𝟐 = 𝟏

Spherical model. FuncMon H(L,l)


𝟐𝟓 𝟐𝟓
𝑯= ,
𝟓𝟓 𝟓𝟓
= (𝟎, 𝟒𝟓; 𝟎, 𝟒𝟓) à Buscar en el ábaco
H = entre 0,45 a 0,50
= Promedio(0,45 y 0,50) = 0,475
hy Semivarianza = 0,474 * Meseta
Semivarianza = 0,475 * 2 = 0,95

Considerando

𝛾 ℎ = 2𝑠𝑝ℎ
55
0,45
𝜸 𝟏, 𝑽 = 𝟐 ∗ 𝟎, 𝟒𝟕𝟓 = 𝟎, 𝟗𝟓
Del ábaco se tiene una semivarianza de 0,95 para el punto
X1 respecto al área, esto se reemplaza en el sistema de
ecuaciones:

𝝀𝟏 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟏, 𝟔𝟓 + 𝝁 = 𝟎, 𝟗𝟓
𝝀𝟏 ∗ 𝟏, 𝟔𝟓 + 𝝀𝟐 ∗ 𝟎 + 𝝁 = 𝜸 𝟐, 𝑽
𝝀𝟏 + 𝝀𝟐 = 𝟏
hx
0,45

Nota: El Ábaco no contempla el valor de meseta y efecto Calcular Semivarianza entre X2 y el área
pepita, por lo que se deberá multiplicar la meseta del modelo Igual procedimiento
estructural y sumar el efecto pepita en caso de tenerlo.
Calcular la semivarianza entre el punto y el área: entre x1 y el área 𝜸 𝟏, 𝑽 y x2 y el área 𝜸 𝟐, 𝑽
sin ábaco

A través de discretización (transformar una variable


numérica a categórica) del panel, usamos un modelo:
$
1
𝛾 𝑊; 𝑊” = ! 𝛾 𝑍”; 𝑍𝑗
𝑛
!*#
𝛾 𝑊; 𝑊” Varianza de dispersión punto-área
n Número de puntos discretizados en el área
Z” Punto conocido
Zj Punto discretizado

¿Cómo discretizar?
Se tiene un punto X1 y se discretiza en 4 puntos (z1, z2, z3, z4)
'+ ' '+ '
que tienen un punto conocido de '
+ '
= 17,68 𝑚
Se determina el valor de la semivarianza a través del modelo estructural a la distancia = 17,68 m
En en este caso, los 4 puntos discretizados están a la misma distancia del punto conocido, la
semivarianza = 0,93.
Como las distancias son iguales se multiplica por 4
Si la distancia fuese distinta, habría que hacer la sumatoria.

$
# $ 1 1
𝛾 𝑊; 𝑊” = ∑ 𝛾 𝑍”; 𝑍𝑗 = ! 𝛾 17,68 ∗ 4 = ∗ 0,93 ∗ 4 = 0,93
$ !*# 4 4
!*#

&
ℎ ℎ
𝛾 ℎ = 2 1,5 − 0,5
𝑎 𝑎
&
17,68 17,68 Área de
𝛾 17,68 = 2 1,5 − 0,5 = 0,93
55 55 discretización
en 4 puntos
Conclusión: utilizando el ábaco semivarianza = 0,95
Con discretización semivarianza = 0,93 (∆= 0,02)
Calcular la semivarianza entre el punto y el área: entre x2 y el área
𝜸 𝟐, 𝑽

1. Con Ábaco
𝒉𝒙 𝒉𝒚
Ø Calcular la función 𝑯 = ,
𝒂 𝒂
hx à distancia horizontal desde el punto (x1) hacia los límites de la zona a estimar (50 m)
hy à distancia vertical desde el punto (x1) hacia los límites de la zona a estimar (50 m)
𝟓𝟎 𝟓𝟎
𝑯= , = (𝟎, 𝟗𝟏; 𝟎, 𝟗𝟏) à Buscar en el ábaco Ábaco Modelo Esférico
𝟓𝟓 𝟓𝟓

Sistema de Kriging Punto-Área


𝝀𝟏 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟏, 𝟔𝟓 + 𝝁 = 𝟎, 𝟗𝟓
𝝀𝟏 ∗ 𝟏, 𝟔𝟓 + 𝝀𝟐 ∗ 𝟎 + 𝝁 = 𝜸 𝟐, 𝑽
𝝀𝟏 + 𝝀𝟐 = 𝟏

Sistema de Kriging Punto-Área


𝝀𝟐 ∗ 𝟏, 𝟔𝟓 + 𝝁 = 𝟎, 𝟗𝟓
𝝀𝟏 ∗ 𝟏, 𝟔𝟓 + 𝝁 = 𝜸 𝟐, 𝑽
𝝀𝟏 + 𝝀𝟐 = 𝟏

Spherical model. FuncMon H(L,l)


𝟓𝟎 𝟓𝟎
𝑯= ,
𝟓𝟓 𝟓𝟓
= (𝟎, 𝟗𝟏; 𝟎, 𝟗𝟏) à Buscar en el ábaco H(0,82)
Semivarianza = 0,82 * Meseta
hy
𝜸 𝟐, 𝑽 = 𝟐 ∗ 𝟎, 𝟖𝟐 = 𝟏, 𝟔𝟒
0,91 Se reemplaza en el sistema de ecuaciones:

Sistema de Kriging Punto-Área


Resolver con:
𝝀𝟐 ∗ 𝟏, 𝟔𝟓 + 𝝁 = 𝟎, 𝟗𝟓 Manual
𝝀𝟏 ∗ 𝟏, 𝟔𝟓 + 𝝁 = 𝟏, 𝟔𝟒 Matrices
Ecualin
𝝀𝟏 + 𝝀𝟐 = 𝟏

Solución Ponderadores
𝝀𝟏 = 𝟎, 𝟕𝟏 à 71 %
hx 𝝀𝟐 = 𝟎, 𝟐𝟗 à 29 %
0,91
𝝁 = 𝟎, 𝟒𝟕
Nota: El Ábaco no contempla el valor de meseta y efecto
pepita, por lo que se deberá multiplicar la meseta del modelo Semivarianzas
estructural y sumar el efecto pepita en caso de tenerlo.
Punto X1 –Área → 𝜸 𝟎, 𝟒𝟕𝟓 = 𝟐 ∗ 𝟎, 𝟒𝟕𝟓 = 𝟎, 𝟗𝟓
Punto X2 –Área → 𝜸 𝟎, 𝟖𝟐 = 𝟐 ∗ 𝟎, 𝟖𝟐 = 𝟏, 𝟔𝟒
1,64 > 0,95 (está más privilegiada, está en el centro)
Estimación del área con Kriging Ordinario (KO)

área V = 50 x 50 = 2500 m2

𝑍 ∗ 𝑥 = 𝜆" ∗ 𝑥" + 𝜆# ∗ 𝑥#

𝒁∗ 𝒙 = 𝟓 𝟎, 𝟕𝟏 + 𝟒 𝟎, 𝟐𝟗 = 𝟒, 𝟕𝟏% 𝑪𝒖𝑻 = 𝑽

Resultado: la media de este panel de 50 x 50


es de 4,71% de Cobre total
Estimar el valor del área: Puntos conocidos V à Área a estimar
X1 = 6 X2 = 4 X3 = 3 X4 = 5 X5 = 8 200 x 200 = 40000 m2

200 m
Sistema de Kriging (Puntos)
200 m
𝝀𝟏 ∗ 𝜸 𝟏. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟏. 𝟐 + 𝝀𝟐 ∗ 𝜸 𝟏. 𝟑 + 𝝀𝟐 ∗ 𝜸 𝟏. 𝟒 + 𝝀𝟐 ∗ 𝜸 𝟏. 𝟓 + 𝝁 = 𝜸(𝟏, 𝑽)
𝝀𝟏 ∗ 𝜸 𝟐. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟐. 𝟐 + 𝝀𝟐 ∗ 𝜸 𝟐. 𝟑 + 𝝀𝟐 ∗ 𝜸 𝟐. 𝟒 + 𝝀𝟐 ∗ 𝜸 𝟐. 𝟓 + 𝝁 = 𝜸 𝟐, 𝑽
200 m

200 m
𝝀𝟏 ∗ 𝜸 𝟑. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟑. 𝟐 + 𝝀𝟐 ∗ 𝜸 𝟑. 𝟑 + 𝝀𝟐 ∗ 𝜸 𝟑. 𝟒 + 𝝀𝟐 ∗ 𝜸 𝟑. 𝟓 + 𝝁 = 𝜸(𝟑, 𝑽)
𝝀𝟏 ∗ 𝜸 𝟒. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟒. 𝟐 + 𝝀𝟐 ∗ 𝜸 𝟒. 𝟑 + 𝝀𝟐 ∗ 𝜸 𝟒. 𝟒 + 𝝀𝟐 ∗ 𝜸 𝟒. 𝟓 + 𝝁 = 𝜸(𝟒, 𝑽)
200 m

𝝀𝟏 ∗ 𝜸 𝟓. 𝟏 + 𝝀𝟐 ∗ 𝜸 𝟓. 𝟐 + 𝝀𝟐 ∗ 𝜸 𝟓. 𝟑 + 𝝀𝟐 ∗ 𝜸 𝟓. 𝟒 + 𝝀𝟐 ∗ 𝜸 𝟓. 𝟓 + 𝝁 = 𝜸(𝟓, 𝑽)
𝝀𝟏 + 𝝀𝟐 + 𝝀𝟑 + 𝝀𝟒 + 𝝀𝟓 = 𝟏

Distancias (h)
Distancia:
Modelo Estructural Esférico 28
(variograma) X2 a X3 = 200! + 200! 2 ,8
4m
ℎ = 282,84 ≈ 283

200 m
𝛾 ℎ = 2𝑠𝑝ℎ
250
&
ℎ ℎ 400 m
𝛾 ℎ = 2 1,5 − 0,5
𝑎 𝑎
Meseta = 2
Alcance = 250
Efecto pepita: no existe
Modelo Estructural Esférico
(variograma) Con el modelo calcular las semivarianzas:
ℎ 200 200 &
𝛾 ℎ = 2𝑠𝑝ℎ 𝛾 35 = 2 1,5 − 0,5 = 1,89
250 250 250
&
ℎ ℎ
𝛾 ℎ = 2 1,5 − 0,5 Si distancia > alcance (250 m) entonces 𝛾 ℎ = 𝑚𝑒𝑠𝑒𝑡𝑎 = 2,00
𝑎 𝑎
𝛾 283 = 2,00 𝛾 400 = 2,00
Meseta = 2
Alcance = 250 Distancias (h) Semivarianzas 𝛾 ℎ
Efecto pepita: no existe

Reemplazando en el Sistema de ecuaciones de Kriging


𝝀𝟏 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟏, 𝟖𝟗 + 𝝁 = 𝜸(𝟏, 𝑽)
𝝀𝟏 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝁 = 𝜸 𝟐, 𝑽
𝝀𝟏 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝁 = 𝜸(𝟑, 𝑽)
𝝀𝟏 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝁 = 𝜸(𝟒, 𝑽)
𝝀𝟏 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟎 + 𝝁 = 𝜸(𝟓, 𝑽)
𝝀𝟏 + 𝝀𝟐 + 𝝀𝟑 + 𝝀𝟒 + 𝝀𝟓 = 𝟏 Ponderadores (Condición de insesgo)
Estudiar las semivarianza entre el Punto y el Área

Caso de X1 (muestra central)


Se busca la función H, con distancia = 100

Buscar en el ábaco las semivarianzas 𝛾 1, 𝑉


𝒉𝒙 𝒉𝒚
Ø Calcular la función 𝑯 = ,
𝒂 𝒂
hx à distancia horizontal desde el punto (x1) hacia los límites de la zona a estimar (100 m)
hy à distancia vertical desde el punto (x1) hacia los límites de la zona a estimar (100 m)
𝟏𝟎𝟎 𝟏𝟎𝟎
𝑯= ,
𝟐𝟓𝟎 𝟐𝟓𝟎
= (𝟎, 𝟒; 𝟎, 𝟒) à Buscar en el ábaco

Entre 0,40 y 0,45


Se promedia, entonces 𝜸 𝟏, 𝑽 = 𝟐 ∗ 𝟎, 𝟒𝟐𝟓 = 𝟎, 𝟖𝟓
H: 0,425
Se reemplaza en el sistema de ecuaciones:
0,4

0,4
Calcular la semivarianza entre el punto y el área: entre x1 y el área 𝜸 𝟏, 𝑽
sin ábaco

A través de discretización (transformar una variable


numérica a categórica) del panel, usamos un modelo:
$
1
𝛾 𝑊; 𝑊” = ! 𝛾 𝑍”; 𝑍𝑗
𝑛
!*# 100 m
𝛾 𝑊; 𝑊” Varianza de dispersión punto-área 70
,7 1

100 m
n Número de puntos discretizados en el área
Z” Punto conocido
Zj Punto discretizado

¿Cómo discretizar?
Se tiene un punto X1 y se discretiza en 4 puntos (z1, z2, z3, z4)
#// ' #// '
que tienen un punto conocido de '
+ '
= 70,71 𝑚
Se determina el valor de la semivarianza a través del modelo estructural de la distancia = 70,71 m
En en este caso, los 4 puntos discretizados están a la misma distancia del punto conocido X1, la
semivarianza = 0,83.
Como las distancias son iguales se multiplica por 4
Si la distancia fuese distinta, habría que hacer la sumatoria.

$ $
1 1 1
𝛾 𝑊; 𝑊” = ! 𝛾 𝑍”; 𝑍𝑗 = ! 𝛾 70,71 ∗ 4 = ∗ 0,83 ∗ 4 = 0,83
𝑛 4 4
!*# !*#

&
ℎ ℎ
𝛾 ℎ = 2 1,5 − 0,5
𝑎 𝑎
&
Área de
70,71 70,71 discretización
𝛾 70,71 = 2 1,5 − 0,5 = 0,83
250 250 en 4 puntos

Conclusión: utilizando el ábaco semivarianza = 0,85


Con discretización semivarianza = 0,83 (∆= 0,02)
Calcular la semivarianza entre X2, X3, X4 y X5 del panel.
En este ejemplo, los puntos están a la misma distancia del panel, por ende se calcula uno solo,
luego se réplica esa semivarianza para todas las muestra que están fuera del panel

𝜸 𝟐, 𝑽 = 𝜸 𝟑, 𝑽 = 𝜸 𝟒, 𝑽 = 𝜸 𝟓, 𝑽 ¿Cómo discretizar?
Se tiene un punto X3 y se discretiza en 4 puntos (z1, z2, z3, z4)
distancia x3 a z1 = 250 ' + 50 ' = 255,00 𝑚
distancia x3 a z4 = 150 ' + 50 ' = 158,10 𝑚

$
2 5 5 ,0
1
m 𝛾 𝑊; 𝑊” = ! 𝛾 𝑍”; 𝑍𝑗 =

200 m
𝑛
200 m !*#

158 ,1 0 m

1
= 𝛾 158,10 ∗ 2 + 𝛾 255,00 ∗ 2
4
1
= 1,64 ∗ 2 + 2,00 ∗ 2 = 1,82
4
Modelo Estructural Esférico (variograma)
Meseta = 2 Alcance = 250 𝜸 𝟐, 𝑽 = 𝜸 𝟑, 𝑽 = 𝜸 𝟒, 𝑽 = 𝜸 𝟓, 𝑽 = 1,82
h (= 255) > alcance (= 250) entonces 𝛾 255 = 2,00

Sí z1, z2, z3, z4, estuvieran a diferentes distancias del


&
158,10 158,10 punto conocido, tendríamos que hacer una sumatoria
𝛾 158,10 = 2 1,5 − 0,5 = 1,64 (no multipicando x 2) de forma independiente.
250 250
𝜸 𝟏, 𝑽 = 𝟎, 𝟖𝟑
𝜸 𝟐, 𝑽 = 𝜸 𝟑, 𝑽 = 𝜸 𝟒, 𝑽 = 𝜸 𝟓, 𝑽 = 𝟏, 𝟖𝟐
Se reemplaza en el sistema de ecuaciones:

Reemplazando en el Sistema de ecuaciones de Kriging Solución Ponderadores Muestra


𝝀𝟏 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟏, 𝟖𝟗 + 𝝁 = 𝜸(𝟏, 𝑽) 𝝀𝟏 = 𝟎, 𝟔𝟎 à 60 % x1 = 6
𝝀𝟏 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝁 = 𝜸 𝟐, 𝑽 𝝀𝟐 = 𝟎, 𝟏𝟎 à 10 % x2 = 4
𝝀𝟏 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝁 = 𝜸(𝟑, 𝑽) 𝝀𝟑 = 𝟎, 𝟏𝟎 à 10 % x3 = 3
𝝀𝟏 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝁 = 𝜸(𝟒, 𝑽) 𝝀𝟒 = 𝟎, 𝟏𝟎 à 10 % x4 = 5
𝝀𝟏 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟎 + 𝝁 = 𝜸(𝟓, 𝑽) 𝝀𝟓 = 𝟎, 𝟏𝟎 à 10 % x5 = 8
𝝀𝟏 + 𝝀𝟐 + 𝝀𝟑 + 𝝀𝟒 + 𝝀𝟓 = 𝟏 Ponderadores (Condición de insesgo) 𝝁 = 𝟎, 𝟏𝟐

Reemplazando en el Sistema de ecuaciones de Kriging Resolver con:


𝝀𝟐 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟏, 𝟖𝟗 + 𝝁 = 𝟎, 𝟖𝟑 Manual
Matrices
𝝀𝟏 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝁 = 𝟏, 𝟖𝟐 Ecualin
𝝀𝟏 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝁 = 𝟏, 𝟖𝟐
𝝀𝟏 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝁 = 𝟏, 𝟖𝟐
𝝀𝟏 ∗ 𝟏, 𝟖𝟗 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝀𝟐 ∗ 𝟐, 𝟎𝟎 + 𝝁 = 𝟏, 𝟖𝟐
𝝀𝟏 + 𝝀𝟐 + 𝝀𝟑 + 𝝀𝟒 + 𝝀𝟓 = 𝟏
Estimación del área “V” con Kriging Ordinario (KO)

𝑍 ∗ 𝑉 = 𝜆" ∗ 𝑥" + 𝜆# ∗ 𝑥# + 𝜆$ ∗ 𝑥$ +𝜆% ∗ 𝑥% + 𝜆& ∗ 𝑥& Solución Ponderadores Muestra


𝒁∗ 𝒙 = 𝟔 𝟎, 𝟔𝟎 + 𝟒 𝟎, 𝟏𝟎 +𝟑 𝟎, 𝟏𝟎 +𝟓 𝟎, 𝟏𝟎 +𝟖 𝟎, 𝟏𝟎 𝝀𝟏 = 𝟎, 𝟔𝟎 à 60 % x1 = 6
= 𝟓, 𝟔𝟎 𝝀𝟐 = 𝟎, 𝟏𝟎 à 10 % x2 = 4
𝝀𝟑 = 𝟎, 𝟏𝟎 à 10 % x3 = 3
Resultado: El panel de 200 x 200 tiene una media = 5,60
𝝀𝟒 = 𝟎, 𝟏𝟎 à 10 % x4 = 5
𝝀𝟓 = 𝟎, 𝟏𝟎 à 10 % x5 = 8
𝝁 = 𝟎, 𝟏𝟐

Conclusiones:
X1 tiene una mayor influencia en el área (60%), producto que se encuentra dentro
de la misma y además en una ubicación central.
Las muestras X2, X3, X4 y X5, se encuentran fuera del área de influencia
mayormente en una cara en particular (no de forma uniforme en la zona).
Calcular la varianza del error (varianza del KO) Varianza de
Depende de 𝜆 y las ponderaciones y los 𝛾 punto-Área 𝝀𝟏 = 𝟎, 𝟔𝟎 dispersión
𝝀𝟐 = 𝝀𝟑 = 𝝀𝟒 = 𝝀𝟓 = 𝟎, 𝟏𝟎𝝁 = 𝟎, 𝟏𝟐 área-área
(V,V)
Las muestra 2, 3, 4 y 5,
tienen los mismos
ponderadores y 𝝈𝟐𝒌 = G 𝝀𝒊 𝜸 𝑽, 𝑿𝒊 + 𝝁 − 𝜸 𝑽, 𝑽
semivarianzas se multiplica
por 4
= 0,6(0,83) + 4(0,10)(1,82) + 0,12 - 1,13
Varianza del KO = 0,22
𝜸 𝑽, 𝑽
Se puede resolver con ábaco o función F
La semivarianza área-área es la distancia entre la H(0,565)
Bloque 2D muestra x2, x3, x4 o x5 con el centro del panel
Variograma esférico C=1 Varianza de dispersión
Área-Área = 2(0,565) = 1,13
ly ay

ax Modelo Estructural
ℎ 0,8
lx 𝛾 ℎ = 2𝑆𝑝ℎ
250
𝑙7 ∥ 𝑙8 𝛾̅ 𝑉, 𝑉 = 𝐹
𝑙0 𝑙1
,
𝑎0 𝑎1
𝑙0 𝑙1
𝛾̅ 𝑉, 𝑉 = 𝐹 , 200 200
𝑎0 𝑎1 𝛾̅ 𝑉, 𝑉 = 𝐹 , = 𝐹(0,8; 0,8)
250 250
0,8
Contenido
Ejercicio:
Base de datos (dataset)
Histograma
Diagrama de dispersión
Variograma experimental
Modelación variográfica
Variograma cruzado
Estimación con Kriging Ordinario
Dataset_Z1_Z2

Deriva en dos mapas (Z1 y Z2) en una área de 500 x 500 m, que
se busca modelar e interpolar
Existe mayor varianza en el mapa Z1, producto del rango entre el
valor de la variable que va de 0 a 13 y en Z2 va de 0 a 3.

Heterotópica parcial, significa que la Z1 comparte


ubicación con Z2, pero de forma parcial (comparten 16
puntos), luego Z2 tiene más datos que corresponde
que no tiene z1
Z1 está submuetreado con relación a Z2
Dataset_Z1_Z2

Malla regular de 100 x 100


Z1 à Variable principal.
Difícil generar un modelo de continuidad de
forma segura, hay poca información 16 datos

Z2 à Variable secundaria o auxiliar


Mayor cantidad de muestras, será más fácil
generar un modelo de continuidad de forma
segura (28 puntos de muestreo)

-99 à No hay datos


Cargar el archivo de datos (Dataset_Z1_Z1)

a stre
arr
Guardar el proyecto
Histograma

Z1
Z2
Diagrama de dispersión (Scatter-plot)
Correlación Z1 vs Z2

Para los métodos de


co-estimación,
se requiere un r > 0,7
Variograma (Z1)
500 m

Barrer la longitud total de cada eje


5 x 100 = 500 m 250 000 m 500 m

500 x 500
(barrer todo)

0,5 de lag separation

0 Azimut y Tolerance = 90
(variograma omnidireccional)
tolerance = 1 (para malla cuadrada, datos
Como es bidimensional dip = 0 regulares)
se mueve solo el Azimut
análisis en la horizontal bandwidth = 1 (ancho de banda, datos
regulares, cuadrados)

N-S

E-W
la Tolerancia y Ancho de banda, no inciden.
En caso de datos irregulares (no cuadrada),
la estimación por Kriging será diferente,
Se busca si existe:
isotropía à cuando en todas las direcciones la variable se comporta similarmente (o tiene el mismo alcance) o
anisotropía à una de las direcciones tiene mayor continuidad

alcance alcance
100 m 100 m

4 direcciones

alcance alcance
400 m 200 m
La anisotropía se mantiene
en 45º (más puntos), por
tanto se quita la de 0o y 90º
Eje < continuidad Eje > continuidad

Anisotropía 45o Azimut,


la variable se comporta
más continua que en la
perpendicular (135º)
Modelar el variograma para Z1 El ajuste del modelo matemático, es la parte subjetiva, que ha llenado
de critica a esta metodología de estimación de recursos mineros.

Clic derecho
meseta
Número de
pares de datos
Modelo

1
Ángulo de
anisotropía
Grabar el Modelo del variograma (Variable z1)
Variograma (Z2) Configuración diferente, las
muestras son irregulares

Corra 10x60 = 600 m


Longitud máxima en los
ejes X, Y
La anisotropía se mantiene
en 45º (más puntos), por
tanto se quita la de 0o y 90º
Modelar el variograma para Z2
Las semivarianzas
cambian, son menores a la
variable primaria Z1 (8)

Eje > continuidad


Eje < continuidad
Semivarianza
común

Modelo

Anisotropía 45o Azimut,


la variable se comporta
más continua que en la
perpendicular (135º)
Ángulo de
anisotropía
Semivariograma cruzado (con dos variables Z1 y Z2)

Configuración diferente, las


muestras de Z2 son irregulares

Corra 10x60 = 600 m


Longitud máxima en los
ejes X, Y

Variable
Principal

Variable
auxiliar o
secundaria
La Variable Principal tiene poca información, por tanto no
son tan robustos los variogramas experimentales.
Varianza de Z1 (8,0) > Varianza de Z2 (0,6)
(se tiene un promedio de semivarianza)

45º Azimut > continuidad (más puntos),


esta es la dirección de anisotropía

La anisotropía se mantiene
en 45º (mas puntos), por
tanto se quita la de 0o y 90º
Guardar el modelo,
Para estimar

Modelar el
variograma
Kriging Ordinario (KO) de puntos
Crear una Malla (grid_Z1_Z2)
Borrar objeto
100 x 100
contenga todos
los datos

Tamaño de cada celda


Generar un espacio de 100 celdas 5 x 100 = 500
en X y 100 en Y de tamaño 5 x 5 5 x 100= 500
Z = 0 no hay elevación

Coordenadas
de inicio
(0,0)
Limite de las
interpolaciones
Kriging Ordinario (KO) de puntos
(bloque requiere una discretización del volumen a estimar)

Mínimo 1 muestra en el
elipsoide y máximo 12

Rango de 200 x 200

45º Azimut y dip = 0


Se completa
Mapa de puntos para Z1

Mapa de puntos para Z1


5 x 5 m en un espacio de
Estimación 500x500 = 250 000 m2

Varianza del
estimación
Varianza del Kriging Ordinario para Z1
Donde no existe información de la
muestra la Varianza del estimación es La varianza es un indicador del error de la estimación.
alta La varianza (desviación con respecto ala media)2,
En Geoestadística es lo mismo, la media es el valor
estimado.
A mayor varianza, la estimación carece de confianza

Donde hay información de la muestra la


Varianza del estimación es baja
Histograma de los datos estimados

Asimetría positiva

10 mil estimaciones a partir


de una muestra de 16 datos
Cada estimación
genera un par de capas

También podría gustarte