Estimación de Avenidas Por Métodos Probabilisticos

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 8

Tema 4: ESTIMACION DE AVENIDAS POR METODOS PROBABILISTICOS

Introducción.

El objetivo básico de la aplicación de la estadística en Hidrología es el análisis de la información


hidrológica en forma de muestras, a fin de inferir las características con que debe ser esperado en el
futuro el fenómeno que se estudia.

Existe en muchos la idea de que la estadística es usada solo cuando no es posible dar solución exacta a
un problema hidrológico. En esta interpretación la solución exacta es una solución determinística que
constituye una solución estadística o probabilística.

Uso de los modelos probabilísticos

Los fenómenos que se presentan en la ingeniería pueden clasificarse, desde el punto de vista de la
certeza de su ocurrencia, en determinísticos y probabilísticos.

Si la ocurrencia de las variables en un proceso es cierta, es decir si las variables siguen una ley
determinada se habla de un proceso determinístico.

En cambio, si se toma en cuenta la probabilidad de ocurrencia y la falta de certeza existente, entonces se


habla de un proceso de naturaleza probabilística.

En resumen, puede decirse que el modelo probabi1ístiéo o distribución permite conocer y manejar
fácilmente el comportamiento de la variable y sintetiza toda la información sobre probabilidades
asociadas a cada estado.

Según se trate de variables discretas o continuas, se usarán modelos de distribución probabilísticos


discretos o continuos.

Serán modelos discretos aquéllos cuya función densidad de probabilidad y función de probabilidad
acumulada se encuentran definidos para determinados valores que puede tomar la variable.

Las distribuciones utilizadas en hidrología son:

1. Ley Normal o de Gauss

2. Ley Log Normal - 2 parámetros o Ley Dalton


- 3 parámetros

3. Ley Gamma - 2 parámetros


- 3 parámetros o Pearson Tipo III

4. Ley Gumbell o Ley de Extremos Valores Tipo I o ley Doblemente Exponencial

Todas estas leyes son logarítmicas a excepción de la Ley Normal


El flujo grama que se recomienda aplicar antes de aplicar una distribución es el siguiente:

Definición de parámetros.

Los parámetros de una distribución teórica, son variables que para cada conjunto de datos tienen un
valor definido. Una vez que los parámetros quedan definidos también queda definida la distribución
teórica.

Por lo general una función de densidad de probabilidades o una función de distribución acumulada,
puede escribirse como una función de variable aleatoria y en general como una función de sus
parámetros.

Definición de estimadores.

Dada una función con parámetros α, β, γ…., se llaman estimadores a los valores a, b, c…, obtenidos a
partir de los estadísticos de la muestra, que pertenecen a la población que se pretende caracterizar,
clasificándose como:

Sesgados E(a)=α+v(α) Insesgados E(a)=α

En hidrología se requiere principalmente que los estimadores sean insesgados cuando se requiere
extraer la máxima información desde los datos muestrales.
Métodos de estimación de parámetros.

Para el calcular los valores numéricos de los parámetros de la distribución teórica, a partir de los datos
muestrales, se utilizan diferentes métodos de estimación y son los siguientes:

- Método Gráfico.
- Mínimos Cuadrados.
- Momentos
- Máxima Verosimilitud o llamado también de verdadera semblanza

Método Gráfico.

Este método, consiste en plotear los valores de la distribución empírica sobre un papel especial, donde la
distribución teórica asignada a priori, se puede representar como una línea recta, y de allí estimar los
parámetros buscados.

- El papel de probabilidades normal, representa la distribución normal como una línea recta.
- El papel de probabilidades log-normal, representa la distribución log-normal como una línea
recta.
- El papel de probabilidades Gumbel, representa la distribución Gumbel como una línea recta.
- El papel de probabilidades log-Gumbel, representa la distribución log-Gumbel como una
línea recta.

Método Mínimos Cuadrados.

Este método es más aplicable para la estimación de los parámetros de una ecuación de regresión.

Por ejemplo, dada la recta de regresión lineal:

Donde a y b son los parámetros, el error entre el valor observado i y el teórico es:

y la suma de los cuadrados, de los errores de los valores observados es:

Esta suma puede minimizase para a y b, esto se consigue derivando parcialmente S, en función de cada
estimado a y b, e igualando a cero, es decir:
Estas ecuaciones se las denomina ecuaciones normales, las cuales resueltas dan para a y b:

Método Momentos.

El método de los momentos fue desarrollado por Karl Pearson en 1902. El principio básico de la
estimación por este método, es establecer para cada función de distribución, la relación entre los
parámetros y los momentos centrales, de tal manera que:

donde:
α,β,γ son los parámetros de la función de distribución
μi, μj, μk son los momentos con respecto a la media, o momentos centrales de la población.

Como los momentos, son estimados a partir de los momentos de la muestra, como estimadores
sesgados o insesgados, el resultado que se obtiene será a, b, c, como estimadores sesgados insesgados
de los parámetros.

Cuando la distribución de probabilidad, a la que se estiman los parámetros por este método es simétrica
y particularmente si es normal se puede demostrar que este es un método muy eficiente pero cuando las
distribuciones son asimétricas y por lo tanto sesgadas, como sucede muy a menudo con la mayoría de las
variables hidrológicas, el utilizar este método representa una pérdida de eficiencia en la estimación.

Método Máxima verosimilitud.

El método de máxima verosimilitud, fue desarrollado por Fisher (1922). Dada una función densidad de
probabilidad:
f(x; α, β, γ, …)

donde: α, β, γ son los parámetros que deben ser estimados

Se define la función verosimilitud de la muestra, como la productoria:

siendo N el tamaño de la muestra.


El método de máxima verosimilitud, consiste en estimar α, β, γ,…, a partir de la muestra, de tal manera
que L sea máxima. Esto obtiene por la diferenciación parcial de L, con respecto a cada parámetro e
igualando a cero.

Puesto que f(x) es no negativa, un valor máximo de L será, en general positivo. Como el logaritmo natural
(InL) es una función creciente de L, ésta tiene un máximo precisamente en los puntos en que L tiene un
máximo. Por lo tanto, se puede usar (InL) en lugar de L, es decir:

Este artificio, permite transformar una productoria a una sumatoria, donde: a, b, c, son estimadores de
α, β, γ,…, entonces el conjunto de ecuaciones de máxima verosimilitud es:

El mismo que tiene tantas ecuaciones como incógnitas.

Las propiedades de los estimadores calculados por el método de máxima verosimilitud, son usualmente
insesgado.

La solución de la ecuación de verosimilitud, proporciona un estimador que converge al valor poblacional,


cuando el tamaño muestral tiende a infinito, por lo que el estimador es consistente.

Pruebas de bondad de ajuste.

Las pruebas de bondad de ajuste, consisten en comprobar gráfica y estadísticamente, si la frecuencia


empírica de la serie analizada, se ajusta a una determinada función de probabilidades teórica
seleccionada a priori, con los parámetros estimados con base en los valores muéstrales.

Las pruebas estadísticas, tienen por objeto medir la certidumbre que se obtiene al hacer una hipótesis
estadística sobre una población, es decir, calificar el hecho de suponer que una variable aleatoria, se
distribuya según una cierta función de probabilidades.

Las pruebas de bondad de ajuste más utilizadas son:


- Ajuste gráfico
- Ajuste estadísticos - Chi-cuadrado
Smirnov - Kolmogorov

Prueba Chi-cuadrado (x2).

La prueba Chi-cuadrado se basa en el cálculo de frecuencias, tanto de valores observados, como valores
esperados, para un número determinado de intervalos.

Esta prueba es comúnmente usada, para verificar la bondad de ajuste de la distribución empírica a una
distribución teórica conocida, fue propuesta por Pearson en 1900.
La expresión general de la prueba Chi-cuadrado está dada por:

= valor calculado de Chi-cuadrado, a partir de los datos


θi = número de valores observados en el intervalo de clase i
ei = número de valores esperados en el intervalo de clase i
k = número de intervalos de clase

Asignando probabilidades a la ecuación general es decir, asignando igual probabilidad de ocurrencia a


cada intervalo de clase, se tiene:

donde:
Ni =número de observaciones que caen dentro de los límites de clases ajustadas del intervalo i.
N = tamaño muestral
Pi = probabilidad igual para todos los intervalos de clases

Simplificando la ecuación general, se obtiene la fórmula computacional desarrollada por Markovic:

El valor del obtenido por la anterior ecuación se compara con de tabla, cuyo valor se determina
con:
nivel de significación: α = 0.05 ó α = 0.01
grados de libertad: g.l. = k-1-h
donde:
h = es el número de parámetros a estimarse, así:
h = 2, para la distribución normal
h = 3, para la distribución log-normal de 3 parámetros

Criterio de decisión.
El criterio de decisión se fundamenta en la comparación del valor calculado de Chi-cuadrado con el valor
tabular encontrado, esto es:

- Si el Chi-cuadrado calculado es menor o igual que el valor tabular, es decir:


entonces, se acepta la hipótesis que el ajuste es bueno al nivel de significación seleccionado.
- Si el Chi-cuadrado calculado es mayor que el valor tabular, es decir: entonces, el
ajuste es malo y se rechaza la hipótesis, siendo necesario probar otra distribución teórica.

Ventajas y limitaciones.

- Es aplicable sólo para ajustes a la distribución normal, puesto que ha sido desarrollado con
base en los datos normales e independientes.
- Se realiza en la función densidad de datos agrupados en intervalos de clases.
- Requiere un conocimiento a priori, de la función de distribución teórica utilizada en el ajuste.
- En la práctica se usa para cualquier modelo de ajuste, pero estrictamente es válido sólo para
la normal.

Prueba de Smirnov-Kolmogorov

La prueba de ajuste de Smirnov-Kolmogorov, consiste en comparar, las diferencias existentes entre la


probabilidad empírica de los datos de la muestra y la probabilidad teórica, tomando el valor máximo del
valor absoluto, de la diferencia entre el valor observado y el valor de la recta teórica del modelo, es
decir:

donde:
Δ = estadístico de Smirnov-Kolmogorov, cuyo valor es igual a la diferencia máxima existente
entre la probabilidad ajustada y la probabilidad empírica.
F (x) = probabilidad de la distribución teórica.
P(x) = probabilidad experimental o empírica de los datos, denominada también frecuencia
acumulada.

El estadístico Δ tiene su función de distribución de probabilidades.

Si es un valor crítico para un nivel de significación α, se tiene que:

El procedimiento para efectuar el ajuste, mediante el estadístico de Srnirnov-Kolmogorov, es el


siguiente:

1. Calcular la probabilidad empírica o experimental P(x) de los datos, para esto usar la fórmula de
Weibull:

donde: P(x) = probabilidad empírica o experimental


M = número de orden
N = número de datos

2. Calcular la probabilidad teórica F(x):


- Para el caso de utilizar el procedimiento de los modelos teóricos, usar la ecuación de la
función acumulada F(x), o tablas elaboradas para tal fin.
- Si se quiere aplicar el procedimiento gráfico, se utiliza un papel probabilístico especial donde
F(x), puede representarse como una línea recta, por lo cual, se puede trazar con solo 2
puntos.
Valor Probabilidad %
X 50
X+S 80,13
X-S 15,87

3. Calcular las diferencias P(x) - F(x), para todos los valores de x


4. Seleccionar la máxima diferencia: Δ=máx|F(x)-P(x)|
5. Calcular el valor crítico del estadístico Δ, es decir , para un α = 0.05 y N igual al número de
datos. Los valores de , se encuentran tabulados
6. Comparar el valor del estadístico Δ, con el valor crítico de tabla, con los siguientes criterios de
decisión:
Si: Δ < = el ajuste es bueno, al nivel de significación seleccionado.
Δ ≥ = el ajuste no es bueno, al nivel de significación seleccionado, siendo necesario
probar con otra distribución

Ventajas y limitaciones.

- No requiere un conocimiento a priori de la función de distribución teórica.


- Es aplicable a distribuciones de datos no agrupados, es decir, no se requiere hacer intervalos de
clase.
- Es aplicable a cualquier distribución teórica.
- Se aplica en la función de distribución acumulada y no en la función de densidad.
- Comparándola con la prueba Chi-cuadrado, no se requiere que la frecuencia absoluta de cada
clase, sea igual o mayor que 5.
- No es una prueba exacta, sino una prueba aproximada.

También podría gustarte