Estimación

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 9

República Bolivariana de Venezuela.

Ministerio del Poder Popular para la Educación Superior.


Universidad Nacional Experimental “Rómulo Gallegos”.
Área Ciencias de la Salud. Programa de Fisioterapia.
Aula Móvil. UNERG Maturín.

Tema II: Estimación.

*Profesora: *Alumna:

Carmen Veliz. Angelica Brito. #5


Ci: 29.974.593
Sección 2.

Maturín, 24 de Agosto del 2021.


❖ Estimación.

➢ Concepto: la estimación es un cálculo que se realiza a partir de la evaluación


estadística. Dicho estudio suele efectuarse sobre una muestra y no sobre toda la
población objetivo.

➢ Definición: La estimación es la determinación de un elemento o factor. Esto,


usualmente tomando como referencia una base o conjunto de datos.

➢ Tipos de estimación: existen tres tipos de estimación estadística:

a). La estimación puntual:

Una estimación es puntual cuando se usa un solo valor extraído de la muestra para estimar
el parámetro desconocido de la población. Al valor usado se le llama estimador.

b). Estimación por intervalo

Una estimación por intervalo de un parámetro θ es algún par de funciones de la muestra


que satisfacen L(x) ≤ U(x) para todo x ∈ X . El intervalo aleatorio [L(X), U(X)] es llamado un
estimador por intervalo.

c). Estimación bayesiana

El enfoque bayesiano se basa en la interpretación subjetiva de la probabilidad, el cual


considera a ésta como un grado de creencia con respecto a la incertidumbre.

Un parámetro es visto como una variable aleatoria a la que, antes de la evidencia muestral,
se le asigna una distribución a priori de probabilidad, con base en un cierto grado de
creencia con respecto al comportamiento aleatorio. Cuando se obtiene la evidencia
muestral, la distribución a priori es modificada y entonces surge una distribución a posteriori
de probabilidad.
❖ Estimador.

➢ Concepto: Un estimador es un estadístico al que se le exigen ciertas condiciones


para que pueda calcular con ciertas garantías ciertos parámetros de una población.
Es decir, un estimador es un estadístico. Ahora bien, no es un estadístico cualquiera. Es un
estadístico con ciertas propiedades. Un ejemplo podría ser la media o la varianza. Estas
métricas tan conocidas, son estimadores.

❖ Estimadores de los parámetros más frecuentes.

➢ Podemos tomar una muestra, calcular en ella un estadístico (promedio o porcentaje,


por ejemplo) y luego hacer afirmaciones respecto del parámetro correspondiente.
Esto se conoce con el nombre de estimación de parámetros, y se puede hacer de
dos formas:
● Estimación puntual: consiste en asumir que el parámetro tiene el mismo valor que el
estadístico en la muestra.
● Estimación por intervalos: se asigna al parámetro un conjunto de posibles valores
que están comprendidos en un intervalo asociado a una cierta probabilidad de
ocurrencia.

❖ Estimación por intervalos.

➢ Concepto: La estimación por intervalos consiste en establecer el intervalo de valores


donde es más probable se encuentre el parámetro.

➢ Definición: Es el uso de datos de muestra para estimar un intervalo de valores


plausibles de un parámetro de interés.

➢ Características que lo definen:

● Permite conocer el rango de valores en que podemos confiar que está el verdadero
valor poblacional.
Permite dimensionar la imprecisión de la estimación puntual y este es su principal
propósito.
● Corresponde a un rango de valores, cuya distribución es normal.

❖ Estimación puntual.

➢ Concepto: Se busca un estimador, que con base a los datos muestrales dé origen a
un valor puntual que utilizamos como estimación del parámetro.

➢ Definición: Una estimación puntual de un parámetro poblacional es cuando se utiliza


un único valor para estimar ese parámetro, es decir, se usa un punto en concreto de
la muestra para estimar el valor deseado.

➢ Propiedades de los estimadores puntuales:


Las propiedades deseables de un estimador son las siguientes:

● Insesgadez: Un estimador es insesgado cuando la esperanza matemática de este es


igual al parámetro que se desea estimar. Por tanto, la diferencia entre el parámetro a
estimar y la esperanza de nuestro estimador tendría que ser 0.
● Eficiente: Un estimador es más eficiente o tiene la capacidad de estimar de forma
precisa cuando su varianza es reducida. Por lo tanto, ante 2 estimadores, siempre
elegiremos el que tenga una varianza menor.
● Consistencia: Un estimador consistente es aquel que a medida que la medida que la
muestra crece se aproxima cada vez más al valor real del parámetro. Por lo tanto,
cuantos más y valores entran en la muestra, el parámetro estimado será más
preciso

➢ Métodos de la investigación puntual:

● Método de los momentos: consiste en igualar momentos poblacionales a momentos


muestrales. Deberemos tener tantas igualdades como parámetros a estimar.

● Método de máxima verosimilitud: consiste en tomar como valor del parámetro aquel
que maximice la probabilidad de que ocurra la muestra observada.

Si X1, ..., Xn es una muestra seleccionada de una población con distribución Fθ o densidad
fθ(x), la probabilidad de que ocurra una realización x1, ..., xn viene dada por:

A Lθ(X1, ..., Xn) se le llama función de verosimilitud.(credibilidad de la muestra observada).

Buscamos entonces el valor de θ que maximice la función de verosimilitud, y al valor


obtenido se le llama estimación por máxima verosimilitud de θ.

Nota: si la variable X es discreta, en lugar de fθ(xi) consideramos la función masa de


probabilidad pθ(xi).

Ejemplo 7.1: Sea X → N(µ, σ), con µ desconocido. Seleccionada una m.a.s. X1, ..., Xn, con
realización x1, ..., xn, estimamos el parámetro µ por ambos métodos. Según el método de
los momentos:
❖ Estimación por intervalos de confianza:

➢ Definición: En lugar de dar una estimación puntual para el parámetro θ buscamos


ahora un intervalo [θ −(X1, ..., Xn), − θ(X1, ..., Xn)] que contenga al parámetro con
una alta probabilidad. Esta probabilidad recibe el nombre de nivel de confianza del
intervalo, se denota por (1 − α) y la fija el investigador.

➢ Métodos de construcción de intervalos:

Sea X → Fθ, con θ desconocido.


Seguimos los siguientes pasos para construir un I.C. para θ :

1. Seleccionamos una m.a.s. X1, ..., Xn.

2. Buscamos un estadístico que incluya el parámetro a estimar θ y que tenga distribución


conocida.

3. Fijamos el nivel de confianza (1 − α).

4. Encontramos θ −(x1, ..., xn) y − θ(x1, ..., xn) tal que

Diremos entonces que [θ −(x1, ..., xn), − θ(x1, ..., xn)] es un I.C. para θ al (1 − α)100 % de
confianza. Eso significa que de cada 100 intervalos que pudieran obtenerse (según distintas
muestras que pudieran haber sido seleccionadas al azar), (1 − α)100 contendrían el
verdadero valor del parámetro θ.

➢ Intervalos de confianza en poblaciones normales: Se muestrea una población normal


para estimar los parámetros de esta población.
➢ Intervalo de confianza para las proporciones:

● Nivel de confianza:

➢ Concepto: es la probabilidad máxima con la que podríamos asegurar que el


parámetro a estimar se encuentra dentro de nuestro intervalo estimado.

➢ Definición: El nivel de confianza se define como 1-alfa y sus valores más comunes
son 90%, 95% y 99%.

● Precisión de un intervalo:

➢ Conceptos: La longitud del intervalo, mide la precisión de la estimación: intervalos


largos proporcionan estimaciones imprecisas, mientras que intervalos cortos
proporcionan estimaciones precisas. Habitualmente la precisión se expresa como el
radio del intervalo, el margen de error de la estimación.

➢ Definición: Los intervalos de confianza permiten ver la precisión de la estimación de


la diferencia hecha con la muestra.
Anexo: Mapa conceptual.
Bibliografía:

● Guillermo Westreicher (08 de marzo de 2020), Estimación.


● Estimación y características, SoyStaff, 11/11/2015.
● José Francisco López (08 de noviembre, 2018). Estimador.
● Estadística aplicada a la investigación en salud, Fernando Quevedo Ricardi,
Medwave 2011 Jun;11(06).Estimación de parámetros.
● Francisco Javier Marco Sanjuán (11 de marzo, 2019).Estimación puntual.
● Intervalo, Juan Lejarza, 19/04/2010.

También podría gustarte