Pregunta N°.01
Pregunta N°.01
Pregunta N°.01
1.3. Error:
El error de la medida es la desviación que presentan las medidas prácticas de una variable de
proceso con relación a las medidas teóricas o ideales, como resultado de las imperfecciones de
los aparatos y de las variables parasitas que afectan al proceso. Es decir:
Error = valor leído en el instrumento – valor ideal de la variable medida
El error absoluto es:
Error absoluto = valor leído – valor verdadero
El error relativo representa la calidad de la medida y es:
Error relativo = error absoluto/ error verdadero
Por ejemplo: el error obtenido al medir un caudal con un diafragma, un transmisor electrónico de
4-20 mA c.c., un receptor y un integrador electrónico es de:
ISO/IEC 17025:2005 General requiremensts for the competence of testing and calibration
laboratorios.
G-ENAC-09 Rev 1 Julio 2005. Guía para la expresion de la incertidumbre en los ensayos
cuantitativos.
CEA-ENAC-LC/02 expresion de la incertidumbre de medida en las calibraciones.
EAL- R2 expresion of the uncertainty of measurementin Calibration,1995.
GUM (Guide to the expession of uncertainty in measurement), conocida también como
ISO/TC 213 N 659.
1.6. Precisión:
La precisión (precision) es la cualidad de un instrumento por la que tiende a dar lecturas muy
próximas unas a otras, es decir, es el grado de dispersión de las mismas. Un instrumento puede
tener una pobre exactitud, pero una gran precisión.
Por ejemplo, un manómetro de intervalo de medida de 0 a 10 bar, puede tener un error de 0
considerable marcando 2 bar sin precisión en el proceso y diversas lecturas de 7,049, 7,05,
7,051,7,052 efectuadas a lo largo del tiempo y en las mismas condiciones de servicio, para una
presión del proceso de 5 bar. Tendrá un error practico de 2 bar, pero los valores leídos estarán
muy próximos entre sí con una muy pequeña dispersión máxima de 7,052 – 7,049 = 0,003, es
decir, el instrumento tendrá una gran precisión.
Por lo tanto, los instrumentos de medida están diseñados por los fabricantes para que sean
precisos, y como periódicamente se des calibran, deben reajustarse para que sean exactos. A
señalar que el termino precisión es sinónimo de repetibilidad.
1.7. Zona Muerta: la zona muerta (dead zone o dead band) es el campo de valores de la variable
que no hace variar la indicación o la señal de salida del instrumento, es decir, que no procede su
respuesta. Viene dada en tanto por ciento del alcance de la medida.
Por ejemplo: en el instrumento de la figura 1.3 es de ±0,1%, es decir, de 0,1 x 200/100 = ± 0,2 °C.
Viene dada en tanto por ciento del alcance de la medida. Si la sensibilidad del instrumento de
temperatura de la figura 1.3 es de ± 0,05%, su valor será de 0,05 x 200 = ± 0,1 °C. Hay que señalar
que no debe confundirse la sensibilidad con el termino de zona muerta; son definiciones
básicamente distintas que antes era fácil confundir cuando la definición inicial de la sensibilidad
era “valor mínimo en que se a de modificar la variable para apreciar un cambio medible en el
índice o en la pluma de registro de los instrumentos”.
1.9. Repetibilidad:
la repetibilidad (repeatibility) es la capacidad de reproducción de las posiciones de la pluma o el
índice o de la señal de salida del instrumento, al medir repetidamente valores idénticos de la
variable en las mismas condiciones de servicio y en el mismo sentido de variación, recorriendo
todo el campo. La repetibilidad es sinónimo de precisión. A mayor repetibilidad, es decir, a un
menor valor numérico (por ejemplo, si en un instrumento es 0,05% y en otro es 0,005%, este
segundo tendrá más repetibilidad), los valores de la indicación o señal de salida estarán más
concentrados, es decir, habrá menos dispersión y una mayor precisión.
La repetibilidad se expresa en tanto por ciento del alcance; un valor representativo es el de ± es
de 0,1%.notese que el termino repetibilidad no incluye la histéresis.
De este modo, en el caso de un manómetro puede haber anotado los siguientes datos
relacionados.
La repetibilidad viene dada por la fórmula:
Resultando:
1.10. Histéresis:
La histéresis (hysteresis) es la diferencia máxima que se observa en los valores indicados
por el índice o la pluma del instrumento o la señal de salida para el mismo valor cualquiera
del campo de medida, cuando la variable recorre toda la escala en los dos sentidos,
ascendente y descendente.
Se expresa en tanto por ciento del alcance de la medida. Por ejemplo: si en un
termómetro de 0-100 %, para el valor de la variable de 40°C, la aguja marca 39,9°Cal subir
la temperatura desde 0°C, e indica 40,1°C al bajar la temperatura desde 100°C, el valor de
la histéresis es de: