Pregunta N°.01

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 10

1.

- Definir los conceptos de: Campo de Medida, Alcance(span), Error, Incertidumbre de la


Medida, Exactitud, Precisión, Zona Muerta, Sensibilidad, Repetibilidad,Histeresis, etc.
1.1. Campo de Medida:
Espectro o conjunto de valores de la variable medida que están comprendidos dentro de los
limites superior e inferior de la capacidad de medida o de transmisión de instrumento ; viene
expresado estableciendo los dos valores extremos. Ejemplo: el campo de medida del instrumento
de temperatura de la figura 1.3 es de 100-300°C.Otro termino derivado es el de dinámica de
medida o rangeabilidad (rangeability), que es el cociente entre el valor de medida superior e
inferior de un instrumento. Por ejemplo, una valvula de control lineal que regule linealmente el
caudal desde el 2% hasta el 100% de su carrera tendrá una rangeabilidad de 100/2 = 50.

1.2. Alcance (span):


Es la diferencia algebraica entre los valores superior e inferior del campo de medida del
instrumento. En los ejemplos anteriores es de 10 bar para el manómetro, de 25 bar para el
transmisor de presión y de 200|°C para el instrumento de temperatura.

1.3. Error:
El error de la medida es la desviación que presentan las medidas prácticas de una variable de
proceso con relación a las medidas teóricas o ideales, como resultado de las imperfecciones de
los aparatos y de las variables parasitas que afectan al proceso. Es decir:
Error = valor leído en el instrumento – valor ideal de la variable medida
El error absoluto es:
Error absoluto = valor leído – valor verdadero
El error relativo representa la calidad de la medida y es:
Error relativo = error absoluto/ error verdadero
Por ejemplo: el error obtenido al medir un caudal con un diafragma, un transmisor electrónico de
4-20 mA c.c., un receptor y un integrador electrónico es de:

1.4. Incertidumbre de la Medida:


Cuando se realiza una operación de calibración, se compara el instrumento a calibrar con una
aparato patrón para averiguar si el error (diferencia entre el valor leído por el instrumento y el
verdadero valor medido con el aparato patrón) se encuentra dentro de los limites dados por el
fabricante del instrumento. Como el aparato patrón no permite medir exactamente el valor
verdadero (también tiene un error) y como además en la operación de comparación intervienen
diversas fuentes de error, no es posible caracterizar la medida por un único valor, lo que da lugar a
la llamada incertidumbre de la medida o incertidumbre (uncertainty).
Entre las fuentes de incertidumbre se encuentran:
 Influencia de las condiciones ambientales.
 Lectura diferente de instrumentos analógicos realizadas por los operadores.
 Variaciones en las observaciones repetidas de la medida en condiciones aparentemente
idénticas.
 Valores inexactos de los instrumentos patrón.
 Muestra del producto no representativa. Por ejemplo, en la medida de temperatura con
un termómetro patrón de vidrio, la masa del bulbo cambia la temperatura de la muestra
del proceso cuya temperatura desea medirse.
Así pues, la incertidumbre es la dispersión de los valores que pueden ser atribuidos
razonablemente al verdadero valor de magnitud medida. En el cálculo de la incertidumbre
intervienen la distribución estadística de los resultados de series de mediciones, las características
de los equipos (deriva en función de la tensión de alimentación o en función de la temperatura,
etc.), etc.Para que la comparación sea correcta, el procedimiento general es que el patrón de
medida sea suficiente más preciso que la del aparato que se calibra (relación 4:1 en los sensores
de presión – ISA S37.3).
Para el cálculo de la incertidumbre pueden seguirse varias normas:

 ISO/IEC 17025:2005 General requiremensts for the competence of testing and calibration
laboratorios.
 G-ENAC-09 Rev 1 Julio 2005. Guía para la expresion de la incertidumbre en los ensayos
cuantitativos.
 CEA-ENAC-LC/02 expresion de la incertidumbre de medida en las calibraciones.
 EAL- R2 expresion of the uncertainty of measurementin Calibration,1995.
 GUM (Guide to the expession of uncertainty in measurement), conocida también como
ISO/TC 213 N 659.

En el cálculo de la incertidumbre se usa el termino mensurando que significa: magnitud particular


objeto de una medición. Puede ser medido directamente (por ejemplo, la temperatura de un
cuerpo con un termómetro) o bien de forma indirecta a partir de otra magnitudes relacionadas
de forma matemática o funcional (por ejemplo, la medida de la densidad a través de la relación
masa/ volumen del cuerpo). El mensurando es, pues, función de una serie de magnitudes de
entrada y la expresión de esta función puede ser experimental o ser un algoritmo de cálculo o
bien una combinación.Hay dos incertidumbres A y B presentes en la medición. Las A se relacionan
con fuentes de error aleatorios y pueden ser evaluados a partir de distribuciones estadísticas
(lecturas en el instrumento), mientras que en las B están asociadas a errores de tipo sistemático
y corresponden a la incertidumbre del calibrador, la resolución del instrumento y la influencia de
otras magnitudes (temperatura, campos externos, humedad, posición, etc.) que surgen del
control de las condiciones de contraste o de la experiencia previa del operador.
Una vez obtenidos los valores, tanto de la incertidumbre tipo A como la de tipo B, se procede a
calcular la incertidumbre combinada:

Y después la incertidumbre expandida:

Siendo K = factor de cobertura o de seguridad que se determina de acuerdo con el nivel de


confianza de la incertidumbre, dado en la tabla 1.2 (factor T de student). Con un nivel de confianza
del 95,45% y para un numero de valores mayor de 20 es K= 2.

Incertidumbre tipo A. la evaluación de la incertidumbre estándar se efectúa por análisis


estadístico de una serie de observaciones independientes de la magnitud de entrada, bajo las
mismas condiciones de medida.

Incertidumbre tipo B. la incertidumbre se determina en base a la información disponible


procedente de varias fuentes, tales como:
 Datos de medidas anteriores.
 Experiencia y conocimiento de los instrumentos.
 Especificaciones del fabricante.
 Valores de incertidumbre.
Ejemplo: manómetro digital de escala 0-200 equivalente a 0-2 bar, que se calibra con el mismo
patrón anterior () comprobador de manómetros de peso muerto) de incertidumbre 4,1 x 10 -6
(2 x 10 -4), y en la misma forma.
Desviaciones típicas del manómetro digital:
El manómetro digital tiene una escala de 0-200 KPa (0-2 bar) y el digito menos significativo
es de 0,01 KPa (0,0001 bar), con lo que el valor es 0,005 Kpa (0,00005 bar).
1.5. Exactitud:
La exactitud (accuracy) es la cualidad de un instrumento de medida por la que tiende a dar
lecturas próximas al valor verdadero de la magnitud medida. En otras palabras, es el grado de
conformidad de un valor indicado a un valor estándar aceptado o valor ideal, considerando este
valor ideal como si fuera el verdadero. El grado de conformidad independiente es la desviación
máxima entre la curva de calibración de un instrumento y una curva característica especificada,
posicionada de tal modo tal que se reduce al mínimo dicha desviación máxima. La exactitud
(accuracy) define los límites de los errores cometidos cuando el instrumento se emplea en
condiciones normales de servicio durante un periodo de tiempo determinado (normalmente un
año). La exactitud se da en términos de inexactitud, es decir, un instrumento de temperatura de
0-100 °C con la temperatura de proceso de 100 °C y que marca 99,98°C se aproxima al valor real
en 0,02°C, o sea tiene una inexactitud de 0,02°C. Hay varias formas para expresar la inexactitud.
La exactitud varía en cada punto del campo de medida si bien, el fabricante lo específica, en todo
el margen del instrumento, indicando a veces su valor en algunas zonas de la escala.

1.6. Precisión:
La precisión (precision) es la cualidad de un instrumento por la que tiende a dar lecturas muy
próximas unas a otras, es decir, es el grado de dispersión de las mismas. Un instrumento puede
tener una pobre exactitud, pero una gran precisión.
Por ejemplo, un manómetro de intervalo de medida de 0 a 10 bar, puede tener un error de 0
considerable marcando 2 bar sin precisión en el proceso y diversas lecturas de 7,049, 7,05,
7,051,7,052 efectuadas a lo largo del tiempo y en las mismas condiciones de servicio, para una
presión del proceso de 5 bar. Tendrá un error practico de 2 bar, pero los valores leídos estarán
muy próximos entre sí con una muy pequeña dispersión máxima de 7,052 – 7,049 = 0,003, es
decir, el instrumento tendrá una gran precisión.
Por lo tanto, los instrumentos de medida están diseñados por los fabricantes para que sean
precisos, y como periódicamente se des calibran, deben reajustarse para que sean exactos. A
señalar que el termino precisión es sinónimo de repetibilidad.
1.7. Zona Muerta: la zona muerta (dead zone o dead band) es el campo de valores de la variable
que no hace variar la indicación o la señal de salida del instrumento, es decir, que no procede su
respuesta. Viene dada en tanto por ciento del alcance de la medida.
Por ejemplo: en el instrumento de la figura 1.3 es de ±0,1%, es decir, de 0,1 x 200/100 = ± 0,2 °C.

1.8. Sensibilidad: la sensibilidad (sensitivity) es la razón entre el incremento de la señal de


salida o de la lectura y el incremento d la variable que lo ocasiona, después de haberse
alcanzado el estado de reposo. Por ejemplo: si en u transmisor electrónico de 0-10 bar, la presión
pasa de 5 a 5,5 bar y la señal de salida de 11,9 a 12,3 mA c.c., la sensibilidad es el cociente:

Viene dada en tanto por ciento del alcance de la medida. Si la sensibilidad del instrumento de
temperatura de la figura 1.3 es de ± 0,05%, su valor será de 0,05 x 200 = ± 0,1 °C. Hay que señalar
que no debe confundirse la sensibilidad con el termino de zona muerta; son definiciones
básicamente distintas que antes era fácil confundir cuando la definición inicial de la sensibilidad
era “valor mínimo en que se a de modificar la variable para apreciar un cambio medible en el
índice o en la pluma de registro de los instrumentos”.

1.9. Repetibilidad:
la repetibilidad (repeatibility) es la capacidad de reproducción de las posiciones de la pluma o el
índice o de la señal de salida del instrumento, al medir repetidamente valores idénticos de la
variable en las mismas condiciones de servicio y en el mismo sentido de variación, recorriendo
todo el campo. La repetibilidad es sinónimo de precisión. A mayor repetibilidad, es decir, a un
menor valor numérico (por ejemplo, si en un instrumento es 0,05% y en otro es 0,005%, este
segundo tendrá más repetibilidad), los valores de la indicación o señal de salida estarán más
concentrados, es decir, habrá menos dispersión y una mayor precisión.
La repetibilidad se expresa en tanto por ciento del alcance; un valor representativo es el de ± es
de 0,1%.notese que el termino repetibilidad no incluye la histéresis.
De este modo, en el caso de un manómetro puede haber anotado los siguientes datos
relacionados.
La repetibilidad viene dada por la fórmula:

Resultando:

1.10. Histéresis:
La histéresis (hysteresis) es la diferencia máxima que se observa en los valores indicados
por el índice o la pluma del instrumento o la señal de salida para el mismo valor cualquiera
del campo de medida, cuando la variable recorre toda la escala en los dos sentidos,
ascendente y descendente.
Se expresa en tanto por ciento del alcance de la medida. Por ejemplo: si en un
termómetro de 0-100 %, para el valor de la variable de 40°C, la aguja marca 39,9°Cal subir
la temperatura desde 0°C, e indica 40,1°C al bajar la temperatura desde 100°C, el valor de
la histéresis es de:

También podría gustarte