Clase 1.
Clase 1.
Clase 1.
METROLOGÍA
PROFESOR: ING. ALEXANDER ZAMBRANO G.
DESCRIPCION ASIGNATURA
Se dará a conocer el funcionamiento de los instrumentos industriales y su
rol dentro de los sistemas de control automático.
Esta asignatura tiene un contenido teórico y práctico para enfrentarse a los
escenarios que suceden en el campo laboral dentro de la automatización y
control industriales.
Control de procesos industriales
SP = Referencia
MV PV
Mide
Toma Acción Controlador Temperatura
Contactor Transmisor Presión
Bomba Nivel
Damper Lazo Flujo
Elemento Final
Válvula
de Control Realimentado Sensor Velocidad
Cilindro Humedad
SCR’s Posición
Variador Densidad
Proceso
Variable Manipulada Variable Controlada
Aire, Agua, Vapor, Electricidad
OBJETIVOS
Conocer los principios de la instrumentación virtual.
Conocer los principios de la metrología y los instrumentos
metrológicos.
Obtener la capacidad de utilizar los instrumentos de
medición y verificación para determinación de medidas.
Obtener la capacidad de hacer e interpretar diagramas de
instrumentación de un proceso industrial
CONTENIDO
UNIDAD 1: Fundamentos de Metrología e Instrumentos
metrológicos.
SEGUNDO INTERCICLO
2 LECCIONES ………………………………………….…………10 P
2 DEBERES.…………………………………………..……………5 P
PRACTICAS ………………………..……………………………….5 P
PROYECTO…………………………………………………………. 10 P
EXAMEN INTERCICLO…………………………………….… 20 P
1.1 Metrología e instrumentos
metrológicos
Metrología es la ciencia que trata de
Las medidas
Los sistemas de unidades y
Los instrumentos usados para efectuarlas e interpretarlas.
Metrologia
Abarca varios campos, tales como la metrología térmica,
eléctrica, acústica, dimensional, entre otras .
Metrologia
Comprende todos los aspectos, tanto teóricos como prácticos,
que se refieren a las mediciones.
Actúa tanto en los ámbitos científico, industrial y legal, como
en cualquier otro demandado por la sociedad.
METROLOGIA
Su objetivo fundamental es la obtención y expresión del
valor de las magnitudes
Para ello emplea instrumentos, métodos y medios
apropiados, con la exactitud requerida en cada caso.
METROLOGIA
Los conceptos fundamentales de la Metrología están dados
en un documento internacionalmente aceptado conocido
como Vocabulario Internacional de Metrología VIM
Este esta preparado por las más grandes y prestigiosas
organizaciones internacionales de Metrología tales como :
Bureau Internacional de Pesas y Medidas (BIPM),
Comisión Electrotécnica Internacional (IEC),
Federación Internacional de Química Clínica y de
Laboratorios Médicos (IFCC),
Organización International de Normalización (ISO),
Magnitud
Atributo de un fenómeno, cuerpo o substancia que puede ser
reconocido cualitativamente y determinado cuantitativamente.
ES DECIR, ES TODO AQUELLO QUE SE PUEDE MEDIR Y EXPRESAR SU VALOR CON UN NUMERO
EJEM. LONGITUD
EJEM. TEMPERATURA
EJEM. PRESION DE AIRE
EJEM. MASA
EJEM: INTENSIDAD DE SONIDO
EJEM: CONCENTRACION DE GLUCOSA EN LA SANGRE
EJEM: CAUDAL DE AGUA EN TUBERIAS
EJEM: ACIDEZ DEL SUELO
EJEM: TIEMPO
MEDICION
Es la evaluación de una magnitud hecha según su relación
con otra magnitud de la misma especie adoptada como
unidad.
Esto es, comparar dos objetos de acuerdo a una característica
física que los distinga (magnitud) y asignarle un valor
numérico a dicha comparación.
Ejem. Medir el largo del pizarrón con el borrador
INSTRUMENTO DE MEDICION
Un instrumento de medición es un aparato que se usa para comparar
magnitudes físicas mediante un proceso de medición.
INSTRUMENTO DE MEDICION
Como unidades de medida se utilizan objetos y
sucesos previamente establecidos como estándares
o patrones
De la medición resulta un número que es la relación
entre el objeto de estudio y la unidad de
referencia.
Losinstrumentos de medición son el medio por el
que se hace esta conversión
INSTRUMENTO DE MEDICION
Dos características importantes de un instrumento
de medida son la precisión y la sensibilidad.
Los físicos utilizan una gran variedad de
instrumentos para llevar a cabo sus mediciones.
Desde objetos sencillos como reglas y cronómetros
hasta microscopios electrónicos y aceleradores de
partículas.
UNIDADES DE MEDIDA
Una unidad de medida es una cantidad estandarizada de
una determinada magnitud física.
En general, una unidad de medida toma su valor a partir
de un patrón o de una composición de otras unidades
definidas previamente.
Sistema Internacional de Unidades
ElSistema Internacional de Unidades es la forma actual
del sistema métrico decimal y establece las unidades
que deben ser utilizadas internacionalmente.
Sistema Internacional de Unidades
Fue creado por el Comité Internacional de Pesos y Medidas con
sede en Francia. En él se establecen 7 magnitudes
fundamentales, con los patrones para medirlas:
Longitud
Masa
Tiempo
Intensidad eléctrica
Temperatura
Intensidad luminosa
Cantidad de sustancia
PATRON DE MEDIDAS
Un patrón de medidas es el hecho aislado y conocido que
sirve como fundamento para crear una unidad de
medida.
Los patrones nunca varían su valor.
Ejemplo de un patrón de medida sería: "Patrón del
segundo: Es la duración de 9 192 631 770 períodos de
radiación correspondiente a la transición entre 2 niveles
hiperfinos del estado fundamental del átomo de Cesio
133".
PATRON DE MEDIDAS
PATRON DEL METRO:
lo define como la longitud del camino atravesado por la luz en el vacío
durante un intervalo de tiempo de 1 / 299.792.458 de un segundo,
basada en que la velocidad de la luz en el vacio es exactamente
299.792.458 metros / segundo.
PATRON DEL KILOGRAMO:
“El kilogramo, símbolo kg, es la unidad de masa del SI. Se define
asignando el valor numérico fijo de 6,626 070 040 × 10-34 a la constante
de Planck h cuando ésta se expresa en la unidad J.s , que es igual a
kg.m2 .s-1 , donde el metro y el segundo están definidos en términos de
c y ΔνCs.”
UNIDADES DE MEDIDA
INCERTIDUMBRE DE LAS MEDIDAS
es el parámetro asociado con el resultado de una medición,
que caracteriza la dispersión de los valores que podrían ser
razonablemente atribuidos al valor a medir
Cuando se realiza la medición siempre están presentes el
mensurando (lo que se quiere medir), el instrumento de
medida (lo que mide), el operador (el que mide) y el resto
del universo, que de alguna forma física está influyendo en
la medida realizada.
INCERTIDUMBRE DE LAS MEDIDAS
Para que el resultado de una medición sea
representativo, es necesario establecer unas condiciones
de referencia, determinen que se trabaja con
instrumentos adecuados, que el mensurando está
suficientemente bien definido y que se utiliza un modo
operativo apropiado
INCERTIDUMBRE DE LAS MEDIDAS
La medida de cualquier magnitud posee naturaleza aleatoria al
existir siempre una variabilidad inevitable
Factores que influyen en tomar
correctamente una medida
1. Calibración: Dada por el certificado de calibración.
2. Deriva: Variación de la medida a lo largo del tiempo.
3. Temperatura: Debida a la influencia de la temperatura.
4. Resolución: Mínima variación perceptible.
5. Inestabilidad: Inestabilidad de la fuente de medida o equipo.
6. Método: Debida al método de medida, posible método de medida
indirecta de la magnitud a medir.
7. Repetibilidad: Debida a las medidas realizadas por un mismo
instrumento en distintas condiciones.
8. Reproducibilidad: Debida a las medidas realizadas por distintos
instrumentos en distintas condiciones
Calibración
El calibrado es el procedimiento de comparación entre lo
que indica un instrumento y lo que "debiera indicar" de
acuerdo a un patrón de referencia con valor conocido.
De esta definición se deduce que para calibrar un
instrumento o patrón es necesario disponer de uno de
mayor precisión que proporcione el valor
convencionalmente verdadero que es el que se empleará
para compararlo con la indicación del instrumento
sometido a calibrado.
Calibración
Esto se realiza mediante una cadena ininterrumpida y
documentada de comparaciones hasta llegar al patrón
primario, y que constituye lo que llamamos trazabilidad.
El objetivo del calibrado es:
mantener y verificar el buen funcionamiento de los
equipos,
responder a los requisitos establecidos en las normas de
calidad
y garantizar la fiabilidad y trazabilidad de las medidas
Calibración
El comportamiento de los equipos de medición y ensayos
pueden cambiar con pasar del tiempo gracias a la
influencia ambiental:
el desgaste natural
la sobrecarga o
por un uso inapropiado.
La exactitud de la medida dada por un equipo necesita ser
comprobado de vez en cuando, en términos generales,
estas frecuencias fluctúan entre los 6 y 24 meses.
Calibración
Solo a través de la calibración de los equipos de medición
respecto de patrones, las empresas pueden asegurar la
validez de sus mediciones.
Los resultados de la calibración deber ser informados en
un certificado que entrega el laboratorio
Tipos de Patrón
Patrón Nacional
Patrón reconocido por la legislación nacional para servir
de base, en un país, (INN).
Patrón Internacional
Patrón reconocido por un acuerdo internacional para
servir de base internacionalmente en la asignación de
valores a otros patrones de la magnitud afectada.
La custodia del patrón internacional corresponde a la
Oficina Internacional de Pesos y Medidas (BIPM) en
Sévres, cerca de París.
Tipos de Patrón
Patrón Primario.
Patrón que es designado o ampliamente reconocido
como poseedor de las más altas cualidades metrológicas
y cuyo valor se acepta sin referirse a otros patrones de
la misma magnitud.
Patrón Secundario
Patrón cuyo valor se asigna por la comparación con un
patrón primario de la misma magnitud,
normalmente los patrones primarios son utilizados para
calibrar patrones secundarios.
Tipos de Patrón
Patrón de referencia
Patrón en general, de la más alta calidad metrológica disponible en un lugar dado o en
una organización determinada, de la cual se derivan las mediciones efectuadas en
dicho lugar.
Los laboratorios de calibración mantienen los patrones de referencia para calibrar sus
patrones de trabajo.
Patrón de trabajo
Patrón que se utiliza corrientemente para calibrar medidas materializadas,
instrumentos de medida o materiales de referencia.
Patrón de transferencia
Patrón utilizado como intermediario para comparar patrones.
Las resistencias se utilizan como patrones de transferencia para comparar patrones de
voltaje.
Las pesas se utilizan para comparar balanzas.
DERIVA
Es una variación en la señal de salida que se presenta en un
período de tiempo determinado mientras se mantienen
constantes la variable medida y todas las condiciones
ambientales.
RESOLUCION
La resolución es la mínima variación de la magnitud
medida que da lugar a una variación perceptible de la
indicación del correspondiente valor.
Dicho de otra forma, la resolución nos indica el valor
mínimo a partir del cual notaremos una variación o
salto en la medida de aquello que estemos midiendo.
RESOLUCION
Por ejemplo, si la resolución de un termómetro es de
1ºC , la medición sera de 1,2,3,4,5.. y así
sucesivamente.
Si la resolución es de 0,5ºC, la medición será de 0;
0,5;1;1,5; 2; 2,5; etc...
La resolución es independiente al rango
RESOLUCION
En instrumental digital la resolución siempre
acostumbra a ser mayor que en un instrumental
analógico,
Es frecuente que en los instrumentos digitales
aparezca la medición decimal (0,1), centesimal
(0,01), milesimal (0,001) o incluso mayor.
La resolución esta relacionada con la sensibilidad del
instrumento.
Trazabilidad
es la capacidad de relacionar los resultados de una medición
individual a patrones nacionales o internacionales mediante
una cadena ininterrumpida de comparaciones,
llamada cadena de trazabilidad (VIM 2012).
Gracias a la trazabilidad, un laboratorio acreditado es capaz de
asegurar que la medición que efectúa tiene un determinado grado
de precisión debido a que sus patrones están calibrados con
patrones más exactos y precisos, que están a su vez calibrados con
patrones más exactos y precisos… Así, hasta llegar al patrón
materializado a partir de un concepto.
Trazabilidad
Así se tiene una estructura piramidal en la que en la base se
encuentran los instrumentos utilizados en las operaciones de
medida corrientes de un laboratorio.
Cada escalón o paso intermedio de la pirámide se obtiene
del que le precede y da lugar al siguiente por medio de una
operación de calibración, donde el patrón fue antes
calibrado por otro patrón, etc.
Campo de medida
El campo de medida (range) es el espectro o conjunto de
valores de la variable medida que están comprendidos
dentro de los límites superior e inferior de la capacidad de
medida, de recepción o de transmisión del instrumento.
Viene expresado estableciendo los dos valores extremos.
Ejemplo:
un manómetro de intervalo de medida 0- 10 bar,
un transmisor de presión electrónico de 0-25 bar con señal
de salida 4-20 mA c.c.
un instrumento de temperatura de 100-300 °C.
Alcance
El alcance (span) es la diferencia algebraica entre los
valores superior e inferior del campo de medida del
instrumento.
En los ejemplos anteriores es:
de 10 bar para el manómetro,
de 25 bar para el transmisor de presión y
de 200 °C para el instrumento de temperatura.
Error
El error de la medida es la desviación que presentan las medidas
prácticas de una variable de proceso con relación a las medidas teóricas o
ideales, como resultado de las imperfecciones de los aparatos y de las
variables parásitas que afectan al proceso.
El error absoluto es:
Error absoluto = Valor leído - Valor verdadero
El error relativo representa la calidad de la medida y es:
Error relativo = Error absoluto / valor verdadero
Error
Si el proceso está en condiciones de régimen permanente
existe el llamado error estático.
En condiciones dinámicas el error varía considerablemente
debido a que los instrumentos tienen características
comunes a los sistemas físicos:
absorben energía del proceso y esta transferencia
requiere cierto tiempo para ser transmitida, lo cual da
lugar a retardos en la lectura del aparato.
Error
Siempre que las condiciones sean dinámicas, existirá en mayor o
menor grado el llamado error dinámico (diferencia entre el
valor instantáneo y el indicado por el instrumento)
su valor depende del tipo de fluido del proceso, de su velocidad,
del elemento primario (termopar, bulbo y capilar), de los medios
de protección (vaina), etc.
El error medio del instrumento es la media aritmética de los
errores en cada punto de la medida determinados para todos los
valores crecientes y decrecientes de la variable medida
Error
Cuando una medición se realiza con la participación de varios
instrumentos, colocados unos a continuación de otros, el valor
final de la medición estará constituido por los errores
inherentes a cada uno de los instrumentos.
Si el límite del error relativo de cada instrumento es ± a, ± b, ±
c, ± d, etc., el máximo error posible en la medición será la
suma de los valores anteriores, es decir:
+(a + b + c + d + ...)
Error
Ahora bien, como es improbable que todos los instrumentos
tengan al mismo tiempo su error máximo en todas las
circunstancias de la medida, suele tomarse como error
total de una medición la raíz cuadrada de la suma
algebraica de los cuadrados de los errores máximos de los
instrumentos, es decir, la expresión:
Error
Por ejemplo, el error obtenido al medir un caudal con un
diafragma, un transmisor electrónico de 4-20 mA c.c., un
receptor y un integrador electrónicos es de:
Error
EXACTITUD
La exactitud (accuracy) es la cualidad de un instrumento de medida por
la que tiende a dar lecturas próximas al valor verdadero de la magnitud
medida.
EXACTITUD
Hay varias formas para expresar la exactitud:
a) Tanto por ciento del alcance, campo de medida (range).
Ejemplo: en un instrumento de temperatura , para una lectura de
150 °C y una exactitud de ± 0,5%, el valor real de la temperatura
estará comprendido entre 150 ± 0,5 × 200/100 = 150 ± 1, es decir,
entre 149 °C y151 °C.
EXACTITUD
b) Directamente, en unidades de la variable medida.
Ejemplo: exactitud ± 1 °C.
c) Tanto por ciento de la lectura efectuada.
Ejemplo: exactitud de ± 1% de 150 °C, es decir, ± 1,5 °C.
d) Tanto por ciento del valor máximo del campo de medida.
Ejemplo: exactitud ± 0,5% de 300 °C = ± 1,5 °C.
e) Tanto por ciento de la longitud de la escala.
Ejemplo: si la longitud de la escala del instrumento es de 150 mm, la
exactitud de ± 0,5% representará ± 0,75 mm en la escala
EXACTITUD
Hay que señalar que los valores de la exactitud son los
proporcionados por los fabricantes de los instrumentos.
Precisión
La precisión es la cualidad de un instrumento por la que tiende a dar
lecturas muy próximas unas a otras, es decir, es el grado de dispersión de
las mismas.
Un instrumento puede tener una pobre exactitud, pero una gran precisión.
Precisión
Precisión
Por ejemplo, un manómetro de intervalo de medida de 0 a 10 bar, puede
tener un error de cero considerable marcando 2 bar sin presión en el
proceso y diversas lecturas de 7,049, 7,05, 7,051, 7,052 efectuadas a lo
largo del tiempo y en las mismas condiciones de servicio, para una presión
del proceso de 5 bar.
Tendrá un error práctico de 2 bar, pero los valores leídos estarán muy
próximos entre sí con una muy pequeña dispersión máxima de
7,052 - 7,049 = 0,003, es decir, el instrumento tendrá una gran precisión .
Precisión
Por lo tanto, los instrumentos de medida estarán diseñados por los
fabricantes para que sean precisos, y como periódicamente se descalibran,
deben reajustarse para que sean exactos.
Zona muerta
La zona muerta es el campo de valores de la variable que no hace variar
la indicación o la señal de salida del instrumento, es decir, que no produce
su respuesta.
Viene dada en tanto por ciento del alcance de la medida.
Sensibilidad
La sensibilidad es la razón entre el incremento de la señal de salida o de la
lectura y el incremento de la variable que lo ocasiona, después de haberse
alcanzado el estado de reposo.
Por ejemplo, si en un transmisor electrónico de 0-10 bar y 20-4 mA, la
presión pasa de 5 a 5,5 bar y la señal de salida de 11,9 a 12,3 mA c.c., la
sensibilidad es el cociente:
Repetibilidad
La repetibilidad es la capacidad de reproducción de las posiciones de la
pluma, al medir repetidamente valores idénticos de la variable en las
mismas condiciones de servicio y en el mismo sentido de variación,
recorriendo todo el campo.
Repetibilidad
La repetibilidad es sinónimo de precisión.
Histéresis
Es la diferencia máxima que se observa en los valores indicados
por la pluma del instrumento para el mismo valor cualquiera del
campo de medida, cuando la variable recorre toda la escala en los
dos sentidos ascendente y descendente
Se expresa en tanto por ciento del alcance de la medida.
Por ejemplo: si en un termómetro de 0-100 °C, para el valor de la
variable de 40 °C, la aguja marca 39,9 °C al subir la temperatura
desde 0 °C, e indica 40,1 °C al bajar la temperatura desde 100
°C, el valor de la histéresis es de
Histéresis
Fiabilidad
Medida de la probabilidad de que un instrumento continúe
comportándose dentro de límites especificados de error a
lo largo de un tiempo determinado y bajo unas condiciones
especificadas.
Ruido
Cualquier perturbación eléctrica o señal accidental no deseada que
modifica la transmisión, indicación o registro de los datos deseados.
Un caso especial es la interferencia de radiotransmisores RFI (Radio
Frequency Interference).
Incertidumbre de la medida
Cuando se realiza una operación de calibración, se compara
el instrumento a calibrar con un aparato patrón para
averiguar si el error (diferencia entre el valor leído por el
instrumento y el verdadero valor medido con el aparato
patrón) se encuentra dentro de los límites dados por el
fabricante del instrumento.
Como el aparato patrón no permite medir exactamente el
valor verdadero (también tiene un error) y como además en
la operación de comparación intervienen diversas fuentes
de error, no es posible caracterizar la medida por un único
valor, lo que da lugar a la llamada incertidumbre de la
medida
Incertidumbre de la medida
Entre las fuentes de incertidumbre se encuentran:
Influencia de las condiciones ambientales.
Lecturas diferentes de instrumentos analógicos realizadas por los
operadores.
Variaciones en las observaciones repetidas de la medida en
condiciones aparentemente idénticas.
Valores inexactos de los instrumentos patrón.
Muestra del producto no representativa.
Incertidumbre de la medida
Así pues, la incertidumbre es la dispersión de los valores
que pueden ser atribuidos razonablemente al verdadero
valor de la magnitud medida.
Incertidumbre de la medida
Para que la comparación sea correcta, el procedimiento
general es que el patrón de medida sea suficiente mas
preciso que la del aparato que se calibra (relación 4:1 en
los sensores de presión - ISA S37.3).
Para el cálculo de la incertidumbre pueden seguirse varias
normas:
• ISO/IEC 17025:2005 General requirements for the
competence of testing and calibration laboratories.
• G-ENAC-09 Rev 1 Julio 2005: Guía para la expresión de la
incertidumbre en los ensayos cuantitativos
Incertidumbre de la medida
En el cálculo de la incertidumbre se usa el término
mensurando que significa: magnitud particular objeto de
una medición.
Puede ser medido directamente (por ejemplo, la
temperatura de un cuerpo con un termómetro) o bien de
forma indirecta a partir de otras magnitudes relacionadas
de forma matemática o funcional (por ejemplo, la medida
de la densidad a través de la relación masa/volumen del
cuerpo).
Incertidumbre de la medida
Hay dos incertidumbres A y B presentes en la medición.
Las A se relacionan con fuentes de error aleatorios y pueden ser
evaluadas a partir de distribuciones estadísticas (lecturas en el
instrumento),
Las B están asociadas a errores de tipo sistemático y
corresponden a :
la incertidumbre del calibrador,
la resolución del instrumento
y la influencia de otras magnitudes (temperatura, campos
externos, humedad, posición, etc.) que surgen del control de las
condiciones de contraste o de la experiencia previa del operador.
Incertidumbre de la medida
Una vez obtenidos los valores, tanto de la incertidumbre tipo A
como la de tipo B, se procede a calcular la incertidumbre
combinada:
Los ceros no siempre son cifras significativas, ya que pueden usarse sólo para
ubicar el punto decimal:
Los números 0.00001845, 0.0001845 y 0.001845 tienen cuatro cifras
significativas.
El número 45 300 puede tener tres, cuatro o cinco dígitos significativos,
dependiendo de si los ceros se conocen o no con exactitud.
La incertidumbre se puede eliminar utilizando la notación científica:
4.53 × 104, tiene tres cifras significativas
4.530 × 104, tiene cuatro cifras significativas
2) En un manómetro de rango 0-100 psi, para el valor de la variable de 60 psi, la aguja marca 59.7 psi al subir
la presión desde 0 psi, e indica 60,3 psi al bajar la presión desde 100 psi. Calcule el valor de la histéresis.
3)En un transmisor electrónico con una sensibilidad de ±1,5 mA/bar con un rango a la entrada de 0-120 bar y
rango de salida 20-4mA la presión cambia de 7 a 7,5 bar y la señal de salida al inicio es de 11 mA. ¿Cuál será
la lectura final de la salida ante este cambio en la entrada?