Informe, Instrumentacion
Informe, Instrumentacion
Informe, Instrumentacion
Sección: HIAC01/V-IAC-N3-P1-C1/V
I. Introducción.............................................................................................................................................................3
II. magnitudes discretas presentes en un proceso industrial de manufactura.………………………………………4
III. Características generales de los principios y métodos de medición, utilizados por los instrumentos
discretos para aplicaciones de control……………………………………………………………………………………………………..7
IV. Principios de funcionamiento y especificaciones técnicas de los instrumentos discretos…………….…12
V. Conclusiones…………………………………………………………………………………………………………………………………..19
En los inicios de la era industrial, el operario llevaba a cabo un control manual de las variables
utilizando sólo instrumentos simples, manómetros, termómetros, válvulas manuales, etc., control que
era suficiente por la relativa simplicidad de los procesos. Sin embargo, la gradual complejidad con que
éstos se han ido desarrollando ha exigido su automatización progresiva por medio de los instrumentos
de medición y control. Estos instrumentos han ido liberando al operario de su función de actuación física
directa en la planta y al mismo tiempo, le han permitido una labor única de supervisión y de vigilancia del
proceso desde centros de control situados en el propio proceso o bien en salas aisladas separadas;
asimismo, gracias a los instrumentos ha sido posible fabricar productos complejos en condiciones
estables de calidad y de características, condiciones que al operario le serían imposibles o muy difíciles
de conseguir, realizando exclusivamente un control manual.
A través de los años, el control ha sido un factor importante para el desarrollo de la tecnología,
siempre que se necesite ajustar una variable física a un valor específico, se está
realizando una acción de control.
Dentro del control, está la instrumentación antes mencionada, que es una estructura compleja, que
agrupa un conjunto de instrumentos, un dispositivo o sistema, en el que se miden, valores y conexiones
entre estos elementos y que se encargan de automatizar el proceso y de garantizar la repetibilidad de las
medidas.
La medición es, entonces, un acto de asignar un valor específico a una variable física. Dicha variable
física es la variable medida
El presente informe tiene por objetivo entender y explicar, algunos principios y métodos, que ayudan
en la medición de variables dentro de un proceso industrial manufacturero, en este caso.
Existen variados elementos dentro del sistema, podremos identificar las magnitudes que pueden ser
censadas, así como también establecer si esta medición es o no estable en el tiempo.
•Velocidad
•Longitud
•Cantidad de sustancia
•Intensidad eléctrica
•Temperatura
•Masa
•Humedad y punto de roció.
Etc.
Los procesos industriales a controlar deben mantenerse en general las variables, bien en un valor
deseado fijo, bien en un valor variable con el tiempo de acuerdo con una relación predeterminada, o
bien guardando una relación determinada con otra variable.
El sistema de control que permite este mantenimiento de las variables puede definirse como aquel que
compara el valor de la variable o condición a controlar con un valor deseado y toma una acción de
corrección de acuerdo con la desviación existente sin que el operario intervenga en absoluto. El sistema
de control exige pues, para que esta comparación y subsiguiente corrección sean posibles, que se incluya
una unidad de medida, una unidad de control, un elemento final de control
y el propio proceso.
Velocidad:
En los procesos industriales, la densidad es una variable cuya medida es vital a veces. Tal es el caso
de la determinación de la concentración de algunos productos químicos como el ácido sulfúrico,
la medida exacta del caudal en gases o vapores que viene incluida por la densidad, la medida de la
densidad en un producto final que garantiza las cantidades de los ingredientes que intervienen en
la mezcla, etc.
Viscosidad y consistencia:
La viscosidad y la consistencia son términos que se aplican a los fluidos y que representan la resistencia
que ofrecen al flujo, o a la deformación, cuando están sometidos a un esfuerzo cortante.
La viscosidad de un fluido, detenida por Newton, es la resistencia que ofrece el fluido al movimiento
entre dos placas paralelas separadas por una distancia unidad, una de ellas ja y la otra móvil que
se mueve con la unidad de velocidad. Esta resistencia se expresa como cociente entre el esfuerzo
cortante por unidad de área (F/A) y la velocidad cortante por unidad de espesor de la capa de fluido.
Una definición de calibración más completa sería: Proceso de comparación periódica entre uno o varios
instrumentos de exactitud no verificada, con un instrumento de medida patrón o un sistema de
exactitud
conocida, con el objeto de asegurar una exactitud especificada trazable según normas internacionales.
Entendemos pues por calibración, las operaciones a realizar en un instrumento para que sus
indicaciones vuelvan a estar dentro de los valores límite dados por el fabricante. Los procedimientos de
calibración pueden ser genéricos, por ejemplo, válidos para instrumentos de presión, sean manómetros,
transmisores de presión, etc., o específicos para un instrumento determinado de un fabricante. En este
último caso, será necesario seguir con detalle los procedimientos dados por el fabricante en su manual.
Temperatura:
La actividad de medir la temperatura consiste en cuantificar el calor de una sustancia homogénea, y por
lo tanto es una unidad de medida para la energía cinética media de sus moléculas. Para que dos objetos
adapten la misma temperatura se requiere un contacto térmico al objeto. Los métodos más habituales
de los medidores de temperatura están basados en variaciones de las propiedades de una sustancia
inducidas por las variaciones de temperatura.
Intensidad Eléctrica:
La corriente eléctrica es el flujo de carga eléctrica que recorre un material. Se debe al movimiento de las
cargas (normalmente electrones) en el interior del mismo. Al caudal de corriente (cantidad de carga por
unidad de tiempo) se lo denomina intensidad de corriente eléctrica. En el Sistema Internacional de
Unidades se expresa en C/s (culombios sobre segundo), unidad que se denomina amperio [A].
La corriente se usa en la mayoría de los transmisores industriales (transmisores 4-20 mA), además se usa
en la medición de resistencias y se mide corrientes para determinar el consumo de los distintos equipos
a nivel industrial.
Sensores de presión
Los sensores de presión o transductores de presión son elementos que transforman la magnitud
física de presión o fuerza por unidad de superficie en otra magnitud eléctrica que será la que
emplearemos en los equipos de automatización o adquisición estándar. Los rangos de medida son
muy amplios, desde unas milésimas de bar hasta los miles de bar. Para cubrir los diferentes rangos de
medida, precisión y protección, disponemos de una gran variedad de transductores de
presión, fabricados con diferentes tecnologías, que permiten cubrir todas sus necesidades. A
continuación encontrará un resumen de prácticamente todos los sensores de presión disponibles
en el mercado, agrupados según su formato y tipo de medida.2.1.1.Transductores de presión miniatura
La gama de transductores de presión miniatura y ultra miniatura ha sido diseñada con el fin de
conciliar tamaño pequeño y robustez. De tecnología piezorresistiva y fibra óptica, con membranas
de acero inoxidable. Resistente a líquidos y gases corrosivos. Disponible en versiones de alta
temperatura (hasta 600º C).
Manómetros digitales:
SENSING dispone de diferentes modelos de sensores de presión para altos rangos de presión,
muchos de ellos con rangos de hasta 2.000bar.También dispone de modelos especiales para la
medida de presión con alta temperatura como elTP8, que soporta hasta 150º c o los ATEK para
inyección de plástico de hasta 400ºc.
Movimiento es detectado por un transductor que convierte pequeños desplazamientos en señales
eléctricas analógicas, más tarde se pueden obtener salidas digitales acondicionando la
señal. Pueden efectuar medidas de presión absoluta (respecto a una referencia) y de presión relativa
o diferencial (midiendo diferencia de presión entre dos puntos) generalmente vienen con
visualizadores e indicadores de funcionamiento.
Este sensor puede estar montado en la unidad de control o en otro lugar del vano motor. Su
señal sirve para la corrección, en función de la altura, de los valores teóricos para los circuitos
reguladores (como ejemplo: retroalimentación de gases de escape egr, regulación de la presión de
sobrealimentación). Con ello se pueden tener en cuenta las diferencias de la densidad del aire del
entorno. El sensor de presión de entorno mide la presión absoluta (60...115 kpa o 0,6...1,15bar).
La presión máxima de trabajo (presión nominal) pmax: es de 160 mpa (1600 bares). La presión del
combustible es modulada en un circuito de regulación. Es casi constante e independiente de la
carga y de la velocidad de rotación. Las posibles desviaciones del valor teórico se compensan
mediante una válvula reguladora de presión.
Sensores de flujo:
Los sensores de flujo tienen la función específica de monitorear la velocidad de fluidos. Un sensor de
flujo es un dispositivo que, al ser instalado en una tubería, permite determinar si hay circulación de un
gas o un fluido, es decir, estos sensores nos indican la ausencia o presencia de flujo, pero no miden
el caudal. Sus aplicaciones típicas incluyen detección de flujo de aceite en sistemas hidráulicos, de
lubricación y cajas de engranajes; fluidos en sistemas de refrigeración y calefacción,
aplicaciones en bombas de transferencia y carga de combustible, y sistemas de agua potable y aguas
servidas o negras. En la técnica de instalación de equipos de flujo de procesos y operaciones para
medir el flujo o corriente de medios líquidos, el sensor de flujo es un elemento constituyente
ciertamente importante para la seguridad en el servicio y funcionamiento. Las aplicaciones
industriales requieren, en su mayoría, una medición de flujo, algunas veces dichas mediciones
deben ser muy exactas, tal como la medición del material que se está usando en el proceso o
manufactura en cuestión, de manera que se pueda determinar la cantidad del material en bruto. De ahí
la necesidad de contar con elementos de excelente calidad provistos por expertos en la materia,
evitando con ello retrasos y malos resultados en las labores de la industria.
Estos sensores están basados en la propagación de ondas de sonido en un fluido. Existen dos principios
básicos para esta medición: Tiempo de Tránsito y Efecto Doppler. En los caudalímetros por tiempo de
tránsito, la velocidad deflujo se determina por la diferencia entre la velocidad de propagación de una
onda de sonido a favor y otra en contra del flujo. Los elementos emisores y receptores pueden instalarse
por fuera de la tubería sostenidos por abrazaderas. El instrumento de efecto Doppler tiene un generador
de ultrasonido que emite ondas. Si en el seno del líquido existen partículas o burbujas de gas, estas
ondas chocan con ellas provocándose una reflexión de las ondas, un eco. Cuando esto ocurre el eco
devuelto tiene una frecuencia igual si el líquido está quieto o distinta que la enviada si está en
movimiento. Esta nueva frecuencia depende de la velocidad de la partícula productora del eco, por lo
que midiendo el corrimiento de frecuencia se puede determinar la velocidad del fluido y por lo tanto el
caudal instantáneo.
SENSORES DE TEMPERATURA:
La temperatura es una magnitud referida a las nociones comunes de caliente, tibio o frío que puede ser
medida con un termómetro. En física, se define como una magnitud escalar relacionada con la energía
interna de un sistema termodinámico, definida por el principio cero de la termodinámica. Más
específicamente, está relacionada directamente con la parte de la energía interna conocida como
«energía cinética», que es la energía asociada a los movimientos de las partículas del sistema, sea en un
sentido traslacional, rotacional, o en forma de vibraciones. A medida que sea mayor la energía cinética
de un sistema, se observa que éste se encuentra más «caliente»; es decir, que su temperatura es mayor.
Las limitaciones del sistema de medida quedan definidas en cada tipo de aplicaciones por la precisión,
por la velocidad de captación de la temperatura, por la distancia entre el elemento de medida y el
aparato receptor y por el tipo de instrumento indicador, registrador o controlador necesarios.
RTD:
Un RTD es un detector de temperatura resistivo, esto quiere decir que está basado en la variación de la
resistencia de un Sensor De Temperatura Tipo Rtd. Está compuesto por una aleación de metales como el
platino, cobre, níquel y molibdeno. Su funcionamiento es que al calentarse el metal habrá una mayor
agitación térmica, causando la dispersión de más electrones y reduciéndose su velocidad media,
TERMOCUPLAS/TERMOPARES:
Son sensores de temperatura eléctricos utilizados en la zona industrial. Para hacer funcionarla, se debe
hacer con dos alambres de distinto material unidos en un extremo, entonces al aplicar temperatura en la
unión de los metales se genera un voltaje muy pequeño (miliVolts) el cual va aumentando a la par con la
temperatura.
Son encapsulados, para protegerlos de las condiciones extremas.
Dependiendo de la distancia, se va dando una pequeña señal eléctrica de estos transductores.
Deben utilizarse cables compensados para que pueda transportar esta señal sin que la modifique.
TIPOS:
Tipo K: (Cromo/Aluminio) tiene una amplia variedad de aplicaciones, con un rango de temperatura de (-
200ºC a +1.200ºC) y una sensibilidad 41μV/°C aprox.
Tipo E: (Cromo/Constantán) No son magnéticos, son ideales para el uso en bajas temperaturas (Frío), y
una sensibilidad de 68 μV/°C aprox.
Tipo N: (Nicrosil / Nisil)Es adecuado para mediciones de alta temperatura, gracias a su estabilidad y
resistencia a la oxidación de altas temperaturas, y tiene una baja sensibilidad10 μV/°C aprox.
Tipo R: (Platino/Rodio) Son adecuados para altas temperaturas de hasta 1.600ºC. Aunque tiene una baja
sensibilidad 10 μV/°C aprox.
Tipo S: (Hierro/Constantán) Ideal para de altas temperaturas hasta los 1.600ºC, pero tiene una baja
sensibilidad 10 μV/°C. Tiene una elevada estabilidad.
Los termistores son sensores de temperatura, los cuales su funcionamiento se basa en la variación de la
resistividad que presenta un semiconductor con la temperatura. Existen dos tipos de termistor: -NTC
(Negative Temperature Coefficient)-PTC (Positive Temperature Coefficient). Estos dispositivos son
fabricados a partir de los óxidos de metálicos (manganeso, cobalto, cobre y níquel), ósea un
semiconductor que deja pasar parcialmente la corriente. El término proviene de (Thermally Sensitive
Resistor).Características.
Los termistores sufren de auto calentamiento, por lo que hay que ser cuidadosos en la tensión y
corriente que hacemos circular por el sensor para evitar falsos aumentos de temperatura.
Tienen amplio rango de medición, y bajo costo en el mercado.
No son lineales, lo que dificulta la obtención de datos y complicación al calibrar.
Los PTC son resistencias de coeficiente de temperatura positiva, constituidas por un cuerpo
semiconductor, cuyo coeficiente de temperatura es elevado, quiere decir que su conductividad crece
muy rápidamente con la temperatura. Los NTC son resistencias de coeficiente de temperatura negativo,
constituidas por un cuerpo semiconductor, cuyo coeficiente de temperatura es elevado, quiere decir que
su conductividad crece muy rápidamente con la temperatura.
Son utilizados para monitorear nivel de fluidos cerrándose o abriéndose cuando se alcanza un nivel
determinado, hay de diferentes tipos con mercurio sin mercurio también modelos con imán permanente
y reed switches. Las aplicaciones más comunes son control de sistemas de bombeo, bombas en
embarcaciones y sistemas de irrigación. Los medidores de nivel de líquidos trabajan midiendo, bien
directamente la altura de líquidos sobre una línea de referencia, bien la presión hidrostática, bien el
desplazamiento producido en el flotador por el propio liquido contenido en el tanque del proceso, o bien
aprovechando características eléctricas del líquido.
Flotador:
Consiste en un flotador situado en el seno del líquido y conectado al exterior del tanque indicado
directamente el nivel. La conexión puede ser directa, magnética o hidráulica. El flotador conectado
directamente está unido por un cable que desliza en un juego de poleas a un índice exterior que señala
sobre una escala graduada. En el modelo más antiguo y el más utilizado en tanques de gran capacidad
tales como los de fuel-oil y gas-oil tienen el inconveniente de que las partes movibles están expuestas al
fluido y pueden romperse y de que el tanque no puede estar sometido a presión. El flotador acoplado
magnéticamente desliza exteriormente a lo largo de un tubo guía sellado, situado verticalmente en el
interior del tanque. Dentro del tubo, una pieza magnética sigue al flotador en su movimiento y mediante
un cable y un juego de poleas arrastra el índice de un instrumento situado en la parte superior del
tanque. El instrumento puede además ser transmisor neumático o eléctrico. Una variante de la conexión
magnética consta de un tubo conteniendo un flotador, dotado de un imán que orienta una serie de
cintas magnéticas dispuestas en el exterior y a lo largo del tubo. El instrumento puede tener
interruptores de alarma y trasmisor incorporados.
Tipo burbujeo:
Emplea un tubo sumergido en el líquido cuyo a través se hace burbujear aire mediante un rotámetro con
un regulador de caudal incorporado. La presión del aire en la tubería equivale a la presión hidrostática
ejercida por la columna de líquido, es decir, al nivel. El regulador de caudal permite mantener un caudal
de aire constante a través del líquido independientemente del nivel (es normal un caudal de 150 NI/h); si
no existiera, habría una gran diferencia en los caudales de aire necesarios desde el nivel mínimo al
máximo, con el inconveniente de un gasto de aire indebido. La tubería empleada suele ser de ½” con el
extremo biselado para una fácil formación de las burbujas de aire.
Células de carga:
Las células de carga hidráulicas son dispositivos de equilibrio de fuerza que miden el peso como un
cambio en la presión del fluido de llenado interno. En una célula de carga hidráulica de tipo diafragma,
una carga o fuerza actúa sobre una cabeza de carga que se transfiere a un pistón el cual a su vez
comprime un fluido de llenado confinado dentro de una cámara de diafragma elastomérico. A medida
que aumenta la fuerza, la presión del fluido hidráulico se eleva. Esta presión puede ser indicada o
transmitida a nivel local para una indicación o control remoto. La salida es lineal y relativamente no
afectada por la cantidad del fluido de llenado o por su temperatura. Si las células de carga han sido
correctamente instaladas y calibradas, la precisión puede ser de 0,25% a escala completa o mejor, lo que
resulta aceptable para la mayoría de las aplicaciones de pesaje de proceso. Debido a que este sensor no
tiene componentes eléctricos, es ideal para uso en áreas peligrosas.
Un inconveniente es que el diafragma elastomérico limita la fuerza máxima que puede ser ejercida sobre
el pistón a aproximadamente 1,000 psig. Todas las células de carga de metal también están disponibles y
pueden adaptarse a presiones mucho más altas. Las células de carga de metal especiales han sido
construidas para detectar un peso de hasta 5000 toneladas.
Las aplicaciones típicas de células de carga hidráulicas incluyen el peso de tanques y recipientes. Para
una máxima precisión, el peso del tanque debe ser obtenido localizando una célula de carga en cada
punto de soporte, y sumando sus salidas. Como tres puntos definen un plano, el número ideal de puntos
de soporte es tres. Las salidas de las células pueden ser enviadas a un totalizador hidráulico que resume
las señales de las células de carga y genera una salida que representa la suma. Los totalizadores
electrónicos también pueden ser utilizados.
Las células de carga neumáticas también operan en el principio de equilibrio de fuerzas. Estos
dispositivos utilizan multiples cámaras amortiguadoras para proporcionar una mayor precisión que un
dispositivo hidráulico. En algunos diseños, la primera cámara del amortiguador se usa como una cámara
de tara. Las células de carga neumáticas se utilizan a menudo para medir pesos relativamente pequeños
en las industrias donde la limpieza y la seguridad son la principal preocupación.
Las ventajas de este tipo de Célula de carga incluyen su resistencia a explosiones y su insensibilidad a las
variaciones de temperatura inherentes. Además, no contienen líquidos que puedan contaminar el
proceso en el caso que la membrana se rompiera. Las desventajas incluyen la velocidad de respuesta
relativamente lenta y la necesidad de aire limpio, seco, regulado o de nitrógeno.
Las células de carga extensométricas convierten la carga que actúa sobre ellas en señales eléctricas. Los
propios medidores están unidos a una viga o elemento estructural que se deforma cuando se le aplica un
Medir magnitudes es algo que se hace a diario en los diversos sectores de las industrias. Temperatura,
humedad relativa, presión, masa, magnitudes eléctricas, longitud, son algunos parámetros cuya
exactitud debe chequearse constantemente por cuestiones de rendimiento y, sobre todo, de seguridad.
Pero, ¿cómo saber si estamos midiendo bien? ¿Cómo saber si, por ejemplo, la presión a la que se está
inyectando un fluido es la correcta y no mayor, lo que podría provocar un potencial accidente? La
respuesta es calibrar los instrumentos de medición en forma periódica.
La calibración periódica garantiza conocer el estado actual del instrumento, y determinar su deriva en el
tiempo. Hasta los instrumentos de la más alta calidad terminan desviándose con el tiempo y pierden su
capacidad de dar mediciones exactas y precisas. Por consiguiente, es fundamental calibrar todos los
instrumentos con la frecuencia adecuada.
Los cambios de temperatura, las malas condiciones de fabricación (por ejemplo, presencia de polvo y
suciedad en el ambiente) y el tiempo transcurrido son factores que contribuyen a la deriva. Incluso
diferentes instrumentos de un mismo fabricante pueden tener distintos rendimientos con el tiempo.
La calibración también garantiza que la calidad de un producto o lote se mantenga alta y estable en el
tiempo. Debido a esto, los sistemas de calidad exigen que se realicen calibraciones en forma sistemática
Las normas cGMP aplicables a las operaciones de fabricación de medicamentos, cosméticos, productos
médicos, entre otros, exigen el mantenimiento de toda documentación física, que contenga registros de
calibración, y la realización de calibraciones según procedimientos aprobados. Lo habitual es que cada
instrumento tenga un registro histórico maestro y un ID únicos. Todos los productos, procesos e
instrumentos de seguridad tienen que estar etiquetados físicamente. Además, hay que definir los
intervalos de tiempo entre calibraciones y las tolerancias de medición de cada instrumento. No obstante,
los patrones deberían ser trazables a las normas nacionales e internacionales.
A nivel industrial, la calibración de los instrumentos puede contribuir a optimizar el proceso productivo o
bien a aumentar la capacidad de producción.
La seguridad es otro motivo importante para calibrar instrumentos. Los entornos de producción son
zonas de riesgo potencial para los empleados, donde pueden llevarse a cabo operaciones a temperaturas
y presiones muy altas. Las mediciones incorrectas en una zona de riesgo podrían tener graves
consecuencias, sobre todo en los sectores de petróleo y gas, petroquímico y químico.
En la actualidad, el control de las emisiones es otro factor esencial para muchos fabricantes. La
calibración de los instrumentos puede contribuir a mejorar la eficiencia de la combustión en los hornos
industriales, motocompresores, calderas para generación de vapor, etc. Los últimos reglamentos
gubernamentales referentes a las emisiones de carbono también podrían exigir a las empresas que
calibren determinados instrumentos de una forma regular, como es el caso de los sensores que miden
las emisiones de CO2 y NOX.
Hay algunos errores con respecto a la calibración de instrumentos. Por ejemplo: “algunos fabricantes
defienden que no necesitan calibrar sus instrumentos con fieldbus porque son digitales”, y por ello
siempre precisos y correctos. Esta afirmación es incorrecta. La principal diferencia entre un transmisor
con fieldbus y otro convencional es la señal de salida: con fieldbus es totalmente digital. Aunque cambie
la señal de salida, la calibración periódica sigue siendo necesaria. A pesar de que los transmisores con
fieldbus, comparados con los analógicos, tienen una mayor exactitud de medición, eso no suprime la
necesidad de calibrarlos.
Otro error frecuente es que “no es necesario calibrar los instrumentos nuevos”. Esto tampoco es cierto.
El hecho de que un sensor sea nuevo no implica que funcione dentro de las especificaciones exigidas.
Cuando se calibra un instrumento antes de instalarlo, la empresa puede llevar un registro, basado en una
medición correcta, de la estabilidad o deriva del instrumento con el paso del tiempo en su base de datos
de calibración o software de gestión de calibraciones.
¿Cuándo Calibrar?:
La existencia de la deriva exige que se calibren todos los instrumentos a intervalos temporales fijos. La
frecuencia de la calibración depende de muchos factores. En primer lugar, el fabricante del instrumento
recomienda un intervalo de tiempo determinado entre calibraciones. Este intervalo puede reducirse si el
La forma más eficaz para decidir cuándo es necesario calibrar un instrumento es recurrir a algún tipo de
análisis de tendencia histórica. El intervalo óptimo entre calibraciones para distintos instrumentos sólo
puede determinarse con análisis de tendencia histórica basados en software. De esta forma, los sensores
que sean muy estables no se calibran con tanta frecuencia como los sensores más susceptibles a la
deriva.
¿Qué Puede Afectar la Condición de “Calibrado” de los Instrumentos?
Golpes
Mal uso
Sobrecarga
Ajustes
Condiciones ambientales del lugar donde se encuentra el instrumento de medición.
Instalación inapropiada
Los instrumentos de medición deben ser calibrados con laboratorios que proporcionen trazabilidad a
patrones nacionales y acreditados bajo la norma ISO/IEC-17025. La trazabilidad permite establecer
quién, con qué elemento y con qué método fué calibrado determinado instrumento de medición.
Se pueden realizar calibraciones internas siempre y cuando se cuente con patrones adecuados,
instalaciones adecuadas y personal capacitado para realizar esta actividad.
Si los instrumentos de medición no proporcionan medidas trazables y repetibles, no sirve de nada tener
las mejores instalaciones, los mejores equipos y el mejor personal. Es necesario realizar una calibración
acreditada por un organismo nacional que demuestre la competencia técnica del establecimiento.
Los términos descritos posteriormente podrán ser una guía para identificar las características de los
instrumentos de control de procesos que se estén empleando. Los valores correspondientes a estos
términos, típicamente se encuentran en las hojas de datos, en la sección de especificaciones del mismo.
Exactitud: es la relación entre el error y la señal de salida en toda la escala, o bien es la relación entre el
error y la salida, expresado en porcentaje de la escala o bien porcentaje de la lectura.
Tolerancia: es la desviación permitida con relación a un valor especificado y puede expresarse en las
unidades de la medida, en el porcentaje del intervalo de medida o en el porcentaje de la lectura. Por
ejemplo, un transmisor electrónico de presión de 0 – 100 bar (0 - 10.000 kPa) con señal de salida de 4 –
20 mA c.c., tiene una tolerancia de calibración especificada de 0,5 bar (50 kPa).
La tolerancia de salida será: 0,5 bar * (20 – 4) mA= 0,08 mA 100 bar Por tanto, la tolerancia será 0,5 bar
o 0,08 mA que deberán incluirse en la hoja de calibración. Por otro lado, la exactitud del instrumento
dada por el fabricante es de 0,25% de toda la escala, es decir, 0,25 * 100 bar = 0,25 bar (25 kPa). En
este ejemplo, mientras la exactitud es de 0,25 bar (25 kPa), la tolerancia es de 0,5 bar (50 kPa) o 0,08
mA. Lógicamente, la tolerancia vendrá dada por el proceso, por la capacidad del equipo de calibración,
por la consistencia o comparación con los demás instrumentos del proceso y por la tolerancia
especificada por el fabricante. La tolerancia debe estar entre los requerimientos del proceso y la
tolerancia especificada por el fabricante. En el ejemplo anterior podría ser un valor comprendido entre
0,25 bar (25 kPa) y 0,5 bar (50 kPa). Uno de los motivos por los cuales la tolerancia es mayor que la
exactitud es porque la presión del proceso puede ser una variable crítica para cumplir con la norma de
calidad ISO9000:2000, pero el técnico de proceso considera que es suficiente asegurar que la presión se
encuentre dentro del intervalo 0,5 bar (50 kPa), con relación al valor de lectura o de señal de salida del
instrumento transmisor electrónico de presión. Además, el equipo de calibración debe ser capaz de
trabajar con la tolerancia especificada. Podría ser, por ejemplo, 0,3 bar (30 kPa) para ser consistente con
los demás instrumentos de presión de la planta y además cumplir con la regla 4:1 de relación entre la
exactitud del aparato patrón y la del instrumento a calibrar. En este caso la exactitud del patrón debería
ser de 0,3/4 = 0,075 bar (30/4 = 7,5 kPa), GENERALIDADES 34 con lo que el instrumento patrón sería 4
veces más exacto que el instrumento que se calibra y es menos probable que la calibración tenga errores
inaceptables. La calibración debe ser trazable, es decir, debe poder relacionarse con las normas
adecuadas, nacionales o internacionales, a través de una cadena continua de comparaciones (ANSI/NCSL
Z540-1-1994). La trazabilidad queda asegurada si los equipos que una empresa utiliza en las operaciones
de calibración de sus instrumentos son calibrados en forma rutinaria por equipos de referencia
normalizados de alto nivel. Lo que hace la empresa es enviar periódicamente sus equipos de calibración
a un laboratorio de calibración acreditado que dispone de un equipo de ensayo mucho más preciso, y a
su vez, los equipos de este laboratorio son calibrados por los Equipos Primarios Estándar mantenidos por
los Institutos Tecnológicos de Normalización (ENAC -Entidad Nacional de Acreditación-, NIST -Nacional
Institute for Standard and Technology) que evalúan la competencia técnica de los organismos de
Finalmente,
El rango o alcance, está definido como el conjunto de valores de la variable medida que están
comprendidos dentro de los límites superior e inferior de la capacidad de medida del instrumento. Este
valor se encuentra expresado estableciendo los dos valores extremos LRV y URV.
El valor mínimo de la variable medida que un dispositivo está ajustado para medir.
El valor máximo de la variable medida que un dispositivo está ajustado para medir.
SPAN
El span se define como la diferencia algebraica entre el límite superior URV y el límite inferior LRV del
instrumento.
ERROR
El error es la diferencia algebraica entre el valor medido o transmitido por el instrumento y el valor real
de la variable medida por un instrumento patrón. El error normalmente se indica como un porcentaje,
conocido como error relativo y esta dado por la siguiente relación:
Los errores más frecuentes en un instrumento de medición son el error de cero y el error de span.
La repetibilidad es la capacidad de reproducir las posiciones del instrumento (pluma, índice o señal de
salida) al medir repetidamente valores idénticos de la variable operacional en las mismas condiciones de
servicio y en el mismo sentido de variación, recorriendo todo el campo.
RESOLUCION
EXACTITUD
PRECISION
INCERTIDUMBRE EN LA MEDIDA
La incertidumbre en la medida es la distribución estadística de los resultados que pueden ser atribuidos
razonablemente al verdadero valor de la magnitud medida.
La zona muerta es el campo de valores de la variable operacional que no hace variar la indicación o la
señal de salida del instrumento; es decir, ante cambios de la magnitud de la variable operacional el
instrumento no produce respuestas. Viene dado en tanto % del alcance de la medida.
HISTERESIS
La histéresis es la diferencia máxima que se observa en los valores indicados por el instrumento para el
mismo valor cualquiera del campo de medida, cuando la medición de la variable recorre toda la escala
en los dos sentidos, ascendente y descendente.
Este valor se expresa en tanto porciento del alcance (Span) de la medida. Lo antes descrito se muestra en
la Figura:
LINEALIDAD
RANGEABILIDAD
Se define como la relación del máximo al mínimo valor en el que el instrumento tiene una actuación
aceptable de acuerdo a su exactitud y se hace presente generalmente en instrumentos cuyo
funcionamiento es a través de elementos mecánicos, como es el caso de los medidores de flujo y
válvulas de control, ver figura.
TIEMPO DE RESPUESTA
Debido a fenómenos de equilibrio, transporte, entre otros, la medición de cualquier variable de proceso
puede implicar una demora que debe ser definida adecuadamente.
Si la medición tiene una cinética más lenta que la de la propia variable, habrá que disponer de sistemas
complejos de predicción del valor en lugar de descansar sólo sobre la medición instrumental.
Los tiempos de respuesta se definen en base al tiempo necesario para obtener una medida que
corresponda al 96% (o cualquier otro porcentaje) del valor final.
Gestión de mantenimiento
La instrumentación moderna ofrece información de estado y diagnóstico, pero procesar todos estos
datos suele ser un problema. Además, el sistema de control se cargaría con datos irrelevantes para su
tarea primaria, esto es control de proceso en tiempo real.
Los programas de gestión de instrumentos realizan varias funciones para los departamentos de
mantenimiento:
Si bien un fabricante de instrumentos puede proveer información para sus propios instrumentos, ¿qué
hay acerca de los demás instrumentos de otros fabricantes en una planta? Afortu nadamente, la
estandarización en la industria de instrumentación hace posible disponer de esa información.
Hoy en día se dispone de archivos DD (Device Description), EDDL (Enhanced Device Description
Lenguaje), DTM (Device Type Manager) y configuraciones HART y fieldbus Foundation de todos los
fabricantes, que se pueden acceder desde distintos websites y luego cargarlos en el programa de gestión
de instrumentos.
Gestión de activos
Cuando una planta tiene miles de instrumentos, hacer un seguimiento de manuales, listas de partes,
reportes de auditoría, programas de mantenimiento y demás información puede convertirse en una
pesadilla. Un programa de gestión de activos de mantenimiento recopila toda esta información, la
digitaliza y la pone a disposición de los técnicos de mantenimiento por medio de dispositivos portátiles.
Esta información puede ser guardada en el sitio o en la nube, donde se la accede desde una estación de
trabajo o un dispositivo portátil.
Una de las mejores maneras de abordar este problema es implementar un programa de gestión de
mantenimiento, normalmente con la ayuda de un proveedor importante de instrumentos. La mayoría de
estos proveedores pueden ir a una planta de proceso, realizar una evaluación de la base instalada de
instrumentación y ofrecer recomendaciones de gestión acerca de lo que hace falta para mejorar una
determinada situación.
Inventario de instrumentos – Rastrea y lista todos los dispositivos del sitio para una futura
transparencia, sin importar el fabricante.
Evaluar la criticidad y mantenibilidad de los dispositivos – Define y clasifica puntos críticos de medición
y su mantenibilidad para garantizar que las tareas de mantenimiento puedan realizarse de manera fácil y
efectiva.
Recomendar una estrategia adecuada de mantenimiento – Evalúa las actividades actuales de
mantenimiento y recomienda mejoras para llegar a un programa de mantenimiento balanceado.
Identificar equipos obsoletos – Incluye un plan de migración para modernizar la planta,
Reducir la complejidad – Incluye recomendaciones para estandarizar la instrumentación y minimizar
los repuestos.
Una vez finalizada la evaluación, el proveedor de instrumentos podrá elaborar recomendaciones con
información clave para la toma de decisiones relevantes respecto de mejoras en mantenimiento y
calidad, obsolescencia y gestión de repuestos para los respectivos activos de la base instalada.
Sumario
En las plantas de proceso, la instrumentación moderna y las estrategias afines de mantenimiento tienen
una importancia decisiva a la hora de realizar el mantenimiento preventivo, eliminar paradas de proceso
a causa de instrumentos que fallan y ahorrar tiempo y dinero evitando actividades de mantenimiento
innecesarias.
La implementación de un sistema de gestión de instrumentación puede ser una tarea abrumadora, pero
se puede recurrir a los proveedores de instrumentos para recibir asistencia en caso de necesidad.
En los últimos años, el mundo de la instrumentación y del control de procesos ha entrado en una era
de cambio total, en la cual los aparatos de medición, trasmisión y automatización se hacen cada vez más
rápidos, exactos y durables. Así, la inteligencia industrial disfruta, además, de la transmisión inalámbrica
en tiempo real y puede utilizar las informaciones comparadas con grandes bancos de datos y estándares
internacionales para tomar las mejores decisiones en la búsqueda por los mejores resultados. Es más, los
avances tecnológicos de los dispositivos, equipamientos y sistemas de medición y control de procesos
industriales exigen a los ejecutivos del sector productivo la actualización de sus ambientes de
manufacturas. La importancia que tiene el control sobre los procesos de fabricación es tal, que existe
una ingeniería dirigida explícitamente a este tema, se denomina ingeniería de control. Estos
profesionales se encargan de la investigación, el diseño y la gestión del desarrollo de los equipamientos
utilizados para monitorear y controlar sistemas y maquinaria, trabajando en sistemas donde la precisión
es vital.
Estos sistemas recogen todo tipo de variables que permiten al operario conocer el estado del proceso,
sin ellas este no sería capaz de ver lo que ocurre en todo momento dentro de cualquier maquina
implicada en la fabricación, influyendo en la calidad del producto final de forma negativa. Sin embargo a
día de hoy estos sistemas no son capaces de recoger tantas variables como a la empresa le gustaría, por
ese motivo se sigue investigando y desarrollando nuevos sistemas cada vez más completos y robustos,
usando nuevas tecnologías emergentes.
Antes de finalizar este informe es necesario señalar que los sistemas de control industrial son una de las
partes más importantes, si no la más importante dentro de la industria. Estos permiten a los operarios
tener datos exactos y fiables en tiempo real del estado del proceso de fabricación, consiguiendo de esta
manera evitar problemas de gran calibre que supondrían una gran pérdida de capital para la empresa.
Pero como todo, estos sistemas no son perfectos, por ese motivo existen profesionales que se dedican a
mejorarlos y actualizarlos, con el fin de supervisar el proceso en la mayor medida posible. Siempre
surgen nuevas variables que se pueden parametrizar y que tienen una importancia dentro del proceso.
http://www.sapiensman.com/control_automatico/control_automatico10.htm
https://www.ingmecafenix.com/electricidad-industrial/transmisores-industriales/
nstrumentacionindustrialmaxima.blogspot.com