Informe, Instrumentacion

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 29

Informe Actividad 5

Instrumentos de medida de variable discreta

Asignatura: Instrumentación Industrial.

Sección: HIAC01/V-IAC-N3-P1-C1/V

Nombre del docente: Manuel Pérez Aros

Nombre: Patricio Inostroza Peralta

Fecha de entrega: 07/ 05/ 2021


Contenido

I. Introducción.............................................................................................................................................................3
II. magnitudes discretas presentes en un proceso industrial de manufactura.………………………………………4
III. Características generales de los principios y métodos de medición, utilizados por los instrumentos
discretos para aplicaciones de control……………………………………………………………………………………………………..7
IV. Principios de funcionamiento y especificaciones técnicas de los instrumentos discretos…………….…12
V. Conclusiones…………………………………………………………………………………………………………………………………..19

VI. Referencias bibliográficas.......................................................................................................................................20

Nombre del informe


2
I Introducción

En los inicios de la era industrial, el operario llevaba a cabo un control manual de las variables
utilizando sólo instrumentos simples, manómetros, termómetros, válvulas manuales, etc., control que
era suficiente por la relativa simplicidad de los procesos. Sin embargo, la gradual complejidad con que
éstos se han ido desarrollando ha exigido su automatización progresiva por medio de los instrumentos
de medición y control. Estos instrumentos han ido liberando al operario de su función de actuación física
directa en la planta y al mismo tiempo, le han permitido una labor única de supervisión y de vigilancia del
proceso desde centros de control situados en el propio proceso o bien en salas aisladas separadas;
asimismo, gracias a los instrumentos ha sido posible fabricar productos complejos en condiciones
estables de calidad y de características, condiciones que al operario le serían imposibles o muy difíciles
de conseguir, realizando exclusivamente un control manual.
A través de los años, el control ha sido un factor importante para el desarrollo de la tecnología,
siempre que se necesite ajustar una variable física a un valor específico, se está
realizando una acción de control.
Dentro del control, está la instrumentación antes mencionada, que es una estructura compleja, que
agrupa un conjunto de instrumentos, un dispositivo o sistema, en el que se miden, valores y conexiones
entre estos elementos y que se encargan de automatizar el proceso y de garantizar la repetibilidad de las
medidas.
La medición es, entonces, un acto de asignar un valor específico a una variable física. Dicha variable
física es la variable medida

El presente informe tiene por objetivo entender y explicar, algunos principios y métodos, que ayudan
en la medición de variables dentro de un proceso industrial manufacturero, en este caso.
Existen variados elementos dentro del sistema, podremos identificar las magnitudes que pueden ser
censadas, así como también establecer si esta medición es o no estable en el tiempo.

Nombre del informe


3
II. Magnitudes discretas presentes en un proceso industrial de manufactura.

En todos los procesos industriales es absolutamente necesario controlar y mantener constantes


algunas magnitudes, los instrumentos de medición y control permiten el mantenimiento y la regulación
de estas constantes en condiciones más idóneas que las que el propio operador podría realizar.
Esto se obtiene gracias a la metrología, y con ella la exactitud en la calificación, verificación y validación
en las mediciones está garantizada. Esta fiabilidad es la que te ayudará a calificar una pieza con confianza
y precisión. Para ello, deberás utilizar unidades de medida correctas y equipos específicos dependiendo
del caso. Piensa que cualquier actividad que imagines habrá pasado por un proceso de medición, como
los productos alimenticios, la velocidad de los coches, los niveles de emisión de contaminación o la
electricidad que has consumido. Actualmente, esta ciencia abarca tanto la parte teórica como los
aspectos experimentales en la obtención de medidas. Por supuesto, este proceso se rige de acuerdo a las
normas nacionales y/o industriales y, desde tiempos antiguos, se utiliza en casi cualquier sector
industrial.
La metrología industrial está basada en la calidad y calibración exacta de cualquier componente
industrial que forma parte del proceso de fabricación de una pieza. Según estadísticas, las empresas que
tienen una deficiencia en el sistema de metrología obtienen entre un 60 % y un 80 % de fallos. Por ello,
es recomendamos utilizar este procedimiento industrial para adquirir beneficios.
Las metrologías industriales operan en diferentes campos técnicos de aplicación, dependiendo del tipo
de industria. Normalmente, las magnitudes discretas que más se utilizan son:

•Velocidad
•Longitud
•Cantidad de sustancia
•Intensidad eléctrica
•Temperatura
•Masa
•Humedad y punto de roció.
Etc.

Los procesos industriales a controlar deben mantenerse en general las variables, bien en un valor
deseado fijo, bien en un valor variable con el tiempo de acuerdo con una relación predeterminada, o
bien guardando una relación determinada con otra variable.
El sistema de control que permite este mantenimiento de las variables puede definirse como aquel que
compara el valor de la variable o condición a controlar con un valor deseado y toma una acción de
corrección de acuerdo con la desviación existente sin que el operario intervenga en absoluto. El sistema
de control exige pues, para que esta comparación y subsiguiente corrección sean posibles, que se incluya
una unidad de medida, una unidad de control, un elemento final de control
y el propio proceso.

Descripción de algunas magnitudes que mas se emplean en la industria:

Nombre del informe


4
Peso:

En la industria interesa determinar el peso de las sustancias en las operaciones de inventario de


materias primas, de productos finales, en la mezcla de ingredientes, etc.
Existen varios métodos para medir el peso:
1. Comparación con otros pesos patrones (balanzas y básculas).
2. Células de carga a base de galgas extensométricas.
3. Células de carga hidráulicas.
4. Células de carga neumáticas.
La comparación con otros pesos patrones la realizan las balanzas y las básculas.

Velocidad:

En la industria, la medición de la velocidad se efectúa de dos formas: con tacómetros mecánicos y


con tacómetros eléctricos. Los primeros detectan el número de vueltas del eje de la máquina por
medios exclusivamente mecánicos, pudiendo incorporar o no la medición conjunta del tiempo para
determinar el número de revoluciones por minuto (r.p.m.), mientras que los segundos captan la
velocidad por sistemas eléctricos.

Densidad y peso específico:

En los procesos industriales, la densidad es una variable cuya medida es vital a veces. Tal es el caso
de la determinación de la concentración de algunos productos químicos como el ácido sulfúrico,
la medida exacta del caudal en gases o vapores que viene incluida por la densidad, la medida de la
densidad en un producto final que garantiza las cantidades de los ingredientes que intervienen en
la mezcla, etc.

Humedad y punto de rocío:

Las variables humedad y punto de rocío son de extraordinaria importancia en la industria y se


utilizan en el acondicionamiento de aire, en atmósferas protectoras empleadas en tratamientos
térmicos, en secadores, en humidificadores, en la industria textil, en la conservación de libras, etc.
En aire o en los gases, se usan varios términos al hablar de humedad o punto de rocío:
Humedad absoluta. Cantidad de agua, en kg, por kg de aire seco.
Porcentaje de humedad. Cociente multiplicado por 100 entre la cantidad, en kg, del vapor de agua
contenido en 1 kg de aire seco y la cantidad, en kg, de vapor de agua contenida en 1 kg de aire seco,
si el aire está en condiciones de saturación.
Humedad relativa. Es el cociente entre la presión parcial del vapor de agua a una temperatura to y la
presión total del vapor a saturación y a la misma temperatura to. Equivale al porcentaje de humedad.
Temperatura seca. Temperatura del aire medida con un termómetro con el bulbo seco, es decir, en
contacto directo con la atmósfera.
Temperatura húmeda. Es la temperatura de equilibrio dinámico alcanzado por una superficie húmeda
cuando se la expone al aire. Puede medirse con termómetro cuyo bulbo está en ambiente
de saturación, lo que se consigue envolviéndolo con un paño que se mantiene húmedo continuamente
(bulbo húmedo).
Punto de rocío. Es la temperatura límite a la que el vapor de agua, existente en el aire o en el gas, se

Nombre del informe


5
condensa pasando al estado líquido.
En los sólidos, la humedad puede venir expresada de varias formas:
Contenido de humedad. Expresado en tanto por ciento, es la cantidad de agua existente en las
sustancias sólidas por unidad de peso o de volumen del sólido seco o húmedo. El término se aplica,
con preferencia, en relación al sólido seco, es decir, viene expresado en base seca.
Contenido de humedad comercial. Contenido de humedad, expresado en kilogramos de agua por
kilogramo del material, al salir éste del proceso de secado.

Viscosidad y consistencia:

La viscosidad y la consistencia son términos que se aplican a los fluidos y que representan la resistencia
que ofrecen al flujo, o a la deformación, cuando están sometidos a un esfuerzo cortante.
La viscosidad de un fluido, detenida por Newton, es la resistencia que ofrece el fluido al movimiento
entre dos placas paralelas separadas por una distancia unidad, una de ellas ja y la otra móvil que
se mueve con la unidad de velocidad. Esta resistencia se expresa como cociente entre el esfuerzo
cortante por unidad de área (F/A) y la velocidad cortante por unidad de espesor de la capa de fluido.

Intensidad de radiación solar:

La intensidad de radiación solar tiene un interés particular en el tratamiento de aguas y en la


determinación del rendimiento de los paneles solares. La radiación solar global (directa + difusa) se mide
con un instrumento llamado piranómetro. Consiste en un detector provisto de placas blancas y negras
que reflejan y absorben, respectivamente, la energía solar radiada. Una termopila de termopares de
cobre-constantán recoge, en forma de corriente continua, la energía recibida por período de tiempo. La
señal enviada es nominalmente del
orden de 10 mV/caloría/cm2/minuto, el campo de medida está entre 0-3 calorías/cm2/minuto y la
linealidad es del ± 1%.

Dentro de la metrología se sitúa la calibración. Calibración es simplemente el procedimiento de


comparación entre lo que indica un instrumento y lo que “debiera indicar” de acuerdo con un patrón de
referencia con valor conocido. Por ejemplo: valor de referencia de un manómetro patrón = 0,5 bar. Valor
indicado del instrumento = 0,495 bar. Si la diferencia 0,5 – 0,495 = 0,005 bar se encuentra dentro de la
exactitud del instrumento (escala 0 – 10 bar y exactitud 􀀖 0,5%, lo que da 􀀖 0,05 bar), no es necesario
realizar ninguna operación de calibración. Ahora bien, si el valor indicado hubiera sido, por ejemplo,
0,41, la diferencia sería de 0,5 – 0,41 = 0,09, que ya es mayor que el valor límite de 0,05 bar dado por el
fabricante del instrumento, y sería necesario calibrar dicho instrumento. Se entiende que la comparación
se haría en varios puntos de la escala.

Una definición de calibración más completa sería: Proceso de comparación periódica entre uno o varios
instrumentos de exactitud no verificada, con un instrumento de medida patrón o un sistema de
exactitud
conocida, con el objeto de asegurar una exactitud especificada trazable según normas internacionales.
Entendemos pues por calibración, las operaciones a realizar en un instrumento para que sus
indicaciones vuelvan a estar dentro de los valores límite dados por el fabricante. Los procedimientos de
calibración pueden ser genéricos, por ejemplo, válidos para instrumentos de presión, sean manómetros,
transmisores de presión, etc., o específicos para un instrumento determinado de un fabricante. En este
último caso, será necesario seguir con detalle los procedimientos dados por el fabricante en su manual.

Nombre del informe


6
Por otro lado, los procedimientos de calibración que se van a dar en el libro no corresponderán
necesariamente a los específicos seguidos por los laboratorios, aunque pueden ser semejantes. Los
resultados de la calibración son informados en un documento llamado Certificado de calibración.
Algunos instrumentistas veteranos de la vieja escuela no creen en la necesidad de los certificados de
calibración, con el argumento de que
siempre han calibrado los instrumentos sin papeleo. La respuesta es que hoy en día la calibración debe
ser documentada. Todo el mundo está prácticamente dentro de las normas de calidad ISO y todos los
clientes quieren asegurarse de la calidad de los productos fabricados con base en los instrumentos de
proceso. Por otro lado, si no se procede de este modo, es seguro que tarde o temprano la empresa
desaparecerá, ya
que sus clientes la abandonarán si no cumple las normas de calidad.
La calibración periódica de los instrumentos de una planta de proceso asegura el aumento del
rendimiento de la fabricación gracias a la reducción del número de rechazos del producto fabricado.
Cuando se calibra un instrumento esto debe hacerse con una tolerancia especificada. Ahora bien, debe
diferenciarse entre exactitud y tolerancia.

Temperatura:

La actividad de medir la temperatura consiste en cuantificar el calor de una sustancia homogénea, y por
lo tanto es una unidad de medida para la energía cinética media de sus moléculas. Para que dos objetos
adapten la misma temperatura se requiere un contacto térmico al objeto. Los métodos más habituales
de los medidores de temperatura están basados en variaciones de las propiedades de una sustancia
inducidas por las variaciones de temperatura.

Intensidad Eléctrica:

La corriente eléctrica es el flujo de carga eléctrica que recorre un material. Se debe al movimiento de las
cargas (normalmente electrones) en el interior del mismo. Al caudal de corriente (cantidad de carga por
unidad de tiempo) se lo denomina intensidad de corriente eléctrica. En el Sistema Internacional de
Unidades se expresa en C/s (culombios sobre segundo), unidad que se denomina amperio [A].
La corriente se usa en la mayoría de los transmisores industriales (transmisores 4-20 mA), además se usa
en la medición de resistencias y se mide corrientes para determinar el consumo de los distintos equipos
a nivel industrial.

Nombre del informe


7
III. Principios de funcionamiento y especificaciones técnicas, utilizados por los instrumentos
discretos de procesos industriales.

Sensores de presión

Los sensores de presión o transductores de presión son elementos que transforman la magnitud
física de presión o fuerza por unidad de superficie en otra magnitud eléctrica que será la que
emplearemos en los equipos de automatización o adquisición estándar. Los rangos de medida son
muy amplios, desde unas milésimas de bar hasta los miles de bar. Para cubrir los diferentes rangos de
medida, precisión y protección, disponemos de una gran variedad de transductores de
presión, fabricados con diferentes tecnologías, que permiten cubrir todas sus necesidades. A
continuación encontrará un resumen de prácticamente todos los sensores de presión disponibles
en el mercado, agrupados según su formato y tipo de medida.2.1.1.Transductores de presión miniatura
La gama de transductores de presión miniatura y ultra miniatura ha sido diseñada con el fin de
conciliar tamaño pequeño y robustez. De tecnología piezorresistiva y fibra óptica, con membranas
de acero inoxidable. Resistente a líquidos y gases corrosivos. Disponible en versiones de alta
temperatura (hasta 600º C).

Manómetros digitales:

Nombre del informe


8
Los manómetros digitales de AEP son la solución ideal cuando se busca un transductor de presión
y un visualizador sin cables, ya que al unir el sensor y el visualizador en un solo bloque
alimentado por baterías internas, permiten instalarse en cualquier punto donde se precise medir
presión con unas buenas prestaciones.

Presión de altos rangos y temperaturas:

SENSING dispone de diferentes modelos de sensores de presión para altos rangos de presión,
muchos de ellos con rangos de hasta 2.000bar.También dispone de modelos especiales para la
medida de presión con alta temperatura como elTP8, que soporta hasta 150º c o los ATEK para
inyección de plástico de hasta 400ºc.
Movimiento es detectado por un transductor que convierte pequeños desplazamientos en señales
eléctricas analógicas, más tarde se pueden obtener salidas digitales acondicionando la
señal. Pueden efectuar medidas de presión absoluta (respecto a una referencia) y de presión relativa
o diferencial (midiendo diferencia de presión entre dos puntos) generalmente vienen con
visualizadores e indicadores de funcionamiento.

Nombre del informe


9
Sensores de presión micro mecánicos:

El sensor de presión de alimentación está montado por lo general directamente en el tubo de


admisión. Mide la presión absoluta en el tubo de admisión (2... 400 kpa o 0,02...4,0 bar), o sea que
mide la presión contra un vacío de referencia y no contra la presión del entorno. De este modo es
posible determinar la masa de aire con toda exactitud y regular el compresor de acuerdo con las
necesidades del motor. Si el sensor no está montado directamente en el tubo de admisión,
este se hace comunicar neumáticamente con el tubo de admisión mediante una tubería flexible.

Sensor de presión atmosférica (adf):

Este sensor puede estar montado en la unidad de control o en otro lugar del vano motor. Su
señal sirve para la corrección, en función de la altura, de los valores teóricos para los circuitos
reguladores (como ejemplo: retroalimentación de gases de escape egr, regulación de la presión de
sobrealimentación). Con ello se pueden tener en cuenta las diferencias de la densidad del aire del
entorno. El sensor de presión de entorno mide la presión absoluta (60...115 kpa o 0,6...1,15bar).

Sensor de presión del aceite y combustible:


Los sensores de presión de aceite están montados en el filtro de aceite y miden la presión absoluta del
aceite para que se pueda averiguar la carga del motor para la indicación de servicio. Su margen de
presiones se sitúa en 50...1000 kpa o 0,5...10,00 bar.

Nombre del informe


10
Sensores de alta presión:
Los sensores de alta presión se emplean en el automóvil para medir la presión del combustible y del
líquido de freno:Sensor de presión "rail" diésel este sensor mide la presión del combustible en el
tubo distribuidor (rail) del sistema de inyección diésel "common rail".

La presión máxima de trabajo (presión nominal) pmax: es de 160 mpa (1600 bares). La presión del
combustible es modulada en un circuito de regulación. Es casi constante e independiente de la
carga y de la velocidad de rotación. Las posibles desviaciones del valor teórico se compensan
mediante una válvula reguladora de presión.

Sensores de flujo:
Los sensores de flujo tienen la función específica de monitorear la velocidad de fluidos. Un sensor de
flujo es un dispositivo que, al ser instalado en una tubería, permite determinar si hay circulación de un
gas o un fluido, es decir, estos sensores nos indican la ausencia o presencia de flujo, pero no miden
el caudal. Sus aplicaciones típicas incluyen detección de flujo de aceite en sistemas hidráulicos, de
lubricación y cajas de engranajes; fluidos en sistemas de refrigeración y calefacción,
aplicaciones en bombas de transferencia y carga de combustible, y sistemas de agua potable y aguas
servidas o negras. En la técnica de instalación de equipos de flujo de procesos y operaciones para
medir el flujo o corriente de medios líquidos, el sensor de flujo es un elemento constituyente
ciertamente importante para la seguridad en el servicio y funcionamiento. Las aplicaciones
industriales requieren, en su mayoría, una medición de flujo, algunas veces dichas mediciones
deben ser muy exactas, tal como la medición del material que se está usando en el proceso o
manufactura en cuestión, de manera que se pueda determinar la cantidad del material en bruto. De ahí
la necesidad de contar con elementos de excelente calidad provistos por expertos en la materia,
evitando con ello retrasos y malos resultados en las labores de la industria.

Nombre del informe


11
Ultrasónicos:

Estos sensores están basados en la propagación de ondas de sonido en un fluido. Existen dos principios
básicos para esta medición: Tiempo de Tránsito y Efecto Doppler. En los caudalímetros por tiempo de
tránsito, la velocidad deflujo se determina por la diferencia entre la velocidad de propagación de una
onda de sonido a favor y otra en contra del flujo. Los elementos emisores y receptores pueden instalarse
por fuera de la tubería sostenidos por abrazaderas. El instrumento de efecto Doppler tiene un generador
de ultrasonido que emite ondas. Si en el seno del líquido existen partículas o burbujas de gas, estas
ondas chocan con ellas provocándose una reflexión de las ondas, un eco. Cuando esto ocurre el eco
devuelto tiene una frecuencia igual si el líquido está quieto o distinta que la enviada si está en
movimiento. Esta nueva frecuencia depende de la velocidad de la partícula productora del eco, por lo
que midiendo el corrimiento de frecuencia se puede determinar la velocidad del fluido y por lo tanto el
caudal instantáneo.

SENSORES DE TEMPERATURA:

La temperatura es una magnitud referida a las nociones comunes de caliente, tibio o frío que puede ser
medida con un termómetro. En física, se define como una magnitud escalar relacionada con la energía
interna de un sistema termodinámico, definida por el principio cero de la termodinámica. Más
específicamente, está relacionada directamente con la parte de la energía interna conocida como
«energía cinética», que es la energía asociada a los movimientos de las partículas del sistema, sea en un
sentido traslacional, rotacional, o en forma de vibraciones. A medida que sea mayor la energía cinética
de un sistema, se observa que éste se encuentra más «caliente»; es decir, que su temperatura es mayor.
Las limitaciones del sistema de medida quedan definidas en cada tipo de aplicaciones por la precisión,
por la velocidad de captación de la temperatura, por la distancia entre el elemento de medida y el
aparato receptor y por el tipo de instrumento indicador, registrador o controlador necesarios.

RTD:

Un RTD es un detector de temperatura resistivo, esto quiere decir que está basado en la variación de la
resistencia de un Sensor De Temperatura Tipo Rtd. Está compuesto por una aleación de metales como el
platino, cobre, níquel y molibdeno. Su funcionamiento es que al calentarse el metal habrá una mayor
agitación térmica, causando la dispersión de más electrones y reduciéndose su velocidad media,

Nombre del informe


12
aumentando así la resistencia. Esto quiere decir que, a mayor temperatura, mayor agitación, entonces
mayor resistencia.

TERMOCUPLAS/TERMOPARES:

Son sensores de temperatura eléctricos utilizados en la zona industrial. Para hacer funcionarla, se debe
hacer con dos alambres de distinto material unidos en un extremo, entonces al aplicar temperatura en la
unión de los metales se genera un voltaje muy pequeño (miliVolts) el cual va aumentando a la par con la
temperatura.
Son encapsulados, para protegerlos de las condiciones extremas.
Dependiendo de la distancia, se va dando una pequeña señal eléctrica de estos transductores.
Deben utilizarse cables compensados para que pueda transportar esta señal sin que la modifique.

TIPOS:

Tipo K: (Cromo/Aluminio) tiene una amplia variedad de aplicaciones, con un rango de temperatura de (-
200ºC a +1.200ºC) y una sensibilidad 41μV/°C aprox.
Tipo E: (Cromo/Constantán) No son magnéticos, son ideales para el uso en bajas temperaturas (Frío), y
una sensibilidad de 68 μV/°C aprox.

Tipo J: (Hierro/Constantán) Tiene un rango limitado, y tienen un rango de temperatura de (-40ºC a


+750ºC).

Tipo N: (Nicrosil / Nisil)Es adecuado para mediciones de alta temperatura, gracias a su estabilidad y
resistencia a la oxidación de altas temperaturas, y tiene una baja sensibilidad10 μV/°C aprox.

Tipo B: (Platino/Rodio) Son adecuados para altas temperaturas superiores a 1.800ºC.

Tipo R: (Platino/Rodio) Son adecuados para altas temperaturas de hasta 1.600ºC. Aunque tiene una baja
sensibilidad 10 μV/°C aprox.

Tipo S: (Hierro/Constantán) Ideal para de altas temperaturas hasta los 1.600ºC, pero tiene una baja
sensibilidad 10 μV/°C. Tiene una elevada estabilidad.

Nombre del informe


13
Termistores:

Los termistores son sensores de temperatura, los cuales su funcionamiento se basa en la variación de la
resistividad que presenta un semiconductor con la temperatura. Existen dos tipos de termistor: -NTC
(Negative Temperature Coefficient)-PTC (Positive Temperature Coefficient). Estos dispositivos son
fabricados a partir de los óxidos de metálicos (manganeso, cobalto, cobre y níquel), ósea un
semiconductor que deja pasar parcialmente la corriente. El término proviene de (Thermally Sensitive
Resistor).Características.

Los termistores sufren de auto calentamiento, por lo que hay que ser cuidadosos en la tensión y
corriente que hacemos circular por el sensor para evitar falsos aumentos de temperatura.
Tienen amplio rango de medición, y bajo costo en el mercado.
No son lineales, lo que dificulta la obtención de datos y complicación al calibrar.

Los PTC son resistencias de coeficiente de temperatura positiva, constituidas por un cuerpo
semiconductor, cuyo coeficiente de temperatura es elevado, quiere decir que su conductividad crece
muy rápidamente con la temperatura. Los NTC son resistencias de coeficiente de temperatura negativo,
constituidas por un cuerpo semiconductor, cuyo coeficiente de temperatura es elevado, quiere decir que
su conductividad crece muy rápidamente con la temperatura.

Nombre del informe


14
Sensores de Nivel:

Son utilizados para monitorear nivel de fluidos cerrándose o abriéndose cuando se alcanza un nivel
determinado, hay de diferentes tipos con mercurio sin mercurio también modelos con imán permanente
y reed switches. Las aplicaciones más comunes son control de sistemas de bombeo, bombas en
embarcaciones y sistemas de irrigación. Los medidores de nivel de líquidos trabajan midiendo, bien
directamente la altura de líquidos sobre una línea de referencia, bien la presión hidrostática, bien el
desplazamiento producido en el flotador por el propio liquido contenido en el tanque del proceso, o bien
aprovechando características eléctricas del líquido.

Flotador:

Consiste en un flotador situado en el seno del líquido y conectado al exterior del tanque indicado
directamente el nivel. La conexión puede ser directa, magnética o hidráulica. El flotador conectado
directamente está unido por un cable que desliza en un juego de poleas a un índice exterior que señala
sobre una escala graduada. En el modelo más antiguo y el más utilizado en tanques de gran capacidad
tales como los de fuel-oil y gas-oil tienen el inconveniente de que las partes movibles están expuestas al
fluido y pueden romperse y de que el tanque no puede estar sometido a presión. El flotador acoplado
magnéticamente desliza exteriormente a lo largo de un tubo guía sellado, situado verticalmente en el
interior del tanque. Dentro del tubo, una pieza magnética sigue al flotador en su movimiento y mediante
un cable y un juego de poleas arrastra el índice de un instrumento situado en la parte superior del
tanque. El instrumento puede además ser transmisor neumático o eléctrico. Una variante de la conexión
magnética consta de un tubo conteniendo un flotador, dotado de un imán que orienta una serie de
cintas magnéticas dispuestas en el exterior y a lo largo del tubo. El instrumento puede tener
interruptores de alarma y trasmisor incorporados.

Tipo burbujeo:

Emplea un tubo sumergido en el líquido cuyo a través se hace burbujear aire mediante un rotámetro con
un regulador de caudal incorporado. La presión del aire en la tubería equivale a la presión hidrostática
ejercida por la columna de líquido, es decir, al nivel. El regulador de caudal permite mantener un caudal
de aire constante a través del líquido independientemente del nivel (es normal un caudal de 150 NI/h); si
no existiera, habría una gran diferencia en los caudales de aire necesarios desde el nivel mínimo al
máximo, con el inconveniente de un gasto de aire indebido. La tubería empleada suele ser de ½” con el
extremo biselado para una fácil formación de las burbujas de aire.

Nombre del informe


15
Sensores de peso:

Células de carga:
Las células de carga hidráulicas son dispositivos de equilibrio de fuerza que miden el peso como un
cambio en la presión del fluido de llenado interno. En una célula de carga hidráulica de tipo diafragma,
una carga o fuerza actúa sobre una cabeza de carga que se transfiere a un pistón el cual a su vez
comprime un fluido de llenado confinado dentro de una cámara de diafragma elastomérico. A medida
que aumenta la fuerza, la presión del fluido hidráulico se eleva. Esta presión puede ser indicada o
transmitida a nivel local para una indicación o control remoto. La salida es lineal y relativamente no
afectada por la cantidad del fluido de llenado o por su temperatura. Si las células de carga han sido
correctamente instaladas y calibradas, la precisión puede ser de 0,25% a escala completa o mejor, lo que
resulta aceptable para la mayoría de las aplicaciones de pesaje de proceso. Debido a que este sensor no
tiene componentes eléctricos, es ideal para uso en áreas peligrosas.

Un inconveniente es que el diafragma elastomérico limita la fuerza máxima que puede ser ejercida sobre
el pistón a aproximadamente 1,000 psig. Todas las células de carga de metal también están disponibles y
pueden adaptarse a presiones mucho más altas. Las células de carga de metal especiales han sido
construidas para detectar un peso de hasta 5000 toneladas.
Las aplicaciones típicas de células de carga hidráulicas incluyen el peso de tanques y recipientes. Para
una máxima precisión, el peso del tanque debe ser obtenido localizando una célula de carga en cada
punto de soporte, y sumando sus salidas. Como tres puntos definen un plano, el número ideal de puntos
de soporte es tres. Las salidas de las células pueden ser enviadas a un totalizador hidráulico que resume
las señales de las células de carga y genera una salida que representa la suma. Los totalizadores
electrónicos también pueden ser utilizados.
Las células de carga neumáticas también operan en el principio de equilibrio de fuerzas. Estos
dispositivos utilizan multiples cámaras amortiguadoras para proporcionar una mayor precisión que un
dispositivo hidráulico. En algunos diseños, la primera cámara del amortiguador se usa como una cámara
de tara. Las células de carga neumáticas se utilizan a menudo para medir pesos relativamente pequeños
en las industrias donde la limpieza y la seguridad son la principal preocupación.
Las ventajas de este tipo de Célula de carga incluyen su resistencia a explosiones y su insensibilidad a las
variaciones de temperatura inherentes. Además, no contienen líquidos que puedan contaminar el
proceso en el caso que la membrana se rompiera. Las desventajas incluyen la velocidad de respuesta
relativamente lenta y la necesidad de aire limpio, seco, regulado o de nitrógeno.

Las células de carga extensométricas convierten la carga que actúa sobre ellas en señales eléctricas. Los
propios medidores están unidos a una viga o elemento estructural que se deforma cuando se le aplica un

Nombre del informe


16
peso. En la mayoría de los casos, se utilizan cuatro medidores de deformación para obtener la máxima
sensibilidad y compensación de temperatura. Dos de los medidores están por lo general en tensión, y
dos en compresión, y se conectan con ajustes de compensación (como se muestra abajo, izquierda).
Cuando se aplica un peso, la tensión cambia la resistencia eléctrica de los medidores en proporción a la
carga.

IV. Mantenimiento de dispositivos de instrumentación industrial, de acuerdo a


recomendación entregadas por el fabricante.

Medir magnitudes es algo que se hace a diario en los diversos sectores de las industrias. Temperatura,
humedad relativa, presión, masa, magnitudes eléctricas, longitud, son algunos parámetros cuya
exactitud debe chequearse constantemente por cuestiones de rendimiento y, sobre todo, de seguridad.
Pero, ¿cómo saber si estamos midiendo bien? ¿Cómo saber si, por ejemplo, la presión a la que se está
inyectando un fluido es la correcta y no mayor, lo que podría provocar un potencial accidente? La
respuesta es calibrar los instrumentos de medición en forma periódica.

A menudo la calibración es necesaria para un instrumento nuevo, o cuando ha transcurrido un


determinado período de funcionamiento. Además, suele realizarse una calibración cuando un
instrumento ha sufrido un golpe o una vibración inesperados que podría haber afectado su correcta
medición.
La calibración puede describirse, en pocas palabras, como un proceso en la que se prueba un
instrumento comparándolo contra una medición de una referencia conocida. En su nivel más simple, la
calibración es una comparación entre mediciones: una de magnitud conocida o establecida con un
dispositivo de alta precisión, y otra realizada bajo las mismas condiciones con un segundo dispositivo. El
dispositivo con la precisión conocida es el “patrón”. El segundo dispositivo es el instrumento que
calibrar.
Cuando un sensor o instrumento experimenta variaciones de temperatura o tensión física durante un
cierto tiempo, su rendimiento empezará a decaer, lo que se conoce como “deriva”. Esto implica que los
datos de medición procedentes del sensor ya no son confiables, pudiendo afectar la calidad de la
producción de una empresa.
Aunque no se pueda eliminar totalmente la deriva, puede detectarse y rectificarse mediante la
calibración. La finalidad de la calibración es determinar lo preciso y exacto que es un instrumento o
sensor. Aunque la mayoría de los instrumentos actuales son de alta precisión, los organismos
reguladores tienen que saber lo inexacto que es un instrumento concreto y si con el tiempo termina
desviándose de la tolerancia especificada.

La calibración periódica garantiza conocer el estado actual del instrumento, y determinar su deriva en el
tiempo. Hasta los instrumentos de la más alta calidad terminan desviándose con el tiempo y pierden su
capacidad de dar mediciones exactas y precisas. Por consiguiente, es fundamental calibrar todos los
instrumentos con la frecuencia adecuada.
Los cambios de temperatura, las malas condiciones de fabricación (por ejemplo, presencia de polvo y
suciedad en el ambiente) y el tiempo transcurrido son factores que contribuyen a la deriva. Incluso
diferentes instrumentos de un mismo fabricante pueden tener distintos rendimientos con el tiempo.
La calibración también garantiza que la calidad de un producto o lote se mantenga alta y estable en el
tiempo. Debido a esto, los sistemas de calidad exigen que se realicen calibraciones en forma sistemática

Nombre del informe


17
y que se generen documentos confiables que detallen los niveles de precisión, repetibilidad,
incertidumbre y fiabilidad de los instrumentos. Estas políticas de calidad impactan en todos los
fabricantes.

Las normas cGMP aplicables a las operaciones de fabricación de medicamentos, cosméticos, productos
médicos, entre otros, exigen el mantenimiento de toda documentación física, que contenga registros de
calibración, y la realización de calibraciones según procedimientos aprobados. Lo habitual es que cada
instrumento tenga un registro histórico maestro y un ID únicos. Todos los productos, procesos e
instrumentos de seguridad tienen que estar etiquetados físicamente. Además, hay que definir los
intervalos de tiempo entre calibraciones y las tolerancias de medición de cada instrumento. No obstante,
los patrones deberían ser trazables a las normas nacionales e internacionales.
A nivel industrial, la calibración de los instrumentos puede contribuir a optimizar el proceso productivo o
bien a aumentar la capacidad de producción.

La seguridad es otro motivo importante para calibrar instrumentos. Los entornos de producción son
zonas de riesgo potencial para los empleados, donde pueden llevarse a cabo operaciones a temperaturas
y presiones muy altas. Las mediciones incorrectas en una zona de riesgo podrían tener graves
consecuencias, sobre todo en los sectores de petróleo y gas, petroquímico y químico.

En la actualidad, el control de las emisiones es otro factor esencial para muchos fabricantes. La
calibración de los instrumentos puede contribuir a mejorar la eficiencia de la combustión en los hornos
industriales, motocompresores, calderas para generación de vapor, etc. Los últimos reglamentos
gubernamentales referentes a las emisiones de carbono también podrían exigir a las empresas que
calibren determinados instrumentos de una forma regular, como es el caso de los sensores que miden
las emisiones de CO2 y NOX.

Errores más Comunes:

Hay algunos errores con respecto a la calibración de instrumentos. Por ejemplo: “algunos fabricantes
defienden que no necesitan calibrar sus instrumentos con fieldbus porque son digitales”, y por ello
siempre precisos y correctos. Esta afirmación es incorrecta. La principal diferencia entre un transmisor
con fieldbus y otro convencional es la señal de salida: con fieldbus es totalmente digital. Aunque cambie
la señal de salida, la calibración periódica sigue siendo necesaria. A pesar de que los transmisores con
fieldbus, comparados con los analógicos, tienen una mayor exactitud de medición, eso no suprime la
necesidad de calibrarlos.

Otro error frecuente es que “no es necesario calibrar los instrumentos nuevos”. Esto tampoco es cierto.
El hecho de que un sensor sea nuevo no implica que funcione dentro de las especificaciones exigidas.
Cuando se calibra un instrumento antes de instalarlo, la empresa puede llevar un registro, basado en una
medición correcta, de la estabilidad o deriva del instrumento con el paso del tiempo en su base de datos
de calibración o software de gestión de calibraciones.

¿Cuándo Calibrar?:

La existencia de la deriva exige que se calibren todos los instrumentos a intervalos temporales fijos. La
frecuencia de la calibración depende de muchos factores. En primer lugar, el fabricante del instrumento
recomienda un intervalo de tiempo determinado entre calibraciones. Este intervalo puede reducirse si el

Nombre del informe


18
instrumento se utiliza en un proceso o aplicación crítica. Las normas de calidad también pueden dictar la
frecuencia de calibración de un sensor de presión o de temperatura.

La forma más eficaz para decidir cuándo es necesario calibrar un instrumento es recurrir a algún tipo de
análisis de tendencia histórica. El intervalo óptimo entre calibraciones para distintos instrumentos sólo
puede determinarse con análisis de tendencia histórica basados en software. De esta forma, los sensores
que sean muy estables no se calibran con tanta frecuencia como los sensores más susceptibles a la
deriva.
¿Qué Puede Afectar la Condición de “Calibrado” de los Instrumentos?

Golpes
Mal uso
Sobrecarga
Ajustes
Condiciones ambientales del lugar donde se encuentra el instrumento de medición.
Instalación inapropiada

¿Dónde Calibrar los Instrumentos de Medición?

Los instrumentos de medición deben ser calibrados con laboratorios que proporcionen trazabilidad a
patrones nacionales y acreditados bajo la norma ISO/IEC-17025. La trazabilidad permite establecer
quién, con qué elemento y con qué método fué calibrado determinado instrumento de medición.

Se pueden realizar calibraciones internas siempre y cuando se cuente con patrones adecuados,
instalaciones adecuadas y personal capacitado para realizar esta actividad.

Si los instrumentos de medición no proporcionan medidas trazables y repetibles, no sirve de nada tener
las mejores instalaciones, los mejores equipos y el mejor personal. Es necesario realizar una calibración
acreditada por un organismo nacional que demuestre la competencia técnica del establecimiento.

Los instrumentos de medición han llevado al operador de su participación en el sitio de medición,


supervisión y la vigilancia del proceso a centros de control situados en el propio sitio del proceso o en un
punto remoto. Para lograr esto, los instrumentos o sistemas de instrumentación deben seleccionarse con
sumo cuidado, esto con el fin de satisfacer cada aplicación específica; para lograr esto, se debe tener un
conocimiento profundo tanto del instrumento como del sistema a supervisar.
Para seleccionar estos instrumentos, es necesario conocer su funcionamiento y saber evaluarlos. El
funcionamiento y la evaluación, se basa en las diferentes características de operación,
independientemente del tipo de transductor y éstas siempre estarán presentes. Estas características de
operación se encuentran en las especificaciones del instrumento.
El termino especificaciones se usa para describir las características de un sistema de medición,
usualmente estas características se muestran en las hojas de datos de cada instrumento y antes de
instalar cualquier equipo, es necesario contar con las hojas de especificaciones correctas, ya que de estas
características depende, en gran medida, su instalación correcta.

Los términos descritos posteriormente podrán ser una guía para identificar las características de los
instrumentos de control de procesos que se estén empleando. Los valores correspondientes a estos
términos, típicamente se encuentran en las hojas de datos, en la sección de especificaciones del mismo.

Nombre del informe


19
Los resultados de la Calibración son informados en un documento llamado Certificado de calibración.
Algunos instrumentistas veteranos de la vieja escuela no creen en la necesidad de los certificados de
calibración, con el argumento de que siempre han calibrado los instrumentos sin papeleo. La respuesta
es que hoy en día la calibración debe ser documentada. Todo el mundo está prácticamente dentro de
las normas de calidad ISO y todos los clientes quieren asegurarse de la calidad de los productos
fabricados con base en los instrumentos de proceso. Por otro lado, si no se procede de este modo, es
seguro que tarde o temprano la empresa desaparecerá, ya que sus clientes la abandonarán si no cumple
las normas de calidad. La calibración periódica de los instrumentos de una planta de proceso asegura el
aumento del rendimiento de la fabricación gracias a la reducción del número de rechazos del producto
fabricado. Cuando se calibra un instrumento esto debe hacerse con una tolerancia especificada. Ahora
bien, debe diferenciarse entre exactitud y tolerancia.

Exactitud: es la relación entre el error y la señal de salida en toda la escala, o bien es la relación entre el
error y la salida, expresado en porcentaje de la escala o bien porcentaje de la lectura.

Tolerancia: es la desviación permitida con relación a un valor especificado y puede expresarse en las
unidades de la medida, en el porcentaje del intervalo de medida o en el porcentaje de la lectura. Por
ejemplo, un transmisor electrónico de presión de 0 – 100 bar (0 - 10.000 kPa) con señal de salida de 4 –
20 mA c.c., tiene una tolerancia de calibración especificada de 0,5 bar (50 kPa).

La tolerancia de salida será: 0,5 bar * (20 – 4) mA= 0,08 mA 100 bar Por tanto, la tolerancia será 0,5 bar
o 0,08 mA que deberán incluirse en la hoja de calibración. Por otro lado, la exactitud del instrumento
dada por el fabricante es de 0,25% de toda la escala, es decir, 0,25 * 100 bar = 0,25 bar (25 kPa). En
este ejemplo, mientras la exactitud es de 0,25 bar (25 kPa), la tolerancia es de 0,5 bar (50 kPa) o 0,08
mA. Lógicamente, la tolerancia vendrá dada por el proceso, por la capacidad del equipo de calibración,
por la consistencia o comparación con los demás instrumentos del proceso y por la tolerancia
especificada por el fabricante. La tolerancia debe estar entre los requerimientos del proceso y la
tolerancia especificada por el fabricante. En el ejemplo anterior podría ser un valor comprendido entre
0,25 bar (25 kPa) y 0,5 bar (50 kPa). Uno de los motivos por los cuales la tolerancia es mayor que la
exactitud es porque la presión del proceso puede ser una variable crítica para cumplir con la norma de
calidad ISO9000:2000, pero el técnico de proceso considera que es suficiente asegurar que la presión se
encuentre dentro del intervalo 0,5 bar (50 kPa), con relación al valor de lectura o de señal de salida del
instrumento transmisor electrónico de presión. Además, el equipo de calibración debe ser capaz de
trabajar con la tolerancia especificada. Podría ser, por ejemplo, 0,3 bar (30 kPa) para ser consistente con
los demás instrumentos de presión de la planta y además cumplir con la regla 4:1 de relación entre la
exactitud del aparato patrón y la del instrumento a calibrar. En este caso la exactitud del patrón debería
ser de 0,3/4 = 0,075 bar (30/4 = 7,5 kPa), GENERALIDADES 34 con lo que el instrumento patrón sería 4
veces más exacto que el instrumento que se calibra y es menos probable que la calibración tenga errores
inaceptables. La calibración debe ser trazable, es decir, debe poder relacionarse con las normas
adecuadas, nacionales o internacionales, a través de una cadena continua de comparaciones (ANSI/NCSL
Z540-1-1994). La trazabilidad queda asegurada si los equipos que una empresa utiliza en las operaciones
de calibración de sus instrumentos son calibrados en forma rutinaria por equipos de referencia
normalizados de alto nivel. Lo que hace la empresa es enviar periódicamente sus equipos de calibración
a un laboratorio de calibración acreditado que dispone de un equipo de ensayo mucho más preciso, y a
su vez, los equipos de este laboratorio son calibrados por los Equipos Primarios Estándar mantenidos por
los Institutos Tecnológicos de Normalización (ENAC -Entidad Nacional de Acreditación-, NIST -Nacional
Institute for Standard and Technology) que evalúan la competencia técnica de los organismos de

Nombre del informe


20
evaluación de la conformidad (laboratorios, entidades de inspección y de certificación). Los organismos
de acreditación son:

Internacionales: ISO, CEN (normalización), etc.


España: AENOR y ENAC (Entidad Nacional de Acreditación)
Francia: COFRAC Portugal: IPQ
Alemania: DAR Italia: SINAL
Reino Unido: UKAS
A nivel Europeo: ISO, CEN (Comité Europeo de Normalización), etc.

Finalmente,

Incertidumbre: es el parámetro asociado con el resultado de la medida que caracteriza la dispersión de


los valores ocasionada razonablemente por el mensurando, es decir, la magnitud particular sujeta a
medición o la magnitud medida por un instrumento (cantidad que se ha medido); por ejemplo, la
temperatura de un líquido contenido en un tanque. La incertidumbre es una medida de la calidad de la
medida y proporciona los medios para minimizar el riesgo y las posibles consecuencias de pobres
decisiones relacionadas con los valores indicados, transmitidos o controlados por los instrumentos. Entre
las fuentes de incertidumbre se encuentran:
-Influencia de las condiciones ambientales.
-Lecturas diferentes de instrumentos analógicos realizadas por los operadores.
-Variaciones en las observaciones repetidas de la medida en condiciones aparentemente idénticas.
-Valores inexactos de los instrumentos patrón.
-Muestra del producto no representativa. Por ejemplo, en la medida de temperatura con un termómetro
patrón de vidrio la masa del bulbo cambia la temperatura de la muestra del proceso cuya temperatura
desea medirse.
La incertidumbre se compone de un campo de valores, dentro del cual se encuentra el valor verdadero
del mensurando. Es realmente una acumulación de errores desconocidos, como si fuera un cajón de
sastre de los errores. Cuantos más términos se requieran para definir una medida, más incertidumbres
se introducirán y si estos términos están elevados a una potencia, cuanto mayor sea esta más elevada
será la incertidumbre.
Se expresa en la forma de barras de error en un gráfico o bien como:

Características de los instrumentos:

Nombre del informe


21
RANGO O ALCANCE

El rango o alcance, está definido como el conjunto de valores de la variable medida que están
comprendidos dentro de los límites superior e inferior de la capacidad de medida del instrumento. Este
valor se encuentra expresado estableciendo los dos valores extremos LRV y URV.

LRV (VALOR DE RANGO MÍNIMO)

El valor mínimo de la variable medida que un dispositivo está ajustado para medir.

URV (VALOR DE RANGO MÁXIMO)

El valor máximo de la variable medida que un dispositivo está ajustado para medir.

SPAN

El span se define como la diferencia algebraica entre el límite superior URV y el límite inferior LRV del
instrumento.

ERROR

El error es la diferencia algebraica entre el valor medido o transmitido por el instrumento y el valor real
de la variable medida por un instrumento patrón. El error normalmente se indica como un porcentaje,
conocido como error relativo y esta dado por la siguiente relación:

Los errores más frecuentes en un instrumento de medición son el error de cero y el error de span.

Nombre del informe


22
REPETIBILIDAD

La repetibilidad es la capacidad de reproducir las posiciones del instrumento (pluma, índice o señal de
salida) al medir repetidamente valores idénticos de la variable operacional en las mismas condiciones de
servicio y en el mismo sentido de variación, recorriendo todo el campo.

RESOLUCION

Es el mínimo valor confiable que puede ser medido en un instrumento.

EXACTITUD

La exactitud es la cualidad de un instrumento para dar lecturas próximas al verdadero valor de la


magnitud medida. Es función de la repetibilidad, resolución y de la calibración del instrumento.
La exactitud se expresa en términos de porcentaje, ya sea del span calibrado, del URL o de la lectura. Es
muy importante no sólo tomar en cuenta el número de % de error sino los términos adicionales que lo
acompañan.
Ejemplo: Un transmisor tiene un rango de 0-200” H2O, calibrado en un rango 0-150” H2O y con una
lectura actual de 100” H2O:
Si la exactitud es ± 0.25% del span calibrado.
El error máximo será: 0.25% x 150”H2O = ± 0.375”H2O
Si la exactitud es ± 0.25% del URL o F.S.(Full Scale)
El error máximo será: 0.25% x 200”H2O = ± 0.5 ”H2O
Si la exactitud es ± 0.25% de la lectura medida.
El error máximo será: 0.25% x 100”H2O = ± 0.25 ”H2O

PRECISION

La precisión es el grado de concordancia entre una serie de determinaciones obtenidas de repetir la


medición bajo mismas o diferentes condiciones y se expresa como la desviación estándar relativa

Nombre del informe


23
(dispersión) o el coeficiente de variación. Cuanto menor sea la desviación estándar, es mejor la precisión.
La precisión es función de la repetibilidad y la resolución.
Cuando de desea obtener la máxima precisión del instrumento en un punto determinado de la escala,
puede calibrarse únicamente para este punto de trabajo. Los fabricantes usualmente la especifican para
todo el rango. Ver imagen:

INCERTIDUMBRE EN LA MEDIDA

La incertidumbre en la medida es la distribución estadística de los resultados que pueden ser atribuidos
razonablemente al verdadero valor de la magnitud medida.

ZONA MUERTA (DEAD ZONE O DEAD BAND)

La zona muerta es el campo de valores de la variable operacional que no hace variar la indicación o la
señal de salida del instrumento; es decir, ante cambios de la magnitud de la variable operacional el
instrumento no produce respuestas. Viene dado en tanto % del alcance de la medida.

HISTERESIS

La histéresis es la diferencia máxima que se observa en los valores indicados por el instrumento para el
mismo valor cualquiera del campo de medida, cuando la medición de la variable recorre toda la escala
en los dos sentidos, ascendente y descendente.
Este valor se expresa en tanto porciento del alcance (Span) de la medida. Lo antes descrito se muestra en
la Figura:

LINEALIDAD

Nombre del informe


24
La linealidad es la aproximación más cercana de una curva de calibración, a una línea recta previamente
establecida.
Los instrumentos ideales son lineales. De hecho, la mayoría de los sistemas instrumentales comerciales
tienen respuesta lineal. Puede ocurrir, sin embargo, que la respuesta no sea estrictamente lineal y, por
ende, que ocurra un error por no linealidad de la respuesta del instrumento.

RANGEABILIDAD

Se define como la relación del máximo al mínimo valor en el que el instrumento tiene una actuación
aceptable de acuerdo a su exactitud y se hace presente generalmente en instrumentos cuyo
funcionamiento es a través de elementos mecánicos, como es el caso de los medidores de flujo y
válvulas de control, ver figura.

TIEMPO DE RESPUESTA
Debido a fenómenos de equilibrio, transporte, entre otros, la medición de cualquier variable de proceso
puede implicar una demora que debe ser definida adecuadamente.
Si la medición tiene una cinética más lenta que la de la propia variable, habrá que disponer de sistemas
complejos de predicción del valor en lugar de descansar sólo sobre la medición instrumental.
Los tiempos de respuesta se definen en base al tiempo necesario para obtener una medida que
corresponda al 96% (o cualquier otro porcentaje) del valor final.

V. Acciones de bloqueo correspondientes para el mantenimiento de dispositivos de


instrumentación.

Gestión de mantenimiento

La instrumentación moderna ofrece información de estado y diagnóstico, pero procesar todos estos
datos suele ser un problema. Además, el sistema de control se cargaría con datos irrelevantes para su
tarea primaria, esto es control de proceso en tiempo real.

Nombre del informe


25
Dentro de este contexto, los fabricantes de instrumentos desarrollaron paquetes de software que
realizan todas estas funciones. Hay dos categorías de paquetes: programas de gestión de instrumentos,
que analizan la información en tiempo real proveniente de la instrumentación, y un software de gestión
de activos, que se encarga del seguimiento de cada instrumento en la planta y guarda datos vitales, tales
como manuales y listas de partes.

Los programas de gestión de instrumentos realizan varias funciones para los departamentos de
mantenimiento:

Configuración – Colaboran con el mantenimiento a la hora de configurar una nueva instrumentación


durante la instalación inicial o cuando se reemplaza un instrumento existente.
Monitoreo de condiciones – Analizan datos en tiempo real provenientes de instrumentación, detectan
problemas y notifican al departamento de mantenimiento cuando un dispositivo necesita atención con
antelación a una falla.
Gestión del ciclo de vida – Hacen un seguimiento del ciclo de vida completo de un instrumento, desde
configuración inicial a calibraciones y reparaciones, y proveen información para auditorías y regulaciones
de seguridad.

Si bien un fabricante de instrumentos puede proveer información para sus propios instrumentos, ¿qué
hay acerca de los demás instrumentos de otros fabricantes en una planta? Afortu nadamente, la
estandarización en la industria de instrumentación hace posible disponer de esa información.

Hoy en día se dispone de archivos DD (Device Description), EDDL (Enhanced Device Description
Lenguaje), DTM (Device Type Manager) y configuraciones HART y fieldbus Foundation de todos los
fabricantes, que se pueden acceder desde distintos websites y luego cargarlos en el programa de gestión
de instrumentos.

Gestión de activos

Cuando una planta tiene miles de instrumentos, hacer un seguimiento de manuales, listas de partes,
reportes de auditoría, programas de mantenimiento y demás información puede convertirse en una
pesadilla. Un programa de gestión de activos de mantenimiento recopila toda esta información, la
digitaliza y la pone a disposición de los técnicos de mantenimiento por medio de dispositivos portátiles.

Por lo general, un programa de gestión de activos ofrece:

Manuales de instrumentos – Los manuales modernos están disponibles en formato digital y se


descargan fácilmente en la base de datos, mientras los anteriores manuales en papel pueden ser
escaneados.
Listas de partes – Igual que los manuales, las listas de partes pueden ser descargadas o escaneadas.
Cumplimiento – El software hace el seguimiento de todas las actividades de los instrumentos, o sea
calibraciones, verificaciones y mantenimiento realizado, para cumplir con las regulaciones vigentes.
Documentación y reportes – El software puede producir auditorías y reportes que cumplen con los
distintos patrones.
Gestión de mantenimiento – Determina el momento en que los instrumentos necesitan recibir
servicio, ser calibrados o verificados, y lo notifica a mantenimiento.

Nombre del informe


26
Comunicaciones – El software puede compartir datos con otros programas de gestión de
mantenimiento, historizadores, hojas de datos, etc.

Esta información puede ser guardada en el sitio o en la nube, donde se la accede desde una estación de
trabajo o un dispositivo portátil.

Análisis de la base instalada

Muchas plantas no disponen de suficiente información acerca de su base instalada de instrumentos y


analizadores de proceso; además, con el tiempo, las plantas se modifican y los instrumentos cambian,
empeorando la situación.

Una de las mejores maneras de abordar este problema es implementar un programa de gestión de
mantenimiento, normalmente con la ayuda de un proveedor importante de instrumentos. La mayoría de
estos proveedores pueden ir a una planta de proceso, realizar una evaluación de la base instalada de
instrumentación y ofrecer recomendaciones de gestión acerca de lo que hace falta para mejorar una
determinada situación.

Por ejemplo, un análisis de la base instalada consiste de:

Inventario de instrumentos – Rastrea y lista todos los dispositivos del sitio para una futura
transparencia, sin importar el fabricante.
Evaluar la criticidad y mantenibilidad de los dispositivos – Define y clasifica puntos críticos de medición
y su mantenibilidad para garantizar que las tareas de mantenimiento puedan realizarse de manera fácil y
efectiva.
Recomendar una estrategia adecuada de mantenimiento – Evalúa las actividades actuales de
mantenimiento y recomienda mejoras para llegar a un programa de mantenimiento balanceado.
Identificar equipos obsoletos – Incluye un plan de migración para modernizar la planta,
Reducir la complejidad – Incluye recomendaciones para estandarizar la instrumentación y minimizar
los repuestos.

Una vez finalizada la evaluación, el proveedor de instrumentos podrá elaborar recomendaciones con
información clave para la toma de decisiones relevantes respecto de mejoras en mantenimiento y
calidad, obsolescencia y gestión de repuestos para los respectivos activos de la base instalada.

Sumario

En las plantas de proceso, la instrumentación moderna y las estrategias afines de mantenimiento tienen
una importancia decisiva a la hora de realizar el mantenimiento preventivo, eliminar paradas de proceso
a causa de instrumentos que fallan y ahorrar tiempo y dinero evitando actividades de mantenimiento
innecesarias.

La implementación de un sistema de gestión de instrumentación puede ser una tarea abrumadora, pero
se puede recurrir a los proveedores de instrumentos para recibir asistencia en caso de necesidad.

Nombre del informe


27
V. Conclusiones.

En los últimos años, el mundo de la instrumentación y del control de procesos ha entrado en una era
de cambio total, en la cual los aparatos de medición, trasmisión y automatización se hacen cada vez más
rápidos, exactos y durables. Así, la inteligencia industrial disfruta, además, de la transmisión inalámbrica
en tiempo real y puede utilizar las informaciones comparadas con grandes bancos de datos y estándares
internacionales para tomar las mejores decisiones en la búsqueda por los mejores resultados. Es más, los
avances tecnológicos de los dispositivos, equipamientos y sistemas de medición y control de procesos
industriales exigen a los ejecutivos del sector productivo la actualización de sus ambientes de
manufacturas. La importancia que tiene el control sobre los procesos de fabricación es tal, que existe
una ingeniería dirigida explícitamente a este tema, se denomina ingeniería de control. Estos
profesionales se encargan de la investigación, el diseño y la gestión del desarrollo de los equipamientos
utilizados para monitorear y controlar sistemas y maquinaria, trabajando en sistemas donde la precisión
es vital.
Estos sistemas recogen todo tipo de variables que permiten al operario conocer el estado del proceso,
sin ellas este no sería capaz de ver lo que ocurre en todo momento dentro de cualquier maquina
implicada en la fabricación, influyendo en la calidad del producto final de forma negativa. Sin embargo a
día de hoy estos sistemas no son capaces de recoger tantas variables como a la empresa le gustaría, por
ese motivo se sigue investigando y desarrollando nuevos sistemas cada vez más completos y robustos,
usando nuevas tecnologías emergentes.
Antes de finalizar este informe es necesario señalar que los sistemas de control industrial son una de las
partes más importantes, si no la más importante dentro de la industria. Estos permiten a los operarios
tener datos exactos y fiables en tiempo real del estado del proceso de fabricación, consiguiendo de esta
manera evitar problemas de gran calibre que supondrían una gran pérdida de capital para la empresa.
Pero como todo, estos sistemas no son perfectos, por ese motivo existen profesionales que se dedican a
mejorarlos y actualizarlos, con el fin de supervisar el proceso en la mayor medida posible. Siempre
surgen nuevas variables que se pueden parametrizar y que tienen una importancia dentro del proceso.

Nombre del informe


28
VI. Referencias bibliográficas.

 Distintos foros de internet.

 http://www.sapiensman.com/control_automatico/control_automatico10.htm

 Instrumentos industriales, su ajuste y calibración, Antonio Creus.

 https://www.ingmecafenix.com/electricidad-industrial/transmisores-industriales/

 nstrumentacionindustrialmaxima.blogspot.com

Nombre del informe


29

También podría gustarte