básculas digitales

6 razones por las que las básculas digitales pierden su calibración

Las básculas digitales que pierde su calibración es un peligro para todas las personas y empresas que dependen de este instrumento para basar sus transacciones comerciales, en estos casos, las compañías podrían estar regalando mercancía y el cliente pagar por productos que nunca recibió. Así, la calibración es uno de los puntos primordiales que debe tener presente durante el periodo de vida útil de estos dispositivos, ya que con el paso de los días se van desajustando los sensores y pierde credibilidad la lectura.

Sin embargo, a pesar de que es algo común que suceda periódicamente, hay ciertas circunstancias que provocan que las básculas digitales pierdan su calibración rápidamente y que son importantes que solucionar con prontitud. En este artículo conocerá algunas de estas circunstancias y de esta manera podrá aplicar las medidas pertinentes para evitar recurrir frecuentemente a los mantenimientos correctivos y afectar su línea de producción.
básculas digitales calibración CERTIMET

Causas de la pérdida de calibración de las básculas digitales

1.- FALTA DE MANTENIMIENTO PREVENTIVO DE TUS BÁSCULAS DIGITALES

Las básculas digitales industriales y comerciales, siendo aparatos electrónicos, requieren de una serie de actividades preventivas que eviten que las mediciones de peso sean exactas, provocando pérdidas de dinero y eficiencia. Por eso es recomendable realizar este tipo de mantenimientos periódicamente y así no perjudicar la estabilidad de su empresa o negocio. Con esto también extenderá la vida útil del equipo, mantiene la precisión de los pesajes, evita el tiempo de inactividad y minimiza los gastos futuros en reparaciones. Algunas de las actividades que podrá realizar son:

  • Realizar pruebas de pesaje.
  • Mantenga limpia la zona que rodea la báscula.
  • Examine el estado físico de la estructura y los sistemas de la báscula.
  • Evite realizar reparaciones si no tiene el conocimiento para hacerlo.
  • Inspeccione los niveles de humedad del entorno.
  • Limpie la superficie de la báscula antes y después de pesar cualquier producto para prevenir falsas lecturas.

2.- RECURRA A LA REPARACIÓN CUANDO SEA NECESARIO Y CON EL PROFESIONAL INDICADO

Pero, a pesar de que realice todas las actividades de mantenimiento preventivas siempre habrá situaciones que no puede prever y lo obliguen a recurrir a la reparación, por ejemplo, que se caiga, moje, rompa o desconfigure por accidente. En estos casos es importante que no recurra al con especialistas como CERTIMET.

Siempre que vea un problema que no se pueda solucionar dentro de sus posibilidades, debe solicitar nuestro servicio de reparación, pues contamos con los conocimientos, herramientas, repuestos, pesos de prueba, entre otros elementos necesarios para tener resultados eficientes.

3.- INSTALACIÓN INAPROPIADA DE LAS BÁSCULAS DIGITALES

Algunas básculas digitales requieren de un proceso de instalación especializada que le permita funcionar de la manera más eficiente dentro de su proceso productivo. El caso más significativo es el de los equipos para camiones, pues son estructuras más grandes que deben empotrarse al suelo y estar adecuadamente niveladas para tener una medida exacta. Si no se instala bien, tendrá inconvenientes de calibración y desde el primer día tendrá lecturas erróneas.

4.- ¿POR QUÉ LA CALIBRACIÓN LE AHORRARÁ DINERO?

Dado que nuestros modelos de básculas están destinados a trabajar de manera ardua tanto en el sector comercial como industrial, es frecuente que pierdan su calibración con el paso de los meses, y perder dinero en un modelo nuevo no es opción cuando deja de dar lecturas correctas en el mediano plazo, por lo que esta etapa del mantenimiento de los dispositivos de pesaje es fundamental para ahorrar dinero a la larga y garantizar una longevidad de los equipos.

Algunas de las razones por las que es importante la calibración de básculas digitales en términos del ahorro económico en el corto, mediano y largo plazo.

5.- PRECISIÓN

Como mencionamos anteriormente, garantizar una precisión en el pesaje hace la diferencia entre cobrar lo justo o regalar mercancía, que son factores fundamentales que le permiten mantener la estabilidad financiera y fidelidad de los clientes. Si tiene una báscula que no funciona y le da mediciones imprecisas en cada oportunidad le costará mucho dinero, además de que el problema podrá ir creciendo y afectar la integridad del dispositivo, obligándolo a realizar reparaciones más costosas de lo que tenía presupuestado.

6.- TIEMPO DE INACTIVIDAD

La falta de precisión le causará tiempo de inactividad en su cadena productiva mientras repara la unidad, lo que le provoca que el progreso de la producción se vea interrumpido y por lo tanto se presenten retrasos que afecten su porcentaje de ventas y reputación. En cambio, si mantiene el control de las calibraciones impedirá que ocurran daños que lo obliguen a interrumpir o minimizar la eficiencia de su industria.

 

básculas digitales calibraciónLABORATORIO DE METROLOGÍA Y CALIBRACIÓN CERTIMET para obtener más detalles sobre los programas de mantenimiento para su instrumento. 

¿Necesitas calibrar tu instrumento? Contáctanos aquí
Contáctate con el área de ventas 941 101 546

Calibración de sensores de presión diferencial

Sensores de presión diferencial

Los sensores de presión diferencial son usados normalmente en la industria de procesos y cubren una variedad de aplicaciones. Para entender que es un sensor de presión de presión diferencial, es importante contrastarlo con otros tipos de medición de la presión. Los tipos más comunes de medición de la presión son la absoluta, la manométrica y la diferencial.

Presión absoluta

La presión absoluta es cuando la presión cero se referencia al vacío absoluto como se enseña en la figura 1. Esto se consigue empujando hasta un vacío muy alto, consiguiendo lo más cercano al cero absoluto como sea posible, y luego referenciando el cero del sensor a ese punto de vacío. A menudo los sensores absolutos utilizan un sensor manométrico y un sensor barométrico y calculan la presión absoluta sustrayendo la presión barométrica de la presión manométrica.

Presión diferencial

La presión diferencial (DP) puede ser independiente de las presiones atmosférica y absoluta. Es la diferencia de presión entre dos presiones aplicadas como se enseña en la figura 1. Estos sensores son muy útiles para determinar la diferencia de presión entre dos sitios o sistemas y son usados frecuentemente en los cálculos de flujos, filtración, niveles de fluidos, densidad y viscosidad.

Ahora que hemos revisado los diferentes tipos de presión y sabemos lo que es la presión diferencial y como compara con otros tipos de medición de la presión, podemos considerar como calibrar un sensor DP y algunos de los desafíos asociados con la calibración de los sensores DP. Empecemos con los desafíos.

Desafíos comunes en la calibración de sensores de presión diferencial

Produciendo una presión estable, controlada – para tener una medición significativa en calibración necesitamos tener una generación de presión estable de una fuente de presión como una bomba o un controlador. Los sensores DP pueden tener mucha sensibilidad, por lo que una solución que produzca y mantenga una presión estable es muy importante. También, la bomba o el controlador necesitan tener la resolución suficiente para poder generar exactamente los puntos de presión deseados. Producir una presión estable y controlada con alta resolución es frecuentemente un desafío porque muchas soluciones de las bombas confían en válvulas anti retorno, con la bomba como su punto principal de estabilidad. Estas válvulas son propensas a fugas con el paso del tiempo y con mucho uso y frecuentemente son la causa de frustraciones a la hora de intentar mantener presiones estables en la calibración para sensores DP.

Efectos de la temperatura – posiblemente el desafío más grande para calibrar sensores DP tiene que ver con el impacto de la temperatura medioambiental en el sensor DP y en los estándares de calibración. Debido a que muchos sensores DP miden presiones muy bajas en la escala completa (FS), un cambio pequeño en la temperatura puede suponer un cambio muy significativo en la presión deseada. Este cambio en la temperatura frecuentemente se traduce en inestabilidad constante tanto en el sensor que está siendo probado como en el calibrador (tanto el calibrador de referencia como la bomba).

Cambiando la presión atmosférica – algunos fabricantes de sensores DP recomiendan que la calibración se haga con el puerto de referencia (o puerto bajo) abierto a la atmósfera. El desafío con este requerimiento es que a lo largo de la calibración, la presión atmosférica está en constante cambio e influenciando la estabilidad y repetitividad de los resultados de la calibración.

MÉTODOS DE CALIBRACIÓN

Ejemplo 1. Usando una bomba ADT901, calibrador de referencia ADT681 con el puerto de referencia DUT´s abierto a la atmósfera:

Figura 2 Manómetro digital Additel 681 DP con la bomba Additel 901

Equipamiento requerido:
– Bomba de calibración de presiones bajas (como las bombas  Additel 901 o Additel 912).
– Equipo bajo prueba.
– Calibrador DP de referencia (como las series Additel 681 DP o Additel 672 DP).
– Líneas y conexiones para conectar los calibradores con las bombas.

Conexión (ver figura 2):
– Los dos puertos altos de cada calibrador están conectados con la bomba de calibración.
– Los puertos de referencia o puertos bajos de cada calibrador se quedan abiertos a la atmósfera.
– Asegurarse de que el DUT está en la orientación correcta (generalmente vertical u horizontal).

Procedimiento:
– Dependiendo del DUT, igual necesita ejercitar el calibrador múltiples veces a su escala completa.
– Asegurarse de que la válvula de ventilación está abierta al ADT901 Y en cero tanto el calibrador de referencia como el DUT (asumiendo que el DUT es un calibrador digital que requiere ponerse a cero regularmente).
– Cierre la válvula de ventilación al ADT901 y proceda a los siguientes puntos de calibración y registre los datos cuando la medición sea estable.
– Típicamente, entre tres o cinco puntos de calibración son tomados tanto hacia arriba como hacia abajo para determinar la histéresis.

Pros: Este método no es caro y se pone en marcha fácilmente.
Contras: tendrá que estar teniendo en cuenta los cambios de la presión barométrica y de la temperatura durante toda la prueba. Dependiendo de las condiciones medioambientales esto puede producir mediciones muy inestables. Este es el método menos exacto para la calibración de sensores DP.

Ejemplo 2 – Usando la bomba ADT901, el calibrador de referencia ADT681 DP con los puertos de referencia DUT´s conectados juntos:

Figura 3 Manómentro ADT681 y bomba ADT912

Equipamiento requerido:
– Bomba de calibración de baja presión ( como las bombas  Additel 901 o Additel 912).
– Equipo bajo prueba.
– Calibrador DP de referencia (como las series Additel 681 DP o Additel 672 DP).
– Líneas y conexiones para conectar los calibradores con las bombas y los calibradores entre sí.

Conexión (ver figura 3):
– Los dos puertos altos de cada calibrador están conectados a la bomba de calibración.
– Los puertos bajos o de referencia de cada calibrador están conectados juntos.
– Asegurarse de que el DUT está en la orientación correcta (generalmente vertical u horizontal).
Nota: En este método la presión se genera en las líneas de presión alta y baja y el DP se mide con el calibrador de referencia. Dependiendo del rango DP requerido el 912 puede ser la mejor solución para alcanzar la escala completa en el DUT.

Procedimiento:
– Dependiendo del DUT, igual necesita ejercitar el calibrador múltiples veces a su escala completa.
– Registrar el punto cero puede variar dependiendo del tipo de DUT. Si el DUT es un calibrador digital, entonces mantenga el calibrador de referencia y los puertos de referencia del DUT conectados entre sí y a cero en ambos calibradores. Si el DUT es un calibrador analógico que no requiere un cero regular, entonces desconecte ambos puertos de referencia y que se queden abiertos a la atmósfera para dejar los calibradores a cero. Después de registrar el punto cero, conecte ambos puertos de referencia entre si y proceda a la calibración
– Cierre la válvula de ventilación al ADT901 y proceda a los siguientes puntos de calibración y registre los datos cuando la medición sea estable.
– Típicamente, entre tres o cinco puntos de calibración son tomados tanto hacia arriba como hacia abajo para determinar la histéresis.

Pros: Este método no es caro y da cuenta de los cambios de la presión atmosférica de una manera mejor a lo largo de toda la prueba. La estabilidad en cada punto es mejorada con respecto al ejemplo anterior.
Contras: la puesta en marcha es más complicada que en el primer ejemplo y los efectos de la temperatura pueden tener un impacto más grande que en el primer ejemplo porque tenemos un sistema sellado con las líneas de referencia o bajas conectadas.

Ejemplo 3 – Usando el Additel ADT761-LLP o ADT761 – D requerido para calibración automatizada:

Figura 4 Calibrador ADT761 con DUT

Equipamiento requerido:
– ADT761-LLP o ADT761-D.
– Equipo bajo prueba.
– Líneas y conexiones para conectar el calibrador DP al ADT761.

Conexión (ver figura 4):
– Conectar el puerto alto del calibrador DP al puerto de salida del ADT761.
– Conectar el puerto bajo del calibrador DP al puerto de referencia del ADT761.
– Asegurarse de que el DUT está en la orientación correcta (generalmente vertical u horizontal).

Procedimiento:
– Dependiendo del DUT, igual necesita ejercitar el calibrador múltiples veces a su escala completa.
– Programe una tarea y lleve a cabo una prueba automatizada con el ADT761 que generará la presión automáticamente, estabilizará la medición, y permitirá registrar las lecturas del calibrador DP.
– Típicamente, entre tres o cinco puntos de calibración son tomados tanto hacia arriba como hacia abajo y el ADT761 calculará automáticamente la histéresis y enseñará los resultados de las pruebas con el criterio aprobado/suspenso.

Pros: este método es completa o casi completamente automatizado dependiendo del DUT. Las mediciones son controladas y la estabilidad asegurada por el controlador ADT761. El ADT761 se deja influenciar mucho menos por cambios en la temperatura y presión barométrica que los ejemplos anteriores. Los resultados son mostrados y calculados automáticamente. El ADT761 puede calibrar calibradores de presión y el transmisor de presión.
Contras: el equipo es más costoso que los ejemplos anteriores.

La información del equipamiento y los comentarios de la calibración del sensor DP pueden ser un desafío especialmente si la calibración se realiza en un espacio ambientalmente incontrolado. Las bombas de Additel 901 y 912 contienen una cámara térmicamente aislada que ayuda mucho con el control de la temperatura a la hora de generar presión. Las bombas ADT901 y 912 también utilizan una tecnología patentada de prensas ajustables que permiten un ajuste de la presión muy sensible y permiten no utilizar una válvula anti retorno que frecuentemente son la causa de la inestabilidad. Por estas claves de calidad las bombas ADT901 y 912 son una gran solución para la calibración de sensores DP.

Las series Additel 681 DP y Additel 672 DP proporcionan presiones diferenciales con precisión con una variedad de rangos de presión sobre los que elegir. El ADT681 mide solamente la presión, mientras que las series ADT672 pueden ser usadas para medir corriente, voltaje, un interruptor de presión y un transmisor.

Las series de Additel 761 de calibradores de presión automatizados utilizan control de precisión y sensores de lo último en tecnología para proporcionar mediciones precisas y estables para sensores DP. Cada unidad contiene dos sensores que compensan la temperatura que cubren los rangos típicos del sensor DP. El calibrador de presión automatizado tiene una bomba eléctrica incorporada para generar presión sin utilizar suministro de gas o de corriente AC. Estos calibradores operan con la creación del procedimiento completo y la documentación de los resultados para automatizar por completo o casi por completo la calibración del sensor y así calibrar manómetros, transmisores, transductores e interruptores de presión.

 

LABORATORIO DE METROLOGÍA Y CALIBRACIÓN CERTIMET para obtener más detalles sobre los programas de mantenimiento para su instrumento. 

¿Necesitas calibrar tu instrumento? Contáctanos aquí
Contáctate con el área de ventas 941 101 546

Comparativa entre manómetros mecánicos y electrónicos

Los manómetros mecánicos convencionales son instrumentos muy antiguos, utilizados para medir presión, aunque siguen siendo unos dispositivos de uso popular por su sencillez y bajo coste de adquisición. Por unos pocos euros, se pueden adquirir pequeños de 63 mm de diámetro, con una exactitud de alrededor del 5% de la escala de medición que para aplicaciones domésticas y de poca importancia suele ser suficiente.

El elemento sensor de un manómetro analógico, como también suele llamarse, consiste en un tubo de Bourdon metálico con un amplificador mecánico, el cual consta de unos engranajes similares a una caja de cambio que transforma el movimiento del mencionado tubo en un valor equivalente de presión.

Las limitaciones más típicas de un manómetro mecánico son las siguientes:

  1. Falta de resolución y precisión de la medición (el diámetro del frontal tiene poco espacio para tener una división de escala pequeña y suele ser difícil tomar una lectura precisa).
  2. La unidad de medición se limita a una sola escala o como máximo a dos.
  3. La clase de exactitud o incertidumbre estándar implica una interpolación entre las divisiones de la escala.
  4. El mecanismo mecánico es frágil y puede dañarse por vibraciones y golpes.
  5. El frente del cristal puede romperse por una caída o por un impacto.
  6. Los manómetros analógicos suelen tener histéresis, lo cual significa que la aguja no marca el mismo valor cuando la presión es ascendente como cuando es descendente.
  7. De igual manera, el mecanismo de este tipo manómetros analógicos suele sufrir desgaste y deterioro con el uso.
  8. Es difícil de limpiar o descontaminar el interior del tubo de Bourdon.

¿Necesitas calibrar tu instrumento? Contáctanos aquí
Contáctate con el área de ventas 941 101 546

Manómetros electrónico vs manómetro analógico

Manómetros Analógicos vs Manómetros Electrónicos

¿Qué es mejor, manómetros analógicos o manómetros electrónicos? Conozcamos primero sus principales características y sus desventajas para seleccionar el manómetro que más nos convenga según la actividad a realizar.

Manómetros-industriales-mitor

Manómetros mecánicos y manómetros electrónicos

Los manómetros mecánicos convencionales son instrumentos muy antiguos, utilizados para medir presión, aunque siguen siendo unos dispositivos de uso popular por su sencillez y bajo coste de adquisición. Por unos pocos soles, se pueden adquirir pequeños de 63 mm de diámetro, con una exactitud de alrededor del 5% de la escala de medición que para aplicaciones domésticas y de poca importancia suele ser suficiente.

El elemento sensor de un manómetro analógico, como también suele llamarse, consiste en un tubo de Bourdon metálico con un amplificador mecánico, el cual consta de unos engranajes similares a una caja de cambio que transforma el movimiento del mencionado tubo en un valor equivalente de presión.

Las limitaciones más típicas los manómetros mecánico son las siguientes:

  1. Falta de resolución y precisión de la medición (el diámetro del frontal tiene poco espacio para tener una división de escala pequeña y suele ser difícil tomar una lectura precisa).
  2. La unidad de medición se limita a una sola escala o como máximo a dos.
  3. La clase de exactitud o incertidumbre estándar implica una interpolación entre las divisiones de la escala.
  4. El mecanismo mecánico es frágil y puede dañarse por vibraciones y golpes.
  5. El frente del cristal puede romperse por una caída o por un impacto.
  6. Los manómetros analógicos suelen tener histéresis, lo cual significa que la aguja no marca el mismo valor cuando la presión es ascendente como cuando es descendente.
  7. De igual manera, el mecanismo de este tipo manómetros analógicos suele sufrir desgaste y deterioro con el uso.
  8. Es difícil de limpiar o descontaminar el interior del tubo de Bourdon.

Manómetros electrónicos

En vista de las limitaciones que presentan los manómetros mecánicos convencionales, una buena y necesaria alternativa para aplicaciones industriales más exigentes es el uso de los manómetros electrónicos con lectura digital. Additel es un fabricante que ofrece una amplia variedad de manómetros digitales, con la forma redonda tradicional pero con todas las ventajas de una electrónica moderna y potente.

Manómetro digital precisión Additel 680

Los manómetros electrónicos de precisión ADT-680 tienen un diseño muy robusto. Incorporan una carcasa de protección industrial IP67 lo que garantiza su protección contra ingresos de agua, polvo e incluso pueden funcionar estando sumergidos en líquido. La carcasa a su vez, viene protegida por una funda de goma contra impactos, golpes y caídas. Incluyen 2 baterías de 1,5 V tipo AA, y pueden funcionar 6000 horas.

Hay 18 diferentes rangos de medición desde vacío hasta 2800 bar y el comprador puede elegir entre una variedad de racores de conexión como ISO / BSP rosca paralela, NPT rosca cónica, roscas métricas, y rosca 9/16 x 18 UNF para altas presiones. De igual manera, se puede escoger entre diferentes clases de exactitud e incertidumbre como por ejemplo 0,05 %, 0,1 %, o 0,25 % del rango de medición.

Como opción pueden suministrarse con función de registrador de datos y comunicación inalámbrica con software para la descarga de los datos registrados.

Manómetro digital precisión Additel 681

Los manómetros digitales de la serie ADT681 tienen algunas funcionalidades adicionales a la serie ADT680: vienen con interfaz de comunicación RS232 en su versión más básica, los rangos de medición disponibles son más amplios y el rango de medición más pequeño es de +2,5 mbar en modo diferencial. Éste tiene dos entradas para facilitar la medición directa de la diferencia entre dos presiones como puede ser por ejemplo la diferencia entre la presión interior y exterior de una sala blanca, o la caída de presión a través de un filtro. Puede suministrarse con racor de conexión inferior o posterior para facilitar el montaje en panel.

Las clases de exactitud e incertidumbre disponibles para la serie Additel 681 van desde 0,2 % hasta 0,02 % del rango de medición.

La resolución de la medición tanto de la serie Additel 680 como de la serie Additel 681 es de 5 dígitos lo cual es equivalente a 0,001 % del rango de medición. La lectura digital es clara y cómoda con luz de fondo. El manómetro digital de precisión ADT681 también muestra una gráfica que simula el movimiento de la aguja de un manómetro mecánico. La gráfica puede configurarse para indicar la estabilidad del transmisor de presión con referencia a un valor inicial, o el margen de movimiento entre dos límites de alarma.

Se puede seleccionar entre multitudes de unidades de medición incluyendo las del sistema SI como Pa, kPa, MPa, etc., unidades antiguas como kg/cm2, columnas de fluidos, unidades imperiales y americanas, etc.

En general estos manómetros digitales de precisión proporcionan un sinfín de ventajas sobre los manómetros mecánicos tradicionales y su uso típico va desde mediciones de procesos en una planta, pruebas de estanqueidad, hasta su uso como manómetro patrón de referencia en sistemas de calibración.

¿Necesitas calibrar tu instrumento? Contáctanos aquí
Contáctate con el área de ventas 941 101 546

termómetro clínico

¿Qué es un termómetro clínico?

Un termómetro clínico, también llamado termómetro médico, es un instrumento de medición cuya función principal es medir la temperatura corporal y averiguar si el paciente tiene fiebre. Por lo general, los termómetros clínicos miden un rango de temperaturas comprendido entre 35 y 40°C, ya que temperatura humana normal está en el rango de 35 a 37°C, existiendo fiebre a partir de 37,7°C en adultos o 38°C en lactantes.

Características de los termómetros clínicos

El termómetro clínico es el instrumento más usado y más fiable para averiguar la temperatura corporal y determinar si el paciente tiene fiebre. Los termómetros clínicos generalmente miden un rango de 35 a 40 grados Celsius.

La temperatura humana normal se encuentran habitualmente en el rango de 35 a 37 grados Celsius, aunque puede haber variaciones significativas entre diferentes personas. Las temperaturas superiores a 37,7 grados Celsius en adultos o 38 grados Celsius en lactantes, indican la presencia de fiebre y pueden requerir atención médica inmediata para descartar la presencia de una infección grave.

Los termómetros clínicos se emplean en los distintos centros sanitarios para medir la temperatura corporal de los pacientes, por lo que son de gran importancia, ya que la temperatura del cuerpo humano es un reflejo relativo de la salud del paciente. Una temperatura demasiado elevada o demasiado baja, que no se encuentra dentro del rango normal, puede indicar la existencia de alguna enfermedad.

Los termómetros clínicos también se utilizan para la predicción de la fertilidad femenina, ya que las variaciones de la temperatura basal corporal (BBT, Basal Body Temperature) en la mujer puede ayudar a predecir sus períodos fértiles. Las mujeres que usan este método para predecir la ovulación deben hacer un cuadro con la temperatura basal durante varios ciclos para familiarizarse con su ciclo y prever cuándo es su fertilidad. Para esta finalidad se suelen utilizar termómetros específicos para la fertilidad, más precisos que los termómetros clínicos convencionales.

Tipos de termómetros clínicos

Los termómetros clínicos pueden ser de dos clases:

  • Termómetros clínicos de mercurio: consisten en un tubo de cristal que contiene un pequeño depósito de mercurio en su parte inferior que al contacto con el cuerpo se dilata por efecto del calor corporal, ocupando parte de dicho tubo de cristal en el que señala la temperatura del paciente, gracias a la graduación que tiene marcada. Actualmente están en desuso debido a que contaminan el medio ambiente cuando se desechan. Existen modelos similares que utilizan otros líquidos termométricos, como el alcohol.
  • Termómetros clínicos digitales: miden la temperatura a través de algún dispositivo transductor, convirtiendo las pequeñas variaciones de tensión obtenidas en números mediante circuitos electrónicos y mostrando finalmente la temperatura medida en una pantalla digital. Algunos modelos usan radiación infrarroja para medir la temperatura en puntos como la frente o a través del conducto auditivo.

Los termómetros de mercurio y los digitales estándar se usan para medir la temperatura en las cavidades corporales (oral, rectal y vaginal) o en otros puntos auxiliares, como la axila. Los termómetros digitales por infrarrojos, en cambio, por lo general miden la temperatura en puntos alternativos, como el tímpano o la frente.

Los termómetros clínicos digitales presentan diversas ventajas frente a los tradicionales termómetros de mercurio, como su fácil lectura, respuesta rápida, memoria y en algunos modelos alarma con vibración.

Los termómetros clínicos deben ser perfectamente desinfectados y esterilizados antes y después de cada uso.

Termómetro clínico para Covid

Desde la gran pandemia del Covid-19, han crecido en relevancia los termómetros láser, enfocados a detectar la fiebre sin tocar la piel del paciente, siendo más higiénicos y así evitando la propagación del virus.

El principal reto de los termómetros sin contacto es la precisión, debemos asegurarnos que el margen de error es como máximo entre 0,1º y 0,2 ºC.

LABORATORIO DE METROLOGÍA Y CALIBRACIÓN CERTIMET para obtener más detalles sobre los programas de mantenimiento para su instrumento. 

¿Necesitas calibrar tu instrumento? Contáctanos aquí
Contáctate con el área de ventas 941 101 546

Nueva norma para manómetros absolutos: DIN 16002

Al final los organismos de regulación han completado la estandarización de los instrumentos de medición y se ha publicado la nueva norma DIN 16002 que define los manómetros absolutos. La familia de instrumentos WIKA 532.52 cumple con la nueva norma y todas las versiones están marcadas con el símbolo DIN 16002.

Hasta ahora sólo se disponía de la norma EN 837, que sólo se refería a los manómetros relativos. WIKA tomó la iniciativa de introducir la nueva norma que hace referencia también a los instrumentos mecánicos para la medición de presión absoluta y contribuyó activamente en su desarrollo como miembro oficial del Comité DIN.

La norma DIN 16002 describe las dimensiones, el diseño, los requisitos y la comprobación de los instrumentos. Un manómetro de presión absoluta utiliza una célula de medición que está separada por una membrana. En la parte superior, la denominada cámara de referencia, se produce una presión de vacío. La medición realizada con la presión de referencia cero (vacío) se realiza generalmente en el rango mbar.

Los requisitos de calidad de los manómetros absolutos, en particular la estabilidad a largo plazo, son elevados. Por lo tanto, los materiales de la cámara de referencia y la soldadura no deben poner en peligro el vacío interior.

Los elevados requisitos están relacionados con el propósito de prueba definida por la nueva norma DIN para los instrumentos de medición. Esto se aplica, por ejemplo, a la tasa de fuga de las cámaras de referencia y a la presión de la célula de medición, pero también a la carga dinámica. Los manómetros deben soportar hasta 100.000 ciclos de carga para recibir la marca según DIN 16002.

LABORATORIO DE METROLOGÍA Y CALIBRACIÓN CERTIMET para obtener más detalles sobre los programas de mantenimiento para su instrumento. Somos expertos y podemos asesorarte en el tipo de rutinas que mejor se adapten a la dinámica de tu negocio y te brinden un buen funcionamiento durante muchos años.

¿Necesitas calibrar tu instrumento? Contáctanos aquí
Contáctate con el área de ventas 941 561 698 o al 941 101 546

Menores tiempo de calibración para tus equipos e instrumentos en Certimet

La exactitud de un sensor de presión

La exactitud de un sensor de presión

La exactitud y la exactitud de un sensor de presión tiene su precio: Cuanto más exacta sea la medida, más caros serán los instrumentos de medición. Por otro lado, la falta de exactitud podría resultar aún más caro, en particular si la calidad del producto sufre por ello.

Por lo tanto, la exactitud debe ser un factor importante a la hora de elegir un sensor. Sin embargo, solo podrá adoptar la decisión correcta si encuentra el camino apropiado dentro del «laberinto» de los datos sobre la exactitud. En el presente artículo el autor explica los parámetros y criterios más importantes utilizando el ejemplo de un sensor de presión industrial.

El término «exactitud» existe solo en el idioma de los usuarios. No está definido en ninguna norma. Sin embargo, este término  aparece en muchas hojas técnicas sobre sensores. Desafortunadamente, no existe ningún concepto común sobre el significado exactitud. No existe «una exactitud», sino una gran cantidad de diferentes especificaciones al respecto.

Los factores relevantes para los sensores de presión referente a la exactitud se definen de manera única en todos los estándares. Sin embargo, los datos de los fabricantes difícilmente pueden compararse entre sí, ya que los fabricantes deciden por sí mismos qué información se especifica en la hoja de datos y cómo.

Incluso si dos fabricantes utilizan los mismos términos, no se puede garantizar que ambos signifiquen lo mismo. Con frecuencia, las novedades importantes simplemente se dejan a un lado.

Esto significa que: dos instrumentos que tienen la misma «exactitud» pueden diferir considerablemente vistos más de cerca. Lo mismo se aplica en el caso opuesto.

Los siguientes apartados explican los motivos porque dos sensores diferentes, que presumiblemente pertenecen a diferentes clases de exactitud, muestran un valor casi idéntico.

No linealidad de un sensor de presión

Para muchos usuarios, la no linealidad es el dato de exactitud más significativo y, por lo tanto, el más utilizado. Sin embargo, la no linealidad a menudo se denomina de manera incorrecta como linealidad.

La no linealidad describe hasta qué punto una curva característica está «curvada» o «no es lineal». Indica la mayor desviación posible entre la curva característica y la línea recta ideal.

En general, hay tres métodos para determinar esta línea recta ideal: Ajuste de punto límite, ajuste de valor mínimo (BFSL) y ajuste de origen, siendo este último el menos frecuente.

En el caso de la no linealidad según ajuste del punto límite, la línea recta ideal pasa por el punto inicial y final de la curva; con el método BFSL (Línea recta de mejor ajuste), la línea de referencia se selecciona de manera que la desviación positiva máxima y la desviación negativa máxima sean idénticas.

La no linealidad según el ajuste del punto límite proporciona el mayor valor absoluto comparado con el ajuste del valor mínimo, pero es más comprensible para el usuario. La no linealidad según el ajuste del valor mínimo es el valor más significativo en muchos casos porque  describe el potencial de la curva característica.

El grado real de diferencia entre la no linealidad según el ajuste del punto límite y según el método BFSL depende de la forma típica de la curva característica de un sensor de presión en particular. La no linealidad puede ser el doble de acuerdo con el ajuste del punto límite.

Desafortunadamente, muchas hojas técnicas no indican el método que se ha utilizado para determinar la no linealidad. Con frecuencia, los datos solo se pueden comparar tras consultar al fabricante (figura 2).

Figura 2 No linealidad de un sensor de presión

Figura 2 No linealidad de un sensor de presión

Valores típicos de un sensor de presión 

No hay dos productos idénticos. Esta afirmación también se aplica a la exactitud de los sensores de presión.

En realidad, la no linealidad de un número elevado de dispositivos será considerablemente mejor que el valor máximo especificado en la hoja técnica. Solo de esta manera se puede garantizar que la desviación no exceda de un cierto valor máximo debido a tolerancias o variaciones. Esta exactitud (mejorada) se describe como valor típico. Por lo tanto, estas precisiones a menudo se marcan con «tip». (figura 3).

Valores típicos de un sensor de presión

Figura 3. Valores típicos de un sensor de presión_

Sin embargo, casi ningún fabricante especifica claramente cuántos dispositivos realmente cumplen con esta «exactitud típica». En general, puede suponer que una «exatitud típica» se corresponde con el valor 1 sigma de la distribución de Gauss, es decir, aproximadamente el 68,27% de los dispositivos cumplen con este valor típico.

Si se proporciona una exactitud típica, el usuario sabe que el fabricante no garantiza que el 100% de los dispositivos entregados cumplan con la exactitud dada. Dependiendo de la distribución de los valores medidos, el valor máximo puede ser el doble o el triple del valor típico.

Por cierto, los valores típicos se pueden encontrar no solo con la no linealidad sino también con otras especificaciones de exactitud.

Error de medida de un sensor de presió

Probablemente el valor más «fiable» es el error de medida. Puede determinarse sin ningún esfuerzo adicional directamente a partir de la curva característica y contiene todos los errores relevantes a temperatura ambiente, tal como la no linealidad, histéresis, no repetibilidad y error de medición al principio y al final del rango de medida.

Si el usuario maneja el dispositivo a temperatura ambiente, este es el error real con el que se mide la presión (figura 4).

Error de medida histeresis sensor de presión

Fig 4. Error de medida y histéresis de un sensor de presión

El error de medida es la mayor desviación existente entre la curva característica real y la línea recta ideal. La histéresis se define como la desviación máxima de la curva característica en el descenso y el ascenso.

La no repetibilidad es la mayor desviación que se obtiene al realizar tres medidas en condiciones idénticas. Desafortunadamente, el fabricante especifica el error de medida en muy raras ocasiones porque, como es comprensible, siempre es mayor que la no linealidad.

En general, se proporciona la no linealidad y el error de medición al principio y al final del rango de medición se indica por separado. Los dos últimos en la práctica se denominan error de punto cero y error de intervalo, y el intervalo es la diferencia entre el extremo inferior de la escala y el valor de la escala completa.

Error de temperatura de un sensor de presión

No importa si se usa la no linealidad o el error de medida: Todas estas especificaciones de exactitud describen un sensor de presión a temperatura ambiente. Si la temperatura de trabajo es mayor o menor, también se debe considerar un error de temperatura.

El error de temperatura a menudo se indica como coeficiente de temperatura basado en un intervalo de 10 K. El coeficiente de punto cero y el coeficiente de ganancia se indican por separado. Un dispositivo que tenga una exactitud suficiente a temperatura ambiente puede duplicar su error con una desviación de 10 K (figura 5).

Error de temperatura sensor de presión

Fig. 5 Error de temperatura de un sensor de presión

Muchos usuarios no saben que tienen que agregar los coeficientes de temperatura del punto cero y el intervalo para calcular el error del valor de escala total. Los errores de temperatura también pueden derivar de desviaciones de la temperatura media o ambiente.

Estabilidad de un sensor de presión 

La exactitud indicada en las hojas técnicas generalmente describe la condición de un instrumento al final del proceso de producción.

El dispositivo puede estar expuesto a condiciones ambientales que afecten negativamente a su exactitud desde el momento en que abandonan la empresa o el almacén del fabricante o durante el transporte.

No importa cuán exacto sea el instrumento o si es de una calidad muy alta, cada instrumento cambia su exactitud durante su vida útil. Este cambio se denomina deriva a largo plazo o estabilidad a largo plazo.

La dimensión de esta deriva viene influida en gran medida por las condiciones de funcionamiento, es decir, las presiones, las temperaturas y otras influencias a las que está expuesto el dispositivo.

En muchos casos, la estabilidad tiene una mayor influencia en la desviación global que, por ejemplo, la no linealidad. Valores dos o tres veces más elevados son frecuentes. Los datos de estabilidad declarados por el fabricante difícilmente pueden compararse.

Diferentes estándares describen pruebas muy diferentes para determinar la estabilidad. Además, ninguna de estas pruebas es una copia exacta de las condiciones reales de uso. Esto no es posible porque las condiciones varían mucho de una aplicación a otra. En consecuencia, los datos de estabilidad solo son válidos para su uso en laboratorios o en condiciones de referencia.

Sin embargo, incluso si se utiliza en condiciones de referencia, es casi imposible obtener datos comparables. No puedes hacer que el tiempo vaya más rápido. Y todos los intentos de simular un efecto de lapso de tiempo mediante choques térmicos y otros métodos son solo intentos.

Elementos de la exactitud de presión en la práctica

La histéresis y la no repetibilidad son prácticamente los únicos errores con los que tendrá que convivir. Todos los demás errores pueden minimizarse o incluso eliminarse con algún esfuerzo. Esto funciona con mayor claridad y facilidad utilizando el error de compensación.

El usuario puede leer sin problemas el error de compensación en condiciones no presurizadas e introducirlo como compensación en el instrumento de evaluación correspondiente.

Para eliminar el error de intervalo, la presión debe regularse exactamente al valor de escala completa.

Esto a menudo no es posible ya que no hay un valor de referencia para la presión. Con el fin de que el sensor de presión no mida peor que antes, la presión de referencia debe ser tres veces más precisa que la exactitud deseada.

La no linealidad solo puede minimizarse con cierto esfuerzo por parte del usuario, por ejemplo, deduciéndola en el sistema electrónico conectado basado en puntos. Incluso en este caso, se requiere un estándar de medida altamente preciso.

Sin embargo, estos errores son completamente irrelevantes en algunas aplicaciones y solo resulta importante la no repetibilidad. Si, por ejemplo, la tarea consiste en regular siempre la misma presión, el error se puede compensar fácilmente si se conoce; el resto es la no repetibilidad y la estabilidad a largo plazo.

El error de temperatura se puede estimar fácilmente a temperaturas de trabajo constantes, pero si su aplicación cubre un rango de temperatura más amplio, es mucho más difícil.

Desafortunadamente, muchos usuarios aún asumen que los sensores de presión no presentan un error de temperatura adicional dentro del rango nominal de temperaturas. Sin embargo, el rango nominal de temperaturas es solo el rango para el cual los coeficientes de temperatura resultan válidos.

La mayoría de los fabricantes recomiendan calibrar los sensores de presión una vez al año, para controlar si aún cumplen con sus especificaciones. El dispositivo no se reajusta, pero se analiza el cambio real, es decir, la deriva. Si la deriva es más elevada que el valor especificado por el fabricante, podría ser una indicación de que estamos utilizando un dispositivo defectuoso.

Cuanto mayor sea la inestabilidad, mayor será la probabilidad de que el sensor esté defectuoso. En este caso, no se puede garantizar la fiabilidad del proceso si el dispositivo todavía se está utilizando. Esta comprobación no requiere mucho esfuerzo. A menudo resulta suficiente verificar si ha cambiado el punto cero del dispositivo sin presión.

Si el dispositivo no puede ser comprobado en el sistema ni desmontado para su examen, al menos debe establecer un valor alto en una muy buena estabilidad y respetarlo en sus especificaciones de exactitud.

Desafortunadamente, estas no son las únicas fuentes posibles de error. Vibraciones, interferencias electromagnéticas, posición de montaje del sensor, fuente de alimentación e, incluso, la carga del instrumento de evaluación pueden afectar a la exactitud de su sensor de presión. Por lo tanto, en muchos casos se recomienda la consulta individual de un especialista.

Conclusión

¿Conoce la exactitud exacta de su sensor? ¿Es tan buena como esperaba? ¿O es demasiado buena? Usted es la única persona que decide qué errores son relevantes y cuáles no. Los consultores de aplicaciones de los fabricantes explican qué características del producto son importantes para ellos y cómo se pueden implementar en su aplicación.

LABORATORIO DE METROLOGÍA Y CALIBRACIÓN CERTIMET para obtener más detalles sobre los programas de mantenimiento para su instrumento. Somos expertos y podemos asesorarte en el tipo de rutinas que mejor se adapten a la dinámica de tu negocio y te brinden un buen funcionamiento durante muchos años.

¿Necesitas calibrar tu instrumento? Contáctanos aquí
Contáctate con el área de ventas 941 561 698 o al 941 101 546

Menores tiempo de calibración para tus equipos e instrumentos en Certimet

Qué es un certificado de calibración

¿Cuál es la diferencia entre calibración y ajuste?

En algún momento muchos nos hemos preguntado «¿Cuál es la diferencia entre calibración y ajuste?» y a veces la respuesta no es la más acertada y no deja más dudas. Acá te traemos este post para que puedas identificar y diferenciar entre calibración y ajuste.

Los instrumentos de medición de presión y temperatura se utilizan en casi todas las áreas de la fabricación industrial. Como resultado de la carga mecánica, química y térmica continua, estos instrumentos envejecen y, por lo tanto, no pueden garantizar la exactitud del valor medido a lo largo del tiempo.

Sin embargo, a través de la calibración de instrumentos se puede determinar la alteración del valor medido y, si es necesario, se puede realizar un ajuste.

Las normas y directivas prescriben que los fabricantes deben calibrar el equipo de inspección que tiene una influencia directa e indirecta en la calidad Para una mejor comprensión de los conceptos de calibración y ajuste, a continuación les explicaremos cada uno.

CALIBRACIÓN

Calibrar, en metrología industrial, significa determinar las desviaciones de medición en el instrumento completo. Con la calibración no hay ninguna intervención técnica, como el ajuste de cero, la configuración de rango y linealidad, entre otros. Al indicar la calibración del instrumento se establece la desviación de medición entre la pantalla y lo que se afirma que es el valor correcto.

Para las mediciones de material, por ejemplo, las masas, la desviación de medición se determina al medir la diferencia entre el marcado y el valor correcto. Para las cadenas de medición se determina la desviación entre el valor medido de la señal de salida y el valor que esta señal debe tener, con una característica de transferencia ideal y un valor de entrada dado.

AJUSTE

Ajuste significa la configuración o alineación de un instrumento de medición para que las desviaciones se hagan lo más pequeñas posible, o que las magnitudes de las desviaciones no excedan los límites de error o tolerancia establecidos por el fabricante, el proceso y/o las normativas legales.

 

Por lo tanto, el ajuste requiere una intervención que, en la mayoría de los casos, altera permanentemente el instrumento, por ejemplo, reposicionar el puntero o ajustar un nuevo dial.

 

Calibración y ajuste van de la mano, ya que los resultados del primero determinan las acciones que se deben llevar a cabo durante el segundo proceso. En CERTIMET somos un laboratorio de metrología especializado en la calibración y ajuste de instrumentos de masa y temperatura con base en las normativas vigentes y las necesidades de sus industrias.

LABORATORIO DE METROLOGÍA Y CALIBRACIÓN CERTIMET para obtener más detalles sobre los programas de mantenimiento para su instrumento. Somos expertos y podemos asesorarte en el tipo de rutinas que mejor se adapten a la dinámica de tu negocio y te brinden un buen funcionamiento durante muchos años.

¿Necesitas calibrar tu instrumento? Contáctanos aquí
Contáctate con el área de ventas 941 561 698 o al 941 101 546

Menores tiempo de calibración para tus equipos e instrumentos en Certimet

QUÉ ES UN CERTIFICADO DE CALIBRACIÓN

¿Qué es un certificado de calibración?

Para uso industrial y comercial, los instrumentos de medición requieren un certificado de calibración, que garantiza que los datos que arrojen son los adecuados de acuerdo con las normativas nacionales e internacionales, además tiene muchas ventajas, tanto para ustedes como para sus clientes.

En muchas ocasiones se piensa que los certificados de calibración son sólo un documento que se pide durante una auditoría, lo que es un grave error.

Cualquier equipo utilizado para la medición tiene un error de medida, que se conoce como incertidumbre, cuando es superada de acuerdo con los estándares establecidos por las normas peruanas e internacionales, se considera que el equipo está descalibrado.

La incertidumbre de medida puede variar por el uso, desgaste de algunos componentes, condiciones ambientales, entre otros elementos.

La calibración de los equipos es el cálculo de esta variación y el ajuste necesario para que vuelva estar dentro de los parámetros recomendados. Los certificados emitidos por laboratorios de metrología autorizados son una verificación del error de medida de cualquier instrumento de medición.

Existen diferentes tipos de certificados de calibración, todos cuentan con un valor legal máximo de un año:

  • Certificado de calibración de fabricante. La mayoría de los fabricantes de instrumentos y equipos de medición emiten un certificado, que garantiza que la unidad fue fabricada bajo las normas establecidas y establece la incertidumbre de medida, así como los patrones de calibrado y tipo de certificado que tienen los patrones.Este certificado sólo es válido si el equipo es nuevo, a pesar de ello se recomienda una comprobación inicial para garantizar la adecuada medición.
  • Certificado acreditado por un laboratorio de metrología. Es emitido por laboratorios acreditados, que cuentan con los procedimientos establecidos por las agencias normativas a nivel nacional e internacional. Los certificados tienen una validez de un año y respaldan su uso a nivel comercial e industrial.

Contar con un certificado de calibración de instrumentos es un requisito legal para las industrias, comercios, tiendas y almacenes. Para adquirir uno para sus dispositivos de medición de temperatura y masa, acudan con los especialistas de CERTIMET, en nuestro laboratorio de metrología nuestros técnicos les brindarán el mejor servicio para sus equipos.

LABORATORIO DE METROLOGÍA Y CALIBRACIÓN CERTIMET para obtener más detalles sobre los programas de mantenimiento para las básculas comerciales. Somos expertos y podemos asesorarte en el tipo de rutinas que mejor se adapten a la dinámica de tu negocio y te brinden un buen funcionamiento durante muchos años.

¿Necesitas calibrar tu instrumento? Contáctanos aquí
Contáctate con el área de ventas 941 561 698 o al 941 101 546

Menores tiempo de calibración para tus equipos e instrumentos en Certimet

Por qué calibrar los termómetros

¿Por qué calibrar los termómetros?

Una de las preguntas más usuales que se puede hacer un usuario de termómetros es ¿Por qué calibrar los termómetros? ¿Es necesario? En este nuevo post de CERTIMET te explicamos porqué deberías calibrarlas.

Un termómetro consiste en un dispositivo el cual se encarga de medir la temperatura o un gradiente de temperatura. Los termómetros, en general tienen dos elementos importantes: un sensor de temperatura (por ejemplo, puede ser el bulbo de un termómetro de mercurio en vidrio o el sensor digital en un termómetro infrarrojo), en el que se produce alguna variación con un cambio de temperatura; y algunos medios para convertir este cambio en un valor numérico (por ejemplo, la escala visible que está marcada en un termómetro de mercurio en vidrio o la lectura digital en un modelo de infrarrojos).

Los termómetros son ampliamente utilizados en la industria para monitorear procesos, en meteorología, en medicina y en investigación científica. En esta publicación les hablaremos sobre estos instrumentos maravillosos, así como de la calibración de termómetros, un servicio que en el laboratorio de CERTIMET ofrecemos al público.

HISTORIA DEL TERMÓMETRO

Hablemos un poco sobre la historia de este maravilloso instrumento de medición. Algunos de los principios del termómetro eran conocidos por los filósofos griegos de hace dos mil años. El termómetro moderno evolucionó gradualmente desde el termoscopio, con la adición de una escala a principios del siglo XVII y la estandarización hasta los siglos XVII y XVIII. Ahora bien, mientras que un termómetro individual puede medir el grado de calor, las lecturas en dos termómetros no se pueden comparar a menos que se ajusten a una escala acordada.

Hoy hay una escala de temperatura termodinámica absoluta. Las escalas de temperatura acordadas internacionalmente están diseñadas para aproximarse a esta estrechamente, con base en puntos fijos y termómetros de interpolación.

La escala de temperatura oficial más reciente es la escala de temperatura internacional de 1990. Se extiende de 0,65 K (-272,5 ° C; -458,5 ° F) a aproximadamente 1,358 K (1,085 ° C; 1,985 ° F).

Se conocen actualmente dos termómetros, uno con unidades Fahrenheit (símbolo ° F) y otro con unidades Celsius (símbolo ° C). Cabe agregar que el termómetro de mercurio en vidrio de Daniel Fahrenheit fue el primer instrumento para medir la temperatura, práctico y preciso de la historia.

Varios autores han acreditado la invención del termómetro a Hero de Alexandria, sin embargo el termómetro no era una sola invención, sino un desarrollo.

Hero de Alexandria (10-70 d.C.) conocía el principio de que ciertas sustancias, especialmente el aire, se expanden y contraen y describieron una demostración en la que un tubo cerrado parcialmente lleno de aire tenía su final en un recipiente de agua. La expansión y contracción del aire hizo que la posición de la interfaz agua/aire se moviera a lo largo del tubo.

Tal mecanismo se usó más tarde para mostrar el calor y la frialdad del aire con un tubo en el que el nivel del agua se controla mediante la expansión y contracción del gas. Estos dispositivos fueron desarrollados por varios científicos europeos en los siglos XVI y XVII, especialmente por Galileo Galilei.

Como resultado, se demostró que los dispositivos producían este efecto de manera confiable, y se adoptó el término termoscopio porque reflejaba los cambios en el calor sensible (el concepto de temperatura aún no se había planteado).

¿Termoscopio? ¿Termómetro? ¿Son iguales?

La diferencia entre un termoscopio y un termómetro es que este último tiene una escala.  Aunque a menudo se dice que Galileo es el inventor del termómetro, en realidad lo que este notable personaje produjo fueron termoscopios.

El primer diagrama claro de un termoscopio fue publicado en 1617 por Giuseppe Biancani (1566 – 1624): el primero que mostraba una escala y que constituía un termómetro era por Robert Fludd en 1638. Era un tubo vertical, cerrado por un foco de aire en la parte superior, con el extremo inferior abierto en un recipiente de agua. El nivel de agua en el tubo está controlado por la expansión y contracción del aire, por lo que es lo que ahora llamaríamos un termómetro de aire.

La palabra termómetro (en su forma francesa) apareció por primera vez en 1624 en La Récréation Mathématique por J. Leurechon, quien describe una con una escala de 8 grados.  La palabra proviene de las palabras griegas θερμός, thermos, que significa “caliente” y μέτρονmetrón, que significa “medida”.

¿Los termómetros necesitan calibración?

Como todo aparato de precisión, se ha ido desarrollando a la par de las innovaciones tecnológicas y además, como todo artefacto de medición, necesita de mantenimiento. Por ello en todo laboratorio se realiza una calibración de termómetros la cual es una operación recurrente.

Esta calibración se entiende como una actividad planeada que se lleva a cabo en entornos controlados y a partir de un rango de temperatura determinado, en la que se realiza una comparación entre un patrón de medida que se contrapone con la medida que da el termómetro en cuestión. Esto se realiza de manera certificada, por lo que los resultados cuando son positivos se certifican.

En este proceso se separan los niveles de seguridad y fiabilidad con respecto al uso que tenga el instrumento y de acuerdo en el lugar que se encuentre. Con estos datos se elabora un registro permanente de la gestión de la calidad de los artefactos con lo que se asegura la continuidad del buen uso.

¿Cómo se calibran los termómetros?

Para la calibración de termómetros lo primero a realizar es por comparación y lo segundo es por puntos fijos o calibración absoluta. El primero consiste en comparar las características de un termómetro del que ya se conocen sus características con las de otro termómetro que se esté calibrando. Para la calibración de puntos fijos se utilizan elementos los cuales se saben cuál es su temperatura, como el hielo que es bien sabido que el agua se congela a los cero grados.

En CERTIMET contamos con amplia experiencia para la calibración, acreditación y certificación de termómetros así como de diversos instrumentos de medición como son instrumentos de medición de:

  • Temperatura,
  • Pesas
  • Tiempo y Frecuencia
  • Longitud
  • Humedad
  • Electricidad
  • Fotometría y acústica
  • Fuerza y presión
  • Físico químico y objetos no normalizados, que por sus características no se consideran pesas pero se es necesario determinar su masa

 

LABORATORIO DE METROLOGÍA Y CALIBRACIÓN CERTIMET para obtener más detalles sobre los programas de mantenimiento para las básculas comerciales. Somos expertos y podemos asesorarte en el tipo de rutinas que mejor se adapten a la dinámica de tu negocio y te brinden un buen funcionamiento durante muchos años.

¿Necesitas calibrar tu instrumento? Contáctanos aquí
Contáctate con el área de ventas 941 561 698 o al 941 101 546

Menores tiempo de calibración para tus equipos e instrumentos en Certimet