Calibração em Transmissores de Pressão

INTRODUÇÃO

Calibração é o nome dado a um série de conjunto de operações que estabelecem, sob condições especificadas, a relação entre os valores indicados por um instrumento (calibrador) ou sistema de medição e os valores representados por uma medida materializada ou um material de referência, ou os correspondentes das grandezas estabelecidas por padrões. As operações de calibração são baseadas na comparação dos instrumentos padrão de modo determinar a sua exatidão e verificar se essa exatidão continua de acordo com a especificação de fabricante. Resumidamente, calibração é a comparação entre os valores indicados por um instrumento de medição e os indicados por um padrão.

Em termos práticos, a calibração é uma ferramenta básica que visa a assegurar a confiabilidade de um instrumento de medição, por meio da comparação do valor medido com um padrão rastreado.

Hoje nos processos e controles industriais, somos testemunhas dos avanços tecnológicos com o advento dos microprocessadores e componentes eletrônicos, da tecnologia Fieldbus, o uso da Internet, etc., tudo facilitando as operações, garantindo otimização e performance dos processos e segurança operacional.Este avanço permite hoje que  transmissores de pressão, assim como os de outras variáveis, possam ser projetados para garantir alto desempenho em medições que até então utilizam somente a tecnologia analógica.Os transmissores usados até então(analógicos) eram projetados com componentes discretos, susceptíveis a drifits devido à temperatura, condições ambientais e de processo, com ajustes constantes através de potenciômetros e chaves. Com o advento da tecnologia digital, a simplicidade de uso também foi algo que se ganhou.

Os transmissores de pressão são amplamente utilizados nos processos e aplicações com inúmeras funcionalidades e recursos.A grande maioria dos processos industrias envolvem medições de pressão, lembrando ainda, que  pressão é uma grandeza básica para a medição e controle de vazão, nível e densidade, etc.

A calibração de transmissores de pressão é importantíssima para a garantia da qualidade da medição em que estão envolvidos. Ela assegura que os transmisssores usados estão dentro de um critério aceitável e que não vão prejudicar a qualidade final dos processos envolvidos.

Veremos mais adiante, como exemplo, como calibrar um transmissor de pressão SMAR com tecnologia Profibus-PA, o LD303.

Comentaremos inicialmente neste artigo alguns detalhes e conceitos envolvidos com os transmissores de pressão e que podem afetar performance e calibração dos equipamentos, caso não se tenha estes conceitos.

A EXATIDÃO DE UM TRANSMISSOR DE PRESSÃO

Vale lembrar que nas últimas décadas, uma enorme variedade de equipamentos se espalhou pelo mercado em diversas aplicações. A exatidão da caracterização de pressão só teve seu real valor a partir do momento em que conseguimos traduzi-la em valores mensuráveis.

Todo sistema de medição de pressão é constituído pelo elemento primário, o qual estará em contato direto ou indireto ao processo onde se tem as mudanças de pressão e pelo elemento secundário(Transmissor de Pressão) que terá a tarefa de traduzir esta mudança em valores mensuráveis  para uso em indicação, monitoração e controle.

A performance estática ou exatidão(muitas vezes confundida com precisão, onde exatidão está associada à proximidade do valor verdadeiro e precisão à dispersão dos valores resultantes de uma série de medidas) de um transmissor de pressão depende de quão bem calibrado é o transmissor e quanto tempo ele pode manter sua calibração.

A calibração de um transmissor de pressão envolve o ajuste de zero e span.A exatidão normalmente inclui efeitos de não-lineraridade, histerese e repetibilidade.

Normalmente a exatidão é dada em % do span calibrado.

ALGUNS IMPORTANTES CONCEITOS

Usualmente a relação entre entrada e saída de um transmissor de pressão é predominantemente linear(Y = ax + b), onde a é conhecido como ganho e o b é o zero ou offset, como podemos ver na figura 1.

Range: é a faixa de medição, compreendendo da mínima até a máxima pressão que o transmissor pode medir, por exemplo, 0 a 5080 mmH2O. O Span máximo é 5080 mmH2O.

Zero: é a menor pressão na qual o transmissor foi calibrado.

Figura 1 – Curva de Calibração de um Transmissor de Pressão

URL(Upper Range Limit): é a mais alta pressão que o transmissor de pressão foi setado para medir, respeitando-se o limite superior do sensor.

LRL(Lower Range Limit): é a mais baixa pressão que o transmissor de pressão foi setado para medir, respeitando-se o limite inferior do sensor.

Span(Range Calibrado): A faixa de trabalho onde é feito a calibração é conhecida como span, por exemplo, de 500 a 3000 mmH2O, onde o span é de 3000-500 = 2500 mmH2O. O Span é igual a URL – LRL.

Figura 2 – Terminologia de Calibração

Supressão de Zero(é a quantidade com que o valor inferior supera o valor zero da pressão): a supressão acontece quandoo transmissor indica um nível superior ao real.Em medições de nível, por exemplo, onde o transmissor não está instalado no mesmo nível que sua tomada de alta e há então a necessidade de compensação da coluna de líquido na tomada do transmissor. Este tipo de instalação é requisitado onde se tem o transmissor a um nível inferior, que muitas vezes é na prática a maneira preferencial por facilitar acesso, visualização e manutenção.Neste caso, uma coluna líquida se forma com a altura do líquido dentro da tomada de impulso e o transmissor indicará um nível superior ao real.Isto deve ser considerado. É o que chamamos de Supressão de Zero.

Figura 3 – Medição indireta utilizando transmissor de pressão diferencial em tanques abertos – Supressão de Zero.

Elevação de Zero(é a quantidade com que o valor zero de pressão supera o valor inferior): de acordo com a Figura 4,  onde se pode ter o tanque fechado e o transmissor de pressão diferencial localizado abaixo de sua tomada Hi e não há selagem liquida na tomada de Low, é necessária a compensação da coluna de liquido aplicada  na tomada Hi, fazendo-se a Supressão de Zero. No caso onde existe a selagem liquida na tomada de pressão baixa(low), é necessária a compensação da coluna de liquido aplicada  na tomada Hi e na tomada Low.É o que chamamos de Elevação de Zero.


Figura 4– Medição indireta utilizando transmissor de pressão diferencial em tanques abertos – Elevação de Zero.

Desvio de Zero(Zero Shift): este é um erro constante em todas as medições.Pode ser positivo ou negativo. Pode acontecer por várias razões, como por exemplo mudanças de temperaturas, choque mecânico, diferenças de potenciais, aterramento inadequado, etc.Vide figura 5.

Figura 5– Desvio de Zero e Desvio de Span

Desvio de Span(Span Shift): uma mudança na derivada da relação entrada/saída é referida como desvio de span.Um erro de span pode ou não ser acompanhado por um erro de offset.Tipicamente, erros de calibração envolvem somente erros de span e são menos comuns que erros que envolvem erros no span e no zero ao mesmo tempo.Na grande maioria dos casos os erros em transmissores são desvios de zero.Vide figura 5.

Histerese: é o fenômeno no qual a saída do transmissor de pressão difere da mesma entrada aplicada dependendo da direção em que é aplicado o sinal de entrada, isto é, se ascendente ou descendente.Normalmente a calibração de um transmissor de pressão é feita usando-se a sequência: 0, 25, 50, 75, 100, 75, 50, 25 e 0% do span.Vide figura 6.

Figura 6– Histerese       

Repetibilidade: é o desvio percentual máximo com o qual uma mesma medição é indicada, sendo todas as condições reproduzidas extamente da mesma maneira.

Turndown(TD) ou Rangeabilidade: é a relação entre a máxima pressão(URL) e a mínima pressão medida(span mínimo calibrado). Por exemplo, um transmisssor tem o range de 0-5080 mmH2O e vai ser usado em 10:1, isto significa que transmissor irá medir de 0 a 508 mmH2O. TD = URL/Span Calibrado.

Pressão Absoluta: valor medido sob as condições de vácuo, isto é, ausência de pressão.Também conhecida como zero absoluto.

Pressão Atmosférica: pressão exercida pela atmosfera e que depende da altitude.Este valor diminui com o aumento da altitude e ao nível do mar vale 14,696 psia.

Pressão Manométrica ou Gage: pressão em relação à atmosfera.

Pressão Diferencial: a pressão tomada em relação a uma referência.        

Pressão estática ou de linha: pressão exercida em uma linha de pressão onde se tem vazão de fluido.É a pressão de processo aplicada em ambos as tomadas de um transmissor diferencial.

Pressão Hidrostática: pressão exercida por um líquido sob a superfície  abaixo do mesmo.

Erro Total Provável(ETP):   todos os transmissores independentes de fabricantes possuem um erro que depende de vários pontos. Este erro é conhecido como Erro Total Provável(ETP). Este erro depende de certas condições:

  • Variação da temperatura ambiente;
  • Pressão estática;
  • Variação da tensão de alimentação;
  • Span Calibrado;
  • URL do Transmissor;
  • Range do Transmissor;
  • Material de Construção;
  • Etc.

O ETP tem a seguinte fórmula: 

ETP2 =  Acc+ ZeroStaticErr+ SpanStaticErr+ TempErr+ VSErr2 + StabilityErr2….

Acc = Exatidão

ZeroStaticError = Erro no Zero devido a influência da pressão estática

SpanStaticError = Erro no Span devido a influência da pressão estática

TempErr = Erro devido a variação de temperatura

VSErr = Erro devido a variação da tensão de alimentação

StabilityErr = Erro de estabilidade

CALIBRAÇÃO DE UM TRANSMISSOR DE PRESSÃO PROFIBUS-PA LD303 SMAR

Cada sensor tem uma curva característica que estabelece uma relação entre a pressão aplicada e o sinal do sensor. Esta curva é determinada para cada sensor e é armazenado em uma memória junto com ele, no caso LD303(para mais detalhes consulte: https://www.smar.com/pt/produto/ld300series-transmissores-de-pressao-nivel-e-vazao ). Quando o sensor é conectado ao circuito do transmissor, o conteúdo de sua memória fica disponível para o microprocessador.

Algumas vezes o valor no indicador do transmissor e a leitura do bloco transdutor podem não estar compatível com a pressão aplicada.

As razões podem ser:

  • A posição de montagem do transmissor.
  • O padrão de pressão do usuário difere do padrão de fábrica.
  • O transmissor teve sua caracterização original deslocada por uma sobre pressão, sobre aquecimento ou através do deslocamento com o tempo.

O Calibração é usada para comparar a leitura com a pressão aplicada.

Há dois tipos de calibrações disponíveis:

Calibração Inferior: é usada para ajustar a leitura na faixa inferior. O operador informa para o LD303 a leitura correta da pressão aplicada. A discrepância mais comum é a leitura inferior.

Calibração superior: é usado para ajustar a leitura na faixa superior. O operador informa para o LD303 a leitura correta da pressão aplicada.

Para melhor precisão, a calibração deve ser ajustada na faixa de operação. As figuras 8 a 10 mostram a operação de ajuste de calibração.

A figura 7 mostra o diagrama de blocos do LD303.

Figura 7 - Diagrama de blocos do LD303

A figura 8 mostra a calibração do sensor e os parâmetros envolvidos:

 

Figura 8 - Calibração do sensor

Via Ferramenta de Configuração

É possível calibrar o transmissor por meio dos parâmetros CAL_POINT_LO e CAL_POINT_HI, sendo eles respectivamente, o ponto inferior e superior.

Antes de tudo, uma unidade de engenharia conveniente deve ser escolhida antes de iniciar a calibração. Esta unidade de engenharia é configurada através do parâmetro SENSOR_UNIT. Após sua configuração os parâmetros relacionados a calibração serão convertidos para esta unidade. Então, selecione a opção Zero / Lower ou Calibração Superior.

Figura 9 - Tela de Configuração do Transdutor

Os códigos da unidade de engenharia seguintes estão definidos para a pressão de acordo com padrão Profibus PA: 

Tabela 1 - códigos da unidade de engenharia

O SENSOR_UNIT permite que o usuário selecione diferentes unidades para as suas finalidades de calibração ao invés das unidades definidas por SENSOR_RANGE.

Os parâmetros SENSOR_HI_LIM e SENSOR_LO_LIM definem os valores mínimos e máximos que o sensor é capaz de indicar, as unidades de engenharia usadas, e o ponto decimal.

Vamos tomar o valor inferior como exemplo: aplique a entrada zero ou o valor inferior da pressão na unidade de engenharia, a qual é a mesma usada no parâmetro SENSOR_UNIT, e espere até a leitura de pressão estabilizar. 

Escreva zero ou o valor inferior no parâmetro CAL_POINT_LO. Para cada valor escrito a calibração é executada no ponto desejado.

Figura 10 - Tela de Calibração Inferior de Pressão para o LD303

Vamos usar o valor superior como exemplo:

Aplique a entrada o valor superior com uma pressão de 25,400 mmH2O e espere até a leitura da pressão estabilizar. Então, escreva o valor superior como, por exemplo, 25,400 mmH2O no parâmetro CAL_POINT_HI. Para cada valor escrito uma calibração é executada no ponto desejado.

 

Figura 11 - Tela de Calibração Superior de Pressão para o LD303

Os equipamentos SMAR possuem ajuste local que permite também esta operação de calibração no próprio instrumento, sem a necessidade de um configurador.

QUAL A É A FREQUÊNCIA COM QUE UM INSTRUMENTO DEVE SER CALIBRADO

A freqüência ideal de calibração de um instrumento de medição pode variar de acordo com o instrumento a ser calibrado e a freqüência de utilização do mesmo. Por exemplo: Um instrumento pode ter uma freqüência de calibração de 1 ano e ser usado raramente.
Outro instrumento que já é usado mais freqüentemente deve ter uma freqüência menor, por exemplo, 6 meses. Não é uma regra, existem diversos estudos para se saber a freqüência ideal de calibração de um instrumento, mas é sempre importante analisar aonde e como o instrumento é usado antes de se determinar um período.

O desempenho dos instrumentos/equipamentos pode degradar em proporções diferentes, dependendo da utilização. Deste modo, o usuário também pode  estabelecer o intervalo de calibração apropriado, através de um histórico para  o instrumento, calibrando-o regularmente até a medição de desvio ultrapassar o desempenho permitido. O tempo entre a data de “em serviço” e a última calibração aceitável, torna-se o intervalo de calibração. Este intervalo pode ser monitorado com calibrações menos frequentes até que um padrão aceitável de desempenho seja comprovado.

A freqüência de calibração deve ser avaliada e aplicada de acordo com:

  1. Recomendação do fabricante
  2. Tipo de equipamento
  3. Tendência dos dados de calibrações anteriores
  4. Histórico registrado de manutenção e serviço
  5. Tendência ao desgaste e à instabilidade
  6. Extensão e severidade de uso
  7. Influência do ambiente
  8. Exatidão requerida ou pretendida para medida

Todo instrumento necessita de uma periodicidade para a sua calibração, mesmo que a

mesma tenha um período maior que o seu tempo de vida.

Os intervalos de calibração devem ser estabelecidos com base na estabilidade, propósito e condições de uso do equipamento.

Obs: A palavra “calibração” é comum, mas não universal, e é interpretada  no sentido de comparação e ajuste.

Para evitar mal entendidos, nunca presuma que calibração inclui um ajuste de um instrumento.

EXEMPLO DE COMO DETERMINAR A FREQUÊNCIA DE CALIBRAÇÃO PARA UM TRANSMISSOR DE PRESSÃO

A frequência de calibração necessária para um transmissor de pressão pode variar muito dependendo da aplicação, dos requisitos de performance e das condições de processo.

Segue procedimento para determinar a frequência de calibração e que pode atender as necessidades de sua aplicação:

  1. Determine a performance requerida para sua aplicação.
  2. Determine as condições de operação.
  3. Calcule o Erro Total Provável (ETP).
  4. Calcule a estabilidade por mês.
  5. Calcule a frequência de calibração.

Exemplo de Cálculo:

1: Determine a performance requerida para sua aplicação

  • Performance Requerida: 0.20% do Span Calibrado

2: Determine as Condições de Operação

  • Transmissor de pressão com URL(Upper Range Limit) = 50 KPa
  • Span Calibrado: 30 KPa
  • Variação da Temperatura Ambiente: ± 20°C
  • Pressão da linha: 35 bar

3: Cálculo do Erro Total Provável (ETP)

ETP = √(Exatidão)² + (Efeito de Temperatura)² + (Efeito de Pressão Estática)²

Onde:

Exatidão do transmissor de pressão calibrado até 10:1 = ± 0.075% do Span

Efeito da Temperatura Ambiente = ± (0.02% URL + 0.06% Span) por 20ºC = ± 0.093% do Span

Efeito da Pressão Estática no Span = ± 0.2% da leitura por 70 bar = ± 0.1% do span

ETP = √(0.075)² + (0.093)² + (0.1)² = 0.156% do Span

Obs.: O erro da pressão estática no zero é corrigido fazendo-se um Trim de Zero na pressão da linha

4: Cálculo da Estabilidade por Mês

Estabilidade = ± (0.15 x URL)/Span por 5 anos = ± 0.0042% do Span por mês

5: Cálculo da Frequência de Calibração

Frequência de Calibração = (Performance Requerida - ETP) / Estabilidade por Mês

Frequência de Calibração = (0.2% - 0.156%) / 0.0042% = 10 meses

QUE INSTRUMENTOS DEVEM SER CALIBRADOS?

Qualquer instrumento que tenha influência direta no resultado do produto final, não importando em qual etapa essa instrumento seja usado.

POR QUE CALIBRAR?

A calibração é função fundamental para a qualidade dos processos produtivos e deve ser uma atividade comum e controlada.

Com o  tempo e uso, os instrumentos de medição perdem qualidade metrológica, ou seja, a incerteza  passa a ser maior. A calibração permite conhecer as discrepâncias apresentadas pelo instrumento e, eventualmente, ajustá-lo para reduzi-las.

Vale lembrar que existem instrumentos que atendem:

  • ao monitoramento de processos e operações
  • ao controle de processos e operações
  • à análise experimental (fenômenos / processos / produtos)

A calibração proporciona uma série de vantagens, tais como:

  • garantir a rastreabilidade das medições.
  • aumentar a confiabilidade nos resultados medidos.
  • diminuir a variabilidade nos processos.
  • aumentar a conformidade com as especificações técnicas dos produtos.
  • assegurar condições de desempenho.
  • previnir defeitos.
  • compatibilizar as medições. 

CONCLUSÃO

Vimos através deste artigo a importância de alguns conceitos em transmissores de pressão, alguns detalhes em que os usuários devem estar atentos durante o processo de calibração, a calibração de um transmissor Profibus-PA e detalhes da determinação da frequência de calibração.

A calibração dos equipamentos de medição é uma função importante para a qualidade no processo produtivo e deve ser uma atividade normal de produção que proporciona uma série de vantagens. A partir da calibração, pode-se conhecer o comportamento do equipamento, quantificando os erros sistemáticos que o mesmo apresenta, podendo assim diminuir e conseguir resultados muito mais confiáveis a partir do mesmo já calibrado. Na prática, as exigências da calibração podem vir de clientes, de entidades de inspeção, por requisitos internos (Certificação da Qualidade, por exemplo) etc.

A importância da calibração está diretamente ligada às normas e padrões. Desta forma, conseguimos garantir a exatidão das medidas. E mais do que isto, o gerenciamento de instrumentos, suas calibrações e padrões fazem parte da estratégia das empresas para garantir a qualidade em seus processos. Em muitas empresas esse gerenciamento é compulsório e em outras é obrigatório, mediante a fatores de qualidade, custo e atendimento a normas e padrões.

Autor

  • César Cassiolato

REFERÊNCIAS

  • Manuais de Operação e Treinamento dos transmissores de pressão Smar: LD301, LD302, LD303 e LD400
  • Artigos técnicos - César Cassiolato
  • http://pt.wikipedia.org/