You are on page 1of 35

CAPÍTULO 1

INTRODUÇÃO À METROLOGIA

1.1
Os apontamentos dos capítulos teóricos (1-4) foram gentilmente

cedidos pelo Prof. Pedro Silva Girão – Prof. Associado de

Nomeação Definitiva do I.S.T.

1.2
Capítulo 1

Metrologia

1.1 INTRODUÇÃO

Metrologia, palavra de origem grega (metron, medida; logos, tratado), é a ciência dos pesos e
medidas ou, se se quiser, a ciência da instrumentação e das medidas com ela realizadas.
Actualmente, porém, esta designação está mais intimamente ligada ao domínio das medidas de alta
exactidão.

O objectivo central da Metrologia é a determinação do valor numérico de uma grandeza mensurável.


Para tal ter-se-á de executar um conjunto de operações, medida ou medição, utilizando dispositivos
apropriados, aparelhos ou instrumentos de medida ou de medição. O conceito de grandeza
mensurável é aplicável a todo e qualquer atributo de um fenómeno, corpo ou substância susceptível
de ser caracterizado qualitativa e quantitativamente.

Embora a medida de algumas grandezas físicas elementares tenha sido iniciada há milhares de anos,
pode-se dizer que só no século XVI com os trabalhos do polaco Nicolau Copérnico (1473-1543) e
especialmente do dinamarquês Tycho Brahe (1546-1601), nasce a ciência e a medida como tal. Esta,
ao constituir meio privilegiado de contacto com a realidade, será sempre fundamental na evolução,
quer da ciência quer, naturalmente, da tecnologia. De facto, se é certo que a validação de qualquer
teoria ou lei física passa obrigatoriamente pela comparação entre os resultados por elas previstos e
aqueles que se obtêm por medidas envolvendo os fenómenos em questão, é igualmente verdade que
as novas teorias físicas conduzem, por norma, quer ao desenvolvimento de novos instrumentos de
medida, quer de novas tecnologias, ambos propiciadores de melhores condições experimentais. A
evolução da capacidade de "olhar" a realidade conduz naturalmente à detecção de fenómenos não
explicáveis satisfatoriamente no contexto teórico aceite num determinado momento; a concepção de
novas teorias torna-se por isso imperiosa, fechando-se assim um ciclo que constitui a essência da
evolução científica.

É a possibilidade de comprovar experimentalmente uma teoria que distingue a ciência da filosofia.


Copérnico, ao procurar verificar a sua teoria das trajectórias dos planetas (heliocentrica, composição
circular) deu o passo decisivo na passagem das teorias filosóficas, que sobre o assunto vinham sido
defendidas e aceites desde Platão e outros filósofos gregos, para as teorias científicas; foi a lucidez
de espírito e o trabalho experimental desenvolvido durante mais de duas décadas por Tycho Brahe
no seu observatório de Uraniborg que conduziram o seu assistente, então em Praga, o alemão
Johann Kepler (1571-1630), não só à rejeição das teorias então existentes mas, e sobretudo, à
concepção de uma nova teoria. Brahe não só desenvolveu meios de medida de ângulos
extremamente fiáveis para a época, como também procedeu à sua calibração de modo a poder
aumentar a exactidão das suas medidas (2'). Foi a confiança de Kepler nessa exactidão que o levou a
considerar que os 8' que existiam de diferença entre a trajectória de Marte medida e a melhor

1.3
previsão baseada nas teorias de Copérnico e de Ptolomeu (150 A.C.) eram denunciadores da não
validade destas.

Os exemplos da importância da medida na evolução científica são inumeráveis. Será no entanto de


referir o papel que a Óptica tem nesse contexto desempenhado. Os resultados experimentais obtidos
com dispositivos como o telescópio, o microscópio e o espectroscópio estão na base quer da
comprovação quer da elaboração de teorias nos mais variados domínios, nomeadamente do cosmos,
das partículas e da biologia molecular. Estas são, aliás, algumas das áreas de ponta no que diz
respeito à investigação, a que não será certamente estranha a perene curiosidade do ser humano em
relação à sua origem e constituição. Todas elas dependem significativamente do desenvolvimento da
instrumentação e das técnicas de medida.

A medida de grandezas físicas elementares começou por ser uma arte. Actualmente, e embora
muitos aspectos impliquem ainda uma sensibilidade especial, a arte tem vindo a ser
progressivamente substituída pela técnica. Também os instrumentos de medida, inicialmente
delicados e por vezes pouco fiáveis, têm vindo a dar lugar a outros mais robustos e mais precisos. O
desenvolvimento da electrónica, primeiro do vazio e posteriormente do estado sólido, foi decisivo nas
mudanças verificadas. Os instrumentos suportados em componentes electrónicos permitiram, a partir
de 1930, a sua utilização na indústria, com evidentes repercussões não só nos processos de fabrico,
mas também em toda a filosofia de vida de muitos povos.

Ao falar-se em medida não se pode deixar de associar a noção de exactidão, isto é, a possibilidade
de conhecer com rigor o valor da grandeza desconhecida. Se a importância da execução de medidas
com exactidão no desenvolvimento teórico já foi anteriormente referida, será fundamental mencionar
outro aspecto não menos relevante dessa característica da medida: o desenvolvimento da
engenharia, isto é, da aplicação da ciência às necessidades humanas. Uma infinidade de produtos
que fazem parte do quotidiano de um ser humano estão suportados na possibilidade de execução de
uma produção controlada, que implica medidas rigorosas de diversos parâmetros e grandezas físicas.
Para além disso, a realização de acções envolvendo aspectos técnicos ou tecnológicos críticos está
geralmente dependente, directa ou indirectamente, de instrumentos e métodos de medida de elevada
exactidão. Um exemplo apenas, mas este bem eloquente: o módulo lunar utilizado na missão Apolo
11, que pela primeira vez permitiu a um ser humano o contacto físico com o solo daquele satélite da
Terra, dispunha nos seus tanques, na altura da alunagem, de combustível para apenas mais 10 s de
funcionamento dos seus motores. Só um controlo rigoroso, uma temporização apertada de toda a
missão e um conhecimento experimental das condições em que ela iria e estava a decorrer
permitiram minimizar a quantidade de carburante a transportar e, portanto, maximizar o peso da
restante carga útil a incluir no módulo.

1.2 FUNDAMENTOS DA MEDIDA

1.2.1 Definições e conceitos básicos

Em Metrologia, como em várias outras áreas do saber, utiliza-se terminologia própria. O significado

1.4
das diferentes palavras tem vindo a ser normalizado, pelo que é de toda a conveniência conhecê-lo.
Apresentam-se a seguir alguns dos termos principais da linguagem metrológica, o seu significado e
correspondente designação anglo-saxónica de acordo com o Vocabulário Internacional de Metrologia.
Refira-se que, tendo em atenção a definição de aparelho de medida, muitos dos vocábulos são
usados com igual significado para caracterizar propriedades ou comportamentos de dispositivos
muito diferentes utilizados em Metrologia e que constituem, no seu conjunto, aquilo que usualmente
se designa por instrumentação.

Grandeza – (Quantity): atributo de um fenómeno, corpo ou substância susceptível de ser


caracterizado qualitativa e quantitativamente. Pode referir-se às grandezas em sentido geral ou a
uma grandeza determinada. Exemplos de grandezas são o comprimento, a massa, o tempo, o
trabalho e a energia, pertencendo as duas últimas à mesma categoria, uma vez que são mutuamente
comparáveis; a resistência eléctrica de um condutor, a massa de um electrão ou a temperatura do
hélio líquido são grandezas determinadas.

Medida ou Medição – (Measurement): conjunto de operações tendo por objectivo determinar o valor
de uma grandeza. Medir é, pois, atribuir um número que quantifica uma propriedade ou característica
material: não se mede uma peça; mede-se sim o seu comprimento.

Aparelho ou Instrumento de medida – (Measuring instrument): dispositivo destinado à execução da


medição, isolado ou em conjunto com outros equipamentos. Esta definição engloba, portanto, não só
os aparelhos de medida indicadores e registadores, mas também dispositivos, como geradores e
sensores, que são por vezes utilizados na execução de medidas. Refira-se também que alguns dos
termos a seguir apresentados podem ser utilizados, quer para caracterizar um instrumento de
medida, quer um sistema de medida, o qual, por definição, engloba um conjunto completo de
instrumentos de medida e outros dispositivos montados para executar uma tarefa de medição
específica.

Exactidão – (Accuracy). Importa distinguir a aplicação deste termo à medição ou ao instrumento de


medida. No primeiro caso reporta à aproximação entre o resultado da medição e o valor
(convencionalmente) verdadeiro da grandeza medida; no segundo consiste na aptidão do instrumento
de medida para dar indicações próximas do verdadeiro valor da grandeza medida. O verdadeiro valor
ou valor real de uma grandeza é, naturalmente, impossível de conhecer; assim, e tendo em
consideração que de um modo geral medir uma grandeza é compará-la a outra grandeza da mesma
espécie tomada para unidade, natural será tomar para "verdadeiro valor" aquele que se obteria
utilizando como referência na medida o padrão da unidade da grandeza em causa, designando-se
então por valor convencionalmente verdadeiro dessa grandeza. A noção de exactidão absoluta é
assim substituída pela de exactidão relativa, a qual assenta na existência de padrões para as
unidades das várias grandezas físicas.

Repetibilidade; Precisão – (Precision). Embora a designação anglo-saxónica seja comum para


designar uma propriedade das medidas e uma característica dos instrumentos de medida, utiliza-se
em português o termo repetibilidade da medida para significar a aproximação entre os resultados de
medições sucessivas de uma mesma grandeza, efectuadas com a aplicação da totalidade das

1.5
seguintes condições:

- mesmo método de medição;


- mesmo observador;
- mesmo instrumento de medida;
- mesmo local;
- mesmas condições de utilização;
- repetição em instantes sucessivos,

enquanto que se utiliza normalmente o termo precisão do instrumento de medida para referir a
aptidão do instrumento de medida para dar, em condições de utilização definidas, respostas muito
próximas, quando se aplica repetidamente o mesmo sinal de entrada. As condições de utilização
definidas são habitualmente as seguintes:
- repetição após um curto intervalo de tempo;
- utilização no mesmo local e nas mesmas condições ambientais;
- redução ao mínimo das alterações devidas ao observador.

Enquanto a repetibilidade é um indicador da consistência das medidas, a precisão de um aparelho dá


conta da influência que têm sobre a grandeza de saída factores aleatórios. Porém, em qualquer dos
casos, quanto menor é a dispersão dos valores obtidos em torno do seu valor médio, maior é a
repetibilidade da medida ou mais preciso o aparelho de medida. Matematicamente, e representando
por RP a repetibilidade ou a precisão, consoante o caso, tem-se:

xn − X
RP = 1 − (1.1)
xn

em que x n representa o valor da enésima medida ou o da grandeza de saída no instante tn , e X o


valor médio do conjunto de medidas ou o da grandeza de saída. A quantificação da repetibilidade
pode ser feita em termos da dispersão de resultados, utilizando-se para caracterizar esta o desvio
padrão experimental.

Os conceitos de exactidão e de precisão, embora totalmente distintos, são, talvez por via da escolha
dos vocábulos escolhidos para os traduzir, muitas vezes confundidos. O facto de existirem termos,
como classe de precisão, que embora contendo uma das palavras dizem respeito à outra (neste caso
a classe tem a ver não com a precisão mas sim com a exactidão), contribui naturalmente para essa
confusão. A ausência de ideias claras sobre o assunto, leva a identificar os dois termos, os quais se
reportam a dois tipos de conformidades: a exactidão tem a ver com a que se verifica entre o valor
medido e o valor verdadeiro convencionado da grandeza, enquanto a precisão tem a ver com a que
se verifica entre os diferentes valores de um conjunto de medidas. Note-se que embora exactidão
implique repetibilidade (precisão), o inverso não é verdade; um aparelho pode ser consistente,
apresentar indicações com um desvio padrão baixo, e não ser exacto devido a apresentar, por
exemplo uma deriva constante.

Reprodutibilidade (das medições) – (Reproducibility): aproximação entre os resultados das

1.6
medições de uma mesma grandeza quando as medições individuais são efectuadas fazendo variar
condições tais como:
- método de medida;
- observador;
- instrumento de medida;
- local;
- condições de utilização;
- tempo.

Importa não confundir reprodutibilidade de uma medida com a sua repetibilidade; enquanto que para
a determinação da segunda as condições de medição se devem manter tanto quanto possível as
mesmas ao longo dos diferentes ensaios, para a primeira pelo menos uma dessas condições terá de
ser diferente de medida para medida (ou conjunto de medidas para conjunto de medidas). Tal como a
repetibilidade, a reprodutibilidade pode ser expressa quantitativamente em termos da dispersão dos
resultados, sendo no entanto sempre necessário especificar as condições alteradas.

Incerteza da medição – (Uncertainty of measurement): estimativa caracterizando o intervalo dos


valores no qual se situa o valor verdadeiro da grandeza medida. Esta incerteza compreende em geral
vários componentes. Alguns, os que têm a ver com factores aleatórios que influenciam as medidas
(erros de repetibilidade), podem ser estimados com base na distribuição estatística dos resultados de
séries de medidas, sendo caracterizados por um desvio padrão experimental; outros, como os que
são devidos a factores sistemáticos, implicam, para serem estimados, ou informação apropriada ou
uma grande experiência por parte do observador. A aplicação do termo "incerteza" referido a um
aparelho de medida constitui uma extensão da linguagem, reportando-se, naturalmente, à incerteza
da medida por ele fornecida.

Erro (da medida) – (Error): este termo refere-se ao erro absoluto da medição, o qual é definido como
sendo a diferença algébrica entre o resultado da medição e o valor (convencionalmente) verdadeiro
da grandeza medida. O termo aplica-se com igual significado:
- à indicação (valor da grandeza medida fornecido por um instrumento de medida);
- ao resultado bruto (resultado da medição antes da correcção dos erros sistemáticos presumidos);
- ao resultado corrigido (resultado da medição obtido depois das correcções introduzidas no
resultado bruto, tendo em conta os erros sistemáticos presumíveis).

Ao quociente do erro absoluto da medição pelo valor convencionalmente verdadeiro da grandeza


medida designa-se por erro relativo – (relative error).
À componente do erro de medida que varia de forma imprevisível quando se efectuam várias
medições da mesma grandeza designa-se de erro aleatório – (random error); à componente do erro
de medida que, em várias medições, se mantém constante ou varia de forma previsível designa-se
por erro sistemático – (systematic error).

Alcance ou Campo de medida de um instrumento de medida – (Range): para cada amplitude da


escala, é o conjunto de valores da grandeza medida para os quais o instrumento de medida
apresenta valores no interior dessa amplitude da escala, para uma posição particular dos seus

1.7
comandos. Entende-se como amplitude da escala – (scale range) – o intervalo compreendido entre
as referências extremas de uma dada escala, sendo esta, por definição, o conjunto ordenado de
referências com toda a numeração associada.
O alcance, ou campo de medida, é expresso em unidades da grandeza a medir. No caso do limite
inferior ser 0, o alcance é designado apenas pelo seu limite superior (exemplo: um campo de medida
de 300 V supõe um alcance de 0 V a 300 V); caso contrário ter-se-á de especificar os seus limites,
inferior e superior (exemplo: -30ºC a 500ºC).

Amplitude de medida – (Scale range): módulo da diferença entre os dois limites do alcance de um
instrumento de medida. Assim, se o alcance for, por exemplo, -10 V a +10 V, a amplitude de medida
será de 20 V.

Sensibilidade de um instrumento de medida – (Sensitivity): quociente da variação da resposta do


instrumento de medida pela variação correspondente do sinal de entrada; quanto mais sensível for o
instrumento de medida, maior será a variação da indicação nele produzida por uma mesma variação
da grandeza a que ele reage.

Mobilidade de um instrumento de medida – (Discrimination): aptidão do instrumento de medida


para responder a pequenas variações do valor do sinal de entrada. A menor variação do sinal de
entrada que provoca uma variação perceptível da resposta do instrumento de medida constitui o
limiar de mobilidade – (discrimination threshold). Este limiar depende em geral de vários factores:
ruído interno ou externo ao instrumento de medida, atrito, amortecimento, inércia, valor da grandeza.
O valor do limiar de mobilidade é expresso em unidades da grandeza de entrada. Note-se que,
enquanto a sensibilidade está ligada a variações da grandeza de entrada, a mobilidade tem a ver com
o valor propriamente dito dessa grandeza.

Resolução (do dispositivo indicador) – (Resolution): expressão quantitativa da aptidão do dispositivo


indicador para distinguir significativamente entre valores muito próximos da grandeza indicada.
Note-se a diferença conceptual entre resolução e mobilidade; enquanto esta depende de uma série
de factores internos e externos ao instrumento de medida, aquela tem a ver exclusivamente com o
dispositivo indicador do instrumento. Embora não seja obrigatório, é normal prover o instrumento de
medida de um dispositivo indicador com resolução análoga ao seu limiar de mobilidade; é, por isso,
vulgar verem-se confundidos, sob a designação de resolução, estes dois conceitos.
No caso de um aparelho em que a apresentação é sob a forma digital (aparelho de medida digital), a
resolução depende naturalmente do valor do dígito menos significativo. Assim, e por exemplo, um
voltímetro deste tipo utilizado num campo de medida tal que cada unidade do dígito que no visor se
encontra mais à direita vale 1 mV, não permite resolver menos do que 1 mV e, portanto, não pode ser
usado na medida de tensões eléctricas de valor igual ou inferior a esse. No caso de um instrumento
em que a indicação é sob a forma da posição de um ponteiro sobre uma escala graduada (aparelho
de medida analógico), a resolução envolve a capacidade de leitura dessa escala, podendo ser
diferente consoante a indicação seja analisada pela visão de um operador humano ou recorrendo a
processos ópticos especiais.

Folga (de um instrumento de medida) – (Dead band): intervalo de valores no interior do qual o sinal

1.8
de entrada pode ser modificado sem provocar variação da resposta do instrumento de medição. No
caso de pequenas variações do sinal de entrada provocarem variações indesejáveis da resposta do
aparelho, a folga intrínseca é, por vezes, deliberadamente aumentada.

Histerese – (Hysteresis): propriedade do instrumento de medição cuja resposta a um dado sinal de


entrada depende da sequência dos sinais de entrada precedentes. A histerese traduz, pois, a
diferença de comportamento de um aparelho quando se varia a grandeza de entrada no mesmo
intervalo de valores mas em sentidos opostos.

Estabilidade (de um instrumento de medição) – (Stability): aptidão do instrumento de medição para


conservar as suas características metrológicas. A estabilidade é habitualmente considerada em
relação com o tempo; quando for referida a outra grandeza é necessário especificá-lo explicitamente.

Neutralidade (de um instrumento de medida) – (Transparency): aptidão do instrumento de medida


para não alterar o valor da grandeza a medir. O facto de um voltímetro apresentar, a uma dada
frequência, uma impedância de entrada elevada, contribui para uma elevada neutralidade no que se
refere às medidas de tensão, nomeadamente dessa frequência.

Deriva (de um instrumento de medida) – (Drift): variação lenta com o tempo de uma característica
metrológica do instrumento de medição.

Fidelidade (do instrumento de medida) – (Freedom for bias error): aptidão do instrumento de medida
para dar indicações isentas de erros de fidelidade, isto é, de erros sistemáticos.

1.2.2 Resultados das medições

1.2.2.1 Erros

O conceito de valor real de uma grandeza física tem, como se viu, uma importância mínima, uma vez
que, mesmo que exista como valor único, a sua determinação é impossível, limitada, quanto mais não
fosse, por razões quânticas. Mesmo o valor convencionalmente verdadeiro, definido anteriormente, e
que passaremos a considerar ser o objectivo de uma medida, só pode ser conhecido com uma
imprecisão causada pelos diversos erros associados à medição. Existem genericamente três tipos de
erros: os grosseiros, os sistemáticos e os aleatórios.

1.2.2.2 Erros grosseiros

Os erros grosseiros são geralmente humanos e devidos a causas como: leitura incorrecta das
indicações dos aparelhos de medida, aplicação incorrecta dos aparelhos de medida, erro no registo
dos valores medidos, erros nos cálculos efectuados sobre os valores experimentais. Podem, em si
próprios, ser sistemáticos ou aleatórios, consoante conduzam a resultados apresentando
características comuns ou não, embora estes últimos sejam extraordinariamente pouco frequentes. A
título de exemplo. considere-se a Figura 1.1 em que está representado um circuito montado com a
finalidade de medir o valor da resistência R, utilizando-se para o efeito um voltímetro V e um
amperímetro A.

1.9
150 V
V

5 mA
A

Figura 1.1: Medida de uma resistência utilizando um voltímetro e um amperímetro.

Supondo que o voltímetro tem uma resistência interna, R v , de 200 kΩ, para os valores indicados

pelos aparelhos e assinalados na figura ter-se-á:


- valor aparente de R, Ra : Ra = 150 V / 5 mA = 30kΩ

- valor de R: R = Ra × R v (R v − Ra ) = 35,3 kΩ

- valor do erro relativo, ε: ε = 15 %.

O enorme valor do erro cometido deve-se à utilização de um voltímetro com uma resistência interna
demasiado baixa para o fim em vista. Deixa-se ao cuidado do leitor verificar que, para a mesma
montagem, se R fosse tal que as indicações dos dois aparelhos passassem a ser 20 V e 0.1 A, o erro
relativo diminuiria substancialmente, passando a ser de 0.1%.

Os erros grosseiros podem, e devem, ser evitados tomando precauções, nomeadamente na leitura e
registo dos valores medidos. É recomendável executar pelo menos três leituras diferentes, de
preferência, e na medida do possível, desligando e voltando a ligar o instrumento de medida. O facto
de a quase generalidade dos erros grosseiros que afectam o resultado das medições ser do tipo
sistemático torna infrutífero qualquer tratamento matemático dos resultados, com vista à obtenção de
valores das grandezas com menor imprecisão.

1.2.2.3 Erros sistemáticos

Os erros sistemáticos, que afectam uma medida realizada por um método apropriado, são geralmente
divididos em duas categorias: erros instrumentais e erros ambientais. Os primeiros são devidos a
limitações dos aparelhos de medida tais como: desajuste do zero da escala (erro no zero),
incorrecção na graduação da escala, insuficiente largura de banda, efeito de carga sobre o objecto de
medida ou inexactidão. Os vários erros variam de instrumento para instrumento. Assim, e por
exemplo para uma aparelho analógico, a variação da tensão mecânica que é responsável pelo
retorno da equipagem móvel ao zero ou a fricção a que são sujeitas as suas várias partes móveis
constituem causas suficientes para a ocorrência de um erro sistemático que, no limite, poderá ser
grosseiro. Os erros sistemáticos instrumentais podem ser evitados mediante as seguintes acções: (1)
– selecção dos instrumentos apropriados para a medição em causa; (2) – corrigindo os valores
experimentais após determinação do valor do erro; (3) – procedendo regularmente à verificação da

1.10
exactidão dos instrumentos e ao seu ajuste – (adjustment) – (operação destinada a levar um
instrumento de medição a um funcionamento e a uma fidelidade adequada à sua utilização).

No que respeita aos erros ambientais as causas são, como o próprio nome indica, exteriores ao
sistema de medida – (measuring system) – (conjunto completo de instrumentos de medida e outros
dispositivos montados para executar uma tarefa de medida específica). De entre os principais
factores influenciadores de medições são de referir a temperatura, a humidade, a pressão
atmosférica e os campos magnéticos e eléctricos estranhos. Para evitar o efeito produzido pelos três
primeiros sobre as medidas procura-se realizar os ensaios em ambientes condicionados, isto é, em
ambientes em que os valores daquelas grandezas físicas se situam em intervalos bastante
apertados. No caso de medidas de grandezas eléctricas de elevada exactidão, por exemplo, a
temperatura ambiente definida internacionalmente é de 20ºC.

No que respeita à influência provocada por campos, nomeadamente estáticos, sobre o sistema de
medida, a sua diminuição passa pela blindagem do sistema de medida ou, pelo menos, das suas
partes mais susceptíveis a este tipo de ruído.

Os instrumentos de medida podem apresentar limitações que se manifestam no aparecimento de


erros quando da execução de medidas estáticas – (static measurements) – (medida de uma
grandeza cujo valor se pode considerar constante durante a medição) ou de medidas dinâmicas –
(dynamic measurements) – (determinação do valor instantâneo de uma grandeza, e se for caso
disso, da sua variação no tempo). Um exemplo típico de um aparelho que pode apresentar erros ditos
estáticos é o micrómetro; não sendo o eixo do instrumento coincidente com o eixo de medida,
demasiado aperto da peça a medir provocará uma diferença dos comprimentos segundo aqueles
eixos, e o respectivo erro negativo (valor medido menor do que o valor real). Os aparelhos
analógicos, porém, apresentam genericamente importantes limitações de resposta quando a
grandeza a medir varia no tempo, o mesmo se não passando quando ela é constante. Diz-se por isso
apresentarem erros sistemáticos dinâmicos.

1.2.2.4 Erros aleatórios

Os erros aleatórios são devidos a causas desconhecidas ou que, embora conhecidas, afectam a
medida de uma forma não previsível. Em geral, e em condições experimentais apropriadas, os erros
deste tipo são pequenos; têm, no entanto, primordial importância em medidas de elevada exactidão,
uma vez que contribuem para uma menor precisão dos resultados obtidos (maior dispersão dos
valores medidos). Exemplos de possíveis causas de erros aleatórios são abundantes:
arredondamentos efectuados nas leituras das indicações dos instrumentos de medida, variações
verificadas no funcionamento dos aparelhos de medida devidas a pequenas alterações ambientais ou
dos componentes eléctricos ou mecânicos que o constituem. No caso de sistemas de medida em que
estejam envolvidos sinais eléctricos, e devido à natureza intrínseca destes, verificar-se-ão sempre
erros ocasionados por quatro tipos de ruído: o térmico, o granular, o cintilante e o crepitante.

1.11
1.2.2.5 Ruído térmico

Este ruído, também conhecido por de resistência, de Johnson ou de Nyquist, tem a sua origem nas
trajectórias aleatórias descritas pelos electrões de qualquer condutor quando a temperatura é
diferente de 0 K. A corrente eléctrica assim gerada, tanto mais importante quanto mais elevada for a
temperatura, produz aos terminais do condutor de resistência eléctrica R uma tensão de ruído de
valor médio nulo e cujo valor eficaz, UT , é dado, para frequências inferiores a 100 GHz, por:

UT = 4K TR ∆ f (1.2)

em que: K é a constante de Boltzmann ;


T é a temperatura absoluta;
R é a resistência do condutor;
∆f é a largura de banda efectiva, diferente da largura de banda a 3 dB, dependente do
sistema de observação (medida) e do comportamento na frequência do condutor. É a menor
das larguras de banda características destes dois factores que conduz ao valor pertinente
de ∆f.

O ruído térmico caracteriza-se assim por ter uma densidade espectral de energia constante, 4KT
(ruído branco). A título de exemplo, uma resistência de 1 MW, à temperatura de 300 K apresenta,
numa banda efectiva de 1 MHz, uma tensão de ruído térmico cujo valor eficaz é de 129 µV, sendo a
correspondente potência de ruído de 16 fW. A limitação do valor eficaz da tensão deste tipo de ruído,
particularmente necessária quando se lida com sinais de muito baixo nível, impõe a utilização de
resistências de valor tanto quanto possível baixo (exemplo: amplificadores de baixo nível) e, em
situações limite, a inclusão dos equipamentos em ambientes mantidos a temperaturas muito baixas
(exemplo: sistemas de medida de sinais cósmicos).

1.2.2.6 Ruído granular

As flutuações do número de electrões que, em cada instante, constituem uma corrente eléctrica
contínua, estão na origem do ruído granular também conhecido por shot ou de Schottky. Manifesta-se
sob a forma de uma corrente eléctrica de valor médio nulo mas cujo valor eficaz, Is , é dado por:

Is = 2qe I ∆f (1.3)

em que qe é a carga do electrão, I o valor da corrente contínua e ∆f a largura de banda efectiva. O

aparecimento deste tipo de ruído branco em circuitos electrónicos, mesmo quando funcionam em
regime variável no tempo, deve-se essencialmente às correntes que são necessárias para colocar
esses dispositivos num determinado ponto de funcionamento (correntes de polarização). Assim, e a
título de exemplo, uma corrente de polarização de 1 mA de um dispositivo que tenha uma largura de
banda efectiva de 1 MHz origina um ruído granular de 18 nA.

1.12
1.2.2.7 Ruído cintilante

O ruído cintilante (flicker) julga-se ser essencialmente devido às variações de velocidade provocadas
nos portadores de carga pelas imperfeições dos materiais semicondutores. Como o granular, a sua
intensidade depende do valor das correntes de polarização, variando, até alguns kilohertz, na razão
inversa da frequência; daí a designação de ruído 1/f sob a qual é também conhecido (ruído cor-de-
rosa). Para frequências superiores a sua densidade espectral de energia é não só menor mas
também constante. O facto deste tipo de ruído ser altamente dependente do dispositivo torna em
geral extremamente difícil a previsão da sua intensidade.

1.2.2.8 Ruído crepitante

O som de baixa frequência que por vezes se ouve nos altifalantes de um receptor de rádio,
semelhante ao produzido quando se confeccionam pipocas, constitui o chamado ruído crepitante
(burst ou popcorn). Embora não se conheçam as suas causas com rigor, são bem conhecidas as
suas características principais: dependência com 1/f2 (ruído também cor-de-rosa) e com o dispositivo,
o que o coloca, para efeitos de previsão da intensidade, em situação semelhante ao cintilante. As
oscilações devidas a realimentação de amplificadores via fontes de alimentação constituem ruído
deste tipo.

1.2.2.9 Tratamento dos valores medidos e apresentação dos resultados

Os valores medidos das várias grandezas, afectados por erros, poderão necessitar ser processados
com vista à obtenção quer dos valores das grandezas medidas e sua inexactidão, quer do valor e
inexactidão de grandezas dependentes das que foram medidas. A primeira atitude a tomar em face
dos resultados obtidos, admitindo a ausência de motivos que façam duvidar da sua validade, é
analisar a necessidade de proceder a correcções ou ajustes dos valores medidos.

1.2.2.10 Correcção de valores

Entende-se por correcção de um valor a alteração que nele se provoca com a finalidade de
compensar:
- erros sistemáticos conhecidos;
- desvios devidos a variações não desprezáveis de variáveis não controladas (exemplo: efeito da
variação da temperatura no valor da força electromotriz de uma pilha padrão);
- execuções não ideais das operações de medida. Suponhamos que se pretende medir o valor de
uma grandeza às temperaturaT1, T2,… Tn . Por limitação do sistema que provoca a sua variação,

as medidas foram obtidas a temperaturas próximas mas diferentes das pretendidas, T1' , T2' ,...Tn' .
Se se conhecer a lei de variação da grandeza medida com a temperatura é possível, e deverá ser
feita, a correcção dos valores experimentais obtidos, de modo a obterem-se os valores da
grandeza em questão às temperaturas pretendidas.

1.13
1.2.2.11 Ajuste de valores

O ajuste de valores tem por objectivo compatibilizar resultados de acordo com restrições que lhes
estão impostas. Essa compatibilização pode geralmente ser conseguida por diferentes formas, isto é,
o ajuste pode ser realizado de diferentes maneiras. Exemplo típico de ajuste de valores é o que se
executa sobre um conjunto de pares de valores de duas grandezas, x e y, dependentes linearmente
uma da outra. A utilização de um método de regressão por mínimos quadráticos será, nesse caso, a
forma mais usual de obter valores ajustados.

A determinação da inexactidão do valor medido de uma qualquer grandeza é, em particular no


chamado domínio das medidas de alta precisão (mais correctamente, alta exactidão), um dos
problemas de mais difícil resolução, só ultrapassado, em grau de dificuldade, por esse outro que
consiste na concepção de métodos, processos e instrumentos de medida que possibilitem realizar
medidas cada vez mais exactas. Como se viu, para a inexactidão contribuem erros dos tipos
sistemático e aleatório. De um modo geral, a dificuldade principal reside na estimação do valor dos
erros do primeiro tipo, uma vez que a influência dos do segundo tipo, já de si pequenos em medidas
bem concebidas e realizadas, pode ser minimizada realizando grande número de medidas e
procedendo ao tratamento dos valores obtidos utilizando métodos estatísticos. A forma mais natural e
normal de especificar a inexactidão de uma medida consiste na indicação do intervalo de valores, em
torno do valor medido, dentro do qual deverá estar o valor convencionalmente verdadeiro da
grandeza medida. A forma de obter os limites desse intervalo passa pela:
- determinação da precisão da medida. Para isso terá de ser possível obter informação quanto à
dispersão dos valores obtidos ou que se obteriam realizando um elevado número de medidas da
grandeza em questão;
- estimação do valor dos erros sistemáticos que afectam a medida. Nesta estimação desempenham
papel fundamental aqueles que concebem e realizam os ensaios. Tendo procurado que todas as
fases que conduzem à obtenção do valor da grandeza fossem isentas de erros sistemáticos, e
dispondo até de algumas técnicas que lhes permitem o despiste desse tipo de erros, compete aos
experimentadores avaliarem o limite superior do erro sistemático cometido. Note-se que a
estimativa, que é personalizada, não é, naturalmente, o valor certo desse erro; corresponde,
apenas, à manifestação, por parte de quem a apresenta, de que não possui elementos que lhe
façam supor ser superior o valor do erro sistemático cometido.

Nos processos de medida usuais, os erros aleatórios seguem uma lei de distribuição do tipo normal
ou de Gauss. Como se sabe, o valor médio, X , de uma população de n acontecimentos xi que
n
verificam uma distribuição desse tipo, X = ∑ xi n , constitui o valor mais provável dessa distribuição,
i=1

o que significa, no presente contexto, que se se realizarem n medidas sobre uma mesma grandeza
mantida constante, o valor médio do conjunto de valores obtidos constitui o valor mais provável dessa
grandeza. Por outro lado, o desvio padrão, σ, do conjunto finito de n medidas, definido como

1.14
n
∑ ( xi − X )
2

i=1
σ= (1.4)
n −1

expressa quantitativamente a dispersão dos valores obtidos em torno do valor médio, constituindo,
assim, uma medida da precisão global do processo de medida utilizado. Na Figura 1.2 representam-
-se curvas da distribuição de Gauss para três valores do desvio padrão.

Gauss (x)
1

(1)

(2)
(3)

-4 -3 -2 -1 0 1 2 3 4 x

Figura 1.2: Distribuição de Gauss para: (1) s = 0.5; (2) s = 1; (3) s =1.5.

Como facilmente se constata, quanto maior é o valor de σ (maior dispersão de valores), menor é a
probabilidade do valor médio ser o valor da grandeza medida. Por outro lado, e ainda quanto maior é
a dispersão de valores, maior é o intervalo a que corresponde uma determinada probabilidade de se
encontrar o valor verdadeiro da grandeza. De acordo com a distribuição de Gauss, e tendo em

atenção que a probabilidade de se ter o valor verdadeiro no intervalo ⎡⎣ X − ∆xi , X + ∆xi ⎤⎦ é dada por:

∆xi ( ∆xi )2
(
p x ∈ ⎡⎣ X − ∆xi , X + ∆xi ⎤⎦ = ) σ π
2
∫ e 2σ2 dx (1.5)
0

podem-se obter os resultados seguintes:

∆x i σ 0,6745 1 1,96 2,58


(1.6)
(
p x ∈ X ± ∆x i ) 0,5 0,6828 0,95 0,99

Deste modo, num processo de medida em que só se considerem erros do tipo aleatório e que seja
caracterizado por um valor médio X e um desvio padrão σ, o intervalo de valores que é necessário
especificar de modo a que o valor verdadeiro da grandeza a medir esteja, com uma probabilidade de

0,99, no seu interior é ⎡⎣ X ± 2,58 σ ⎤⎦ .

1.15
1.2.2.12 Algarismos significativos

A apresentação numérica do resultado de uma medição depende, para além de outros factores, da
resolução do dispositivo indicador do aparelho de medida utilizado. Assim, é essencialmente diferente
expressar-se o valor de uma grandeza como sendo 31 ou 31.00 unidades dessa grandeza; enquanto
que no primeiro caso o dispositivo indicador permite apenas afirmar que o valor medido deverá estar
mais próximo de 31 do que de 30 ou de 32, no segundo a afirmação é de que esse valor estará mais
perto de 31.00 do que de 31.01 ou de 30.99. Existe, portanto, uma ligação entre o número de
algarismos significativos com que se apresenta um valor medido e a resolução do aparelho de
medida utilizado, o que torna ilícito expressar, não só esse valor como outros que dele resultem por
manipulações matemáticas, com maior número de algarismos significativos do que os resultantes
dessa resolução.

Quando o valor de uma determinada grandeza é obtido a partir de operações matemáticas


executadas sobre valores numéricos de grandezas medidas, o seu número de algarismos
significativos será, de acordo com o que fica dito, e na melhor das hipóteses, igual ao que tiver o valor
expresso com menor número de dígitos; geralmente será inferior. A título de exemplos considerem-se
as duas situações seguintes:
- Resistência R cujo valor è obtido a partir da soma de duas resistências R1=25.6 Ω e R2=7.354 Ω.
Os algarismos significativos de cada um dos dois valores permitem apenas dizer que
R1 ∈ [ 25.55, 25.65[ Ω e R2 ∈ [7.3535, 7.3545[ Ω . Assim sendo, a única afirmação possível em

relação ao valor de R é que deverá estar contido no intervalo [32.9035, 33.0045[ Ω , pelo que se

deverá apresentar o resultado como ( 32.954 ± 0.051) Ω ou então, e garantindo apenas dois

dígitos significativos, 33 Ω.
- Queda de tensão numa resistência, U, obtida a partir dos valores da resistência R=1.55 kΩ e da
corrente que a percorre, I=3.2 mA. O intervalo de valores entre os quais estará o valor de U será
[1.545 × 3.15, 1.555 × 3.25[ V ou seja [ 4.86675, 5.05374[ V . Estamos perante uma situação em

que apenas se pode apresentar o resultado com um dígito, isto é, 5 V, com o significado
anteriormente referido: o valor da tensão U estará mais perto de 5 V do que de 4 ou 6 V.

Em alguns casos, a análise anteriormente feita conduz a situações só ultrapassáveis apresentando


os resultados em notação científica. De facto, e reportando-nos ao último exemplo anteriormente
apresentado, para R=35.68 Ω e I=3.18 A, o intervalo a que pertencerá U será [113.27, 113.7[ V . Em

rigor não se pode expressar o resultado como sendo 113 V, uma vez que o limite superior do
intervalo está mais próximo de 114 V. Embora o valor de U seja superior a 100 V, o facto de só se

poderem garantir dois algarismos conduz à seguinte forma de apresentação: U = 1.1× 102 V .

1.2.2.13 Composição de erros

Ao realizar-se a medida de uma grandeza utilizando um sistema de medida mais ou menos


complexo, é usual conhecerem-se os erros absolutos ou relativos inerentes quer aos aparelhos de

1.16
medida, quer aos procedimentos de medida. A determinação do erro da grandeza medida torna-se
neste caso particularmente simples, impondo-se para tal saber como se devem compor os diferentes
erros conhecidos. A análise desta situação baseia-se no desenvolvimento de uma função de n
variáveis em série de Taylor.

Considere-se então a grandeza x dependente de n variáveis independentes e mensuráveis,


v1, v 2 ,...vn com erros conhecidos. Seja F a função dessa dependência, isto é:

x = F ( v1, v 2 ,...vn ) (1.7)

Desenvolvendo F em série de Taylor ter-se-á:

n n n
∂F ∂ 2F ∂nF
∑ ∑ ∑
1 1
∆x = ∆vi + ∆vi2 + L ∆vin (1.8)
∂vi 2 ∂vi2 n! ∂vni
i=1 i=1 i=1

Desprezando termos de ordem superior (erros dos erros), e dividindo ambos os membros por x
obtém-se:

n n
∆x ∂F ∆vi ∂F vi ∆vi
x
≅ ∑ ∂vi F
= ∑ ∂vi F vi
(1.9)
i=1 i=1

No caso mais desfavorável ter-se-á:

n
∆x ∂F ∆vi ∆vi
x
= ∑ ∂vi F vi
(1.10)
i=1

∆x ∆vi
Tendo em atenção que e representam os erros relativos das grandezas x e vi , ε x e ε vi ,
x vi

respectivamente, e continuando a considerar-se o caso mais desfavorável tem-se finalmente:

n
∂F ∆vi
εx = ∑ ∂vi F
ε vi (1.11)
i=1

Exemplifiquemos a aplicação deste resultado a três casos tipo.


1– x = v1 + v 2 + v 3

Tem-se sucessivamente:

v1 v2 v3
εx = ε v1 + εv2 + ε v3 (1.12)
v1 + v 2 + v 3 v1 + v 2 + v 3 v1 + v 2 + v 3

∆x = ∆v1 + ∆v 2 + ∆v 3

1.17
v3
2– x = v1 vn2 m
v4

Por aplicação de (2.10) facilmente se obtém:

1 1
ε x = ε v1 + nε v 2 + εv3 + εv 4 (1.13)
m m

3– x = v1 − v 2

Tem-se, neste caso:


∆x = ∆v1 + ∆v 2 (1.14)

Os casos 1 e 3 permitem concluir que, no caso do valor da grandeza x resultar da soma ou diferença
de outras grandezas (que naturalmente serão da mesma espécie), se deve somar os erros absolutos
destas para obter o daquela; quando na obtenção do valor de x intervêm produtos e quocientes de
valores de outras grandezas deve-se adicionar os respectivos erros relativos para se obter o erro
relativo de x.

Como se constata do caso 3, o erro absoluto da diferença de valores de duas grandezas v1 e v2 é


igual à soma dos respectivos erros absolutos. Este resultado leva imediatamente a concluir que, se
os valores de v1 e v2 foram muito próximos, o erro relativo da grandeza dependente pode ser muito
elevado. Atente-se ao seguinte conjunto de valores: v1 = 332 ± 2 , v 2 = 314 ± 7 ; x = 18 ± 9 ; ε x = 0.5 ,
ou seja um erro relativo de 50%. Este facto aponta para a inadequação de processos de medida em
que o valor de uma grandeza seja obtido nas condições agora expostas.

Como resulta do tratamento matemático que conduziu a (2.10), o valor dos erros assim calculados
corresponde à situação mais desfavorável, isto é, àquela em que todas as grandezas envolvidas
contribuem com o seu erro máximo. Sendo a probabilidade de ocorrência desta situação
extremamente baixa, natural será recorrer a processos de cálculo que conduzam a um valor mais
provável desse erro. Um dos métodos actualmente mais praticados consiste na composição
quadrática dos erros, absolutos ou relativos, consoante os casos. Assim, e por exemplo para o caso 1
anteriormente apresentado ter-se-ia:

∆x = ∆v12 + ∆v 22 + ∆v 32 (1.15)

1.2.3 Unidades e padrões


A expressão quantitativa de uma qualquer grandeza implica a adopção de uma grandeza
determinada da mesma espécie para referência. Designa-se então por unidade (de medida) – (unit
(of measurement)) – a grandeza determinada convencionalmente adoptada para essa finalidade. O
conjunto de unidades de diferentes grandezas constitui um sistema de unidades – (system of units).

Ao longo dos tempos diferentes sistemas de unidades foram sendo utilizados. Na generalidade, todos
continham em comum unidades de comprimento, de massa e de tempo que passaram por isso a
chamar-se de unidades base ou unidades fundamentais primárias. Para além destas

1.18
introduziram-se unidades fundamentais auxiliares de modo a cobrir necessidades nos domínios do
Electromagnetismo, da Termodinâmica e da Óptica. As restantes grandezas podiam ser expressas
em termos das fundamentais recorrendo às chamadas equações de dimensões, designando-se por
isso as respectivas unidades de derivadas. O sistema em uso no domínio da Engenharia desde 1954
é o Sistema Internacional, o qual constitui uma extensão do sistema MKSA proposto por Giorgi e
adoptado em 1935 por muitos países. Até 1983 (a partir dessa data, com a nova definição da unidade
de comprimento, esta grandeza deixou de ser primária) esse sistema era constituído pelas seguintes
unidades base:
- unidades fundamentais primárias:
comprimento – metro, m
massa – kilograma, kg
tempo – segundo, s
- unidades fundamentais auxiliares:
intensidade de corrente eléctrica – ampère, A
temperatura termodinâmica – grau Kelvin, K
intensidade luminosa – candela, cd
quantidade de matéria – mole

As unidades de grandezas eléctricas deste sistema derivam do sistema CGS (centímetro, grama,
segundo) prático, resultante da junção dos sistemas CGS electrostático (CGSe; unidades base: m,
kg, s e ε0=1) e CGS electromagnético (CGSm; unidades base: m, kg, s e µ0=1). No entanto, e até
1948, as unidades internacionais actualmente adoptadas foram, por motivos práticos, substituídas por
outras que constituíam, por isso mesmo, o chamado sistema prático. As relações entre as unidades
dos dois sistemas eram próximas da unidade tendo-se:
1 Ω SI = 1.00049 Ω prático
1 A SI = 0.99985 A prático
1 V SI = 1.00034 V prático
1 C SI = 0.99985 C prático
1 F SI = 0.99951 F prático
1 H SI = 1.00049 H prático
1 W SI = 1.00019 W prático
1 J SI = 1.00019 J prático

A existência de várias unidades em termos das quais se expressam numericamente as diferentes


grandezas é puramente convencional. Assim sendo, nada obsta à definição e utilização de sistemas
com diferente número de unidades, uma só, em particular1. É vulgar ver-se escrito e ouvir-se falar,
nomeadamente aos físicos, de, por exemplo, uma partícula com a massa de x eV. O facto de
existirem várias unidades tem a ver com a simplicidade e comodidade de transmissão de informação.
De facto, é mais simples, e por isso mais elucidativo, expressarem-se os valores de grandezas

1
Note-se a este respeito que as equações de dimensões permitem relacionar qualquer unidade não fundamental primária
com as três unidades primárias; por outro lado estas encontram-se relacionadas entre si através de constantes numéricas
como a velocidade da luz, c, e a constante de Planck, h, (E=hf=mc2, λf=c).

1.19
essencialmente distintas por meio de unidades diferentes do que utilizar apenas uma unidade (que
passaria a ser dispensável) para esse fim. Por outro lado, a existência de várias unidades permite a
utilização de uma gama mais razoável de números reais para representação dos valores das
diferentes grandezas.

Como se sabe, as unidades não têm plural. Assim, e por exemplo, a afirmação de que "o
comprimento de uma tábua é x m", constitui uma forma simplificada de dizer "o comprimento da tábua
vale x na unidade m. Uma unidade de uma grandeza constitui, pois, um espaço vectorial
unidimensional.

As unidades designadas por nomes de pessoas, quando não escritas por extenso em que é utilizada
letra minúscula, são representadas por uma ou mais letras, sendo a primeira sempre maiúscula.

1.2.3.1 Unidades de algumas grandezas físicas

Apresentam-se a seguir as unidades fundamentais do sistema internacional e algumas das unidades


derivadas de maior interesse no domínio da electrotecnia, de acordo com as definições actuais. Note-
-se que o sistema internacional é um sistema métrico e essencialmente decimal, internacionalmente
aceite, embora não seja seguido, a nível interno, por países como os Estados Unidos da América e a
Grã-Bretanha.

metro – A unidade de comprimento, metro (m) é, por definição (1983), a distância percorrida pela luz
no vazio durante um intervalo de tempo de 1/299 792 458 s.
Com esta definição, que supõe definida como constante universal, e portanto não mensurável, a
velocidade da luz, o comprimento deixa de ser uma grandeza fundamental.

kilograma – A unidade de massa, kilograma (kg), corresponde à massa de 1 dm3 de água à


temperatura de máxima densidade.

segundo – A unidade de tempo, segundo (s), tem duas definições, consoante as grandezas
determinadas em questão. Assim, nomeadamente para mecânica celeste e navegação, utiliza-se o
segundo das efemérides, sEF adoptada como unidade invariante de tempo. Por definição, (1956), o
sEF é a fracção 1/31 556 925.9747 do ano tropical de 1900 iniciado em 0 de Janeiro às 12 horas
(tempo das efemérides). Entende-se por ano tropical o intervalo de tempo necessário para o Sol
aumentar a sua longitude média de 360º, medida segundo a enclítica a partir do equinócio de Verão.
Para medidas físicas o segundo é definido, (1967), como sendo a duração de 9 192 631 770 ciclos da
radiação correspondente à transição hiperfina entre os dois níveis F=4, mF=0 e F=3, mF=0 do estado
base 2S1/2 do átomo de césio 133 não perturbada por campos externos.
O segundo dito "atómico" constitui uma unidade de tempo muito mais interessante, uma vez que
permite medidas de intervalos de tempo com elevada precisão de uma forma simples e rápida. O
mesmo não acontece quando se utiliza o segundo das efemérides, uma vez que a escala de tempo
que dele resulta só pode ser conhecida com rigor passados vários anos, uma vez que envolve longas
observações das posições do Sol e da Lua.

ampere – A unidade de intensidade de corrente do sistema internacional, ampere (A), é o valor da

1.20
corrente constante que, mantida em dois condutores paralelos de comprimento infinito e secção
circular desprezável colocados à distância de 1 m no vácuo, produz uma força entre os condutores de
2×10−7 n/m de comprimento. A unidade assim definida é também conhecida por ampere internacional
ou absoluto. Até 1948, porém, uma outra unidade era utilizada, o ampère prático, definido como
correspondendo à intensidade de corrente que deposita prata a um ritmo de 1.118 mg por segundo a
partir de uma solução padrão de nitrato de prata. Embora não coincidentes, as duas unidades têm
valores próximos e cuja relação já foi anteriormente apresentada.

grau Kelvin – A unidade de temperatura termodinâmica, grau Kelvin (K), é 1/273.16 da temperatura
termodinâmica do ponto triplo da água, isto é, a temperatura de equilíbrio em que coexistem o gelo,
água líquida e vapor.

candela – A unidade de intensidade luminosa, candela (cd), é a intensidade luminosa, numa dada
direcção, de uma fonte de radiação monocromática de frequência 540×1012 Hz que radie nessa
direcção 1/683 W por steradiano.

mole – A unidade de quantidade de matéria, mole (mole), é a quantidade de matéria de um sistema


contendo tantas entidades elementares quantos os átomos que existem em 0.012 kg de carbono 12.

volt – A unidade de diferença de potencial ou tensão eléctrica, volt (V), é a diferença de potencial
eléctrico entre dois pontos de um condutor percorrido por uma corrente constante de 1 A quando a
potência posta em jogo é de 1 W.

ohm – A unidade de resistência eléctrica, ohm (Ω), é a resistência eléctrica de um condutor que, não
sendo sede de qualquer força electromotriz, sujeito a uma diferença de potencial de 1 V é percorrido
por uma corrente de 1 A.

farad – A unidade de capacidade eléctrica, farad (F), é a capacidade de um condensador que


carregado com a carga de 1 C apresenta uma diferença de potencial entre armaduras de 1 V.

henry – A unidade de coeficiente de indução, henry (H), é o valor desse coeficiente num circuito
fechado em que uma corrente eléctrica variando ao ritmo constante de 1 A/s produz uma força
electromotriz de 1 V. O coeficiente de indução é, como se sabe, a relação entre a força electromotriz
induzida e a derivada temporal da corrente que origina aquela.

1.2.3.2 Padrões de medida


Entende-se por padrão – (standard) - de medida o instrumento de medição ou sistema de medição
destinado a definir ou materializar, conservar ou reproduzir uma unidade ou um ou vários valores
conhecidos de uma grandeza para as transmitir por comparação a outros instrumentos de medição.
Consoante as suas qualidades metrológicas assim um padrão se designa de:

- Padrão internacional – (International standard): padrão reconhecido por um acordo internacional


para servir de base internacional à fixação dos valores de todos os outros padrões da grandeza a que
respeita.
- Padrão primário – (Primary standard): padrão que apresenta as mais elevadas qualidades
metrológicas num dado domínio.

1.21
- Padrão secundário – (Secundary standard): padrão cujo valor é fixado por comparação com um
padrão primário.

- Padrão de trabalho – (Working standard): padrão que, habitualmente calibrado por comparação
com um padrão de referência, é utilizado correntemente para calibrar ou verificar os instrumentos de
medida.

Conforme facilmente se constata a partir das noções agora definidas, os diferentes padrões estão
hierarquizados de acordo com as qualidades metrológicas segundo uma escala decrescente dos
primários para os de trabalho, agrupando-se em uma das três categorias apresentadas. No que
respeita aos padrões internacionais, e na generalidade, não faz sentido falar-se da sua exactidão,
uma vez que eles constituem a base de todas as comparações; exceptuam-se os casos em que é
possível reportar os seus valores directamente aos das unidades a que respeitam realizando as
chamadas medidas de acordo com a definição dessas unidades. Pode então pôr-se a questão de
saber qual o critério ou critérios que levam à escolha de um padrão para padrão internacional. Se
excluirmos critérios de escolha marginalmente importantes, como por exemplo os da facilidade de
realização ou praticabilidade de utilização, é óbvio que a escolha terá a ver com dois aspectos: a
precisão desse padrão e a conformidade entre as medições com ele obtidas e os valores previstos
pelas teorias pertinentes na analise de fenómenos em que intervém a grandeza em causa. Assim,
quanto menor for o desvio padrão experimental de um conjunto de intercomparações entre padrões
iguais, melhor será esse padrão do ponto de vista de constituir base para a fixação dos valores de
outros instrumentos de medida. Por outro lado, e por exemplo, um relógio será tanto melhor quanto
mais aproximados forem os valores de tempo com ele obtidos e os que resultam da aplicação das
teorias que relacionam fenómenos variáveis no tempo com esta grandeza.

Em relação aos padrões primários, secundários e de trabalho o conceito de exactidão é pertinente,


uma vez que se pode tomar como base os padrões internacionais. Deste modo, e uma vez que a
qualidade metrológica mais importante de um padrão é exactamente a sua exactidão, à hierarquia
primário-secundário de trabalho corresponde uma escala crescente de imprecisões. A essa hierarquia
corresponde também, e naturalmente, uma escala decrescente de custos dos padrões;
genericamente, e para uma mesma grandeza, um padrão de trabalho é mais barato do que um
primário. Como tal, e também porque as precisões exigidas não são as mesmas em todas as
situações de medida, os diferentes tipos de padrão encontram-se em diferentes tipos de laboratório:
um laboratório nacional de padrões disporá de padrões primários, laboratórios privados ou industriais
disporão de padrões secundários, os quais são utilizados como referência para ajuste e calibração de
padrões de trabalho. Este tipo de organização, que pode revestir diferentes formas, deverá em
qualquer caso permitir reportar o valor medido com um padrão de trabalho a um padrão pelo menos
primário mediante uma cadeia ininterrupta de comparações que se designa por rastreabilidade –
(traceability). O National Institute of Standards and Technology (NIST) tem uma organização
hierárquica das referências utilizadas nos Estados Unidos da América em três escalões como se
segue:

Escalão I

1.22
1. Padrões internacionais.
2. Padrões primários (padrões nacionais).
3. Padrões secundários (padrões de referência do NIST).
4. Padrões de trabalho (utilizados pelo NIST para serviços de calibração).

Escalão II
1. Padrões de referência; padrões secundários mantidos por laboratórios particulares e industriais.
2. Padrões de trabalho; padrões usados para calibrar e verificar aparelhos de laboratório de uso
geral.

Escalão III
Instrumentos de uso geral para produção, manutenção e ensaios externos.

A designação de padrão de referência – (reference standard) diz respeito a um padrão, em geral da


mais elevada qualidade metrológica, disponível num dado local, do qual derivam as medições
efectuadas nesse local. Por vezes utiliza-se um conjunto de instrumentos de medição idênticos,
associados para desempenhar em conjunto o papel de padrão. Ao padrão assim realizado, e de que
é exemplo as pilhas de Weston como padrão de tensão eléctrica, chama-se padrão colectivo –
(collective standard). Reserva-se a designação de colecção padrão – (group (series) of standards)
para o conjunto de padrões com valores escolhidos especialmente para reproduzir individualmente,
ou por combinação adequada, uma série de valores de uma grandeza numa dada gama. As caixas
de massas marcadas constituem exemplo típico deste tipo de padrão.

Na calibração – (calibration), (conjunto de operações que estabelecem, em condições especificadas,


a relação entre os valores indicados por um instrumento de medição, ou os valores representados por
um material de referência (material ou substância com uma ou várias propriedades suficientemente
bem definidas para permitir a sua utilização na calibração de um instrumento, na avaliação de um
método de medida ou na atribuição de valores aos materiais), e os correspondentes valores
conhecidos da grandeza a medir), são utilizados dois tipos de padrões: o padrão de transferência –
(transfer standard), utilizado como intermediário na comparação de padrões ou instrumentos de
medição entre si e o padrão itinerante – (travelling standard), padrão, por vezes de construção
especial, previsto para ser transportado entre diferentes locais.

Do conjunto de todas as operações necessárias à preservação das características metrológicas de


um padrão dentro de limites adequados, conservação do padrão – (conservation of a measurement
standard), destaca-se a sua calibração, a qual é feita comparando esse padrão com um da mesma
unidade mas de maior exactidão. A calibração deve ser periódica, dependendo do tipo, utilização e
tempo de vida os intervalos de tempo entre calibrações. Como valor típico, um padrão de trabalho
deve ser calibrado utilizando um secundário de 6 em 6 meses. Especial cuidado deve ser dado aos
aspectos de utilização e armazenamento do padrão de modo a manter as suas qualidades
metrológicas ao longo da sua vida útil.

Uma vez conhecidas as unidades das principais grandezas físicas, no que diz respeito à
electrotecnia, importa saber quais são os padrões respectivos e suas características metrológicas.

1.23
Em relação a estas, e por ser prática comum a nível internacional, utilizaremos o valor que permite
determinar o intervalo de inexactidão de um padrão para caracterizar numericamente a sua
exactidão. Assim um padrão com "uma exactidão de x partes em 10y", de "x partes por milhão" ou de
"x%" será um dispositivo cujo valor máximo do intervalo de inexactidão é o especificado.

1.2.3.2.1 Padrão de comprimento

Os padrões internacional, primário e secundário de comprimento são constituídos por lâmpadas de


descarga de kripton 86 excitadas e observadas em condições bem definidas. O comprimento de onda
da luz cor-de-laranja assim emitida constitui um padrão base que apresenta uma precisão de 1 ppm
(uma parte por milhão).

Como padrões de trabalho utilizam-se calibres, micrómetros e outros dispositivos que apresentam
uma exactidão típica da ordem de 1 mm.

1.2.3.2.2 Padrão de massa

O padrão internacional de massa é ainda constituído pelo protótipo internacional de kilograma


existente no Museu Internacional de Pesos e Medidas em Sévres, perto de Paris (França). Os
padrões primários são também protótipos de kilograma verificados por comparação com o protótipo
internacional, sendo a sua exactidão de 1 parte em 108. Os padrões secundários e de trabalho são os
que possuem exactidões de 1 ppm e 5 ppm, respectivamente, apresentando-se estes últimos com os
mais variados valores, sendo por isso adaptáveis às mais variadas aplicações. Como é normal, a
calibração dos secundários é feita utilizando um primário; constituem, por sua vez padrão de
referência na verificação dos padrões de trabalho.

1.2.3.2.3 Padrão de tempo

Os padrões de tempo são os relógios. Os padrões primários são relógios de césio que permitem
actualmente precisões de 2 partes em 1013 em equipamento de laboratório e 7 partes em 1012 em
equipamento comercial. Nos padrões de trabalho utiliza-se normalmente o quartzo; no entanto, e
dado o custo actual dos relógios de rubídio e mesmo de césio, tende-se a utilizar cada vez mais
relógios deste tipo em aplicações industriais exigindo média exactidão.

Os padrões de tempo são os de mais fácil verificação, uma vez que a difusão de diferentes padrões
primários é feita contínua ou regularmente por estações de rádio espalhadas pelos diferentes
continentes e cujas transmissões cobrem todo o planeta.

1.24
1.2.3.2.4 Padrão de intensidade de corrente

Os padrões de intensidade de corrente são em geral obtidos a partir de padrões de resistência e de


tensão eléctricas por aplicação da lei de Ohm.

1.2.3.2.5 Padrão de temperatura termodinâmica

Os padrões de temperatura são termómetros de diferentes tipos. Assim, o padrão primário é


constituído por um termómetro de resistência de platina de construção especial de modo a que o fio
não seja sujeito a esforços mecânicos. A escala deste termómetro, usualmente graduada em ºC
(escala prática), é estabelecida com base nos seguintes valores (pressão atmosférica):

- Fundamentais; ponto de ebulição da água: 100 ºC


ponto triplo da água: 0.01 ºC

- Primários; ponto de ebulição do oxigénio: - 182.97 ºC


ponto de ebulição do enxofre: 444.6 ºC
ponto de congelação da prata: 960.8 ºC
ponto de congelação do ouro: 1063 ºC

Os valores intermédios são calculados a partir de fórmulas baseadas nas propriedades do fio de
resistência de platina.

1.2.3.2.6 Padrão de intensidade luminosa

Os padrões primários de intensidade luminosa são corpos negros de construção especial e à


temperatura de solidificação da platina. Os padrões secundários e de trabalho são lâmpadas de
filamento de tungsténio que operam a uma temperatura para a qual a distribuição espectral de
energia na região do visível (3950 Å a 7500 Å) coincide com a do padrão primário.

1.2.3.2.7 Padrão de tensão contínua

A partir de 1 de Janeiro de 1990, o padrão internacional de tensão contínua é constituído por uma
junção de Josephson. O funcionamento do dispositivo é baseado num fenómeno observável em
supercondutores fracamente ligados, como por exemplo duas películas supercondutoras de nióbio
separadas por uma camada isolante de 1 nm. Assim, quando a junção é iluminada por radiação de
frequência f da ordem dos GHz (microondas), a característica V(I) do dispositivo apresenta degraus
de corrente para valores de tensão VJ que verifiquem:

VJ = nf K J (1.16)

em que n é um inteiro e KJ=4πe/h uma constante dependente da carga do electrão, e, e da constante


de Planck, h. A constante KJ é, pois, uma constante universal, independente dos materiais
supercondutores utilizados, da frequência da radiação iluminante, da temperatura ou de n. A grande

1.25
vantagem da utilização deste tipo de padrão para tensão contínua resulta do facto de a tensão dita de
Josephson ser apenas dependente da frequência da radiação iluminante, grandeza física que é
mensurável com o mais elevado rigor. O valor da constante KJ definido para 1990 (KJ-90) é de
483 597.9 GHz/V. A reprodutibilidade dos diferentes dispositivos idênticos desenvolvidos nos
diferentes laboratórios nacionais é da ordem de 1 parte em 1016. A utilização destes padrões em
operações de calibração é particularmente simples, o que constitui outra das suas vantagens.

No que respeita aos padrões primários, secundários e de trabalho, dois tipos de dispositivos são
utilizados: díodos de zener e pilhas padrão. Os equipamentos que recorrem aos primeiros usam
díodos especiais colocados em estufas mantidas a temperatura constante. A inclusão de divisores de
tensão calibrados e de precisão na saída dos equipamentos permite ter acesso a diferentes valores
de tensão, o que se torna particularmente interessante para efeitos de calibração. Os padrões
primários são porém, e ainda hoje em dia, pilhas padrão do tipo Weston saturado. Trata-se de um
elemento electroquímico em que o eléctrodo positivo é de mercúrio, o negativo de uma amálgama de
cádmio e o electrólito uma solução de sulfato de cádmio saturada a qualquer temperatura por virtude
de cristais de sulfato de cádmio que cobrem os eléctrodos. Estes padrões, que apresentam uma
deriva típica anual de 1 µV, exactidão da ordem de 1 ppm, resistência interna entre os 500 e os 800 Ω
e uma vida de útil de 10 a 20 anos, fornecem uma tensão em vazio que é função da temperatura,
V(t), dada por:

V(t) = V20ºC − 0.000046(t − 20) − 0.00000095(t − 20)2 + 0.00000001(t − 20)3 (1.17)

O valor típico de V a 20 ºC é de 1.01858 V.

Para além das pilhas de Weston saturadas são também utilizadas, essencialmente como padrões de
trabalho, pilhas não saturadas. Estas, que apresentam uma força electromotriz em vazio entre 1.0180
e 1.0200 V, embora menos reprodutíveis e estáveis do que as do tipo saturado, apresentam a
vantagem de serem muito menos dependentes da temperatura, com variações relativas inferiores a
0.01% no intervalo 10 a 40 ºC, o que as torna mais robustas e, portanto, adequadas, quer como
padrões de trabalho, quer como de transferência. Porém, e uma vez que à robustez aliam exactidões
semelhantes às das pilhas saturadas, os padrões utilizando díodos de zener são, por excelência, os
usados como de transferência.

As pilhas Weston constituem um exemplo típico de um padrão que usualmente é do tipo colectivo,
isto é, em que se utiliza um conjunto de elementos para, a partir do valor médio das respectivas
tensões em vazio, se definir o valor da unidade volt. Assim, e por exemplo o NIST, usava até há bem
pouco tempo uma colecção de 40 elementos de Weston saturados, mantidos a temperatura
constante, como padrão primário e 10 elementos do mesmo tipo como padrão de trabalho, sendo as
comparações dos elementos primários realizadas entre si e as dos de trabalho com os primários.

Os valores das forças electromotrizes das pilhas de Weston são, naturalmente, extremamente
dependentes da corrente por elas debitada. Assim, e para que, por um lado se possa tomar para
tensão aos terminais de cada elemento o valor da força electromotriz em vazio e, por outro lado, os
elementos mantenham as suas características ao longo do tempo, a corrente pedida não deve

1.26
exceder os 100 mA; a utilização destes padrões envolve, por isso, cuidados especiais.

1.2.3.2.8 Padrão de resistência eléctrica

O padrão internacional de resistência eléctrica baseia-se, desde Janeiro de 1990, no efeito de Hall
quantificado. Este, posto em evidência por Klaus von Klitzing em 1980, semelhante ao que se verifica
para materiais semicondutores e, com menor amplitude para os materiais condutores, consiste no
aparecimento de uma tensão eléctrica quando se sujeita um gás bidimensional de electrões
arrefecido a cerca de 1 K a um campo magnético da ordem dos 10 T. O gás de electrões consegue-
se, nos dispositivos reais, com uma estrutura de GaAs/AlxGa1-xAs em forma de barra. A variação da
tensão de Hall com o campo magnético tem, para cada valor da corrente que longitudinalmente
atravessa a estrutura, um andamento como o representado na Figura 1.3.

A resistência de Hall,

UH
RH = (1.18)
II

terá um andamento do mesmo tipo, apresentando, por isso, zonas planas em que se tem:

RK
RH = (1.19)
n

sendo RK uma constante, dita de von Klitzing, e n um inteiro. Teoricamente RK = h é, desde que
2πe2

os dispositivos satisfaçam determinados critérios, uma constante universal. O seu valor foi definido
em 1990 como sendo RK −90 = 25812.807 Ω . A reprodutibilidade no estabelecimento da unidade Ω

com este padrão é de algumas partes em 109.

Figura 1.3: Variação da tensão de Hall, UH, em função da intensidade do campo magnético aplicado,
B, numa estrutura de GaAs/AlxGa1-xAs mantida a 1.39 K para uma corrente longitudinal, Il=25.52 mA
obtida por Marvin Cage et al. (NIST).

1.27
No que respeita aos padrões primários, secundários e de trabalho, são constituídos por resistências
construídas em manganina (Ni 4%, Cu 84%, Mn 12%) ou outras ligas, como o evanohm (Ni 74.5%, Cr
20%, Al e Cu), que apresentem resistividade eléctrica elevada e baixo coeficiente de variação com a
temperatura. Os padrões primários são colectivos, conseguindo-se com poucos elementos (4-5) de
1 Ω uma representação da unidade com uma precisão de algumas partes em 107 durante vários
anos.

Nos padrões de trabalho e de transferência o condutor é suportado entre películas de polyester de


modo a reduzir tensões mecânicas no condutor e para melhorar a sua estabilidade. Com a imersão
do elemento em óleo e a inclusão do conjunto numa caixa fechada procura-se assegurar condições
ambientais de funcionamento constantes. As ligações do elemento a terminais é feita por soldadura a
fio de prata, sendo os terminais em cobre niquelado; a ausência de oxigénio evita a formação de
óxido de cobre que é isolante.

Tal como todos os padrões das diferentes grandezas físicas, as resistências padrão são
acompanhadas de certificados de calibração que devem permitir a sua rastreabilidade. Uma vez que
a dependência do valor da resistência com a temperatura é significativa, importa dispor de informação
que permita conhecer o seu valor nas condições verificadas quando da sua utilização. Assim, duas
formas são usualmente usadas para transmitir essa informação: ou uma curva de variação da
resistência com a temperatura, como a que se apresenta na Figura 1.4, ou a indicação dos valores de
dois coeficientes, a e b intervenientes na seguinte função de dependência da resistência com a
temperatura:

R(t) = R25ºC + α(t − 25) + β(t − 25)2 (1.20)

Os padrões de resistência eléctrica são, conjuntamente com os de tempo e tensão contínua, os


fundamentais na calibração de instrumentos eléctricos de medida. Os padrões de trabalho são muitas
vezes blindados de modo a minimizar a interferência que o ruído provoca no dispositivo.

Figura 1.4: Dependência do valor da resistência padrão Tinsley 220356 com a temperatura.

1.28
1.2.3.2.9 Padrão de capacidade

Os padrões primários de capacidade são condensadores de construção especial cujo valor é


conhecido com inexactidões de algumas partes em 108.

Os condensadores padrão secundários e de trabalho são em geral planos, com armaduras múltiplas,
e em relação aos quais o conhecimento da área e da distância entre armaduras permite determinar o
valor da respectiva capacidade. A exactidão de um bom padrão de trabalho deste tipo pode atingir
algumas partes por milhão, sendo a deriva anual do seu valor de algumas dezenas de partes por
milhão. O dieléctrico é, para capacidades baixas, ar seco ou azoto, utilizando-se, para capacidades
mais elevada, dieléctricos sólidos. A mica-prata, por exemplo, constitui um bom dieléctrico, uma vez
que apresenta elevada estabilidade, baixos valores do coeficiente de variação da constante
dieléctrica com a temperatura e do ângulo de perdas bem como inexistência de envelhecimento.

A susceptibilidade do valor da capacidade de um condensador ao ruído electromagnético e à


presença de objectos na sua vizinhança conduz à necessidade da utilização de blindagens.

As décadas de condensadores vulgarmente utilizadas, embora interessantes do ponto de vista de


ensaios de baixa exactidão, são de uso proibido em medidas de elevada exactidão, uma vez que
intrinsecamente não possuem uma exactidão melhor do que, tipicamente, 1%.

1.2.3.2.10 Padrão de coeficiente de indução

O padrão primário de coeficiente de auto-indução é preferencialmente obtido a partir dos padrões de


resistência eléctrica e de capacidade utilizando-se circuitos especiais designados por pontes de
medida, nomeadamente a de Maxwell.

Os padrões de trabalho, disponíveis comercialmente com valores compreendidos entre 50 µH e 10 H,


são constituídos por enrolamentos multi-camada sobre materiais cerâmicos ou baquelite. A utilização
de núcleos toroidais é particularmente aconselhável, uma vez que deste modo se minimiza a
interferência devida a fontes estranhas de campo electromagnético. Contrariamente aos
condensadores padrão, as bobines padrão não são blindadas, uma vez que a blindagem seria
elemento de acoplamento de ruído electromagnético; o conjunto bobina-blindagem comportar-se-ia
como um transformador em que o secundário (blindagem) se encontrava em curto-circuito. Uma vez
que o valor do coeficiente de indução de um enrolamento é particularmente dependente da
frequência - não esquecer que as sucessivas espiras separadas por um material isolante se
comportam como um conjunto de pequenos condensadores, os quais, para frequências
suficientemente elevadas, constituem praticamente um curto-circuito para a corrente que tenderia a
percorrer o enrolamento –, importa especificar qual o valor para o qual ele apresenta um determinado
coeficiente de indução.

Um valor típico da exactidão do coeficiente de auto-indução de uma bobine padrão de trabalho a uma
dada frequência é de 0.1%. No que respeita ao coeficiente de indução mútua entre enrolamentos, os
padrões de trabalho, com valores entre os 0 e os 200 mH, apresentam exactidões da ordem dos
2.5%.

1.29
1.2.4 Métodos de medida

Entende-se por método de medida – (method of measurement) o conjunto de operações teóricas e


práticas, em termos gerais, envolvidas na execução de medidas, segundo um dado princípio. O
princípio da medição – (principle of measurement) – será naturalmente o fundamento científico de
um método de medida. Assim, o efeito de Hall será um princípio de medida possível para a medição
de campos magnéticos e o efeito Doppler um princípio em que se podem suportar métodos de
medida da velocidade de um qualquer móvel. Ao conjunto de operações teóricas e práticas descritas
pormenorizadamente envolvidas na execução de medições, segundo um dado método designa-se
por procedimento de medida – (measurement procedure). A totalidade da informação, equipamento
e operações relativas a uma dada medição constitui o processo de medição – (measurement
process). Este conceito compreende, pois, todos os aspectos relacionados com a execução e a
qualidade da medição, por exemplo: o princípio, o método, os procedimentos, os padrões e os
valores das grandezas de influência. Uma grandeza de influência – (Influence quantity) – será uma
grandeza que não é o objecto da medida mas influi no valor da grandeza a medir ou nas indicações
do instrumento de medida. A temperatura e a frequência são, na maioria dos casos, grandezas deste
tipo.

Se se excluírem os métodos de medição segundo a definição – (definitive method of


measurement) – método de medida de uma grandeza de acordo com a definição da unidade dessa
grandeza –, os restantes métodos podem-se incluir em um de dois grupos: os absolutos e os
relativos.

Um método de medida absoluto ou fundamental – (fundamental method of measurement) –, é


todo o método de medição no qual o valor da grandeza a medir é determinado por medição das
grandezas de base apropriadas. Quando, como no caso da medida de uma pressão através da
medida da altura de uma coluna de líquido, intervém uma grandeza cujo valor é dependente do valor
da grandeza a medir o método diz-se indirecto. A medida da capacidade de um condensador a partir
da medida das suas dimensões constitui um método fundamental directo.

Os métodos de medida relativos têm como característica comum a do valor desconhecido da


grandeza ser obtido por comparação com um padrão dessa grandeza. Tal como os métodos
absolutos, também estes podem ser divididos em directos e indirectos. Exemplo dos primeiros é o da
medida de um comprimento utilizando uma régua: o valor utilizado para comparação é conhecido. A
medida de uma tensão eléctrica recorrendo a um voltímetro previamente calibrado a partir de um
padrão de tensão contínua constitui exemplo dos segundos. Estes podem ainda ser agrupados em:

- método de medição por substituição – (substitution method of measurement): método de medida


no qual a grandeza a medir é substituída por uma grandeza da mesma natureza, de valor conhecido,
escolhida de modo a que os efeitos no dispositivo indicador sejam os mesmos.

- método de medida diferencial – (differential method of measurement): método de medida no qual


a grandeza a medir é comparada com uma grandeza da mesma natureza de valor conhecido, pouco
diferindo do da grandeza a medir, e no qual a diferença dos dois valores é medida.

1.30
- método de medida por zero – (null method of measurement): método de medida no qual o valor da
grandeza a medir é determinado por equilíbrio ajustando uma ou várias grandezas, de valores
conhecidos, associados à grandeza a medir por uma relação conhecida no ponto de equilíbrio.

1.2.5 Realização industrial de calibrações utilizando o método de zero por


compensação de tensão.

A medida de tensões contínuas e calibração de aparelhos nesse domínio, a nível de laboratórios


secundários e de trabalho, recorre, em geral, à utilização de calibradores. Trata-se de geradores de
tensão e de corrente de elevada precisão e estabilidade a curto e longo prazo, os quais constituem,
conjuntamente com divisores de tensão padrão do tipo Kelvin-Varley, a base dos sistemas de medida
industriais com aquela finalidade.

A Figura 1.5 representa o esquema de ligações de um sistema suportado num calibrador 5700 A,
num divisor de tensão 720 A, num voltímetro de zero 845 A e num padrão de tensão contínua 732 A
da marca FLUKE que permite gerar e medir tensões contínuas de valor até 1100 V. Os cabos de
ligação utilizados deverão ser tais que a força electromotriz de origem térmica devida às ligações seja
mínima. Descreve-se no seguimento os procedimentos de medida para a calibração de um voltímetro
com alcance de 10 V.

HI
L0 845A
GUARD

0 1.1
HI HI
S 1.0 HI
5700A 0 0 L0 L0
L0 S 732A
GND GND GND
GND 720A GUARD

Figura 1.5: Sistema FLUKE para a geração e medida de tensões contínuas.

- Procedimentos

Considere-se a Figura 1.5 em que se selecciona no padrão 732 A uma tensão de referência de 10 V.
Programa-se o calibrador para uma tensão de 11 V e selecciona-se no divisor de tensão 1.0000000.
Começando com o voltímetro de zero na escala de menor sensibilidade, ajusta-se a tensão de saída
do calibrador de modo a conseguir o melhor nulo possível, aumentando para o efeito a sensibilidade
do detector. Uma vez feita a "padronização" do calibrador, substitui-se a referência de tensão e o
detector de zero pelo voltímetro a calibrar. Para diferentes valores, menores do que a unidade, do
divisor de tensão, d, regista-se a indicação do voltímetro Vv. O erro do instrumento Ev, em valor
absoluto, será então:

1.31
Ev = Vv − 10 × d (1.21)

De modo a evitar a influência dos potenciais de contacto devem-se realizar dois ensaios com a
tensão do calibrador invertida, tendo o cuidado de inverter também as ligações do voltímetro. O valor
Vv será então a semi-soma dos valores indicados pelo voltímetro. Para o mesmo efeito, e no ensaio
de "padronização" do calibrador, a verificação do zero deve ser feita invertendo os terminais do
detector.

Uma vez que o circuito não é homogéneo, a ausência de forças electromotrizes com origem no efeito
de Seeback impõe que não se verifiquem gradientes de temperatura nas junções de materiais
diferentes. Para isso impõe-se a utilização de cabos de ligação apropriados e efectuar as ligações
sem aquecer os terminais com os dedos.

No que respeita aos instrumentos utilizados, para além de deverem ser ligados com a antecedência
necessária a garantir a estabilização do seu funcionamento, deverão ter os terminais de guarda e de
terra ligados.

A calibração recorrendo aos equipamento e procedimentos descritos permite resultados com uma
incerteza que, para valores acima de 10 mV é, condicionada pela do padrão de tensão: 3 ppm; para
valores abaixo daquele limite, é o detector a limitar essa incerteza que será da ordem de 30 mV,
melhor zero observável com o detector.

1.32
BIBLIOGRAFIA

[1.1] Vocabulário Internacional de Metrologia


Direcção Geral da Qualidade
Lisboa 1985

[1.2] Electronic Instrumentation and Measurement Techniques


W. D. Cooper
2nd Edition, Prentice-Hall International

[1.3] Principles of Electronic Instrumentation and Measurement


H. W. Berlin; F. C. Getz Jr.
Merril Publishing Company

[1.4] Medidas Eléctricas


J. F. Borges da Silva
AEIST

[1.5] Precision Measurements and Calibration. Statistical Concepts and Procedures


Special Publication 300 Vol. 1
National Bureau of Standards
United States Department of Commerce

[1.6] Laser Frequency Measurements and the Redefinition of the Meter


Pierre Giacomo
IEEE Trans. on Inst. and Meas., Vol. IM-32, Nº 1
March 1983

[1.7] News From the BIPM: Some Changes in the SI


Pierre Giacomo
IEEE Trans. on Inst. and Meas., Vol. IM-34, Nº 2
June 1985

[1.8] Fundamentals of Time and Frequency Standards


Hewlett Packard Application Note 52-1

[1.9] Timekeeping and Frequency Calibration


Hewlett Packard Application Note 52-2

[1.10] Precision DC Measurements


Hewlett Packard Application Note 70
October 1969

1.33
[1.11] Quantum Hall Effect Shows Surprising Even-Denominator Plateau
Berlin Schwarzschild
Physics Today, pp. 17-20
January 1988

[1.12] New Measurement Standards For 1990


Barry N. Taylor
Physics Today, pp. 23-26
August 1989

[1.13] The New BIPM 1-V Reference Standard Based on an Array of Josephson Junctions
D. Reymann; T. J. Witt
IEEE Trans. on Inst. and Meas., Vol. IM-pp. 1030-1036
December 1989

[1.14] IEEE Trans. on Inst. and Meas.


April 1989.

[1.15] Special Issue on Time and Frequency


Proceeding of the IEEE
July 1991.

1.34
1.35

You might also like