Como você determina a precisão de um dispositivo de medição?


10

Digamos que você tenha um dispositivo de medição do qual você não conhece a precisão e um dispositivo de medição de referência. Ambos medem uma variável . O intervalo de interesse é . Como você determina a precisão do dispositivo desconhecido nesta faixa?x 0 < x < x 1xx0<x<x1

Meu curso de ação seria reunir valores para os dois dispositivos de a e criar uma distribuição de erros . A precisão pode ser a extensão do erro, ou algo semelhante - isso está correto?x 1 ± 3 σx0x1±3σ

Premissas:

  • O dispositivo de medição de referência é calibrado e praticamente não apresenta erros

Primeiro, o dispositivo de referência de medição deve ser calibrado corretamente. Então a precisão pode ser determinada pela entrada mínima para que haja alteração na saída. Ex. nos compassos de calibre vernier, a entrada mínima é a distância.
Fennekin

Eu adicionei a suposição de que está calibrado. - Eu realmente não sei como aplicar o seu exemplo, com pinças de vernier
John HK

1
ok, então 'precisão' ou 'verdade' de acordo com sua referência? Parece que você primeiro determinaria a exatidão do dispositivo de referência, assumindo a precisão conforme declarada para o dispositivo, depois compare sua leitura média no dispositivo de teste para determinar a exatidão e calcule a variação para determinar a precisão. Eu acho que a maioria de nós, "veteranos", usa "precisão" para essa nova "verdade".
Carl Witthoft

Respostas:


2

Sua abordagem é amplamente correta.

Se você está interessado apenas na precisão do seu sistema, provavelmente deseja usar algo como o erro máximo. Sua precisão é +/- Máximo de erro com a suposição de que erros reais são uniformemente distribuídos dentro desse intervalo (uma distribuição uniforme geralmente será uma superestimação, mas é uma opção simples quando não há informações melhores disponíveis).

No entanto, essa abordagem geralmente produz grandes erros devido a efeitos sistemáticos que podem ser facilmente corrigidos ajustando uma curva (normalmente linear) através do gráfico de valores medidos e reais.

Isso deve corrigir o viés no seu instrumento e você pode calcular a incerteza com base no desvio padrão dos resíduos. A incerteza total é normalmente um múltiplo de , a escolha é razoavelmente arbitrária; portanto, você deve indicar o múltiplo (valor k) ou o fator de cobertura associado. Você também deve indicar qual distribuição está assumindo, pois isso afetará o que o múltiplo fornece. uma cobertura específica. Por exemplo, para uma cobertura gaussiana de 95% k ~ 2, mas para uma distribuição uniforme 95% de cobertura k ~ 1,68σ


Como você disse, a escolha é arbitrária, mas existe um padrão comum? Tenho muitas vezes encontrou fichas de dados que acabou de dizer "Precisão: + Y", sem definir se este é 2sigma, 3sigma, etc. ...
John HK

σ

Na minha experiência, muitas vezes, as folhas de dados são uma bagunça de termos pouco claros e valores mal definidos (os brouchers de vendas são ainda piores).
Nivag

3

A única maneira de determinar a precisão com que qualquer dispositivo de medição fornece medições é calibrá-lo contra um dispositivo de precisão conhecida e erros conhecidos de medições.

Sua técnica está parcialmente correta; não faça apenas a medição de erros para os limites do dispositivo como uma população ou compartimento de amostras. Isso ocorre porque os erros de medição nem sempre são uniformes.

Por exemplo, para leituras entre 0 e 1, o erro pode ser -0,2 e para leituras entre 2 e 3, o erro pode ser +0,6. Seu teste deve ser realizado em faixas ou faixas, independentemente de as unidades serem mm (para réguas), m / s (para anemômetros ou velocímetros) ou Pa (para barômetros).

Para cada faixa / faixa, você determina o erro para essa faixa / faixa e aplica esse erro à medição realizada no dispositivo que precisava de calibração.


Isso seria com a suposição de que eu quero calibrar o dispositivo - o que eu não queria. Eu só quero avaliar isso. Entendo o seu exemplo e para dar um passo adiante: agora você possui um erro de -0,2 para o primeiro "compartimento", um erro de +0,6 para o segundo e assim por diante ... Se você quiser resumir isso para todo o intervalo em um único número, o que você usa? Desvio padrão para todos os erros?
John HK

Como você pode "avaliar" sem gerar simultaneamente informações que fornecem calibração?
Carl Witthoft 19/01/16

@CarlWitthoft Bem, você gera informações para calibração, mas pode não ser possível incorporá-las ao dispositivo ou disponibilizá-las de outra forma para o usuário.
John HK

@CarlWitthoft thefreedictionary.com/calibrate discorda de mim. Ainda acho que há uma diferença entre determinar uma precisão e melhorar um dispositivo, disponibilizando essas informações, mas não acho que estamos progredindo discutindo essa definição.
John HK

1
"A única maneira de determinar a precisão ... é calibrá-la contra um dispositivo de precisão conhecida" não é verdadeira. Se assim fosse, nunca conseguiríamos calibrar nossos dispositivos mais precisos. Para determinar a precisão dos instrumentos para os quais não há um dispositivo mais preciso, compare-o com cópias idênticas de si mesmo (ou use o raciocínio físico).
Chris Mueller

1

Eu estava em uma equipe de engenheiros de qualidade (mas não um dos especialistas), e eles tinham um visual em que usavam um gráfico 2d em que o eixo X era a primeira medição e Y era a segunda medida do mesmo recurso observável.

Eles repetiam a medida / medida e criavam o que chamavam de "gráfico de salsichas". Eles eliminariam os 2% periféricos das amostras e desenhavam uma "salsicha" ao redor do resto.

Você pode ver visualmente a qualidade do sistema de medição observando a proximidade dos pontos de dados da linha de ângulo de 45 graus.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.