Trabalho em sensores de qualidade do ar, vários dos quais são sensores de gás eletroquímico. Como pano de fundo, esses sensores são estimulados por um circuito potenciostático que aplica uma tensão de polarização e mede a corrente que flui através do sensor (normalmente na ordem dos nano-amperes). A quantidade de corrente que flui através do sensor está relacionada à concentração de um gás alvo ao qual o sensor foi exposto. A corrente também está relacionada à pressão, umidade relativa, temperatura e exposição a gases sensíveis à sensibilidade, em que reside a desgraça da minha existência.
Tradicionalmente, usamos uma abordagem de modelagem de dados para interpretar a corrente medida no sensor como uma concentração do gás alvo, com base nas recomendações do fabricante do sensor. Fazemos isso medindo a resposta ao ar limpo e em uma faixa de temperaturas e, em seguida, usando essa caracterização para interpretar a deflexão da resposta da linha de base caracterizada como atribuível à exposição ao gás alvo.
Não temos os meios para realmente avaliar a qualidade desse modelo, porque não temos um instrumento de referência, nem os meios para expor o sensor a concentrações controladas de gás, mas somos capazes de expor os sensores para direcionar o gás em ordem para confirmar que eles respondem sensivelmente ao gás alvo.
O desafio que estou enfrentando é que o modelo de dados parametrizado pela caracterização acima mencionada, por períodos mais longos (por exemplo, uma semana) e sujeito a ar limpo sob variação natural da temperatura, umidade relativa e pressão, produz um intervalo de variação na concentração interpretada que é excessivamente grande. Não é barulhento, mas sim à deriva. Isso me leva a acreditar que o modelo de dados está muito ausente.
Isso me levou a pensar que uma abordagem algorítmica (aprendizado de máquina) pode produzir melhores resultados. Como tenho dados de resolução de um minuto para temperatura, umidade relativa, pressão e corrente do sensor (todos com valor real) em condições de ar limpo, quais ferramentas seriam mais adequadas para modelar a corrente do sensor em função da temperatura, umidade relativa, e pressão? O que mais me preocupa é que não podemos praticamente criar condições que representem uma seção razoável do espaço de entrada.
Eu usaria o modelo de dados tradicional para interpretar a deflexão da linha de base prevista para estimar a concentração de gás.
Uma observação lateral é que a temperatura e a umidade relativa estão fisicamente correlacionadas, embora eu possa matematicamente afastar a umidade absoluta da temperatura, umidade relativa e pressão, o que acho que a des correlacionaria.
Atualização / Esclarecimento
Caso isso não esteja claro, o objetivo é estimar a tensão de linha de base produzida por um sensor em um ambiente de ar limpo sob condições variáveis de pressão, umidade e temperatura - como forma de usar a deflexão dessa linha de base prevista como o sinal de interesse no cálculo da concentração de gás da espécie-alvo. Então, basicamente, estou investigando abordagens alternativas ao que geralmente é chamado de calibração zero no domínio da instrumentação.
Se eu tivesse dados verdadeiros sobre as espécies-alvo, parece-me que poderei pular os negócios sobre desvios de uma linha de base prevista e estimar a concentração diretamente dos vetores de tempo de tensão, temperatura, umidade e pressão.