Sim, normalmente você não colocaria um sensor a 100 metros do ADC.
Por quê? Como esse comprimento do fio sofrerá queda de tensão devido à resistência do fio de cobre, fazendo uma estimativa rápida para demonstrar, usando 24 AWG ( gráfico de bitola do fio ), a resistência seria de cerca de 8 ohms.
Usando a Lei de Ohm e diga 10mA de corrente (meu palpite, pequeno nível de sinal) que seria igual a cerca de 0,1 volts.
V = I * R
voltage drop = 10mA times 8 ohms
V = 0.010 * 8 = 0.08
or approximately 0.1 V.
Se é um sinal de 5V que é 2%, o suficiente para perder a precisão.
Normalmente, para que um sinal seja transmitido de maneira confiável a uma distância maior, e resistir a interferências e lidar com a resistência do fio, você pode fazer algumas coisas.
O primeiro é aumentar a tensão, digamos, usar um sinal de 24 volts em vez de 5V (ou 3,3V) ou qualquer que seja o limite da sua entrada ADC. Isso pode ser útil e é o que o protocolo serial RS-232 (EIA-232) faz para melhorar a confiabilidade da comunicação à distância.
O segundo é usar um loop de corrente , onde as informações são codificadas como diferenças de corrente, de modo que o valor LDR seja codificado próximo ao sensor, e o loop de corrente mede a distância de 100 metros. Isso exigiria um transceptor de loop de corrente em cada extremidade da distância e pelo menos uma extremidade do loop deve ter uma fonte de alimentação robusta para fornecer a energia necessária para o loop.
Uma terceira maneira seria usar um sinal diferencial , onde dois fios ( linhas de transmissão balanceadas) se estendem entre o sensor LDR e o ADC. A diferença entre os dois valores é o sinal real . Isso tem muito boa rejeição de interferência no modo comum (filtragem). Os exemplos incluem RS-422 e a maioria dos modos Ethernet. Existem CIs de drivers de linha para RS-422, semelhantes ao popular transceptor / driver MAX232 para comunicações seriais RS-232.