Depois de ver alguns alunos ontem que tentaram usar um divisor de tensão em vez de um regulador para fornecer um sensor com uma fonte de alimentação mais baixa, com resultados previsíveis, comecei a me perguntar sobre essa pergunta.
Ao escolher um regulador, parece que muitos observam a queda de tensão necessária e a dissipação de energia necessária. Eficiência aparte no momento, se um regulador linear puder reduzir essa potência dentro dos limites térmicos, os reguladores lineares são uma opção e, se não puderem, passar a mudar de regulador.
Se alguém pudesse descobrir a faixa de consumo de corrente e calcular um divisor de tensão que manteria simultaneamente a entrada de um regulador linear alto o suficiente para manter a regulagem e baixo o suficiente para que o regulador não consumisse muita energia na corrente empate, é uma abordagem viável?
Posso pensar em várias razões pelas quais essa pode não ser a melhor abordagem: a taxa de rejeição da fonte de alimentação pode não ser boa o suficiente no regulador; a faixa de consumo de corrente que viabiliza essa abordagem pode ser muito pequena, a menos que você use resistores pequenos que provavelmente excederão suas próprias classificações de potência; é apenas mais eficiente usar um regulador de comutação; etc.
Além disso, pode ser que as pessoas façam isso o tempo todo, e eu simplesmente não percebi, ou talvez um zener seja usado no lugar do divisor. Parece que quando a queda de energia é grande demais, as pessoas correm para trocar de regulador.
Falta alguma coisa?