De volta à névoa do tempo em que comecei a codificar, pelo menos até onde sei, todos os processadores usavam uma quantidade fixa de energia. Não havia um processador "ocioso".
Atualmente, existem todos os tipos de tecnologias para reduzir o uso de energia quando o processador não está muito ocupado, principalmente reduzindo dinamicamente a taxa de clock.
Minha pergunta é por que rodar com uma freqüência menor usa menos energia?
Minha imagem mental de um processador é de uma tensão de referência (digamos 5V) representando 1 binário e 0V representando 0. Portanto, eu tendem a pensar em um 5V constante sendo aplicado em todo o chip, com os vários portões lógicos desconectando essa tensão quando "off", significando que uma quantidade constante de energia está sendo usada. A taxa na qual esses portões são ligados e desligados parece não ter relação com a energia utilizada.
Não tenho dúvida de que essa é uma imagem irremediavelmente ingênua, mas não sou engenheiro elétrico. Alguém pode explicar o que realmente está acontecendo com a escala de frequência e como isso economiza energia. Existem outras maneiras pelas quais um processador usa mais ou menos energia, dependendo do estado? Por exemplo, usa mais energia se mais portões estiverem abertos?
Qual a diferença entre os processadores móveis / de baixa potência e os primos de desktop? Eles são apenas mais simples (menos transistores?), Ou há alguma outra diferença fundamental de design?