Eu tenho um sistema de processamento de sinal digital que opera em uma máquina x86 rápida usando números de ponto flutuante de precisão dupla . Ocorreu-me que eu realmente não estou usando a enorme faixa dinâmica da representação de ponto flutuante - todas as quantidades cabem facilmente na faixa ± 32768.
Minha pergunta: é possível que a mudança para cálculos de ponto fixo forneça um benefício em precisão numérica (alta prioridade) ou tempo de computação (baixa prioridade)?
Obviamente, a resposta depende de quantos bits estão disponíveis para um cálculo de ponto fixo. Quantos bits de precisão os sistemas típicos de ponto fixo utilizam? É possível fazer cálculos de ponto fixo com eficiência, com, digamos, 64 bits ( parte inteira de 16 bits, parte fracionária de 48 bits ) em x86-64?
Eu sempre pensei que os cálculos de ponto fixo eram usados apenas em situações onde a energia da CPU é limitada - faz sentido usar cálculos de ponto fixo quando a energia da CPU não é uma preocupação?