Os algoritmos de aproximação são apenas para problemas de otimização, não para problemas de decisão.
Por que não definimos a taxa de aproximação como a fração de erros que um algoritmo comete ao tentar resolver algum problema de decisão? Como "a razão de aproximação" é um termo com um significado padrão bem definido, que significa outra coisa, e seria confuso usar o mesmo termo para duas coisas diferentes.
OK, poderíamos definir alguma outra relação (vamos chamá-la de outra coisa - por exemplo, "a relação det") que quantifica o número de erros que um algoritmo comete, para algum problema de decisão? Bem, não está claro como fazer isso. Qual seria o denominador dessa fração? Ou, dito de outra maneira: haverá um número infinito de instâncias de problemas e, para algumas delas, o algoritmo dará a resposta certa e outras para a resposta errada; portanto, você terá uma proporção que é "algo dividido pelo infinito", e isso acaba sendo sem sentido ou não definido.
Como alternativa, poderíamos definir como a fração de erros dos erros do algoritmo, em instâncias de problemas do tamanho n . Então, poderíamos calcular o limite de r n como n → ∞ , se esse limite existir. Isso fariarnnrnn → ∞seja bem definido (se o limite existir). No entanto, na maioria dos casos, isso pode não ser muito útil. Em particular, assume implicitamente uma distribuição uniforme nas instâncias de problemas. No entanto, no mundo real, a distribuição real nas instâncias de problemas pode não ser uniforme - geralmente está muito longe de ser uniforme. Consequentemente, o número que você obtém dessa maneira geralmente não é tão útil quanto você poderia esperar: geralmente dá uma impressão enganosa de quão bom é o algoritmo.
Para saber mais sobre como as pessoas lidam com a intratabilidade (dureza do NP), dê uma olhada em Lidando com o intratabilidade: problemas completos do NP .