No aprendizado computacional, o teorema da NFL afirma que não existe um aprendiz universal. Para todo algoritmo de aprendizado, existe uma distribuição que causa ao aluno uma hipotese com um grande erro, com alta probabilidade (embora exista um baixo índice de erro). A conclusão é que, para aprender, a classe de hipoteses ou as distribuições devem ser restritas. Em seu livro "Uma teoria probabilística do reconhecimento de padrões", Devroye et al. Provam o seguinte theroem para o aluno mais próximo de K:
Onde