Existem muitos - e o que funciona melhor depende dos dados. Existem também várias maneiras de trapacear - por exemplo, você pode executar a calibração de probabilidade nas saídas de qualquer classificador que dê uma aparência de pontuação (ou seja: um produto escalar entre o vetor de peso e a entrada). O exemplo mais comum disso é chamado de escala de Platt.
Há também a questão da forma do modelo subjacente. Se você tiver interações polinomiais com seus dados, a regressão logística de baunilha não poderá modelá-los bem. Mas você pode usar uma versão do kernel da regressão logística para que o modelo se ajuste melhor aos dados. Isso geralmente aumenta a "qualidade" das saídas de probabilidade, pois você também está melhorando a precisão do classificador.
Geralmente, a maioria dos modelos que fornecem probabilidades geralmente usa uma função logística, portanto pode ser difícil comparar. Apenas tende a funcionar bem na prática, as redes bayesianas são uma alternativa. Naive Bayes apenas faz uma suposição simplista demais para que suas probabilidades sejam boas - e isso é facilmente observado em qualquer conjunto de dados de tamanho razoável.
No final, geralmente é mais fácil aumentar a qualidade de suas estimativas de probabilidade, escolhendo o modelo que pode representar melhor os dados. Nesse sentido, não importa muito como você obtém as probabilidades. Se você conseguir 70% de precisão com regressão logística e 98% com um SVM - apenas fornecer uma probabilidade de "total confiança" fará com que os resultados sejam "melhores" pela maioria dos métodos de pontuação, mesmo que não sejam realmente probabilidades (e então você pode fazer a calibração que mencionei antes, tornando-a realmente melhor).
A mesma pergunta no contexto de não conseguir obter um classificador preciso é mais interessante, mas não tenho certeza se alguém estudou / comparou nesse cenário.