Hay muchos, y lo que funciona mejor depende de los datos. También hay muchas formas de hacer trampa: por ejemplo, puede realizar una calibración de probabilidad en las salidas de cualquier clasificador que proporcione cierta apariencia de una puntuación (es decir, un producto de punto entre el vector de peso y la entrada). El ejemplo más común de esto se llama escalamiento de Platt.
También está la cuestión de la forma del modelo subyacente. Si tiene interacciones polinómicas con sus datos, entonces la regresión logística vainilla no podrá modelarla bien. Pero podría usar una versión kernelled de regresión logística para que el modelo se ajuste mejor a los datos. Esto generalmente aumenta la "bondad" de las salidas de probabilidad ya que también está mejorando la precisión del clasificador.
En general, la mayoría de los modelos que dan probabilidades usualmente usan una función logística, por lo que puede ser difícil de comparar. Simplemente tiende a funcionar bien en la práctica, las redes bayesianas son una alternativa. Naive Bayes simplemente hace una suposición demasiado simplista para que sus probabilidades sean buenas, y eso se observa fácilmente en cualquier conjunto de datos de tamaño razonable.
Al final, generalmente es más fácil aumentar la calidad de sus estimaciones de probabilidad eligiendo el modelo que pueda representar mejor los datos. En este sentido, no importa demasiado cómo obtienes las probabilidades. Si puede obtener un 70% de precisión con la regresión logística y un 98% con un SVM, entonces solo dar una probabilidad de "plena confianza" hará que los resultados sean "mejores" con la mayoría de los métodos de puntuación, aunque en realidad no sean probabilidades (y entonces puedes hacer la calibración que mencioné antes, haciéndolos realmente mejores).
La misma pregunta en el contexto de no poder obtener un clasificador preciso es más interesante, pero no estoy seguro de que alguien haya estudiado / comparado en tal escenario.