No aprendizado de máquina, podemos usar a área sob a curva ROC (frequentemente AUC abreviada ou AUROC) para resumir o quão bem um sistema pode discriminar entre duas categorias. Na teoria de detecção de sinal, frequentemente o (índice de sensibilidade) é usado para uma finalidade semelhante. Os dois estão intimamente ligados, e acredito que são equivalentes entre si se certas suposições forem satisfeitas .
O cálculo é geralmente apresentado com base no pressuposto de distribuições normais para as distribuições de sinal (veja o link da Wikipedia acima, por exemplo). O cálculo da curva ROC não faz essa suposição: é aplicável a qualquer classificador que produz um critério de decisão de valor contínuo que pode ser limiar.
A Wikipedia diz que é equivalente a 2 AUC - 1 . Isso parece correto se as suposições de ambos forem satisfeitas; mas se as suposições não são as mesmas, não é uma verdade universal.
É justo caracterizar a diferença de premissas como "AUC faz menos premissas sobre as distribuições subjacentes"? Ou realmente tão amplamente aplicável quanto a AUC, mas é apenas prática comum que as pessoas que usam d ' tendem a usar o cálculo que assume distribuições normais? Existem outras diferenças nas suposições subjacentes que eu perdi?