Em um caso de 2 hipóteses, a matriz de confusão é geralmente:
| Declare H1 | Declare H0 |
|Is H1 | TP | FN |
|Is H0 | FP | TN |
onde eu usei algo semelhante à sua notação:
- TP = verdadeiro positivo (declarar H1 quando, na verdade, H1),
- FN = falso negativo (declarar H0 quando, na verdade, H1),
- FP = falso positivo
- TN = verdadeiro negativo
A partir dos dados brutos, os valores na tabela normalmente seriam as contagens para cada ocorrência nos dados de teste. A partir disso, você deve poder calcular as quantidades necessárias.
Editar
A generalização para problemas de várias classes é somar sobre linhas / colunas da matriz de confusão. Dado que a matriz está orientada como acima, ou seja, que uma determinada linha da matriz corresponde a um valor específico para a "verdade", temos:
Precision i=Mii∑jMji
Recall i=Mii∑jMij
Ou seja, precisão é a fração de eventos em que declaramos corretamente
de todas as instâncias em que o algoritmo declarou . Por outro lado, recordar é a fração de eventos em que declaramos corretamente de todos os casos em que o verdadeiro estado do mundo é .iiii