Perguntas com a marcação «model-evaluation»

Na avaliação de modelos, dentro ou fora da amostra.

7
Por que a precisão não é a melhor medida para avaliar modelos de classificação?
Essa é uma pergunta geral que foi feita indiretamente várias vezes aqui, mas falta uma única resposta autoritativa. Seria ótimo ter uma resposta detalhada para isso para referência. A precisão , a proporção de classificações corretas entre todas as classificações, é uma medida muito simples e muito "intuitiva", mas pode …


5
Implementações otimizadas do algoritmo Random Forest
Notei que existem algumas implementações de floresta aleatória, como ALGLIB, Waffles e alguns pacotes R, como randomForest. Alguém pode me dizer se essas bibliotecas são altamente otimizadas? Eles são basicamente equivalentes às florestas aleatórias, conforme detalhado em Os elementos do aprendizado estatístico, ou foram adicionados muitos truques extras? Espero que …

3
Como selecionar um método de clustering? Como validar uma solução de cluster (para garantir a escolha do método)?
Um dos maiores problemas com a análise de cluster é que podemos ter que tirar conclusões diferentes quando baseamos nos diferentes métodos de cluster usados ​​(incluindo diferentes métodos de ligação no cluster hierárquico). Gostaria de saber sua opinião sobre isso - qual método você selecionará e como. Pode-se dizer "o …


3
Avaliação da regressão logística e interpretação da qualidade de ajuste de Hosmer-Lemeshow
Como todos sabemos, existem 2 métodos para avaliar o modelo de regressão logística e eles estão testando coisas muito diferentes Poder preditivo: Obtenha uma estatística que mede o quão bem você pode prever a variável dependente com base nas variáveis ​​independentes. Os bem conhecidos Pseudo R ^ 2 são McFadden …

3
Métricas de classificação / avaliação para dados altamente desequilibrados
Eu lido com um problema de detecção de fraude (como pontuação de crédito). Como tal, existe uma relação altamente desequilibrada entre observações fraudulentas e não fraudulentas. http://blog.revolutionanalytics.com/2016/03/com_class_eval_metrics_r.html fornece uma excelente visão geral das diferentes métricas de classificação. Precision and Recallou kappaambos parecem ser uma boa escolha: Uma maneira de justificar …




2
Relação entre os coeficientes de correlação phi, Matthews e Pearson
Os coeficientes de correlação phi e Matthews são o mesmo conceito? Como eles estão relacionados ou equivalentes ao coeficiente de correlação de Pearson para duas variáveis ​​binárias? Presumo que os valores binários sejam 0 e 1. A correlação de Pearson entre duas variáveis aleatórias de Bernoulli e y é:xxxyyy ρ=E[(x−E[x])(y−E[y])]Var[x]Var[y]−−−−−−−−−−√=E[xy]−E[x]E[y]Var[x]Var[y]−−−−−−−−−−√=n11n−n1∙n∙1n0∙n1∙n∙0n∙1−−−−−−−−−−√ρ=E[(x−E[x])(y−E[y])]Var[x]Var[y]=E[xy]−E[x]E[y]Var[x]Var[y]=n11n−n1∙n∙1n0∙n1∙n∙0n∙1 …


1


5
Por que f beta score define beta assim?
Esta é a pontuação F beta: Fβ=(1+β2)⋅precision⋅recall(β2⋅precision)+recallFβ=(1 1+β2)⋅precEusEuon⋅recumaeueu(β2⋅precEusEuon)+recumaeueuF_\beta = (1 + \beta^2) \cdot \frac{\mathrm{precision} \cdot \mathrm{recall}}{(\beta^2 \cdot \mathrm{precision}) + \mathrm{recall}} O artigo da Wikipedia afirma que .FβFβF_\beta "measures the effectiveness of retrieval with respect to a user who attaches β times as much importance to recall as precision" Eu não …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.