Perguntas com a marcação «agreement-statistics»


2
Confiabilidade entre avaliadores para dados ordinais ou com intervalo
Quais métodos de confiabilidade entre avaliadores são mais apropriados para dados ordinais ou com intervalo? Eu acredito que "Probabilidade conjunta de concordância" ou "Kappa" são projetadas para dados nominais. Embora "Pearson" e "Spearman" possam ser usados, eles são usados ​​principalmente para dois avaliadores (embora possam ser usados ​​para mais de …


2
Confiabilidade entre avaliadores de eventos em uma série temporal com incerteza sobre o horário do evento
Eu tenho vários codificadores independentes que estão tentando identificar eventos em uma série temporal - nesse caso, assistindo a vídeos de conversas pessoais e procurando comportamentos não-verbais específicos (por exemplo, acenos de cabeça) e codificando a hora e a categoria de cada um. evento. Esses dados podem ser razoavelmente tratados …

2
Como posso usar esses dados para calibrar marcadores com diferentes níveis de generosidade na classificação dos trabalhos dos alunos?
12 professores estão ensinando 600 alunos. As 12 coortes ensinadas por esses professores variam em tamanho de 40 a 90 alunos, e esperamos diferenças sistemáticas entre as coortes, já que os alunos de pós-graduação foram desproporcionalmente alocados a coortes particulares, e experiências anteriores mostraram que os alunos de pós-graduação, em …

1
Computando a confiabilidade entre avaliadores em R com número variável de classificações?
A Wikipedia sugere que uma maneira de analisar a confiabilidade entre avaliadores é usar um modelo de efeitos aleatórios para calcular a correlação intraclasse . O exemplo da correlação intraclasse fala sobre olhar para σ2ασ2α+σ2ϵσα2σα2+σϵ2\frac{\sigma_\alpha^2}{\sigma_\alpha^2+\sigma_\epsilon^2} de um modelo Yeu j= μ + αEu+ ϵeu jYEuj=μ+αEu+ϵEujY_{ij} = \mu + \alpha_i + …

4
Coeficiente de correlação de Matthews com multi-classe
O coeficiente de correlação de Matthews ( ) é uma medida para medir a qualidade de uma classificação binária ([Wikipedia] [1]). formulação é fornecida para classificação binária utilizando valores de positivos verdadeiros ( ), falsos positivos ( ), falsos negativos ( ) e negativos verdadeiros ( ), conforme indicado abaixo:MCCMCC\textrm{MCC}MCCMCC\textrm{MCC} …

3
Como executar SVD para atribuir valores ausentes, um exemplo concreto
Eu li os ótimos comentários sobre como lidar com valores ausentes antes de aplicar o SVD, mas gostaria de saber como ele funciona com um exemplo simples: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Dada a matriz …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 

1
Como executar a confiabilidade entre avaliadores com vários avaliadores, diferentes avaliadores por participante e possíveis alterações ao longo do tempo?
Os participantes foram classificados duas vezes, com as duas classificações separadas por três anos. Para a maioria dos participantes, as classificações foram feitas por avaliadores diferentes, mas para alguns (<10%) o mesmo avaliador realizou as duas classificações. No total, foram oito avaliadores, com dois fazendo avaliações nos dois momentos. Agora, …


Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.